소개
이 패키지에는 Linux*, Windows* 및 macOS*용 OpenVINO™ Toolkit 소프트웨어 버전 2025.3의 인텔® Distribution 포함되어 있습니다.
사용 가능한 다운로드
- Debian Linux*
- 크기: 35.1 MB
- SHA256: FB0F02F103A382E2638C57D8DB61BD62A52F2652E8A1B91D0919C23DF75F6AB9
- Ubuntu 22.04 LTS*
- 크기: 38.5 MB
- SHA256: 470F5C0FFBBF7C6983BD73C9CABF540FBC869043F5CC12F296E26011089464C0
- Ubuntu 22.04 LTS*
- 크기: 58.9 MB
- SHA256: D701A115D3DC18088FF75B5B8E67A51FBF780022A3D40EE8EE7F2ADFBD9915E6
- Ubuntu 24.04 LTS*
- 크기: 60 MB
- SHA256: DE0D5E16B161EFEA013A5C017E3B2BCE1191CA009A1947D392CCAB8ED9D0F6E4
- Red Hat Enterprise Linux 8*
- 크기: 66 MB
- SHA256: 3D12347F8C02BDD86F58D5A75D7D18B7CFC60D558C14A58B525F4657D5440F31
- CentOS 7 (2003)*
- 크기: 60 MB
- SHA256: 024348AE17CAE41E03F3DF495AEC78AC9C293781DB37338327AB9190ECAB795B
- macOS*
- 크기: 39.7 MB
- SHA256: AEFCF28DEEDE2F6FD470C6218D0C9CCD47268C428E7B22B758FC087ECB35C184
- macOS*
- 크기: 48.5 MB
- SHA256: 0CAA9758E09D7AE1F4783365DF91D4BB4DCF0DDFC9C3AD4E3AFFB8433172D41C
- Windows 11 Family*, Windows 10 Family*
- 크기: 122.1 MB
- SHA256: 05685C652E85F92AD17572EC2800EA6D0B96C9B7FF645299AD2BA09D1AFB17B4
- Windows 11 Family*, Windows 10 Family*
- 크기: 655.3 MB
- SHA256: C9252D1B056483275A5FDFCD663010A745C1A9DFAA5B1203C81F9E26B0956E22
세부 설명
새로운 기능
- 코드 변경을 최소화하기 위한 더 많은 Gen AI 적용 범위 및 프레임워크 통합
- 지원되는 새 모델: Phi-4-mini-reasoning, AFM-4.5B, Gemma-3-1B-it, Gemma-3-4B-it 및 Gemma-3-12B.
- NPU 지원 추가: Qwen3-1.7B, Qwen3-4B 및 Qwen3-8B.
- NPU에 최적화된 LLM은 이제 OpenVINO Hugging Face 컬렉션에서 사용할 수 있습니다.
- 미리보기: 인텔® Core™ Ultra 프로세서 및 Windows 기반 AI PC는 이제 Windows* ML용 OpenVINO™ 실행 공급자를 활용하여 Windows*에서 고성능의 기성 시작 환경을 제공할 수 있습니다.
- 광범위한 LLM 모델 지원 및 더 많은 모델 압축 최적화 기술
- NPU 플러그인은 향상된 LLM 성능을 위해 최대 8K 토큰, 동적 프롬프트 및 동적 LoRA의 더 긴 컨텍스트에 대한 지원을 추가합니다.
- NPU 플러그인은 이제 모델을 배치 크기 1로 재구성하고 여러 추론 요청을 동시에 관리하여 성능을 향상시키고 메모리 사용률을 최적화하여 동적 배치 크기를 지원합니다.
- 내장 및 개별 그래픽 모두에서 GenAI 모델의 정확도 향상은 기존 KV 캐시/토큰 압축 방법 외에도 채널당 키 캐시 압축 기술의 구현을 통해 달성되었습니다.
- OpenVINO™ GenAI는 검색 관련성 및 RAG 파이프라인 정확도를 개선하기 위해 TextRerankPipeline을 도입하고, 사전 정의된 형식을 준수하면서 응답 안정성 및 함수 호출을 개선하기 위해 구조화된 출력을 도입했습니다.
- 에지, 클라우드 또는 로컬에서 AI를 실행할 수 있는 향상된 이동성 및 성능
- 인텔® Arc™ Pro B-시리즈(B50 및 B60)에 대한 지원을 발표합니다.
- 미리보기: OpenVINO GenAI에 대해 GGUF를 지원하는 Hugging Face 모델은 이제 DeepSeek Distill, Qwen2, Qwen2.5 및 Llama 3와 같은 인기 있는 LLM 모델 아키텍처에 대한 OpenVINO™ Model Server에서 지원됩니다. 이 기능은 메모리 공간을 줄이고 GenAI 워크로드를 위한 통합을 간소화합니다.
- 안정성과 툴 호출 정확도가 향상된 OpenVINO™ Model Server는 AI PC에서 에이전트 AI 사용 사례에 대한 지원을 강화하는 동시에 Intel CPU, 내장 GPU 및 NPU의 성능을 향상시킵니다.
- 이제 ONNX 모델용 NNCF(신경망 압축 프레임워크)에서 지원되는 int4 데이터 인식 가중치 압축은 정확성을 유지하면서 메모리 공간을 줄이고 리소스가 제한된 환경에서 효율적인 배포를 가능하게 합니다.
모든 세부 정보를 확인하십시오. 2025.3 릴리스 정보를 참조하십시오.
설치 지침
운영 체제에 따라 아카이브*에서 OpenVINO™ 런타임을 설치하는 방법을 선택할 수 있습니다.
다운로드 패키지(아카이브 파일)에 포함된 내용
- C/C++ 및 Python API 모두 제공
- 또한 코드 샘플이 포함되어 있습니다.
유용한 링크
참고: 링크가 새 창에서 열립니다.
면책 조항1
제품 및 성능 정보
인텔은 현재 문서와 사용자 인터페이스, 코드에서 포괄적이지 않은 언어를 제거하고 있습니다. 소급 변경이 항상 가능한 것은 아니며, 일부 포괄적이지 않은 언어가 예전 문서와 사용자 인터페이스, 코드에 남아 있을 수 있습니다.
이 페이지의 콘텐츠는 원본 영어 콘텐츠에 대한 사람 번역 및 컴퓨터 번역의 조합으로 완성되었습니다. 이 콘텐츠는 편의와 일반적인 정보 제공을 위해서만 제공되었으며, 완전하거나 정확한 것으로 간주되어선 안 됩니다. 이 페이지의 영어 버전과 번역 간 모순이 있는 경우, 영어 버전이 우선적으로 적용됩니다. 이 페이지의 영어 버전을 확인하십시오.