소개
이 패키지에는 Linux*, Windows* 및 macOS*용 OpenVINO™ Toolkit 소프트웨어 버전 2025.0의 인텔® Distribution 포함되어 있습니다.
사용 가능한 다운로드
- Debian Linux*
- 크기: 31.8 MB
- SHA256: 7C821B3DF2EA1A5962D4BE07867DFED226B702AC7F2CFED74D544D9B35DCE818
- CentOS 7 (1908)*
- 크기: 56.4 MB
- SHA256: C34B7EB9094D618F58B0628B5EC9CA6F1FF49674F4D95FD3772C389B8C037A57
- Red Hat Enterprise Linux 8*
- 크기: 61.3 MB
- SHA256: CEB682A4DF4B8A86157686902EBC31FC4927849A708B0B8BB111D475C2A9ECCB
- Ubuntu 20.04 LTS*
- 크기: 64.5 MB
- SHA256: 622D5D1B710862659BA530ECC7AA2B9C6F1D84C12819D208F68178474791A2ED
- Ubuntu 20.04 LTS*
- 크기: 35.6 MB
- SHA256: D4282BC95F615EFB21646031ACCDEEBC6B4544452996C15DB3A6483FC46AE396
- Ubuntu 22.04 LTS*
- 크기: 55.4 MB
- SHA256: 09E8127DAF7EF42851F0C724CE93181B9256568BB6FC8E79CC8F33F4AB6D6F3E
- 크기: 56.5 MB
- SHA256: E1681AA6CA02765A5F422EBFF6FD86EBD2C6C0EBD4EFB4E04DDA0EDB79EA30BB
- macOS*
- 크기: 46.2 MB
- SHA256: 59BA68B752BE3C298DF45AFD55428A872B39C35813A3C53697CF49591A843D2C
- macOS*
- 크기: 36.4 MB
- SHA256: 1628F809540D9A2AB22DFB48B2EA815C75E49EF9AE436AB29412F868886F05F5
- Windows 11*, Windows 10*
- 크기: 117.6 MB
- SHA256: B6D96E6ED184A499C054C07BE8619946B4F851F60BF725077E9683FE14719E2B
세부 설명
새로운 기능
- 코드 변경을 최소화하기 위해 더 많은 GenAI 적용 범위 및 프레임워크 통합.
- 지원되는 새로운 모델: Qwen 2.5, Deepseek-R1-Distill-Llama-8B, DeepSeek-R1-Distill-Qwen-7B, DeepSeek-R1-Distill-Qwen-1.5B, FLUX.1 Schnell 및 FLUX.1 Dev.
- Whisper Model: GenAI API를 통해 CPU, 내장 GPU 및 개별 GPU의 성능이 향상되었습니다.
- 미리보기: torch.compile에 대한 NPU 지원을 도입하여 개발자가 OpenVINO 백엔드를 사용하여 NPU에서 PyTorch API를 실행할 수 있는 기능을 제공합니다. TorchVision, Timm 및 TorchBench 리포지토리에서 지원되는 300+ 딥 러닝 모델.
- 광범위한 LLM(Large Language Model) 지원 및 더 많은 모델 압축 기술.
- 미리보기: GenAI API에 프롬프트 조회를 추가하면 의도한 사용 사례와 일치하는 사전 정의된 프롬프트를 효과적으로 활용하여 LLM의 2차 토큰 대기 시간이 개선됩니다.
- 미리보기: GenAI API는 이제 이미지-이미지 인페인팅 기능을 제공합니다. 이 기능을 통해 모델은 지정된 수정 사항을 인페인팅하고 원본 이미지와 원활하게 통합하여 사실적인 콘텐츠를 생성할 수 있습니다.
- 이제 CPU의 INT8에 대해 비대칭 KV 캐시 압축이 활성화되어 특히 상당한 메모리가 필요한 긴 프롬프트를 처리할 때 메모리 소비가 줄어들고 두 번째 토큰 대기 시간이 개선됩니다. 옵션은 사용자가 명시적으로 지정해야 합니다.
- 이동성과 성능 향상으로 에지, 클라우드 또는 로컬에서 AI를 실행할 수 있습니다.
- 최신 인텔® Core™ Ultra 200H 시리즈 프로세서(이전 코드명 Arrow Lake-H) 지원
- OpenVINO™ 백엔드와 Triton 추론 서버의 통합을 통해 개발자는 Intel CPU에 배포할 때 Triton 서버를 활용하여 향상된 모델 제공 성능을 얻을 수 있습니다.
- 미리보기: 새로운 OpenVINO™ 백엔드 통합을 통해 개발자는 Keras 3 워크플로 내에서 직접 OpenVINO 성능 최적화를 활용하여 CPU, 내장 GPU, 개별 GPU 및 NPU에서 더 빠른 AI 추론을 수행할 수 있습니다. 이 기능은 최신 Keras 3.8 릴리스에서 사용할 수 있습니다.
- OpenVINO Model Server는 이제 기본 Windows Server 배포를 지원하므로 개발자는 컨테이너 오버헤드를 제거하고 GPU 배포를 간소화하여 더 나은 성능을 활용할 수 있습니다.
이제 더 이상 사용되지 않습니다.
- 레거시 접두사 l_, w_ 및 m_이 OpenVINO 아카이브 이름에서 제거되었습니다.
- Python API의 런타임 네임스페이스는 더 이상 사용되지 않는 것으로 표시되었으며 2026.0에서 제거되도록 지정되었습니다. 새 네임스페이스 구조가 제공되었으며 즉시 마이그레이션이 가능합니다. 자세한 내용은 경고 및 문서를 통해 전달됩니다.
- NNCF create_compressed_model() 메서드는 더 이상 사용되지 않습니다. nncf.quantize() 메서드는 이제 PyTorch 및 TensorFlow 모델의 양자화 인식 학습에 권장됩니다.
설치 지침
운영 체제에 따라 OpenVINO™ 런타임 설치 방법을 선택할 수 있습니다.
다운로드 패키지에 포함된 내용
- C/C++ 및 Python API용 OpenVINO™ 런타임/추론 엔진
유용한 링크
메모: 링크가 새 창에서 열립니다.
이 다운로드는 아래 나온 제품에 적용할 수 있습니다.
면책 조항1
제품 및 성능 정보
인텔은 현재 문서와 사용자 인터페이스, 코드에서 포괄적이지 않은 언어를 제거하고 있습니다. 소급 변경이 항상 가능한 것은 아니며, 일부 포괄적이지 않은 언어가 예전 문서와 사용자 인터페이스, 코드에 남아 있을 수 있습니다.
이 페이지의 콘텐츠는 원본 영어 콘텐츠에 대한 사람 번역 및 컴퓨터 번역의 조합으로 완성되었습니다. 이 콘텐츠는 편의와 일반적인 정보 제공을 위해서만 제공되었으며, 완전하거나 정확한 것으로 간주되어선 안 됩니다. 이 페이지의 영어 버전과 번역 간 모순이 있는 경우, 영어 버전이 우선적으로 적용됩니다. 이 페이지의 영어 버전을 확인하십시오.