인텔® Gaudi® AI 가속기
1세대 딥 러닝 훈련 및 추론 프로세서.
인텔® Gaudi® AI 가속기
클라우드 및 온프레미스 최고의 가격 성능
1세대 인텔® Gaudi® AI 프로세서를 사용하면, 고객은 동급 GPU에 비견할 대안으로 가장 비용 효율적인 고성능 훈련 및 추론의 이점을 누릴 수 있습니다. 이는 인텔 Gaudi AI 가속기 기반 AWS DL1 인스턴스가 동급의 Nvidia GPU 기반 인스턴스에 비해 최대 40% 더 높은 가격 대비 성능 훈련을 제공할 수 있도록 지원하는 딥 러닝 아키텍처입니다. 인텔 Gaudi AI 가속기의 효율적인 아키텍처는 또한 인텔 Gaudi AI 가속기가 장착된 Supermicro X12 Server 탑재 GPU 기반 서버와 비교했을 때 Supermicro가 동등하게 큰 가격 대비 성능 이점을 고객에게 제공할 수 있도록 합니다.
클라우드의 인텔® Gaudi® AI 가속기
인텔 Gaudi AI 가속기 기반 Amazon EC2 DL1 인스턴스로 시작하십시오.
데이터 센터의 인텔® Gaudi® AI 가속기
Supermicro로 데이터 센터에 인텔 Gaudi AI 프로세서를 구축하십시오.
인텔 Gaudi AI 가속기가 이렇게나 효율적인 이유는 무엇입니까?
- 16nm 프로세스 기술
- DL 최적화 행렬 곱셈 엔진
- 프로그래밍 가능한 8개의 텐서 프로세서 코어
- 32GB 온보드 HBM2
- 24 SRAM
- 10개의 통합 100G 이더넷 포트
온프레미스 인텔 Gaudi AI 가속기 시스템 구축 옵션
온프레미스 시스템을 구축하려는 고객에게는 8개의 인텔 Gaudi AI 프로세서가 장착된 Supermicro X12 Server를 추천합니다. 인텔 Gaudi AI 가속기로 구동하는 자체 서버를 구성하려는 고객을 위해 인텔은 참조 모델 옵션인 HLS-1 및 HLS-1H를 제공합니다.
인텔 Gaudi AI 가속기에서의 개발을 빠르고 쉽게: 인텔® Gaudi® 소프트웨어
딥 러닝 모델 개발의 최적화와 인텔 Gaudi AI 플랫폼 하드웨어로 기존 GPU 기반 모델의 쉬운 마이그레이션 PyTorch와 TensorFlow 프레임워크를 통합하고, 급성장하는 컴퓨터 비전, 자연어 처리 및 다중 모달 모델을 지원합니다. 실제로 Hugging Face의 50만 개가 넘는 모델은 Habana Optimum 소프트웨어 라이브러리가 있는 인텔 Gaudi 가속기에서 쉽게 활성화할 수 있습니다.
모델 마이그레이션은 코드 2줄을 추가하는 것만큼이나 간단하며, 인텔 Gaudi 플랫폼은 자체 커널을 프로그래밍하려는 전문 사용자에게 이를 위한 전체 도구 키트와 라이브러리도 제공합니다. 인텔 Gaudi 소프트웨어는 1세대 인텔 Gaudi 가속기 및 인텔 Gaudi 2 가속기에서 모델 훈련 및 추론을 지원합니다.
인텔 Gaudi 플랫폼이 어떻게 Gaudi에서 기존 모델을 마이그레이션하거나 새 모델을 구축하는 것을 쉽게 하는지 자세히 알아보려면 인텔 Gaudi 소프트웨어 제품 페이지를 참조하십시오 >