인텔, 가우디 3, AI 개방형 시스템 전략 및 신규 고객 확보를 통해 엔터프라이즈 AI 촉발

인텔, 비전 2024에서 신규 고객, 파트너 공개 및 AI 전반에 걸친 협업 통해 개방적이고, 더 안전한 기업용 AI 구현에 올인

뉴스

  • 2024년 4월 9일

  • 인텔 PR에 문의하기

  • 인텔 뉴스룸 소셜 미디어 팔로우:

    Twitter 로고
    YouTube 아이콘

author-image

기준

주요 발표:

 

  • 인텔, 모든 AI 부문에 적용 가능한 개방적이고 확장 가능한 시스템으로 포괄적인 기업용 AI 전략 공개
  • 엔비디아 H100 대비 평균 50% 더 뛰어난 추론성능1, 평균 40% 더 우수한 전력 효율성2 및 더 뛰어난 가성비를 제공하는 인텔® 가우디® 3 (Intel® Gaudi® 3) AI 가속기 발표
  • 델 테크놀로지스, HPE, 레노버 및 슈퍼마이크로 포함 주요 OEM 인텔 가우디 3 탑재 발표 - AI 데이터 센터 시장 공략 확대
  • 네이버, 바르티 에어텔(Bharti Airtel), 보쉬(Bosch), CtrlS, IBM, IFF, 랜딩 AI(Landing AI), Ola, 닐슨IQ(NielsenIQ), 로보플로(Roboflow), 시커(Seekr) 등 신규 인텔 가우디 가속기 고객 및 협력 발표
  • 인텔은 SAP, 레드햇(Red Hat), VMware 및 업계 리더들과 함께 RAG(검색 증강 생성)을 통해 지원되는 안전한 생성형 AI 시스템 배포를 가속화하기 위해 기업용 AI 시장을 위한 개방형 플랫폼 조성 의지 피력
  • 인텔은 UEC(Ultra Ethernet Consortium)와 협력하여 AI 패브릭을 위한 개방형 이더넷 네트워킹을 선도하고 있으며 AI NIC(네트워크 인터페이스 카드), AI 연결 칩렛을 포함, AI에 최적화된 일련의 이더넷 솔루션 소개 AI NIC(네트워크 인터페이스 카드) 및 AI 연결 칩렛을 포함하여 AI에 최적화된 이더넷 솔루션 어레이 출시

 

2024 년 4월 11일 서울 – 인텔의 연례 고객 및 파트너 컨퍼런스인 인텔 비전 2024(Intel Vision 2024)에서 인텔은 기업용 생성형 AI(GenAI)를 위한 성능, 개방성 및 선택권을 제공할 인텔 가우디 3(Intel Gaudi 3) 가속기와 함께 생성형 AI 도입 가속화를 위한 새로운 개방형 스케일러블 시스템 스위트, 차세대 제품 및 전략적 협력을 발표했다 지난해 생성형 AI 프로젝트를 성공적으로 업무에 도입한 기업이 10%에 불과한 가운데, 인텔의 최신 제품들은 기업이 AI 이니셔티브를 확장하는데 직면한 도전 과제에 대응할 수 있다.

인텔 CEO 팻 겔싱어(Pat Gelsinger)는 “혁신은 전례없는 속도로 발전하고 있으며, 반도체가 이 모든 것을 가능하게 한다. 또한 모든 기업이 빠르게 AI 기업으로 거듭나고 있다”라며 라며 “인텔은 PC부터 데이터센터, 엣지에 이르기까지 기업 전반의 모든 곳에 AI를 가능하게 하고 있다.  인텔의 최신 가우디, 제온 및 코어 Ultra 플랫폼은 변화하는 고객과 파트너의 요구를 충족하고 앞으로의 엄청난 기회를 활용할 수 있도록 유연한 솔루션 세트를 제공하고 있다”고 밝혔다.

더 보기: Intel Vision 2024 (프레스 키트) | Intel Vision 2024 기조연설 (라이브스트림) | 인텔, Gaudi 3로 GenAI 격차 해소 (뉴스)

기업은 생성형 AI를 파일럿 단계에서 업무에 적용하는 것으로 확장하고자 한다. 이를 위해서는 복잡성, 단편화, 데이터 보안 및 규정 준수 요구 사항을 해결하면서 인텔 가우디 3(Intel Gaudi 3) AI 가속기와 같이 성능, 비용 및 전력 효율성이 뛰어난 프로세서를 기반으로 구축된 즉시 도입 가능한 솔루션이 필요하다.

AI 학습 및 추론용 가우디 3 발표

인텔 가우디 3 AI 가속기는 공통 표준을 따르는 이더넷을 통해 최대 수만 개의 가속기를 연결해 AI 시스템을 구동한다. 인텔 가우디 3는 BF16에 대해 4배 더 많은 AI 컴퓨팅 및 기존 모델 대비 1.5배 커진 메모리 대역폭을 지원한다. 이 가속기는 생성형 AI를 대규모로 배포하려는 글로벌 기업에게 AI 학습 및 추론 분야에서 획기적인 도약을 지원할 수 있다.

엔비디아 H100과 비교하여 인텔 가우디 3는 70억개 및 130억개의 매개변수가 있는 라마2(Llama2) 모델과 GPT-3 1750억개 매개변수 모델 전체에서 평균3 50% 더 빠른 학습 시간을 제공할 것으로 예상한다. 또한 인텔 가우디 3 가속기 추론 처리량은 평균적으로 H100보다 50%1, 전력 효율성의 경우 라마(Llama) 70억개 및 700억개 매개변수와 팔콘(Falcon) 1800억개 매개변수 모델에서 평균 40% 더 우수할 것으로 예상한다2.

인텔 가우디 3는 개방형 커뮤니티 기반 소프트웨어와 업계 표준 이더넷 네트워킹을 제공한다.  또한 기업은 싱글 노드에서 클러스터, 슈퍼 클러스터, 수천 개의 노드가 있는 메가 클러스터로 유연하게 확장할 수 있으며, 최대 규모의 추론, 미세 조정 및 학습을 지원한다.

인텔 가우디 3는 2024년 2분기에 델 테크놀로지스(Dell Technologies), HPE, 레노버(Lenovo), 슈퍼마이크로(Supermicro)를 비롯한 OEM 시스템에 탑재될 예정이다.

더 자세한 사항은 가우디 3 보도자료에서 확인할 수 있다.

인텔 AI 솔루션으로 고객 가치 창출

인텔은 하드웨어, 소프트웨어, 프레임워크, 툴 등을 포함한 개방형 스케일러블 AI 시스템에 대한 전략을 제시했다.  인텔의 이러한 접근법은 기업별 생성형 AI(GenAI) 요구 사항을 충족하는 솔루션을 제공하기 위함으로 다양하고 개방적인 AI 생태계를 가능케 한다.  여기에는 장비 제조업체, 데이터베이스 공급자, 시스템 통합업체, 소프트웨어 및 서비스 공급자 등이 포함된다.  또한, 기업 고객이 이미 알고 신뢰하는 생태계 파트너 및 솔루션을 활용할 수 있는 부분도 장점으로 꼽힌다.

인텔은 다양한 업계의 기업 고객 및 파트너들과 새롭고 혁신적인 생성형 AI 응용 프로그램을 개발하기 위해 인텔 가우디를 활용해 협력하고 있음을 밝혔다:

 

  • 네이버(NAVER): 클라우드에서부터 온디바이스까지 첨단 AI 서비스를 전세계에 배포하기 위해 강력한 LLM 모델을 개발,  네이버는 대규모 트랜스포머(Transformer) 아키텍쳐 기반 모델의 컴퓨팅 작업을 뛰어난 와트 당 퍼포먼스로 실행하는데 인텔 가우디의 기본 역량을 확인
  • Bosch: 자사 기반 모델 개발을 포함한 스마트 제조의 가능성을 모색, 합성 데이터 세트 생성과 더불어 자동 광학 검사와 같은 견고하고 분산된 트레이닝 세트 제공
  • IBM: watsonx.data™ 데이터 스토어에 5세대 인텔® 제온® (Intel® Xeon®) 프로세서를 적용하고 인텔과 함께 watsonx™플랫폼에 인텔 가우디 가속기 검증
  • Ola/Krutrim: 10개의 언어로 인도 최초의 생성형 AI 역량을 갖춘 기초 모델을 훈련하고 업데이트하여 시장 대비 1.5배에서 2배 더 비용 및 성능 효율적인 솔루션 제공,  크루트림은 인텔® 가우디 2® 클러스터를 통해 보다 큰 규모의 자사 기반 모델에 사전 학습 진행중
  • Advent International포트폴리오 회사NielsenIQ: 세계 최대의 소비자 구매 행동 데이터베이스에서 특정 분야별 LLM을 학습하게 하여 개인 정보 보호 기준을 엄격하게 준수하면서 동시에 고객 서비스 향상
  • Seekr: 신뢰할 수 있는 AI 분야의 선두 주자로서 LLM 개발 및 생산 배포를 위해 인텔® 타이버™ 개발자 클라우드(Intel® Tiber™ Developer Cloud)에서 인텔 가우디 2, 인텔 맥스 시리즈 GPU 및 인텔® 제온® 프로세서를 활용해 생산 워크로드 개선
  • IFF: 식음료, 조향 및 생물 과학 분야의 글로벌 리더로서 생성형 AI 및 디지털 트윈 기술을 통해 고급 효소 설계 및 발효 공정 최적화를 위한 통합 디지털 생물학 워크플로우 구축
  • CtrlS 그룹: 인도 기반 고객을 위한 AI 슈퍼컴퓨터 구축 및 CtrlS 클라우드 서비스를 가우디 클러스터로 확장하기 위해 협력
  • Bharti Airtel: Airtel은 인텔의 최첨단 기술을 도입, 풍부한 통신 데이터를 활용하여 AI 역량을 강화하고 고객 경험 향상시킬 계획.  이러한 구축은 기술 혁신의 선두에 서서 빠르게 진화하는 디지털 환경에서 새로운 수익원을 창출하려는 에어텔의 노력에 부응.
  • 랜딩 AI: 세포 분류 및 암 감지에 활용되는 분야별 대규모 비전 모델을 파인튜닝
  • Roboflow: 엔트-투-엔드 컴퓨터 비전 플랫폼을 위해 YOLOv5, YOLOv8, CLIP, SAM 및 ViT 모델의 생산 워크로드 실행
  • Infosys: 차세대 디지털 서비스 및 컨설팅 분야의 글로벌 리더로써 4세대 및 5세대 인텔 제온 프로세서, 인텔 가우디 2 AI 가속기 및 인텔® 코어™ Ultra(Intel® Core™ Ultra)를 포함한 인텔 기술을 생성형 AI 기술을 사용하여 비즈니스 가치를 가속화하는 AI 우선 서비스, 솔루션 및 플랫폼 세트인 인포시스 토파즈(Infosys Topaz)에 제공하기 위해 전략적 협력 발표

 

추가로 구글 클라우드(Google Cloud), 탈레스(Thales) 그리고 코히시티(Cohesity) 또한 클라우드 환경에서의 기밀 컴퓨팅 역량을 활용할 수 있도록 인텔과의 협력을 발표했다. 여기에는 인텔 TDX(Intel® Trust Domain Extensions), 인텔 SGX(Intel® Software Guard Extensions) 그리고 인텔의 보안 증명(Attestation) 기능들이 포함된다. 고객들은 신뢰할 수 있는 실행 환경(trusted execution environment, TEE)에서 AI 모델과 알고리즘을 실행하고 인텔의 기능들을 활용할 수 있다.

기업용 AI에서 개방형 플랫폼 개발을 위한 생태계 협력

인텔은 애니스케일(Anyscale), 아르큘8(Articul8), 데이터스택스(DataStax), 도미노(Domino), 허깅페이스(Hugging Face), KX 시스템즈(KX Systems), 마리아DB(MariaDB), MinIO, Qdrant, 레드햇(Red Hat), 레디스(Redis), SAP, SAS, VMware, 옐로브릭(Yellowbrick), 질리즈(Zilliz)와 협력하여 엔터프라이즈 AI를 위한 개방형 플랫폼 개발 계획을 발표했다. 업계 전반적인 이번 노력은 동급 최고의 배포의 용이성, 성능 및 가치 면에서 최고의 개방형 멀티 벤더 생성형 AI 시스템을 개발하는 것을 목표로 한다. RAG는 안전한 표준 인텔 제온 기반 솔루션에서 실행되는 기업의 방대한 기존 자산 데이터 소스를 오픈 LLM 기능을 보강함으로써 기업 내 생성형 AI 사용을 가속화할 수 있도록 지원한다.

이번 협력의 초기 단계로 인텔은 생성형 AI 파이프라인에 대한 안전한 인텔 제온 및 가우디 기반 솔루션의 레퍼런스 구현을 공개하고, 기술 개념 프레임워크(technical conceptual framework)를 게시하며, 생태계 개발, RAG 및 향후 파이프라인의 검증을 위해 인텔 타이버 개발자 클라우드(Intel Tiber Developer Cloud)에 인프라 용량을 지속적으로 추가할 것이다. 인텔은 기업의 채택과 솔루션 적용분야를 확대하고, 비즈니스 성과를 촉진하기 위한 이러한 개방적인 노력에 더 많은 생태계의 참여를 장려하고 있다.

인텔의 확장된 AI 로드맵 및 개방형 생태계 접근방식

인텔은 인텔 가우디 3 가속기 외에도 엔터프라이즈 AI의 모든 부문에 걸쳐 차세대 제품 및 서비스에 대한 업데이트를 발표했다.

새로운 인텔® 제온® 6(Intel® Xeon® 6) 프로세서: 인텔 제온 프로세서는 폐쇄적 데이터를 사용하여 비즈니스에 특화된 결과를 생성하는 RAG를 포함한 최신 생성형 AI 솔루션을 실행할 수 있는 성능 효율적인 솔루션을 제공한다. 인텔은 데이터센터, 클라우드 및 엣지용 차세대 프로세서를 위한 새로운 브랜드로 인텔 제온 6를 소개했다. 새로운 E-코어 기반 탁월한 효율성을 제공하는 인텔 제온 6 프로제서는 이번 분기 출시되며, P-코어 기반 인텔 제온 6는 향상된 AI 성능을 제공할 예정으로 E-코어 프로세서 출시에 이어 곧 출시할 예정이다.

 

  • E-코어 기반 인텔 제온 6 프로세서(코드명 시에라 포레스트):
    • 2세대 인텔® 제온® 프로세서 대비 와트 당 성능 2.4배4, 랙 밀도 2.7배5 향상
    • 고객들은 구형 시스템을 약 3대 1의 비율로 교체할 수 있어 에너지 소비를 대폭 낮추고 지속가능성 목표6 달성에 도움을 받을 수 있다.
  • P-코어 기반 인텔 제온 6 프로세서(코드명 그래나이트 래피즈):
    • MXFP4 데이터 형식에 대한 소프트웨어 지원을 통합하여 다음 토큰 지연 시간을 FP16을 사용하는 4세대 제온 대비 최대 6.5배까지 단축하고 700억 개 매개변수의 라마-2 모델을 실행할 수 있다7

 

클라이언트, 엣지 및 연결성: 인텔은 클라이언트에 대한 모멘텀과 엣지 및 연결성을 위한 로드맵 업데이트를 발표했다.

 

  • 인텔® 코어™ Ultra 프로세서는 생산성, 보안 및 콘텐츠 제작을 위한 새로운 기능을 제공하며, 기업들이 PC를 교체하는 데 큰 동기를 부여한다.  인텔은 2024년에 울트라 PC부터 휴대용 게이밍 디바이스까지 230개 이상의 디자인으로 4천만 대의 AI PC를 출하할 것으로 예상하고 있다.
  • 2024년 출시될 차세대 인텔® 코어™ Ultra 클라이언트 프로세서 제품군(코드명 루나레이크)은 차세대 AI PC를 위해 플랫폼 기준 100 TOPS 이상, , 신경처리장치(NPU)에서 45TOPS 이상을 제공할 예정이다.
  • 인텔은 유통, 산업 제조, 의료 등 주요 시장을 겨냥한 인텔® 코어™ Ultra, 인텔® 코어™, 인텔® 아톰 프로세서, 인텔® 아크™ GPU 제품군 전반에 걸친 새로운 엣지용 칩을 발표했다.  인텔의 엣지 AI 포트폴리오에 추가되는 모든 제품은 이번 분기에 출시할 예정이며, 올해 인텔® 타이버™ 엣지 플랫폼(Intel® Tiber™ Edge Platform)에서 지원할 예정이다.
  • 인텔은 울트라 이더넷 컨소시엄(UEC)을 통해 AI 패브릭을 위한 개방형 이더넷 네트워킹을 선도하며 다양한 AI 최적화 이더넷 솔루션을 선보이고 있다. 대규모 스케일업 및 스케일아웃 AI 패브릭을 위해 설계된 이러한 혁신은 매 세대마다 규모가 수십 배씩 확장되는 점점 더 방대해지는 모델들을 위한 학습과 추론을 가능하게 한다. 이 라인업에는 인텔 AI 네트워크 인터페이스 카드(NIC), XPU에 통합하기 위한 AI 연결 칩렛, 가우디 기반 시스템, 인텔 파운드리용 다양한 소프트 및 하드 레퍼런스 AI 인터커넥트 디자인이 포함된다.

 

인텔 타이버비즈니스 솔루션 포트폴리오

인텔은 생성형 AI를 포함한 엔터프라이즈 소프트웨어 및 서비스 배포를 간소화하기 위한 인텔® 타이버™ 비즈니스 솔루션 포트폴리오(Intel® Tiber™ portfolio of business solutions)를 공개했다.

통합된 환경을 통해 기업과 개발자는 보안, 규정 준수 또는 성능에 영향을 주지 않으면서도 필요에 맞는 솔루션을 쉽게 찾고, 혁신을 가속화하며, 가치를 실현할 수 있다. 고객은 오늘부터 인텔 타이버 포트폴리오를 만나볼 수 있으며, 출시는 2024년 3분기로 예정되어 있다. 자세한 내용은 인텔 타이버 웹사이트에서 확인할 수 있다.

인텔이 비전 2024에서 발표한 내용은 AI에 접근 가능하고 개방적이며 안전하게 사용할 수 있도록 하겠다는 인텔의 약속을 강조한다. 인텔은 이러한 새로운 솔루션과 협업을 통해 AI 혁신을 선도하고, 전 세계 모든 기업에게 전례 없는 가치를 제공할 준비가 되어 있다.

미래 예측 진술

이 보도 자료에는 다음과 관련된 미래 예측 진술이 포함되어 있습니다.

 

  • 우리의 사업 계획 및 전략과 그로부터 예상되는 이익;
  • 우리의 AI 전략 및 AI 가속기;
  • AI와 관련된 개방형 플랫폼 접근 방식 및 생태계 지원; 및
  • 미래의 사건이나 상황에 대한 다른 특성.

 

이러한 진술은 다음과 관련된 것을 포함하여 실제 결과가 명시적 또는 묵시적 결과와 실질적으로 다를 수 있는 많은 위험과 불확실성을 수반합니다.

 

  • 우리 업계의 높은 수준의 경쟁과 급격한 기술 변화;
  • 유리한 수익을 실현하지 못할 수도 있는 R&D 및 제조 시설에 대한 상당한 장기적이고 본질적으로 위험한 투자;
  • 새로운 반도체 제품 및 제조 공정 기술의 개발 및 구현의 복잡성과 불확실성;
  • 자본 투자를 적절하고 성공적으로 확보할 수 있는 시기와 규모를 확보할 수 있는 능력;
  • 새로운 비즈니스 전략을 구현하고 새로운 비즈니스 및 기술에 투자합니다.
  • 당사 제품에 대한 수요 변화;
  • 미국과 중국 간의 지정학적 및 무역 긴장, 러시아의 우크라이나 전쟁의 영향, 이스라엘에 영향을 미치는 긴장과 갈등, 중국 본토와 대만 간의 긴장 고조를 포함한 거시경제 상황과 지정학적 긴장 및 갈등;
  • AI 기능을 갖춘 제품에 대한 진화하는 시장;
  • 혼란, 지연, 무역 긴장 및 갈등 또는 부족을 포함한 복잡한 글로벌 공급망;
  • 제품 결함, 정오표 및 기타 제품 문제, 특히 차세대 제품을 개발하고 차세대 제조 공정 기술을 구현할 때;
  • 당사 제품의 잠재적 보안 취약성;
  • 증가하고 진화하는 사이버 보안 위협 및 개인 정보 보호 위험;
  • 관련 소송 및 규제 절차를 포함한 IP 위험;
  • 핵심 인재를 유치, 유지 및 동기를 부여해야 할 필요성;
  • 전략적 거래 및 투자;
  • 고객 집중 및 유통업체 및 기타 제3자의 사용을 포함한 판매 관련 위험;
  • 최근 몇 년 동안 자본 수익률이 크게 감소했습니다.
  • 우리의 채무 의무와 자본 출처에 접근할 수 있는 능력;
  • 많은 관할권에 걸쳐 복잡하고 진화하는 법률 및 규정;
  • 환율 변동;
  • 실효 세율의 변화;
  • 재앙적인 사건;
  • 환경, 건강, 안전 및 제품 규정;
  • 기업 책임 문제와 관련된 우리의 이니셔티브 및 새로운 법적 요구 사항; 및
  • 기타 위험 및 불확실성은 이 보도 자료, Form 10-K의 가장 최근 연례 보고서 및 미국 증권거래위원회(SEC)에 제출한 기타 서류에 설명되어 있습니다.

 

이 릴리스의 모든 정보는 이전 날짜를 지정하지 않는 한 이 릴리스 날짜를 기준으로 경영진의 기대치를 반영합니다. 우리는 법률에 의해 공개가 요구될 수 있는 범위를 제외하고 새로운 정보, 새로운 개발 또는 기타 결과로 인해 그러한 진술을 업데이트할 의무를 약속하지 않으며 명시적으로 부인합니다.

1 NV H100 비교는 2024년 3월 28일 https://nvidia.github.io/TensorRT-LLM/performance.html#h100-gpus-fp8 기준입니다. 보고된 수치는 GPU당 수치입니다. LLAMA2-7B, LLAMA2-70B 및 Falcon 180B 예측에 대한 인텔® Gaudi® 3 예측과 비교. 결과는 달라질 수 있다.

2 NV H100 비교는 2024년 3월 28일 https://nvidia.github.io/TensorRT-LLM/performance.html#h100-gpus-fp8 기준입니다. 보고된 수치는 GPU당 수치입니다. LLAMA2-7B, LLAMA2-70B 및 Falcon 180B에 대한 인텔® 가우디® 3 예측과 비교. 내부 추정치를 기반으로 한 Nvidia와 Gaudi 3의 전력 효율성. 결과는 달라질 수 있다.

3 NV H100 비교: 2024년 3월 28일 https://developer.nvidia.com/deep-learning-performance-training-inference/training. 2024년 3월 28일 기준 LLAMA2-7B, LLAMA2-13B 및 GPT3-175B에 대한 인텔® Gaudi® 3 예측과 "대규모 언어 모델" 탭 비교. 결과는 달라질 수 있다.

4 2023년 2월 14일 기준 아키텍처 예측과 이전 세대 플랫폼을 비교한 결과를 기반으로 합니다. 결과는 다를 수 있다.

5 2023년 2월 14일 현재 아키텍처 예측과 이전 세대 플랫폼을 비교한 결과를 기반으로 합니다. 결과는 다를 수 있다.

6 2023년 2월 14일 기준 아키텍처 예측과 이전 세대 플랫폼을 비교한 결과를 기반으로 합니다. 결과는 다를 수 있다.

7 워크로드 및 구성은 intel.com/performanceindex 의 비전 2024 섹션을 참조하십시오. 결과는 달라질 수 있다.