민첩한 디지털 서비스를 위한 미래지향적 플랫폼 기반

디지털 세상의 변화 지원
진화하는 디지털 세상에서 비즈니스, 산업, 과학, 엔터테인먼트 부문에 일고 있는 획기적인 신기술 트렌드가 세계 경제에 점점 더 큰 영향을 미치고 있습니다. 기술 및 사용 모델의 발전으로 인해 2020년이면 Global 2000 기업의 절반에서 향상된 디지털 제품, 서비스, 경험을 제공하는 역량이 성공을 좌우하는 요인으로 자리 잡고1 대기업의 디지털 부문 수익이 80% 증가할 것으로 예상됩니다2.

인텔® 제온® 스케일러블 플랫폼은 새로운 차원의 민첩성과 확장성을 제공하는 강력한 데이터 센터 플랫폼의 토대가 됩니다.

이 같은 전 세계적인 변화에 따라 유연한 컴퓨팅, 네트워킹, 스토리지에 대한 수요가 급증하고 있습니다. 미래의 워크로드에는 원활하게 확장해 즉각적인 응답 속도와 다양한 성능 요구 사항을 지원할 수 있는 인프라가 필요합니다. 데이터 생성 및 소비의 급증, 클라우드 규모 컴퓨팅의 빠른 확대, 새롭게 떠오르는 5G 네트워크, 새로운 사용 모델로 확대되는 고성능 컴퓨팅(HPC) 및 인공 지능(AI)으로 인해 데이터 센터 및 네트워크의 발전이 시급한 과제로 대두되었으며 이를 실현하지 못할 경우 치열한 경쟁 환경에서 뒤처지게 됩니다. 이 같은 요구에 부응해 속도, 유연성, 확장성을 갖춘 현대화된 미래지향적 데이터 센터 및 네트워크 아키텍처가 등장하고 있습니다.

인텔® 제온® 스케일러블 플랫폼은 새로운 차원의 민첩성과 확장성을 제공하는 강력한 데이터 센터 플랫폼의 토대가 됩니다. 기존 개념을 넘어 새로움을 창출하는 이 혁신적인 프로세서는 컴퓨팅, 스토리지, 메모리, 네트워크 및 보안을 비롯한 전 분야에 걸쳐 새로운 차원의 플랫폼 통합을 실현하고 새로운 기능을 제공합니다. 이를 통해 기업과 클라우드 및 이동통신 사업자가 다양한 기능 및 용도를 지원하는 플랫폼으로 야심 차게 디지털 이니셔티브를 추진할 수 있게 되었습니다.

인포그래픽 보기 >

우수한 효율성 및 TCO 절감 지원
엔터프라이즈 애플리케이션부터 기술 컴퓨팅 응용 프로그램에 이르는 인프라 전체에서 데이터 센터를 현대화하도록 설계된 인텔® 제온® 스케일러블 플랫폼은 운영 효율성을 개선해 총 소유 비용(TCO)을 절감하고 사용자 생산성을 높여줍니다. 인텔® 제온® 스케일러블 플랫폼에 구축된 시스템은 신속한 서비스를 제공할 뿐 아니라, 소프트웨어 및 OS 라이선스 비용과 취득, 유지 보수, 인프라 비용이 낮아 TCO를 최대 65%34 절감하도록 설계되었습니다.

지난 십 년간 기업의 가상화가 꾸준한 확장세를 보이고 있습니다. 대부분의 조직에서는 어떤 형태로든 가상화를 활용하고 있으므로 데이터 센터에서 가상 머신(VM)을 실행할 서버의 필요성이 커지고 있습니다. 인텔® 제온® 스케일러블 플랫폼은 이전 세대에 비해 서버당 VM을 4.2배5 더 많이 지원하므로 IT 부서에서 더 작은 규모의 하드웨어로 더 많은 서비스를 통합할 수 있습니다.

혁신적인 퍼베이시브 성능
최신 인텔® 메시 아키텍처 및 확장된 리소스부터 하드웨어 가속화 및 새롭게 통합된 기술에 이르기까지 인텔® 제온® 스케일러블 플랫폼은 새로운 차원의 일관되고 획기적인 퍼베이시브 성능을 지원합니다.

인텔® 제온® 스케일러블 플랫폼을 4년 된 시스템 및 지난 세대의 인텔® 제온® 프로세서 기반 시스템과 비교한 결과 지난 세대의 인텔 CPU가 엔터프라이즈, 클라우드, 통신 및 HPC에서 더 뛰어난 성능을 보였습니다.5 6 7 8 9 10 11 12

기본 개선 사항:

  • 코어당 성능 향상: 최대 28개의 코어로 컴퓨팅, 스토리지, 네트워크 사용과 관련해 컴퓨팅 집약적 워크로드에 필요한 우수한 성능과 확장성을 제공합니다.
  • 높은 메모리 대역폭/용량: 메모리 대역폭 및 용량이 50% 증가했습니다. 이전 세대의 4개 메모리 채널과 달리 6개의 메모리 채널로 메모리 집약적 워크로드를 처리합니다.
  • I/O 확장: 48레인의 PCIe* 3.0 대역폭과 처리량으로 까다로운 I/O 집약적 워크로드를 처리합니다.
  • 인텔® 울트라패스 인터커넥트(인텔® UPI): 최대 3개의 인텔® UPI 채널로 플랫폼의 확장성이 소켓 8개로 높아졌고 (인텔® 퀵패스 인터커넥트(인텔® QPI)가 적용된) 이전 세대에 비해 I/O 집약적 워크로드에 대한 CPU 간 대역폭이 향상되었습니다13. 인텔 UPI는 개선된 처리량과 에너지 효율성이 완벽한 균형을 이룹니다.
  • 인텔® Advanced Vector Extensions 512(인텔® AVX-512): 이전 세대 인텔 Advanced Vector Extensions 2(인텔® AVX2)14에 비해 클럭 주기당 FLOP이 2배 증가한 인텔® AVX-512는 모델링과 시뮬레이션, 데이터 분석, 머신 러닝, 데이터 압축, 시각화, 디지털 콘텐츠 제작 등의 다양한 분야에서 수행되는 매우 까다로운 컴퓨팅 작업을 지원할 수 있도록 성능과 처리량이 강화되었습니다.
  • 성능 저하 없는 보안: 암호화 오버헤드15가 거의 없어 모든 보안 데이터 트랜잭션에서 우수한 성능을 지원합니다.

혁신적인 통합
최초 플랫폼 통합으로 인프라 전반에서 실현되는 성능 및 지연 시간 향상:

  • 통합 인텔® Omni-Path 아키텍처(인텔® OPA) Host Fabric 인터페이스: 전체 대역폭이 높고 지연 시간이 짧은 패브릭으로 성능을 최적화하고 별도의 Host Fabric 인터페이스 카드 없이 HPC 클러스터를 간편하게 구축할 수 있습니다. CPU 패키지에 통합되어 있습니다.
  • 통합 인텔® 퀵어시스트 기술(인텔® QAT): 칩셋 기반의 하드웨어 가속화를 통해 갈수록 늘어나는 압축 및 암호화 워크로드를 효율적으로 처리하고 서버, 스토리지, 네트워크 인프라 전반에서 데이터 전송 및 보호를 향상시킵니다.
  • 확장형 iWARP* RDMA* 포함 통합 인텔® 이더넷: 최대 4개의 10Gbps 고속 이더넷 포트를 제공하여 데이터 처리량이 많고 지연 시간은 짧아야 하는 워크로드에 적합합니다. 소프트웨어 정의 스토리지 솔루션인 NVM Express* over Fabric 솔루션과 가상 머신 마이그레이션에 적합합니다. 칩셋에 통합되어 있습니다.

통합 인텔® Omni-Path 아키텍처(인텔® OPA) Host Fabric 인터페이스는 전체 대역폭이 높고 지연 시간이 짧은 패브릭으로 성능을 최적화하고 HPC 클러스터를 간편하게 구축할 수 있습니다.

업계 최고의 스토리지 지원
스토리지 혁신으로 데이터 집약적 워크로드의 효율 및 성능 측면에서 상당한 개선을 얻을 수 있습니다.

  • 인텔® Optane™ SSD 및 인텔® 3D NAND SSD 지원: 많은 처리량, 짧은 지연 시간, 높은 서비스 품질, 뛰어난 내구성이 업계 최고 수준으로 결합되어 데이터 액세스 병목 현상을 해결합니다.
  • 안정적인 인텔® 볼륨 관리 기기(인텔® VMD)로 차세대 스토리지 구축: 시스템을 종료하지 않고도 PCIe 버스에서 NVMe SSD의 핫 스왑을 지원하고 표준화된 LED 관리로 신속한 SSD 상태 확인이 가능합니다. 이러한 공통적인 특징 덕분에 NVMe* SSD에서 엔터프라이즈급 안정성, 가용성 및 서비스 용이성(RAS)을 이용할 수 있으므로 차세대 스토리지를 자신 있게 구축할 수 있습니다.
  • 인텔® 지능형 스토리지 가속화 라이브러리(인텔® ISA-L): 암호화 등 스토리지 운영을 최적화하여 스토리지 성능을 높입니다.
    • 인텔® AVX-512를 사용하면 SHA 알고리즘의 암호화 해시 속도가 최대 3.1배 빨라집니다.16
    • AES-128-GCM의 경우 알고리즘 속도가 최대 1.2배 빨라집니다.16
    • 인텔® AVX-512를 사용하면 Reed Solomon Erasure Code의 성능이 최대 2배 빨라집니다.16

보다 우수한 성능과 확장성을 지원하는 보완 제품
인텔은 신형 프로세스를 보완해줄 다양한 하드웨어 및 소프트웨어 포트폴리오를 갖추고 있습니다.

  • 인텔® 제온 Phi™ 프로세서는 머신 러닝, 시뮬레이션, 시각화와 같이 고도로 병렬화된 응용 프로그램에 이상적인 기반입니다.
  • 인텔® FPGA는 프로그래밍 가능 하드웨어를 통한 유연성과 효율적인 가속화17를 통해 가상 스위칭, 네트워크 서비스, 데이터 분석, AI와 같이 지연 시간이 짧아야 하는 응용 프로그램을 지원합니다.
  • 일반 컴퓨팅 및 고도의 병렬 컴퓨팅을 위한 다양한 소프트웨어 도구와 라이브러리로 개발자가 인텔® 아키텍처용 응용 프로그램을 최적화하도록 도와줍니다.

향상된 플랫폼 신뢰성
데이터 및 플랫폼의 신뢰성과 보호는 데이터 보안 및 개인 정보와 관련한 갖가지 우려와 조사 업무에 시달리는 기업들의 주요 관심사입니다. 인텔® 제온® 스케일러블 플랫폼은 플랫폼 데이터 보호, 탄력성, 가동 시간을 갖춰 신뢰성이 뛰어난 인프라 구축에 도움이 됩니다.

워크로드를 불문한 데이터 보호 및 신뢰성 향상:

  • 향상된 인텔® Run Sure Technology: 기업의 핵심 워크로드에 적합한 고급 RAS(안정성, 가용성, 서비스 용이성)와 서버 가동 시간을 제공할 수 있도록 새롭게 개선되었습니다. 향상된 MCA 및 복구, 적응형 다중 기기 오류 수정을 포함한 하드웨어 지원 기능으로 기존에는 치명적이었던 오류를 진단하고 복구합니다. 메모리 하위 시스템 내의 데이터 무결성을 보장합니다.
  • 인텔® QAT 및 인텔® 플랫폼 신뢰 기술(인텔® PTT)이 통합된 인텔® 키 보호 기술(인텔® KPT): 저장, 사용 중 또는 전송 중인 상태에서 키와 데이터를 효율적으로 보호하여 하드웨어로 강화된 플랫폼 보안을 제공합니다.
  • 원터치 활성화가 가능한 인텔® 신뢰 실행 기술(인텔® TXT): 플랫폼 보안의 강화와 더불어 간소화되고 확장 가능한 인텔 TXT 구축을 지원합니다.

데이터 센터를 통해 많은 데이터 집약적 워크로드가 유입되어도 하드웨어로 강화된 포괄적인 기능이 보다 우수한 데이터 및 플랫폼 차원의 보호 메커니즘을 제공하므로 엔터프라이즈 및 클라우드 환경에서 신뢰할 수 있는 서비스를 이용할 수 있습니다.

워크로드에 상관없이 일관된 성능을 제공하는 인텔® 제온® 프로세서

 

중요 항목:

인텔® 제온® 확장형 플랫폼의 장점

엔터프라이즈와 클라우드

호환되는 가상화 인프라로 복잡성을 최소화

엄격한 고객 SLA 충족

신속한 구축 인텔 VM과 다른 인텔® 기술 기반 서버와의 공존

응답 시간 단축

HPC

벡터 부동 소수점 성능 및 효율 극대화

적은 수의 서버로 높은 성능 제공

스토리지

예측 가능한 스토리지 응답 보장

예측 가능한 성능 단일 다이에 코어, 캐시, 메모리, I/O 포함

통신

다양한 서비스의 효율적인 제공

응용 프로그램, 컨트롤, 패킷, 신호 처리에 필요한 기능을 갖춘 플랫폼을 통해 우수한 효율성 및 하드웨어 가속화 이용

효율적인 동적 서비스 제공
향상된 컴퓨팅, 메모리, 네트워크, 스토리지 성능을 통합하고 소프트웨어 에코시스템 최적화까지 지원하는 인텔® 제온® 스케일러블 플랫폼은 워크로드 요구에 따라 온프레미스, 네트워크, 퍼블릭 클라우드 방식으로 리소스를 동적으로 자체 프로비저닝하는 완전히 가상화된 소프트웨어 정의 데이터 센터에 적합한 플랫폼입니다.

민첩한 데이터 센터를 위한 강력한 도구와 기술:

  • 인텔® VT-x의 새 기능:
    • 모드 기반 실행 컨트롤(MBE) 가상화: 하이퍼바이저 지원으로 커널 레벨 코드의 무결성을 보다 안정적으로 검증하고 적용하여 가상 환경에서 맬웨어 공격으로부터 보호를 강화합니다.
    • Timestamp-Counter 스케일링(TSC) 가상화: 가상 머신이 다양한 기본 주파수에서 운영되는 CPU 사이를 오갈 수 있어 하이브리드 클라우드 환경에서 워크로드가 최적화됩니다.
  • 인텔® 노드 관리자 4.0: IT 부서가 데이터 센터에서 전원, 냉각, 컴퓨팅 리소스를 지능적으로 관리하고 최적화하도록 도와주므로 효율을 극대화하고 비용이 많이 드는 오버헤드 발생을 줄일 수 있습니다.

하이브리드 클라우드를 사용하며 데이터의 중요성이 큰 기업에 적합한 강력한 기능의 플랫폼
기업에서는 비즈니스 이니셔티브를 수립하는 데 토대가 될 신속한 통찰력을 얻기 위해 수많은 데이터 스트림에서 가치 있는 정보를 도출하기를 원합니다. 기업의 기존 응용 프로그램은 물론 예측 분석, 머신 러닝, HPC를 비롯해 새롭게 등장한 응용 프로그램에는 새로운 차원의 강력한 컴퓨팅 기능과 계층화된 대량의 데이터 스토리지 볼륨이 필요합니다. 현대화된 데이터 센터는 새로운 서비스를 유연하게 제공하고 현재 사용 중인 인프라 자산 전반의 TCO를 개선하면서 자체 제어 하이브리드 데이터 센터로의 원활하고도 확장 가능한 전환을 지원하도록 집중적이고 포괄적인 접근법으로 설계됩니다.

하지만 OLTP 및 웹 인프라 등 기본 비즈니스 워크로드를 바탕으로 운영되는 조직에서는 더욱 강력한 성능의 인프라로 TCO를 절감하기를 원합니다.

인텔® 제온® 스케일러블 플랫폼은 데이터의 중요성이 큰 하이브리드 클라우드 시대에 맞는 미래지향적 플랫폼을 통해 기업에 차세대 엔터프라이즈 기능을 제공하며 런타임 워크로드의 초당 요청을 최대 58% 더 많이 처리하여 일상적인 운영을 개선해 줍니다.18 이 다용도 플랫폼은 지연 시간이 짧아야 하는 컴퓨팅 집약적 응용 프로그램에 획기적인 컴퓨팅 성능과 함께 한층 발전된 메모리 및 I/O를 제공합니다. 스토리지, 캐싱, 메모리의 대용량 데이터 볼륨을 관리하도록 혁신적인 인텔® SSD 데이터 센터 제품군과 결합된 인텔® 제온® 스케일러블 플랫폼 기반 플랫폼은 데이터 및 클라우드 시대의 강도 높은 요구를 해결할 수 있습니다. 

다양한 워크로드 요구 사항을 처리하는 포괄적인 패키징 옵션 포트폴리오를 갖춘 인텔® 제온® 스케일러블 플랫폼은 컴퓨팅, 스토리지, 네트워킹을 위한 효율적인 가상 인프라를 구축하도록 설계된 고성능 플랫폼입니다.

엔터프라이즈 혁신 기술 주요 정보:

  • 최대 28개의 고성능 코어, 6개의 메모리 채널, 48개의 PCIe* 3.0 레인
  • 최대 3개의 인텔 UPI 채널
  • 인텔® Optane™ SSD 및 인텔® 3D NAND SSD 지원
  • 향상된 인텔® Run Sure Technology

데이터 플레인 개발 키트(DPDK) 및 인텔 QAT와 함께 이 새로운 프로세서를 이용하여 네트워크 성능을 높일 수 있습니다. 따라서 서비스 제공업체에서 더 많은 트래픽을 처리함으로써 서비스 증가 및 수익 성장을 실현하고 5G에 효과적으로 대비할 수 있습니다.19 20 21

클라우드에 최적화된 5G 지원 네트워크 및 차세대 가상 네트워크용 차세대 플랫폼
머지않아 다가올 5G 시대에는 유무선 네트워크를 통한 미디어 응용 프로그램과 함께 완전히 새로워진 에코시스템과 종류의 소비자 및 기업 서비스가 지원될 것입니다. 새로운 사물 인터넷(IoT), 비주얼 컴퓨팅, 분석으로 가능해질 이러한 데이터 집약적 혁신 사용 사례에서 이동통신 사업자(CommSP)는 수익을 크게 높일 기회를 창출할 수 있습니다. 

특정 용도로 설계된 고정된 기능의 인프라에서 차세대 개방형 네트워크로의 전환은 5G 지원 시대를 대비하기 위한 필수적인 첫 단계입니다. 네트워크 기능 가상화(NFV)를 통한 소프트웨어 정의 네트워킹으로 이동통신 사업자 및 기업은 새로운 서비스 기회와 운영 효율성을 실현할 수 있습니다. 유연하고 최적화된 산업 표준 서버와 가상화 및 조직화된 네트워크 기능 덕분에 미래형 인프라에서 혁신적인 서비스를 효율적이고 간편하게 제공할 수 있습니다. 

이처럼 분산된 통신 네트워크를 통해 네트워크 코어부터 에지까지 갈수록 늘어나는 다양한 네트워킹 워크로드 전반에 최상의 확장성, 민첩성, 프로그래밍, 보안을 구현할 수 있습니다. 

인텔 제온 확장형 플랫폼은 가상화 및 클라우드 최적화된 5G 지원 네트워크를 구축할 수 있는 차세대 플랫폼 기반입니다. 확장 및 적응이 용이한 아키텍처로 설계되어 새로운 응용 프로그램에 대한 요구와 응용 프로그램 및 서비스, 컨트롤 플레인 처리, 고성능 패킷 처리, 신호 처리 등 주요 워크로드의 통합을 효율적으로 해결할 수 있습니다. 이 새로운 프로세서는 클라우드의 경제성을 활용하고 고도의 자동화 및 우수한 응답성을 지원하며 5G로 실현되는 새롭고 향상된 서비스를 보다 빠르고 안전하게 제공할 수 있는 민첩한 네트워크 기반을 구축합니다.

CommSP 혁신 기술 주요 정보:

  • 통합 인텔® QAT를 사용한 암호화 및 압축의 하드웨어 기반 가속화
  • 통합 인텔 이더넷
  • 인텔 FPGA로 통신 인프라의 다용도성 극대화
  • 인텔 KPT를 인텔 QAT 및 인텔 PTT와 통합
  • 원터치 활성화가 가능한 인텔 TXT

CommSP에 최적화된 추가 리소스
오픈 소스 데이터 플레인 개발 키트(DPDK)는 인텔 아키텍처 기반으로 최적화된 통신 운영을 지원합니다. DPDK는 프로세서 코어 수 및 성능이 늘어남에 따라 성능을 확장하는 능력이 입증되었습니다. 이렇게 향상된 성능은 벡터 패킷 처리(VPP) IPSec 등의 워크로드에 도움이 됩니다. 또한 이 라이브러리는 새로운 프로세서 기능(인텔 AVX-512와 메모리 및 I/O 개선 사항 등)을 사용하도록 사전 최적화된 메커니즘을 제공하므로 직접적인 개발 노력을 최소화하면서 새로운 기능을 통해 개선된 패킷 처리 성능을 얻을 수 있습니다.

인텔은 5G 시대의 네트워크 발전에 대비해 인텔® Network Builders University와 같은 프로그램을 제공하고 있습니다. 이러한 프로그램에서 제공되는 솔루션 지침 및 교육을 통해 이동통신 사업자(CommSP)는 확신을 갖고 네트워크 혁신 이니셔티브를 추진할 수 있습니다.

인텔® 제온® 확장형 플랫폼은 13개의 일반적인 HPC 워크로드 전반에 향상된 성능을 제공합니다.

획기적인 HPC 및 고성능 데이터 분석 혁신
오늘날의 과학적 발견은 혁신적인 알고리즘, 새로운 데이터 소스와 데이터 양, 컴퓨팅 및 스토리지의 발전을 바탕으로 이루어집니다. 데이터의 양과 다양성이 폭발적으로 증가하면서 그 혜택을 받은 HPC 클러스터는 고성능 데이터 분석(HPDA) 워크로드를 실행하는 엔진 역할을 하면서 비즈니스 및 인간을 이해할 수 있는 놀라운 발견과 통찰력을 가져옵니다. 머신 러닝, 딥 러닝, AI는 대규모 컴퓨팅 기능과 대량의 데이터를 통합하여 자율 시스템, 자율 주행 자동차 등 차세대 응용 프로그램의 개발을 지원합니다.

인텔 제온 확장형 플랫폼은 추론 및 교육 처리량이 뛰어난 AI용 공통 플랫폼을 제공합니다. 4년 전의 구형 시스템에 비해 최대 18배 많은 추론22과 최대 19배 많은 교육23 처리량을 지원합니다.

HPC는 더 이상 대규모 과학 기관만의 영역이 아닙니다. 민간 석유 가스 기업에서 세계 최대 규모의 HPC 클러스터를 찾아볼 수 있을 정도로 많은 양의 HPC 컴퓨팅 주기를 사용하는 기업이 늘고 있습니다. 맞춤형 의료 연구 분야에서는 HPC를 집중 치료 계획에 적용하고 있습니다. 기존 방식에서 벗어나 시뮬레이션, AI, 시각화, 분석을 단일 슈퍼컴퓨터에 결합하는 혁신적인 통합 아키텍처가 새로운 HPC 설치 방식으로 활용되고 있습니다.

소규모 클러스터부터 대형 슈퍼컴퓨터에 이르는 HPC 플랫폼에서는 컴퓨팅, 메모리, 스토리지, 네트워크가 균형을 이루어야 합니다. 인텔 제온 확장형 플랫폼은 수만 개의 코어로 확장 가능해 이러한 균형을 실현하고 지원하도록 설계되었습니다. 개선된 코어 수, 메시 아키텍처, 새롭게 통합된 기술, 인텔 Optane 메모리 및 스토리지 디바이스 지원을 갖춘 인텔 제온 스케일러블 플랫폼은 리소스가 교차하는 지점의 병목 현상 없이 컴퓨팅, 메모리, 스토리지, 네트워크의 성능을 극대화한다는 HPC의 궁극적인 목표를 실현합니다.

포괄적인 고성능 패브릭인 인텔 Omni-Path 아키텍처를 인텔 제온 확장형 플랫폼에 통합하여 성능 향상과 분산된 병렬 컴퓨팅 클러스터로의 확장을 실현합니다. 최대 32개 노드로 거의 선형에 가까운 확장성이 지원되어 상호 연결로 제한되지 않는 대규모 HPC 솔루션의 구축을 지원합니다. 또한 인텔 제온 확장형 플랫폼은 이전 세대의 인텔 제온 프로세서에 비해 과학 및 금융 서비스에서 사용되는 13개의 일반적인 HPC 워크로드에 대한 전반적인 성능이 1.63배 우수합니다.24 인텔 제온 확장형 플랫폼 및 인텔 Omni-Path 아키텍처는 여러 데이터 센터에서 새로운 발견을 지원하고 고도의 병렬 워크로드를 처리하는 신속한 솔루션을 제공할 수 있습니다.

HPC 혁신 기술 주요 정보:

  • 인텔 Ultra Path Interconnect
  • 인텔 Advanced Vector Extensions 512
  • 통합 인텔 Omni-Path 아키텍처 Host Fabric 인터페이스
  • 인텔 Optane SSD 및 인텔® 3D NAND SSD 지원

HPC, HPDA, AI 관련 추가 기술:

  • 다중 통합 코어(MIC) 아키텍처를 사용하는 부트형 인텔® 제온 Phi™ 프로세서 7200 시리즈는 머신 러닝 교육, 시뮬레이션, 시각화 등 고도의 병렬 워크로드에 적합한 기반입니다.
  • 다양한 생산성 소프트웨어 도구, 최적화된 라이브러리, 기본 구성 요소, 일반 및 고도의 병렬 컴퓨팅을 위한 유연한 프레임워크는 워크플로를 간소화하고 개발자가 HPC 및 AI용 IA 기능을 극대화할 코드를 생성하도록 도와줍니다.
  • Neon,* Caffe,* Theano,* Torch,* TensorFlow* 등 널리 사용되는 IA용 딥 러닝 프레임워크에 최적화되어 데이터 과학자들의 생산성과 성능이 향상됩니다.
  • 인텔® Parallel Studio XE 2017에는 IA의 딥 러닝 프레임워크 속도를 높여주는 인텔® 딥러닝 네트워크용 수학 커널 라이브러리(인텔® MKL-DNN), 빅 데이터 분석 시간을 단축해 주는 인텔® 데이터 분석 가속화 라이브러리(인텔® DAAL) 등의 성능 라이브러리가 포함되어 있습니다.

HPC에 최적화된 리소스
HPC를 바탕으로 엑사스케일 시대의 발견을 지원하도록 마련된 인텔® Modern Code Developer 프로그램을 통해 개발자와 데이터 과학자는 벡터화, 메모리 및 데이터 레이아웃, 멀티스레딩, 멀티노드 프로그래밍 등의 기법을 다룬 온라인 및 오프라인 코드 현대화 기술 세션을 간편하게 이용할 수 있습니다.

제품 및 성능 정보

3

벤치마크 결과는 “스펙터”와 “멜트다운”으로 알려진 공격에 대응하기 위한 목적의 최신 소프트웨어 패치 및 펌웨어 업데이트를 적용하기 이전에 얻어진 것입니다. 이러한 업데이트를 적용할 경우 이와 같은 결과가 귀하의 장치 또는 시스템에는 해당하지 않을 수 있습니다.

성능 테스트에 사용된 소프트웨어 및 워크로드는 인텔® 마이크로프로세서에만 적합하도록 최적화되었을 수 있습니다. SYSmark* 및 MobileMark*와 같은 성능 테스트는 특정 컴퓨터 시스템, 구성 요소, 소프트웨어, 운영 및 기능을 사용해서 수행합니다. 해당 요소에 변경이 생기면 결과가 달라질 수 있습니다. 구매를 고려 중인 제품을 제대로 평가하려면 다른 제품과 결합하여 사용할 경우 해당 제품의 성능을 포함한 기타 정보 및 성능 테스트를 참고해야 합니다. 자세한 내용은 http://www.intel.co.kr/benchmarks를 참조하십시오.

4

Guest OS RHEL* 6.4를 사용하여 VMware ESXi* 6.0GA를 실행하는 인텔® 제온® 프로세서 E5-2690(이전 명칭 “Sandy Bridge-EP”)로 설치된 2소켓 서버 20대의 총 소유 비용 919,362달러와 Guest OS RHEL* 6 64비트를 사용하여 VMware ESXi* 6.0 U3 GA를 실행하는 새로운 인텔® 제온® 플래티넘 8180(Skylake)과 시스템 5대의 총 소유 비용 320,879달러(기본 취득 비용 포함)를 비교한 결과 VMware ESXi* 가상화 통합 워크로드를 사용하여 동급 랙 성능을 기준으로 추산한 4개년 TCO가 최대 65% 절감됩니다. 서버 가격 추정치는 Broadwell 기반 서버의 최신 OEM 소매 공개 가격을 기준으로 하며, 실제 판매 시의 가격은 달라질 수 있습니다.

5

서버 가상화 통합 워크로드에 따라 최대 4.2배 더 많은 VM 지원: 인텔® 내부 추정치에 따르면 1노드, 인텔® 제온® 프로세서 E5-2690 2개가 탑재된 Romley-EP는 VMware ESXi* 6.0 GA에서 Guest OS RHEL* 6.4, glassfish3.1.2.2, postgresql9.2를 사용하여 256GB의 총 메모리를 지원하는 것으로 나타났습니다. 데이터 출처: 요청 번호: 1718, 벤치마크: 서버 가상화 통합, 점수: 377.6 @ 21 VM과 VMware ESXi6.0 U3 GA에서 Guest OS RHEL 6 64비트를 사용하여 768GB의 총 메모리를 지원하는 1노드, 인텔® 제온® 플래티넘 8180 프로세서 2개가 탑재된 Wolf Pass SKX 비교. 데이터 출처: 요청 번호: 2563, 벤치마크: 서버 가상화 통합, 점수: 1580 @ 90 VM 높을수록 좋음.

6

Up to 5x claim based on OLTP Warehouse workload: 1-Node, 4 x Intel® Xeon® processor E7-4870 on Emerald Ridge with 512 GB Total Memory on Oracle Linux* 6.4 using Oracle 12c* running 800 warehouses. Data Source: Request Number: 56, Benchmark: HammerDB, Score: 2.46322e+006 Higher is better vs. 1-Node, 4 x Intel® Xeon® Platinum 8180 processor on Lightning Ridge SKX with 768 GB Total Memory on Red Hat Enterprise Linux* 7.3 using Oracle 12.2.0.1 (including database and grid) with 800 warehouses. Data Source: Request Number: 2542, Benchmark: HammerDB, Score: 1.2423e+007 Higher is better.

7

Up to 1.52x claim based on HammerDB*: 1-Node, 4 x Intel® Xeon® processor E7-8890 v4 on Brickland (Patsburg) with 1536 GB Total Memory on Oracle Linux* 7.1 using Oracle* 12.1.0.2.0 (including database and grid) with 800 warehouses. Data Source: Request Number: 2239, Benchmark: HammerDB, Score: 8.17145e+006 vs. 1-Node, 4 x Intel® Xeon® Platinum 8180 processor on Lightning Ridge SKX with 768 GB Total Memory on Red Hat Enterprise Linux* 7.3 using Oracle 12.2.0.1 (including database and grid) with 800 warehouses. Data Source: Request Number: 2542, Benchmark: HammerDB, Score: 1.2423e+007 Higher is better.

8

Up to 1.5x more VMs based on virtualization consolidation workload : 1-Node, 2 x Intel® Xeon® processor E5-2699 v4 on Grantley-EP (Wellsburg) with 512 GB Total Memory on VMware ESXi* 6.0 Update 1 using Guest VM’s utilize RHEL 6 64bit OS. Data Source: Request Number: 1637, Benchmark: server virtualization workload, Score: 1034 @ 58 vs. 1-Node, 2 x Intel® Xeon® Platinum 8180 processor on Wolf Pass SKX with 768 GB Total Memory on VMware ESXi6.0 U3 GA using Guest VM’s utilize RHEL 6 64bit OS. Data Source: Request Number: 2563, Benchmark: server virtualization workload, Score: 1580 @ 90 VMs Higher is better.

9

Up to 2.7x claim based on DPDK L3 Packet Forwarding: Intel® Xeon® E5-2650 processors 2.00GHz, 8 GT/s QPI, 20MB L3 cache, Patsburg Chipset (C0 stepping), Grizzly Pass Platform (R2216GZBPP), DDR3 1333MHz, 8 x dual rank 4GB (total 32GB), 4 memory channels per socket Configuration, 1 DIMM per channel, 6 x Intel® 82599 dual-port PCI-Express* Gen2 x8 10 Gb Ethernet NIC, 1 x Intel® 82599 dual-port Gen2 x8 I/O expansion module10 Gb Ethernet NIC, BIOS version S5500.86B.01.00.0048, Operating system: Fedora Core* 15, Kernel version: 2.6.38.4, IxNetwork* 6.0.400.22, DPDK version: FD5_1 Score: 102Gbits/s packet forwarding at 256B using cores vs. Gold 6152: Estimates based on Intel internal testing on Intel® Xeon® 6152 2.1 GHz, 2x Intel®, FM10420(RRC) Gen Dual Port 100GbE Ethernet controller (100Gbit/card) 2x Intel® XXV710 PCI Express Gen Dual Port 25GbE Ethernet controller (2x25G/card), DPDK 17.02. Score: 281 Gbits/s packet forwarding at 256B packet using cores, IO and memory on a single socket.

10

Up to 1.7x claim based on DPDK L3 Packet Forwarding: E5-2658 v4: 5 x Intel® XL710-QDA2, DPDK 16.04. Benchmark: DPDK l3fwd sample application Score: 158 Gbits/s packet forwarding at 256B packet using cores. Gold 6152: Estimates based on Intel internal testing on Intel® Xeon® 6152 2.1 GHz, 2x Intel®, FM10420(RRC) Gen Dual Port 100GbE Ethernet controller (100Gbit/card) 2x Intel® XXV710 PCI Express* Gen Dual Port 25GbE Ethernet controller (2x25G/card), DPDK 17.02. Score: 281 Gbits/s packet forwarding at 256B packet using cores, IO and memory on a single socket.

11

Up to 8.2x claim based on Intel® Distribution for LINPACK* Benchmark: 1-Node, 2 x Intel® Xeon® processor E5-2690 on Intel® Server Board S2600CP2 with 32 GB Total Memory on Red Hat Enterprise Linux* 6.0 (Santiago) kernel version 2.6.32-504.el6.x86_64 using Intel® Distribution for LINPACK Benchmark using 56000 problem size. Score: 366.0 GFLOPS/s vs. 1-Node, 2 x Intel® Xeon® Platinum 8180 processor on Purley-EP (Lewisburg) with 192 GB Total Memory on Ubuntu 17.04 using MKL 2017 Update 2. Data Source: Request Number: 2535, Benchmark: Intel® Distribution for LINPACK Benchmark, Score: 3007.8 GFLOPS/s Higher is better.

12

Up to 2.2x claim based on Intel® Distribution for LINPACK* Benchmark: 1-Node, 2 x Intel® Xeon® processor E5-2699 v4 on Grantley-EP (Wellsburg) with 64 GB Total Memory on Red Hat Enterprise Linux* 7.0 kernel 3.10.0-123 using MP_LINPACK 11.3.1 (Composer XE 2016 U1). Data Source: Request Number: 1636, Benchmark: Intel® Optimized MP LINPACK*, Score: 1446.4 GFLOPS/s vs. 1-Node, 2 x Intel® Xeon® Platinum 8180 processor on Purley-EP (Lewisburg) with 192 GB Total Memory on Ubuntu* 17.04 using MKL 2017 Update 2. Data Source: Request Number: 2535, Benchmark: Intel® Distribution for LINPACK Benchmark, Score: 3007.8 GFLOPS/s Higher is better.

13

More inter-CPU bandwidth. 10.4 GT/s on Intel® Xeon® Scalable processors vs. 9.6 GT/s on Intel® Xeon® processor E5-2600 v4 product family.

14

As measured by Intel comparing Intel® Xeon® processor Scalable family with Intel® Advanced Vector Extensions 512 (Intel® AVX-512) to an Intel® Xeon® E5 v4 processor with Intel® Advanced Vector Extensions 2 (Intel® AVX2).

15

BigBench*, Near Zero encryption overhead: BigBench query Runtime/second. Testing done by Intel.  BASELINE: Platform 8168, NODES 1 Mgmt + 6 Workers, Make Intel Corporation, Model S2600WFD, Form Factor 2U, Processor Intel® Xeon® Platinum 8168, Base Clock 2.70 GHz, Cores per socket 24, Hyper-Threading Enabled, NUMA mode Enabled, RAM 384 GB DDR4, RAM Type 12x 32 GB DDR4, OS Drive Intel® SSD DC S3710 Series (800 GB, 2.5 in SATA 6Gb/s, 20nm, MLC), Data Drives 8x – Seagate Enterprise 2.5 HDD ST2000NX0403 2 TB, Intel® SSD DC P3520 Series (2.0TB), Temp Drive DC 3520 2 TB, NIC Intel  X722 10 GBE – Dual Port, Hadoop Cloudera* 5.11, Benchmark TPCx-BB 1.2, Operating System CentOS* Linux release 7.3.1611 (Core); HDFS encryp-tion turned OFF. vs. NEW: Platform 8168, NODES 1 Mgmt + 6 Workers, Make Intel Corporation, Model S2600WFD, Form Factor 2U, Processor Intel® Xeon® Platinum 8168, Base Clock 2.70 GHz, Cores per socket 24, Hyper-Threading Enabled, NUMA mode Enabled, RAM 384 GB DDR4, RAM Type 12x 32 GB DDR4, OS Drive Intel® SSD DC S3710 Series (800 GB, 2.5 in SATA 6 Gb/s, 20nm, MLC), Data Drives 8x – Seagate Enterprise  2.5 HDD ST2000NX0403 2 TB, Intel® SSD DC P3520 Series (2.0 TB), Temp Drive DC 3520 2 TB, NIC Intel X722 10 GBE – Dual Port, Hadoop Cloudera* 5.11, Benchmark TPCx-BB 1.2, Operating System CentOS* Linux release 7.3.1611 (Core); HDFS encryption turned ON.

16

3.1x, 1.2x, 2x ISA-L configuration. Intel® Xeon® processor Scalable family: Intel® Xeon® Platinum 8180 processor, 28C, 2.5 GHz, H0, Neon City CRB, 12x16 GB DDR4 2666 MT/s ECC RDIMM, BIOS PLYCRB1.86B.0128.R08.1703242666.

Intel® Xeon® E5-2600v4 series processor, E5-2650 v4, 12C, 2.2 GHz, Aztec City CRB, 4x8 GB DDR4 2400 MT/s ECC RDIMM, BIOS GRRFCRB1.86B.0276.R02.1606020546

Operating System: Redhat Enterprise Linux* 7.3, Kernel 4.2.3, ISA-L 2.18, BIOS Configuration, P-States: Disabled, Turbo: Disabled, Speed Step: Disabled, C-States: Disabled, ENERGY_PERF_ BIAS_CFG: PERF.

17

As measured by Intel® Xeon® processor Scalable family with Intel® FPGA optimized workload and Intel® Xeon® processor Scalable family without FPGA optimized workload.

18

Up to 1.58x claim based on Ghost-NodeJS workload: 1-Node, 2 x Intel® Xeon® processor E5-2699 v4 on Wildcat Pass with 384 GB Total Memory on Ubuntu* 16.04 LTS using Node.js version 6.9.2, MySQL* Maria DB version 15.1 Distrib 10.0.30. Data Source: Request Number: 2687, Benchmark: Ghost-NodeJS, Score: 2308 Higher is better vs. 1-Node, 2 x Intel® Xeon® Platinum 8180 processor on Wolf Pass SKX with 384 GB Total Memory on Ubuntu 16.10 using Node.js version 6.9.2, MySQL Maria DB version 15.1 Distrib 10.0.30. Data Source: Request Number: 2687, Bench-mark: Ghost-NodeJS, Score: 3647 Higher is better.

19

Up to 1.77x claim based on DPDK L3 Forwarding: E5-2658 v4: 5 x Intel® XL710-QDA2, DPDK 16.04. Benchmark: DPDK l3fwd sample application. Vs. Gold 6152: Estimates based on Intel internal testing on Intel® Xeon® 6152 2.1 GHz, 2x Intel®, FM10420(RRC) Gen Dual Port 100GbE Ethernet controller (100Gbit/card) 2x Intel® XXV710 PCI Express* Gen Dual Port 25GbE Ethernet controller (2x25G/card), DPDK 17.02. Score: 281 Gbits/s packet forwarding at 256B packet using cores, IO and memory on a single socket.

20

Up to 2.5x claim based on DPDK IPSec Seg-gw benchmark: Intel® Xeon® E5-2658 v4, Intel® PCH C612, DDR4-2400 Intel® 895XCC based Quick Assist Accelerator Adapter PCIe* Gen3 x8 links, DPDK 16.11 IPSec-secgw,1420 B packet). Intel® DPDK 16.11 IPsec-secgw sample application. Cores, IO, packet buffer memory, and processing cores are on a single socket. 6 cores used on one Socket, Crypto algorithm: AES-128-CBC-HMAC-SHA1 vs. Intel® Xeon® 6152 2.1 GHz, 3x Intel® Corporation, Ethernet Controller X710 (4x10 Gbe ports per card), Lewisburg B0 Quick Assist Accel-erator with PCIe Gen3 x24 links, Intel® DPDK 17.02 IPsec-secgw,  Intel® QAT1.7.Upstream.L.1.0.0-15, 6 cores used. Cores, IO, packet buffer memory, and processing cores are on a single socket. 6 cores used on one Socket, Crypto algorithm: AES-128-CBC-HMAC-SHA1.

21

Up to 2.4x claim based on TLS Web Proxy using NGINX®: Intel® Xeon® E5-2658 v4, DDR4-2133, Intel® PCH C612, Intel® 895XCC based QuickAssist Accelerator Adapter PCIe* Gen3 x8 links, OpenSSL-Async (0.4.9-009) + NGINX-1.6.2 (0.1.0-008), QAT1.6.L.2.6.0-60. Cores, IO, packet buffer memory, and processing cores are on a single socket. 6 cores used on one Socket 12Cores are used, Crypto algorithm: AES-128-CBC-HMAC-SHA1 vs. Intel Xeon 6152 2.10 GHz, DDR4-2400 3x Intel® Corporation Ethernet Controller X710 (4 x10 Gbe ports per card), 1x Intel® Corpora-tion Ethernet Controller X710 (2 x10 Gbe ports per card), PCIe x16 to 2 x8 PCIe bifurcation plugin card, Lewisburg-L B1 QuickAssist Accelerator with PCIe Gen3 x24 links, Intel®OpenSSL-1.0.1u + NGINX-1.9.6, Intel® QAT1.7.Upstream.L.1.0.0-15. Cores, IO, packet buffer memory, and processing cores are on a single socket. 6 cores used on one Socket, 20Core are used. Crypto algorithm: AES-128-CBC-HMAC-SHA1.

22

Inference: Platform: 2S Intel® Xeon® Platinum 8180 CPU @ 2.50 GHz (28 cores), HT disabled, turbo disabled, scaling governor set to “performance” via intel_pstate driver, 384GB DDR4-2666 ECC RAM. CentOS* Linux release 7.3.1611 (Core), Linux kernel 3.10.0-514.10.2.el7.x86_64. SSD: Intel® SSD DC S3700 Series (800GB, 2.5in SATA 6Gb/s, 25nm, MLC). Performance measured with: Environment variables: KMP_AFFINITY=’granularity=fine, compact‘, OMP_NUM_THREADS=56, CPU Freq set with cpupower frequency-set -d 2.5G -u 3.8G -g performance.
Deep Learning Frameworks: Caffe: (http://github.com/intel/caffe/), revision f96b759f71b2281835f690af267158b82b150b5c. Inference measured with “caffe time --forward_only” command, training measured with “caffe time” command. For “ConvNet” topologies, dummy dataset was used. For other topologies, data was stored on local storage and cached in memory before training. Topology specs from https://github.com/intel/caffe/tree/master/models/intel_optimized_models (GoogleNet, AlexNet, and ResNet-50), https://github.com/intel/caffe/tree/master/models/default_vgg_19 (VGG-19), and https://github.com/soumith/convnet-benchmarks/tree/master/caffe/imagenet_winners (ConvNet benchmarks; files were updated to use newer Caffe prototxt format but are functionally equivalent). Intel C++ compiler ver. 17.0.2 20170213, Intel® Math Kernel Library (Intel® MKL) small libraries version 2018.0.20170425. Caffe run with “numactl l”.

23

Training: Platform: 2S Intel® Xeon® CPU E5-2697 v2 @ 2.70GHz (12 cores), HT enabled, turbo enabled, scaling governor set to “performance” via intel_pstate driver, 256GB DDR3-1600 ECC RAM. CentOS Linux release 7.3.1611 (Core), Linux kernel 3.10.0-514.21.1.el7.x86_64. SSD: Intel® SSD 520 Series 240GB, 2.5in SATA 6Gb/s, 25nm, MLC.

Performance measured with: Environment variables: KMP_AFFINITY=’granularity=fine, compact,1,0‘, OMP_NUM_THREADS=24, CPU Freq set with cpupower frequency-set -d 2.7G -u 3.5G –g performance.

Deep Learning Frameworks: Caffe: (http://github.com/intel/caffe/), revision b0ef3236528a2c7d2988f249d347d5fdae831236. Inference measured with “caffe time --forward_only” command, training measured with “caffe time” command. For “ConvNet” topologies, dummy dataset was used. For other topologies, data was stored on local storage and cached in memory before training. Topology specs from https://github.com/intel/caffe/tree/master/models/intel_optimized_models (GoogleNet, AlexNet, and ResNet-50), https://github.com/intel/caffe/tree/master/models/default_vgg_19 (VGG-19), and https://github.com/soumith/convnet-benchmarks/tree/master/caffe/imagenet_winners (ConvNet benchmarks; files were updated to use newer Caffe prototxt format but are functionally equivalent). GCC 4.8.5, Intel® Math Kernel Library (Intel® MKL) small libraries version 2017.0.2.20170110.

24

벤치마크 결과는 “스펙터”와 “멜트다운”으로 알려진 공격에 대응하기 위한 목적의 최신 소프트웨어 패치 및 펌웨어 업데이트를 적용하기 이전에 얻어진 것입니다. 이러한 업데이트를 적용할 경우 이와 같은 결과가 귀하의 장치 또는 시스템에는 해당하지 않을 수 있습니다.

성능 테스트에 사용된 소프트웨어 및 워크로드는 인텔® 마이크로프로세서에만 적합하도록 최적화되었을 수 있습니다. SYSmark* 및 MobileMark*와 같은 성능 테스트는 특정 컴퓨터 시스템, 구성 요소, 소프트웨어, 운영 및 기능을 사용하여 측정됩니다. 해당 요소에 변경이 생기면 결과가 달라질 수 있습니다. 구매를 고려 중인 제품을 제대로 평가하려면 다른 제품과 결합하여 사용할 경우 해당 제품의 성능을 포함한 기타 정보 및 성능 테스트를 참고해야 합니다. 더 자세한 내용은 https://www.intel.co.kr/benchmarks를 참조하십시오.

최대 1.63배 향상: Weather Research Forecasting의 기하 평균 기준 - Conus 12Km, HOMME, LSTCLS-DYNA Explicit, INTES PERMAS V16, MILC, GROMACS water 1.5M_pme, VASPSi256, NAMDstmv, LAMMPS, Amber GB Nucleosome, Binomial Option Pricing, Black-Scholes, Monte Carlo European 옵션. 결과는 인텔 내부 분석을 바탕으로 얻은 추정치이며 참조용으로만 제공됩니다. 시스템 하드웨어 또는 소프트웨어의 설계나 구성의 차이는 실제 성능에 영향을 줄 수 있습니다.