인텔® 제온® 확장 가능한 프로세서를 사용하면 실행 가능한 인사이트와 하드웨어 기반 보안을 확보하고 동적 서비스를 제공할 수 있습니다. 하이브리드 클라우드 인프라와 함께 메모리 내 분석, 인공 지능, 자율 주행, 고성능 컴퓨팅(HPC), 네트워크 혁신 등 가장 까다로운 응용 분야도 지원할 수 있습니다.

플랫폼 이점 알아보기 ›

인텔® 제온® 플래티넘 프로세서

  • 고사양 미션 크리티컬 AI, 분석, 하이브리드 클라우드 워크로드
  • 최고의 성능
  • 2,4,8개 이상의 소켓 확장성

인텔® 제온® 골드 프로세서

  • 워크로드에 최적화된 성능, 우수한 신뢰성
  • 최고의 메모리 속도, 용량 및 상호 연결
  • 강화된 2~4개 소켓 확장성

인텔® 제온® 실버 프로세서

  • 기본적인 성능 및 전력 효율
  • 개선된 메모리 속도
  • 일반적인 범위의 컴퓨팅, 네트워크 및 스토리지

인텔® 제온® 브론즈 프로세서

  • 소규모 비즈니스를 위한 경제적인 성능 및 기본 스토리지
  • 하드웨어로 강화된 보안
  • 안정적인 2개 소켓 확장성

클라우드 투자에서 더 많은 가치 실현

인텔® 기술에 필요한 강력한 비용당 성능을 실현해 보십시오. 인텔® 아키텍처 기반 클라우드를 사용하면 보다 낮은 총소유비용으로 데이터베이스, 고성능 컴퓨팅(HPC), 웹과 같은 데이터 집약적인 핵심 워크로드에서 더 나은 성능을 달성할 수 있습니다.1 2 3 4 5

2.84배 높은 성능

HammerDB PostgreSQL*, MongoDB* 등의 데이터베이스 워크로드 성능이 달러당 최대 2.84배 높아집니다.1

자세한 내용

4.15배 높은 성능

고성능 LINPACK*과 LAMMPS*의 성능이 달러당 최대 4.15배 높아집니다.2

자세한 내용

1.74배 높은 성능

Server Side Java의 비용당 성능이 향상되고 WordPress PHP/HHVM의 비용당 성능도 1.74배 향상됩니다.3

자세한 내용

2.25배 높은 성능

메모리 대역폭 애플리케이션에서 비용당 최대 2.25배 높은 성능을 제공합니다.4

자세한 내용

인텔 데이터 중심 포트폴리오

더 빠르게 이동

인텔® 이더넷으로 더 빠르게 데이터 이동

인텔® 이더넷으로 데이터를 더 빠르게 이동하고 새 서비스와 기능의 제공을 가속화하십시오.

인텔® 이더넷에 대한 자세한 내용 ›

더 많이 저장

한 세대에 한 번뿐인 혁신

인텔® Optane™ DC 기술로 더 크고 더 복잡한 데이터 세트를 최적화, 저장 및 이동하십시오. 다양한 제품과 솔루션에서 사용 가능한 이 혁신은 영구 메모리, 대용량 메모리 풀, 빠른 캐싱 및 빠른 저장을 제공함으로써 스토리지와 메모리 계층 구조의 주요 간극을 메웁니다.

인텔® Optane™ DC 영구 메모리 ›

인텔® Optane™ DC SSD ›

모든 것을 처리

보다 빠른 정보 활용

AI 가속 기능을 갖춘 업계 최고의 인텔 워크로드 최적화 플랫폼은 멀티 클라우드와 인텔리전트 에지 사이의 데이터 변환 속도를 높이는 데 도움이 되는 원활한 성능 기반을 마련합니다.

인텔® 제온® 프로세서 ›

인텔® FPGA ›

인텔® 제온® 확장 가능한 플랫폼: 데이터 중심 혁신의 기반

디지털로의 전환을 위한 강력한 플랫폼 혁신.

보다 빠른 정보 활용

2세대 인텔® 제온® 확장 가능한 프로세서는 AI 가속 기능과 함께 업계 최고의 워크로드 최적화 성능을 제공하여 멀티 클라우드와 인텔리전트 에지 사이의 데이터 변환 속도를 높이는 데 도움이 되는 원활한 성능 기반을 마련합니다.

플랫폼 벤치마크 보기

하드웨어로 강화된 보안 기능과 비즈니스 탄력성

설계로 강화된 데이터 보호. 하드웨어로 강화된 인텔의 보안 기능이 워크로드 무결성과 성능을 유지하면서 악용을 막습니다. 사용할 때, 사용하지 않을 때, 전송 중에 신뢰할 수 있는 데이터 서비스 전달을 제공하는 효과적인 암호화.

데이터 센터용 인텔® 보안 라이브러리(인텔® SecL - DC)

신뢰할 수 있는 인프라 구축

민첩한 서비스 전달

하드웨어로 강화된 컴퓨팅, 네트워크, 스토리지 시각화와 플랫폼 혁신이 경제적이고 유연하며 확장 가능한 멀티 클라우드를 위한 새로운 차원의 메모리 혁신을 지원하고 놀라운 B2B 및 B2C 경험을 지속적으로 제공합니다.

인텔® 인프라 관리 기술

주요 데이터 중심 워크로드 혁신

2세대 인텔® 제온® 확장 가능한 프로세서와 업계를 선도하는 인텔의 데이터 중심 포트폴리오가 어떻게 인프라 현대화와 AI, 분석, 클라우드 및 HPC의 데이터 정보 활용 가속화에 도움이 되는지 알아보십시오.

자세한 내용

인텔® 실렉트 솔루션으로 가치 실현 시간 단축

엄격한 벤치마크 테스트와 검증을 거치고 실제 성능에 맞게 최적화된 솔루션으로 데이터 센터 구축을 간소화하십시오. 이러한 솔루션을 활용하여 오늘날의 중요한 워크로드 처리를 위한 인텔® 제온® 프로세서 기반의 인프라를 빠르게 구축할 수 있습니다.

자세한 내용

인텔 데이터 중심 플랫폼에 대한 자세한 내용

비디오를 통해 인텔의 데이터 중심 제품 포트폴리오가 데이터 센터의 중심부와 에지 사이에서 어떠한 이점을 제공하는지 알아보십시오.

제품 및 성능 정보

1

결과는 2019년 1월 12일 기준 AWS 요금(시간당 1달러, 스탠다드 1년, 선불 없음)에 따라 Intel P2CA에 의해 계산되었습니다.
AWS* EC2 R5 과 R5a 인스턴스(https://aws.amazon.com/ec2/instance-types/)에 대해 실시된 달러당 성능 테스트는, 달러당 96 vCPU 인텔® 제온® 스케일러블 프로세서 성능과 달러당 AMD EPYC* 프로세서 성능을 비교했습니다.

워크로드: HammerDB* PostgreSQL*
결과: 달러당 AMD EPYC 성능 = 기준이 1일 때 달러당 인텔® 제온® 스케일러블 프로세서 성능 = 1.85X(높을수록 좋음)
데이터베이스: HammerDB – PostgreSQL(높을수록 좋음):
AWS R5.24xlarge(인텔) 인스턴스, HammerDB 3.0 PostgreSQL 10.2, 메모리: 768GB, 하이퍼바이저: KVM; 스토리지 유형: EBS io1, 디스크 볼륨 200GB, 총메모리 200GB, 도커 버전: 18.06.1-ce, RedHat* Enterprise Linux 7.6, 3.10.0-957.el7.x86_64, 6400MB shared_buffer, 256 웨어하우스, 사용자 96명. 점수 “NOPM” 439931, 2018년 12월 11일-2018년 12월 14일에 인텔에서 측정.
AWS R5a.24xlarge(AMD) 인스턴스, HammerDB 3.0 PostgreSQL 10.2, 메모리: 768GB, 하이퍼바이저: KVM; 스토리지 유형: EBS io1, 디스크 볼륨 200GB, 총메모리 200GB, 도커 버전: 18.06.1-ce, RedHat* Enterprise Linux 7.6, 3.10.0-957.el7.x86_64, 6400MB shared_buffer, 256 웨어하우스, 사용자 96명. 점수 “NOPM” 212903, 2018년 12월 20일에 인텔에서 측정.

워크로드: MongoDB*
결과: 달러당 AMD EPYC 성능 = 기준이 1일 때 달러당 인텔® 제온® 스케일러블 프로세서 성능 = 2.84X(높을수록 좋음)
데이터베이스: MongoDB(높을수록 좋음):
AWS R5.24xlarge(인텔) 인스턴스, MongoDB v4.0, 저널 사용 안 함, 파일시스템 동기화 사용 안 함, wiredTigeCache=27GB, maxPoolSize = 256; 7개 MongoDB 인스턴스, 14개 클라이언트 VM, VM당 1개 YCSB 클라이언트, YCSB 클라이언트당 96개 스레드, RedHat* Enterprise Linux 7.5, 커널 3.10.0-862.el7.x86_64, 점수 1229288 ops/sec, 2018년 12월 10일에 인텔에서 측정.
AWS R5a.24xlarge(AMD) 인스턴스, MongoDB v4.0, 저널 사용 안 함, 파일시스템 동기화 사용 안 함, wiredTigeCache=27GB, maxPoolSize = 256; 7개 MongoDB 인스턴스, 14개 클라이언트 VM, VM당 1개 YCSB 클라이언트, YCSB 클라이언트당 96개 스레드, RedHat* Enterprise Linux 7.5, 커널 3.10.0-862.el7.x86_64, 점수 388596 ops/sec, 2018년 12월 10일에 인텔에서 측정.
자세한 내용은 www.intel.co.kr/benchmarks를 참조하십시오.

2

결과는 2019년 1월 12일 기준 AWS 요금(시간당 1달러, 스탠다드 1년, 선불 없음)에 따라 Intel P2CA에 의해 계산되었습니다.
AWS* EC2 M5 과 M5a 인스턴스(https://aws.amazon.com/ec2/instance-types/)에 대해 실시된 달러당 성능 테스트는, 달러당 96 vCPU 인텔® 제온® 스케일러블 프로세서 성능과 달러당 AMD EPYC* 프로세서 성능을 비교했습니다.

워크로드: LAMMPS*
결과: 달러당 AMD EPYC 성능 = 기준이 1일 때 달러당 인텔® 제온® 스케일러블 프로세서 성능 = 4.15X(높을수록 좋음)
HPC Materials Science – LAMMPS(높을수록 좋음):
AWS M5.24xlarge(인텔) 인스턴스, LAMMPS 버전: 2018-08-22(코드: https://lammps.sandia.gov/download.html), 워크로드: Water – 512K Particles, 인텔 ICC 18.0.3.20180410, 인텔® MPI Library for Linux* OS, 버전 2018 업데이트 3 빌드 20180411, 48 MPI Ranks, RedHat* Enterprise Linux 7.5, 커널 3.10.0-862.el7.x86_64, OMP_NUM_THREADS=2, 점수 137.5 timesteps/sec, 2018년 10월 31일에 인텔에서 측정.
AWS M5a.24xlarge(AMD) 인스턴스, LAMMPS 버전: 2018-08-22(코드: https://lammps.sandia.gov/download.html), 워크로드: Water – 512K Particles, 인텔 ICC 18.0.3.20180410, 인텔® MPI Library for Linux* OS, 버전 2018 업데이트 3 빌드 20180411, 48 MPI Ranks, RedHat* Enterprise Linux 7.5, 커널 3.10.0-862.el7.x86_64, OMP_NUM_THREADS=2, 점수 55.8 timesteps/sec, 2018-11-07에 인텔에서 측정.
AMD를 위해 AVX2를 지원하도록 변경(AMD는AVX2만 지원하므로 변경이 필요):
sed -i 's/-xHost/-xCORE-AVX2/g' Makefile.intel_cpu_intelmpi
sed -i 's/-qopt-zmm-usage=high/-xCORE-AVX2/g' Makefile.intel_cpu_intelmpi

워크로드: High-performance Linpack*
결과: 달러당 AMD EPYC 성능 = 기준이 1일 때 달러당 인텔® 제온® 스케일러블 프로세서 성능 = 4.15X(높을수록 좋음)
HPC Linpack(높을수록 좋음):
AWS M5.24xlarge(인텔) 인스턴스, HP Linpack 버전 2.2(https://software.intel.com/en-us/articles/intel-mkl-benchmarks-suite 디렉터리: benchmarks_2018.3.222/linux/mkl/benchmarks/mp_linpack/bin_intel/intel64), AVX512 적용 인텔 ICC 18.0.3.20180410 , 인텔® MPI Library for Linux* OS, 버전 2018 업데이트 3 빌드 20180411, RedHat* Enterprise Linux 7.5, 커널 3.10.0-862.el7.x86_64, OMP_NUM_THREADS=24, 2 MPI 프로세스, 점수 3152 GB/s, 2018년 10월 31일에 인텔에서 측정.
AWS M5a.24xlarge(AMD) 인스턴스, HP Linpack 버전 2.2,(HPL 출처: http://www.netlib.org/benchmark/hpl/hpl-2.2.tar.gz; 버전 2.2; BLIS library version 0.4.0에 컴파일하고 링크 하는데 icc(ICC) 18.0.2 20180210 사용; https://github.com/flame/blis; 추가 컴파일러 플래그: -O3 -funroll-loops -W -Wall –qopenmp; make arch=zen OMP_NUM_THREADS=8; 6 MPI 프로세스.), AVX2를 적용한 인텔 ICC 18.0.3.20180410, 인텔® MPI Library for Linux* OS, 버전 2018 업데이트 3 빌드 20180411, RedHat* Enterprise Linux 7.5, 커널 3.10.0-862.el7.x86_64, OMP_NUM_THREADS=8, 6 MPI 프로세스, 점수 677.7 GB/s, 2018년 11월 7일에 인텔에서 측정.

3

결과는 2019년 1월 12일 기준 AWS 요금(시간당 1달러, 스탠다드 1년, 선불 없음)에 따라 Intel P2CA에 의해 계산되었습니다.
AWS* EC2 M5 과 M5a 인스턴스(https://aws.amazon.com/ec2/instance-types/)에 대해 실시된 달러당 성능 테스트는, 달러당 96 vCPU 인텔® 제온® 스케일러블 프로세서 성능과 달러당 AMD EPYC* 프로세서 성능을 비교했습니다.

워크로드: Server Side Java* 1 JVM
결과: 달러당 AMD EPYC 성능 = 기준이 1일 때 달러당 인텔® 제온® 스케일러블 프로세서 성능 = 1.74X(높을수록 좋음)
Server Side Java(높을수록 좋음):
AWS M5.24xlarge(인텔) 인스턴스, Java Server Benchmark No NUMA binding, 2JVM, OpenJDK 10.0.1, RedHat* Enterprise Linux 7.5, 커널 3.10.0-862.el7.x86_64, 점수 101767 Transactions/sec, 2018년 11월 16일에 인텔에서 측정.
AWS M5a.24xlarge(AMD) 인스턴스, Java Server Benchmark No NUMA binding, 2JVM, OpenJDK 10.0.1, RedHat* Enterprise Linux 7.5, 커널 3.10.0-862.el7.x86_64, 점수 52068 Transactions/sec, 2018년 11월 16일에 인텔에서 측정.

워크로드: Wordpress* PHP/HHVM*
결과: 달러당 AMD EPYC 성능 = 기준이 1일 때 달러당 인텔® 제온® 스케일러블 프로세서 성능 = 1.75X(높을수록 좋음)
웹 프론트엔드 Wordpress(높을수록 좋음):
AWS M5.24xlarge(인텔) 인스턴스, oss-performance/wordpress Ver 4.2.0; Ver 10.2.19-MariaDB-1:10.2.19+maria~bionic; 워크로드 버전': u'4.2.0; 클라이언트 스레드: 200; PHP 7.2.12-1; perfkitbenchmarker_version="v1.12.0-944-g82392cc; Ubuntu 18.04, Kernel Linux 4.15.0-1025-aws, 점수 3626.11 TPS, 2018년 11월 16일에 인텔에서 측정.
AWS M5a.24xlarge(AMD) 인스턴스, oss-performance/wordpress Ver 4.2.0; Ver 10.2.19-MariaDB-1:10.2.19+maria~bionic; 워크로드 버전': u'4.2.0; 클라이언트 스레드: 200; PHP 7.2.12-1; perfkitbenchmarker_version="v1.12.0-944-g82392cc; Ubuntu 18.04, Kernel Linux 4.15.0-1025-aws, 점수 1838.48 TPS, 2018년 11월 16일에 인텔에서 측정.
자세한 내용은 www.intel.co.kr/benchmarks를 참조하십시오.

4

AWS M5.4xlarge(인텔) 인스턴스, McCalpin Stream(OMP 버전), (출처: https://www.cs.virginia.edu/stream/FTP/Code/stream.c); AVX512 적용 인텔 ICC 18.0.3 20180410, -qopt-zmm-usage=high, -DSTREAM_ARRAY_SIZE=134217728 -DNTIMES=100 -DOFFSET=0 –qopenmp, -qoptstreaming-stores always -o $OUT stream.c, Red Hat* Enterprise Linux 7.5, 커널 3.10.0-862.el7.x86_64, OMP_NUM_THREADS: 8, KMP_AFFINITY: proclist=[0-7:1], granularity=thread, explicit, 점수: 81216.7MB/s, 18/6/12에 인텔에서 측정.
AWS M5a.4xlarge(AMD) 인스턴스, McCalpin Stream(OMP 버전), (출처: https://www.cs.virginia.edu/stream/FTP/Code/stream.c); AVX2적용 인텔 ICC 18.0.3 20180410, -DSTREAM_ARRAY_SIZE=134217728, -DNTIMES=100 -DOFFSET=0 -qopenmp -qopt-streaming-stores always -o $OUT stream.c, Red Hat* Enterprise Linux 7.5, 커널 3.10.0-862.el7.x86_64, OMP_NUM_THREADS: 8, KMP_AFFINITY : proclist=[0-7:1], granularity=thread,explicit, 점수: 32154.4MB/s, 18/6/12에 인텔에서 측정.
OpenFOAM 고지 사항: 이 제안은 OpenCFD 유한회사, www.openfoam.com을 통한 OpenFOAM 소프트웨어의 제작자 및 배포자, OpenFOAM* 및 OpenCFD* 등록 상표의 소유자에 의해 승인 또는 보증되지 않습니다.
AWS 가격은 2019년 1월 12일 기준 1년 예약 인스턴스 요금(https://aws.amazon.com/ec2/pricing/reserved-instances/pricing/)의 온디맨드 Linux/Unix 시간당 사용량 기준 요금(https://aws.amazon.com/ec2/pricing/on-demand/)입니다.

5

인텔® 딥 러닝 부스트(인텔® DL 부스트)를 통해 인텔® 제온® Platinum 9282 프로세서에서 최대 30배의 추론 처리량 개선: 2019년 2월 26일 인텔에 의해 실시된 테스트. 플랫폼: Dragon Rock 2 소켓 인텔® 제온® Platinum 9282 프로세서(소켓당 56코어), HT 사용, 터보 사용, 총 메모리 768GB(24슬롯/32GB/2933MHz), BIOS: SE5C620.86B.0D.01.0241.112020180249, CentOS 7 커널 3.10.0-957.5.1.el7.x86_64, 딥 러닝 프레임워크: Caffe용 인텔® 최적화* 버전: https://github.com/intel/caffe d554cbf1, ICC 2019.2.187, MKL DNN 버전: v0.17(커밋 해시: 830a10059a018cd2634d94195140cf2d8790a75a), 모델: https://github.com/intel/caffe/blob/master/models/intel_optimized_models/int8/resnet50_int8_full_conv.prototxt, BS=64, 무 데이터 계층 syntheticData: 3x224x224, 56인스턴스/2소켓, 데이터 형식: INT8 vs. 인텔에서 2017년 7월 11일에 테스트: 2S 인텔® 제온® Platinum 8180 CPU @ 2.50GHz(28코어), HT 사용 안 함, 터보 사용 안 함, intel_pstate 드라이버를 통해 scaling governor를 "performance"로 설정, 384GB DDR4-2666 ECC RAM. CentOS 리눅스* 릴리스 7.3.1611(코어), 리눅스* 커널 3.10.0-514.10.2.el7.x86_64. SSD: 인텔® SSD 데이터 센터 S3700 시리즈(800GB, 2.5인치 SATA 6Gb/s, 25nm, MLC). 성능 측정 조건: 환경 변수: KMP_AFFINITY='granularity=fine, compact‘, OMP_NUM_THREADS=56, CPU 주파수를 CPU 전원 주파수 -d 2.5G -u 3.8G -g 성능으로 설정. Caffe: (http://github.com/intel/caffe/), 개정 f96b759f71b2281835f690af267158b82b150b5c. 추론은 "caffe time --forward_only" 명령으로, 트레이닝은 "caffe time" 명령으로 측정했습니다. "ConvNet" 토폴로지에는 합성 데이터 집합을 사용했습니다. 기타 토폴로지의 경우 데이터가 로컬 스토리지에 저장되어 트레이닝 전에 메모리에 캐싱되었습니다. 토폴로지 사양: https://github.com/intel/caffe/tree/master/models/intel_optimized_models(ResNet-50). 인텔® C++ 컴파일러 버전 17.0.2 20170213, 인텔® Math Kernel Library(인텔® MKL) 소형 라이브러리 버전 2018.0.20170425. Caffe는 "numactl -l"로 실행.