마스터 데이터 워크플로우
특별 제작된 이 워크스테이션은 대용량 메모리, 다양한 장치에 연결하는 수많은 확장 슬롯, 그리고 여러분과 같은 Python 기반 데이터 과학자와 데이터 분석가 특유의 요구 사항을 충족하는 엄선된 CPUS를 결합합니다.
강력한 기능을 제공하는 데이터 사이언스 워크스테이션
데이터 과학자는 대부분의 시간을 CPU 집약적인 Python 라이브러리와 알고리즘으로 중대형 데이터 세트를 다루는 데 소비합니다. 이로 인해 대부분의 워크스테이션이 무너지게 됩니다.
여러분의 워크스테이션이 모델 교육에 대해 과하게 구축되었고, 메모리 집약적 데이터 변환에 대해서는 충분히 구축되어 있지 않기 때문일 것입니다.
데이터 로드 및 탐색 시 메모리 오류 방지 - Pandas 함수가 기기나 클라우드 인스턴스에서 사용할 수 있는 양보다 많은 메모리를 필요로 할 때 흔히 나타나는 상황입니다.
이전 세대보다 빠른 NumPy/SciPy 계산
선형 대수는 수치학과 데이터 사이언스의 기초입니다. NumPy와 SciPy가 제공하는 수치 연산 도구는 데이터 과학자가 수치 분석, 함수, 다양한 머신 러닝 모델, 수학 공식을 통해 작업할 수 있게 합니다. iBench는 dot, det, inv, lu, qr, svd 같은 NumPy와 SciPy에서 사용되는 공통 알고리즘의 선형 대수에서 스트레스 명령어를 테스트하는 벤치마크입니다. 성능은 초 단위로 측정됩니다(낮을수록 좋음). 4세대 Xeon-W3495X는 최신 iBench 테스트에서 3세대 Xeon-W3275에 비해 25%~75% 더 빠른 성능을 보였습니다.1
데이터 사이언스 효율성 극대화
인텔은 데이터 집약적 인공 지능과 머신 러닝 워크플로우를 빠르고, 유연하고, 반응성이 뛰어난 형태로 만들기 위해 인텔 기반 데이터 사이언스 워크스테이션을 설계했습니다. 듀얼 소켓 시스템에서 최대 8TB의 메모리와 워크로드에 맞는 CPU를 탑재한 이 워크스테이션은 메모리에서 중대형 데이터 세트를 실행하여 인공 지능 개발에서 가장 많은 시간이 소요되는 작업 시간을 단축할 수 있습니다.
권장하는 인텔 기반 데이터 사이언스 워크스테이션
인텔 기반 데이터 사이언스 워크스테이션은 다양한 CPU, 메모리 용량, PCIe 확장 슬롯을 탑재한 모바일, 일반, 전문가용 세 가지 플랫폼으로 제공됩니다.
32GB-64GB 데이터 세트용 데이터 사이언스 모바일 플랫폼
모바일 인공 지능 개발과 데이터 시각화를 위한 눈부신 성능.
- 최대 24코어(8P+16E)를 지원하는 인텔® 코어™ HX-시리즈.
- 모든 플랫폼을 위한 128GB DDR5 DRAM.
- 권장 SKU:
- i9-13950HX(24코어)
- i7-13850HX(20코어)
64GB-512GB 데이터 세트용 데이터 사이언스 일반 플랫폼
중간 규모 데이터 세트의 전처리 및 분석을 위한 우수한 가격 대비 성능.
- 최대 24코어를 지원하는 인텔® 제온® W-2400 프로세서.
- DDR5 RIDMM 최대 2TB.
- 권장 SKU:
- W7-2495X(24코어)
- W5-2465X(16코어)
듀얼 소켓 플랫폼에 최대 8TB DDR5를 지원하는 데이터 사이언스 전문가 플랫폼
최대 성능으로 대규모 데이터 세트 처리, 머신 러닝, 데이터 분석.
- 최대 56코어의 인텔® 제온® W-3400 프로세서.
- W-3400 시리즈용 최대 4TB DDR5 RIDMM, 듀얼 소켓 제온® SP 4세대 플랫폼용 최대 8TB DDR5.
- 단일 소켓 플랫폼용 권장 SKU:
- W9-3475X(36코어)
- W7-3455(24코어)
- W5-3425X(16코어)
- 단일 소켓 플랫폼용 권장 SKU:
- 6448Y(32코어)
- 6442Y(24코어)
- 6444Y(16코어)
더 빠른 속도로 실행하는 인텔® oneAPI AI 분석 툴킷
인텔은 Python 에코시스템에서 가장 널리 사용되는 도구를 인텔 아키텍처에 최적화하여 인텔® oneAPI AI 분석 툴킷에 번들로 제공합니다. 이로써 간편하게 데이터 사이언스 환경을 구축할 수 있으며, 이러한 도구의 성능이 향상됩니다. 이 간단한 최적화는 실행 준비가 되어 있으므로 코드를 거의 변경하지 않고 더 빠르게 작업할 수 있습니다.
자주 묻는 질문
데이터 사이언스 워크스테이션을 선택할 때 고려해야 할 두 가지 주요 요소는 가장 많이 사용하는 도구 및 기술과 데이터 세트의 크기입니다.
데이터 사이언스의 프레임워크의 경우, 코어 수가 많다고 항상 성능이 향상되는 것은 아닙니다. NumPy, SciPy, scikit-learn은 18코어보다 확장되지 않습니다. 반면, HEAVY.AI(이전 OmniSci)는 가능한 모든 코어를 사용합니다.
모든 인텔 기반 데이터 사이언스 워크스테이션은 인텔® 코어™, 인텔® 제온® W, 인텔® 제온® 스케일러블 프로세서를 사용하며, 실제 환경 테스트에서 데이터 사이언스 워크로드를 우수하게 처리합니다. 이 모든 제품에서 프로세서 제품군 중 최고의 성능을 얻을 수 있으므로 메모리 용량이 가장 중요한 선택이 됩니다.
데이터 사이언스 프레임워크는 메모리 사용 공간을 2~3배로 확장합니다. 기본 메모리 요구 사항을 파악하려면 일반 데이터 세트를 검토하고, 해당 값에 3을 곱합니다. 512GB 또는 그 이하의 용량으로 작업할 수 있다면, 데스크탑 컴퓨터에서 우수한 성능을 얻을 수 있습니다. 데이터 세트가 보통 500GB 이상이라면 1.5TB 이상의 메모리가 있는 타워 컴퓨터가 필요할 것입니다.
GPU 가속기는 딥 러닝 모델 교육과 대규모 딥 러닝 추론에서 빛을 발합니다. 그러나 대부분의 데이터 사이언스 작업(데이터 준비와 분석, 일반 머신 러닝)에서는 대부분 Python 라이브러리가 기본적으로 CPU에서 실행되기 때문에 해당 GPU는 유휴 상태에 놓이게 됩니다. 디스플레이를 구동하기 위해 그래픽 어댑터는 필요하지만, GPU 기기는 필요하지 않습니다.
클라우드는 전용 VM이나 베어 메탈 서버에서 실행되지 않는 한 최상의 성능을 발휘하지 못합니다. 클라우드 인스턴스는 단일 노드로 나타나지만, 백엔드에서는 매우 분산되어 있습니다. 여러분의 워크로드와 데이터는 여러 위치의 여러 서버로 분산되어 처리됩니다. 이로 인해 처리 및 메모리 대기 시간이 발생해 런타임이 저하됩니다. 또한, 원격 데스크탑에서 대규모 데이터 세트와 그래프로 작업하는 것은 이상적인 환경이 아닙니다.
워크로드와 데이터를 한 대의 컴퓨터에 저장하여 사용하면 훨씬 더 우수한 성능과 더 유연하고 빠른 작업 환경을 제공할 수 있습니다.
가능은 하지만, 데이터가 스토리지와 메모리, CPU를 이리저리 이동하는 것을 지켜보는 데 엄청난 시간을 소모하게 됩니다. 전문적인 환경에서 작업한다면, 인텔® 데이터 사이언스 노트북이나 중급 노트북으로 업그레이드하는 것이 시간을 절약하는 방법입니다. 인텔은 학생, 초보자, AI 제조사가 오픈 소스 AI 도구를 개발하고 실험하는 데 저렴한 제품을 선택할 수 있도록 인텔® 코어™ 기반의 데이터 사이언스 노트북을 테스트해 사양을 맞췄습니다.
인텔에 최적화된 라이브러리와 배포판을 사용해 일반 PC에서 빠르게 Python 기반 데이터 사이언스 도구를 실행할 수 있습니다. 모두 인텔® AI 키트의 구성품입니다.
고지 및 부인 정보
NumPy/SciPy – Inv, N=25000에서 인텔 검증 플랫폼을 통해 인텔® 제온® w9-3495X와 인텔® 제온® w9-3275를 측정한 결과입니다
구성에 대한 자세한 정보는 intel.com/performanceindex를 참조하십시오. 결과는 다를 수 있습니다.
성능 결과는 구성에 표시된 날짜의 테스트를 기반으로 하며 공개된 모든 업데이트가 반영되어 있지 않을 수도 있습니다. 구성 백업 상세 정보를 확인하십시오. 자세한 정보는 intel.com/PerformanceIndex를 참조하십시오.
Pandas, scikit-learn, TensorFlow 가속화는 Modin의 Intel® Distribution으로 달성됩니다. 자세한 내용은 intel.com/content/www/kr/ko/developer/articles/technical/code-changes-boost-pandas-scikit-learn-tensorflow.html#gs.mdyh9o에서 확인하세요.
© 인텔사. 인텔, 인텔 로고 및 기타 인텔 마크는 인텔사 또는 그 자회사의 상표입니다. 기타 명칭 및 브랜드는 해당 소유업체의 자산입니다.