적은 비용, 강력한 파워

AWS(Amazon Web Services) 인공 지능 GM Matt Wood 박사는 AWS가 인텔® 제온® 스케일러블 프로세서를 활용하여 보다 적은 리소스로도 어떻게 더 많은 작업의 처리할 수 있었는지 설명합니다. Amazon과 인텔은 10년이 넘는 세월 동안 손을 잡고 신기술을 개발해 왔습니다. 양사의 긴밀한 협력 덕분에 보다 적은 리소스로 더 많은 작업을 처리하는 새로운 EC2 인스턴스 제품군을 선보일 수 있었습니다. 적은 비용으로 더 많은 연산 능력이 제공되면 고객은 적은 리소스로도 많은 작업을 처리할 수 있습니다. 작년 11월에 공개된 새로운 C5 인스턴스 제품군에는 새로운 마이크로아키텍처와 새로운 하드웨어 가속 기능이 도입되었으며 인텔의 AVX-512 명령어 집합을 지원하는 맞춤형 인텔® 제온® ...스케일러블 프로세서로 구동됩니다. 인텔® 제온® 스케일러블 프로세서에 C5 인스턴스 제품군의 네트워킹 및 가속 혁신이 결합된 결과, 고성능 컴퓨팅과 머신 러닝, 인공 지능의 새로운 시대가 열리게 되었습니다. 이제 그 어느 때보다도 경제적이고 손쉽게 어떤 규모로든 데이터를 수집하고 이를 다양한 데이터베이스와 스토리지 서비스에 저장하여 맞춤형 시스템과 딥 러닝 모델을 구축할 수 있게 되었습니다. 현재 기업이 머신 러닝 워크로드를 가장 많이 배포하고 있는 플랫폼은 바로 AWS입니다. 그중에서도 거대 보험회사이자 투자자문 기업인 Aon은 AWS에서 머신 러닝으로 금융 시뮬레이션을 돌린 결과, 평소에는 며칠이 걸리던 시뮬레이션을 몇 분 만에 끝낼 수 있었습니다. 또한 고객은 인텔® 제온® 스케일러블 프로세서의 연산 능력을 바탕으로 다량의 데이터를 사용하여 머신 러닝으로 뒷받침되는 혁신적인 신제품과 환경을 개발할 수 있습니다. 인텔과 함께 최신 버전의 인텔® Math Kernel Library(인텔® MKL)로 딥 러닝 엔진을 최적화했습니다. 새로운 C5 인스턴스 제품군에 탑재된 인텔® 제온® 스케일러블 프로세서는 추론 성능을 500배 이상 향상시켜 줍니다. 또한 Apache Spark*, BigDL과 같은 익숙한 도구를 사용하여 AWS에서 손쉽게 분산 딥 러닝 응용 프로그램을 빌드할 수 있음을 인텔과 함께 시연해 보였습니다. 엔지니어와 과학자들은 고성능 컴퓨팅을 바탕으로 다량의 데이터가 사용되는 복잡한 연산 문제를 해결할 수 있습니다. 뛰어난 네트워크 성능과 빠른 속도의 스토리지, 다량의 메모리와 고도의 컴퓨팅 능력이 요구되는 HPC 응용 프로그램은 새로운 C5를 비롯해 컴퓨팅에 최적화된 인스턴스에 매우 적합한 워크로드입니다. 이러한 워크로드를 AWS에서 실행하면 인텔® 제온® 프로세서를 실행하는 수천, 수만 개의 EC2 인스턴스에 액세스하여 온프레미스 HPC 환경에서라면 상상도 못할 만큼 비용 효율적인 방식으로 연구의 속도를 가속할 수 있습니다. 일례로 Novartis는 10,600개의 EC2 인스턴스와 약 87,000개의 컴퓨팅 코어를 사용하여 39년에 걸쳐 축적된 화학 연산을 단 9시간 만에 처리하고 표적 종양에 대해 천만 개의 복합체를 검사했습니다. 이처럼 놀라운 연산 능력은 의료, 생명 과학, 금융 서비스, 과학 연구, 우주 항공, 자동차, 제조, 에너지 등과 같은 여러 업종에서 가능성의 한계를 확장하고 있습니다. 앞으로도 인텔과 함께 AWS를 혁신하여 누구나 어디서나 최고의 성능을 손쉽게 이용할 수 있도록 지원하기 위해 노력할 것입니다.

클라우드 컴퓨팅

유연성 증가, 비용 최적화 및 효율성 향상을 위한 최신 클라우드 컴퓨팅 전략을 알아보십시오.

자세한 내용 보기