이 솔루션 요약에서는 Napatech의 통합 하드웨어 및 소프트웨어 솔루션이 호스트 CPU에서 IPU로 NVMe/TCP 스토리지 워크로드를 오프로드하여 CAPEX, OPEX 및 에너지 소비를 크게 줄이는 방법을 설명합니다. 또한, 시스템에 보안 격리를 도입하여 사이버 공격에 대한 보호를 강화합니다.
NVMe over TCP란 무엇입니까?
NVMe/TCP는 표준 데이터 센터 패브릭을 사용하여 네트워크를 통해 비휘발성 메모리 익스프레스(NVMe) 스토리지 장치에 액세스할 수 있는 스토리지 기술입니다. 그림 1을 참조하십시오.
최신 클라우드와 엔터프라이즈 데이터 센터에서 NVMe/TCP를 도입하는 사례가 늘고 있는데, 이는 인터넷 소형 컴퓨터 시스템 인터페이스(iSCSI) 파이버 채널과 같은 구형 스토리지 프로토콜보다 탁월한 이점을 제공하기 때문입니다.

-
더 높은 성능: NVMe는 최신 고속 NAND 기반 솔리드 스테이트 드라이브(SSD)를 최대한 활용하도록 설계되었으며 기존 스토리지 프로토콜보다 훨씬 빠른 데이터 전송 속도를 제공합니다. NVMe/TCP는 이러한 이점을 네트워크 스토리지 환경으로 확장하여 데이터 센터에서 패브릭을 통해 고성능 스토리지 액세스를 수행할 수 있도록 지원합니다.
-
지연 시간 감소: 지연 시간이 짧은 NVMe/TCP의 특성은 데이터 집약적인 응용 프로그램 및 실시간 워크로드에 매우 중요합니다. NVMe/TCP를 사용하면 통신 오버헤드를 최소화하고 프로토콜을 변환할 필요가 없어져 스토리지 액세스 지연 시간을 줄이고 전체적인 응용 프로그램 성능을 향상할 수 있습니다.
-
확장성: 데이터 센터는 대규모 스토리지 배포를 처리하는 경우가 많은데, NVMe/TCP는 네트워크를 통해 유연하고 효율적인 스토리지 액세스 솔루션을 제공함으로써 원활한 확장성을 지원합니다. NVMe 장치 수가 증가함에 따라 데이터 센터는 심각한 병목 현상 없이 고성능 수준을 유지할 수 있습니다.
-
공유 스토리지 풀: NVMe/TCP를 사용하면 여러 서버 및 응용 프로그램에서 동시에 액세스 가능한 공유 스토리지 풀을 생성할 수 있습니다. 이 공유 스토리지 아키텍처는 리소스 사용률을 높이고 스토리지 관리를 간소화하여 비용을 크게 줄입니다.
-
레거시 인프라 호환성: 데이터 센터는 이더넷, InfiniBand 또는 파이버 채널 네트워크에 기존 인프라를 구축해 놓은 경우가 많습니다. NVMe/TCP를 통해 전체 네트워크 인프라를 점검하지 않고도 기존 패브릭 투자를 활용하는 동시에 최신 NVMe 기반 스토리지 기술을 통합할 수 있습니다.
-
효율적인 리소스 활용: NVMe/TCP는 각 서버에서 전용 스토리지 리소스의 필요성을 줄여 리소스 활용도를 높입니다. 여러 서버가 네트워크를 통해 공유 NVMe 스토리지 장치에 액세스할 수 있으므로 고가의 NVMe 스토리지 리소스 사용을 최적화할 수 있습니다.
-
미래 경쟁력: 데이터 센터가 발전하고 더 빠른 스토리지 기술을 채택함에 따라 NVMe/TCP는 스토리지 액세스에 대한 미래 지향적인 접근 방식을 제공하여 스토리지 네트워크가 최신 애플리케이션 및 워크로드의 증가하는 요구 사항을 따라갈 수 있도록 합니다.
전반적으로 NVMe/TCP는 데이터 센터를 위한 강력하고 유연한 스토리지 솔루션으로, 공유 및 확장 가능한 스토리지 환경에서 고성능, 저지연 시간, 효율적인 리소스 사용률을 제공합니다.
소프트웨어 전용 스토리지 아키텍처의 제한 사항
스토리지에 대한 NVMe/TCP의 강력한 이점에도 불구하고 데이터 센터 운영자는 필요한 모든 스토리지 개시자 서비스가 호스트 서버 CPU의 소프트웨어에서 실행되는 구현과 관련된 중요한 제한 사항을 알고 있어야 합니다. 표 2를 참조하십시오.

첫째, 사이버 공격으로 스토리지 가상화 소프트웨어, 하이퍼바이저 또는 가상 스위치(vSwitch)가 손상되면 시스템 수준의 보안 위험이 발생합니다.
둘째, 테넌트 워크로드 간에 완전한 격리를 보장할 방법이 없습니다. 단일 아키텍처가 다중 테넌트 환경에서 여러 고객의 응용 프로그램 및 데이터를 호스팅합니다. "Noisy Neighbor" 현상은 응용 프로그램 또는 가상 머신(VM)이 가용 리소스를 가장 많이 사용하며 공유 인프라에 있는 다른 테넌트의 시스템 성능을 저하할 때 발생합니다.
마지막으로, 스토리지 가상화 소프트웨어, 하이퍼바이저, vSwitch와 같은 인프라 서비스를 실행하려면 호스트 CPU 코어의 상당 부분이 필요합니다. 따라서 VM, 컨테이너, 응용 프로그램에서 수익을 창출할 수 있는 CPU 코어 수가 줄어듭니다. 보고서에 따르면 데이터 센터 CPU 리소스의 30%~50%가 인프라 서비스에서 소비됩니다.
고성능 스토리지 하위 시스템에서 호스트 CPU는 여러 프로토콜(전송 제어 프로토콜(TCP), 컨버지드 이더넷을 통한 원격 직접 메모리 액세스(RoCEv2), InfiniBand, 파이버 채널 등)을 실행해야 할 수 있습니다. 이러한 스토리지 프로토콜과 기타 인프라 서비스를 실행하는 데 호스트 CPU가 많이 사용되면 테넌트 응용 프로그램에서 사용할 수 있는 CPU 코어 수가 크게 줄어듭니다. 예를 들어 16코어 CPU는 10코어 CPU의 성능만 제공할 수 있습니다.
이와 함께 여러 가지 이유로 소프트웨어 전용 아키텍처는 데이터 센터 스토리지에 중대한 비즈니스 및 기술 과제를 안겨 줍니다.
IPU 기반 스토리지 오프로드 솔루션
하이퍼바이저 및 vSwitch 등 다른 인프라 서비스(그림 3 참조)와 더불어 NVMe/TCP 워크로드를 IPU로 오프로드하면 소프트웨어 전용 구현의 한계를 해결할 수 있으며, 데이터 센터 운영자에게 다음과 같은 상당한 이점을 제공합니다.
-
CPU 사용률: NVMe/TCP 통신에는 TCP 전송 프로토콜 내에서 NVMe 명령과 데이터를 캡슐화하는 작업이 포함됩니다. 호스트 CPU는 오프로드 없이 캡슐화 및 캡슐화 해제 작업을 처리합니다. 이러한 작업을 전용 하드웨어로 오프로드하면 CPU가 다른 중요한 작업에 집중할 수 있으므로 전체 시스템 성능과 CPU 사용률을 향상할 수 있습니다.
-
지연 시간 감소: NVMe/TCP 통신 작업을 특수 하드웨어로 오프로드하면 스토리지 명령 처리 지연 시간이 크게 줄어듭니다. 그 결과, 원격 NVMe 스토리지 장치에 액세스할 때 응용 프로그램에서 더 빠른 응답 시간과 더 나은 성능을 제공할 수 있습니다.
-
효율적인 데이터 이동: 비 CPU 응용 프로그램 작업을 별도 하드웨어 가속기로 오프로드하면 범용 CPU를 사용하는 것보다 데이터 이동 작업을 더 효율적으로 수행할 수 있습니다. 대용량 데이터 전송과 버퍼 관리를 효과적으로 처리하여 지연 시간을 줄이고 전체 처리량을 향상할 수 있습니다.
-
확장성 향상: NVMe/TCP 작업을 오프로드하여 대규모 스토리지 배포에서 확장성을 향상시킵니다. 네트워크 통신을 처리하는 CPU의 부담을 덜어줌으로써 시스템은 CPU에 얽매이지 않고 동시 연결 및 스토리지 장치를 더 많이 지원할 수 있습니다.
-
에너지 효율성: 특정 작업을 전용 하드웨어로 오프로드하여 호스트 CPU의 전력 소비를 줄일 수 있습니다. 이러한 에너지 효율성은 전력 소비를 중대하게 고려하는 대규모 데이터 센터 환경에서 특히 중요합니다.

NVMe/TCP 스토리지 워크로드에 적용되는 위의 이점 외에도 IPU 기반 시스템 아키텍처는 인프라 서비스가 테넌트 응용 프로그램으로부터 격리되는 증분 보안 격리 옵션을 제공합니다. 이를 통해 테넌트 응용 프로그램에서 시작된 사이버 공격으로 스토리지, 하이퍼바이저, vSwitch 서비스가 손상되지 않도록 보장합니다. IPU 자체의 부트 프로세스가 보안 상태이므로 인프라 서비스 자체에도 보안이 적용되며, IPU는 호스트 서버의 신뢰 루트 역할을 합니다.
Napatech의 통합 하드웨어 및 소프트웨어 솔루션
Napatech는 F2070X IPU에서 실행되는 고성능 Link-Storage 소프트웨어 스택으로 구성되어 있으며, 데이터 센터 스토리지 오프로드를 위한 통합 및 시스템 수준 솔루션을 제공합니다. 그림 4를 참조하십시오.

Link-Storage 소프트웨어는 다음과 같은 다양한 기능이 통합되어 있습니다.
-
호스트에서 IPU로 NVMe/TCP 워크로드를 완전히 오프로드
-
호스트에서 IPU로 TCP 워크로드의 전체 오프로드;
-
NVMe-TCP 개시 장치
-
스토리지 성능 개발 키트 원격 프로시저 호출(SPDK RPC) 인터페이스를 통한 스토리지 구성;
-
다중 경로 NVMe 지원
-
virtio-blk 인터페이스를통해 호스트에 16개의 블록 장치 표시 ;
-
일반적인 Linux* 배포판의 표준virtio-blk와의 호환성 ;
-
호스트에 네트워크 인터페이스가 노출되지 않는 호스트 CPU와 IPU 간의 보안 격리
F2070X는 Link-Storage 외에도 가상화 데이터 플레인을 오프로드 및 가속하는 Link-Virtualization 소프트웨어를 지원하며, 여기에는 Open vSwitch(OVS), 실시간 마이그레이션, VM 간 미러링, VLAN/VxLAN 캡슐화/캡슐화 해제, Q-in-Q, 수신 측 확장(RSS) 로드 밸런싱, 링크 집계, 서비스 품질(QoS) 등의 기능이 포함되어 있습니다.
F2070X는 ASIC이 아닌 FPGA 및 CPU를 기반으로 하므로 배포 후 플랫폼의 전체 기능을 업데이트할 수 있습니다. 기존 서비스를 수정하든, 새 기능을 추가하든, 특정 성능 매개 변수를 정밀 조정하든, 하드웨어를 연결 해제, 제거 또는 교체하지 않아도 기존 서버 환경 내에서 소프트웨어 업그레이드로만 재프로그래밍을 수행할 수 있습니다.
Napatech F2070X IPU
Napatech F2070X IPU는 인텔® IPU 플랫폼 F2000X-PL 기반의 2x100G PCIe 카드로, 인텔® Agilex™ 7 FPGA F-시리즈와 인텔® 제온® D 프로세서를 Full Height, Half Length(FHHL) 규격의 듀얼 슬롯 폼 팩터에 장착하였습니다.
F2070X IPU의 표준 구성은 4GB DDR4 메모리 뱅크 4개가 탑재된 인텔® Agilex™ 7 FPGA AGF023과 8GB DDR4 메모리 뱅크 2개가 탑재된 2.3GHz 인텔® 제온® D-1736 프로세서로 이루어집니다. 특정 워크로드를 지원하기 위해 다른 구성 옵션을 제공할 수도 있습니다.
F2070X IPU는 PCIe 4.0 x16(16GTps) 인터페이스를 통해 호스트에 연결되며, FPGA과 프로세서 사이에 추가 PCIe 4.0 x16(16GTps) 인터페이스가 있습니다.
2개의 전면 패널 QSFP28/56 네트워크 인터페이스는 다음 네트워크 구성을 지원합니다.
- 100G 2개
-
10G 8개 또는 25G 8개(브레이크아웃 케이블 사용)
(선택 사항) 전용 PTP RJ45 포트에서 외부 SMA-F 및 내부 MCX-F 커넥터를 통해 시간 동기화 제공 IEEE 1588v2 타임스탬프 지원
전용 RJ45 이더넷 커넥터에서 보드 관리 제공 보안 FPGA 이미지 업데이트를 사용하면 IPU를 배포한 후 새로운 기능을 추가하거나 기존 기능을 업데이트할 수 있습니다.
프로세서는 UEFI BIOS, PXE 부트 지원, SSH를 통한 전체 셸 액세스, UART를 갖춘 Fedora Linux를 실행
