안드레아 모치아(Andrea Moccia) 옵션스 테크놀로지(Options Technology) AI 및 데이터 담당 부사장은 "에버그린//원 덕분에 용량 계획에 따른 어려움이 완전히 해소됐다. 이제 전 세계 어디서든 스토리지를 구축하고, 사용한 만큼만 비용을 지불하며, 수요에 맞게 즉시 확장할 수 있다.”라며 “이를 통해 글로벌 성장을 가로막는 장벽을 낮추고, 빠르게 진화하는 AI 워크로드의 요구에 유연하게 대응할 수 있게 됐다."라고 말했다.
사부르 미안(Sabur Mian) STN CEO 겸 창업자는 "에버퓨어의 기술 덕분에 가장 까다로운 AI 워크로드에서도 일관된 데이터 스토리지 성능을 제공할 수 있게 됐다.”라며 “일반적인 스토리지 환경에서는 노드 4개로 모델 학습을 시작해 성능이 잘 나오더라도, 노드를 확장하는 순간 성능이 급격히 떨어지는 경우가 많다. 반면 플래시블레이드//EXA는 지금까지 192개 노드로 확장했는데도 한계에 부딪히지 않았다."라고 말했다.
입증된 성능: AI 데이터 스택 전반을 검증하는 벤치마크
AI 성공 여부는 인프라가 GPU를 최대 성능으로 지속적으로 가동할 수 있는지에 달려있다. 에버퓨어는 플래시블레이드//EXA를 모듈형 엔비디아 STX 레퍼런스 아키텍처와 연계해, 베라 루빈(Vera Rubin) 플랫폼 기반의 차세대 AI 팩토리를 지원한다. 플래시블레이드//EXA의 성능과 확장성을 블루필드(BlueField) 기반 스토리지 컨트롤러와 컨텍스트 메모리 아키텍처 등 STX 구성 요소와 결합함으로써, 에버퓨어는 데이터 준비부터 장문 컨텍스트 추론에 이르는 AI 파이프라인 전 구간을 최적화한다. 이러한 아키텍처는 특히 기가스케일 추론에 필요한 고성능 컨텍스트 메모리 요구사항을 충족하도록 설계되어, 에이전트형 워크플로우와 다단계 추론 시스템이 대규모 환경에서도 지속적으로 동작할 수 있도록 하는 저지연 데이터 액세스를 제공한다.
또한 스펙스토리지 솔루션2020(SPECstorage Solution 2020) 및 MLPerf의 최신 벤치마크는 대규모 환경에서 원시 데이터를 학습된 모델로 전환하는 데 필요한 플래시블레이드//EXA의 일관되고 반복 가능한 성능을 검증했다.
- 기록적인 SPEC 벤치마크 성과: 플래시블레이드//EXA는 스펙스토리지AI_이미지(SPEC Storage AI_Image) 벤치마크에서 역대 최고 점수를 기록했다. 6,300개에 달하는 AI 작업을 동시에 처리해내며, 현재 시장의 어떤 솔루션보다 더 많은 동시 학습 작업을 최고 속도로 처리할 수 있음을 증명했다.
- AI 경제성 재정의: 플래시블레이드//EXA는 가장 근접한 경쟁 제품 대비 데이터 전송 속도는 두 배 빠르면서도, 절반 이하의 랙 공간만을 차지한다. 내부 MLPerf 기반 워크로드 검증 결과, 대규모 엔비디아 호퍼(NVIDIA Hopper) 클러스터에서 GPU 활용률을 90% 이상 유지하며 컴퓨팅 자원이 유휴 상태로 남지 않도록 보장한다. 워크로드가 증가함에 따라 플래시블레이드//EXA는 선형적으로 확장돼, 유휴 시간을 크게 줄이고 컴퓨팅 자원이 다음 작업을 기다리는 상황을 방지한다.
아울러, 플래시블레이드//EXA에 엔비디아 인증 스토리지(NVIDIA-Certified Storage; NVCS) 검증을 확장 적용함으로써 전체 스택에 대한 신뢰 기반을 마련했다. 이를 통해 엔비디아 클라우드 파트너(NVIDIA Cloud Partner; NCP) 레퍼런스 아키텍처와 연계된 NVCS의 NCP 인증을 향한 경로가 한층 명확해졌다.
자동화된 오케스트레이션: AI-레디 데이터로 가는 경로 단순화
이러한 성능 향상을 실제 운영 환경에서 활용하기 위해, 에버퓨어 데이터 스트림은 데이터 큐레이션과 오케스트레이션을 간소화해 고품질의 AI-레디 데이터가 AI 인프라로 원활하게 공급되도록 보장한다. 이를 통해 인사이트를 더 빠르게 얻고, 파일럿에서 실제 운영 단계까지의 전환을 가속화하며, 관리 부담 없이 모델이 항상 최신 데이터를 기반으로 작동하도록 지원한다.
컴팩트한 AI 설계를 통해 AI 도입의 진입 장벽을 낮추는 에버퓨어 데이터 스트림은 슈퍼마이크로(Supermicro)와 공동 설계되었으며, 엔비디아 AI 데이터 플랫폼(NVIDIA AI Data Platform) 레퍼런스 아키텍처를 기반으로 구축됐다. 슈퍼마이크로의 하드웨어와 에버퓨어의 소프트웨어 정의 스토리지를 결합함으로써 기업은 데이터의 진정한 가치를 빠르게 실현할 수 있다.
기업용 AI 팩토리가 AI-레디 데이터를 준비하고 제공하기 위해 AI 데이터 플랫폼을 필요로 하는 가운데, 에버퓨어는 엔비디아 RTX PRO 6000 블랙웰 서버 에디션(NVIDIA RTX PRO 6000 Blackwell Server Edition)과 같은 가속 플랫폼을 지원하며, 향후 엔비디아 RTX PRO 4500 블랙웰 서버 에디션 GPU(NVIDIA RTX PRO™ 4500 Blackwell Server Edition GPU)까지 지원을 확대할 예정이다.
AI 시대의 성공은 일회성 인프라 업그레이드가 아닌, 지속적인 데이터 최적화 전략에서 비롯된다. 에버퓨어 플랫폼은 이러한 전략을 실현하기 위한 핵심 기반을 제공하며, AI 준비를 한 번에 달성하는 목표가 아닌, 지속적인 준비와 성능 검증이 반복되는 과정으로 접근한다.
###
[1] 내부 MLPerf 구성 요소 측정 결과를 기반으로 함(공식 제출 결과가 아니며 MLPerf의 공식 결과는 아님).