웨카, 차세대 WEKApod 어플라이언스 공개…AI 스토리지 경제성 새롭게 정의

AlloyFlash 기반의 WEKApod Prime은 가격 대비 성능을 65% 끌어올려 비용 효율을 크게 높여

SC25에서 AI 스토리지 기업 웨카(WEKA)는 기존의 성능•비용 한계를 넘어서는 차세대 WEKApod™ 어플라이언스를 공개했다. 새롭게 선보인 WEKApod Prime은 혼합 플래시 구성에 데이터를 지능적으로 배치해 가격 대비 성능을 65% 끌어올리면서 속도 저하 없이 비용 효율을 획기적으로 향상시켰다. WEKApod Nitro는 최신 하드웨어를 적용해 단위 공간당 성능을 두 배로 확장함으로써 조직의 AI 및 고성능컴퓨팅(HPC) 혁신을 가속하고 GPU 활용도를 극대화하며 더 많은 워크로드를 처리할 수 있도록 지원한다. 또한 고밀도 설계는 성능을 유지하면서 대규모 객체 스토리지 환경과 AI 데이터 레이크 구축에도 효과적으로 활용할 수 있다.

 

 

WEKApod 어플라이언스는 대규모 AI 가속화를 위해 설계된 세계 유일의 스토리지 시스템인 WEKA의 NeuralMesh를 가장 쉽고 빠르게 도입하고 확장할 수 있는 방식이다. WEKApod는 플러그 앤 플레이 환경과 개선된 설정 유틸리티를 갖춘 검증된 구성으로 제공돼 NeuralMesh가 제공하는 소프트웨어 기반의 유연한 구성•확장성을 그대로 활용할 수 있다. 기업은 최소 8대의 서버로 시작해 필요에 따라 수백 대까지 확장할 수 있으며 복잡한 통합 과정을 거치지 않고도 분산 데이터 보호, 즉시 스냅샷, 다중 프로토콜 접근, 자동 계층화, 암호화, 하이브리드 클라우드 기능 등 NeuralMesh의 엔터프라이즈 기능 전반을 사용할 수 있다.

 

인프라 효율성 위기

 

AI 인프라에 투자하는 기업은 GPU 활용률 저하, 장기화되는 학습 주기, 증가하는 추론 비용, 데이터 확대로 인한 클라우드 비용 상승이 이어지며 투자 수익률(ROI)을 입증해야 하는 부담이 커지고 있다. 기존 스토리지 시스템은 최고 성능과 비용 효율 중 하나만 선택해야 하는 구조여서 두 가지를 동시에 충족하기가 사실상 어렵다. 여기에 랙 공간, 전력, 냉각 용량 같은 데이터센터의 제약 요소가 겹치면서 각 랙 유닛에서 더 높은 효율을 확보하지 못하면 인프라 비용이 빠르게 증가할 수밖에 없다.

 

차세대 WEKApod 제품군은 이러한 현실적 문제에 대해 명확한 해법을 제시한다. 특히 WEKApod Prime은 기존에 성능과 비용 중 하나를 선택해야 했던 구조를 없애고, 워크로드 특성에 맞춰 데이터 배치를 자동으로 최적화하는 지능형 기술을 통해 가격 대비 성능을 65% 끌어올렸다. 이를 통해 쓰기 성능을 그대로 유지하면서 비용 효율을 크게 개선할 수 있게 됐다.

 

AI 개발사와 클라우드 제공업체, 성능과 비용의 딜레마 해소

 

WEKApod Prime: 혼합 플래시 기술을 새로운 방식으로 구현한다. TLC와 eTLC 플래시 드라이브를 조합해 1U 랙에서는 최대 20개, 2U 랙에서는 최대 40개의 드라이브를 지원한다. 기존 계층형 스토리지처럼 캐시 계층 구조나 계층 간 데이터 이동으로 인한 쓰기 성능 저하가 발생하지 않으며, WEKApod의 AlloyFlash는 쓰로틀링 없이 쓰기 성능을 그대로 유지하면서 모든 작업에서 안정적인 성능과 비용 효율을 보장한다. 캐시 계층도 없고, 쓰기 성능 저하도 없으며, 성능을 위해 포기해야 할 부분도 없다. WEKApod Prime은 이미 덴마크 AI 혁신센터(DCAI)를 포함한 주요 AI 클라우드 기업들이 사용하고 있다.

 

이로써 데이터센터의 자원 제약을 효과적으로 해소할 수 있는 높은 밀도가 구현됐다. 이전 세대 대비 랙 유닛당 용량 밀도는 4.6배, 쓰기 IOPS는 5배 향상됐으며, kW당 23000 IOPS(또는 kW당 1.6 PB)를 기록해 전력 밀도는 4배 높아졌다. 테라바이트당 전력 소비량도 68% 줄었지만 AI 워크로드가 요구하는 성능은 그대로 유지된다. 특히 훈련이나 체크포인트처럼 쓰기 부하가 큰 AI 워크로드에서는 스토리지가 병목 없이 처리 속도를 따라가 중요한 작업 과정에서 고가의 GPU가 대기 상태로 머무는 상황을 막을 수 있다.

 

WEKApod Nitro: 수백~수천 개의 GPU를 운용하는 AI 팩토리를 위해 설계된 제품으로, 업그레이드된 하드웨어 기반으로 성능은 2배, 가격 대비 성능은 60% 향상됐다. NVIDIA ConnectX-8 SuperNIC을 탑재해 800Gb/s의 처리량을 제공하며, 20개의 TLC 드라이브를 1U 폼팩터에 구성했다. 또한 NVIDIA DGX SuperPODNVIDIA 클라우드 파트너(NCP) 인증을 갖춘 턴키 어플라이언스이기 때문에 기존처럼 통합 작업에 몇 주를 소모할 필요가 없다. 기업은 몇 개월이 걸리던 작업을 며칠 만에 완료해 고객용 서비스를 시장에 내놓을 수 있으며, 스토리지 인프라 역시 차세대 가속기의 처리 속도를 충분히 뒷받침할 수 있다.

 

AI 구축 전반에서 확인되는 실질적 성과

 

  • AI 클라우드 제공업체와 네오클라우드: 보장된 성능 SLA(Service Level Agreement)를 유지하면서 기존 인프라만으로 더 많은 고객에게 수익성 있는 서비스를 제공할 수 있다. 가격 대비 성능이 65% 향상되면서 GPUaaS(GPU as a Service) 제공 모델의 마진도 직접적으로 높아진다. 배포 시간이 빨라지면 신규 고객의 수익 창출 시점 역시 앞당겨지는 효과가 있다.
  • AI 팩토리를 구축하는 기업: 복잡한 통합 작업을 없앤 턴키 솔루션을 통해 AI 프로젝트를 몇 개월이 아니라 며칠 만에 배포할 수 있다. IT 팀은 별도의 전문 지식 없이도 엔터프라이즈급 스토리지 성능을 구현할 수 있으며, 향상된 밀도와 효율성을 통해 전력 소비를 최대 68%까지 줄일 수 있다. 또한 데이터센터의 공간•전력•냉각 요구를 증가시키지 않고도 AI 역량을 확장할 수 있기 때문에 도입 첫날부터 가시적인 인프라 투자 수익률(ROI)을 기대할 수 있다.
  • AI 빌더와 연구원: GPU 활용률 90% 이상을 기반으로 모델 개발 속도를 크게 향상시킬 수 있다. 훈련 시간을 줄여 반복 주기를 앞당기고 경쟁 우위를 확보할 수 있으며, 추론 비용을 낮춰 새로운 AI 애플리케이션의 경제성을 확보하는 것도 가능하다. 최소 8대의 서버로 시작해 수요에 따라 수백 대까지 유연하게 확장할 수 있고, 기본 제공되는 NeuralMesh 엔터프라이즈 기능도 모두 활용할 수 있다.

 

AI 인프라 제공업체들은 이러한 혁신의 효과를 이미 사업 현장에서 체감:

 

나디아 칼스텐(Nadia Carlsten) 덴마크 AI 혁신 센터(DCAI) 최고경영자(CEO)는 "데이터센터 혁신의 새로운 한계는 공간과 전력이다. WEKApod의 뛰어난 스토리지 성능 밀도 덕분에 최적화된 설치 공간 안에서 하이퍼스케일러 수준의 데이터 처리량과 효율성을 구현해 킬로와트와 제곱미터당 더 많은 AI 역량을 확보할 수 있다. 이러한 효율성은 경제성을 직접 개선하고, 우리가 고객에게 AI 혁신을 제공하는 속도를 높여준다"고 밝혔다.

 

웨카의 아제이 싱(Ajay Singh) 최고제품책임자(CPO)는 "AI 투자는 반드시 ROI를 입증해야 한다. WEKApod Prime은 속도 저하 없이 가격 대비 성능을 65% 끌어올리고, WEKApod Nitro는 성능을 두 배로 높여 GPU 활용도를 극대화한다. 이를 통해 모델 개발 속도가 빨라지고 추론 처리량이 향상되며, 컴퓨팅 투자 효율이 높아져 기업의 수익성과 시장 출시 속도에 직접적인 영향을 미친다"고 말했다.

 

케빈 디어링(Kevin Deierling) 엔비디아(NVIDIA) 네트워킹 부문 수석부사장은 "네트워킹은 AI 인프라의 핵심 요소로, 컴퓨팅과 스토리지를 통합해 대규모 지능 기반 데이터와 결과물을 생성•전달하는 플랫폼으로 기능하도록 한다. WEKApod에 NVIDIA Spectrum-X Ethernet과 NVIDIA ConnectX-8 네트워킹이 적용되면서 기업들이 데이터 병목을 해소할 수 있게 됐으며, 이는 AI 성능을 최적화하는 데 필수적인 요소"라고 강조했다.

 

 



미디어

더보기
두산건설, 철도·수자원 인프라 잇단 수주… 남부내륙철도·남강댐 1공구 총 2,688억 원 두산건설(대표이사 이정환)은 ‘남부내륙철도(김천~거제) 건설사업 제8-1공구 노반신설 기타공사’와 한국수자원공사가 발주한 ‘남강댐(Ⅰ) 광역상수도 노후관 개량사업 시설공사(1공구)’를 연이어 수주했다고 30일 밝혔다. 두산건설은 지난 26일 한국수자원공사 발주의 ‘남강댐(Ⅰ) 광역상수도 노후관 개량사업 시설공사(1공구)’도 수주했다. 본 사업은 매설 후 36년 이상 경과한 남강댐계통 광역상수도의 대체관로 부설과 노후관 개량, 관로 이설 등을 통해 경상남도 진주시, 사천시, 통영시, 고성군 일원에 안정적인 용수 공급체계를 구축하기 위한 사업이다. 해당 공사의 총 공사금액은 1,267억 원이며, 이 중 두산건설 수주금액은 599억 원이다. 공사기간은 착공일로부터 52개월이다. 이번 수주를 통해 두산건설은 수자원 분야에서의 기술력과 경쟁력을 다시 한번 입증했다. 두산건설은 철도·지하철·전력구 등 다양한 공공 인프라 분야에서 균형 잡힌 수주 포트폴리오를 구축해 왔다. 국내 최초 민간제안형 무인 중전철인 신분당선의 대표사로서 노선 기획부터 설계, 시공까지 전 과정을 수행했으며, 준공 이후에는 자회사 네오트랜스를 통해 운영까지 맡고 있다. 최근에는 ‘농소~강동 도로개설

LIFE

더보기
신용보증기금, 생성형 AI 서비스 구축으로 AI 전환 본격 추진 신용보증기금(이사장 최원목)이 인공지능(AI) 기반 업무 혁신을 위한 ‘생성형 AI 시범 서비스 구축 사업’을 성공적으로 완료했다고 30일 밝혔다. 이번 사업에서 신보는 재무분석 및 업무지식 검색 서비스에 거대언어모델(LLM) 등 생성형 AI 기술을 적용했으며, 외부 인터넷과 분리된 내부 전산망에 자체 구축하는 방식(On-Premise)을 채택해 보안성을 확보했다. 먼저, ‘재무분석 어시스턴트’는 생성형 AI를 기반으로 기업의 재무데이터를 분석해 보증심사를 효율적으로 지원하는 서비스다. AI가 심사 대상 기업의 영업현황, 재무비율, 현금흐름 등을 자동으로 분석·요약하고, 기업의 특이사항을 현장실사에서 활용할 수 있는 질문 형태로 제공해 직원들의 심사 정확도와 전문성을 높이는 데 기여할 것으로 예상된다. 또한, ‘업무지식 검색 어시스턴트’는 내부 규정과 업무 매뉴얼 등 일선 영업점에서 주로 활용되는 내용을 AI가 사전 학습해 보증·보험 등 업무별 질의에 대해 맞춤형 답변을 제공하는 서비스다. 답변에는 출처 정보와 유의사항이 함께 포함돼 업무지식을 탐색하는 시간이 크게 줄어들 것으로 기대된다. 아울러, 검색증강생성(RAG) 기술을 적용해 정확하지 않거나 무의미한