SKT, 'CPU+NPU' AI 서버 설루션 개발 AI 데이터센터 경쟁력 강화 나선다

  • 등록 2026.04.10 17:13:50
크게보기

세 회사, AI 추론 성능 향상 솔루션 공동 개발 및 SK텔레콤 AI 데이터센터에서 실증 추진

 

SK텔레콤은 9일 Arm, 리벨리온과 AI 인프라 혁신을 위한 전략적 파트너십을 맺었다.

 

이번 협약에 따라 세 회사는 Arm이 새롭게 출시한 ‘Arm AGI CPU’와 리벨리온이 올해 3분기 선보일 ‘리벨카드(RebelCard™)’를 서버에 함께 탑재해 AI 추론 성능을 높이는 솔루션을 공동 개발하고, SK텔레콤 AI 데이터센터에서 성능을 검증할 예정이다.

 

AI 산업은 AI 모델 생성 단계인 ‘학습(Training)’에서 실제 서비스 제공 단계인 ‘추론(Inference)’으로 빠르게 중심이 이동하고 있다. 이에 따라 AI 인프라 핵심 과제도 대규모 연산 능력에서 전력 소모를 줄이고 신속하며 비용 효율적인 AI 서비스 제공으로 바뀌고 있다. 추론은 연중 24시간 가동되기 때문에 전력 효율이 비용 경쟁력과 밀접하다.

 

추론 작업은 학습에 비해 가벼운 연산을 반복 처리하는 성격이다. GPU도 추론에 사용할 수 있지만 전력 소모가 크고 비용이 높다. 이 때문에 추론에 특화된 NPU(Neural Processing Unit, 신경망처리장치)가 대안으로 주목받는다. NPU와 CPU 결합은 AI 서비스 운영 시 AI 연산 외 데이터 입출력, 네트워크 통신, 메모리 관리, 작업 스케줄링 같은 범용 처리를 효율적으로 처리하기 위함이다. CPU는 시스템 전반을 관리하고 NPU가 AI 추론을 전담하는 ‘이종 컴퓨팅(Heterogeneous Computing)’ 구조는 성능과 효율 강화를 목표로 한다.

 

Arm AGI CPU는 Arm이 데이터센터용 프로세서 시장에 처음 진출하며 AI 추론 서비스에 최적화한 제품이다. 리벨리온의 리벨카드는 대규모 AI 추론에 특화된 NPU다. 이 두 칩을 한 서버에 탑재하면 CPU가 범용 연산을, NPU가 AI 추론 연산을 담당해 전력 효율과 운영 비용 절감이 가능하다. SK텔레콤은 이런 서버 아키텍처가 대규모 AI 서비스 운영에 효율적이라고 밝혔다.

 

지난 3월 ‘Arm 에브리웨어’ 행사에서는 양사의 칩을 결합해 오픈AI의 GPT OSS 120B 기반 에이전틱 AI 서비스를 실시간 시연하며 대규모 데이터센터 적용 가능성을 확인했다.

 

SK텔레콤은 해당 솔루션이 적용된 서버를 AI 데이터센터에 도입해 성능과 안정성을 검증하고, 이를 독자 개발한 AI 파운데이션 모델 에이닷엑스 케이원(A.X K1) 운영에 활용하는 방안도 검토 중이다. 이번 협력을 통해 SK텔레콤은 저전력·고효율 AI 추론 인프라 확보와 AI 데이터센터 사업 경쟁력 강화를 추진한다.

 

SK텔레콤 이재신 AI 사업개발 담당은 추론에 최적화된 인프라와 파운데이션 모델을 결합한 패키지 제공으로 AI 데이터센터 경쟁력을 강화할 것이라고 말했다.

 

Arm 클라우드 AI 사업부의 에디 라미레즈 부사장은 AI 추론 급성장이 새로운 데이터센터 인프라 수요를 촉진하고 있으며, SK텔레콤과 리벨리온이 Arm AGI CPU 기반 AI 추론 인프라 현대화에 중요한 역할을 하고 있다고 전했다.

 

리벨리온 오진욱 CTO는 리벨카드와 풀스택 소프트웨어 경쟁력을 바탕으로 차세대 AI 데이터센터 인프라 구축에 기여할 것이라며, 이번 협력이 업계에 의미 있는 사례가 될 것으로 기대했다.

이한솔 기자 it@issuetoday.co.kr
Copyright @2018 이슈투데이 Corp. All rights reserved.

PC버전으로 보기

경기도 군포시 용호1로 57 | 대표전화 : 031)395-5903 | 서울사무소 : 서울시 중구 퇴계로 253 삼오빌딩 3층 등록번호 : 경기아 51769 | 등록일 : 2017년 12월 22일 | 사업자번호 : 399-50-00400 발행.편집인 : 권소영 | 개인정보관리책임 : 김정훈 제휴문의/기사제보 : it@issuetoday.co.kr | Copyright ©2024 이슈투데이. All rights reserved.