kt cloud, AI 데이터센터 기술 실증·체험 허브 ‘AI 이노베이션 센터’ 공개

조인영 기자 (ciy8100@dailian.co.kr)
입력 2025.12.11 09:20
수정 2025.12.11 09:49

B200 GPU, D2C 냉각, AI 네트워크 등 첨단 인프라로 미래 데이터센터 구현

RoCEv2·패스파인더 등 선행 기술 검증·적용으로 고효율·고신뢰 AI 인프라 완성

kt cloud ‘AI 이노베이션 센터’ⓒkt cloud

kt cloud는 AI 데이터센터 인프라와 쇼룸을 결합한 국내 유일의 기술 실증 허브인 ‘AI 이노베이션 센터’를 선보인다고 11일 밝혔다.


이 센터는 엔비디아 최신 B200 GPU(그래픽처리장치) 장비를 비롯, AI 서버 랙(Rack), D2C 액체 냉각 장치, AI 네트워크 등 실제 AI 데이터센터와 동일한 환경을 구현했다.


kt cloud는 이 곳에서 고효율·고신뢰 AI 인프라 완성을 위한 선행 기술을 실증하고 적용해 데이터센터 기술 혁신을 주도한다는 계획이다.


특히 AI 이노베이션 센터에서는 kt cloud가 상용화 및 기술 검증을 진행 중인 첨단 냉각 기술을 집중적으로 소개한다.


kt cloud는 글로벌 AI 서버들이 표준으로 채택하는 D2C(Direct-to-Chip) 수냉식 방식에 우선적으로 대응하고 있다.


1kW급 모듈 8개(총 8kW)로 구성된 서버(Server)형 수냉식 부하기 기반의 D2C 수냉식 시스템 작동 모습을 구현했으며, 가산 AI 데이터센터에 해당 기술을 국내 최초로 상용화한 바 있다.


이를 위해 서버형 및 랙(Rack)형 부하기를 자체 개발하고 B200·NVL723 규격에 맞춰 냉각수 유량, 압력, 온도 등 조건을 지속적으로 실증하며 기술 내재화를 이어왔다. NVL72는 NV링크(엔비디아가 개발한 고속 GPU 상호 연결 기술)를 72개까지 확장한 기술이다.


AI 서버를 특수 액체에 직접 담가 열을 식히는 Immersion Cooling(액침 냉각) 기술의 실제 모형도 선보였다.


kt cloud는 PoC(기술 검증)를 통해 실제 부하 테스트를 진행한 결과, 최대 60%의 전력 절감 효과를 확인했다고 설명했다.


kt cloud는 글로벌 AI 네트워크 전문기업 아리스타와 협력해 AI 이노베이션 센터 내에 RoCEv2(RDMA over Converged Ethernet v2) 기반의 AI 전용 네트워크를 구축했다.


이 네트워크는 AI 서버 간 초고속 데이터 전송을 지원하며, 기존 InfiniBand 대비 비용 효율성과 확장성을 대폭 높인 차세대 이더넷 RDMA 기술을 적용한 것이 특징이다.


InfiniBand는 HPC환경에서 사용되는 초고속 네트워크 기술을 말하며 RDMA는 서버 간 데이터 전송 시, CPU(중앙처리장치)를 거치지 않고 메모리에서 직접 처리해 지연을 줄이고 속도를 높이는 기술을 뜻한다.


kt cloud가 자체 개발한 표준 랙 기반의 AI 전력 인프라도 소개됐다. 이 표준 랙은 20kW 이상의 AI 서버를 안정적으로 지원하는 고밀도 전력 공급 구조를 갖추고 있으며, DC 48V 전원을 적용해 에너지 효율성과 안정성을 강화했다.


모듈형 설계를 통해 확장과 교체가 용이하며, 글로벌 OCP(Open Compute Project) 표준을 준수하며 호환성까지 확보했다.


'AI 이노베이션 센터' AI 인프라 랩스ⓒkt cloud

센터에서는 kt cloud의 안정적인 데이터센터 운영 노하우가 집약된 AI 기반 솔루션의 작동 모습도 함께 시연된다.


kt cloud가 자체 개발해 특허 등록을 완료한 패스파인더(Path Finder)는 디지털트윈 기반 시뮬레이션으로 자율형 전력 제어를 구현한다.


이 기술은 전력 시스템의 부하, 안정성, 중복성을 종합적으로 고려한 최적 경로 선택으로 데이터센터 운영의 신뢰성을 한층 강화한다.


또한 DIMS Insight는 FMS 데이터를 활용한 AI 자동화 분석으로 장애를 예측하고 예지 정비를 지원함으로써 운용 효율을 극대화했다. FMS는 전력·냉각·보안 등 주요 설비를 통합 관리하는 시스템이다.


자율주행 로봇을 활용해 서버룸을 순찰하는 시연도 진행했으며, B200 GPU 기반의 AI 학습(Training) 및 MLOps 환경을 쉽게 체험하고 이해할 수 있는 공간도 마련됐다. MLOps는 AI 모델 개발부터 배포·운영까지 전 과정을 자동화·관리하는 머신러닝 운영 체계다.


최지웅 kt cloud 대표는 “AI 이노베이션 센터는 단순한 쇼룸이 아니라, 차세대 데이터센터 기술을 실증하고 고객 가치 중심의 AI 인프라를 구현하기 위한 핵심 플랫폼”이라며 “kt cloud는 데이터센터 기술 혁신의 새로운 기준을 제시하고, 국내 AI 생태계의 성장을 선도할 것”이라고 말했다.

조인영 기자 (ciy8100@dailian.co.kr)
기사 모아 보기 >