'HBM의 아버지' 김정호의 진단…차세대 AI 메모리는 'HBF'
입력 2026.02.03 15:57
수정 2026.02.03 15:59
김정호 카이스트 교수 "HBM만으론 한계…대안 필요해"
고대역폭플래시(HBF) 제시…"삼성·SK하닉 주도할 것"
김정호 KAIST 교수가 3일 서울 중구 프레스센터에서 HBF연구 및 전략 설명회를 열고 HBF기술을 소개하고 있다.ⓒ데일리안 정인혁 기자
'HBM의 아버지'로 불리는 김정호 한국과학기술원(KAIST) 전기및전자공학부 교수가 인공지능(AI) 시대의 핵심 메모리인 고대역폭메모리(HBM)의 한계를 지적했다. 급증하는 AI 데이터 용량을 HBM만으로는 감당하기 어렵다는 이유에서다. 차세대 대안으로 고대역폭플래시(HBF)를 제시했다.
김 교수는 3일 서울 중구 프레스센터에서 열린 'HBF 기술 개발 성과, 로드맵 그리고 상품과 전략 발표회'에서 "멀티모달, 로봇 등 AI 활용이 고도화되면서 필요한 메모리 용량이 지금보다 100배에서 1000배 정도 더 필요해진다"면서 이같이 주장했다.
AI는 거대언어모델(LLM)을 넘어 영상·이미지 등 대용량 데이터를 동시에 처리하는 멀티모달 단계로 진입하고 있다. 김 교수는 이 과정에서 연산 속도 뿐 아니라 '용량'에서도 병목이 생길 수 있다고 진단했다. 현재 그래픽처리장치(GPU) 옆에 탑재되는 HBM 용량은 수십~수백GB 수준에 머물러 초거대 모델과 방대한 KV 캐시를 수용하기에는 턱없이 부족하다는 설명이다.
김 교수는 "GPU 혁신은 거의 끝났다"며 "GPU끼리의 통신 성능이 떨어지기 때문에 GPU를 많이 붙일 수 없다"고 지적하며 AI 반도체의 진화 방향이 연산 중심에서 메모리 구조 혁신으로 이동하고 있다는 점을 강조했다.
그가 제시한 해법은 HBF다. HBF는 낸드플래시를 수직으로 적층해 대역폭과 용량을 동시에 확장하는 차세대 메모리로, D램을 쌓아 대역폭을 끌어올린 HBM과 구조적으로 유사하다. 데이터 전송 속도는 HBM보다 느리지만, 압도적인 용량을 확보할 수 있다는 점이 강점이다. 그는 "속도는 HBM, 용량은 HBF가 각각 맡게 될 것"이라고 덧붙였다.
김 교수는 현재의 'GPU-HBM' 구조에서 HBF를 추가로 연결한 'GPU-HBM-HBF' 구성을 통해 용량 한계를 보완할 수 있다고 설명했다. 필요에 따라서는 GPU와 HBF를 직접 연결하는 구조도 가능하다고 덧붙였다. 그는 "현재 GPU에 HBM 탑재가 필수적인 것처럼 HBF 역시 핵심 AI 메모리로 부상할 것"이라며 "2038년 이후에는 HBF 수요가 HBM을 넘어설 것"이라고 내다봤다.
HBF 시장은 기존 HBM 강자들이 주도권을 이어잡을 가능성이 크다는 분석이 나온다. HBF 제조 공정이 실리콘관통전극(TSV) 및 접합(본딩) 등 HBM 공정과 유사하기 때문이다. 김 교수는 "HBM과 HBF를 모두 제작해 납품할 수 있는 곳은 삼성전자와 SK하이닉스 밖에 없다"고 말했다.
업계에 따르면 SK하이닉스는 미국 샌디스크와 협력해 HBF 국제 표준화를 추진하고 있으며, HBM과 HBF를 병행 배치하는 구조를 검토 중이다. 삼성전자 역시 내부적으로 HBF 독자 개발을 진행하고 있는 것으로 전해진다.
김 교수는 '고객 확보'가 HBF의 상용화 시점을 앞당길 것이라고 내다봤다. 그는 "기술적으로 보면 HBM과 낸드 기술의 결합이라 개발은 속도전이고 열 문제를 어떻게 해결하는가가 관건"이라며 "하지만 무엇보다 중요한 건 '누가 써줄 것이냐'다. 글로벌 빅테크 기업에 HBF의 필요성을 어떻게 납득시킬지가 핵심"이라고 강조했다.
이어 김 교수는 "HBM에 이어 HBF도 한국 메모리 제조사가 주도권을 잡아야 AI 시장에서 영향력을 잃지 않을 것”이라며 “메모리 중심 AI 시대가 전개될 것"이라고 전망했다.
