공유하기

카카오톡
블로그
페이스북
X
주소복사

네이버, 인텔·삼성과 'AI칩 동맹'...다음 스텝은?

민단비 기자 (sweetrain@dailian.co.kr)
입력 2024.04.12 06:00
수정 2024.04.12 06:30

反엔비디아 전선 구축해

AI 인프라 투자비용 절감

sLLM 개발 계획은 없어

가격경쟁력 하락 가능성

팻 겔싱어 인텔 CEO와 하정우 네이버클라우드 AI 이노베이션 센터장이 ‘인텔 비전 2024’ 행사에서 양사 협력사항에 관한 대담을 나누고 있다. ⓒ네이버

네이버가 인텔, 삼성 등 굴지의 기업들과 손잡고 있다. 인텔로부터는 AI 칩을 공급받고, 삼성과는 AI 칩을 공동 개발해 값비싼 엔비디아 AI 칩을 대체, AI 인프라 비용을 줄이겠다는 구상이다. 그럼에도 네이버가 막대한 비용이 들어가는 대형언어모델(LLM) 기반의 B2B(사업자간거래) 사업을 고수하고 있어 소형언어모델(sLLM) 수요가 급부상하는 시장에서 가격 경쟁력이 떨어질 수 있다는 지적이 나온다.


12일 정보기술(IT) 업계에 따르면 네이버클라우드는 인텔의 AI 가속기(AI 학습·추론에 최적화된 반도체 패키지) ‘가우디’를 활용해 AI를 개발할 수 있는 국내 생태계 구축에 나선다. 양사는 국내 스타트업과 대학들이 AI 연구를 진행할 수 있도록 가우디 기반의 IT 인프라를 제공한다는 방침이다. 이동수 네이버클라우드 이사는 “가우디2가 가진 우수한 전력 대비 성능과 인텔의 폭넓은 데이터센터 부문 운영 경험이 협력을 결정한 배경”이라고 설명했다. 네이버는 가우디2 테스트 결과를 바탕으로 가우디2 기반 LLM 학습 인프라를 구축할 계획이다.


삼성전자와는 AI 가속기 ‘마하1’을 개발 중이다. 그래픽처리장치(GPU)와 고대역폭메모리(HBM)이 들어간 엔비디아의 AI 가속기와 달리 저전력(LP) D램이 사용돼 데이터 막힘 현상이 적고 전력 효율은 높다. 앞서 경계현 삼성전자 디바이스솔루션(DS) 부문장(사장)은 “데이터 병목(지연) 현상을 8분의 1로 줄이고 전력 효율을 8배 높인 제품”이라고 소개했다. AI 가속기가 HBM과 GPU로 구성될 경우 이 두 장치가 대량의 데이터를 주고받으며 AI를 고도화하지만 이 과정에서 속도 저하, 전력 소모 등이 발생하는 단점이 있다.


가격도 저렴하다. 삼성과 네이버는 엔비디아 제품의 10분의 1 수준인 500만원 안팎에서 마하 가격을 정할 것으로 알려졌다. 네이버는 연말께 삼성으로부터 마하1 20만개를 납품받을 예정이다. 납품액은 1조원 규모다.


네이버는 고가의 엔비디아 제품의 대체제를 찾으면서 AI 인프라 비용을 크게 줄일 수 있을 전망이다. 그러나 많은 국내외 사업자들이 sLLM 개발에 뛰어든 상황에서 네이버가 자체 LLM ‘하이퍼클로바X’ 기반 상품의 가격 경쟁력을 높이기 쉽지 않을 것이란 예상이 나온다. 최근 글로벌 빅테크 기업들은 sLLM 기술 경쟁에 나서고 있다. LLM에 비해 매개변수가 적다보니 학습시간과 비용이 훨씬 적게 든다는 장점에 주목했다. 특정 산업에 최적화할 수 있는 점도 이점이다.


업계에 따르면 이미 메타는 개방형 AI 모델 ‘라마3’의 sLLM 버전 2종을 이르면 다음주 출시한다. 라마3 대형 버전은 인간 두뇌의 시냅스에 해당하는 파라미터 수가 1400억개로 올 7월 발표될 예정인데 이에 앞서 소형 버전을 내놓는 것이다. 구글은 또한 제미나이 소형 버전인 ‘젬마’를 내놓은 상태다. 각자 LLM 개발을 완료한 국내 이동통신 3사도 각 산업에 특화된 sLLM을 만들겠다며 전략을 선회했다.


반면 네이버는 LLM 경량화 계획을 언급하지 않고 있다. 네이버는 타 기업과 업무협약 또는 기업용 솔루션 ‘클로바 스튜디오’를 통해 하이퍼클로바X 기반 생성형 AI 개발을 지원하고 있다. 업계 관계자는 “많은 기업들이 LLM에서 sLLM으로 전략을 선회한 만큼 LLM으로 가격 경쟁력을 갖추긴 어려울 것”이라고 말했다.

민단비 기자 (sweetrain@dailian.co.kr)
기사 모아 보기 >
0
0

댓글 0

로그인 후 댓글을 작성하실 수 있습니다.
  • 최신순
  • 찬성순
  • 반대순
0 개의 댓글 전체보기