올해 HBM 주력제품 HBM3→HBM3E로 전환HBM 용량도 대폭 확대···80GB에서 384GB로용량 커지면서 HBM 공급량 ↑···삼성·SK '활짝'
18일 시장조사업체 트렌드포스에 따르면 올해 HBM 시장은 엔비디아 GPU인 H200이 출시되면서 HBM3에서 HBM3E로의 전환이 예상된다. GB200, B100 등 다른 모델에도 HBM3E가 채택될 것으로 전망됐다. 또 주력 AI 반도체로 쓰이는 H100의 메모리 용량은 80GB에서 192~288GB로 늘어날 것으로 예측됐다.
호퍼(Hopper) 아키텍처를 사용했을 때보다 AI 추론 속도가 최대 30배 빨라진 블랙웰(Blackwell) 효과도 기대되고 있다. 블랙웰 기반의 GPU인 B200은 12단 HBM3E가 탑재되고 메모리 용량은 288GB까지 커진다는 게 트렌드포스의 설명이다. 또 AMD GPU인 MI350과 MI375 시리즈도 모두 12단 HBM3E가 사용되고 메모리 용량도 288GB에 달할 전망이다.
특히 B200 2개를 중앙처리장치(CPU)와 연결해 만든 '슈퍼칩' GB200은 전 세계 GPU 시장을 장악할 것으로 분석됐다. 트렌드포스는 "GB200은 2025년까지 출하량이 수백만 대를 초과할 것"이라며 "엔비디아 출하량의 40~50%를 차지할 것"이라고 내다봤다. GB200은 H100 대비 거대언어모델(LLM)의 추론 성능을 30배까지 향상하고 LLM 구동에 필요한 비용과 에너지 소비는 25분의 1 수준으로 줄일 수 있다.
HBM은 데이터 전송 통로(I/O)가 기존 D램보다 수십 배 많아 동시 작업 속도를 높여야 하는 GPU 특성에 최적화된 메모리 반도체로 분류된다. 엔비디아는 주로 SK하이닉스에서 HBM을 공급받고 있으며 대만 파운드리(위탁생산) 기업인 TSMC에서 HBM을 연결해 H100, B200 등을 생산한 이후 메타와 마이크로소프트(MS) 등 빅테크 기업들에 공급하고 있다.
엔비디아는 GPU를 앞세워 글로벌 AI 반도체 시장을 약 80% 점유하고 있는 기업이다. 최근 구글, 인텔, AMD 등이 AI 반도체 시장에 잇따라 출사표를 냈으나 엔비디아의 독주 체제는 당분간 이어질 것으로 보인다.
강성철 한국반도체디스플레이기술학회 선임연구원은 "AI 반도체 시장에서 엔비디아를 대체하는 기업은 AMD지만 엔비디아가 파운드리와 HBM 시장의 밸류체인을 장악하고 있는 만큼 시장 점유율을 1~2년 안에 따라잡기는 어려울 것"이라고 말했다.
엔비디아가 차세대 GPU의 HBM 용량을 크게 확대하면서 SK하이닉스의 공급량도 늘어날 전망이다. 현재 H100의 메모리 용량이 80GB 수준인 점을 고려하면 GB200, B200 등에 쓰이는 HBM 탑재량이 증가할 수밖에 없어서다. SK하이닉스는 지난달부터 엔비디아에 공급하는 HBM3E를 세계 최초로 대규모 양산에 나선 상태다.
삼성전자는 D램을 12개 적층한 36GB HBM3E를 업계 최초로 개발해 고용량 HBM 시장 선점에 나섰다. 아직 엔비디아를 고객사로 확보하지는 못했으나 젠슨 황 엔비디아 CEO(최고경영자)가 'GTC 24' 미디어 간담회에서 삼성전자의 HBM을 "현재 테스트하고(qualifying) 있다"고 언급한 만큼 대규모 공급에 대한 기대감이 커지고 있는 상황이다.
뉴스웨이 김현호 기자
jojolove7817@newsway.co.kr
저작권자 © 온라인 경제미디어 뉴스웨이 · 무단 전재 및 재배포 금지
댓글