산업 '제2의 HBM' HBF, 글로벌 표준화 착수

산업 전기·전자

'제2의 HBM' HBF, 글로벌 표준화 착수

등록 2026.02.26 10:33

정단비

  기자

SK하이닉스·샌디스크 컨소시엄 출범OCP 산하 워크스트림 공동 구성HBM 잇는 '제2 메모리 축' 부상

데이터센터 메모리 지형이 다시 흔들린다. SK하이닉스가 '제2의 HBM'으로 불리는 차세대 메모리 HBF(High Bandwidth Flash) 표준화에 착수하며 AI 인프라 주도권 경쟁을 한층 끌어올렸다.

SK하이닉스는 25일(현지시각) 샌디스크와 미국 캘리포니아주 밀피타스에 위치한 샌디스크 본사에서 'HBF 스펙(Spec.) 표준화 컨소시엄 킥오프(Kick-Off)' 행사를 열고 글로벌 표준화 전략을 공개했다.

회사 측은 "샌디스크와 함께 HBF를 업계 표준으로 마련해 인공지능(AI) 생태계 전반의 동반 성장을 이끌겠다"며 "세계 최대 개방형 데이터센터 기술 협력체인 Open Compute Project(OCP) 산하에 핵심 과제 전담 워크스트림을 공동 구성해 본격적인 표준화 작업에 돌입한다"고 밝혔다.

최근 AI 산업의 무게중심은 거대언어모델(LLM) '학습(Training)'에서 실제 서비스를 구현하는 '추론(Inference)'으로 빠르게 이동하고 있다.

동시 접속자가 폭증하면서 속도와 효율을 모두 갖춘 메모리 수요가 커졌다. 기존 구조만으로는 추론 단계에서 요구되는 대용량 데이터 처리와 전력 효율을 동시에 만족시키기 어렵다. HBF는 이 지점을 파고든다.

HBF는 초고속 메모리 HBM과 대용량 저장장치 SSD 사이에 위치하는 새로운 메모리 계층이다. HBM의 대역폭과 SSD의 용량 특성 사이의 공백을 메우며, 추론 환경에 필요한 확장성과 전력 효율을 함께 확보하는 구조다. 최고 성능 구간은 HBM이 담당하고, HBF가 이를 보완하는 방식이다.

확장성 개선은 곧 비용 절감으로 이어질 가능성이 크다. HBF 도입 시 AI 시스템의 총소유비용(TCO)을 낮출 수 있을 것으로 업계는 보고 있다. 2030년 전후로 HBF를 포함한 복합 메모리 솔루션 수요가 본격 확대될 것이라는 전망도 나온다.

AI 추론 시장의 경쟁력은 단일 칩 성능이 아니라 CPU·GPU·메모리·스토리지를 아우르는 시스템 레벨 최적화에서 갈린다. HBM과 HBF를 동시에 공급할 수 있는 종합 메모리 솔루션 기업의 전략적 위상도 그만큼 높아지고 있다.

양사는 HBM과 낸드 분야에서 축적한 설계·패키징 기술, 대량 양산 경험을 토대로 HBF의 조기 표준화와 제품화를 추진할 계획이다.

안현 개발총괄 사장은 "AI 인프라 경쟁은 개별 기술을 넘어 생태계 최적화의 문제"라며 "HBF 표준화를 통해 협력 체계를 공고히 하고, AI 시대 고객과 파트너를 위한 최적의 메모리 아키텍처를 제시하겠다"고 밝혔다.
ad

댓글