HBM 낸드 기반 HBF 표준화 AI 메모리 시장 선점 경쟁
글로벌 표준화로 기술 선점에 나선 양사가 HBM·낸드 기술력을 바탕으로 HBF를 표준화해 AI 시장 공략에 속도를 내고 있다. 차세대 메모리로 주목받는 HBF는 대용량 데이터 저장에 강점을 지니며, D램 기반 HBM의 기능적 빈틈을 정교하게 보완하는 구조로 부상 중이다. 결국 HBM과 낸드의 장점을 결합한 HBF가 AI 메모리 생태계의 새로운 규칙을 만들지, 표준 주도권 경쟁이 시장 판도를 가를 전망이다. HBM: 초고대역폭 시대, ‘연산’ 중심 AI 메모리의 기준 AI 서버와 고성능 GPU 시장이 빠르게 팽창하면서, 메모리는 더 이상 ‘용량’만으로 평가되지 않는다. 무엇보다도 중요한 것은 연산 유닛이 데이터를 얼마나 신속하고 연속적으로 공급받을 수 있느냐이며, 이 지점에서 HBM은 가장 상징적인 해법으로 자리해 왔다. HBM은 여러 개의 D램을 수직 적층하고 TSV(실리콘 관통 전극) 등 고밀도 인터커넥트를 활용해, 대역폭을 극적으로 끌어올리는 방식이어서 AI 학습·추론 환경과 매우 잘 맞는다. 다만 AI 모델이 거대해질수록, 순수 ‘대역폭’ 외의 문제가 또렷하게 드러난다. 학습 데이터, 체크포인트, 파라미터 스냅샷 등 장주기 데이터가 폭증하면서, 연산 근처에 머무르는 메모리의 역할과 더불어 ‘저장’의 역할이 동시에 중요해진 것이다. HBM은 뛰어난 성능을 갖췄지만, 비용 구조와 확장성, 그리고 대용량 저장 관점에서는 한계가 분명해 대안적 조합이 꾸준히 탐색돼 왔다. 이런 배경에서 HBF가 주목받는다. HBF는 HBM이 강한 영역(대역폭·지연시간)의 가치를 유지하면서도, AI가 요구하는 대규모 데이터의 핸들링과 계층적 메모리 구조를 보다 촘촘하게 메우려는 방향성을 담는다. 특히 글로벌 표준화가 함께 언급되는 이유는, 성능만으로는 생태계를 흔들기 어려운 AI 인프라 특성상 ‘호환’과 ‘공급 안정성’이 기술 채택의 결정적 조건이기 때문이다. 정리하면 HBM은 여전히 AI 연산의 심장 가까이에서 기준점 역할을 하되, 차세대 메...