고대역폭 메모리(High-Bandwidth Memory, HBM)는 그래픽처리장치(GPU)를 비롯한 고성능 특수 컴퓨팅 응용 분야에서 활용되는 고급 메모리 기술이다. 병렬 처리를 통해 기존 대비 월등히 빠른 데이터 처리 속도와 낮은 전력 소모를 갖췄다. 인공지능(AI) 기술 발전과 빅데이터 처리를 뒷받침할 기반 기술로 주목받고 있다.
여러 개 메모리칩을 다층으로 쌓고 각 층에 구멍(TSV)을 뚷어 연결한 3D 구조로 이뤄졌다. 고속 통신이 가능하다. 높은 공간 효율성으로 칩 크기를 소형화하면서 대역폭을 최적화했다. 제품 하나당 60%에 이르는 높은 마진율을 자랑한다. 하지만 생산 비용이 극도로 고도화된 기술력을 요구한다. 투입 수 대비 완성된 양품 비율을 의미하는 수율에 생산성과 수익성이 큰 영향을 받는다.
HBM은 SK하이닉스가 2013년 세계 최초로 개발한 이후 현재 5세대 제품인 HBM3E까지 양산이 이뤄졌다. 삼성전자 역시 생성형 AI와 빅데이터 상용화에 따라 반도체 산업 차세대 먹거리로 육성하기 위해 공을 들이고 있다. 반도체 산업 후방 생태계에 있는 많은 장비 업체와 소재 업체도 HBM에 대응하고 있다.
AI 반도체 칩 시장을 주도하는 엔비디아는 올해 선보인 ‘블랙웰’ 플랫폼에 HBM3E 12단 제품을 적용했다. 2025년 공개를 목표로 개발 중인 차세대 플랫폼 ‘루빈’에는 후속 버전인 HBM4를 적용할 방침이다. 개발 주기 단축과 함께 플랫폼당 탑재되는 메모리 개수도 늘어날 것으로 예상된다. 향후 차세대 HBM 개발 경쟁 또한 한층 치열해질 전망이다.
박정은 기자 jepark@etnews.com
댓글0