지난해 세상을 깜짝 놀라게 했던 챗GPT로, 생성형 인공지능(AI) 시대의 막이 열렸다.
생성형 AI는 거대언어모델(LLM)에 기반해 대용량의 연산이 필요하기 때문에 더 크고, 더 빠른 메모리 반도체가 요구된다. 업계에서는 최근 급부상한 고대역폭메모리(HBM) 외에도 차세대 메모리 기술인 ‘컴퓨트 익스프레스 링크’(CXL), ‘프로세싱 인 메모리’(PIM) 등에 주목하고, 상용화에 속도를 내고 있다.
23일 업계에 따르면 인텔은 최근 AI 성능이 대폭 향상된 차세대 서버용 중앙처리장치(CPU) ‘5세대 인텔 제온 프로세서’를 공개했다. 이 칩은 AI 가속 기능을 지원해 추론 성능을 42%까지 높였다.
눈에 띄는 점은 이번 세대부터 ‘CXL1.1 타입3’ 규격을 지원한다는 것이다. 서버용 CPU 시장을 선도하는 인텔이 본격적인 CXL 적용을 알린 만큼 향후 시장이 확대될 것으로 기대되는 대목이다.
CXL은 CPU, GPU, 가속기 등 여러 장치와 메모리를 연결하는 통합 인터페이스 기술이다. 기존에는 CPU마다 확장할 수 있는 D램 개수가 제한적이어서 메모리 용량을 늘리는 데 한계가 있었다. CXL은 모듈을 추가하는 방식이기 때문에 메모리 용량과 대역폭을 크게 늘릴 수 있다.
삼성전자는 지난해 5월 세계 최초로 CXL 1.1 기반 D램을 개발했다. 이후 1년만인 올해 5월 CXL 2.0을 지원하는 128GB D램을 선보이고, 연내 양산에 나설 계획이라고 밝혔다. 최근에는 △CMM-D △CMM-DC △CMM-H △CMM-HC 등 CXL 모듈 관련 상표도 잇달아 출원하면서 기대감이 더 커지고 있다.
SK하이닉스 역시 내년 CXL 상용화를 목표로 개발에 적극적으로 나서고 있다.
SK하이닉스는 지난해 8월 DDR5 D램 기반 첫 96GB CXL 메모리 솔루션 샘플을 개발했다. 같은 해 10월에는 업계 최초로 CXL 기반의 연산 기능을 통합한 CMS(Computational Memory Solution) 개발에도 성공했다. 올해 10월 ‘OCP 글로벌 서밋 2023’에서는 CMS 2.0을 포함한 CXL 기반 솔루션 3종을 공개하기도 했다.
SK하이닉스 관계자는 “96GB와 128GB 제품을 중심으로 내년 상반기에는 고객 인증을 마치고, 하반기에 상용화할 예정”이라며 “CXL 2.0 메모리 확장 솔루션을 적용한 고객은 DDR5만 탑재한 기존 시스템 대비 최대 50% 대역폭 향상을 기대할 수 있고, 용량 확장도 최대 50~100%까지 가능하다”고 말했다.
PIM은 비메모리 반도체인 CPU나 그래픽처리장치(GPU)에서도 내부에서 연산할 수 있는 기능을 더한 지능형 반도체다. 하나의 칩 안에서 저장과 연산을 함께 하기 때문에 속도가 빠르고, 전력 소모량도 절감된다.
삼성전자는 2021년 세계 최초로 메모리 반도체와 AI 프로세서를 결합한 ‘HBM-PIM’을 개발했다. 이미 AMD의 GPU ‘MI-100’ 가속기 카드에 HBM-PIM 메모리를 탑재하고 있다. 이를 통해 기존 GPU 가속기 대비 성능은 2배 늘고, 에너지 소모는 50% 줄였다.
SK하이닉스는 GDDR6-AiM을 시작으로 PIM 상용화에 나서고 있다. 이 제품은 그래픽 D램인 GDDR6에 가속기가 덧붙은 제품이다. 일반 D램보다 속도가 최대 16배 증가하고, 에너지 소모는 약 80% 감소한다.
올해 9월에는 이 메모리를 기반으로 한 AiMX 시제품을 공개하기도 했다. AiMX는 GDDR6-AiM 여러 개를 연결해 성능을 높인 가속기 카드로, GPU 대신 AI 연산에 활용할 수 있다. LLM 추론 기반 서비스에 특화된 이 제품은 GPU 대비 빠른 응답 속도와 더 적은 전력으로 데이터를 처리한다.
SK하이닉스 관계자는 “AiM은 AI 추론 분야에서의 핵심인 가격 경쟁력을 갖춘 유일한 AI 솔루션”이라며 “데이터센터부터 온디바이스 AI를 탑재한 모바일까지 AI 추론 영역에서 폭넓게 활용될 것”이라고 말했다.
댓글0