국내 연구진이 전력 소모와 처리 시간을 크게 줄인 새로운 인공지능(AI) 반도체를 개발했다. 정부는 생성형 AI 산업의 경쟁력 강화를 위해 핵심 인프라인 AI반도체 개발을 적극 지원해나갈 방침이다.
과학기술정보통신부는 유회준 한국과학기술원(KAIST) 프로세싱인메모리(PIM)반도체연구센터 및 AI반도체대학원 교수 연구팀이 전력 소모가 400mW에 불과하고 0.4초 만에 상용 언어모델을 처리할 수 있는 새로운 AI반도체 ‘상보형 트랜스포머’를 세계 최초로 개발했다고 6일 밝혔다. 연구성과는 지난달 미국 샌프란시스코에서 열린 국제고체회로설계학회(ISSCC)에서 발표됐다.
상보형 트랜스포머는 ‘스파이킹 신경망(SNN)’와 ‘심층 인공신경망(DNN)이라는 서로 다른 신경망을 선택적으로 활용하는 반도체다. 사람이 생각을 많이 할 때는 뇌의 에너지 소모가 크고 적게 할 때는 에너지 소모가 작은 것처럼 반도체도 연산량에 따라 전력 소모를 줄일 수 있는 방향으로 두 신경망 중 하나를 선택해 연산할 수 있다는 것이다.
|
연구팀은 이 같은 효율화를 통해 기존 GTP 모델을 돌리는 데 250W가 들었던 전력 소모량을 400mW 수준의 초전력으로, 동시에 가로·세로 4.5mm의 반도체 칩에서 연산하는 데 성공했다. 엔비디아의 구형 그래픽처리장치(GPU) A100과 비교하면 전력 소모는 625분의 1, 칩 면적은 41분의 1에 불과하다. 연산속도 역시 GPT-2 모델 기준 0.4초 만에 처리 가능했다. GPT-2는 AI모델의 성능지표인 파라미터(매개변수) 7억 800만 개를 가진다. 수천억 파라미터 규모의 초거대AI 모델보다는 작지만 최근 주목받는 온디바이스AI, 즉 엣지(말단) 기기에 들어가는 AI 연산에 주로 쓰인다. 연구팀은 “이번 연구 성과는 모바일 장치 등 에너지 제약이 높은 환경에서도 정확하게 거대 언어모델을 구동할 수 있어 온디바이스AI 구현을 위한 최적의 기술”이라고 강조했다.
연구팀은 향후 이 같은 뉴로모픽(신경) 컴퓨팅을 언어모델을 넘어 다양한 응용 분야로 연구범위를 확장할 계획이다. 유 교수는 “기존 AI반도체가 가진 전력 소모 문제를 해소했을 뿐만 아니라, GPT-2와 같은 실제 AI모델 응용을 성공적으로 구동했다는데 큰 의의가 있다”며 “뉴로모픽 컴퓨팅은 인공지능시대에 필수적인 초저전력·고성능 온디바이스AI의 핵심기술인만큼 앞으로도 관련 연구를 지속할 것”이라고 설명했다. 전영수 과기정통부 정보통신산업정책관은 “앞으로도 이러한 세계적인 연구성과를 지속적으로 낼 수 있도록 적극적으로 지원하겠다”고 했다.
댓글0