인간 뇌 모방해 초저전력으로 LLM 처리…AI반도체 기술 첫 개발KAIST, '상보형 트랜스포머' 세계 첫 선…온디바이스 AI 핵심기술 전력 소모 엔비디아 대비 625분의 1…0.4초 만에 GPT-2 모델 구동 (서울=연합뉴스) 강건택 기자 = 전력 소모를 최소화하면서도 초고속으로 거대언어모델(LLM)을 처리할 수 있는 인공지능(AI) 반도체 핵심 기술인 '상보형 트랜스포머'(Complementary-Transformer)를 국내 연구진이 세계 최초로 개발했다. 과학기술정보통신부는 한국과학기술원(KAIST) PIM반도체 연구센터와 인공지능반도체대학원 유회준 교수 연구팀이 상보형 트랜스포머를 삼성전자[005930] 28나노 공정을 통해 개발했다고 6일 밝혔다. 상보형 트랜스포머란 인간 뇌의 구조와 기능을 모방해 설계한 뉴로모픽 컴퓨팅 시스템의 일종인 '스파이킹 뉴럴 네트워크'(SNN·뇌의 뉴런이 스파이크라는 시간에 따른 신호를 사용해 정보를 처리하는 방식)와 '심층 인공신경망'(DNN·시각적 데이터 처리에 사용되는 딥러닝 모델)을 선택적으로 사용해 트랜스포머 기능을 구현하는 기술이다. 트랜스포머는 문장 속 단어와 같은 데이터 내부의 관계를 추적해 맥락과 의미를 학습하는 신경망으로 챗GPT의 원천 기술이기도 하다. GPT와 같은 거대언어모델은 그동안 다량의 그래픽처리장치(GPU)와 250와트의 전력 소모를 통해 구동해야 했지만, 연구팀은 4.5㎜×4.5㎜의 작은 AI 반도체 한 개에서 400밀리와트의 초저전력만 소모하면서도 초고속 구현에 성공했다. 김상엽 박사가 제1 저자로 참여한 이번 연구 결과는 지난달 19∼23일 미국 샌프란시스코에서 열린 '반도체 설계 올림픽' 국제고체회로설계학회(ISSCC)에서 발표·시연됐다. 기본 뉴로모픽 컴퓨팅 기술은 합성곱신경망(CNN·심층인공신경망의 하나로 이미지 인식·분류와 비디오 분석 등 시각적 데이터 처리에 사용되는 딥러닝 모델)보다 부정확해 간단한 이미지 분류 작업만 할 수 있었으나, 연구진은 뉴로모픽 컴퓨팅 기술의 정확도를 CNN과 동일한 수준으로 끌어올리고 다양한 응용 분야에 적용할 수 있는 '상보형 심층신경망' (C-DNN) 기술을 활용했다고 설명했다. 스파이킹 뉴럴 네트워크와 심층 인공신경망의 상보적 특성 [과학기술정보통신부 제공] 상보형 심층신경망은 심층 인공신경망(DNN)과 스파이킹 뉴럴 네트워크(SNN)를 혼합 사용해 소모 전력을 최소화할 수 있는 기술로, 지난해 2월 ISSCC에서 김상엽 박사가 발표했다. 사람의 뇌처럼 데이터 입력값이 크면 전력을 많이 쓰고 작으면 전력을 적게 쓰는 SNN의 특징을 활용해 작은 입력값은 SNN에, 큰 입력값은 DNN에 각각 할당하는 방식이다. 연구팀은 이러한 상보형 심층신경망 기술을 거대언어모델에 적용함으로써 초저전력·고성능의 온디바이스 AI가 가능하다는 것을 실제로 입증한 것은 물론, 이론에만 머물렀던 연구 내용을 세계 최초로 AI반도체 형태로 구현했다고 과기정통부는 설명했다. 이번에 개발한 AI반도체용 하드웨어 유닛은 ▲ DNN과 SNN을 융합한 신경망 아키텍처로 정확도를 유지하면서도 연산 에너지 소모량을 최적화 ▲ DNN과 SNN을 모두 효율적으로 처리할 수 있는 AI반도체용 통합 코어 구조 개발 ▲ SNN 처리에 소모되는 전력을 줄이는 출력 스파이크 추측 유닛 개발 ▲ LLM 파라미터의 효과적 압축을 위한 기법 사용 등 4가지 특징을 지닌다고 연구진은 밝혔다. 이를 통해 GPT-2 거대모델의 파라미터를 7억800만 개에서 1억9천100만 개로, 번역에 사용되는 T5 모델의 파라미터를 4억200만 개에서 7천600만 개로 각각 줄일 수 있었다. 이러한 압축 작업 결과 언어모델의 파라미터를 외부 메모리로부터 불러오는 작업에 소모되는 전력을 70% 줄이는 데 성공했다. 연구진에 따르면 상보형 트랜스포머는 엔비디아 A100 GPU 대비 625분의 1 수준의 전력을 쓰면서 GPT-2 모델을 활용한 언어 생성에는 0.4초, T5 모델을 활용한 언어 번역에는 0.2초의 고속 동작이 각각 가능하다. 파라미터 경량화로 언어 생성의 경우 1.2분기계수(낮을수록 언어모델이 잘 학습됐다는 의미)만큼 정확도가 감소하긴 했으나, 생성된 문장을 사람이 읽을 때 어색함을 느끼지 않을 수준이라고 연구진은 설명했다. 연구팀은 향후 뉴로모픽 컴퓨팅을 언어모델에 국한하지 않고 다양한 응용 분야로 연구 범위를 확장할 예정이다. 유회준 교수는 "뉴로모픽 컴퓨팅은 IBM, 인텔 같은 회사들도 구현하지 못한 기술로, 초저전력의 뉴로모픽 가속기를 갖고 거대모델을 돌린 것은 세계 최초라고 자부한다"며 "온디바이스 AI의 핵심 기술인 만큼 앞으로도 관련 연구를 지속할 것"이라고 말했다. AI 반도체 발전 방향 [과학기술정보통신부 제공] firstcircle@yna.co.kr '이선균 사건' 연루 의사, 대마초 피우고 액상대마도 거래 [OK!제보] 용변 모습 훤히 들여다 보이는 고속도 화장실 에스파 카리나, 이재욱과 열애에 "놀라게 해드려 죄송" 이강인 '탁구게이트' 뒤 첫 공격P…깊어지는 황선홍의 고민 민원 시달리다 온라인서 신상 공개된 공무원 사망…"마녀사냥" '롤스로이스남 마약처방·환자 성폭행' 의사, 법정서 혐의 인정 불륜 의심해 배우자 살해한 남편 징역 15년 확정 성일종 '이토 히로부미 인재' 발언 논란, 선거 쟁점화 "상태 좀 볼게요"…중고거래 중 롤렉스 들고 튄 20대 구속 이혼하고도 생활비 달라며 스토킹…70대 노인 전자발찌 부착
"언어의 한계에 갇힌 챗GPT , 잘해봤자 노예"[티타임즈]챗GPT가 준 충격은 이제 고점에 왔다"초거대AI 언어모델은 언어의 한계에 갇힐 수밖에 없다. 몸도 없고 타자도 없기 때문에 자기동일성, 자폐적인 세계안에 갇혀 있다. GPT5가 나와도, 매개변수를 아무리 늘려도 새로운 충격을 주기 어렵다. 챗GPT가
챗GPT, '유료 고객' 데이터는 학습 안 시킨다IT썰챗GPT의 아버지인 샘 알트만 오픈AI CEO(최고경영자)가 더 이상 고객 데이터를 초거대 AI(인공지능) 언어모델 학습에 활용하지 않는다고 강조했다. 모델 학습 과정에서 개인정보나 기업 기밀이 유출될 수 있다는 우려를 잠재우기 위해서다. 단,
AI가 자식보다 낫네…"속 안 좋아" 할머니 말 기억해 "병원 가야죠"[MT리포트]챗GPT 열풍(上)사람처럼 자연스럽게 대화할 수 있는 AI 챗봇 '챗GPT'의 등장으로 전세계 IT업계가 긴장하고 있다. 챗GPT가 산업은 물론 교육·노동·예술 패러다임을 전환할 것이란 전망이 쏟아진다. 챗GPT의 위력과 사회적 여파, 우려점을 살펴보고 국
댓글 많은 뉴스