경량화 언어모델(smaller Large Language Model·sLLM)은 방대한 양의 데이터를 학습해 자연어(NLP)처리 작업을 수행할 수 있는 인공지능(AI) 모델 중 하나다. 일반적으로 알려진 거대언어모델(LLM)보다 작은 매개변수(파라미터) 크기로 운영이 가능하다. 통상적으로 매개변수가 1000억개 이하인 모델이 sLLM으로 분류된다.
LLM보다 매개변수 크기는 작지만 성능은 LLM 못지않다. 매개변수가 작은 덕분에 데이터 처리 속도가 빠르고 실시간 응답이 가능하다. 오픈소스 배포와 업데이트도 LLM과 비교해 쉽다. 특히 학습 데이터량이 적어지면서 개발 비용과 유지 비용이 적게 들어가는 장점이 있다.
이같은 장점에 LLM 개발 중이던 대기업들도 sLLM에 눈을 돌리고 있다. 글로벌 테크기업인 구글은 최근 sLLM인 ‘제미나이 나노’를, 마이크로소프트(MS)는 ‘파이(Phi)-3 미니’를, 메타는 ‘라마3’를 각각 공개했다. 국내에서는 KT가 초거대 AI ‘믿음’ 매개변수 2100억개를 40~70억개 수준으로 줄인 sLLM을, LG유플러스는 LG AI연구원이 공개한 ‘엑사원’을 기반으로 한 sLLM ‘익시젠’을 준비 중이다. 네이버는 하이퍼클로바X의 경량 모델인 ‘HCX-대시’를 선보이기도 했다.
비용 효율화 장점에 스타트업도 sLLM 개발에 뛰어들었다. AI 스타트업 업스테이지의 sLLM ‘솔라 미니’는 최근 아마존웹서비스(AWS)를 통해 출시했다. 고객사들은 솔라 미니를 조정해 자신들이 원하는 맞춤형 생성 AI 서비스를 만들 수 있다. AI 기업 솔트룩스는 매개변수 70억개 수준인 AI 모델을 내놨다.
남궁경 기자 nkk@etnews.com
댓글0