바이브컴퍼니(이하 바이브)가 자체 SLM(소규모 언어모델) ‘바이브GeM’의 다음 버전인 ‘바이브GeM 2’를 오픈소스로 공개했다고 14일 밝혔다.
바이브GeM 2는 총 2.5조 개의 토큰을 사전 학습한 파라미터 14B(140억 개)모델로, 기존 모델 대비 한 층 업그레이드된 성능을 드러냈다. 기존 모델에서 코딩, 번역, 멀티턴(Multi-turn) 대화까지 추가로 지원되는 것이 특징이다. 또한 이전보다 적은 메모리를 사용해 더욱 더 빠른 생성이 가능해졌다.
특히 한국어 작업 성능 미세조정 실험 결과에서 GPT 3.5보다 높은 성능을 보이는 것으로 나타났다. 바이브는 AI 응용 시 가장 많이 활용되는 ▲오픈북 질의응답 ▲클로즈드북 질의응답 ▲문서 요약 ▲제목 생성 등 4가지 주요 작업을 기준으로 테스트 한 결과 메타의 라마2, 구글의 젬마, 업스테이지의 솔라 등 기존에 오픈소스로 공개된 SLM 중 가장 뛰어난 성능을 보였다고 설명했다.
해당 테스트는 각 베이스 모델에 동일한 데이터를 기반으로 미세조정을 실시한 후, 각 작업 별로 100개의 테스트 샘플에 대해 생성된 답변을 GPT 4를 통해 평가했다.
바이브는 바이브GeM 2의 다른 이름으로 선보인 ‘라미온(Llamion)’을 ‘Open-Ko LLM 리더보드’에도 오픈소스로 공개했다. Open-Ko LLM 리더보드는 한국지능정보사회진흥원과 허깅페이스가 함께 운영 중인 한국형 LLM 평가 플랫폼이다.
김성언 바이브 대표는 “SLM을 도입하고자 하는 기업 또는 기관들에게 바이브GeM 2는 최고의 선택이 될 것”이라며 “올해 안에 더 고도화된 바이브GeM 2.5와 바이브GeM 3을 시장에 선보이고 지속적으로 서비스와 솔루션에 반영해 나갈 것”이라고 말했다.
조상록 기자 jsrok@chosunbiz.com
댓글0