오픈소스(개방형) 인공지능(AI) ‘라마’ 시리즈를 개발 중인 메타가 최신 AI ‘라마3.1’을 공개했다. 지난 4월 라마3를 공개한지 3개월 만으로, 그간 매개변수 700억 개 이하 소형 AI에 집중하던 기조를 버리고 4050억 개 초대형 모델을 내놓은 점이 새롭다. 오픈AI·구글·엔트로픽 등 경쟁사의 공격적인 신형 AI 출시 기조에 맞춰 메타 또한 ‘초거대 AI’로 반격에 나섰다는 평가가 따른다.
|
23일(현지 시간) 메타는 최신 AI 모델 라마3.1 3종을 공개했다. 라마3.1은 매개변수 80억 개인 8B, 700억 개인 70B, 4050억 개인 405B 3종으로 출시된다. 그간 라마 시리즈가 70B 이하 소형 모델에 머물렀던 점과 확연한 차이다. 메타는 지난 4월 라마3를 공개하며 4000억 개 이상 모델을 내놓겠다고 밝힌 바 있다. 약속했던 4000억 개 이상 대형 모델 공개와 함께 기존 소형·중형 모델도 개선해 라마3.1로 이름붙인 셈이다.
라마3.1 405B는 기존 라마 시리즈 중 최고 성능을 자랑한다. AI 성능 평가 지표 중 하나인 대규모다중작업언어이해(MMLU) 검사에서 라마3.1 405B는 정답율 88.6%를 기록했다. 오픈AI GPT-4의 85.4%, 엔트로픽 클로드3.5 소넷의 88.3%를 능가하는 수치다. 다만 오픈AI 최신 모델인 GPT-4o의 88.7%보다는 소폭 점수가 낮았다. 기존 중소형 모델 성능도 라마3보다 개선됐다. MMLU에서 라마3 8B와 70B가 각각 68.4%, 82.0%를 기록한 반면 라마3.1 8B와 70B는 각각 73.0%, 86.0%를 나타냈다.
메타의 ‘거대 모델’ 공개와 3개월 만에 이뤄진 AI 새 버전 출시는 경쟁사들의 신형 AI 출시를 겨냥한 것이다. 실제 라마3 공개 한달 뒤인 5월 오픈AI는 GPT-4o를 내놨고, 하루 뒤 구글도 제미나이 1.5 프로·플래시를 공개했다. 오픈AI는 최근 초소형 모델인 GPT-4o ‘미니’를 내놓기도 했다. 초거대AI에 집중하던 경쟁사들이 메타의 텃밭인 소형 AI 시장을 공략하자, 메타가 초거대AI로 반격에 나서는 구도다.
오픈소스 AI 진영 맹주로서 지위를 공고히하겠다는 전략도 섞여 있다. 메타 라마 시리즈는 타 초거대 AI와 달리 설계도가 공개된 오픈소스 모델로 누구나 무료로 사용할 수 있어 수많은 ‘변형 AI’의 기본 틀이 된다. 기본이 되는 라마 시리즈 성능이 높아질수록 오픈소스 AI 생태계 전반이 득을 볼 수 있다.
마크 저커버그 메타 최고경영자(CEO)는 “컴퓨팅 초기에는 각자 폐쇄형 유닉스를 개발하는 데 막대한 투자를 해왔으나 오늘날은 오픈소스인 리눅스가 산업 표준으로 AI도 비슷한 방식으로 발전할 것”이라며 “라마3.1은 폐쇄형 모델에 비해 비용과 성능이 우수할 뿐 아니라 개방형으로 다른 모델을 미세 조정하고 정제하기에 최적”이라고 강조했다.
댓글0