개방형 인공지능(AI) 모델인 오픈소스 모델이 업계의 주목을 받고 있다. 외부 개발자들에게 무료로 개방되는 기술인 만큼 빅테크들이 경쟁적으로 나서는 AI 생태계 확장에 유리한 데다, 최근 전 세계적으로 중요성이 부각되는 AI 위험 대응의 일환으로 모델의 투명성을 확보할 수도 있기 때문이다. 정부 주도로 열린 ‘AI 서울 정상회의’에서도 빅테크와 주요국 인사들이 이 기술에 특히 관심을 보였던 것으로 전해졌다.
|
23일 정보기술(IT) 업계에 따르면 전날 서울 성북구 한국과학기술연구원(KIST)에서 열린 AI 서울 정상회의의 비공개 행사 ‘고위급 라운드테이블’에서는 오픈소스 모델 기반의 AI 혁신 방안이 주요 논의 주제가 됐다. AI 혁신, 안전, 포용을 각각 주제로 진행된 라운드테이블 세 세션 중 ‘혁신 세션’에서 오픈소스 모델 ‘라마3’를 개발한 메타의 로브 셔먼 부사장은 물론 내년 초 3차 정상회의 개최국인 프랑스의 크리술라 자카로풀루 개발및국제파트너십 장관도 좌장으로 참석해 관련 논의를 이끌었다. 참석자들은 3차 정상회의에서 논의를 발전시키기 위한 방안도 주고받은 것으로 알려졌다.
오픈소스 모델은 현재 오픈AI의 ‘GPT’, 구글의 ‘제미나이’ 등 폐쇄형 모델과 달리 소스코드가 외부에 공개되고 누구나 무료로 서비스 개발에 활용할 수 있도록 허용한다. 오픈소스 모델 개발사 입장에서는 외부 개발자에게 사용료를 받는 폐쇄형 모델의 수익구조는 가질 수 없지만 더 많은 개발자들이 자사 기술을 쓰도록 해 AI 생태계를 꾸리는 데 유리하다. 이에 AI 경쟁에서 오픈AI 등에 뒤처진 메타는 물론 IBM도 21일(현지시간) ‘그래니트 코드’를 공개하며 오픈소스 모델 기반의 추격 전략을 채택했다. 구글 역시 ‘젬마’를 개발하며 이 전략을 병행 중이다. 프랑스 미스트랄AI의 ‘미스트랄’, 한국 업스테이지의 ‘솔라’ 등도 있다.
오픈소스 모델이 주목받는 것은 AI 모델의 성능이 전반적으로 향상되면서 그동안 폐쇄형 모델에 못 미쳤던 활용도가 높아진 데다, 최근 AI 부작용 우려에 대응할 투명성도 확보할 수 있기 때문이라는 게 업계 관계자의 설명이다. AI가 혐오와 편견, 가짜뉴스를 담은 콘텐츠를 만들 때 오픈소스 모델은 그 학습 데이터와 알고리즘을 외부인도 알 수 있어 일종의 ‘자정 작용’을 기대할 수 있다는 것이다. 폐쇄형 모델 ‘클로드’ 개발사인 앤트로픽은 전날 AI 모델의 작동 원리를 설명해 투명성을 높일 수 있는 방법을 찾은 연구성과를 공개하기도 했다.
21~22일 고위급 라운드테이블을 포함해 국내외 정상과 관계부처 장관, 삼성전자·네이버·오픈AI·앤트로픽 등 빅테크 대표와 임원 70여명이 참석한 정상회의에서는 AI의 투명성 확보를 포함해 위험 사전 평가와 관리, 중소기업·스타트업과의 상생을 통한 혁신 가속화 등을 실천해나가자는 ‘서울 선언’이 채택됐다.
댓글0