인공지능이 일상화된 시대입니다. AI 관련 소식들은 하루가 멀다하고 쏟아집니다. 한 주간 어떤 AI 소식들이 나왔을까요. 국내외 인공지능 이슈를 한 눈에 살펴보는 [인공지능 365]로 한 주간을 시작합니다. [편집자 주]
구글이 지난 14일, 연례 개발자 컨퍼런스 ‘구글 I/O 2024’를 개최했습니다. 구글 I/O 컨퍼런스는 개발자뿐만 아니라 IT 생태계의 미래를 미리 가늠해볼 수 있는 행사로, 매년 구글의 혁신이 발표됩니다.
올해 행사에서 구글은 야심 차게 추진하고 있는 ‘AI의 꿈’을 좀더 명확히 제시했습니다. 가장 힘이 실린 부분은 검색 엔진에 생성형 AI 제미나이를 적용한 ‘AI 오버뷰’였습니다. 기존 검색은 관련 링크를 제공해주는 반면 AI 오버뷰는 검색 결과를 대화 형태로 요약해줍니다.
구글은 멀티모달 AI인 ‘프로젝트 아스트라(Project Astra)’도 선보였습니다. 프로젝트 아스트라는 음성과 시각 정보를 이해하고 대답하는 AI 비서입니다. 구글 지메일과 구글 문서, 캘린더 등 구글 앱에서 개인 정보를 가져와 이용자의 스케줄을 알려주고 계획합니다.
이 외에도 구글은 영상 생성형 AI ‘비오(VEO)’와 이미지 생성형 AI ‘이마젠3(Imagen3)’ 그리고 자체 개발 AI 칩 텐서처리장치(TPU)의 6세대 모델 ‘트릴리움(Trillium)’을 발표하며 AI 분야에서 구글이 얼마나 강한지를 보여줬습니다.
그런데 사실 지난 한 주 AI 키워드를 꼽으라고 한다면 오픈AI의 ‘GPT-4o’일 것입니다. 이번 모델은 GPT-4에서 한 단계 진화한 수준이 아닌 완전히 새로운 모습으로 등장했습니다. 일부에서는 “우리가 그렸던 미래 AGI(인공일반지능)의 초기 모습일 수 있다”고 극찬했습니다.
오픈AI가 지난 13일 스프링 제품 업데이트 이벤트를 통해 공개한 GPT-4o는 텍스트, 이미지, 오디오로 실시간 대화가 가능한 멀티모달 모델입니다. 멀티모달은 텍스트뿐만 아니라 이미지, 음성 등의 데이터를 입출력할 수 있는 AI 모델 방식인데요.
GPT-4o는 기존 ‘GPT-4 터보’ 모델보다 2배 빠르며 다양한 방식으로 대화할 수 있다는 점이 특징입니다. 사실 이보다 더 중요한 점은 ‘사람과 대화하는 것처럼’이라는 부분입니다. 단순히 텍스트만이 아닌 사람의 음성 신호를 이해하고, 스마트폰의 카메라를 통해 시각 정보를 받아들입니다.
특히 응답 시간이 평균 320밀리초, 그러니까 0.3초 정도인데요. 참고로 기존 GPT-4는 5.4초였습니다. 응답 시간이 빨라졌다는 것은 사람과 대화하듯 말을 주고받을 수 있음을 의미합니다. 또한 50개국의 언어를 이해합니다. 정리해보면 영화 ‘허(Her)’에서처럼 더 인간화 된 AI 비서의 모습에 가까워진 것입니다.
결과적으로 단 하나를 보여준 오픈AI가 구글보다 더 이슈를 끌었던 것 같습니다. 하지만 기술 측면에서 본다면 두 기업 모두 놀라운 모습을 보여줬기 때문에 ‘빅테크 기업들의 AI에 대한 속도 빠른 모습’을 한 주의 키워드로 꼽을 수 있겠습니다.
조상록 기자 jsrok@chosunbiz.com
댓글0