2035년을 배경으로 하는 천선란 작가의 공상과학(SF)소설 ‘천 개의 파랑’에는 휴머노이드 기수(旗手) 로봇 ‘콜리’가 등장합니다. 연구생의 칩이 잘못 들어가 탄생한 콜리는 다른 기수 로봇들과 달리 단어와 개념을 학습하고 자신의 파트너인 경주마 ‘투데이’와 소통을 하는 등 인간과 비슷한 수준의 지능을 보여줍니다. ’천 개의 파랑’은 지난 2019년 한국과학문학상 장편 대상을 받았고, 연극으로 제작될 만큼 인기를 끌었습니다.
◇ 4년 안에 인간과 비슷한 AI 나온다
빠르게 발전하는 인공지능(AI) 산업은 범용인공지능(AGI·Artificial General Intelligence) 개발을 향해 달려가고 있습니다. AGI는 인간이 일상생활에서 수행하는 일을 이해하거나 학습할 수 있는 AI입니다. 샘 올트먼 오픈AI CEO는 AGI를 ‘중요한 업무에서 매우 숙련된 사람이 할 수 있는 일을 해내는 AI’로 정의했죠. 그런 의미에서 기수 로봇 콜리 역시 AGI로 볼 수 있을 것 같습니다.
최근 올트먼 CEO는 도널드 트럼프 미국 대통령의 임기 내 AGI가 등장할 것이라고 전망했습니다. 현재 AI는 크게 ANI·AGI·ASI 등 세 단계로 분류합니다. 오픈AI의 챗GPT나 구글의 제미나이는 학습된 데이터와 알고리즘에 의존하는 ‘협소인공지능(ANI·Artificial Narrow Intelligence)입니다. AGI는 입력된 데이터에 머무르지 않고 경험을 통해 학습·진화하고 의사를 표현하는 인간 수준의 AI를 의미합니다. ASI(Artificial Super Intelligence)는 인간 지능을 초월한 AI를 의미하지만, 아직 그 정의가 모호하다는 의견이 나옵니다.
◇ 글로벌 빅테크, 앞다퉈 AGI 향해 질주
가장 먼저 AGI에 근접한 거대언어모델(LLM)을 선보이는 업체가 차세대 AI 주도권을 잡을 것으로 보입니다. 글로벌 빅테크 기업들은 앞다퉈 신기술을 선보이고 있습니다. 그 중심에는 오픈AI가 있습니다. 올트먼 CEO는 자신의 블로그에 “이제 오픈AI는 범용인공지능(AGI)을 구축하는 법을 알고 있다고 확신한다”라고 적었습니다.
오픈AI는 지난해 말 고급 추론(reasoning) 능력을 탑재한 새로운 AI 모델인 ‘o3′를 공개했습니다. 오픈AI는 코드명 ‘오리온’(Orion)으로 알려진 차세대 AI 모델 GPT-5도 개발하고 있습니다. 오리온의 연산 성능은 GPT-4보다 100배 이상 강력한 것으로 알려졌습니다. 다만 오픈AI는 오리온 성능이 기대치에 못 미친다며 출시일을 계속 미루고 있습니다.
오픈AI가 독주 채비에 나서자 구글도 새로운 AI 모델을 들고 나왔습니다. 구글은 지난해 12월 제미나이 ‘2.0′을 공개했습니다. 구글에 따르면 제미나이 2.0은 추가 컴퓨팅 사이클을 사용하고, 작업을 확인해 더 복잡한 쿼리(Query)를 처리할 수 있습니다. 쿼리란 데이터베이스나 검색 엔진에 원하는 정보를 요청하는 행위, 즉 질문을 뜻합니다.
구글은 아예 AGI를 넘어 ASI 개발로 직행할 가능성을 언급했습니다. 로건 킬패트릭 구글 AI 스튜디오 제품 책임자는 자신의 소셜미디어(SNS)에 ‘ASI로의 직행 가능성이 매달 커지고 있다’라고 밝혔습니다. 하지만 IT업계 관계자들은 제미나이 2.0이 아직 실생활에 적용할 만큼 개발되진 못했다고 봅니다.
이미 AGI가 등장했다고 보는 시각도 있습니다. 일론 머스크 테슬라 CEO는 오픈AI가 만든 GPT-4가 AGI에 해당한다고 주장했습니다. 그러나 오픈AI 측은 GPT-4는 AGI가 아니라고 부인하고 있습니다. GPT-4에 ‘너는 AGI니?’라고 물어봤습니다. 그랬더니 GPT-4는 자신이 ‘특정한 한계를 가지고 있고 스스로 학습하거나 독립적으로 새로운 지식을 습득하지 못한다’라며 자신이 AGI가 ‘아니다’라고 대답했습니다.
◇ ‘인류는 AGI를 감당할 수 있나’… 안전성·윤리 문제 숙제
IT업계에서는 AI 윤리가 기술의 속도를 따라가지 못한다는 지적이 나옵니다. 오픈AI에서 안전팀 역할을 했던 ‘수퍼얼라인먼트(superalignment)’팀은 지난해 해체됐습니다. 팀을 이끌었던 얀 리이크는 “지난 수년간 AI 안전성은 잘 나가는 제품보다 뒷전으로 밀려났다”며 “오픈AI는 AI의 위험에 대비하는 것을 최우선으로 해야 하며 회사의 역량 중 많은 부분을 보안, 모니터링, 안전 등에 집중해야 한다. 그래야 AGI가 인류에게 혜택을 줄 수 있을 것”이라고 비판한 바 있습니다.
AI가 인간에게 가할 수 있는 위협뿐 아니라, AI를 활용하는 인간의 윤리에 대한 사회적 합의도 필요합니다. 최근에는 한 개발자가 챗GPT를 활용해 ‘AI 소총’을 개발하면서 논란이 됐습니다. 공개된 영상에서 AI는 개발자의 명령에 응답해 자동으로 목표물을 겨냥하고 발사합니다. 오픈AI는 즉각 이 개발자의 접근을 차단했다고 밝혔지만, AI 윤리 논란이 불거졌습니다.
이번달 열린 세계 최대 IT 전시회 ‘CES 2025′에서는 휴머노이드 로봇이 화제였습니다. ‘콜리’를 만날 날이 얼마 안 남았다는 뜻입니다. 소설에서 콜리는 쇠약해진 투데이를 살리기 위해 경주 중 스스로 낙마합니다. 냉정하게 보면 콜리는 인간의 명령을 어겼기 때문에 상품으로서는 실패작입니다. 하지만 스스로 인간성을 버리는 인류와 인간성을 찾아가는 AI, 둘 중 어느 쪽이 인간에 더 가까울지에 대한 논쟁도 가까운 미래에 준비해야 할지 모르겠습니다.
댓글0