“3040년 외계 행성에서 벌어지는 이야기를 10매짜리 소설로 만들어 줘”라는 명령어를 생성형 AI(인공지능)인 챗 GPT에 입력하면, 1분도 지나지 않아 소설 한 편을 뚝딱 완성한다. 전문가에 따르면 이처럼 소설을 쓰거나 인간 수준의 유창한 대화 실력까지 구사하는 생성형 AI도 ‘수학’만큼은 풀지 못한다. 수학까지 해내는 AI가 개발될 경우 커다란 위협이 될 수 있다는 전망도 제기된다.
크리스티안 헤먼드 미국 노스웨스턴대 컴퓨터과학과 교수는 23일(현지시간) 뉴욕타임스와의 인터뷰에서 “AI는 처음부터 수학을 하도록 설계되지 않아, 수학적 질문에 대한 답을 내릴 수 없다”고 말했다.
AI는 학습한 내용을 바탕으로 확률적 대답을 내놓기 때문에, 확률이 아닌 규칙에 기반을 둔 수학 계산에선 오류가 생길 가능성이 높다. 하지만 언어 영역은 규칙 면에서 수학보다 유연하다. 따라서 생성형 AI는 태생적으로 ‘문과적 성능’에 강할 수밖에 없다는 것.
뉴욕타임스는 이를 두고 “컴퓨터에 대한 과거의 정의와 급격히 단절되는 흐름”이라고 평했다. 1940년대 컴퓨터가 처음 등장한 이후, 컴퓨터는 정확하고 빠르게 계산하는 기계로 정의됐다. 인간의 능력을 뛰어넘는 속도로 숫자를 계산하는 게 컴퓨터의 역할이었음에도, 생성형 AI는 수학 문제를 처리할 수 없는 방향으로 발달했다고 봤다.
이같은 문제 제기에 챗 GPT의 제작사인 오픈AI는 성명서를 내고 “수학적 추론 능력을 갖춘 AI는 오픈 AI가 진행 중인 중요한 연구 영역”이라고 밝혔다.
실제 오픈AI가 개발 중인 ‘Q 스타(Q*)’는 2023년, 초등학교 수준의 수학 문제를 인간처럼 추론해 풀어내는 데 성공한 것으로 알려졌다. 하지만 ‘수학 잘하는 AI’ 개발은 샘 알트먼 CEO(최고경영자)의 해임 조치까지 이어지는 계기가 됐다. 큐스타의 개발로 오픈AI 연구원들이 이사회에 AI가 인류를 위협할 수 있다는 의견을 내놓으며 알트먼 CEO의 해임에 큰 영향을 줬다는 것이다.
뉴욕타임스는 전문가들의 말을 빌려 “수학하는 AI는 궁극적으로 인간의 두뇌가 수행하는 모든 일을 할 수 있는 인공지능인 AGI(범용 인공지능)을 개발하겠다는 것과 같다”고 전했다.
댓글0