챗GPT 개발사 오픈AI가 인공지능(AI) 장기적 위험에 대해 연구하는 안전팀 ‘슈퍼얼라이먼트’를 해체한 것으로 나타났다. 샘 올트먼 오픈AI 최고경영자(CEO)가 수익을 우선시 하며 ‘안전한 AI’를 경시하는 것 아니냐는 우려가 나온다.
19일 정보기술(IT) 전문매체 와이어드 등 외신에 따르면 신설된 지 1년도 안된 슈퍼얼라이먼트 팀원들이 최근 다른 팀으로 배치되고 있다. 지난해 7월 신설된 이 팀은 미래에 고도로 발전한 AI가 인류를 해치지 않도록 AI를 통제하는 방법을 연구하는 부서다.
이 팀은 인간과 동등한 수준의 지능을 갖춘 범용인공지능(AGI)의 위험성 관리 등 AI가 인간에게 유익하고 해롭지 않은 방식으로 작동하는 기술을 연구해 왔다. 하지만 당장 수익이 나지 않는다는 이유로 팀을 해체하고 신규 AI모델과 서비스를 만드는 데 집중하는 쪽으로 방침을 정했다고 외신은 전했다.
이 팀의 해체는 오픈AI의 공동 창립자로 ‘천재 개발자’로 불리던 일리야 수츠케버 등 팀을 이끈 인력이 잇따라 회사를 떠난 지 며칠 만에 나왔다. 수츠케버는 올트먼 CEO와 오픈AI를 설립하고 챗GPT 개발 방향을 설정한 핵심 인물로 지난해 11월 올트먼을 해임한 이사회 멤버 중 한 명이다.
수츠케버의 퇴사 발표 직후 슈퍼얼라인먼트 팀 공동 리더인 딥마인드 출신 얀 라이케도 사임을 발표했다. 라이케는 X(옛 트위터)에 “인간보다 더 똑똑한 기계를 만드는 것은 본질적으로 위험한 작업”이라며 “오픈AI는 전 인류를 대신해 막중한 책임을 지고 있음에도 지난 몇 년 동안 안전과 관련된 프로세스는 제품 뒷전으로 밀려났다”고 지적했다.
올트먼 CEO와 그렉 브록만 사장은 X에 성명문을 발표하고 “안전 연구를 지속하고 정부 및 많은 이해관계자들과 지속적으로 협력하겠다”며 논란에 대한 설명했다.
손희동 기자 sonny@chosunbiz.com
댓글0