챗GPT를 개발한 오픈AI가 직원들에게 인공지능(AI) 기술의 위험성에 대한 내용을 규제 당국에 전달하지 못하도록 했다는 내부 고발이 제기됐다.
13일(현지시간) 워싱턴포스트에 따르면 오픈AI의 일부 직원들은 이달 초 연방거래위원회(SEC)에 “오픈AI의 비밀 유지 계약에 대해 조사해 달라”는 서한을 보냈다고 보도했다.
직원들은 서한을 통해 “오픈AI의 기술이 인류에 미칠 수 있는 위험을 규제 당국에 신고하지 못하도록 하는 데 동의할 것을 강요했다”고 서술했다. 또 내부고발자들이 보상받을 수 있는 연방 권리까지 포기하도록 하고, 회사의 동의가 있어야만 정보를 공개할 수 있도록 하는 협약에 서명하도록 했다”고 밝혔다.
이들은 오픈AI가 고용과 퇴직, 비밀유지 계약이 지나치게 제한돼 있으며, 이러한 협정은 내부 고발자 보호를 위한 연방법을 위반한 것이라고 주장했다.
오픈AI 측은 “내부 고발 정책을 통해 직원들이 정보를 알리는 것에 대해 보장하고 있으며, 직원들이 퇴직 시 회사를 비방하지 않는 조건도 없앴다”고 반박했다.
이번 내부 고발로 오픈AI에 붙은 ‘수익을 우선 시 하는 비영리 기업’이라는 꼬리표가 더욱 확고해졌다. 오픈AI는 ‘인류에 이익을 주는’ 비영리 기업을 출범했으나 챗GPT 발표 이후 이익을 더 우선하는 모습을 보여왔다.
최근 직원들의 AI 위험성 관리에 대한 우려가 불거지고 있어 앞으로 AI 기술 안전과 엄격한 감독에 대한 필요성이 불가피할 것으로 보인다.
조상록 기자 jsrok@chosunbiz.com
댓글0