인공지능(AI)이 만든 이미지인지 여부를 판별할 수 있는 기술이 등장했다.
7일(현지시각) 월스트리트저널(WSJ)은 챗GPT 개발사 오픈AI는 특정 이미지가 AI로 만들어졌는지를 판별할 수 있는 도구를 개발했다고 보도했다.
오픈AI는 홈페이지를 통해 자사 이미지 생성 AI인 ‘달리 3′(DALLl-E 3)를 활용한 이미지인지 여부를 판단하는 도구를 선보였다고 밝혔다. 오픈AI가 지난 1월 달리 3가 생성한 이미지 감지 도구를 실험하고 있다는 발표 이후 넉달 만이다.
오픈AI의 이번 검증 도구는 AI 생성 이미지임을 구별하기 위해 삽입되는 워터마크에 기대지 않고 자체 기술을 통해 이미지의 AI 생성 여부를 가린다. 달리 3가 만들어낸 이미지를 최대 98%의 정확도로 찾아낼 수 있다. 다만 현재까지는 미드저니와 스태빌리티와 같은 다른 생성기에서 생성된 이미지를 감지하지 못한다.
오픈AI는 해당 이미지가 캡처되거나 일부 편집된 상태라면 정확도는 떨어질 수 있다고 설명했다. 또한 전체적인 색감이 추후 수정됐을 경우 정확도는 더 크게 떨어진다.
WSJ는 오픈AI의 새로운 도구는 최근 미국 대통령 선거를 앞두고 AI를 이용한 허위·조작 이미지가 대거 유포될 수 있다는 우려에 대응하기 위한 것으로 해석했다. 앞서 오픈AI는 슈퍼 선거의 해인 2024년에 AI 시스템이 안전하게 구축·배포·사용되는 것을 목표로 하는 이니셔티브 중 하나로 ‘AI 생성 콘텐츠에 대한 투명성’을 강조했다.
한편 오픈AI는 이날 온라인 이미지에 대한 검증 체계를 개발하기 위해 마이크로소프트(MS)와 어도비가 공동 설립한 ‘콘텐츠 출처 및 진정성 연합(C2PA)’의 운영 위원회에 합류하기도 했다. 오픈AI는 달리3뿐만 아니라 비디오 생성 AI인 소라에도 C2PA의 메타데이터 등 라벨을 붙일 계획이다.
홍주연 기자 jyhong@chosunbiz.com
댓글0