정수환 숭실대 교수, ‘AI 음성 딥페이크를 AI 딥러닝으로 식별’ 기술 개발중
실제 3억원 송금한 AI 보이스 피싱사례 있어…대응은 ‘눈에는 눈, AI엔 AI로’
(서울=연합뉴스) 조성미 기자 = “엄마, 나 사고 났어. 빨리 돈 좀 보내줘.”
자녀에게서 걸려 온 전화 너머의 다급한 목소리에 황급히 요구를 들어준 뒤에야 보이스피싱에 당했다는 걸 안 피해자들은 범인이 가족 목소리를 흉내 낸 연기에 그만 깜빡 속아 넘어갔다는 것을 깨닫곤 한다.
그런데, 가족의 진짜 목소리와 똑같은 음성이 도움을 요청하는 전화를 받는다면 범죄에 걸려들 확률은 더 높아질 수 있는데, 인공지능(AI)을 쓴 딥페이크 기술이 발전하면서 이러한 위험은 현실화하고 있다.
15일 정보통신기획평가원(IITP) 주간기술동향에 따르면 정수환 숭실대 정보통신전자공학부 교수는 특정인의 목소리를 딥페이크로 모방한 음성을 탐지하는 소프트웨어 기술을 내년 12월을 목표로 개발 중이다.
기존의 보이스피싱 탐지 기술이 범죄에 활용된 데이터베이스와 단어를 비교해 유사도를 판단하는 것이었다면, 개발되는 기술은 음성의 딥페이크 조작 여부를 조작된 음성과 실제 음성의 특징을 딥러닝 학습을 통해 차이점에 탐지해낸다는 차이가 있다.
이러한 기술을 스마트폰 등 단말에 탑재해 사고를 예방하는 것이 목적이다.
정 교수 연구팀은 기술동향 보고서에서 “최근 딥러닝 음성 합성 기술이 발전하면서 특정 대상을 겨냥한 음성 조작이 가능해졌고 실제 구분이 쉽지 않은 단계로 가고 있어 보이스피싱 조직이 이를 활용하면 거의 완벽하게 대상을 속일 수 있다”고 우려했다.
2019년 영국 한 에너지 회사는 최고경영자(CEO) 목소리를 AI가 위조한 보이스피싱 공격을 받자 24만3천달러를 송금하는 금융사기에 휘말리기도 했다.
국내에서도 성우, 유명인 등의 목소리를 딥페이크 기술로 복제해 원하는 내용의 글을 음성으로 변환해주는 음성 합성 기술 개발이 시작되고 있는 상태여서, 범죄에 악용될 가능성이 제기된다고 보고서는 지적했다.
보고서는 “AI를 활용한 보이스피싱 위험이 많이 증가했지만, 변조 음성 탐지 기술은 거의 없는 상황”이라며 “해외 연구는 주로 영어 발화에 대한 연구이기 때문에 한국어 딥페이크 음성 탐지 연구가 필요하다”고 강조했다.
AI로 위조된 음성 탐지 기술이 활성화되면 보이스피싱 예방뿐 아니라 공격자가 특정한 개인이나 공인을 흉내 내 명예를 훼손하는 가짜 뉴스, 신원 합성을 통한 사기 등의 예방에도 활용될 수 있을 것으로 전망됐다.
csm@yna.co.kr
댓글0