[MT리포트] AI(인공지능)의 윤리학④
영화 ‘아이언맨’의 자비스처럼 AI(인공지능)가 인간의 머리를 완벽히 대체하는 AGI(일반인공지능)의 시대가 멀지 않았다. 그 전에 이미 운전과 전쟁은 AI의 손에 넘어갈 공산이 크다. 과연 우린 AI에게 목숨을 맡길 준비가 돼 있나. AI에 얽힌 윤리적 문제를 짚고 해법을 찾아보자.
챗GPT가 촉발한 초거대 AI(인공지능) 경쟁은 머지않은 미래 국가 경제·산업의 흥망을 좌우할 정도로 영향력이 크다는 게 우리 정부의 인식이다. 다만 기술 발전이 초래하는 사회·윤리적 변화의 대응 역시 못지 않은 핵심 과제다. 이에 과학기술정보통신부는 지난 14일 발표한 ‘초거대 AI 경쟁력 강화 방안’에서 “‘디지털 신질서’ 확립으로 범국가 AI 혁신 제도·문화 정착에 힘쓰겠다”는 목표를 제시했다.
앞서 과기정통부는 2020년 12월 ‘AI 윤리기준’, 2021년 5월 ‘신뢰할 수 있는 AI 실현전략’을 발표하는 등 사람 중심의 AI 구현을 위한 정책 방안을 수립해 왔다.
정보통신정책연구원(KISDI)과 함께 마련한 ‘AI 윤리기준’은 바람직한 AI 개발·활용 방향을 제시하는데 주안점을 뒀으며 △AI는 사람 중심이어야 한다 △AI 개발과 활용 과정에서 인간의 존엄성·사회의 공공선·기술의 합목적성 등 3대 원칙을 지켜야 한다는 내용이 핵심이다. 또 정부, 공공기관, 기업, AI 이용자 등 모든 사회 구성원이 AI를 개발·활용할 때 윤리 기준을 염두에 둬야 한다고 명시했다. 다만 이는 법이나 지침이 아닌 자율 규범이라는 한계를 가진다.
‘신뢰할 수 있는 AI 실현전략’의 경우, AI윤리기준의 실천 방안을 보다 구체화한 내용이다. ‘누구나 신뢰할 수 있는, 모두가 누릴 수 있는 AI’를 비전으로 정하고 민간의 AI 제품·서비스 개발, 검증, 인증 단계에 따라 신뢰를 확보할 수 있는 기준을 제시했다. 아울러 과기정통부는 같은 해 11월 기업이 자율적으로 활용할 수 있는 ‘AI 윤리 자율점검표’와’개발안내서’를 마련했다.
‘AI윤리·검증·리터러시’ 3박자 정책 추진
━
생성AI의 출현으로 인류의 일상에 AI 기술이 더욱 빠르게 확산하고 있는 만큼, AI 윤리원칙의 정립도 변화하는 기술·사회 환경 변화에 맞춰 속도를 내야 한다는 평가다.
이에 과기정통부는 신뢰할 수 있는 초거대·생성형 AI 개발·운영을 목표로 산학연과 머리를 맞대고 있다. 특히 지난달 출범한 ‘AI 윤리정책 포럼’에는 AI·철학·교육·법·행정 등 분야별 전문가들이 참여해 △편향성과 허위 정보 등에 대응하는 ‘AI 윤리체계’ △신뢰성 및 위험 요소를 기술적으로 확인하는 ‘AI 검증·인증” △악용 방지를 위한 ‘AI 리터러시 교육’ 대책을 수립할 계획이다.
과기정통부는 또 디지털 혁신이 인류 보편 가치를 지향하고 그 혜택을 모든 사회 구성원이 함께 공유하기 위한 공통규범으로 ‘디지털 권리장전(가칭)’을 올해 하반기까지 마련할 계획인데, AI 윤리정책이 그 핵심 이슈가 될 전망이다. 디지털 권리장전은 지난해 9월 윤석열 대통령이 방미 중 공개한 ‘뉴욕구상’의 이행 방안이다. 자유·인권·연대라는 인류의 보편적 가치를 지향하는 디지털 혁신을 위해 세계시민이 함께 추구할 ‘디지털 신질서’를 디지털 선도국가인 한국이 앞장서자는 비전이다.
챗GPT 등장에 ‘윤리’ 대신 ‘속도’…AI 국제규범 필요해
━
정부는 물론 민간에서도 자발적인 AI윤리원칙을 내놓고 있다. 국내에서는 지난 2020년 차별·혐오 표현으로 논란이 됐던 AI챗봇 ‘이루다’ 사태의 여파였다. 이에 LG전자와 네이버·카카오·SK·KT 등 초거대AI 개발에 나선 기업을 중심으로 각자의 AI 윤리기준을 공개해 왔다. 또 구글과 마이크로소프트(MS) 등 글로벌 빅테크 역시 자체 AI 윤리원칙을 제정해 AI프로젝트 개발에 적용해 왔다.
그러나 민간의 자율 규제를 앞으로도 기대할 수는 없는 형편이다. 오픈AI의 챗GPT 등장 이후 기술 경쟁에서 뒤처졌다는 위기감에 빠진 빅테크들이 ‘윤리’보다는 ‘기술 속도전’을 택하는 흐름이 확산하고 있어서다. 실제로 뉴욕타임스는 지난 7일 보도에서 MS와 구글의 전현직 직원 15명과 이들 회사의 내부 문서를 인용, MS는 지난 3월 내부 윤리팀을 해체했으며 구글은 AI 제품 검토 담당 직원들이 ‘아직 부정확하고 위험한 답변을 생성한다’며 반대했지만 AI챗봇 ‘바드’ 출시를 강행했다고 보도했다.
이에 AI 윤리원칙의 정립을 위한 국제규범 정립 필요성이 제기되고 있다. 이를 위해 내달 19~21일 히로시마에서 열리는 G7 정상회의에서도 ‘AI 윤리’가 핵심 의제로 등장할 전망이다. 지난 20일 닛케이 등 보도에 따르면, 마쓰노 히로카즈 일본 관방장관은 “AI는 개발, 이용·활용 추진, 적절한 규제 등 3가지 요소 모두 중요하다”며 “G7 의장국으로서 논의를 주도하겠다”고 말했다.
댓글0