|
‘생성형 AI 개발’이 세계적인 화두로 떠오르며 이러한 기술을 이용한 음성 조작, 딥페이크 등 악용 사례도 속출하고 있다. 현재 1년 넘게 계류 중인 우리나라의 ‘AI 기본법’은 EU의 AI 규제법과 달리 처벌이 존재하지 않고, AI와 관련된 기본적 의무만을 부과하고 있다는 특징이 있다.
16일 AI 윤리와 안전성을 주제로 한 ‘2024 AI 세이프티 컴패스(ASC)’ 컨퍼런스가 서울 역삼동에서 개최됐다. 컨퍼런스 주제는 ‘기업을 위한 AI 윤리와 안전 방향성’으로, AI 윤리와 법 제도의 방향성 등이 논의됐다. 이날 전창배 IAAE 이사장은 “위험할 수 있는 자동차를 안전하게 탈 수 있는 것은 브레이크와 같은 기술적 안전장치와 더불어 도로교통법과 같은 법과 제도 덕분”이라며 “인공지능 역시 AI 윤리라는 안전장치가 필요하며 안전한 인공지능 생태계 구현을 위한 법과 제도 마련이 그 어느 때보다 중요하다”고 강조했다.
최근 초거대 AI 구축이 활발해지며 많은 윤리적 이슈가 발생하고 있다. 공공기관이 보유한 민감 데이터를 민간기업에 전송해야 하는 상황이 발생하기도 하고, 민감 데이터 오남용 방지를 위한 법적 근거와 감시 제도의 충분성과 관련된 논란도 존재할 수 있다. 데이터를 송수신할 때 국가 운영 폐쇄망과 민간망 연결에 따른 보안 문제가 발생할 가능성도 있으며 민감 데이터를 선별적으로 제공한다면 초거대 AI 파운데이션 서비스 개발이 제한될 수도 있다. 윤창희 NIA AI 정책연구팀장은 “미국은 내재된 리스크를 줄이기 위해 행정명령을 내렸다. 미국 정부 기관이 LLM을 사용하게 될 경우 미리 평가를 받아야 한다는 지침을 제시했는데, 우리도 그런 프레임을 만들고 안전연구소 등 기관에서 체크하는 방향으로 가야 할 것”이라며 “규제 위주보다는 안전하게 활용하는 틀을 만드는 것이 중요하다”고 설명했다.
또 윤창희 팀장은 “AI는 양날의 검과 같다. 인간의 지능에 가까운 AI라는 목표를 향해 기업, 국가 할 것 없이 전세계가 달려나가고 있는데, AI가 인간에게 얼마나 유용한지에 대한 고민은 적은 것 같다”며 “공공, 민간 부문 모두 생성형 AI 기반의 초거대 AI를 어떻게 받아들이고, 안정성의 관점에서 운용하느냐가 중요한 이슈가 될 것”이라고 말했다.
‘AI 일상화’를 슬로건으로 내건 정부 역시 법적, 제도적 기틀을 확립하고 고도화하기 위해 노력 중이다. 엄열 국장은 “우리나라는 역대 최고 수준의 글로벌 AI 평가를 받고 있는데, 이같은 상황에서 AI 관련 규제와 규범이 필요하다. 주요 국가들은 이미 AI 규범 경쟁을 치열하게 펼치고 있다”며 “특히 기업은 AI 서비스를 개발하기 전에 윤리적 측면을 반드시 짚어봐야 한다”고 강조했다.
현재 우리나라의 경우 AI 기본법이 1년 넘게 통과하지 못하고 계류 중이다. 국내 AI 기본법은 AI 발전과 신뢰 기반 조성의 균형을 위해서 최소한의 의무만을 규정한다는 특징이 있다. 엄열 국장은 “우리나라의 경우 AI와 관련된 기본적 의무만을 부과하고 있다. EU의 AI 규제법과 달리 처벌이 없다”며 “일단 기본법 상태로 출발하고, 여러 규제적 측면이나 타법과의 충돌, 저작권이나 개인정보 문제 등은 추후 논의를 통해 관련법에서 조항을 개정하거나 기본법에 조항을 추가하는 등 방향으로 가야 할 것”이라고 말했다. 엄 국장은 현재 추진 중인 우리나라의 AI 기본법에서 처벌 조항이 없는 이유를 묻는 질문에 “아직 초기 단계라 과도한 규제는 산업을 위축시킬 수 있기 때문”이라고 답했다.
댓글0