EU 전주말 ‘AI규제법’ 합의, 생성AI 등 고위험군으로 분류
투명성 의무 외 위험 평가·완화 및 악용시 추적 시스템 구축의무 등 부과
“해외시장 진출 위해 버금가는 규제 마련해야” vs “한국 상황 맞는 규제 입안 필요”
EU(유럽연합)에서 세계 최초의 포괄적 AI(인공지능) 규제법안이 잠정 합의된 가운데 AI 기술의 후발주자인 한국에서 AI 규제를 어떻게 만들어야 할지에 대해 전문가들의 의견이 나뉜다.
일각에서는 우리 AI 기업들이 해외시장으로 원활히 진출할 수 있도록 하기 위해서는 국내에서도 이와 상응하는 수준의 규제가 만들어질 필요가 있다는 지적이다. 반면 EU와 한국은 상황이 다른 만큼 국내 상황에 맞는 규제가 만들어질 필요가 있다는 의견도 나온다.
생성AI는 고위험 모델, 위험 평가·완화 및 추적기록 의무화
━
10일 EU 집행위원회 및 국내 AI 업계에 따르면 현지시간으로 지난 8일 EU집행위원회와 EU 27개국을 대표하는 이사회, 유럽의회는 37시간의 마라톤 회의를 거쳐 ‘AI 법'(AI Act)을 통과시켰다. 이번 법안은 △최소 또는 무위험 △제한적 위험 △고위험 △허용불가 위험 등 4개 층위로 AI 리스크를 구분하고 높은 위험성을 내포한 기술에 더 강한 규제를 적용하도록 했다.
‘최소 또는 무위험’ 단계는 이미 스팸 메일 필터링, 재고 관리 등 업무는 물론이고 비디오 게임 등에 활용되는 AI처럼 위험이 거의 없다고 여겨지는 수준을 뜻한다. ‘제한된 위험’ 단계란 챗봇처럼 사용자가 기계와 소통하고 있다는 사실을 인식하는 수준의 AI를 의미한다. 제한된 위험 단계의 서비스를 운용하는 사업자는 해당 콘텐츠가 AI로 만들어진 것임을 표시하는 등 가벼운 의무만 부담하면 된다.
문제는 ‘고위험’ 단계부터다. EU는 시민의 생명·건강을 위험에 빠뜨릴 수 있는 교통 등 중요 인프라를 비롯해 AI 면접 및 AI 대출심사 등 교육·취업 및 금융 서비스 접근권을 좌우할 수 있는 시스템을 ‘고위험’ 단계로 규정했다. 이들 고위험 단계로 분류된 AI 모델은 시장 출시 전 △적절한 위험 평가 및 완화 시스템을 마련해야 하고 △악용시 추적을 보장하기 위한 활동 기록을 구비해야 하며 △위험을 최소화하기 위한 적절한 인간 감독 조치를 마련해야 하는 등 의무를 준수해야 한다.
‘허용불가 위험’ 단계는 인종·성별 등 사회적 차별 목적으로 AI를 활용하거나 음성지원 시스템이 적용되는 장난감이 잘못된 행동을 유도해 사용자를 위험에 빠뜨리게 하는 등 유형을 의미한다. 안면인식과 같은 생체정보 등 민감 정보를 다루는 AI는 범죄예방 등 극히 제한적 목적을 위한 경우를 제외하고는 엄격하게 제한된다.
챗GPT나 바드 등 텍스트·이미지·영상 및 프로그래밍 코드 등 산출물을 만들어 내는 대부분의 생성형 AI 시스템은 고위험군으로 분류됐다. 다른 기술과 결합될 경우의 파괴력이 클 수 있다는 이유에서다. 특히 대량의 데이터로 훈련돼 평균 수준 이상의 고도의 복잡성, 능력, 성능을 갖추고 산업 내 다양한 밸류체인을 통해 리스크를 전파할 수 있는 ‘고위험 기반모델’은 더 엄격한 규제를 적용받는다.
규제위반 제재도 세다. EU는 금지 서비스 운용 등과 관련한 위반에 대해 3500만유로(약 500억원) 또는 전 세계에 걸친 해당 기업 연간 매출의 7% 중 높은 금액을 벌금으로 물릴 것을 규정했다. 그 외에 이번 합의된 법안 위반시 벌금은 연간 매출의 3% 또는 1500만유로(약 213억원) 중 더 높은 금액, 부정확한 정보제공에 대한 벌금은 연간 매출의 1.5% 또는 750만유로(약 106억원) 중 더 높은 금액으로 규정됐다. 이 법안은 발효 2년 후 시점부터 시행된다.
“美·EU 상응 규제 도입돼야” vs “선진국 추종 규제 불가”
━
이번 EU의 법안은 앞서 지난 10월 미국이 행정명령 형태로 발표한 AI 규제와 더불어 한국의 주요 교역 상대국에서 만들어진 규제라는 점에서 눈길을 끈다. 한국은 네이버, SK텔레콤, KT 등을 중심으로 자체 LLM 기술을 보유한 국가로 꼽힌다. 전 세계적으로 봐도 자체 LLM 기술을 보유한 나라는 한국 외에 미국, 중국, 영국, 이스라엘 등 5개밖에 없다.
문제는 한국의 LLM 기술이 내수시장만 노린다면 몰라도 해외 시장 진출을 준비할 경우 미국·유럽의 규제를 무시할 수 없다는 점이다. 미국·유럽이 각각 한국의 1대, 3대 무역 상대국이라는 점 뿐 아니라 미국·유럽의 AI 규제가 향후 글로벌 AI규제의 표준에 반영될 가능성이 그만큼 높다. 이 때문에 국내에서도 미국·유럽의 규제와 상응하는 수준의 규제가 만들어져야 한다는 의견이 나온다. 당장은 힘들 수 있어도 우리 기업의 체질 강화를 도모해 해외 시장에서도 충분한 경쟁력을 갖도록 해야 한다는 얘기다.
김명주 서울여대 정보보호학과 교수는 “미국·EU가 AI 규제는 향후 우리 AI기업들이 목표로 삼는 해외 시장에도 적용될 가능성이 높다”며 “국회에 발의돼 있는 국내의 AI 규제법안에도 EU의 AI법과 미국의 행정명령 내용을 반영할 필요가 있다”고 했다.
김 교수는 “한국이 EU로부터 개인정보보호 적정성 결정을 받으면서 우리 기업들이 EU에서 개인정보를 국내로 들여와 활용할 수 있는 길이 열렸다”며 “국내의 TTA(한국정보통신기술협회)의 AI 인증과 EU의 AI 인증을 연계하는 등 국가적 차원의 조치가 필요하다”고 했다.
반면 EU의 AI 규제법안을 그대로 받아들여서는 안된다는 지적도 있다. 하정우 네이버 AI랩 소장은 “AI기술을 선도하는 미국은 행정명령으로 AI규제에 나서는 모양새를 취했지만 그 안에는 AI 기술을 주도하기 위해 비자규제를 풀어서라도 인재를 흡수하겠다는 내용이 있다”며 “반면 EU는 이번 조치로 미국 빅테크(대형 IT기업)의 공세를 막아내기 위한 방어막을 만든 것으로 봐야 한다”고 했다.
하 소장은 “미국과 EU 사이에서는 현재 AI라는 새로운 기술을 두고 벌어지는 게임의 룰을 누가 중심을 잡고 만들지 싸움이 펼쳐지고 있다”며 “자체 생성AI 기술을 보유한 데다 공공에서의 AI 사용사례가 나오고 있는 한국은 미국이 움직이는 쪽과 보조를 맞추되 우리 기업들이 더 운신의 폭을 넓힐 수 있도록 규제를 마련해야 한다”고 했다.
댓글0