인공지능(AI) 산업 활성화를 위해선 AI 안전성 확보를 위한 법적 장치 마련이 시급하다는 목소리가 나왔다.
전창배 국제인공지능윤리협회(IAAE) 이사장은 16일 서울 강남구 마루 180에서 열린 ‘2024 AI 세이프티 컴패스(ASC)’에서 “자동차를 안전하게 탈 수 있는 것은 브레이크 같은 기술적 안전장치와 더불어 도로교통법 같은 법·제도 덕분”이라며 “AI 역시 안전장치가 필요하다”고 밝혔다. 이어 “안전한 AI 생태계 구현을 위한 법과 제도 마련이 그 어느 때보다 중요하다”고 강조했다.
안전성 확보 일환으로 국회에 계류 중인 ‘AI 기본법(인공지능산업 진흥 및 신뢰기반 조성 등에 관한 법률안)’의 조속한 처리가 시급하다는 주장도 제기됐다.
엄열 과학기술정보통신부 정보통신정책관(국장)은 “안전한 AI가 아니면 시장에서 살아남지 못하는 만큼 여러 규제와 규범 체계가 필요하다”며 이같이 말했다. 유럽연합(EU) 등 주요국에선 AI 규범화가 진행 중인 점을 언급하며 “AI기본법이 남은 21대 국회 임기 내 통과하길 바란다”고 말했다.
AI 기본법은 지난 3년간 여야 의원들이 개별 발의한 7개 법안을 통합한 것으로 AI 산업 진흥과 규제 방안을 담고 있다. 지난해 2월 국회 과학기술정보방송통신위원회(과방위) 법안소위를 통과했지만 방송법 등을 둘러싼 여야 갈등 여파로 이후 논의가 멈췄다. 21대 회기 내에 처리되지 못하면 자동 폐기, 이달 말 개원하는 22대 국회에서 원점부터 다시 논의해야 한다.
정부는 시민단체 등 여러 의견을 반영해 수정안도 마련한 만큼 조속한 입법이 필요하단 입장이다. 엄 국장은 “각계 요구를 고려해 정합성을 맞추고자 노력했고 수정안도 마련했다”면서 “AI 기술 발전을 위해서 법적·제도적 환경이 조속히 안정화하길 바란다”고 밝혔다.
이런 가운데 업계는 자체적으로 신뢰성과 안전성 확보에 나서고 있다. 초거대언어모델(LLM) ‘하이퍼클로바X’를 보유한 네이버의 이화란 퓨처AI센터 리드는 “네이버는 신뢰 가능한 LLM을 위해 정책·정의와 데이터셋·모델 트레이닝·모델 평가 등 네 가지 학습 방법을 실행하고 있다”고 소개했다.
LLM 평가 땐 지역 특성도 고려해야 한다고 제언했다. 이 리더는 “특히 국가별로 문화와 사회적 분위기에 따라 사회적 편견이나 고정 관념이 다르다”며 “LLM이 한국의 사회적 가치나 공통 지식에 얼마나 일치하는 지 등을 평가할 필요가 있다”고 말했다.
댓글0