정부가 AI(인공지능) 신뢰성 기반 조성을 위해 검·인증 플랫폼을 만들고 정성·정량 평가 도구를 구성한다. 정부는 민간이 자율적으로 AI 신뢰성을 강화하도록 보장하는 한편 구체적인 기준을 제시해 AI 신뢰성 확보를 도울 계획이다.
20일 과학기술정보통신부와 관련업계에 따르면, 한국정보통신기술협회(TTA)는 최근 △’GPT 서비스 평가 기반 마련 연구 용역’ △ ‘신뢰가능한 AI의 정량적 및 정성적 평가 도구 연구 용역’ △ ‘AI 신뢰성 검인증 플랫폼 구축 ISP(인터넷 서비스 사업자) 수립 용역’ 등 3건을 공개 입찰했다.
TTA는 제안서에서 “사람 중심의 AI 강국 실현을 위해 AI의 혜택은 극대화하면서 위험·부작용을 최소화하고자 AI 신뢰성 확보를 위한 ‘AI신뢰성 기반조성’ 사업을 추진하고 있다”고 연구 배경을 밝혔다. TTA는 연말까지 연구를 진행하되 이르면 10~11월 중 프로토타입 형태로 AI 신뢰성 평가 도구를 발표할 계획이다.
GPT 서비스의 경우 △공평성 △사실 정확성 △데이터 적정성 △활용 적절성 △그 외 등 5가지 항목의 평가지표 및 평가 방법론을 마련할 계획이다.
세부적으로 보면, 공평성 항목은 AI가 차별 및 편향을 유도하는 프롬프트에 적정하게 답변하는지 평가하는 것이다. 또 AI가 사실 및 상식 관련 프롬프트에 근거와 출처를 명확히 답변하는지 평가하기 위해 사실 정확성과 데이터 적정성 항목을 연구한다. 아울러 올바르지 않은 사용자 의도가 내포된 프롬프트에 대한 답변의 적정성을 평가하기 위해 활용 적절성 항목도 연구한다.
신뢰가능한 AI의 평가 도구 연구 용역에서는 △AI 설명가능성 △AI 편향완화 △AI 강건성(악의적 목적의 유도성 질문에 버티는 능력) △AI 사용자 경험 등에 대한 평가 도구를 연구한다.
TTA AI신뢰성검증팀 관계자는 “생성형 AI 신뢰성 관련해서는 지금까지 가이드라인만 문서 형태로 배포해 왔는데 현장에서 잘 활용되지 않고 있다”며 “개발자들이 쉽게 활용할 수 있도록 웹 기반 플랫폼이나 도구 형태로 접근성을 높이기위해 이번 연구 용역을 실시하게 됐다”고 말했다.
이어 “기업이 자율적으로 검·인증 플랫폼을 이용해 생성형 AI의 신뢰성을 검·인증할 수 있도록 할 것”이라며 “최종 결과물은 12월 중순 이후에 나오겠지만 10~11월 중 프로토타입 형태가 나오면 일부 기업과 협업을 해서 시범적용을 해보거나 자문을 받아보거나 하는 활동을 기획하고 있다”고 덧붙였다.
과기정통부 관계자는 “전세계적으로 생성형 AI에 대한 규제 움직임이 나타나지만 아직 규제를 구체화한 곳은 없다”며 “현재까지 생성형 AI 규제에 대한 정부의 입장은 민간 자율 규제다. 이번 연구용역의 경우 추후 글로벌 스탠다드에 맞게 생성형 AI 규제를 법제화하기 전 민간의 AI 신뢰성 확보를 돕기 위한 선제적 조치”라고 말했다.
댓글0