[알파경제=차혜영 기자] 카카오가 인공지능(AI) 기술의 윤리와 신뢰성 강화를 위한 체계적인 접근을 시작했다.
지난 22일 개최된 개발자 컨퍼런스 ‘if(kakaoAI)2024’에서 카카오는 AI 리스크 관리 체계인 ‘Kakao AI Safety Initiative(Kakao ASI)’를 공개했다.
Kakao ASI는 AI 기술 개발 및 운영 과정에서 발생할 수 있는 잠재적 위험을 사전에 식별하고 관리하는 종합 지침이다.
이 체계는 AI 시스템의 설계부터 개발, 테스트, 배포, 모니터링 및 업데이트에 이르는 전 생애주기에 걸쳐 적용된다.
카카오 김경훈 AI Safety 리더는 “Kakao ASI는 AI와 인간이 초래할 수 있는 다양한 리스크를 폭넓게 관리하며, 인간의 부주의나 실수로 발생할 수 있는 영역까지 포괄적으로 다룬다”고 설명했다.
Kakao ASI는 3가지 핵심 요소로 구성된다. 첫째, ‘Kakao AI 윤리 원칙’은 사회 윤리, 포용성, 투명성, 프라이버시, 이용자 보호 등을 포함한다.
둘째, ‘리스크 관리 사이클’은 식별-평가-대응의 순환 단계로 이뤄져 AI 기술의 안전성과 신뢰성 확보에 중점을 둔다.
셋째, ‘AI 리스크 거버넌스’는 AI 시스템의 개발, 배포, 사용을 관리하고 감독하는 의사 결정 체계다.
김경훈 리더는 “Kakao ASI는 지난 5월 ‘AI Seoul Summit’에서 선언한 ‘서울 AI 기업 서약’의 실천”이라며 “글로벌 환경에 부합하는 수준의 AI 리스크 관리 체계를 마련하고자 한다”고 말했다.
카카오는 Kakao ASI 구축 이후에도 지속적인 체계 고도화를 계획하고 있다. 빠르게 변화하는 기술 환경에 맞춰 체계를 정밀하게 점검하고, AI 시스템의 신뢰와 안전성을 높이는 데 주력할 예정이다.
댓글0