|
크리스티나 몽고메리 IBM 최고 개인정보보호 및 신뢰 책임자(부사장)가 인공지능(AI) 기술의 효용을 높이기 위한 방법론으로 개방형 혁신을 강조했다. 또 AI의 안전성·신뢰 확보를 위해선 기술 자체가 아닌 사용 사례에 따른 맞춤형 규제가 필요하다고 밝혔다.
서울 AI 정상회의 참석을 위하 한국에 온 몽고메리 부사장은 23일 서울 여의도 한국IBM에서 진행한 인터뷰에서 “IBM은 AI에 대해 개방적인 접근 방식을 취하는 것이 최선의 방법이라고 믿고 있다”면서 “사회 전체가 AI 혁신의 혜택을 누리기 위해선 관련 기술 개발에 다양한 기업과 개인이 참여하는 개방형 혁신이 필수적”이라고 말했다.
몽고메리 부사장은 IBM에서 AI 윤리위원회 의장으로 활동하면서 AI 윤리 정책 실행에 대한 거버넌스와 의사 결정 프로세스를 총괄한다. 또 미국 대통령과 국가 AI 이니셔티브 사무국에 자문을 제공하기 위해 2022년에 설립된 미국 국립 AI 자문위원회(NAIAC)에서도 활동하고 있다.
몽고메리 부사장은 IBM에 추진 중인 개방형 혁신 사례로 메타 등 80여 개의 주요 기업과 단체가 참여하는 ‘AI 얼라이언스’를 들었다. AI 얼라이언스는 모두에게 혜택을 줄 수 있는 AI를 위한 개방형 기술과 커뮤니티를 구축을 지원하는 것을 목표로 삼고 있다. 국내 기업 중에서는 카카오(035720)가 유일하게 합류해 활동하고 있다.
IBM은 최근 열린 ‘IBM 씽크 연례행사’에서 AI 기반모델(파운데이션 모델)인 ‘그래니트 코드 모델’을 오픈소스로 공개했다. 지난해 9월 IBM이 공개한 대규모언어모델(LLM)인 그래니트 시리즈 중에서 코딩에 활용할 수 있는 AI 모델이다. 개발자들은 해당 코드 모델을 활용해 다양한 소프트웨어를 개발할 수 있다.
몽고메리 부사장은 “LLM 기반 생성형 AI 시장은 현재 파운데이션을 만들어 나가고 있는 초기 단계이고 아직은 구글 등 소수의 기업이 가진 모델이 기반이 되면 안 된다고 생각한다”며 “오픈 커뮤니티, 오픈소스 등을 통해 많은 개발자가 참여하도록 해 AI 기술 접근성을 확대해야 한다”고 말했다.
특히 그는 AI의 안전성·신뢰 확보 노력이 기술 발전을 위한 필수적인 요건이라고 평가했다. 안전성·신뢰가 확보되지 않는 AI 서비스는 결국 대중들의 선택을 받지 못할 것이라는 판단에서다. 그는 “어떤 분야든 신뢰할 수 있는 기술만이 사용자들의 선택을 받게 된다”면서 “기업들이 AI의 안전성·신뢰 부분을 우선적으로 신경을 쓰면 기술 혁신의 속도는 더욱 빨라질 수 있다”고 말했다.
또 몽고메리 부사장은 AI 안전성·신뢰 확보를 위한 규제 필요성에 대해서도 언급했다. 그는 “AI 안전성·신뢰 문제는 기술 자체에 기인하는 것이 아닌 해당 기술을 어떻게 사용하는 지가 중요하다”면서 “기술 자체에 대해 제한을 두기보다는 사용 사례에 따른 규제책을 내놓는 것이 중요하다”고 말했다.
댓글0