“현재 대규모언어모델(LLM) 기반 생성형 인공지능(AI)은 매우 초기 단계로, 백그라운드를 만들어가는 상황입니다. 그렇기 때문에 구글 등과 같은 소수가 가진 폐쇄형이 지배해서는 안됩니다. AI 개방형 생태계를 구축하는 일이 시급한 때입니다.”
크리스티나 몽고메리 IBM 부사장 겸 최고 개인정보보호 및 신뢰 책임자는 23일 오전 서울 여의도 한국IBM 사무실에서 진행된 인터뷰에서 ‘AI 개방형 혁신’의 중요성에 대해 강조했다.
그는 “개방형 접근 방식을 택하면 AI 모델의 위험성을 평가하고 AI가 가진 취약점 등을 조기에 파악할 수 있다”면서 “IBM은 오픈소스 소프트웨어의 발전에 가장 먼저 참여한 기업으로, AI 개방형 혁신을 추구하고 있다”고 했다.
IBM은 최근 메타를 비롯해 카카오 등 80여개 기업과 손잡고 ‘AI 동맹(AI Alliance)’을 맺었다. 몽고메리 부사장은 이에 대해 “AI 동맹은 유기적으로 성장하는 일종의 커뮤니티”라면서 “(카카오 합류로 인해) 한국어 기반의 언어적 뉘앙스나 데이터베이스(DB)를 확보하고 AI 알고리즘 및 기술 구현에서 안전성을 확보하는 데 도움이 될 것으로 기대된다”고 했다. 다음은 일문일답.
─빅테크들이 초거대 AI 모델을 출시하고 있다. IBM은 어떤가.
“IBM은 1990년대 초부터 오픈 라이선스, 오픈 거버넌스, 오픈 표준을 추진하면서 리눅스(Linux), 아파치(Apache), 이클립스(Eclipse) 같은 커뮤니티를 지원해왔다. 최근에는 레드햇(Redhat)을 인수하면서 맞춤형 AI 모델을 구축할 수 있는 인스트럭트랩(InstructLAB)을 공동 출시하는 등 개방형 혁신을 추구하고 있다. 우리의 특징은 생성형 AI가 결합된 왓슨X를 통해 조직 내 AI 활동을 관리 감독할 수 있고, 잠재적 위험을 자동적으로 스크린할 수 있도록 했다는 점이다. 새로운 기술이 도입되고 등장할 때 이 기술들은 사람들의 신뢰를 받을 때만 채택되고 활용된다. 안전성이나 책임성, 윤리성 측면에서 소비자 신뢰를 얻는 기업만 살아남는 시대가 됐다.”
─AI 발전의 위험도를 평가할 수 있는 척도가 있나.
“각 국가별로 AI 발전에 대해 바라보는 시각이 다르다. AI의 진정한 발전과 위험성을 평가하는 척도는 기술적 역량 이상이라는 점을 기억해야 한다. 그것은 인류 공동의 가치를 반영하고 공동의 과제를 해결하며, 소수의 특권층이 아닌 사회 전체가 혁신 혜택을 누리는 세상을 만들기 위해 어떤 맥락에서 기술이 활용되는가로 판단해야 한다. 이를 위해 개방형 혁신이 필요하다는 주장을 하고 싶다. 개방형 접근 방식을 취하면 다양한 커뮤니티가 참여해 AI 모델의 위험성을 평가하고, 연구내용을 면밀히 조사하기 때문에 AI가 가질 수 있는 취약점, 편견, 위험 요소 등을 식별하고 수정할 수 있는 가능성이 높아진다고 본다.”
─딥페이크 범죄도 늘고있다. 해결 방법이 있다면.
“현재 LLM 기반 생성형 AI는 사실 매우 초기 단계로 백그라운드를 만들어가는 상황이라고 보인다. 그래서 구글 등과 같은 소수가 보유한 폐쇄형이 지배해서는 안된다고 생각한다. 오픈소스가 중요한건 개방형 생태계를 구축해 해결 역량을 강화하기 위해서다. 딥페이크 범죄는 전 세계적으로도 AI 분야 중 가장 즉각적으로 문제를 해결해야 하는 사안이다. IBM은 딥페이크 기술과 관련해 개인이나 관련 기업이 책임을 져야하고, 그들에게 책임을 묻는 환경도 필요하다고 생각한다.”
─개방형 혁신을 위해 IBM이 노력하는 것은.
“AI 기술을 활용함에 있어서 시장에 AI 관련 신제품을 출시할 때는 규제법이 없더라도 기업 규모와 상관 없이 각자가 스스로 AI 안전성 윤리 원칙을 지키는 게 중요하다. 그래서 거버넌스가 필요한 것이다. 이를 위해 우리도 조직이 스스로 AI 위험 요소를 관리하고 AI 관련 규정을 준수할 수 있는 솔루션인 ‘IBM 왓슨X거버넌스’를 내놓았다. IBM은 타사 오픈소스 AI 모델을 왓슨X 플랫폼에서도 사용할 수 있도록 했다. 고객에게 선택권을 주고 유연성 및 다양한 거버넌스를 제공하기 위해서다. AWS, 어도비, 미스트랄, 메타, SAP, 세일즈포스 등과의 협업도 강화하고 있다.”
─지난 22일 개최된 ‘AI 서울 정상회의’에 참석했는데.
“안전·혁신·포용의 가치가 AI 거버넌스 발전에 있어 중요하다는 점을 재확인했다. 우리는 각국이 이러한 가치를 지키고 약속을 이행하기 위한 노력을 지지한다. 유럽에서는 이미 많은 정책 입안자들이 기업, 정부기관을 잠재적 위험으로부터 보호하기 위해 수년 동안 AI 규제에 대해 논의해왔다. IBM은 지난 2021년부터 기술 자문기구에 기여하며 이 모든 과정에 참여했다.
물론 이것이 끝은 아니다. 3차 회의가 파리에서 개최되는데, 지속적으로 협업을 하고 논의하는 게 굉장히 중요하다는 것을 깨달았다.”
─AI 기술 발전의 부작용을 최소화할 수 있는 방법은.
“우리는 지난 2020년부터 각국 정책입안자에게 AI에 대한 규제가 필요하다고 주장했다. 물론 AI 기술 자체의 규제를 주장한 게 아니라, AI가 사용되는 맥락을 유형별로 나눠 규제해야 한다고 주장했다. 맥락은 나라, 언어, 문화 등에 따라 매우 다를 수 있다. 기술이 사용되는 상황에 따라 규제를 하는 게 효과적인 규제라고 생각한다.”
댓글0