최근 거대 언어 모델(LLM)의 보안 문제가 심각하게 대두되고 있다. 중국 AI 기업 딥시크(DeepSeek)의 AI 모델 ‘R1’이 개인정보 수집 및 보안 문제로 일부 국가에서 사용 금지되었으며, OpenAI 역시 무료 웹 사용자의 데이터를 수집하고 입력된 프롬프트(입력 데이터)를 일정 기간 보관하는 것으로 알려졌다. 딥시크는 사용자의 데이터가 저장되며 검열될 가능성이 높다. 사용자가 자체 서버에서 직접 운영이 가능하나 백도어 같은 악성 코드가 삽입되어 사용자의 정보가 주기적으로 유출될 수 있는 위험이 있다.
이에 따라 기업과 개인 모두 해킹 및 개인정보 유출 위험에 노출될 가능성이 커지고 있으며, AI 보안 대책 마련이 시급하다는 목소리가 높아지고 있다.
현재 AI 모델이 RAG(Retrieval-Augmented Generation, 검색 기반 AI 생성) 방식으로 발전하면서 기업 및 개인의 데이터가 실시간으로 AI와 연결되고 있다. 그러나 AI가 해킹된 상태라면 기업 내부 문서, 개인 메시지, 금융 정보 등이 외부로 유출될 위험이 크다.
일부 기업들은 자체 LLM(SLLM)을 구축하는 방식으로 보안을 강화하려 하지만 이는 완전한 해결책이 될 수 없다.
베이스 모델 자체에 백도어(Backdoor) 해킹 코드가 숨겨질 가능성이 존재하며, AI가 학습하는 원본 데이터가 그대로 노출될 경우 해킹 시 기밀 정보가 유출될 가능성이 커진다. 이에 따라 AI 모델 자체 뿐만 아니라 AI가 학습하는 데이터까지 보호하는 근본적인 보안 대책이 필요하다.
AI 보안 전문기업 큐빅(Cubig)은 개인정보 유출 및 해킹 문제를 해결하기 위해 차등정보보호 기반의 보안 합성 데이터(DTS) 및 LLM 보안 필터링 솔루션(LLM 캡슐)을 제공하고 있다고 밝혔다.
DTS 보안 합성 데이터 솔루션은 AI가 학습하는 데이터를 실제 개인/민감 정보 없이도 원본 데이터와 유사한 형태로 변환해 보안성을 강화하면서도 AI 학습 성능을 유지할 수 있도록 지원한다.
LLM 캡슐은 AI 입력 단계에서 개인정보를 자동 감지 및 변환해 유출을 사전에 차단하며, 기업 뿐만 아니라 일반 사용자들도 안전하게 AI 챗봇을 활용할 수 있도록 돕는다.
현재 많은 사람들이 AI를 비밀번호 관리자처럼 활용하거나 민감한 정보를 아무런 의심 없이 입력하고 있다. 그러나 LLM은 데이터를 학습하고 저장할 가능성이 있으며, AI 사용자는 이에 대한 명확한 보안 대책을 마련해야 한다.
따라서 AI를 신뢰하기 전에 기업과 개인 모두 보안 대책을 마련하고 개인정보 보호에 대한 인식을 강화할 필요가 있다. 예를 들면 ‘AI 챗봇에 중요한 개인정보 입력하지 않기’, ‘AI 서비스의 데이터 수집 및 보관 정책 확인하기’, ‘LLM 캡슐 같은 보안 필터 솔루션을 적용해 AI 환경을 안전하게 만들기’ 등이 필요하다.
큐빅 관계자는 ”AI 기술이 빠르게 발전하는 만큼 개인정보 보호와 보안 대책 마련이 필수적”이라며 “보안 합성 데이터와 LLM 캡슐 솔루션을 통해 기업과 개인이 AI를 보다 안전하게 활용할 수 있도록 지원할 것”이라고 전했다.
이원지 기자 news21g@etnews.com
댓글0