인간처럼 스스로 가설을 세우고 이를 검증해 환각현상(Hallucination)을 줄일 수 있는 인공지능(AI) 모델이 국내 연구진에 의해 개발했다.
27일 한국과학기술원(KAIST)은 이상완·정민환 교수 연구팀이 사람처럼 스스로 의심하고 지속적으로 검증을 시도하는 신개념 AI 모델을 개발했다고 밝혔다.

챗GPT 등 거대언어모델(LLM)은 대규모 텍스트를 학습하고 강화학습 알고리즘을 통해 확신을 굳혀 가는 데에는 익숙하지만 출력값을 스스로 평가할 수 없기 때문에 가설을 의심하지 못하고 환각 오류를 일으키기 쉽다.
그러나 인간과 같은 동물은 AI와 달리 확실한 보상이 주어지는 경로가 있음에도 때때로 실패가 예견되는 목표에 대해 가설을 세우고 검증을 시도한다.
이에 KAIST 연구팀은 동물의 현재 상황에 대한 가설을 세우고, 가설의 예측 오류를 바탕으로 행동 전략을 비대칭적으로 세우는 새로운 적응형 강화학습 이론과 모델을 제안했다.

기존 인공지능 모델은 효율적인 문제 해결에만 집중하다 보니 동물의 행동을 설명하는데 한계가 있었다.
연구팀은 개발한 모델을 이용해 예상치 못한 사건에 대한 동물의 행동을 최신 인공지능 모델 대비 최대 31%, 평균 15% 더 정확하게 예측할 수 있었다고 설명했다.
또 기존 보상학습 회로로 알려진 뇌 기저핵의 선조체 부위 도파민 수용체가 예상한 사건을 마주한 경험과 예상치 못한 사건을 마주한 경험을 각각 부호화해 행동 전략을 조절하는 역할을 한다는 것을 확인했다.
이상완 교수는 “인공지능의 강화학습 이론만으로 설명할 수 없는 뇌의 가설 기반 적응학습 원리를 제시했다”며 “기저핵 내 보상학습 회로와 관련된 중독이나 강박증과 같은 정신질환의 뇌과학적 원인을 밝히는 데 기여할 것”이라고 말했다.
이번 연구 성과는 국제 학술지 ‘네이처 커뮤니케이션스’ (Nature Communications) 20일자에 게재됐다.
- 우리가 잘 모르는 노화의 주범 ‘폭염’…美연구팀 “폭염 노출되면 노화 최대 2.5년 빨라져”
- 함영주 하나금융 회장 “2027년까지 주주환원율 50%…PBR 1배 도달은 시간문제”
- “일론에 불만 있어? 있으면 쫓아낼 것” 트럼프, ‘실세’ 머스크 또 다시 힘 실어줘
- 서빙고역 인근에 ‘한강 뷰’ 41층 오피스빌딩·아파트 들어선다
- 쪼그라드는 대기업 일자리…대기업 60% “상반기 신규채용 없거나 미정”
댓글0