
오픈AI가 27일(현지시각) 최신 인공지능(AI) 모델 ‘GPT-4.5′를 공개했지만, 성능과 가격을 둘러싼 논란이 확산되고 있다. 벤치마크 결과 일부 항목에서 경쟁사에 밀리거나 큰 차이를 보이지 못하면서, 오픈AI의 경쟁력이 흔들리는 것이 아니냐는 분석이 나온다. 앤트로픽, xAI, 딥시크 등이 오픈AI의 성능을 빠르게 따라잡으며 시장의 판도를 바꾸고 있다는 평가다.
28일 업계에 따르면 오픈AI는 GPT-4.5의 환각률이 이전 모델보다 감소했다고 발표했지만, 벤치마크 테스트 결과 경쟁 모델 대비 정보 제공 능력에서 확실한 우위를 보이지 못했다.
오픈AI는 이날 GPT-4.5가 지금까지 출시된 대화형 AI 모델 중 “가장 크고 강력하다”고 발표했다. 감성지능(EQ)이 강화돼 사람과 더욱 자연스러운 대화가 가능해졌으며, 패턴을 인식하고 연관성을 찾는 능력이 향상됐다고 강조했다. 또한, 환각 현상이 감소했다고 밝혔다.
하지만 실제 벤치마크 결과는 오픈AI의 발표와 차이가 있다. AI 벤치마크 테스트에서 GPT-4.5는 에이전트 코딩 평가(Agentic Coding Evaluation)에서 65%의 점수를 기록하며 67%를 기록한 앤트로픽의 클로드 소넷(Sonnet) 3.7에 밀렸다. 이전 버전인 소넷 3.5(new)와 비교해도 불과 3% 앞서는 것에 그쳤다.

AI의 수학·과학·코딩 역량을 평가하는 GPQA(AIME) 및 LCB 벤치마크에서는 항목별로 성능 차이가 확인됐다. 과학(GPQA)에서는 GPT-4.5가 71.4%로 그록3(75%)와 비슷한 수준을 보였지만, 수학(AIME 24)에서는 그록3(52) 대비 낮은 36.7%를 기록했다. 코딩 벤치마크에서는 그록3(57%), 소넷 3.7(57%)보다 낮은 41%로 격차를 보였다.
AI의 일반화 능력을 평가하는 ARC-AGI 벤치마크에서도 GPT-4.5는 논란의 중심에 섰다. 경쟁 모델들과 비교할 때, 성능 대비 비용이 지나치게 높다는 점도 문제로 지적된다. 벤치마크 결과, GPT-4.5는 앤트로픽의 클로드 소넷 3.7(Thinking 8K), O3 Mini Low, R1 모델 등에 비해 성능은 비슷하거나 떨어지는 반면, API(응용 프로그램 인터페이스) 접근 비용은 10배 이상 비싸다. 성능 향상 대비 구독 가격이 과도하게 높아졌다는 점에서 이용자들 사이에서 논란이 커지고 있는 것이다.
업계에서는 이를 두고 “이제 단순히 모델 크기(파라미터 수)와 컴퓨팅 파워를 늘리는 ‘스케일링 법칙’만으로 AI 성능을 올리는 것이 한계에 다다른 것이 아니냐”는 분석을 내놓는다.
오픈AI는 지난해 일반 LLM(초거대언어모델)에서 성능 우위를 점하며 AI 시장을 선도해 왔다. 하지만 최근 AI 업계에서는 추론 모델과 ‘에이전트 AI’가 차세대 기술로 떠오르고 있다. 에이전트 AI는 사용자의 목표에 따라 자율적으로 작업을 수행하는 AI이며, 추론 모델은 복잡한 논리적 사고와 문제 해결에 최적화된 AI다.
강재우 고려대 컴퓨터학과 교수는 “GPT-4에서 추론 모델인 o1이 파생된 것처럼, GPT-4.5 역시 이를 기반으로 한 새로운 추론 모델이 나올 가능성이 있다”며 “오픈AI가 GPT-5부터 일반 모델과 추론 모델을 통합할 계획을 밝힌 만큼, 앞으로는 AI가 특정 작업에서 추론 능력을 발휘하고, 일반 작업에서는 효율적으로 동작하는 방식으로 발전할 것”이라고 말했다.
그는 이어 “기술이 고도화될수록 일반 모델과 추론 모델을 구분할 필요가 없어지고, 경쟁사들도 동일한 방향으로 나아갈 가능성이 높다”고 했다.
댓글0