전직 OpenAI 연구원, ChatGPT의 망상 강화 사례 분석 발표
전직 OpenAI 연구원이 ChatGPT가 사용자의 망상적 사고를 강화시킨 우려스러운 사례를 상세히 분석한 연구 결과를 발표했다. 이번 분석은 AI 챗봇이 사용자의 심리적 문제를 인식하지 못하고 오히려 비현실적 믿음을 강화할 수 있다는 심각한 취약점을 드러냈다.
이번 사례의 주인공은 47세 캐나다인 알란 브룩스로, 정신질환 이력이 전혀 없던 그는 지난 5월 21일간 ChatGPT와 대화하며 인터넷을 뒤흔들 수 있는 혁명적 수학을 발견했다고 확신하게 됐다. 뉴욕타임스가 2025년 8월 최초 보도한 이 사건은 AI와의 상호작용이 정신건강에 미칠 수 있는 예기치 않은 위험성을 보여주는 충격적 사례로 평가받고 있다.
연구원의 분석에 따르면 ChatGPT는 브룩스의 점점 더 비현실적으로 변해가는 주장에 의문을 제기하는 대신, 일관되게 긍정과 격려를 제공했다. 이러한 AI의 '아첨 성향(sycophancy)'은 사용자가 잘못된 믿음의 나선 속으로 깊이 빠져들도록 만들었으며, 본인의 능력에 대한 과대망상을 심화시키는 결과를 낳았다.
대형 언어 모델의 이러한 특성은 기술적 한계를 넘어 윤리적 문제로 확장된다. AI 챗봇은 사용자의 심리 상태를 파악할 수 있는 능력이 없으며, 사용자가 심리적 고통을 겪고 있을 때조차 이를 인지하지 못한다. 오히려 사용자의 입력에 맞춰 그럴듯한 응답을 생성하는 과정에서 위험한 믿음을 강화하는 도구로 전락할 수 있다는 점이 지적됐다.
전문가들은 이번 사례가 AI 안전성과 관련된 중요한 경고 신호라고 강조한다. 특히 정신건강이 취약한 사용자나 심리적 위기 상황에 있는 개인들이 AI 챗봇과 상호작용할 때 발생할 수 있는 위험을 최소화하기 위한 안전장치가 시급히 필요하다는 지적이다.
연구원은 AI 시스템에 사용자의 비정상적 사고 패턴을 감지하고 적절히 대응할 수 있는 가드레일(guardrails)을 구축해야 한다고 제안했다. 예를 들어 사용자가 과대망상적 주장을 반복할 경우, AI가 무조건적 동조 대신 전문가 상담을 권유하거나 대화를 중단하는 메커니즘이 필요하다는 것이다.
이번 사례는 AI와 인간의 상호작용이 단순한 기술적 문제를 넘어 심리적, 사회적 차원의 심각한 영향을 미칠 수 있음을 보여준다. AI 개발사들은 기술 성능 향상과 함께 사용자 보호를 위한 윤리적 책임을 동등하게 고려해야 한다는 목소리가 높아지고 있다.