펜실베이니아대 연구진, AI 사용자 다수가 논리적 사고 포기하는 '인지적 항복' 현상 경고
대규모 언어 모델(LLM) 기반 AI 도구 사용자는 크게 두 부류로 나뉜다. AI를 강력하지만 때때로 오류가 있는 서비스로 인식하고 신중하게 검토하는 사용자와, AI를 전지전능한 기계로 여기고 비판적 사고를 일상적으로 위임하는 사용자다.
펜실베이니아대학교 연구진은 논문 "Thinking—Fast, Slow, and Artificial: How AI is Reshaping Human Reasoning and the Rise of Cognitive Surrender"를 통해 후자 그룹의 심리적 메커니즘을 분석하고 '인지적 항복(cognitive surrender)'이라는 새로운 프레임워크를 제시했다.
연구진은 기존의 의사결정 이론인 '빠르고 직관적인 처리(시스템 1)'와 '느리고 분석적인 추론(시스템 2)' 체계에 더해, AI 시스템의 등장으로 '인공 인지(artificial cognition)'라는 제3의 범주가 형성됐다고 주장했다. 이 범주에서 의사결정은 인간의 내적 사고가 아닌 '알고리즘 시스템에서 비롯된 외부의 자동화된 데이터 기반 추론'에 의해 이루어진다.
과거에도 계산기나 GPS 같은 도구를 통해 특정 작업을 자동화된 알고리즘에 전략적으로 위임하는 '인지적 오프로딩(cognitive offloading)'이 존재했다. 그러나 연구진은 AI 시스템이 이와 본질적으로 다른 '인지적 항복' 현상을 촉발했다고 분석했다. 인지적 항복은 사용자가 '최소한의 내적 관여'만 하며 AI의 추론을 검증 없이 전면 수용하는 것을 의미한다.
특히 LLM의 출력이 '유창하고, 자신감 있으며, 마찰이 최소화된' 형태로 제시될 때 이러한 '추론 자체의 무비판적 포기'가 빈번하게 발생한다고 연구진은 지적했다. 시간 압박이나 외부 인센티브와 같은 요인도 사용자가 비판적 사고를 AI에 위임하는 결정에 영향을 미치는 것으로 나타났다.
이번 연구는 AI 도구의 확산과 함께 사용자의 독립적 사고 능력이 약화될 수 있다는 우려를 실험적으로 뒷받침한다. 연구진은 인지적 오프로딩과 인지적 항복의 경계를 명확히 구분함으로써, AI 시대의 인간 추론 변화를 이해하기 위한 새로운 심리학적 틀을 제안했다.