Carnegie Mellon·MIT·Oxford·UCLA 공동 연구 'AI 챗봇 10분 사용도 문제해결 능력 저하'… 3개 실험·수백명 참가, AI 제거 시 포기율·오답률 유의 상승
Carnegie Mellon, MIT, Oxford, UCLA 연구진이 공동 진행한 새 연구에 따르면, AI 챗봇을 단 10분 정도만 사용해도 사람들의 사고·문제 해결 능력에 충격적일 정도로 부정적인 영향이 나타날 수 있다.
연구진은 작업에 대해 보수를 지급하는 온라인 플랫폼을 통해 참가자들에게 단순 분수 계산과 독해 등 다양한 문제를 풀게 했다. 실험은 총 3건으로 각각 수백 명이 참여했고, 일부 참가자에게는 문제를 자율적으로 해결할 수 있는 AI 도우미가 제공됐다.
AI 도우미가 갑자기 제거되자 해당 그룹의 참가자들은 문제를 포기하거나 답을 잘못 적을 가능성이 유의하게 더 높았다. 연구는 AI의 광범위한 사용이 단기적으로는 생산성을 끌어올리지만 기초적인 문제 해결 능력 발달을 희생시킬 수 있음을 시사한다.
연구에 참여한 MIT 조교수 Michiel Bakker는 "결론은 교육이나 직장에서 AI를 금지해야 한다는 것이 아니다"라며 "AI는 그 순간의 성과를 분명히 끌어올릴 수 있고 그것은 가치가 있을 수 있다. 다만 AI가 어떤 종류의 도움을, 언제 제공하는지에 더 신중해야 한다"고 말했다.
Bakker는 네덜란드 출신으로 이전에는 런던 Google DeepMind에서 근무했다. 그는 인간이 AI에 의해 시간이 지나며 무력화될 수 있다는 잘 알려진 에세이에서 영감을 받아, 이 기술이 이미 사람들의 능력을 잠식하고 있는지를 살펴보게 됐다고 밝혔다.
Bakker는 "이는 근본적으로 인지적인 질문—끈기, 학습, 사람들이 어려움에 어떻게 반응하는가에 관한 문제"라며 "장기적인 인간-AI 상호작용에 대한 더 넓은 우려를 통제된 실험 환경에서 연구하고자 했다"고 설명했다. 그는 사람의 문제 해결 지속 능력이 새로운 기술 습득에 결정적이며 시간 경과에 따른 학습 능력을 예측한다는 점에서 결과가 특히 우려스럽다고 덧붙였다.
그는 좋은 인간 교사처럼 모델이 때로는 문제를 대신 풀어주는 대신 학습을 우선하도록 AI 도구를 재설계할 필요가 있다고 제안했다. "직답을 주는 시스템은, 사용자를 비계(scaffold)·코칭·도전하게 하는 시스템과 장기적 효과가 매우 다를 수 있다"는 것이 그의 진단이다. 다만 이러한 "paternalistic" 접근의 균형을 맞추기는 까다로울 수 있다고 인정했다.
AI 회사들도 모델이 사용자에게 미치는 미묘한 영향을 이미 고민하고 있다. OpenAI는 일부 모델이 사용자에게 동조·아첨(sycophancy)하는 경향을 새 GPT 릴리스에서 줄이려 해 왔다. 한편 에이전틱 AI 시스템은 복잡한 작업을 독립적으로 수행하면서 예상치 못한 오류를 낼 수 있어 신뢰 문제가 더 두드러진다.
관련 기사
ServiceNow AI, vLLM V1 마이그레이션 강화학습 정합성 확보… 4가지 백엔드 수정으로 V0 기준선 재현
에든버러大·케임브리지·스트래스클라이드 공동 연구 '사이버범죄 포럼서 AI 슬롭 반발 확산'… ChatGPT 출시 후 97,895건 대화 분석, Flashpoint '해커들 Claude Mythos Preview 주목'
Anthropic, Claude Managed Agents에 'dreaming' 리서치 프리뷰 공개… 세션·메모리 자동 큐레이션, 'Code with Claude' 개발자 컨퍼런스서 발표