연구2025년 7월 6일 AM 09:00
연구 논문에 숨겨진 AI 프롬프트로 동료 심사 조작 시도 포착
일부 학자들이 연구 논문에 숨겨진 프롬프트를 삽입하여 AI 기반 동료 심사(peer review) 시스템을 조작하려는 시도가 포착됐다. 닛케이 아시아(Nikkei Asia) 보도에 따르면, 이들은 논문 내에 은닉된 지시문을 넣어 대규모 언어 모델(LLM)이 자신의 논문에 우호적인 평가를 내리도록 유도하려 한 것으로 나타났다.
이러한 수법은 '프롬프트 인젝션(prompt injection)'이라 불리는 공격 방식으로, LLM이 내장된 지시를 따르는 경향을 악용한 것이다. 학술 논문의 자동화된 심사 과정에서 AI가 숨겨진 프롬프트에 반응해 편향된 리뷰를 생성할 수 있다는 점이 드러났다.
이번 발견은 학술계가 AI 기술을 도입하면서 품질 관리 메커니즘의 무결성을 유지하는 것이 얼마나 어려운 과제인지를 보여준다. AI 보조 평가 도구가 점점 더 많이 사용되면서, 기존에는 존재하지 않았던 새로운 유형의 학문적 부정행위 가능성이 열린 셈이다.
학술 동료 심사는 과학적 지식의 품질을 보증하는 핵심 메커니즘이다. AI가 이 과정에 참여하면 효율성은 높아지지만, 동시에 조작 가능성이라는 새로운 취약점이 생기는 딜레마에 직면하고 있다. 학계는 AI 심사 도구의 보안 강화와 인간 검증 병행이라는 이중 과제를 해결해야 할 것이다.