AI 합성 미디어 급증에 인터넷 검증 체계 붕괴 위기… 자동화 트래픽 51% 돌파, 전문가 "탐지 도구만으로는 한계"
AI로 생성된 합성 미디어가 전쟁 보도와 정치 선전에 본격 투입되면서 인터넷의 정보 검증 체계가 근본적 위기에 처했다. 레고 스타일 프로파간다 영상을 약 24시간 만에 제작해 배포하는 이란 연계 매체 Explosive News의 사례가 보여주듯, 합성 콘텐츠는 검증이 따라잡기 전에 이미 확산을 완료하는 속도전 양상을 띠고 있다.
2026 State of AI Traffic & Cyberthreat Benchmark Report에 따르면, 자동화 트래픽이 전체 인터넷 활동의 약 51%를 차지하며 인간 트래픽 대비 8배 빠른 속도로 증가하고 있다. 이러한 자동화 시스템은 단순히 콘텐츠를 유통하는 것을 넘어 저품질 바이럴 콘텐츠를 우선 배포함으로써 합성 미디어의 확산을 가속하고 있다.
공개출처정보(OSINT) 전문가들도 볼륨 전쟁에서 밀리고 있다. OSINT 저널리스트 Maryam Ishani는 "알고리즘이 무비판적 공유 반사를 우선시하기 때문에 우리의 정보는 항상 한 발 뒤처질 수밖에 없다"고 밝혔다. The Guardian의 비주얼 포렌식 리드 Manisha Ganguly는 "공개출처 검증이 탐구 방법이 아닌 공식 계정을 외형적으로 정당화하거나 이념적 서사에 맞추는 데 사용될 때 잘못된 확신을 만들어낸다"고 경고했다.
검증 도구에 대한 접근성도 축소되고 있다. 4월 4일 상업 위성 이미지 제공업체 Planet Labs는 미국 정부의 요청에 따라 이란 및 중동 분쟁 지역의 위성 이미지를 3월 9일 소급 적용하여 무기한 차단한다고 발표했다. 미 국방장관 Pete Hegseth는 "공개출처는 무엇이 일어났고 일어나지 않았는지를 판단할 곳이 아니다"라고 밝혔다.
생성형 AI 플랫폼의 발전도 검증을 더욱 어렵게 만들고 있다. 조사 트레이너이자 검증 전문가 Henk van Ess는 Imagen 3, Midjourney, Dall-E 등 최신 모델들이 잘못된 손가락 개수, 왜곡된 텍스트 같은 기존의 판별 단서를 대부분 수정했다고 밝혔다. 더 심각한 문제는 그가 말하는 '하이브리드' 조작이다. 이미지의 95%는 실제 사진이고 단 하나의 디테일만 조작되는 방식으로, 픽셀 수준 탐지기도 대부분 통과시킨다.
2018년부터 합성 미디어를 추적해 온 딥페이크 연구자이자 AI 어드바이저인 Henry Ajder는 "AI는 더 이상 눈에 띄지 않고 내장되어 있다"며, 고품질 합성 콘텐츠의 대량 유통으로 가시적 오류의 시대가 끝나고 있다고 진단했다. 그는 "탐지 도구를 조치 결정의 유일한 신호로 사용해서는 안 된다"고 강조했다.
Van Ess는 누구나 적용할 수 있는 5단계 검증법을 제시했다. 지나치게 연출된 구도를 의심할 것, Google Lens와 Yandex, TinEye 등 복수의 역이미지 검색을 실행할 것, 중심이 아닌 주변부 디테일을 확대할 것, 탐지 도구를 판결이 아닌 참고로 활용할 것, 그리고 이미지의 최초 출처인 '환자 제로'를 추적할 것이다. 무료 도구 ImageWhisperer는 이러한 신호들을 결합해 제공한다.
Adobe와 Synthesia 등에 자문해 온 Ajder는 장기적 해법이 더 나은 탐지가 아니라 출처 증명(provenance) 시스템, 즉 가짜를 쫓는 대신 원본의 출처를 검증하는 인프라에 있다고 주장했다. 그러한 인프라가 대규모로 구축되기 전까지 유일한 실질적 방어는 행동 변화, 즉 공유 전 잠시 멈추고 검증하는 습관이라고 결론지었다.