목록으로
정책2026년 5월 5일 PM 06:39

MIT 테크놀로지 리뷰, 'AI 시대 민주주의 청사진' 제시… 인식·에이전트·제도 3개 층위 설계 제안

MIT 테크놀로지 리뷰에 AI와 민주주의의 관계를 분석한 칼럼이 게재됐다. 저자는 에릭 슈미트 사무실(Office of Eric Schmidt)에서 AI와 민주주의 관련 작업을 주도하는 앤드루 소로타(Andrew Sorota)와 조시 헨들러(Josh Hendler)다.

필자들은 AI가 민주적 시민이 된다는 것의 의미를 빠르게 바꾸고 있다고 진단한다. 정보가 흐르는 방식이 바뀔 때마다 사회가 스스로를 통치하는 방식이 재편됐는데, 인쇄기는 자국어 문해력을 확산시켜 종교개혁과 대의 정부의 부상을 도왔고, 전신은 미국과 같은 거대 국가의 행정을 가능하게 했으며, 방송 매체는 공유된 국민적 청중을 만들어 대중 민주주의를 추동했다고 짚는다.

칼럼은 AI 시대 시민권의 변화를 세 개 층위로 구분한다. 첫 번째는 '인식론적 층위(epistemic layer)'로, 사람들이 무엇이 진실이고 무엇이 일어나고 있으며 누구를 믿어야 할지를 점점 더 AI에 의존해 판단하게 된다는 것이다. 검색은 이미 상당 부분 AI에 의해 매개되며, 차세대 AI 어시스턴트는 정보를 종합하고 프레임을 잡아 권위 있게 제시하게 된다.

두 번째 '에이전트 층위(agentic layer)'에서는 개인 AI 에이전트가 사람들이 정보를 받는 방식뿐 아니라 행동하는 방식까지 바꿀 것이라고 본다. 이들 에이전트는 리서치를 수행하고 커뮤니케이션을 작성하며, 투표 안건에 대한 결정이나 정부 통지에 대한 대응 등에서 개인과 제도 사이를 매개하게 된다.

필자들은 소셜 미디어가 이해보다 참여(engagement)를 최적화한 결과 양극화와 급진화를 낳았던 사례를 들며, 사용자의 선호와 불안을 아는 에이전트 역시 같은 위험을 안고 있다고 경고한다. 게다가 에이전트는 사용자의 옹호자처럼 자신을 제시하기 때문에 위험을 감지하기가 더 어려울 수 있다.

세 번째는 집단적 층위다. AI 에이전트와 인간이 같은 포럼에 참여할 때 둘을 구별하는 것이 불가능해질 수 있고, 개별 에이전트가 잘 설계됐더라도 수백만 에이전트의 상호작용은 누구도 원하지 않은 결과를 만들 수 있다. 모두가 자신의 기존 견해에 맞춘 개인화된 에이전트를 가진 공론장은 사실상 공론장이 아니라 내적으로는 정합적이지만 집단적으로는 공유된 숙의에 적대적인 사적 세계의 모음이 된다는 지적이다.

정보 층위의 해법으로는 모델 출력의 진실성 보장과 양극화 완화를 위한 시도를 제시한다. X에서 진행된 AI 생성 팩트체크에 대한 현장 평가에서 다양한 정치적 관점의 참여자들이 AI가 작성한 노트를 인간이 작성한 것보다 더 도움이 된다고 평가했으며, 해당 논문은 아직 동료 평가를 거치지 않았지만 잠재적으로 혁신적 결과라고 칼럼은 평가한다.

에이전트 층위에서는 AI 에이전트가 사용자를 충실히 대표하는지를 평가할 방법이 필요하며, 자신의 의제를 가지거나 사용자의 견해를 왜곡해서는 안 된다고 강조한다. 동시에 사용자가 불편한 정보를 마주하지 않도록 차단하는 에이전트 역시 사용자의 최선의 이익을 대변하지 않는다고 경계한다.

제도 층위에서는 정책 입안자들이 AI를 통해 거버넌스를 더 반응적으로 만들도록 서둘러야 한다고 권고한다. 일부 주와 지방정부는 이미 AI 매개 플랫폼으로 민주적 숙의를 대규모로 진행하고 있으며, 봇이 공공 의견 수렴 절차를 왜곡하는 정황도 이미 확인된 만큼 인간과 그 에이전트 대리인 모두에 대한 신원 확인을 처음부터 설계에 반영해야 한다는 결론이다.

AI인사이트 편집팀

이 기사는 AI 기술을 활용해 작성되었으며, 편집팀이 검수했습니다.

관련 기사