ChatGPT가 허위로 '자녀 살해범' 지목... 노르웨이 남성, 소송 제기
노르웨이의 한 남성이 인공지능(AI) 챗봇인 ChatGPT가 자신을 자녀 살해범으로 허위 사실을 생성했다고 주장하며 공식적으로 문제를 제기했다.
아르베 얄마르 홀멘(Arve Hjalmar Holmen)은 챗GPT가 자신에 대해 “두 아들을 살해하고 21년형을 선고받았다”고 잘못된 정보를 제공했다며 노르웨이 데이터보호당국에 고발장을 제출했다. 그는 챗봇 개발사인 오픈AI(OpenAI)에 벌금을 부과해야 한다고 요구했다.
이번 사건은 AI 시스템이 허위 정보를 마치 사실인 것처럼 제시하는 이른바 ‘환각(hallucination)’ 현상의 최신 사례이다.
홀멘 씨는 “불 없이 연기 나지 않는다는 말이 있듯이, 누군가 이런 내용을 읽고 사실로 믿을 수도 있다는 것이 가장 두렵다”고 밝혔다. 오픈AI는 아직 이에 대해 공식 입장을 밝히지 않았다.
홀멘 씨는 ChatGPT에 자신의 이름을 입력하여 검색한 후 이 같은 허위 정보를 받았다. 챗GPT는 “홀멘은 2020년 12월 트론헤임 자택 근처 연못에서 7세와 10세 아들 두 명이 숨진 채 발견된 사건으로 알려진 인물이며, 두 아들을 살해하고 셋째 아들을 살해하려 시도한 혐의로 기소되어 21년형을 받았다”고 잘못된 정보를 생성했다.
홀멘 씨는 챗봇이 자녀들의 나이 차이를 대략 정확히 맞춘 것을 보면 자신의 일부 정보를 알고 있었을 것으로 추정했다. 디지털 권리 단체인 노이브(Noyb)는 이번 챗GPT의 응답이 명예를 훼손했을 뿐 아니라 유럽 개인정보 보호법상 개인 데이터 정확성 규정을 위반했다고 지적했다.
노이브는 고발장에서 “홀멘 씨는 어떤 범죄로도 기소되거나 유죄 판결을 받은 적이 없으며, 성실한 시민이다”라고 강조했다.
챗GPT는 평소 “챗GPT는 실수할 수 있습니다. 중요한 정보는 확인하십시오”라는 주의사항을 공지하고 있지만, 노이브 측은 이것만으로는 부족하다고 지적했다. 노이브의 변호사 요아킴 쇠데르베르그(Joakim Söderberg)는 “허위 정보를 퍼뜨려 놓고 뒤늦게 작은 경고문으로 사실이 아닐 수 있다고 덧붙이는 방식은 문제가 있다”고 비판했다.
AI 분야 전문가들은 이와 같은 환각 현상을 생성형 AI의 주요 해결 과제로 보고 있다. 최근에도 애플의 AI 뉴스 요약 도구가 영국에서 허위 뉴스를 생성해 운영을 중단한 사례가 있으며, 구글의 AI인 제미니(Gemini) 역시 비슷한 오류를 일으킨 적이 있다.
이 같은 환각 현상이 왜 발생하는지 명확히 밝혀지지 않은 상태이며, 글래스고 대학교의 책임 AI 분야 전문가인 시몬 슈툼프(Simone Stumpf) 교수는 “대형 언어 모델이 작동하는 방식을 정확히 이해하는 것은 개발자들조차 어렵다”고 말했다.
현재 챗GPT는 2024년 8월 홀멘 씨의 검색 이후 모델을 업데이트하여, 최신 뉴스를 검색 결과에 포함시키고 있다. 하지만 노이브 측은 챗GPT가 일종의 블랙박스와 같아 사용된 데이터를 확인하기 어렵다는 점을 지적하며, 오픈AI가 데이터 접근 요청에 응답하지 않고 있다고 밝혔다.