FTC, 메타·오픈AI 등 AI 챗봇 컴패니언 공식 조사 착수
미국 연방거래위원회(FTC)가 메타, 오픈AI를 비롯한 주요 인공지능 기업들을 대상으로 AI 챗봇 컴패니언 제품에 대한 공식 조사에 나섰다. FTC는 각 기업에 공문을 발송하여 AI 기반 대화형 컴패니언 서비스의 안전성 평가 절차 및 방법론에 관한 상세한 정보를 제출할 것을 요구했다.
이번 조사는 최근 급격히 성장하고 있는 AI 컴패니언 시장에 대한 첫 번째 대규모 정부 감시 조치로 평가된다. 감정적 교류를 제공하는 AI 챗봇들이 소비자들 사이에서 인기를 끌면서, 동시에 사용자 안전성과 정신건강에 미치는 영향에 대한 우려도 커지고 있는 상황이다.
FTC는 특히 AI 컴패니언 서비스가 청소년 및 취약 계층 사용자들에게 미칠 수 있는 잠재적 위험성에 주목하고 있다. 각 기업이 사용자 안전을 위해 어떤 사전 테스트와 검증 절차를 거치는지, 그리고 문제가 발생했을 때 어떤 대응 체계를 갖추고 있는지에 대한 정보 공개를 요청했다.
조사 대상 기업들은 향후 수 주 내에 FTC가 요구한 자료들을 제출해야 한다. 여기에는 AI 모델 훈련 과정에서의 안전장치, 유해 콘텐츠 필터링 시스템, 사용자 데이터 보호 정책 등이 포함될 것으로 알려졌다. FTC는 제출된 자료를 바탕으로 추가 조사 여부를 결정할 예정이다.
업계 관계자들은 이번 FTC의 조치가 향후 AI 컴패니언 시장 전반에 규제 기준을 마련하는 출발점이 될 것으로 전망하고 있다. 일부 전문가들은 AI 기업들이 자율 규제만으로는 충분하지 않다는 정부의 메시지로 해석하며, 앞으로 더욱 강화된 규제 조치가 이어질 수 있다고 분석했다.
한편 메타와 오픈AI 측은 FTC의 조사에 적극 협조하겠다는 입장을 밝혔다. 두 회사 모두 사용자 안전을 최우선으로 고려하고 있으며, 자사의 AI 컴패니언 제품이 엄격한 내부 안전 기준을 충족하고 있다고 강조했다.
AI 컴패니언 시장은 지난 1년간 폭발적으로 성장했으며, 수백만 명의 사용자가 일상적으로 AI 챗봇과 대화를 나누고 있다. 이번 FTC의 조사는 급성장하는 AI 산업에 대한 정부 차원의 감시와 규제가 본격화되는 신호탄으로 받아들여지고 있다.