앤트로픽, 클로드 채팅 데이터 AI 훈련 활용 옵트아웃 정책 도입
AI 스타트업 앤트로픽이 클로드 사용자들의 대화 내용을 AI 모델 개선에 활용할 수 있도록 하는 새로운 데이터 정책을 시행한다고 발표했다. 이번 정책 변경으로 사용자들은 자신의 채팅 데이터가 AI 훈련에 사용되는 것을 허용하거나 거부할 수 있는 선택권을 갖게 됐다.
앤트로픽은 이메일을 통해 사용자들에게 새로운 정책을 안내하며, 2025년 9월 28일까지 옵트아웃 여부를 결정할 수 있는 기간을 제공한다고 밝혔다. 별도의 조치를 취하지 않을 경우, 사용자는 자동으로 데이터 활용에 동의한 것으로 간주되어 향후 대화 내용이 AI 훈련 목적으로 사용될 수 있다.
회사 측은 사용자 프라이버시를 보호하기 위해 개인 식별 정보는 제거하고 익명화된 형태로만 데이터를 활용할 것이라고 설명했다. 또한 옵트아웃을 선택한 사용자의 데이터는 절대 훈련 목적으로 사용하지 않을 것임을 명확히 했다. 사용자들은 계정 설정에서 언제든지 데이터 활용 동의를 철회할 수 있다.
이번 정책 변경은 AI 업계에서 사용자 데이터 활용에 대한 투명성과 선택권을 강화하려는 움직임의 일환으로 보인다. 최근 여러 AI 기업들이 모델 성능 향상을 위해 사용자 생성 데이터를 활용하면서도, 프라이버시 보호와 사용자 동의 절차에 대한 논란이 이어져 왔다.
일부 전문가들은 옵트아웃 방식보다는 옵트인 방식이 더 사용자 친화적이라고 지적한다. 옵트아웃 방식에서는 사용자가 적극적으로 거부 의사를 표시하지 않으면 자동으로 동의한 것으로 간주되기 때문에, 정책 변경 사실을 인지하지 못한 사용자의 데이터가 무분별하게 활용될 수 있다는 우려가 제기된다.
앤트로픽은 그동안 AI 안전성과 윤리를 강조해온 기업으로, 이번 정책 도입 역시 투명성을 높이고 사용자에게 선택권을 제공하기 위한 조치라고 설명했다. 다만 사용자들은 9월 28일 마감일 이전에 자신의 계정 설정을 확인하고, 데이터 활용 동의 여부를 신중히 결정해야 할 것으로 보인다.
이번 정책 변경은 AI 산업 전반에서 데이터 활용과 프라이버시 보호 사이의 균형을 어떻게 맞출 것인가에 대한 중요한 선례가 될 전망이다. 향후 다른 AI 기업들도 유사한 정책을 도입할 가능성이 있으며, 사용자들의 데이터 권리에 대한 인식도 높아질 것으로 예상된다.