목록으로
정책2026년 4월 30일 PM 09:05

구글 Gemini, Gmail·Drive 데이터 프라이버시 '미로'… 구글 "Workspace 개인 콘텐츠는 파운데이션 모델 학습에 쓰지 않는다"

구글이 자사 생성형 AI 'Gemini'를 Gmail·Drive 등 구글 에코시스템 곳곳에 빠르게 통합하면서, 사용자 데이터 프라이버시 처리 방식이 다시 도마에 올랐다. 일각에서는 'AI 거품'이 꺼지기를 바라는 목소리도 있지만, 구글은 생성형 AI가 미래라며 자사 제품을 이에 맞춰 바꾸고 있다는 입장이다.

Ars Technica는 Gemini가 보존하는 데이터의 양이 사용자가 AI에 접근하는 방식에 따라 달라지며, 데이터 수집을 옵트아웃하려 시도하면 사용자 이익에 반하도록 설계된 UI 요소, 이른바 '다크 패턴(dark patterns)'에 부딪히게 된다고 지적했다.

구글의 사용자 데이터 활용 논란은 생성형 AI 붐 이전부터 이어져 온 사안이다. 구글은 과거 Gmail 광고를 강화할 당시, 메일 본문 내용을 광고 타기팅에 활용하지 않는다고 명확히 한 바 있다. 대신 사용자가 끌 수 있는 광고 개인화 기능은 웹 활동(web activity)과 핵심 통계 정보(vital statistics)를 활용하는 전사적 기능이라는 것이 회사 측 설명이다.

Gemini가 Gmail 같은 간판 제품에 광범위하게 들어가면서, 구글은 데이터를 '언제 사용하고 언제 사용하지 않는지'를 또다시 명확히 설명해야 했다. 최근 블로그 게시물과 연관된 'YouTube Short' 영상에서 구글은 사용자의 이메일이 Gemini로 직접 흘러 들어가는 것은 아니라는 점을 강조했다.

구글의 설명에 따르면 Gemini는 '격리된 작업(isolated tasks)' 단위로만 사용자 데이터에 접근한다. Gmail이나 Drive 같은 Workspace 앱에서 사용자가 Gemini 기능과 상호작용할 때, AI는 해당 데이터를 처리하지만 이를 별도로 저장하지는 않는다는 것이다.

구글 대변인은 "사용자의 프라이버시와 데이터 통제권을 보호하는 것은 Google Workspace에서 AI를 개발·배포하는 데 있어 근본적인 원칙"이라며, "Workspace에 입력하는 콘텐츠—개인 Drive 파일과 같은—는 사용자의 것이며, Workspace에서 Gemini를 사용할 때 우리는 해당 개인 콘텐츠를 파운데이션 생성형 AI 모델 학습에 사용하지 않는다"고 밝혔다.

그러나 Ars Technica는 'Gemini가 사용자 데이터를 어느 정도까지 보유하느냐'가 단일하게 정해져 있지 않다는 점을 문제로 짚었다. AI 접근 경로에 따라 데이터 보존 범위가 달라지는 데다, 데이터 수집에서 빠지려는 과정 자체가 '다크 패턴' 형태로 구성돼 있어 사용자가 의도대로 선택을 내리기 어렵다는 취지다.

AI인사이트 편집팀

이 기사는 AI 기술을 활용해 작성되었으며, 편집팀이 검수했습니다.

관련 기사