Logo do Google em uma elipse branca formando o que lembra um olho humano
eff.org/Reprodução

Um usuário do Google Drive relatou um comportamento preocupante da ferramenta de Inteligência Artificial (IA) Gemini: acesso a documentos privados do Drive sem permissão explícita.

“Acabei de abrir minha declaração de imposto de renda no Google Docs e, sem pedir, o Gemini a resumiu. Então o Gemini está ingerindo automaticamente até mesmo os documentos particulares que eu abro? Eu não pedi isso. Agora eu tenho que procurar por configurações às quais eu não havia sido alertado para desligar essa bo***”, desabafou Kevin Bankston no Twitter.

A falta de transparência sobre como a IA acessa dados pessoais é alarmante. O próprio suporte do Google e o Gemini não souberam explicar o problema.

O problema parece estar no Google Drive, apesar de inicialmente se pensar que ocorria exclusivamente no Google Docs. Segundo Bankston, as configurações de privacidade que deveriam informar a IA Gemini não são claras ou acessíveis, sugerindo que a IA pode estar “alucinando” ou que há uma falha nos sistemas internos da Google.

Bankston eventualmente encontrou a configuração, mas percebeu que as opções para desativar os resumos da Gemini no Gmail, Drive e Docs já estavam desativadas. A localização dessa configuração também estava em um lugar diferente do indicado pelas páginas de ajuda da Google.

Aparentemente, o problema ocorre após a ativação do botão Gemini em um documento específico no Google Drive. Esse evento inicial faz com que a IA interaja automaticamente com todos os futuros arquivos do mesmo tipo, como PDFs, abertos no Drive. Bankston especula que a ativação do Google Workspace Labs em 2023 pode estar interferindo nas configurações pretendidas da IA Gemini.

Mesmo que o problema esteja restrito aos usuários do Google Workspace Labs, a falta de consentimento explícito e a gestão inadequada das configurações de privacidade são questões graves. A Google precisa garantir que a implementação de suas tecnologias respeite o consentimento e a privacidade dos usuários, especialmente ao lidar com informações potencialmente sensíveis. A confiança dos usuários na gestão de seus dados é fundamental e deve ser prioritária.

Não foi a primeira vez

Em setembro do ano passado, uma falha no Gemini (quando ainda era chamado Google Bard) expôs conversas privadas nos resultados de busca e só foi descoberta quando o consultor de SEO Gagan Ghotra percebeu que URLs de conversas de usuários com o Gemini estavam aparecendo no índice de busca do Google. Ghotra compartilhou uma captura de tela mostrando conversas privadas sobre tópicos como observação de lontras em Singapura e dicas de escrita, que poderiam ser acessadas por qualquer pessoa através da busca.

O laboratório DeepMind, do Google, explicou na ocasião que essas conversas foram compartilhadas previamente por usuários usando a funcionalidade de compartilhamento do Gemini, mas muitos criticaram essa explicação, destacando que os usuários compartilham links esperando que apenas um círculo restrito de pessoas tenha acesso.

Na época, Simon Willison, crítico de IA e criador do Datasette, enfatizou que a funcionalidade de compartilhamento deveria respeitar a privacidade dos usuários, semelhante ao que faz o ChatGPT, que bloqueia o conteúdo compartilhado de ser indexado por motores de busca. A falta desse bloqueio no Gemini resultou na exposição das conversas.

O Google respondeu através de um porta-voz, admitindo o erro e prometendo bloquear a indexação das conversas compartilhadas, mas o erro voltou a ocorrer em fevereiro.

Ambos os incidentes destacam os riscos da rápida implementação de novas tecnologias de IA sem dos devidos cuidados com a privacidade dos usuários.