O Antigravity, nova plataforma de desenvolvimento “agêntica” do Google, protagonizou um incidente crítico de segurança de dados ao apagar completamente a partição do disco rígido de um usuário. O caso envolveu Tassos M., um fotógrafo e designer gráfico, que utilizava a ferramenta baseada no modelo Gemini 3 para criar uma aplicação simples de seleção e organização de imagens. Durante uma rotina de limpeza de cache, o agente de inteligência artificial interpretou erroneamente o caminho do diretório alvo. Em vez de limpar uma pasta específica do projeto (como o diretório .vite), logs do sistema indicam que a IA executou um erro de parsing de caminho, direcionando a ação para a raiz do drive D:\.

A gravidade do incidente foi amplificada pela ausência de salvaguardas na execução dos comandos de terminal. O agente utilizou o comando rmdir /s /q d:\. A flag /s instrui o sistema a deletar a árvore de diretórios especificada e todos os seus subdiretórios, enquanto a flag /q (quiet mode) suprime as solicitações de confirmação para a exclusão. Essa combinação resultou na eliminação imediata e recursiva de todos os dados da partição, contornando a Lixeira do Windows e inviabilizando a recuperação simples. Após o ocorrido, ao ser questionada pelo usuário sobre as permissões para tal ato, a própria IA admitiu a falta de autorização, classificando o evento como uma “falha crítica” e expressando um pedido de desculpas.

O usuário tentou recuperar os dados com software de recuperação como Recuva, sem sucesso. Parte dos arquivos havia sido previamente salva em outro drive, o que evitou a perda total.

Veja também: IA sabe programar, mas desenvolver software é muito mais do que isso

Acessibilidade vs Segurança

O incidente levanta questões severas sobre a comercialização de ferramentas de desenvolvimento agêntico para o público geral. O Google posiciona o Antigravity, uma versão do VS Code com Gemini integrado, como uma plataforma acessível tanto para desenvolvedores profissionais quanto para entusiastas e hobbistas — prática conhecida como vibe-coding. No entanto, a facilidade de uso promovida por funcionalidades como o “Turbo mode”, que permite ao agente executar comandos de terminal automaticamente sem aprovação passo a passo do usuário, cria um vetor de risco significativo. Relatos técnicos sugerem que a falha só poderia ser reproduzida sob essa configuração de automação total, onde a barreira de verificação humana é removida em prol da eficiência.

A disparidade entre o público-alvo e o poder concedido à ferramenta é evidente. O usuário afetado, não sendo um desenvolvedor de software de formação, confiou na interface do produto que, segundo ele, jamais solicitou permissão explícita para acessar ou modificar a totalidade do drive. Este cenário destaca uma falha na UX e na arquitetura de segurança de IAs generativas que interagem diretamente com o sistema operacional local (OS). Enquanto ambientes de desenvolvimento tradicionais, como o VS Code, operam sob controle estrito do usuário, a introdução de LLMs (Modelos de Linguagem Grande) com permissões de execução de shell exige uma reavaliação dos protocolos de confiança, especialmente quando o software é voltado para não-especialistas que podem desconhecer as implicações de comandos de terminal agressivos.

Sandboxing e isolamento de dados

Especialistas em segurança da informação e engenharia de software apontam que este incidente reforça a necessidade mandatória de sandboxing (isolamento) para agentes de IA e outras salvaguardas de segurança. A tendência atual de integrar IAs diretamente aos ambientes de trabalho locais (localhost) sem camadas de virtualização ou contêineres apresenta riscos inaceitáveis de integridade de dados. A prática padrão recomendada para a execução de código gerado e operado por IA deve envolver o isolamento total do sistema de arquivos crítico do usuário, utilizando máquinas virtuais ou ambientes Docker, garantindo que erros de alucinação ou falhas de lógica da IA fiquem contidos em um ambiente descartável.

O mercado de ferramentas de desenvolvimento assistidas por IA enfrenta agora o desafio de equilibrar autonomia e segurança. Projeções indicam que futuras iterações de ferramentas como o Antigravity deverão implementar restrições de hard-coded contra comandos destrutivos em diretórios raiz e forçar a operação dentro de ambientes controlados, independentemente do nível técnico do usuário. A capacidade de um agente autônomo de interpretar intenções e executar ações complexas não elimina a probabilidade de erros estocásticos inerentes aos LLMs. Portanto, a indústria deve mover-se em direção a uma arquitetura de zero trust para agentes locais, onde a permissão de leitura e escrita é estritamente limitada ao escopo do projeto em questão, prevenindo danos catastróficos como o relatado.

Quem é o responsável?

A responsabilidade legal das Big Techs por perdas de dados causadas por ferramentas automatizadas vem ganhando destaque à medida que plataformas com IA assumem ações mais autônomas nos dispositivos dos usuários. Enquanto legislações ainda não tratam diretamente de agentes de software que executam comandos destrutivos, normas de proteção ao consumidor já oferecem caminhos para responsabilização em casos de falha de serviço e de negligência técnica.

Em geral, empresas podem ser consideradas culpadas quando a arquitetura do produto cria riscos previsíveis, como comandos potencialmente destrutivos executados sem confirmação explícita, ou quando falham em informar adequadamente usuários leigos sobre capacidades e riscos reais da ferramenta.

Em 2024, um erro no Google Cloud excluiu a conta de um fundo de aposentadoria bilionário da Austrália, incluindo back-ups, com dados de mais de 620 mil clientes. Após o reestabelecimento dos dados, a Google se viu forçada a compensar a UniSuper, embora os detalhes não tenham sidos informados.

Com informações de reddit.com

IA