Atualizado em

A exploração de dados criativos por sistemas de inteligência artificial sem o consentimento de autores tornou-se uma das questões mais controversas da era digital. Nightshade, desenvolvido pelo SAND Lab da Universidade de Chicago, surge como resposta a esse cenário, acumulando mais de 1,6 milhão de downloads desde seu lançamento. A ferramenta representa uma mudança estratégica na relação entre artistas e empresas de tecnologia, oferecendo um mecanismo de defesa que vai além da simples proteção passiva.

O Nightshade transforma imagens em amostras de dados inadequadas para treinamento de modelos de IA, adicionando alterações nos pixels que são imperceptíveis ao olho humano, mas que manipulam sistemas de aprendizado de máquina para interpretar a imagem de forma completamente diferente da realidade. Essa abordagem técnica se baseia em uma vulnerabilidade fundamental dos modelos generativos: sua dependência de grandes volumes de dados coletados da internet.

O processo funciona através de uma técnica conhecida como “envenenamento”, onde alterações são aplicadas de forma que os olhos humanos vejam uma vaca em um campo, mas o modelo de IA interpreta como uma bolsa de couro na grama. Essa discrepância fundamental entre a percepção humana e a interpretação da máquina é o que torna a ferramenta efetiva.

Pesquisadores testaram o ataque em modelos mais recentes do Stable Diffusion, e quando alimentaram o sistema com apenas 50 imagens envenenadas de cachorros, os resultados começaram a apresentar anomalias significativas, com criaturas geradas apresentando membros extras e características distorcidas. À medida que a quantidade de imagens envenenadas aumenta nos conjuntos de dados, os efeitos se amplificam, podendo causar degradação permanente no desempenho dos modelos.

A ferramenta foi projetada como um dissuasor ofensivo contra o treinamento sem consentimento, diferentemente do Glaze, que atua como mecanismo defensivo para proteger o estilo dos artistas.

Leia também:

Diferenças técnicas entre Glaze e Nightshade

Embora ambas as ferramentas utilizem perturbações imperceptíveis nos pixels das imagens, suas abordagens técnicas e objetivos diferem significativamente. Lançado em março de 2023 e com mais de 6 milhões de downloads, o Glaze opera compreendendo os modelos de IA que treinam com arte humana e calculando alterações mínimas nas obras, de modo que permaneçam visualmente inalteradas aos olhos humanos, mas apareçam para os modelos como um estilo dramaticamente diferente. Por exemplo, um retrato realista em carvão pode ser interpretado pelo modelo como arte abstrata moderna. Essa proteção funciona como uma nova dimensão da arte que os modelos de IA veem mas os humanos não, similar à luz ultravioleta ou frequências ultrassônicas, com a vantagem de que essa dimensão é difícil de localizar ou fazer engenharia reversa.

O Nightshade foi desenvolvido posteriormente como um dissuasor ofensivo. Enquanto Glaze confunde o estilo da imagem, Nightshade faz o modelo interpretar incorretamente o próprio objeto. A estratégia ofensiva permite que amostras envenenadas incorporadas aos conjuntos de dados enganem permanentemente os modelos generativos.

A Universidade de Chicago recomenda que ambas as ferramentas sejam aplicadas conjuntamente nas obras, com o Glaze evitando a cópia do estilo e o Nightshade atrapalhando o treinamento de identificação de objetos pelos modelos. Porém, estudos recentes revelaram vulnerabilidades críticas nessas proteções, com o desenvolvimento do LightShed, um método capaz de detectar imagens protegidas pelo Nightshade com precisão de 99,98% e remover efetivamente as perturbações embutidas. Essa descoberta demonstra que a proteção contra modelos de IA pode ser praticamente impossível conforme os sistemas se tornam mais sofisticados.

Impacto no ecossistema de IA

A expectativa é que, se houver imagens suficientes protegidas pelo Nightshade na internet e as empresas perceberem que seus modelos estão se degradando, isso poderá empurrar os desenvolvedores para negociações em busca de licenciamento e compensação justa. Essa pressão econômica representa uma mudança no paradigma atual, onde o custo de coleta indiscriminada de dados era praticamente zero.

O objetivo da ferramenta não é quebrar modelos completamente, mas aumentar o custo de treinamento com dados não licenciados, tornando o licenciamento adequado de imagens uma alternativa economicamente viável. Essa estratégia reconhece que a IA generativa não será eliminada, mas busca estabelecer regras mais equilibradas para sua operação.

O contexto regulatório global reforça a relevância dessa discussão. O Brasil tem em discussão o PL 2338/2023, que estabelece objetivos de regulamentação da inteligência artificial com artigos específicos sobre direitos autorais que protegem obras literárias, artísticas e científicas. Essa movimentação legislativa demonstra o reconhecimento institucional de que o uso de obras protegidas sem autorização viola tanto as leis nacionais quanto tratados internacionais.

Pesquisadores alertam que criar uma defesa infalível contra modelos de IA pode ser praticamente impossível, especialmente à medida que os sistemas se tornam mais sofisticados, e que outras abordagens como marca d’água criptográfica podem complementar as proteções existentes. A evolução constante da tecnologia exige que as ferramentas de proteção também evoluam, transformando a questão em uma corrida contínua entre defesas e contramedidas.

Com informações de nightshade.cs.uchicago.edu