Logo da OpenAI num fundo escuro com linhas rosas e verdes
Sportskeeda/Reprodução

Atualizado em

A ferramenta de inteligência artificial ChatGPT, desenvolvida pela OpenAI, foi temporariamente banida na Itália, nesta sexta-feira (31), devido a preocupações com a privacidade dos usuários. A autoridade de proteção de dados da Itália acusou a empresa de coletar ilegalmente dados pessoais dos usuários e não ter um sistema de verificação de idade para impedir menores de idade de serem expostos a material impróprio. Essa é a primeira vez que um governo proíbe o uso do ChatGPT – na China, Coreia do Norte, Rússia e Irã, o serviço não está disponível por decisão da própria OpenAI.

A decisão da Itália é um sinal dos desafios políticos que surgem para os desenvolvedores de inteligência artificial após o lançamento do ChatGPT. O serviço impressionou usuários e especialistas de AI com sua habilidade de interagir em conversas de forma natural, escrever artigos longos e realizar tarefas mais complexas como escrever códigos em linguagens de programação, mas também levantou preocupações sobre propagação de desinformação, efeitos no emprego e outros riscos mais amplos para a sociedade.

Além disso, nesta semana, mais de mil pesquisadores e executivos de empresas de tecnologia pediram uma pausa no desenvolvimento dos sistemas de IA mais avançados para que medidas de segurança possam ser implementadas. O Centro de IA e Políticas Digitais (CAIDP), um grupo que promove o uso ético da tecnologia, pediu à Comissão Federal de Comércio dos Estados Unidos que proíba a OpenAI de lançar novas versões comerciais do ChatGPT.

Na decisão de hoje, os reguladores italianos ordenaram que a OpenAI bloqueie os usuários de internet do país de acessar o ChatGPT até que a empresa forneça informações adicionais. A empresa tem 20 dias para colaborar com a agência, fornecendo informações e possíveis soluções para os problemas apresentados, antes que uma decisão final possa ser tomada sobre o futuro do produto no país.

O vazamento de dados em 20 de março, que expôs conversas e detalhes de pagamento de alguns usuários, foi citado como a razão para a decisão das autoridades. A agência afirmou que a OpenAI pode ser multada em até 20 € milhões (cerca de R$ 110 milhões, na cotação atual) ou 4% de sua receita anual global.

Em resposta, a OpenAI disse que desativou o ChatGPT para usuários na Itália e que está comprometida em proteger a privacidade das pessoas. A empresa afirmou que está trabalhando ativamente para reduzir o udo de dados pessoais no treinamento dos seus modelos de IA e que acredita que a regulamentação do setor é necessária.

A decisão da Itália e as preocupações levantadas por pesquisadores e líderes de tecnologia mostram que ainda há muito a ser feito no que diz respeito à regulamentação e ética no desenvolvimento e uso de inteligência artificial. A questão da privacidade dos usuários é um dos principais pontos de preocupação, e as empresas de IA precisam ser mais cuidadosas e transparentes no tratamento dos dados pessoais dos usuários.