Ex-funcionários da OpenAI denunciam cultura interna da empresa
Grupo alerta para cultura de sigilo e priorização de lucro em detrimento da segurança na busca por “supremacia” de inteligência artificial
Um grupo de nove funcionários e ex-funcionários da OpenAI, empresa de inteligência artificial (IA) criadora do ChatGPT, está levantando preocupações sobre a cultura interna da companhia. Eles alegam que a OpenAI vem priorizando lucro e crescimento em sua busca por construir a Inteligência Artificial Geral (AGI), um sistema de IA capaz de realizar qualquer tarefa humana, e estaria negligenciando medidas de segurança para evitar que suas tecnologias se tornem perigosas.
A OpenAI, que começou como um laboratório de pesquisa sem fins lucrativos e ganhou notoriedade com o lançamento do ChatGPT em 2022, supostamente estaria usando táticas agressivas para silenciar funcionários críticos, incluindo acordos de sigilo com cláusulas que impedem comentários negativos sobre a empresa sob pena de perda de participações acionárias.
A empresa segue uma cultura comum no Vale do Silício de pagar salários mais baixos aos funcionários e dar ações da empresa como bônus, criando uma esperança de que elas se valorizem no futuro, mas que não podem ser vendidas por um determinado período de tempo ou resgatadas, caso os funcionários saiam da empresa – tornando-os refém do contrato de emprego.
“A OpenAI está obcecada em construir a AGI e corre desmedidamente para ser a primeira a chegar lá”, afirma Daniel Kokotajlo, ex-pesquisador da divisão de governança da OpenAI e um dos organizadores do grupo, em uma entrevista ao jornal The New York Times.
Em carta aberta publicada recentemente, o grupo pede maior transparência e proteção para denunciantes dentro das principais empresas de IA. Vários funcionários atuais da OpenAI endossaram a carta anonimamente, temendo represálias.
Lindsey Held, porta-voz da OpenAI, defendeu a companhia, mas concorda que um “debate rigoroso é crucial, dada a importância dessa tecnologia”.
A OpenAI tem outros desafios. A empresa enfrenta batalhas judiciais com criadores de conteúdo e jornais, incluindo o NYT, que a acusam de usar obras protegidas por direitos autorais para treinar seus modelos. Além disso, a recente apresentação de um assistente de voz hiper-realista foi marcada por uma disputa pública com a atriz Scarlett Johansson, que alega que a OpenAI imitou sua voz sem permissão.
A saída de dois pesquisadores de IA seniores, Ilya Sutskever e Jan Leike, aumentou as preocupações com a segurança. Sutskever havia alertado sobre os riscos potenciais de sistemas de IA poderosos, e sua saída foi vista por alguns funcionários como um retrocesso.
Leike, que liderava a equipe de “superalinhamento” da OpenAI focada em gerenciar os riscos de modelos avançados de IA, declarou publicamente que a “cultura de segurança e processos ficaram em segundo plano para produtos chamativos”.
Nem Sutskever nem Leike assinaram a carta aberta, mas suas saídas incentivaram outros ex-funcionários da OpenAI a se manifestarem.
“Quando entrei na OpenAI, não concordei com essa atitude de ‘vamos lançar as coisas no mundo, ver o que acontece e consertar depois’”, disse William Saunders, um engenheiro de pesquisa que deixou a OpenAI em fevereiro, ao NYT.
Alguns ex-funcionários estão ligados ao altruísmo efetivo, movimento utilitarista preocupado em prevenir ameaças existenciais da IA. Kokotajlo acredita que a AGI pode chegar em 2027 e que a probabilidade de a IA avançada destruir a humanidade é de 70%.
Dentro da OpenAI, Kokotajlo observou que os protocolos de segurança, incluindo uma junta de segurança conjunta com a Microsoft, raramente pareciam atrasar o lançamento de produtos.
A OpenAI alega ter iniciado o treinamento de um novo modelo principal de IA e estar formando um novo comitê de segurança para explorar os riscos associados à nova tecnologia. A empresa também anunciou a remoção de cláusulas de sigilo restritivas de seus contratos de trabalho.
Eles contrataram o advogado Lawrence Lessig para assessorá-los e pedem o fim do uso de acordos de sigilo e não divulgação nas empresas de IA. Lessig, conhecido por sua defesa de direitos civis, destacou a importância de permitir que os funcionários de empresas de IA discutam riscos e possíveis danos livremente, dada a importância da tecnologia.
Além da autorregulação, o grupo pede que legisladores implementem regras para a indústria de IA. Na carta, eles afirmam ser necessária uma estrutura de governança transparente e democraticamente responsável para lidar com esse processo.