Grokipedia já nasce com imprecisões e viés político favorável a Elon Musk
Especialistas alertam para riscos de desinformação e conteúdo tendencioso na plataforma com artigos gerados por inteligência artificial
Elon Musk lançou a Grokipedia nesta terça-feira (28) como uma alternativa à Wikipédia que promete combater o que ele considera um “viés ideológico” de esquerda na enciclopédia colaborativa. A nova plataforma, desenvolvida pela empresa de inteligência artificial xAI do bilionário, utiliza o modelo de linguagem Grok (aquele mesmo que não sabe a diferença entre piadas e notícias e cria resumos falsos) para gerar conteúdo de forma automatizada. No entanto, o site conta com pouco mais de 880 mil artigos, número significativamente inferior aos mais de 7 milhões da Wikipédia.
O lançamento foi marcado por instabilidade técnica, com o site saindo do ar devido ao alto tráfego de acessos nas primeiras horas. Quando voltou a operar, os usuários encontraram uma interface minimalista que mimetiza o design da Wikipédia, mas com uma diferença fundamental: enquanto a enciclopédia tradicional é construída por milhares de voluntários em todo o mundo, a Grokipedia depende essencialmente de conteúdo gerado por inteligência artificial, com participação humana ainda indefinida.
Logo após o lançamento, foram identificadas imprecisões significativas na plataforma, incluindo informações incorretas sobre figuras políticas como o ex-candidato presidencial estadounidense Vivek Ramaswamy e sua participação no projeto DOGE. As discrepâncias se tornaram mais evidentes quando usuários compararam os artigos sobre o próprio Musk em ambas as plataformas.
Na Wikipédia, Musk é descrito como uma “figura polarizadora” que tem sido “criticado por fazer declarações não científicas e enganosas, incluindo desinformação sobre COVID-19 e promoção de teorias conspiratórias”, além de menções ao aumento do discurso de ódio após sua aquisição do Twitter. Já na Grokipedia, o bilionário aparece como alguém que “influenciou debates mais amplos sobre progresso tecnológico, declínio demográfico e vieses institucionais”, e que “priorizou reformas de moderação de conteúdo em meio a críticas de veículos de mídia legados que exibem inclinações sistematicamente esquerdistas na cobertura”.
Críticos argumentam que o novo site possui viés ideológico voltado à direita, especialmente considerando que Musk já ajustou anteriormente o Grok para promover pautas da extrema direita. A Fundação Wikimedia respondeu às acusações afirmando que “diversas investigações ao longo de 25 anos não encontraram evidência confiável” de viés político na Wikipédia.
As alucinações da IA e o risco à informação confiável
O maior desafio enfrentado pela Grokipedia está relacionado a um problema conhecido na comunidade de inteligência artificial: as alucinações. Esse fenômeno ocorre quando modelos de linguagem geram “conteúdo que é sem sentido ou infiel ao conteúdo de origem fornecido”, produzindo informações fabricadas com aparência de autenticidade. O popular “falou merda, mas falou com confiança”.
Em outubro de 2025, mais de 800 milhões de pessoas usam o ChatGPT, e as alucinações de IA ainda se multiplicam com intensidade.
A transparência sobre as fontes utilizadas pela Grokipedia permanece obscura. Ainda não está claro de onde a plataforma extrai suas informações, com especulações sobre possível uso de postagens da rede social X ou até mesmo cópias literais de artigos da Wikipédia. Ironicamente, tanto o chatbot Grok quanto a Grokipedia frequentemente citam a Wikipédia como fonte quando consultados por usuários.
Musk afirmou nas redes sociais que “o objetivo do Grok e da Grokipedia.com é a verdade, toda a verdade e nada além da verdade”, prometendo que a plataforma será continuamente atualizada e que “à medida que o Grok melhorar, a Grokipedia também melhorará”.
A questão do viés algorítmico adiciona outra camada de complexidade. Um estudo recente da FGV, destacado no relatório de IA da Universidade de Stanford, aponta que o ChatGPT e outras ferramentas de IA generativa apresentam viés político, influenciando como os usuários acessam e interpretam informações. O risco é que algoritmos de IA treinados em bases de dados que já carregam vieses preexistentes acabam influenciando as respostas fornecidas. Lembra quando a Microsoft criou um chatbot e, em poucas horas de interação com usuários, ele virou nazista?
Em comunicado, um porta-voz da Fundação Wikimedia afirmou que a organização “ainda está no processo de entender como a Grokipedia funciona”, mas acrescentou que versões alternativas da Wikipédia apareceram antes e não interferiram com seu trabalho ou missão. O representante enfatizou que, diferentemente de projetos mais novos, “os pontos fortes da Wikipédia são claros: possui políticas transparentes, supervisão rigorosa de voluntários e uma forte cultura de melhoria contínua”.
A declaração da Wikimedia destacou ainda que “através da colaboração aberta e do consenso, pessoas de todas as origens constroem um registro neutro e vivo do entendimento humano — que reflete nossa diversidade e curiosidade coletiva. Esse conhecimento criado por humanos é no que as empresas de IA dependem para gerar conteúdo; até mesmo a Grokipedia precisa da Wikipédia para existir”.
Aproveitando a ocasião, você já doou para a Wikipédia esse ano? É possível doar qualquer valor e até pagar via Pix e boleto.
Com informações de euronews.com