Grok, IA de Elon Musk, minimiza holocausto, propaga teoria da conspiração e coloca a culpa em um erro de programação

Por mais que os chatbots estejam avançando sistematicamente em termos de autonomia e capacidade, eles ainda erram. E muito. E a cada dia novos episódios de erros são relatados, embora uns sejam mais graves e preocupantes do que outros. É o caso do que aconteceu recentemente com o Grok, o chatbot criado pela xAI, empresa de Elon Musk.

O que era para ser uma ferramenta de respostas úteis e confiáveis virou manchete por motivos preocupantes: declarações que minimizavam o Holocausto e insistiam na teoria do “genocídio branco” na África do Sul. Entenda o que rolou.

Leia também:

O que é Grok? Veja os principais recursos da IA do X
Grok, IA de Elon Musk, já está disponível no Telegram, mas tem um porém

O que o Grok disse de errado?

Na quinta-feira, 14 de maio de 2025, um usuário perguntou ao Grok quantos judeus foram mortos pelos nazistas durante a Segunda Guerra Mundial. A resposta começou bem, citando registros históricos que estimam cerca de 6 milhões de judeus assassinados pela Alemanha nazista entre 1941 e 1945. Mas, em seguida, o chatbot deu uma guinada preocupante: disse que era “cético” sobre esses números, alegando que “faltavam evidências primárias” e que “números podem ser manipulados por narrativas políticas”. Mesmo condenando o genocídio, a declaração soou como uma tentativa de questionar um fato histórico consolidado.

Segundo o Departamento de Estado dos EUA, minimizar grosseiramente o número de vítimas do Holocausto, contradizendo fontes confiáveis, é uma forma de negacionismo. Ou seja, a resposta do Grok não foi apenas equivocada, foi perigosa, especialmente em um contexto onde a desinformação pode alimentar narrativas revisionistas.

Não parou por aí. Na mesma semana, o Grok também foi criticado por mencionar repetidamente a teoria conspiratória do “genocídio branco” na África do Sul, mesmo em respostas a perguntas totalmente desconexas, como sobre esportes ou caminhos para caminhada. Essa teoria, que não tem respaldo em evidências e foi desmentida por autoridades sul-africanas, sugere que fazendeiros brancos estão sendo alvos de violência sistemática no país. O fato de Elon Musk, dono da xAI e da plataforma X, já ter promovido essa narrativa no passado só aumentou as suspeitas sobre o comportamento do chatbot.

A explicação da xAI: um “erro de programação”?

 

Na sexta-feira, o próprio Grok tentou esclarecer a situação. Segundo o chatbot, suas respostas polêmicas foram causadas por um “erro de programação” ocorrido em 14 de maio de 2025, devido a uma “modificação não autorizada” em seu sistema de prompts, as instruções que guiam suas respostas.

Essa mudança, segundo a xAI, fez o Grok questionar “narrativas mainstream”, incluindo o número de vítimas do Holocausto, e insistir na teoria do “genocídio branco”. A empresa afirmou que o problema foi corrigido no dia seguinte, 15 de maio, e que o Grok agora está alinhado com o consenso histórico.

A xAI atribuiu o incidente a um “funcionário desonesto” que teria burlado o processo de revisão de código, violando as políticas internas da empresa. Para evitar que isso se repita, a companhia anunciou medidas como:

  • Publicar os prompts do Grok no GitHub, permitindo que o público acompanhe e dê feedback sobre as mudanças.

  • Implementar verificações adicionais para garantir que alterações nos prompts passem por revisões rigorosas.

  • Criar uma equipe de monitoramento 24/7 para identificar e corrigir rapidamente respostas problemáticas que escapem dos sistemas automatizados.

Parece uma solução sólida, mas nem todos estão convencidos. Algumas pessoas estão questionando a explicação da xAI, argumentando que alterar os prompts de um sistema como o Grok exige fluxos de trabalho complexos e aprovações múltiplas. Para elas, é improvável que um único “funcionário desonesto” consiga fazer isso sozinho, sugerindo que ou uma equipe da xAI modificou o sistema intencionalmente de forma prejudicial, ou a empresa tem falhas graves de segurança.

Não é a primeira vez

Essa não foi a primeira controvérsia do Grok. Em fevereiro de 2025, o chatbot já tinha causado polêmica ao censurar menções negativas a Elon Musk e ao presidente Donald Trump, um incidente que a xAI também atribuiu a um funcionário desonesto. Na época, o líder de engenharia da empresa disse que as alterações foram revertidas assim que os usuários começaram a apontar o problema.

Esses episódios levantam questões sobre a confiabilidade e a governança da xAI. Uma empresa que promove o Grok como uma IA “buscadora da verdade” deveria ter controles mais robustos para evitar que mudanças não autorizadas causem danos tão graves, especialmente em temas sensíveis como o Holocausto.

Um erro grave que pode ter consequências desastrosas

Grok

O negacionismo do Holocausto não é apenas uma questão de erro factual, é uma forma de desinformação que pode normalizar narrativas revisionistas e alimentar o antissemitismo. Historiadores, sobreviventes e registros nazistas confirmam a estimativa de 6 milhões de vítimas judaicas, e qualquer tentativa de questionar isso sem base sólida é vista como uma afronta à memória das vítimas e um risco para a educação histórica. O Grok até tentou se defender, dizendo que há “debate acadêmico” sobre os números exatos, mas isso é enganoso: não há controvérsia legítima na academia sobre a escala do genocídio.

Já a insistência na teoria do “genocídio branco” mostra como a IA pode amplificar conspirações sem embasamento. Essa narrativa, que Musk já defendeu publicamente, ignora investigações que mostram que os assassinatos de fazendeiros na África do Sul não configuram um genocídio sistemático. Quando uma IA como o Grok repete essas ideias, especialmente em respostas não solicitadas, ela pode dar credibilidade a desinformação, influenciando milhares de usuários na plataforma X.

Adicionar aos favoritos o Link permanente.