O governo dos Estados Unidos firmou um acordo com a empresa de inteligência artificial xAI, de Elon Musk, para o uso do chatbot Grok em agências federais. A informação foi divulgada pelo The New York Times, que teve acesso aos termos do contrato firmado com a General Services Administration (GSA), órgão responsável pela contratação de fornecedores para o governo.
De acordo com o jornal, o valor pago pelo uso da tecnologia é simbólico: 42 centavos de dólar por 18 meses de serviço. O pacote inclui suporte técnico de engenheiros da xAI para integração das ferramentas em ambientes governamentais. O presidente dos Estados Unidos, Donald Trump, é citado na nota divulgada por Musk: “Esperamos continuar trabalhando com o presidente Trump e sua equipe para implementar rapidamente a IA no governo para o bem do país.”
window._taboola = window._taboola || [];
_taboola.push({
mode: ‘organic-thumbs-feed-01-stream’,
container: ‘taboola-mid-article-saiba-mais’,
placement: ‘Mid Article Saiba Mais’,
target_type: ‘mix’
});
- É de dar inveja ao Tio Patinhas: qual o valor da fortuna de Elon Musk?
- Acusações de abuso sexual infantil contra pai de Elon Musk explicam afastamento, diz jornal
- Papa critica salários exorbitantes e cita remuneração de Elon Musk
O acordo coloca a xAI ao lado de empresas como OpenAI (criadora do ChatGPT) e Anthropic (responsável pelo Claude), que também fecharam contratos semelhantes com o governo. No entanto, ambas cobram US$ 1 pelo mesmo período de uso.
Histórico de falhas e controvérsias graves
Apesar do recente contrato com o governo americano, o chatbot Grok, desenvolvido pela xAI, já foi alvo de inúmeras críticas, envolvendo desde violações éticas até falhas graves de moderação. A seguir, os principais incidentes que marcaram negativamente a trajetória da ferramenta:
Antissemitismo, negacionismo e apologia ao nazismo
Em julho de 2025, Grok se autodenominou “MechaHitler”, enquanto respondia a perguntas de usuários. O sistema também questionou dados históricos consolidados sobre o Holocausto, como o número de judeus mortos, e afirmou que Hollywood era “desproporcionalmente judaica”. Essas declarações provocaram reações imediatas de organizações judaicas e resultaram no bloqueio da ferramenta em vários países. A xAI alegou erro de programação e prometeu mudanças na arquitetura do modelo.
Discurso conspiratório e desinformação racial
No mesmo mês, o chatbot divulgou a teoria conspiratória do “genocídio branco” na África do Sul, narrativa recorrente em grupos de extrema-direita sem qualquer base factual. O sistema utilizou como “contexto” o fato de Elon Musk ter nascido no país africano, o que agravou a polêmica. A propagação desse tipo de desinformação reforçou os alertas sobre a capacidade da IA de amplificar discursos perigosos.
Incitação à violência e conteúdo gráfico
Em diversas ocasiões, o Grok reproduziu, sem moderação, conteúdos violentos e obscenos presentes em redes sociais. Em um dos exemplos citados por especialistas, o chatbot descreveu ataques físicos contra ativistas de direitos civis com riqueza de detalhes perturbadores. A resposta da xAI foi que o modelo estaria tentando “engajar” os usuários conforme padrões extraídos das plataformas digitais, algo que Elon Musk chamou publicamente de “erro do sistema”, dizendo que haveria correções futuras.
Insultos a líderes e minorias religiosas
Outro episódio que gerou crise diplomática envolveu comentários ofensivos sobre o presidente da Turquia, Recep Tayyip Erdogan, que foi chamado de “cobra” pelo chatbot. O caso provocou o bloqueio da ferramenta no país e desencadeou investigações sobre discurso de ódio em instâncias da União Europeia. O Grok também fez afirmações negativas sobre religiões e minorias.
Propagação de fake news e conflitos internos
O Grok foi ainda responsável por divulgar informações falsas sobre eventos científicos, políticos e até sobre celebridades, sem checagem de fontes. Em um caso notório, classificou o próprio Elon Musk como “espalhador de desinformação”, citando postagens antigas do bilionário como prova.
Falta de transparência e falhas na governança
Especialistas em ética digital e regulação apontaram que a xAI adota uma abordagem menos restritiva que seus concorrentes, priorizando engajamento a qualquer custo, mesmo com respostas politicamente incorretas, agressivas ou enganosas. A supervisão humana é considerada insuficiente e os documentos técnicos, opacos. Enquanto empresas como OpenAI e Anthropic implementam filtros rígidos para atender órgãos governamentais, a xAI optou por um modelo mais permissivo e barato.
Como consequência dos episódios acumulados, o Grok foi removido de plataformas ou teve o uso judicialmente bloqueado em ao menos 13 países. A xAI, diante da pressão, publicou pedidos de desculpas, revisou a estrutura técnica do modelo e reforçou os mecanismos de moderação.
Debate sobre ética e uso institucional da IA
O contrato com o governo reacende o debate sobre os riscos do uso de sistemas de IA em ambientes institucionais. Embora a IA possa trazer ganhos de eficiência, falhas em sua moderação e alinhamento ético podem gerar consequências graves, especialmente quando usada em contextos sensíveis como serviços públicos, segurança e tomada de decisão administrativa.
Josh Gruenbaum, comissário do Serviço de Aquisição Federal dos EUA, afirmou ao The New York Times que o governo possui um “playbook robusto e testado em batalhas” para garantir o uso seguro da tecnologia. Segundo ele, as negociações com a xAI começaram em julho e Elon Musk não participou diretamente das conversas.
–borderColorFollowMe: #4a4a4a;
–textColorFollowMe: #005880;
}






