IA no Pentágono: Anthropic banida por Trump, OpenAI e Grok assumem o lugar
Entenda como as mudanças no cenário de IA nos EUA afetam empresas brasileiras
Esta foi a principal polêmica envolvendo IA na semana de 24 a 28 de fevereiro de 2026. Em menos de 48 horas, o governo americano transformou uma negociação de contrato militar em um caso de ética, política e confiança pública. O resultado? Uma empresa foi “cancelada” pelo Pentágono, e subiu no App Store e milhões de pessoas começaram a deletar o ChatGPT. Vou te explicar tudo o que rolou, de forma clara e sem enrolação, e mostrar o que isso significa para o dia a dia de quem usa IA no Brasil. O que aconteceu passo a passo
Anthropic diz “não” ao Pentágono
A empresa criadora do Claude tinha um contrato de até US$ 200 milhões para usar sua IA em redes classificadas do Exército americano. O Pentágono exigiu que a Anthropic removesse as “guardrails” (limites) para permitir dois usos:
- Vigilância em massa de cidadãos americanos (análise de dados públicos em bulk)
- Armas autônomas letais (sem supervisão humana)
O CEO Dario Amodei afirmou publicamente: “Não podemos, em sã consciência, aceitar isso”. Eles queriam garantias contratuais explícitas. O Pentágono ofereceu até aceitar quase tudo… menos uma frase sobre “análise de dados em massa”. Anthropic recusou.
Trump entra em cena e pune a empresa
Na sexta-feira (28/02), o presidente Trump postou no Truth Social: “Nunca vou deixar uma empresa de esquerda radical ditar como nosso exército luta!”
Em poucas horas:
- Ordenou que todas as agências federais parem de usar tecnologia Anthropic (prazo de 6 meses para trocar).
- O secretário de Defesa Pete Hegseth classificou a empresa como “risco de cadeia de suprimentos” (termo normalmente usado para empresas chinesas ou russas).
- A GSA (espécie de “Compras.gov” americana) removeu o Claude da lista de ferramentas aprovadas.
OpenAI e xAI/Grok entram correndo
Horas depois do banimento, Sam Altman anunciou que a OpenAI fechou acordo para colocar seus modelos em redes classificadas do Pentágono. Elon Musk já tinha fechado um acordo similar com o Grok (xAI) semanas antes.
Tonight, we reached an agreement with the Department of War to deploy our models in their classified network.
— Sam Altman (@sama) February 28, 2026
In all of our interactions, the DoW displayed a deep respect for safety and a desire to partner to achieve the best possible outcome.
AI safety and wide distribution of…
Os dois aceitaram o termo “all lawful purposes” (todos os usos legais), mas colocaram salvaguardas técnicas (OpenAI teve que ajustar o contrato depois da repercussão negativa e admitiu que “foi corrido demais e as aparências não ficaram boas”).
Here is re-post of an internal post:
— Sam Altman (@sama) March 3, 2026
We have been working with the DoW to make some additions in our agreement to make our principles very clear.
1. We are going to amend our deal to add this language, in addition to everything else:
"• Consistent with applicable laws,…
O público reage: “Cancel ChatGPT” vira tendência
- Claude pulou para o 1º lugar no ranking de apps gratuitos na App Store americana (superou o ChatGPT no sábado e ficou lá).
- Hashtag #CancelChatGPT explodiu no Reddit (mais de 33 mil upvotes em um post só).
- Milhares de usuários postaram que estavam deletando o ChatGPT e migrando para Claude por “respeito à ética”.
E o Brasil com isso?
No Brasil, o tema é acompanhado de perto por três motivos principais
- Eleições 2026: O TSE já proibiu conteúdo novo gerado por IA nas 72h antes da votação e exige marcação clara. Essa briga mostra que ética em IA não é só papo de ativista — é questão de segurança nacional e confiança pública.
- Empresas brasileiras usando IA: Muitas PME e grandes empresas estão migrando para Claude, Grok ou Gemini. Agora você sabe que nem todas as IAs são iguais: algumas priorizam “velocidade militar”, outras colocam limites éticos.
- Privacidade e empregos: Se o governo americano está discutindo vigilância em massa e armas autônomas, imagina o que pode acontecer com dados de brasileiros em servidores estrangeiros.
O que você deve fazer agora (checklist prático)
- Teste Claude hoje (é grátis e está bombando por um motivo).
- Pergunte sempre: “Essa IA tem salvaguardas contra uso indevido?” (empresas sérias estão respondendo isso publicamente).
- Para sua empresa: prefira ferramentas que tenham compromisso escrito contra vigilância em massa e decisões autônomas de alto risco (ex: aprovação de crédito, demissões, pontuação social).
- Fique de olho: Anthropic vai processar o governo americano. Essa história ainda não acabou.
Resumo em uma frase para o brasileiro comum
O governo americano priorizou velocidade e poder militar em detrimento de limites éticos. A Anthropic perdeu o contrato, enquanto a OpenAI e o Grok foram selecionados, mas enfrentaram questionamentos sobre confiança.














