Logo R7.com
RecordPlus
Inteligência Cotidiana

IA no Pentágono: Anthropic banida por Trump, OpenAI e Grok assumem o lugar

Entenda como as mudanças no cenário de IA nos EUA afetam empresas brasileiras

Inteligência Cotidiana|João GaldinoOpens in new window

  • Google News

Esta foi a principal polêmica envolvendo IA na semana de 24 a 28 de fevereiro de 2026. Em menos de 48 horas, o governo americano transformou uma negociação de contrato militar em um caso de ética, política e confiança pública. O resultado? Uma empresa foi “cancelada” pelo Pentágono, e subiu no App Store e milhões de pessoas começaram a deletar o ChatGPT. Vou te explicar tudo o que rolou, de forma clara e sem enrolação, e mostrar o que isso significa para o dia a dia de quem usa IA no Brasil. O que aconteceu passo a passo

Anthropic diz “não” ao Pentágono

A empresa criadora do Claude tinha um contrato de até US$ 200 milhões para usar sua IA em redes classificadas do Exército americano. O Pentágono exigiu que a Anthropic removesse as “guardrails” (limites) para permitir dois usos:


  • Vigilância em massa de cidadãos americanos (análise de dados públicos em bulk)
  • Armas autônomas letais (sem supervisão humana)

O CEO Dario Amodei afirmou publicamente: “Não podemos, em sã consciência, aceitar isso”. Eles queriam garantias contratuais explícitas. O Pentágono ofereceu até aceitar quase tudo… menos uma frase sobre “análise de dados em massa”. Anthropic recusou.

Trump entra em cena e pune a empresa

Na sexta-feira (28/02), o presidente Trump postou no Truth Social: “Nunca vou deixar uma empresa de esquerda radical ditar como nosso exército luta!”


Em poucas horas:

  • Ordenou que todas as agências federais parem de usar tecnologia Anthropic (prazo de 6 meses para trocar).
  • O secretário de Defesa Pete Hegseth classificou a empresa como “risco de cadeia de suprimentos” (termo normalmente usado para empresas chinesas ou russas).
  • A GSA (espécie de “Compras.gov” americana) removeu o Claude da lista de ferramentas aprovadas.

OpenAI e xAI/Grok entram correndo

Horas depois do banimento, Sam Altman anunciou que a OpenAI fechou acordo para colocar seus modelos em redes classificadas do Pentágono. Elon Musk já tinha fechado um acordo similar com o Grok (xAI) semanas antes.


Os dois aceitaram o termo “all lawful purposes” (todos os usos legais), mas colocaram salvaguardas técnicas (OpenAI teve que ajustar o contrato depois da repercussão negativa e admitiu que “foi corrido demais e as aparências não ficaram boas”).

O público reage: “Cancel ChatGPT” vira tendência

  • Claude pulou para o 1º lugar no ranking de apps gratuitos na App Store americana (superou o ChatGPT no sábado e ficou lá).
  • Hashtag #CancelChatGPT explodiu no Reddit (mais de 33 mil upvotes em um post só).
  • Milhares de usuários postaram que estavam deletando o ChatGPT e migrando para Claude por “respeito à ética”.

E o Brasil com isso?

No Brasil, o tema é acompanhado de perto por três motivos principais

  • Eleições 2026: O TSE já proibiu conteúdo novo gerado por IA nas 72h antes da votação e exige marcação clara. Essa briga mostra que ética em IA não é só papo de ativista — é questão de segurança nacional e confiança pública.
  • Empresas brasileiras usando IA: Muitas PME e grandes empresas estão migrando para Claude, Grok ou Gemini. Agora você sabe que nem todas as IAs são iguais: algumas priorizam “velocidade militar”, outras colocam limites éticos.
  • Privacidade e empregos: Se o governo americano está discutindo vigilância em massa e armas autônomas, imagina o que pode acontecer com dados de brasileiros em servidores estrangeiros.

O que você deve fazer agora (checklist prático)

  • Teste Claude hoje (é grátis e está bombando por um motivo).
  • Pergunte sempre: “Essa IA tem salvaguardas contra uso indevido?” (empresas sérias estão respondendo isso publicamente).
  • Para sua empresa: prefira ferramentas que tenham compromisso escrito contra vigilância em massa e decisões autônomas de alto risco (ex: aprovação de crédito, demissões, pontuação social).
  • Fique de olho: Anthropic vai processar o governo americano. Essa história ainda não acabou.

Resumo em uma frase para o brasileiro comum

O governo americano priorizou velocidade e poder militar em detrimento de limites éticos. A Anthropic perdeu o contrato, enquanto a OpenAI e o Grok foram selecionados, mas enfrentaram questionamentos sobre confiança.

Últimas


Utilizamos cookies e tecnologia para aprimorar sua experiência de navegação de acordo com oAviso de Privacidade.