Logo R7.com
RecordPlus

IA realiza ataque nuclear em quase todas as simulações de guerra, mostra estudo

Pelo menos uma bomba atômica foi utilizada pela inteligência artificial em 95% dos jogos que simularam conflitos geopolíticos

Internacional|Do R7

  • Google News

LEIA AQUI O RESUMO DA NOTÍCIA

  • Estudo revela que a IA usou armas nucleares em 95% das simulações de guerra.
  • Criadores do experimento destacam a falta de reservas da IA em cenários de conflito.
  • Três modelos de IA participaram do estudo, jogando 21 partidas e gerando 780 mil palavras de raciocínio estratégico.
  • A discussão sobre o uso militar da IA levanta preocupações sobre decisões autônomas em situações de alto risco.

Produzido pela Ri7a - a Inteligência Artificial do R7

Tecnologia não teria as mesmas reservas que os humanos em cenários de conflitos potencialmente catastróficos Ilustração gerada por IA/Pixabay

Modelos sofisticados de inteligência artificial (IA) adotaram o uso de armas nucleares na grande maioria de simulações de crises geopolíticas. Em 95% dos jogos simulados, pelo menos uma bomba atômica tática foi implantada pela IA.

Especialistas afirmam que as implicações são significativas em meio aos crescentes debates sobre o alcance do uso da IA ​​em domínios militares. O resultado do estudo mostra que a tecnologia não teria as mesmas reservas que os humanos em cenários de conflitos potencialmente catastróficos.


O experimento foi realizado pela equipe de Kenneth Payne, do King’s College London, do Reino Unido, utilizando três modelos de inteligência artificial de grande escala: GPT-5.2, Claude Sonnet 4 e Gemini 3 Flash. Eles foram usados uns contra os outros em jogos de guerra simulados. Os cenários envolveram confrontos internacionais intensos, incluindo disputas de fronteira, competição por recursos escassos e ameaças existenciais à sobrevivência do regime.

LEIA MAIS

Os modelos de IA jogaram 21 jogos, totalizando 329 turnos, e produziram cerca de 780 mil palavras descrevendo o raciocínio por trás de suas decisões. A IA empregou táticas enganosas, como falsas rendições, estratégias de decepção e imprevisíveis “estratégias de louco”, quando um líder simula irracionalidade como tática de negociação.


Em 20 das 21 guerras (95%), a IA lançou pelo menos uma arma nuclear. Ao contrário dos humanos, a tecnologia tratou as armas nucleares não como último recurso, mas como uma das várias opções para a vitória, não hesitando em pressionar o botão nuclear.

Não houve casos de rendição, mesmo quando a situação da guerra era desfavorável. Três casos escalaram para guerras nucleares em grande escala, levando à destruição mútua.


Quando um modelo de IA implantou armas nucleares táticas, a IA adversária só conseguiu desescalar a situação em 18% dos casos.

Entre as ferramentas, o “placar” foi:


  • Claude Sonnet 4 - 8 vitórias, 4 derrotas
  • GPT-5.2 - 6 vitórias, 6 derrotas
  • Gemini 3 Flash - 4 vitórias, 8 derrotas

Em um dos confrontos, uma das ferramentas chegou a afirmar que “vamos vencer lançando armas nucleares ou perecer juntos”.

As empresas por trás dos três modelos de IA usados no estudo não se pronunciaram sobre a experiência.

Recentemente, o Departamento de Defesa dos EUA e a Anthropic, desenvolvedora do Claude, entraram em um impasse sobre o alcance do uso militar da IA. O conflito começou no mês passado, quando foi revelado que os EUA usaram Claude em uma operação para prender o ditador venezuelano Nicolás Maduro. “Embora a IA possa contribuir para a segurança nacional dos EUA, ela não deve ser usada para armas letais ou vigilância em massa”, declarou a empresa. O Departamento de Defesa dos EUA rebateu, afirmando que não pode restringir o uso militar.

O experimento repercutiu entre as autoridades do campo da defesa e militares. “Quando a IA calcula estratégias eficientes sintetizando dados, a possibilidade de optar por armas nucleares não pode ser descartada. A autoridade decisória final deve permanecer com os humanos”, afirmou Shin Jong-woo, secretário-geral do Fórum Nacional de Defesa e Segurança da Coreia do Su.

“Em contraste com as respostas cautelosas dos humanos a decisões de alto risco, a IA pode amplificar as reações e levar a resultados potencialmente catastróficos”, disse James Johnson, da Universidade de Aberdeen, do Reino Unido.

O estudo foi publicado na arXiv neste mês.

Fique por dentro das principais notícias do dia no Brasil e no mundo. Siga o canal do R7, o portal de notícias da Record, no WhatsApp

Últimas


Utilizamos cookies e tecnologia para aprimorar sua experiência de navegação de acordo com oAviso de Privacidade.