Logo R7.com
RecordPlus

Uso da IA na guerra: entenda a polêmica entre a Anthropic e o Pentágono

Especialista diz que inteligência artificial não pode ter o controle na guerra: ‘A decisão tem que ser humana’

Internacional|Do R7, com RECORD NEWS

  • Google News

LEIA AQUI O RESUMO DA NOTÍCIA

  • A Anthropic, laboratório de IA, foi classificada como risco à cadeia de suprimentos dos EUA pelo Pentágono.
  • A empresa se recusou a permitir o uso de IA no campo de batalha, priorizando a decisão humana.
  • O especialista Ricardo Cabral alerta sobre a crescente utilização da IA em armas e drones no combate.
  • Cabral enfatiza que a responsabilidade final deve ser do ser humano para evitar consequências perigosas.

Produzido pela Ri7a - a Inteligência Artificial do R7

O Pentágono classificou formalmente o laboratório americano de inteligência artificial Anthropic como um risco à cadeia de suprimentos dos EUA. O motivo do bloqueio foi a empresa não ter permitido que o governo americano usasse a inteligência artificial no campo de batalha.

Em entrevista ao Hora News desta segunda-feira (16), o especialista em segurança e estratégia internacional Ricardo Cabral afirma que a tecnologia vem sendo cada vez mais usada no campo de batalha, presente em armas e drones.


“Com esses drones com inteligência artificial, eles podem se juntar em um grande enxame. Quando eles perceberem — estiverem sendo avisados por radar — que vão ser atacados, se dispersar, ir para um determinado ponto, escolher um alvo alternativo. A IA permite isso”, explica Cabral.

Ele acrescenta que a inteligência artificial tem sido usada com muita eficiência em computação, comando, controle, vigilância e reconhecimento, categorias importantes para o que se convencionou chamar de “consciência situacional” do campo de batalha. Atividades que levariam dias são executadas em menos de uma hora.


Sobre a questão envolvendo a Anthropic e o Departamento de Estado norte-americano, Cabral explica que se trata de uma questão que “mexe no cenário Exterminador do Futuro”, fazendo uma referência à ficção científica. Isso porque a polêmica envolve o uso da IA no momento final, tomando decisões que só os humanos poderiam tomar.

“A Anthropic quer limitar o uso da IA para que o homem seja o último, o que decide. Veja, o Departamento de Estado disse que eles já fizeram isso, mas a Anthropic não brigaria com o Departamento de Estado, perder um contrato de milhões de dólares se isso estivesse acontecendo”, opina. Para Ricardo Cabral, a decisão humana é fundamental no contexto da guerra.

Search Box

Análises, entrevistas e as notícias do Brasil e do mundo estão na RECORD NEWS. Acesse o site aqui e confira os principais conteúdos em texto e vídeo!

Últimas


Utilizamos cookies e tecnologia para aprimorar sua experiência de navegação de acordo com oAviso de Privacidade.