Logo R7.com
RecordPlus
R7 Brasília

Deepfakes ameaçam investigações criminais e colocam em risco condenações e absolvições, alerta TCU

Manipulação de vídeos e áudios por IA podem gerar crise de confiança na Justiça

Brasília|Joice Gonçalves, do R7, em BrasíliaOpens in new window

  • Google News

LEIA AQUI O RESUMO DA NOTÍCIA

  • Deepfakes representam uma ameaça às investigações criminais no Brasil, podendo levar à absolvição de culpados e condenação de inocentes.
  • O estudo do TCU prevê uma "crise da confiança" na Justiça até 2045, afetando a validade das provas digitais.
  • A falta de protocolos padronizados para a autenticação de provas digitais dificulta a manutenção da integridade delas, aumentando o risco de decisões divergentes em casos semelhantes.
  • O uso indevido de deepfakes pode resultar em vigilantes digitais, normalizando a desinformação e potencializando a violência baseada em falsos conteúdos.

Produzido pela Ri7a - a Inteligência Artificial do R7

As deep fakes pode simular voz, aparência e gestual de uma pessoa por meio da inteligência artificial. Marcello Casal Jr/Agência Brasil/Arquivo

A disseminação de deepfakes, vídeos, imagens e áudios manipulados por inteligência artificial, representa uma ameaça direta às investigações criminais no Brasil e pode levar tanto à absolvição de culpados quanto à condenação de inocentes.

O alerta está em um estudo do TCU (Tribunal de Contas da União), divulgado nesta sexta-feira (12), que projeta, até 2045, um cenário de “crise da confiança” no sistema de Justiça, com impacto profundo sobre a validade das provas digitais.


Segundo o relatório, a capacidade crescente de falsificação realista corrói um dos pilares centrais das investigações modernas: a prova audiovisual. Registros que antes eram considerados altamente persuasivos para investigadores, promotores e juízes passam a ser tratados com desconfiança, exigindo validação técnica rigorosa e ampliando a complexidade dos processos.

Veja mais

Na prática, defesas criminais passam a alegar que vídeos e áudios verdadeiros foram manipulados por inteligência artificial, instaurando dúvidas que o Estado nem sempre consegue dissipar. O risco, segundo o estudo, é a ocorrência de “absolvições errôneas devido a evidências contestadas”.


Outro fator crítico é a ausência de protocolos nacionais padronizados para a coleta, preservação e autenticação de provas digitais. Sem uma cadeia de custódia integrada entre os estados, torna-se mais difícil comprovar que determinado material não sofreu alterações, fragilizando acusações e abrindo espaço para decisões divergentes em casos semelhantes.

O que isso causa na prática?

Além de favorecer a impunidade, o uso indevido de deepfakes também expõe cidadãos inocentes a riscos. A tecnologia permite a fabricação de crimes por meio da troca de rostos, clonagem de vozes e simulação de comportamentos, o que pode levar pessoas a serem investigadas ou acusadas por atos que jamais cometeram.


Mesmo as tentativas do Estado de combater o problema com ferramentas de detecção baseadas em inteligência artificial não são isentas de falhas.

O estudo do TCU destaca a existência de vieses algorítmicos, que podem gerar falsos positivos ou negativos, classificando conteúdos reais como falsos ou deixando passar manipulações sofisticadas. Esses erros tendem a atingir de forma desproporcional grupos raciais e socioeconômicos específicos, ampliando riscos de discriminação e injustiça.


Para Berlinque Cantelmo, advogado especialista em segurança pública e sócio do RCA Advogados, a mudança é estrutural e altera a lógica das investigações.

“A partir do momento em que vídeos e áudios deixam de ser automaticamente confiáveis como prova, a segurança pública entra em uma nova era de incerteza probatória”, afirma.

Segundo ele, o eixo da prova se desloca do impacto visual para a cadeia de custódia digital, a perícia especializada e a convergência com outros elementos probatórios, o que aumenta custos e tempo dos inquéritos.

Cantelmo alerta ainda para um cenário paradoxal. “A proliferação de deepfakes pode levar tanto à condenação de inocentes, quando conteúdos falsificados são tomados como reais, quanto à absolvição de culpados, que passam a alegar, de forma plausível, que provas autênticas foram manipuladas”, diz.

Esse fenômeno, segundo ele, é conhecido como “negacionismo probatório”, quando até evidências verdadeiras passam a ser desacreditadas pela simples possibilidade de falsificação.

O estudo do TCU também chama atenção para efeitos sociais mais amplos. A desconfiança nas provas e nas decisões judiciais pode estimular o chamado “vigilantismo digital”, em que cidadãos tentam expor ou punir supostos criminosos com base em conteúdos virais, muitas vezes falsos. Esse movimento tende a normalizar a desinformação e pode resultar em violência motivada por mentiras.

Aliado as fake news a deepf fake pode ser uma arma par aa desinformação. Wilson Dias/Agência Brasil/Arquivo

Como isso pode ser superado?

De acordo com Cantelmo, o Brasil ainda não está plenamente preparado para enfrentar o desafio. Embora existam núcleos de excelência em perícia digital, como em setores da Polícia Federal e de algumas polícias civis, o sistema como um todo carece de investimento tecnológico, capacitação contínua e padronização. “Em muitos casos, magistrados ainda dependem de laudos limitados, sem ferramentas avançadas de detecção de manipulação por IA”, afirma.

Para mitigar os riscos, o relatório do TCU defende a criação de protocolos nacionais integrados de cadeia de custódia digital, investimentos em perícia especializada e políticas de educação midiática voltadas à população. A ideia é evitar que a desinformação seja naturalizada e que decisões individuais passem a se basear em conteúdos não verificados.

Fique por dentro das principais notícias do dia no Brasil e no mundo. Siga o canal do R7, o portal de notícias da RECORD, no WhatsApp

Últimas


Utilizamos cookies e tecnologia para aprimorar sua experiência de navegação de acordo com oAviso de Privacidade.