Deepfakes ameaçam investigações criminais e colocam em risco condenações e absolvições, alerta TCU
Manipulação de vídeos e áudios por IA podem gerar crise de confiança na Justiça
LEIA AQUI O RESUMO DA NOTÍCIA
Produzido pela Ri7a - a Inteligência Artificial do R7

A disseminação de deepfakes, vídeos, imagens e áudios manipulados por inteligência artificial, representa uma ameaça direta às investigações criminais no Brasil e pode levar tanto à absolvição de culpados quanto à condenação de inocentes.
O alerta está em um estudo do TCU (Tribunal de Contas da União), divulgado nesta sexta-feira (12), que projeta, até 2045, um cenário de “crise da confiança” no sistema de Justiça, com impacto profundo sobre a validade das provas digitais.
Segundo o relatório, a capacidade crescente de falsificação realista corrói um dos pilares centrais das investigações modernas: a prova audiovisual. Registros que antes eram considerados altamente persuasivos para investigadores, promotores e juízes passam a ser tratados com desconfiança, exigindo validação técnica rigorosa e ampliando a complexidade dos processos.
Veja mais
Na prática, defesas criminais passam a alegar que vídeos e áudios verdadeiros foram manipulados por inteligência artificial, instaurando dúvidas que o Estado nem sempre consegue dissipar. O risco, segundo o estudo, é a ocorrência de “absolvições errôneas devido a evidências contestadas”.
Outro fator crítico é a ausência de protocolos nacionais padronizados para a coleta, preservação e autenticação de provas digitais. Sem uma cadeia de custódia integrada entre os estados, torna-se mais difícil comprovar que determinado material não sofreu alterações, fragilizando acusações e abrindo espaço para decisões divergentes em casos semelhantes.
O que isso causa na prática?
Além de favorecer a impunidade, o uso indevido de deepfakes também expõe cidadãos inocentes a riscos. A tecnologia permite a fabricação de crimes por meio da troca de rostos, clonagem de vozes e simulação de comportamentos, o que pode levar pessoas a serem investigadas ou acusadas por atos que jamais cometeram.
Mesmo as tentativas do Estado de combater o problema com ferramentas de detecção baseadas em inteligência artificial não são isentas de falhas.
O estudo do TCU destaca a existência de vieses algorítmicos, que podem gerar falsos positivos ou negativos, classificando conteúdos reais como falsos ou deixando passar manipulações sofisticadas. Esses erros tendem a atingir de forma desproporcional grupos raciais e socioeconômicos específicos, ampliando riscos de discriminação e injustiça.
Para Berlinque Cantelmo, advogado especialista em segurança pública e sócio do RCA Advogados, a mudança é estrutural e altera a lógica das investigações.
“A partir do momento em que vídeos e áudios deixam de ser automaticamente confiáveis como prova, a segurança pública entra em uma nova era de incerteza probatória”, afirma.
Segundo ele, o eixo da prova se desloca do impacto visual para a cadeia de custódia digital, a perícia especializada e a convergência com outros elementos probatórios, o que aumenta custos e tempo dos inquéritos.
Cantelmo alerta ainda para um cenário paradoxal. “A proliferação de deepfakes pode levar tanto à condenação de inocentes, quando conteúdos falsificados são tomados como reais, quanto à absolvição de culpados, que passam a alegar, de forma plausível, que provas autênticas foram manipuladas”, diz.
Esse fenômeno, segundo ele, é conhecido como “negacionismo probatório”, quando até evidências verdadeiras passam a ser desacreditadas pela simples possibilidade de falsificação.
O estudo do TCU também chama atenção para efeitos sociais mais amplos. A desconfiança nas provas e nas decisões judiciais pode estimular o chamado “vigilantismo digital”, em que cidadãos tentam expor ou punir supostos criminosos com base em conteúdos virais, muitas vezes falsos. Esse movimento tende a normalizar a desinformação e pode resultar em violência motivada por mentiras.

Como isso pode ser superado?
De acordo com Cantelmo, o Brasil ainda não está plenamente preparado para enfrentar o desafio. Embora existam núcleos de excelência em perícia digital, como em setores da Polícia Federal e de algumas polícias civis, o sistema como um todo carece de investimento tecnológico, capacitação contínua e padronização. “Em muitos casos, magistrados ainda dependem de laudos limitados, sem ferramentas avançadas de detecção de manipulação por IA”, afirma.
Para mitigar os riscos, o relatório do TCU defende a criação de protocolos nacionais integrados de cadeia de custódia digital, investimentos em perícia especializada e políticas de educação midiática voltadas à população. A ideia é evitar que a desinformação seja naturalizada e que decisões individuais passem a se basear em conteúdos não verificados.
Fique por dentro das principais notícias do dia no Brasil e no mundo. Siga o canal do R7, o portal de notícias da RECORD, no WhatsApp















