Logo R7.com
RecordPlus
Inteligência Cotidiana

Decisão do STJ marca um novo limite para o uso de inteligência artificial na Justiça

Justiça não aceita laudos gerados por IA como prova em processo criminal

Inteligência Cotidiana|João GaldinoOpens in new window

  • Google News

LEIA AQUI O RESUMO DA NOTÍCIA

  • O STJ decidiu que laudos gerados por IA não são provas confiáveis em processos criminais.
  • Um caso de injúria racial foi analisado, onde um laudo de IA contradizia o laudo oficial de peritos humanos.
  • A Corte enfatizou que a IA deve ser usada com cautela e supervisionada por humanos no sistema de Justiça.
  • A decisão reforça a importância das perícias oficiais e a necessidade de provas robustas para acusar alguém.

Produzido pela Ri7a - a Inteligência Artificial do R7

STF define limites de uso de Inteligencia Artificial Imagem criada por Inteligência Artificial - Google Nano Banana 2

Em abril de 2026, o Superior Tribunal de Justiça (STJ) tomou uma decisão inédita: disse que um relatório feito com ajuda de inteligência artificial generativa não podia ser usado como prova para acusar alguém em um processo criminal. Na prática, foi como se a Justiça avisasse: “não dá para colocar alguém no banco dos réus confiando apenas no chute de uma máquina bem treinada”.

Quero explicar aqui, em linguagem de dia a dia, o que aconteceu, por que isso é importante para qualquer cidadão e o que essa história nos ensina sobre o uso responsável de IA.


A história em poucas palavras

O caso começou num jogo de futebol em Mirassol, em 2025, em que um segurança do Palmeiras disse ter sido vítima de injúria racial. Havia um áudio, e esse áudio foi analisado pelo Instituto de Criminalística, ou seja, por peritos humanos especializados em som.

O laudo oficial concluiu que não dava para afirmar que a palavra racista tinha sido dita. Inconformada, a polícia resolveu tentar de outro jeito: pegou o mesmo áudio, usou ferramentas de IA generativa de uso geral (como modelos de texto) e produziu um relatório dizendo o contrário, ou seja, que a ofensa teria acontecido.


Esse relatório de IA passou a ser usado para sustentar a acusação do Ministério Público. A defesa levou o caso até o STJ, que mandou tirar o relatório feito com IA do processo e mandou o caso voltar para a primeira instância, para o juiz decidir se a denúncia se sustenta sem essa “prova”.

Traduzindo: o STJ disse que aquele documento gerado por IA não é confiável o bastante para ajudar a colocar alguém no banco dos réus.


Não é só “pode usar IA” ou “não pode usar IA”

A parte mais interessante da decisão é que o STJ não ficou preso à pergunta “é legal ou ilegal usar IA?”. O tribunal foi mais fundo e perguntou outra coisa: “esse tipo de resultado da IA é confiável o suficiente para ser tratado como prova?”.

Ou seja, não basta ter sido obtido “dentro da lei”. Para virar prova, o material precisa ajudar a construir conhecimento confiável sobre o que aconteceu de verdade.


O STJ traz uma ideia que, em linguagem simples, é mais ou menos assim:

  • Tem prova ilegal (obtida contra a lei).
  • E tem prova que, mesmo sendo coletada de forma correta, é tão frágil ou tão duvidosa que não serve para fundamentar uma acusação séria.

A IA generativa, do jeito como foi usada nesse caso, entrou na segunda categoria: algo que pode até existir no processo, mas não é prova confiável sobre o fato.

Por que a IA generativa não passou no teste

O voto do relator, ministro Reynaldo Soares da Fonseca, aponta dois problemas centrais da IA generativa, pelo menos no modo como ela foi usada nesse caso.

Risco de “alucinação”: quando a máquina inventa com convicção

Modelos de linguagem (como os grandes chats de IA) funcionam olhando para padrões de texto e calculando probabilidades do que “faz sentido” vir em seguida. Eles não “ouvem” o mundo, não conferem fatos em tempo real; eles calculam o que é mais provável, com base no que aprenderam.

Isso significa que eles podem gerar respostas muito convincentes… mas erradas. É o famoso problema da alucinação: a IA completa a história, inventa detalhes, preenche lacunas, como se tudo fosse verdade.

No dia a dia, isso pode significar um e‑mail com uma informação equivocada. Em processo penal, isso pode significar alguém sendo acusado a partir de um chute bem articulado.

Ferramenta errada para o tipo de prova

O segundo problema é mais técnico, mas dá para entender com uma metáfora simples. A polícia usou ferramentas de IA feitas para lidar com texto, não para fazer análise científica de áudio (fonética forense).

É como chamar um excelente redator para fazer um exame de DNA. Ele pode escrever um texto bonito sobre o DNA, mas não é o profissional certo, nem tem os instrumentos adequados para fazer a análise.

O STJ destacou que esses modelos de linguagem não fazem análise espectrográfica do som; eles apenas geram texto a partir de transcrições e descrições. Logo, não podem substituir uma perícia oficial em áudio feita por especialistas.

O que isso protege na prática

Pode parecer uma discussão muito técnica, mas o impacto é bem concreto para qualquer pessoa.

A decisão ajuda a proteger:

  • Seu direito de defesa: você não pode precisar se defender de um “laudo” que ninguém consegue explicar direito, porque veio de uma caixa-preta algorítmica.
  • A necessidade de prova séria antes de acusar: para alguém ser formalmente acusado, o Estado tem de mostrar mais do que uma suspeita; precisa de elementos minimamente confiáveis.
  • A confiança na Justiça: se começarmos a aceitar qualquer saída de IA como prova, corremos o risco de decisões serem baseadas em aparências tecnológicas, não em evidências sólidas.

Em outras palavras, o STJ está dizendo: “tecnologia não pode virar atalho para acusar pessoas sem prova robusta”.

IA como ferramenta, não como oráculo

Um ponto importante: o tribunal não proibiu o uso de IA no sistema de Justiça. A mensagem é mais equilibrada: IA pode ser usada, mas precisa respeitar alguns limites.

Alguns exemplos de uso aceitável, em linha com o que a própria Resolução 615 do CNJ recomenda para o Judiciário:

  • Organizar documentos, transcrever áudios, resumir peças compridas.
  • Ajudar a encontrar decisões parecidas (precedentes).
  • Sugerir caminhos de investigação, que depois precisam ser checados por humanos.

O que não pode é o seguinte:

  • Trocar a perícia humana, feita com método científico, por um texto produzido por IA generativa.
  • Usar IA justamente para tentar “driblar” uma perícia que não confirmou a tese da acusação.
  • Tratar “a IA disse” como se fosse sinônimo de “está provado”.

O STJ reforça algo que o CNJ já vinha dizendo: sistemas de IA devem ser supervisionados por humanos, precisam ser transparentes, auditáveis e contestáveis. No processo penal, em que a liberdade está em jogo, esse cuidado tem de ser ainda maior.

O que muda para investigações e denúncias daqui para frente

Na prática, a decisão do STJ deixa alguns recados claros para quem atua no sistema de Justiça.

  • Polícia: pode usar IA para apoiar a investigação, mas não para “fabricar” uma prova nova que derruba laudo oficial sem explicar o método.
  • Ministério Público: fica muito mais arriscado oferecer denúncia baseada em relatórios de IA que contradizem perícias oficiais.
  • Defesa: ganha um argumento forte para questionar documentos gerados por IA que não tenham descrição clara de ferramenta, versão, parâmetros, prompts e limitações.
  • Juízes: passam a ter um critério mais claro para admitir ou não esse tipo de material como prova: não basta estar “bonito no papel”; precisa ser cientificamente confiável.

Talvez uma das maiores contribuições do caso seja reforçar o papel da perícia oficial. O tribunal deixou claro que, na dúvida entre laudo de peritos e relatório de IA genérica, vale o laudo.

E o que isso diz sobre a nossa relação com a IA no dia a dia

Tirando o “juridiquês” da equação, essa decisão joga luz em um dilema que todos nós vamos enfrentar cada vez mais.

Até onde podemos confiar em respostas de sistemas de IA?Quando elas ajudam, quando elas atrapalham e quando elas viram um perigo?

No cotidiano, usamos IA para escrever e-mails, organizar ideias, traduzir textos, tirar dúvidas rápidas. Isso é ótimo para produtividade, mas nem de longe significa que a resposta da IA é “a verdade absoluta”.

O que o STJ fez foi trazer esse bom senso para o processo penal:

  • IA é uma ferramenta poderosa, mas continua sendo uma ferramenta.
  • Ela não substitui método científico, perícia qualificada e responsabilidade humana.

No fim, a mensagem é simples e vale para todo mundo:se você vai tomar decisões sérias – na Justiça, na medicina, nas finanças ou na vida – use a IA como apoio, mas não terceirize seu julgamento para a máquina.

Os textos aqui publicados não refletem necessariamente a opinião do Grupo Record.

Últimas


Utilizamos cookies e tecnologia para aprimorar sua experiência de navegação de acordo com oAviso de Privacidade.