Decisão do STJ marca um novo limite para o uso de inteligência artificial na Justiça
Justiça não aceita laudos gerados por IA como prova em processo criminal
LEIA AQUI O RESUMO DA NOTÍCIA
Produzido pela Ri7a - a Inteligência Artificial do R7

Em abril de 2026, o Superior Tribunal de Justiça (STJ) tomou uma decisão inédita: disse que um relatório feito com ajuda de inteligência artificial generativa não podia ser usado como prova para acusar alguém em um processo criminal. Na prática, foi como se a Justiça avisasse: “não dá para colocar alguém no banco dos réus confiando apenas no chute de uma máquina bem treinada”.
Quero explicar aqui, em linguagem de dia a dia, o que aconteceu, por que isso é importante para qualquer cidadão e o que essa história nos ensina sobre o uso responsável de IA.
A história em poucas palavras
O caso começou num jogo de futebol em Mirassol, em 2025, em que um segurança do Palmeiras disse ter sido vítima de injúria racial. Havia um áudio, e esse áudio foi analisado pelo Instituto de Criminalística, ou seja, por peritos humanos especializados em som.
O laudo oficial concluiu que não dava para afirmar que a palavra racista tinha sido dita. Inconformada, a polícia resolveu tentar de outro jeito: pegou o mesmo áudio, usou ferramentas de IA generativa de uso geral (como modelos de texto) e produziu um relatório dizendo o contrário, ou seja, que a ofensa teria acontecido.
Esse relatório de IA passou a ser usado para sustentar a acusação do Ministério Público. A defesa levou o caso até o STJ, que mandou tirar o relatório feito com IA do processo e mandou o caso voltar para a primeira instância, para o juiz decidir se a denúncia se sustenta sem essa “prova”.
Traduzindo: o STJ disse que aquele documento gerado por IA não é confiável o bastante para ajudar a colocar alguém no banco dos réus.
Não é só “pode usar IA” ou “não pode usar IA”
A parte mais interessante da decisão é que o STJ não ficou preso à pergunta “é legal ou ilegal usar IA?”. O tribunal foi mais fundo e perguntou outra coisa: “esse tipo de resultado da IA é confiável o suficiente para ser tratado como prova?”.
Ou seja, não basta ter sido obtido “dentro da lei”. Para virar prova, o material precisa ajudar a construir conhecimento confiável sobre o que aconteceu de verdade.
O STJ traz uma ideia que, em linguagem simples, é mais ou menos assim:
- Tem prova ilegal (obtida contra a lei).
- E tem prova que, mesmo sendo coletada de forma correta, é tão frágil ou tão duvidosa que não serve para fundamentar uma acusação séria.
A IA generativa, do jeito como foi usada nesse caso, entrou na segunda categoria: algo que pode até existir no processo, mas não é prova confiável sobre o fato.
Por que a IA generativa não passou no teste
O voto do relator, ministro Reynaldo Soares da Fonseca, aponta dois problemas centrais da IA generativa, pelo menos no modo como ela foi usada nesse caso.
Risco de “alucinação”: quando a máquina inventa com convicção
Modelos de linguagem (como os grandes chats de IA) funcionam olhando para padrões de texto e calculando probabilidades do que “faz sentido” vir em seguida. Eles não “ouvem” o mundo, não conferem fatos em tempo real; eles calculam o que é mais provável, com base no que aprenderam.
Isso significa que eles podem gerar respostas muito convincentes… mas erradas. É o famoso problema da alucinação: a IA completa a história, inventa detalhes, preenche lacunas, como se tudo fosse verdade.
No dia a dia, isso pode significar um e‑mail com uma informação equivocada. Em processo penal, isso pode significar alguém sendo acusado a partir de um chute bem articulado.
Ferramenta errada para o tipo de prova
O segundo problema é mais técnico, mas dá para entender com uma metáfora simples. A polícia usou ferramentas de IA feitas para lidar com texto, não para fazer análise científica de áudio (fonética forense).
É como chamar um excelente redator para fazer um exame de DNA. Ele pode escrever um texto bonito sobre o DNA, mas não é o profissional certo, nem tem os instrumentos adequados para fazer a análise.
O STJ destacou que esses modelos de linguagem não fazem análise espectrográfica do som; eles apenas geram texto a partir de transcrições e descrições. Logo, não podem substituir uma perícia oficial em áudio feita por especialistas.
O que isso protege na prática
Pode parecer uma discussão muito técnica, mas o impacto é bem concreto para qualquer pessoa.
A decisão ajuda a proteger:
- Seu direito de defesa: você não pode precisar se defender de um “laudo” que ninguém consegue explicar direito, porque veio de uma caixa-preta algorítmica.
- A necessidade de prova séria antes de acusar: para alguém ser formalmente acusado, o Estado tem de mostrar mais do que uma suspeita; precisa de elementos minimamente confiáveis.
- A confiança na Justiça: se começarmos a aceitar qualquer saída de IA como prova, corremos o risco de decisões serem baseadas em aparências tecnológicas, não em evidências sólidas.
Em outras palavras, o STJ está dizendo: “tecnologia não pode virar atalho para acusar pessoas sem prova robusta”.
IA como ferramenta, não como oráculo
Um ponto importante: o tribunal não proibiu o uso de IA no sistema de Justiça. A mensagem é mais equilibrada: IA pode ser usada, mas precisa respeitar alguns limites.
Alguns exemplos de uso aceitável, em linha com o que a própria Resolução 615 do CNJ recomenda para o Judiciário:
- Organizar documentos, transcrever áudios, resumir peças compridas.
- Ajudar a encontrar decisões parecidas (precedentes).
- Sugerir caminhos de investigação, que depois precisam ser checados por humanos.
O que não pode é o seguinte:
- Trocar a perícia humana, feita com método científico, por um texto produzido por IA generativa.
- Usar IA justamente para tentar “driblar” uma perícia que não confirmou a tese da acusação.
- Tratar “a IA disse” como se fosse sinônimo de “está provado”.
O STJ reforça algo que o CNJ já vinha dizendo: sistemas de IA devem ser supervisionados por humanos, precisam ser transparentes, auditáveis e contestáveis. No processo penal, em que a liberdade está em jogo, esse cuidado tem de ser ainda maior.
O que muda para investigações e denúncias daqui para frente
Na prática, a decisão do STJ deixa alguns recados claros para quem atua no sistema de Justiça.
- Polícia: pode usar IA para apoiar a investigação, mas não para “fabricar” uma prova nova que derruba laudo oficial sem explicar o método.
- Ministério Público: fica muito mais arriscado oferecer denúncia baseada em relatórios de IA que contradizem perícias oficiais.
- Defesa: ganha um argumento forte para questionar documentos gerados por IA que não tenham descrição clara de ferramenta, versão, parâmetros, prompts e limitações.
- Juízes: passam a ter um critério mais claro para admitir ou não esse tipo de material como prova: não basta estar “bonito no papel”; precisa ser cientificamente confiável.
Talvez uma das maiores contribuições do caso seja reforçar o papel da perícia oficial. O tribunal deixou claro que, na dúvida entre laudo de peritos e relatório de IA genérica, vale o laudo.
E o que isso diz sobre a nossa relação com a IA no dia a dia
Tirando o “juridiquês” da equação, essa decisão joga luz em um dilema que todos nós vamos enfrentar cada vez mais.
Até onde podemos confiar em respostas de sistemas de IA?Quando elas ajudam, quando elas atrapalham e quando elas viram um perigo?
No cotidiano, usamos IA para escrever e-mails, organizar ideias, traduzir textos, tirar dúvidas rápidas. Isso é ótimo para produtividade, mas nem de longe significa que a resposta da IA é “a verdade absoluta”.
O que o STJ fez foi trazer esse bom senso para o processo penal:
- IA é uma ferramenta poderosa, mas continua sendo uma ferramenta.
- Ela não substitui método científico, perícia qualificada e responsabilidade humana.
No fim, a mensagem é simples e vale para todo mundo:se você vai tomar decisões sérias – na Justiça, na medicina, nas finanças ou na vida – use a IA como apoio, mas não terceirize seu julgamento para a máquina.














