Algoritmo que prevê reincidência criminal é pior que leigos

Estudou comparou eficiência do programa com vereditos de freelances contratados pela internet. Empresa diz que estudo é incompleto

Programa conseguiu 62,5% de eficiência, contra 65% dos leigos

Programa conseguiu 62,5% de eficiência, contra 65% dos leigos

Pexels

Um estudo dirigido por pesquisadores de ciência da computação da Dartmouth College concluiu que o principal software usado pela Justiça norte-americana para prever se condenados serão reincidentes é pior que leigos em sistemas de leis. O COMPAS (sigla em inglês de Perfis de Gerenciamento Correccional de Delinquentes para Sanções Alternativas, em tradução livre) funciona com inteligência artificial e é utilizado por juízes para aumentar ou reduzir penas de criminosos.

A avaliação coloca em xeque o trabalho da Equivant, empresa que fornece "soluções tecnológicas" para sistemas judiciais em todos os Estados Unidos. O software junta dados dos acusados e produz um perfil que descreve, entre outras coisas, a periculosidade e a possibilidade de um novo crime ser cometido, com base em 137 variáveis.

O caso representa um novo questionamento quanto aos limites da pesquisa com inteligência artificial e seus usos.

Pessoas com perfis considerados negativos ficam mais tempo atrás das grades e têm seus pedidos de liberdade condicional negados.

Uma complicação adicional é que o COMPAS é considerado um "segredo comercial". Seu código nunca foi sequer avaliado por comissões independentes, ainda que mais de um milhão de perfis já tenham sido traçados desde o início dos anos 2000, quando foi implantado.

Em um dos casos, um homem acusado de dirigir um veículo usado em um tiroteio recebeu uma pena de 11 anos — seis de prisão e mais cinco de supervisão — após uma avaliação do COMPAS traçar um perfil negativo dele.

A pesquisa publicada no Science Advances comparou avaliações feitas por réus e por leigos completos em sistemas judiciais. Foram selecionados mil casos já revisados pela Justiça, divididos aleatoriamente em 50 grupos de 20 pessoas, selecionadas em um serviço da Amazon para freelancers. Elas receberam formulários simples com nome do réu, idade, crime que estava sendo acusado e acusações anteriores.

A pergunta que deveria responder era: essa pessoa cometerá outro crime dentro de dois anos? Bastava responder sim ou não.

Algoritmos podem ser juízes?

Os resultados mostraram que os leigos acertaram em 67% dos casos, enquanto o algoritmo do COMPAS alcançou uma taxa de 62,5%. Embora os especialistas reconheçam que a pesquisa não é abrangente o bastante, disseram em entrevista ao site The Register que é o melhor que pode ser feito sem conhecer o funcionamento do programa.

Para Julia Dressel e Hany Farid, líderes da pesquisa, softwares que impactam de maneira tão forte a vida de uma pessoa, deveriam seguir padrões muito mais altos que os atuais. No mínimo ele deve superar o julgamento humano, afirma Dressel. Segundo ela, a tendência é que algoritmos como esse reforcem preconceitos racistas, uma vez que réus negros tendem a ter mais condenações anteriores.

Os pesquisadores sugerem que profissionais da área provavelmente alcançariam resultados muito melhores.

Em resposta pública, a Equivant afirmou que não utiliza 137 variáveis, como descrito no estudo, mas apenas seis. Segundo eles, mais de 100 dessas informações são exigências do sistema judicial e não são usadas para as predições.

A dupla de pesquisadoras argumentou que ainda assim a taxa de sucesso continua baixa demais para os padrões exigidos.