Logo R7.com
RecordPlus
Notícias R7 – Brasil, mundo, saúde, política, empregos e mais

Pesquisa revela limites preocupantes da terapia por IA

Estudo científico aponta falhas éticas e riscos no uso de chatbots como terapeutas virtuais

Fala Ciência

Fala Ciência|Do R7

  • Google News
Chatbots podem falhar em situações de crise. (Foto: Fala Ciência via Gemini) Fala Ciência

A busca por apoio emocional em ferramentas de inteligência artificial cresce em ritmo acelerado. Plataformas como o ChatGPT têm sido usadas por milhares de pessoas em momentos de ansiedade, tristeza e crise. No entanto, uma nova investigação científica sugere que esses sistemas podem não estar preparados para assumir o papel de conselheiros em saúde mental.

O estudo intitulado Como os conselheiros com mestrado em Direito violam os padrões éticos na prática da saúde mental: uma estrutura informada pela prática, liderado por Zainab Iftikhar e publicado em 2025 na revista científica Anais da Conferência AAAI/ACM sobre IA, Ética e Sociedade (DOI: 10.1609/aies.v8i2.36632), analisou como modelos de linguagem se comportam quando orientados a atuar como terapeutas.


Os resultados acendem um alerta importante.

Empatia parece real, mas não é


Os pesquisadores testaram diferentes modelos amplamente utilizados, incluindo versões da série GPT, Claude e Llama, simulando atendimentos baseados em terapia cognitivo-comportamental. Em seguida, psicólogos clínicos avaliaram as interações sob a ótica ética.

A análise identificou 15 riscos distintos, organizados em cinco grandes áreas problemáticas:


• Respostas genéricas que ignoram o contexto individual
• Condução excessivamente diretiva da conversa
• Uso de linguagem que simula empatia sem compreensão real
• Possíveis vieses relacionados a gênero, cultura ou religião
• Falhas graves na gestão de crises, inclusive em situações com ideação suicida

Em outras palavras, embora os chatbots consigam reproduzir conceitos técnicos, eles não demonstram julgamento clínico nem responsabilidade profissional.


O limite dos prompts na terapia com IA

Uma das hipóteses avaliadas foi se instruções específicas poderiam tornar o aconselhamento por IA mais seguro. Muitos usuários recorrem a comandos como “aja como terapeuta cognitivo-comportamental” na tentativa de melhorar a qualidade da resposta.

Contudo, a pesquisa mostrou que prompts bem elaborados não resolvem o problema central. O modelo continua operando com base em padrões estatísticos aprendidos, sem consciência, escuta ativa ou capacidade real de avaliar risco.

Portanto, a sofisticação da instrução não substitui formação clínica, supervisão ou responsabilidade ética.

A lacuna regulatória preocupa especialistas

Na prática clínica humana, erros podem ocorrer. Entretanto, existem conselhos profissionais, códigos de ética e mecanismos de responsabilização. No caso dos sistemas de IA, esse arcabouço ainda é incipiente.

Esse vazio regulatório levanta questões fundamentais:

• Quem responde por danos causados por aconselhamento inadequado?
• Como monitorar vieses e falhas em larga escala?
• Quais critérios mínimos devem ser exigidos antes da implementação clínica?

Sem diretrizes claras, o risco é que ferramentas desenvolvidas para ampliar o acesso acabem agravando vulnerabilidades.

IA na saúde mental: ameaça ou oportunidade?

Apesar das falhas identificadas, o estudo não descarta o uso da inteligência artificial na área. Pelo contrário, reconhece seu potencial para ampliar o acesso a informações e oferecer suporte inicial.

No entanto, a aplicação em contextos de alto risco exige avaliação rigorosa, supervisão humana e critérios éticos bem definidos. A tecnologia pode ser aliada, mas não substituta da psicoterapia conduzida por profissionais qualificados.

Diante do crescimento do uso dessas ferramentas, a mensagem central é clara: inovação precisa caminhar junto com responsabilidade.

Últimas


Utilizamos cookies e tecnologia para aprimorar sua experiência de navegação de acordo com oAviso de Privacidade.