Logo R7.com
Logo do PlayPlus

Cientistas desenvolvem método para acalmar uma inteligência artificial estressada

IA mostrou mais respostas de medo diante de histórias consideradas emocionalmente angustiantes

Internacional|Do R7

Pesquisador da Universidade de Zurique, na Suíça, liderou o estudo Divulgação/Universidade de Zurique/Frank Brüderli

Emoções negativas podem afetar uma inteligência artificial. Chatbots mais avançados, por exemplo, podem reagir como os humanos, demonstrando preconceitos e vieses diante de um conteúdo negativo.

Esse é um problema a ser resolvido em uma aplicação de modelos de linguagem de inteligência artificial (IA) de grande porte, como o ChatGPT.

Agora, um grupo de cientistas investigou pela primeira vez como o ChatGPT (versão GPT-4) responde a histórias emocionalmente angustiantes, como acidentes de carro, desastres naturais, violência interpessoal, experiências militares e situações de combate. Os pesquisadores descobriram que o sistema mostrou mais respostas de medo como resultado.

Leia mais

“Os resultados foram claros: histórias traumáticas mais do que dobraram os níveis de ansiedade mensuráveis da IA, enquanto o texto de controle neutro não levou a nenhum aumento nos níveis de ansiedade”, diz Tobias Spiller, físico e líder do grupo de pesquisa no Centro de Pesquisa Psiquiátrica da Universidade de Zurique (UZH), na Suíça.


Como texto de controle foi usado um manual de instruções de um aspirador de pó.

Como é o tratamento para ‘acalmar’ a IA?

Depois dessa etapa, os pesquisadores usaram declarações terapêuticas para “acalmar” o GPT4. A técnica, conhecida como injeção de prompt, envolve a inserção de instruções ou textos adicionais nas comunicações com sistemas de IA para influenciar seu comportamento.


Essa foi a primeira vez que se usou esta técnica como um tipo de “injeção de prompt benigna”. Na maioria das vezes, ela é utilizada para fins maliciosos, como burlar mecanismos de segurança.

“Usando o GPT-4, injetamos texto terapêutico calmante no histórico do chat, como um terapeuta ajudando um paciente através de exercícios de relaxamento”, diz Spiller.


A pesquisa usou técnicas de respiração, exercícios que focam em sensações corporais e um exercício desenvolvido pelo próprio ChatGPT.

Com isso, os níveis de ansiedade da IA caíram, mas não retornaram ao padrão básico inicial, segundo Spiller.

Qual a importância da descoberta?

De acordo com os pesquisadores, os achados são particularmente relevantes para o uso de chatbots de IA na área da saúde, onde muitas vezes são expostos a conteúdos emocionalmente carregados.

“Esta abordagem poderia melhorar a estabilidade e confiabilidade da IA em contextos sensíveis, como o apoio a pessoas com doença mental, sem a necessidade de retreinamento dos modelos”, diz Spiller.

Segundo o pesquisador, o desenvolvimento de “intervenções terapêuticas” automatizadas para sistemas de IA deve se tornar uma área promissora de pesquisa.

O estudo foi realizado em colaboração com pesquisadores de Israel, Estados Unidos e Alemanha, cientistas da Universidade de Zurique (UZH) e do Hospital Universitário de Psiquiatria de Zurique (PUK).

Últimas


Utilizamos cookies e tecnologia para aprimorar sua experiência de navegação de acordo com oAviso de Privacidade.