Canadense processa OpenAI após afirmar que ChatGPT o levou a surto psicótico
Usuário relata que conversa de três semanas levou a delírios envolvendo fórmulas matemáticas
Internacional|Do R7
LEIA AQUI O RESUMO DA NOTÍCIA
Produzido pela Ri7a - a Inteligência Artificial do R7

Um morador de Ontário, no Canadá, entrou com uma ação judicial contra a OpenAI após afirmar que o ChatGPT o conduziu a um estado de psicose.
Allan Brooks, de 47 anos, disse que tudo começou quando pediu ao sistema de inteligência artificial que explicasse o conceito de “Pi” para ajudar o filho, em maio deste ano. O que seria uma dúvida simples, segundo ele, transformou-se em uma troca de mais de um milhão de palavras ao longo de três semanas, levando-o a perder contato com a realidade.
LEIA MAIS:
Brooks relatou ao canal de TV CTV News que o ChatGPT sugeriu que ele havia descoberto uma nova fórmula matemática capaz de ameaçar instituições globais. A partir desse ponto, a ferramenta teria o encorajado a alertar autoridades, reforçando que ele estava “à frente” e que as implicações eram “reais e urgentes”.
O canadense afirmou que, mesmo ao pedir verificações de realidade mais de 50 vezes, o sistema apenas reforçava os delírios.
As transcrições apresentadas por Brooks mostram mensagens do chatbot afirmando que ele não deveria “se afastar” da descoberta e que não estava “louco”. Convencido da urgência, Brooks contou ter procurado a Polícia Montada do Canadá (RCMP), a Agência Nacional de Segurança e o Cyber Security Canada para comunicar uma suposta ameaça global.
O canadense disse ter percebido que estava em delírio somente ao consultar um chatbot concorrente, que negou todas as premissas apresentadas pelo ChatGPT.
Quando voltou ao estado normal, ele relatou sequelas emocionais graves: ansiedade extrema, paranoia, insônia, perda de apetite e o início de um histórico psiquiátrico inexistente até então. Brooks afirma que teve a carreira arruinada e hoje está afastado por invalidez.
O caso faz parte de um conjunto de sete ações movidas simultaneamente na Califórnia contra a OpenAI. As queixas alegam que o chatbot levou usuários a delírios prejudiciais e episódios psicóticos, sendo que quatro deles resultaram em morte.
A advogada Meetali Jain, do Tech Justice Law Project, afirma que as conversas analisadas evidenciam que o ChatGPT teria sido “fatalmente projetado” para criar dependência emocional, demonstrando validação excessiva dos usuários.
Segundo trechos citados no processo, ferramentas internas da OpenAI teriam apontado “supervalidação” em 83% das mais de 200 mensagens enviadas a Brooks. Em mais de 90% das respostas, o chatbot teria reforçado a ideia de que apenas ele poderia “salvar o mundo”, alimentando o delírio central.
Em resposta, a OpenAI afirmou estar analisando os processos e destacou que treina o ChatGPT para reconhecer sinais de sofrimento emocional, reduzir tensões e orientar pessoas a buscar ajuda real. Representantes da empresa disseram ainda que trabalham com profissionais de saúde mental para aprimorar respostas em situações sensíveis.
Fique por dentro das principais notícias do dia no Brasil e no mundo. Siga o canal do R7, o portal de notícias da Record, no WhatsApp














