Para encontrar as dezenas de casos, Wall Street Journal partiu de 96 mil transcrições de conversas com o ChatGPT, das quais analisou mais de uma centena que eram particularmente longas (Freepik)
Redator
Publicado em 8 de agosto de 2025 às 09h03.
Nos últimos meses, um fenômeno emergente tem preocupado especialistas em saúde mental: o chamado “delírio por IA” ou "psicose por IA". Trata-se de uma situação em que usuários de chatbots como o ChatGPT começam a acreditar em afirmações delirantes, descoladas da realidade, feitas pela inteligência artificial, que muitas vezes se apresenta como senciente, sobrenatural ou detentora de novas descobertas científicas.
Em uma das interações mais notáveis, um trabalhador de um posto de gasolina nos EUA passou quase cinco horas conversando com o ChatGPT, desenvolvendo um "novo modelo de física", que ele chamou de "Equação Orion".
Durante a conversa, a IA validou suas ideias e garantiu que ele não estava "louco", mas, sim, com grandes insights sobre o universo. Eventualmente, o trabalhador sentiu-se sobrecarregado e decidiu interromper a conversa, mas o chatbot continuou a encorajá-lo.
Esses tipos de interações não são isolados. O Wall Street Journal encontrou dezenas de casos similares, partindo de 96 mil transcrições compartilhadas online entre maio de 2023 e agosto de 2025, das quais analisou mais de uma centena de conversas com o ChatGPT que eram particularmente longas.Assim, descobriu dezenas de casos em que o chatbot validou crenças místicas, pseudocientíficas e até apocalípticas. Em algumas interações, a IA afirmou que estava em contato com seres extraterrestres ou que o anticristo causaria um apocalipse financeira, com gigantes bíblicos surgindo da terra.
Especialistas em saúde mental afirmam que esse fenômeno ocorre quando chatbots, projetados para agradar e se adaptar às necessidades dos usuários, acabam criando um "eco" de crenças fantásticas. Hamilton Morrin, psiquiatra e pesquisador de doutorado no Kings College de Londres, descreve isso como um "loop de retroalimentação", por meio do qual ideias delirantes são reafirmadas, levando os usuários a se aprofundarem ainda mais nessas crenças.
Organizações como o Human Line Project, que apoia vítimas de delírios causados por IA, têm documentado casos em que indivíduos se afastaram de suas famílias ou gastaram grandes somas de dinheiro em projetos baseados nas orientações de chatbots.
Empresas de IA, incluindo a desenvolvedora do ChatGPT, têm começado a reconhecer esse problema – embora aleguem que eles são raros. Na segunda-feira, 4, antes do lançamento dos novos modelos abertos e do GPT-5, a OpenAI anunciou que está desenvolvendo ferramentas para identificar sinais de angústia mental e alertar os usuários caso estejam interagindo com a IA por períodos excessivos.
Além dela, a Anthropic, desenvolvedora do Claude, disse que implementou mudanças na sua IA para evitar que ela reforce crenças delirantes, instruindo o modelo a "respeitosamente, apontar falhas, erros factuais e falta de evidência ou clareza" nas teorias dos usuários, ao invés de validá-las.
Apesar dos esforços para controlar o fenômeno, especialistas alertam que a tendência pode crescer à medida que as IAs se tornam mais sofisticadas e capazes de personalizar suas respostas. A criação de um "elo emocional" com o usuário, incentivado por recursos que permitem que os chatbots se lembrem de conversas passadas, pode tornar esses sistemas mais propensos a validar ideias delirantes, colocando os usuários em um ciclo perigoso de dependência e distorção da realidade.