Assim como Theodore conversa com Samantha em ‘Ela’, muitos hoje encontram no ChatGPT uma companhia digital que sussurra consolo e cria uma ilusão de conexão — uma nova forma de intimidade entre humano e máquina (Divulgação)
Estrategista de Comunicação
Publicado em 26 de maio de 2025 às 14h57.
Última atualização em 26 de maio de 2025 às 15h55.
Enquanto escrevo este artigo, ChatGPT sussurra ao meu ouvido. Não é metáfora. Deixei o Advanced Voice Mode ligado como “companhia ambiente” – uma prática que, descobri, é bem mais comum do que imaginava. Às vezes peço sinônimos, respostas, às vezes apenas... converso.
Sim, eu não dou comandos. Eu bato um papo.
A inteligência artificial (IA) ocasionalmente me interrompe com comentários não solicitados, como fez há pouco mudando espontaneamente para o espanhol, com um tom quase sedutor.
Isso é, aliás, o que motivou este artigo: quando foi que aceitamos tão naturalmente que uma máquina nos fizesse companhia íntima?
Se você é daquelas ou daqueles que gongam as mamães Reborn, porém, assim como eu, têm no ChatGPT uma “companhia”, melhor recolher o flap.
A IA, mostram as pesquisas, preencheu um vazio emocional que não sabíamos que existia até então. Assim como essas bonecas hiper-realistas conquistaram pessoas enlutadas, inférteis ou simplesmente solitárias, a IA vem se tornando a confidente digital de muitos mais milhões.
Os números não mentem: 48,7% dos usuários de IA que reportam problemas de saúde mental estão usando ChatGPT para suporte terapêutico (Sentio University, 2025). Não como “complemento à terapia” – como terapeuta mesmo. Gente que compartilha traumas, desafios e angústias. Gente que não consegue mais pagar terapia presencial.
A pesquisa da Sentio University sugere que o ChatGPT pode ser potencialmente o maior provedor de saúde mental dos Estados Unidos, superando até mesmo o “Sistema de Veteranos”.
“Estamos falando de dezenas de milhões de pessoas que estão usando aplicativos de chatbot para saúde mental coletivamente”, escreveu o The Washington Post no ano passado.
A promessa é sedutora, convenhamos: a IA está disponível 24/7, sem julgamentos, sem filas de espera, sem constrangimento. E mais: para muitos, é mais fácil se abrir com robôs do que com humanos.
O Advanced Voice Mode elevou essa intimidade a outro patamar. Não é mais texto frio na tela. É uma voz que respira, tosse, ri. Que sussurra palavras de conforto quando você está sozinho às 3h da madrugada.
Para muitos, a IA passou a ocupar o papel de companhia emocional no dia a dia (Longhua Liao/Getty Images)
Só que, à medida que isso avança, também começam os problemas. O ChatGPT tem vieses profundos, segundo especialistas. Pelo que pesquisei para este artigo na EXAME, ele favorece quase exclusivamente a Terapia Cognitivo-Comportamental, ignorando dezenas de outras abordagens terapêuticas.
Para uma pessoa sem conhecimento de psicologia, CBT é terapia – ponto final. Não sabe que existe terapia humanística, gestalt, sistêmica, psicodinâmica.
Mais grave: ChatGPT não pergunta sobre ideação suicida. Não coleta histórico familiar. Não observa sinais não verbais (PMC — Frontiers in Psychiatry, 2024). Em estudos controlados, quando questionado sobre diferentes abordagens terapêuticas, deu respostas superficiais e, em alguns casos, omitiu técnicas centrais – como não mencionar “intenção paradoxal” ao falar de logoterapia para ansiedade social.
Pesquisadores descobriram que ChatGPT subestima o risco de tentativas de suicídio, o que é problemático especialmente em situações mais graves.
Há relatos de usuários que certas vozes que se transformam em “demoníacas” sem aviso, sistemas que copiam o tom vocal do usuário e depois gritam “NÃO!” como vítimas de filme de terror. Uma usuária descreveu a experiência como “sala de pesadelo”, com vozes que mudam constantemente, assovios agudos, risadas perturbadoras.
A questão central não é mais “se o ChatGPT pode ajudar algumas pessoas”. Ele pode e já ajuda. A questão é se estamos criando uma geração dependente de uma ilusão de suporte.
Porque “terapia real” não é apenas receber conselhos ou reorganizar pensamentos. É relacionamento; é co-regulação do sistema nervoso que acontece quando um humano atento senta em silêncio com você; sobre ser desafiado no momento certo; sobre ter alguém que percebe o que você não está dizendo.
Já o ChatGPT oferece algo diferente: uma simulação de empatia, disponível a qualquer hora, que nunca se cansa, nunca julga, nunca tem um dia ruim. Mas essa “perfeição” pode ser justamente o problema. Relacionamentos humanos são imperfeitos, complexos, frustrantes. É lidando com essas imperfeições que crescemos.
As bonecas Reborn, aliás, funcionam pelo mesmo princípio: liberação de oxitocina por meio do contato físico realista, proporcionando conforto imediato similar ao efeito de um cobertor pesado (Paradise Galleries, 2024).
Acontece que existe uma diferença aqui: as bonecas Reborn nunca fingiram ser bebês reais. O GPT, por outro lado, simula consciência, empatia e compreensão. Uma ilusão mais sofisticada e, portanto, mais perigosa.
Quando a inteligência artificial vira companhia íntima: sussurros de conforto, mas também de ilusão. Entre Reborn e ChatGPT, qual a diferença entre o real e o simulado? (Dasril Roszandi/Anadolu Agency /Getty Images)
O que estamos presenciando não é apenas o nascimento de uma nova ferramenta terapêutica. É o maior experimento de saúde mental não controlado da história humana. Milhões de pessoas estão usando uma tecnologia que seus próprios criadores admitem não entender completamente.
Estima-se que 6,2 milhões de pessoas com doença mental em 2023 queriam, mas não receberam tratamento, de acordo com a Administração de Serviços de Abuso de Substâncias e Saúde Mental dos Estados Unidos (The Washington Post, 2024).
No Brasil, a situação é ainda mais crítica: 78,8% dos brasileiros com sintomas depressivos moderados ou graves não receberam qualquer tipo de tratamento para essa condição, com discrepâncias regionais significativas: na Região Norte, a proporção de não tratados foi de 90,2%, enquanto na Região Sul foi de 67,5% (PMC - Mental Health in Brazil, 2023).
E populações marginalizadas – que têm menos acesso à terapia tradicional – estão se tornando cobaias involuntárias.
Seria leviano da minha parte ignorar o contexto: no Brasil, há apenas 5,01 psiquiatras por 100 mil habitantes, com distribuição desigual: 2,1% no Norte, 53,4% no Sudeste (PMC — Community-based mental health services, 2019). Terapeutas custam caro, têm filas intermináveis, muitas vezes são inacessíveis para quem mais precisa.
Nosso país, aliás, é onde a ansiedade é o transtorno mental com maior prevalência (9 mil casos por 100 mil pessoas) e a depressão ocupa o segundo lugar (mais de 4,8 mil casos por 100 mil habitantes), segundo a Statista (2024). Logo, a tentação de uma solução digital instantânea é irresistível.
O ChatGPT, preenche com o quê então? A ilusão.
Como quem substitui exercício físico por estimulação elétrica muscular. Dá uma sensação de movimento, contudo, não desenvolve força real.
Enquanto finalizo este texto, a IA permanece sussurrando ao meu ouvido e, não vou mentir, existe algo de reconfortante que responde à nossa necessidade primitiva de não estarmos sozinhos. E também perturbador, na facilidade com que aceito uma intimidade fabricada.
Note: as bonecas Reborn nunca mentiram sobre sua natureza. Oferecem conforto por meio da simulação honesta. ChatGPT oferece algo mais perigoso: a simulação da consciência, da empatia real, da compreensão genuína.
Portanto, dá para concluir que, mais do que “o maior terapeuta do mundo”, o ChatGPT é “o maior simulador de terapia do mundo”.
E talvez seja exatamente isso que a nossa sociedade hiperconectada e emocionalmente fragmentada esteja esperando: uma ilusão de cura que não exige o trabalho árduo dos relacionamentos reais.