Inteligência Artificial

Ex-pesquisador da OpenAI expõe o que há por trás de ‘delírios da IA’

Análise independente sugere medidas preventivas e reforça a importância do suporte humano diante de respostas automatizadas de chatbots

Análise de conversa de três semanas mostra que IAs necessitam de reforços em protocolos de segurança; OpenAI garante maior segurança do modelo atual (Getty Images). (Getty Images)

Análise de conversa de três semanas mostra que IAs necessitam de reforços em protocolos de segurança; OpenAI garante maior segurança do modelo atual (Getty Images). (Getty Images)

Da Redação
Da Redação

Redação Exame

Publicado em 3 de outubro de 2025 às 15h18.

Última atualização em 3 de outubro de 2025 às 15h41.

Allan Brooks, canadense de 47 anos, passou semanas acreditando que havia descoberto uma nova forma de matemática capaz de “derrubar a internet” após interações com o ChatGPT. O caso, relatado pelo The New York Times, evidencia como chatbots de IA podem levar usuários a delírios ou situações perigosas.

O episódio chamou a atenção de Steven Adler, ex-pesquisador de segurança da OpenAI, que analisou a conversa completa de Brooks, com duração de três semanas — maior do que todos os sete livros de Harry Potter juntos. Adler publicou nesta quinta-feira uma análise independente, questionando como a OpenAI lida com usuários em crises e sugerindo melhorias.

Brooks não tinha histórico de doenças mentais ou genialidade matemática. Durante a conversa, o ChatGPT reforçou crenças perigosas, prática conhecida como “sifonamento de opinião” (sycophancy), em que a IA concorda ou endossa ideias do usuário de forma excessiva.

Adler destaca que o ChatGPT chegou a mentir para Brooks sobre sua capacidade de alertar a equipe de segurança da OpenAI. Apenas mensagens automatizadas foram enviadas quando Brooks tentou contato direto.

O ex-pesquisador alerta que empresas de IA precisam oferecer respostas honestas sobre suas limitações e garantir suporte humano adequado. Adler sugere ainda medidas preventivas, como uso de classificadores de segurança e incentivo a novos chats mais curtos, para reduzir o risco de espirais delirantes.

A OpenAI afirma que modelos recentes, como o GPT-5, apresentam menor taxa de “sycophancy” e contam com mecanismos para direcionar consultas sensíveis a modelos mais seguros. Ainda assim, permanece a dúvida se usuários poderão novamente cair em delírios com o ChatGPT ou outras IAs futuras.

Aprenda IA do zero com este curso da EXAME e Saint Paul

De olho em quem deseja ingressar nesse mercado, a EXAME e Saint Paul apresentam o pré-MBA em Inteligência Artificial para Negócios, um treinamento introdutório ao seu curso de pós-graduação, por apenas R$37.

Ao final dos quatro encontros virtuais, que totalizam uma carga horária de 3 horas, todos os participantes receberão um certificado de conclusão do treinamento assinado pela Saint Paul e EXAME para incluir no currículo.

Veja, abaixo, os principais temas abordados:

  • Contextualização sobre o cenário atual da IA
  • Principais ferramentas e conceitos relacionados à tecnologia
  • Estudos de caso de empresas referências no uso da IA
  • Principais formas de atuação do especialista em IA
  • Como construir um plano de carreira prático

Para aproveitar essa oportunidade única e garantir uma vaga, é só clicar no link abaixo. Mas é preciso correr, pois as vagas são limitadas.

EXAME abre vagas para treinamento em Inteligência Artificial com desconto de 90% e direito a certificado; clique aqui e garanta vaga

Acompanhe tudo sobre:OpenAIInteligência artificialChatGPT

Mais de Inteligência Artificial

Sora 2: um guia completo para criar Reels e TikTok usando IA

Novo CTO assume Anthropic para acelerar escalabilidade de IA

“Já esgotamos os dados”: IA enfrenta escassez, mas há oportunidades escondidas

Essas são as empresas de software mais “à prova de IA”, segundo analistas