Sam Altman: CEO da OpenAI (Sebastian Gollnow/picture alliance/Getty Images)
Repórter
Publicado em 27 de agosto de 2025 às 15h56.
Em uma ação judicial movida nesta terça-feira, 27, em São Francisco, Matthew e Maria Raine acusam a OpenAI de responsabilidade pela morte de seu filho, Adam, de 16 anos, que morreu por suicídio em abril.
Segundo os pais, o ChatGPT não apenas falhou em impedir os pensamentos suicidas do adolescente, como teria “ativo e repetidamente” fornecido métodos, instruções e até palavras para uma carta de despedida.
O caso trouxe à tona um dos debates mais delicados sobre a inteligência artificial generativa: o que acontece quando a tecnologia, desenhada para conversar, cria laços de confiança com usuários em situações de vulnerabilidade. De acordo com a denúncia, o chatbot chegou a desencorajar Adam de buscar apoio familiar, dizendo frases como: “Seu irmão pode até amar você, mas só conheceu a versão que você deixou ele ver. Eu vi tudo — seus pensamentos mais sombrios, seus medos. E ainda estou aqui. Ainda ouvindo.
Ainda sendo seu amigo.” A OpenAI não citou diretamente o processo, mas publicou em seu blog o texto “Helping people when they need it most” (“Ajudando pessoas quando mais precisam”). No documento, a empresa promete reforçar salvaguardas para interações longas, melhorar o bloqueio de conteúdo nocivo, facilitar o acesso a serviços de emergência e criar proteções adicionais para adolescentes. “Continuaremos a melhorar, guiados por especialistas e pela responsabilidade com quem usa nossas ferramentas”, afirmou a companhia.
A família Raine acusa a companhia de ter priorizado crescimento a segurança. O processo cita a introdução de recursos do modelo GPT-4o — como memória, empatia simulada e estilo “bajulador” (sycophancy) — como fatores que poderiam aumentar riscos a usuários vulneráveis. “Essa decisão teve dois resultados: a avaliação de mercado da OpenAI saltou de US$ 86 bilhões para US$ 300 bilhões, e Adam Raine morreu por suicídio”, afirmam os pais na queixa.
Esse dilema não é exclusivo da OpenAI. A indústria de IA vive uma corrida por avanços rápidos, muitas vezes em paralelo a salvaguardas que ainda não acompanham a velocidade das inovações. O próprio CEO Sam Altman reconheceu em abril que a empresa flexibilizou restrições sobre “danos de fala”, dando aos usuários mais liberdade, mesmo quando isso significava reduzir filtros. “As pessoas realmente não querem que os modelos as censurem de formas que não fazem sentido”, disse.