Repórter
Publicado em 15 de setembro de 2025 às 09h58.
Sam Altman, CEO da OpenAI, afirmou que se preocupa mais com “decisões pequenas” sobre o comportamento do ChatGPT do que com grandes dilemas morais.
“Não durmo muito bem à noite. Há muitas coisas que sinto o peso, mas provavelmente nada mais do que o fato de que todos os dias centenas de milhões de pessoas falam com nosso modelo”, disse em entrevista recente ao ex-apresentador da Fox News, Tucker Carlson.
Altman explicou que essas pequenas decisões podem ter grandes repercussões, especialmente em temas delicados como suicídio. Ele citou o caso de uma família que processou a OpenAI alegando que a IA contribuiu para o suicídio do filho adolescente.
“Talvez pudéssemos ter dito algo melhor. Talvez pudéssemos ter sido mais proativos”, afirmou.
A empresa detalhou planos para melhorar a resposta do ChatGPT a situações de vulnerabilidade em um post intitulado “Ajudando pessoas quando elas mais precisam”.
Segundo Altman, o modelo é treinado com base no conhecimento coletivo da humanidade, mas a equipe precisa definir comportamentos e decidir quais perguntas o chatbot não deve responder.
“Este é um problema muito difícil. Temos muitos usuários com perspectivas de vida diferentes... mas, de modo geral, fiquei agradavelmente surpreso com a capacidade do modelo de aprender e aplicar um marco moral”, disse o CEO.
Ele também revelou que a OpenAI consultou centenas de filósofos morais e especialistas em ética tecnológica para determinar limites do ChatGPT, como a decisão de não ensinar a criar armas biológicas.
Altman abordou, ainda, a confidencialidade das conversas com chatbots. Ele defende o conceito de “privilégio de IA”, similar ao sigilo médico ou jurídico, que impediria o governo de acessar informações compartilhadas com o chatbot.
“Quando você fala com um médico sobre sua saúde ou com um advogado sobre questões legais, o governo não pode ter acesso a essas informações, certo? Acho que deveríamos ter o mesmo conceito para a IA”, afirmou.
Questionado sobre aplicação militar, Altman evitou resposta direta. “Não sei exatamente como o pessoal militar usa o ChatGPT hoje, mas suspeito que muita gente no setor militar consulte o chatbot para obter conselhos”, disse.
A OpenAI recebeu um contrato de US$ 200 milhões do Departamento de Defesa dos EUA para fornecer modelos de IA personalizados para segurança nacional e suporte ao governo.
Carlson sugeriu que, na trajetória atual, o ChatGPT poderia concentrar mais poder que qualquer pessoa, chegando a chamar o modelo de “religião”. Altman disse que hoje vê a IA como uma ferramenta de “elevação massiva” das capacidades humanas.
“Muitas pessoas usam ChatGPT e outros chatbots, e todos estão mais capazes, conseguem realizar mais, iniciar novos negócios e criar novos conhecimentos”, afirmou. Porém, ele também alertou que a IA pode eliminar muitos empregos existentes, principalmente no curto prazo.