Inteligência Artificial

Altman defende sigilo nas conversas com o ChatGPT: 'como com médicos e advogados'

CEO da OpenAI destacou planos para proteger usuários mais vulneráveis

Publicado em 15 de setembro de 2025 às 09h58.

Sam Altman, CEO da OpenAI, afirmou que se preocupa mais com “decisões pequenas” sobre o comportamento do ChatGPT do que com grandes dilemas morais. 

“Não durmo muito bem à noite. Há muitas coisas que sinto o peso, mas provavelmente nada mais do que o fato de que todos os dias centenas de milhões de pessoas falam com nosso modelo”, disse em entrevista recente ao ex-apresentador da Fox News, Tucker Carlson.

Altman explicou que essas pequenas decisões podem ter grandes repercussões, especialmente em temas delicados como suicídio. Ele citou o caso de uma família que processou a OpenAI alegando que a IA contribuiu para o suicídio do filho adolescente. 

“Talvez pudéssemos ter dito algo melhor. Talvez pudéssemos ter sido mais proativos”, afirmou.

Como ChatGPT lida com situações sensíveis

A empresa detalhou planos para melhorar a resposta do ChatGPT a situações de vulnerabilidade em um post intitulado “Ajudando pessoas quando elas mais precisam”. 

Segundo Altman, o modelo é treinado com base no conhecimento coletivo da humanidade, mas a equipe precisa definir comportamentos e decidir quais perguntas o chatbot não deve responder.

“Este é um problema muito difícil. Temos muitos usuários com perspectivas de vida diferentes... mas, de modo geral, fiquei agradavelmente surpreso com a capacidade do modelo de aprender e aplicar um marco moral”, disse o CEO.

Ele também revelou que a OpenAI consultou centenas de filósofos morais e especialistas em ética tecnológica para determinar limites do ChatGPT, como a decisão de não ensinar a criar armas biológicas.

Altman abordou, ainda, a confidencialidade das conversas com chatbots. Ele defende o conceito de “privilégio de IA”, similar ao sigilo médico ou jurídico, que impediria o governo de acessar informações compartilhadas com o chatbot.

“Quando você fala com um médico sobre sua saúde ou com um advogado sobre questões legais, o governo não pode ter acesso a essas informações, certo? Acho que deveríamos ter o mesmo conceito para a IA”, afirmou.

Uso militar do ChatGPT

Questionado sobre aplicação militar, Altman evitou resposta direta. “Não sei exatamente como o pessoal militar usa o ChatGPT hoje, mas suspeito que muita gente no setor militar consulte o chatbot para obter conselhos”, disse.

A OpenAI recebeu um contrato de US$ 200 milhões do Departamento de Defesa dos EUA para fornecer modelos de IA personalizados para segurança nacional e suporte ao governo.

Potência e impacto da inteligência artificial

Carlson sugeriu que, na trajetória atual, o ChatGPT poderia concentrar mais poder que qualquer pessoa, chegando a chamar o modelo de “religião”. Altman disse que hoje vê a IA como uma ferramenta de “elevação massiva” das capacidades humanas.

“Muitas pessoas usam ChatGPT e outros chatbots, e todos estão mais capazes, conseguem realizar mais, iniciar novos negócios e criar novos conhecimentos”, afirmou. Porém, ele também alertou que a IA pode eliminar muitos empregos existentes, principalmente no curto prazo.

Acompanhe tudo sobre:ChatGPTSam AltmanOpenAIInteligência artificial

Mais de Inteligência Artificial

Google leva Gemini ao Chrome e transforma navegador em centro de inteligência artificial

CrowdStrike negocia compra da Pangea Cyber por US$ 260 milhões para fortalecer segurança em IA

Com dificuldades nos EUA, joint venture entre SoftBank e OpenAI também enfrenta atrasos no Japão

Robôs que pensam? Como a nova geração de robôs vai mudar a indústria para sempre