Inteligência Artificial

OpenAI e Anthropic avaliam modelos de IA rivais com foco em segurança e alinhamento

Testes foram realizadas antes do lançamento do GPT-5 e da atualização mais recente do modelo Claude Opus, o Opus 4.1, ambos disponibilizados nos primeiros dias de agosto

OpenAI descreveu a iniciativa como o “primeiro grande exercício interlaboratorial de testes de segurança e alinhamento” (Getty Images)

OpenAI descreveu a iniciativa como o “primeiro grande exercício interlaboratorial de testes de segurança e alinhamento” (Getty Images)

Publicado em 28 de agosto de 2025 às 14h17.

Duas das maiores rivais no campo da inteligência artificial, OpenAI e Anthropic recentemente avaliaram os modelos de IA uma da outra em um esforço para identificar questões de alinhamento, segurança e “alucinação” que seus próprios testes poderiam ter deixado passar.

Empresas de IA enfrentam pressão crescente para melhorar a segurança de seus produtos, especialmente após uma série de incidentes relacionados ao uso dos modelos. A OpenAI, por exemplo, foi alvo de uma ação judicial movida nesta semana, na qual os pais de um adolescente de 16 anos responsabilizam a empresa pelo suicídio do filho.

Nesse contexto, OpenAI e Anthropic revelaram, em postagens em seus blogs nesta quarta-feira, 27, que realizaram avaliações de segurança nos modelos de IA publicamente disponíveis da outra empresa durante os últimos meses.

Esses testes focaram em identificar tendências de criação de informações falsas, chamadas de “alucinações”, e desalinhamento – quando um modelo de IA não opera conforme o esperado pelos desenvolvedores e em conformidade com valores e objetivos humanos.

Embora concorrentes diretas, a união entre empresas e pesquisadores não é exatamente inédita. No entanto, a parceria para avaliar os modelos públicos uma da outra chama a atenção, especialmente porque a Anthropic foi fundada por ex-funcionários da OpenAI e seu modelo Claude é um dos principais, se não o principal, concorrentes do ChatGPT.

A OpenAI descreveu a iniciativa como o “primeiro grande exercício interlaboratorial de testes de segurança e alinhamento”, acrescentando que a colaboração busca oferecer um “caminho valioso para avaliar a segurança a nível da indústria.”

Embora as informações sobre os testes tenham sido divulgadas agora, as avaliações foram realizadas antes do lançamento do novo modelo principal de IA da OpenAI, o GPT-5, e da atualização mais recente do modelo Claude Opus, da Anthropic, o Opus 4.1, ambos disponibilizados nos primeiros dias de agosto.

União entre concorrentes

Apesar das disputas no mercado e das visões distintas sobre o futuro da IA, há outros exemplos de colaboração ou união para enfrentar problemas comuns. Em meados de julho, por exemplo, trinta dos principais pesquisadores em IA assinaram um documento pedindo maior monitoramento da tecnologia, incluindo investigações sobre os “pensamentos” dos modelos.

Entre os signatários, estão nomes das próprias OpenAI e Anthropic, além de outros ligados a Google DeepMind, xAI, Thinking Machines Labs e críticos do rumo que a tecnologia está tomando, como os pioneiros Yoshua Bengio e Geoffrey Hinton.

Acompanhe tudo sobre:Inteligência artificialOpenAIChatGPT

Mais de Inteligência Artificial

Anthropic começa a usar dados de usuários para treinar IA

O que pensa Alex Blania, um dos 100 nomes mais influentes da IA, segundo a Time

Morte de adolescente expõe riscos do ChatGPT para pessoas em depressão

Corpo da Siri, alma do Gemini: as lições do percalço da Apple ao reinventar um produto