Inteligência Artificial

CEO da Anthropic diz que IA "alucina" menos que humanos e defende avanço rumo à AGI

Declaração de Dario Amodei foi feita durante primeiro evento para desenvolvedores da empresa, em meio a debates sobre confiabilidade e limites dos modelos atuais

Dario Amodei: CEO da Anthropic (Kimberly White/Getty Images)

Dario Amodei: CEO da Anthropic (Kimberly White/Getty Images)

Publicado em 23 de maio de 2025 às 12h40.

Dario Amodei, CEO da Anthropic, acredita que os modelos de inteligência artificial “alucinam” menos que os humanos, ainda que o façam de maneiras mais surpreendentes. A declaração foi feita durante o primeiro evento para programadores da empresa, o Code with Claude, realizado em São Francisco, na quinta-feira, 22.

Para ele, os erros cometidos pela IA — as chamadas “alucinações” — ocorrem em menor frequência que nos humanos e não representam um obstáculo para o avanço rumo à inteligência artificial geral (AGI). A comparação, porém, é difícil de verificar. Isso porque os testes costumam comparar modelos entre si, não com pessoas.

Apesar de confirmar a preocupação com a confiança excessiva da IA ao apresentar informações falsas, Amodei defendeu que esses erros não invalidam sua inteligência e os comparou com erros cometidos por jornalistas e políticos.

O CEO da Anthropic é um dos mais otimistas com a possibilidade do avanço das atuais IAs para uma forma com inteligência similar ou superior aos humanos, a AGI. Questionado sobre sua crença na ferramenta já para 2026, Amodei respondeu que vê progresso constante e generalizado para essa finalidade.

Futuro da AGI

Outras empresas líderes em IA acreditam que as “alucinações” são um grande obstáculo à AGI. Nesta semana, por exemplo, o CEO do Google DeepMind, Damis Hassabis, disse que os atuais modelos têm muitos “buracos” e erram muitas questões óbvias.

Um desses erros aconteceu com o próprio modelo da Anthropic, o Claude. No começo do mês, um advogado representando a empresa teve que se desculpar após a IA errar nomes e títulos em um processo judicial.

Há, inclusive, evidências que sugerem um aumento expressivo nas "alucinações", por exemplo, dos modelos o3 e o4-mini, da OpenAI, regredindo em relação as até então constantes melhorias nesse quesito.

Enquanto os comentários de Amodei sugerem, segundo a Techcrunch, a possibilidade da Anthropic considerar um modelo de IA como AGI mesmo “alucinando”, essa definição pode não se encaixar no entendimento e na expectativa de muitas outras pessoas.

Acompanhe tudo sobre:Inteligência artificialApps

Mais de Inteligência Artificial

Apple planeja óculos inteligentes para ampliar portfólio de IA

Jensen Huang e a estratégia para manter o trono da Nvidia no mercado de chips de IA

Anthropic lança Claude Opus 4 e Sonnet 4 e diz ter criado a melhor IA para programação do mundo

Corrida espacial digital: Starlink domina mercado, mas concorrência se arma com bilhões em órbita