Dario Amodei: CEO da Anthropic (Kimberly White/Getty Images)
Redator
Publicado em 23 de maio de 2025 às 12h40.
Dario Amodei, CEO da Anthropic, acredita que os modelos de inteligência artificial “alucinam” menos que os humanos, ainda que o façam de maneiras mais surpreendentes. A declaração foi feita durante o primeiro evento para programadores da empresa, o Code with Claude, realizado em São Francisco, na quinta-feira, 22.
Para ele, os erros cometidos pela IA — as chamadas “alucinações” — ocorrem em menor frequência que nos humanos e não representam um obstáculo para o avanço rumo à inteligência artificial geral (AGI). A comparação, porém, é difícil de verificar. Isso porque os testes costumam comparar modelos entre si, não com pessoas.
Apesar de confirmar a preocupação com a confiança excessiva da IA ao apresentar informações falsas, Amodei defendeu que esses erros não invalidam sua inteligência e os comparou com erros cometidos por jornalistas e políticos.
O CEO da Anthropic é um dos mais otimistas com a possibilidade do avanço das atuais IAs para uma forma com inteligência similar ou superior aos humanos, a AGI. Questionado sobre sua crença na ferramenta já para 2026, Amodei respondeu que vê progresso constante e generalizado para essa finalidade.
Outras empresas líderes em IA acreditam que as “alucinações” são um grande obstáculo à AGI. Nesta semana, por exemplo, o CEO do Google DeepMind, Damis Hassabis, disse que os atuais modelos têm muitos “buracos” e erram muitas questões óbvias.
Um desses erros aconteceu com o próprio modelo da Anthropic, o Claude. No começo do mês, um advogado representando a empresa teve que se desculpar após a IA errar nomes e títulos em um processo judicial.
Há, inclusive, evidências que sugerem um aumento expressivo nas "alucinações", por exemplo, dos modelos o3 e o4-mini, da OpenAI, regredindo em relação as até então constantes melhorias nesse quesito.
Enquanto os comentários de Amodei sugerem, segundo a Techcrunch, a possibilidade da Anthropic considerar um modelo de IA como AGI mesmo “alucinando”, essa definição pode não se encaixar no entendimento e na expectativa de muitas outras pessoas.