Pesquisa foi coordenada pela União Europeia de Radiodifusão (EBU, na sigla em inglês) e pela BBC (Chadchai Ra-ngubpai/Getty Images)
Redator
Publicado em 22 de outubro de 2025 às 08h08.
Um estudo com 22 emissoras públicas de 18 países identificou erros significativos em 45% das respostas de assistentes de inteligência artificial relacionadas a notícias. A pesquisa, coordenada pela União Europeia de Radiodifusão (EBU, na sigla em inglês) e pela BBC, avaliou 3 mil interações com ferramentas como ChatGPT (OpenAI), Copilot (Microsoft), Gemini (Google) e Perplexity.
Foram analisadas respostas em 14 idiomas, com foco em precisão, atribuição de fontes e distinção entre fato e opinião. A grande maioria (81%) apresentou algum tipo de problema, segundo o levantamento divulgado nesta quarta-feira, 22.
No quesito atribuição de fontes, o Gemini teve o pior desempenho: 72% das respostas avaliadas apresentaram erros graves, como ausência ou distorção de autoria. Os demais assistentes ficaram abaixo dos 25%. O estudo também apontou erros factuais em 20% das respostas analisadas, incluindo informações desatualizadas.
Entre os exemplos citados, o Gemini afirmou incorretamente que houve mudança em leis sobre cigarros eletrônicos descartáveis (os vapes), enquanto o ChatGPT mencionou o papa Francisco como atual pontífice, mesmo meses após sua morte, em 21 de abril, e quase seis meses após a eleição de Leão XIV para o posto, em 8 de maio.Participaram do estudo veículos de países como Estados Unidos, Reino Unido, França, Alemanha, Espanha e Portugal.
Com a substituição gradual dos buscadores tradicionais pelos assistentes de IA — que, a partir de perguntas em linguagem natural, oferecem respostas prontas e diretas, sem exigir cliques adicionais —, a EBU alerta para o risco de erosão da confiança pública e impacto negativo na participação democrática.
Segundo o Digital News Report 2025, do Instituto Reuters, 7% dos consumidores de notícias online e 15% dos jovens com menos de 25 anos já usam assistentes de IA para buscar informações.
A EBU defende que as empresas responsáveis por essas tecnologias sejam cobradas publicamente e aprimorem seus mecanismos de resposta sobre temas jornalísticos.
Embora ainda não tenham respondido à Reuters sobre esse novo estudo, o Google afirma que feedbacks são bem-vindos para melhorar o Gemini. OpenAI e Microsoft já reconheceram que as chamadas “alucinações” — quando a IA inventa informações — ainda são um problema. A Perplexity, por sua vez, diz em seu site que seu modo de pesquisa profunda (Deep Research) tem 93,3% de precisão factual.