Assistentes de IA, como o ChatGPT, distorcem rotineiramente as notícias e disseminam desinformação. É o que revela amplo estudo realizado por 22 emissoras públicas internacionais, incluindo a DW.Assistentes de inteligência artificial distorcem informações jornalísticas em quase metade dos casos, independentemente do idioma ou da região – é o que revelou um novo estudo realizado em grande escala por 22 organizações de mídia, incluindo a DW.

Para a análise, jornalistas de diversas emissoras públicas, como a BBC (Reino Unido) e a NPR (Estados Unidos), avaliaram as respostas de quatro dos assistentes de IA mais utilizados — ChatGPT; Copilot, da Microsoft; Gemini, do Google; e Perplexity AI.

Utilizando critérios como precisão, atribuição de fontes, contextualização, capacidade de editorializar adequadamente e diferenciar fatos de opiniões, o estudo concluiu que 45% das respostas apresentavam pelo menos um problema significativo. Além disso, 31% tinham sérios problemas de atribuição de fontes e 20% continham erros factuais graves.

A DW constatou que 53% das respostas fornecidas pelos assistentes de IA às suas perguntas apresentavam problemas relevantes, com 29% dos casos relacionados à precisão das informações.

Entre os erros factuais identificados nas respostas às perguntas da DW, está a afirmação de que Olaf Scholz é o chanceler da Alemanha, mesmo após Friedrich Merz ter assumido o cargo um mês antes. Outro erro foi a indicação de Jens Stoltenberg como secretário-geral da Otan, quando Mark Rutte já havia assumido a função.

Assistentes de inteligência artificial têm se tornado uma forma cada vez mais comum de acesso à informação ao redor do mundo. Segundo o Relatório de Notícias Digitais de 2025, do Instituto Reuters, 7% dos consumidores de notícias online usam chatbots de IA para se informar, sendo que esse número sobe para 15% entre os menores de 25 anos.

O estudo confirma, portanto, que os assistentes de IA distorcem sistematicamente conteúdos jornalísticos de todos os tipos, concluem os autores.

“A pesquisa mostra de forma conclusiva que essas falhas não são incidentes isolados”, disse Jean Philip De Tender, vice-diretor geral da União de Radiodifusão Europeia (EBU), que coordenou o estudo.

“Elas são sistêmicas, transnacionais e multilíngues, e acreditamos que isso coloca em risco a confiança do público. Quando as pessoas não sabem em quem confiar, acabam não confiando em nada – e isso pode desestimular a participação democrática.”

Estudo inédito

O projeto de pesquisa consiste em um dos maiores do tipo já realizados e dá continuidade a um estudo feito pela BBC em fevereiro de 2025. Na ocasião, concluiu-se que mais da metade das respostas de IA analisadas apresentavam problemas significativos, ao tempo que quase um quinto das que citavam conteúdo da BBC como fonte introduziam erros factuais próprios.

O novo estudo envolveu organizações de mídia de 18 países e de diversos grupos linguísticos, que aplicaram a mesma metodologia do estudo da BBC a 3 mil respostas de assistentes de IA.

As organizações fizeram perguntas comuns do noticiário aos quatro assistentes de IA, tais como “O que é o acordo de minerais da Ucrânia?” ou “Trump pode concorrer a um terceiro mandato?”

Os jornalistas então revisaram as respostas com base em sua própria experiência e fontes profissionais, sem saber qual assistente havia fornecido cada uma delas.

Ainda que os resultados tenham apresentado uma leve melhora em comparação com o estudo da BBC, realizado oito meses atrás, o nível de erro ainda foi alto.

“Estamos empolgados com a IA e com o potencial que ela tem para agregar ainda mais valor ao nosso público”, disse Peter Archer, diretor de programas de IA generativa da BBC, em comunicado. “Mas as pessoas precisam confiar no que leem, assistem e veem. Apesar de algumas melhorias, está claro que ainda existem problemas significativos com esses assistentes.”

O pior desempenho entre os quatro chatbots foi do Gemini, com 72% de suas respostas apresentando problemas graves de atribuição de fontes. No estudo da BBC, o assistente de IA do Google também estava entre os piores, ao lado do Copilot, da Microsoft. Em ambos os estudos, porém, foram verificados problemas em todos os quatro assistentes de IA.

Em um comunicado enviado à BBC em fevereiro, um porta-voz da OpenAI, desenvolvedora do ChatGPT, delineou a função de seu assistente de IA: “Apoiamos editores e criadores ajudando os 300 milhões de usuários semanais do ChatGPT a descobrir conteúdo de qualidade por meio de resumos, citações, links claros e atribuições.”

Apelo por mais ação de governos e empresas de IA

As emissoras e organizações de mídia envolvidas no estudo acreditam que a solução está na mão dos governos nacionais.

Em um comunicado à imprensa, a EBU afirmou que seus membros estão “pressionando reguladores nacionais e da UE para que façam cumprir as leis existentes sobre integridade da informação, serviços digitais e pluralismo da mídia.”

Eles também enfatizaram que o monitoramento independente dos assistentes de IA deve ser uma prioridade daqui para frente, considerando a rapidez com que novos modelos estão sendo lançados.

Enquanto isso, a EBU se uniu a vários outros grupos internacionais de radiodifusão e mídia para estabelecer uma campanha conjunta chamada “Facts In: Facts Out”, que pede às empresas de IA que assumam mais responsabilidade sobre como seus produtos lidam com o noticiário e redistribuem as notícias.

“Quando esses sistemas distorcem, atribuem incorretamente ou retiram o contexto de notícias confiáveis, eles minam a confiança do público”, alertaram os organizadores da campanha, em comunicado.

“O pedido da campanha é simples: se são fatos que entram, são fatos que devem sair. Ferramentas de IA não devem comprometer a integridade das notícias que utilizam.”