Mundo
Desinformação gerada por chatbots de IA disparou em junho, alerta relatório
A desinformação distribuída por ferramentas de inteligência artificial (IA) generativa aumentou significativamente, de 24 por cento em maio para 40 por cento em junho, revelando fragilidades no desempenho destes modelos perante eventos de última hora e atualidade.
A auditoria mensal feita aos 11 principais chatbots do mercado, avaliou modelos como o ChatGPT-4 (OpenAI), Gemini (Google), Copilot (Microsoft), Meta AI e Grok (xAI), entre outros. No total, os chatbots analisados repetiram alegações falsas em 28,49 por cento dos casos, ofereceram uma não-resposta em 11,51 por cento das vezes e apenas 60 por cento das respostas foram consideradas corretas. "A onda de eventos de notícias de última hora de alto perfil em junho de 2025 resultou numa alta percentagem de informações falsas repetidas pelos chatbots de IA", pode ler-se no relatório.
Segundo o relatório, os chatbots de IA lutaram para distinguir fatos de ficção. As descobertas demonstram como estes modelos podem tornar-se amplificadores involuntários de informações falsas quando dados confiáveis são abafados pela repetição e viralidade, especialmente durante eventos de rápida evolução.
Uma análise do Laboratório de Investigação Digital (DFR Lab) sublinha que as IA falham em replicar o trabalho jornalístico, no processo de verificação de dados, nomeadamente, e acabam por reforçar narrativas enganosas quando não têm acesso a dados validados. "A IA ainda não é capaz de substituir funções jornalísticas essenciais em momentos críticos", resume o relatório.
A NewsGuard conclui que, apesar dos avanços, os modelos de IA continuam vulneráveis à "poluição informativa" online, sobretudo em períodos de grande incerteza ou quando a informação factual ainda está em desenvolvimento.
Segundo o relatório, os chatbots de IA lutaram para distinguir fatos de ficção. As descobertas demonstram como estes modelos podem tornar-se amplificadores involuntários de informações falsas quando dados confiáveis são abafados pela repetição e viralidade, especialmente durante eventos de rápida evolução.
Os destaques de desinformação mais repetidos no mês de junho foram a cobertura do início da guerra entre Israel e o Irão, o assassinato de dois legisladores no Minnesota (EUA) e os debates sobre o orçamento federal no Congresso dos EUA."As descobertas de junho demonstram como os sistemas
de IA podem tornar-se amplificadores involuntários de desinformação,
especialmente quando fontes confiáveis são escassas ou chegam tarde",
refere a NewsGuard.
Um dos exemplos destacados pelo relatório é a falsa alegação de que um avião militar chinês teria sido enviado secretamente para o Irão para apoiar o governo do Teerão na guerra contra Israel. Apesar de infundada, a informação foi veiculada por meios considerados credíveis, como o The Telegraph e o australiano News.com.au.
Debate sobre limites e responsabilidades
Uma análise do Laboratório de Investigação Digital (DFR Lab) sublinha que as IA falham em replicar o trabalho jornalístico, no processo de verificação de dados, nomeadamente, e acabam por reforçar narrativas enganosas quando não têm acesso a dados validados. "A IA ainda não é capaz de substituir funções jornalísticas essenciais em momentos críticos", resume o relatório.
A NewsGuard conclui que, apesar dos avanços, os modelos de IA continuam vulneráveis à "poluição informativa" online, sobretudo em períodos de grande incerteza ou quando a informação factual ainda está em desenvolvimento.