IA de Elon Musk difundiu dados errados sobre atentado de Sydney - Especialistas

O Grok, aplicação de inteligência artificial de Elon Musk, difundiu informações falsas sobre o atentado em Sydney, alegando que as vítimas eram atores e identificando erradamente um herói local, confirmaram especialistas na terça-feira.

Lusa /

O assistente virtual, integrado na rede social X, apresentou falhas graves ao processar os dados do ataque ocorrido no domingo, durante a celebração do Hanukkah. Entre os erros mais críticos, a ferramenta identificou Ahmed al Ahmed --- aclamado como herói por desarmar um dos atacantes --- como sendo um refém israelita detido pelo Hamas.

Além disso, o chatbot sugeriu que imagens reais do atentado eram "encenações" ou vídeos antigos de uma tempestade, reforçando teorias da conspiração que utilizam o termo "atores de crise" para desacreditar a autenticidade da tragédia.

Questionada sobre estas falhas, a xAI, empresa responsável pela ferramenta, respondeu com uma mensagem automática afirmando que "os media tradicionais mentem".

O incidente ocorre num momento em que as grandes empresas tecnológicas têm reduzido drasticamente as suas equipas de verificação de factos, confiando cada vez mais em sistemas automatizados que, segundo especialistas, ainda não conseguem substituir o discernimento humano no contexto de eventos em tempo real.

O atentado na praia de Bondi, classificado pelas autoridades australianas como um ato terrorista antissemita, resultou em pelo menos 15 mortos e 42 feridos.

Analistas da NewsGuard e outros observadores de desinformação alertam que, embora a IA possa auxiliar em tarefas técnicas como a geolocalização, a sua utilização sem supervisão humana para explicar contextos sensíveis pode amplificar perigosamente a propaganda e as narrativas falsas online.

Tópicos
PUB