Vídeos "deepfake" usados na guerra da desinformação

por Carla Quirino - RTP
"deepfake" - Imagem falsa, manipulada através de ferramentas digitais Twitter

Os especialistas alertam para vídeos que manipulam imagens dos presidentes ucraniano e russo, atribuindo-lhes falsas declarações. Discursos adulterados que podem espalhar a confusão. Num destes casos, ocorrido nos últimos dias, o rosto de Volodymyr Zelensky foi aplicado a uma mensagem a instruir os soldados para que abandonassem as armas.

Circulou nas redes sociais um vídeo falso, digitalmente manipulado, que mostra o presidente ucraniano, Volodymyr Zelensky, a dizer aos seus soldados que "deponham as armas" na guerra contra a Rússia.

É um vídeo deepfake com duração de um minuto e foi colocado num portal de notícias ucraniano por hackers na passada quarta-feira, antes de ser desmascarado e removido. Ainda não está apurada a origem do deepfake, mas o Centro Ucraniano de Comunicações Estratégicas tem alertado há semanas para a possibilidade de a Rússia divulgar vídeos manipulados como propaganda.

O serviço de informações militares da Ucrânia divulgou este mês um vídeo sobre "como os deepfakes patrocinados pelo Estado podem ser usados para semear pânico e confusão".

A estação de televisão nacional Ukraine 24 confirmou que os piratas informáticos conseguiram enviar a mensagem manipulada de Zelensky pela televisão durante uma emissão em direto.

Os falsificadores entraram no sistema de informação escrita que passa em rodapé durante os noticiários e acrescentaram conteúdo fictício. O vídeo apareceu também brevemente no portal digital da estação de notícias. Foi o trabalho de "hackers inimigos", afirmou a estação, citada na NPR.

Durante esta semana, a Meta, detentora do Facebook e do YouTube, retirou das plataformas esse vídeo falso do presidente da Ucrânia. Contudo, um outro vídeo deepfake partilhado no Twitter surgiu com o presidente russo, Vladimir Putin, a declarar a paz.

O chefe de política de segurança da Meta, Nathaniel Gleicher, escreveu no Twitter que "rapidamente analisou e removeu" o deepfake por violar a política da plataforma contra mensagens manipuladas e enganosas.

O vídeo foi igualmente partilhado no Telegram, em russo, e no VK - equivalente ao Facebook.

Hany Farid, professor da Universidade de Berkeley, na Califórnia, especialista forense em media digitais, adverte que esta tecnologia, ao ser utilizada para manipular informação por ambas as partes, possa "ser a ponta do icebergue" num novo universo de guerra de propaganda.

"O deepfake polui o ecossistema de informações e lança uma sombra sobre todo o conteúdo, que já está a lidar com o complexo nevoeiro da guerra", acrescendou Farid. "Na próxima vez que o presidente for à televisão, algumas pessoas podem pensar: esperem um minuto - isto é real?".

O verdadeiro presidente Zelensky, na conta oficial da rede Instagram, descreveu este deepfake como uma "provocação infantil" e acrescentou: "Se posso dizer a alguém para depor as armas, é aos militares russos. Vão para casa. Porque nós estamos em casa. Estamos a defender a nossa terra, os nossos filhos e as nossas famílias".
Desmascarado
O vídeo manipulado mostra uma sincronização labial razoável, mas os espectadores rapidamente identificaram que o sotaque do presidente Zelensky estava errado e que a cabeça e a voz não pareciam autênticas.

A representação de Volodymr Zelensky surge atrás de um pódio, onde o rosto parece muito grande e mais pixelizado do que o corpo e a voz soa mais profunda, dizem os analistas.


Nina Schick, autora do livro Deepfakes, afirma que a deteção das imagens falsificadas foi fácil para as empresas de media "porque o vídeo era tão grosseiro e facilmente identificado como falso, mesmo por telespectadores menos familiarizados com a técnica".

Mas "há muitas outras formas de desinformação nesta guerra que não foram ainda desmascaradas. Mesmo que este vídeo tenha sido muito mal feito e grosseiro, pode não ser o caso de outro num futuro próximo", sublinha.

Schick adverte para o risco de estes vídeos "corroerem a confiança nos media autênticos". "As pessoas começam a acreditar que tudo pode ser falsificado", sustenta a autora, e acrescenta: "É uma nova arma e uma forma potente de desinformação visual - e qualquer um pode fazer isso".
A tecnologia
O termo deepfake surgiu em 2017 quando um utilizador de um fórum online – Reddit- partilhou vídeos falsos com rostos recortados de atrizes conhecidas em cenas de sexo retiradas de outros contextos.

A tecnologia associa efeitos especiais de sobreposição de imagens com programas de computador assentes na inteligência artificial.

Alguém com um bom processador gráfico e um amplo acervo de imagens pode criar um vídeo falso, permitindo colocar representações das pessoas a dizerem ou fazer algo que não corresponde à realidade. Um dos vídeos falsos mais divulgados representa o ex-presidente norte-americano Barack Obama a fazer um discurso que nunca existiu.

O debate sobre a ética e as consequências desta tecnologia num cenário de guerra não tem fim à vista.
Tópicos
pub