O "intriguista digital": a IA atrapalha o jornalismo, mas quer dar uma mãozinha

Investigadores portugueses desenvolveram uma ferramenta de Inteligência Artificial que pode vir a ajudar as redações a acelerar o processo de verificação de factos, numa altura em que a própria IA é cada vez mais um instrumento de desinformação.

João Santos Costa - RTP /
Dado Ruvic - Reuters

É uma fotografia semelhante a tantas outras de encontros oficiais na Sala Oval da Casa Branca: o presidente norte-americano, Donald Trump, de sorriso cerâmico, a dar um “passou bem” - desta feita, ao jogador português Cristiano Ronaldo. Foi partilhada milhares de vezes, chegou aos ecrãs de algumas televisões e às páginas de uns quantos jornais. Nada de surpreendente, não fosse um precioso pormenor: esta fotografia não é real. Mas tornou-se viral ainda antes do encontro acontecer.

Para um olho treinado, era evidente. No canto da imagem “aparece exatamente um símbolo de um agente de Inteligência Artificial (IA), o Gemini, da Google”, explica à RTP Luís Galrão, da agência Lusa.

“Quando uma fotografia falsa começa a circular, não há nenhum fact-check ainda no mundo e, portanto, é muito fácil ficar viral”, continua.

Galrão começou por fazer verificação de factos nos tempos livres, nas redes sociais. É, para já, o único fact-checker da agência de notícias pública. Admite que a IA por vezes atrapalha. Desde logo porque os motores de busca com recurso a IA não parecem distinguir aquilo que é real e aquilo que não é. “Curiosamente, a IA da Google devolve várias situações com a fotografia falsa” de Ronaldo ao lado de Donald Trump, mostra-nos.

É um daqueles casos de deteção imediata, mas nem todos são assim. Ainda há pouco tempo, um vídeo de um suposto ataque israelita a uma prisão no Irão fez manchetes. O vídeo acabou difundido na BBC, no New York Times e na DW. Apenas o primeiro fotograma é real: uma foto de arquivo. A explosão, essa, foi gerada por IA.

“É muito fácil gerar este tipo de embuste”, diz Luís Galrão, que está habituado a fazer pesquisa reversa — uma técnica que permite encontrar a origem de certos conteúdos, sejam imagens, vídeos ou áudios —, com recurso a ferramentas que “não existiam há dez ou 15 anos”.
Atualmente, existem cerca de uma centena e meia de projetos dedicados à verificação de factos em todo o mundo: “É provável que seja fácil encontrar já a verificação feita por algum deles”, diz. O processo de verificação de factos pode levar “entre três segundos a vários dias”, dependendo da complexidade da afirmação (ou do conteúdo falso gerado).

As redações, explica, não acompanham o ritmo da desinformação. É uma corrida atrás do prejuízo.
Do Kansas à Alameda
Foi a partir deste problema que uma equipa de investigadores do Departamento de Engenharia Informática do Instituto Superior Técnico (IST) decidiu partir. Desde logo, com uma condição: os jornalistas não vão a lado nenhum e mantêm-se parte central do processo de fact-checking. “Isso é não negociável”, sublinha Filipe Altoé, que considera que as ferramentas precisam do ser humano no processo - o chamado ‘human-in-the-loop’.

“O nosso pipeline foi desenhado para ser usado por jornalistas e não para os substituir”
, garante.

O projeto resulta da tese de doutoramento que Altoé começou aos 48 anos, depois de mais de 20 anos a trabalhar na área. Natural do Rio de Janeiro, viveu décadas no estado norte-americano do Kansas. O cenário político e a insegurança fizeram-no olhar para outros destinos. Acabou por escolher o IST, em Lisboa. Hoje é até colega de faculdade da filha mais velha.


 Fotografia cedida por Filipe Altoé

A tecnologia que Filipe Altoé esteve a desenvolver com o apoio do INESC-ID consegue decompor uma afirmação num determinado número de perguntas e procura responder a cada uma delas, atribuindo às respostas diferentes graus de confiabilidade. Reúne a informação de fontes fidedignas, cruza as respostas e determina um veredicto. No final, explica ainda ao jornalista como chegou a essa conclusão - passo a passo - e formula um artigo. Tudo em sensivelmente dez segundos.

O trabalho foi selecionado para ser um dos 11 a ser apresentados numa das mais prestigiadas conferências de IA, o IJCAI, na cidade canadiana de Montreal, em agosto deste ano. Antes disso, foi testado por mais de uma centena de profissionais. A orientadora H. Sofia Pinto não esconde o orgulho. “Nós tivemos a sorte de ter o Filipe como um dos nossos investigadores”, diz a também investigadora e docente do IST/INESC-ID.

A ideia surgiu durante a pandemia, período marcado por uma grande efervescência da desinformação. Sofia Pinto considera que “há todo um trabalho que enquanto sociedade temos que fazer: de nos educarmos a todos para que a primeira reação que temos seja procurar se a notícia é verdade ou não - e trabalhar a partir daí”.

“A IA pode ajudar os jornalistas a, pelo menos, andar um bocadinho mais depressa”, diz.

“Quando aparece e, em quatro dias, a notícia já se espalhou… a mentira já se cimentou e já é muito difícil contrariarmos uma perceção que pode estar completamente errada”. E é aí, acredita, que a tecnologia pode dar uma mãozinha. Se houver dinheiro.

“A beleza da investigação é que sempre há um próximo passo [risos]. Isto nunca está acabado”, brinca Altoé, que gostaria de alargar a capacidade da ferramenta. Atualmente, só consegue verificar afirmações feitas em inglês, uma vez que o data set utilizado para o seu treino é totalmente em inglês. “Olhando para o mercado português, [o objetivo] seria fazer o trabalho de expansão para a língua portuguesa. E a adoção é sempre o objetivo final: testar com jornalistas portugueses”, explica à RTP.

Algo que seria muito bem-vindo nas redações. “Uma das dificuldades desta área é que muitas das ferramentas que já existem não incluem a língua portuguesa”, explica Luís Galrão. “A partir do momento em que seja possível utilizá-las em português certamente que poderão ajudar na deteção e verificação”, admite.

Dois anos de investigação, três meses de desenvolvimento e resultados promissores: “Os jornalistas estrangeiros que testaram esta tecnologia do IST não sabiam que estavam a lidar com IA (para evitar algum viés) e, no final, 93 por cento deles indicaram que a explicação gerada por esta ferramenta era melhor. Mas para fazer mais, como em tudo, é preciso haver dinheiro.

“Gostaríamos de ter meios para continuar o projeto. Nem sempre é fácil arranjar, mas estamos a fazer por isso”, garante Sofia Pinto.
“O intriguista digital”
“Não podemos esconder que os sistemas de IA são grandes fábricas de desinformação, mas podem ser o braço direito para o fact-checking, lembra o jornalista da RTP Daniel Catalão, que participou num estudo recente da BBC e da EBU e que juntou quase duas dezenas de serviços públicos de média em toda a Europa, entre eles a RTP. O objetivo era perceber o impacto da IA nas notícias e na perceção do público.

Os resultados não foram animadores. O estudo concluiu que os agentes de IA deturpam o conteúdo noticioso 45 por cento das vezes e que quase um terço das respostas geradas revelavam problemas sérios com a identificação de fontes, problemas com rigor e até detalhes “alucinados”. Mais do que isso, há cada vez mais pessoas que dizem confiar menos nos jornais do que na IA.

Essa é grande preocupação, “o manchar da reputação”, diz, lembrando que o jornalismo “vive da confiabilidade e da reputação - e se as pessoas fazem perguntas a estes sistemas e eles respondem de forma tão assertiva, convicta, clara e estruturada isto pode por em causa a confiança que as pessoas têm no jornalismo”.

“A última coisa que vamos querer ter é coscuvilhices e intriguistas digitais”, avisa.

(Reportagem para ver este sábado, a partir das 19h30, no programa da RTP Notícias O Segredo do Algoritmo)
Tópicos
PUB