IA. Alunos britânicos "criam imagens indecentes" de colegas

por RTP
Foto: Robin Worrall - Unsplash

Foi relatado, pela primeira vez, em várias escolas britânicas, que os alunos estão a utilizar tecnologia com Inteligência Artificial para "criar imagens indecentes de crianças", nomeadamente de colegas da escola. O potencial de abuso da IA foi descrito como "aterrorizante" por uma organização de proteção infantil do Reino Unido, que alerta para os riscos de esses conteúdos estarem a contribuir para o abuso sexual infantil.

As imagens de abuso sexual infantil são ilegais no Reino Unido, sejam estas geradas por Inteligência Artificial (IA), fotográficas, desenhos animados ou outras representações. A ilegalidade também abrange a produção, posse e distribuição dessas imagens.

Nas últimas semanas surgiram denúncias e alertas de várias organizações de proteção infantil para o uso da IA por crianças para criar imagens “indecentes” de outras crianças, nomeadamente de outros colegas da escola.

A UKSIC, UK Safer Internet Centre, - criada em 2011, é uma organização que "ajuda a tornar a Internet um lugar excelente e seguro para todos", formada por três instituições de caridade, Childnet , Internet Watch Foundation e SWGfL - afirma que "as escolas britânicas precisam de agir urgentemente para implementar melhores sistemas de bloqueio contra material de abuso infantil".

“Os relatos que estamos a ver, de crianças a produzirem essas imagens não deveriam ser uma surpresa. Este tipo de comportamentos prejudiciais devem ser antecipados quando novas tecnologias, como os geradores de IA, se tornarem mais acessíveis ao público”, argumenta o diretor do UKSIC, David Wright.

As crianças podem estar a explorar o potencial dos geradores de imagens de IA sem compreender totalmente os danos que podem estar a causar", acrescentou.  

Wright observou que a intervenção é crucial para evitar que o conteúdo criminoso se espalhe ainda mais:"Embora o número de casos seja pequeno, estamos no sopé e precisamos de ver medidas a serem tomadas agora – antes que as escolas fiquem sobrecarregadas e o problema cresça”.

Adverte ainda para que tais imagens podem ter efeitos nocivos sobre os jovens, lembrando que as imagens podem ser utilizadas para abuso ou mesmo chantagem.

Emma Hardy, que também dirige a UKSIC, alerta para o caráter das imagens como “terrivelmente” realistas: “a qualidade das imagens que vemos é comparável às fotos profissionais tiradas anualmente às crianças nas escolas de todo o país”.

“A natureza fotorrealista das imagens de crianças geradas por IA significa que às vezes as crianças que vemos são reconhecíveis como vítimas de abusos sexuais anteriores”, vinca Hardy, citada na publicação britânica The Guardian.

Emma, que também é diretora de comunicação da Internet Watch Foundation (IWF), defende ainda que as crianças –produtoras desses conteúdos – “devem ser alertadas para o facto de essas imagens, ao serem espalhadas pela internet, acabam por serem vistas por estranhos e predadores sexuais. O potencial de abuso desta tecnologia é assustador”, alerta.

No mês passado, a Internet Watch Foundation já tinha alertado para as imagens de abuso sexual infantil geradas pela IA estarem a “ameaçar sobrecarregar a internet”.

No início de novembro as empresas de tecnologia como TikTok, Snapchat e Stability AI assinaram uma declaração conjunta comprometendo-se a trabalhar para combater o fluxo de imagens de abuso sexual infantil geradas por inteligência artificial.

A Grã-Bretanha anunciou a sua participação neste acordo associando-se aos 27 signatários, entre eles os governos dos Estados Unidos, Alemanha e Austrália.“Decidimos manter o diálogo e a inovação técnica em torno do combate ao abuso sexual infantil na era da IA”, explicou o comunicado.

“Decidimos trabalhar juntos para garantir que utilizamos uma IA responsável para enfrentar a ameaça de abuso sexual infantil e comprometemo-nos a continuar a trabalhar em colaboração para garantir que os riscos representados pela IA no combate ao abuso sexual infantil não se tornem intransponíveis”, destacaram os signatários.

A Grã-Bretanha citou dados da IWF mostrando que, num fórum da dark web, os usuários partilharam quase três mil imagens geradas por IA, identificado como material de abuso sexual infantil.

“É essencial, agora, darmos o exemplo e acabarmos com o abuso desta tecnologia emergente antes que ela tenha a oportunidade de se enraizar completamente”, disse a diretora-executiva da IWF, Susie Hargreaves
Tópicos
pub