UE chega a acordo para proibir IA que cria imagens de teor sexual
Os Estados-Membros e o Parlamento Europeu chegaram a acordo na quarta-feira à noite para proibir na União Europeia (UE) os serviços de inteligência artificial (IA) que possam "despir" pessoas sem o seu consentimento.
A iniciativa surge na sequência da introdução, há alguns meses, de uma funcionalidade no Grok - o assistente de IA da rede social X - que permitia aos utilizadores solicitar a criação de montagens hiper-realistas (ou `deepfakes`) de adultos e crianças nus a partir de fotografias reais, sem o seu consentimento.
A proibição entrará em vigor a partir de 2 de dezembro. A partir dessa data, os sistemas de IA deverão estar equipados com medidas de segurança que os impeçam de gerar este tipo de conteúdo. Será também obrigatório, a partir de dezembro, a inclusão de marca d'água nos resultados gerados por IA."Até o final deste ano, todos, mas especialmente mulheres e meninas, estarão a salvo de aplicações de assédio sexual horríveis que estão amplamente disponíveis no mercado da UE. Hoje pomos um fim definitivo a esse tipo de violência contra pessoas e crianças", disse a eurodeputada holandesa Kim van Sparrentak.
A criação deste tipo de conteúdos gerou indignação em muitos países e levou a UE a abrir uma investigação.
Na terça-feira, a primeira-ministra italiana, Giorgia Meloni, condenou veementemente as fotos falsas de si própria geradas por IA, classificando os `deepfakes` como uma "ferramenta perigosa".
“Os ‘deepfakes’ são uma ferramenta perigosa, pois podem enganar, manipular e atacar qualquer pessoa. Eu posso defender-me. Muitos outros não”, escreveu Meloni no X.
Girano in questi giorni diverse mie foto false, generate con l’intelligenza artificiale e spacciate per vere da qualche solerte oppositore.
— Giorgia Meloni (@GiorgiaMeloni) May 5, 2026
Devo riconoscere che chi le ha realizzate, almeno nel caso in allegato, mi ha anche migliorata parecchio. Ma resta il fatto che, pur di… pic.twitter.com/or44qru2qj
“Por isso, deve ser sempre aplicada uma regra: verificar antes de acreditar e acreditar antes de partilhar. Porque hoje aconteceu comigo, amanhã pode acontecer com qualquer um”, acrescentou.
De acordo com o Parlamento Europeu, a nova proibição visa sistemas que possam criar imagens, vídeos e sons de natureza pornográfica com crianças, ou representações das partes íntimas de uma pessoa identificável, ou imagens dessa pessoa envolvida em atividade sexual, sem o seu consentimento.
Adiamento de novas regras
A medida em causa foi adotada no âmbito de uma revisão da legislação europeia sobre a IA, ou Lei da IA, uma lei pioneira formalmente aprovada há dois anos.
Neste âmbito, os 27 Estados-membros e os eurodeputados concordaram ainda em adiar a entrada em vigor de novas regras destinadas a regular a atividade dos chamados sistemas de IA de alto risco, isto é, aqueles que envolvem biometria ou que operam em áreas sensíveis como a segurança, a saúde ou os direitos fundamentais. As regras deveriam entrar em vigor já em agosto deste ano, mas a Comissão Europeia adiou para 2 de dezembro de 2027 de forma a dar mais tempo às empresas para se adaptarem ao novo quadro.
“Ao mesmo tempo, estamos a reforçar a proteção dos nossos cidadãos”, escreveu Von der Leyen no X.
I welcome the political agreement on our Digital Omnibus on AI.
— Ursula von der Leyen (@vonderleyen) May 7, 2026
This provides a simple, innovation-friendly environment for our European AI ecosystem to grow.
At the same time, we are strengthening protections for our citizens.
For safe and simple AI governance in Europe.
O acordo foi alcançado numa altura em que as preocupações com os riscos associados à IA voltaram à discussão na UE nas últimas semanas devido ao Mythos, o novo modelo da `startup` norte-americana Anthropic.
A Anthopic decidiu não disponibilizar o Mythos ao público em geral, mas apenas a um grupo restrito de empresas norte-americanas, devido à excecional capacidade do modelo de identificar vulnerabilidades críticas de programação, que poderiam desencadear uma crise de cibersegurança.
c/agências