Mundo
Plataformas digitais deixam de poder detetar conteúdos de pornografia infantil de forma voluntária
O Parlamento Europeu chumbou a prorrogação da exceção que permitia a deteção de crimes de abuso sexual de crianças. As plataformas digitais deixam de poder detetar conteúdos de pornografia infantil de forma voluntária a partir desta sexta-feira.
O Parlamento Europeu votou contra a continuidade da exceção que permitia a deteção de conteúdos pornográficos de forma automática e voluntária pelas plataformas digitais, mesmo em mensagens privadas, com o objetivo de sinalizar conteúdos de abuso sexual ou aliciamento de crianças e pornografia infantil.
O confronto entre a defesa da privacidade e a proteção de crianças acabou por ditar a não continuidade da exceção à diretiva europeia E-privacy – do Parlamento Europeu e do Conselho – relativa ao tratamento de dados pessoais e à proteção da privacidade no sector das comunicações eletrónicas.
A exceção, decidida entre Parlamento e Conselho em 2021, previa que redes sociais como o Facebook, o Instagram ou o TikTok e aplicações de mensagens como o Messenger, identificassem conteúdos de pornografia de menores sem violar as regras europeias de privacidade.
O regulamento que criava a exceção foi concebido como uma solução provisória, enquanto não se chegava a acordo sobre uma legislação definitiva, e previa que terminasse a 3 de abril deste ano.
Mas o facto é que ainda não houve acordo para um novo enquadramento legal – por causa do confronto entre a proteção de menores e direito fundamental da privacidade – por isso a Comissão Europeia pretendia a exceção fosse autorizada por maias dois anos.
A proposta foi reprovada pelos eurodeputados com 311 votos contra e 228 a favor e ainda com 92 abstenções.
As plataformas que faziam o rastreamento ficam agora dependentes de denúncias ou da análise de conteúdos públicos sem poder analisar mensagens privadas à procura de situações consideradas como crimes graves contra as crianças. Dúvidas da eficácia das ferramentas usadas pelas plataformas digitais
Dados da Comissão Europeia mostram que as denúncias de abuso sexual, aliciamento e pornografia de menores num ambiente digital aumentaram significativamente. Eram perto de um milhão em 2010 e passaram a 20 milhões em 2024.
A exceção permitida, que pela proteção de menores permitia a violação da privacidade, baseava-se em ferramentas criadas pelas plataformas digitais que atuavam com base em algoritmos e que, por não terem intervenção humana, ditavam vários resultados falsos positivos.
É sobretudo esta a queixa dos que criticavam esta medida que agora chega ao fim: as ferramentas usadas não estavam suficientemente apuradas para distinguir, por exemplo, o objetivo e o enquadramento de uma imagem.
O executivo comunitário admite que os dados não são suficientes para garantir que existe um equilíbrio entre proteção de menores e privacidade dos utilizadores de redes sociais e plataformas online, mas refere que há apenas uma pequena quantidade de falsos positivos no trabalho feito pelas empresas tecnológicas.
A crítica das plataformas digitais
Depois da decisão do Parlamento Europeu centenas organizações que lutam contra a pornografia infantil criticaram a União Europeia por não ter sido capaz de um entendimento para prolongar o prazo da exceção.
E as críticas surgiram também das plataformas tecnológicas.
Num comunicado conjunto Google, Microsoft, Snapchat, TikTok, LinkedIn e Meta assumem a preocupação e pedem aos legisladores europeus “uma ação rápida para garantir a proteção contínua das crianças”.
“Instamos os legisladores na Europa a chegarem rapidamente a acordo sobre um caminho a seguir para a deteção voluntária de Abuso Sexual de Crianças na Internet nos serviços de comunicação interpessoal e a permitirem a continuidade das ferramentas já estabelecidas para proteger os menores. Não o fazer seria irresponsável”.
No documento pode ler-se que “enquanto empresas tecnológicas, estamos profundamente preocupados com o impasse nas negociações da UE para garantir a proteção contínua dos menores contra o abuso sexual de crianças. Permitir que a base jurídica da derrogação ePrivacy expire a 3 de abril, em vigor desde 2021, é irresponsável”.
Neste comunicado dirigido às Instituições Europeias, é referido que as ferramentas usadas estão consolidadas e que o sistema permite uma deteção de alta precisão respeitando os princípios de privacidade.
“Interromper a deteção deste conteúdo abominável reduz as ferramentas disponíveis para a indústria proteger as crianças e corre o risco de prejudicar as vítimas deste crime hediondo”.
As plataformas defendem que a exceção deve ser prorrogada e que a “inação reduzirá a clareza jurídica que permitiu às empresas detetar e denunciar voluntariamente material conhecido de abuso sexual de crianças nos serviços de comunicação interpessoal, deixando as crianças em toda a Europa e no mundo com menos proteção do que tinham antes”.
O confronto entre a defesa da privacidade e a proteção de crianças acabou por ditar a não continuidade da exceção à diretiva europeia E-privacy – do Parlamento Europeu e do Conselho – relativa ao tratamento de dados pessoais e à proteção da privacidade no sector das comunicações eletrónicas.
A exceção, decidida entre Parlamento e Conselho em 2021, previa que redes sociais como o Facebook, o Instagram ou o TikTok e aplicações de mensagens como o Messenger, identificassem conteúdos de pornografia de menores sem violar as regras europeias de privacidade.
O regulamento que criava a exceção foi concebido como uma solução provisória, enquanto não se chegava a acordo sobre uma legislação definitiva, e previa que terminasse a 3 de abril deste ano.
Mas o facto é que ainda não houve acordo para um novo enquadramento legal – por causa do confronto entre a proteção de menores e direito fundamental da privacidade – por isso a Comissão Europeia pretendia a exceção fosse autorizada por maias dois anos.
A proposta foi reprovada pelos eurodeputados com 311 votos contra e 228 a favor e ainda com 92 abstenções.
As plataformas que faziam o rastreamento ficam agora dependentes de denúncias ou da análise de conteúdos públicos sem poder analisar mensagens privadas à procura de situações consideradas como crimes graves contra as crianças. Dúvidas da eficácia das ferramentas usadas pelas plataformas digitais
Dados da Comissão Europeia mostram que as denúncias de abuso sexual, aliciamento e pornografia de menores num ambiente digital aumentaram significativamente. Eram perto de um milhão em 2010 e passaram a 20 milhões em 2024.
A exceção permitida, que pela proteção de menores permitia a violação da privacidade, baseava-se em ferramentas criadas pelas plataformas digitais que atuavam com base em algoritmos e que, por não terem intervenção humana, ditavam vários resultados falsos positivos.
É sobretudo esta a queixa dos que criticavam esta medida que agora chega ao fim: as ferramentas usadas não estavam suficientemente apuradas para distinguir, por exemplo, o objetivo e o enquadramento de uma imagem.
O executivo comunitário admite que os dados não são suficientes para garantir que existe um equilíbrio entre proteção de menores e privacidade dos utilizadores de redes sociais e plataformas online, mas refere que há apenas uma pequena quantidade de falsos positivos no trabalho feito pelas empresas tecnológicas.
A crítica das plataformas digitais
Depois da decisão do Parlamento Europeu centenas organizações que lutam contra a pornografia infantil criticaram a União Europeia por não ter sido capaz de um entendimento para prolongar o prazo da exceção.
E as críticas surgiram também das plataformas tecnológicas.
Num comunicado conjunto Google, Microsoft, Snapchat, TikTok, LinkedIn e Meta assumem a preocupação e pedem aos legisladores europeus “uma ação rápida para garantir a proteção contínua das crianças”.
“Instamos os legisladores na Europa a chegarem rapidamente a acordo sobre um caminho a seguir para a deteção voluntária de Abuso Sexual de Crianças na Internet nos serviços de comunicação interpessoal e a permitirem a continuidade das ferramentas já estabelecidas para proteger os menores. Não o fazer seria irresponsável”.
No documento pode ler-se que “enquanto empresas tecnológicas, estamos profundamente preocupados com o impasse nas negociações da UE para garantir a proteção contínua dos menores contra o abuso sexual de crianças. Permitir que a base jurídica da derrogação ePrivacy expire a 3 de abril, em vigor desde 2021, é irresponsável”.
Neste comunicado dirigido às Instituições Europeias, é referido que as ferramentas usadas estão consolidadas e que o sistema permite uma deteção de alta precisão respeitando os princípios de privacidade.
“Interromper a deteção deste conteúdo abominável reduz as ferramentas disponíveis para a indústria proteger as crianças e corre o risco de prejudicar as vítimas deste crime hediondo”.
As plataformas defendem que a exceção deve ser prorrogada e que a “inação reduzirá a clareza jurídica que permitiu às empresas detetar e denunciar voluntariamente material conhecido de abuso sexual de crianças nos serviços de comunicação interpessoal, deixando as crianças em toda a Europa e no mundo com menos proteção do que tinham antes”.