Investigadores advertem contra expansão "totalmente imprudente" da inteligência artificial

Mais de 20 autores emitiram esta terça-feira um documento com claros alertas sobre segurança e uso ético da Inteligência Artificial. "Padrinhos", pensadores e académicos ligados ao tema advertem governos e empresas que desenvolvem tais sistemas para os danos que estes podem causar na sociedade - especialmente se não houver regulamentação prévia.

Carla Quirino - RTP /
Dado Ruvic - Reuters

Este documento reúne 23 especialistas e surge a uma semana da Cimeira Internacional sobre Segurança da Inteligência Artificial (IA), que decorrerá em Bletchley Park, Londres.

Os signatários desta carta deixam recomendações a governos e empresas, enfatizando uma preocupação crescente sobre os riscos de sistemas de IA incontroláveis ​​e o seu potencial impacto social.

“Os governos devem exigir que as empresas sejam legalmente responsáveis por danos causados pelos seus sistemas de ponta de IA que possam ser razoavelmente previstos e prevenidos”, expressam os autores.Entre os especialistas estão Geoffrey Hinton e Yoshua Bengio, dois dos três “padrinhos da IA” que venceram o prémio ACM Turing – o equivalente em ciência da computação ao prémio Nobel – em 2018 pelo trabalho neste domínio.

Bengio deixou claro que “os recentes modelos de IA de última geração são demasiado poderosos e significativos para permitir que se desenvolvam sem supervisão democrática”.

E alerta para a necessidade de se investir “na segurança da IA” e o mais rápido possível, “porque a IA está a progredir muito mais rápido do que as precauções tomadas”.

Atualmente não existem regulamentações amplas focadas na segurança da Inteligência Artificial e os legisladores europeus ainda não chegaram a acordo sobre medidas a aplicar.
Receio de perda do controlo
Os riscos associados à IA avançada incluem a instabilidade social, permitindo atividades criminosas em grande escala, e a potencial perda de controlo sobre estes sistemas autónomos.As propostas políticas dos 23 especialistas são unânimes. Afirmam que é “totalmente imprudente procurar sistemas de IA cada vez mais poderosos antes de compreender como torná-los seguros”.


“É hora de levar a sério os sistemas avançados de IA”
, sublinhou Stuart Russell, professor de ciência da computação na Universidade da Califórnia, em Berkeley. “Estes sistemas não são brinquedos. Aumentar suas capacidades antes de entendermos como torná-los seguros é totalmente imprudente”, vinca. E acrescenta: “Existem mais regulamentações para cafetarias do que para empresas de IA”.

Uma das recomendações remete para as empresas de IA adotarem medidas de segurança específicas, caso sejam encontradas capacidades perigosas nos seus modelos, ao mesmo tempo que devem ser responsabilizadas por danos previsíveis e evitáveis causados pelos seus sistemas de IA. Devem também ser implantadas medidas para possibilitar que auditores independentes tenham acesso aos laboratórios de IA.

Entre os signatários estão o autor do best-seller "Sapiens", Noah Yuval Harari, Daniel Kahneman, Nobel de Economia, e Sheila McIlraith, professora de IA na Universidade de Toronto, bem como o premiado cientista chinês da computação Andy Yao.

Estes autores advertem para o desenvolvimento de forma descuidada dos sistemas de IA. Dizem que será “amplificada a injustiça social, minará as nossas profissões, irá corroer a estabilidade social, permitirá atividades criminosas ou terroristas em grande escala e vai enfraquecer a nossa compreensão partilhada da realidade que é fundamental para a sociedade”.Os investigadores reiteram que os atuais sistemas de IA já demonstram sinais de capacidades preocupantes que apontam o caminho para o surgimento de sistemas autónomos capazes de planear, empreender objetivos e “aplicá-los no mundo”.

“Se construirmos uma IA autónoma altamente avançada, corremos o risco de criar sistemas que alcancem autonomamente objetivos indesejáveis”. Acrescentam que “talvez não se consiga mantê-los sob controlo”.

O modelo de IA GPT-4, que alimenta a ferramenta ChatGPT, desenvolvida pela empresa norte-americana OpenAI, foi capaz de projetar e executar experiências químicas, navegar na web e conjudar aplicações de software, incluindo outros modelos de IA, argumentaram os especialistas.

Entre os autores há algumas vozes que discordam com a visão alarmista do desenvolvimento da IA e alegam que a noção de que a IA poderia exterminar os humanos é “absurda”.

A IA diz respeito à simulação da inteligência humana em máquinas programadas para pensar como humanos e imitar as suas ações. O termo também pode ser aplicado a qualquer sistema tecnológico que exiba características associadas à mente humana, como aprendizagem e resolução de problemas.
PUB