"Sinto-me perdido". Cientista Yoshua Bengio junta-se às vozes que alertam para riscos da IA

por Mariana Ribeiro Soares - RTP
Reuters

Yoshua Bengio, considerado um dos “padrinhos” da Inteligência Artificial (IA), disse sentir-se “perdido” em relação ao seu trabalho na área. O especialista junta-se, assim, às várias vozes que têm mostrado preocupação com a velocidade com que a IA se está a desenvolver e o rumo que está a tomar. Bengio é um dos vários cientistas e especialistas que assinaram uma declaração que alerta para os riscos de extinção da Humanidade devido à IA.

Em entrevista à BBC, o professor e cientista canadiano Yoshua Bengio, especialista em Inteligência Artificial, disse sentir-se “perdido” em relação ao seu trabalho e admitiu que teria priorizado a segurança em detrimento da utilidade se tivesse percebido o ritmo vertiginoso a que a IA evoluiria.

“É desafiador, emocionalmente falando, para as pessoas que estão dentro [do setor da IA]”, disse Bengio à BBC. "Poderia dizer-se que me sinto perdido. Mas temos que continuar e temos que nos envolver, discutir e encorajar os outros a pensar connosco", apelou.

Bengio é o segundo dos chamados três “padrinhos” da IA a expressar preocupação em relação à evolução da IA e aos riscos que pode representar para a Humanidade.

O seu nome, bem como o de Geoffrey Hinton, conhecido como o segundo “padrinho” da IA, são os primeiros a aparecer entre as dezenas de nomes de especialistas que assinaram uma declaração onde alertam que a Inteligência Artificial pode levar à extinção da Humanidade e que este risco deve ser a prioridade global. Hinton demitiu-se recentemente da Google e admitiu estar arrependido de algum do trabalho que desenvolveu no processo de criação e evolução dos assistentes virtuais.

Bengio também aderiu aos apelos para a regulamentação da IA e defendeu, na entrevista à BBC, que os militares não devem ter acesso aos poderes da IA.

Na semana passada, os três líderes da OpenIA, a organização que desenvolveu o ChatGPT, publicaram uma nota onde sugerem a regulamentação da Inteligência Artificial, tal como existe para o setor nuclear.

“Os governos precisam de monitorizar o que estão a fazer, precisam de ser capazes de auditá-los e isso é apenas o mínimo que fazemos para qualquer outro setor, como a construção de aviões, carros ou produtos farmacêuticos”, disse Bengio.

"Também precisamos que as pessoas que estão próximas a esses sistemas tenham uma espécie de certificação. Precisamos de formação ética. Cientistas da computação geralmente não têm isso", afirmou.
Alertas são “exagerados”?
Por outro lado, outros especialistas na área da Inteligência Artificial consideram que os cenários que têm sido traçados sobre os riscos para a Humanidade são irrealistas.

O terceiro “padrinho” da IA, o professor Yann LeCun - que ganhou o prestigiado prémio Turing, juntamente com Bengio e Hinton pelo seu trabalho inovador no campo - considera todos estes alertas exagerados.

“A IA super-humana não está nem perto do topo da lista de riscos existenciais. Em grande parte porque ainda não existe”, escreveu LeCun no Twitter.


“Até que tenhamos um design básico para IA de nível canino (sem falar no nível humano), discutir como torná-la segura é prematuro”, considera o cientista francês.

À BBC, Arvind Narayanan, um cientista da computação da Universidade de Princeton, nos EUA, disse que os cenários de desastre de ficção científica não são realistas. "A IA atual não é nem de longe capaz o suficiente para que esses riscos se materializem. Como resultado, desviam a atenção para os danos de curto prazo da IA", afirmou.

O proprietário do Twitter e da Tesla, Elon Musk, também desconsidera a hipótese da destruição da humanidade, embora admita algumas preocupações.

“Não acho que a IA tentará destruir a Humanidade, mas pode colocar-nos sob controlos rígidos”, disse Musk recentemente. "Há uma pequena probabilidade de aniquilar a humanidade. Perto de zero, mas não impossível”, afirmou.
pub