Numa altura em que se assiste a uma corrida aos chatbots de Inteligência Artificial (IA), investigadores e especialistas apelam agora a uma desaceleração neste campo, alertando para os "riscos significativos para a sociedade e humanidade".
Na carta, emitida pela organização sem fins lucrativos Future of Life Institute, os signatários apelam a uma pausa no desenvolvimento destes sistemas para que os potenciais riscos à segurança sejam estudados e controlados.
“Nos últimos meses, os laboratórios de IA lançaram uma corrida fora de controlo para desenvolver e implementar mentes digitais cada vez mais poderosas e que ninguém – nem mesmo os seus criadores – pode entender, prever ou controlar de forma confiável”, lê-se na carta. “Sistemas poderosos de IA devem ser desenvolvidos apenas quando estivermos confiantes de que os seus efeitos serão positivos e os seus riscos serão controláveis”, acrescenta a carta, que alerta que “sistemas de IA com inteligência competitiva humana podem representar riscos significativos para a sociedade e a humanidade”.
Os subscritores, que incluem o laboratório de pesquisa responsável pelo ChatGPT e GPT-4, Emad Mostaque, que fundou a Stability AI, e Steve Wozniak, co-fundador da Apple, citam o próprio co-fundador da OpenIA, Sam Altman, para justificar o apelo.
“A certa altura, pode ser importante ter uma revisão independente antes de começarmos a testar sistemas futuros e, para os esforços mais avançados, concordar em limitar a taxa de crescimento da computação usada para criar novos modelos”, disse Altman em fevereiro.
“Nós concordamos. Esse momento é agora”, escrevem na carta.
“Laboratórios de IA e especialistas independentes devem usar essa pausa para desenvolver e implementar um conjunto de protocolos de segurança compartilhados para design e desenvolvimento avançados de IA que são rigorosamente fiscalizados e supervisionados por especialistas externos independentes”, acrescenta a missiva.
Os signatários da carta acrescentam que se os investigadores não interromperem voluntariamente o seu trabalho no desenvolvimento de modelos de IA mais avançados do que o GPT-4, “os Governos devem intervir”.
Recentemente, foram apresentadas várias propostas para a regulamentação da tecnologia nos EUA, Reino Unido e na União Europeia. Esta quarta-feira, o governo britânico descartou um novo regulador de IA, mas estabeleceu uma regulamentação com novas diretrizes sobre o “uso responsável”.
IA pode ameaçar 300 milhões de empregos
Na carta, os signatários alertam que IA pode “contaminar” os canais de informação com desinformação e substituir empregos por automação.
Num relatório publicado no domingo, o grupo financeiro Goldman Sachs fornece o número exato: cerca de 300 milhões de empregos em todo o mundo podem ser substituídos por sistemas de IA.
Nos Estados Unidos e na Europa, aproximadamente dois terços dos empregos atuais “estão expostos a algum grau de automação da IA” e até um quarto de todo o trabalho pode ser feito completamente pela IA, estima o banco.
Há duas semanas, a OpenAI lançou o modelo mais avançado do ChatGPT, o GPT-4, que impressionou os utilizadores.
O chatbot de inteligência artificial, projetado para gerar textos com alta qualidade com base em toda a informação disponível na Internet, é agora capaz de gerar respostas mais completas e de analisar imagens para além de textos. A nova versão do chatbot é capaz de transformar um desenho num website em minutos e de criar receitas com base em fotografias de ingredientes.
Sentindo-se ameaçada e pressionada pela tenologia de ponta da OpenAI, também a Google passou a disponibilizar, na semana passada, um chatbot chamado Bard.
Tal como o ChatGPT e o Bing, da Microsoft, o Bard é um sistema de conversação, baseado no sistema de pergunta e resposta, capaz de produzir textos com uma qualidade confundível com a escrita do ser humano.
Até ao momento, o novo chatbot está disponível a um número limitado de utilizadores nos EUA e no Reino Unido, mas a gigante tecnológica explica que irá expandir a mais países e incluir mais idiomas ao longo do tempo.