Relatório. Inteligência Artificial pode ajudar a planear ataques com armas biológicas

Os modelos de linguagem de grande dimensão (LLM, na sigla em inglês), utilizados para alimentar chatbots e assistentes virtuais, podem ajudar a planear ataques com armas biológicas, de acordo com o relatório de um think-tank norte-americano, divulgado na segunda-feira, avança o jornal britânico The Guardian.

Rachel Mestre Mesquita - RTP /
Testalize.me (@testalizeme) - Unsplash

O grupo de reflexão Rand Corporation divulgou as conclusões preliminares de uma investigação que testou vários modelos de linguagem de grande dimensão (LLM) e revelou que estes podem ser utilizados para fornecer orientações que “poderiam ajudar no planeamento e execução de um ataque biológico”, segundo o Guardian. Embora não consigam gerar instruções biológicas explícitas para o fabrico de armas. As armas biológicas transportam organismos, como vírus e bactérias, e podem provocar a disseminação de doenças que poderiam colocar em risco uma população inteira.

De acordo com o relatório, ataques biológicos anteriores “falharam devido à falta de informações” mas podem vir a ter “sucesso num mundo em que as ferramentas da IA têm acesso a todas as informações necessárias para colmatar essa lacuna”. Não foram revelados quais os modelos de linguagem de grande dimensão (LLM) testados. Um dos LLM testados pelo grupo de investigação identificou potenciais agentes biológicos, incluindo os que causam varíola, antrax e peste, e discutiu as hipóteses de causarem a morte da população em massa.

Nesta investigação, os autores do relatório debruçaram-se no potencial da Inteligência Artificial (IA) vir a ser utilizada no desenvolvimento de armas biológicas, com o objetivo de identificar e mitigar os riscos representados pelo uso indevido.

Já que consideram que à “velocidade com que as tecnologias de IA estão a evoluir muitas vezes supera a capacidade de supervisão regulatória do governo, levando a uma lacuna potencial nas políticas e regulamentações existentes".

O perigo do uso indevido da Inteligência Artificial (IA) será discutido na próxima cimeira internacional sobre Segurança da IA, a 1 e 2 de novembro em Bletchley Park, nos arredores de Londres. Durante o encontro vários líderes mundiais, empresas e especialistas procurarão encontrar um consenso sobre o uso seguro da tecnologia.
PUB