Drone militar "caçou e atacou" soldados na Líbia em modo autónomo

por Graça Andrade Ramos - RTP
Um STM Kargu-2 STM

O incidente ocorreu o ano passado e as vítimas do ataque aéreo foram soldados do general líbio Khalifa Haftar, refere o relatório das Nações Unidas sobre o conflito líbio, publicado em março último.

A arma de fabrico turco, um drone STM Kargu-2, usa Inteligência Artificial para identificar e estabelecer alvos. Um desses engenhos terá decidido de forma autónoma perseguir e atacar tropas de Haftar que retiravam de áreas em litígio. É um novo capítulo na história das armas autónomas, no qual estas evidenciam capacidades de caçar e de atacar seres humanos sem antes solicitar ordens específicas nesse sentido.

As referências ao ataque ocuparam poucos parágrafos no relatório de 500 páginas dos especialistas das Nações Unidas para a Líbia, e passaram despercebidas até que a revista Bulletin of the Atomics Scientist as divulgou dia 20 de maio, num artigo de análise aos perigos e vantagens de armas baseadas em IA que aprendem e operam em modo autónomo.

O Kargu é um drone vadio e kamikaze de quatro rotores, capaz de selecionar e de atacar alvos com base na classificação automática de objetos através de algoritmos de IA. Ao chegar à área identificada para o ataque, o quadricóptero detona uma carga explosiva que transporta, espalhando estilhaços numa vasta área.

O drone de fabrico turco tem capacidade de operar em formação de enxame com até 20 engenhos semelhantes. A programação inclui ainda o modo Fire&Forget (dispara e apaga), através do fornecimento de coordenadas, além de sistemas de segurança para abortar a missão e regressar à base em qualquer altura da operação - incluindo no ataque.

Vídeos publicados no YouTube pela empresa fabricante, a STM, exemplificam as capacidades e os efeitos do ataque destes drones.

  Contexto do ataque
O relatório da ONU classifica o Kargu-2 como uma arma autónoma “letal” e afirma que um destes engenhos operado pelas forças do Governo do Acordo Nacional líbio, GNA, “caçou e atacou remotamente” combatentes identificados como Forças Afiliadas de Haftar, HAF. Decorria então a Operação Tempestade da Paz, nome de código da campanha militar lançada pelo exército do GNA em fins de março de 2020, para desalojar as HAF entrincheiradas em posições estratégicas ao longo da costa.

Os Kargu-2 foram lançados para destruir as capacidades bélicas aéreas das HAF.

Os sistemas armados autónomos letais estavam programados para atacar alvos sem necessidade de conexão entre o operador e a munição: de facto, uma verdadeira capacidade fire, forget and find” (dispara, apaga e busca), refere o relatório da ONU.

O poder aéreo superior da GNA forçou as unidades de combate do general Haftar a retirar. “Durante o recuo, foram alvo de assédio constante por parte dos veículos aéreos não tripulados e dos sistemas de armas autónomas letais”, indicam os relatores.

Um dos principais alvos foram os sistemas móveis tripulados Pantsir S-1, de mísseis terra-ar, desenvolvidos em parceria russa/emirados. Sem ser explícito quanto a vítimas mortais no ataque autónomo do drone, o relatório menciona “perdas pesadas” verificadas nestas unidades de combate.

“Estes [sistemas] sofreram perdas pesadas, mesmo quando eram usados de forma eletronicamente passiva para evitar interferências da GNA”, revela o relatório. “Com a ameaça Pantsir S-1 neutralizada, as unidades de Haftar ficaram na prática sem qualquer proteção contra ataques aéreos remotos”.
Outro incidente
A terem-se verificado baixas humanas, este seria o primeiro caso mundial confirmado de seres humanos mortos por armas autónomas baseadas em IA. A referência de que o drone “caçou e atacou remotamente” os soldados HAF é atribuída no relatório, em nota de rodapé, a “uma única fonte confidencial”, sendo impossível de verificar.

Há quase dois anos falou-se de um outro incidente suspeito, de um grupo de agricultores alvo de ataque de drones autónomos, na área de Wazir Tangi, na província de Nangarhar, Afeganistão. A acusação veio das autoridades tribais locais e referia pelo menos 30 trabalhadores rurais mortos e outros 40 feridos.

O Governo afegão reconheceu somente uma operação militar na área. A missão das armas seria destruir um esconderijo de militantes islâmicos mas a identificação do alvo falhou e o ataque vitimou os agricultores que se haviam reunido em torno de uma fogueira.



O debate sobre a necessidade ou não de restrições à utilização de armas autónomas ainda agora começou.

Os apelos à sua proibição total envolvem já personalidades como o falecido Stephen Hawking e Elon Musk, que apontam a incapacidade das IA para distinguir entre militares e civis, ou para estabelecer a legitimidade dos alvos.

Os seus defensores referem que, pelo contrário, as armas autónomas irão ser cruciais no combate a ameaças rápidas como enxames de drones e irão provavelmente reduzir a ameaça à população civil, uma vez que cometem menos erros do que os sistemas operados por seres humanos.
Análise de riscos
O Bulletin refere nove questões importantes para compreender o funcionamento dos engenhos autónomos, sejam ou não armas, os seus limites e os riscos associados.

A primeira prende-se com a tomada de decisões. As IAs de robots operam com base em algoritmos, “ensinados” a partir de programas de visualização através de treinos de dados intensivos para conseguir com fiabilidade classificar objetos, distinguindo por exemplo autocarros escolares de carros armados. A complexidade da base de dados pode contudo ser insuficiente e a IA pode aprender mal a “lição”. A revista cita o caso de uma empresa que considerou boa ideia usar uma IA para tomar decisões quanto a novos empregados, até a gestão perceber que a máquina colocava no topo das prioridades de classificação a pessoa chamar-se Jared e jogar lacrosse no liceu.

Numa arma autónoma, uma aprendizagem cumulativa de erros pode levar a consequências trágicas, o que exige que programadores e fabricantes os antecipem.

A testagem contínua e em múltiplos cenários tem de ser considerada e implementada, defende o autor do artigo.

Também a identificação dos alvos pode ser complicada. Um carro armado disfarçado pode iludir o sistema ou ser impossível de detetar entre as árvores. A distinção entre um agricultor armado com um pau ou uma espingarda para defender os seus campos e um soldado, sobretudo se as roupas forem semelhantes, é quase impossível para uma máquina, pelo menos para já.

O papel dos seres humanos no controlo destas armas é também motivo de reflexão, com o autor do artigo a sugerir que a autonomia seja opcional e reservada a períodos muito curtos e ocasiões específicas. Recomenda igualmente que a carga explosiva transportada pelos drones seja mínima e nunca de natureza atómica, para minimizar os efeitos se algo correr mal.

As operações em enxame das armas autónomas multiplicam igualmente os riscos, uma vez que a análise é comunicada e partilhada. Os drones coordenam as suas ações, o que pode levar a uma cascata de erros, sobretudo numa tomada de decisão coletiva.


A tecnologia das armas autónomas é recente, mas a Líbia tem sido o teatro de guerra ideal para esta ser testada e aperfeiçoada, levando a que a sua presença seja cada vez mais habitual em áreas de conflito. É de esperar que grupos armados extremistas adotem estes engenhos com cada vez maior frequência, o que exige medidas de controlo de comercialização e o desenvolvimento de táticas de neutralização. Ao virar da esquina
É necessário sublinhar que a sociedade civil já beneficia de alguns dos avanços em IA, sobretudo através de drones de vigilância, de robôs aspiradores, de telemóveis ou de televisores, sem falar nos veículos. Sublinha-se que a confiança na autonomia de um carro pode levar um condutor a distrair-se mais facilmente, com multiplicação do risco de acidentes.

Nas cidades, a capacidade de erro das IA sobe por exemplo exponencialmente devido à multiplicidade de objetos semelhantes, muitas vezes obscurecidos por vegetação.

Também as condições atmosféricas são um fator a considerar, já que chuva ou nevoeiro interferem na capacidade de um drone, por exemplo, detetar obstáculos numa estrada e lançar um alerta.

Operações de vigilância fronteiriça ou climatérica são outras funções em que a autonomia destes engenhos pode ser uma vantagem. A abrangência do seu papel irá contudo obrigar a reflexões legais.
pub