Pentágono ameaça intervir na Anthropic se empresa não recuar sobre uso militar da sua IA
O Departamento de Defesa dos EUA e a empresa de inteligência artificial (IA) Anthropic estão numa `batalha` crescente que pode culminar numa intervenção governamental, devido a divergências sobre o uso da tecnologia para fins letais e de vigilância.
O diferendo, que atingiu níveis críticos esta semana, gira em torno da possibilidade de o modelo de linguagem Claude, desenvolvido pela Anthropic, ser utilizado em sistemas de armas autónomas e para a tomada de decisões durante cenários de conflito extremo, incluindo hipotéticos ataques nucleares, noticiou hoje o The Washington Post.
O Pentágono estabeleceu um prazo para a Anthropic até às 17:01 de hoje (22:01 de Lisboa).
Caso as exigências não sejam cumpridas, o Governo sugeriu que poderia invocar a sua autoridade legal, possivelmente através da Lei de Produção de Defesa, para obrigar a empresa a entregar a sua tecnologia, além de a incluir numa "lista negra" para futuros contratos de Defesa.
De acordo com uma fonte da Defesa citada pelo jornal, o diretor de tecnologia do Pentágono restringiu o debate a um cenário de vida ou morte numa reunião no mês passado, colocando a questão: se um míssil balístico intercontinental fosse lançado contra os Estados Unidos, poderiam as forças armadas utilizar o sistema de inteligência artificial Claude, da Anthropic, para ajudar a intercetá-lo?
A resposta do CEO da Anthropic, Dario Amodei, foi algo como: "Podem ligar-nos e nós resolvemos", o que terá irritado o Pentágono.
No entanto, um porta-voz da Anthropic negou ao The Washington Post que Amodei tenha dado essa resposta, classificando-a como "demonstradamente falsa" e afirmando que a empresa concordou em permitir o uso do Claude para defesa antimíssil.
O conflito tem também nuances políticas, uma vez que vários especialistas consultados pelo jornal sugerem que a Anthropic, fundada por antigos membros da OpenAI com foco na segurança, está sob escrutínio da administração do Presidente Donald Trump por não estar alinhada com a sua agenda.
Por sua vez, o porta-voz do Pentágono, Sean Parnell, afirmou na quinta-feira numa publicação na rede social X que "o Departamento de Guerra não tem interesse em utilizar a IA para realizar vigilância em massa de cidadãos americanos (o que é ilegal), nem deseja utilizar a IA para desenvolver armas autónomas que operem sem intervenção humana".
"Esta narrativa é falsa e está a ser disseminada por esquerdistas nos media", frisou.
"Estamos a solicitar o seguinte, permitir que o Pentágono utilize o modelo da Anthropic para todos os fins legais", observou, acrescentando que os EUA não permitirão que "nenhuma empresa dite os termos das decisões operacionais".
O subsecretário de Defesa, Emil Michael, adiantou na quinta-feira à CBS News que a Anthropic foi convidada a participar no conselho de ética em IA, mas que as regras e políticas das Forças Armadas e do Governo dos EUA não podem ser colocadas nas mãos de uma única empresa privada.