Última Hora
Estados Unidos e Israel bombardeiam Irão num "ataque preventivo"

Pentágono ameaça intervir na Anthropic se empresa não recuar sobre uso militar da sua IA

Pentágono ameaça intervir na Anthropic se empresa não recuar sobre uso militar da sua IA

O Departamento de Defesa dos EUA e a empresa de inteligência artificial (IA) Anthropic estão numa `batalha` crescente que pode culminar numa intervenção governamental, devido a divergências sobre o uso da tecnologia para fins letais e de vigilância.

Lusa /

O diferendo, que atingiu níveis críticos esta semana, gira em torno da possibilidade de o modelo de linguagem Claude, desenvolvido pela Anthropic, ser utilizado em sistemas de armas autónomas e para a tomada de decisões durante cenários de conflito extremo, incluindo hipotéticos ataques nucleares, noticiou hoje o The Washington Post.

O Pentágono estabeleceu um prazo para a Anthropic até às 17:01 de hoje (22:01 de Lisboa).

Caso as exigências não sejam cumpridas, o Governo sugeriu que poderia invocar a sua autoridade legal, possivelmente através da Lei de Produção de Defesa, para obrigar a empresa a entregar a sua tecnologia, além de a incluir numa "lista negra" para futuros contratos de Defesa.

De acordo com uma fonte da Defesa citada pelo jornal, o diretor de tecnologia do Pentágono restringiu o debate a um cenário de vida ou morte numa reunião no mês passado, colocando a questão: se um míssil balístico intercontinental fosse lançado contra os Estados Unidos, poderiam as forças armadas utilizar o sistema de inteligência artificial Claude, da Anthropic, para ajudar a intercetá-lo?

A resposta do CEO da Anthropic, Dario Amodei, foi algo como: "Podem ligar-nos e nós resolvemos", o que terá irritado o Pentágono.

No entanto, um porta-voz da Anthropic negou ao The Washington Post que Amodei tenha dado essa resposta, classificando-a como "demonstradamente falsa" e afirmando que a empresa concordou em permitir o uso do Claude para defesa antimíssil.

O conflito tem também nuances políticas, uma vez que vários especialistas consultados pelo jornal sugerem que a Anthropic, fundada por antigos membros da OpenAI com foco na segurança, está sob escrutínio da administração do Presidente Donald Trump por não estar alinhada com a sua agenda.

Por sua vez, o porta-voz do Pentágono, Sean Parnell, afirmou na quinta-feira numa publicação na rede social X que "o Departamento de Guerra não tem interesse em utilizar a IA para realizar vigilância em massa de cidadãos americanos (o que é ilegal), nem deseja utilizar a IA para desenvolver armas autónomas que operem sem intervenção humana".

"Esta narrativa é falsa e está a ser disseminada por esquerdistas nos media", frisou.

"Estamos a solicitar o seguinte, permitir que o Pentágono utilize o modelo da Anthropic para todos os fins legais", observou, acrescentando que os EUA não permitirão que "nenhuma empresa dite os termos das decisões operacionais".

O subsecretário de Defesa, Emil Michael, adiantou na quinta-feira à CBS News que a Anthropic foi convidada a participar no conselho de ética em IA, mas que as regras e políticas das Forças Armadas e do Governo dos EUA não podem ser colocadas nas mãos de uma única empresa privada.

Tópicos
PUB