Nvidia, Microsoft e Amazon fecham acordo com Pentágono para uso militar confidencial de IA
O Pentágono firmou acordos com mais quatro empresas de tecnologia para uso amplo de ferramentas avançadas de inteligência artificial em redes militares confidenciais, segundo um comunicado do Departamento de Defesa dos Estados Unidos e dois funcionários da área ouvidos sobre o assunto.
Nvidia, Microsoft, Reflection AI e a AWS, serviço de nuvem da Amazon, fecharam novos acordos com o Departamento de Defesa dos EUA “para uso operacional legal”, de acordo com o comunicado. Os funcionários pediram anonimato para discutir deliberações internas.
As empresas se juntam a uma lista crescente de gigantes de tecnologia que recentemente se comprometeram a fornecer uso mais amplo de ferramentas de IA em redes classificadas do Pentágono. Outras companhias que firmaram acordos semelhantes incluem SpaceX, OpenAI e Google.
“Esses acordos aceleram a transformação para estabelecer as Forças Armadas dos Estados Unidos como uma força de combate ‘AI-first’”, diz o comunicado, que menciona todas as seis empresas e também marca a primeira confirmação oficial do Pentágono de um novo acordo com o Google reportado no início da semana.
“Há mais de uma década, a AWS está comprometida em apoiar as Forças Armadas do nosso país e garantir que nossos combatentes e parceiros de defesa tenham acesso à melhor tecnologia com o melhor custo-benefício”, afirmou Tim Barrett, porta-voz da AWS. “Esperamos continuar apoiando os esforços de modernização do Departamento de Guerra, desenvolvendo soluções de IA que ajudem a cumprir suas missões críticas.”
Um porta-voz da Microsoft se recusou a comentar, enquanto representantes da Nvidia e da Reflection não estavam imediatamente disponíveis.
O Pentágono negociou seu acordo com a Amazon Web Services até tarde da noite de quinta-feira, segundo dois funcionários informados sobre as conversas.
O esforço para formar uma nova coalizão de empresas de tecnologia para uso maximizado de IA avançada no setor militar ocorre enquanto o Pentágono corre para desenvolver alternativas à ferramenta Claude, da Anthropic PBC. Um rompimento conturbado entre a Anthropic e altos funcionários de defesa expôs uma divisão recorrente entre o Pentágono e o Vale do Silício sobre os riscos iminentes da IA em cenários de guerra.
O Pentágono se recusou a aceitar as “linhas vermelhas” propostas pela Anthropic, que buscavam limitar como os militares dos EUA poderiam usar IA em operações classificadas durante renegociações recentes, e tentou retirar a empresa de toda a cadeia de suprimentos de defesa. A agência se deu seis meses para substituir o Claude, que está sendo usado em operações militares dos EUA contra o Irã. O desacordo agora está em disputa judicial.
Na quinta-feira, o secretário de Defesa, Pete Hegseth, descreveu o líder da Anthropic como um “lunático ideológico” e defendeu o uso de IA pelo departamento.
“Seguimos a lei e humanos tomam as decisões”, disse Hegseth ao Congresso. “A IA não está tomando decisões letais.”
Desde o rompimento com a Anthropic, o Pentágono acelerou seus esforços para atrair outras empresas de IA a concordarem com termos de uso ampliados para seus modelos e infraestrutura em redes secretas e ultrassecretas. Além disso, autoridades de defesa buscam garantir que as Forças Armadas dos EUA não dependam de uma única empresa ou conjunto de limitações, segundo um dos funcionários informados sobre as negociações.
O esforço do Pentágono para equipar os militares dos EUA com IA de ponta em nível classificado ajudará equipes “humano-máquina” capazes de lidar com enormes volumes de dados, afirmou Cameron Stanley, diretor digital e de IA do Pentágono, em comunicado sobre os novos acordos.
Embora a OpenAI tenha assinado um novo acordo para uso ampliado de seus modelos em redes classificadas com o Pentágono no início deste ano, suas ferramentas ainda não estão implantadas nessas redes, segundo um porta-voz da empresa, que acrescentou que a implementação está em andamento.
Diversos grupos de campanha têm destacado os riscos de depender de sistemas assistidos por IA, considerados imprevisíveis, para apoiar decisões de vida ou morte. Críticos argumentam que esses sistemas podem ser propensos a erros e gerar “viés de automação”, ou seja, a tendência de confiar mais nas respostas das máquinas do que no raciocínio humano.
Stanley não especificou as formas exatas pelas quais o Pentágono pretende usar modelos de IA em operações classificadas. Ele os descreveu como ferramentas digitais que facilitariam a análise de dados, aumentariam a compreensão em ambientes complexos e permitiriam “tomar decisões melhores, mais rapidamente”.
O Claude está entre as ferramentas de IA usadas no Maven Smart System, uma plataforma digital utilizada para apoio a operações de direcionamento e de campo de batalha durante ações relacionadas ao Irã. O Comando Central dos EUA afirmou estar usando uma variedade de ferramentas de IA para acelerar processos.
