Forças Armadas dos EUA fecham acordos com 7 empresas de tecnologia para usar sua IA em sistemas confidenciais

WASHINGTON (AP) — O Pentágono disse na sexta-feira que chegou a acordos com sete empresas de tecnologia para usar sua inteligência artificial em suas classificadas redes de computadores, permitindo que os militares se aproximem Capacidades alimentadas por IA para ajudá-la a travar guerras.

Google, Microsoft, Amazon Web Services, Nvidia, OpenAI, Reflection e SpaceX fornecerão seus recursos para ajudar “a aumentar a tomada de decisões dos combatentes em ambientes operacionais complexos,” disse o Departamento de Defesa.

Notavelmente ausente da lista está a empresa de IA Anthropic, após sua disputa pública e briga judicial com o governo Trump sobre a ética e a segurança do uso de IA na guerra.

O Departamento de Defesa tem sido rapidamente acelerando seu uso da IA nos últimos anos. A tecnologia pode ajudar os militares a reduzir o tempo necessário para identificar e atingir alvos no campo de batalha, enquanto ajudam na organização de linhas de manutenção e abastecimento de armas, de acordo com um relatório em março do Brennan Center for Justice.

Mas a IA já levantou preocupações de que seu uso possa invadir a privacidade dos americanos ou permitir que máquinas escolham alvos no campo de batalha. Uma das empresas contratantes com o Pentágono disse que seu acordo exigia supervisão humana em certas situações.

Preocupações com o uso militar da IA surgiu durante a guerra de Israel contra militantes em Gaza e no Líbano, com gigantes da tecnologia dos EUA empoderando Israel discretamente para rastrear alvos. Mas o número de civis mortos também disparou, alimentando temores de que essas ferramentas tenham contribuído para a morte de pessoas inocentes.

Questões sobre o uso militar da IA ainda sendo elaboradas

Os últimos contratos do Pentágono vêm em um momento de ansiedade sobre o potencial de dependência excessiva da tecnologia no campo de batalha, disse Helen Toner, diretora executiva interina do Centro de Segurança e Tecnologia Emergente da Universidade de Georgetown.

“Muita guerra moderna é baseada em pessoas sentadas em centros de comando atrás de monitores, tomando decisões complicadas sobre situações confusas e rápidas,” disse Toner, ex-membro do conselho da OpenAI. Os sistemas de IA “podem ser úteis em termos de resumo de informações ou análise de feeds de vigilância e tentativa de identificar alvos em potencial.”

Mas questões sobre os níveis apropriados de envolvimento humano, risco e treinamento ainda estão sendo elaboradas, disse ela.

“Como você implementa essas ferramentas rapidamente para que elas sejam eficazes e forneçam vantagem estratégica?” Toner perguntou: “Ao mesmo tempo em que reconhece que você precisa treinar os operadores e garantir que eles saibam como usá-los e não confie neles?”

Tais preocupações foram levantados pela Anthropic. A empresa de tecnologia disse que queria garantias em seu contrato de que os militares não usariam sua tecnologia totalmente armas autônomas e a vigilância dos americanos. O secretário de Defesa, Pete Hegseth, disse que a empresa deve permitir quaisquer usos que o Pentágono considere lícitos.

Anthropic processou depois que o presidente Donald Trump, republicano, tentou a pare todas as agências federais de usar o chatbot da empresa Claude e Hegseth procuraram rotule a empresa como um risco da cadeia de suprimentosdesignação destinada a proteger contra a sabotagem dos sistemas de segurança nacional por parte de adversários estrangeiros.

A OpenAI havia anunciado um acordo com o Pentágono em março para efetivamente substituir o Anthropic pelo ChatGPT em ambientes classificados. A OpenAI confirmou em um comunicado na sexta-feira que era o mesmo acordo que anunciou no início de março.

“Como dissemos quando anunciamos nosso acordo há vários meses, acreditamos que as pessoas que defendem os Estados Unidos devem ter as melhores ferramentas do mundo,”, disse a empresa.

O acordo de uma empresa com o Pentágono incluía uma linguagem que dizia que deveria haver supervisão humana sobre quaisquer missões nas quais os sistemas de IA agissem de forma autônoma ou semiautônoma, de acordo com uma pessoa familiarizada com o acordo que não estava autorizada a falar sobre isso publicamente. A linguagem também disse que as ferramentas de IA devem ser usadas de maneiras consistentes com os direitos constitucionais e as liberdades civis.

Isso se assemelha aos pontos de aderência do Anthropic, embora a OpenAI tenha dito anteriormente que garantiu garantias semelhantes quando fez seu próprio acordo com o Pentágono.

O ponto de vista do Pentágono

Emil Michael, diretor de tecnologia do Pentágono, disse à CNBC na sexta-feira que teria sido irresponsável confiar em apenas uma empresa, um reconhecimento do atrito com a Anthropic.

“E quando soubemos que um parceiro realmente não queria trabalhar conosco da maneira que queríamos trabalhar com eles, saímos e nos certificamos de que tínhamos vários provedores diferentes,” disse Michael.

Algumas das empresas, incluindo a Amazon e a Microsoft, trabalham há muito tempo com os militares em ambientes confidenciais, e não ficou claro se os novos acordos alteraram significativamente suas parcerias governamentais. Outros, como a fabricante de chips Nvidia e a startup Reflection, são novos nesse tipo de trabalho. Ambas as empresas fazem modelos de IA de código aberto, que Michael descreveu como uma prioridade para fornecer uma alternativa americana de “” ao rápido desenvolvimento de sistemas de IA da China, nos quais alguns componentes-chave são acessíveis publicamente para outros construírem.

O Pentágono disse na sexta-feira que os militares já estão usando seus recursos de IA por meio de sua plataforma oficial, o GenAI.mil.

“Lutadores, civis e empreiteiros estão colocando essas capacidades em uso prático agora mesmo, cortando muitas tarefas de meses a dias,”, disse o Pentágono, acrescentando que as crescentes capacidades de IA dos militares “darão aos combatentes as ferramentas necessárias para agir com confiança e salvaguardar a nação contra qualquer ameaça.”

Em muitos casos, os militares usam a inteligência artificial da mesma forma que os civis: para assumir tarefas rotineiras que os humanos levariam horas ou dias para concluir, disse Toner, da Universidade de Georgetown.

a IA pode ser usada para prever melhor quando um helicóptero precisa de manutenção ou descobrir como movimentar eficientemente grandes quantidades de tropas e equipamentos, disse ela. Também pode ajudar a determinar se os veículos alimentados pela vigilância de um drone são civis ou militares.

Mas as pessoas não devem se tornar excessivamente dependentes disso.

“Há um fenômeno chamado viés de automação, em que as pessoas podem ser propensas a assumir que as máquinas funcionam melhor do que realmente funcionam,” Toner disse.


Crédito: Link de origem

- Advertisement -

Deixe uma resposta

Seu endereço de email não será publicado.