Novas Parcerias Tecnológicas no Setor militar
WASHINGTON (AP) — Na última sexta-feira, o Pentágono anunciou que firmou acordos com sete empresas de tecnologia para integrar inteligência artificial em suas redes de computadores confidenciais. Essa iniciativa busca proporcionar aos militares capacidades alimentadas por IA, com o objetivo de auxiliar em operações de combate.
As empresas envolvidas nesse projeto incluem gigantes como Google, Microsoft, Amazon Web Services, Nvidia, OpenAI, Reflection e SpaceX. Segundo o Departamento de Defesa dos EUA, essas parcerias visam “aumentar a tomada de decisões dos combatentes em ambientes operacionais complexos”.
Um dado curioso é a ausência da Anthropic, empresa de IA que viveu uma disputa pública com o governo Trump sobre questões éticas relacionadas ao uso militar da inteligência artificial.
O Crescimento da Inteligência Artificial nas Forças Armadas
Nos últimos anos, o Departamento de Defesa acelerou a implementação de IA. Essa tecnologia oferece a possibilidade de reduzir significativamente o tempo necessário para identificar e atacar alvos no campo de batalha. Além disso, auxilia na organização de linhas de manutenção e no abastecimento de armas, conforme indicado em um relatório do Brennan Center for Justice.
Leia também: Governo do Amapá Inicia Imersão em Inteligência Artificial na Educação Pública
Leia também: AP Demite Centenas de Funcionários: O Impacto da Inteligência Artificial no Jornalismo
No entanto, o uso da IA levanta preocupações sobre a privacidade dos cidadãos americanos e o risco de que máquinas decidam sobre alvos em combate. Uma das empresas contratadas pelo Pentágono estabeleceu que seu acordo requer supervisão humana em determinadas situações.
Recentemente, as preocupações sobre a aplicação militar da IA aumentaram, especialmente durante os conflitos de Israel contra grupos militantes em Gaza e no Líbano. Nesse contexto, empresas de tecnologia dos EUA forneceram suporte a Israel, o que resultou em um aumento significativo no número de civis mortos, suscitando temores sobre o impacto dessas ferramentas na segurança de inocentes.
A Evolução das Questões Éticas em Torno da IA Militar
Os contratos recentes do Pentágono surgem em um cenário de crescente apreensão sobre a dependência excessiva da tecnologia em operações militares. Helen Toner, diretora executiva interina do Centro de Segurança e Tecnologia Emergente da Universidade de Georgetown, destaca que, atualmente, muitas operações militares são realizadas por pessoas em centros de comando, que tomam decisões complexas em situações caóticas.
Toner, ex-membro do conselho da OpenAI, ressalta que os sistemas de IA podem ser extremamente úteis para resumir informações ou analisar dados de vigilância, ajudando a identificar potenciais alvos. Contudo, ela enfatiza que ainda há muitas questões sobre o envolvimento humano, os riscos e a necessidade de treinamento para operadores dessas tecnologias.
“Como implementar essas ferramentas rapidamente para garantir que sejam eficazes e ofereçam uma vantagem estratégica, preservando a capacitação dos operadores?” questiona Toner. Essa reflexão é crucial, pois representa um desafio constante na integração da tecnologia ao campo de batalha.
Leia também: Tocantins Inova com Política Pioneira de Inteligência Artificial Responsável
Leia também: Receita Federal Implementa Política Inédita para Uso Ético da Inteligência Artificial
Desafios e Preocupações com a Integração da IA
A Anthropic, por sua vez, expressou preocupações em relação ao uso militar de sua tecnologia, buscando garantias em seu contrato que impedissem o uso de armas autônomas e a vigilância do público. O secretário de Defesa, Pete Hegseth, enfatizou que a empresa deve permitir o uso de suas soluções conforme o que o Pentágono considerar apropriado.
A controvérsia se intensificou quando o presidente Donald Trump tentou proibir o uso do chatbot Claude, da Anthropic, em agências federais. O secretário Hegseth também procurou classificar a empresa como um risco para a cadeia de suprimentos, visando proteger sistemas de segurança nacional contra ações de adversários estrangeiros.
A OpenAI, que já possui um acordo com o Pentágono desde março, foi considerada uma substituta para a Anthropic, com o ChatGPT sendo adaptado para ambientes classificados. Em um comunicado, a OpenAI reafirmou seu compromisso em fornecer as melhores ferramentas para os defensores dos EUA.
O Futuro da IA nas Operações Militares
Um dos contratos com o Pentágono inclui cláusulas que garantem supervisão humana em missões nas quais a IA opera de forma autônoma ou semiautônoma. Essa determinação, segundo uma fonte anônima familiarizada com o assunto, visa assegurar que o uso da IA respeite direitos constitucionais e liberdades civis.
Emil Michael, diretor de tecnologia do Pentágono, mencionou que não seria prudente depender de uma única empresa, reconhecendo assim a tensão com a Anthropic. “Quando percebemos que um parceiro não estava disposto a trabalhar conosco da maneira que desejávamos, buscamos outros provedores”, explicou Michael.
Empresas como Amazon e Microsoft já colaboram há muito tempo com os militares em operações confidenciais, mas os novos contratos não parecem alterar significativamente suas parcerias existentes. Por outro lado, empresas emergentes, como a Nvidia e a Reflection, estão começando a adentrar nesse setor, criando modelos de IA que priorizam a transparência.
O Pentágono informou que seus recursos de IA já estão sendo utilizados através da plataforma oficial GenAI.mil. “Militares, civis e contratados estão aplicando essas capacidades no dia a dia, reduzindo tarefas de meses para dias”, afirmou o Departamento de Defesa, ressaltando que as novas ferramentas de IA proporcionarão aos combatentes a confiança necessária para proteger a nação contra eventuais ameaças.
Além disso, a IA pode ser utilizada para prever necessidades de manutenção de helicópteros ou para otimizar o deslocamento de tropas e equipamentos. Também pode ser útil na distinção entre veículos civis e militares em operações de vigilância. No entanto, Toner alerta para o risco de dependência excessiva da tecnologia. “Há um fenômeno chamado viés de automação, onde as pessoas tendem a supor que as máquinas funcionam melhor do que realmente funcionam”, concluiu.
