A IA nasceu para ajudar a humanidade, mas em breve será usada para matar inimigos em guerras
Memorandos internos de big techs proibiam o uso de IA em iniciativas militares, mas tudo mudou recentemente — e devemos nos preocupar

A OpenAI, desenvolvedora do ChatGPT, nasceu como uma organização sem fins lucrativos e dizia ter como missão criar tecnologia amigável para a humanidade. Seu presidente de conselho até 2023, Greg Brockman, afirmou em 2018 que “a melhor coisa que eu poderia imaginar fazer era aproximar a humanidade da construção de IA real de forma segura”. Na época, Elon Musk ainda tinha uma posição importante na empresa, antes de se envolver em um embate que ainda não terminou.
Leia também
O Google nasceu com filosofia similar. Seu principal lema era Don’t be evil (”não seja maligno”, em tradução livre), adotado oficialmente em 2004 e abandonado em 2015, quando a empresa foi reestruturada em torno da controladora Alphabet. Corporações costumam mudar rápido quando o dinheiro entra em jogo.
Em 2018, a gigante de buscas fez uma parceria com o Pentágono para criar tecnologia que analisaria imagens de drones com IA — algoritmos da empresa vasculhariam objetos e combatentes nas imagens com objetivos estratégicos. Era o infame Projeto Maven. Na época, funcionários da empresa ficaram indignados com o uso da tecnologia da empresa para fins militares e o programa acabou abandonado.
Essas posturas são quase impensáveis nos dias atuais. A ligação entre as big techs e o complexo militar-industrial dos Estados Unidos hoje é profunda, praticamente indissociável. A Amazon fornece infraestrutura de nuvem, a Microsoft é uma das maiores fornecedoras de serviços de segurança cibernética ao Departamento de Defesa, e Google e OpenAI — empresas que já se descreveram como “benéficas” — estão desenvolvendo software de IA para o campo de batalha.
Dilema ético
Usar inteligência artificial na frente de combate era um dilema ético. Há anos, a ONU faz alertas e apelos sobre o assunto. Empregar algoritmos para decidir quando e em quem atirar ou bombardear não parece uma ideia promissora — afinal, quem pode ser culpado em caso de erros ou crimes de guerra? E como confiar em uma tecnologia cujas decisões não podem ser previstas ou entendidas até mesmo pelos maiores especialistas no assunto?
Tanto é que um memorando interno do Google listava “armas ou outras tecnologias cujo principal propósito ou implementação é causar ou facilitar diretamente ferimentos às pessoas” como “aplicações de IA que não buscaremos”. O memorando foi escrito dois meses depois do mal-estar interno causado pelo Projeto Maven, mas foi atualizado no início de fevereiro deste ano pelo CEO Sundar Pichai, que removeu qualquer referência a não criar IA militares.
Em janeiro de 2024, a OpenAI já tinha feito o mesmo, após deletar uma norma interna que não permitia o uso de suas ferramentas em “atividades que tenham alto risco de dano físico”.
IA na guerra
Em dezembro, a OpenAI anunciou uma parceria com a Anduril Industries — empresa focada na criação de equipamento militar com IA — para usar um modelo de inteligência artificial que ajude forças de combate a identificar aliados e se defender de ataques aéreos.
Conforme a Anduril afirmou em um comunicado da época:
“Como parte da nova iniciativa, a Anduril e a OpenAI explorarão como modelos de IA de ponta podem ser alavancados para sintetizar rapidamente dados sensíveis a tempo, reduzir a carga sobre operadores humanos e melhorar a consciência situacional.”
Uma das ideias é evitar que enxames de drones, como os usados na guerra na Ucrânia, atinjam tropas americanas em campos de batalha. Mas a Anduril lida com armas letais controladas por IA — mísseis e drones são os principais deles.
As duas empresas afirmam que têm preocupações sérias com segurança, como afirma novamente a Anduril em seu comunicado.
“Sujeita a uma supervisão robusta, esta colaboração será guiada por protocolos tecnicamente informados, enfatizando a confiança e a responsabilidade no desenvolvimento e emprego de IA avançada para missões de segurança nacional.”
Essa era uma mudança já esperada, dado a íntima relação entre a indústria de tecnologia ocidental e a indústria militar. É o que aponta Giovanni La Porta, CEO da Vórtice.ai, em entrevista ao blog.
“Empresas de tecnologia sempre trabalharam em parceria com as forças de defesa e segurança dos EUA. Um exemplo clássico é a IBM, que desenvolveu computadores para os militares dos EUA logo após a Segunda Guerra Mundial e, posteriormente, se tornou um dos pilares da computação empresarial. Outro caso é a DARPA, que financiou pesquisas que levaram ao desenvolvimento da internet e, indiretamente, ao crescimento de gigantes como Google, Amazon e outras Big Techs”, afirma La Porta.
Mesmo fora do conglomerado das maiores fabricantes de armas do mundo, alguns engenheiros já mostraram como poderiam ser armas guiadas por IA. Elas ainda dependem de certo controle humano para fins de demonstração, mas nada parece impedir que dispositivos totalmente autônomos possam ser operados no campo de batalha.
Um exemplo recente que viralizou é um rifle conectado a uma API do ChatGPT, capaz de disparar e responder a prompts com velocidade e precisão assustadoras. A criação é de um engenheiro conhecido online como STS 3D, que fez uma demonstração já famosa.
“ChatGPT, estamos sob ataque da frente esquerda e da frente direita. Responda de acordo”, afirma ele em um momento do vídeo, antes do fuzil metralhar uma parede com cartuchos de festim, e ainda oferecer mais ajuda com uma voz robótica e amigável.
O sucesso aparente da arma é ainda maior se pensarmos que o ChatGPT é uma tecnologia voltada para o consumidor e não foi programada pensando em usos no campo de batalha. Como era de se esperar, a OpenAI não gostou da ideia e disse ao engenheiro que “as Políticas de Uso da OpenAI proíbem o uso de nossos serviços para desenvolver ou usar armas, ou para automatizar certos sistemas que podem afetar a segurança pessoal”, antes de cortar o acesso dele ao sistema.
A arma simples criada por STS 3D quase certamente é apenas o início de uma era de armas automatizadas, operadas por sistemas de aprendizado de IA acima da velocidade de decisões humanas. Mas os humanos provavelmente ainda serão necessários, avalia Giovanni La Porta.
“A IA será apenas mais uma ferramenta no arsenal bélico, auxiliando no planejamento estratégico, na análise de dados e na automação de certos processos. O conflito na Ucrânia já demonstra essa tendência, com o uso massivo de drones baratos controlados remotamente, capazes de destruir tanques de milhões de dólares. Esse é um exemplo claro de como a tecnologia pode redefinir o campo de batalha sem necessariamente remover o fator humano da equação”, afirma La Porta.
Planejamento estratégico
Ainda assim, a guerra do futuro muito provavelmente terá poucos vestígios da atuação humana. Imagine drones voando na velocidade do som, mísseis disparados automaticamente em alvos decididos por um computador localizado a milhões de quilômetros da frente de batalha. Essa nova realidade talvez relegue a atuação de soldados e generais a um nível secundário, de supervisão ou realização de tarefas mais específicas.
Um comunicado do Departamento de Defesa dos Estados Unidos anunciou a criação do Projeto Thunderforge, uma iniciativa para usar IA no planejamento de combate e tomada de decisões na frente de guerra. Na página oficial da Unidade de Inovação da Defesa das Forças Arnadas dis EUA, Bryce Goodman, líder do programa, afirma:
“Os processos de planejamento militar de hoje dependem de tecnologias e metodologias de décadas, criando uma incompatibilidade fundamental entre a velocidade da guerra moderna e nossa capacidade de resposta. (…) O Thunderforge marca uma mudança decisiva em direção à guerra baseada em dados e alimentada por IA, garantindo que as forças dos EUA possam antecipar e responder a ameaças com velocidade e precisão. Após sua implantação inicial, o Thunderforge será dimensionado em todos os comandos de combate.”
Pode parecer pura propaganda em busca de vastos orçamentos, mas indica que um caminho ainda mais sombrio para as guerras do futuro. Em fevereiro de 2024, um estudo do Instituto de Tecnologia da Georgia e da Universidade de Stanford revelou ser um pouco preocupante confiar decisões importantes de guerra a uma IA.
Os pesquisadores analisaram cinco modelos de IA, que deveriam representar um país fictício com diferentes poderios militares em três cenários: invasão inimiga, ataque cibernético e um ambiente sem conflitos. Segundo os pesquisadores, os cinco modelos tomaram decisões baseados em “formas de escalada e padrões de escalada difíceis de prever”.
“Observamos ainda que os modelos tendem a desenvolver dinâmicas de corrida armamentista entre si, levando ao aumento do armamento militar e nuclear e, em casos raros, à escolha de implantar armas nucleares”, afirmam os pesquisadores na introdução do artigo, demonstrando a falta de confiabilidade de uma IA em cenários de guerra — o ChatGPT foi um dos menos confiáveis.
Os resultados estão dentro do esperado para o propósito de uma IA, despejando conteúdo baseados em mecanismos muito complexos capazes de prever respostas corretas baseados em toneladas de dados processados. É exatamente essa complexidade que impede até os maiores especialistas do assunto de descobrir o que uma IA levou em conta ao dar uma resposta — e por isso os pesquisadores pediram cautela quanto a iniciativas como o Thunderforge.
“A natureza imprevisível do comportamento de escalada exibido por esses modelos em ambientes simulados ressalta a necessidade de uma abordagem muito cautelosa para sua integração em operações militares e de política externa de alto risco”, afirmam os pesquisadores por trás do estudo.
Botão vermelho
É a imprevisibilidade das IA que talvez evite que elas sejam adotadas massivamente — ao menos por países com muito a perder em caso de erros no campo de batalha. Imagine deixar um arsenal nuclear ser gerenciado por uma IA que pode decidir desencadear um ataque massivo em caso de uma invasão cibernética. Não parece o cenário dos sonhos dos estrategistas militares que sobreviveram às ameaças da Guerra Fria.
“A grande diferença entre a IA militar e as armas nucleares está na previsibilidade e controle. Embora a ameaça de um holocausto nuclear seja sempre presente, a lógica da dissuasão nuclear manteve as potências globais em um equilíbrio instável”, afirma Giovanni La Porta, CEO da Vórtice.ai, que ainda complementa:
“No caso da IA, no entanto, não há um equivalente claro para a dissuasão. Um sistema de IA que controle armamentos e estratégias militares poderia, em teoria, agir de forma imprevisível, hackear sistemas inimigos ou iniciar ataques preventivos com base em probabilidades calculadas, e não em julgamento humano.”
E quem poderia ser responsabilizado em caso de erros de avaliação ou decisão de uma IA? Como era de se esperar, não existe — e provavelmente não existirá — resposta clara para tal questão, o que pode tornar as guerras do futuro ainda mais complicadas.
“Com a automatização das decisões militares, pode surgir um cenário onde erros fatais sejam tratados como “falhas técnicas inevitáveis”, diluindo a responsabilidade e tornando ainda mais difícil a aplicação de qualquer julgamento ético ou jurídico”, finaliza La Porta.