Em meio a novos conflitos, o surgimento de uma guerra algorítmica se concretiza nas trincheiras da Ucrânia através do uso da Inteligência Artificial; enquanto inocentes morrem, governos sofrem para encontrar um caminho para a regulamentação
O início desta década apresentou grandes adversidades relacionadas à deterioração das instituições multilaterais e ao aumento da animosidade entre nações e grupos ideológicos dentro de diferentes países. Desde a invenção da bomba atômica, em 1945, a corrida armamentista evoluiu, aperfeiçoando a fabricação de armas e produzindo políticas de defesa e relações exteriores baseadas na dissuasão, em que muitos países utilizam seu poderio tecnológico e bélico para desencorajar adversários a entrarem em conflito real. O mais recente desenvolvimento no campo de batalha tem sido o rápido avanço da inteligência artificial, com a implementação dos Sistemas de Armas Autônomas (AWS, na sigla em inglês), capazes de identificar e matar alvos sem a necessidade de interferência humana. Nesse cenário complexo, diversas guerras regionais eclodiram nos últimos 15 anos, demonstrando que uma retórica belicista passou a dominar o espaço antes reservado ao pragmatismo e à diplomacia desde a criação das Nações Unidas.

Siga o canal da Jovem Pan News e receba as principais notícias no seu WhatsApp!
Ou uso de IA e outras tecnologias modernas na guerra levanta questões críticas para governos, empresas e a sociedade. Dilemas éticos e jurídicos relacionados ao uso dessas armas surgem diariamente, mas compreender o contexto político e social em países com diferentes modelos de governança é fundamental para resolver esse problema urgente. O primeiro caso documentado de um drone tomando decisões letais sem interferência humana ocorreu na Líbia, em 2020. Segundo relatório da Eleo drone turco Kargu-2 atacou forças em retirada no país magrebino. No mesmo ano, no Cáucaso, sistemas de armas semiautônomas foram usados em Nagorno-Karabakh, empregando análise de padrões por IA e reconhecimento facial para localizar e atacar inimigos. Mais recentemente, a guerra entre Ucrânia e Rússia levanta preocupações éticas sobre a integração de IA para identificação de alvos. Tecnologias de ponta estão sendo continuamente testadas no leste da Ucrânia, com sérios problemas de responsabilidade quando decisões erradas são tomadas por AWS.
Diante dos eventos históricos recentes, ministros da defesa, generais e advogados de direitos humanos enfrentam grandes questões. Compreender todos os desafios que os AWS impõem ao DIH, à ética e à política externa não é tarefa fácil. Muitos pesquisadores têm se debruçado sobre essa problemática, se baseando em dados precisos e atualizados regularmente, a fim de mapear o uso de AWS no mundo, não apenas destacando onde essas armas têm sido usadas, mas também avaliando a velocidade de desenvolvimento dessas tecnologias.
A avaliação das implicações éticas tem sido um dos principais objetivos, pois a tomada de decisões letais por máquinas já amplamente discutida na ficção científica, ainda é pouco debatida por diplomatas e ministros. Os limites e a eficácia de algumas iniciativas já demonstram o quão distante as instituições globais estão de uma solução viável. Em um mundo com diferentes formas de governo, as informações disponíveis sobre o tema podem ser imprecisas ou incompletas. Ditaduras, autocracias e até democracias falhas podem fornecer dados distorcidos, o que representa um desafio adicional para a análise.
Algumas resoluções da ONU sobre o tema têm sido discutidas em reuniões anuais, sendo o Grupo de Especialistas Governamentais sobre Sistemas de Armas Letais Autônomas o fórum mais relevante. Até agora, não houve consenso, mas futuras reuniões poderão elaborar compromissos mais detalhados. Considerando que diferentes países conduzem suas políticas de defesa de forma distinta, estratégias nacionais de defesa permitiram compreender como os AWS estão sendo tratados pelas nações com maior presença militar e por Estados que participam direta ou indiretamente como beligerantes.
Os Estados Unidos, com o maior investimento anual em defesa, são peça-chave para que possamos compreender a gravidade do assunto. A China, rival direta dos EUA em IA, aumentou fortemente o financiamento militar na última década e passou a ser avaliada de forma detalhada quanto ao nível de desenvolvimento e à filosofia nacional sobre o uso de armas complexas. A Rússia, embora tenha economia menor, herdou do período soviético vasta capacidade bélica e nuclear, e seu uso de AWS na guerra contra a Ucrânia desde 2022 fornece dados valiosos. A União Europeia, com seu novo plano de rearmamento de cerca de 800 bilhões de euros para a próxima década, também poderá influenciar discussões e regulamentações globais. Além disso, outros atores regionais relevantes, como Irã, Israel, Índia e Paquistão também participam, mesmo que de forma secreta, desta nova corrida armamentista.
O cenário geopolítico atual torna as pesquisas nesta área cada vez mais complexas, pois novos conflitos podem surgir e guerras em andamento podem se transformar com a utilização da Inteligência Artificial. As mudanças recentes na guerra e o clima constante de animosidade entre nações transformaram a forma como os conflitos começam e como as batalhas são vencidas. A inteligência artificial já possui aplicações positivas na medicina e na engenharia, mas seu uso militar crescente reforça a necessidade de uma análise completa e de uma regulamentação mais rigorosa. O sucesso destas iniciativas poderá não apenas ampliar a compreensão dos governos sobre o tema, mas também evitar que inocentes sejam feridos ou mortos por “soldados algorítmicos”, assim como já têm sido atualmente.
*Esse texto não reflete, necessariamente, a opinião da Jovem Pan.