Sistemas de Armas Autônomas e a necessidade de regulamentação ética

Em meio a novos conflitos, a concretização de uma guerra algorítmica ocorre nas trincheiras da Ucrânia por meio do uso da Inteligência Artificial; enqua…

4 min de leitura

(Imagem de reprodução da internet).

O início desta década apresentou sérias dificuldades relacionadas à deterioração das instituições multilaterais e ao aumento da animosidade entre nações e grupos ideológicos dentro de diferentes países. Desde a invenção da bomba atômica, em 1945, a corrida armamentista evoluiu, aprimorando a fabricação de armas e produzindo políticas de defesa e relações exteriores baseadas na dissuasão, em que muitos países utilizam seu poderio tecnológico e bélico para desencorajar adversários a entrarem em conflito real. O mais recente desenvolvimento no campo de batalha tem sido o rápido avanço da inteligência artificial, com a implementação dos Sistemas de Armas Autônomas (AWS, na sigla em inglês), capazes de identificar e matar alvos sem a necessidade de interferência humana. Nesse cenário complexo, diversas guerras regionais eclodiram nos últimos 15 anos, demonstrando que uma retórica belicista passou a dominar o espaço antes reservado ao pragmatismo e à diplomacia desde a criação das Nações Unidas.

CONTINUA DEPOIS DA PUBLICIDADE

O emprego de IA e outras tecnologias avançadas em contextos bélicos suscita questões críticas para governos, empresas e a sociedade. Dilemas éticos e jurídicos relacionados ao uso dessas armas se apresentam diariamente, sendo essencial compreender o contexto político e social em países com diferentes modelos de governança para solucionar esse problema urgente. O primeiro caso documentado de um drone tomando decisões letais sem intervenção humana ocorreu na Líbia, em 2020. Segundo relatório da ONU, o drone turco Kargu-2 atacou forças em retirada no país magrebino. No mesmo ano, no Cáucaso, sistemas de armas semiautônomos foram utilizados em Nagorno-Karabakh, empregando análise de padrões por IA e reconhecimento facial para localizar e atacar inimigos. Mais recentemente, a guerra entre Ucrânia e Rússia levanta preocupações éticas sobre a integração de IA para identificação de alvos. Tecnologias de ponta estão sendo continuamente testadas no leste da Ucrânia, com sérios problemas de responsabilidade quando decisões erradas são tomadas por AWS.

Diante dos acontecimentos históricos recentes, ministros da defesa, generais e advogados de direitos humanos lidam com questões complexas. Entender todos os desafios que as AWS impõem ao DIH, à ética e à política externa não é uma tarefa simples. Muitos pesquisadores têm se dedicado a essa problemática, com base em dados precisos e atualizados regularmente, buscando mapear o uso de AWS no mundo, não apenas identificando onde essas armas foram utilizadas, mas também avaliando a velocidade de desenvolvimento dessas tecnologias.

LEIA TAMBÉM!

A avaliação das implicações éticas tem sido um dos principais objetivos, pois a tomada de decisões letais por máquinas já amplamente discutida na ficção científica, ainda é pouco debatida por diplomatas e ministros. Os limites e a eficácia de algumas iniciativas já demonstram o quão distante as instituições globais estão de uma solução viável. Em um mundo com diferentes formas de governo, as informações disponíveis sobre o tema podem ser imprecisas ou incompletas. Ditaduras, autocracias e até democracias falhas podem fornecer dados distorcidos, o que representa um desafio adicional para a análise.

Discussões sobre algumas resoluções da ONU sobre o tema ocorrem em reuniões anuais, sendo o Grupo de Especialistas Governamentais sobre Sistemas de Armas Letais Autônomos o fórum mais relevante. Até o momento, não houve consenso, mas futuras reuniões poderão elaborar compromissos mais detalhados. Considerando que diferentes países conduzem suas políticas de defesa de forma distinta, estratégias nacionais de defesa permitiram compreender como os AWS estão sendo tratados pelas nações com maior presença militar e por Estados que participam diretamente ou indiretamente como beligerantes.

Os Estados Unidos, com o maior investimento anual em defesa, são peça-chave para que possamos compreender a gravidade do assunto. A China, rival direta dos EUA em IA, aumentou fortemente o financiamento militar na última década e passou a ser avaliada de forma detalhada quanto ao nível de desenvolvimento e a filosofia nacional sobre o uso de armas complexas. A Rússia, embora tenha economia menor, herdou do período soviético vasta capacidade bélica e nuclear, e seu uso de AWS na guerra contra a Ucrânia desde 2022 fornece dados valiosos. A União Europeia, com seu novo plano de rearmamento de cerca de 800 bilhões de euros para a próxima década, também poderá influenciar discussões e regulamentações globais. Além disso, outros atores regionais relevantes, como Irã, Israel, Índia e Paquistão, também participam, mesmo que de forma secreta, desta nova corrida armamentista.

CONTINUA DEPOIS DA PUBLICIDADE

O contexto geopolítico atual torna as pesquisas nessa área cada vez mais complexas, pois novos conflitos podem emergir e guerras em curso podem evoluir com o uso da Inteligência Artificial. As transformações recentes na guerra e o clima de tensão entre nações alteraram a maneira como os conflitos se iniciam e como as batalhas são conduzidas. A inteligência artificial já apresenta aplicações positivas na medicina e na engenharia, mas seu aumento no uso militar exige uma análise abrangente e uma regulamentação mais rigorosa. O sucesso dessas iniciativas poderá não apenas aprofundar a compreensão dos governos sobre o assunto, mas também evitar que civis sejam feridos ou mortos por “soldados algorítmicos”, como tem ocorrido atualmente.

Fonte por: Jovem Pan

Sair da versão mobile