Máquinas de matar: por que precisamos falar sobre o uso de IA nas forças armadas

Oi galera, prontos para mergulhar no mundo louco das notícias de cripto? Junte-se ao nosso canal do Telegram onde deciframos os mistérios da blockchain e rimos das mudanças de humor imprevisíveis do Bitcoin. É como uma novela, mas com mais drama descentralizado! Não fique de fora, venha com a gente agora e vamos aproveitar a montanha-russa das criptos juntos! 💰🎢

Junte-se ao Telegram


Como investigador que passou anos a estudar a intersecção entre tecnologia e conflito, sinto-me profundamente preocupado com a utilização crescente da inteligência artificial (IA) em operações militares. A trágica história do soldado russo na Ucrânia, caçado por um drone autónomo, é apenas um exemplo assustador de como as tecnologias avançadas de IA estão a ser transformadas em armas sem as devidas salvaguardas ou regulamentações.

Após um exaustivo dia de combate, um único e cansado soldado russo sai de uma trincheira. Esta trincheira está repleta de camaradas caídos que morreram durante a guerra russo-ucraniana. Enquanto ele tropeça e passa por cima de seus corpos, um drone ucraniano paira persistentemente acima, emitindo um zumbido reconhecível e arrepiante.

Semelhante a um caçador brincando com sua presa antes de terminar a matança, o drone controlado por IA persegue o soldado, seguido de lançamento de explosivos nas proximidades para infligir ferimentos. Eventualmente enfraquecido, o soldado se rende, colocando as mãos na frente do drone em súplica. O drone faz uma pausa momentânea, dando a impressão de contemplação, antes de administrar o ataque letal ao soldado.

Experimente o campo de batalha do século 21, uma mistura de tecnologias avançadas, como aprendizado de máquina, inteligência artificial e hardware sofisticado, causando destruição em várias regiões, incluindo a Ucrânia rural e a Faixa de Gaza no Oriente Médio.

Com a tecnologia de IA a tornar-se mais difundida a nível mundial, já não se trata apenas dos nossos smartphones e aparelhos de ar condicionado. Nos últimos tempos, a inteligência artificial foi recrutada pelos militares, sendo exemplos notáveis ​​os conflitos Rússia-Ucrânia e Israel-Hamas. O número de vítimas, infelizmente, que chega a milhares, levou muitos defensores dos direitos humanos a expressarem preocupações sobre o uso crescente da IA ​​em vigilância questionável, vídeos manipulados e operações militares sofisticadas.

Uma conferência de dois dias intitulada “Emprego Responsável de Inteligência Artificial nas Forças Armadas” (REAIM) acontecerá em Seul, Coreia do Sul, de 9 a 10 de setembro. Este encontro receberá representantes de aproximadamente 90 nações, incluindo os EUA e a China, bem como figuras influentes da indústria de armamento. Esses participantes participarão de discussões destinadas a encontrar métodos para controlar a aplicação de IA em operações militares.

Sobre o que é a Cúpula REAIM em Seul?

No centro da cimeira REAIM de dois dias está a missão de estabelecer padrões mundiais para a aplicação de inteligência artificial em sistemas de apoio militar. Além disso, pretende criar um roteiro que ofereça recomendações para o uso e gerenciamento ético da IA.

Máquinas de matar: por que precisamos falar sobre o uso de IA nas forças armadas

A Cimeira de Seul foi organizada conjuntamente por Singapura, Países Baixos, Quénia e Reino Unido. Mais de noventa países, incluindo os EUA e a China, enviaram os seus delegados oficiais a esta cimeira. Além disso, mais de 2.000 pessoas se inscreveram para participar, demonstrando a importância e o entusiasmo em torno deste evento.

A reunião de Seul marcou a segunda ocorrência deste evento específico; o evento inaugural ocorreu em Haia, Holanda, em Fevereiro de 2023. Embora a conferência inicial girasse principalmente em torno do discurso sobre a aplicação militar da IA, o tema central da cimeira de Seul foi, em vez disso, orientado para a exploração de soluções e medidas.

Nesta cimeira, o nosso objectivo principal é estabelecer novas directrizes relativas ao emprego da IA ​​em conflitos, fomentar reflexões sobre o controlo internacional da IA ​​militar e aprofundar a nossa compreensão do seu impacto na tranquilidade e segurança mundiais – tanto aspectos positivos como negativos.

Benefícios e perigos da IA ​​nas forças armadas

A crescente importância da inteligência artificial (IA) pode ser observada nas funções militares, dadas as suas vastas capacidades em áreas como controlo de stocks, monitorização, exploração, recolha de informações, planeamento estratégico para o campo de batalha e organização logística.

As forças militares em todo o mundo estão cada vez mais a compreender o potencial da Inteligência Artificial (IA) e a empregá-la estrategicamente em situações de combate. Isto inclui a recolha de dados do campo de batalha e a sua análise, o que subsequentemente se torna essencial para as suas operações e ajuda na tomada de decisões, aumentando a sensibilização para a resolução de problemas, formulando estratégias e minimizando os danos civis.

Do meu ponto de vista como analista, assim como uma moeda tem cara e cauda, ​​a inteligência artificial (IA) traz vantagens e armadilhas potenciais. Embora os benefícios da IA ​​sejam inegáveis, é crucial reconhecer os riscos e perigos associados à sua utilização. Particularmente preocupante é a má aplicação da IA ​​em contextos militares, que pode ter consequências prejudiciais para a vida humana.

Existem algumas preocupações importantes, como o uso de IA em armas letais autônomas, vigilância ilegal, intimidação, robôs de guerra, uso de IA em hackers e ataques cibernéticos, entre outros. Além destas, tem preocupações de segurança global, uma vez que a IA pode levar a uma corrida armamentista e aumentar as tensões globais.

Máquinas de matar: por que precisamos falar sobre o uso de IA nas forças armadas

Da Ucrânia a Gaza: cenários reais do Exterminador do Futuro na IA militar

A IA está a fazer com que a ficção científica dos filmes de Hollywood pareça mais realidade, como mostram os recentes acontecimentos em Gaza e na Ucrânia. Infelizmente, estas regiões tornaram-se os campos de batalha iniciais para conflitos de IA.

De acordo com relatos da mídia, parece que os militares de Israel estão empregando Inteligência Artificial (IA) nas suas ações militares dentro da Faixa de Gaza. Estes drones controlados por IA estão a ser utilizados principalmente para monitorizar atividades e identificar combatentes armados na densamente povoada Faixa de Gaza.

Armas autônomas e sistemas de mira de IA de Israel

Israel emprega sistemas de armas controlados por IA chamados “Lavender” e “The Gospel” para ataques em locais de Gaza. Operando de forma autónoma, estes sistemas resultaram em grandes danos e vítimas durante o conflito do ano passado em Gaza.

Máquinas de matar: por que precisamos falar sobre o uso de IA nas forças armadas

Além disso, Israel integrou várias aplicações de IA nos seus conflitos militares, entre as quais estão os Sistemas de Armas Autónomas Letais (LAWs). Essas armas autônomas estão armadas com canhões, mísseis e incorporam tecnologias como reconhecimento facial, monitoramento biométrico e sistemas autônomos de identificação de alvos.

No entanto, alguns ativistas argumentam que o emprego de tais armas impulsionadas pela IA infringe os direitos humanos.

Drones Vampiros da Ucrânia

Na mesma linha de Israel, foi descoberto em maio de 2024 que os militares da Ucrânia estavam fazendo experiências com um drone modelado a partir de um vampiro, conforme relatado pela Reuters. Este drone é um dispositivo aprimorado por IA, armado com armas e projetado para exigir intervenção humana mínima para operação. Notavelmente, estes drones autónomos já foram utilizados em combate contra o exército russo, como evidenciado por numerosos vídeos online que surgiram.

Conclusão

Na minha função de analista, observo uma tendência significativa: a Inteligência Artificial (IA) está cada vez mais integrada nas operações militares, o que levanta preocupações sobre a sua potencial utilização indevida. Os casos de abuso da IA, como os evidentes em Gaza e na Ucrânia, servem como lembretes claros deste risco. Torna-se crucial, portanto, estabelecer regulamentos e normas para a aplicação ética da IA ​​na guerra, garantindo que a sua utilização esteja alinhada com os padrões globais de conduta e promova a paz em vez do conflito.

2024-09-10 09:09