Autonomous Weapons, come l’Intelligenza Artificiale sta cambiando il panorama bellico

9 months ago 234

Il dibattito sull’uso delle armi autonome è complesso e coinvolge preoccupazioni di carattere etico, legale e di sicurezza, soprattutto in relazione alle possibili conseguenze errate che i sistemi possono prendere durante un combattimento.

Lo scenario internazionale odierno, caratterizzato da una forte instabilità in alcune delle aree nevralgiche del globo, ha posto non soltanto svariate questioni di carattere geopolitico ma ha anche portato alla ribalta, in maniera definitiva, il ruolo che i più avanzati sistemi d’arma hanno e avranno nel prossimo futuro. Sono sempre più utilizzati, in molteplici teatri di guerra, sistemi robotizzati quali droni armati, sistemi di difesa aerea e veicoli terrestri senza equipaggio con capacità offensive che consentono un miglioramento dell’efficacia delle manovre militari e, al contempo, garantiscono un rischio minore per le proprie truppe. Le armi autonome più moderne hanno capacità decisionali sempre più sviluppate, in taluni casi supportate da algoritmi di intelligenza artificiale che gli garantiscono capacità decisionali autonome, consentendo loro di identificare e attaccare bersagli senza un intervento umano diretto.

Il dibattito sull’uso delle armi autonome è complesso e coinvolge preoccupazioni di carattere etico, legale e di sicurezza, soprattutto in relazione alle possibili conseguenze errate che i sistemi possono prendere durante un combattimento. A queste, si aggiungono le questioni legate alla mancanza di controllo umano e alla possibilità che tali armi possano essere utilizzate in modo non etico o in violazione delle leggi internazionali.

Ciononostante, è innegabile come, oggi, si siano ritagliate un ruolo decisamente importante nella composizione di un esercito moderno.

Dalla remotizzazione all’automazione

L’utilizzo di droni nello scenario bellico non è una pratica recente, infatti questi venivano già utilizzati, seppur in una versione estremamente rudimentale, già durante la Prima Guerra Mondiale, soprattutto per sabotare e/o affondare le navi mentre queste erano in porto.

Oggi, il loro utilizzo è ampiamente esteso a tutti i principali domini di guerra, sia per compiti di ricognizione ed intelligence, sia per ruoli di attacco o supporto alle truppe. Sebbene la maggior parte dei droni oggi in servizio sia operata da remoto (classificandoli quindi come Unmanned Vehicles o Unmanned Combat Vehicles), nel corso degli ultimi anni sono stati avviati vari progetti di sviluppo per droni in grado di assistere in maniera autonoma il personale sul campo di battaglia.

Ciò è osservabile soprattutto con i cosiddetti “Loyal Wingman”, ovvero dei droni che si prevede affiancheranno i prossimi caccia di sesta generazione (che, in ogni caso, non vedranno la luce prima del 2030) sia per ruoli di attacco diretto sia come piattaforme sensoristiche in grado di aumentare la Situational Awareness.

L’intelligenza artificiale (IA) è al centro di questo processo di automazione e sta portando anche ulteriori novità, quali la selezione e l’attacco dei bersagli. Il suo uso è chiaramente visibile nella guerra in Ucraina, dove le applicazioni includono assistenza al fuoco contro il nemico o l’utilizzo di munizioni in grado di discernere varie tipologie di bersagli. E l’Ucraina non è il primo esempio di tale impiego bellico. La munizione in fermo immagine Kargu-2 di fabbricazione turca, dotata di riconoscimento facciale abilitato dall’IA, ha attirato molta attenzione per il suo utilizzo nella guerra in Libia.

Con l’IA sempre più centrale nella competizione tra le grandi potenze militari del mondo, in particolare gli Stati Uniti e la Cina, gli investimenti in tale tecnologia sono destinati a crescere. Si pensi come già nel 2021 gli Stati Uniti avessero circa 685 progetti attivi, mentre il bilancio per l’anno fiscale 2024 presentato dal presidente Joe Biden nel marzo del 2023 prevedeva una spesa di 1,8 miliardi di dollari per lo sviluppo dell’IA.

I punti principali sul loro sviluppo ed effetti collaterali

La discussione su questa tipologia di armamenti si è accesa specialmente dallo scoppio della guerra in Ucraina, che ha messo in luce la necessità di una loro regolamentazione, che garantisca anche un loro sviluppo etico e responsabile. Il dibattito in corso riguarda anche la necessità di un controllo umano significativo su tali sistemi per prevenire possibili abusi.

La Convenzione delle Nazioni Unite su alcune armi convenzionali (CCW) include un richiamo alle armi autonome, sebbene in maniera non sufficiente. Tuttavia, ha funzionato come incubatrice per un processo internazionale che mira a creare e far rispettare la regolamentazione di tali armi.

Le preoccupazioni maggiori sono strettamente correlate alla perdita del controllo umano sugli armamenti e alla deumanizzazione dei conflitti, ciò soprattutto causato dalla sempre crescente implementazione di tecnologie avanzate in ambito militare che, nel caso dell’IA, potrebbe portare a processi cognitivi finora mai considerati. Per questo motivo, si sta cercando di convergere verso l’implementazione di proibizioni specifiche per determinati sistemi che non possiedono un chiaro controllo umano o in cui i comandanti non hanno una comprensione sufficiente delle azioni che il sistema potrebbe compiere.

Infine, sempre nel contesto della CCW, una proposta mossa da un gruppo guidato dagli Stati Uniti e che include Australia, Canada, Giappone, Corea del Sud e Regno Unito, ha delineato la proibizione delle armi che, per loro natura, non possono essere utilizzate nel rispetto del diritto internazionale umanitario (DIU). Tuttavia, non si è ritenuto necessario renderla vincolante.

Read Entire Article