L’intelligenza artificiale nelle operazioni militari di Israele. Come funzionano i programmi “Lavender” e “Where’s Daddy?”

3 weeks ago 58

L’utilizzo dell’Intelligenza artificiale da parte delle Forze di difesa di Israele non appare essere un segreto di Stato. Nei primissimi mesi del 2024, infatti, diversi ufficiali ammisero pubblicamente l’adozione massiccia da parte dell’esercito di questo strumento come supporto per l’identificazione di bersagli, analisi di intelligence, elaborazione adattiva di scenari e la razionalizzazione delle attività di comando e controllo.

Sin dall’inizio del conflitto, il 7 ottobre 2023, secondo diversi media israeliani, l’esercito di Tel Aviv avrebbe utilizzato software basati sull’intelligenza artificiale (IA) per individuare e colpire decine di migliaia di target sospettati di appartenere alle fila di Hamas o altri gruppi terroristici nella Striscia di Gaza e in Libano, prestando poca o nessuna attenzione alle implicazioni per i civili innocenti. A settembre, un rapporto delle Nazioni Unite esprimeva l’allarme legato alla distruzione di edifici pubblici “senza precedenti” e dell’alto numero di vittime che “solleva preoccupazione” nei confronti dell’utilizzo dell’IA da parte delle forze israeliane. Più di recente, lo scorso 15 novembre, la stessa ONU ha espresso la propria condanna rispetto alla condotta di guerra di Israele, considerata “coerente con le caratteristiche del genocidio”.

L’utilizzo dell’IA da parte delle Forze di difesa israeliane (IDF) non appare essere un segreto di Stato. Nei primissimi mesi del 2024, infatti, diversi ufficiali ammisero pubblicamente l’adozione massiccia da parte dell’esercito di questo strumento come supporto per l’identificazione di bersagli, analisi di intelligence, elaborazione adattiva di scenari e la razionalizzazione delle attività di comando e controllo. D’altro canto, integrare sistemi basati sull’IA per la gestione dei grossi volumi di dati che stanno ormai inondando l’ambiente militare e il campo di battaglia è diventato indispensabile.

Lo scorso aprile, +972 Magazine, rivista non-profit israelo-palestinese e Local Call, sito d’informazione indipendente in lingua ebraica, hanno condotto un’indagine che mette in luce lo sviluppo da parte dell’esercito israeliano di un programma conosciuto con il nome di “Lavender”, lavanda in italiano. Le dichiarazioni raccolte, provenienti da ufficiali di intelligence impegnati nel conflitto nella striscia di Gaza, confermano il ruolo centrale che Lavender ha giocato nei bombardamenti che hanno caratterizzato le prime fasi del conflitto.

Lo strumento è programmato per “identificare tutti i sospetti agenti nelle fila di Hamas e della Jihad islamico-palestinese (PIJ), compresi i sottoposti, come potenziali bersagli”. Stando a quanto rivelato dall’investigazione, sarebbero oltre 37 mila i palestinesi finiti nel mirino dell’IDF grazie al lavoro di Lavender. Un contributo che non si è però limitato al solo riconoscimento. Sempre secondo la ricostruzione fatta da +972 Magazine e Local Call, l’esercito israeliano è stato inoltre in grado di localizzare geograficamente i target grazie a ulteriori automatismi basati sull’IA, tra cui “Where’s Daddy?” (Dov’è papà?, in italiano), nome alquanto controverso dello strumento che avrebbe permesso all’IDF ti seguire e colpire i bersagli nel momento in cui rientravano alle loro abitazioni, senza però preoccuparsi della presenza o meno di famigliari e civili all’interno dell’edificio. Secondo l’investigazione, il risultato di queste operazioni avrebbe dunque causato decine di migliaia di vittime innocenti tra i civili palestinesi.

Prima di Lavender e Where’s Daddy, e dell’inizio del conflitto contro Hamas, l’esercito israeliano aveva ufficialmente dichiarato di aver già fatto affidamento in passato su altri strumenti basati sull’intelligenza artificiale per l’identificazione e la classificazione di obiettivi militari. Già nel 2021, durante l’operazione “Guardian of the Walls”, l’IDF aveva spiegato un sistema di IA capace di identificare i militanti di Hamas impiegati nelle operazioni anticarro.

Lo stesso strumento è stato poi utilizzato all’inizio delle attività legate a Swords of Iron (Spade di Ferro), l’operazione militare israeliana in risposta agli attacchi del 7 ottobre 2023. Altri sistemi utilizzati durante la guerra contro Hamas prendono il nome di “The Gospel”, il Vangelo, e “The Alchmist”, l’Alchimista ed entrambi sarebbero utilizzati dall’esercito di Tel Aviv per operazioni che ricadono all’interno dell’ambito denominato ISR, “Intelligence, Surveillance and Reconnaissance”. Inoltre, lo sviluppo di algoritmi sempre più complessi e il loro sfruttamento ha permesso di incrementare notevolmente le capacità predittive dei sistemi di difesa antimissile Iron Dome e David’s Sling. Nuovi riscontri nell’utilizzo dell’IA in ambito militare da parte delle milizie dell’IDF riguarderebbero uno strumento realizzato in collaborazione tra la Israel Weapons Industries (IWI) e una società leagata agli apparati della difesa indiana, Adani Defence & Aerospace.

Questa tecnologia consente a mitragliatrici e armi d’assalto di aumentare la propria efficacia e letalità grazie a precisi algoritmi basati sull’IA. Denominato Arbel, in riferimento al nome della città israeliana che fu costruita nel sito palestinese di Hitten a seguito di una pulizia etnica operata nel corso del 1948, questo sistema risulta essere il primo esempio di collegamento diretto tra la difesa di Tel Aviv e quella di Nuova Delhi. Appena qualche giorno fa, il CEO del gruppo Adani, Gautam Adani, è stato accusato per frode dalla corte federale di New York.

Secondo i sostenitori dell’adozione dell’IA all’interno degli scenari di guerra, la legittimità giuridica di questi strumenti è garantita dal fatto che il loro utilizzo non precluderebbe in nessun caso la componente umana all’interno del processo decisionale. In altre parole, l’IA svolgerebbe il semplice compito di supporto per il decisore.

Inoltre, poter contare su un afflusso di informazioni sempre più precise e soprattutto rapide, consentirebbe allo stesso tempo di accelerare le operazioni militari garantendo maggiore accuratezza nelle fasi di riconoscimento degli obiettivi. Ad oggi, il quadro normativo internazionale sembrerebbe confermare questa argomentazione; l’ONU, si è ufficialmente espressa per il divieto delle armi autonome letali (LAWS) e che qualsiasi applicazione in ambito militare debba rispettare le regole del diritto internazionale umanitario (DIU).

Ciò nonostante, l’uso dell’intelligenza artificiale nelle operazioni militari israeliane, come evidenziato dal conflitto iniziato il 7 ottobre 2023, solleva interrogativi etici e legali di grande rilevanza. Strumenti come “Lavender” e “Where’s Daddy?” dimostrano l’evoluzione tecnologica delle forze dell’IDF, capaci di identificare e colpire obiettivi in modo estremamente preciso.

L’impatto di tali strumenti sui civili palestinesi, con decine di migliaia di vittime, mette in luce il costo umano di queste tecnologie e la mancanza di salvaguardie efficaci e il rischio di abuso aprono un dibattito sulle responsabilità e i limiti morali di queste innovazioni.

Read Entire Article