Sia la guerra scatenata dalla Federazione Russa nei confronti dell’Ucraina sia quella tra Hamas e Israele sono anche combattute a “colpi” di intelligenza artificiale.
Concretamente, l’esercito israeliano usa la piattaforma “habsora” (“il vangelo) basata su algoritmi di AI. Sul sito web dell’IDF viene presentato questo software – senza nominarlo – come un sistema che “produce obiettivi a un ritmo veloce, una fabbrica bersaglio che opera 24 ore su 24″, “attraverso l’estrazione rapida e automatica dei dati grazie all’intelligenza artificiale”.
Ecco come funziona.
“Mette a disposizione tutte le informazioni che l’esercito israeliano dispone, come le foto aeree che consentono di capire dove sono mezzi e persone, insieme alle informazioni già in possesso su Hamas. Elaborando tutte queste informazioni”, ha spiegato Omer Benjacob, giornalista di Haaretz a XXI Secolo, la trasmissione su RAI1 condotta da Francesco Giorgino, “la piattaforma fornisce, con gli algoritmi di AI, una lista di target anche con un indice di priorità, la possibilità di colpirlo con successo e il numero di civili nell’area. Poi è sempre un ufficiale dell’esercito a decidere cosa fare”.
“Ora, questa macchina produce 100 bersagli al giorno, di cui il 50% viene attaccato”
La piattaforma habsora basata sull’AI è stata utilizzata la prima volta nella guerra di 11 giorni di Israele contro Hamas nel maggio 2021. “Per metterlo in prospettiva, in passato producevamo 50 obiettivi a Gaza all’anno. Ora, questa macchina produce 100 bersagli al giorno, di cui il 50% viene attaccato”. Ad affermarlo, riporta il Guardian, è stato Aviv Kochavi, che è stato a capo dell’IDF fino a gennaio.
Nella breve dichiarazione dell’IDF, un alto funzionario, continua il Guardian, ha affermato che la piattaforma “produce bersagli precisi contro le infrastrutture associate ad Hamas, infliggendo ingenti danni al nemico e danni minimi ai non combattenti”.
La precisione degli attacchi raccomandati dalla piattaforma di AI è stata sottolineata in numerosi resoconti dei media israeliani. Il quotidiano Yedioth Ahronoth ha riferito che il sistema “si assicura, per quanto possibile, che non vi siano danni ai civili non coinvolti”.
Un’ex fonte militare israeliana ha detto al Guardian che gli agenti utilizzano una misurazione “molto accurata” del tasso di civili che evacuano un edificio poco prima di un attacco. “Utilizziamo un algoritmo per valutare quanti civili rimangono. Ci dà un verde, un giallo, un rosso, come un segnale stradale”.
Tuttavia, gli esperti di intelligenza artificiale e conflitti armati hanno riferito al Guardian di essere scettici riguardo alle affermazioni secondo cui i sistemi basati sull’intelligenza artificiale riducono i danni civili incoraggiando bersagli più accurati.
La Cooperazione internazionale per mitigare i rischi cyber dell’intelligenza artificiale è uno dei temi di CyberSec2024 – La Cybersecurity nell’era dell’AI. La 3^ edizione della Conferenza internazionale del nostro quotidiano, che si terrà nei giorni 6-7 marzo a Roma.
Per saperne di più vai sul sito della Conferenza e leggi il comunicato stampa.