Il Federal Bureau of Investigation ha rilasciato un documento per sensibilizzare le organizzazioni (ma anche gli stessi utenti), negli Stati Uniti, contro le frodi online macchinate utilizzando l’intelligenza artificiale. In Italia, tra i casi più eclatanti c’è stato quello del deepfake del CEO di Ferrari, che ha tentato di truffare un manager della Casa di Maranello sfruttando l’AI.
L’FBI ha pubblicato il documento “Criminals Use Generative Artificial Intelligence to Facilitate Financial Fraud” con l’intento di mettere in guardia i cittadini, le organizzazioni e le imprese sull’utilizzo malevolo dell’intelligenza artificiale. Con l’’incessante sviluppo della tecnologia, infatti, gli aggressori stanno sperimentando nuovi modelli e tecniche di cyberattacco (deepfake e phishing potenziati dall’AI su tutti) sempre più invasive.
Tipologie di attacchi informatici che, come illustra il MIT Technology Review, periodico bimestrale del Massachusetts Institute of Technology, possono essere così suddivisi: phishing, deepfake, documenti falsi creati con l’intelligenza artificiale e jailbreak a ripetizione. Lo scorso luglio, un particolare caso di phishing vocale ha destato enorme scalpore: parliamo del deepfake del CEO di Ferrari che ha tentato di truffare un manager con l’AI (“Preparati stiamo per fare una grossa acquisizione e devi firmare alcuni documenti. Massima discrezione”, l’incipit).
Prevenire deepfake e phishing potenziati dall’AI
Da qui, l’FBI (da cui si è appena dimesso l’attuale direttore Chris Wray, facendo esultare così Donald Trump: “Le sue dimissioni sono un grande giorno per l’America“) ha rilasciato una serie di precauzione che (prima di tutto) possono – anzi, devono – fare leva su una corretta cyber posture. A maggior ragione in un periodo storico dove il crescente rischio delle frodi online – nel caso specifico: deepfake e phishing potenziati dall’AI – sono in grado di circoscrivere gli sforzi e il tempo utili ai criminal hacker per tessere trame sempre più perfezionate.
In particolare, le raccomandazioni dell’FBI concernono i video deepfake (il suggerimenti è quello di osservare le impercettibili imperfezioni in immagini e clip, come volti indistinti oppure irregolari, piedi snaturati o mani distorte, occhi e denti poco realistici) e gli audio deepfake (ascoltare con attenzione il tono della voce e la scelta delle parole del proprio interlocutore. Ancora, monitorare l’eventuale richiesta di azioni sensibili, come la predisposizione di un bonifico bancario E qui la mente va al caso del dipendente che ha trasferito 26 milioni di dollari a cybercriminali dopo una videocall generata con l’AI).
Inoltre, il Federal Bureau of Investigation ammonisce sulle varie forme di social engineering, la tecnica di cyberattacco sempre più sofisticata per colpire direttamente i dipendenti di un’azienda: è bene limitare il più possibile la condivisione dei propri dati, comprese le fotografie, non condividendo informazioni personali online o telefonicamente.
Intelligenza artificiale e sicurezza cibernetica
Schemi fraudolenti, quelli messi in atto dai criminali informatici, come nel caso delle email di phishing generate dall’intelligenza artificiale, che – spiega Tech Republic – risultano altrettanto convincenti come email di phishing generate dall’uomo. Ed è sempre minore la possibilità di individuarle come fraudolente attraverso errori di grammatica e di sintassi.
Sui pericolosi risvolti dell’intelligenza artificiale in ambito cyber (e al contributo rilevante che le nuove tecnologie possono fornire ai criminali informatici), il dimissionario Wray e il responsabile della divisione cyber dell’FBI, Bryan Vorndran, si sono espressi durante la puntata del podcast “Inside the FBI”. Spiegando che “pian piano che l’AI migliorerà nella scrittura di codice e nell’individuare le vulnerabilità da sfruttare, il problema aumenterà. I criminal hacker diverranno più efficaci nell’individuare debolezze che non avrebbero potuto scovare da soli”.