OpenAI ha annunciato di aver identificato e bloccato alcuni gruppi criminali che stavano cercando di usare il suo chatbot ChatGPT per sviluppare malware, condurre campagne di disinformazione, eludere i sistemi di sicurezza informatica e portare avanti attacchi di spear-phishing.
Per la prima volta, OpenAI ha confermato che la sua intelligenza artificiale può essere sfruttata illegalmente per facilitare il crimine informatico. Non è una totale novità: i primi moniti degli analisti risalgono addirittura a gennaio dell'anno scorso. Di recente è anche stato dimostrato che le misure di sicurezza del chatbot possono essere aggirate per ottenere una guida passo per passo che spieghi come fabbricare esplosivi.
L'IRAN HA USATO CHATGPT PER CREARE DEI MALWARE
Ad aprile, Proofpoint aveva segnalato i primi casi di un uso delle AI per realizzare un malware: il gruppo TA547 si era avvalso dell'aiuto di alcuni strumenti di intelligenza artificiale per creare script da usare come parte di un attacco, mirato nello specifico contro gli utenti francesi.
Nel suo ultimo rapporto, OpenAI ha rivelato, invece, che ChatGPT è stato utilizzato da tre diversi gruppi di criminali, riconducibili alla Cina e all'Iran. Tra questi, il gruppo cinese "SweetSpecter" ha inviato email di spear-phishing mirate al personale di OpenAI. Il piano prevedeva di nascondere dei file malevoli all'interno di alcune finte richieste di supporto. Gli allegati portavano all'installazione del malware SugarGh0st.
Un altro caso riguarda il gruppo iraniano "CyberAv3ngers", affiliato ai Guardiani della Rivoluzione Islamica, che ha utilizzato ChatGPT per ottenere credenziali predefinite per PLC, sviluppare script personalizzati e offuscare il codice. Infine, il gruppo iraniano "Storm-0817" ha usato ChatGPT per creare uno scraper (un software che raccoglie dati in massa) per Instagram e tradurre alcuni post di LinkedIn. L'AI è anche stata usata per creare malware per Android in grado di rubare dati come contatti, cronologia delle chiamate, file e posizione dell'utente.
CHATGPT E LA 'DEMOCRATICIZZAZIONE' DEI MALWARE
OpenAI ha comunicato di aver già bannato permanentemente tutti gli account utilizzati dagli hacker, condividendo i dati raccolti con autorità, analisti e ricercatori nel campo della sicurezza informatica. L'uso di ChatGPT - scrive il sito Bleeping Computer - non sembra aver permesso di congegnare nuove tipologie d'attacco altrimenti inaccessibili, ma in compenso deve essere comunque motivo di preoccupazione.
Attraverso le AI, è possibile facilitare e velocizzare le strategie d'attacco già note, abbassando anche le competenze necessarie per eseguirle. Insomma, il rischio è che l'uso di strumenti come ChatGPT possa portare ad una proliferazione delle minacce informatiche, dato che riduce le competenze tecniche necessarie per condurre attacchi sofisticati.