In un nuovo report, le due società sottolineano di aver rilevato manovre da parte di collettivi collegati a Russia, Cina, Corea del Nord e Iran nell’uso di strumenti come ChatGPT per affinare gli script e sviluppare tecniche più avanzate.
Proprio come ChatGPT può essere usato per supportare gli sviluppatori a scrivere codici, può anche essere utilizzato per mire dannose (in tal senso, Europol aveva già messo in guardia circa il potenziale uso improprio del chatbot basato sull’AI). Ne sono convinti Microsoft e OpenAI, da cui giunge un alert: collettivi collegati a Russia, Cina, Corea del Nord e Iran starebbero utilizzando strumenti di intelligenza artificiale come ChatGPT per scopi tutt’altro che pacifici.
Un post pubblicato sul blog di OpenAI non lascia margine di fraintendimento. Secondo i ricercatori, infatti, gruppi di criminali informatici, autori di minacce a livello nazionale e non, stanno esplorando e testando diverse tecnologie di AI pian piano che queste emergono. L’intento: comprendere il potenziale valore delle loro operazioni ed i possibili controlli di sicurezza che potrebbero aver bisogno di eludere.
Attacchi mirati e complessi da rilevare
Soprattutto, il gruppo Strontium – che ha legami con lo spionaggio russo Gru (Glavnoe razvedyvatelnoe upravlene, il Direttorato principale per l’intelligence,) ed è stato impegnato in attività di guerriglia informatica prendendo di mira, attraverso domini messi offline proprio da Microsoft (che spiega tutto in un articolo sul suo blog), istituzioni e media ucraini – sfrutterebbe modelli di linguaggio per “comprendere i protocolli di comunicazione satellitare, le tecnologie di imaging radar e parametri tecnici specifici”.
Attacchi ben mirati e difficile da rilevare. Dunque, tornando al post, “gruppi di criminalità informatica, autori di minacce a livello nazionale e altri avversari stanno esplorando e testando diverse tecnologie di intelligenza artificiale man mano che emergono, nel tentativo di comprendere il valore potenziale per le loro operazioni e i controlli di sicurezza che potrebbero aver bisogno di eludere”.
Abuso di LLM per produrre contenuti malevoli
C’è di più. Il gruppo nordcoreano di Thallium avrebbe sfruttato i Large Language Model per scoprire eventuali vulnerabilità pubbliche e, di conseguenza, comprendere come trarre il massimo rendimento in attività di scripting di base e nella stesura di contenuti per campagne di phishing. Stesso discorso per il collettivo iraniano Curium, che ricorrerebbe a sistemi di questo tipo per generare email di phishing e codici, mirando a scongiurare qualsiasi rilevamento da parte degli antivirus.
Nel report si citano anche i criminal hacker affiliati alla Cina che utilizzerebbero i modelli linguistici di grandi dimensioni per la ricerca, lo scripting e le traduzioni. Fermo restando che né Microsoft né OpenAI hanno rilevato attacchi importanti conclusi mediante l’uso di LLM, è quasi banale immaginare come le nuove tecnologie possano incrementare già oggi, in modo drastico, le possibilità di successo di un attacco informatico.