I gruppi cybercriminali SweetSpecter e Storm-0817 hanno usato ChatGPT per creare malware. L’ammissione di OpenAI

2 months ago 106

Il gruppo iraniano Storm-0817 ha usato ChatGpt per creare un software che raccoglie dati a strascico su Instagram e LinkedIn. E l’IA è stata sfruttata anche per creare malware per Android in grado di rubare dati come contatti, cronologia delle chiamate, file e posizione dell’utente.

OpenAI ha ammesso che ChatGPT è stato usato per realizzare malware. Nel suo ultimo rapporto sulla sicurezza, l’azienda guidata da Sam Altman ha spiegato che il software di intelligenza artificiale è stato utilizzato da diversi gruppi di cybercriminali.

SweetSpecter e Storm-0817 i gruppi criminali che lo hanno usato

Tra questi, il gruppo cinese SweetSpecter che ha inviato email di phishing al personale dell’azienda. Il piano prevedeva di nascondere dei file malevoli all’interno di alcune finte richieste di supporto, gli allegati portavano all’installazione del malware SugarGh0st che si intrufola nei sistemi informatici e ruba dati.

Inoltre, il gruppo iraniano Storm0817 ha usato ChatGpt per creare un software che raccoglie dati a strascico su Instagram e LinkedIn. E l’IA è stata sfruttata anche per creare malware per Android in grado di rubare dati come contatti, cronologia delle chiamate, file e posizione dell’utente. OpenAI ha comunicato di aver già bannato permanentemente tutti gli account utilizzati dagli hacker, condividendo i dati raccolti con autorità, analisti e ricercatori nel campo della sicurezza informatica.

Cosa dice OpenAI

“La missione di OpenAI è assicurare che l’intelligenza artificiale generale benefici tutta l’umanità. Siamo dedicati a individuare, prevenire e contrastare tentativi di abuso dei nostri modelli per fini dannosi. In questo anno di elezioni globali, sappiamo che è particolarmente importante costruire difese robuste e multistrato contro attori cibernetici legati agli stati e operazioni di influenza occulta che potrebbero cercare di utilizzare i nostri modelli per campagne ingannevoli sui social media e altre piattaforme internet”, ha spiegato l’azienda nel proprio blog.

“Dal principio dell’anno, abbiamo contrastato più di 20 operazioni e reti ingannevoli provenienti da tutto il mondo che hanno tentato di utilizzare i nostri modelli. Per comprendere i modi in cui gli attori minacciosi cercano di usare l’intelligenza artificiale, abbiamo analizzato l’attività che abbiamo contrastato, identificando un insieme iniziale di tendenze che riteniamo possano informare il dibattito su come l’intelligenza artificiale si inserisce nel panorama delle minacce più ampio. Oggi stiamo pubblicando il rapporto sulle minacce più recenti di OpenAI, che rappresenta uno snapshot della nostra comprensione a ottobre 2024”, ha spiegato l’azienda.

“Guardando al futuro, continueremo a lavorare attraverso i nostri team di intelligence, investigazioni, sicurezza, sicurezza e politiche per anticipare come gli attori malintenzionati possano utilizzare modelli avanzati per fini pericolosi e pianificare azioni di contrasto in modo appropriato. Continueremo a condividere le nostre scoperte con i nostri team interni di sicurezza, comunicare le lezioni agli stakeholder chiave e collaborare con i nostri colleghi del settore e la più ampia comunità di ricerca per anticipare i rischi e rafforzare la nostra sicurezza collettiva”, ha concluso OpenAI.

Le fragilità sul fronte sicurezza di ChatGpt non sono una novità. La prima allerta da parte degli esperti è scattata a gennaio dell’anno scorso e di recente è anche stato dimostrato che le misure di sicurezza del chatbot possono essere aggirate per ottenere una guida che spieghi come fabbricare esplosivi.

Read Entire Article