OpenAI non ha denunciato un attacco informatico subito nel 2023. I retroscena

4 months ago 128

Un’inchiesta del New York Times rivela i dettagli sull’intrusione informatica subita nel 2023 da OpenAI, l’azienda madre di ChatGPT. I cybercriminali hanno avuto accesso ai sistemi di messaggistica interna della società e hanno rubato dettagli sulla progettazione delle tecnologie di intelligenza artificiale dell’azienda.

Nel 2023 l’azienda tecnologica più importante al mondo ha subito un attacco informatico. Secondo il report pubblicato qualche giorno fa dal New York Times, un criminal hacker ha ottenuto l’accesso ai sistemi di messaggistica interna di OpenAI, l’azienda produttrice di ChatGPT, e ha rubato dettagli sul design delle tecnologie di intelligenza artificiale dell’azienda.

Secondo il rapporto i cybercriminali non sono però entrati nei sistemi in cui OpenAI ospita e costruisce la sua intelligenza artificiale. I dirigenti di OpenAI hanno informato della violazione sia i dipendenti in una riunione generale nell’aprile dello scorso anno sia il consiglio di amministrazione dell’azienda, ma hanno deciso di non condividere la notizia pubblicamente poiché nessuna informazione su clienti o partner era stata rubata.

I dirigenti non hanno considerato l’incidente come una minaccia per la sicurezza nazionale perché ritenevano che l’hacker fosse un individuo privato senza legami noti con un governo straniero. L’azienda, spiega il report, non ha informato l’FBI o altre forze dell’ordine.

La paura della Cina dietro l’attacco

Per alcuni dipendenti di OpenAI, la notizia ha suscitato timori che avversari stranieri come la Cina potessero rubare tecnologie di intelligenza artificiale che, sebbene attualmente siano principalmente strumenti di lavoro e ricerca, potrebbero alla fine mettere a rischio la sicurezza nazionale degli Stati Uniti. Ciò ha anche sollevato interrogativi su quanto seriamente OpenAI stesse affrontando la questione della sicurezza e ha evidenziato divisioni all’interno dell’azienda riguardo ai rischi dell’intelligenza artificiale.

Dopo la violazione, Leopold Aschenbrenner, un responsabile di programma tecnico di OpenAI focalizzato sul garantire che le future tecnologie di intelligenza artificiale non causino danni gravi, ha inviato una nota al consiglio di amministrazione di OpenAI, sostenendo che l’azienda non stava facendo abbastanza per impedire al governo cinese e ad altri avversari stranieri di rubare i suoi segreti.

Aschenbrenner, spiega il NYT, ha affermato che OpenAI lo ha licenziato questa primavera per aver divulgato informazioni al di fuori dell’azienda e ha sostenuto che il suo licenziamento sia stato politicamente motivato. Ha accennato alla violazione in un recente podcast, ma i dettagli dell’incidente non erano stati riportati in precedenza. Ha detto che la sicurezza di OpenAI non era abbastanza forte da proteggere contro il furto di segreti chiave nel caso in cui attori stranieri infiltrassero l’azienda.

I pericoli dell’AI

OpenAI non è l’unica azienda che sta costruendo sistemi sempre più potenti utilizzando la tecnologia dell’IA in rapido miglioramento. Alcune di esse, in particolare Meta, il proprietario di Facebook e Instagram, condividono liberamente i loro progetti con il resto del mondo come software open source. Ritengono che i pericoli rappresentati dalle attuali tecnologie dell’IA siano limitati e che la condivisione del codice permetta agli ingegneri e ai ricercatori di tutto il settore di identificare e risolvere i problemi.

Tuttavia, i ricercatori e i dirigenti tecnologici sono da tempo preoccupati che l’IA possa un giorno alimentare la creazione di nuove armi biologiche o aiutare a violare i sistemi informatici governativi. Alcuni credono addirittura che possa distruggere l’umanità.

Diverse aziende, tra cui OpenAI e Anthropic, stanno già rafforzando le loro operazioni tecniche. OpenAI ha recentemente creato un Comitato per la Sicurezza al fine di esplorare come affrontare i rischi derivanti dalle future tecnologie. Il comitato include Paul Nakasone, ex generale dell’esercito che ha guidato l’Agenzia per la Sicurezza Nazionale e il Comando Cibernetico. È stato anche nominato nel consiglio di amministrazione di OpenAI.

“Abbiamo iniziato a investire nella sicurezza anni prima di ChatGPT”, ha dichiarato Matt Knight, chief security officer. “Stiamo intraprendendo un percorso non solo per comprendere i rischi e anticiparli, ma anche per approfondire la nostra resilienza”.

Funzionari federali e legislatori statali stanno anche spingendo verso regolamentazioni governative che impedirebbero alle aziende di rilasciare determinate tecnologie dell’IA e le multerebbero di milioni se le loro tecnologie causassero danni. Ma gli esperti sostengono che questi pericoli sono ancora lontani, probabilmente anni o addirittura decenni nel futuro.

Le aziende cinesi stanno costruendo sistemi propri che sono quasi altrettanto potenti dei principali sistemi statunitensi. Da alcuni punti di vista, la Cina ha superato gli Stati Uniti come il maggior produttore di talento nell’ambito dell’IA, con il paese che genera quasi la metà dei migliori ricercatori di IA al mondo.

“Non è folle pensare che la Cina presto sorpasserà gli Stati Uniti”, ha dichiarato Clément Delangue, amministratore delegato di Hugging Face, un’azienda che ospita molti dei progetti di IA open source del mondo.

Alcuni ricercatori e leader della sicurezza nazionale sostengono che gli algoritmi matematici al cuore dei sistemi di IA attuali, sebbene non siano pericolosi oggi, potrebbero diventare pericolosi e chiedono controlli più rigorosi nei laboratori di IA.

Read Entire Article