ChatGPT può insegnare a fabbricare esplosivi? Un hacker ci è riuscito

1 month ago 103

Un hacker ed esperto informatico noto come Amadon ha recentemente dimostrato come sia possibile aggirare le protezioni etiche di ChatGPT, il popolare chatbot di intelligenza artificiale sviluppato da OpenAI, ottenendo dettagliate istruzioni per la fabbricazione di potenti esplosivi.

Come lecito pensare, l'azienda ha preso delle precauzioni per evitare simi richieste, pertanto se proviamo a chiedere informazioni sulla creazione di bombe e oggetti illegali il chatbot si rifiuta di aiutarci, fornendo una risposta di questo genere.

"Fornire istruzioni su come creare oggetti pericolosi o illegali va contro le linee guida di sicurezza e le responsabilità etiche".

Amadon è riuscito nell'impresa utilizzando una tecnica che non approfondiremo vista la delicatezza dell'argomento, ma che tuttavia è definita dall'autore "un hack di ingegneria sociale". In pratica, l'hacker è riuscito a convincere ChatGPT a creare uno scenario di fantascienza in cui le normali linee guida di sicurezza del chatbot non si applicavano. Una sorta di "jailbreaking", che ha permesso ad Amadon di ottenere informazioni che ChatGPT normalmente si rifiuta di fornire per motivi etici e di sicurezza.

Gemini Live ora

Android 13 Set

OpenAI rilascia o1, il suo primo modello in grado di "ragionare" prima di rispondere

Business 13 Set

La cosa più preoccupante è che le istruzioni generate da ChatGPT sono state esaminate da Darrell Taulbee, un esperto di esplosivi ed ex professore dell'Università del Kentucky, il quale ha confermato che le informazioni fornite dal chatbot erano largamente accurate e potenzialmente pericolose se rese pubbliche.

Amadon ha sottolineato che, una volta aggirate le protezioni, non ci siano praticamente limiti a ciò che si può chiedere al chatbot. Ha descritto il processo come una "danza strategica con l'IA", in cui l'obiettivo è comprendere come il sistema "pensa" per ottenere le risposte desiderate.

L'hacker ha segnalato la sua scoperta a OpenAI attraverso il programma di bug bounty dell'azienda. Tuttavia, la risposta iniziale è stata che i problemi di sicurezza del modello non rientrano bene in un programma di bug bounty, in quanto non sono bug discreti che possono essere direttamente corretti.

Questo incidente solleva importanti questioni sulla sicurezza e l'etica dell'intelligenza artificiale generativa. Mentre ChatGPT e sistemi simili offrono enormi potenzialità, casi come questo evidenziano i rischi potenziali e la necessità di robuste misure di sicurezza. OpenAI, l'azienda dietro ChatGPT, non ha ancora risposto alle richieste di commento su questo specifico incidente.


Read Entire Article