Microsoft blocca la creazione di deepfake con l’AI | Nuove misure di sicurezza

1 month ago 52

di Alexandre Milli, 12 aprile 2024, 14:00 12 aprile 2024, 14:00

Microsoft ha provveduto a bloccare la creazione di immagini esplicite riguardanti celebrità con la propria intelligenza artificiale.

12 APRILE 2024 | Dopo gli spiacevoli episodi accaduti negli scorsi mesi e le rivelazioni interne, con un annuncio nelle scorse ore Microsoft ha fatto sapere che sta continuando a lavorare per mettere in sicurezza l’utilizzo dell’AI generativa e adottando una serie di misure per limitarne gli abusi al fine di proteggere gli utenti.

Oggi condivideremo due dei progressi del nostro team in questo campo: la scoperta di una potente tecnica per neutralizzare i contenuti avvelenati e la scoperta di una nuova famiglia di attacchi tempestivi dannosi e di come difendersi da essi con più livelli di mitigazione.

Gli attacchi di injection tempestiva attraverso contenuti avvelenati rappresentano un grave rischio per la sicurezza perché un utente malintenzionato che lo fa può potenzialmente inviare comandi al sistema di intelligenza artificiale come se fosse l’utente.

I nostri esperti hanno sviluppato una famiglia di tecniche chiamate Spotlighting che riducono il tasso di successo di questi attacchi da oltre il 20% a sotto la soglia di rilevamento, con un effetto minimo sulle prestazioni complessive dell’IA.

I nostri ricercatori hanno scoperto una nuova generalizzazione degli attacchi jailbreak, che chiamiamo Crescendo . Questo attacco può essere meglio descritto come jailbreak LLM multiturn e abbiamo scoperto che può raggiungere un’ampia gamma di obiettivi dannosi contro i più noti LLM utilizzati oggi.

Crescendo può anche aggirare molti dei filtri di sicurezza dei contenuti esistenti, se non adeguatamente affrontati. 

Nel caso di Crescendo, i nostri team hanno apportato aggiornamenti software alla tecnologia LLM alla base delle offerte di intelligenza artificiale di Microsoft, inclusi i nostri assistenti AI Copilot, per mitigare l’impatto di questo bypass del guardrail AI multiturn. 

6 MARZO 2024 | Secondo un report della CNBC, in seguito alla presa di posizione di Microsoft e gli interventi per poter arginare l’abuso dell’AI nella creazione di immagini sensibili, emergono nuovi retroscena. Un dipendente Microsoft avrebbe denunciato alla FTC preoccupazioni sulla facilità dell’utilizzo improprio dello strumento Designer aggirandone le limitazioni. Secondo quest’ultimo, Microsoft sarebbe al corrente dei possibili problemi di sicurezza generati dal modello DALL-E e avrebbe rifiutato di disabilitare almeno momentaneamente lo strumento di creazioni di immagini. Il motivo risiederebbe nell’impossibilità di esaminare tutti i casi, che richiederebbe un investimento sostanziale in nuove protezioni o riqualificazione dei modelli.

Negli ultimi tre mesi, ho ripetutamente esortato Microsoft a rimuovere Copilot Designer dall’uso pubblico fino a quando non fossero state messe in atto migliori garanzie. Ancora una volta, non sono riusciti a implementare questi cambiamenti e continuano a commercializzare il prodotto a chiunque. Ovunque. Qualsiasi dispositivo.

14 FEBBRAIO 2024 | Dopo essere subito corsa ai ripari bloccando la creazione di immagini sensibili nelle scorse settimane, con un annuncio nelle scorse ore Microsoft ha fatto sapere che sta predisponendo una serie di disposizioni e strumenti di prevenzione per arginare gli abusi dell’AI generativa al fine di proteggere gli utenti.

Attualmente stiamo assistendo a una rapida espansione dell’abuso di questi nuovi strumenti di intelligenza artificiale da parte di malintenzionati, anche attraverso deepfake basati su video, audio e immagini generati dall’intelligenza artificiale. Questa tendenza pone nuove minacce alle elezioni, alle frodi finanziarie, alle molestie attraverso la pornografia non consensuale e alla prossima generazione di cyberbullismo.

In modo incoraggiante, c’è molto che possiamo imparare dalla nostra esperienza come industria in spazi adiacenti: nel progresso della sicurezza informatica, nella promozione della sicurezza elettorale, nella lotta ai contenuti estremisti violenti e nella protezione dei bambini. Come azienda ci impegniamo ad adottare un approccio solido e globale che protegga le persone e le nostre comunità, basato su sei aree di interesse:

  1. Una forte architettura di sicurezza 
  2. Provenienza e filigrana dei supporti durevoli 
  3. Salvaguardare i nostri servizi da contenuti e comportamenti offensivi
  4. Solida collaborazione tra l’industria, i governi e la società civile
  5. Legislazione modernizzata per proteggere le persone dall’abuso della tecnologia
  6. Sensibilizzazione ed educazione del pubblico

Creazione immagini porno bloccate su Microsoft Designer

Microsoft è intervenuta immediatamente sulla questione che negli ultimi giorni ha suscitato un enorme clamore sul web. Sono trapelate in rete immagini deepfake esplicite di Taylor Swift realizzate con Microsoft Designer e in seguito divenute virali. Satya Nadella ha immediatamente reagito condannando fermamente l’accaduto descrivendolo come allarmante e terribile.

In seconda battuta Microsoft ha provveduto a bloccare l’utilizzo improprio del suo tool di creazione di immagini con l’AI Microsoft Designer che tramite una falla veniva sfruttato per creare contenuti non consentiti dalle regole di utilizzo del servizio.

Stiamo indagando su queste segnalazioni e stiamo adottando le misure appropriate per affrontarle. Il nostro Codice di condotta vieta l’uso dei nostri strumenti per la creazione di contenuti intimi per adulti o non consensuali e qualsiasi tentativo ripetuto di produrre contenuti contrari alle nostre politiche potrebbe comportare la perdita dell’accesso al servizio. Abbiamo grandi team che lavorano sullo sviluppo di guardrail e altri sistemi di sicurezza in linea con i nostri principi di intelligenza artificiale responsabile, tra cui il filtraggio dei contenuti, il monitoraggio operativo e il rilevamento degli abusi per mitigare l’uso improprio del sistema e contribuire a creare un ambiente più sicuro per gli utenti.

Cosa ne pensate dell’accaduto? Ditecelo nei commenti.

Articolo di Windows Blog Italia
Fonte | 404Media

Read Entire Article