Microsoft blocca la creazione di deepfake con l’AI | Denuncia da un dipendente

9 months ago 196

di Alexandre Milli, 6 marzo 2024, 16:00 6 marzo 2024, 16:00

Microsoft ha provveduto a bloccare la creazione di immagini esplicite riguardanti celebrità con la propria intelligenza artificiale.

6 MARZO 2024 | Secondo un report della CNBC in seguito la presa di posizione di Microsoft e gli interventi per poter arginare l’abuso dell’AI nella creazione di immagini sensibili, emergono nuovi retroscena. Un dipendente Microsoft avrebbe denunciato alla FTC preoccupazioni sulla facilità dell’utilizzo improprio dello strumento Designer aggirandone le limitazioni. Secondo quest’ultimo Microsoft sarebbe al corrente dei possibili problemi di sicurezza generati dal modello DALL-E e avrebbe rifiutato di disabilitare almeno momentaneamente lo strumento di creazioni di immagini. Il motivo risiederebbe nell’impossibilità di esaminare tutti i casi che richiederebbe un investimento sostanziale in nuove protezioni o riqualificazione dei modelli.

Negli ultimi tre mesi, ho ripetutamente esortato Microsoft a rimuovere Copilot Designer dall’uso pubblico fino a quando non fossero state messe in atto migliori garanzie. Ancora una volta, non sono riusciti a implementare questi cambiamenti e continuano a commercializzare il prodotto a chiunque. Ovunque. Qualsiasi dispositivo.

14 FEBBRAIO 2024 | Dopo essere subito corsa ai ripari bloccando la creazione di immagini sensibili nelle scorse settimane, con un annuncio nelle scorse ore Microsoft ha fatto sapere che sta predisponendo una serie di disposizioni e strumenti di prevenzione per arginare gli abusi dell’AI generativa al fine di proteggere gli utenti.

Attualmente stiamo assistendo a una rapida espansione dell’abuso di questi nuovi strumenti di intelligenza artificiale da parte di malintenzionati, anche attraverso deepfake basati su video, audio e immagini generati dall’intelligenza artificiale. Questa tendenza pone nuove minacce alle elezioni, alle frodi finanziarie, alle molestie attraverso la pornografia non consensuale e alla prossima generazione di cyberbullismo.

In modo incoraggiante, c’è molto che possiamo imparare dalla nostra esperienza come industria in spazi adiacenti: nel progresso della sicurezza informatica, nella promozione della sicurezza elettorale, nella lotta ai contenuti estremisti violenti e nella protezione dei bambini. Come azienda ci impegniamo ad adottare un approccio solido e globale che protegga le persone e le nostre comunità, basato su sei aree di interesse:

  1. Una forte architettura di sicurezza 
  2. Provenienza e filigrana dei supporti durevoli 
  3. Salvaguardare i nostri servizi da contenuti e comportamenti offensivi
  4. Solida collaborazione tra l’industria, i governi e la società civile
  5. Legislazione modernizzata per proteggere le persone dall’abuso della tecnologia
  6. Sensibilizzazione ed educazione del pubblico

Creazione immagini porno bloccate su Microsoft Designer

Microsoft è intervenuta immediatamente sulla questione che negli ultimi giorni ha suscitato un enorme clamore sul web. Sono trapelate in rete immagini deepfake esplicite di Taylor Swift realizzate con Microsoft Designer e in seguito divenute virali. Satya Nadella ha immediatamente reagito condannando fermamente l’accaduto descrivendolo come allarmante e terribile.

In seconda battuta Microsoft ha provveduto a bloccare l’utilizzo improprio del suo tool di creazione di immagini con l’AI Microsoft Designer che tramite una falla veniva sfruttato per creare contenuti non consentiti dalle regole di utilizzo del servizio.

Stiamo indagando su queste segnalazioni e stiamo adottando le misure appropriate per affrontarle. Il nostro Codice di condotta vieta l’uso dei nostri strumenti per la creazione di contenuti intimi per adulti o non consensuali e qualsiasi tentativo ripetuto di produrre contenuti contrari alle nostre politiche potrebbe comportare la perdita dell’accesso al servizio. Abbiamo grandi team che lavorano sullo sviluppo di guardrail e altri sistemi di sicurezza in linea con i nostri principi di intelligenza artificiale responsabile, tra cui il filtraggio dei contenuti, il monitoraggio operativo e il rilevamento degli abusi per mitigare l’uso improprio del sistema e contribuire a creare un ambiente più sicuro per gli utenti.

Cosa ne pensate dell’accaduto? Ditecelo nei commenti.

Articolo di Windows Blog Italia
Fonte | 404Media

Read Entire Article