Microsoft blocca la creazione di deepfake porno con l’AI dopo il caso Taylor Swift

3 months ago 76

di Alexandre Milli, 30 gennaio 2024, 10:00 30 gennaio 2024, 10:00

Microsoft ha provveduto a bloccare la creazioni di immagini esplicite riguardanti celebrità con la propria intelligenza artificiale.

Creazione immagini porno bloccate su Microsoft Designer

Microsoft è intervenuta immediatamente sulla questione che negli ultimi giorni ha suscitato un enorme clamore sul web. Sono trapelate in rete immagini deepfake esplicite di Taylor Swift realizzate con Microsoft Designer e in seguito divenute virali. Satya Nadella ha immediatamente reagito condannando fermamente l’accaduto descrivendolo come allarmante e terribile.

In seconda battuta Microsoft ha provveduto a bloccare l’utilizzo improprio del suo tool di creazione di immagini con l’AI Microsoft Designer che tramite una falla veniva sfruttato per creare contenuti non consentiti dalle regole di utilizzo del servizio.

Stiamo indagando su queste segnalazioni e stiamo adottando le misure appropriate per affrontarle. Il nostro Codice di condotta vieta l’uso dei nostri strumenti per la creazione di contenuti intimi per adulti o non consensuali e qualsiasi tentativo ripetuto di produrre contenuti contrari alle nostre politiche potrebbe comportare la perdita dell’accesso al servizio. Abbiamo grandi team che lavorano sullo sviluppo di guardrail e altri sistemi di sicurezza in linea con i nostri principi di intelligenza artificiale responsabile , tra cui il filtraggio dei contenuti, il monitoraggio operativo e il rilevamento degli abusi per mitigare l’uso improprio del sistema e contribuire a creare un ambiente più sicuro per gli utenti.

Cosa ne pensate dell’accaduto? Ditecelo nei commenti.

Articolo di Windows Blog Italia
Fonte | 404Media

Tag //

Read Entire Article