Da grandi poteri derivano grandi responsabilità, si diceva in Spider-Man, e in questa truffa deepfake ci manca solo lui, l'Uomo Ragno, perché per il resto ci sono un po' tutti: Fabio Fazio, Matteo Renzi, e ovviamente Giorgia Meloni ed Elon Musk, che hanno un piano segreto per arricchire tutti gli italiani.
Battute a parte, quando è iniziata a diffondersi la tecnologia nota come deepfake temevamo tutti cosa sarebbe successo: questo grande potere sarebbe stato usato nel modo sbagliato.
Ad esempio per truffare le persone.
Vengono chiamati deepfake i video generati tramite intelligenza artificiale sfruttando l'immagine e la voce di un personaggio famoso. Con una grande mole di video di un personaggio famoso, oggi è relativamente semplice addestrare una IA e creare un video relativamente convincente di quella persona, che potrà quindi essere sfruttata per dire o fare qualsiasi cosa.
I primi deepfake problematici, quelli che hanno portato alla notorietà del termine, sono stati contenuti pornografici che sfruttavano le immagini di attrici famose, ma negli ultimi tempi è sempre più comune imbattersi in scam basati su video deepfake.
Un esempio è il video che vedete qui sotto, in cui sono stati utilizzati impunemente i volti e le voci di diversi, noti personaggi italiani, montati in un finto servizio di Che tempo che fa, la trasmissione di Fabio Fazio. Ci sono Matteo Renzi e Giorgia Meloni, ma anche la corrispondente italiana Giovanna Botteri: tutti loro, insieme ad altri personaggi che fanno la loro apparizione (come Elon Musk e Ignazio La Russa), sfruttati per creare un racconto con cui il truffatore vuole estorcere 250€ a quanti più italiani possibile, con la speranza di un rendimento di 30.000€.
L'utente di reddit che ha postato il video racconta di averlo trovato come contenuto sponsorizzato su Facebook, dove ormai non è raro imbattersi in questo genere di truffe. La meccanica è più o meno sempre la stessa: un personaggio famoso che, per un motivo o per l'altro, regala soldi.
Che sia per generosità o per un piano politico poco importa: l'importante è che l'utente truffato venga convinto a lasciare i dati personali nella pagina di destinazione e, se possibile, fare un piccolo investimento iniziale (come in questo caso).
Di seguito, un altro esempio di scam simile, con Valentino Rossi.
Anche se tali filmati sembrano ovviamente finti a persone che hanno un po' di esperienza di tecnologia e hanno familiarità col concetto di deepfake, non è affatto scontato che persone meno avvezze alle potenzialità dell'IA riescano a capire che è tutto finto.
Immaginate cosa può pensare una persona anziana, che magari non vede più così bene, e soprattutto che è cresciuta con l'idea che quel che si vede alla TV è vero per forza.
Come società, stiamo ancora affrontando le conseguenze delle fake news espresse in formato "statico".
Se una semplice immagine finta, associata a una scritta accusatoria di qualche tipo, può convincere persone poco formate che questa o quella persona siano dei criminali, immaginate cosa può fare un video realizzato in questo modo.
In questo caso parliamo di "semplici" truffe per denaro, ma è terribile pensare a quel che vedremo nei prossimi anni in termini di manipolazione dell'informazione.
E non dobbiamo fare l'errore di sottovalutare questo genere di minacce, che possono sembrarci poco convincenti.
Perché mentre noi siamo cresciuti pronti a dubitare di tutto quel che vediamo online, lì fuori ci sono intere generazioni (e sono anche la maggioranza) che non solo non hanno idea che manipolazioni video simili siano ormai relativamente facili da ottenere, ma soprattutto che sono cresciti in un'epoca storica in cui quel dicevano i giornali e la TV era considerato la verità assoluta.
Il web ha rotto questo inganno: se abbiamo visto dove possono arrivare le fake news con una foto a caso e un testo scritto male, immaginate cosa sarà con i video.