CyberSEC2025. Portaluri (Magnet Forensics) “Tutti possiamo cadere nei deepfake. Allarmante l’uso dell’IA nella pedopornografia”

4 weeks ago 57

CyberSec2025

“AI, Deepfake e Digital Forensics: riconoscere la verità nell’era della manipolazione”. L’intervento di Luigi Portaluri, Director South Europe, Magnet Forensics, in occasione di CyberSEC2025, – AI, Crittografia Post-Quantum, Spionaggio e Geopolitica: il nuovo mondo della Cybersecurity’, in corso a Roma il 5 e 6 marzo.

Il crescente pericolo dei deepfake

La recente truffa che ha coinvolto Massimo Moratti e altri imprenditori italiani, ingannati da un falso Guido Crosetto, ha evidenziato il crescente pericolo dei deepfake vocali.

Questo episodio, oltre a rappresentare un caso emblematico di cybercrime sofisticato, dimostra come nessuno sia al riparo da minacce sempre più avanzate, neppure nella quotidianità. Di deepfake ha parlato Luigi Portaluri, della Magnet Forensics, durante il suo intervento a CyberSEC2025, l’appuntamento annuale sulla cybersicurezza. 

Sul LED screen appare un video di Morgan Freeman, ma in realtà non è lui: è una riproduzione generata dall’intelligenza artificiale.

In momenti come questi, la verità e il falso si confondono facilmente, portandoci a riflettere su quanto sia difficile distinguere la realtà dalla manipolazione.” Portaluri si avvale del video appena proiettato per aprire il suo discorso, facendo riferimento ai numerosi esempi di manipolazione di cui si ha contezza oggi.  

Un deepfake è molto più di una semplice falsificazione. Il cosiddetto AI Act, al comma 60, è chiaro al riguardo: si tratta di una manipolazione sofisticata della realtà, che può indurre percezioni distorte e fuorvianti” aggiunge il manager della Magnet Forensics.

Il caso Crosetto è la prova evidente di come la diffusione di contenuti falsificati possa facilmente generare fraintendimenti e condizionare l’opinione pubblica. “Tutti possiamo cadere in queste trappole, soprattutto in periodi sensibili come le elezioni politiche, dove la disinformazione può influenzare il voto“, spiega Portaluri, sottolineando come le vittime di questi inganni non siano da colpevolizzare.

Il caso allarmante della pedopornografia

Ma il fenomeno non si limita alla politica. Un caso particolarmente allarmante è quello della pedopornografia – continua – L’Unione Europea ha investito risorse significative per contrastare questo crimine, e l’Italia, grazie ai fondi del PNRR, è all’avanguardia nel fornire alla Polizia Postale strumenti tecnologici avanzati per combattere la diffusione di materiale illecito. Oggi, il problema riguarda sia foto e video reali, con vittime e colpevoli identificabili, sia contenuti generati interamente dall’intelligenza artificiale.

Entrando nel merito della questione, Portaluri specifica che “l’AI non deve essere vista solo come una minaccia. È fondamentale regolamentarla adeguatamente. Il decreto sulla cybersicurezza, attualmente in discussione al Senato, punta proprio a creare standard chiari e procedure affidabili.

Necessaria una regolamentazione condivisa

Addentrandosi nel problema della regolamentazione, il manager afferma: “Quando un deepfake viene portato in tribunale, dobbiamo poter stabilire con certezza se si tratta di un file autentico o manipolato. Serve una ragionevole certezza sulla sua natura e provenienza, e per questo è necessaria l’adozione di protocolli condivisi a livello internazionale.

Inoltre, la dematerializzazione dei file complica ulteriormente il problema: un contenuto può essere creato in un Paese e diffuso in un altro, rendendo ancora più difficile la tracciabilità. Anche nella lotta al terrorismo, la cooperazione internazionale è essenziale, non solo dal punto di vista tecnico, ma anche normativo, come dimostrano le iniziative europee dei 27 Stati membri.

Infine, la formazione gioca un ruolo cruciale. Non solo le forze dell’ordine devono essere preparate, ma l’educazione deve partire dai più giovani, coinvolgendo anche le famiglie. Spesso, infatti, i genitori non sono consapevoli dei rischi legati a questi strumenti digitali. Non basta sapere se un file è autentico o manipolato con AI, ma è fondamentale comprendere chi lo ha creato e da dove proviene”.

Read Entire Article