AI, il caso Crosetto dimostra che i deepfake rappresentano una minaccia alla sicurezza nazionale

4 hours ago 27

CyberSec2025

Se un deepfake vocale del ministro della Difesa è riuscito a ingannare grandi imprenditori, cosa succederebbe se venisse usato in un contesto più delicato, come una riunione NATO o una comunicazione riservata con le forze armate?

Una sofisticata truffa basata sull’intelligenza artificiale ha preso di mira il Ministro della Difesa, Guido Crosetto, mettendo in allarme il mondo politico e imprenditoriale italiano. I truffatori hanno utilizzato tecnologie di clonazione vocale per replicare la voce del ministro, ingannando diversi imprenditori di alto profilo con false richieste di denaro.

Secondo le prime indagini, l’obiettivo della frode era ottenere ingenti somme di denaro da figure di spicco del settore industriale e della moda. Tra i nomi coinvolti figurano Giorgio Armani, Patrizio Bertelli (Prada), Massimo Moratti, Diego Della Valle e altri imprenditori. Moratti, ex presidente dell’Inter, avrebbe trasferito un milione di euro su un conto estero, convinto di star finanziando un’operazione di riscatto per il rilascio di giornalisti italiani sequestrati in Medio Oriente.

L’allarme è scattato quando alcune delle vittime hanno avuto sospetti e contattato direttamente il Ministro Crosetto, che ha smentito categoricamente di aver mai effettuato simili richieste. Il caso ha portato alla denuncia pubblica del ministro e all’apertura di un’inchiesta da parte della Procura di Milano, che ora indaga per truffa, sostituzione di persona e associazione a delinquere.

Deepfake e sicurezza nazionale: un nuovo pericolo?

L’episodio ha sollevato serie preoccupazioni sulla sicurezza nazionale: se i truffatori sono riusciti a ingannare noti imprenditori, la stessa tecnologia potrebbe essere utilizzata per fini ben più pericolosi. L’uso di deepfake vocali in contesti politici o militari potrebbe minacciare la stabilità del Paese, generando falsi ordini governativi, crisi diplomatiche o persino attacchi informatici coordinati.

Di fronte a questo scenario, esperti di sicurezza informatica chiedono un rafforzamento delle misure di autenticazione nelle comunicazioni ufficiali, mentre il governo valuta l’adozione di sistemi avanzati per il rilevamento dei deepfake.

La truffa è stata un test?

È lecito chiedersi se questa truffa sia stata solo un caso isolato o un vero e proprio test per qualcosa di più pericoloso.

Il fatto che sia stato preso di mira proprio il Ministro della Difesa è significativo: i criminali hanno dimostrato che la clonazione vocale funziona, ed è probabile che la prossima volta il bersaglio non sia più un imprenditore, ma una figura militare o governativa. Se un deepfake del ministro è riuscito a ingannare grandi imprenditori, cosa succederebbe se venisse usato in un contesto più delicato, come una riunione NATO o una comunicazione riservata con le forze armate?

Alcuni possibili scenari di attacco con deepfake

L’uso malevolo dei deepfake potrebbe portare a scenari estremamente pericolosi. Un primo rischio riguarda il settore militare: se un generale ricevesse un ordine falso, trasmesso attraverso un deepfake che riproduce la voce di un alto ufficiale o del Ministro della Difesa, potrebbero verificarsi errori strategici con conseguenze potenzialmente disastrose. Un altro scenario inquietante è l’uso di video deepfake per diffondere notizie false, come un annuncio di evacuazione improvvisa o di un attacco imminente, generando panico e disordini tra la popolazione.

Anche la politica internazionale potrebbe essere colpita. Un deepfake che riproduce un ministro mentre insulta un capo di Stato straniero potrebbe provocare una crisi diplomatica o avere ripercussioni economiche e politiche gravi. Infine, le campagne di disinformazione rappresentano una minaccia concreta: potenze straniere potrebbero sfruttare i deepfake per diffondere notizie false e destabilizzare un Paese, influenzando opinione pubblica ed equilibri geopolitici.

La truffa che ha coinvolto il Ministro Crosetto non è solo un inganno finanziario, ma un campanello d’allarme su come l’intelligenza artificiale possa diventare un’arma nelle mani della criminalità organizzata e delle potenze ostili. L’inchiesta è ancora in corso, ma una cosa è certa: non sottovalutare l’intelligenza artificiale per la sicurezza nazionale.

Read Entire Article