Cambiare volto, voce o etnia durante una videochiamata live non è più fantascienza, ma una realtà resa possibile dall’intelligenza artificiale. Questo è il fenomeno più insidioso dei deepfake in tempo reale una truffa che inganna anche i sistemi di verifica e può colpire tutti, non solo manager di grandi aziende o personaggi pubblici come Donald Trump e Taylor Swift. A preoccupare non è solo la qualità dell’inganno, ma la sua estrema facilità d’uso: bastano pochi clic per impersonare chiunque.
Le vittime di queste frodi sono anche cittadini comuni, aziende, e in particolare persone anziane, spesso meno attrezzate per riconoscere un contenuto manipolato. La testata statunitense 404 Media ha acceso i riflettori su questo fenomeno, rivelando come alcuni utenti arrivassero a pagare fino a 1.500 dollari per generare pornografia sintetica su piattaforme poi chiuse, come il sito ‘Mr. Deepfakes’.
In Italia, a lavorare contro questo pericoloso trend c’è IdentifAI, una startup fondata da pochi mesi da Marco Ramilli, che spiega: “Con la tecnologia di morphing si cambia volto e voce, sono sofisticate operazioni di ingegneria sociale molto più efficaci della truffa che arriva con un messaggio a cui siamo oramai più preparati.” La società utilizza un sistema di analisi “degenerativa”, progettato per riconoscere manipolazioni operate tramite intelligenza artificiale generativa su video e immagini.
Le statistiche parlano chiaro: i deepfake sono in forte espansione. Secondo Resemble.AI e l’AI Incident Database, tra il 2017 e il 2022 si sono registrati solo 22 episodi. Ma nel 2023 si è saliti a 42, e nel 2024 si è verificato un boom del 257%, raggiungendo i 150 casi. Nel primo trimestre del 2025, gli incidenti già rilevati sono 179, più dell’intero anno precedente.
Le applicazioni fraudolente sono sempre più varie. “Le frodi più comuni, quelle di tutti i giorni, riguardano principalmente i documenti di identità falsi nel settore bancario e assicurativo, scontrini contraffatti per le richieste di rimborsi – osserva Ramilli – Ma ci sono anche le truffe con le voci generate dall’intelligenza artificiale per cui basta una traccia di pochi secondi per riprodurre il vocale di un parente. E quelle con le immagini di persone famose prese dai social che hanno più appeal sugli utenti e possono essere usate anche a scopo politico.”
Un esempio concreto viene dalla guerra in Ucraina, dove contenuti video manipolati sono circolati per influenzare l’opinione pubblica. IdentifAI ha recentemente collaborato con NewsGuard, contribuendo a smascherare un falso video di Donald Trump in cui il presidente minacciava il Pakistan. Il video era in parte reale, ma la voce e i movimenti della bocca erano stati alterati digitalmente. “Nel campo delle frodi quest’anno l’Intelligenza artificiale rappresenta il 5%, mentre lo scorso anno si è attestata allo 0.3%. Pensiamo che in quattro anni salirà al 60-70% delle frodi. Siamo sottoposti a molti stimoli multimediali, bisogna avere cautela e dotarsi di strumenti che processano le immagini e i video per cercare di capire, altrimenti si perderà la fiducia nel digitale.”