Deepfake in tempo reale, aumenta il rischio di frodi

“Entro 4 anni l’intelligenza artificiale sarà nel 60-70 per cento dei raggiri”. È quanto afferma Marco Ramilli, fondatore di IdentifAI. Il rischio è alto. Attraverso l’ia è possibile cambiare volto, colore della pelle, voce e altro durante una videochiamata dal vivo. È il nuovo fenomeno del cosiddetto deepfake in tempo reale. Si tratta di una truffa che inganna anche i sistemi di verifica e può colpire tutti, non solo manager di grandi aziende o personaggi pubblici come Donald Trump e Taylor Swift. Ramilli è ideatore di una startup italiana che processa immagini e video e grazie a una tecnologia definita “degenerativa” che riconosce prodotti contraffatti dall’intelligenza artificiale generativa. “Con la tecnologia di morphing – spiega all’Ansa Ramilli – si cambia volto e voce, sono sofisticate operazioni di ingegneria sociale molto più efficaci della truffa che arriva con un messaggio a cui siamo oramai più preparati”. Del fenomeno dei deepfake in tempo reale si è occupata la testata online 404 media che conduce inchieste nel settore tecnologico. Ha documentato dell’uso di questo sistema per truffare gli utenti, soprattutto gli anziani, ma anche della chiusura di un sito Mr. Deepfakes a cui gli utenti erano disposti a pagare fino a 1.500 dollari per creare dei video finti porno in cui venivano cambiati i volti con l’ia.

In pochi anni il fenomento deepfake in generale è cresciuto in maniera vertiginosa. Secondo dati combinati di Resemble.AI e AI Incident Database dal 2017 al 2022 ci sono stati 22 incidenti registrati. Nel 2023 questo numero è quasi raddoppiato a 42, nel 2024 gli incidenti sono aumentati del 257 per cento arrivando a 150. E nel primo trimestre del 2025 si sono già verificati 179 incidenti, superando del 19 per cento il totale di tutto il 2024. Come osserva Ramilli, “le frodi più comuni, quelle di tutti i giorni, riguardano principalmente i documenti di identità falsi nel settore bancario e assicurativo, scontrini contraffatti per le richieste di rimborsi. Ma ci sono anche le truffe con le voci generate dall’intelligenza artificiale per cui basta una traccia di pochi secondi per riprodurre il vocale di un parente. E quelle con le immagini di persone famose prese dai social che hanno più appeal sugli utenti e possono essere usate anche a scopo politico”.

Tanti gli esempi di video contraffatti da quando è scoppiata la guerra in Ucraina e più di recente la tecnologia di IdentifAI ha aiutato NewsGuard, la piattaforma che monitora la disinformazione online, a smascherare dei video finti di Donald Trump che minacciava di distruggere il Pakistan se avesse attaccato l’India. La tecnologia “degenerativa” della startup italiana ha individuato le voci fuori campo prodotte con l’intelligenza artificiale che sono state aggiunte ad una clip reale del presidente americano mentre i movimenti della bocca sono stati alterati. “Nel campo delle frodi quest’anno l’intelligenza artificiale rappresenta il 5 per cento, mentre lo scorso anno si è attestata allo 0,3 per cento. Pensiamo che in quattro anni salirà al 60-70 per cento delle frodi. Siamo sottoposti a molti stimoli multimediali, bisogna avere cautela e dotarsi di strumenti che processano le immagini e i video per cercare di capire, altrimenti si perderà la fiducia nel digitale”.

Aggiornato il 12 maggio 2025 alle ore 15:42