Deepfake e Detection nel 2025: Cinque lezioni operative dal campo
Il 2025 è stato l’anno in cui i nuovi modelli di generazione video hanno prodotto un’ondata senza precedenti di contenuti AI: deepfake della Regina Elisabetta fermata dalla polizia, il CEO di OpenAI Sam Altman ripreso mentre ruba in un negozio, conversazioni “trapelate” durante le elezioni in Bolivia e Iraq, materiali manipolati circolati durante il conflitto Iran-Israele. La capacità di ingannare sta accelerando a ritmi impressionanti. La capacità di rilevare e rispondere a questi inganni fatica a svilupparsi. Il Deepfakes Rapid Response Force (DRRF), un’iniziativa guidata da WITNESS che collega giornalisti di prima linea, fact-checker, difensori dei diritti umani ed esperti di media forensics, ha pubblicato un bilancio operativo delle sfide affrontate nel corso dell’anno. Non si tratta di proiezioni teoriche o allarmi generici, ma di osservazioni derivate dall’analisi diretta di casi reali. Le lezioni che emergono riguardano chiunque operi nel campo dell’OSINT, della , dell’intelligence.
1. La degradazione progressiva dei contenuti
Il primo problema è strutturale e riguarda la qualità del materiale che arriva agli analisti. Dopo il rilascio di Google Veo 3 e OpenAI Sora 2, i modelli generativi producono scene più lunghe, più coerenti, con movimenti sincronizzati, parlato naturale, dettagli ambientali convincenti. Un caso recente riguardante un video AI di un’ancora che discuteva il referendum in Ecuador ha mostrato movimenti di camera elaborati, illuminazione consistente, gestualità credibile. Uno dei video AI più convincenti che il DRRF abbia analizzato. Ma i colli di bottiglia della detection persistono e peggiorano man mano che i contenuti circolano. Reuploads a bassa risoluzione e alta compressione attraverso le piattaforme continuano a confondere i detector. In un video sospetto del politico russo Vladimir Medinsky che compie un gesto osceno durante i negoziati di pace tra Ucraina e Russia, la bassa risoluzione ha impedito ai modelli di detection del DRRF di fornire risultati conclusivi. Il problema si aggrava ulteriormente quando i contenuti arrivano come ri-registrazioni dell’originale. Nel giugno 2025, al DRRF è stato chiesto di analizzare un clip degli attacchi israeliani su Borhan Street a Teheran. Il materiale era una registrazione di filmati CCTV riprodotti su un monitor esterno. Ogni passaggio allontanava il video dalla sua fonte, eliminando metadati e oscurando gli artefatti digitali su cui i detector si basano. Una dinamica parallela è emersa in un montaggio circolato online come quattro presunti clip CCTV che mostravano attacchi israeliani su siti militari iraniani. Attraverso le varie versioni, formato e ricircolazione hanno introdotto distorsioni aggiuntive, mentre il contenuto stesso mostrava indicatori coerenti con immagini generate e/o manipolate dall’AI. Lo stesso problema si presenta con l’audio. In un caso riguardante una presunta conversazione WhatsApp con l’ex presidente boliviano Evo Morales che pianificava di disturbare le elezioni, il file sottoposto per l’analisi non era l’audio trapelato originale, ma una registrazione di esso riprodotta su un altro dispositivo. C’è un punto cieco strutturale che merita attenzione particolare: molti detector sono costruiti per analizzare volti. Questo li rende inefficaci per filmati di esplosioni, incendi, operazioni notturne o altre scene senza soggetti umani, esattamente il tipo di contenuto più comune in contesti di conflitto, disastri climatici e crisi.
2. Manipolazioni chirurgiche e falsi positivi
La manipolazione di contenuti autentici pone sfide significative, spesso sottovalutate. In un caso dalla Georgia, un video presentato come prova in un procedimento legale contro manifestanti è stato segnalato come AI dagli esperti del DRRF. Il motivo: sezioni sfocate e un cerchio rosso che annotava un’area chiave. Gli esperti hanno poi chiarito che si trattava di overlay di editing standard, non di manipolazione ingannevole. Grafiche sovrapposte ed effetti di editing minori possono attivare falsi positivi. Serve competenza umana per contestualizzare i risultati. Le immagini, sebbene meno numerose quest’anno, hanno rivelato un trend preoccupante: l’inpainting chirurgico, dove solo piccole regioni vengono sostituite. Due casi — uno che coinvolgeva funzionari nigeriani alla Conferenza Internazionale di Tokyo sullo Sviluppo Africano, l’altro che mostrava bambini ucraini con cartelli legati al battaglione Azov — hanno dimostrato come modifiche sottili siano eccezionalmente difficili da rilevare. Mentre l’attenzione si sposta verso video e manipolazioni AI complesse, la manipolazione delle immagini sta diventando più silenziosa, più precisa, più difficile da intercettare.
3. L’audio resta l’anello più debole
La manipolazione audio è il tipo più prevalente e al tempo stesso più difficile da rilevare. Bassa qualità, rumore di fondo e sovrapposizione di voci riducono consistentemente la confidenza dei sistemi di detection. Attraverso diverse regioni, le conversazioni trapelate sono rimaste un’arma politica potente: presunte chiamate false che coinvolgono figure politiche in Bolivia, incluso l’ex presidente, ex ministri, un influente uomo d’affari; registrazioni presunte del politico iracheno Nofal Abu Raghif; numerosi messaggi vocali circolati durante periodi elettorali. In questi casi, le tecniche di confronto vocale diventano fondamentali non solo per trovare evidenze di manipolazione, ma anche per confermare l’identità del parlante. In un caso che coinvolgeva un audio trapelato dell’Archimandrita georgiano Dorote Yurashvili che ritrattava il suo supporto alle proteste, ai fact-checker è stato chiesto non solo di stabilire se l’audio fosse generato dall’AI, ma anche se fosse autentico e se fosse effettivamente l’Archimandrita a parlare. Alcuni strumenti di detection cercano specificamente pattern che indicano uso di AI. Ma l’assenza di tali evidenze non esclude altri tipi di inganno, come l’impersonificazione. In un caso che presumibilmente presentava l’uomo d’affari boliviano Marcelo Claure che discuteva la sua influenza sui media boliviani, un team di esperti è arrivato a ricostruire la voce di Claure generando un audio AI di lui e confrontandolo con la registrazione sottoposta. Un metodo incredibilmente perspicace, ma che richiede accesso a competenze tecniche avanzate e campioni di parlato autentico, difficili da ottenere per figure pubbliche di profilo più basso con minore presenza digitale. I detector continuano a sottoperformare con lingue assenti dai dati di training. In casi che presentavano khmer, spagnolo boliviano e dialetti arabi libici, gli esperti hanno sottolineato che la mancanza di queste lingue nei dataset di training limitava l’accuratezza degli strumenti. La detection audio si sta muovendo verso modelli language-agnostic che performano equamente attraverso le lingue. Ma la familiarità con lingue specifiche e dialetti locali resta necessaria quando esperti umani revisionano i risultati. Gli esperti del DRRF hanno evidenziato più volte che la mancanza di conoscenza della lingua locale e del contesto era una limitazione nella loro analisi.
4. La plausible deniability sistemica
Con video AI iper-realistici ampiamente accessibili, lo scetticismo di base verso filmati autentici sta aumentando drasticamente. La plausible deniability viene sempre più usata per rigettare prove reali, semplicemente affermando “è un’AI”, specialmente quando il contenuto è politicamente sensibile o scomodo. I modelli video più recenti hanno drammaticamente innalzato la soglia di ciò che le persone considerano credibile, creando un ambiente in cui il dubbio è la condizione predefinita. Combinato con limitata alfabetizzazione mediatica e scarsa comprensione di come funzionano queste tecnologie, questo rende sempre più difficile contrastare affermazioni false, particolarmente su argomenti polarizzanti. In un caso recente che coinvolgeva un sospetto deepfake del leader del Burkina Faso Ibrahim Traore, nonostante i chiari segni di manipolazione del video, i fact-checker hanno comunque richiesto un’analisi approfondita per supportare questa conclusione e educare i loro lettori sull’uso dell’AI generativa e sulle tecniche di detection. Le analisi basate su evidenze sono particolarmente importanti nei casi in cui prove autentiche vengono dichiarate AI per negarne la credibilità. Casi passati del DRRF hanno dimostrato che costruire un caso positivo per l’autenticità è molto più difficile. Provare che qualcosa non è AI richiede analisi tecnica più profonda, verifica multimodale e conoscenza del contesto locale. Il fenomeno ha implicazioni operative dirette: la comunicazione basata su evidenze diventa un componente centrale della mitigazione del danno, non un’aggiunta opzionale.
5. L’expertise umana non è opzionale
Gli strumenti di AI detection sono indispensabili, ma non possono operare da soli. Gli esperti umani sono essenziali per interpretare detection ambigue o a bassa confidenza; risolvere falsi positivi causati da overlay, editing e ri-registrazioni; portare conoscenza linguistica e culturale che i modelli non possiedono; valutare spiegazioni alternative come l’impersonificazione; comunicare sfumature a giornalisti e pubblico. In un caso indonesiano che coinvolgeva una registrazione audio in cui un ministro presumibilmente rimproverava il suo staff, gli esperti hanno potuto confermare i risultati dello strumento nonostante la scarsa qualità audio grazie alla loro profonda comprensione delle capacità dell’audio AI. Nel caso dei manifestanti georgiani, lo strumento di detection ha segnalato evidenze di manipolazione AI. Ma gli esperti hanno chiarito che le aggiunte erano fattori di editing intesi a indicare elementi rilevanti per il caso legale, non per ingannare. In un altro caso, un linguista madrelingua spagnolo ha identificato ritmi del parlato e caratteristiche grammaticali, contribuendo a confermare che una presunta registrazione di Evo Morales era autentica. C’è però una questione critica che emerge dai casi più estremi. Un gruppo per i diritti umani ha sottoposto filmati estremamente grafici per l’analisi. A causa della natura del video, alcuni esperti hanno scelto di non guardarlo, affidandosi unicamente agli output degli strumenti. Fortunatamente, strumenti multipli hanno prodotto risultati consistenti. Ma questo esempio fa emergere una domanda fondamentale: di chi dovremmo fidarci quando la supervisione umana non è possibile?
Cosa significa per chi opera nell’OSINT
Il bilancio del 2025 rende inequivocabile una tendenza: la corsa verso video generativi “camera-real” sta superando le protezioni disponibili. La detection è sempre più facile da eludere, la provenance è lontana dall’essere adottata in modo ampio o consistente, le salvaguardie delle piattaforme sono disomogenee. Il risultato è una minaccia diretta alla verità su scala e una finestra che si restringe per rinforzarla. Affrontare questa sfida richiede un approccio sociotecnico: infrastrutture robuste e strumenti efficaci accoppiati con expertise umana, verifica contestuale, e comunicazione trasparente, azionabile e appropriatamente incerta. Per la detection, questo significa costruire sistemi che funzionino sui media che le persone effettivamente condividono (reuploads compressi, registrazioni da schermo, audio degradato) non solo file sorgente incontaminati. Significa prioritizzare metodi che possano gestire gli scenari reali più difficili e comuni: filmati di conflitto dinamici senza volti, audio multilingue rumoroso, edit “chirurgici” sottili. E significa trattare la spiegazione come parte dell’intervento: non solo se qualcosa è generato dall’AI, ma quali sono le evidenze e quanto possiamo essere confidenti. La manipolazione AI sta aumentando. Ma etichettare erroneamente contenuti autentici come generati dall’AI sta aumentando ancora più velocemente. Gli strumenti di detection restano limitati da vincoli di qualità, gap di diversità, tecniche in rapida evoluzione. In questa realtà, il giudizio umano, la verifica contestuale e la comunicazione chiara non sono opzionali. Sono parti essenziali di qualsiasi workflow di analisi affidabile.