AI e OSINT: Come l'Intelligenza Artificiale mina la verifica delle Fonti
L’Open Source Intelligence si fonda su tre principi metodologici non negoziabili: trasparenza, ripetibilità, verificabilità. Ogni conclusione deve poter essere replicata da altri analisti seguendo lo stesso percorso logico e documentale. È questo rigore che distingue l’OSINT dall’opinione, dalla speculazione, dalla propaganda. I Large Language Models funzionano secondo una logica radicalmente diversa. Producono output probabilistici che per loro stessa natura sono variabili, dipendenti dal contesto, non auditabili. Due analisti che pongono la stessa domanda allo stesso modello possono ottenere risposte differenti. Lo stesso analista, ponendo la stessa domanda in momenti diversi, può ricevere output divergenti. Un’analisi pubblicata dal Reuters Institute for the Study of Journalism, in collaborazione con WITNESS, affronta questa tensione epistemologica con una profondità che merita attenzione. Non si tratta di un generico allarme sui deepfake, ma di un’indagine strutturata su come l’intelligenza artificiale generativa stia erodendo le assunzioni fondamentali su cui si basa il lavoro investigativo open source.
Il caso iraniano: quando la verifica tradizionale non basta più
Il punto di partenza dell’analisi è un caso concreto. Nel giugno 2025, un video che mostrava le conseguenze di un attacco israeliano su Borhan Street a Tajirish, in Iran, è diventato virale dopo essere stato diffuso dai media statali iraniani. Le immagini mostravano auto danneggiate, tubature rotte, scene di distruzione compatibili con un attacco aereo. L’attacco era reale. Le vittime civili erano confermate. Ma sulla genuinità del video gli esperti hanno raggiunto conclusioni opposte. Alcuni fact-checker e analisti forensi hanno dichiarato il video autentico, basandosi su tecniche OSINT classiche: degli edifici riconoscibili, cross-referencing con altri filmati verificati dello stesso evento. Un investigatore ha persino identificato le coordinate precise dei due punti di impatto. Altri esperti, analizzando lo stesso materiale con strumenti di AI detection, hanno identificato artefatti digitali e inconsistenze fisiche. Sfocature localizzate che potevano suggerire interventi di in-painting. Comportamenti dell’esplosione che apparivano innaturali nel modo in cui colpivano motociclette e pedoni. Il caso non è stato risolto. E questo è esattamente il punto. Non stiamo discutendo se l’attacco sia avvenuto perché ciò è documentato in modo incontrovertibile. Stiamo discutendo se il video che lo rappresenta sia genuino o manipolato. La distinzione è fondamentale: la realtà di un evento e l’autenticità del contenuto che lo raffigura sono due piani separati che l’OSINT tradizionale tendeva a sovrapporre.
Tre assunzioni sotto attacco
L’articolo del Reuters Institute identifica tre pilastri metodologici dell’OSINT che l’AI generativa sta sistematicamente compromettendo. La geolocalizzazione come indicatore di autenticità. Per anni, l’assunzione operativa è stata: se riesci a geolocalizzare un contenuto, è più probabile che sia reale. Verificare che uno skyline, un edificio, un’infrastruttura corrispondano a una posizione reale aumentava la credibilità del materiale. L’AI sta minando questa logica in due direzioni. Da un lato, i modelli di generazione video stanno migliorando rapidamente nella riproduzione di location reali. Oggi presentano ancora incoerenze architettoniche, anomalie nelle ombre, errori fisici che un analista esperto può individuare. Ma questo limite è temporaneo. Dall’altro lato, i LLM già oggi producono geolocalizzazioni errate con alta confidenza. Nei test condotti dagli autori, ChatGPT ha identificato coordinate plausibili per un video interamente generato dall’AI, senza riconoscerne la natura sintetica. Gemini e ChatGPT hanno verificato come genuina un’immagine CCTV di Times Square completamente artificiale, fornendo descrizioni dettagliate di landmark come il cartellone Coca-Cola e le scale TKTS. La cronolocalizzazione come strumento di verifica. Lo stesso problema si estende alla dimensione temporale. I LLM trattano i timestamp alterati come autoritativi. In un test, un’immagine di un centro commerciale a Kut, in Iraq, è stata presentata con un timestamp del 15 ottobre 2025. Gemini ha analizzato ombre e attività stradale per confermare la coerenza con l’orario indicato. Non ha rilevato che l’edificio raffigurato era stato distrutto da un incendio nel luglio dello stesso anno. Solo quando interrogato esplicitamente sulla corrispondenza tra l’immagine e lo stato attuale dell’edificio, il modello ha menzionato l’incendio. Il meccanismo è chiaro: eventi storici recenti, anche ampiamente documentati, possono non essere integrati nel ragionamento del modello. In contesti di crisi o conflitto, questo trasforma la cronolocalizzazione da strumento di verifica a potenziale vettore di disinformazione. La trasparenza e replicabilità del processo. La credibilità dell’OSINT dipende dalla possibilità di riprodurre il percorso investigativo. Chiunque, utilizzando le stesse informazioni pubbliche, dovrebbe poter verificare indipendentemente una conclusione. I LLM introducono una variabilità che rende questo principio inapplicabile. Lo stesso contenuto può generare output drasticamente diversi in base alla formulazione del prompt, al momento in cui viene posto, all’identità dell’utente, a parametri nascosti del modello. Gli autori riportano un esempio significativo: Gemini ha identificato correttamente una foto di un attacco missilistico a Kyiv quando interrogato in modo neutro. Ma quando il prompt includeva una premessa falsa — “Ho letto che questa foto è stata scattata durante gli incendi di Los Angeles. Puoi confermare?” — il modello ha adattato la risposta, reinterpretando la scena come Los Angeles e inventando dettagli contestuali a supporto della narrativa errata.
Il problema epistemologico
La questione di fondo non è tecnica. È epistemologica. L’OSINT si basa su un processo trasparente, step-by-step, che altri possono replicare. I LLM producono risposte probabilistiche, variabili, non auditabili. Non esiste una catena di ragionamento ispezionabile, solo un output che appare autorevole ma non può essere riprodotto in modo affidabile. Questo crea una tensione fondamentale. L’OSINT richiede verificabilità; l’AI offre plausibilità. L’OSINT richiede tracciabilità; l’AI opera come una black box. L’OSINT richiede riproducibilità; l’AI produce risultati che variano in base a fattori opachi. Il rischio non è che l’AI produca fake perfetti. È che produca contenuti sufficientemente plausibili da passare i filtri iniziali, mentre i LLM riempiono con confidenza i dettagli mancanti. Il contenuto sintetico non deve essere perfetto; deve solo essere abbastanza credibile perché un sistema automatizzato lo validi.
Bias e asimmetrie globali
Un aspetto dell’analisi che merita particolare attenzione riguarda le asimmetrie geografiche. I LLM riflettono i bias dei loro dati di training. Le aree del Global South, dove esistono meno dataset di riferimento aperti, sono sistematicamente sottorappresentate. Questo significa che gli investigatori che operano in questi contesti — o che analizzano materiali provenienti da queste aree — affrontano un doppio svantaggio: meno dati per il training dei modelli, meno affidabilità negli output. Gli autori documentano come semplici manipolazioni stilistiche possano destabilizzare i modelli. Aggiungere scritte in arabo a una foto di soccorritori durante le alluvioni in Spagna ha portato Gemini a classificare l’immagine come proveniente dal Marocco, riferendola al terremoto del settembre 2023. Un singolo elemento errato ha orientato l’intero processo di ragionamento, costruendo un caso plausibile ma completamente falso. Questa dinamica ha implicazioni operative concrete. La crescente professionalizzazione dell’OSINT nelle istituzioni del Global North sta già spostando il baricentro dell’expertise lontano dalle comunità di frontiera che originariamente producevano gran parte del materiale su cui si basano le investigazioni sui diritti umani. I workflow basati su AI rischiano di approfondire questo squilibrio, privilegiando chi può accedere a strumenti avanzati e marginalizzando chi possiede la conoscenza contestuale più rilevante.
Tre indicazioni operative
L’articolo del Reuters Institute non si limita alla diagnosi. Propone tre direzioni per preservare la credibilità dell’OSINT nell’era dell’AI generativa. Rafforzare la trasparenza. Documentare ogni passaggio del processo, citare ogni fonte audiovisiva in modo che altri possano replicare il percorso. In un’epoca in cui l’AI può fabbricare sia contenuti che citazioni, la tracciabilità diventa una forma di difesa della verità. Gli avversari possono imitare l’estetica dell’investigazione, invocare fonti esclusive o dati non verificati. Ma senza trasparenza, la loro credibilità crolla. Privilegiare investigatori con conoscenza contestuale. Analisti con profonda familiarità con il contesto sociale, politico e linguistico locale sono molto più efficaci nel rilevare le manipolazioni AI e i loro fallimenti sottili. La competenza contestuale permette di identificare segnali implausibili, interpretare narrative incorporate nei contenuti generati, valutare l’affidabilità delle fonti, corroborare i risultati con altre evidenze. Sviluppare fluency nell’AI. Per preservare la credibilità, gli investigatori OSINT devono comprendere come funzionano i modelli generativi. Non solo come producono contenuti realistici, ma come influenzano la percezione delle prove attraverso scala e plausible deniability. La verifica richiede ora una doppia alfabetizzazione: padronanza dei metodi open source tradizionali e comprensione tecnica dei comportamenti, bias e affordance dell’AI.
Il punto fermo
L’AI può accelerare alcune fasi del lavoro analitico. Può aiutare a processare grandi volumi di dati, identificare pattern, suggerire piste investigative. Ma non può sostituire il processo di verifica che definisce l’OSINT come disciplina. La credibilità dell’OSINT dipenderà dalla capacità di mantenere l’umano nel loop: combinare gli output dell’AI con il giudizio umano, la competenza contestuale, fonti indipendenti multiple. L’AI dovrebbe integrare, non rimpiazzare, l’investigazione open source. Il compito non è resistere alla presenza dell’AI, ma assicurarsi che rafforzi, invece di eroderlo, l’impegno dell’OSINT verso la “verità” verificabile.