Intelligence

Pillole di OSINT n.30

Pillole di OSINT n.30

L’intelligenza artificiale sta ridefinendo i confini dell’OSINT

In questa trentesima edizione di Pillole di OSINT ho selezionato, ancora una volta, risorse che affrontano una questione centrale per chiunque operi nel campo dell’intelligence e della sicurezza delle informazioni: il rapporto sempre più complesso tra intelligenza artificiale, verifica delle fonti e capacità di giudizio umano.

I contenuti di questo numero si sviluppano lungo tre assi complementari:

  • la tensione epistemologica tra i fondamenti metodologici dell’OSINT e le caratteristiche intrinseche dei modelli linguistici;
  • l’evoluzione delle minacce sintetiche, con i deepfake che raggiungono nuove soglie di realismo e diffusione;
  • l’impatto cognitivo dell’uso intensivo dell’AI sui processi decisionali e sul pensiero critico.

Quando l’AI mina le basi dell’OSINT: un’analisi del Reuters Institute

Fonte: Reuters Institute for the Study of Journalism – AI is undermining OSINT’s core assumptions. Here’s how journalists should adapt

L’articolo pubblicato lo scorso dicembre dal Reuters Institute, in collaborazione con WITNESS, affronta una questione che ritengo centrale per l’evoluzione della nostra disciplina: l’incompatibilità strutturale tra il metodo OSINT e le caratteristiche dei Large Language Models.

Come sappiamo, l’OSINT si fonda su principi di trasparenza, ripetibilità e verificabilità. Ogni conclusione deve poter essere replicata (auspicabilmente anche da altri analisti) seguendo lo stesso percorso logico e documentale. I modelli linguistici, invece, producono output probabilistici che per loro stessa natura sono variabili e non “verificabili”. Questa tensione epistemologica rappresenta una sfida profonda per chi integra l’AI nei propri workflow investigativi.

Un aspetto interessante che evidenziano gli autori è che i modelli linguistici trattano i timestamp alterati come autoritativi, mentre eventi storici recenti possono non essere integrati nel loro ragionamento. In contesti di crisi o conflitto, questo può trasformare la cronolocalizzazione da strumento di verifica a vero e proprio vettore di disinformazione.

Il monito in questo caso è abbastanza chiaro: l’AI può accelerare alcune fasi del lavoro analitico, ma non può sostituire il processo di verifica che definisce l’OSINT come disciplina.


Cinque lezioni del 2025 su deepfake e detection: il bilancio di WITNESS

Fonte: TechPolicy.Press – Five Things 2025 Taught Us About AI Deception and Detection

Il contributo di Zuzanna Wojciak e Shirin Anlen offre un bilancio operativo delle sfide affrontate dal Deepfakes Rapid Response Force nel corso del 2025. Le osservazioni derivano dall’analisi diretta di casi reali: dai deepfake di figure pubbliche ai contenuti manipolati circolati durante i conflitti in Medio Oriente e in altri contesti geopolitici sensibili.

Un elemento particolarmente rilevante riguarda la degradazione progressiva dei contenuti. Molti materiali sospetti arrivano agli analisti come ri‑registrazioni dell’originale: riprese da monitor esterni, versioni ricompressi più volte, file privi di metadati o montati in modo disordinato. Ogni passaggio elimina gli artefatti digitali su cui si basano i detector, rendendo l’analisi sempre più complessa e riducendo drasticamente l’affidabilità degli strumenti automatici. L’articolo evidenzia anche il fenomeno della plausible deniability sistemica.

L’aumento del realismo dei modelli video ha innalzato la soglia di ciò che il pubblico considera credibile, creando un ambiente in cui il dubbio diventa la condizione predefinita. Contenuti autentici vengono rigettati con la semplice affermazione “è un’AI”, soprattutto quando politicamente scomodi o emotivamente polarizzanti. Questo spostamento culturale mina la fiducia collettiva nelle prove visive.

Per chi opera nell’OSINT, questo significa che la competenza tecnica nella detection non è più sufficiente. Deve essere affiancata da una capacità di comunicazione basata su evidenze, capace di contrastare il dubbio riflessivo con argomentazioni documentate, trasparenti e replicabili. In un ecosistema informativo dove l’incertezza è diventata strutturale, la credibilità si costruisce non solo attraverso l’analisi, ma attraverso la capacità di spiegare come e perché un contenuto è autentico o manipolato.


Strumenti investigativi 2025: la selezione del GIJN

Fonte: Global Investigative Journalism Network – Top Investigative Tools of 2025

La selezione annuale del GIJN offre una panoramica aggiornata degli strumenti più innovativi per l’investigazione open source. Quest’anno l’attenzione si concentra su tre aree: detection di contenuti AI, tracciamento finanziario e database per i diritti umani.

Un aspetto metodologico che condivido: il GIJN privilegia strumenti individuali che non richiedono competenze avanzate di computer science e che rispondono a esigenze concrete e attuali. L’obiettivo non è accumulare tool, ma selezionare quelli che effettivamente migliorano la qualità dell’analisi.

La lista include risorse per la verifica di immagini satellitari, l’identificazione di frammenti di munizioni, e il monitoraggio di piattaforme social marginali. Un promemoria utile: gli strumenti migliori sono quelli che si integrano in un metodo di lavoro strutturato, non quelli che promettono di sostituirlo.


Content Credentials: lo standard Five Eyes per la verifica della provenienza digitale

Fonte: NSA, ASD’s ACSC, CCCS, NCSC-UK – Content Credentials: Strengthening Multimedia Integrity in the Generative AI Era (Gennaio 2025)

Le agenzie cyber di Stati Uniti, Australia, Canada e Regno Unito hanno pubblicato una guida congiunta sui Content Credentials, lo standard sviluppato dalla Coalition for Content Provenance and Authenticity (C2PA) per tracciare origine e modifiche dei contenuti digitali.

Il documento chiarisce un punto metodologico rilevante: i Content Credentials non risolvono da soli il problema della trasparenza. Le agenzie raccomandano un approccio multifattoriale che integri provenance, educazione, policy e detection. La sola tecnologia non basta; serve un ecosistema che combini strumenti tecnici e competenze analitiche.

Per chi opera nell’OSINT, lo standard C2PA rappresenta un’infrastruttura potenzialmente utile per confermare storia e integrità dei media. Un asset dotato di Content Credentials permette di verificare se la catena di custodia digitale è stata rispettata, chi ha firmato il contenuto e quali modifiche sono state apportate. Non un giudizio di verità, ma un segnale di fiducia verificabile.

Il documento evidenzia diversi limiti operativi: il sistema è opt-in e non obbligatorio*****; i metadati possono essere rimossi durante la condivisione su piattaforme social; i Content Credentials attestano il “come” ma non il “perché” di un contenuto. In passato era possibile firmare asset con certificati self-signed, problema ora mitigato da liste di certificati noti, la cui gestione resta un elemento critico e in evoluzione.

Un’analisi parallela del World Privacy Forum ha approfondito proprio questo aspetto: la governance delle trust list: chi decide quali certificatori sono affidabili e con quali criteri rimane poco trasparente. Un elemento da monitorare per valutare l’effettiva utilità operativa dello standard.

L’adozione da parte di attori come Adobe, Microsoft, Google, OpenAI e BBC suggerisce che i Content Credentials diventeranno parte dell’infrastruttura informativa. Per l’analista OSINT, comprenderne funzionamento e limiti è già una competenza necessaria.

*“Opt‑in” vuol dire che:

  • le Content Credentials non vengono applicate automaticamente
  • non sono abilitate di default
  • è il creatore del contenuto (fotografo, giornalista, piattaforma, modello AI, software di editing) che deve decidere volontariamente di includerle

In altre parole: se non fai nulla, il contenuto esce senza credenziali.


In sintesi

Il numero 30 di Pillole di OSINT ruota attorno a una questione che attraversa tutti i contenuti selezionati: il rapporto tra automazione e giudizio umano.

L’AI generativa sta ridefinendo il panorama informativo in cui operiamo, creando simultaneamente opportunità di accelerazione e rischi di erosione cognitiva. I deepfake raggiungono livelli di realismo che sfidano la detection automatica. I modelli linguistici offrono risposte fluide ma non verificabili. Il cognitive offloading riduce progressivamente la capacità di pensiero indipendente.

La risposta ovviamente non è il rifiuto della tecnologia, ma la sua integrazione consapevole in un metodo che mantenga al centro la responsabilità dell’analista, la verificabilità delle fonti e la tracciabilità del processo decisionale.

Come ripeto spesso: l’AI può supportare, accelerare e facilitare. Non può studiare al posto nostro.