Intelligence

Pillole di OSINT n.29

Pillole di OSINT n.29

Intelligenza artificiale, OSINT e Decision Making

Guida per un uso consapevole degli strumenti di AI generativa

Oggigiorno individui, professionisti e organizzazioni sono esposti a un flusso continuo di dati, notizie, analisi, opinioni e contenuti generati sia da esseri umani sia da sistemi automatici. Questo fenomeno, comunemente definito come sovraccarico informativo, non rappresenta soltanto un problema di quantità, ma soprattutto di qualità, contesto e affidabilità.

Al contempo, i tempi a disposizione per prendere decisioni si sono drasticamente ridotti. In ambito professionale, strategico e operativo, la pressione a decidere rapidamente è diventata la norma. A questa riduzione del tempo decisionale si accompagna un aumento strutturale delle possibilità di errore, dovuto alla difficoltà di valutare correttamente le informazioni disponibili, di distinguere ciò che è rilevante da ciò che non lo è e di riconoscere eventuali distorsioni cognitive.

In questo scenario è ormai pienamente inserita l’Intelligenza artificiale e in particolare l’intelligenza artificiale generativa, intesa come strumento potenzialmente straordinario, ma allo stesso tempo stesso ambivalente. Gli strumenti basati su modelli linguistici di grandi dimensioni offrono capacità senza precedenti di sintesi, rielaborazione e produzione di contenuti. Tuttavia, il loro utilizzo non elimina la complessità del contesto informativo, anzi, in alcuni casi rischia di amplificarla.

L’approccio OSINT, Open Source Intelligence, offre una lente metodologica particolarmente utile per affrontare questa sfida. Non tanto come insieme di strumenti, quanto come disciplina fondata su metodo, verifica, contestualizzazione e pensiero critico.

La percezione della semplificazione tecnologica

Uno dei principali rischi legati all’uso dell’intelligenza artificiale generativa è l’illusione della semplificazione. La capacità di ottenere risposte rapide, ben formulate e apparentemente coerenti può indurre l’utente a confondere la forma con la sostanza, la fluidità linguistica con l’accuratezza informativa.

Da una prospettiva Intelligence, questo è un problema noto e non rappresenta quindi un elemento di novità. Anche una fonte ben presentata, autorevole nel tono e ricca di dettagli, può essere imprecisa, parziale o fuorviante. L’intelligenza artificiale, per sua natura, non “conosce” la verità, ma produce output probabilistici basati su pattern appresi da grandi quantità di dati. Questo significa che un risultato può essere plausibile senza essere corretto. Questo fenomeno è confermato da ricerche recenti. Uno studio pubblicato su Computers in Human Behavior (2024) ha dimostrato che la sola consapevolezza che un consiglio provenga da un sistema di intelligenza artificiale induce le persone a seguirlo anche quando contraddice informazioni contestuali disponibili e va contro i propri interessi.

In un contesto di tempo limitato e alta pressione decisionale, il rischio è quindi quello di delegare implicitamente all’AI una funzione che non le compete, ovvero quella di sostituirsi al processo di analisi. L’AI può supportare, accelerare e facilitare alcune fasi del lavoro cognitivo, ma non può, e non deve, studiare al posto nostro.

Un principio fondamentale dell’OSINT è che nessuna informazione dovrebbe essere accettata senza una valutazione critica della fonte, del contesto e delle possibili intenzioni sottostanti. Questo principio rimane valido, e anzi diventa ancora più importante, quando la “fonte” è un sistema di intelligenza artificiale.

L’intelligenza artificiale rappresenta un supporto potenziato alle attività umane. Non le sostituisce

Un uso maturo e consapevole dell’intelligenza artificiale generativa parte da una distinzione chiave: l’AI è uno strumento di amplificazione delle capacità cognitive umane, non un loro sostituto.

Dal punto di vista operativo, questo significa utilizzare gli strumenti di AI per:

  • esplorare un tema;
  • identificare potenziali ambiti di ricerca;
  • riorganizzare informazioni già raccolte;
  • confrontare ipotesi;
  • migliorare la chiarezza espositiva.

Non significa, invece, affidare all’AI la responsabilità di formulare giudizi, conclusioni definitive o decisioni strategiche senza un intervento umano consapevole.

Nel metodo Intelligence, l’analisi è sempre il risultato di un processo strutturato che include la raccolta delle fonti, la loro valutazione, la verifica incrociata e l’interpretazione critica. L’intelligenza artificiale può essere integrata in ciascuna di queste fasi, ma non può eliminarne nessuna.

Ad esempio, un modello linguistico può aiutare a riassumere un insieme di documenti, ma non è in grado di valutare in autonomia l’affidabilità delle fonti originarie, né di riconoscere eventuali omissioni strategiche o bias culturali presenti nei dati di partenza.

Sovraccarico informativo e bias cognitivi nell’era dell’AI

Il sovraccarico informativo non è solo un problema quantitativo, ma anche cognitivo. Più informazioni abbiamo a disposizione, maggiore è la probabilità di ricorrere a scorciatoie mentali, ovvero bias cognitivi, per semplificare il processo decisionale.

L’intelligenza artificiale, se utilizzata in modo acritico, può rafforzare questi bias invece di mitigarli. Un esempio tipico è il bias di conferma, ovvero la tendenza a cercare e accettare informazioni che confermano le proprie convinzioni preesistenti. Se un utente formula una richiesta all’AI in modo orientato, il sistema tenderà a produrre risposte coerenti con quell’impostazione, rafforzando la percezione di correttezza.

L’approccio OSINT insegna che la formulazione delle domande è tanto importante quanto la ricerca delle risposte. Questo vale anche, e forse soprattutto, nell’interazione con l’AI. Porre domande aperte, esplorare punti di vista alternativi e chiedere esplicitamente limiti, incertezze e contro-argomentazioni sono pratiche essenziali.

Un altro rischio è l’automazione del giudizio. Quando il tempo è poco e la pressione elevata, l’output dell’AI può diventare una scorciatoia cognitiva, una sorta di “ancora” su cui basare decisioni complesse. In questi casi, il ruolo del pensiero critico non è ridurre l’uso della tecnologia, ma governarlo consapevolmente. Una ricerca sperimentale pubblicata su Procedia Computer Science (2025) ha misurato questo effetto attraverso il Cognitive Reflection Test: i partecipanti che ricevevano supporto da un’AI difettosa rispondevano correttamente a meno della metà delle domande rispetto al gruppo di controllo senza alcun supporto. Dato significativo: il livello di “AI literacy” dichiarato dai partecipanti non ha ridotto la tendenza all’automation bias.

Verifica, tracciabilità e responsabilità dell’analista

Uno dei principi cardine dell’OSINT è la verificabilità. Ogni informazione utilizzata in un’analisi dovrebbe essere tracciabile, verificabile e, idealmente, replicabile. Questo principio entra in tensione con alcune caratteristiche dell’intelligenza artificiale generativa, che spesso produce output senza fornire riferimenti chiari alle fonti originarie.

Per questo motivo, è fondamentale che l’utente mantenga un atteggiamento attivo e responsabile. L’AI non deve essere vista come una fonte, ma come un supporto alla gestione delle fonti. Ogni affermazione rilevante dovrebbe essere verificata attraverso fonti indipendenti, preferibilmente primarie o comunque qualificate.

In ambito professionale, l’adozione dell’AI non elimina la responsabilità individuale. Al contrario, la rende più complessa. Delegare implicitamente una decisione o una valutazione a un sistema automatico non riduce il rischio, ma lo redistribuisce, spesso in modo opaco.

L’analista, il decisore, il professionista rimangono gli unici responsabili delle scelte effettuate. L’OSINT, in questo senso, ha nel proprio “dna metodologico” una cultura della responsabilità che dovrebbe essere estesa anche all’uso dell’intelligenza artificiale.

Studiare meglio, non studiare di meno

Perché parlo di studio? Perché l’attività Intelligence a carattere generale è inscindibile da studio quotidiano e formazione continua. In questo senso, un messaggio centrale che emerge dall’integrazione tra OSINT e intelligenza artificiale è che la tecnologia dovrebbe aiutarci a studiare meglio, non a studiare di meno. L’accesso rapido a informazioni e sintesi non sostituisce la comprensione profonda, la capacità di collegare concetti e l’analisi del contesto.

L’AI può essere uno strumento straordinario per l’apprendimento, se utilizzata come tutor, come supporto alla riflessione e come stimolo al pensiero critico. Può aiutare a esplorare concetti complessi, a confrontare modelli interpretativi e a individuare lacune nella propria conoscenza.

Tuttavia, se utilizzata come scorciatoia per evitare lo studio, rischia di impoverire le competenze cognitive e analitiche nel lungo periodo. I dati empirici supportano questa preoccupazione. Uno studio pubblicato su Smart Learning Environments (2024) ha rilevato che il 68,9% degli studenti esposti a sistemi di AI generativa mostrava un aumento della “pigrizia intellettuale”, mentre il 27,7% evidenziava un deterioramento delle capacità decisionali. Una ricerca parallela pubblicata sulla rivista Societies (2025), condotta su 666 partecipanti, ha riscontrato una correlazione negativa statisticamente significativa tra uso frequente di strumenti AI e capacità di pensiero critico, con i partecipanti più giovani che mostravano la maggiore dipendenza e i punteggi più bassi. Anche questi dati dimostrano, a mio avviso, che la questione centrale non è l’accesso alle informazioni, ma saper sviluppare le capacità per interpretarle al meglio.

Governare la complessità

L’intelligenza artificiale generativa rappresenta una delle trasformazioni tecnologiche più significative del nostro tempo. Il suo impatto sul modo in cui cerchiamo, analizziamo e utilizziamo le informazioni è già evidente e continuerà a crescere.

L’approccio OSINT offre un quadro concettuale e metodologico solido per affrontare questa trasformazione senza subirla. Sovraccarico informativo, riduzione del tempo decisionale e aumento delle possibilità di errore non possono essere eliminati, ma possono essere gestiti attraverso metodo, consapevolezza e pensiero critico.

In conclusione, ritengo utile sottolineare che la tecnologia è uno strumento potente, ma neutro solo in apparenza. Il valore reale dell’intelligenza artificiale dipende dalla capacità umana di utilizzarla in modo responsabile, critico e informato. In questo senso, l’AI non è una scorciatoia verso decisioni migliori, ma un moltiplicatore delle competenze o delle fragilità, di chi la utilizza.

Letture consigliate

AI e pensiero critico: cosa dice la ricerca

AI Tools in Society: Impacts on Cognitive Offloading and the Future of Critical Thinking Uno studio su 666 partecipanti rivela che l’uso frequente di strumenti AI è correlato negativamente con le capacità di pensiero critico. I più giovani mostrano la maggiore dipendenza e i punteggi più bassi. Chi ha un livello di istruzione più elevato tende invece a verificare gli output dell’AI. Leggi lo studio

The effects of over-reliance on AI dialogue systems on students’ cognitive abilities Il 68,9% degli studenti esposti a sistemi di AI generativa mostra un aumento della “pigrizia intellettuale”, mentre il 27,7% evidenzia un deterioramento delle capacità decisionali. Un campanello d’allarme per il mondo della formazione. Leggi lo studio

Mitigating Automation Bias in Generative AI Through Nudges I partecipanti che ricevono supporto da un’AI difettosa rispondono correttamente a meno della metà delle domande rispetto a chi non ha alcun supporto. Sorprendente: la “AI literacy” autodichiarata non protegge dall’automation bias. Leggi lo studio

Trust and reliance on AI: An experimental study on the extent and costs of overreliance La sola consapevolezza che un consiglio provenga da un’AI induce le persone a seguirlo, anche quando contraddice informazioni disponibili e va contro i propri interessi. Un effetto che impatta anche sulla cooperazione tra individui. Leggi lo studio