Nei giorni scorsi a Lubiana si è tenuto Disinfo2025, un incontro internazionale sull’uso dell’intelligenza artificiale come strumento di guerra e per creare disinformazione capace di manipolare le coscienze.
Ricercatori, giornalisti e policy maker si sono confrontati su temi che non possiamo più permetterci di considerare marginali o teorici. Ogni epoca ha avuto i suoi strumenti di persuasione e manipolazione. Questo lo sappiamo. Ma ciò che distingue la nostra è qualcosa di più profondo: sono cambiate la scala, la velocità e soprattutto l’accessibilità alla disinformazione.
L’intelligenza artificiale non si limita a moltiplicare le menzogne – le rende disponibili a chiunque abbia una connessione internet. E così alimenta una guerra che spesso non riusciamo nemmeno a vedere. L’aspetto forse più inquietante emerso dalla conferenza riguarda proprio questa dimensione geopolitica della disinformazione.
La guerra russa dell’informazione
Non parliamo più solo di fake news o bufale virali che circolano sui social. Parliamo di guerra informativa condotta con metodologia e strategia militare. Il caso di Russia Today è emblematico e merita attenzione. Come ha raccontato Nieman Lab, la macchina della propaganda russa si sta evolvendo in modi sofisticati. Pierre Dagard, responsabile dell’advocacy globale di Reporters Sans Frontieres, ha tracciato un quadro che dovrebbe farci riflettere: «I modelli di media indipendenti sono in difficoltà in molte parti del mondo. Al contrario, la Russia sta investendo nella formazione di giornalisti militanti». C’è un’amara ironia in questo contrasto. Mentre il giornalismo indipendente fatica a trovare modelli sostenibili, apparati statali investono massicciamente in narrazioni alternative. Le sanzioni contro i media statali russi, lungi dal limitarne l’influenza, hanno spinto Russia Today e Sputnik a espandersi strategicamente in regioni con preesistente sentimento anti-occidentale – come i paesi del Sahel e la Serbia.
Ciò che colpisce particolarmente è la sofisticazione di questa strategia. Attraverso iniziative come il Global Fact Checking Network, la Russia sta imitando le istituzioni giornalistiche indipendenti ma con l’obiettivo di promuovere le narrazioni del Cremlino, soprattutto sull’Ucraina. «Sembra una normale organizzazione che si occupa di verificare i fatti, ma è finanziata e diretta da organizzazioni e persone con chiare affiliazioni al Cremlino», ha osservato Dagard. E poi c’è un aspetto che aggiunge un ulteriore livello di complessità: gli attacchi dell’amministrazione Trump ai media stanno avvantaggiando il Cremlino. La decisione di smantellare l’Agenzia statunitense per i media globali, che include Radio Free Europe e Voice of America, è stata accolta con favore a Mosca.
La logica è semplice e devastante: meno fonti indipendenti e affidabili significano più spazio per la propaganda.
Durante la sessione Not So Artificial Threats si è parlato anche di 531 account Telegram che diffondono contenuti politici generati dall’intelligenza artificiale in inglese e russo. Parliamo di “slop” – quella massa di contenuti di bassa qualità che inquina il nostro ecosistema informativo come rifiuti tossici in un fiume. Ma non tutto è perduto: esistono anche strumenti come vera.ai che aiutano i giornalisti a indagare, verificare, resistere. È una corsa agli armamenti silenziosa, dove si costruiscono contemporaneamente gli strumenti della manipolazione e quelli della difesa. A Lubiana è stato toccato anche un altro nervo scoperto: come proteggere la democrazia senza tradirla? Il Digital Services Act europeo rappresenta un tentativo coraggioso di regolamentare le piattaforme, ma negli Stati Uniti c’è chi lo considera censura. Due visioni della libertà di espressione che collidono frontalmente. Noi europei, e noi giornalisti in particolare, sappiamo che la libertà di espressione comporta doveri e responsabilità. È parte del nostro DNA culturale. Ma molti altri paesi, in primis l’America, non la pensano così.
C’è un altro punto importante: fino a che punto si può limitare la diffusione di contenuti falsi senza scivolare nell’autoritarismo? Chi decide cosa è vero e cosa è falso? Come possiamo costruire sistemi di verifica che siano effettivamente al servizio dei cittadini e non del potere? Non ho risposte definitive a queste domande. Ma so che vanno poste, continuamente, senza stancarsi mai.
I chatbot stanno promuovendo la propaganda russa
Mentre stavo scrivendo questo articolo, Wired ha pubblicato un lavoro in tema intitolato I chatbot stanno promuovendo la propaganda russa.
Secondo un nuovo rapporto, Gemini, DeepSeek e Grok di xAI quando vengono interrogati sulla guerra contro l’Ucraina promuovono la propaganda di stato russa, con citazioni dai media statali russi, da siti legati all’intelligence russa o narrazioni pro-Cremlino.
I ricercatori dell’Institute of Strategic Dialogue (ISD) sostengono che la propaganda russa abbia preso di mira e sfruttato alcune lacune nei dati usati da questi chatbot per promuovere informazioni false e fuorvianti. «Quasi un quinto delle risposte alle domande sulla guerra russa in Ucraina, nei quattro chatbot testati, citava fonti attribuite allo Stato russo».
L’esperimento di Vote for turtle
La conferenza ha avuto il merito di offrire qualcosa di concreto: sessioni pratiche sulla resilienza. Ho trovato particolarmente significativa la testimonianza dei “FIMI defenders” – persone che ogni giorno resistono alle campagne di molestie coordinate e alle querele bavaglio progettate per zittirle. Giornalisti, ricercatori, attivisti che continuano a fare il loro lavoro nonostante tutto. La loro determinazione è più potente di qualsiasi teoria accademica. Tra i progetti presentati, uno mi ha colpito per la sua intelligenza concettuale: “Vote for Turtle”, un gioco online che usa la teoria dell’inoculazione per insegnare a riconoscere la disinformazione. L’idea è affascinante: vaccinare le menti esponendole a piccole dosi di falsità, proprio come si fa con i virus. Perché tutti sappiamo che non basta smascherare le fake news una per una. Bisogna formare cittadini capaci di esercitare il pensiero critico, di riconoscere gli schemi usati nelle manipolazioni, di resistere alla polarizzazione.
Tre lezioni importanti
Guardando a Disinfo2025 nel suo insieme, credo emergano tre lezioni fondamentali.
La prima: la complessità è inevitabile. Non esistono soluzioni semplici a problemi complessi. La tentazione della soluzione rapida è forte, ma è anche pericolosa. Servono approcci multi-attore, coordinamento tra regolatori, piattaforme, ricercatori e società civile. È faticoso, lo so. Ma è necessario.
La seconda: la questione è urgente. Le minacce non sono più teoriche, non sono più scenari futuri da studiare con distacco accademico. Mentre discutiamo, le elezioni vengono manipolate, le comunità polarizzate, la fiducia nelle istituzioni erosa. Non possiamo permetterci il lusso della procrastinazione.
La terza, e forse la più importante: la speranza è possibile. Esistono strumenti, competenze, persone che resistono. La resilienza non è solo difesa passiva – è anche costruzione attiva di alternative, è immaginazione di futuri possibili. Guardando avanti, mi pongo una domanda finale: saremo capaci di evolvere abbastanza velocemente per proteggere i nostri spazi democratici o continueremo a inseguire minacce che mutano più rapidamente delle nostre risposte?
PS. Per analizzare i dati di questo articolo ho usato l’intelligenza artificiale
