gigiorancilio.it

Divulgo il digitale a giornalisti, insegnanti, educatori, genitori e nel mondo cattolico

Come usare l’IA per fare fact-checking giornalistico

Cosa sia il fact checking, noi giornalisti, dovremmo averlo imparato. Ma siccome tra i lettori di questo blog ci sono anche dei non giornalisti, credo possa essere utile spendere poche righe per ricordarci cosa sia e perché serve.
Come spiega bene la pagina di wikipedia dedicata al tema, «la verifica dei fatti (anche verifica delle fonti. spesso indicato con l’anglicismo fact-checking), nel lessico del giornalismo, è il lavoro di accertamento degli avvenimenti citati e dei dati usati in un testo o in un discorso[. Questa pratica si applica in particolare alle informazioni».

Perché è importante fare fact-checking

La verifica dei fatti, cioè il fact‑checking, serve per portare allo scoperto errori, imprecisioni e soprattutto menzogne. Ovviamente è una pratica che non è condotta solo da giornalisti professionisti, ma anche da semplici cittadini, associazioni e quant’altro. Con la moltiplicazione delle informazioni su Internet e con l’arrivo dell’intelligenza artificiale, capace di creare centinaia di migliaia di contenuti falsi, questa pratica non solo è diventata importante, ma è diventata anche un mestiere difficile.
Che serva all’ecosistema democratico e a quello informativo è fuori di dubbio.Ma ci sono due aspetti importanti della questione che dobbiamo sottolineare. Il primo è che chi fa fact‑checking riesce ad analizzare solo una piccolissima percentuale di quanto viene creato ogni giorno. Il secondo aspetto è che le persone più propense a credere alle informazioni false danno sempre meno peso al valore del fact checking. Allora, penserà qualcuno di voi, a cosa serve farlo? Serve innanzitutto alla maggioranza silente che abita il mondo digitale. Quella che non lascia traccia di sé sui social o in Rete perché non commenta mai i contenuti, non li condivide e non mette like. Però legge. E tanto. E ha bisogno di sapere se un’informazione è o no veritiera. Perché, nonostante quello che pensiamo spesso (soprattutto dopo aver letto alcune discussioni sui social) la maggioranza delle persone spesso non ha un’opinione precisa su un argomento.
Ecco: sintetizzando un po’ la questione, il fact checking è utile soprattutto per aiutare le persone indecise a farsi un’opinione più chiara.

Fatta questa premessa, entriamo nel vivo dell’argomento.

Come usare l’IA per fare il fact checking giornalistico

Cominciamo subito col dire che i sistemi di intelligenza artificiali “migliori” per il fact checking giornalistico non sono quelli più creativi, ma quelli che:
(1) sbagliano poco quando devono giudicare affermazioni
(2) sanno dire “non lo so”
(3) danno il meglio quando possono consultare fonti esterne come motori di ricerca, database e archivi di informazioni.
A questo punto, però, dobbiamo restringere un po’ il campo. Perché, in particolare, ci occuperemo su cosa deve fare un LLM di fact checking.

Cos’è un LLM?
La sigla LLM sta per Large Language Model (Modello Linguistico di Grandi Dimensioni). È un tipo avanzato di intelligenza artificiale addestrato su enormi quantità di dati testuali per comprendere, interpretare e generare linguaggio naturale simile a quello umano, svolgendo compiti come traduzione, risposta a domande, scrittura e riassunto. È la tecnologia alla base di assistenti virtuali e chatbot come ChatGPT, Gemini, Claude eccetera.  

Per uso giornalistico ha senso valutare i modelli su tre capacità chiave.
1) Capacità di aderire alla realtà di fatto e livello di allucinazioni (quanto spesso inventa dettagli quando le fonti non ci sono).
2) Capacità di usare fonti esterne e restare ancorato a esse, invece di basarsi solo sulla memoria del modello.
3) Propensione a segnalare incertezza e a motivare il suo giudizio, non solo a limitarsi a dire “vero/falso”.

Qual è il migliore LLM per fare fact-checking giornalistico

Diciamo subito che non esiste un campione assoluto. Ma quelli più adatti a fare da motore di un sistema di fact checking sono GPT‑4.x/5, Claude 3.5/4, Gemini 1.5/2.x/3). Secondo diversi studi, GPT‑4.x/4o/5 mostra buona accuratezza nel giudicare titoli/news, soprattutto se integrato con ricerca esterna, ma tende a essere meno accurato sia sui contenuti veri su su quelli falsi (trovi gli studi qui, qui, qui e qui).
Claude 3.5/4 risulta molto forte nel restare aderente alle fonti, con pochissime allucinazioni, ed è onesto quando le prove a sua disposizione sono deboli o incomplete (trovi gli studi qui, qui e qui)
Gemini 1.5/2.x (sul 3 non ho trovato ancora studi) ha una forte capacità di integrare molte fonti e di mantenere coerenza nel ragionamento, utile quando il fact checking richiede confronti tra molte pagine/siti (trovi gli studi qui, qui e qui)

LLM PER FACT-CHECKING – USO TIPICO PER UN GIORNALISTA

Esigenza di fact-checking Modelli generali indicati Perché
Valutare veridicità di un titolo/claim GPT-4.x/4o/5, Claude 3.5/4 Buona accuratezza nel classificare claim semplici, con spiegazione
Passare al setaccio un dossier di fonti Claude 3.5/4, Gemini 1.5/2.x Gestione robusta di molti documenti e riferimenti incrociati
Analisi di incoerenze, omissioni, contraddizioni GPT-4o/5, Claude 4 Ragionamento logico e causale su testi lunghi

I risultati migliori arrivano usando più sistemi

Ecco un punto importante: i risultati migliori arrivano da sistemi che combinano più LLM con database strutturati, non da un singolo modello “onnisciente”.

Ti faccio un esempio pratico. Immagina di dover verificare una notizia complessa. Invece di chiedere tutto a un solo modello, ti conviene costruire una catena di lavoro: un primo modello cerca le fonti, un secondo le verifica confrontandole con database affidabili, un terzo ti spiega i risultati in modo chiaro. Perché farlo? Perché questo approccio riduce gli errori e rende tutto più trasparente.

Il punto è semplice: un solo modello, anche il migliore, può sbagliarsi. Una squadra di modelli che si controllano a vicenda sbaglia molto meno.

Limiti e accortezze per il giornalismo

Lo so che lo sai, ma è importnate ripetercelo: un LLM può essere un ottimo assistente di fact checking, ma non è un arbitro finale.
Prima di usarli dobbiamo sapere che:
c’è un rischio di eccesso di fiducia: quando LLM sbaglia, le persone tendono comunque a fidarsi, soprattutto se l’interfaccia è “sicura” e ben scritta.
– attenti al bias delle fonti: i modelli tendono a preferire certi tipi di testate (es. più “mainstream” o di un certo orientamento politico) quando citano fonti, il che va bilanciato con una selezione editoriale consapevole.
Il miglior uso pratico: far generare al modello una lista di affermazioni da verificare, parole chiave, possibili fonti e contro‑argomentazioni, lasciando sempre al giornalista la decisione finale.

Quindi, cosa devo fare?
Primo: scegli un modello top – GPT-4, Claude o Gemini – ma non lasciarlo lavorare da solo. Costruisci un sistema dove è obbligato a citare sempre le fonti da cui trae le informazioni. È come avere un assistente intelligente, ma con la regola ferrea: “niente fonte, niente risposta”.
Secondo: collega questo modello ai tuoi archivi e alle tue fonti verificate. Deve poter consultare solo documenti che tu hai già controllato e approvato. Se non trova nulla negli archivi che gli hai dato, deve dirti “non ho abbastanza elementi” invece di inventarsi una risposta. In altre parole: l’intelligenza artificiale ti aiuta a ragionare e a cercare, ma le risposte devono venire sempre da fonti solide che controlli.

Esempi di prompt efficaci per la verifica dei fatti online

Ecco alcuni prompt (e strutture di prompt) che puoi usare per far valutare a un LLM l’attendibilità di una fonte online. Gli esempi sono in italiano ma funzionano anche in inglese.

1) Verifica di una singola affermazione
Analizza la seguente affermazione come fact-checker professionale:
“<affermazione testuale>”.

  • È verificabile? Con quali fonti?
  • Contiene dati numerici o fatti specifici da controllare?
  • Ci sono ambiguità o interpretazioni diverse possibili?
  • Fornisci 3-5 link a fonti primarie o autorevoli per verificare.

2) Checklist su un articolo o post
Agisci come fact-checker di una redazione.

Testo da analizzare:
“<incolla articolo / post>”.

Estrai ogni affermazione di fatto (numeri, date, eventi, dichiarazioni attribuite) e classificala:

  • Facilmente verificabile (con link suggerito)
  • Richiede ricerca approfondita
  • Non verificabile / opinione

Segnala eventuali red flag (fonti anonime, statistiche senza fonte, titoli clickbait vs contenuto).

3) Prompt a turni per ridurre le allucinazioni
Turno 1 – Generare ipotesi da controllare

Dal testo seguente estrai solo:

  1. Numeri e statistiche citate
  2. Date ed eventi storici o recenti
  3. Dichiarazioni attribuite a persone specifiche
  4. Nomi di leggi, studi, organizzazioni

Testo: “<testo>”.

Turno 2 – Valutare con prudenza

Ora, per ogni affermazione numerata sopra, comportati come fact-checker prudente.

  • Se hai fonti solide, citale con link.
  • Se non trovi riscontri, scrivi: “Non ho trovato conferme attendibili; necessaria ricerca manuale su [tipo di database]”.
  • Non inventare mai link o date.

4) Confronto tra due versioni dei fatti

Due soggetti presentano versioni diverse dello stesso evento.

Versione A: “<testo>”
Versione B: “<testo>”

  • Elenca i punti in cui concordano.
  • Elenca le discrepanze specifiche (date, numeri, sequenze di eventi).
  • Suggerisci fonti primarie o terze parti che potrebbero chiarire.

5) Prompt per smontare un numero o una statistica

Devo verificare questa statistica:
“<es. il 70% dei giovani…>”.

  • Chi ha raccolto questo dato (istituto, università, sondaggio)?
  • Qual è il campione (numero, area geografica, periodo)?
  • La metodologia è pubblica?
  • Ci sono studi indipendenti che confermano o smentiscono?
  • Fornisci link diretti alle fonti primarie (non articoli di giornale che citano il dato).

6) Prompt “anti-allucinazione”

Da tenere come appendice e incollare spesso alla fine:

Se non trovi fonti solide o aggiornate, scrivi esplicitamente:
“Le informazioni disponibili non sono sufficienti per una verifica affidabile. Ti consiglio di controllare direttamente <tipo di fonte>.”

Non inventare mai numeri, date, nomi di istituzioni o studi. Se hai solo indizi parziali, limitati a descriverli come tali.

Come verificare velocemente date e cronologie citate

Per verificare in fretta date e cronologie devi sempre spezzare la frase che le contiene in micro‑fatti e controllarli uno per uno con fonti autorevoli (archivi, enciclopedie, banche dati, comunicati ufficiali).

Una strategia rapida in 4 passi
1. Isola i “micro‑eventi”
Dal testo estrai singole affermazioni: “X è stato eletto nel…”, “La legge Y è entrata in vigore il…”, “La guerra è iniziata nel…”.
Più i pezzi sono piccoli, più è facile cogliere errori di sequenza (es. un ministro che firma prima di essere nominato).

2. Usa ricerche mirate (site: e virgolette)
In un motore di ricerca usa:
la frase o il nome tra virgolette,
l’anno sospetto,
site: per filtrare (es. site:senato.it, site:europa.eu, site:who.int).
Così trovi rapidamente fonti primarie o comunque molto solide (Gazzette ufficiali, archivi istituzionali, grandi testate).

3. Controlla coerenza interna e timeline
Dopo aver verificato singole date, ricostruisci una mini‑timeline di 4–5 punti e chiediti se l’ordine ha senso: nascite, cariche, trattati, leggi, conflitti devono seguire una sequenza logica.
Errori tipici: data di annuncio scambiata per data di entrata in vigore; inizio di un conflitto confuso con una singola offensiva; anno di pubblicazione diverso dall’anno di raccolta dati in uno studio.
4. Automatizza il controllo di base con tool
Per pezzi ricorrenti puoi:
usare un LLM come assistente, con un prompt tipo: “Elenca tutte le date citate in questo testo e verifica per ciascuna se risulta coerente con le principali fonti aperte; segnala dove trovi versioni discordanti”;
appoggiarti a strumenti che legano eventi a knowledge graph/linee del tempo (ad es. timeline integrate in enciclopedie e database storici o giuridici).

Posso usare anche NotebookLM per fare fact checking giornalistico?

Anche NotebookLM può essere uno strumento molto potente per il fact-checking, ma è fondamentale capire come usarlo per evitare errori grossolani. A differenza di ChatGPT o Gemini, NotebookLM non attinge a tutto il web, ma si limita esclusivamente ai documenti che carichi tu ).

Ecco come puoi integrarlo nel tuo flusso di lavoro giornalistico e quali sono i rischi da monitorare:

1. Come usarlo per il Fact-Checking

Il modo migliore per usarlo non è chiedergli “Questa notizia è vera?”, ma utilizzarlo per incrociare fonti certe contro una dichiarazione o un articolo sospetto.

  • Caricamento delle fonti: Carica rapporti ufficiali, trascrizioni di interviste, database PDF o leggi dello Stato.
  • Interrogazione mirata: Incolla il testo che vuoi verificare e chiedi: “In base ai documenti caricati, ci sono discrepanze con quanto affermato in questo testo?”
  • Citations (Citazioni): Questa è la funzione chiave. Per ogni risposta, NotebookLM genera dei numeri cliccabili che ti portano al punto esatto del documento originale. Se non c’è una citazione, l’informazione non è verificata.
2. Funzioni utili per un giornalista
  • Contradiction Finder: Puoi caricare due versioni diverse di un fatto e chiedere: “Trova le contraddizioni tra la Fonte A e la Fonte B”.
  • Analisi di grandi volumi: Se hai 500 pagine di atti giudiziari, puoi chiedere date, nomi o cifre specifiche che altrimenti richiederebbero ore di lettura.
  • Deep Research: La nuova funzione (se disponibile nel tuo account) permette a NotebookLM di cercare attivamente sul web per creare un report iniziale, che puoi poi raffinare caricando le tue fonti primarie.
3. I limiti da non ignorare

Nonostante sia più preciso di altri strumenti, NotebookLM non è infallibile:

  • Allucinazioni interpretative: Uno studio recente ha rilevato che NotebookLM ha un tasso di errore (allucinazione) di circa il 13% (molto più basso di altri modelli), ma tende a essere troppo sicuro di sé nelle interpretazioni. Non inventa numeri, ma può interpretare male il “tono” o il nesso logico tra due fatti.
  • Bias delle fonti: Se carichi fonti parziali o errate, l’IA ti darà risposte errate “documentate”. Il fact-checking è valido solo quanto lo sono i documenti che inserisci.
  • Limiti di quantità: Puoi caricare fino a 50 fonti per ogni notebook (nella versione gratuita), con un limite di 500.000 parole per fonte.

Come controllare se un sito è satirico o fa disinformazione

Per distinguere siti satirici da quelli disinformativi, controlla prima la sezione “About” o “Chi siamo”, poi la reputazione esterna e i segnali stilistici interni; un controllo rapido richiede meno di 2 minut

Controlla l’”About” e i metadati del sito
Cerca pagine come “Chi siamo”, “Disclaimer”, “About us” o “Impressum”: i siti satirici dichiarano esplicitamente “tutto è finzione” o “umorismo”, mentre i disinformativi evitano trasparenza o fingono autorevolezza.
Esamina footer, contatti, copyright: siti seri hanno redazioni, PEC, riferimenti a testate registrate; i falsi hanno email generiche (gmail) o niente.
Usa WHOIS (whois.domaintools.com o icann.org): controlla da quanto esiste il dominio, chi è il registrant (se è anonimo non è un buon segno).

Verifica la reputazione esterna
Usa Google Fact Check Explorer o NewsGuard: digita il dominio per vedere se è già stato etichettato come satira o fake news.
Ricerca “nome sito” bufala o “nome sito” satira: se appare in fact-checker italiani (Pagella Politica, Facta, BUTAC) o internazionali (Snopes), hai la risposta immediata.
Usa mappe che classificano testate per affidabilità e bias; cerca il sito in Media Bias Chart o Ad Fontes Media

Checklist rapida (1 minuto)
1.About/Disclaimer: dichiara satira? → Sì = satirico; No + sospetti = probabile fake.
2.Reputazione: citato da fact-checker o grandi testate? → Sì con etichetta = ok; No = evita.
3.Contenuti: paragona con fonti note sullo stesso tema (es. Wikipedia, ANSA, Reuters).
4.Estensioni browser: NewsGuard o Media Bias/Fact Check per rating immediato.

Esempi italiani comuni
Satirici dichiarati: Spinoza, Lercio (lo dicono apertamente).
Disinformativi mascherati: siti che copiano layout di Repubblica o Corriere ma sparano bufale (es. “MilanoToday fake”, “TgLa7 falso”).
Controlla sempre il dominio vero vs quello noto.
Puoi anche farlo controllare da un LLM ma devi adottare tutte le precauzuioini di cui abbiamo già parlato.

Un po’ di tool per il fact checking

Per il fact checking conviene combinare più strumenti automatici, perché ognuno copre un pezzo diverso del lavoro (testi, immagini, video, monitoraggio, reputazione delle fonti).

Motori e piattaforme di fact checking
Google Fact Check Explorer: aggregatore che ti dice se una dichiarazione è già stata verificata da organizzazioni come PolitiFact, FactCheck.org, Full Fact ecc.
È utile per fare un primo check veloce.
Snopes, PolitiFact, FactCheck.org, Full Fact
sono siti di fact checking manuale ma con ottimi motori di ricerca interni; ideali per verificare bufale ricorrenti e dichiarazioni politiche.
NewsGuard: estensione browser che assegna un punteggio di affidabilità ai siti in base a criteri editoriali (trasparenza, correzioni, separazione news/opi, ecc.).
AI OSINT SU CHATGPT
fornisce supporto nella ricerca open source. Puoi chiedergli di aiutarti a indagare su un dominio, un’e-mail, un nome, ecc.
ChatGPT di verifica dei fatti GPT personalizzato
Verifica dei fatti nel tuo testo, fornendo citazioni da fonti affidabili

Verifica immagini e video
InVID‑WeVerify (plugin)
: standard de facto per i giornalisti; permette di scomporre video in frame, fare reverse image search, leggere metadati e cercare manipolazioni.

GeoSpy
Uno strumento freemium per identificare la posizione di una foto caricata. 

Picarta
Foto geolocalizzazione Stima della geolocalizzazione Strumento gratuito. Carica una foto per trovare la posizione

Google Immagini: ricerca immagini inversa
Verifica i fatti delle foto e scopri quando sono state pubblicate per la prima volta.

Tineye
Simile alla ricerca immagini di Google. Verifica i fatti delle foto.

Foto Forensics
Inserisci l’URL di un’immagine o trascina una foto in questo strumento gratuito per vedere quante modifiche sono state apportate. Ottimo per verificare le foto false.