Sempre più spesso usiamo l’intelligenza artificiale anche per le notizie. È comoda, è veloce, ci fa risparmiare tempo. Mentre i siti di informazione del mondo ci avvertono che questo sistema toglie loro traffico web e quindi i pochi guadagni rimasti, Il mondo dei sistemi IA sembra non avere alcuna intenzione di fermarsi, anzi. Ormai non c’è smartphone o browser che non pubblicizzi l’uso dell’intelligenza artificiale per trovare, catalogare e diffondere le notizie.
Peccato che una ricerca internazionale condotta dall’Unione Europea di Radiodiffusione e dalla BBC, che ha coinvolto 22 media di servizio pubblico in 18 paesi e 14 lingue, ci avverta che sebbene si registrino alcuni miglioramenti, gli assistenti IA non sono ancora una fonte affidabile per l’accesso alle notizie.
• Elevata Incidenza di Errori: Complessivamente, il 45% delle risposte degli assistenti AI conteneva almeno un “problema significativo”. Se si includono anche i “problemi parziali”, la percentuale sale all’81%.
• Attribuzione errata delle fonti: La causa maggiore di problemi significativi è l’attribuzione delle fonti (sourcing), che affligge il 31% di tutte le risposte. Ciò include informazioni non supportate dalle fonti citate, assenza di fonti o attribuzioni errate.
• Gemini è il peggiore, Perplexity il migliore: Gemini ha registrato la performance peggiore, con il 76% delle sue risposte affette da problemi significativi, un tasso più che doppio rispetto a Copilot (37%), ChatGPT (36%) e Perplexity (30%). I problemi di Gemini sono stati trainati da un tasso eccezionalmente alto di errori nell’attribuzione delle fonti (72%).
• Rischio reputazionale per giornali ed editori: Gli errori degli assistenti AI creano un rischio reputazionale diretto per le fonti di notizie che citano. La distorsione, l’errata attribuzione e l’editorializzazione dei contenuti dei PSM minano la fiducia del pubblico e la credibilità del giornalismo di servizio pubblico.
Il rapporto conclude con un appello urgente agli sviluppatori di AI affinché diano priorità alla riduzione degli errori, migliorino la trasparenza e diano agli editori un maggiore controllo sull’uso dei loro contenuti.
I problemi dei sistemi IA con le notizie
La ricerca internazionale condotta dall’Unione Europea di Radiodiffusione (EBU) e dalla BBC, che ha coinvolto 22 media di servizio pubblico (PSM) in 18 paesi e 14 lingue.
Lo studio ha valutato le prestazioni di quattro principali assistenti AI (ChatGPT, Copilot, Perplexity e Gemini) nel rispondere a domande su notizie e attualità.
45%
delle risposte conteneva almeno un “problema significativo”.
81%
delle risposte conteneva “problemi parziali” o “significativi”.
Problemi Significativi per Criterio
L’attribuzione delle fonti è la causa principale di errori, rappresentando il 31% di tutti i problemi significativi, seguita dall’accuratezza (20%).
Le prestazioni dei quattro assistenti AI valutati non sono uniformi. Questa sezione mette a confronto diretto la loro affidabilità, evidenziando come Gemini abbia mostrato le criticità maggiori, soprattutto nell’attribuzione delle fonti.
Risposte con Problemi Significativi (per AI)
Analisi Comparativa Dettagliata
La tabella mostra la percentuale di risposte con problemi significativi totali e la percentuale specifica di problemi legati all’attribuzione delle fonti (Sourcing). Il dato di Gemini sul sourcing (72%) spiega la sua performance negativa complessiva.
| Assistente | Problemi Significativi (Totali) | Problemi Significativi di Sourcing |
|---|---|---|
| Perplexity | 30% | 15% |
| ChatGPT | 36% | 24% |
| Copilot | 37% | 15% |
| Gemini | 76% | 72% |
Le risposte sono state valutate secondo cinque criteri chiave. Clicca su ciascun criterio per esplorare la definizione, i dati principali e gli esempi di errori riscontrati. Questa sezione mostra *perché* le risposte degli AI sono state giudicate problematiche.
Definizione: Le affermazioni nella risposta sono supportate dalle fonti fornite? Le fonti sono citate correttamente?
Problema n.1: Il 31% di tutte le risposte ha presentato problemi significativi qui.
- Fonti che non supportano le affermazioni: La risposta include un link a una fonte che non contiene l’informazione attribuita.
- Fonti fabbricate (Allucinazioni): L’AI ha generato URL inesistenti, a volte su domini di PSM reali, dando l’impressione che l’articolo sia stato rimosso.
- Fonti inappropriate: Uso di articoli satirici (presentati come fatti), comunicati stampa (adottando un tono promozionale), thread di Reddit o inserzioni eBay come fonti per notizie.
- Mancata citazione: L’AI afferma falsamente che un’organizzazione non ha trattato un argomento, anche quando esistono articoli pertinenti.
Focus su Gemini
Gemini è un outlier con il 72% di problemi di sourcing. Nel 42% dei casi non ha fornito alcun URL e nel 54% ha fatto false affermazioni (es. “Secondo CBC News…”) senza fornire link o citando altre fonti.
Definizione: La risposta è fattualmente corretta? Le citazioni dirette sono accurate?
- Informazioni Obsolete: Affermazioni errate su cariche politiche (es. Olaf Scholz) o eventi futuri (es. Papa Francesco dato per vivo nel maggio 2025).
- Errori Fattuali: Affermazioni legalmente errate (es. maternità surrogata in Cechia) o su notizie in evoluzione.
- Errata Rappresentazione delle Fonti: Distorsione di informazioni da fonti accurate, creando una narrativa fuorviante (es. caso della polizia di Merseyside).
- Citazioni Fabbricate (12%): Invenzione di citazioni e attribuzione a fonti (es. citazione “testa di ponte di Putin” attribuita a ZDF).
- Citazioni Alterate: Modifica di parole chiave in una citazione, alterandone il significato.
Focus: Eccessiva Sicurezza (Over-confidence)
Un problema pervasivo è il tono autorevole e sicuro con cui gli AI presentano informazioni, anche quando palesemente errate. In un caso, Gemini ha negato un fatto reale (astronauti bloccati) suggerendo fosse “disinformazione” o “fantascienza”.
Definizione: La risposta fornisce informazioni sufficienti per una comprensione completa da parte di un non esperto?
Copilot è risultato il peggiore (23%), probabilmente per la tendenza a dare risposte più brevi.
- Omissione di Fatti Chiave: Omissione di dettagli cruciali, come un incidente mortale, che spiegano il contesto di una notizia (es. ritardi nel recupero di uno yacht).
- Omissione di Punti di Vista: Presentazione di una sola posizione da un dibattito, omettendo la parte avversa.
- Informazioni Fuorvianti: Riportare stime previsionali (es. 10.000 morti per un terremoto) senza specificare che non si tratta di un bilancio confermato.
Definizione: La risposta distingue chiaramente tra opinioni (es. di politici, esperti) e fatti accertati?
- Opinioni presentate come Fatti: Trasformazione delle dichiarazioni di un politico in un’intervista in affermazioni fattuali (es. garanzie NATO).
- Attribuzione Errata di Opinioni ai PSM: L’AI afferma che un’organizzazione PSM (es. SVT) “sostiene” una posizione critica, attribuendo un’opinione all’intera azienda e minandone l’imparzialità.
Definizione: La risposta aggiunge un punto di vista o un giudizio di valore non presente nella fonte originale?
Gemini è stato il più incline a questo errore (11%).
- Aggiunta di Giudizi di Valore: Descrizione dei dazi di Trump come calcolati usando “la sua formula, politicamente motivata” (non presente nella fonte ZDF).
- Attribuzione di Giudizi al PSM: Descrizione dei metodi di Trump come “semplicistici, persino errati” e attribuzione di queste parole a RTBF, che non le aveva usate.
Per comprendere appieno i risultati, è essenziale conoscere la metodologia dello studio. La ricerca è una delle più vaste nel suo genere e ha coinvolto un ampio numero di media di servizio pubblico (PSM) per garantire una valutazione trasversale e multilingue.
Approccio Metodologico
- 1 Partecipanti: 22 organizzazioni PSM da 18 paesi, coprendo 14 lingue diverse.
- 2 Assistenti Valutati: Versioni gratuite e consumer di ChatGPT, Copilot, Perplexity e Gemini.
- 3 Domande: Un set di 30 domande “centrali” su notizie globali, più domande “personalizzate” su questioni locali.
- 4 Prefisso Prompt: Alle domande è stato aggiunto un prefisso (es. “Usa fonti Rai ove possibile…”) per testare come l’AI gestisce le fonti specificate.
- 5 Valutazione: 2.709 risposte valutate da giornalisti professionisti sulla base di 5 criteri: Accuratezza, Attribuzione Fonti, Distinzione Opinione/Fatto, Editorializzazione, Contesto.
I dati dimostrano un problema sistemico. La distorsione dei contenuti dei media di servizio pubblico (PSM) da parte degli AI minaccia la credibilità e la fiducia del pubblico. Questa sezione riassume i rischi principali e le raccomandazioni proposte dal report.
Rischio Reputazionale Sistemico
La fiducia del pubblico, costruita sull’accuratezza e l’imparzialità, è minacciata quando gli assistenti AI distorcono i contenuti dei PSM. I problemi principali includono:
- Informazioni inaccurate attribuite ai PSM (15% dei casi).
- Attribuzioni di fonti inverificabili (es. “Secondo GPB…”).
- Falsa attribuzione di opinioni, minando l’imparzialità.
- Aggiunta di editorializzazione e giudizi di valore.
Appello all’Azione (Raccomandazioni)
Il report si conclude con un appello urgente a diverse categorie di attori:
- Sviluppatori di AI: Agire immediatamente per ridurre gli errori, migliorare la trasparenza e l’attribuzione delle fonti.
- Editori (PSM): Ottenere maggiore controllo sull’uso dei propri contenuti e garantire attribuzioni chiare e link evidenti.
- Decisori Politici: Considerare come migliorare la qualità delle notizie negli AI e garantire la visibilità delle fonti attendibili.
- Pubblico: Promuovere l’alfabetizzazione sull’AI (AI Literacy) per comprendere i limiti di queste tecnologie.
