gigiorancilio.it

Divulgo il digitale a giornalisti, insegnanti, educatori, genitori e nel mondo cattolico

I sistemi IA sbagliano ancora troppo con le notizie

Sempre più spesso usiamo l’intelligenza artificiale anche per le notizie. È comoda, è veloce, ci fa risparmiare tempo. Mentre i siti di informazione del mondo ci avvertono che questo sistema toglie loro traffico web e quindi i pochi guadagni rimasti, Il mondo dei sistemi IA sembra non avere alcuna intenzione di fermarsi, anzi. Ormai non c’è smartphone o browser che non pubblicizzi l’uso dell’intelligenza artificiale per trovare, catalogare e diffondere le notizie.
Peccato che una ricerca internazionale condotta dall’Unione Europea di Radiodiffusione e dalla BBC, che ha coinvolto 22 media di servizio pubblico in 18 paesi e 14 lingue, ci avverta che sebbene si registrino alcuni miglioramenti, gli assistenti IA non sono ancora una fonte affidabile per l’accesso alle notizie.

• Elevata Incidenza di Errori: Complessivamente, il 45% delle risposte degli assistenti AI conteneva almeno un “problema significativo”. Se si includono anche i “problemi parziali”, la percentuale sale all’81%.

• Attribuzione errata delle fonti: La causa maggiore di problemi significativi è l’attribuzione delle fonti (sourcing), che affligge il 31% di tutte le risposte. Ciò include informazioni non supportate dalle fonti citate, assenza di fonti o attribuzioni errate.

• Gemini è il peggiore, Perplexity il migliore: Gemini ha registrato la performance peggiore, con il 76% delle sue risposte affette da problemi significativi, un tasso più che doppio rispetto a Copilot (37%), ChatGPT (36%) e Perplexity (30%). I problemi di Gemini sono stati trainati da un tasso eccezionalmente alto di errori nell’attribuzione delle fonti (72%).

• Rischio reputazionale per giornali ed editori: Gli errori degli assistenti AI creano un rischio reputazionale diretto per le fonti di notizie che citano. La distorsione, l’errata attribuzione e l’editorializzazione dei contenuti dei PSM minano la fiducia del pubblico e la credibilità del giornalismo di servizio pubblico.

Il rapporto conclude con un appello urgente agli sviluppatori di AI affinché diano priorità alla riduzione degli errori, migliorino la trasparenza e diano agli editori un maggiore controllo sull’uso dei loro contenuti.

I sistemi AI e i contenuti delle notizie

I problemi dei sistemi IA con le notizie

La ricerca internazionale condotta dall’Unione Europea di Radiodiffusione (EBU) e dalla BBC, che ha coinvolto 22 media di servizio pubblico (PSM) in 18 paesi e 14 lingue.

Lo studio ha valutato le prestazioni di quattro principali assistenti AI (ChatGPT, Copilot, Perplexity e Gemini) nel rispondere a domande su notizie e attualità.

45%

delle risposte conteneva almeno un “problema significativo”.

81%

delle risposte conteneva “problemi parziali” o “significativi”.

Problemi Significativi per Criterio

L’attribuzione delle fonti è la causa principale di errori, rappresentando il 31% di tutti i problemi significativi, seguita dall’accuratezza (20%).