L'IA sbaglia il 45% delle risposte secondo uno studio della BBC (mistergadget.tech)
Uno studio BBC-EBU rivela che ChatGPT, Gemini, Copilot e Perplexity sbagliano quasi una notizia su due. Errori di fonti e contesto minano la fiducia del pubblico.
Un nuovo studio internazionale coordinato dalla European Broadcasting Union (EBU) e guidato dalla BBC mette in luce un problema crescente: gli assistenti basati su intelligenza artificiale non sono ancora affidabili nel fornire notizie accurate. La ricerca ha analizzato oltre 3.000 risposte generate da ChatGPT, Copilot, Gemini e Perplexity, rivelando che il 45%dei risultati contiene errori gravi, mentre l’80% presenta comunque imprecisioni o omissioni.
Uno studio su 18 Paesi e 14 lingue
L’indagine, presentata alla EBU News Assembly di Napoli, ha coinvolto 22 emittenti pubbliche in 18 Paesi, tra cui la RAI per l’Italia. Gli analisti hanno posto agli assistenti IA una serie di domande di attualità, verificando la qualità, la completezza e la correttezza delle risposte.
I risultati, pubblicati nel report ufficiale EBU-BBC (PDF), evidenziano un quadro tutt’altro che rassicurante:
- 45% delle risposte contiene almeno un errore significativo;
- 31% mostra attribuzioni di fonte errate o mancanti;
- 20% presenta problemi di accuratezza fattuale;
- 14% riporta errori di contesto o interpretazione.
Tra i quattro modelli analizzati, Gemini — l’assistente di Google — è risultato il meno preciso, con errori rilevanti nel 76% delle risposte, triplo rispetto alla media.
Errori “strutturali”, non casi isolati
Secondo Jean Philip De Tender, vicedirettore generale dell’EBU, i risultati “mostrano che questi errori non sono incidenti isolati, ma problemi strutturali che mettono a rischio la fiducia del pubblico nell’informazione digitale”. Le distorsioni riguardano sia le fonti sia la costruzione dei contenuti, spesso contaminati da collegamenti errati o interpretazioni arbitrarie.
Esempi concreti riportati nello studio includono:
- risposte che attribuivano a Papa Francesco la guida della Chiesa cattolica dopo la sua morte;
- citazioni inventate o modificate, come frasi mai pronunciate da Justin Trudeau o Viktor Orbán;
- interpretazioni manipolate di eventi politici o scientifici.
Un miglioramento parziale rispetto al 2024
Rispetto alla precedente indagine condotta dalla BBC, il quadro mostra lievi progressi: la percentuale di risposte problematiche è scesa dal 51% al 37%, ma gli errori restano diffusi e sistemici.
Secondo lo studio, gli assistenti IA tendono a privilegiare la coerenza narrativa rispetto alla verità fattuale, generando risposte “plausibili ma inesatte”, soprattutto in contesti informativi sensibili.
Cresce l’uso degli assistenti per informarsi
Lo studio segnala anche un dato sociologico interessante: circa il 7% degli utenti di notizie online utilizza assistenti IAcome fonte principale d’informazione, una quota che sale al 15% tra gli under 25. Una tendenza che preoccupa gli esperti di media, considerando l’alto tasso di imprecisioni e la difficoltà, per l’utente medio, di riconoscere una notizia errata generata dall’IA.
Nasce il Toolkit per l’integrità dell’informazione
Per rispondere a queste criticità, l’EBU e la BBC hanno pubblicato un Toolkit per l’integrità informativa negli assistenti IA. Il documento definisce i criteri di una “buona risposta”, basata su:
- accuratezza e verifica delle fonti,
- chiarezza del contesto,
- distinzione tra fatti e opinioni,
- attribuzione trasparente delle citazioni.
Il toolkit include anche una tassonomia degli errori più comuni, dalle “allucinazioni” — cioè le invenzioni di dati — ai collegamenti causali infondati, con l’obiettivo di aiutare sviluppatori e giornalisti a costruire sistemi più affidabili.
Pressioni sull’Unione Europea per una regolamentazione
L’EBU invita le autorità europee e nazionali a vigilare sull’uso dei contenuti dei media pubblici da parte dei modelli di IA generativa, garantendo che siano rappresentati con correttezza, trasparenza e rispetto del diritto d’autore. Lo studio riapre così il dibattito sulla responsabilità dell’informazione automatizzata, un tema cruciale in un momento in cui l’intelligenza artificiale si avvicina sempre di più al ruolo di intermediario tra cittadini e notizie.