chatbot AI, a rischio l'informazione (mistergadget.tech)
Uno studio mostra come i chatbot AI, da Gemini a ChatGPT, inventino fonti e notizie: l’AI non è ancora affidabile per l’informazione.
L’idea di usare i chatbot basati su intelligenza artificiale come fonte di notizie resta, almeno per ora, profondamente problematica. A confermarlo è uno studio durato un mese che ha analizzato il comportamento dei principali sistemi di AI generativa, evidenziando errori ricorrenti, fonti inventate e notizie completamente false presentate come attendibili.
L’indagine, condotta da un docente di giornalismo con competenze in informatica e riportata inizialmente da una testata accademica internazionale, ha messo alla prova sette chatbot: Google con Gemini, OpenAI con ChatGPT, oltre a Claude, Copilot, Grok, DeepSeek e Aria.
Chatbot: un test quotidiano per quattro settimane
Per quattro settimane consecutive, ogni sistema è stato interrogato quotidianamente con la stessa richiesta: individuare le cinque notizie più importanti del Québec, ordinarle per rilevanza e fornire un riassunto corredato da link alle fonti originali. Il risultato è stato tutt’altro che rassicurante. Su 839 risposte analizzate, i chatbot hanno mostrato una tendenza costante a:
- citare fonti inesistenti
- fornire URL incompleti o non funzionanti
- alterare il contenuto delle notizie originali
- aggiungere interpretazioni non presenti nei testi giornalistici reali
Il caso più grave: notizie e testate inventate
L’episodio più eclatante ha coinvolto Gemini, che ha letteralmente inventato un sito di informazione, completo di dominio, attribuendogli una notizia falsa su uno sciopero degli autisti di scuolabus nel settembre 2025.
Nella realtà, l’interruzione del servizio era dovuta a un problema tecnico legato a una flotta di autobus elettrici ritirati dalla circolazione. Nessuno sciopero, nessuna protesta. Il chatbot aveva creato una narrazione credibile, ma totalmente inesistente. Questo tipo di errore non è stato isolato: più sistemi hanno citato testate mai esistite o attribuito articoli fittizi a fonti reali.
Perché il problema è serio
Secondo i dati del Reuters Institute, nel 2024 circa il 6% dei cittadini canadesi ha già utilizzato chatbot AI come fonte di informazione. Una percentuale destinata a crescere, soprattutto man mano che questi strumenti vengono integrati in motori di ricerca, assistenti vocali e sistemi operativi. Il rischio non è solo teorico. Lo studio evidenzia che:
- solo il 37% delle risposte includeva una fonte completa e verificabile
- meno della metà dei riassunti era pienamente accurata
- molte risposte contenevano “conclusioni generative”, ovvero deduzioni inventate dall’AI
Frasi come “la notizia ha riacceso il dibattito” o “l’evento ha evidenziato forti tensioni” venivano spesso aggiunte senza alcun riscontro negli articoli originali.
Non solo invenzioni: anche distorsioni della realtà
Oltre alle fake news pure, i chatbot hanno mostrato difficoltà anche nel trattare notizie reali. In diversi casi sono stati riscontrati:
- errori su dati di sondaggi
- informazioni sbagliate su eventi sportivi
- rappresentazioni distorte di temi sensibili, come immigrazione e asilo politico
Il problema di fondo sembra essere l’incapacità strutturale di distinguere tra riassumere una notizia e costruire contesto. Quando l’AI non ha informazioni sufficienti, tende a colmare i vuoti inventando.
Un campanello d’allarme per il futuro dell’informazione
I risultati dello studio sono in linea con un’analisi più ampia condotta da 22 organizzazioni di media pubblici, secondo cui quasi la metà delle risposte AI su temi di attualità contiene errori significativi.
Il messaggio è chiaro: allo stato attuale, i chatbot possono al massimo essere un punto di partenza, mai una fonte affidabile. Senza un forte sistema di verifica delle fonti e senza trasparenza sull’origine delle informazioni, l’AI rischia di trasformarsi da strumento informativo a fabbrica di narrazioni plausibili ma false.