
Come funzionano i rilevatori di intelligenza artificiale e quanto possiamo davvero fidarci? (mistergadget.tech)
Con l’avanzata dei chatbot generativi come ChatGPT e Gemini, gli strumenti di rilevamento dell’IA promettono di distinguere i testi scritti dall’uomo da quelli prodotti dalle macchine. Ma sono davvero affidabili o rischiano di generare più dubbi che certezze?
Negli ultimi anni l’IA generativa ha rivoluzionato la produzione di contenuti, rendendo possibile creare in pochi secondi e con estrema naturalezza testi, immagini e persino video. Se inizialmente questi strumenti venivano percepiti come un aiuto per compiti non accademici – come e-mail, messaggi o brevi documenti – oggi il loro utilizzo è sempre più diffuso anche tra studenti ed educatori. Questo ha generato la necessità di strumenti capaci di distinguere i contenuti prodotti dall’uomo da quelli scritti dall’IA.
Ed è qui che entrano in gioco i rilevatori di intelligenza artificiale, software che analizzano un testo e cercano di stabilirne l’origine attraverso parametri matematici e linguistici. Tuttavia, la loro efficacia è tutt’altro che infallibile e, in diversi casi, hanno finito per etichettare come artificiale anche ciò che era stato scritto interamente da una persona.
Come funzionano i rilevatori di IA
I rilevatori si basano su modelli probabilistici che esaminano il testo attraverso parametri come la perplessità (quanto una frase risulta prevedibile) e la burstiness (la varietà nella lunghezza delle frasi).
Un esempio utile è la celebre frase del linguista Noam Chomsky: “Idee verdi incolori dormono furiosamente”. Grammaticalmente corretta ma semanticamente priva di senso, questa costruzione ha un’alta perplessità, cioè è difficile da prevedere. Al contrario, un modello di IA tende a produrre frasi con bassa perplessità, molto lineari e fluide, spesso fin troppo uniformi.
Lo stesso vale per la burstiness: gli esseri umani alternano frasi brevi e lunghe, mentre l’IA mantiene una struttura costante e regolare, rendendo i suoi testi più riconoscibili.
Quanto sono affidabili davvero
Il problema è che questi stessi indicatori non sempre funzionano. Un buon testo umano può sembrare artificiale e viceversa. In un test, il celebre discorso di Gettysburg di Abraham Lincoln – scritto ben prima che l’IA fosse anche solo immaginata – è stato analizzato da tre dei più noti rilevatori: mentre due lo hanno riconosciuto come autentico, ZeroGPT lo ha classificato come generato dall’IA al 96,4%.
E non si tratta di un caso isolato: molti utenti hanno segnalato falsi positivi, cioè testi umani etichettati come artificiali, in particolare su forum come Reddit.

Per questo motivo, gli esperti suggeriscono di non affidarsi ciecamente a un singolo strumento ma di incrociare i risultaticon più rilevatori e, soprattutto, con un’analisi manuale. Alcuni segnali tipici dei testi prodotti dall’IA sono:
- uno stile eccessivamente formale e educato,
- l’uso di formulazioni vaghe come “Si crede comunemente che…” o “Alcuni potrebbero dire…”,
- improvvisi aumenti nel numero di parole in un documento, che potrebbero indicare il ricorso a un chatbot.
La sfida è appena iniziata
I rilevatori di intelligenza artificiale rappresentano un valido supporto, ma non sono strumenti infallibili. Con il continuo miglioramento dei modelli generativi, distinguere un testo scritto da un essere umano da uno creato da una macchina diventerà sempre più complesso.
La vera sfida per il futuro sarà trovare un equilibrio: usare l’IA come alleato senza rinunciare alla capacità critica di riconoscere quando il contenuto porta davvero la firma dell’ingegno umano.