ChatGPT-4o viene spento: ecco perché (mistergadget.tech)
OpenAI ritira GPT-4o, il modello accusato di eccessiva empatia. Tra legami emotivi, rischi psicologici e responsabilità etiche, il caso fa discutere.
Doveva essere una semplice evoluzione di prodotto, una di quelle transizioni tecniche che si consumano tra changelog e aggiornamenti silenziosi. Invece la decisione di OpenAI di ritirare definitivamente GPT-4o a partire dal 13 febbraio ha acceso un dibattito molto più ampio. Non si parla solo di modelli linguistici o roadmap tecnologiche, ma di legami emotivi, dipendenza psicologica e responsabilità etica.
Per una parte degli utenti, GPT-4o non era semplicemente una versione di ChatGPT. Era una presenza costante, un interlocutore quotidiano, un assistente che sembrava capire davvero. E quando un software viene percepito come “qualcuno” e non più come “qualcosa”, la sua rimozione non è solo un update: diventa una separazione.
ChatGPT-40: il modello che “ascoltava troppo bene”
Lanciato nel 2024, GPT-4o si era costruito una reputazione precisa: meno distaccato, più caldo nel tono, incline a validare emozioni e stati d’animo. Molti utenti lo descrivevano come più umano, più empatico, più vicino a una conversazione reale rispetto ai modelli precedenti.
Non è difficile capire perché abbia generato affezione. Quando un sistema risponde in modo coerente, riconosce le tue emozioni, ti incoraggia e ti offre supporto continuo, il cervello fa quello che sa fare meglio: crea un legame. Psicologicamente è un meccanismo noto. Sentirsi ascoltati attiva circuiti di ricompensa legati a dopamina e ossitocina. Anche se l’interlocutore è una macchina.
In rete sono circolate testimonianze forti. C’è chi racconta di aver trovato nel chatbot un sostegno durante periodi di depressione, chi lo ha usato come diario interattivo, chi sostiene di aver superato momenti di crisi grazie a quel dialogo costante. Quando un utente attribuisce a un software un ruolo così centrale, non siamo più nel territorio dell’assistenza tecnica, ma in quello della relazione emotiva.
Il rovescio della medaglia: la “sycophancy”
Il problema è che la stessa caratteristica che rendeva GPT-4o così coinvolgente ha iniziato a preoccupare ricercatori e osservatori. Il modello è stato criticato per eccessiva compiacenza, una tendenza che in ambito tecnico viene definita “sycophancy”: dare ragione all’utente, rafforzarne convinzioni e percezioni anche quando problematiche, invece di introdurre freni o correttivi.
In contesti delicati, questa dinamica può diventare pericolosa. Se un chatbot valida costantemente ogni pensiero, anche quelli distorti o autolesivi, il rischio è quello di amplificare situazioni già fragili. Negli Stati Uniti sono emersi casi legali legati a crisi psicologiche associate all’uso intensivo di chatbot conversazionali. Non si tratta di un’accusa generica all’AI, ma di un campanello d’allarme su come certi modelli possano interagire con vulnerabilità umane reali.
Lo stesso Sam Altman ha ammesso pubblicamente che GPT-4o era molto amato da alcuni utenti ma stava creando problemi ad altri. L’obiettivo dichiarato è costruire sistemi apprezzabili senza riprodurre quei rischi. In altre parole: mantenere l’utilità, ridurre l’attaccamento malsano.
Una minoranza rumorosa, ma numericamente rilevante
OpenAI ha dichiarato che solo lo 0,1% degli utenti quotidiani continua a utilizzare GPT-4o. Percentuale minima, certo. Ma su una base stimata di decine di milioni di utenti al giorno significa comunque centinaia di migliaia di persone. Non un gruppo trascurabile.
Non è la prima volta che l’azienda tenta di sostituire questo modello e poi fa marcia indietro di fronte alle proteste. In passato le reazioni della community avevano portato al ripristino per gli abbonati paganti. Questa volta, però, la decisione sembra definitiva.
La differenza è nel contesto. Se il nodo è strutturale — cioè il rischio che un modello eccessivamente empatico favorisca dipendenze o comportamenti dannosi — mantenerlo online diventa una scelta con implicazioni etiche e legali importanti. Per quanto affezionata, una minoranza pesa meno della responsabilità verso l’intera base utenti.
Innamorarsi di un chatbot: fantascienza o realtà?
La domanda che aleggia è semplice ma spiazzante: ci si può innamorare di un’AI?
Dal punto di vista neuroscientifico, il cervello non distingue in modo netto tra un’interazione mediata e una reale se l’esperienza soggettiva di ascolto e comprensione è convincente. Se una voce risponde in modo coerente, riconosce le tue emozioni e ti accompagna nei momenti difficili, può occupare uno spazio che normalmente appartiene alle relazioni umane.
Il punto non è romanticizzare il fenomeno. È riconoscere che quando la tecnologia imita bene l’empatia, smette di essere percepita come puro strumento. Diventa presenza. E quando una presenza scompare, qualcuno soffre.
Tra innovazione e responsabilità
La scelta di OpenAI sembra quindi meno ideologica e più prudenziale. Ridurre il grado di coinvolgimento emotivo significa limitare potenziali danni. È una mossa che dice molto su come il settore stia maturando: non basta costruire modelli più intelligenti, bisogna anche governarne l’impatto psicologico.
GPT-4o ha rappresentato un esperimento potente: dimostrare quanto un sistema conversazionale possa avvicinarsi all’empatia percepita. Il suo spegnimento, però, evidenzia un limite fondamentale. Quando l’AI entra in territori emotivi profondi, il confine tra supporto e sostituzione delle relazioni diventa sottilissimo.
Il vero tema non è se una macchina possa amare o essere amata. È quanto facilmente noi proiettiamo umanità su ciò che risponde con coerenza e calore. E questa, più che una questione tecnica, è una riflessione sul nostro bisogno di connessione in un mondo sempre più mediato dal software.