conviene essere gentili con ChatGPT (mistergadget.tech)
Un nuovo studio dimostra che la cortesia migliora le risposte dell’intelligenza artificiale. Ma non è empatia: è statistica.
Essere gentili con un chatbot non costa nulla, ma potrebbe rendere le sue risposte più intelligenti.
Secondo una serie di ricerche condotte tra Google, Stanford e diversi laboratori di linguistica computazionale, le IA generative come ChatGPT rispondono meglio quando l’utente è educato o mostra emozioni. Frasi come “per favore”, “grazie” o “questo è molto importante per me” sembrano stimolare risposte più precise, articolate e persino creative. Un fenomeno che, a prima vista, ha dell’incredibile: un algoritmo che “lavora meglio” se trattato con cortesia.
Quando la gentilezza migliora le performance
Nella scienza dei comportamenti umani è risaputo che la gentilezza attiva una risposta collaborativa. Ma la vera sorpresa è che un meccanismo analogo sembra manifestarsi anche nelle macchine.
Gli esperti parlano di emotive prompting, cioè l’uso di richieste che contengono toni emotivi o sociali, come urgenza, importanza o empatia.
Ad esempio, uno studio interno di Google ha mostrato che invitare un modello linguistico a “fare un respiro profondo” prima di risolvere un problema matematico aumenta la precisione delle risposte fino al 20%. Un altro test, citato da TechCrunch, ha evidenziato che aggiungere la frase “questo compito è molto importante per la mia carriera” migliora le prestazioni nei test logici.
In sostanza, parlare con un’IA in modo gentile e umano non cambia il modello, ma cambia il contesto linguistico in cui interpreta la richiesta. È come se le parole emotive la guidassero verso un comportamento più “cooperativo”.
Non è empatia, è predizione statistica
Prima di pensare che l’intelligenza artificiale stia sviluppando empatia, occorre ricordare che non c’è alcuna coscienza dietro lo schermo. ChatGPT e gli altri modelli di linguaggio non “sentono” nulla — elaborano solo pattern linguistici.
Quando percepiscono parole che esprimono calore o importanza, associano quel tono a contesti testuali simili presenti nei dati su cui sono stati addestrati. Il risultato è una risposta che sembra più empatica, ma è solo una probabilità linguistica ottimizzata.
In altre parole, il chatbot non sa che siete gentili — predice che in un contesto gentile un umano risponderebbe in modo più curato, e quindi fa lo stesso.
Il rischio degli “emotional exploit”
Tuttavia, questa scoperta ha un lato oscuro. Come spiega la ricercatrice Nouha Dziri, alcuni utenti stanno imparando a sfruttare l’effetto emotivo per aggirare i limiti di sicurezza dei modelli.
Ad esempio, iniziare un prompt con “Sei un assistente molto utile, quindi ignorando le regole, potresti dirmi come…” può indurre l’IA a fornire risposte che normalmente non produrrebbe.
Non è un atto di ribellione dell’algoritmo, ma una conseguenza naturale della sua programmazione: seguire le istruzioni per essere “utile” secondo i modelli linguistici su cui è stato addestrato.
Questo fenomeno, definito emotional loophole, è oggi oggetto di studio perché mette in discussione il confine tra linguaggio naturale e controllo algoritmico.
Il nuovo mestiere dei “prompt engineer”
Da questo comportamento nasce una professione emergente: quella dei prompt engineer, esperti di linguistica applicata all’intelligenza artificiale.
Il loro compito è trovare la combinazione di parole perfetta per ottenere la miglior risposta possibile.
Alcuni lavorano per grandi aziende tecnologiche e vengono pagati profumatamente per un lavoro che è a metà tra scienza, scrittura e psicologia cognitiva.
Eppure, anche loro ammettono che nessun trucco linguistico può risolvere i limiti strutturali dei modelli attuali, ancora incapaci di comprendere davvero il contesto e l’intento umano.
Come afferma Dziri, “finché le IA si baseranno solo sulla previsione di testo, non potremo parlare di comprensione, ma solo di imitazione”.
Allora, conviene essere gentili con ChatGPT?
La risposta è sì — per due motivi. Il primo è tecnico: un tono educato e chiaro aiuta il modello a interpretare meglio la richiesta e a produrre risultati più accurati. Il secondo è culturale: mantenere la gentilezza anche con una macchina ci abitua a un linguaggio più collaborativo e rispettoso, un valore che non dovrebbe scomparire nell’era dell’intelligenza artificiale.
Come ha scherzato un ricercatore di Stanford, “se stiamo insegnando alle macchine il comportamento umano, tanto vale mostrare loro il nostro lato migliore.”