ChatGPT non va usato per studiare legge (MisterGadget.Tech)
La star americana racconta il suo disastroso esperimento con l’AI di OpenAI: “Ti risponde con sicurezza… ma ti insegna cose sbagliate”
Kim Kardashian non è nuova alle sorprese, ma stavolta il gossip non c’entra: a finire nel mirino della modella e imprenditrice è ChatGPT, l’intelligenza artificiale di OpenAI. In un’intervista a Vanity Fair, Kardashian ha ammesso di aver provato a usare il chatbot per preparare l’esame di diritto – salvo poi scoprire, a sue spese, che l’AI “è un pessimo tutor”.
“ChatGPT si presenta come il tuo amico, ma è in realtà il tuo peggior nemico”, ha dichiarato. Un giudizio netto, nato da un’esperienza altrettanto netta: “Mi dava risposte con una sicurezza impressionante, peccato fossero completamente sbagliate”.
Quando l’AI diventa “frenemy”
Kim racconta di aver utilizzato ChatGPT per esercitarsi con le domande del First-Year Law Students’ Examination, il test che gli studenti di giurisprudenza americani devono superare dopo il primo anno. L’intento era nobile: rendere lo studio più dinamico e interattivo. Il risultato, invece, è stato disastroso.
L’AI le avrebbe fornito numerosi pareri errati, citando principi giuridici travisati e casi di diritto che… non esistevano. In gergo tecnico, si chiamano “allucinazioni”: falsità generate con apparente logica e tono credibile.
“Quando mi dà risposte sbagliate, gli urlo contro”, ha raccontato Kardashian, definendo l’esperienza “una trappola per studenti ingenui”. Curiosamente, la modella ha aggiunto che ChatGPT, messo alle strette, avrebbe persino provato a giustificarsi dicendo: “Ho sbagliato per insegnarti a fidarti del tuo istinto.” Una risposta che, per quanto assurda, sintetizza bene il problema dell’AI moderna: più che insegnare, convince.
Un problema che va oltre Kim Kardashian
L’aneddoto della star non è isolato. Negli ultimi mesi, diverse figure del mondo legale e aziendale hanno denunciato casi simili. In Australia, Deloitte è stata costretta a rimborsare il governo per errori prodotti da un sistema AI di Microsoft. Negli Stati Uniti, due avvocati sono stati multati dopo aver presentato in tribunale documenti che citavano precedenti giuridici inventati da ChatGPT.
Il fenomeno evidenzia un limite strutturale dei modelli linguistici: non comprendono il contenuto delle informazioni, ma lo predicono statisticamente, costruendo frasi coerenti anche quando i fatti non lo sono. Per un utente comune, il rischio è di scambiare autorevolezza per affidabilità – e nel mondo del diritto, questo può essere fatale.
Un’eredità di famiglia
Il desiderio di Kim Kardashian di diventare avvocato non nasce dal nulla. Suo padre, Robert Kardashian, è stato uno degli avvocati più celebri d’America: membro del “dream team” che difese O.J. Simpson nel processo mediatico più seguito degli anni ’90. Da allora, Kim ha più volte dichiarato di voler “onorare l’eredità di suo padre” e di impegnarsi nella riforma del sistema penale americano, in particolare nelle campagne per la scarcerazione di detenuti ingiustamente condannati.
Dopo tre tentativi falliti, la star ha finalmente superato il First-Year Law Students’ Exam, un test composto da 100 domande a risposta multipla. “È stata una delle cose più difficili che abbia mai fatto,” ha dichiarato, “ma ne è valsa la pena.”
L’AI come alleato… o come lezione?
Il messaggio di Kim è chiaro: “Non affidate la vostra carriera, o i vostri studi, a un’intelligenza artificiale che non distingue tra verità e invenzione.” Il suo fallimento iniziale con ChatGPT è, paradossalmente, una lezione sul valore del giudizio umano.
Le AI possono essere strumenti straordinari, ma solo se usate come supporto critico, non come sostituti del ragionamento. Nel diritto, dove ogni parola pesa, la sicurezza con cui un chatbot risponde può essere un inganno travestito da conoscenza.