Google rimuove alcune sintesi AI sulla salute dopo rischi per gli utenti (MisterGadget.Tech)
Google interviene sulle AI Overviews sanitarie dopo segnalazioni di informazioni errate su esami medici e potenziali rischi per la salute.
Google è intervenuta direttamente sulle proprie sintesi generate dall’intelligenza artificiale dedicate ai temi di salute, rimuovendone alcune dopo che erano emerse informazioni imprecise e potenzialmente pericolose per gli utenti. La decisione arriva in seguito a un’indagine giornalistica che ha evidenziato come le AI Overviews potessero fornire risposte fuorvianti su esami medici sensibili, mettendo a rischio la corretta interpretazione dei risultati clinici.
Le AI Overviews sono riepiloghi automatici che compaiono in cima ai risultati di ricerca e che hanno l’obiettivo di offrire una risposta rapida e sintetica a una domanda. Proprio questa posizione privilegiata, però, rende eventuali errori particolarmente critici, soprattutto quando si parla di salute.
Informazioni sbagliate su esami del sangue
Uno dei casi più problematici riguarda le ricerche sui valori normali degli esami del fegato. Inserendo domande generiche come “valori normali degli esami del fegato”, alcuni utenti si sono trovati davanti a elenchi di numeri privi di contesto clinico, senza distinzioni legate a età, sesso, condizioni personali o tipologia specifica di test.
Secondo diversi esperti, questo tipo di risposta poteva indurre persone con patologie epatiche anche gravi a ritenere normali risultati che in realtà richiedevano approfondimenti medici. Un falso senso di sicurezza che, nei casi peggiori, avrebbe potuto ritardare diagnosi e cure necessarie. Dopo la segnalazione, Google ha disattivato le AI Overviews per alcune di queste query specifiche.
Il problema non è solo una singola ricerca
Il punto critico, però, non è la rimozione di una singola sintesi. Vari professionisti della comunicazione sanitaria hanno sottolineato come basti riformulare leggermente la domanda perché l’AI torni a fornire riepiloghi simili, con gli stessi limiti.
Gli esami del fegato, ad esempio, non sono un singolo valore ma un insieme di parametri che vanno interpretati nel loro complesso e nel contesto clinico del paziente. Presentarli come una semplice lista numerica rischia di semplificare eccessivamente una materia che richiede competenze mediche.
Un altro aspetto evidenziato è l’assenza di avvisi chiari: le sintesi AI non segnalano in modo esplicito che si possono avere valori apparentemente normali anche in presenza di malattie serie, né invitano sempre a consultare uno specialista.
Google difende il sistema, ma apre a correzioni
Google ha ribadito che le AI Overviews vengono mostrate solo quando il sistema ha un’elevata fiducia nella qualità delle risposte. L’azienda sostiene inoltre che i riepiloghi vengono costantemente monitorati e rivisti, soprattutto nei settori più delicati.
Allo stesso tempo, ha confermato che, quando emergono problemi di contesto o potenziali rischi, interviene per migliorare il sistema o disattivare le sintesi in base alle proprie policy interne. La rimozione di alcune risposte sanitarie va letta proprio in questa ottica.
Fiducia e informazione sanitaria: una partita delicata
Secondo diverse organizzazioni che si occupano di informazione sanitaria, questo episodio mostra quanto sia fragile l’equilibrio tra accessibilità e accuratezza. Milioni di persone nel mondo faticano già ad accedere a informazioni mediche affidabili e tendono a usare i motori di ricerca come primo punto di riferimento.
Quando una risposta errata arriva da una fonte percepita come autorevole e compare in cima ai risultati, l’impatto può essere significativo. Per questo motivo, molti esperti chiedono che le sintesi AI su temi di salute siano accompagnate da avvisi più chiari, maggiore contestualizzazione e un rinvio esplicito a professionisti o strutture sanitarie.
Un campanello d’allarme per l’AI nella ricerca
Il caso delle AI Overviews sanitarie rappresenta un segnale importante per tutto il settore. L’intelligenza artificiale può semplificare l’accesso alle informazioni, ma quando si entra in ambiti come la salute, l’errore non è solo teorico: può avere conseguenze reali sulle persone.
La scelta di Google di intervenire è un primo passo, ma il dibattito resta aperto. La vera sfida non è spegnere singole risposte problematiche, bensì definire regole più solide su quando e come l’AI debba intervenire nella comunicazione di informazioni mediche.