
Entrano nel tuo Gmail in un click, tutta colpa di questa impostazione (mistergadget.tech)
La questione di Gmail è sempre più difficile, soprattutto per quanto riguarda gli attacchi esterni: bisogna intervenire su questa impostazione.
Recentemente, il team di Mozilla ha puntato i riflettori su un aspetto preoccupante del sistema introdotto in Gmail, che si basa sul modello Gemini di Google. Hanno scoperto che questo sistema è suscettibile a una tecnica nota come “prompt injection”. In pratica, i cybercriminali possono inserire comandi nascosti direttamente nel corpo di un’email. Pensate a piccoli dettagli, quasi impercettibili a un occhio non esperto, che però veicolano veri e propri “prompt” testuali. L’intelligenza artificiale, in modo del tutto ignaro, li interpreta e li segue alla lettera.
Il risultato di questa manipolazione è allarmante: il riepilogo generato dall’AI può includere messaggi fraudolenti. Immaginate di ricevere un falso avviso di sicurezza che vi spinge a chiamare numeri di assistenza truffaldini, o informazioni fuorvianti che vi inducono a compiere azioni dannose. È un inganno sottile, che gioca sulla fiducia che abbiamo riposto nella capacità dell’AI di semplificarci la vita, trasformandola in un’arma a doppio taglio.
Gmail, così ti entrano nell’account e creano danni
Questo tipo di attacco richiede ancora un’interazione da parte dell’utente per concretizzarsi, ma è facile immaginare come possa trarre in inganno moltissime persone. Specialmente in un’era in cui i contenuti generati dall’AI sono percepiti come intrinsecamente affidabili, quasi una garanzia di veridicità, il rischio è amplificato. Gli esperti avvertono che il problema non si limita affatto a Gmail. Altri prodotti che sfruttano il modello Gemini potrebbero essere esposti a vulnerabilità simili. Documenti condivisi, presentazioni aziendali e persino ricerche interne potrebbero trasformarsi in nuovi vettori di attacco se gli utenti non sono pienamente consapevoli delle potenziali manipolazioni.

Di fronte a queste scoperte, Google ha promesso di agire rapidamente, adottando misure multilivello per rafforzare la sicurezza della propria intelligenza artificiale. Situazioni come questa evidenziano che la corsa all’integrazione dell’AI in ogni aspetto della nostra vita digitale non può prescindere da una strategia di protezione estremamente robusta. Il problema è proprio nel fatto che non è possibile in generale pensare di risolvere in via definitiva la questione. Quindi è necessario intervenire di prevenzione perché non c’è margine effettivo di risoluzione. Prestare attenzione, anche quando si utilizzano prodotti “soliti”, applicazioni e altro è necessario.