
Così entrano nel tuo Gmail e ti rubano tutti i dati (mistergadget.tech)
La questione sicurezza è sempre più delicata e discussa perché con l’arrivo dell’Ai è cambiato tutto e siamo molto più esposti.
Non facciamo riferimento solo a quella che è l’intelligenza artificiale nel suo modello esterno e indipendente, si veda ChatGpt, ma anche quelli che sono i prodotti integrati nelle app e nei circuiti che utilizziamo nella vita quotidiana, come Google, Whatsapp ecc.
Il sistema che è stato infatti introdotto in Gmail, basato sul modello Gemini di Google, è stato analizzato dal team 0din di Mozilla, il quale ha messo in luce la sua suscettibilità a una tecnica nota come prompt injection. Questo tipo di attacco si basa sulla capacità di inserire comandi nascosti direttamente nel corpo di un’email. Con elementi piccoli e impercettibili a chiunque non sia un tecnico, vengono veicolati gli attacchi. Questi elementi permettono di camuffare veri e propri prompt testuali che, tuttavia, l’intelligenza artificiale interpreta e segue regolarmente.
Attenzione al dettaglio su Gmail
Il risultato? Il riepilogo generato dall’AI può includere messaggi fraudolenti. Pensate a falsi avvisi di sicurezza che vi invitano a contattare numeri di assistenza truffaldini, o a informazioni fuorvianti che mirano a farvi compiere azioni a vostro danno. È un inganno sottile, che sfrutta la fiducia che abbiamo riposto nella capacità dell’AI di semplificarci la vita.

Sebbene questo tipo di attacco richieda ancora un’interazione da parte dell’utente per avere successo, potrebbe facilmente trarre in inganno moltissime persone. Questo è specialmente vero in un contesto in cui i contenuti generati dall’AI sono percepiti come affidabili per definizione, quasi una garanzia di veridicità. Il rischio, secondo gli esperti, non si limita affatto a Gmail. Anche altri prodotti che utilizzano il modello Gemini potrebbero essere esposti a vulnerabilità simili. Parliamo di documenti condivisi, presentazioni aziendali e persino ricerche interne. Questi elementi possono trasformarsi in nuovi vettori di attacco se gli utenti non sono pienamente consapevoli delle potenziali manipolazioni.
Alla luce di quanto accaduto, Google ha promesso di intervenire il prima possibile, adottando misure multilivello per rafforzare la sicurezza della propria intelligenza artificiale. Allo stesso tempo, però, ha evitato di fornire tempistiche precise o dettagli concreti, lasciando aperta una riflessione più ampia. Tale situazione, nemmeno così isolata, mette in luce come la corsa all’integrazione dell’AI in ogni aspetto della nostra vita digitale non possa prescindere da una strategia di protezione estremamente robusta. Il pericolo, infatti, è che milioni di utenti vengano esposti a nuove e sempre più sofisticate forme di truffe digitali sempre più sofisticate e difficili da identificare.