
Se chiedi queste cose all'intelligenza artificiale finisci nei guai (mistergadget.tech)
L’adozione dell’intelligenza artificiale è in rapida crescita, e con essa la necessità di comprendere come utilizzarla al meglio e, soprattutto, quali informazioni non dovrebbero mai essere condivise.
Per molti, in particolare per chi non ha grande familiarità con la tecnologia, questo cambiamento può generare incertezze. ChatGPT ha avuto un notevole successo nel campo dell’AI, continua a evolversi con aggiornamenti costanti, aprendo scenari sempre nuovi. Essendo un sistema di Machine Learning, apprende e migliora continuamente, adattandosi e trasformandosi nel tempo.
Recentemente, una novità significativa è stata introdotta nell’assistente digitale: uno strumento per generare immagini fotorealistiche. Questo è solo uno dei tanti progressi, ma ha già suscitato un notevole interesse online. Tuttavia, è fondamentale considerare anche i rischi associati a queste nuove tecnologie, in particolare dove finiscono i nostri dati personali, un aspetto che spesso tendiamo a sottovalutare.
Non chiederlo all’intelligenza artificiale
Molti di noi condividono informazioni e fotografie personali senza riflettere sulle possibili conseguenze. Gli esperti di sicurezza hanno identificato cinque categorie di informazioni che non dovrebbero mai essere comunicate a ChatGPT per salvaguardare la propria privacy.

- Informazioni sull’identità: Non condividere mai dati personali come data di nascita, indirizzo di casa, numero di telefono, dettagli di documenti o qualsiasi altro elemento sensibile.
- Risultati medici: Evita di condividere qualunque informazione riguardante la tua salute o condizioni mediche.
- Dati di accesso: Non rivelare mai PIN, password o credenziali di alcun tipo.
- Informazioni personali generali: Molte aziende, ad esempio, vietano ai propri dipendenti di utilizzare l’intelligenza artificiale per discussioni legate al lavoro, proprio per evitare la diffusione involontaria di dati sensibili.
- Informazioni finanziarie: Non inserire dettagli relativi a conti bancari, carte di credito o altre informazioni economiche.
È importante ricordare che, nonostante i numerosi benefici, i sistemi di AI non sono immuni da vulnerabilità. Un esempio lampante è la significativa falla di sicurezza che ha colpito ChatGPT nel 2023, rendendo visibili per nove ore informazioni contenute nelle chat, inclusi nomi, cognomi e indirizzi email degli utenti.
Questo episodio ci ricorda che è cruciale mantenere alta la guardia, anche quando utilizziamo strumenti altamente tecnologici e avanzati. L’errore, anche per i dispositivi di questo tipo, è sempre possibile, e la consapevolezza è la nostra migliore difesa. Ovviamente questo non vuol dire che l’Ai sia il male assoluto semplicemente che, soprattutto se ci affacciamo ad utilizzare sistemi nuovi e sconosciuti, dobbiamo attivare tutte le precauzioni del caso per non trovarci in difficoltà successivamente per inesperienza.