News

Nuova truffa telefonica: se dici questa parola è la fine, ti svuotano il conto

Purtroppo le truffe telefoniche sono sempre più incidenti e sembra quasi esserci un ritorno al passato, con dei problemi che, nella convinzione generale, erano già stati arginati.

Con l’avvento dell’intelligenza artificiale, la sua diffusione e il largo utilizzo che se ne fa nella vita quotidiana, qualcosa è cambiato e sicuramente gli utenti oggi possono beneficiare di una serie di interessanti varietà di contenuti, prodotti, supporti tecnologici, ma di contro vanno anche sottoposti ad attenzione tutti quei contesti in cui l’intelligenza artificiale viene sfruttata in maniera impropria e pericolosa da parte di chi la adopera per mettere a segno delle truffe che sono ancor più pericolose rispetto a quanto avvenuto in precedenza.

Infatti, se un tempo la situazione era stata gestita adeguatamente anche grazie ai nuovi strumenti, adesso, con l’avvento dell’intelligenza artificiale, stiamo facendo un passo indietro e lo dimostrano i dati che nell’ultimo anno attestano una crescita incredibile delle truffe online, quindi perpetuate in questo modo, sia attraverso i canali classici come messaggi e telefonate, ma anche attraverso email, applicazioni e quant’altro.

Nuova truffa preoccupa tutti: cosa fare

Le truffe telefoniche con l’intelligenza artificiale possono essere molto pericolose perché difficili da distinguere e anche un semplice “sì” al telefono può diventare il bersaglio perfetto per mettere a segno una serie di condizioni molto gravi.

Nuova truffa telefonica (MisterGadget.Tech)

Per difendersi dalle truffe telefoniche che sfruttano l’intelligenza artificiale, come riportato da Federconsumatori, è importante fare attenzione alla conversazione, quindi in generale quando si risponde ad un numero telefonico che non si conosce, è bene dire esclusivamente “Pronto, chi è?”, ma non dire mai “sì”, perché quel semplice “sì” durante la conversazione può convalidare un contratto, può diventare un’affermazione molto pericolosa.

Anche se a volte non si vuole essere scortese ed è giusto comprendere il lavoro altrui, è anche importante capire come difendersi. Purtroppo, con l’intelligenza artificiale è molto facile andare ad alterare il timbro della voce e anche far pronunciare delle frasi che possono determinare dei raggiri molto gravi. A volte si può trattare di truffe che hanno come obiettivo quello prettamente economico, in altri casi invece può essere una truffa all’utilizzo dei dati personali, quindi sempre attenzione a quello che si condivide, a ciò che si dice, a ciò che si risponde, perché anche un semplice termine, una parola, può dare vita a una reazione a catena. Molti non si rendono conto di quello che può effettivamente essere fatto, fino a quando non avviene, quindi fino a quando proprio non si manifesta nella sua integrità.

Valentina Giungati

Pubblicato da
Valentina Giungati
Tags nohome

Articoli Recenti

Recensione Creative Pebble Nova: tra potenza e design

Creative eleva la sua popolare serie di speaker desktop con un modello premium dal suono…

1 ora fa

Ecovacs Deebot T80 Omni: il robot aspirapolvere con il rullo che spiazza la concorrenza

Nel mondo sempre più affollato dei robot aspirapolvere, distinguersi è diventato un esercizio di stile,…

2 ore fa

Le porte USB della tua TV sono un tesoro nascosto: non sono tutte uguali, se c’è questo colore hai vinto

C'è un dettaglio molto interessante delle porte USB che molto spesso gli utenti non hanno…

2 ore fa

Whatsapp cambia ancora ma gli utenti non sono felici: ecco cosa ti appare dopo l’ultimo aggiornamento

WhatsApp cambia ancora: è chiaro a tutti ormai che questa è una costante, ma bisogna…

4 ore fa

Usi l’account di Google? Scollegalo subito, ecco cosa accade ai tuoi dati

Collegare l'account di Google può essere pericoloso e tutti devono prendere atto di questa condizione…

6 ore fa

La truffa svuota conto è tanto insidiosa quanto impossibile da riconoscere: devi notare questo dettaglio

Le truffe oggi sono sempre più insidiose e forse è questo uno dei problemi principali…

16 ore fa