Indice
Una campagna malware sfrutta Claude AI con un sito falso per installare backdoor. Ecco come funziona la truffa.
L’interesse esploso attorno ai sistemi di intelligenza artificiale sta diventando terreno fertile anche per i cybercriminali. L’ultima campagna individuata dai ricercatori di Sophos X-Ops mostra un nuovo scenario: siti falsi che imitano chatbot AI per spingere gli utenti a scaricare malware.
Nel mirino questa volta c’è Claude, usato come esca per una distribuzione di codice malevolo progettato per installare backdoor sui dispositivi delle vittime.
Il sito falso che imita perfettamente quello originale
La campagna parte da un dominio contraffatto (claude-pro[.]com), costruito per sembrare in tutto e per tutto il sito ufficiale del servizio. Il design è praticamente identico: stessi colori, stessa impostazione grafica, font molto simili. L’obiettivo è chiaro: ridurre al minimo i sospetti e convincere l’utente di trovarsi su una versione “potenziata” del servizio originale.
A tradire la truffa sono solo alcuni dettagli: una struttura troppo semplificata e link limitati o non funzionanti, segnale tipico di siti creati esclusivamente per la distribuzione del malware.
Un finto download dell’app
Il passaggio chiave della truffa è il download. Agli utenti viene proposto un archivio denominato in modo credibile, come “Claude-Pro-windows-x64.zip”, che supera i 500 MB per sembrare legittimo.
All’interno si trova un installer che, una volta eseguito, attiva una catena di file nascosti progettati per eseguire codice malevolo sul sistema.
Il risultato finale è l’installazione di una backdoor, che consente agli attaccanti di accedere al dispositivo senza autorizzazione.
Un malware progettato per restare invisibile
La parte più sofisticata dell’attacco non è tanto la distribuzione, quanto la struttura del malware stesso. Secondo l’analisi dei ricercatori, il codice sfrutta tecniche di mascheramento che imitano comportamenti legittimi di software di aggiornamento. In questo modo riesce a passare più facilmente inosservato da alcuni sistemi di sicurezza.
Una volta attivo, il malware stabilisce un canale di comunicazione con l’esterno, garantendo agli attaccanti accesso remoto al dispositivo compromesso.
Una campagna più ampia di quanto sembri
Il sito identificato non risulta più attivo, ma questo non riduce il rischio. Le campagne di questo tipo tendono infatti a essere distribuite su più domini e replicate rapidamente. In molti casi vengono promosse attraverso annunci sponsorizzati o risultati di ricerca manipolati, aumentando la probabilità che utenti meno esperti possano cascarci.
Non è un fenomeno isolato: già in passato altri chatbot AI erano stati utilizzati come esca per attacchi simili.
Il ruolo dell’hype sull’intelligenza artificiale
Il successo di strumenti come ChatGPT, Anthropic e altri sistemi generativi ha creato un ecosistema ideale per questo tipo di truffe.
Gli utenti sono sempre più abituati a cercare versioni “pro”, “non limitate” o “potenziate” degli strumenti AI, e proprio su questa aspettativa fanno leva i criminali informatici. È un meccanismo semplice ma efficace: trasformare la curiosità verso nuove funzionalità in un vettore di infezione.
Non è un problema solo desktop
Sebbene il caso specifico riguardi un ambiente Windows, la minaccia si estende anche al mobile. Su forum e canali non ufficiali circolano spesso APK modificati che promettono versioni avanzate dei chatbot AI. In realtà, si tratta spesso di applicazioni alterate con codice malevolo integrato.
Il pattern è sempre lo stesso: attrarre con una promessa di accesso “illimitato”, colpire con l’installazione di software non autorizzato.
Come cambia il rischio nel mondo AI
Questo tipo di attacchi evidenzia un cambiamento importante: non si punta più solo a vulnerabilità tecniche, ma anche alla fiducia degli utenti. L’intelligenza artificiale è diventata un tema mainstream e questo la rende un bersaglio perfetto per campagne di ingegneria sociale sempre più credibili.
Il problema, quindi, non è solo la sicurezza dei sistemi, ma anche la capacità delle persone di riconoscere fonti affidabili.
La campagna che sfrutta Claude dimostra quanto rapidamente l’AI sia diventata parte anche del panorama delle minacce informatiche.
Non si tratta di un caso isolato, ma di un trend che probabilmente crescerà insieme alla diffusione dei chatbot. La regola di base resta la stessa: scaricare software AI solo da fonti ufficiali e diffidare sempre di versioni “potenziate” o non verificate.
Perché, in questo caso, la promessa di un’AI migliore può nascondere qualcosa di molto meno intelligente.