Backdoor e stealer: nuove minacce coinvolgono DeepSeek e Grok

Siti fraudolenti imitano piattaforme IA come DeepSeek e Grok per diffondere malware e sottrarre dati sensibili, ampliando i rischi cyber per aziende e utenti.

Autore: Redazione SecurityOpenLab

L’incessante evoluzione degli attacchi cyber, come noto, cavalca spesso le novità del momento. Sicuramente uno degli elementi tecnologici sulla cresta dell’onda sono le GenAI, con i chatbot modello ChatGPT. A tale riguardo i ricercatori di Kaspersky hanno rilevato backdoor e malware di tipo stealer che prendono di mira piattaforme IA come DeepSeek.

Più nel dettaglio, lo studio traccia un parallelo tra le nuove minacce agli LLM e gli attacchi alla supply chain osservati negli ambienti cloud, sottolineando come l’interconnessione tra modelli IA e infrastrutture IT costituisca un moltiplicatore del rischio cyber. La questione si inserisce nel dibattito già in corso sulla necessità di una regolamentazione degli strumenti di GenAI, incluso lo sviluppo di standard di sicurezza specifici e modelli di threat intelligence condivisi tra settore privato e istituzioni.

L’analisi di Kaspersky evidenzia come gli attaccanti abbiano sfruttato principalmente siti web fraudolenti che imitano l’aspetto e le funzionalità di piattaforme IA come DeepSeek, indirizzando gli utenti verso applicazioni dannose. Questi portali, spesso promossi tramite social network come X mediante account compromessi o reti di bot, distribuiscono archivi contenenti script Python malevoli e stealer. Le backdoor identificate utilizzano tecniche di mascheramento per integrarsi in processi legittimi legati alla gestione di modelli linguistici, mentre gli stealer operano attraverso l’esfiltrazione di credenziali, token di sessione e cookie, bypassando i meccanismi di autenticazione a due fattori.

Screenshot del falso sito DeepSeek

Nelle campagne più recenti, i threat actor hanno iniziato a sfruttare anche il nome di Grok, il modello IA sviluppato da xAI di Elon Musk, creando siti clone che ne replicano l’interfaccia. Tuttavia, a differenza di quanto inizialmente ipotizzato, non è emerso un abuso diretto delle funzionalità tecniche di Grok, come le risposte in tempo reale. Gli aggressori hanno invece utilizzato il brand come esca per distribuire lo stesso tipo di payload osservato con DeepSeek, senza evidenze di vulnerabilità specifiche nel modello o nelle sue API.

Questa strategia riflette una tendenza consolidata nel cybercrime: sfruttare la popolarità di strumenti emergenti per ampliare la superficie di attacco. Quanto scoperto è importante perché fa comprendere come l’integrazione non supervisionata di strumenti come DeepSeek in pipeline di sviluppo software sta creando vettori di attacco trasversali. In particolare, le backdoor possono compromettere interi ambienti DevOps mediante l’iniezione di codice durante le fasi di training dei modelli.

Volendo forzare un parallelo, quanto si prospetta non è così distante da quanto accaduto in tempo di pandemia con il passaggio accelerato al cloud senza l’adozione delle adeguate misure di sicurezza. I vantaggi prospettati dall’AI ne giustificano l’interesse, ma come qualsiasi tecnologia, l’integrazione negli ambienti aziendali deve tenere conto per definizione della sicurezza, da integrare direttamente fin dal progetto di sviluppo iniziale.


Visualizza la versione completa sul sito

Informativa
Questo sito o gli strumenti terzi da questo utilizzati si avvalgono di cookie necessari al funzionamento ed utili alle finalità illustrate nella cookie policy. Se vuoi saperne di più o negare il consenso a tutti o ad alcuni cookie, consulta la cookie policy. Chiudendo questo banner, acconsenti all’uso dei cookie.