Dall’abuso di strumenti nativi già presenti nei sistemi agli APT iraniani, dalla shadow AI al SOC agentico: Irina Artioli di Acronis TRU evidenzia perché oggi la velocità di risposta agli incidenti è il vero discriminante.
Il cybercrime si è industrializzato da tempo, con un processo che evolve di continuo e che, grazie anche all’AI, accelera tendenze già in atto, in primis velocità e scalabilità degli attacchi e abuso sistematico delle identità. A complicare il quadro, gli attaccanti sfruttano sempre più infrastrutture di terze parti e strumenti legittimi per mimetizzarsi nell'ambiente, rendendo il lavoro di threat intelligence più difficile che mai. In parallelo, la crescita della GenAI in azienda apre nuove superfici di rischio che vanno ben oltre le minacce tradizionali. Sullo sfondo resta l’ombra della geopolitica che alza la posta: i gruppi APT allineati all'Iran hanno mostrato capacità operative superiori alle aspettative. Ne abbiamo parlato con Irina Artioli, Security Solutions Consultant di Acronis ed esperta della Threat Research Unit.
Tutti i temi sono al momento al centro dell’attenzione, quindi senza priorità di importanza iniziamo dalle tattiche di attacco, per capire che cosa è cambiato davvero nel modo in cui operano i threat actor. Artioli entra subito nel vivo partendo dal concetto di living off the land, cioè l'uso di strumenti legittimi già presenti nei sistemi delle vittime per condurre attacchi difficilmente rilevabili. "Gli attaccanti utilizzano tutti gli strumenti leciti che sono già installati nell'ambiente: tool di monitoring, utility di sistema, PowerShell. Entrano, acquisiscono privilegi di alto livello, si muovono in modo silenzioso, raccolgono i dati e li esfiltrano." La tecnica, non nuova in sé, è oggi il pattern dominante nei gruppi ransomware più attivi, che usano le utility native di Windows per coprire l'intera catena di attacco prima della cifratura dei dati.
Il problema, spiega Artioli, è che questi attacchi non sono rumorosi: "non tutti i tool moderni riescono a distinguere in modo affidabile l’uso legittimo da quello malevolo". Ecco perché servono strumenti capaci di rilevare le anomalie comportamentali, non solo di rilevare firme note: "dobbiamo disporre di strumenti che permettano di vedere cosa fanno gli utenti, cosa vuole fare un processo, quali comandi sono stati eseguiti in PowerShell. L'EDR è ormai un must have per ogni azienda: deve tracciare la catena di eventi, capire com’è iniziato l'attacco, e consentirne la rilevazione e l’interruzione ase più precoce possibile". La risposta rapida, ribadisce Artioli, è il discriminante: "se riusciamo a fermare l'attacco all'inizio, non dobbiamo poi trovarci nella situazione di dover recuperare i dati o pagare i danni".
Irina Artioli, Security Solutions Consultant di Acronis
A questo livello di complessità tecnica si aggiunge la mancanza di risorse interne: non tutte le aziende hanno le competenze interne per gestire gli incidenti, distinguere un vero positivo da un falso allarme, o ricostruire una kill chain. "Per questo entrano in gioco i servizi di Managed Detection and Response: analisti che operano e sull'ambiente, collegano i punti, analizzano il comportamento normale e anomalo e forniscono le indicazioni su come proteggere il sistema".
Il tema di lega a doppio filo con l’ingresso dell’AI nei SOC, dove agisce da acceleratore, non da sostituto degli analisti. In sostanza cambia il modo in cui lavorano, alleggerendo la parte più meccanica e dando tempo e modo per concentrarsi sulle minacce reali. "In passato gli analisti lavoravano solo facendo affidamento sulle proprie competenze, con una sola persona che seguiva ciascuna indagine. Adesso l'AI entra nel SOC come strumento di supporto: filtra i primi artefatti, assegna probabilità agli incidenti, indica all'analista dove intervenire con priorità". L'obiettivo è “aiutare a fare le investigazioni più in fretta, perché come sappiamo il tempo di risposta è tutto".
Nel percorso di Acronis verso i SOC autonomi a base agentica, che è una delle direzioni strategiche della roadmap 2026 illustrata da Denis Cassinerio al Security Summit Milano, Artioli vede un'evoluzione naturale di questo approccio. "Il SOC autonomous agentic sarà di grande supporto: riduce significativamente il lavoro manuale e potremo focalizzarci sulle minacce di alto livello, sulle campagne, su ciò che sta succedendo nel in termini di minacce".
Ma questo contesto ha anche una faccia oscura: gli stessi strumenti di AI che aiutano i difensori sono usati dagli attaccanti per automatizzare e scalare le operazioni di attacco. "Gli attaccanti utilizzano l'AI per aumentare la velocità degli attacchi e automatizzare i loro processi. È un problema reale, perché questo ci impone di avere tempi di risposta molto brevi. Report recenti mostrano come gli attaccanti, una volta ottenuto un accesso, riescano a scoprire in pochi secondi tutte le vulnerabilità aperte. Dobbiamo avere gli strumenti per coprire quelle falle prima di loro". L’aspetto positivo è che ad oggi l'AI non è ancora stata in grado di creare nuove tecniche di attacco in autonomia: ci sono esempi di cui si parla, ma sono PoC creati nei laboratori.
Sulla questione dello sviluppo sicuro dell'AI, il tono si fa più critico. Il caso del leak che ha coinvolto Claude Code di Anthropic, è per Artioli il sintomo di un problema strutturale: "è molto grave, ma quello che mi preoccupa di più è un report uscito pochi giorni fa sulle vulnerabilità che gli attaccanti possono scoprire in pochi secondi che è già sufficiente per creare danni enormi". Il tema è quello dello sviluppo sicuro, di cui si parla da tempo: discutiamo di security by design, insistiamo sul fatto che il DevOps deve diventare DevSecOps, e poi quando si tratta di sviluppare i modelli di AI usiamo l’approccio ‘good enough’. Artioli conferma che “il paradosso è reale. La pressione competitiva impone tempi di sviluppo rapidissimi, le risorse sono limitate, e integrare controlli di sicurezza adeguati richiede tempo e competenze che spesso mancano. Non è colpa degli sviluppatori, che usano le risorse che hanno. Il problema è sistemico".
Artioli utilizza parole chiare sull'approccio Zero Trust, che spesso viene presentato come alternativa alla prevenzione classica. La sua posizione è che le due cose non si escludono: "dobbiamo stare un passo avanti. Zero trust è molto utile, certo che ci stanca con la MFA e le restrizioni su cosa possiamo scaricare. Ma è uno dei modi per mantenere il sistema più protetto." Porta un esempio pratico: in aziende Enterprise, certi utenti potrebbero avere accesso privilegiato per trenta minuti o un'ora per completare un'operazione specifica, poi l'accesso scade. Ma il problema nasce quando non si gestisce bene il ciclo di vita delle credenziali. "Le persone lasciano l'azienda e purtroppo, nelle organizzazioni più grandi, le credenziali non vengono disattivate correttamente. Cosa succede un anno dopo? Quelle aziende possono trovarsi il proprio nome su siti come RansomLeak o RansomFeed. Per colpa di credenziali mai cambiate."
Come documentato nel report Acronis sull'H2 2025, l'abuso di credenziali valide è il terzo vettore di accesso negli attacchi agli MSP, dopo phishing e vulnerabilità non corrette; nei casi italiani documentati come Microdevice e STIM Group, RDP esposti e credenziali valide hanno permesso la sottrazione rispettivamente di 850 e 100 GB di dati. "Per gli attaccanti le credenziali sono oro," riassume Artioli. "Possono rubarle o comprarle dagli initial access broker, e poi con strumenti AI supportati possono costruire i prompt mirati per automatizzare la preparazione di script payload o tecniche di accesso per entrare."
Un aspetto interessante riguarda i limiti dell'AI stessa come strumento d'attacco: "anche qui ci sono problemi, perché le allucinazioni dei modelli o il peso computazionale delle chiamate continue possono bloccare l'attacco. Non siamo ancora al terminale, non siamo arrivati al malware generato al 100% dall'AI." Stessa posizione sulla capacità degli attaccanti di creare ransomware completamente AI-generated: "abbiamo visto proof of concept, anche in ambito universitario. Ma dalla PoC al deployment in the wild c'è ancora un divario. Per fortuna."
La terza area toccata nell'intervista riguarda l'uso crescente di infrastrutture legittime di terze parti come vettore di attacco. In sostanza, gli attaccanti si appoggiano a servizi cloud quali Google Drive, Azure Blob, SharePoint, o ad ambienti condivisi, per mescolare ad arte il loro traffico con quello legittimo. Il caso del gruppo TA416 ne è un esempio lampante: archivi malevoli ospitati su storage Microsoft Azure Blob, link nelle email che puntano a domini Microsoft legittimi, DLL sideloading tramite eseguibili firmati da vendor affidabili.
Artioli non aggira la difficoltà del problema: "le piattaforme sono affidabili, ma nessuno è protetto al 100%. La questione non è solo da dove arriva il file, ma come si comporta nell'ambiente" e cita il caso significativo che aveva colpito la comunità di threat intelligence: il malware LameHug, che aveva sfruttato API di modelli AI legittimi per generare comandi in modo dinamico. "Nell’infrastruttura c'era pochissimo da tracciare; minima persistenza. Le campagne si muovevano molto velocemente. Per la threat intelligence c'era poco su cui lavorare, a eccezione delle API AI legittime. Collegare questi piccoli indizi sta diventando sempre più difficile".
Per questo motivo il lavoro di threat intelligence si sposta: "prima eravamo concentrati sugli hash e sugli Indicatori di Compromissione. Adesso siamo più concentrati sul comportamento, su tutti gli strumenti che lavorano insieme. Occorre una visibilità sempre più ampia per dare risposte più velocemente". “È anche per questo che in Acronis, TRU è stato aumentato il ritmo di pubblicazione delle ricerche: da un minimo di due ricerche a trimestre dell'anno scorso alle tre o quattro al mese di oggi, grazie agli strumenti AI che usiamo per tracciare il mercato". Artioli conferma che il paradosso è reale.
Il passaggio è stato graduale: "abbiamo iniziato a integrare il machine learning nel 2014; nel 2017 abbiamo aggiunto Active Protection basato su machine learning; adesso aggiungiamo livelli di AI su più fronti". La novità più recente è GenAI Protection, disponibile da febbraio 2026 e presentato al Security Summit Milano, che presidia le interazioni con i modelli AI, sia quelli ufficialmente approvati in azienda sia la shadow AI usata informalmente dai dipendenti.
Il caso d'uso è concreto: un tecnico di supporto che vuole rispondere a un ticket in modo più rapido chiede aiuto a ChatGPT o a un altro sistema, condividendo dati sensibili del cliente nel prompt. GenAI Protection intercetta questa condivisione, riconosce che dati protetti stanno uscendo verso un sistema non autorizzato, e blocca la risposta prima che venga inviata. Lo stesso meccanismo funziona contro i tentativi di jailbreak dei modelli tramite prompt, come il noto Do Anything Now. "Con GenAI Protection abilitato, questi tentativi possono essere intercettati e mitigati in modo significativo, riducendone drasticamente l’efficacia." Il problema della shadow AI è documentato e critico: le aziende non hanno visibilità sull'89% dell'uso dell'AI da parte dei dipendenti, e quasi il 18% degli utenti incolla nei prompt dati aziendali di vario tipo.
Sul posizionamento dell'Italia nell'adozione degli strumenti AI, Artioli è curiosa più che preoccupata: "ho visto statistiche che mostrano come l'Italia si posizioni intorno al 47-48mo posto su 50 paesi nell'uso degli strumenti AI. Non siamo avanti, però siamo pronti per questa evoluzione". Il tono non è allarmistico: nel panorama della shadow AI, dove DeepSeek è tra gli strumenti più bloccati in Italia per ragioni geopolitiche, la prudenza può trasformarsi in vantaggio, purché accompagnata da un framework di governance solido.
L'ultima parte della conversazione tocca i threat actor allineati a Teheran, che nel corso del 2025 e dei primi mesi del 2026 hanno mostrato capacità operative superiori alle aspettative di molti osservatori. I gruppi iraniani, da MuddyWater a Handala, hanno dimostrato un'autonomia operativa sorprendente anche in condizioni di forte pressione sulle infrastrutture fisiche interne al paese. Artioli non è sorpresa dalla loro efficacia tecnica, ma chiarisce un punto importante: "l'Iran dispone di grandi risorse che può utilizzare per gli attacchi, nonostante sia un paese in qualche modo chiuso, ma il suo punto di forza non sono tecniche innovative o straordinarie, quanto la loro applicazione combinata, veloce e coordinata".
Ovviamente in questo caso il driver è la pressione geopolitica: "Quando la tensione cresce, gli attacchi alzano il ritmo e l’aggressione si intensifica per applicare una pressione continua". Sul fronte del rischio per l’Italia, Artioli ricorda che "il rischio principale per il Belpaese è nel ruolo che ricopre come parte della supply chain: logistica, energia, service provider. MSP e MSSP italiani che gestiscono le infrastrutture di sicurezza di altre aziende possono essere bersagli indiretti di alto valore”. Per questo è fondamentale quanto si diceva sopra sulla velocità di reazione: "dobbiamo essere preparati e avere i tempi di risposta più rapidi possibile".
In questo articolo abbiamo parlato di: Cybersecurity, Endpoint Detection and Response, GenAI Protection, Living off the Land, Managed Detection and Response, Supply Chain Security, Threat Intelligence,
20-04-2026
20-04-2026
20-04-2026
20-04-2026