Un report di Google documenta il primo zero‑day sviluppato con supporto AI e un tentativo di mass exploitation bloccato per tempo. L’AI entra a pieno titolo fra gli strumenti degli attaccanti, ma apre anche nuove opzioni di difesa.
Autore: Redazione SecurityOpenLab
L’uso offensivo dell’AI nei cyber attacchi si è affermato come un’operazione su scala industriale. La novità del momento è la capacità di produrre zero‑day e campagne di mass exploitation. Pochi giorni fa Cyberhint aveva rivelato l’esistenza di casi d’uso reali per la scoperta di vulnerabilità zero-day. Più di recente il Google Threat Intelligence Group (GTIG) conferma un caso documentato di exploit zero‑day sviluppato con il supporto dell’AI, che un gruppo cyber ha tentato di usare per preparare un evento di mass exploitation su vasta scala. Fortunatamente Google ha intercettato il pericolo e lo ha bloccato in fase preparatoria.
Inoltre, sempre dallo stesso report di Google, emerge un aumento degli abusi di modelli generativi per l’automatizzazione di attività di ricognizione, per la generazione di phishing iper‑realistico e per la produzione di codice malevolo. Da sottolineare che non si parla più di proof‑of‑concept, ma di un uso operativo e pervasivo dell’AI lungo l’intera kill chain, con una capacità di scala che ricorda da vicino i ransomware‑as‑a‑service.
Nella fase di reconnaissance, i modelli AI vengono usati per aggregare informazioni pubbliche, correlare asset esposti, analizzare documentazione tecnica e codice sorgente alla ricerca di pattern di vulnerabilità o di configurazioni deboli. Nella fase di social engineering, l’AI porta un salto qualitativo: email e messaggi di phishing sono contestualizzati, privi di errori, adattati alla lingua e al ruolo della vittima, supportati da deepfake vocali e video, per esempio per convincere un CFO a sbloccare un bonifico o un amministratore di sistema a concedere accessi eccezionali.
La parte di maggiore rottura, però, è l’uso dell’AI per generare o raffinare exploit, fino ad arrivare alla creazione del primo zero‑day AI‑assisted individuato da Google. Nel post tecnico GTIG non entra nei dettagli identificativi della vulnerabilità, ma spiega che sono stati usati modelli generativi come co‑pilot per accelerare il processo di analisi del codice, individuare edge case e trasformare crash potenziali in primitive di exploit affidabili, capaci di funzionare su larga scala. Nel caso specifico analizzato da Google, gli attaccanti pianificavano di orchestrare un evento di mass exploitation contro un’ampia base installata, sfruttando la velocità offerta dall’automazione AI per colpire il maggior numero possibile di sistemi prima che i vendor potessero pubblicare patch e mitigazioni. Si tratta di un modello operativo che abbiamo già visto nel mondo dei ransomware e degli attacchi agli hypervisor, in cui la finestra tra la pubblicazione di una falla e il suo sfruttamento come arma di attacco cyber si è progressivamente accorciata, e che ora rischia di comprimersi ulteriormente proprio grazie alla capacità dei modelli di ragionare sul codice e generare varianti.
Un altro dato chiave del report GTIG riguarda il fatto che, al momento, Google non osserva campagne su larga scala focalizzate sull’attacco diretto ai modelli frontier, ma segnala numerosi tentativi di model extraction condotti da entità del settore privato in un’ottica di spionaggio industriale. Questo fenomeno viene descritto da Google come una minaccia concreta per chi sviluppa sistemi proprietari di AI. quello che avviene è facile da ricostruire: gli attaccanti interrogano i modelli con grandi volumi di prompt per ricostruirne il comportamento, estrarre dati sensibili o clonarne parte delle capacità, con impatti che vanno dalla perdita competitiva alla violazione di dati regolamentati. In parallelo, GTIG conferma di aver mitigato diversi tentativi di abuso delle interfacce AI, inclusi prompt injection, jailbreak e uso dei modelli per generare comandi direttamente eseguibili in infrastrutture cloud.
Nonostante il quadro allarmante, Google insiste sul fatto che l’AI è un fattore di leva altrettanto forte per i difensori e cita esplicitamente agenti utilizzati per individuare vulnerabilità in modo proattivo, e strumenti che sfruttano le capacità di ragionamento di Gemini per proporre e applicare automaticamente fix di sicurezza. È la logica dell’Agentic SOC descritta anche nel report Cybersecurity Forecast 2026 della stessa Google, dove la security operation diventa sempre più un’orchestrazione di agent AI specializzati che affiancano gli analisti umani nel correlare eventi, riassumere incidenti e produrre intelligence azionabile in tempi compatibili con la velocità degli attaccanti. In questa prospettiva, le stesse tecniche che oggi vediamo usate per automatizzare phishing e sviluppo di exploit possono (e devono) essere ribaltate per rafforzare il vulnerability management, la detection sulle infrastrutture virtualizzate, il controllo degli accessi machine‑to‑machine e la protezione delle supply chain software, temi al centro di molte delle nostre interviste con vendor e ricercatori.