L’IA evolve in tre ondate sempre più autonome, ampliando rischi e superficie d’attacco. Le aziende devono passare da sicurezza reattiva a resilienza progettata fin dall’inizio.
Autore: Martyn Ditchburn
Ogni grande cambiamento tecnologico segue uno schema ben noto: il potenziale è evidente, l’adozione accelera, la pressione competitiva cresce e la sicurezza resta indietro.
Lo abbiamo già visto con il cloud pubblico. Un concetto ampio e spesso poco definito, interpretato in modo diverso da ciascuna azienda, che ha generato al tempo stesso opportunità e incertezze. Le aziende più strutturate si sono spesso trovate in difficoltà, esposte alla concorrenza di realtà più agili o colte di sorpresa da iniziative di shadow IT sviluppate al di fuori del controllo centrale. Il risultato è stato un mix di timori, ambiguità e un approccio alla sicurezza reattivo, costretto a inseguire gli eventi.
Oggi, l’intelligenza artificiale segue lo stesso percorso, ma in modo più rapido, più ampio e con implicazioni molto più rilevanti. L’IA non è una singola tecnologia: è un’evoluzione articolata per ondate, e non comprenderne appieno le dinamiche rappresenta oggi uno dei principali rischi per le imprese.
La prima ondata dell’intelligenza artificiale si è concentrata sull’analisi predittiva: data lake, riconoscimento di schemi su larga scala e modelli di machine learning operanti prevalentemente in background. Per molte aziende, questa fase di adozione è avvenuta in modo silenzioso, senza un reale coinvolgimento a livello di vertice. Dal punto di vista della sicurezza, questi sistemi rappresentavano soprattutto un problema di protezione dei dati, volta a garantire che le informazioni sensibili non venissero esposte o utilizzate in modo improprio.
La seconda ondata, l’IA generativa, ha cambiato radicalmente le regole del gioco. Quando strumenti capaci di produrre testo, codice e immagini simili a quelli umani sono entrati nel dominio pubblico, l’IA è diventata all’improvviso un tema di conversazione diffuso. Tuttavia, questa visibilità ha avuto un prezzo. L’IA generativa è stata inglobata in un unico, troppo generico, concetto di “IA”, oscurando differenze fondamentali nei profili di rischio e nei controlli di sicurezza. I team della sicurezza hanno reagito in maniera prevedibile, concentrandosi principalmente sugli aspetti più visibili. Secondo il recente report di Zscaler ‘The Ripple Effect: A Hallmark of Resilient Cybersecurity’, sette aziende su dieci ammettono di avere una visibilità limitata sull’uso dello shadow AI da parte dei dipendenti, e il 56% ritiene che dati sensibili siano probabilmente già esposti tramite strumenti di IA non autorizzati. La risposta tipica è stata applicare controlli tattici, spesso adattando strumenti esistenti piuttosto che ripensare la sicurezza partendo dai principi fondamentali. Ma è la terza ondata, l’IA agentica, a cambiare radicalmente il panorama delle minacce.
I sistemi di IA agentica non si limitano a fare analisi o generare contenuti: agiscono. Si collegano direttamente ai sistemi aziendali, prendono decisioni e attivano flussi di lavoro. Sempre più spesso lo fanno in modo semi-autonomo, con un controllo umano limitato. Non si tratta di un futuro teorico: il sondaggio mostra che il 42% delle aziende sta già testando l’AI agentica, e il 34% l’ha implementata in qualche forma. Tuttavia, fatto cruciale, metà di queste implementazioni manca di governance solida o di adeguati controlli di sicurezza. È proprio in questo scenario che il pensiero tradizionale sulla sicurezza mostra i suoi limiti.
L’IA predittiva e generativa rappresenta fondamentalmente una sfida legata allo scambio di dati. L’IA agentica, invece, è una questione di comportamento e integrità dei sistemi. Quando gli agenti di IA interagiscono con piattaforme ERP, sistemi finanziari, flussi logistici o ambienti dei clienti, il raggio di impatto di eventuali violazioni si espande in modo significativo. I parallelismi con le prime fasi dell’evoluzione di Internet sono sorprendenti. I siti web statici hanno lasciato spazio ad applicazioni dinamiche basate su database. All’improvviso, gli attacchi di iniezione SQL sono diventati una minaccia dominante. L’automazione ha aperto nuovi percorsi di attacco. Ogni cambiamento architetturale ha introdotto rischi che i team della sicurezza non erano ancora pronti a gestire. L’IA agentica rappresenta un punto di svolta analogo.
Uno dei risultati più preoccupanti emersi dalla ricerca The Ripple Effect non è la mancanza di investimenti, ma la fiducia mal riposta. Ad esempio, nove aziende su dieci hanno aumentato la spesa per la resilienza informatica nell’ultimo anno, e il 96% ha aggiornato la propria strategia di resilienza in risposta a pressioni esterne. Tuttavia, il 61% ammette che tali strategie rimangono troppo incentrate sull’interno. In altre parole, le aziende ritengono di essere protette perché controllano ciò che avviene all’interno delle proprie mura, trascurando l’ecosistema in espansione di partner, piattaforme e supply chain guidate dall’IA al di fuori del loro perimetro.
Questo punto cieco diventa particolarmente pericoloso man mano che l’IA agentica inizia a operare oltre i confini organizzativi. L’IA “interna” di oggi si trasforma rapidamente nell’automazione interconnessa della supply chain di domani. I settori della vendita al dettaglio, della logistica e della produzione saranno probabilmente in prima linea in questa trasformazione, poiché le aziende perseguono obiettivi di sostenibilità, una produzione just-in-time e un'evasione degli ordini ottimizzata dall’IA. Nel momento in cui i sistemi agentici iniziano a trasferire lavoro tra aziende, la superficie di attacco si moltiplica. Le falle nella sicurezza non saranno più incidenti isolati, ma avranno un effetto a catena.
Proteggersi dalle minacce generate dall’IA non significa abbandonare i principi di sicurezza esistenti, ma richiede di farli evolvere. Molti dei controlli necessari per proteggere l’IA agentica derivano da quelli già efficaci per gestire utenti umani. La differenza principale sta nella velocità, nella scala e nella continuità delle azioni. Nonostante ciò, gli agenti IA devono essere trattati, dal punto di vista della sicurezza, come gli utenti umani, applicando controlli basati su Zero Trust. Ciò implica l’assegnazione di identità, la definizione di accessi a privilegi minimi, l’istituzione di valori di riferimento comportamentali e il monitoraggio continuo per rilevare anomalie. Se un agente inizia improvvisamente a interagire con sistemi al di fuori del suo scopo definito, questa deviazione deve essere tanto visibile quanto fruibile, esattamente come un comportamento umano sospetto.
La segmentazione diventa cruciale, non come ideale architetturale astratto, ma come strumento pratico per limitare il raggio di impatto. Senza di essa, agenti compromessi possono muoversi lateralmente alla velocità delle macchine. E, forse ancora più importante, le aziende devono smettere di considerare la sicurezza dell’IA come un’aggiunta accessoria. Il 52% dei responsabili IT afferma che i sistemi di sicurezza attuali non sono in grado di difendersi dalle minacce avanzate attuali. Se le aziende faticano a contrastare le minacce attuali, come potranno gestire quelle emergenti, come l’IA agentica e il quantum computing?
L’insegnamento principale che si può trarre sia dall’adozione del cloud sia dall’evoluzione dell’IA è chiara: la sicurezza reattiva non è scalabile. Il ritmo dell’innovazione supera costantemente governance, legislazione e cicli di procurement. Aspettare che i framework maturino o che gli incidenti costringano all’azione non è più un approccio sostenibile. La resilienza deve essere progettata fin dall’inizio, non applicata a posteriori dopo una crisi.
Ciò significa spostare l’attenzione da soluzioni singole all’agilità architetturale. Le aziende devono creare modelli di sicurezza capaci di adattarsi man mano che le funzionalità dell’IA evolvono, anziché andare in crisi ogni volta che queste cambiano. L’IA non rallenterà: i sistemi agentici diventeranno sempre più potenti, connessi e autonomi. Le aziende che continuano a considerare la sicurezza dell’IA come un problema di nicchia o futuro ripeteranno gli errori dell’era del cloud. Questa volta, però, le conseguenze si diffonderanno più rapidamente e su scala più ampia. La questione non è più se l’IA cambierà il panorama delle minacce: l’ha già fatto. La vera domanda è se le imprese sono pronte a difendersi prima che gli effetti a catena le raggiungano.