L’AI agentica porta autonomia nell’IT aziendale, ma richiede governance rigorosa: controlli, osservabilità avanzata e sicurezza per evitare rischi operativi.
Con l'avvento degli agenti AI che prendono decisioni in tempo reale su cloud, sicurezza e infrastruttura, le aziende devono ripensare al modo in cui proteggono, monitorano e governano l'IT autonoma.
Il dibattito sull'AI in azienda si è evoluto: non si parla più di assistenti che redigono email o riassumono report. Si parla di AI agentica, ovvero sistemi che osservano, ragionano, decidono ed eseguono azioni all'interno degli ambienti di produzione. Dal ridimensionamento dei cluster cloud alla gestione degli avvisi di sicurezza, gli agenti iniziano a operare nel cuore dell'IT aziendale.
Secondo un report di Gartner®, entro il 2026 quasi il 40% delle applicazioni aziendali integrerà agenti di IA specifici per determinate attività, rispetto a meno del 5% nel 2025. Ciò indica che il processo decisionale autonomo si sta spostando dalla fase sperimentale a quella infrastrutturale.
Al contempo, il panorama delle minacce sta accelerando. Il Global Threat Report 2026 di CrowdStrike ha rilevato che il tempo medio di breakout, ovvero il tempo impiegato da un hacker per spostarsi lateralmente dopo la compromissione iniziale, è sceso a 29 minuti, con alcune intrusioni che impiegano pochi secondi a compromettere i sistemi. L'intelligenza artificiale sta accelerando la corsa agli armamenti informatici da entrambe le parti della barricata.
Priyanka Roy, Senior Enterprise Evangelist di ManageEngine
Il messaggio è chiaro: l'IT autonoma non può esistere senza una governance autonoma.
L'automazione tradizionale esegue script predefiniti. I sistemi di AI agentica valutano il contesto, soppesano i compromessi e scelgono tra molteplici azioni possibili.
Un'automazione basata su script può far crescere l'infrastruttura quando l'utilizzo della CPU supera una determinata soglia. Un agente AI, d’altro canto può valutare l'andamento dei costi, la domanda storica, i requisiti SLA e il livello di sicurezza prima di decidere se ridurre le risorse o arrestarle completamente.
Questo cambiamento introduce tre realtà operative:
In altre parole, le imprese non automatizzano più i compiti, bensì delegano il giudizio. E questo richiede dei paletti.
Il primo principio per la gestione degli agenti AI nell'IT aziendale è apparentemente semplice: limitare il potere prima di estenderlo.
Gli agenti AI con autorizzazioni eccessive rappresentano uno dei maggiori rischi nell'IT autonoma. Il fatto che un sistema possa agire non può significare che debba agire ovunque.
Le migliori pratiche prevedono service identity con ambito ristretto e un rigoroso controllo degli accessi, basato su ruoli o attributi. È opportuno separare le autorizzazioni per l'osservazione, la raccomandazione e l'esecuzione, introducendo diversi livelli di autonomia. Le azioni a basso rischio (pulizia dei log, etichettatura delle risorse) possono essere eseguite automaticamente, mentre le azioni ad alto impatto (modifiche IAM, regole firewall, rettifiche di fatturazione) richiederanno un'esplicita approvazione umana.
Altrettanto fondamentale è la presenza di un “kill switch” collaudato. I sistemi autonomi devono essere in grado di declassarsi o sospendersi quando vengono superate determinate soglie di anomalia. I tassi di inversione (la frequenza con cui gli esseri umani annullano le azioni dell'AI) sono indicatori precoci particolarmente efficaci di un'autonomia non sicura.
L'autonomia senza un interruttore di sicurezza non è innovazione. È vulnerabilità.
L'IT autonoma richiede una nuova categoria di osservabilità. Il monitoraggio di CPU, memoria e latenza non è più sufficiente. Le aziende devono ora monitorare:
Una ricerca di IBM sui trend di osservabilità dei sistemi basati su intelligenza artificiale evidenzia che questi richiedono una telemetria altrettanto intelligente. Registrare le azioni di un agente AI è solo metà del lavoro. Le organizzazioni devono anche registrare il motivo per cui tali azioni sono state svolte.
Ciò significa integrare la telemetria degli agenti AI nelle piattaforme SIEM (Security Information and Event Management) e SOAR (Security Orchestration, Automation, and Response) esistenti, in modo che i comportamenti anomali vengano trattati come eventi di sicurezza prioritari. Le dashboard dovrebbero monitorare i tassi di ripristino, i parametri di conformità alle policy e il tempo medio di ripristino, non solo il tempo di attività. Nell'IT autonoma, l'osservabilità si trasforma in responsabilità.
L'AI agentica introduce nuove vulnerabilità perché non è un singolo componente, bensì un ecosistema. Un agente AI può infatti includere un modello di base o specifico per un determinato dominio, livelli di logica di prompt, connettori dati, API, servizi cloud, plugin esterni e ambienti di esecuzione. Ogni livello amplia la superficie di attacco.
Il Global Cybersecurity Outlook 2026 del World Economic Forum avverte che l'adozione dell'IA sta rimodellando il panorama dei rischi a livello globale, in particolare in aree quali l'iniezione di prompt, la manipolazione dei modelli e la compromissione della catena di fornitura.
Ciò significa mantenere un registro dei modelli che tenga traccia delle diverse versioni, registrare la provenienza dei dati di addestramento, firmare crittograficamente gli artefatti del modello e condurre esercitazioni di red teaming che simulino l'iniezione di prompt e l'uso improprio degli strumenti.
Se un'organizzazione non è in grado di tracciare come è stato creato, aggiornato e testato un agente AI, non può affermare di governarlo.
La governance deve passare dai documenti procedurali alla capacità di eseguire controlli. Le pratiche di policy-as-code consentono alle imprese di codificare i comportamenti accettabili degli agenti AI direttamente nei sistemi. Le organizzazioni possono definire:
Queste policy sono soggette a controllo di versione, testate in ambienti di staging e applicate automaticamente. Parallelamente, le aziende dovrebbero implementare implementazioni di sicurezza per gli agenti AI, espandendone gradualmente l'autonomia solo dopo che la telemetria ne abbia convalidato la sicurezza e l'affidabilità. I kill switch devono essere testati regolarmente, non solo documentati.
Governare l'IT autonoma non significa rallentare l'innovazione, ma abilitare una scalabilità senza caos. Per le organizzazioni che esplorano gli agenti AI in ambienti aziendali, il percorso più sicuro è quello incrementale. Iniziare con flussi di lavoro ripetitivi e a basso rischio. Implementare gli agenti in ambienti sandbox con autorizzazioni di sola lettura. Registrare ogni azione e misurare la frequenza di override umano. Espandere i privilegi di esecuzione solo dopo che i tassi di annullamento diminuiscono e le violazioni delle policy rimangono minime.
Questo approccio di implementazione graduale riduce il rischio operativo e al contempo rafforza la fiducia interna. L'IT autonoma non deve arrivare da un giorno all'altro, ma deve farlo in modo responsabile.
L'agentic AI ridefinirà l'IT aziendale. Ridurrà i tempi di risposta, diminuirà i carichi operativi e ottimizzerà continuamente l'infrastruttura in modi che i processi manuali non avrebbero mai potuto eguagliare.
Tuttavia, l'obiettivo non è l'autonomia, bensì la resilienza. Le aziende che avranno successo con l'IT autonoma saranno quelle che tratteranno gli agenti AI come sistemi primari: osservabili, verificabili, vincolati e governati. Registreranno i processi decisionali, codificheranno le politiche, proteggeranno le catene di approvvigionamento e testeranno i loro interruttori di sicurezza.
Gli agenti AI gestiranno presto parti dell'infrastruttura aziendale, quindi la domanda non è se l'AI svolgerà un ruolo fondamentale nel nostro futuro, ma se opererà sotto una governance rigorosa.
27-04-2026
27-04-2026
27-04-2026
27-04-2026