L’AI in azienda fra pressioni di business e lacune di governance

Il 60% dei responsabili italiani ha approvato progetti AI nonostante i rischi di sicurezza. Solo il 20% dispone di policy complete e il 28% ammette di non avere visibilità sui propri sistemi.

Autore: Redazione SecurityOpenLab

Il 60% dei responsabili aziendali italiani ha approvato progetti di AI pur avendo piena consapevolezza dei rischi di sicurezza ad essi connessi. La decisione è spinta dalla necessità di tenere il passo con la concorrenza e rispondere alla domanda interna, in un contesto in cui la governance dell'AI è ancora largamente incompiuta. Il dato emerge dalla ricerca Securing the AI-Powered Enterprise: Governance Gaps, Visibility Challenges and Rising Risk commissionata da TrendAI a Sapio Research, che evidenzia un quadro in cui l'adozione dei nuovi strumenti è guidata dalla pressione competitiva invece che da una pianificazione strutturata.

A rispondere sono state 3.700 figure di riferimento dell’IT in 23 paesi, fra cui 100 responsabili in organizzazioni italiane con oltre 250 dipendenti. Il primo problema emerso riguarda la visibilità sulle attività svolte dagli strumenti di AI, ormai integrati in ambienti di sviluppo, piattaforme SaaS, strumenti di produttività, sistemi di analytics e tecnologie di sicurezza, con una diffusione che crea le condizioni perfette per lo shadow AI. A livello globale, il 22% del campione ammette di avere una visione solo parziale dei deployment attivi. In Italia il quadro è ancora più critico: il 57% del campione italiano riconosce che l'AI sta superando le capacità difensive; il 23% dichiara di avere solo moderata fiducia nella propria comprensione dei quadri giuridici che regolano l'AI.

A livello globale il 53% delle organizzazioni è ancora in fase di redazione delle proprie policy sull'AI. In Italia solo il 20% delle organizzazioni dispone di policy complete; il 41% cita come ostacolo principale la mancanza di regolamentazioni o standard di conformità chiari. L'AI, in molti casi, diventa operativa prima che siano del tutto definite le regole che ne disciplinano l'uso.

Sul fronte dei controlli, il 53% delle organizzazioni a livello globale ha implementato misure focalizzate sulla sicurezza dei dati, mentre solo il 41% ha esteso la governance ai controlli di data integrity. Il 64% del campione globale dichiara una moderata fiducia nella propria comprensione dei framework legali che regolano l'AI, anche nell'Unione Europea, che è tra i primi mercati a dotarsi di una regolamentazione specifica ma, nonostante questo, opera ancora in un contesto normativo in evoluzione.

La governance dell'AI non è solo una questione tecnica. La ricerca documenta una frammentazione nella titolarità del rischio che riflette una mancanza di chiarezza organizzativa. Tra il personale IT, il 44% ritiene che la responsabilità spetti al CISO o alla funzione di sicurezza; i business manager, invece, tendono ad attribuirla a team di data protection, legale o compliance (41%). Quando si tratta di stabilire chi debba rispondere in caso di breach legato all'AI, le posizioni si dividono ulteriormente, con  il 26% dei responsabili IT che indicano una responsabilità condivisa tra tutte le parti coinvolte, il 25% che punta il dito verso il vendor o lo sviluppatore del sistema AI e i manager business che addebitano le colpe al fornitore che ha effettuato il deployment (27%).

Più che confusione, la situazione emersa è lo specchio dell'assenza di un framework interno condiviso su chi fa cosa quando qualcosa va storto. Il problema non è solo normativo: anche con regolamenti chiari, la catena delle responsabilità operative tra vendor, deployer e utente finale resterebbe indefinita senza un modello esplicito di riferimento. Il parallelo con l'adozione del cloud è immediato: anche in quel caso ha regnato la nebbia fino a quando non è stato codificato il modello di responsabilità condivisa che oggi è lo standard de facto nell'industria. Con l'AI agentica il problema è strutturalmente più complesso perché alla filiera vendor/deployer/utente si aggiunge l'autonomia del sistema stesso, che può generare conseguenze non previste da nessuna delle parti. Un framework adattato alle specificità dell'AI potrebbe essere il passo mancante.

Fiducia e cautela verso i sistemi autonomi

L'interesse per l'AI applicata alla cybersecurity è reale e documentato. L'interesse è particolarmente marcato tra i responsabili IT, in ottica di threat detection, identificazione del rischio cyber e analisi comportamentale in tempo reale. Più precisamente, oltre al 60% degli intervistati reputa l’AI necessaria per difendersi dalle minacce create con l’AI. Però resta lo scetticismo verso i sistemi agentic, con meno della metà del personale IT globale (48%) convinto che sistemi autonomi possano migliorare la difesa. In Italia questa percentuale scende al 43%.

Alla cautela sui vantaggi si affianca una crescita delle preoccupazioni: al 39% degli intervistati italiani identifica un forte rischio nell'accesso degli agenti AI ai dati sensibili. Il 28% teme l'abuso dello status di sistema e i rischi legati all'esecuzione autonoma di codice. Il 26% indica l'espansione della superficie di attacco come criticità rilevante, mentre il 25% avverte che prompt dannosi potrebbero compromettere la sicurezza dei sistemi. Un ulteriore 28% ammette l'assenza di osservabilità e verificabilità sui propri sistemi AI.

Alla luce di queste posizioni, circa il 38% degli intervistati italiani si dice favorevole all'introduzione di protocolli di "kill switch" per fermare i sistemi AI in caso di malfunzionamento o uso improprio. A livello globale, il 40% supporta questi meccanismi mentre quasi la metà non ha ancora una posizione definita. La mancanza di consenso su come mantenere il controllo operativo rispecchia una questione più profonda: le organizzazioni si muovono verso sistemi AI autonomi senza un accordo su dove e come tracciare i limiti dell'intervento umano.

A fronte di queste perplessità, la spinta all'adozione arriva dal management e/o dalle dinamiche di mercato. Il 67% degli intervistati a livello globale dichiara di subire pressioni da parte del management o delle dinamiche di mercato per accelerare il deployment dell'AI anche quando vengono sollevati problemi di sicurezza. In Italia, questo dato si concretizza nel 60% dei responsabili che ha approvato progetti nonostante le preoccupazioni espresse. L'accelerazione risponde a logiche competitive comprensibili, ma introduce un paradosso operativo: le vulnerabilità identificate e corrette prima del deployment costano significativamente meno di quelle scoperte in produzione, dove l'esposizione al rischio è già attiva.

Uscire dall’impasse non sarà semplice. Secondo TrendAI è necessario definire urgentemente strutture di governance chiare, con l’assegnazione esplicita della titolarità del rischio AI, delle policy di utilizzo. È inoltre mandatorio acquisire visibilità reale sull'utilizzo dell'AI in tutta l'organizzazione, che è un passaggio che va di pari passo con il consolidamento della sicurezza intorno a una piattaforma unificata che correla telemetria, analytics e controlli a livello enterprise. Un’altra indicazione importante è affinare il monitoraggio dei comportamenti anomali, dell'abuso d'identità e degli indicatori di compromissione legati agli attacchi AI-assisted. Ultimo, ma non meno importante aspetto è l'allineamento tra team di sicurezza e leadership aziendale mediante una collaborazione strutturata, che permetta l'adozione dell'AI a fronte di una gestione del rischio chiara e una supervisione operativa adeguata.


Visualizza la versione completa sul sito

Informativa
Questo sito o gli strumenti terzi da questo utilizzati si avvalgono di cookie necessari al funzionamento ed utili alle finalità illustrate nella cookie policy. Se vuoi saperne di più o negare il consenso a tutti o ad alcuni cookie, consulta la cookie policy. Chiudendo questo banner, acconsenti all’uso dei cookie.