Proofpoint lancia AI Security per la governance degli agenti AI in azienda

Proofpoint lancia AI Security per proteggere gli agenti AI autonomi in azienda, con rilevamento intent-based su endpoint, browser e MCP e un framework di governance a cinque fasi.

Autore: Redazione SecurityOpenLab

Proofpoint ha annunciato Proofpoint AI Security, una soluzione di sicurezza per proteggere l'utilizzo dell'AI in azienda da parte di persone e agenti autonomi. Il lancio fa seguito all'acquisizione di Acuvity e introduce anche il primo Agent Integrity Framework del mercato, con un modello di maturità a cinque fasi per la governance dell'AI, dalla discovery iniziale all'applicazione in runtime.

L’ambito che ha spinto allo sviluppo della soluzione è quello degli ambienti di agentic AI, in cui una singola richiesta può innescare decine di azioni autonome su più sistemi, spesso a velocità macchina e senza supervisione umana. Secondo una ricerca di Acuvity, il 70% delle aziende non dispone di una governance AI ottimizzata e il 50% prevede una perdita di dati legata all'AI entro 12 mesi. I rischi più rilevanti includono escalation dei privilegi degli agenti e attacchi di prompt injection zero-click, per i quali gli strumenti di sicurezza tradizionali non offrono copertura, in quanto non valutano se il comportamento dell'AI sia allineato all'intento originale dell'utente.

Proofpoint AI Security affronta il problema applicando modelli di rilevamento intent-based: analizza il contesto semantico completo delle interazioni AI, valuta continuamente se le azioni avviate da un essere umano o da un agente autonomo siano coerenti con la richiesta originale e le policy definite, e segnala in tempo reale le azioni disallineate o ad alto rischio prima che si verifichino danni. La soluzione opera su endpoint, estensioni del browser e connessioni MCP, con visibilità su strumenti AI autorizzati e non (come OpenClaw, Ollama, ChatGPT e server MCP), e consente l'applicazione di controlli di accesso e policy in runtime.

L'Agent Integrity Framework definisce l'integrità dell'agente come la garanzia che operi entro i limiti del suo scopo previsto, dei permessi autorizzati e del comportamento atteso in ogni interazione, tool call e accesso ai dati. Il framework si articola in cinque pilastri: allineamento dell'intento, identità e attribuzione, coerenza comportamentale, verificabilità e trasparenza operativa. L'obiettivo è fornire ai CISO una roadmap strutturata per rendere operativa la governance dell'AI senza stravolgere l'architettura di sicurezza esistente.


Visualizza la versione completa sul sito

Informativa
Questo sito o gli strumenti terzi da questo utilizzati si avvalgono di cookie necessari al funzionamento ed utili alle finalità illustrate nella cookie policy. Se vuoi saperne di più o negare il consenso a tutti o ad alcuni cookie, consulta la cookie policy. Chiudendo questo banner, acconsenti all’uso dei cookie.