Crescita superiore al 20% anno su anno, ARR sopra il miliardo e una piattaforma che sposta il SOC dalla reazione alla prevenzione grazie ad AI agentica e Frontier AI.
Autore: Redazione SecurityOpenLab
SentinelOne ha chiuso l'anno fiscale con una crescita superiore al 20% anno su anno e un ARR (Annual Recurring Revenue) stabilmente superiore al miliardo di dollari. Lo ha dichiarato Paolo Cecchi, Area VP Sales della Mediterranean Region di SentinelOne, nel corso di un incontro con la stampa focalizzato sullo scenario attuale della cybersecurity, con una corposa analisi tecnica di Marco Rottigni, Global Solutions Architect di SentinelOne.
"Ad oggi le aziende che hanno superato il miliardo di dollari di fatturato operando esclusivamente nel mercato della cybersecurity sono circa una quindicina, quindi siamo di fatto entrati nel novero delle organizzazioni di cybersecurity più importanti a livello globale", ha sottolineato Cecchi. Il manager ha aggiunto poi che le proiezioni per l'anno in corso puntano a mantenere lo stesso passo di crescita, che "è uno degli elementi che attesta la nostra capacità di innovare e di essere percepiti dal mercato come innovatori".
Al di là dei numeri, Cecchi ha delineato quattro aree di attenzione che emergono con forza dai segnali del mercato. La prima è l’ormai consolidato binomio AI offense/AI defense, ossia l'uso dell'AI da parte degli attaccanti e l'adozione della stessa da parte dei difensori. Il problema, secondo Cecchi, è che le aziende hanno trascurato un terzo elemento: la protezione dei sistemi di AI che operano al proprio interno. "Le linee di business sviluppano AI per i propri scopi in maniera quasi autonoma e indipendente dai dipartimenti di sicurezza IT e questo crea un enorme buco nero nella sicurezza informatica" ha sottolineato Cecchi. In questo contesto si inserisce l'acquisizione di Prompt Security, soluzione pensata proprio per proteggere l'utilizzo dell'AI all'interno delle aziende. Proprio a proposito di governance dell’AI, Cecchi ha ricordato l'AI Act europeo, che salvo ulteriori proroghe dovrebbe entrare in vigore ad agosto.
La seconda area è la visibilità sugli ambienti cloud. Il tema è importante perché "il 99% degli attacchi a infrastrutture cloud avviene per errori umani quali misconfigurazioni, vulnerabilità non identificate, accessi non controllati", ha detto Cecchi. La terza area è quello che Cecchi chiama il paradosso dell'identità: agli agenti AI vengono concessi accessi ampi e spesso illimitati a sistemi interni, senza i controlli che si applicano agli utenti umani. "Stiamo aprendo la porta a una serie di attacchi difficili da rilevare, perché nel momento in cui un sistema agentico fa qualcosa per la quale è stato autorizzato, omettendo i controlli, ci si trova in una delle peggiori situazioni da affrontare". La quarta area riguarda l'evoluzione del SOC: le security operations continuano a operare a velocità umana, nel tentativo di contrastare un problema che si muove a velocità di macchina: "se non colmiamo velocemente questo gap, siamo destinati a perdere questa battaglia in maniera ancora più eclatante rispetto a quanto accadeva prima" chiude Cecchi.
Il tema della fiducia eccessiva concessa agli agenti AI è stato ripreso da Rottigni, che a differenza della recente intervista su SecurityOpenLab dedicata agli agenti AI come vettore di supply chain attack, ha centrato il focus sulle risposte concrete che la piattaforma SentinelOne mette a disposizione dei team di sicurezza, e che si articola su tre elementi: contesto (costruire rapidamente una visione dell'evento aggregando segnali da più fonti), velocità operativa delle SecOps, e capacità di bilanciare cosa automatizzare e cosa tenere alla valutazione umana.
La novità più rilevante presentata da Rottigni riguarda Purple AI SOC Analyst e, in particolare, l'agente denominato Asimov, annunciato alla recente edizione della RSA Conference. Il suo funzionamento è stato illustrato con un esempio pratico: di fronte a un allarme di alto livello, un analista attiva la funzione di auto-investigation che incarica Asimov di gestire l'allarme e distribuire il lavoro tra più agenti specializzati. "Un agente va a connettere tutti gli elementi, un secondo esamina la telemetria disponibile per trovare eventi affini, un terzo investiga l'utente coinvolto nell'Active Directory per capire il suo ruolo e il rischio associato alle sue credenziali, un quarto controlla l'inventario degli asset per cercare vulnerabilità o segnali di movimento laterale", ha spiegato Rottigni. Tutto questo avviene complessivamente in 4-5 minuti, al termine dei quali Asimov correla tutti gli output e produce un report strutturato, lungo e dettagliato.
Rottigni ha tenuto a precisare il confine tra ciò che l'AI fa bene e ciò che non può sostituire: "Purple AI è bravissima a unire i puntini, ma solo dopo che è stata istruita per farlo". Usare la Gen AI in modalità agentica invece del chatbot conversazionale è la novità, ma questo non sostituisce l’analista, anzi, Asimov genera nel tempo indicato sopra un semilavorato che avrebbe richiesto 2-3 ore di lavoro, consentendo all’analista di investire il suo tempo per leggere il quadro complessivo e intervenire in maniera più informata ed efficace.
L’Al come motore di auto-investigation si affianca alla funzionalità di hyper automation, in early availability (solo per clienti selezionati) e in procinto di arrivare in general availability (per tutti i clienti) nel giro di una o due settimane dalla data della conferenza. Riallacciandoci alla timeline descritta sopra, quando Asimov conclude che un allarme è fondato, il sistema può innescare automaticamente un flusso di azioni: avvisa via email altri analisti, apre un ticket, ecctera, ma prima di tutto chiede conferma all'analista.
La novità rispetto agli approcci tradizionali di automazione è che nel flusso possono essere inserite azioni AI (cioè blocchi che ricevono un input, eseguono un ragionamento autonomo e producono un output che alimenta il passo successivo). È importante precisare che questi agenti non generano costosi token, in quanto il modello adottato è basato su azioni, con una quantità mensile predefinita correlata al numero di endpoint del cliente. Sono disponibili pacchetti aggiuntivi, ma il costo dell'AI generativa specializzata è fisso e predeterminabile.
L'agente comportamentale di SentinelOne lavora in reazione a un attacco in corso: è quello che è successo nel caso LiteLLM, di cui abbiamo parlato a suo tempo con Rottigni, dove è stato bloccato un vettore d'attacco innovativo perché mimava una tecnica di compromissione della supply chain ben nota all'agente. Wayfinder con Frontier AI sposta l'asse sulla prevenzione: invece di aspettare che l'agente rilevi i segnali di un attacco in corso, i frontier model più evoluti (modelli LLM di diversi produttori integrati nella piattaforma) permettono di identificare le superfici vulnerabili prima che qualcuno tenti di sfruttarle. Questa innovazione segna il “passaggio dal Managed Detection and Response al Managed Threat Detection and Response, perché gestiamo anche l'esposizione della minaccia”, ha puntualizzato Rottigni.
Il problema, però, è che le vulnerabilità sono sempre come montagne e la capacità di remediation è sempre una palla da neve. “La domanda fondamentale resta sempre: da dove comincio? Wayfinder con Frontier AI risponde esattamente a questa domanda: comincia qui, qui e qui, perché così facendo chiudi un percorso d'ingresso. E se qualcuno riesce a sfruttarne un altro, che avevi messo come priorità seondaria, l'MDR riesce comunque a neutralizzarlo e a rimediarlo in tempo" conclude Rottigni.
A completare il quadro, Rottigni ha tenuto a precisare un aspetto che riguarda l'architettura della piattaforma e la privacy dei dati. Purple AI opera interamente all'interno della piattaforma SentinelOne: nessun dato di telemetria, nessun allarme, nessuna interazione con i modelli LLM avviene al di fuori della sottoscrizione del cliente. Per i clienti europei che hanno scelto una region europea, la garanzia è che tutti i dati restano sul suolo europeo.