>
▾ G11 Media: | ChannelCity | ImpresaCity | SecurityOpenLab | Italian Channel Awards | Italian Project Awards | Italian Security Awards | ...

Cynet: a ciascuno la sua AI

I principali threat actor sono già in grado di sfruttare l’Intelligenza Artificiale per essere più efficaci, per questo chi difende le reti deve essere ugualmente preparato

Cynet: a ciascuno la sua AI
Tecnologie/Scenari

L’utilizzo dell’Intelligenza Artificiale a supporto della cybersecurity è un argomento sempre gettonato, perché le tecnologie collegate all’AI – e, più tradizionalmente, al machine learning - possono essere applicate in molti modi diversi nella difesa cyber. Tra questi rientra ovviamente puntare sull’AI nella parte di rilevamento delle minacce e degli attacchi, che si stanno facendo sempre più insidiosi anche perché sono gli stessi threat actor ad aver imparato come usare l’AI per risultare più efficaci.

L’integrazione di veri e propri motori di AI nella parte di detection – spiega in questo senso Marco Lucchina, Country Manager Italy, Spain & Portugal di Cynet – è spinta dal fatto che il malware sta cambiando: è passato prima da un approccio statico a uno parzialmente dinamico, e adesso a uno totalmente dinamico. Oggi, cioè, i modelli di attacco più complessi si basano su agenti difficilmente rilevabili: piccole applicazioni come ce ne sono milioni in una infrastruttura IT, che non hanno di per sé comportamenti malevoli ma che sono in grado di scrivere codice e quindi ‘creano’ malware ex novo dall'interno dell'infrastruttura”.

Questo, tra l’altro, significa che la rilevazione del malware può restare signature-based solo per una quota minima delle infezioni. La grande maggioranza del codice malevolo può essere rilevata quasi esclusivamente attraverso l’analisi comportamentale, ed è in questo senso che da tempo si muove l’attività di sviluppo delle soluzioni CyNet.

Qui il tema spesso sottovalutato è che i motori di AI per l’analisi comportamentale devono essere opportunamente addestrati, e lo devono essere con i dati relativi all’infrastruttura che devono proteggere. “Rispetto a una generica configurazione di partenza – spiega Lucchina – i motori di AI devono comprendere e analizzare il contesto in cui devono operare. Questo significa che oggi la difesa cyber è molto più capillare e che ogni implementazione è unica: anche se due clienti sono simili, non si può replicare per uno la configurazione usata per un altro”.

L’addestramento dei modelli di AI richiede il suo tempo, inoltre, e molti utenti non sono abituati al fatto che una soluzione di cybersecurity non sia nel suo stato assolutamente ottimale già “out of the box”. “L'importante è accompagnare il cliente in questa fase di ottimizzazione – spiega Lucchina – perché questa nuova forma di detection va considerata come un framework più che come un prodotto”. Motivo anche per cui l’eguaglianza “più AI, meno staff di sicurezza cyber” non sarà mai vera quanto molti pensano o temono. “Magari grazie a un grado maggiore di automazione serviranno un po' meno persone – racconta Lucchina – ma queste dovranno essere molto più competenti di prima, perché tutta la fase iniziale della messa in sicurezza di una infrastruttura diventa cruciale”.

Il riferimento è a tutta la progettazione della difesa cyber: identificare i propri asset, definirne la protezione, avere un quadro chiaro della propria security posture, per poi passare alla detection vera e propria e alla definizione delle procedure di risposta e remediation. “Per una capacità progettuale del genere servono profili sempre più competenti – evidenzia Lucchina – e anche gli analisti SOC devono esserlo, perché l’AI può ‘scremare’ gran parte degli alert ma lascia al personale umano gli eventi più complessi”. E comunque il cerchio della sicurezza va chiuso: “La gestione degli eventi di sicurezza deve fare da base per un ‘continuous service improvement’: la conoscenza derivata dai problemi affrontati va riportata alla progettazione dei sistemi e dei modelli di sicurezza, per ottimizzarli costantemente”, ricorda Lucchina.

La preparazione tecnica dei "cattivi"

Questa ricerca costante del miglioramento è necessaria, tra l’altro, perché a migliorarsi costantemente sono per primi i threat actor. Anche e sempre più nell’utilizzo malevolo delle tecnologie di automazione e di AI. Poche ore dopo che una vulnerabilità diventa nota, ad esempio, i threat actor hanno già mappato tutte le aziende che la espongono e nell'arco delle poche ore successive quelle falle potenziali sono state sfruttate.

Le aziende vulnerabili sono di fatto aziende compromesse, dunque, anche se solo una parte delle brecce si concretizza in un incidente macroscopico. “Quello che ora ci aspettiamo – spiega Lucchina - è che queste vulnerabilità non siano più sfruttate come classiche backdoor che richiedono un intervento umano da parte di un attaccante, ma che servano per inoculare agenti AI ostili che, dall'interno della rete colpita, attivano azioni ostili”. La cronaca della cybersecurity ha già registrato casi del genere.

I threat actor sono inoltre già capaci di sfruttare un’altra delle capacità degli agenti di AI: la comprensione del contesto in cui operano. Questo permette ad esempio di rendere più subdole ed efficaci le azioni di esfiltrazione dei dati. “In un data breach classico vengono esfiltrati in blocco gigabyte di dati – spiega Lucchina – e questo aiuta ad rilevarlo, proprio grazie a picchi anomali nel traffico di rete. Un malware con funzioni di AI può analizzare in dettaglio i dati a cui ha accesso, capire il loro contesto e rilevare quelli che sono davvero interessanti e lasciando stare gli altri. È un vettore di attacco ancora limitato ma che sicuramente andrà crescendo”.

Attacchi di questo tipo interessano anche al cybercrime, sempre attento alla convenienza economica delle proprie operazioni. Da questo punto di vista il modello ransomware è sempre meno efficace e sostenibile, perché troppo macroscopico e distruttivo. Molto più redditizia è la rivendita di dati mirati e organizzati, come anche di credenziali funzionanti e magari pregiate. Qui la capacità di un malware AI di trovare le informazioni e i dati più remunerativi e rivendibili farà la differenza. E se chi attacca le reti si sta organizzando per sfruttare al meglio l’AI, chi le difende non può essere da meno.

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato
Iscriviti alla nostra Newsletter Gratuita. Iscriviti
GoogleNews Rimani sempre aggiornato, seguici su Google News! Seguici

Notizie correlate

Iscriviti alla nostra newsletter

Soluzioni B2B per il Mercato delle Imprese e per la Pubblica Amministrazione

Iscriviti alla newsletter

>
www.securityopenlab.it - 8.3.23 - 4.6.3