L’AI rimodellerà il panorama italiano della cybersecurity nel 2024

Autore: Giampiero Savorelli

I recenti progressi in ambito IA stanno fornendo nuovi strumenti e capacità sia ai responsabili della sicurezza informatica sia agli hacker. I cybercriminali hanno già iniziato a esplorare come l'IA possa essere usata per intensificare gli attacchi e stanno prendendo di mira le aziende con una nuova generazione di continue minacce. Ma l'IA può anche essere impiegata a “fin di bene”, come ad esempio per potenziare il rilevamento delle minacce e rendere più efficiente la remediation. Questo suo utilizzo non potrebbe arrivare in un momento migliore, considerato che si parla di quattro milioni di professionisti della cybersicurezza richiesti a livello globale.

Per il prossimo anno possiamo aspettarci di vedere l'Intelligenza Artificiale e il suo impatto diventare predominanti nel campo della sicurezza informatica, aumentando le esche di phishing, identificando i punti deboli dei sistemi di protezione e riducendo il tempo necessario per lo sviluppo e la risposta agli attacchi. Nel 2024 i team di cybersecurity considereranno l’IA una priorità, sia preparandosi alla nuova ondata di minacce guidate proprio dall'IA, sia utilizzando questa tecnologia a proprio vantaggio.


Giampiero Savorelli, MD HP Italy

Tre modi in cui l'IA è destinata a influenzare il panorama della cybersecurity nell’anno a venire:

Nel 2024, i cybercriminali sfrutteranno l'Intelligenza Artificiale per potenziare gli attacchi di social engineering a livelli mai raggiunti in precedenza: generando esche di phishing credibili e difficili da identificare in pochi secondi. Queste appariranno come altamente plausibili, poiché i criminali informatici automatizzeranno esche personalizzate utilizzando dati raccolti dai social media o caselle di posta elettronica compromesse. Di conseguenza, le esche saranno molto difficili da individuare per gli utenti, anche dopo una formazione sul phishing. Gli hacker utilizzeranno inoltre l'IA per generare un maggior numero di esche in diverse lingue, tra cui l’italiano, che sembreranno ancora più legittime.

Si prevede che le campagne di massa generate dall'Intelligenza Artificiale aumenteranno significativamente anche in corrispondenza di alcune date chiave. Ad esempio, nel 2024 si prevede che il maggior numero di persone nella storia voterà alle elezioni. Utilizzando l'IA, i criminali informatici saranno in grado di creare facilmente esche localizzate che hanno come obiettivo alcuni specifici Paesi. Allo stesso modo, anche eventi annuali importanti - come la dichiarazione dei redditi di fine anno - o appuntamenti sportivi - come le Olimpiadi di Parigi e il torneo UEFA Euro 2024 – ed eventi commerciali - come il Black Friday - daranno agli hacker opportunità per ingannare gli utenti. 

Poiché le e-mail contraffatte stanno diventando indistinguibili da quelle legittime, le aziende non possono affidarsi solo alla formazione dei dipendenti. Per proteggersi dagli attacchi di social engineering alimentati dall'IA, le imprese devono creare una rete di sicurezza virtuale per i propri utenti. La micro-virtualizzazione crea virtual machine “usa e getta”, isolate dal sistema operativo del PC, in modo che, nel caso in cui un utente clicchi involontariamente su qualcosa che non dovrebbe, la sua protezione non venga meno, senza che debba cambiare le proprie abitudini di interazione col computer.

Quest'anno i Modelli di Lingua Ampi (LLM) locali saranno integrati nei PC, con i "PC con IA" che rivoluzioneranno il modo in cui le persone interagiscono con i propri dispositivi endpoint. Questi LLM aumenteranno l'efficienza e la produttività degli utenti e porteranno diversi vantaggi in termini di sicurezza e privacy, sfruttando l'Intelligenza Artificiale indipendentemente da Internet. Questi assistenti personalizzati e chatbot ridurranno i rischi di sicurezza legati all'invio e alla conservazione dei dati personali nel cloud. Tuttavia, con un numero ancora maggiore di dati raccolti da questi modelli locali, l'endpoint diventerà un obiettivo primario per gli hacker.

Mentre le aziende cercano di utilizzare chatbot LLM per aumentare la produttività, i team di sicurezza avranno un altro sistema da difendere. Questi chatbot potrebbero rappresentare una via d'accesso a dati precedentemente non disponibili. Utilizzando messaggi mirati per ingannare i chatbot aziendali e aggirare i controlli, i cybercriminali potrebbero effettuare operazioni di social engineering su LLM aziendali per ottenere l'accesso a dati riservati.

I progressi nelle tecnologie di sicurezza informatica renderanno più difficile per gli hacker accedere ai sistemi ed eludere il rilevamento. Tuttavia, poiché l'IA democratizza l'accesso a tecnologie potenti, le capacità sofisticate diventeranno più alla portata di tutti. Questa disponibilità consentirà ai cybercriminali di innovare e continuare ad aumentare gli attacchi a livello firmware e hardware, dove i team di sicurezza hanno una minore visibilità quotidiana. Storicamente, l'accesso sotto il sistema operativo (OS) richiedeva conoscenze tecniche approfondite. Ma l'Intelligenza Artificiale renderà gli attacchi rivolti ai livelli inferiori dello stack tecnologico più accessibili.

Possiamo aspettarci un aumento del numero di attacchi informatici avanzati, più difficili da rilevare e più dannosi, come ad esempio il moonbounce e il cosmic strand. Per difendersi da questi attacchi, le aziende devono investire maggiormente nella sicurezza dell'hardware e del firmware.

Una nuova era per la cybersecurity

L'IA è destinata ad avere un impatto significativo sulle minacce, ma anche i team di sicurezza hanno le stesse opportunità di sfruttare l'Intelligenza Artificiale per migliorarne il rilevamento, la risposta e alleggerire così la pressione sui team di sicurezza. Gli IA copilot aiuteranno anche a difendere gli utenti attraverso la scansione automatizzata, utilizzata per identificare le esche di phishing mirate che cercano di ingannare i dipendenti per indurli a effettuare trasferimenti bancari o a condividere dati sensibili.

L'arrivo dei PC con IA nel 2024 porterà enormi vantaggi in termini di sicurezza, consentendo agli utenti di sfruttare l'IA in modo più sicuro sul dispositivo senza avere dati inviati e conservati nel cloud. Inoltre, offriranno un nuovo livello di privacy dei dati, come il blocco automatico di un dispositivo non presidiato o l'avvio di una schermata di privacy quando un dispositivo viene osservato.

Per utilizzare l'IA in modo sicuro a proprio vantaggio, le aziende hanno urgentemente bisogno di un approccio integrato alla sicurezza, che privilegi l’isolamento preventivo rispetto al rilevamento e che utilizzi i principi dello Zero Trust. La collaborazione con fornitori di soluzioni di sicurezza IA affidabili garantirà ai clienti di massimizzarne i vantaggi, proteggendoli al contempo dalle nuove minacce alla sicurezza e alla privacy.

Giampiero Savorelli è MD HP Italy


Visualizza la versione completa sul sito

Informativa
Questo sito o gli strumenti terzi da questo utilizzati si avvalgono di cookie necessari al funzionamento ed utili alle finalità illustrate nella cookie policy. Se vuoi saperne di più o negare il consenso a tutti o ad alcuni cookie, consulta la cookie policy. Chiudendo questo banner, acconsenti all’uso dei cookie.