AI 2030: l’imminente era dei crimini informatici autonomi

L’adozione massiva dell’AI apre la strada a crimini informatici autonomi: minacce veloci, adattive e auto-ottimizzanti che ridisegnano il rischio digitale per le aziende.

Autore: Pierluigi Torriani

Le organizzazioni di tutto il mondo stanno adottando rapidamente l'intelligenza artificiale, che viene utilizzata sempre più da tutte le aziende, garantendo notevoli aumenti di efficienza. La sicurezza informatica sta di conseguenza entrando in una fase in cui l'intelligenza artificiale combatte l'intelligenza artificiale. Le truffe di phishing e i deepfake di oggi sono solo i precursori di una nuova era di minacce create da IA autonome e auto-ottimizzanti. Sistemi in grado di pianificare, eseguire e perfezionare attacchi senza o con una supervisione umana limitata.

Nel settembre 2025, il report globale sulle minacce informatiche di Check Point Research ha rilevato che 1 su 54 prompt GenAI provenienti da reti aziendali presentava un alto rischio di esposizione di dati sensibili, interessando il 91% delle organizzazioni che utilizzano regolarmente strumenti di IA.

Questi dati dimostrano che l'IA non sta solo ridefinendo la produttività, ma sta riscrivendo le regole del rischio informatico.

Pierluigi Torriani, Security Engineering Manager per Check Point Software Technologies

La profonda integrazione tra l'intelligenza artificiale e l'IA generativa nelle moderne operazioni aziendali, sta trasformando il panorama delle minacce informatiche. Gli attaccanti non si affidano più esclusivamente agli strumenti tradizionali, ma stanno integrando l'IA nelle loro tattiche, tecniche e procedure per lanciare campagne più scalabili, adattive e sofisticate.

Dall'ecosistema dell’IA stanno emergendo quattro tipologie di minacce da tenere in considerazione:

1. Attacchi autonomi basati sull'IA: campagne di minacce guidate da macchine

I criminali informatici stanno sperimentando sempre più spesso attacchi autonomi basati sull'IA, in cui agenti automatici pianificano, coordinano ed eseguono in modo indipendente campagne in più fasi. Questi sistemi di IA condividono informazioni, si adattano in tempo reale alle misure difensive e collaborano su migliaia di endpoint, funzionando come botnet ad autoapprendimento senza supervisione umana.

Esempi recenti, come i prototipi ReaperAI, mostrano come l'intelligenza artificiale autonoma possa concatenare ricognizione, sfruttamento ed esfiltrazione dei dati in un'operazione senza soluzione di continuità. Questa crescita di velocità delle macchine rappresenta una sfida importante per i centri operativi di sicurezza (SOC), che rischiano di essere sopraffatti da sciami di attacchi adattivi e auto-organizzati che generano migliaia di avvisi, testano politiche e cambiano tattica in tempo reale.

2. Fabbricazione di malware adattivo: codice dannoso in autoevoluzione

Nel 2024, diversi forum clandestini hanno iniziato a promuovere i “generatori di malware AI” in grado di scrivere, testare e debuggare automaticamente codice malevolo. Questi strumenti utilizzano loop di feedback per apprendere quali varianti aggirano il rilevamento, trasformando ogni tentativo fallito in carburante per il prossimo successo.

L'uso di malware polimorfico generato dall'intelligenza artificiale sta ridefinendo il modo in cui gli attaccanti creano e distribuiscono software malevolo. Mentre il malware tradizionale si basava su piccole modifiche al codice per eludere il rilevamento, i moderni modelli generativi, dal GPT-4o agli LLM open source, sono ora in grado di produrre varianti di malware uniche e funzionali in pochi secondi.

3. Minacce interne sintetiche: impersonificazione e ingegneria sociale basate sull'IA

La minaccia interna si sta evolvendo rapidamente con l'aumento delle identità sintetiche e dei personaggi generati dall'intelligenza artificiale. Costruiti a partire da dati rubati ai dipendenti, campioni vocali e messaggi interni, questi agenti di intelligenza artificiale possono imitare in modo convincente gli utenti reali, inviando e-mail dall'aspetto autentico, partecipando a videochiamate con voci deepfake e infiltrandosi nelle piattaforme di collaborazione con modelli linguistici e comportamentali precisi.

Recenti casi di “vibe hacking” hanno dimostrato come gli autori delle minacce abbiano incorporato obiettivi di ingegneria sociale direttamente nelle configurazioni dell'intelligenza artificiale, consentendo ai bot di negoziare, ingannare e persistere in modo autonomo. Man mano che la clonazione vocale tramite intelligenza artificiale diventa indistinguibile da quella reale, la verifica dell'identità passerà dal chi sta parlando a quanto siano coerenti le loro azioni dal punto di vista comportamentale, un cambiamento fondamentale nei modelli di fiducia digitale.

4. Catena di approvvigionamento dell'IA e avvelenamento dei modelli

La rapida adozione di modelli di IA di terze parti e open source ha creato una nuova vasta superficie di attacco: la catena di approvvigionamento dell'IA. Nel 2025, diversi laboratori di ricerca hanno mostrato attacchi di avvelenamento dei dati in cui l'alterazione di solo lo 0,1% dei dati di addestramento di un modello poteva causare una classificazione errata mirata, ad esempio istruendo un sistema di visione IA a identificare erroneamente un segnale di stop come un segnale di limite di velocità. Nel contesto della sicurezza informatica, ciò potrebbe significare che un modello di rilevamento delle intrusioni classifichi erroneamente un payload dannoso come benigno.

Perché queste minacce AI sono diverse

Gli attacchi informatici basati sull'intelligenza artificiale si distinguono perché combinano velocità, autonomia e intelligenza su una scala che gli aggressori umani non possono eguagliare.

A differenza delle minacce tradizionali, gli attacchi generati dalle macchine imparano e si adattano continuamente. Ogni exploit fallito diventa un dato di addestramento, creando un ecosistema di minacce in grado di auto-migliorarsi che evolve più rapidamente delle difese convenzionali. Check Point Research osserva che strumenti basati sull'intelligenza artificiale come il framework Hexstrike-AI, originariamente creato per i test del red team, sono stati trasformati in armi in poche ore per sfruttare gli zero-day di Citrix NetScaler.

Questi attacchi operano anche con una precisione senza precedenti. L'IA generativa consente phishing personalizzato, deepfake multilingue e personaggi sintetici che imitano così bene il tono e il comportamento da eludere sia il sospetto umano che i filtri automatici. Allo stesso tempo, l'esecuzione dell'IA rimuove le “impronte digitali umane” come errori di battitura, modelli di fuso orario o tracce linguistiche. Ciò rende sempre più difficile l'attribuzione e il rilevamento.

Infine, l'IA sta democratizzando il crimine informatico. Gli strumenti che automatizzano la scansione, lo sfruttamento e la negoziazione stanno abbassando le barriere per gli aggressori meno esperti, ampliando il panorama delle minacce. Entro il 2030, il ransomware e il furto di dati saranno orchestrati quasi interamente da sistemi di IA autonomi in grado di funzionare 24 ore su 24, 7 giorni su 7, senza supervisione umana.

Cosa devono fare ora le organizzazioni per prepararsi

I rischi associati alle minacce guidate dall'IA sono reali, ma ciò non significa che le aziende debbano abbandonare il vibe coding, lo sviluppo assistito dall'IA o gli strumenti di IA generativa. Proprio come agli albori della migrazione al cloud o del passaggio al lavoro ibrido, la sfida ora è imparare ad adottare l'IA in modo sicuro senza creare nuove vulnerabilità.

Per ridurre i rischi e costruire una resilienza a lungo termine, le organizzazioni dovrebbero concentrarsi su queste cinque strategie fondamentali:

1. Scegliere strumenti di IA attenti alla sicurezza e guidarli con saggezza

Selezionare piattaforme di IA costruite o configurate con principi che mettono al primo posto la sicurezza. Modellare il funzionamento dei modelli linguistici di grandi dimensioni (LLM) includendo prompt che fanno riferimento alla convalida, alla crittografia e alle impostazioni predefinite sicure, in modo che le pratiche di sicurezza siano integrate fin dall'inizio. Limitare sempre i dati esposti agli strumenti di IA, tenendo fuori dalla portata file sensibili, credenziali o set di dati di produzione. Se è necessario eseguire dei test, utilizzare dati sanificati o sintetici e rivedere le autorizzazioni per garantire che l'IA acceda solo a ciò di cui ha bisogno.

2. Implementare il modello Zero Trust per l'IA

Applicare l'accesso con privilegi minimi ai sistemi di IA. Autenticare ogni chiamata API, applicare la verifica continua e monitorare le interazioni tra IA per prevenire movimenti laterali. Tutto il codice generato dall'IA deve essere sottoposto a revisione tra pari, testato e scansionato alla ricerca di vulnerabilità prima della distribuzione. La supervisione umana garantisce che i requisiti di logica, sicurezza e conformità siano soddisfatti correttamente e aiuta a individuare i segnali di allarme che l'IA potrebbe trascurare.

3. Proteggere la catena di approvvigionamento e le dipendenze

L'IA può accelerare lo sviluppo, ma introduce anche nuovi rischi attraverso librerie di terze parti, plugin e suggerimenti di codice. Ogni nuova dipendenza deve essere considerata non attendibile fino a quando non viene verificata. Convalidare le fonti, verificare la reputazione ed eseguire scansioni di sicurezza prima dell'integrazione. Una solida sicurezza della catena di fornitura è essenziale, soprattutto perché gli strumenti di codifica assistiti dall'IA possono rendere più difficile tracciare la proliferazione delle dipendenze.

4. Automatizzare e integrare la sicurezza in tutto il ciclo di vita dello sviluppo

Rendere DevSecOps una parte standard della strategia di IA. Automatizzare i controlli di sicurezza in tutta la pipeline CI/CD per rilevare codice non sicuro, informazioni sensibili esposte e configurazioni errate prima che raggiungano la produzione. Abbinate queste misure di protezione automatizzate a una formazione continua per sviluppatori, analisti e team aziendali, affinché comprendano i fondamenti quali la convalida degli input, il controllo degli accessi e la gestione sicura dei dati.

5. Governare l'utilizzo della GenAI a livello aziendale

L'uso incontrollato degli strumenti di IA è una fonte crescente di fuga di dati. La ricerca sulle statistiche relative agli attacchi informatici condotta da CPR nel settembre 2025 ha rilevato che il 15% dei prompt di IA aziendali conteneva informazioni potenzialmente sensibili, quali registrazioni dei clienti e codice proprietario.

La corsa agli armamenti dell'IA è iniziata e l'aumento della fuga di dati GenAI mostra quanto rapidamente l'automazione stia ridefinendo il rischio per le aziende di tutto il mondo. Guardando al futuro, l'evoluzione dell'IA non solo accelererà, ma ridefinirà radicalmente il modo in cui le organizzazioni proteggono il proprio futuro digitale.

Dagli insider sintetici che si fingono dipendenti al malware adattivo che riscrive il proprio codice, il panorama delle minacce sta cambiando rapidamente. Per stare al passo, le organizzazioni devono combattere il fuoco con il fuoco. Le piattaforme basate sul cloud, alimentate dall'intelligenza artificiale e incentrate sulla prevenzione sono ormai essenziali: integrano analisi predittive, intelligence comportamentale e rimedi autonomi per bloccare le minacce prima che si verifichino. La sicurezza dovrà evolversi da strumenti reattivi a piattaforme basate sul cloud e alimentate dall'intelligenza artificiale che prevedono e prevengono gli attacchi prima che si verifichino, integrando intelligence informata sulle minacce, rimedi autonomi e governance continua.

Il motore di prevenzione delle minacce Infinity AI Threat Prevention Engine di Check Point, alimentato da ThreatCloud AI, analizza già milioni di indicatori provenienti da oltre 150.000 reti per bloccare gli attacchi zero-day in tempo reale, mentre Harmony SASE e Harmony Browse proteggono l'utilizzo di GenAI e le interazioni del browser ai margini del cloud.

Il futuro della sicurezza informatica apparterrà a coloro che adotteranno questa mentalità incentrata sulla piattaforma, consolidando la visibilità e il controllo su tutto il patrimonio digitale e incorporando i principi Zero Trust e Secure-by-Design in ogni livello, trasformando l'IA da un rischio a un vantaggio decisivo.

Le organizzazioni dovrebbero concentrarsi sull'aumento della consapevolezza sia dei vantaggi che dei rischi dell'IA, preparando il proprio personale e le proprie infrastrutture a un mondo in cui la prevenzione, l'automazione e l'intelligenza sono le uniche strategie sostenibili. Chi agisce ora trasformerà l'IA da un rischio a un vantaggio decisivo e costruirà una vera resilienza digitale per il prossimo decennio.

***


Visualizza la versione completa sul sito

Informativa
Questo sito o gli strumenti terzi da questo utilizzati si avvalgono di cookie necessari al funzionamento ed utili alle finalità illustrate nella cookie policy. Se vuoi saperne di più o negare il consenso a tutti o ad alcuni cookie, consulta la cookie policy. Chiudendo questo banner, acconsenti all’uso dei cookie.