Testi generati da AI aumentano l’esposizione alle minacce

Le intelligenze artificiali che aiutano gli sviluppatori a scrivere testi stanno attirando l’interesse dei cybercriminali: potrebbero agevolare e accelerare gli attacchi.

Tecnologie/Scenari Vulnerabilità

I modelli linguistici che utilizzano l'apprendimento automatico per generare testo non sono una novità, e come ogni tecnologia hanno potenziali sviluppi positivi e negativi. L’abuso di LLM (Large Language Model) per produrre contenuti malevoli sta preoccupando molti ricercatori di sicurezza, che nei forum di hacking hanno riscontrato un aumento dell’interesse verso ChatGPT, dove GPT sta appunto per Generative Pre-trained Transformer.

Per testare fino a che punto questi modelli linguistici possano essere abusati, i ricercatori di Check Point Research hanno condotto dei test con il modello linguistico ChatGPT e Codex di OpenAI. Il risultato è che sono riusciti a produrre email di phishing e codici malevoli (un documento Excel allegato contenente codice dannoso in grado di scaricare reverse shell) e una catena di infezione in grado di colpire i computer degli utenti.

Sergey Shykevich, Threat Intelligence Group Manager di Check Point, ha spiegato che “ChatGPT è stato ideato a fin di bene per assistere gli sviluppatori nella scrittura di codice, ma può anche essere usato per scopi pericolosi. Nelle ultime settimane, stiamo osservando i criminali iniziare a utilizzare ChatGPT per scrivere codice malevolo, dando loro il potenziale per accelerare il processo d’attacco e buone basi di partenza. Sebbene i tool analizzati siano piuttosto elementari, è solo questione di tempo prima che i criminali più tecnici migliorino il modo in cui utilizzano gli strumenti basati sull'intelligenza artificiale. CPR continuerà a indagare nelle prossime settimane sulla criminalità informatica legata a ChatGPT”.



Alla ricerca di CPR se ne affianca una di WithSecure antecedente alla disponibilità di ChatGPT, rivolta in generale allo sfruttamento di modelli linguistici GPT-3 (di cui ChatGPT fa parte). Anche in questo caso sono stati condotti esperimenti, che erano basati sulla ingegneria dei prompt: un concetto legato ai Large Language Model che prevede la scoperta di input che producono risultati utili alla produzione di contenuti che i ricercatori hanno ritenuto malevoli.

Anche in questo caso i test hanno chiamato in causa il phishing e lo spear-phishing, a cui sono stati aggiunti molestie, convalida sociale per le truffe, appropriazione di uno stile di scrittura, creazione di opinioni deliberatamente divisive, fake news e altro.

La considerazione del ricercatore di WithSecure Intelligence Andy Patel, che ha guidato la ricerca, è che "il fatto che chiunque abbia una connessione a Internet possa accedere a potenti modelli linguistici di grandi dimensioni ha una conseguenza molto pratica: è ora ragionevole supporre che qualsiasi nuova comunicazione ricevuta possa essere stata scritta con l'aiuto di un robot”. Questo significa che “in un certo senso, ora siamo tutti Blade Runner e cerchiamo di capire se l'intelligenza con cui abbiamo a che fare è 'reale' o artificiale”.

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato con le notizie di SecurityOpenLab.it iscriviti alla nostra Newsletter gratuita.

Notizie correlate

Speciali Tutti gli speciali

Previsioni di cybersecurity per il 2023

Speciale

Supply chain security

Speciale

Speciale Mobile e IoT

Speciale

Threat Intelligence

Speciale

Cloud Security

Calendario Tutto

Feb 16
Commvault Connections on the Road | Milano
Mar 22
IDC Future of Work
Giu 08
MSP DAY 2023 - 8/9 Giugno

Iscriviti alla nostra newsletter

Soluzioni B2B per il Mercato delle Imprese e per la Pubblica Amministrazione

Iscriviti alla newsletter