AI e cyberattacchi, l’evoluzione del fenomeno

L’Ai può aiutare chi ha poche competenze tecniche a creare una pagina web ingannevole in pochi minuti con l’aiuto degli LLM.

Autore: Redazione SecurityOpenLab

Anche i cybercriminali sono scettici sull’uso dell’AI. Almeno è questo quello che emerge da uno studio di Sophos dal titolo Cybercriminals Can’t Agree on GPTs secondo cui, nonostante le potenzialità della AI, alcuni cybercriminali sono ancora lontani dall'adottare gli LLM perché scettici o addirittura preoccupati circa il ricorso alla AI per i loro attacchi. Ovviamente non tutti sono di questo avviso, come ricorda un altro studio della stessa azienda, The Dark Side of AI: Large-Scale Scam Campaigns Made Possible by Generative AI, che dimostra invece che nel futuro potranno essere sfruttate tecnologie come ChatGPT per perpetrare frodi su vasta scala a fronte di competenze tecniche minime. Le discussioni del dark web, insomma, sembrano ricordare quelle che si tengono quotidianamente nel settore IT.

Andando per ordine, gli esperti di Sophos X-Ops hanno passato in rassegna quattro importanti forum del dark web alla ricerca di conversazioni inerenti i modelli LLM con l’obiettivo di capire che cosa pensano i cybercriminali della AI. Il primo risultato è che sì, anche all'interno del dark web si discute sulle potenzialità di questa tecnologia ai fini del social engineering, anche se non sono un tema di trend. In due dei quattro forum del dark web analizzati si sono contati solo 100 post dedicati alla AI, contro 1.000 sul tema delle criptovalute.


Le discussioni che ci sono vertono attorno a varie soluzioni simili a ChatGPT che, secondo i relativi autori, potrebbero essere impiegate per lanciare cyberattacchi e sviluppare malware. Le reazioni non sono entusiaste, anzi: molti criminali temono che gli autori di queste imitazioni stiano tentando di truffarli, confermando che chi opera nel dark web è particolarmente diffidente verso i “colleghi”. Ma c’è dell’altro: i ricercatori hanno rintracciato nel dark web anche articoli di opinione in cui si parla di effetti negativi della AI sulla società e alle implicazioni etiche del suo utilizzo. Esattamente lo stesso argomento di molte trattazioni che leggiamo quotidianamente alla luce del sole, a testimonianza del fatto che c’è anche del vero e proprio scetticismo.

Questo, tuttavia, non significa che si possa abbassare la guardia, anzi. L’altra ricerca pubblicata da Sophos X-Ops lo ricorda bene: si possono usare gli LLM per fare truffe capaci di ingannare molte persone. Il come lo hanno sperimentato i ricercatori, che hanno usato un template per e-commerce e un tool LLM come GPT-4 per costruire un sito web funzionante dotato di immagini, contributi audio e descrizioni di prodotto generati da AI, il tutto completato da un finto login Facebook e una finta pagina di checkout con cui è possibile sottrarre le credenziali di login e i numeri di carta di credito di utenti inconsapevoli. Per farlo sono bastate scarse conoscenze tecniche. E per creare centinaia di siti simili è bastato premere un pulsante.

Questo studio non aveva solo fini dimostrativi. Prodotti sofisticati come quello creato da Sophos X-Ops non esistono ancora, e analizzarlo permette di portarsi avanti e di sapere che cosa aspettarsi dagli attacchi futuri.


Visualizza la versione completa sul sito

Informativa
Questo sito o gli strumenti terzi da questo utilizzati si avvalgono di cookie necessari al funzionamento ed utili alle finalità illustrate nella cookie policy. Se vuoi saperne di più o negare il consenso a tutti o ad alcuni cookie, consulta la cookie policy. Chiudendo questo banner, acconsenti all’uso dei cookie.