▾ G11 Media: | ChannelCity | ImpresaCity | SecurityOpenLab | Italian Channel Awards | Italian Project Awards | Italian Security Awards | ...

AI e cyberattacchi, l’evoluzione del fenomeno

L’Ai può aiutare chi ha poche competenze tecniche a creare una pagina web ingannevole in pochi minuti con l’aiuto degli LLM.

Tecnologie/Scenari

Anche i cybercriminali sono scettici sull’uso dell’AI. Almeno è questo quello che emerge da uno studio di Sophos dal titolo Cybercriminals Can’t Agree on GPTs secondo cui, nonostante le potenzialità della AI, alcuni cybercriminali sono ancora lontani dall'adottare gli LLM perché scettici o addirittura preoccupati circa il ricorso alla AI per i loro attacchi. Ovviamente non tutti sono di questo avviso, come ricorda un altro studio della stessa azienda, The Dark Side of AI: Large-Scale Scam Campaigns Made Possible by Generative AI, che dimostra invece che nel futuro potranno essere sfruttate tecnologie come ChatGPT per perpetrare frodi su vasta scala a fronte di competenze tecniche minime. Le discussioni del dark web, insomma, sembrano ricordare quelle che si tengono quotidianamente nel settore IT.

Andando per ordine, gli esperti di Sophos X-Ops hanno passato in rassegna quattro importanti forum del dark web alla ricerca di conversazioni inerenti i modelli LLM con l’obiettivo di capire che cosa pensano i cybercriminali della AI. Il primo risultato è che sì, anche all'interno del dark web si discute sulle potenzialità di questa tecnologia ai fini del social engineering, anche se non sono un tema di trend. In due dei quattro forum del dark web analizzati si sono contati solo 100 post dedicati alla AI, contro 1.000 sul tema delle criptovalute.

Partecipa agli ItalianSecurityAwards 2024 ed esprimi il tuo voto premiando le soluzioni di cybersecurity che reputi più innovative


Le discussioni che ci sono vertono attorno a varie soluzioni simili a ChatGPT che, secondo i relativi autori, potrebbero essere impiegate per lanciare cyberattacchi e sviluppare malware. Le reazioni non sono entusiaste, anzi: molti criminali temono che gli autori di queste imitazioni stiano tentando di truffarli, confermando che chi opera nel dark web è particolarmente diffidente verso i “colleghi”. Ma c’è dell’altro: i ricercatori hanno rintracciato nel dark web anche articoli di opinione in cui si parla di effetti negativi della AI sulla società e alle implicazioni etiche del suo utilizzo. Esattamente lo stesso argomento di molte trattazioni che leggiamo quotidianamente alla luce del sole, a testimonianza del fatto che c’è anche del vero e proprio scetticismo.

Questo, tuttavia, non significa che si possa abbassare la guardia, anzi. L’altra ricerca pubblicata da Sophos X-Ops lo ricorda bene: si possono usare gli LLM per fare truffe capaci di ingannare molte persone. Il come lo hanno sperimentato i ricercatori, che hanno usato un template per e-commerce e un tool LLM come GPT-4 per costruire un sito web funzionante dotato di immagini, contributi audio e descrizioni di prodotto generati da AI, il tutto completato da un finto login Facebook e una finta pagina di checkout con cui è possibile sottrarre le credenziali di login e i numeri di carta di credito di utenti inconsapevoli. Per farlo sono bastate scarse conoscenze tecniche. E per creare centinaia di siti simili è bastato premere un pulsante.

Questo studio non aveva solo fini dimostrativi. Prodotti sofisticati come quello creato da Sophos X-Ops non esistono ancora, e analizzarlo permette di portarsi avanti e di sapere che cosa aspettarsi dagli attacchi futuri.

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato con le notizie di SecurityOpenLab.it iscriviti alla nostra Newsletter gratuita.
Rimani sempre aggiornato, seguici su Google News! Seguici

Notizie correlate

Iscriviti alla nostra newsletter

Soluzioni B2B per il Mercato delle Imprese e per la Pubblica Amministrazione

Iscriviti alla newsletter