Scraping e truffe, i bot sono sempre più agguerriti

Aumentano le attività di scraping automatico dei dati e le truffe perpetrate tramite bot. Le whitelist non sempre funzionano.

Autore: Redazione SecurityOpenLab

Nel 2019 il 24% del traffico Internet è stato generato da bot malevoli. Si tratta di software automatizzati che svolgono attività indesiderate, come rubare informazioni sui prezzi o sulla disponibilità dei siti web. La finalità è condurre attività dannose, come l'acquisizione di account o le frodi alle carte di credito.

I bot non sono necessariamente cattivi. Sono una naturale evoluzione della connessione di computer e software a Internet. Rientrano nella categoria dei bot "buoni" i motori di ricerca e gli strumenti SEO, che le aziende hanno correttamente inserito nelle proprie whitelist. Sono strumenti utili. La percentuale di questi bot registrata nel rapporto "Bad Bot Report 2020: Bad Bots Strike Back" di Imperva è in netto calo. Nel 2019 è stata pari al 13,1% del traffico web, in calo del 25,1% rispetto al 2018.

I cosiddetti bot "cattivi" sono invece passati al 24,1% nel 2019, con un +18,1% rispetto all'anno precedente. L'incremento è dovuto al fatto che la trasformazione digitale e l'economia basata sui dati ha incentivato l'uso dei bot perché sono sempre più redditizi.
Che cosa fanno, all'atto pratico, i bot cattivi? Poniamo l'esempio di una compagnia aerea. Sul suo sito deve necessariamente fornire informazioni sui voli e sui prezzi ai clienti. Un concorrente, usando i bot, può collezionare velocemente tutte le informazioni e modulare di conseguenza la propria offerta. Lo stesso problema si presenta per i siti di ecommerce e molti altri.

La conseguenza diretta è un calo dell'efficienza dell'attività via Internet. I siti presi di mira registrano bassi tassi di conversione, vedono le loro offerte replicate sul siti concorrenti e registrano un incremento degli accessi non riusciti. Un altro grosso problema dato da questo tipo di bot è il riempimento delle credenziali per cercare di forzare l'accesso agli account. Entrambi i problemi di solito si presentano insieme.

Per questo motivo, la maggior parte della aziende attive su Internet ha creato delle whitelist in cui sono inseriti i bot consentiti. Servono per cercare di tenere alla larga quelli cattivi, ma non è semplice. Molti, infatti, sono bot semplici, con traffico proveniente da un singolo indirizzo IP, per far credere che il loro traffico sia legittimo.
I robot più complessi utilizzano software di emulazione del browser, come Selenium, in modo da "mascherarsi" da visitatori legittimi. Selenium è un progetto open source che viene comunemente utilizzato per testare le vulnerabilità dei siti Web. I bot più sofisticati "muovono il mouse" per imitare il comportamento umano. 

Quanto alle statistiche, oltre il 55% dei bot cattivi ha impersonato il browser Chrome di Google. Il settore più colpito è quello finanziario, seguito dall'education e dai servizi IT. La maggiore quota di traffico proveniente da bot buoni è invece registrata dalle aziende di dati online e di servizi alle imprese. Quasi il 46% del traffico indesiderato di bot proviene dagli Stati Uniti.

Visualizza la versione completa sul sito

Informativa
Questo sito o gli strumenti terzi da questo utilizzati si avvalgono di cookie necessari al funzionamento ed utili alle finalità illustrate nella cookie policy. Se vuoi saperne di più o negare il consenso a tutti o ad alcuni cookie, consulta la cookie policy. Chiudendo questo banner, acconsenti all’uso dei cookie.