▾ G11 Media Network: | ChannelCity | ImpresaCity | SecurityOpenLab | GreenCity | Italian Channel Awards | Italian Project Awards | ...

Sicurezza informatica migliore con l'analisi del traffico dati globale

MIT: l'analisi globale del traffico dati in un determinato periodo può aiutare a migliorare la sicurezza informatica e prevenire gli attacchi.

Tecnologie/Scenari
La sicurezza informatica potrebbe passare per un cambio della progettazione dell'infrastruttura e la modellizzazione del traffico web. È questa l'idea del Massachusetts Institute of Technology che potrebbe cambiare la politica di Internet. I ricercatori del MIT hanno sviluppato un modello che fotografa l'aspetto del traffico web in tutto il mondo, in un determinato periodo.

L'utilità di un approccio di questo tipo è presto detta: gli attacchi informatici si muovono con provenienza e una destinazione specifiche. Variano in funzione del periodo, del tipo di attacco e di altri fattori. Analizzare solo le reti locali non permette un'efficace prevenzione. Occorre avere una visione del traffico su vasta scala per identificare e prevenire le interruzioni e difendersi dagli attacchi informatici. Partendo da modello tale si potrebbero progettare anche infrastrutture di calcolo più efficienti.

cyber attackPer ottenere i dati necessari, i ricercatori hanno usato il più grande set di dati sul traffico Internet disponibile. Comprende 50 miliardi di pacchetti di dati scambiati in diverse località in tutto il mondo, per diversi anni. I dati così ottenuti sono stati dati in pasto a reti neurali che operano attraverso 10.000 processori del MIT SuperCloud. Si tratta di un sistema che combina risorse di elaborazione come il MIT Lincoln Laboratory.

Il modello cattura le relazioni fra tutti i collegamenti presenti nel set di dati. Si va dai ping a grandi poli come Google e Facebook, fino a collegamenti molto brevi. Il modello accetta qualsiasi set di dati, e restituisce misurazioni statistiche su come tutte le connessioni nella rete si influenzano a vicenda.

È un patrimonio di dati che può essere usato per fare approfondimenti sulla condivisione peer-to-peer di file, su indirizzi IP malevoli e comportamenti di spamming. Può inoltre rilevare la distribuzione di attacchi indirizzati verso settori critici. Inoltre, mette in risalto colli di bottiglia nel traffico, permettendo di redistribuire meglio le risorse di elaborazione.

La curiosità è che l'intenzione di partenza dei ricercatori non era l'analisi del traffico di rete. I ricercatori volevano sviluppare nuove tecniche che potessero essere utilizzate nel SuperCloud del MIT per elaborare enormi matrici di dati. Il traffico Internet è stato il test perfetto. Una volta analizzati i dati se n'è compreso il grande potenziale.

La differenza è epocale rispetto ai modelli tradizionali di analisi del traffico. Questi ultimi analizzano solo piccoli campioni di pacchetti di dati scambiati tra fonti e destinazioni limitati. Applicando il nuovo modello l'analisi è globale e comprende nodi che variano per dimensioni e posizione. Ci sono i cosiddetti supernodi di grandi dimensioni, come Google o Facebook. I nodi foglia, che si estendono dal supernodo e hanno connessioni multiple tra loro e il supernodo. Vi sono poi nodi e collegamenti isolati, che si collegano tra loro solo raramente.

4341307121 bb39e49c4e bIl nuovo modello fotografa tutto. Prima di poter addestrare il modello è stato necessario elaborare i dati in modo uniforme. Per farlo è stato usato un software già esistente, chiamato Dynamic Distributed Dimensional Data Mode (D4M). Una volta suddivisi i dati in unità di circa 100.000 pacchetti, sono stati dati in pasto ai 10.000 processori SuperCloud del MIT. Ciò ha generato matrici compatte, composte da miliardi di righe e colonne di interazioni tra fonti e destinazioni.

A questo punto è entrata in gioco la rete neurale, indispensabile per elaborare le matrici. I modelli sono prima stati adattati alla totalità dei dati, quindi è stata creata una distribuzione di probabilità di modelli potenzialmente precisi. Una tecnica di correzione degli errori ha perfezionato ulteriormente i parametri di ciascun modello per acquisire il maggior numero possibile di dati. Alla fine, la rete neurale ha generato un modello semplice e funzionale.

I ricercatori sono ora al lavoro con la comunità scientifica per trovare ulteriori applicazioni per il modello. Gli esperti, ad esempio, potrebbero esaminare il significato dei collegamenti isolati che sono rari, ma che sembrano influenzare il traffico web nei nodi principali. Lo stesso modello potrebbe trovare applicazioni concrete anche nell'analisi di reti biologiche e sociali.
Se questo articolo ti è piaciuto e vuoi rimanere sempre informato con le notizie di SecurityOpenLab.it iscriviti alla nostra Newsletter gratuita.
Rimani sempre aggiornato, seguici su Google News! Seguici

Notizie correlate

Iscriviti alla nostra newsletter

Soluzioni B2B per il Mercato delle Imprese e per la Pubblica Amministrazione

Iscriviti alla newsletter