▾ G11 Media: | ChannelCity | ImpresaCity | SecurityOpenLab | Italian Channel Awards | Italian Project Awards | Italian Security Awards | ...

Deepfake e identità sintetiche: nuove sfide per la sicurezza IT

I deepfake facilitano la creazione di identità digitali false, aumentando i rischi di infiltrazione nelle aziende e complicando i processi di selezione.

Tecnologie/Scenari

La crescente sofisticazione delle tecnologie di Intelligenza Artificiale sta trasformando i deepfake da curiosità tecnica a minaccia concreta e subdola per la cybersecurity. L’argomento è ben noto: gli algoritmi di GenAI sono in grado di manipolare contenuti audio e video fino a ottenere risultati abbastanza credibili da minare la fiducia nei processi di autenticazione, nelle comunicazioni e persino nei sistemi di selezione del personale.

Secondo dati recenti riportati dal World Economic Forum, il 63% delle organizzazioni ha subìto almeno un attacco basato su identità sintetiche, con perdite economiche che a livello globale hanno già superato i 2,6 miliardi di dollari. In questo scenario, una ricerca pubblicata dalla Unit 42 di Palo Alto Networks offre uno spaccato interessante su come gruppi di minaccia nordcoreani stiano sfruttando i deepfake per infiltrarsi nelle supply chain IT globali, approfittando della diffusione del lavoro da remoto e dell’automazione nei processi di recruiting.

L’impatto dei deepfake, tuttavia, va ben oltre la semplice dimensione tecnica: la capacità di generare identità sintetiche credibili impone alle aziende un ripensamento profondo dei processi di selezione e gestione del personale. L’infiltrazione di personale malevolo in ruoli IT strategici, resa possibile proprio dall’uso di deepfake, può compromettere l’intera catena di fornitura tecnologica, con potenziali ripercussioni sulla sicurezza nazionale. In un contesto in cui la fiducia digitale è sempre più fragile, la capacità di riconoscere e neutralizzare i deepfake rappresenta una delle sfide più urgenti e complesse per il settore della cybersecurity.

Per rispondere a questa minaccia, le aziende sono chiamate a sviluppare una nuova cultura della verifica basata su controlli incrociati, verifiche biometriche dinamiche e analisi comportamentale continua anche dopo l’assunzione. L’adozione di sistemi di intelligenza artificiale per il rilevamento di anomalie multimodali diventa cruciale, così come la condivisione tempestiva degli indicatori di compromissione tra partner di settore e autorità competenti.

Come nasce un deepfake

L’indagine condotta dal team di Palo Alto Networks si concentra sulla fattibilità tecnica della creazione di identità sintetiche, dimostrando come oggi sia possibile, anche per un utente privo di esperienza specifica, generare un deepfake convincente in meno di un’ora e mezza. L’esperimento descritto nel report mostra che, utilizzando hardware di fascia consumer come per esempio una scheda grafica GTX 3070 acquistata a fine 2020, e facendo affidamento su risorse open source facilmente reperibili online, è possibile costruire una falsa identità digitale in circa 70 minuti.

Il processo parte dalla generazione di immagini facciali tramite piattaforme come thispersonnotexist[.]org, prosegue con il face-swapping attuato con software open-source e si conclude con la creazione di un feed video virtuale che consente di eludere i controlli delle principali piattaforme di videoconferenza. Il risultato è un’identità sintetica sufficientemente credibile da superare i primi colloqui tecnici, ulteriormente migliorabile con minimi investimenti in hardware più potente o con una conoscenza più approfondita delle tecniche di manipolazione.

Il report sottolinea come questo scenario non è affatto teorico: sono già stati documentati casi reali, come quello riportato da The Pragmatic Engineer, in cui aziende polacche sono state ingannate da due candidati deepfake gestiti dallo stesso operatore. Tra il primo e il secondo colloquio, lo stesso threat actor aveva affinato le proprie capacità, dimostrando la rapidità con cui queste tecniche possono evolvere e diventare sempre più difficili da individuare.

Le vulnerabilità dei deepfake in real-time

Dal punto di vista tecnico, il report di Palo Alto Networks individua quattro principali vulnerabilità nei sistemi di deepfake real-time, che rappresentano al momento i punti deboli che si possono sfruttare per il rilevamento. La prima riguarda l’inconsistenza temporale: movimenti rapidi della testa possono generare artefatti visivi dovuti a un tracking imperfetto dei landmark facciali. La seconda criticità è legata alla gestione delle occlusioni: se il candidato porta una mano o un oggetto davanti al volto, il sistema di ricostruzione fatica a mantenere la coerenza dell’immagine sintetica. Un ulteriore elemento di debolezza è rappresentato dall’adattamento all’illuminazione: variazioni improvvise nella luce ambientale possono mettere in crisi il rendering del volto generato. Infine, la sincronizzazione audio-video non è ancora perfetta: ci sono dei minimi ritardi tra il movimento labiale e i fonemi pronunciati che possono diventare evidenti in una osservazione prolungata.Nonostante queste limitazioni, il report avverte che il progresso degli algoritmi generativi sta rapidamente riducendo la visibilità dei difetti evidenziati.

Strategie di mitigazione: HR e cybersecurity alleate

Per contrastare la minaccia rappresentata dai deepfake, Unit 42 propone un approccio integrato che coinvolge sia le risorse umane sia i team di cybersecurity. Dal lato delle risorse umane, è fondamentale implementare verifiche documentali multilivello mediante strumenti forensi automatizzati capaci di individuare manipolazioni nei documenti di identità e nelle immagini fornite dai candidati. I recruiter dovrebbero essere formati per riconoscere segnali sospetti, come movimenti oculari innaturali o micro-scatti nel feed video. È inoltre consigliato introdurre prove di movimento durante i colloqui, chiedendo per esempio ai candidati di compiere gesti casuali con le mani vicino al volto o di cambiare rapidamente l’angolo di osservazione.

Dal punto di vista della security è importante invece adottare controlli geolocalizzati sugli indirizzi IP utilizzati nella fase di candidatura, bloccando l’accesso da reti TOR o VPN sospette e verificando la provenienza dei numeri telefonici per identificare eventuali numeri VoIP. Una volta assunti, i nuovi dipendenti dovrebbero essere sottoposti a un monitoraggio attento dei pattern di accesso alla rete aziendale e delle attività di trasferimento dati, per individuare tempestivamente comportamenti anomali che possano suggerire la presenza di un insider malevolo.

Implicazioni per le policy aziendali

Il report di Palo Alto Networks sottolinea la necessità di sviluppare policy aziendali specifiche per la gestione delle identità sintetiche. Tra le raccomandazioni principali vi è la conservazione delle evidenze in caso di sospetto deepfake, la limitazione degli accessi ai sistemi critici per i nuovi assunti fino al completamento di verifiche aggiuntive, e la condivisione degli indicatori tecnici di compromissione con i partner di settore e le autorità competenti. Solo attraverso un approccio strutturato e multilivello è possibile mitigare efficacemente i rischi associati a questa nuova frontiera della minaccia cyber.

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato
Iscriviti alla nostra Newsletter Gratuita. Iscriviti
Rimani sempre aggiornato, seguici su Google News! Seguici

Notizie correlate

Iscriviti alla nostra newsletter

Soluzioni B2B per il Mercato delle Imprese e per la Pubblica Amministrazione

Iscriviti alla newsletter