Torna alla HomePage

Speciale Backup e Resilienza 2025: come cambia la protezione dei dati tra nuove minacce e nuove regole

Il presidio di resilienza per eccellenza è diventato ormai l’obiettivo primario degli attaccanti. Anche in considerazione delle numerose opzioni cloud, come deve evolvere di conseguenza la protezione del dato e quali sono le migliori strategie per aggirare le tattiche e le tecniche dei cyber criminali.

Autore: Redazione SecurityOpenLab

Lo scenario della protezione dei dati è in piena trasformazione. Negli ultimi anni il backup è passato dall’essere una semplice misura tecnica al ruolo di pilastro della resilienza operativa; tuttavia, questa centralità lo ha reso anche uno dei bersagli principali dei cybercriminali. È noto che oggi gli attacchi non puntano più solo ai dati di produzione: l’obiettivo è spesso neutralizzare anche le copie di sicurezza, per impedire qualsiasi chance di ripristino in modo da massimizzare la pressione sulle vittime a cui è chiesto il pagamento del riscatto.

Questa evoluzione è particolarmente evidente negli ambienti multi-cloud, dove la frammentazione delle infrastrutture e la complessità delle configurazioni amplificano la superficie di attacco. Gli attaccanti sfruttano vulnerabilità come credenziali deboli, configurazioni errate, esposizioni accidentali di servizi su reti pubbliche e la mancanza di segmentazione della rete. Gli ambienti distribuiti, tipici delle architetture moderne, aumentano il rischio che errori di configurazione o la mancata applicazione di policy di sicurezza avanzate rendano accessibili i backup anche dall’esterno, tramite protocolli diffusi.

Come spiegano i vendor che abbiamo interpellato per questo Speciale, la protezione dei dati aziendali richiede oggi una strategia integrata e dinamica, che tenga conto dell’evoluzione delle minacce, della complessità degli ambienti IT e delle nuove normative. Il backup è da considerare come l’ultima linea di difesa, che può fare la differenza tra un incidente gestito e una crisi irreversibile. Ma, per essere efficace e affidabile, dev’essere verificato, testato a cadenza regolare e protetto con la massima attenzione.

Gli errori strategici

Le strategie tradizionali di backup, basate su copie periodiche spesso non isolate e prive di meccanismi di immutabilità, sono ormai insufficienti. Come accennato sopra, i gruppi ransomware sono ormai in grado di compromettere sia i dati primari sia le copie di backup, soprattutto se queste non sono protette da cifratura, autenticazione forte e isolamento fisico o logico. L’assenza di backup immutabili, la mancanza di monitoraggio continuo e la carenza di visibilità sui comportamenti anomali sono tra le vulnerabilità più rilevanti emerse nell’ultimo anno.

Un altro errore ricorrente indicato dagli esperti è considerare il backup come un elemento isolato, trascurando la protezione dell’intero sistema informatico e delle infrastrutture correlate. In molti casi, infatti, il backup non viene ancora integrato nella strategia di sicurezza, ma trattato come un semplice strumento tecnico, esponendolo così a rischi crescenti. La protezione dei dati, invece, deve essere vista come parte integrante della cyber resilience, non solo per garantire la disponibilità, ma anche per tutelare la continuità operativa, la fiducia degli utenti e la conformità alle nuove normative, come la direttiva NIS2.

Una buona strategia

Il nuovo scenario normativo, ricordiamo, impone requisiti sempre più stringenti in termini di gestione e protezione dei dati, fra cui il backup come misura obbligatoria. Inoltre, ci sono standard come il GDPR e le best practice internazionali che richiedono l’adozione di copie multiple, la cifratura dei dati e la capacità di ripristino rapido e sicuro. In questo contesto, la protezione dei backup non può più basarsi solo sulla regola del 3-2-1, ma deve evolvere verso modelli che prevedano backup immutabili, air-gapped e monitorati costantemente, con funzionalità avanzate di rilevamento delle minacce e risposta automatizzata.

Le soluzioni più efficaci adottano oggi un approccio multilivello: backup isolati e cifrati, autenticazione multifattore, segmentazione della rete e monitoraggio continuo dei permessi e delle attività. L’intelligenza artificiale gioca un ruolo crescente, grazie al fatto che consente di identificare comportamenti anomali e segnalare tempestivamente compromissioni prima che i dati vengano ripristinati. L’automazione dei processi di backup riduce il rischio di errori umani, mentre il test periodico delle procedure di ripristino assicura che, in caso di necessità, il recupero sia realmente possibile e veloce.

Un altro aspetto critico è la gestione degli ambienti di ripristino: spesso le aziende si accorgono solo dopo un incidente che l’infrastruttura necessaria per recuperare i dati non è disponibile o è anch’essa compromessa. L’approccio ideale prevede quindi la predisposizione di ambienti sicuri e pronti all’uso, nonché la simulazione regolare di scenari di disaster recovery per garantire la reale efficacia delle strategie adottate.

Torna alla HomePage