Per migliorare realmente le posizioni di sicurezza dei dati, le organizzazioni devono essere attente e orientate a capire dove risiedono i dati sensibili, chi vi ha accesso e come vengono utilizzati. La sfida che si presenta è che gli ambienti aziendali sono così vasti e frammentati che stabilire le priorità e capire da dove iniziare richiede tempo.
Le diverse strategie da adottare per sviluppare questa comprensione includono la scoperta e il campionamento dei dati e la modellazione del rischio per aiutare a valutare il valore dei dati nell’ecosistema dei dati.
Individuazione dei dati e modellazione del rischio
Non tutti i dati sensibili rappresentano lo stesso rischio di esposizione per l’organizzazione. La data discovery valuta i dati per scoprire quali sono sensibili, ridondanti, obsoleti o banali. Evidenziare i dati sensibili aiuta a indirizzare le applicazioni a rischio e le posizioni in cui i dati sono archiviati per la bonifica e la protezione. Un programma di igiene dei dati può aiutare a mitigare i rischi legati alla conservazione di dati di scarso o nullo valore. L’automazione del rilevamento dei dati può anche aiutare a quantificare il rischio di esposizione e a stabilire le priorità.
Le organizzazioni non hanno il tempo o il budget per analizzare ogni kilobyte di dati. Le tecniche di campionamento intelligente possono identificare le aree ad alta saturazione contenenti dati sensibili, dando ai team di sicurezza e conformità la visibilità di dove iniziare. Le scansioni dei metadati non sono sufficienti per evidenziare i rischi e l’analisi basata sulle espressioni regolari produce troppi falsi positivi e una comprensione insufficiente del contesto dei dati. Le tecniche di campionamento intelligente dei dati aiutano a dare priorità ai rischi in base al loro potenziale impatto e al livello di sensibilità come “punti caldi”, analizzando solo una piccola percentuale di dati. Queste tecniche consentono alle organizzazioni di allocare le risorse, spendere in modo efficace e affrontare i problemi più critici.
Esistono diversi modi per modellare il rischio legato ai dati aziendali.
Il risk scoring può aiutare un’organizzazione a valutare la rischiosità di un singolo record o file che contiene una o più entità di dati sensibili. Può dare priorità alle attività di rilevamento dei dati per la pulizia, la valutazione del rischio o le attività di protezione dei dati. I punteggi di rischio, tuttavia, possono essere falsati da falsi positivi e da pratiche di implementazione inadeguate.
Come quantificare l’esposizione al rischio finanziario
Nella valutazione del costo di una violazione entrano in gioco molti fattori, tra cui i costi associati alla perdita di dati, al rilevamento e all’escalation, alla risposta successiva alla violazione, alla notifica e ai costi aziendali persi.
Secondo il Cost of Data Breach Study 2023 di IBM, il costo medio di una violazione è di 4,45 milioni di dollari e di questi: Il 36% delle spese è destinato al rilevamento della violazione e all’escalation, il 27% dei costi si basa sulla risposta post-violazione, l’8% dei costi riguarda la notifica della violazione e il 29% dei costi può essere associato alla perdita di attività.
Rappresentare il potenziale di perdita finanziaria basandosi solo sul numero di record persi è probabilmente troppo semplice per essere significativo. I dati attuali dimostrano che la rappresentazione della perdita su una linea lineare sottostima il costo delle violazioni più piccole e di conseguenza sovrastima il costo delle violazioni più grandi. Lo studio 2022 Information Risk Insights Study del Cytenia Institute utilizza un modello che facilita la visualizzazione dei dati sulle violazioni, l’analisi delle tendenze e la rappresentazione accurata delle perdite finanziarie. Lo studio Cytenia fornisce anche stime intersettoriali sulle dimensioni, la frequenza e la probabilità degli eventi di violazione. Lo studio utilizza una scala log-normale per rappresentare la probabilità e le implicazioni finanziarie di una violazione. Questo modello offre una migliore visibilità rispetto a un modello lineare che perde l’ampiezza dell’estremo superiore e rappresenta male le perdite probabili effettive.
Interpretare l’esposizione al rischio finanziario
Lo studio IBM fa un buon lavoro nel valutare il valore dei record persi e persino la ripartizione dei centri di costo associati a una violazione dei dati. Nello studio 2023 sono stati fatti passi avanti anche per quanto riguarda le violazioni nei vari settori e nelle varie regioni geografiche, ma il costo medio di una violazione è ancora delineato su una linea lineare. Tuttavia, i Chief Security Information Officer e i dirigenti di livello C hanno ancora bisogno di maggiori approfondimenti per valutare l’esposizione finanziaria dei dati che elaborano, utilizzano e gestiscono.
La probabilità e la frequenza di una violazione dei dati sono aumentate notevolmente dal 2012: alcuni settori presentano anche un numero sproporzionato di eventi di violazione. Ad esempio, secondo Cytenia, i settori della sanità e dei servizi finanziari registrano un numero di eventi di violazione 76 volte superiore a quello dei corrispondenti settori minerario e agricolo.
Gestire il rischio dei dati
Mitigare il rischio e rimediare ai dati esposti durante le fasi di scoperta dei dati è essenziale per ridurre il panorama delle minacce, i costi operativi e l’esposizione al rischio finanziario, riducendo al contempo l’impatto di un evento di violazione.
È possibile identificare almeno 3 attività fondamentali irrinunciabili.
La prima è di identificare e classificare i dati e le fonti. Per prima cosa, è necessario agire oggi stesso per capire dove si trovano i dati sensibili e dare priorità alle attività di bonifica dalle minacce in base alla tolleranza al rischio. Migliorando la visibilità dei dati, si aumenta la capacità di rispondere agli eventi di violazione, di dare priorità alla bonifica dei dati e di prendere decisioni migliori e informate che possono favorire l’innovazione e la crescita. Sfruttate queste informazioni con soluzioni di rilevamento che aiutano a semplificare la protezione dei dati, a preservare la privacy e a garantire la conformità. Inoltre, gli approcci proattivi alla scoperta e alla classificazione dei dati possono aiutare ad adattarsi alle nuove minacce alla cybersecurity e ad aumentare e semplificare le valutazioni periodiche della sicurezza.
La seconda è agire sui dati legacy. Se scoprite dati che non hanno più valore per l’azienda, che hanno raggiunto il periodo di conservazione richiesto o che sono duplicati, è il momento di occuparsene. Esaminate le informazioni con i responsabili aziendali, cancellate ciò che non ha valore per l’azienda e archiviate i dati sensibili in un deposito a lungo termine, in modo che possano essere protetti e gestiti in modo più efficace nel tempo. Questi approcci riducono i costi operativi e di gestione e diminuiscono il panorama delle minacce di violazione.
Infine, proteggere i dati in uso. I dati possono essere vulnerabili agli attacchi durante l’elaborazione o l’accesso alle applicazioni. Nell’ambito del processo di post-riscoperta, esistono alcune tecniche valide per supportare le pratiche di sicurezza Zero Trust. Crittografate e tokenizzate i dati utilizzando la crittografia con conservazione del formato (FPE), assicurando che la protezione segua i dati in modo persistente (nelle applicazioni e nei database principali), prendete in considerazione l’utilizzo di ambienti sicuri e isolati per l’elaborazione dei dati (ad esempio, enclavi sicure), implementate controlli di accesso rigorosi applicando modelli di minimo privilegio e de-identificate i dati sensibili utilizzati nelle vostre pipeline di analisi e intelligenza artificiale per costruire una maggiore tolleranza al rischio e resilienza.