spot_imgspot_img

IN EVIDENZA

COME PROTEGGERE I DATI SANITARI - Martedì 20 febbraio 2024 11.00 - 11.45 CET

Venite a scoprire le caratteristiche di Voltage Fusion di OpenText, la soluzione in grado di: • scoprire dove si trovano i dati strutturati e non sensibili e sanitari • valutarne il rischio e l ‘esposizione • applicare regole di protezione che ne rendano anonimo il contenuto Webinar: “

Title image box

Add an Introductory Description to make your audience curious by simply setting an Excerpt on this section

Quantificare il rischio dei dati e dell’esposizione finanziaria

Per migliorare realmente le posizioni di sicurezza dei dati, le organizzazioni devono essere attente e orientate a capire dove risiedono i dati sensibili, chi vi ha accesso e come vengono utilizzati. La sfida che si presenta è che gli ambienti aziendali sono così vasti e frammentati che stabilire le priorità e capire da dove iniziare richiede tempo.

Le diverse strategie da adottare per sviluppare questa comprensione includono la scoperta e il campionamento dei dati e la modellazione del rischio per aiutare a valutare il valore dei dati nell’ecosistema dei dati.

Individuazione dei dati e modellazione del rischio

Non tutti i dati sensibili rappresentano lo stesso rischio di esposizione per l’organizzazione. La data discovery valuta i dati per scoprire quali sono sensibili, ridondanti, obsoleti o banali. Evidenziare i dati sensibili aiuta a indirizzare le applicazioni a rischio e le posizioni in cui i dati sono archiviati per la bonifica e la protezione. Un programma di igiene dei dati può aiutare a mitigare i rischi legati alla conservazione di dati di scarso o nullo valore. L’automazione del rilevamento dei dati può anche aiutare a quantificare il rischio di esposizione e a stabilire le priorità.

Le organizzazioni non hanno il tempo o il budget per analizzare ogni kilobyte di dati. Le tecniche di campionamento intelligente possono identificare le aree ad alta saturazione contenenti dati sensibili, dando ai team di sicurezza e conformità la visibilità di dove iniziare. Le scansioni dei metadati non sono sufficienti per evidenziare i rischi e l’analisi basata sulle espressioni regolari produce troppi falsi positivi e una comprensione insufficiente del contesto dei dati. Le tecniche di campionamento intelligente dei dati aiutano a dare priorità ai rischi in base al loro potenziale impatto e al livello di sensibilità come “punti caldi”, analizzando solo una piccola percentuale di dati. Queste tecniche consentono alle organizzazioni di allocare le risorse, spendere in modo efficace e affrontare i problemi più critici.

Esistono diversi modi per modellare il rischio legato ai dati aziendali.

Il risk scoring può aiutare un’organizzazione a valutare la rischiosità di un singolo record o file che contiene una o più entità di dati sensibili. Può dare priorità alle attività di rilevamento dei dati per la pulizia, la valutazione del rischio o le attività di protezione dei dati. I punteggi di rischio, tuttavia, possono essere falsati da falsi positivi e da pratiche di implementazione inadeguate.

Come quantificare l’esposizione al rischio finanziario

Nella valutazione del costo di una violazione entrano in gioco molti fattori, tra cui i costi associati alla perdita di dati, al rilevamento e all’escalation, alla risposta successiva alla violazione, alla notifica e ai costi aziendali persi.

Secondo il Cost of Data Breach Study 2023 di IBM, il costo medio di una violazione è di 4,45 milioni di dollari e di questi: Il 36% delle spese è destinato al rilevamento della violazione e all’escalation, il 27% dei costi si basa sulla risposta post-violazione, l’8% dei costi riguarda la notifica della violazione e il 29% dei costi può essere associato alla perdita di attività.

Rappresentare il potenziale di perdita finanziaria basandosi solo sul numero di record persi è probabilmente troppo semplice per essere significativo. I dati attuali dimostrano che la rappresentazione della perdita su una linea lineare sottostima il costo delle violazioni più piccole e di conseguenza sovrastima il costo delle violazioni più grandi. Lo studio 2022 Information Risk Insights Study del Cytenia Institute utilizza un modello che facilita la visualizzazione dei dati sulle violazioni, l’analisi delle tendenze e la rappresentazione accurata delle perdite finanziarie. Lo studio Cytenia fornisce anche stime intersettoriali sulle dimensioni, la frequenza e la probabilità degli eventi di violazione. Lo studio utilizza una scala log-normale per rappresentare la probabilità e le implicazioni finanziarie di una violazione. Questo modello offre una migliore visibilità rispetto a un modello lineare che perde l’ampiezza dell’estremo superiore e rappresenta male le perdite probabili effettive.

Interpretare l’esposizione al rischio finanziario

Lo studio IBM fa un buon lavoro nel valutare il valore dei record persi e persino la ripartizione dei centri di costo associati a una violazione dei dati. Nello studio 2023 sono stati fatti passi avanti anche per quanto riguarda le violazioni nei vari settori e nelle varie regioni geografiche, ma il costo medio di una violazione è ancora delineato su una linea lineare. Tuttavia, i Chief Security Information Officer e i dirigenti di livello C hanno ancora bisogno di maggiori approfondimenti per valutare l’esposizione finanziaria dei dati che elaborano, utilizzano e gestiscono.

La probabilità e la frequenza di una violazione dei dati sono aumentate notevolmente dal 2012: alcuni settori presentano anche un numero sproporzionato di eventi di violazione. Ad esempio, secondo Cytenia, i settori della sanità e dei servizi finanziari registrano un numero di eventi di violazione 76 volte superiore a quello dei corrispondenti settori minerario e agricolo.

Gestire il rischio dei dati

Mitigare il rischio e rimediare ai dati esposti durante le fasi di scoperta dei dati è essenziale per ridurre il panorama delle minacce, i costi operativi e l’esposizione al rischio finanziario, riducendo al contempo l’impatto di un evento di violazione.

È possibile identificare almeno 3 attività fondamentali irrinunciabili.

La prima è di identificare e classificare i dati e le fonti. Per prima cosa, è necessario agire oggi stesso per capire dove si trovano i dati sensibili e dare priorità alle attività di bonifica dalle minacce in base alla tolleranza al rischio. Migliorando la visibilità dei dati, si aumenta la capacità di rispondere agli eventi di violazione, di dare priorità alla bonifica dei dati e di prendere decisioni migliori e informate che possono favorire l’innovazione e la crescita. Sfruttate queste informazioni con soluzioni di rilevamento che aiutano a semplificare la protezione dei dati, a preservare la privacy e a garantire la conformità. Inoltre, gli approcci proattivi alla scoperta e alla classificazione dei dati possono aiutare ad adattarsi alle nuove minacce alla cybersecurity e ad aumentare e semplificare le valutazioni periodiche della sicurezza.

La seconda è agire sui dati legacy. Se scoprite dati che non hanno più valore per l’azienda, che hanno raggiunto il periodo di conservazione richiesto o che sono duplicati, è il momento di occuparsene. Esaminate le informazioni con i responsabili aziendali, cancellate ciò che non ha valore per l’azienda e archiviate i dati sensibili in un deposito a lungo termine, in modo che possano essere protetti e gestiti in modo più efficace nel tempo. Questi approcci riducono i costi operativi e di gestione e diminuiscono il panorama delle minacce di violazione.

Infine, proteggere i dati in uso. I dati possono essere vulnerabili agli attacchi durante l’elaborazione o l’accesso alle applicazioni. Nell’ambito del processo di post-riscoperta, esistono alcune tecniche valide per supportare le pratiche di sicurezza Zero Trust. Crittografate e tokenizzate i dati utilizzando la crittografia con conservazione del formato (FPE), assicurando che la protezione segua i dati in modo persistente (nelle applicazioni e nei database principali), prendete in considerazione l’utilizzo di ambienti sicuri e isolati per l’elaborazione dei dati (ad esempio, enclavi sicure), implementate controlli di accesso rigorosi applicando modelli di minimo privilegio e de-identificate i dati sensibili utilizzati nelle vostre pipeline di analisi e intelligenza artificiale per costruire una maggiore tolleranza al rischio e resilienza.

NON FARTI SFUGGIRE LA PROMOZIONE

Clicca qui per scoprire l’offerta OpenText OpenSaaS: sottoscrivendo un contratto minimo di un anno, ottieni un’estensione di 90 giorni del tuo abbonamento OpenText Fortify on Demand.

LA DATA DISCOVERY ALIMENTA LA PROTEZIONE - Scopri in questo video perchè la conformità alla privacy, il green-IT e la riduzione dei rischi finanziari iniziano con la Data Discovery

WEBINAR

AI + UNSECURE DATA = FINANCIAL RISK - Giovedì 11 aprile 2024 - Ore 17.00 CEST - Cosa succede quando i dati sensibili si scontrano con la potenza dell'intelligenza artificiale? Come può la vostra azienda proteggersi da potenziali violazioni dei dati e garantire la sicurezza delle informazioni sensibili? Scoprite insieme a noi l'intersezione critica tra IA e dati sensibili, analizzando come identificare e misurare il rischio finanziario.

SCARICA IL WHITE PAPER

Scarica la tua copia di QUANTIFYING DATA RISK: VISUALIZING FINANCIAL EXPOSURE per comprendere come l'automazione del Data Discovery possa anche aiutare a quantificare il rischio e scopri perché le principali categorie di dati compromessi sono quelli personali di dipendenti e clienti

LA FORMICA E LA CICALA AFFRONTANO I DATI SENSIBILI DI CYBERLANDIA - Guarda in questo video l’approccio da formica e quella da cicala nella gestione dei dati sensibili

SCARICA IL REPORT

Scarica la tua copia di THE FORRESTER WAVE: DATA SECURITY PLATFORMS, Q1 2023 per un'analisi approfondita sugli ultimi progressi nelle piattaforme di sicurezza dei dati e per avere una valutazione accurata delle soluzioni presenti nel mercato.