Lo scenario delle minacce informatiche è vastissimo e in costante ampliamento. Tuttavia, una percentuale elevata dello sforzo collettivo di protezione da parte delle aziende ruota, oggi, attorno a tre temi specifici: gli attacchi ransomware, la sicurezza nel cloud, i nuovi rischi portati dall’intelligenza artificiale generativa. Una sorta di triangolo delle Bermuda della cybersecurity al cui interno soccombono le difese di molte aziende.
Ransomware: una minaccia che evolve per essere sempre più efficace
I dati degli analisti, per una volta, sono tutti concordi: il ransomware è la tipologia di attacco prevalente e rappresenta circa un quarto di tutti gli attacchi. In termini assoluti si parla di numeri grandissimi a cui fanno eco i costi analogamente pesantissimi estremamente ingenti legati a questo tipo di minaccia che, nel 2022, ha visto l’Italia conseguire lo scomodo primato di Paese più colpito d’Europa secondo i dati di Trend Micro Research.
Un altro elemento che rende il ransomware oneroso è che si tratta di una tipologia di attacco in costante evoluzione. Oggi il “ransom” è doppio o triplo, perché viene chiesto un riscatto anche per evitare di diffondere pubblicamente o mettere in vendita i dati che sono stati copiati ed esiste un terzo livello di estorsione verso i clienti e i partner delle aziende compromesse.
Il diffondersi incessante del ransomware è in gran parte dovuto al suo elevato rendimento economico, derivante da una notevole efficacia nell’eludere i meccanismi di difesa tradizionali. Troppe aziende, infatti, commettono l’errore di applicare alle minacce ransomware le stesse strategie di difesa utilizzate per altre tipologie di attacchi informatici. Per esempio, affrontare il ransomware con un approccio meramente reattivo, focalizzato sul semplice ripristino dei sistemi, è una tattica fallimentare. Una strategia di difesa efficace contro il ransomware deve essere, invece, innanzitutto proattiva e mirata alla prevenzione.
È noto, infatti, che il tempo che intercorre tra quando i sistemi di un’azienda vengono violati e l’istante in cui l’azienda ne acquisisce consapevolezza è molto lungo. Secondo il report “Cost of a data breach 2023” di Ponemon Institute il tempo medio per identificare una violazione dei dati è di 204 giorni a cui se ne aggiungono altri 73 per riuscire a contenerla. Questo dato sale a 328 giorni complessivi nel caso in cui il vettore d’attacco iniziale sia legato a credenziali sottratte o compromesse. Limitarsi a predisporre efficaci sistemi di ripristino del sistema a uno stato precedente al rilevamento significa, spesso, ripristinare un’immagine di sistema in cui la minaccia è già presente.
Considerando il numero elevatissimo di ransomware e il fatto che questo tipo di attacco è ormai a disposizione di chiunque nel dark web, dove lo si può acquistare come un semplice servizio gestito, l’approccio verso i ransomware non dovrebbe essere di pensare di non dovercisi mai confrontare ma, invece, di predisporre misure preventive in grado di bloccare in modo istantaneo e completamente automatizzato ogni evento sospetto e di garantire repository sempre sicuri e inaccessibili per i propri dati critici. Si tratta di un’attività che va predisposta quando tutto va bene e che invece, in molti casi, viene avviata dalle aziende dopo avere subito gli effetti devastanti di un ransomware.
Il cloud e i controllo dei dati, tra normative e rischi
Il cloud non è più una scelta ma un’esigenza tecnologica e strategica e stiamo assistendo, ora, all’ultimo step del processo evolutivo di migrazione che coinvolge anche le applicazioni critiche e i dati sensibili, comprensibilmente oggetto di maggiore preoccupazione.
Il tema della conformità normativa a regolamenti come il GDPR e il CCPA amplifica l’attenzione sulla protezione dei dati personali e alimenta la richiesta di strumenti e servizi specifici nei confronti dei cloud service provider oltre che di controllo sulla collocazione fisica dei dati.
Nel contempo, il concetto di sovranità nazionale in relazione al public cloud resta centrale nel dibattito, nonostante i grandi hyperscaler abbiano aperto delle “region” sul territorio italiano che, però, ancora oggi, possono essere soggette a obblighi normativi statunitensi. Il dubbio è che l’amministrazione centrale USA possa obbligarli a fornire dati ospitati sui propri sistemi per ragioni di interesse nazionale (per esempio di anti terrorismo).
Una serie di nuovi rischi è legata alle nuove tecnologie e strumenti che fanno del cloud una piattaforma sempre più efficace per ogni attività aziendale. Tra questi vi sono i container, sempre più diffusi, con l’esigenza di proteggere le applicazioni da attacchi specifici quali quelli denominati “container breakout”.
Per sfruttare al meglio il cloud e le applicazioni che vi girano sopra, il mercato si è definitivamente orientato verso nuovi modelli per lo sviluppo del software come DevOps, basato sull’interazione tra team e i dettami del Continuous Integration/Continuous Deployment (CI/CD). L’esigenza di maggiore sicurezza porta ora verso un’evoluzione chiamata SecDevOps che prevede che i requisiti di sicurezza siano integrati nel processo di sviluppo fin dall’inizio. I modelli DevSecOps alimentano, quindi, un modello di sicurezza “cloud-native” in cui tutti i controlli di sicurezza risultano integrati nell’architettura delle applicazioni che nascono per operare nel cloud, al fine di inserirli nell’intero ciclo di vita dell’applicazione, dalla fase di sviluppo, alla messa in produzione fino al fine vita.
La sicurezza del cloud deve fronteggiare anche le nuove sfide dei modelli multicloud che rappresentano una sfida nel predisporre soluzioni egualmente efficaci in un contesto multipiattaforma.
I nuovi rischi dell’AI generativa a cavallo tra un’utopia e un futuro distopico
L’AI generativa è una forza potente che offre immense opportunità che spaziano dall’innovazione tecnologica, alla sanità, alla ricerca di base, al miglioramenti dei servizi e dell’esperienza utente.
A livello aziendale è possibile utilizzare l’AI generativa, per esempio, per automatizzare ogni compito ricorsivo e non c’è ragione perché questa rivoluzione venga rallentata o ignorata come qualcuno in passato ha pensato di poter fare con Internet.
A supporto della sicurezza è possibile usarla per identificare anomalie nei comportamenti di utenti e sistemi così come per ridurre i tempi necessari a leggere testi, documenti e white paper utilizzando i riassunti eccezionalmente corretti e affidabili di lunghi documenti che l’AI generativa permette già oggi di ottenere, in qualsiasi lingua.
L’altra faccia della medaglia presenta una serie di rischi e nuove sfide e per i manager aziendali e i responsabili della tecnologia, il compito non è solo quello di sfruttare questa rivoluzione al meglio, ma anche di navigare con prudenza attraverso le sue complessità, bilanciando innovazione e responsabilità.
Tra le opportunità che fanno certamente più gola a tutti vi sono quelle di sfruttare l’AI per realizzare profitti e non ci si deve quindi stupire se il cybercrimine, l’organizzazione per eccellenza che trae ragione di essere nella ricerca del profitto, abbia messo gli occhi sull’AI.
Per esempio, l’AI è in grado di scoprire vulnerabilità completamente ignote all’interno di software e processi. Inoltre mette a disposizione di tutti un superesperto in sicurezza per pensare nuovi progetti criminali. Attacchi ransomware o campagne di phishing? Più efficaci perché generati da AI. Fake news? Più convincenti grazie a immagini, voci e video manipolati con intelligenza artificiale. Vulnerabilità zero day? In aumento perché individuate da hacker e da AI. Truffe commerciali? Più efficaci grazie ai messaggi abilmente ritagliati sulle preferenze e le esperienze personali.
Ciò che si preannuncia ora è una rivisitazione della battaglia in atto da tempo tra esperti e tecnologie che puntano alla protezione delle aziende e cybercriminali che cercano di violarle. Il tutto a un livello di sofisticazione e a un ritmo ancora più elevato di quello che, fino a poco tempo, fa si pensava non più superabile.
Mentre i vendor affilano le armi tecnologiche, commissioni e organizzazioni governative si interrogano su questi rischi e puntano a stabilire vincoli etici. Purtroppo l’esperienza mostra che il confine tra illecito e lecito, nell’online, è sottile e difficilmente dimostrabile e punibile.
Insomma, come ogni rivoluzione tecnologica anche l’AI porta con sé pro e contro e, in un futuro più distante, i rischi per la sicurezza come i vantaggi appariranno in modo più evidente. Un essere umano ha un Quoziente Intellettivo medio di 100. C’è da chiedersi cosa potrà fare se avrà a disposizione un’intelligenza artificiale con un QI pari a 1 miliardo. Uno scenario nel contempo eccitante e spaventoso.