Il futuro delle minacce informatiche

Kevin Reed, CISO di Acronis, ci guida attraverso le nuove tendenze nella cybersecurity, dall'Ai al quantum computing

Quali nuovi rischi introduce l’AI nella cybersecurity?

Al momento, non stiamo vedendo i cybercriminali sviluppare propri modelli di AI. Piuttosto, stanno sfruttando strumenti di AI già esistenti per creare malware. In sostanza, utilizzano l’AI come farebbe qualsiasi sviluppatore di software, generando prompt di GPT per aiutarli a scrivere software dannoso. L’AI non distingue tra lo sviluppo di malware e la creazione di software di crittografia legittimo, il che lo rende utile sia per attori malintenzionati che per scopi legittimi.

Quali sono le capacità dell’AI usate per le imprese legittime che possono essere sfruttate dal cybercrimine?

Attualmente, l’AI viene utilizzata in diversi modi che possono essere sfruttati dai cybercriminali. Viene usata per generare contenuti, il che può essere sfruttato dagli aggressori per creare campagne di social engineering più persuasive. Inoltre, l’AI viene utilizzata per scrivere software, il che significa che gli sviluppatori di malware possono utilizzarla per assistere nella creazione di codice dannoso. Infine, l’AI viene ampiamente utilizzata per l’analisi dei dati, e i cybercriminali potrebbero utilizzarla per analizzare grandi quantità di dati rubati e l’AI può aiutarli a individuare le informazioni più preziose all’interno di questi enormi dataset.

L’uso dell’AI per generare deepfake rappresenta un problema serio secondo lei?

I deepfake sono già una realtà, ma penso che il loro impatto diminuirà nel tempo man mano che le piattaforme svilupperanno meccanismi di rilevamento efficaci. Piattaforme come Google, X (precedentemente Twitter), Facebook e Instagram saranno alla fine in grado di bloccare la maggior parte, se non tutti, i deepfake. Diventerà molto difficile caricare un deepfake su TikTok, Instagram o YouTube senza che venga rilevato. Sarà un processo simile a quanto avvenuto con lo spam che in passato era un grosso problema ma poi è diventato gestibile grazie all’uso del machine learning. Alla fine sarà proprio l’AI a renderli difficili da sfruttare.

Cosa mi dice della sicurezza in ambienti cloud?

La sicurezza nel cloud è molto diversa da quella dei sistemi tradizionali on-premises, soprattutto con l’aumento degli ambienti multi-cloud. Il lato negativo delle applicazioni SaaS è che sono spesso esposte a Internet, rendendole vulnerabili se c’è una falla sfruttabile. A differenza dei software on-premises che spesso sono protetti da firewall, il software SaaS è accessibile a livello globale. Tuttavia, un vantaggio chiave è che quando le vulnerabilità vengono corrette dal fornitore, l’aggiornamento si applica immediatamente a tutti gli utenti non è necessario che i clienti installino nulla manualmente. Questo consente di costruire software migliori attraverso iterazioni rapide e può rendere i servizi cloud intrinsecamente più sicuri nel tempo.

Lo stesso ragionamento però porta a dire che nel caso degli MSP esiste il rischio che una violazione dei sistemi si diffonda contemporaneamente a tutti i clienti.

È un rischio che si può gestire. In Acronis, quando introduciamo una nuova funzionalità, utilizziamo un approccio di distribuzione graduale. Prima testiamo internamente, poi la distribuiamo progressivamente a piccoli gruppi di clienti, espandendoci gradualmente. Questo processo richiede circa 2-3 settimane, permettendoci di individuare eventuali problemi importanti prima di un rilascio completo. Questo approccio aiuta a prevenire problemi diffusi e può essere adottato da un MSP verso i suoi clienti.

Molti rischi derivano anche dagli errori umani, non necessariamente intenzionali. Come è possibile affrontarli efficacemente?

I rischi tecnologici vengono gestiti grazie all’innovazione, ma gli errori umani restano una sfida costante. L’industria della sicurezza si concentra principalmente sugli attacchi esterni e considera ancora l’errore umano un problema minore, il che riduce la priorità degli sforzi per affrontarlo. Pensiamo, invece, all’impatto che può avere, per esempio, un errore di configurazione in un sistema di gestione degli accessi. In Acronis affrontiamo questo problema adottando controlli rigorosi, come richiedere che una seconda persona verifichi sempre le modifiche importanti prima che vengano implementate.

La scenario globale di guerra avrà un impatto sulla cybersecurity?

Storicamente, le necessità militari hanno sempre guidato i progressi tecnologici. Le macchine di crittografia come Enigma sono state inizialmente sviluppate per i militari. Allo stesso modo, i britannici svilupparono Colossus, il primo computer programmabile, specificamente per decifrare la crittografia militare. Data questa storia, possiamo aspettarci che gli investimenti militari continuino a far progredire le tecnologie di cybersecurity.

Si comincia anche a parlare di rischi per la cybersecurity posti dal calcolo quantistico. Lei cosa ne pensa?

L’impatto del calcolo quantistico sulla cybersecurity è ancora molto lontano. È una sfida ingegneristica complessa e, sebbene possa eventualmente rompere i metodi di crittografia attuali come RSA, richiederà progressi significativi. Per RSA, ci sono già delle alternative in fase di sviluppo, ma per altri come Diffie-Hellman, mancano ancora le necessarie scoperte matematiche. Sviluppare un computer quantistico funzionante richiederà risorse finanziarie enormi e solo poche nazioni possono permettersi tali investimenti.

Qual è secondo lei la minaccia informatica attualmente più sottovalutata?

Un rischio crescente, che non è propriamente assimilabile a una minaccia, riguarda la legislazione mal concepita. I governi cercano di spingere le aziende a dare maggiore attenzione alla cybersecurity, il che è positivo. Tuttavia, stabilire per legge che alcuni membri del board debbano essere responsabili della cybersecurity e attribuire la responsabilità a livello personale, come avviene con la NIS2, potrebbe avere conseguenze indesiderate. Invece di incentivare un miglioramento reale della sicurezza, si rischia di punire gli individui senza risolvere i problemi di fondo.

LEGGI ANCHE

Gli ultimi articoli