La cybersecurity nell’era dell’IA secondo Kaspersky

Gli esperti di Kaspersky hanno evidenziato un impiego duplice dell'IA: da un lato, strumento di potenziamento per le strategie offensive dei cybercriminali, come osservato nel corso del 2023; dall'altro, alleato fondamentale nelle tecniche di difesa. Ecco l'evoluzione del panorama delle minacce legate all'IA in futuro secondo gli esperti della società.

In un’era segnata da un’accelerazione senza precedenti nel campo della tecnologia, il concetto di intelligenza artificiale (IA) ha conquistato un posto di rilievo nel dibattito globale. Al centro di questa discussione vi sono i Large Language Models (LLM), i quali, sebbene rappresentino un salto qualitativo nell’elaborazione linguistica, sollevano anche questioni urgenti in termini di sicurezza informatica. Gli esperti di Kaspersky hanno evidenziato un impiego duplice dell’IA: da un lato, strumento di potenziamento per le strategie offensive dei cybercriminali, come osservato nel corso del 2023; dall’altro, alleato fondamentale nelle tecniche di difesa. Il contrasto tra questi due utilizzi pone l’IA al centro di una partita cruciale per il futuro della sicurezza digitale.

Inoltre, gli esperti dell’azienda mostrano anche l’evoluzione del panorama delle minacce legate all’IA in futuro. Esploriamo qui di seguito le previsioni di Kaspersky.

Vulnerabilità più complesse

Con l’integrazione di LLM che seguono le istruzioni su un numero sempre maggiore di prodotti rivolti agli utenti finali, emergeranno nuove e complesse vulnerabilità nell’intersezione tra l’IA generativa probabilistica e le tecnologie deterministiche tradizionali, ampliando la superficie di attacco che i professionisti della sicurezza informatica devono proteggere. Ciò richiederà agli sviluppatori di studiare nuove misure di protezione, come ad esempio l’approvazione da parte dell’utente per le azioni avviate dagli agenti LLM.

Un assistente IA completo per gli esperti di cybersecurity

I red teamer e i ricercatori sfruttano l’IA generativa per realizzare strumenti innovativi di cybersecurity che potrebbero dare vita a un sistema di assistenza che utilizza i LLM o il machine learning (ML). Questo strumento potrebbe automatizzare le attività di red teaming, offrendo indicazioni basate sui comandi eseguiti in un ambiente pentesting.

Le reti neurali saranno sempre più usate per la creazione di immagini per le truffe

Il prossimo anno i criminali potrebbero migliorare le proprie tattiche utilizzando le reti neurali e sfruttando gli strumenti di intelligenza artificiale per creare contenuti fraudolenti più convincenti. Grazie alla possibilità di generare senza sforzo immagini e video convincenti, i criminali informatici rischiano di aggravare sempre più le minacce legate a frodi e truffe.

L’IA non sarà il driver di un cambiamento radicale nel panorama delle minacce nel 2024

Nonostante le tendenze descritte, gli esperti di Kaspersky rimangono scettici sul fatto che l’IA possa cambiare significativamente il panorama delle minacce in tempi brevi. Se da un lato i criminali informatici adottano l’IA generativa, lo stesso vale per gli addetti alla sicurezza informatica, che utilizzeranno gli stessi strumenti, o addirittura più avanzati, per verificare il miglioramento della sicurezza di software e reti, rendendo improbabile un’alterazione significativa del panorama degli attacchi.

Più iniziative di regolamentazione legate all’IA con il contributo del settore privato

Lo sviluppo tecnologico in rapida crescita diventa una questione di policy e di regolamentazione. Il numero di proposte di regolamentazione legate all’intelligenza artificiale è destinato ad aumentare. Gli attori privati, come le aziende tecnologiche, data la loro esperienza nello sviluppo e nell’utilizzo dell’intelligenza artificiale, possono fornire indicazioni preziose per le discussioni sulla regolamentazione in materia di IA sia a livello globale che nazionale.

Watermark per i contenuti prodotti con l’intelligenza artificiale

Per segnalare o identificare i contenuti generati dall’IA saranno necessarie più normative e policy per i provider, che continueranno a investire in tecnologie di rilevamento. Gli sviluppatori e i ricercatori, dal canto loro, contribuiranno ai metodi di watermarking dei media creati dall’intelligenza artificiale per facilitarne l’identificazione e la tracciabilità.

“L’intelligenza artificiale nella sicurezza informatica è un’arma a doppio taglio. Le sue capacità di adattamento rafforzano le nostre difese, offrendo uno scudo protettivo contro le minacce in evoluzione. Tuttavia, lo stesso dinamismo comporta dei rischi, in quanto gli aggressori sfruttano l’intelligenza artificiale per creare attacchi sempre più sofisticati. Trovare il giusto equilibrio, assicurando un uso responsabile senza un’eccessiva condivisione dei dati sensibili, è fondamentale per garantire la sicurezza”, ha commentato Vladislav Tushkanov, Security Expert di Kaspersky.

LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.

LEGGI ANCHE

Gli ultimi articoli