spot_img

AI generativa: un’arma a doppio taglio per la sicurezza delle applicazioni

L’AI generativa (GenAI) rappresenta uno degli sviluppi tecnologici più dirompenti degli ultimi anni, capace di rivoluzionare il modo in cui le organizzazioni gestiscono la sicurezza delle loro applicazioni. Secondo le previsioni di IDC, entro il 2026 il 40% delle nuove applicazioni sarà “intelligente”, integrando componenti di AI per migliorare le esperienze utente e per creare nuovi casi d’uso (IDC FutureScape: Worldwide IT Industry 2024 Predictions). Fin dalla sua comparsa sulla scena pubblica alla fine del 2022, GenAI ha visto una crescita esponenziale: entro aprile 2024, il 17% delle organizzazioni aveva già introdotto applicazioni basate su GenAI in produzione, mentre un altro 38% era impegnato in investimenti significativi (Gartner AI Business Opportunities 2024).

La difficoltà di proteggere una scatola nera con specifiche vulnerabilità

La tecnologia GenAI rappresenta una risorsa ambivalente per la cybersecurity. Da un lato, offre opportunità senza precedenti per rafforzare e innovare la sicurezza informatica, automatizzando processi di difesa e aumentando la reattività contro le minacce. Dall’altro, introduce nuovi rischi che richiedono un approccio innovativo e strumenti all’avanguardia per essere gestiti.

Uno dei principali vantaggi è la sua capacità di aumentare l’efficienza, migliorando processi quali il rilevamento automatico delle minacce, la verifica del codice e i test di sicurezza. Tuttavia, la stessa tecnologia che migliora la produttività presenta sfide uniche.

I modelli GenAI operano come scatole nere e presentano un comportamento altamente dinamico. Gli strumenti di sicurezza tradizionali spesso si basano sulla comprensione della logica dell’applicazione per rilevare anomalie o vulnerabilità, il che è difficile con i modelli di AI poco trasparenti.

Le applicazioni GenAI devono essere protette sia per quanto riguarda la supply chain sia per quanto riguarda alcune specifiche vulnerabilità. A causa della loro dipendenza da enormi volumi di dati, modelli pre-addestrati, librerie e componenti spesso non rintracciabili, le organizzazioni devono adottare un nuovo paradigma per mitigare i rischi introdotti dai sistemi basati sull’ AI.

Set di dati compromessi, manipolazione dei modelli e attacchi backdoor attraverso l’uso di componenti open-source sono solo alcuni degli esempi di vulnerabilità comuni ai sistemi basati sull’AI generativa.

Inoltre, la grande quantità di dati utilizzata per addestrare questi modelli include spesso informazioni sensibili, il che rende le applicazioni di GenAI bersagli privilegiati per gli attacchi informatici.

Gli aggressori informatici stanno sfruttando le vulnerabilità specifiche dei modelli di AI, come la manipolazione dei dati e gli “adversarial attacks” (dove piccoli cambiamenti nei dati di input vengono utilizzati per ingannare il modello e indurlo a produrre un risultato errato o a comportarsi in modo imprevisto) rendendo evidente che l’intelligenza artificiale rappresenta sia uno strumento di difesa sia una nuove fonte di rischio.

Un nuovo approccio alla sicurezza: proteggere l’AI con l’AI

Le organizzazioni devono implementare strumenti di sicurezza specificamente progettati per affrontare le vulnerabilità uniche delle applicazioni GenAI. Questi strumenti devono identificare gli schemi di codice che consentono a input dannosi di sfruttare i comportamenti dei modelli di AI e devono anche essere in grado di riconoscere e comprendere librerie e framework di AI e ML come TensorFlow e PyTorch.

L’implementazione di soluzioni di sicurezza in grado di “comprendere” la logica sottostante alle applicazioni GenAI è fondamentale. Per esempio, la combinazione di strumenti di monitoraggio delle anomalie con meccanismi di autenticazione avanzata può aiutare a ridurre il rischio di intrusioni. Inoltre, le aziende devono assicurarsi che l’intera catena di fornitura dell’AI, inclusi i dati utilizzati per l’addestramento e i componenti software, sia protetta da minacce di tipo supply chain attack.

La conformità agli standard e alle normative di settore è un altro aspetto cruciale. Garantire audit trail completi e documentazione delle attività relative all’uso dell’AI contribuisce a dimostrare la conformità e ridurre i rischi associati a eventuali errori o vulnerabilità. Solo attraverso un approccio di sicurezza multilivello è possibile proteggere l’AI generativa dai molteplici vettori di attacco a cui è potenzialmente esposta.

Il futuro della cybersecurity in ambito applicativo dipenderà sempre più dalla capacità di utilizzare la stessa AI per rilevare e contrastare le minacce. In questo contesto, l’adozione di modelli di AI spiegabili (“Explainable AI”) e di strumenti di governance che offrano visibilità e trasparenza diventerà cruciale per ridurre i rischi e potenziare le difese.

La sfida è aperta: la GenAI è contemporaneamente una potente risorsa e una fonte di vulnerabilità, un’arma a doppio taglio che richiede soluzioni e strategie innovative per poter essere sfruttata al meglio, riducendo i rischi al minimo e massimizzando le opportunità per la sicurezza informatica.

IN EVIDENZA

COME PROTEGGERE I DATI SANITARI - Martedì 20 febbraio 2024 11.00 - 11.45 CET

Venite a scoprire le caratteristiche di Voltage Fusion di OpenText, la soluzione in grado di: • scoprire dove si trovano i dati strutturati e non sensibili e sanitari • valutarne il rischio e l ‘esposizione • applicare regole di protezione che ne rendano anonimo il contenuto Webinar: “

Title image box

Add an Introductory Description to make your audience curious by simply setting an Excerpt on this section

WEBINAR - The Passwordless Buyer’s Guide - 26 Agosto 2025 - h. 17:00 (ora italiana)

L'accesso basato su password non è più sufficiente. Ma con così tante opzioni passwordless disponibili, come puoi capire quale soluzione è la più adatta per la tua organizzazione? Unisciti ai nostri esperti per una panoramica sulla nuova guida all'acquisto, creata per aiutare i team IT e di sicurezza a valutare le opzioni più adatte alle loro esigenze.

REPORT: MAXIMIZE THE VALUE OF YOUR DATA WITH AI

L'indagine CIO MarketPulse di Foundry, condotta per OpenText, riflette le opinioni dei leader IT sull'IA, compresi i suoi vantaggi e le sue sfide. Si tratta di un argomento attuale, dal momento che la grande maggioranza degli intervistati (89%) ha dichiarato che l'interesse per l'Ai da parte dei leader delle loro organizzazioni è aumentato nell'ultimo anno.

LA DATA DISCOVERY ALIMENTA LA PROTEZIONE - Scopri in questo video perchè la conformità alla privacy, il green-IT e la riduzione dei rischi finanziari iniziano con la Data Discovery