Governare il rischio degli agenti AI

Per proteggere dati, identità e applicazioni nell’era degli agenti autonomi OpenText Cybersecurity propone un insieme coerente di tecnologie capaci di operare alla stessa velocità e con la stessa capacità di correlazione

La trasformazione introdotta dagli agenti AI sta accelerando più rapidamente delle precedenti ondate tecnologiche, portando con sé un cambio di paradigma che investe dati, identità, applicazioni e operazioni di sicurezza. Nella visione delineata da OpenText Cybersecurity, questa evoluzione può generare vantaggi tangibili per processi e produttività, ma apre anche scenari di rischio radicalmente nuovi. L’adozione di agenti capaci di percepire, decidere e agire, senza un controllo umano diretto, rende indispensabile un ripensamento profondo delle architetture di protezione.

In questo quadro, OpenText ha sviluppato un insieme coerente di tecnologie che costituiscono una sorta di tessuto connettivo tra data security, identity management, application security, threat detection & response e digital forensics. Una piattaforma pensata per affrontare attacchi alimentati da AI con strumenti capaci, a loro volta, di operare alla stessa velocità e con la stessa capacità di correlazione.

Pierpaolo Alì, director Southern Europe di OpenText Cybersecurity
Pierpaolo Alì, director Southern Europe di OpenText Cybersecurity

Pierpaolo Alì, director Southern Europe di OpenText Cybersecurity, sintetizza così il cambio di prospettiva richiesto alle imprese nell’era degli agenti autonomi: “La novità non è soltanto la potenza dell’AI, ma la sua capacità di agire. Quando un agente può prendere decisioni, spostare informazioni, modificare processi o ampliare il proprio ambito operativo, la cybersecurity non può più limitarsi a difendere il perimetro. Deve diventare un sistema nervoso distribuito, capace di comprendere cosa sta accadendo e intervenire prima che un comportamento anomalo diventi un danno operativo o reputazionale”.

L’approccio di OpenText mette al centro un concetto semplice: non esiste una soluzione unica e risolutiva. Esiste invece la necessità di far dialogare soluzioni che analizzano i dati, regolano le identità, osservano i comportamenti, verificano la qualità del codice e orchestrano la risposta agli incidenti in un ciclo continuo.

Dal dato alle identità, come costruire una superficie sicura per gli agenti AI

Il primo fondamentale principio è la protezione del dato, il bene più ricercato dagli attaccanti e l’elemento su cui gli agenti AI prendono decisioni. Le soluzioni Core Data Discovery & Risk Insight (in precedenza Voltage) di OpenText operano una scansione continua degli ambienti informativi, identificano automaticamente gli elementi sensibili e applicano tecniche come la “format-preserving encryption”. Questo meccanismo consente di cifrare i dati sensibili preservandone il formato originale, così da mantenerli utilizzabili nei processi analitici pur lasciandoli nascosti persino agli operatori che li trattano.

La protezione dei dati si estende poi al governo delle identità. Gli agenti AI diventano a tutti gli effetti “non-human identities” che necessitano di politiche di accesso rigorose, autenticazione con privilegi minimi, definizione esatta della finalità operativa e una tracciabilità completa di ogni interazione. La logica del minimo privilegio diventa essenziale per evitare la cosiddetta agency creep, ovvero la tendenza di un agente a espandere il proprio perimetro di azione grazie a vulnerabilità o configurazioni permissive.

Il passo successivo riguarda il comportamento. La tecnologia Core Threat Detection & Response (TDR) di OpenText crea una base comportamentale dinamica per ogni identità, umana o AI, e rileva deviazioni da modelli comportamentali consolidati. L’obiettivo è anticipare il più possibile i segnali di attacco, spostandosi dalla ricerca di scenari noti alla capacità di identificare comportamenti anomali fin dal primo segnale.

La qualità del codice come nuovo fattore di resilienza

In questa fase di adozione accelerata dell’AI agentica, la sicurezza applicativa diventa una componente imprescindibile. OpenText affronta questo tema con le tecnologie consolidate dell’offerta Fortify, oggi evoluta in Core Application Security. Le soluzioni analizzano gli agenti AI come qualsiasi altra applicazione, identificando vulnerabilità, prompt injection, superfici di eccessiva autorizzazione e punti deboli nel codice.

Grazie al modulo Application Security Aviator, la soluzione di OpenText non si limita più a segnalare il problema, ma utilizza l’AI per generare suggerimenti di codice e anche correzioni automatiche.

Questa capacità di correzione guidata, comunque sempre verificabile dagli sviluppatori, permette di introdurre un ciclo virtuoso di miglioramento continuo.

Un aspetto particolarmente rilevante in un contesto in cui gli agenti AI possono evolvere, essere estesi o integrati con nuove fonti dati, aumentando la complessità del loro comportamento interno.

La chiusura del cerchio è affidata alla componente di Digital Forensics & Incident Response (DFIR), che integra in un’unica vista endpoint, cloud, rete e log applicativi, permettendo una ricostruzione rapida e accurata degli incidenti: un fattore fondamentale per assicurare rapidità di intervento e impedire che un errore dell’agente si trasformi in un impatto sistemico.

Verso un modello di sicurezza adattiva, alimentata da AI

Alì esprime chiaramente l’importanza di questo modello integrato. “La difesa nell’era degli agenti AI non può più essere frammentata – spiega il manager di OpenText Cybersecurity -. Serve una piattaforma capace di proteggere dati, governare gli accessi, correlare eventi, comprendere il contesto, reagire in modo coordinato e imparare da ogni interazione. Per questo parliamo di un “fabric” di sicurezza. Non è un prodotto singolo, ma un ecosistema che evolve insieme alle minacce”.

L’adozione di agenti AI è già partita nelle imprese che cercano di aumentare efficienza, qualità dei processi e velocità decisionale e lo sarà sempre di più e più rapidamente. Il messaggio di OpenText è chiaro: occorre predisporre un ambiente operativo sicuro prima di introdurre gli agenti AI per evitare che l’autonomia degli agenti diventi una fonte di rischio.

La differenza tra un’organizzazione preparata e una vulnerabile si giocherà sulla capacità di implementare una sicurezza che sia essa stessa intelligente, automatizzata, adattiva e alimentata dai medesimi meccanismi avanzati che già muovono le minacce.

LEGGI ANCHE

Gli ultimi articoli