Intelligenza artificiale: opportunità e rischi

Le chatbot come ChatGPT hanno ispirato i vendor IT ad adeguare opportunamente i propri sistemi. Ma come si fa a utilizzare questi efficaci strumenti di intelligenza artificiale evitando di creare backdoor che permettano alle informazioni sensibili di finire nei programmi di apprendimento esterni? Ne parliamo con Manlio De Benedetto, Senior Director Sales Engineering EMEA di Cohesity

L’avvento dei chatbot basati su AI generativa, come ChatGPT, sta rivoluzionando il trattamento di dati tecnici complessi, traducendoli in linguaggio umano in tempi record. Gran parte dei CEO a livello globale percepisce enormi opportunità in questa tecnologia, puntando a un sostanziale incremento dell’efficienza aziendale. Ogni team IT prima o poi dovrà trovare le risposte su come utilizzare strumenti di AI, perché ci saranno indicazioni precise dalla direzione aziendale.

Manlio De Benedetto, Senior Director Sales Engineering EMEA di Cohesity
Manlio De Benedetto, Senior Director Sales Engineering EMEA di Cohesity

Con il ritmo frenetico dell’innovazione in campo AI, ogni giorno emergono nuovi approcci e soluzioni. Nonostante la quasi totalità dei principali fornitori di hardware e software IT abbia integrato elementi di AI nei propri prodotti, l’adozione precoce e ambiziosa di queste tecnologie da parte dei team IT può, paradossalmente, esporre le aziende a nuovi rischi di sicurezza. Uno studio recente di Endor Labs ha evidenziato che oltre la metà dei progetti open source nell’ambito dell’AI presenta vulnerabilità nei file manifest. Di fronte a tali sfide, esperti come quelli di Cohesity consigliano un’introduzione graduale e controllata dell’AI. Insieme a Manlio De Benedetto, Senior Director Sales Engineering EMEA di Cohesity, approfondiamo l’argomento.

Implementazione strategica dell’AI e gestione dei rischi

Una strategia efficace prevede l‘utilizzo dell’AI per automatizzare le operations aziendali, riducendo la necessità di interventi manuali nei processi. È fondamentale esaminare attentamente le caratteristiche dei dati, le fonti e i partner di scambio informativo. Alcuni moduli di AI progettati a livello globale possono, infatti, trasferire dati interni a server esterni senza previa autorizzazione, sollevando questioni di privacy e sicurezza.

I team IT devono essere scrupolosi nella selezione dei sistemi e delle fonti dati esaminati dai moduli AI, avviando piccoli cluster e monitorando continuamente il loro funzionamento per mitigare i rischi. Questo processo consente anche di perfezionare le performance dell’AI che, con l’aumento dei dati a disposizione, diventerà sempre più precisa e affidabile. E’ consigliato di adottare anche il processo Retrieval-Augmented Generation (RAG), per ampliare i dati di apprendimento.

L’AI offre anche strumenti avanzati per la gestione della sicurezza, suggerendo autonomamente misure di protezione efficaci come il blocco di IP sospetti. Tuttavia, l’aggiornamento continuo dei moduli AI sulle nuove minacce può comportare rischi se non monitorato attentamente. I responsabili della sicurezza delle informazioni (CISO) devono garantire che nessun dato critico venga inavvertitamente esposto attraverso questi sistemi AI.

Più l’AI diventa sofisticata, più è in grado di preparare decisioni critiche e di aiutare in modo sostanziale i team a risparmiare tempo, smistando in anticipo il volume di informazioni nelle operazioni aziendali. Gli ambienti odierni generano quotidianamente petabyte di dati di log, che indicano varie criticità legate alla sicurezza o alle performance. Nella maggior parte degli ambienti, l’80% di queste informazioni non viene valutato perché il volume è troppo elevato. L’AI può elaborare questi dati su base giornaliera e renderli accessibili per le query vocali. È possibile porre ai dati domande come “Mostrami tutti i sistemi con uno specifico livello di patch e questa vulnerabilità” senza dover scrivere una singola stringa come in precedenza. I team IT saranno più informati e prenderanno quindi decisioni migliori.

L’intelligenza artificiale può ridurre drasticamente l’enorme carico di lavoro dei team IT e di sicurezza, fornendo report completi e indicazioni chiare e precise sui passaggi successivi, dando una prospettiva di lavoro ai gruppi operativi che sono sottodimensionati per i difficili compiti da svolgere. Entrando nel merito delle attività di Data Protection & Recovery, occorre rivolgersi al vendor più capace e innovativo che sia pronto a fornire l’AI già parte integrante delle proprie soluzioni. Oggi l’AI può essere di grande supporto, svolgendo in autonomia molte delle attività più importanti ma al tempo stesso ripetitive e noiose, trasmettendo gli eventi ai team IT/Security quando diventano critici e complicati. In questo modo, l’AI può contribuire in modo decisivo ad accrescere la resilienza informatica contro gli attacchi che, ironia della sorte, sono sempre più spesso sferrati dall’intelligenza artificiale.

LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.

LEGGI ANCHE

Gli ultimi articoli