Site icon bizzIT.it – Magazine di Information Technology B2B

I rischi dell’AI non si risolvono solo con la tecnologia

i-rischi-dellai-non-si-risolvono-solo-con-la-tecnologia

L’intelligenza artificiale continua a essere “il tema” del dibattito informatico e grande attenzione si sta concentrando sugli aspetti dei rischi, come dimostrato dalle previsioni in materia di cybersecurity riportate in questo numero.

È opportuno, tuttavia, distinguere tra due categorie di rischi: da un lato, ci sono quelli associati all’uso dell’AI per individuare e sfruttare vulnerabilità, produrre attacchi più sofisticati o malware capaci di evitare le difese tradizionali e, dall’altro, i rischi derivanti dall’impatto che l’AI generativa ha sul comportamento degli utenti.

I rischi del primo tipo sono, in linea di principio, contrastabili mediante l’adozione di soluzioni tecnologiche, inclusa l’AI “buona”. Grazie alla capacità di elaborare dati in tempo reale e di individuare anomalie si possono, per esempio, implementare sistemi di difesa proattivi, in grado di intercettare attacchi informatici prima che possano provocare danni rilevanti. Soluzioni basate su algoritmi di machine learning hanno già evidenziato una significativa riduzione dei tempi di risposta agli incidenti.

I rischi associati all’AI generativa invece, non possono essere contrastati meramente sul piano tecnologico e, per certi versi, interessano uno spettro d’azione più ampio.

Molti utenti operativi non solo non hanno comprensione dei rischi dei perimetri di utilizzo dell’AI, ma non ne sono neppure interessati. Come spesso capita nei contesti lavorativi odierni, sempre più veloci e con staff sottodimensionato, l’esigenza o la pressione di chiudere un lavoro supera le preoccupazioni sul livello qualitativo prodotto. Così il vantaggio di poter affidare all’AI una buona parte del proprio lavoro ne favorisce un uso piuttosto disinvolto e convince l’utilizzatore che, alla fine, il risultato prodotto è soddisfacente.

L’impiego inappropriato di questi strumenti può causare, per esempio, l’inserimento non consapevole di dati critici o sensibili nei motori di intelligenza artificiale che espone le organizzazioni a vulnerabilità che sfuggono ai tradizionali sistemi di difesa. Inoltre, la difficoltà degli utenti nel distinguere tra differenti modelli e motori di AI comporta il rischio di generare informazioni errate o di compromettere la riservatezza dei dati.

In aggiunta ai rischi di compromissione di informazioni importanti emergono, quindi, anche potenziali danni di immagine, errori contabili, compromissioni inconsapevoli del diritto d’autore o la creazione di documenti e dati errati che possono alterare il buon esisto di processi operativi, campagne marketing o decisioni aziendali.

A livello tecnologico i rischi dell’AI si fronteggiano attraverso un continuo aggiornamento di sistemi e software di monitoraggio e risposta alle minacce. Per affrontare i rischi del secondo tipo servono invece investimenti in programmi di formazione mirati, finalizzati a sensibilizzare e preparare gli utenti sull’utilizzo responsabile delle tecnologie AI e la comprensione di limiti e potenzialità associati.

In parallelo, appare sensato e auspicabile che le aziende introducano regolamentazioni interne per monitorare e controllare l’utilizzo indiscriminato dell’AI generativa. Si tratta di un compito non facile poiché un approccio eccessivamente restrittivo rischia di compromettere il potenziale innovativo abilitato dall’AI.

Una strada certamente efficace sarebbe quella di non limitare l’uso dello strumento ma, invece, di esercitare il controllo sui dati accessibili da parte dei modelli di GenAI utilizzando unicamente repository interni e/o controllati. Si tratta di una strada possibile, su cui si stanno muovendo alcune aziende, ma che va percorsa con partner qualificati (difficili da trovare) e che richiede, comunque, investimenti e competenze non alla portata di tutti.

Exit mobile version