Speranze e rischi dell’AI generativa

Se le applicazioni di Intelligenza artificiale come ChatGPT possono semplificare di molto la vita sia delle aziende sia delle persone nella creazione di contenuti e nelle varie attività, è fondamentale avere consapevolezza dei rischi in termini di privacy e sicurezza dei dati, delle potenziali manipolazioni e degli errori che questi sistemi portano con sé. Per intraprendere una strada corretta di utilizzo di una tecnologia promettente ma molto “pericolosa”.

Proviamo a parlare di Intelligenza artificiale senza le esasperazioni, gli scenari distopici e disumanizzanti che le cronache relative a queste tecnologie ci sottopongono con sempre maggiore frequenza. Trattiamo invece di AI generativa e nello specifico di ChatGPT, guardando senz’altro ai rischi intrinseci nell’utilizzo di queste tecnologie, ma anche a un loro corretto posizionamento di prospettiva d’uso da parte di aziende e persone.

Accanto ai rischi di un’aumentata potenziale sostituzione di competenze nei confronti dell’essere umano da parte di sistemi sempre più intelligenti; di un uso fraudolento di applicazioni di AI facili da usare; di rischi per violazioni di privacy e sicurezza, non si possano infatti perdere di vista anche le grandi potenzialità e gli indubbi benefici legati alla diffusione di queste tecnologie. Già l’Intelligenza artificiale stava acquisendo una rilevanza e un’attenzione importante negli ultimi anni a causa delle evidenti implicazioni che queste tecnologie hanno sul fronte etico, della sicurezza, della privacy delle persone e dei loro dati, dei rischi di azioni fraudolente e di diffusione di false notizie nell’obiettivo di condizionamenti espliciti e occulti. Ma ormai le linee guida teoriche relative alle best practice dell’AI cominciano a essere definite:

  • trasparenza nella raccolta e nell’uso dei dati;
  • affidabilità delle tecnologie implementate in tema di sicurezza e privacy dei sistemi;
  • equità degli output generati;
  • garanzia di inclusione nell’accesso ai servizi;
  • concetto di “human in the loop”, cioè l’essere umano non deve essere escluso dal decision making e dalla creazione di contenuti;
  • identificazione dei responsabili degli errori di progettazione;
  • trasparenza e verificabilità delle logiche degli algoritmi.

La vera complessità sta nella capacità di implementarli correttamente. Sia per una questione di attuale carenza di nuove competenze legate allo sviluppo di questi sistemi sia perché, talvolta, esiste un obiettivo fraudolento (voluto) o discriminatorio (può anche essere inconsapevole) nella costruzione del sistema, che poi continuerà ad apprendere e “ragionare” secondo questa genesi deviata.

Semplicità d’uso ma criticità da considerare

Il dibattito, che vede anche un continuo tentativo di definizioni normative da parte dei differenti Stati e linee guida continuamente definite e aggiornate (per quanto riguarda l’Europa, dalla Commissione Europea), sta rapidamente lasciando il passo alla ricerca di strumenti per provare a governare al meglio la diffusione impetuosa, rapida e turbolenta di queste soluzioni. Non solo negli ultimi anni, le tecnologie di AI sono state costantemente “embedded”, integrate nativamente, in ogni tipo di applicazione e tecnologia utilizzate nelle imprese (dall’analisi dei dati allo sviluppo software; dalla governance dei sistemi informativi e delle reti alle applicazioni Crm; dalla protezione contro il cybercrime all’ottimizzazione della logistica, ecc). Adesso siamo a un’ulteriore svolta con l’AI generativa, che porta l’utilizzo dell’AI a un livello di semplicità tale da spingerla a una diffusione di massa.

La “punta di diamante” dell’AI generativa si chiama oggi ChatGPT, lanciata nel 2022 da OpenAI, società no-profit con sede a San Francisco, che rende aperti al pubblico i propri brevetti e ricerche sull’AI e che ha tra i partner principali Microsoft, impegnata a integrare sempre più ChatGPT nel proprio motore di ricerca Bing e nella piattaforma Microsoft 365. Questo ha scatenato, con il coinvolgimento di Google in primis, una continua battaglia sul mercato a colpi di nuove funzionalità per la supremazia nell’utilizzo di queste tecnologie di AI generativa che vengono classificate come LLM. Il Large Language Model è un modello caratterizzato, come dice il nome, dalle sue grandi dimensioni, rese possibili dagli acceleratori di intelligenza artificiale, in grado di elaborare grandi quantità di testo recuperati dal Web. è di fatto un’area dell’AI nella quale queste tecnologie sono ottimali per la creazione di contenuti audio, video, immagini e testo. Sono di facile utilizzo e applicazione ma richiedono grandi quantità di dati che questi sistemi “rastrellano” in modo continuo dal Web, “pescando” il dato che diventa valore in sé, indipendentemente dal contesto a cui si riferisce. News, post sui social, Wikipedia e ogni altro tipo di fonte sono aree a cui questi sistemi attingono per generare contenuti e risposte. E il tema della raccolta corretta di informazioni comincia a essere di primaria importanza. Sia perché non tutti sono disposti ad accettare che i propri dati possano essere sfruttati da altri per generare business, sia perché, spesso questi sistemi, in questo “drenaggio” di informazioni soffrono delle cosiddette “allucinazioni”, cioè offrono risposte del tutto fuori contesto, errate o fuorvianti, che per un uso professionale rischiano di essere molto pericolose (per il business e la credibilità dell’azienda). Senza contare che anche l’applicazione business per sfruttare i vantaggi di ChatGPT deve essere sviluppata con accuratezza per evitare, in mondo inconsapevole, di rendere pubbliche informazioni sensibili relative a prodotti, progetti strategici, dati personali e quant’altro. Ecco quindi che da un lato abbiamo un chatbot con bassi costi di sperimentazione e implementazione e una semplicità d’uso con risposte “colloquiali e intelligenti” che simulano con grande perfezione una conversazione umana. 

Dall’altro lato abbiamo evidenti rischi di utilizzo errato o fraudolento. Eccone alcuni esempi utili a capire meglio il terreno su cui ci stiamo incamminando.

Grandi aspettative ma serve avere coscienza dei rischi

Pochi mesi fa è uscito un interessante report di Public Citizen, un’organizzazione americana no-profit che raggruppa oltre 500mila persone nata per difendere gli interessi dei consumatori USA alle prese con sanità, finanza, lavoro, amministrazione pubblica, climate change e fiscalità attraverso attività di lobbying, tutela amministrativa, contenziosi legali, ricerche e formazione civica. Una realtà quotata, quindi, ad analizzare gli impatti sui consumatori e sulla società civile, legati a un uso distorto di tecnologie emergenti come ChatGPT. L’analisi parte da un quadro di riferimento importante: da un lato viviamo una fase di eccitazione diffusa e di grandi aspettative verso l’AI soprattutto da parte delle grandi corporation, in quanto vista come mezzo per aumentare produttività, creare innovazione, eliminare lavori desueti. Un recente studio McKinsey afferma che circa la metà di tutti i generi di lavoro sarà automatizzata nel giro di vent’anni. Analisti della UBS stimano le applicazioni basate sull’AI generativa in un mercato che già oggi è di circa 1 trillione di dollari (mille miliardi); Accenture sostiene che l’AI aumenterà la profittabilità di ben 16 segmenti industriali a una media del 38% a partire dal 2035, mentre ARK Invest, società di investimento focalizzata su progetti di disruptive innovation, ipotizza che l’AI generativa porterà a un quadruplicamento della produttività dei knowledge worker entro il 2030. Dall’altro lato della medaglia troviamo tuttavia rischi di disgregazione economica e dislocazione sociale, con una serie di contraccolpi non semplici da gestire in termini di potenziali disuguaglianze. E proprio allo scopo di formare e informare i cittadini sulle criticità di queste tecnologie, l’associazione ha analizzato in dettaglio almeno cinque ambiti di attenzione e di probabili vulnerabilità:

  • danni alla democrazia
  • problemi per i consumatori
  • accentuazione delle disuguaglianze
  • minacce ai diritti dei lavoratori
  • problemi ambientali

Prevedendo quindi un utilizzo di sistemi di AI, si può oggi cominciare a impostare una serie di policy e attivare delle sensibilità sia nell’utilizzo, sia, prima ancora, nell’istruzione di questi sistemi tenendo presente queste vulnerabilità e il rischio di “apprendimenti fuorviati” a seguito di scritture di algoritmi non eticamente corrette oppure guidate, nella rapidità di sviluppo, esclusivamente da obiettivi di profitto. è tuttavia indubbio che quella che stiamo vivendo sia una fase nuova e inevitabile nell’evoluzione del travagliato rapporto uomo-tecnologie. Forse però, essendo questa volta molto alto il rischio di degenerazioni nei processi di sviluppo della conoscenza, dovremmo essere più cauti nel trasferire a una “intelligenza” artificiale tutti gli elementi che compongono la nostra stessa natura. E tra questi, inevitabilmente, anche gli aspetti meno nobili e più oscuri.

LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.

LEGGI ANCHE

Gli ultimi articoli