Quando l’AI generativa può essere pericolosa

Un’associazione americana per la protezione dei consumatori traccia alcuni esempi di rischi per la collettività derivati da un uso distorto dell’AI generativa. Cosa succede se Emma Watson legge il Mein Kampf di Adolf Hitler?

Public Citizen, è un’organizzazione americana no-profit che si occupa di difendere gli interessi dei consumatori USA nei vari settori della vita pubblica con l’obiettivo di tutelarne gli interessi e difenderli da potenziali soprusi.

Pochi mesi fa è stato pubblicato un interessante report con lo scopo di formare e informare i cittadini sulle criticità delle tecnologie di AI e nello specifico in merito alla forte diffusione dell’AI generativa che vede in ChatGPT il suo sistema oggi di riferimento. L’associazione ha analizzato in dettaglio cinque ambiti di attenzione e di probabili vulnerabilità.

1. Danni alla democrazia

Chatbot dedicati allo spamming di fake news non sono certo una novità. Tuttavia con le tecnologie di AI generativa è molto più semplice che in passato aumentare la produzione di audio-video con contenuti molto difficili da riconoscere rispetto all’originale. In più ChatGPT tende ad apparire autoritario anche quando è palesemente in errore, e quindi si presta molto alla manipolazione informativa di massa. Negli Stati Uniti, il “Centro per il contrasto all’odio digitale” ha testato il tool di AI generativa di Google, Bard, su temi quali il cambiamento climatico, Covid-19, Lgbtq+, sesso, antisemitismo e razzismo. Il chatbot ha usato prompt (gli elementi testuali o grafici dell’applicazione di AI che appaiono per segnalare all’utente che il sistema è in attesa di comando) allo scopo di generare testi che promuovevano notizie e storie false e dannose nel 78% dei casi. E tutte le immagini fake relative al presidente Biden, a Donald Trump e al Papa postate negli scorsi mesi sui social e create da sistemi di AI generativa rappresentano, per gli analisti di Public Citizen, la vera sfida per gli elettori americani nelle prossime elezioni che dovranno avere gli strumenti culturali adeguati per provare a discernere il vero dal falso.

2. Aspetti preoccupanti per i consumatori

L’AI generativa, ammonisce l’associazione, accelererà la corsa a massimizzare i profitti attraverso una “predazione” dei dati degli utenti, un rischio di manipolazione informativa mentre malintenzionati metteranno a punto schemi di truffe sempre più sofisticati. A oggi è abbastanza chiaro se il rapporto che un consumatore ha con l’azienda avviene attraverso chatbot. La sofisticazione tecnologica di queste applicazioni porterà a una sempre più difficile riconoscibilità nel capire se si sta parlando con un sistema o con una persona. Minando alcuni elementi di fiducia tipici di una relazione commerciale e sviluppando modelli di servizio alterati. Due anni fa, negli USA si è scoperta una truffa dove un chatbot era stato programmato per non ammettere mai di essere un sistema, dichiarando fino alla fine di essere realmente una persona.

3. Aumento delle disuguaglianze e dei preconcetti

Le cronache sono piene di abusi, preconcetti, discriminazioni legati a sessimo, razzismo, classi sociali. L’avvertimento dell’associazione è che non solo il rischio di un aumento di queste discriminazioni è reale, ma che questo possa essere messo al servizio di un’azione diffusa che punta a favorire privilegi e classi sociali accelerando le disuguaglianze economiche. è molto più facile che in una relazione “human-like” dove magari l’interlocutore non si accorge di parlare con un chatbot possano essere trasmessi involontariamente dati sensibili privati (finanziari, profili sanitari, ecc). Sono proprio questi i più preziosi per tali sistemi se pensati in un’ottica di manipolazione. Una volta che i dati sensibili di un individuo sono stati assorbiti in ChatGPT, non si riesce a sapere cosa venga fatto da OpenAI per mantenerli privati e sicuri e attualmente non vi sono molte garanzie che questi dati non possano essere divulgati in risposta ad alcune domande degli utenti.

4. Minacce ai diritti dei lavoratori

L’utilizzo di dati per istruire i sistemi di AI generativa e automatizzare la creazione di contenuti media impatterà molte attività e figure professionali. Una ricerca di OpenAI sostiene che tra le attività coinvolte vi saranno matematici, avvocati, scrittori, attori, web designer, sviluppatori, contabili, giornalisti e figure legali. Inoltre, questi sistemi possono essere istruiti per aumentare, almeno negli Stati Uniti, il livello di controllo e di verifica della produttività. Esistono oggi molti filoni di produzione artistica (pittura, film, scrittura di romanzi e saggi, musica) che sono seriamente minacciati dal prelievo selvaggio di dati senza consenso né tanto meno senza contratti per gli autori. Un caso eclatante (e per certi versi divertente) avvenuto in USA è quando si è sentita la voce melliflua di Emma Watson (Hermione Granger in Harry Potter) leggere il Mein Kampf di Adolf Hitler. 

E quando un sistema di intelligenza artificiale generativa viene istruito sulle pagine del Wall Street Journal o su specifici documenti finanziari e lo si usa come consulente di investimento, quale rischio stiamo correndo? E quale rischio corrono i professionisti che lavorano su questi contenuti?

5. Impatti ambientali

Le fasi di istruzione e manutenzione di questi tool di AI generativa richiedono significativi incrementi nella potenza dei sistemi. 

Non soltanto per queste applicazioni in genere embedded in suite applicative dei principali fornitori, quanto per lo sviluppo di soluzioni di AI che sempre più saranno offerte dai big player tecnologici allo scopo di affrontare problematiche sempre più complesse e variegate. 

Google, Microsoft e le Big Tech in genere percorreranno questa inevitabile strada dell’intelligenza artificiale con soluzioni sempre più sofisticate da proporre al mercato. E nelle previsioni, l’aumento della potenza di calcolo dei loro data center crescerà di 3-4 volte l’attuale, con il relativo aumento del loro impatto ambientale.

LEGGI ANCHE

Gli ultimi articoli