E per fortuna che esistono gli artisti! Sono loro, nelle costanti sperimentazioni di avanguardia, a metterci di fronte, talvolta, a esperienze, opere e pensieri di carattere filosofico, etico e morale con cui dobbiamo fare i conti. Come puntualmente accade quando, parlando di tecnologia, si entra per esempio nel campo dell’Intelligenza Artificiale.
E così, anche in Italia abbiamo trovato il nostro David Byrne, sperimentatore, performer e artista completo (tra l’altro musicista fondatore dei Talking Heads) che nella sua ricerca espressiva spesso ti fa vivere sensazioni e prospettive di pensiero differenti da quelle in cui sei sempre stato abituato a muoverti.
Il nostro artista, in questo caso, si chiama Roberto Fassone e in collaborazione con Federico Bomba e il linguista computazionale Andrea Zaninello ha messo di recente a punto un progetto per “nutrire” di funghi allucinogeni un sistema di Intelligenza Artificiale, nell’obiettivo di verificare se e fino a che punto possa esistere un qualche tipo di coscienza autonoma, di riflessione indipendente generata dal sistema.
Perché questa performance? Per sbatterci in faccia la nostra fragilità dinnanzi a queste macchine, per indicarci, forse, il rischio di un non controllo nel momento in cui questi sistemi sviluppassero, in modo strutturato, coscienze interpretative a conseguenti azioni autonome, svincolate dalla matrice umana rappresentata sempre dalla programmazione iniziale.
Chi fosse interessato ad approfondire questa performance può facilmente vedere il progetto sul Web (l’iniziativa e la relativa mostra è inoltre allestita in una stanza dell’Ostello di Combo, a Torino, fino al 21 luglio e poi a Linz, dal 7 all’11 settembre in occasione della prossima edizione di Ars Electronica).
Nello specifico, è stato sviluppato un software in grado di integrare un data set di dati scaricati da un sito specializzato nella raccolta di report di viaggi psichedelici. Da qui il sistema ha elaborato centinaia di racconti alternativi che si potrebbero definire “personali” utilizzando un modello linguistico addestrato non solo a produrre output logici in termini semantici, ma anche considerando uno sguardo al contesto complessivo per proporre scenari coerenti.
Nasce così la creazione, da parte del sistema, di narrazioni autonome, sorprendenti nelle trame e nelle strutture espositive. Ma fermiamoci qui ed estendiamo il discorso pensando ad applicazioni sperimentali dell’AI nell’arte, nella musica, in qualsiasi ambito di creazione dell’ingegno umano (scultura, cucina, moda, letteratura, ecc.). Tutti mondi in cui questi sistemi riescono già oggi a produrre lavori nei quali è quasi ormai impossibile capire se sono stati realizzati da persone fisiche oppure sono frutto di Intelligenze Artificiali.
Dove sta allora il punto critico di tutto ciò? Se consideriamo sistemi sempre più in grado di decidere e “ragionare” autonomamente, perché non potremmo aspettarci, domani, finalmente, sistemi di intelligenza artificiale scevri dalle passioni, dagli interessi, dalle paure e dalla ricerca di capitale e potere, in modo tale che queste intelligenze possano, lentamente ma inesorabilmente, diffondersi con capacità decisionali che mettano al centro di un nuovo sviluppo le esigenze, non solo pratiche e concrete ma anche spirituali e relazionali, dell’essere umano?
Non possiamo dimenticare che oggi è la programmazione umana a guidare questi sistemi. E quindi, pur nel tentativo di essere agnostiche, le applicazioni di AI risentono inevitabilmente dell’impostazione culturale e ambientale di chi ha programmato il codice, lasciando poi alla macchina la capacità di una nuova elaborazione di output più raffinata, frutto di un’analisi interpretativa autonoma, ma sempre viziata dal codice di programmazione e dai meccanismi originari di apprendimento trasmessi.
Il condizionamento di base iniziale esiste ed è forte: uno studio 2021 della Stanford University – “Artificial Intelligence Index Report“ ha analizzato, tra i diversi aspetti di questo fenomeno tecnologico, anche la delicata questione del rapporto tra AI ed etica, tema ormai da qualche anno molto dibattuto ma su cui restano scarsi i dati.
Ebbene, prendendo a campione gli Stati Uniti, nazione tra le più avanzate nello sviluppo di tecnologie AI, emerge che la gran parte dei nuovi laureati e dottorati in ricerca in AI è bianco, mentre solo il 2,4% è afro-americano; le donne laureate in ambito AI e Computer Science hanno pesato in media per il 18,3% di tutti i laureati negli ultimi 10 anni, mentre tra le top 17 università mondiali i docenti donna sono solo il 16,1% tra tutti i docenti di ruolo le cui facoltà hanno come primaria area di ricerca l’Intelligenza Artificiale.
Come si vede da questi dati, l’impostazione delle future “Intelligenze Artificiali” continua a derivare soprattutto da situazioni di discriminazione e di preconcetto. Per questo la performance artistica di cui si diceva è significativa: dare a un sistema di AI un’esperienza psichedelica che stravolga la sua “coscienza programmata” ci può portare in territori sperimentali non consueti, territori dove il sistema genera un’azione e una coscienza meno “lineare” rispetto all’imprinting della programmazione di base, di quegli algoritmi frutto di una specifica impostazione culturale.
Sistemi e sperimentazioni da cui comunque, come esseri umani, dovremo sempre guardarci per capire quale direzione queste coscienze artificiali saranno in grado di sviluppare, prendendo decisioni fondamentali per la gestione delle nostre vite.
Non dobbiamo perdere il controllo del sistema, perdere la genesi della sua vita, quella su cui baserà le proprie decisioni, raccomandazioni, azioni (pensiamole, per capire la criticità del tema, applicate per esempio alla gestione delle città, dell’inquinamento, del flusso delle persone e dei capitali, della gestione della transizione ecologica, della viabilità e proviamo a capire fino dove possiamo spingerci nell’accettazione di decisioni autonome sempre più distanti dal modello umano). Ma dobbiamo anche avere la consapevolezza del condizionamento che possiamo creare.
È su questo terreno che dovremo essere in grado di misurarci con una nuova fase dell’AI verso cui stiamo correndo, quella in cui la coscienza del sistema, nella sua autonomia decisionale e superando l’imprinting di programmazione iniziale spesso viziato da pregiudizi e interessi, creerà nuovi algoritmi che terranno conto del contesto umano e delle necessità di un riferimento etico, non delegando soltanto alla semplice analisi dei dati quelle decisioni che dovranno invece essere prese considerando anche la complessità dell’anima e della natura umana.