Attenzione al pericolo dell’oracolo digitale

Condividi

La diffusione delle tecnologie di intelligenza artificiale è come un fiume carsico. E come tale spesso a noi non visibile ma che continua a scorrere e a ingrossarsi incessantemente ogni giorno, sviluppandosi e integrandosi nelle numerose applicazioni, sempre più intelligenti ed “energivore” di dati (e di energia), che usiamo nel quotidiano. L’AI la ritroviamo nei servizi e nelle navigazioni web personalizzate sui nostri profili e abitudini, sfruttando algoritmi che analizzano di continuo enormi moli di dati diversificate in differenti fonti per darci sia ciò che cerchiamo ma anche ciò a cui non pensiamo ma a cui potremmo essere interessati (sempre secondo l’algoritmo).

Sappiamo, da quando esiste l’essere umano, dell’importanza di conoscere e di sapere prima di prendere decisioni. E a maggior ragione oggi, vivendo in una “digital society”, diventa evidente quale importanza assumano le informazioni. Ma attenzione a una deriva che potrebbe crearsi in modo quasi inconscio e inconsapevole in ognuno di noi.

Essere circondati da dati, servizi e informazioni che vengono finalizzati al nostro modo di essere, di vivere, di pensare e di decidere è una cosa molto comoda. Ma che, inevitabilmente, sta costruendo attorno a noi una proiezione del modo di vedere e di fruire delle cose a nostra immagine e somiglianza. È sempre stato così, si potrà obiettare. Ognuno di noi ha una rappresentazione del mondo tendenzialmente allineata al proprio essere, alle proprie aspettative e a ciò cui vuole tendere. Vero! Tuttavia se viviamo immersi nei dati e questi dati, in quantità enorme e con sistemi intelligenti dall’elevatissima capacità interpretativa si mettono a fianco della nostra vita, dobbiamo forse porci una domanda: qual è il mio livello di autonomia decisionale, la mia “vista laterale” sui fatti, l’accettazione di una diversità nella rappresentazione del mondo che forse questi sistemi non mi possono dare fino in fondo se i miei dati e i miei servizi vengono pensati e proposti sul mio modo di essere e di pensare? Ecco allora il rischio che possa innescarsi un pericoloso processo inconscio di de-responsabilizzazione, delegando ad algoritmi scritti da altri la responsabilità (e più spesso la colpa) della scelta. C’è il rischio potenziale dell’accettazione diffusa di un nuovo oracolo: “L’ha detto, l’ha suggerito l’Intelligenza Artificiale”.

La responsabilità decisionale delle nostre azioni, dei nostri pensieri, rischia quindi di spostarsi sempre di più, con nostra sempre minor consapevolezza, verso questi sistemi. È differente rispetto alla formazione di una propria visione attraverso libri, mostre, esperienze reali. A molti, questi sistemi “intelligenti” possono apparire “distanti e superiori”, attribuendo loro, come accaduto alle divinità del passato proprio perché sconosciute e non contestabili, un valore quasi magico, un senso di verità superiore, inappellabile quando vi si ricorre per prendere decisioni o anche semplicemente per formarsi un pensiero che poi darà origine a una nostra azione conseguente.

È a questo punto che bisognerebbe riuscire, avendo però attenzione, strumenti culturali e capacità di discernimento, a soppesare il reale peso specifico nell’utilizzo di questi sistemi rispetto a ciò che decidiamo di fare e di costruire noi stessi. L’affidarsi a un costante flusso di informazioni proveniente dal Web, dai social, da ogni tipo di video, anche dalle arti oggi ormai anch’esse innervate di tecnologia (musica, pittura, scrittura, architettura, performance…) rischia di portarci in una zona di conforto distante dalla realtà. Non si tratta di fuggire nuove forme espressive o peggio ancora di rifiutare l’utilizzo digitale. Ma di avere quella consapevolezza nel cercare faticosi percorsi complementari come soggetto umano che deve passare attraverso esperienze reali e decisioni indipendenti, per declinare in modo corretto il rapporto con intelligenze artificiali che sempre più ci accompagneranno nella nostra vita. Solo chi ha consapevolezza e coscienza può guidare il proprio gioco e non essere invece semplice soggetto passivo di un gioco altrui, convinto magari di essere diverso e al di fuori dei tanti cluster di profili-utente ai quali somministrare servizi, entertainment, opinioni. Guidati lungo una strada che non ti accorgi nemmeno di non essere tu a decidere di percorrere.

 

 

Stefano Uberti Foppa
Stefano Uberti Foppa
Giornalista professionista, è stato direttore della rivista e del portale ZeroUno per 22 anni. Inizia a occuparsi di giornalismo nel settore informatico nel 1981, partecipando all'avvio della sede italiana del settimanale Computerworld. Nel 1987 passa al mensile ZeroUno, edito da Arnoldo Mondadori Editore, di cui nel 1997 assume la direzione insieme a quella del settimanale PcWeek Italia. Fonda nel 2006 la casa editrice Next Editore, poi confluita, nel 2017, nel Gruppo Digital360. Si occupa dell’analisi dell’evoluzione digitale sia in rapporto allo sviluppo di impresa sia all’impatto sui modelli organizzativi e sulle competenze professionali ed è oggi opinion leader riconosciuto nel settore Ict in Italia.

Altri Editoriali

La semplificazione come atto di leadership

Prima o poi, c’è un momento, nella vita di...

AI europea spinta dalla SAI 304 223

La sicurezza dell’AI è centro di dibattito in qualsiasi...

Elogio dell’indecisione, del dubbio e del pensiero

Milano, cinema strapieno, prima nazionale de “La grazia”, l'ultimo...

Il capitale umano come leva della reputazione aziendale

Leggendo gli scritti di Francesca Caputo, autrice del libro...

Sarà il quantum a far esplodere la AI bubble?

Per rivoluzionare ottimizzazione, telecomunicazioni e crittografia, la parola d’ordine...

La difficile strada dell’AI europea

È stato durante la recente cerimonia di inaugurazione del...