Attenzione al pericolo dell’oracolo digitale

Condividi

La diffusione delle tecnologie di intelligenza artificiale è come un fiume carsico. E come tale spesso a noi non visibile ma che continua a scorrere e a ingrossarsi incessantemente ogni giorno, sviluppandosi e integrandosi nelle numerose applicazioni, sempre più intelligenti ed “energivore” di dati (e di energia), che usiamo nel quotidiano. L’AI la ritroviamo nei servizi e nelle navigazioni web personalizzate sui nostri profili e abitudini, sfruttando algoritmi che analizzano di continuo enormi moli di dati diversificate in differenti fonti per darci sia ciò che cerchiamo ma anche ciò a cui non pensiamo ma a cui potremmo essere interessati (sempre secondo l’algoritmo).

Sappiamo, da quando esiste l’essere umano, dell’importanza di conoscere e di sapere prima di prendere decisioni. E a maggior ragione oggi, vivendo in una “digital society”, diventa evidente quale importanza assumano le informazioni. Ma attenzione a una deriva che potrebbe crearsi in modo quasi inconscio e inconsapevole in ognuno di noi.

Essere circondati da dati, servizi e informazioni che vengono finalizzati al nostro modo di essere, di vivere, di pensare e di decidere è una cosa molto comoda. Ma che, inevitabilmente, sta costruendo attorno a noi una proiezione del modo di vedere e di fruire delle cose a nostra immagine e somiglianza. È sempre stato così, si potrà obiettare. Ognuno di noi ha una rappresentazione del mondo tendenzialmente allineata al proprio essere, alle proprie aspettative e a ciò cui vuole tendere. Vero! Tuttavia se viviamo immersi nei dati e questi dati, in quantità enorme e con sistemi intelligenti dall’elevatissima capacità interpretativa si mettono a fianco della nostra vita, dobbiamo forse porci una domanda: qual è il mio livello di autonomia decisionale, la mia “vista laterale” sui fatti, l’accettazione di una diversità nella rappresentazione del mondo che forse questi sistemi non mi possono dare fino in fondo se i miei dati e i miei servizi vengono pensati e proposti sul mio modo di essere e di pensare? Ecco allora il rischio che possa innescarsi un pericoloso processo inconscio di de-responsabilizzazione, delegando ad algoritmi scritti da altri la responsabilità (e più spesso la colpa) della scelta. C’è il rischio potenziale dell’accettazione diffusa di un nuovo oracolo: “L’ha detto, l’ha suggerito l’Intelligenza Artificiale”.

La responsabilità decisionale delle nostre azioni, dei nostri pensieri, rischia quindi di spostarsi sempre di più, con nostra sempre minor consapevolezza, verso questi sistemi. È differente rispetto alla formazione di una propria visione attraverso libri, mostre, esperienze reali. A molti, questi sistemi “intelligenti” possono apparire “distanti e superiori”, attribuendo loro, come accaduto alle divinità del passato proprio perché sconosciute e non contestabili, un valore quasi magico, un senso di verità superiore, inappellabile quando vi si ricorre per prendere decisioni o anche semplicemente per formarsi un pensiero che poi darà origine a una nostra azione conseguente.

È a questo punto che bisognerebbe riuscire, avendo però attenzione, strumenti culturali e capacità di discernimento, a soppesare il reale peso specifico nell’utilizzo di questi sistemi rispetto a ciò che decidiamo di fare e di costruire noi stessi. L’affidarsi a un costante flusso di informazioni proveniente dal Web, dai social, da ogni tipo di video, anche dalle arti oggi ormai anch’esse innervate di tecnologia (musica, pittura, scrittura, architettura, performance…) rischia di portarci in una zona di conforto distante dalla realtà. Non si tratta di fuggire nuove forme espressive o peggio ancora di rifiutare l’utilizzo digitale. Ma di avere quella consapevolezza nel cercare faticosi percorsi complementari come soggetto umano che deve passare attraverso esperienze reali e decisioni indipendenti, per declinare in modo corretto il rapporto con intelligenze artificiali che sempre più ci accompagneranno nella nostra vita. Solo chi ha consapevolezza e coscienza può guidare il proprio gioco e non essere invece semplice soggetto passivo di un gioco altrui, convinto magari di essere diverso e al di fuori dei tanti cluster di profili-utente ai quali somministrare servizi, entertainment, opinioni. Guidati lungo una strada che non ti accorgi nemmeno di non essere tu a decidere di percorrere.

 

 

LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.

Stefano Uberti Foppa
Stefano Uberti Foppa
Giornalista professionista, è stato direttore della rivista e del portale ZeroUno per 22 anni. Inizia a occuparsi di giornalismo nel settore informatico nel 1981, partecipando all'avvio della sede italiana del settimanale Computerworld. Nel 1987 passa al mensile ZeroUno, edito da Arnoldo Mondadori Editore, di cui nel 1997 assume la direzione insieme a quella del settimanale PcWeek Italia. Fonda nel 2006 la casa editrice Next Editore, poi confluita, nel 2017, nel Gruppo Digital360. Si occupa dell’analisi dell’evoluzione digitale sia in rapporto allo sviluppo di impresa sia all’impatto sui modelli organizzativi e sulle competenze professionali ed è oggi opinion leader riconosciuto nel settore Ict in Italia.

Altri Editoriali

La seduzione delle scorciatoie

Siamo reduci da un certo numero di elezioni consecutive...

Autofagocitosi delle informazioni: l’AI che si nutre di sé stessa

L’autofagocitosi delle informazioni è un fenomeno emergente nel contesto...

L’impatto dell’AI generativa nell’arte

L'uso dell'intelligenza artificiale nell'arte e nella creazione di immagini...

Italia leader per chip e cloud automotive: sogno o realtà?

Stufo di leggere le fantastiche corbellerie che si raccontano...

Aiuto arriva un messaggio Whatsapp

L’attenzione di tutti noi è una risorsa scarsa, spesso...

Vuoi vendere? Vienimi più vicino (CLOSER)

Ho avuto recentemente modo di approfondire il sales framework...