Qualsiasi tecnologia innovativa migliora un po’ le condizioni di chi sta alla base della piramide sociale, ma allarga la forbice con chi sta sui livelli superiori. Sono un convinto sostenitore di questa affermazione.
Questa affermazione vale anche per l’AI che, si badi bene, niente ha a che vedere con le forme puerili delle varie chat oggi disponibili, peraltro davvero utili solo a chi già sa come operare (e programmare).
Regolamentazione dell’IA: documenti e criticità
Il potere cerca di autosostentarsi e sta cercando di farlo anche con l’AI. Anche per questo, negli ultimi tempi sono stati emanati quattro diversi documenti di regolamentazione dell’intelligenza artificiale, ciascuno dei quali porta circa 10 punti. I quattro documenti sono l’Executive Order USA, l’Hiroshima Guide del G7, la Bletchey Declaration in UK e ciò che si sa del fumosissimo AI Act, modellato da lungimiranti burocrati che non hanno visto arrivare l’IA generativa e sono ora in stallo.
Di questi documenti, personalmente, non considero quello britannico, nonostante abbia la firma di 28 nazioni tra cui l’Italia, sia perché non credo che le azioni del Prime Minister Rishi Sunak vivranno a lungo.
Altri documenti arriveranno, a partire da quello dell’Onu che ha appena definito la sua task force. In tutto ciò, per dire, la Cina appare solo (e penso formalmente) nel G7, la Russia forse riconoscerà il documento ONU, i Paesi Arabi stanno investendo e l’India apparirà, prima o poi. Inoltre è lecito attendersi movimenti popolari dal basso, tipo AI for future, con dichiarazioni unilaterali e non rappresentative di principi tanto giusti quanto vaghi.
È possibile una cooperazione globale efficace?
Inoltre, come è sempre stato, alcuni di questi documenti vengono influenzati e diretti da entità direttamente coinvolte in questa o quell’altra soluzione, per cercare di ottenere lobbistici vantaggi sulla concorrenza. Ma anche questo è noto e umano.
Dall’analisi dei documenti prodotti finora, i punti rilevanti resteranno una ventina. Venti punti sono forse pochi per una trattazione reale, ma sono certamente troppi per un articolo. Facendo un’analisi a maglie più larghe è possibile identificare sei aree omogenee: sicurezza ed affidabilità, trasparenza e responsabilità, protezione dei dati e privacy, governance e regole, etica e valori, collaborazione internazionale.
Va tutto bene? Direi proprio di no. Non è questo il modo di procedere: la tecnologia ha impatto globale, non locale. Sarebbe opportuno partire da una definizione dell’AI (o meglio da una serie di definizioni), del processo produttivo e dei processi sui quali va ad impattare, per stabilire un territorio comune di confronto sul quale sviluppare politiche anche territoriali ma tra loro confrontabili. Invece si parte completamente al contrario: io sono un’area economica con i miei confini, nei quali definisco norme e leggi ovviamente a maglie larghe (non definisco l’AI) e poi alla fine dico che voglio cooperare con gli altri che dichiarano di avere dei diritti.
Mi sono chiesto più volte che senso pratico abbiano dei documenti che indicano la presunta rilevanza di una indicazione territoriale, peraltro spesso non unica, in un mondo tecnologico nel quale da quando l’IP ha vinto esiste di fatto un solo mondo reale, con tante entità medioevali che sgomitano per mantenere presunti privilegi (che chiamano “diritti”). Alcune di queste entità, tecnologicamente meno coese, per provare a gestire una tecnologia che li sovrasta devono chiuderne i canali.
Crederò fermamente nel desiderio di aiutare tutti, anche allargando la forbice, se qualcuno proporrà un processo articolato in quest’ordine: definizioni, cooperazione (con enforcement), standard, applicazioni, controlli. Tutto il resto è fuffa medievale di burocrati ignoranti.