Impatto globale dell’IA: definizioni, cooperazione, enforcement

Condividi

Qualsiasi tecnologia innovativa migliora un po’ le condizioni di chi sta alla base della piramide sociale, ma allarga la forbice con chi sta sui livelli superiori. Sono un convinto sostenitore di questa affermazione.

Questa affermazione vale anche per l’AI che, si badi bene, niente ha a che vedere con le forme puerili delle varie chat oggi disponibili, peraltro davvero utili solo a chi già sa come operare (e programmare).

Regolamentazione dell’IA: documenti e criticità

Il potere cerca di autosostentarsi e sta cercando di farlo anche con l’AI. Anche per questo, negli ultimi tempi sono stati emanati quattro diversi documenti di regolamentazione dell’intelligenza artificiale, ciascuno dei quali porta circa 10 punti. I quattro documenti sono l’Executive Order USA, l’Hiroshima Guide del G7, la Bletchey Declaration in UK e ciò che si sa del fumosissimo AI Act, modellato da lungimiranti burocrati che non hanno visto arrivare l’IA generativa e sono ora in stallo.

Di questi documenti, personalmente, non considero quello britannico, nonostante abbia la firma di 28 nazioni tra cui l’Italia, sia perché non credo che le azioni del Prime Minister Rishi Sunak vivranno a lungo.

Altri documenti arriveranno, a partire da quello dell’Onu che ha appena definito la sua task force. In tutto ciò, per dire, la Cina appare solo (e penso formalmente) nel G7, la Russia forse riconoscerà il documento ONU, i Paesi Arabi stanno investendo e l’India apparirà, prima o poi. Inoltre è lecito attendersi movimenti popolari dal basso, tipo AI for future, con dichiarazioni unilaterali e non rappresentative di principi tanto giusti quanto vaghi.

È possibile una cooperazione globale efficace?

Inoltre, come è sempre stato, alcuni di questi documenti vengono influenzati e diretti da entità direttamente coinvolte in questa o quell’altra soluzione, per cercare di ottenere lobbistici vantaggi sulla concorrenza. Ma anche questo è noto e umano.

Dall’analisi dei documenti prodotti finora, i punti rilevanti resteranno una ventina. Venti punti sono forse pochi per una trattazione reale, ma sono certamente troppi per un articolo. Facendo un’analisi a maglie più larghe è possibile identificare sei aree omogenee: sicurezza ed affidabilità, trasparenza e responsabilità, protezione dei dati e privacy, governance e regole, etica e valori, collaborazione internazionale.

Va tutto bene? Direi proprio di no. Non è questo il modo di procedere: la tecnologia ha impatto globale, non locale. Sarebbe opportuno partire da una definizione dell’AI (o meglio da una serie di definizioni), del processo produttivo e dei processi sui quali va ad impattare, per stabilire un territorio comune di confronto sul quale sviluppare politiche anche territoriali ma tra loro confrontabili. Invece si parte completamente al contrario: io sono un’area economica con i miei confini, nei quali definisco norme e leggi ovviamente a maglie larghe (non definisco l’AI) e poi alla fine dico che voglio cooperare con gli altri che dichiarano di avere dei diritti.

Mi sono chiesto più volte che senso pratico abbiano dei documenti che indicano la presunta rilevanza di una indicazione territoriale, peraltro spesso non unica, in un mondo tecnologico nel quale da quando l’IP ha vinto esiste di fatto un solo mondo reale, con tante entità medioevali che sgomitano per mantenere presunti privilegi (che chiamano “diritti”). Alcune di queste entità, tecnologicamente meno coese, per provare a gestire una tecnologia che li sovrasta devono chiuderne i canali.

Crederò fermamente nel desiderio di aiutare tutti, anche allargando la forbice, se qualcuno proporrà un processo articolato in quest’ordine: definizioni, cooperazione (con enforcement), standard, applicazioni, controlli. Tutto il resto è fuffa medievale di burocrati ignoranti.

LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.

Leo Sorge
Leo Sorge
Leo Sorge è laureato in ingegneria elettronica, ma ha preferito divulgare scienze e tecnologie reali o presunte. Ritiene che lo studio e l’applicazione vadano separate dai risultati attesi, e che l’ambizione sia il rifugio dei falliti. Ha collaborato a molte riviste di divulgazione, alle volte dirigendole. Ha collaborato a molti libri, tra i quali The Accidental Engineer (Lulu 2017), Lavoro contro futuro (Ultra 2020) e Internetworking (Future Fiction 2022). Copia spesso battute altrui, come quella sull’ambizione e anche l’altra per cui il business plan e la singolarità sono interessanti, ma come spunti di science fiction.

Altri Editoriali

Cina 2031: AI Supercloud nel Paese del Dragone

Nell’anno del Drago ho avuto la fortuna di incontrare...

La seduzione delle scorciatoie

Siamo reduci da un certo numero di elezioni consecutive...

Autofagocitosi delle informazioni: l’AI che si nutre di sé stessa

L’autofagocitosi delle informazioni è un fenomeno emergente nel contesto...

Attenzione al pericolo dell’oracolo digitale

La diffusione delle tecnologie di intelligenza artificiale è come...

L’impatto dell’AI generativa nell’arte

L'uso dell'intelligenza artificiale nell'arte e nella creazione di immagini...

Italia leader per chip e cloud automotive: sogno o realtà?

Stufo di leggere le fantastiche corbellerie che si raccontano...