Tra il 2013 e il 2022, gli investimenti globali in AI sono cresciuti di tredici volte, con il 2022 in calo rispetto al 2021. Gli investimenti privati vedono un largo margine degli States (quasi 250 B$) contro i 95 della Cina (ma in una economia diversa) e i 18 del Regno Unito. Nel solo 2022 le prime tre nazioni hanno investito 47, 13 e 4 B$ (dati: Artificial Intelligence Index Report 2023, Stanford University). Nonostante i proclami e gli autoincensamenti degli umanisti e dei governanti, l’Italia non ha un volume critico rilevante. La stessa Unione Europea annaspa tra numerose norme che prevedono definizioni diverse, assessment inesistenti e tempistiche inconciliabili con la realtà che la circonda.
Certamente cybersecurity, cloud e AI sono le tre facce del nostro mondo digitale, quella che -parafrasando Douglas Hofstadter- possiamo chiamare l’eterna ghirlanda brillante del’ICT mondiale. Seeweb, cloud provider italiano inserito in un contesto internazionale e fornitore di servizi di Cloud e Cloud GPU, ha elaborato un documento operativo per irrobustire l’impianto italiano ed europeo dei dati, L’economia dei dati nell’intelligenza artificiale: 10 misure per combattere le diseguaglianze industriali contro ogni esternalità economica e sociale, presentato a Roma. Per semplicità, abbiamo provato a riorganizzare i dieci punti in quattro macroaree: assessment, cybersecurity, normativa AI e formazione.
Assessment – Non è possibile sviluppare un’azione concreta senza avere a disposizione una mappa completa e dinamica della situazione che si deve regolamentare con strumenti generali e poi gestire con continue attività puntuali. Serve quindi avviare una reale indagine del mercato italiano del cloud computing e dell’AI, come avvenuto in Francia e nel Regno Unito. Solo così si potranno svolgere azioni strategiche per far emergere -o anche impostare da zero- punti nei quali l’Italia possa essere competitiva (punto 5).
Cybersecurity e marketplace – è necessario garantire e regolamentare l’accesso e la trasparenza ai dati di input per allenare sistemi di intelligenza artificiale che oggi sono disponibili quasi esclusivamente alle grandi aziende tecnologiche, che ne hanno un quasi-monopolio. Con una vera regolamentazione, i dati saranno accessibili alle autorità di controllo e ad altri soggetti che sviluppano soluzioni di intelligenza artificiale; al contempo, apriranno il loro intero ecosistema a un insieme di attori più ampio (punto 1).
Un annoso problema è quello del mercato pubblico, che dall’Europa invia denaro ai grandi player statunitensi. è necessario favorire una commessa pubblica su aziende italiane della filiera dell’intelligenza artificiale, anche a tutela di cybersecurity e sovranità digitale, comprendendo i provider di servizi cloud nel trattamento di dati critici e strategici (punto 6).
Va poi sviluppata una certificazione Acn (Agenzia per la cybersicurezza nazionale) per il marketplace di servizi di intelligenza artificiale che segua le caratteristiche di qualificazione per la sicurezza dei servizi cloud per la Pa (punto 7).
Normativa – L’impressione che le norme attuali siano troppe, rivolte al passato e in collisione tra loro e con l’ordinamento precedente è forte e motivata. è sempre possibile trovare nel tempo un procedimento che assegni alle varie componenti l’importanza che la realtà impone. Il decalogo di Seeweb si occupa molto della normativa, dedicandole metà della sua estensione.
Parlando proprio delle norme recentemente approvate come AI-Act, Dma e Dsa, soglie, soggetti e servizi vanno considerati con maggiore attenzione di quanto fatto nelle attuali stesure. è necessario proporre una riduzione delle soglie per la notifica ed un ampliamento dei soggetti e dei servizi ricompresi nella disciplina europea dei mercati digitali, segnatamente il Dma che non include il cloud ed i modelli fondativi, ed il Dsa per i sistemi di intelligenza artificiale in modo armonizzato con l’AI-Act (punto 10).
Il punto forse più importante, però, riguarda le Autorità Antitrust. A questi organismi vanno dati maggiori poteri ex-ante per prevenire quei ricorrenti fenomeni distorsivi ai quali assistiamo:concentrazioni, acquisizioni di startup AI, self preferencing di servizi, accordi restrittivi sull’uso delle risorse computazionali, contratti di fornitura esclusiva, clausole di lock-in tecnologico tra gli altri (punto 2).
Una pratica di attrazione delle idee verso i grandi operatori, ovvero “crediti cloud” in forma di voucher da scontare nell’acquisto di servizi cloud, va vietata o comunque regolamentata, ad esempio introducendo limiti temporali e quantitativi all’uso dei voucher (punto 4).
È poi necessaria l’applicazione di altre misure che ostacolino l’estensione della dominanza sui mercati ancillari (i.e. featuring della AI sui sistemi e prodotti già in uso gratuito oppure offerti con prezzi predatori; uso dei dati raccolti senza consenso o con finalità diverse per allenare sistemi di AI) per prevenire la concentrazione del mercato dall’AI (punto 3).
La sanzione di condotte abusive, per essere efficace, richiede procedimenti regolamentari efficaci e tempistiche in linea con l’evoluzione del mercato, accompagnate da multe proporzionali (punto 9).
Formazione – Il problema della formazione è di tutti quello maggiormente strategico in un contesto nazionale, soprattutto per Paesi come l’Italia con una popolazione di piccole dimensioni, in arretramento e in invecchiamento. Invece di pensare al futuro, l’Italia generalmente guarda al passato, gonfiando il petto a parlare di “eccellenze” che -quand’anche esistano- sono sporadiche e non a sistema. Le linee guida proposte da Seeweb danno grande importanza ai programmi di educazione alle materie Stem, vicine alla realtà italiana e al futuro di giovani e ragazzi.