Recentemente mi sono trovato a un incontro di grande interesse nel quale la conduttrice metteva in un unico discorso Singapore, Indonesia e Cina. Storia, dimensione e morfologia di questi Paesi li rendono quanto di meno confrontabile esista, eppure si ritrovano spesso affiancati. Io penso che questo sia un approccio molto simile a quello dell’intelligenza artificiale generativa, che riproduce frammenti di input noti o “simili” a input noti, preferendo la verosimiglianza accettata alla ricerca di una verità reale.
Viviamo un mondo nel quale la gran parte delle cose che facciamo sono conseguenza di racconti che nel tempo hanno passato il vaglio del civil consesso, anche se in gran parte sono falsi. Il problema è che con il digitale questo procedimento viene sbugiardato e con l’interconnessione lo sbugiardamento è planetario. Inoltre, ogni nuova tecnologia rimappa il mondo esistente, giustapponendo una nuova serie di simboli alla già lunga serie di simboli di mappe precedenti, che continuano a esistere.
Dal punto di vista geometrico, l’individuazione di una cartografia non può prescindere dalla definizione di “distanza” e con essa di ciò che è “vicino”.
Quando non si trova un accordo sul concetto di “distanza”, il mondo è prossimo alla confusione tipo torre di Babele e sperabilmente alla nascita di una nuova cartografia, con nuovi concetti di distanza, che trovino accettazione se non planetaria almeno ampia.
I chip di oggi sono davvero per l’AI?
Facciamo qualche esempio. Nvidia, che a differenza di alcuni straordinari commentatori di fama internazionale noi informatici conosciamo da quando è nata, è leader assoluta nei chip per l’AI. Peccato che i suoi non siano chip per l’AI, ma siano nati per sviluppare rapidamente geometrie tridimensionali la cui matematica di base è simile ad alcune delle matematiche della fase di training delle attuali AI. Somiglianza, distanza, vicinanza… quanto l’ultima architettura di Nvidia, la Blackwell, è “vicina” a una ottimizzata per il training delle AI? E quanto è “simile” a quella ideale per l’esecuzione (“inferenza”) di modelli allenati altrove? Visto il proliferare di nuove architetture di microprocessori, c’è da pensare che ci sia una certa distanza per il training e una distanza ancora maggiore per l’esecuzione. In questi spazi, altri potrebbero inserirsi. Certo il vantaggio dell’ecosistema di Nvidia è enorme, ma anche qui si tratta di misurare una “distanza” che con nuove cartografie potrebbe essere molto minore di quanto la valutiamo oggi.
Facciamo un altro esempio nella produzione di chip. Quanto Intel è “distante” da tornare leader mondiale nella tecnologia e nella produzione di chip di fascia altissima? Tre anni fa avremmo detto che era impossibile, ma grazie a forti investimenti per essere primi nella High NA Euv di Asml e per separare l’attività sui chip proprietari da quella di foundry conto terzi oggi è quantomeno in competizione almeno sul secondo fronte, sia con TSMC sia con Samsung. Però annuncia forti perdite normali quando si cambia modello e quindi “cartografia”. D’altronde un po’ tutti i leader del mondo dei chip stanno affrontando difficoltà non trascurabili per motivi tech, market e anche di geopolitica.
Le norme dell’Odai
Un terzo esempio è ovviamente l’AI, oggetto di preoccupazioni filosofiche e quindi subito regolata molto più dei chip. Per quanto riguarda la stessa intelligenza artificiale, per usare questo termine quadro che poco dice, e molto evoca, non è chiaro come il complesso di norme relative -a partire dall’AI Act europeo- possa avere un qualsiasi senso quando le norme sono state pensate prima delle AI generative (Chat GPT, Claude, Gemini etc), applicate con le AI generative ed entreranno in vigore completo quando le AI generative saranno rese obsolete da nuovi modelli Odai (intelligenza artificiale orientata agli obiettivi), ispirati al Jepa (Joint Embedding Predictive Architecture) di Yann Lecunn e a progetti simili.
Ma quali norme regoleranno Odai? Quali chip la eseguiranno?

