Gen AI al lavoro su allucinazioni e nuovi chip

Condividi

Recentemente mi sono trovato a un incontro di grande interesse nel quale la conduttrice metteva in un unico discorso Singapore, Indonesia e Cina. Storia, dimensione e morfologia di questi Paesi li rendono quanto di meno confrontabile esista, eppure si ritrovano spesso affiancati. Io penso che questo sia un approccio molto simile a quello dell’intelligenza artificiale generativa, che riproduce frammenti di input noti o “simili” a input noti, preferendo la verosimiglianza accettata alla ricerca di una verità reale.

Viviamo un mondo nel quale la gran parte delle cose che facciamo sono conseguenza di racconti che nel tempo hanno passato il vaglio del civil consesso, anche se in gran parte sono falsi. Il problema è che con il digitale questo procedimento viene sbugiardato e con l’interconnessione lo sbugiardamento è planetario. Inoltre, ogni nuova tecnologia rimappa il mondo esistente, giustapponendo una nuova serie di simboli alla già lunga serie di simboli di mappe precedenti, che continuano a esistere.

Dal punto di vista geometrico, l’individuazione di una cartografia non può prescindere dalla definizione di “distanza” e con essa di ciò che è “vicino”.

Quando non si trova un accordo sul concetto di “distanza”, il mondo è prossimo alla confusione tipo torre di Babele e sperabilmente alla nascita di una nuova cartografia, con nuovi concetti di distanza, che trovino accettazione se non planetaria almeno ampia.

I chip di oggi sono davvero per l’AI?

Facciamo qualche esempio. Nvidia, che a differenza di alcuni straordinari commentatori di fama internazionale noi informatici conosciamo da quando è nata, è leader assoluta nei chip per l’AI. Peccato che i suoi non siano chip per l’AI, ma siano nati per sviluppare rapidamente geometrie tridimensionali la cui matematica di base è simile ad alcune delle matematiche della fase di training delle attuali AI. Somiglianza, distanza, vicinanza… quanto l’ultima architettura di Nvidia, la Blackwell, è “vicina” a una ottimizzata per il training delle AI? E quanto è “simile” a quella ideale per l’esecuzione (“inferenza”) di modelli allenati altrove? Visto il proliferare di nuove architetture di microprocessori, c’è da pensare che ci sia una certa distanza per il training e una distanza ancora maggiore per l’esecuzione. In questi spazi, altri potrebbero inserirsi. Certo il vantaggio dell’ecosistema di Nvidia è enorme, ma anche qui si tratta di misurare una “distanza” che con nuove cartografie potrebbe essere molto minore di quanto la valutiamo oggi.

Facciamo un altro esempio nella produzione di chip. Quanto Intel è “distante” da tornare leader mondiale nella tecnologia e nella produzione di chip di fascia altissima? Tre anni fa avremmo detto che era impossibile, ma grazie a forti investimenti per essere primi nella High NA Euv di Asml e per separare l’attività sui chip proprietari da quella di foundry conto terzi oggi è quantomeno in competizione almeno sul secondo fronte, sia con TSMC sia con Samsung. Però annuncia forti perdite normali quando si cambia modello e quindi “cartografia”. D’altronde un po’ tutti i leader del mondo dei chip stanno affrontando difficoltà non trascurabili per motivi tech, market e anche di geopolitica.

Le norme dell’Odai

Un terzo esempio è ovviamente l’AI, oggetto di preoccupazioni filosofiche e quindi subito regolata molto più dei chip. Per quanto riguarda la stessa intelligenza artificiale, per usare questo termine quadro che poco dice, e molto evoca, non è chiaro come il complesso di norme relative -a partire dall’AI Act europeo- possa avere un qualsiasi senso quando le norme sono state pensate prima delle AI generative (Chat GPT, Claude, Gemini etc), applicate con le AI generative ed entreranno in vigore completo quando le AI generative saranno rese obsolete da nuovi modelli Odai (intelligenza artificiale orientata agli obiettivi), ispirati al Jepa (Joint Embedding Predictive Architecture) di Yann Lecunn e a progetti simili.

Ma quali norme regoleranno Odai? Quali chip la eseguiranno?

Leo Sorge
Leo Sorge
Leo Sorge è laureato in ingegneria elettronica, ma ha preferito divulgare scienze e tecnologie reali o presunte. Ritiene che lo studio e l’applicazione vadano separate dai risultati attesi, e che l’ambizione sia il rifugio dei falliti. Ha collaborato a molte riviste di divulgazione, alle volte dirigendole. Ha collaborato a molti libri, tra i quali The Accidental Engineer (Lulu 2017), Lavoro contro futuro (Ultra 2020) e Internetworking (Future Fiction 2022). Copia spesso battute altrui, come quella sull’ambizione e anche l’altra per cui il business plan e la singolarità sono interessanti, ma come spunti di science fiction.

Altri Editoriali

La semplificazione come atto di leadership

Prima o poi, c’è un momento, nella vita di...

AI europea spinta dalla SAI 304 223

La sicurezza dell’AI è centro di dibattito in qualsiasi...

Elogio dell’indecisione, del dubbio e del pensiero

Milano, cinema strapieno, prima nazionale de “La grazia”, l'ultimo...

Il capitale umano come leva della reputazione aziendale

Leggendo gli scritti di Francesca Caputo, autrice del libro...

Sarà il quantum a far esplodere la AI bubble?

Per rivoluzionare ottimizzazione, telecomunicazioni e crittografia, la parola d’ordine...

La difficile strada dell’AI europea

È stato durante la recente cerimonia di inaugurazione del...