Gen AI al lavoro su allucinazioni e nuovi chip

Condividi

Recentemente mi sono trovato a un incontro di grande interesse nel quale la conduttrice metteva in un unico discorso Singapore, Indonesia e Cina. Storia, dimensione e morfologia di questi Paesi li rendono quanto di meno confrontabile esista, eppure si ritrovano spesso affiancati. Io penso che questo sia un approccio molto simile a quello dell’intelligenza artificiale generativa, che riproduce frammenti di input noti o “simili” a input noti, preferendo la verosimiglianza accettata alla ricerca di una verità reale.

Viviamo un mondo nel quale la gran parte delle cose che facciamo sono conseguenza di racconti che nel tempo hanno passato il vaglio del civil consesso, anche se in gran parte sono falsi. Il problema è che con il digitale questo procedimento viene sbugiardato e con l’interconnessione lo sbugiardamento è planetario. Inoltre, ogni nuova tecnologia rimappa il mondo esistente, giustapponendo una nuova serie di simboli alla già lunga serie di simboli di mappe precedenti, che continuano a esistere.

Dal punto di vista geometrico, l’individuazione di una cartografia non può prescindere dalla definizione di “distanza” e con essa di ciò che è “vicino”.

Quando non si trova un accordo sul concetto di “distanza”, il mondo è prossimo alla confusione tipo torre di Babele e sperabilmente alla nascita di una nuova cartografia, con nuovi concetti di distanza, che trovino accettazione se non planetaria almeno ampia.

I chip di oggi sono davvero per l’AI?

Facciamo qualche esempio. Nvidia, che a differenza di alcuni straordinari commentatori di fama internazionale noi informatici conosciamo da quando è nata, è leader assoluta nei chip per l’AI. Peccato che i suoi non siano chip per l’AI, ma siano nati per sviluppare rapidamente geometrie tridimensionali la cui matematica di base è simile ad alcune delle matematiche della fase di training delle attuali AI. Somiglianza, distanza, vicinanza… quanto l’ultima architettura di Nvidia, la Blackwell, è “vicina” a una ottimizzata per il training delle AI? E quanto è “simile” a quella ideale per l’esecuzione (“inferenza”) di modelli allenati altrove? Visto il proliferare di nuove architetture di microprocessori, c’è da pensare che ci sia una certa distanza per il training e una distanza ancora maggiore per l’esecuzione. In questi spazi, altri potrebbero inserirsi. Certo il vantaggio dell’ecosistema di Nvidia è enorme, ma anche qui si tratta di misurare una “distanza” che con nuove cartografie potrebbe essere molto minore di quanto la valutiamo oggi.

Facciamo un altro esempio nella produzione di chip. Quanto Intel è “distante” da tornare leader mondiale nella tecnologia e nella produzione di chip di fascia altissima? Tre anni fa avremmo detto che era impossibile, ma grazie a forti investimenti per essere primi nella High NA Euv di Asml e per separare l’attività sui chip proprietari da quella di foundry conto terzi oggi è quantomeno in competizione almeno sul secondo fronte, sia con TSMC sia con Samsung. Però annuncia forti perdite normali quando si cambia modello e quindi “cartografia”. D’altronde un po’ tutti i leader del mondo dei chip stanno affrontando difficoltà non trascurabili per motivi tech, market e anche di geopolitica.

Le norme dell’Odai

Un terzo esempio è ovviamente l’AI, oggetto di preoccupazioni filosofiche e quindi subito regolata molto più dei chip. Per quanto riguarda la stessa intelligenza artificiale, per usare questo termine quadro che poco dice, e molto evoca, non è chiaro come il complesso di norme relative -a partire dall’AI Act europeo- possa avere un qualsiasi senso quando le norme sono state pensate prima delle AI generative (Chat GPT, Claude, Gemini etc), applicate con le AI generative ed entreranno in vigore completo quando le AI generative saranno rese obsolete da nuovi modelli Odai (intelligenza artificiale orientata agli obiettivi), ispirati al Jepa (Joint Embedding Predictive Architecture) di Yann Lecunn e a progetti simili.

Ma quali norme regoleranno Odai? Quali chip la eseguiranno?

LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.

Leo Sorge
Leo Sorge
Leo Sorge è laureato in ingegneria elettronica, ma ha preferito divulgare scienze e tecnologie reali o presunte. Ritiene che lo studio e l’applicazione vadano separate dai risultati attesi, e che l’ambizione sia il rifugio dei falliti. Ha collaborato a molte riviste di divulgazione, alle volte dirigendole. Ha collaborato a molti libri, tra i quali The Accidental Engineer (Lulu 2017), Lavoro contro futuro (Ultra 2020) e Internetworking (Future Fiction 2022). Copia spesso battute altrui, come quella sull’ambizione e anche l’altra per cui il business plan e la singolarità sono interessanti, ma come spunti di science fiction.

Altri Editoriali

Vuoi vendere? Vienimi più vicino (CLOSER)

Ho avuto recentemente modo di approfondire il sales framework...

Professioni digitali per donne e uomini nuovi

Sempre più interessanti si prospettano gli scenari futuri legati...

Il lavoro è ancora una priorità?

Siamo fuori ormai da un po’ dal lockdown e...

AI generativa: ora che c’è, come dobbiamo usarla?

L’ascesa dell’Intelligenza Artificiale generativa rappresenta uno dei momenti di...

Agenti e programmatori per i superpod dell’AI

L’architettura dei data center per l’AI richiede che chip...

Siete pronti per le riunioni alle 8 del mattino?

Con lo stesso fervore riservato ad argomenti come Quiet...