Rendere possibile l’impossibile

I nuovi scenari del computing stanno mostrando un’evoluzione della capacità di calcolo che porterà a risolvere problemi che oggi non si può nemmeno pensare di affrontare. Per ottenere questi risultati si sta ricorrendo a tecnologie basate su neuroni artificiali, DNA costruiti in laboratorio o meccanica quantistica

Oltre 150 milioni di miliardi di operazioni al secondo. Questa è l’impressionante capacità di calcolo che hanno i supercomputer più potenti al mondo oggi. Ce ne sono tre e uno si trova a Bologna, presso il Cineca: inaugurato a fine novembre 2022, è costato 240 milioni di euro. 

Tali prestazioni sono però poca cosa se paragonate a quelle che si ipotizza si potranno raggiungere in futuro: si parla infatti di macchine circa 160 milioni di volte più veloci di un computer attuale. Questo, in pratica, significa che in una manciata di minuti si potranno eseguire i calcoli che oggi un computer potrebbe eseguire in 10.000 anni. Le macchine che permetteranno tali prestazioni saranno basate su una tecnologia che sfrutta le leggi della meccanica quantistica, saranno cioè i quantum computer.

Oltre la Legge di Moore per affrontare nuove sfide

Ogni settore ha “grandi sfide” che definiscono i confini del settore stesso e relegano al suo interno i prodotti, i servizi e le strategie principali. Pensiamo per esempio alla logistica: valutare come spostare merce in più luoghi nel modo più efficiente comporta l’analisi di miliardi di possibili combinazioni. Un normale computer per individuare quella più efficace potrebbe impiegare decenni. Analogamente, le aziende farmaceutiche sono attualmente vincolate dal problema del ripiegamento proteico, mentre il settore dei servizi finanziari poggia sul presupposto che sia molto difficile prevedere il mercato azionario e modellare accuratamente il rischio. Ma cosa succederebbe se tali problemi non esistessero più? 

Oggi, stiamo assistendo all’emergere di una nuova classe di macchine che stanno allargando i confini di ciò che i computer possono fare. Queste macchine stanno invalidando la legge di Moore, che da quasi 60 anni regola il progredire della potenza di un processore secondo un andamento esponenziale, per spostarsi su una nuova curva in grado di rappresentare in modo più preciso il nuovo e più rapido sviluppo della capacità di calcolo. E quando le macchine basate su tale capacità di calcolo saranno disponibili a livello commerciale rivoluzioneranno l’industria così come la conosciamo oggi.

Hpc, biocomputer e quantum computer 

Nel panorama informatico stanno emergendo macchine che renderanno possibili affrontare sfide fondamentali. La quantistica è sicuramente l’apice della soluzione dei problemi di nuova generazione, ma già oggi gli high performance computer (HPC) possono aiutare le aziende ad estrarre insight da porzioni di dati con analisi che potrebbero essere troppo costose o inefficienti per l’informatica tradizionale. Un’ulteriore nuova classe di computer è rappresentata dall’elaborazione ispirata alla biologia, che si basa sui processi biologici naturali per archiviare dati, risolvere problemi o modellare sistemi complessi.

HPC, biocomputer e quantum computer ridurranno drasticamente la difficoltà di risoluzione di alcune delle sfide più importanti, quelle che definiscono il valore che le aziende offrono ai loro clienti. Inoltre, è opinione diffusa che gli algoritmi usati per risolvere alcuni di questi problemi (oggi non affrontabili) saranno altrettanto efficaci nel risolverne altri. In altre parole, un algoritmo che ci permetterà di progettare rapidamente un cruciverba potrà aiutarci a progettare un metodo per avere un efficiente ripiegamento delle proteine.

Solo il 7% dei dati è utilizzato

Ogni giorno vengono creati e raccolti sempre più dati e le aziende vogliono poter sfruttare gli insight che ne possono derivare. Questo incrementa senza soluzione di continuità la richiesta di maggiori capacità di calcolo. Da un’indagine di IDC risulta che nel 2020 sono stati creati, catturati o replicati 64,2 ZB di dati e la società di analisi prevede che questo numero crescerà fino a raggiungere 180 ZB entro il 2025. Tuttavia, di tutti i dati creati nel 2020, solo il 10,6% era davvero utile per un’analisi o per un’elaborazione con i modelli di intelligenza artificiale e di apprendimento automatico. E di questi dati, solo il 44% circa è stato effettivamente utilizzato. Ciò significa che le aziende stanno sottoutilizzando le informazioni in loro possesso, perdendo valore. Sempre più spesso la risposta all’enigma dell’elaborazione di dati massivi si trova nell’HPC, una combinazione di GPU, ASIC e altri chip appositamente costruiti che sta iniziando a spingere le capacità di calcolo verso nuove soglie e benchmark che solo poco tempo fa si pensava fossero lontani decenni. 

I computer ispirati alla biologia 

Assieme agli HPC, c’è un altra tecnologia che sta cambiando il modo di lavorare delle aziende, il biocomputer. I progetti pilota hanno dimostrato che questo settore può offrire elevate potenza, efficienza, velocità e precisione nella soluzione di problemi particolarmente complessi. In quest’ambito, una tecnologia all’avanguardia è l’informatica neuromorfa. I chip neuromorfi, come Loihi di Intel, hanno introdotto un nuovo design nei chip per computer: vengono impiegati neuroni artificiali per trasmettere informazioni in modo più efficiente rispetto alle CPU tradizionali. Inoltre, sono usati neuroni simulati per trasmettere i dati in ingresso e in uscita, mentre uno strato sinaptico artificiale rafforza (o indebolisce) le connessioni tra ciascun neurone. In pratica, il sistema apprende in un modo molto simile a quello del cervello umano.

Le macchine basate su queste tecnologie possono essere usate per collocare modelli di intelligenza artificiale nei sistemi di robotica, migliorando le prestazioni e riducendo drasticamente i consumi rispetto alle macchine attuali, che impiegano GPU ad alta intensità energetica. Se impiegato nel cloud il calcolo neuromorfico fornisce un chiaro vantaggio: può eseguire sistemi di intelligenza artificiale in modo efficiente dal punto di vista energetico. 

Il DNA come sistema di storage dei dati  

Questo però è solo l’inizio. Si sta, infatti, cominciando a vedere la fusione tra biologia e macchine, dove le macchine sfruttano direttamente i processi biologici. Si stima che il DNA possa immagazzinare un exabyte di dati in un solo centimetro cubo di spazio, con il potenziale di persistere per oltre 700.000 anni. L’affidabilità e l’uso economico dello spazio e dell’energia potrebbero risultare essenziali in un momento in cui la nostra propensione a creare dati sta rapidamente superando la nostra capacità di immagazzinarli in modo efficace. Le aziende generano più dati che mai e, soprattutto in settori altamente regolamentati (come quello dei servizi finanziari), sono tenute a conservarli e archiviarli per lunghi periodi di tempo. In effetti, il DNA potrebbe essere una valida soluzione a questo problema se disponibile in quantità e gestibile in modo adeguato. Nel 2019, Microsoft è stata la prima azienda a dimostrare la capacità di memorizzare e recuperare dati in un DNA fabbricato in laboratorio.

Il quantum computer, la vera svolta 

Gli HPC e i biocomputer non saranno però gli unici strumenti che le aziende potranno usare per realizzare le loro ambizioni future. La vera svolta si avrà quando arriveranno i computer quantistici e consentiranno di risolvere problemi considerati letteralmente ingestibili. 

Il parametro con cui si tende a qualificare un computer quantistico è il qubit (quantum bit) per chip. È un valore analogo al numero di transistor su un classico chip di silicio. La maggior parte dei costruttori oggi vanta chip da 20-50 qubit, mentre la maggior parte dei ricercatori vede in 1.000 qubit la soglia per avere davvero le prestazioni attese.

L’impatto di queste macchine seguirà direttamente l’emergere di lavoratori qualificati in grado di sfruttarle, che assieme agli esperti di quantum rappresentano perciò un elemento fondamentale per le potenziali implementazioni quantistiche.

Le imprese si trovano già ad affrontare una carenza di competenze tecnologiche, man mano che si spingono verso la “deep tech” corrono il rischio di veder crescere ulteriormente questo divario. Coloro che possiedono le giuste competenze e abilità non solo comprenderanno i parametri di riferimento e come si sta muovendo il mercato, ma potranno prevedere e rendere possibile la portata dell’impatto che queste macchine avranno. Perché quando alla fine tali macchine saranno disponibili (entro quattro anni secondo Goldman Sachs, che ha creato un algoritmo quantistico per la simulazione finanziaria) le imprese avranno davvero l’opportunità di effettuare elaborazioni che renderanno possibile ciò che oggi è impossibile.

DOJO, IL SUPERCOMPUTER CHE CREA LE AUTO A GUIDA AUTONOMA

Nel giugno 2021, Tesla ha presentato Dojo, supercomputer progettato internamente e costruito per realizzare auto a guida autonoma. Per anni, Tesla ha raccolto enormi quantità di dati sulla guida dalle sue auto, ma per addestrare i propri modelli a ottenere le prestazioni desiderate usando tali dati serviva una capacità di calcolo adeguata, non disponibile con i chip in commercio. Così Tesla ha progettato il chip D1 Dojo per eseguire appositamente le reti neurali alla base della sua tecnologia di guida autonoma. L’azienda ha poi progettato un’architettura specifica per raggruppare i chip e così è nato il supercomputer Dojo.

LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.

LEGGI ANCHE

Gli ultimi articoli