Una notizia che ci rincorre da svariati anni è che la quantità di dati generati a livello globale (nuove copie e copie replicate) continua a crescere. Secondo il Global DataSphere di IDC, per citare una delle previsioni in circolazione, l’attuale tasso di crescita annuale composto è del 23% tra il 2020 al 2025: questa indagine ipotizza che nel 2025 verranno raggiunti i 180 zettabyte, dove 1 zettabyte è 10 elevato alla 21 byte.
Oltre alla quantità di dati nuova, il rapporto tra dati replicati e dati inizialmente acquisiti sta aumentando senza controllo. Molte architetture di archiviazione basate su cloud mantengono copie multiple dei dati per aumentare la probabilità che vengano recuperati intatti e per evitare tempi di attesa mentre i dispositivi di archiviazione eseguono il ripristino degli errori.
In queste condizioni, inserire fino a 200 terabyte di dati in appena un grammo di materiale sarebbe di grande aiuto. E se la registrazione restasse stabile nei millenni senza nessun rischio di alterazione e senza necessità di alimentazione, sarebbe un vantaggio anche dal punto di vista energetico globale. Ovviamente queste sono solo osservazioni parziali, che non permettono di descrivere un intero workflow così innovativo come quello che si ipotizza con il DNA Storage. “Il DNA Storage è come il Quantum Computing e anche la fusione nucleare: se ne parla da tempo ma ancora non è possibile fare una vera e propria roadmap – ci ha detto Enrico Signoretti, VP Product and Strategy in Cubbit -; se qualcuno riuscirà, allora i vantaggi potrebbero essere notevolissimi”.
La fascinazione dei numeri prevede una rapida evoluzione della capacità di registrazione. D’altronde il limite teorico è di 1 zettabyte di dati (1 milione di petabyte) in un solo grammo di sostanza zuccherina. Al momento questa possibilità è vista solo nei laboratori, anche per semplici problemi di costo.
Secondo l’American Chemical Society, infatti, oggi la scrittura su DNA costa 1 teradollaro (mille miliardi) per 1 petabyte, quindi è decisamente costosa. Ci si attende però che già nel 2030 un petabyte scenda a 1.000$ in ciascuno dei versi di scrittura o lettura, ma per ora le cose non stanno così: al momento questa tecnologia è disponibile solo nei laboratori, ma secondo alcuni entrerà nelle grandi aziende già nel 2030.
C’è ancora molto spazio
L’enorme capacità di memorizzazione del DNA dipende da due fattori principali, l’occupazione del supporto e la distribuzione tridimensionale. Per pura curiosità si può provare a fare qualche conto, che ha valore limitatissimo anche perché la dimensione di un atomo e di una molecola variano molto a seconda di svariate condizioni che invalidano il concetto di “valor medio”.
In sé una unità di memoria DNA richiede al massimo una base da 0,1-0,2 nanometri di diametro, che occupa lo spazio di una sferetta da circa 8 millesimi di nanometri cubici. La cella di memoria digitale richiede alcuni transistor da qualche nanometro di dimensione (da 10 a 100), posati sul piano e incapsulati in moduli da alimentare, raffreddare e così via.Impilare nello spazio i vari chip non è efficiente. Le differenze complessive sono notevoli. Certo per la fisica c’è molto, molto spazio: “there’s Plenty of Room at the Bottom”, scrisse nel 1959 il fisico Richard Feynman, per poi ricevere il Nobel per la fisica nel 1965. Ma fisica e business non sempre vanno d’accordo.
La tecnologia e le fasi
Le fasi di memorizzazione su DNA sono cinque. Il DNA è una lunga sequenza di zuccheri ai quali si attaccano grosse molecole a base di fosforo, dette simbolicamente A, T, C e G dalle iniziali dei nomi completi.
Ecco le cinque fasi:
- codifica da numeri binari da sequenze di 0/1 a sequenze di ATCG
- stampa di una sequenza (strand) di DNA
- accesso al DNA
- rileggere le sequenze ATCG
- decodificare da ATCG a 0/1
Sempre parlando del presente, la seconda fase di realizzazione della struttura di memoria prevede la cosiddetta stampa di DNA con macchinari costosissimi che richiedono una settimana di lavorazione. Per la fase 4, in lettura dovremo fare un sequencing, che a parte le lunghe file e lunghe code di accesso alla risorsa richiede decine di minuti. Il primo use case che viene in mente è ovviamente la semplice archiviazione stabile e in poco spazio, ma certamente questa tecnologia si adatterà anche ad altre soluzioni. Ci si attende che nel 2030 queste operazioni saranno molto più immediate, anche se questi “rimangono progetti di laboratorio finché non si riesce a dimostrare il contrario”.
Alcune previsioni da qui al 2035
Il mercato reale non sembra al momento affascinato da questa ipotesi. “Nessuna azienda normale oggi sta investendo in DNA storage”, continua Signoretti, che ha un lungo passato da analista presso Gigaom; “per capirci, il nastro resta il mezzo più economico in termini di $/TB, non consuma corrente, e c’è una roadmap molto robusta. i giovani che non lavorano per i grandi non lo sanno, ma Amazon S3 Glacier e i backup di Google sono su nastro, una tecnologia nata a cavallo tra gli anni ‘50 e ‘60”. Sebbene i fattori di cui sopra stiano guidando una crescita senza precedenti della domanda di storage, l’offerta di storage non tiene il passo con la crescente domanda. IDC StorageSphere stima che la base installata totale di storage dovrebbe crescere al 19% CAGR (2020-2025).
D’altra parte, Gartner fa riferimento a un’imminente zona di potenziale insufficienza e stima che la domanda di storage dei fornitori su larga scala abbia già superato questo tasso, crescendo di quasi il 35% CAGR dal 2013 al 2019, e si prevede che possa potenzialmente salire fino al 50% CAGR dal 2020 al 2030.