Il Data Center sta mutando forma e integra il Cloud, la iperconvergenza si sta affermando con concreti benefici e Nutanix la rende disponibile a tutti
Con un processo che tende a velocizzarsi è in atto, complice la iperconvergenza, la trasformazione dei data center. A dare il via sono state le esigenze degli utilizzatori e del contesto di business in cui si muovono e, subito a seguire, di chi li gestisce, e cioè il personale IT alle prese con una trasformazione digitale che in pochi anni ha proiettato il data center in uno scenario di utilizzo e un contesto architetturale del tutto nuovo.
Svariati sono i fattori che hanno portato a questo cambiamento, alcuni di natura economica e sociale, altri di natura prettamente tecnologica ed organizzativa .
Tra i primi va annoverata l’esigenza da parte delle aziende di concentrarsi sul core business e di ottimizzare Capex e Opex, il che, detto in altre parole, contenere il costo delle infrastrutture o perlomeno parametrarle ai ritorni in termine di fatturato e allo stesso tempo ottimizzare, alias ridurre, il personale preposto. Il processo di virtualizzazione dell’IT è stato in pratica un modo per contenere il Capex ed utilizzare al meglio il data center.
Tra i secondi la proiezione verso l’esterno dell’azienda, la crescita tumultuosa della Mobility, l’esigenza di rispondere rapidamente alle richieste del mercato.
Il successo del Cloud e dell’IT visto come servizio e come modo per esternalizzare la sua complessità deriva in definitiva dal fondersi di quanto sopra detto.
L’iperconvergenza, ha osservato Alberto Filisetti, Country Manager di Nutanix Italia, è un ulteriore passo in questa direzione, volta a semplificare la complessità dell’IT e in questo modo permettere anche alle PMI e alle aziende e agli enti pubblici in generale di poter trarre beneficio dai processi che sino ad ora hanno interessato e favorito i service provider o i fornitori mondiali di servizi cloud, senza che si debbano però far carico degli oneri di una complessa gestione e di parimenti elevati investimenti.
Dalla convergenza all’iperconvergenza
Ma cosa si intende per iperconvergenza? In sostanza, pur con varianti minori, la iprconvergenzaconsiste nel rendere disponibili soluzioni chiavi in mano che racchiudono capacità di calcolo, di storage e di rete, il tutto in un fattore di forma compatto e predisposto per l’espansione sia locale che geografica.
Un ruolo importante in questa evoluzione, che facilita l’evoluzione verso una smart economy, lo gioca il software e in particolare quello di orchestrazione e di gestione.
Poiché l’obiettivo primario di un tale approccio è quello della semplificazione, e cioè del poter disporre di quello che a parte le dimensioni di scala si configura come un vero e proprio data center senza però doverne supportare i costi di gestione, è subito evidente, osserva Filisetti, che il software di gestione e orchestrazione delle risorse di una soluzione per la iperconvergenza deve risultare molto user friendly e farsi carico di tutte quelle operazioni (o quasi) che in un data center convenzionale è competenza di personale specializzato che va influire in modo massiccio sui costi di esercizio e sull’Opex.
I benefici del diffondersi di soluzioni iperconvergenti sono molteplici. Innanzitutto si apre la possibilità anche per medie o piccole aziende di disporre di soluzioni resilienti e con prestazioni facilmente espandibili, sia per uso locale che per realizzare infrastrutture di backup o di disaster recovery a costi di realizzazione e di esercizio molto contenuti.
Va osservato che però nel caso di soluzione per il disaster recovery un ruolo importante è assunto da parametri quali RPO e RTO, ovverossia il punto da recuperare e il tempo in cui lo si vuole realizzare per ritornare operativi.
Tempo che naturalmente dipende dalla velocità della linea di interconnessione e che può avere un costo anche fortemente variabile. Importante è quindi anche definire una scala di priorità tra le applicazioni per stabilire quelle che devono essere recuperate e rimesse in produzione per prime, dati compresi.
Un secondo beneficio dell’iperconvergenza è che diventa più facile evolvere a livello di applicazioni e di elaborazione e gestione verso il cloud.
Si può in tale scelta strategica spostare sul cloud attività non critiche per quanto concerne la riservatezza, così come adottare il cloud per la fase di test e sviluppo di nuove applicazioni mantenendo però una gestione e un controllo locale delle applicazioni e relativi dati aventi carattere sensibili che non potrebbero essere trasferiti sul cloud, sia in base a scelte strategiche che a regolamenti nazionali e sovranazionali.
Un terzo punto coinvolge il canale, perché anche aziende o system integrator di medie dimensioni possono dare servizi con un data center che può essere rapidamente attivato anche in sedi distaccate prossime ai clienti e fatto crescere in funzione del numero e delle esigenze dei clienti.
L’approccio Nutanix alla iperconvergenza
L’approcci Nutanix alla iperconvergenza si basa nella sua essenza su uno stack che integra i layer di una soluzione IT complessa e su moduli di base su cui lo stack di applicazioni e servizi, cloud privato o ibrido compreso, opera.
Lo stack comprende a livello fisico o logico lo strato di rete che connette i moduli di calcolo e di storage, sia locali che distribuiti, e su cui agisce un software di virtualizzazione nativa che viene fornito gratuitamente assieme all’infrastruttura. Aperta è comunque la possibilità di adottare il software di virtualizzazione disponibile sul mercato preferito.
Sullo strato di virtualizzazione si calano poi le applicazioni per la gestione, l’automazione delle operation e quanto serve per una gestione nel cloud, proprietario o ibrido.
Per quanto concerne il cloud, ha illustrato Filisetti, è possibile ad esempio procedere alla attivazione e alla gestione delle applicazioni e disporre della visibilità e del controllo esaustivo dell’uso che si fa delle risorse pubbliche.
Ampia la scelta di soluzioni cloud pubbliche disponibili, che comprende Google Cloud Platform, AWS e Microsoft Azure.
Ampia anche la scelta di moduli di base, disponibili sia come elementi dotati di capacità di calcolo e di storage e anche come moduli dedicati con solo capacità di calcolo o solo capacità di storage, quest’ultima anche con caratteristiche e dimensioni atte a soddisfare sia workload normali che workload che richiedono elevate prestazioni in termini di velocità di I/O o di resilienza del media.
Non ultime, atte a soddisfare le più svariate esigenze anche le architetture realizzabili. Comprendono sia una connettività locale a livello di rack o di rete per espandere il sistema in modalità scale out, che la possibilità di remotizzazione geografica dei diversi elementi fisici per far fronte a esigenze distribuite o per realizzare architetture ad elevata resilienza dotate di capacità di disaster recovery, con sistemi che possono essere connessi sia con modalità sincrona che asincrona in funzione delle distanze e delle esigenze di recovery.