Analytics, Artificial Intelligence e Deep Analysis richiedono elevate capacità di storage ad alta velocità. La risposta nei tre pillar della strategia di NetApp
Quale sarà la tecnologia che supporterà l’evoluzione aziendale, le applicazione di Artificial Intelligence, deep analysis o di business analytics del futuro, e un futuro anche immediato?
Lo ha illustrato Marco Pozzoni, counrty manager di NetApp, in un incontro in cui si è fatto il punto sui nuovi paradigmi tecnologici e architetturali che sono a disposizione dei manager aziendali alle prese con la crescente necessità di analizzare moli consistenti d dati per trarne indicazioni su come pianificare, sviluppare ed adeguare il proprio business o le modalità di produzione.
E’ pur vero, osserva in sostanza Pozzoni, che la mole crescente di dati, soprattutto non strutturati, che un’azienda può raccogliere inerentemente i propri processi o nella relazione con il mercato costituisce una fonte preziosa per trarne indicazioni atte a migliorare il proprio approccio al business, ma nel passare dalla teoria alla pratica sovente le aziende si scontrano con il problema che è la stessa mole di dati che in mancanza di strumenti adeguati che permettano di filtrarli e analizzarli velocemente in linea con le esigenze applicative, il rischio è che i benefici rimangano teorici e i dati disponibili di servire a ben poco. In sostanza, si finirebbe con lo sprecare tempo e risorse senza attenere risultati concreti.
Quali i punti da considerare?
Per affrontare il problema, perlomeno a livello tecnologico e architetturale, si possono identificare tre pillar che sono fondamentali, ha osservato Pozzoni, tre aspetti su cui si fonda la strategia NetApp per far si che AI e Analytics possano costituire per le aziende e i loro manager una effettiva e praticabile risorsa.
La tecnologia Flash per decuplicare gli IOPS
Il primo punto è la velocità. La mole di dati da analizzare è tale, e in costante crescita, che le tecnologie di elaborazione attuali stavano trovando nello storage e nella sua velocità di I/O in termini di IOPS un serio vincolo per l’effettiva utilità di pur sofisticate applicazioni di analytics.
La risposta è stata lo sviluppo di tecnologie storage all flash che hanno permesso a NetApp di mettere a disposizione delle aziende e de service provider apparati basati sulla tecnologia Flash con tempi di I/O dell’ordine delle decine di microsecondi che sono di un ordine di grandezza inferiori a quelli sin ad ora usuali e che in quanto tali permettono di analizzar volumi di dati anche non strutturati, anzi, soprattutto quelli, con una velocità sino ad ora inimmaginabile, ad esempio individuare un tipo sospetto o ricercato in pochi attimi tra decine di migliaia di persone
Iperconvergenza per analitiche e AI
Il secondo pilastro della vision strategica è l’iperconvergenza, intendendo con questo una piattaforma rack che abbina in un unico sistema capacità di calcolo basate sulle GPU di Nvidia e di storage NetApp e costituisce in nuce quello che è a tutti gli effetti una soluzione di cloud privata, soluzione che può poi essere gestita, messa in relazione e interagire con cloud pubblici di provider quali Amazon, Microsoft Google mantenendo il controllo complessivo e la sicurezza dei dati, tutte società con cui NetApp ha stretto partnership per fornire al mercato soluzioni ibride o multi cloud.
E’ una soluzione che da una parte permette di far fronte a esigenze che non permettono la completa esternalizzazione dell’IT nel cloud e impongono di mantenere in-house dati sensibili, si pensi ad ambienti della sanità, della difesa o finanziario. Dall’altra permettono di disporre di una elevatissima e concentrata capacità di calcolo in grado di elaborare analytics che richiedono prestazioni eccezionali.
Il cloud per esternalizzare la complessità
Il terzo pilastro della vision di NetApp al fine di soddisfare le necessità di storage delle aziende impegnate nella digital transformation, e di quanto ad esso connesso oltre l’AI e gli analytics, come ad esempio il backup ed il disaster recovery, è il Cloud.
Oltre alla citata soluzione iperconvergente atta a realizzare un cloud privato, la chiave di volta della strategia NetApp è costituita da accordi strategici con i principali fornitori di servizi cloud e in particolare quelli che da tempo in corso con Amazon Web Services, quello con Microsoft Azure, e a cui da poco si è aggiunto Google.
In sostanza, ha spiegato Pozzoni, l’accordo con i tre big dei servizi cloud permette alle aziende di distribuire i propri dati tra la soluzione cloud privata e quelle pubbliche, di movimentare i dati in modo trasparente dall’una all’altra o di riportare i dati in casa una volta completato il compito per il quale ci si era rivolti al cloud pubblico.
Ad esempio, per fare analisi di grossi volumi di dati quando non si dispone in-house dello storage della quantità e qualità necessaria, o per far girare sui medesimi analytics, oppure per eseguire il test di applicazioni prima di metterle in produzione.
Peraltro, si tratta di accordi che prevedono anche un modello congiunto di go-to-market che può essere attuato anche dai partner di canale di NetApp, che tramite esso possono entrare in un settore di business che ne può ampliare fatturato e status presso i propri client.