Flash, iperconvergenza e cloud il focus di NetApp per le aziende

Analytics,  Artificial Intelligence e Deep Analysis richiedono  elevate capacità di storage ad alta velocità. La risposta  nei tre pillar della strategia di NetApp

 

Quale sarà la tecnologia che supporterà l’evoluzione aziendale, le applicazione di Artificial Intelligence, deep analysis  o di business analytics del futuro, e un futuro anche immediato?

Lo ha illustrato Marco Pozzoni,  counrty manager di NetApp, in un incontro in cui si è fatto il punto sui nuovi paradigmi tecnologici e architetturali che sono a disposizione dei manager aziendali alle prese con  la crescente necessità di analizzare moli consistenti d dati per trarne indicazioni su come pianificare, sviluppare ed adeguare il proprio business o le modalità di produzione.

E’ pur vero, osserva in sostanza Pozzoni, che la mole crescente di dati, soprattutto non strutturati, che un’azienda può raccogliere inerentemente i propri processi o nella relazione con il mercato costituisce una fonte preziosa per trarne indicazioni atte a migliorare il proprio approccio al business, ma  nel passare dalla teoria alla pratica sovente le aziende si scontrano con il problema che è la stessa mole di dati che in mancanza di strumenti adeguati che permettano di filtrarli e analizzarli velocemente in linea con le esigenze applicative,  il rischio è che i benefici rimangano teorici e  i dati  disponibili di servire a ben poco. In sostanza, si finirebbe con lo sprecare tempo e risorse senza attenere risultati concreti.

Quali i punti da considerare?

Per affrontare il problema, perlomeno a livello tecnologico e architetturale, si possono identificare tre pillar che sono fondamentali, ha osservato Pozzoni, tre aspetti su cui si fonda la strategia NetApp per  far si che  AI e Analytics possano costituire  per le aziende e i loro manager una effettiva e praticabile risorsa.

La tecnologia Flash per decuplicare gli IOPS

Il primo punto è la velocità. La mole di dati da analizzare è tale, e in costante crescita, che  le tecnologie di elaborazione  attuali stavano trovando nello storage e nella sua velocità di I/O in termini di IOPS un serio vincolo per l’effettiva utilità di pur sofisticate applicazioni di analytics.

La risposta  è stata lo sviluppo di tecnologie storage all flash che hanno permesso a NetApp di mettere a disposizione delle aziende e de service provider apparati basati sulla tecnologia Flash con  tempi di I/O  dell’ordine delle decine di microsecondi che sono  di un ordine di grandezza inferiori a quelli sin ad ora  usuali e che in quanto tali permettono di analizzar volumi di dati anche non strutturati, anzi, soprattutto quelli, con una velocità sino ad ora inimmaginabile, ad esempio individuare  un tipo sospetto o ricercato in pochi attimi tra decine di migliaia di persone

Iperconvergenza per  analitiche e AI

Il secondo pilastro della vision strategica è l’iperconvergenza, intendendo con questo una piattaforma rack che abbina in un unico sistema capacità di calcolo basate sulle GPU di Nvidia e di storage NetApp e costituisce in nuce quello che è a tutti gli effetti una soluzione di cloud privata, soluzione che può poi essere gestita, messa in relazione e interagire con cloud pubblici di provider quali Amazon, Microsoft  Google mantenendo il controllo complessivo e la sicurezza dei dati, tutte società con cui NetApp ha stretto partnership per fornire al mercato soluzioni ibride o multi cloud.

E’ una soluzione che da una parte permette di far fronte a esigenze che non permettono la completa esternalizzazione dell’IT nel cloud e impongono di mantenere in-house dati sensibili, si pensi ad ambienti della sanità, della difesa o finanziario. Dall’altra  permettono di disporre di una elevatissima e concentrata capacità di calcolo  in grado di elaborare analytics che richiedono prestazioni eccezionali.

Il cloud  per esternalizzare la complessità

Il terzo pilastro della vision di NetApp al fine di soddisfare le necessità di storage delle aziende impegnate nella digital transformation, e di quanto ad esso connesso oltre l’AI e gli analytics, come ad esempio il backup ed il disaster recovery, è il Cloud.

Oltre alla citata soluzione iperconvergente atta a realizzare un cloud privato, la chiave di volta della strategia NetApp è costituita da accordi strategici con i principali fornitori di servizi cloud e in particolare quelli che da tempo in corso con Amazon Web Services, quello  con Microsoft Azure, e a cui da poco si è aggiunto Google.

In sostanza, ha  spiegato Pozzoni, l’accordo con i tre  big dei servizi cloud permette alle aziende di distribuire i propri dati  tra la soluzione cloud privata e quelle pubbliche, di movimentare i dati in modo trasparente dall’una all’altra o di riportare i dati in casa una volta  completato il compito per il quale ci si era rivolti al cloud pubblico.

Ad esempio, per fare analisi di grossi volumi di dati  quando non si dispone in-house dello storage della quantità e qualità necessaria, o per far girare sui medesimi analytics, oppure per eseguire il test di applicazioni  prima di metterle in produzione.

Peraltro, si tratta di accordi che prevedono anche un modello congiunto di go-to-market che può essere attuato anche dai partner di canale di NetApp, che tramite esso possono  entrare in un settore di business che ne può ampliare  fatturato e status presso i propri client.

LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.

LEGGI ANCHE

Gli ultimi articoli