Pure Storage accelera verso l’Enterprise Data Cloud intelligente

Umberto Galtarossa, Technical Manager e IT Advisor di Pure Storage, illustra come, per consentire una gestione dati semplificata, l’azienda stia puntando su automazione avanzata, AI Copilot, sicurezza potenziata e integrazione cloud

Qualche giorno fa, Pure Storage ha riunito a Roma i propri clienti per anticipare gli annunci che segnano l’evoluzione della strategia dell’azienda. È stata l’occasione per proporre una puntuale panoramica della direzione intrapresa. Per avere un resoconto di quanto proposto e mettere in evidenza i punti cruciali dell’evento, abbiamo incontrato Umberto Galtarossa, technical manager e IT advisor di Pure Storage.

Quali sono stati i nuovi annunci? Come si riflettono sulla strategia di Pure Storage?

La strategia di Pure Storage segna il passaggio definitivo dalla semplificazione infrastrutturale lato storage all’Enterprise Data Cloud. Questa piattaforma unificata, che include tutti i nostri prodotti, si concentra sull’estensione delle capacità esistenti e si sviluppa lungo tre direzioni chiave: automazione, sicurezza e potenziamento tecnologico. L’obiettivo è offrire ai clienti un’esperienza operativa che emuli la semplicità e la flessibilità del cloud pubblico, pur mantenendo il controllo sul dato, sia in data center sia presso un service provider.

Quali sono i pilastri dell’automazione e come si traduce in più semplicità per i clienti?

Il focus si sposta sulla gestione centralizzata dell’intera flotta dati del cliente e non più solo sul singolo storage. Questa centralità è garantita dal potenziamento del software Fusion, che ora estende la gestione anche al software defined storage Portworx per gli ambienti Kubernetes.

Il vero salto di qualità sta nell’orchestrazione automatizzata. È ora possibile definire policy basate su livelli di servizio (SLA) per automatizzare workflow complessi. Per esempio, la richiesta di un nuovo spazio per un’applicazione critica può innescare con un solo click il provisioning completo, inclusi requisiti di performance, replica multi-site e configurazione della protezione ransomware. Questa capacità si integra con gli strumenti IT esistenti come ServiceNow o Slack, permettendo che una richiesta aperta su un sistema ITIL dia il via automaticamente a tutte le operazioni di provisioning dello storage, riducendo il carico operativo del personale IT.

A completare l’automazione c’è l’introduzione di AI Copilot, che semplifica l’interfacciamento con la piattaforma. Utilizzando il linguaggio naturale, gli amministratori possono interrogare il sistema (chiedendo per esempio, “quali sistemi rischiano la saturazione tra sei mesi?”) per ottenere risposte immediate su capacity planning, trend di crescita o stato di sicurezza, integrando se necessario queste informazioni nei workflow di automazione superiore.

È stata potenziata anche la sicurezza e la difesa contro il ransomware?

Sul versante della sicurezza, abbiamo esteso le nostre capacità native di Thread Detection. Il sistema monitora un numero maggiore di parametri relativi ai pattern applicativi (data reduction, letture, scritture) e innesca un allarme se rileva un cambiamento repentino che può indicare un attacco ransomware.

Questa identificazione immediata è fondamentale: individuare l’attacco all’inizio permette di attivare tempestivamente le copie di backup protette e di recuperare pochi gigabyte anziché terabyte di dati cifrati, riducendo drasticamente i tempi di ripristino.

Inoltre, abbiamo potenziato l’interoperabilità con i partner. Abbiamo stretto integrazioni con alcune aziende leader della sicurezza, come CloudStrike e FireEye, fornendogli le metriche granulari del sottosistema storage. Questo permette ai loro strumenti di avere una visione più profonda per reazioni immediate e risposte automatiche. Lo stesso principio vale per l’integrazione con Superna per l’analisi e la protezione dei dati non strutturati.

E in termini di prestazioni, AI ed efficienza energetica quali sono le novità?

Abbiamo annunciato il lancio della nuova famiglia di storage R5, che mira a potenziare ulteriormente capacità e scalabilità. In questo contesto, abbiamo migliorato la nostra tecnologia di riduzione dei dati (deduplica e compressione), basilare per l’efficienza.

Fondamentale è l’impegno verso l’intelligenza artificiale. Estendiamo la nostra integrazione con Nvidia, includendo la piattaforma Dynamo for AI Inference. Dato che l’AI è uno degli ambiti più esigenti, lo storage deve garantire prestazioni elevate per non creare colli di bottiglia e non sprecare le risorse costose delle GPU.

L’efficienza energetica è un aspetto correlato. La capacità di gestire petabyte di dati in poche rack unit e con consumi energetici molto ridotti (in kilowatt per petabyte) consente ai clienti di reindirizzare il risparmio energetico verso le GPU, ottimizzando l’infrastruttura in un’ottica di sostenibilità e massimizzazione del valore.

Come si concretizza l’espansione nel public cloud?

La nostra espansione nel cloud si consolida con l’integrazione nativa del Cloud Block Store su Azure. Questo permette ai clienti di utilizzare le nostre funzionalità di data reduction direttamente come un servizio nativo di Azure. Il vantaggio principale in questo caso è l’abbattimento dei costi del cloud, grazie alla riduzione del dato che può arrivare anche a 10-15 volte.

Infine, abbiamo introdotto un modello As-a-Service verticale per l’healthcare. Anziché sullo spazio consumato o sugli SLA standard, il metering si basa sul numero di studi clinici che il cliente deve gestire. Questo allinea il modello di consumo direttamente con il business sanitario, offrendo certezza sulla capacità infrastrutturale necessaria a supportare il carico di lavoro effettivo (come nel caso di immagini radiologiche o analisi del DNA).

LEGGI ANCHE

Gli ultimi articoli