Nel sogno proibito di ogni ingegnere e scienziato c’era, fino a un po’ di anni fa, la possibilità di usare i supercomputer Cray Research, quelli ideati dall’ingegnere informatico Seymour Cray che per molti decenni del XX secolo sono stati il simbolo di un supercalcolo irraggiungibile ai più, applicato ai diversi segmenti dell’innovazione tecnico-scientifica nel mondo. Nel 2019, investendo 1,4 miliardi di dollari, HPE ha completato l’acquisizione del “gioiello” Cray, integrandolo nella propria offerta di exascale computing, un supercalcolo che nella vision dell’azienda può essere parte fondamentale nelle strategie di innovazione, di analisi big data in real time e di simulazione di centri scientifici ma anche di quelle imprese che oggi, con l’affermarsi di applicazioni di AI generativa, guardano a nuovi orizzonti di calcolo applicato a nuova produttività e sviluppo di business.
Architettura supercomputing e suite software per l’AI
Ed è per questo che HPE insieme a Nvidia, produttore americano di processori Gpu (graphics processing unit) e di moduli system on a chip, hanno annunciato congiuntamente pochi giorni fa una nuova soluzione di supercomputing per l’AI generativa. Disponibile dal prossimo dicembre in oltre 30 paesi, si basa su un supercomputer a raffreddamento liquido HPE Cray EX2500 con scheda Nvidia GH200 Grace Hopper superchip che può scalare fino a migliaia di Gpu con la possibilità di dedicare l’intera capacità elaborativa dei nodi al supporto di un singolo workload, accelerando così in modo marcato il time-to-value.
Per quanto riguarda il software, una suite di tre software tool integrata, con anche modelli pre-built customizzati, supporta gli utenti nella fase di istruzione e di tuning dei modelli di AI e di machine learning nonché nello sviluppo di applicazioni di AI generativa: la piattaforma software Hpe Machine Learning Development Environment, accelera infatti lo sviluppo e il rilascio di modelli di AI integrando i più noti framework di ML e semplificando la preparazione dei dati necessari; Nvidia AI Enterprise fornisce poi framework, modelli pre-istruiti e una serie di tool per la produzione di soluzioni AI; Hpe Cray Programming Environment è invece una suite integrata di tool per lo sviluppo, il porting, il debugging e il refining (semplificazione del codice delle applicazioni esistenti per sottoporle a una loro verifica formale).
A livello rete, Hpe Slingshot Interconnet è un network high performance Ethernet compatibile per supportare workload di classe exascale su cui le applicazioni cloud, AI, Ip e i framework possono girare senza particolari modifiche. Questo consente agli utenti di poter meglio gestire una transizione elaborativa, per alcune applicazioni, dai classici ambienti cloud a task di supercomputing reggendo anche importanti livelli di scalabilità. Infine, una serie di servizi, Hpe Complete Care Services, basata su una rete di specialisti worldwide, viene offerta per l’implementazione, il set up e il supporto nella realizzazione di questi ambienti.
Più performance, meno consumi
I supercomputer exascale si basano su architetture pensate per gestire enormi carichi di lavoro di simulazione, analisi, modellazione e Intelligenza artificiale. Queste architetture iperintegrate all’interno del sistema ma open nelle connessioni esterne per far parte di network elaborativi ibridi, distribuiti e altamente performanti, supportano una combinazione di superchip Cpu e Gpu, quest’ultime sempre più implementate in sistemi per la gestione di applicazioni di AI/ML. Essendo attività molto intense sotto il profilo computazionale, coadiuvano la Cpu per eseguire calcoli simultanei suddividendo i task in componenti più piccoli ed elaborandoli in parallelo. Le architetture vengono poi completate da nodi multisocket e da reti superveloci. Interessante, nella soluzione HPE-Nvidia, il sistema a raffreddamento liquido: si innesta nelle strategie di ricerca di maggiore efficienza energetica dei datacenter. Accanto infatti a una stima di incremento del 20% delle performance per kilowatt rispetto ai sistemi raffreddati ad aria, i consumi si riducono di circa il 15%. E considerando la potenza elaborativa necessaria per applicazioni sempre più complesse, questo si trasforma in un evidente risparmio per chi utilizza questi sistemi.

“E’ ormai oggi diventato necessario ottimizzare i processi di sviluppo di AI generativa e rendere più semplice la loro diffusione e utilizzo a livello enterprise – ha dichiarato durante la presentazione Justin Hotard, executive vice president and general manager, HPC, AI & Labs at Hewlett Packard Enterprise -. Soluzioni a cui serve dedicare le performance e la scalabilità di un supercomputer per supportare efficaci modelli di AI training”.
La soluzione HPE-Nvidia si indirizza ai segmenti del settore pubblico, enti di ricerca scientifica, università e alle grandi aziende per applicazioni a base AI generativa, di big data analytics, simulazione e modellazione. Nei più svariati ambiti: meterologia e climatologia, dove l’analisi dati, la simulazione e il modeling delle previsioni meteorologiche sono una formidabile leva di prevenzione in questa fase di cambiamenti climatici estremi. Nella chimica, farmaceutica, energy (oggi alla ricerca di nuove modalità di reperimento, gestione e storage dell’energia); nella medicina, fisica, astronomia e in tantissimi altri ambiti di applicazione. Mentre, da un punto di vista enterprise, continua l’evoluzione del modello architetturale di datacenter, soprattutto da parte delle aziende più grandi, dove accanto alle ormai classiche implementazioni in cloud appaiono applicazioni di massive computing per soluzioni business critical a base AI generativa e calcolo accelerato.