Data center AI: la strategia Huawei

Dall'AI data platform al raffreddamento ad alta efficienza, l’azienda presenta un ecosistema end-to-end per data center capaci di supportare la crescita esponenziale dell'intelligenza artificiale

Huawei punta a ridefinire il ruolo dei data center nell’era dell’intelligenza artificiale, presentando una nuova visione che integra soluzioni end-to-end pensate per sostenere la crescita esponenziale delle applicazioni AI.

L’approccio dell’azienda copre l’intera architettura del data center, dall’elaborazione dei dati fino alla gestione termica, con l’obiettivo di rispondere a requisiti sempre più stringenti in termini di efficienza energetica, densità di calcolo e continuità operativa.

La rapida diffusione dell’intelligenza artificiale, e in particolare dei modelli di agentic AI, sta infatti imponendo un ripensamento profondo delle infrastrutture IT. Non si tratta più di supportare workload marginali, ma di abilitare applicazioni core per il business, con esigenze di scalabilità che possono crescere fino a 10 o 100 volte rispetto agli attuali livelli.

Secondo Justin Ju, CEO del Data Center Team di Huawei, le aziende devono anticipare questa evoluzione costruendo fin da oggi piattaforme di computing in grado di sostenere una domanda in forte accelerazione. L’AI sta infatti passando da tecnologia abilitante a vero e proprio motore produttivo, con modelli sempre più diversificati e personalizzati per settore.

In questo scenario, Huawei propone un ecosistema integrato che combina piattaforme dati, infrastrutture di rete e soluzioni di raffreddamento avanzate, con l’obiettivo di supportare data center più performanti, resilienti e sostenibili.

Huawei AI Data Platform

La Huawei AI Data Platform è progettata per consentire agli agenti AI enterprise di far fronte alle sfide che pongono limiti alle prestazioni, tra cui l’uso inefficiente della conoscenza, la ridotta capacità di memoria e la lentezza dell’inferenza. La piattaforma integra tre tecnologie chiave: generazione e recupero della conoscenza, estrazione e richiamo dalla memoria e accelerazione dell’inferenza tramite Unified Cache Manager (UCM).

Xinghe AI Fabric 2.0

Huawei ha inoltre presentato Xinghe AI Fabric 2.0, un aggiornamento radicale della soluzione AI Fabric introdotta nel 2018. Dotata di una nuova architettura articolata su tre livelli – Intelligent Brain, Intelligent Connectivity e Intelligent Network Elements – la soluzione integra quattro capacità core:

  • Rock-Solid Architecture 2.0, che garantisce tre livelli di alta affidabilità grazie all’Eagle-Eye Engine;
  • StarryWing Digital Map 2.0, che offre tre livelli di automazione con NetMaster;
  • Xinghuan AI Turbo 2.0, che fornisce le capacità delle tecnologie Network Packet Load Balancing (NPLB) e Network Stream Load Balancing (NSLB);
  • iFlashboot 2.0, che consente riavvii ultra-rapidi in 5 secondi per garantire la continuità operativa.

In occasione del lancio di Xinghe AI Fabric 2.0, Huawei ha inoltre annunciato una nuova Scenario Driven Foundation Model Solution, progettata per l’implementazione e lo sviluppo di AI DC (Data Center) ad alta qualità. Queste innovazioni sono state progettate per consentire alle aziende di costruire reti di data center agentic AI sempre attive, con piena disponibilità di computing power.

CloudEngine XH9230-128DQ-LC e StarryLink

Huawei ha lanciato CloudEngine XH9230-128DQ-LC, il primo switch fisso liquid-cooled commerciale da 51.2T (128 × 400GE) del settore. Grazie alla struttura di raffreddamento brevettata e a un nuovo mezzo di conduzione termica, la soluzione garantisce il raffreddamento liquido al 100% dei moduli ottici, con un’efficienza di dissipazione del calore doppia rispetto alla media di settore, e supporta il deployment di otto switch per cabinet, raddoppiando l’efficienza di utilizzo dello spazio.

A completare il portafoglio hardware, la serie completa di moduli ottici 800GE/400GE StarryLink, caratterizzati da un’affidabilità raddoppiata rispetto alla media di settore e da capacità di trasmissione ultra-long range, per reti stabili e ad alte prestazioni. Il portafoglio completo di prodotti 800GE comprende, inoltre, gli switch modulari CloudEngine XH16800 con fino a 768 × 800GE port, e lo switch fisso CloudEngine XH9330 con 128 × 800GE port, lo switch fisso CloudEngine XH9320 con 64 × 800GE port.

Large Temperature Difference Cooling System

Con la crescita globale dei data center e requisiti PUE (Power Usage Effectiveness) sempre più stringenti – fino a PUE ≤ 1,25 per i nuovi impianti – il raffreddamento tradizionale ad acqua ha raggiunto i propri limiti fisici. Per affrontare questa sfida, Huawei ha introdotto il Large Temperature Difference Cooling System, un sistema di raffreddamento dalla elevata differenza di temperatura che ridefinisce l’architettura di raffreddamento per supportare i clienti di tutto il mondo nell’implementare data center ecocompatibili e a ridotte emissioni di carbonio, raggiungendo un equilibrio ottimale tra efficienza energetica e costi. La soluzione, che ottimizza le reti di scambio termico migliorando l’efficienza di raffreddamento di oltre il 30%, offre tre vantaggi fondamentali:

  • innovazione architetturale, che consente di massimizzare il potenziale del free cooling ampliando le differenze di temperatura nel sistema;
  • efficienza energetica, che garantisce un miglioramento continuo del PUE attraverso simulazioni avanzate e ottimizzazione sinergica dei componenti;
  • affidabilità operativa, che assicura temperature costanti dei terminali e la sicurezza delle apparecchiature, massimizzando al contempo l’efficienza di raffreddamento

Guardando al futuro, Huawei rafforza il proprio impegno nell’innovazione orientata al cliente e nella collaborazione aperta con partner e clienti globali, con l’obiettivo di accelerare la trasformazione intelligente dei data center e porre insieme le fondamenta di un futuro più efficiente, affidabile e sostenibile.

LEGGI ANCHE

Gli ultimi articoli