Quando un data center può dirsi AI ready

Come cambia il modello infrastrutturale per i carichi AI tra densità di potenza, raffreddamento a liquido e vincoli energetici

Diciamo subito che parlare di data center “AI ready” non significa ospitare qualche GPU in più ma, invece, identificare un’infrastruttura progettata per ospitare carichi accelerati che comprimono, nello stesso perimetro fisico, tre ordini di complessità: picchi di potenza molto più alti per rack, profili termici più difficili da gestire con l’aria e una catena di alimentazione e raffreddamento che deve scalare più velocemente dell’IT, spesso in presenza di tempi lunghi per connessioni elettriche e componenti critici.

Cosa cambia quando il carico elaborativo non è più tradizionale

La prima distinzione utile parlando di carichi elaborativi a supporto dell’AI è quella tra training e inference ovvero tra la fase in cui il modello viene addestrato e quella in cui il modello (già addestrato) viene utilizzato per fare previsioni su dati. Perché cambia tutto: continuità del carico, tolleranza alle interruzioni, esigenza di prossimità ai dati e persino la convenienza di fare retrofit rispetto a costruire.

Nell’AI Infrastructure Survey 2025 di Uptime Institute emerge che una quota significativa di operatori sta già gestendo carichi AI in più forme (training, inference ed entrambi), ma soprattutto che i requisiti di potenza e raffreddamento stanno determinando interventi strutturali su impianti e distribuzione anziché semplici aggiornamenti di sala. In pratica, AI ready significa poter mettere in produzione nuovi rack riempiti di GPU senza trasformare ogni progetto in un prototipo. Vuol dire avere già deciso, e validato, dove finisce l’aria e dove inizia il liquido come mezzo di raffreddamento; come si trasporta potenza dal punto di consegna fino al rack senza colli di bottiglia; come si controllano perdite, qualità del fluido, condensa e manutenzione; come si assicura che rete e storage non diventino il limite quando il traffico esplode. È una disciplina di ingegneria dei sistemi, più che un’estensione dell’IT.

La domanda che sposta gli investimenti dal silicio all’impiantistica

Alcuni numeri mostrano l’impatto dell’AI ready e spiegano perché è diventato un tema di progettazione infrastrutturale, non solo di capacity planning.

Gartner ha riportato (novembre 2025) che i consumi elettrici dei data center a livello mondiale passeranno da 448 TWh nel 2025 a 980 TWh nel 2030. Un dato in linea con quello riportato nel report Energy and AI dell’Agenzia Internazionale dell’Energia (IEA) che stima che il consumo elettrico dei data center a livello globale possa arrivare entro il 2030 intorno a 945 TWh. La stessa analisi evidenzia che i server accelerati sono tra i fattori con la crescita più rapida e che l’AI sta cambiando il profilo della domanda, rendendolo più concentrato e meno “morbido” da assorbire con sola efficienza.

Per chi progetta, ciò che davvero conta è la disponibilità di potenza nei tempi richiesti, cioè il “time-to-power”, e la capacità di portarla davvero al rack, limitando perdite e riducendo i rischi operativi.

Sul lato investimenti, Dell’Oro Group riporta che la spesa Capex mondiale per data center è cresciuta del 59% anno su anno nel 3Q 2025, segnando l’ottavo trimestre consecutivo di crescita a doppia cifra in un ciclo trainato dall’AI. Il ciclo di espansione legato all’AI potrebbe portare il Capex globale dei data center ad avvicinarsi a 1.000 miliardi di dollari già nel 2026 e a raggiungere 1,7 trilioni di dollari entro il 2030, con i Top 4 hyperscaler statunitensi attesi intorno a circa metà della spesa globale a fine decennio.

Ripensare la catena elettrica

Il collo di bottiglia in molti progetti “AI ready” è l’intera catena elettrica: dalla connessione in media tensione, ai trasformatori, ai quadri, alla distribuzione in sala, fino a busway e PDU, con vincoli di spazio, dissipazione e sicurezza.

Con rack che entro 18 mesi aumenteranno le richieste di potenza di 10 volte rispetto agli standard passati, cambiano le correnti, cambiano le sezioni, cambia la gestione dei guasti. E cambia soprattutto la capacità di assorbire le rapide e drastiche variazioni di potenza: i sistemi con GPU possono passare in pochi istanti da un livello di consumo all’altro, seguendo i cicli di lavoro del software. Un data center “AI ready” non si limita a “reggere” un carico medio; deve rimanere stabile e controllabile quando il carico varia rapidamente.

Qui entra anche un aspetto spesso sottovalutato: la prossimità tra alimentazione e raffreddamento. A densità elevate, ridurre perdite e gestire calore diventa un problema unico. Questo spiega perché, negli ultimi mesi, l’attenzione si è spostata su architetture di distribuzione elettrica più efficienti e su un’idea molto concreta: avvicinare al rack le trasformazioni di tensione necessarie per alimentare l’IT. In pratica, lungo il percorso dall’arrivo dell’elettricità fino ai server, la corrente deve essere adattata (per esempio abbassando la tensione e rendendola più stabile, oppure convertendola nel formato richiesto dall’elettronica). Fare una parte maggiore di questo lavoro vicino ai rack riduce le distanze su cui circolano correnti elevate, taglia le perdite, limita il riscaldamento dei cavi e rende più facile isolare un problema senza coinvolgere l’intera sala. Non è una scelta di stile, ma una risposta ai vincoli fisici di energia e calore e alla necessità di contenere il rischio operativo quando la densità cresce.

Per anni si è utilizzato il termine “alta densità” per indicare situazioni con rack da 20 kW o 30 kW. Con l’AI, questa soglia si appresta a diventare, in molti contesti, quella di ingresso. La densità media cresce, ma resta spesso in fasce dove l’aria è ancora predominante come mezzo di raffreddamento e questo crea un divario tra infrastrutture esistenti e nuove esigenze AI.

L’effetto non è solo impiantistico ma anche strutturale, con implicazioni su pavimenti, movimentazione, altezze e perfino ascensori e varchi. Il punto è chiaro: la prontezza all’AI richiede che layout, portate, carichi statici e dinamici siano parte del progetto fin dall’inizio, non un adattamento successivo.

Il raffreddamento per l’AI è a liquido

Quando la densità di potenza sale, l’aria come mezzo di raffreddamento da sola non basta e si inserisce al più in un approccio ibrido. Già sopra i 20 kW per rack i temi dell’energia dei ventilatori, del controllo termico e del contenimento dell’aria calda iniziano a diventare problematiche.

Qui la domanda giusta non è “liquid cooling sì o no”, ma “quale architettura termica, con quale interfaccia tra IT e facility”. Le opzioni tecniche sono molto varie: rear-door heat exchanger, direct-to-chip, immersion, single-phase, two-phase, CDU (coolant distribution unit), TCS loop (technology cooling system), acqua temperata, dry cooler, adiabatico, chiller assistito. In un data center AI ready, queste scelte definiscono la ripetibilità del deployment: se ogni fornitore GPU porta un circuito diverso e ogni sala si adatta artigianalmente, la scalabilità si interrompe.

Il raffreddamento pesa anche sul conto energetico perché, se l’AI porta più energia IT, porta anche più energia “non IT” e i sistemi di raffreddamento possono rappresentare una quota molto importante dell’energia totale di un data center (anche il 30-40%).

La domanda legata all’AI sta accelerando il mercato del liquid cooling che Dell’Oro indica in quasi 3 miliardi di dollari di ricavi nel 2025 con una crescita prevista fino a circa 7 miliardi entro il 2029. È un segnale importante perché descrive uno spostamento degli investimenti dalla sola capacità di raffreddamento “in sala” a soluzioni sempre più vicine ai server e alle GPU.

Rete, storage e server a supporto dell’AI

Un data center AI ready non può trattare rete e storage come componenti “a valle”. Nel training, il collo di bottiglia non è solo la potenza di calcolo, ma anche la capacità di alimentare GPU e acceleratori con dati e sincronizzazione. Questo spinge verso reti ad altissima banda e bassa latenza, spesso dedicate, con configurazioni di rete che devono impedire congestioni e colli di bottiglia.

In parallelo, lo storage deve sostenere volumi di dati molto elevati e parallelismo, con architetture che avvicinano dati “caldi” utilizzati frequentemente alla parte di computazione e, nel contempo, spingono dati “freddi” archiviati verso tecnologie meno costose. Qui “AI ready” si traduce in vincoli fisici concreti: più fibra, più densità di porte, più consumo per apparati di rete, più calore localizzato nei punti di interconnessione.

Un equivoco frequente è applicare in modo automatico le logiche di disponibilità dei data center entreprise nello stesso modo a tutti i carichi AI. In realtà, i requisiti possono essere diversi: un ambiente dedicato al training può anche fermarsi per pochi minuti, perché il lavoro può ripartire dall’ultimo punto salvato; al contrario, quando l’AI è usata per erogare servizi operativi, l’inference deve restare sempre disponibile e richiede livelli di continuità simili a quelli dei sistemi mission-critical.

Questo non significa diminuire la qualità. Significa allocare budget e complessità dove creano valore reale: per esempio, investire in segmentazione elettrica e termica per gruppi di rack, in modo che un intervento su un loop o su un quadro non trascini giù l’intera sala; oppure progettare ridondanze mirate su pompe/CDU e su punti critici di rete, anziché replicare indiscriminatamente tutto il “powertrain”.

Se si guarda all’hardware, la dinamica è coerente con la pressione infrastrutturale. Secondo IDC, nel secondo trimestre del 2025 il mercato mondiale dei server è cresciuto in valore del 97,3% rispetto all’anno precedente, con un CAGR quinquennale indicato al 28,7%. Anche qui la lettura utile per l’“AI ready” non è solo “si vendono più server”, ma “la base installata sta cambiando profilo energetico e termico”, perché gran parte di quella crescita è legata a server accelerati e a configurazioni dense.

Standard e classificazioni per i data center AI ready

Quando “AI ready” entra nei capitolati, serve un linguaggio verificabile. In questo senso, è rilevante ricordare che la serie ISO/IEC 22237 introduce concetti di classificazione dei data center basati su disponibilità, sicurezza ed efficienza energetica lungo il ciclo di vita, offrendo un quadro di riferimento per requisiti e comparabilità.

Non è uno standard “per l’AI”, ma è un punto d’appoggio utile: aiuta a riportare la discussione dal marketing a criteri misurabili, soprattutto quando si devono confrontare proposte di colocation “AI ready” con scelte di on-premise o di campus dedicati.

In prospettiva, la maturità dell’“AI ready” passerà da qui: capacità di dichiarare, con prove e parametri, non solo quanta potenza nominale è installata, ma quanta potenza è effettivamente consegnabile al rack, con quale profilo di transitorio, con quale architettura termica, con quali limiti di densità per zona e con quale modello operativo di manutenzione.

Chi riuscirà a rendere questi elementi ripetibili, e quindi industrializzabili, avrà un vantaggio concreto nel ciclo di investimenti che sta spostando l’asse del data center dall’IT alla fisica dell’infrastruttura.

LEGGI ANCHE

Gli ultimi articoli