L’evoluzione dell’intelligenza artificiale e del calcolo accelerato sta modificando radicalmente il modo in cui viene concepita l’infrastruttura IT. Non si tratta più soltanto di server o rack sempre più potenti: oggi l’intero data center tende a diventare una vera unità di calcolo integrata, progettata per gestire carichi di lavoro AI sempre più complessi e ad alta densità.
Questa trasformazione impone un cambio di prospettiva anche dal punto di vista culturale. Mentre oggetti di uso quotidiano come automobili, elettrodomestici e dispositivi indossabili vengono ormai percepiti come veri e propri computer, lo stesso non accade ancora per le infrastrutture che elaborano i dati su larga scala.

Andrea Faeti, sales director Enterprise Accounts di Vertiv Italia, descrive chiaramente questo paradosso: “Ci siamo abituati a chiamare “computer” cose che fino a poco tempo fa erano solo oggetti di uso quotidiano. Le automobili sono l’esempio più noto. Con più codice di un jet da combattimento e una quantità di chip superiore a qualunque hardware, sono diventate veri calcolatori su ruote, alcune addirittura a guida autonoma. Lo stesso vale per i frigoriferi intelligenti, gli orologi, i termostati e sì, persino le lavatrici. Eppure, paradossalmente, non riconosciamo la stessa dignità digitale agli ambienti che ospitano l’elaborazione dei dati.”
Il data center come nuova unità di calcolo
L’introduzione di modelli AI sempre più sofisticati, con trilioni di parametri, sta accelerando questa evoluzione. I cluster GPU utilizzati per il training e l’inferenza richiedono densità energetiche e capacità di raffreddamento che superano i limiti delle architetture tradizionali.
Faeti sottolinea come questo cambiamento stia portando a una revisione completa del concetto stesso di data center: “Jensen Huang, CEO di NVIDIA, ha affermato che il data center stesso è oggi l’unità di calcolo. Si tratta di un’evoluzione interessante: Chip → Server → Rack → File → Sala → Data center. Ogni livello è una macchina più integrata e ottimizzata, non un insieme di parti separate.”
In questo scenario, il data center non è più soltanto lo spazio fisico che ospita l’infrastruttura IT, ma diventa una piattaforma integrata in cui alimentazione, raffreddamento e sistemi di elaborazione lavorano come un unico sistema progettato per massimizzare efficienza e prestazioni.
Secondo diversi analisti, tra cui i ricercatori di 451 Research, questo approccio porta a considerare il data center come una vera macchina ingegnerizzata, dotata di metriche di prestazione, specifiche di tolleranza e modelli di progettazione replicabili.
L’impatto dell’AI su energia e raffreddamento
La crescita dei workload di intelligenza artificiale sta imponendo nuove sfide anche dal punto di vista energetico e termico. I rack di nuova generazione possono superare i 100 kW di consumo, rendendo sempre più diffuso l’utilizzo di sistemi di raffreddamento a liquido.
In questo contesto, l’integrazione tra IT e infrastruttura fisica diventa fondamentale. Alimentazione elettrica, gestione termica e sistemi di elaborazione devono essere progettati in modo coordinato per garantire stabilità, efficienza energetica e continuità operativa.
Vertiv sta lavorando proprio su questa convergenza tra IT e OT, collaborando con produttori di chip e piattaforme di calcolo avanzate per sviluppare architetture infrastrutturali pensate per l’AI.
Tra le iniziative più recenti rientra lo sviluppo di un’architettura di riferimento da 7 MW per la piattaforma NVIDIA GB200 NVL72, progettata per supportare ambienti rack-scale raffreddati a liquido con densità fino a 132 kW per rack.
Verso le AI Factory
Parallelamente sta emergendo anche un nuovo modo di descrivere i data center ottimizzati per l’intelligenza artificiale. Sempre più spesso vengono definiti AI Factory, ovvero infrastrutture progettate per “produrre” capacità di calcolo AI su scala industriale.
Nei contesti hyperscale, questa visione porta persino a parlare di AI Gigafactory, sottolineando la dimensione industriale delle infrastrutture necessarie per supportare l’addestramento e l’esecuzione dei modelli di nuova generazione.
Secondo Faeti, l’evoluzione dei data center segue un percorso simile a quello delle auto autonome: la trasformazione è già in corso, anche se richiederà ancora tempo per completarsi. “Il percorso verso i data center autonomi sta prendendo forma in modo simile a quello delle auto a guida autonoma: più lungo del previsto, ma già ben avviato. L’elaborazione sta diventando infrastruttura. L’infrastruttura sta diventando intelligente. E il data center si sta evolvendo da un edificio a una macchina.”
Una trasformazione infrastrutturale
Che si parli di edifici, fabbriche digitali o veri e propri computer, il ruolo del data center sta cambiando profondamente. L’infrastruttura che sostiene l’economia digitale diventa sempre più intelligente, interconnessa e progettata per supportare carichi di lavoro AI su larga scala.
In questa prospettiva, il data center non rappresenta più solo il luogo dove risiedono i sistemi informatici, ma un sistema complesso progettato per erogare capacità di calcolo avanzata e abilitare la prossima generazione di servizi digitali.

