Perché i data center “green” non bastano più

Secondo Monica Batchelder, chief sustainability officer di HPE, la sostenibilità dell’intelligenza artificiale richiede un approccio olistico che integri efficienza dei dati, del software e delle infrastrutture.

L’espansione dell’intelligenza artificiale ha innescato un dibattito sempre più urgente sulla sostenibilità dei sistemi che la alimentano. A quasi tre anni dall’avvento della Generative AI, la questione energetica è diventata centrale tanto nei settori pubblici quanto in quelli privati.

I data center “green”, alimentati da fonti rinnovabili e progettati per massimizzare l’efficienza, sono oggi il simbolo più visibile di un’AI più sostenibile. Ma, come evidenzia Hewlett Packard Enterprise, si tratta solo di una parte del quadro. L’impatto ambientale dell’AI non si limita alle infrastrutture: coinvolge l’intero ecosistema tecnologico, dai dati al software, fino alle apparecchiature e ai modelli organizzativi.

Secondo Monica Batchelder, Chief Sustainability Officer di HPE, le innovazioni nei data center sono cruciali, ma non sufficienti. Per rendere l’intelligenza artificiale realmente sostenibile serve un approccio sistemico, che abbracci tutto il ciclo di vita del modello, dalla raccolta dei dati al suo utilizzo operativo.

Efficienza dei dati: la prima leva del cambiamento

La qualità dei dati è il punto di partenza. Modelli costruiti su dataset incompleti o ridondanti richiedono maggiore potenza di calcolo, consumando più energia e producendo risultati meno affidabili. Un framework basato su quattro fasi – raccogliere, curare, pulire e confermare – consente di ridurre sprechi computazionali e migliorare l’efficienza complessiva.

L’attenzione alla gestione dei dati non solo migliora le performance dei modelli, ma diventa anche uno strumento concreto per diminuire l’impatto energetico del training e dell’inferencing.

Software e hardware: due fronti complementari

Un altro elemento spesso trascurato riguarda il software.

La maggior parte degli sviluppatori tende a privilegiare funzionalità e velocità, dando per scontata la disponibilità di risorse illimitate. Ma le risorse non lo sono. Codici inefficienti e modelli troppo pesanti aumentano in modo significativo il consumo energetico, come spiegato da Batchelder.

La transizione verso modelli più mirati e “leggeri” – come i Small Language Models – sta già mostrando risultati incoraggianti, grazie a tecniche come la quantizzazione o l’uso di guardrail per instradare richieste semplici verso sistemi meno energivori.

Il discorso si estende anche all’hardware.

“Così come il software va progettato con attenzione alla sostenibilità, anche l’hardware deve esserlo – aggiunge Batchelder -. Abbinare i carichi di lavoro alle piattaforme più adatte permette di ridurre sprechi e migliorare l’efficienza energetica”.

L’abitudine diffusa di sovradimensionare le risorse “per sicurezza” porta spesso a tassi di utilizzo bassi e a consumi non necessari. Ottimizzare l’allocazione dei carichi è quindi una strategia tanto economica quanto ambientale.

Un approccio olistico alla sostenibilità dell’AI

Per affrontare la sfida serve un nuovo modo di pensare. Secondo Monica Batchelder  occorre una visione d’insieme che integri efficienza dei dati, del software e delle apparecchiature, accompagnata da una governance dell’AI orientata alla sostenibilità.

Adottare un framework olistico significa investire in competenze, favorire la collaborazione tra team e sviluppare processi in cui l’efficienza energetica diventa parte integrante della progettazione.

Guardare all’intero ecosistema AI, e non solo alle infrastrutture, è l’unica via per contenere l’impatto ambientale e assicurare che la tecnologia possa evolversi in modo responsabile, sostenendo l’innovazione senza gravare sul pianeta.

LEGGI ANCHE

Gli ultimi articoli