Mi trovo spesso a parlare con manager di grandi aziende italiane e raramente ne esco sicuro che chi decide sia competente -o capisca cosa gli dicono i suoi tecnici. Ovviamente sono io che non riesco a comprendere le dinamiche aziendali. Purtroppo il panorama tecnologico attuale richiede una costante evoluzione dei servizi ICT per affrontare le sfide emergenti in termini di prestazioni, scalabilità e efficienza, e se il mio interlocutore li conosce troppo sommariamente io non riesco a migliorare le mie competenze.
È però chiaro che tra le tendenze chiave che stanno ridefinendo il settore ci sono queste tre: l’ottimizzazione delle GPU, l’integrazione dei Data Processing Unit (DPU) nello storage per AI e la containerizzazione delle GPU. Questi avanzamenti non sono solo innovazioni tecniche, ma indicano la direzione necessaria per migliorare realmente i servizi ICT in un mondo sempre più dipendente dall’intelligenza artificiale e dai big data.
Ottimizzazione delle GPU
Le unità di elaborazione grafica (GPU) sono diventate fondamentali per applicazioni che richiedono elevate capacità computazionali, come il machine learning e l’elaborazione grafica. Tuttavia, la semplice potenza bruta non è più sufficiente, anche perché spesso viene sottoutilizzata -quando non sprecata- con perdite molto elevate, visti i costi di questi device.
L’ottimizzazione delle GPU è oggi essenziale per massimizzare le prestazioni senza compromettere l’efficienza energetica. Queste ottimizzazioni consentono di sfruttare al meglio le risorse hardware, riducendo il consumo energetico e migliorando al contempo le performance, aspetti cruciali per mantenere la competitività e la sostenibilità dei servizi ICT. Ho descritto con un minimo di dettaglio la proposta di Arc Compute in un mio articolo su Medium.
AI Storage e DPU
La crescente domanda di elaborazione dei dati AI ha grande effetto anche sullo storage. Si impongono all’attenzione nuove soluzioni che possano gestire enormi quantità di dati in modo efficiente, saltando i colli di bottiglia delle architetture tradizionali.
In particolare, l’integrazione di DPU all’interno delle infrastrutture di storage rappresenta una svolta significativa. Le DPU, grazie alla loro capacità di gestire flussi di dati complessi, permettono una gestione più efficiente delle risorse di rete, liberando le CPU da compiti onerosi e migliorando notevolmente le prestazioni dei sistemi AI. Sembra facile, ma non lo è, soprattutto dovendo rispettare i vincoli ormai quasi legacy di vari tipi di elaborazione con i relativi percorsi all’interno dell’architettura. Nvidia ha cercato di risolvere la questione
Per chi voglia approfondire un minimo l’argomento, ho pubblicato un breve articolo su Linkedin sulla proposta di DDN. Questo approccio consente di accelerare i carichi di lavoro AI, rendendo le infrastrutture ICT più agili e scalabili, adattandole alle mutevoli necessità dell’AI -perché non si vive solo di LLM, large language models.
Containerizzazione delle GPU
Un altro punto di grande rilevanza, che trovo sottovalutato in conversazioni con grandi utenti, è la containerizzazione in generale e ancor più per l’uso del GPU power. Questo approccio ha ormai trasformato il modo in cui vengono gestiti i workload.
La necessità di rendere le applicazioni più portabili e scalabili – che è poi il mantra di un mondo in continua accelerazione e rivoluzione – sta spingendo questa rivoluzione un passo più in avanti. L’obiettivo è scalare rapidamente i workload AI, ottimizzando l’uso delle GPU disponibili e riducendo i costi operativi. La containerizzazione delle GPU offre quindi un nuovo paradigma per l’erogazione dei servizi ICT, migliorando l’efficienza operativa e accelerando il time-to-market delle soluzioni AI. Ho descritto una proposta di questo tipo, sviluppata dall’italiana Clastix, in un altro mio articolo su Medium.
L’evoluzione dei servizi ICT passa inevitabilmente attraverso l’adozione di nuove tecnologie e approcci innovativi. L’ottimizzazione delle GPU, l’integrazione delle DPU nello storage AI e la containerizzazione delle GPU sono i pilastri su cui costruire infrastrutture ICT più potenti, scalabili e sostenibili nel tempo, quand’anche si rendessero necessari nuovi cambiamenti di processo.
Investire in queste tecnologie non è più un’opzione, ma una necessità per rimanere competitivi in un mercato in cui la rapidità e l’efficienza dell’elaborazione dei dati sono fattori critici di successo. Se fatto con criterio strategico, questo tipo d’innovazione permette anche di valutare l’effettiva resilienza del patrimonio software preesistente, individuando le criticità sulle quali agire.
Le aziende che sapranno valutare l’integrazione dell’innovazione all’interno delle loro strategie ICT avranno un vantaggio significativo nella corsa verso il futuro digitale.