Site icon bizzIT.it – Magazine di Information Technology B2B

E4 Computer Engineering, l’AI a supporto della digital transformation

E4 Computer Engineering l’AI a supporto della digital transformation, E4 Computer Engineering, l’AI a supporto della digital transformation

Cosimo Damiano Gianfreda, Ceo di E4 Computer Engineering

È un fatto indiscusso che E4 Computer Engineering abbia saputo anticipare i trend: da oltre 20 anni è infatti attiva nell’high-performance computing (HPC), nell’intelligenza artificiale e nel quantum computing. Alla base di questa capacità di precorrere i tempi c’è l’adozione di un approccio incentrato su ricerca e formazione avanzata, che ha portato allo sviluppo di soluzioni innovative e all’avanguardia, in particolare per il mercato accademico e industriale. Tra i clienti E4 annovera nomi come Cineca, Cern, Ecmwf, Leonardo e Dompè.

In tempi più recenti, attraverso la sister company E4 Analytics, E4 ha avviato anche un’attività volta a integrare AI e data science nelle organizzazioni che intraprendono la digital transformation.

Per fare il punto della situazione e verificare chi è oggi E4 e qual è la sua visione per il futuro, abbiamo incontrato il Ceo Cosimo Damiano Gianfreda, che è anche uno dei fondatori dell’azienda.

Quali sono state le principali sfide che avete affrontato nell’anticipare le tendenze del mercato e come le avete superate?

E4 si è consolidata come partner di riferimento per enti di ricerca a livello globale, primo fra tutti il CERN, al quale forniamo tecnologie dal 2005. Dal 2018, siamo inoltre partner nell’Open Lab del CERN, contribuendo alla sperimentazione e al testing di tecnologie di nuova generazione. Le nostre soluzioni HPC hanno permesso, tra l’altro, la realizzazione del primo supercomputer basato su architettura GPU Nvidia in Europa. L’abbiamo sviluppato nel 2009 con una completa orchestrazione software e una gestione avanzata delle interconnessioni ad alta velocità, rendendo possibile la gestione fluida e performante di flussi di lavoro complessi.

Negli ultimi anni, abbiamo ampliato le competenze e abbiamo fondato la startup E4 Analytics. Questa divisione si concentra sull’offerta di strumenti per data scientist e data engineer, includendo suite software progettate per supportare pienamente tecnologie come PyTorch e TensorFlow. Tali strumenti sono preconfigurati per una user experience semplificata, offrendo una piattaforma completa per l’analisi dei dati e la loro gestione avanzata. L’impegno nell’analisi dei dati integra l’approccio HPC di E4, assicurando un’interazione sinergica tra le soluzioni di calcolo e l’intelligenza artificiale.

In che modo E4 investe nella ricerca e sviluppo?

E4 investe inoltre nella ricerca e sviluppo per supportare architetture ARM e RISC-V, elementi cruciali nei progetti di sovranità tecnologica europea e in particolare per due dei principali progetti di ricerca finanziati dalla Joint Undertaking dell’Unione Europea. Queste tecnologie costituiscono la base per molte soluzioni avanzate sviluppate da E4, che anticipano le necessità di settori come quello farmaceutico e delle scienze computazionali, fornendo agli operatori strumenti di calcolo e analisi dati di ultima generazione.

Qual è l’impegno di E4 nel campo del quantum computing?

Il quantum computing è un altro pilastro dell’attività di E4. Attraverso la collaborazione con partner come Dompé, esploriamo le frontiere della simulazione quantistica, cercando applicazioni pratiche per accelerare la ricerca di nuovi farmaci e soluzioni terapeutiche. Il progetto MOSEGAD, per esempio, rappresenta un’iniziativa volta a esplorare le potenzialità dell’emulazione quantistica su supercomputer convenzionali, che utilizzano acceleratori hardware specifici per anticipare i risultati che saranno resi possibili dal quantum computing puro. Parallelamente, E4 mantiene un attivo programma di ricerca per la crittografia avanzata, rispondendo alle esigenze di protezione dei dati e sicurezza che il quantum computing introdurrà.

Quali sistemi ha sviluppato E4 per ottimizzare le performance?

Con l’avvento di acceleratori che possono raggiungere facilmente i 1.600 watt e processori che superano i 600 watt, le nostre sfide si concentrano sull’integrazione di soluzioni estremamente performanti, affrontando al contempo le problematiche legate al consumo energetico e al raffreddamento.

Per ottimizzare le performance, abbiamo investito nello sviluppo di sistemi di raffreddamento a liquido, ormai uno standard per applicazioni di calcolo estreme, e abbiamo adottato il modello Open Compute Project, che ha permesso la realizzazione di soluzioni HPC caratterizzate da alta efficienza energetica e termica. Questi interventi ci permettono di fornire soluzioni computazionali che non solo forniscono prestazioni elevate, ma rispondono anche alla sfida di integrare componenti ad alto consumo energetico in maniera sostenibile.

Il nostro team ha evoluto costantemente la propria offerta. Inizialmente, ci siamo concentrati su sistemi meno performanti, adattandoci alle tecnologie disponibili dell’epoca. Tuttavia, con l’upgrade tecnologico, oggi E4 è costantemente impegnata a testare soluzioni che elevano gli standard precedenti. Non si tratta solo di processori che offrono un incremento del 20% nelle prestazioni; stiamo assistendo a progressi che possono arrivare fino al 50%, ma che comportano un aumento del consumo energetico e richiedono un ambiente operativo diverso.

Un’altra significativa sfida è stata l’integrazione delle tecnologie ARM nel nostro ecosistema hardware e software, rappresentando un compito complesso. Tuttavia, con l’esperienza accumulata, i processi sono diventati notevolmente più fluidi. Per esempio, abbiamo realizzato il primo cluster HPC basato su processori RISC-V, denominato Monte Cimone, portando avanti l’innovazione nel settore.

Oltre all’HPC, quali soluzioni offre E4?

Andando oltre l’ambito HPC, per rispondere alla crescente richiesta di privacy e riservatezza nel trattamento dei dati sensibili, la nostra offerta comprende anche soluzioni basate su LLM privati. Questi modelli linguistici, progettati per operare all’interno delle reti aziendali svincolandosi dalle soluzioni commerciali su cloud, forniscono funzionalità avanzate di gestione delle conoscenze garantendo protezione e conformità dei dati. Da precisare che noi forniamo le soluzioni, ma non ci occupiamo dell’addestramento.
Per combinare l’eccellenza delle prestazioni con la flessibilità infrastrutturale, offriamo sistemi modulari e configurabili per rispondere alle esigenze specifiche dei clienti, che possono scegliere soluzioni on-premise o in cloud a seconda delle necessità di calcolo e dell’integrazione con i propri processi aziendali.

Tra i nostri progetti recenti, spicca l’implementazione di un supercomputer per l’Istituto Italiano di Tecnologia, un sistema inizialmente orientato all’HPC e ora espanso per supportare simulazioni AI avanzate e analisi scientifiche multidisciplinari. Abbiamo anche contribuito con progetti al Tecnopolo di Bologna e a Napoli dove abbiamo operato con infrastrutture particolarmente grandi e complesse. Queste hanno richiesto un approccio “fix it before it breaks” che ha messo alla prova le nostre competenze tecnologiche, organizzative e logistiche. Per E4 è stata una sfida bellissima.

Voi, che avete saputo anticipare molte tendenze, come ritenere evolverà la tecnologia nel prossimo futuro?

Dal nostro punto di vista, le principali tendenze nell’infrastruttura IT riguardano l’adozione crescente di tecnologie cloud-native, l’integrazione avanzata di intelligenza artificiale e machine learning e l’uso diffuso di infrastrutture iperconvergenti. Queste tendenze stanno trasformando il modo in cui le aziende gestiscono i propri dati e operazioni IT, offrendo maggiore agilità, scalabilità e resilienza.

Le GPU sono state il fattore che ha fatto scaturire la “nuova primavera dell’IA” permettendo di creare nuovi algoritmi a partire da idee che risalgono agli albori della computer science e che prima non era stato possibile sfruttare appieno. Nei prossimi anni credo che vedremo cambiamenti altrettanto importanti passando dall’idea di GPU a quella di “super GPU” che arriva ad aggregare un intero cluster e che, grazie alla stessa IA, è in grado di ottimizzare il suo uso e assistere gli operatori nella gestione “fix it before it breaks”.

Exit mobile version