Fujitsu ha sviluppato una tecnologia di deep learning per l’Intelligenza Artificiale che supera le restrizioni di memoria della GPU
Fujitsu ha annunciato importanti novità nell’ambito della tecnologia deep learning, per cui ha sviluppato un nuovo meccanismo di distribuzione della memoria per i Deep Neural Networks (DNNs).
Ampiamente utilizzato per molte applicazioni nel campo dell’intelligenza articficiale (AI) come il riconoscimento e la classificazione di un discorso e di un oggetto, l’utilizzo avanzato di DNN, come contraltare e classico rovescio dlela medaglia, richiede enormi risorse computazionali che incidono pesantemente sulle infrastrutture informatiche attuali.
Con la nuova soluzione, sviluppata dai laboratori europei di Fujitsu, il parallelismo del modello impiegato viene utilizzato per distribuire i requisiti di memoria DNN in modo automatizzato, trasparente e più facilmente gestibile. Il risultato, ha spiegato Fujitsu. è che la capacità delle infrastrutture esistenti nell’affrontare applicazioni AI su larga scala viene notevolmente migliorata senza la necessità di ulteriori investimenti.
«Negli ultimi anni abbiamo assistito a continue innovazioni tecnologiche che utilizzano acceleratori hardware per supportare l’enorme mole di calcoli necessari per applicazioni di intelligenza artificiale. Sono necessarie reti neurali più ampie e profonde, insieme ad una più raffinata classificazione delle categorie, per affrontare le sfide emergenti di AI. La nostra soluzione agisce proprio in questo modo, distribuendo i requisiti di memoria DNN su più macchine. Con la nostra tecnologia, è possibile ampliare le dimensioni delle reti neurali che possono essere elaborate da più macchine, consentendo lo sviluppo di modelli DNN più accurati e su larga scala», ha commentato Tsuneo Nakata, CEO dei Fujitsu Laboratories of Europe.
La soluzione riesce ad ottenere la distribuzione ottimizzata della memoria perchè trasforma gli strati di reti neurali, arbitrariamente progettate, in reti equivalenti in cui alcuni o tutti i suoi strati sono sostituiti da una serie di sotto-strati più piccoli. Queste ultime sono progettate per essere funzionalmente equivalenti agli strati originali, ma sono molto più efficienti da eseguire dal punto di vista computazionale.
Importante notare che, poiché gli strati originali e quelli nuovi derivano dal medesimo profilo, il processo di formazione del DNN ‘trasformato’ converge a quello del DNN originale senza alcun costo aggiunto.
I laboratori europei di Fujitsu hanno testato a lungo la nuova tecnologia, inclusa l’applicazione del nuovo meccanismo in «Caffe», un framework open source di deep learning ampiamente utilizzato dalle comunità di ricerca e sviluppo in tutto il mondo sviluppatodal Berkeley Vision and Learning Center.
La soluzione ha raggiunto un’efficienza di oltre il 90 per cento nella distribuzione della memoria nel momento in cui vengono trasformati gli strati completamente collegati di AlexNet su più GPU NVIDIA.
Come tecnologia indipendente da hardware, ha la capacità di sfruttare la potenza computazionale di entrambe le unità di elaborazione convenzionali e di acceleratori hardware in fase di sviluppo, inclusi NVIDIA GPU, Intel Xeon Phi, FPGA, ASIC ecc. o qualsiasi altro hardware alternativo specificamente adattati per aumentare l’efficienza computazionale nel Deep Learning.
Esempi di applicazioni per la nuova soluzione comprendono l’analisi nel settore healthcare (ad esempio la rilevazione della retinopatia diabetica), la classificazione e l’analisi delle immagini satellitari, l’elaborazione linguistica naturale (dove sono necessari modelli di deep learning su larga scala per modellare e apprendere la completa complessità del linguaggio umano), dati su larga scala relativi a dispositivi IoT, transazioni finanziarie, servizi di social network ecc.