L’uso efficace dei dati e l’adozione del cloud sono gli argomenti al centro di uno studio effettuato tra marzo e aprile 2023 da Coleman Parkes Research per conto di Cloudera. Tale indagine ha avuto come campione 850 decision maker IT della regione EMEA (di cui 100 italiani), responsabili dell’analisi dei dati e degli strumenti nella loro organizzazione. Gli intervistati provenivano da aziende con più di 1.000 dipendenti.
Il 32% dei dati non è sfruttato
“Il primo punto interessante emerso dall’indagine – ha affermato Fabio Pascali, Regional Vice President Italy di Cloudera – è che oggi circa il 32% dei dati all’interno delle aziende non è ancora utilizzato oppure è usato in maniera poco efficace”. Il 76% dei manager IT italiani intervistati è d’accordo sul fatto che la presenza di dati in diversi ambienti cloud e on-premise renda complesso estrarne valore. Tuttavia, il 67% li archivia in un ambiente ibrido, ovvero utilizza sia il cloud on-premise/privato sia il cloud pubblico. Inoltre, il 68% delle aziende ha adottato un modello multi-cloud e si avvale di due o più hyperscaler.
“Un altro elemento di grande interesse sta nel fatto che il 97% delle organizzazioni prevede di portare ulteriori workload e dati nel public cloud nei prossimi tre anni – ha sottolineato Pascali –. Nel contempo, il 78% dello stesso campione di aziende ha dichiarato che farà data rimpatriation, ovvero riporterà dei workload dal cloud on prem”.
Pascali ha spiegato la situazione dicendo che si sta facendo fine tuning. “Man mano che si arriva a un punto di maturità e si conoscono pregi e limiti del cloud, aziende e system integrator calibrano meglio le loro strategie – ha sostenuto Pascali –. Alcuni workload continueranno a essere portati in cloud, altri no perché, al di là di questioni di compliance e sicurezza, c’è il problema dei costi. Alcuni carichi di lavoro, soprattutto quelli che devono essere attivi H24, se portati in cloud diventano super efficienti ma non costano meno. Anzi, certi costi, per altro sono di tipo OpEx, tenderanno a esplodere. E questo sta portando a un ripensamento”. Così la ricerca rivela che, mentre solo l’1% ha rimpatriato i dati in sede negli ultimi 12 mesi, il 78% prevede di farlo per alcune tipologie di workload nei prossimi 36 mesi.
La ricerca della migliore accessibilità
Lo studio indica anche che i fattori trainanti della migrazione al cloud sono una migliore accessibilità ai dati (52%), l’ottimizzazione dello storage e del backup (51%) e la riduzione dei costi (36%).
“Il tema dell’accessibilità è un po’ ingannevole, come quello dei costi – ha dichiarato Pascali –. Se si ha on premise un problema di accessibilità ai dati non lo si risolve spostando tutto in cloud. Anzi, si creano altri problemi perché l’integrazione di una piattaforma dati utilizzando i servizi nativi del provider è estremamente complessa e costosa. La presenza di moderne architetture di dati può aiutare a vincere la sfida dell’accessibilità, ottenendo maggiore valore e, contemporaneamente, ottimizzando i costi del cloud”.
Per contro, le preoccupazioni relative ai dati e alla conformità (59%), i timori di cloud lock-in (53%) e le sfide relative alla complessità e all’integrazione dell’IT (50%) sono citate come le principali ragioni per cui oggi le organizzazioni sono restie a spostare altri dati in cloud. Inoltre, la metà degli intervistati (49%) ha affermato che i problemi di prestazioni nell’elaborazione di grandi insiemi di dati in tempo reale rappresentano un ulteriore significativo ostacolo alla migrazione al cloud.
La sfida dell’osservabilità dei dati
Per estrarre più valore dai propri dati, le aziende stanno abbracciando sempre più spesso la data analytics. I reparti IT (60%) hanno la maggiore necessità di questa tipologia di strumenti, seguiti da finance (51%), vendite (50%), marketing (50%), operation (41%) e risorse umane (41%). Tuttavia, il 68% degli intervistati ritiene che la propria organizzazione disponga di un numero eccessivo di strumenti di analisi dei dati (la media è cinque) ed è preoccupato per la dispersione.
La ricerca rivela che i silos di dati continueranno a rappresentare una sfida per molte organizzazioni: il 58% del campione ha dichiarato che i dati isolati impediscono alla loro impresa di prendere decisioni in tempo reale, mentre il 59% ritiene che la propria organizzazione abbia perso denaro perché non è in grado di prendere decisioni rapide a causa dei silos di dati.
C’è un problema di osservabilità dei dati, che Cloudera ha tentato di risolvere attraverso Cloudera Observability, soluzione che aggiunge nuove funzionalità all’open data lakehouse implementato con Cloudera Data Platform. “Quella dell’osservabilità è una richiesta che veniva dai clienti – ha concluso Pascali –, che abbiamo cercato di soddisfare con tool che permettono di governare meglio sia le performance sia i costi. Grazie poi anche a nuove funzioni basate sulla generative AI, su cui stiamo puntando molto, consentiremo alle aziende di raggiungere risultati davvero impressionanti. In linea con il claim di Cloudera che è di rendere possibile domani quello che oggi non lo è”.