Il 96% delle aziende ha già integrato l’intelligenza artificiale nei propri processi. Non si tratta più di sperimentare: l’AI è diventata operativa. Eppure, secondo una ricerca del MIT, il 95% delle organizzazioni che investono in AI generativa non ottiene alcun ritorno. Il problema non è la tecnologia, ma come vengono gestiti i dati che la alimentano.
Cloudera, pioniere dei big data dal 2008, ha appena pubblicato la sua indagine annuale “The Evolution of AI: The State of Enterprise AI and Data Architecture”, coinvolgendo oltre 1.500 leader IT. I numeri raccontano una storia interessante: mentre l’adozione dell’AI cresce (dal 88% al 96% in un anno), le aziende si scontrano con una realtà complessa. Solo il 9% ha tutti i dati accessibili per alimentare i sistemi di intelligenza artificiale. Il 38% ne ha una larga parte inaccessibile.
Il vero ostacolo: dati ovunque, troppo spesso immobili
Il problema è semplice da enunciare, complicato da risolvere: le informazioni aziendali sono sparse. Il 63% delle aziende usa cloud privati, il 52% cloud pubblici, il 42% data warehouse tradizionali. Spostare dati da un ambiente all’altro per addestrare modelli AI costa, crea rischi di sicurezza e rallenta tutto.
Le problematiche legate ai costi sono uno dei principali ostacoli che preoccupano i clienti durante il percorso di adozione dell’intelligenza artificiale, insieme alla sicurezza e alla sovranità dei dati. Queste preoccupazioni hanno portato molte aziende a una “pausa di riflessione” nel passaggio dalla fase di sperimentazione all’industrializzazione dei progetti AI.

“La proposta di Cloudera – ha spiegato Fabio Pascali, regional vice president Italy di Cloudera – permette di contenere all’interno del perimetro aziendale tutti i dati, offrendo così maggiore tranquillità nell’utilizzo di soluzioni AI”.
Open source come filosofia, non solo come tecnologia
Cloudera ha costruito la sua strategia su Apache Iceberg, un formato di tabella open source che permette di condividere dati senza copiarli. Con l’aggiornamento di Iceberg Rest Catalog, la società ha reso possibile a motori di analytics e AI di terze parti – Snowflake, Databricks, AWS Athena, Salesforce – di accedere direttamente ai dati gestiti da Cloudera, senza muoverli.
Il concetto è quello della condivisione “zero-copy”: i dati restano dove sono, ma diventano accessibili a tutti gli strumenti che servono. Con governance unificata, controlli di accesso granulari e conformità Acid. Un cliente ha dichiarato una riduzione del 79% dei costi di archiviazione ottimizzando la visibilità tra le linee di business.
La strategia italiana: eventi e partnership con system integrator
In Italia, Cloudera ha organizzato lo scorso 21 ottobre l’Evolve Forum a Roma, un evento che ha riunito figure come Michelangelo Quaglia di PagoPA e Stefano Innamorati di Poste Italiane. Il tema centrale: Private AI, ovvero come costruire modelli di intelligenza artificiale in ambienti sicuri e controllati.
“I partner, i system integrator, sono essenziali perché sono loro a implementare concretamente i progetti presso i clienti” è stato sottolineato durante gli eventi. La società ha infatti investito molto nell’assunzione di figure di vendita, prevendita e servizi professionali proprio per supportare questa rete.
“Nonostante l’Italia abbia un addressable market più basso rispetto alla Francia – ha spiegato Yari Franzini, group vice president Southern Europe di Cloudera – il suo market share risulta molto buono e significativo. I principali settori che guidano l’adozione sono allineati a livello regionale: Financial Services è il primo mercato; Telecommunications segue al secondo posto; Public Sector rappresenta il terzo mercato, ma è quello con il più alto tasso di crescita nella Regione; Energy è un segmento importante e strategico per l’Italia”.
Dell, AWS e il cloud sovrano: scegliere senza rinunciare
L’alleanza con Dell Technologies e Nvidia ha dato vita a “AI-in-a-Box”, una soluzione che permette di sviluppare, addestrare e distribuire modelli AI su Dell ObjectScale, con dati che rimangono dove sono. Gli utenti possono usare strumenti come Cloudera AI Workbench, Inference Service e Agent Studio senza preoccuparsi di dove risiedono fisicamente le informazioni.
Con AWS, Cloudera supporta l’European Sovereign Cloud, pensato per settori altamente regolamentati e pubblica amministrazione. I dati e i metadati rimangono nell’Unione europea, gestiti da personale residente nell’UE. Secondo IDC, la spesa per il cloud sovrano raggiungerà 258 miliardi di dollari entro il 2027, con una crescita media del 27% annuo.
Lakehouse Optimizer: manutenzione automatica, costi ridotti
Cloudera ha rilasciato anche Lakehouse Optimizer, un servizio che automatizza l’ottimizzazione delle tabelle Apache Iceberg. I benchmark interni mostrano miglioramenti delle prestazioni delle query fino a 13 volte e riduzione dei costi di archiviazione del 36%. Il servizio sarà disponibile anche on-premise, unico nel suo genere.
La scelta che conta: flessibilità architetturale
Quello che emerge dalla strategia Cloudera è un messaggio chiaro: l’AI funziona quando i dati sono accessibili, ovunque si trovino. Cloud pubblico, cloud privato, cloud sovrano, data center on-premise, edge: la piattaforma deve adattarsi all’infrastruttura, non viceversa.
Le aziende italiane, specialmente nei settori Pubblica amministrazione, finance, telecomunicazioni e utilities, stanno registrando crescite a doppia cifra nell’adozione della piattaforma. I casi d’uso vanno dalla logistica di Poste Italiane alla gestione energetica di Enel, dalla pubblica amministrazione al settore bancario.
L’intelligenza artificiale ha superato la fase sperimentale. Ora serve un’infrastruttura dati che tenga il passo. Cloudera punta tutto su una certezza: l’AI migliore è quella che va dai dati, non quella che pretende di portare i dati a sé.

