Site icon bizzIT.it – Magazine di Information Technology B2B

Senza qualità dei dati l’AI non serve

senza-qualita-dei-dati-lai-non-serve

Dire che si utilizza l’intelligenza artificiale solo perché in azienda si stanno introducendo in alcuni applicativi agenti intelligenti che supportano alcuni processi di specifiche attività (HR, Supply chain, finance, ecc) può certo servire a “mettersi la coscienza a posto” (anch’io sto investendo in AI, quindi non sto perdendo il treno). Ma accettare davvero la sfida di “scaricare a terra” le potenzialità dell’AI per innervare, gradualmente ma secondo un progetto organico e continuo, ogni attività dell’impresa e le sue relazioni con il mercato, è tutt’altra cosa. Richiede qualche consapevolezza in più di quelle necessarie a mettere un chatbot intelligente qua e là.

Il punto di partenza, come è sempre stato per ogni tecnologia innovativa in passato, è che si deve passare sempre da competenze (nuove, da creare), investimenti (da erogare con convinzione e adeguata quantità), complessità (nell’addestrare, usare e integrare queste tecnologie), persone (da coinvolgere), organizzazione (da rendere permeabile al nuovo e spesso in parte da ridisegnare insieme ad alcuni processi). Non ci sono scorciatoie.

Tra i punti che vanno tenuti sotto osservazione vi è ad esempio quella che Gartner definisce l’Ingegneria dell’AI, definendo con questo termine la necessità di mettere a punto una progettazione, sviluppo e implementazione delle tecnologie di AI secondo parametri di coerenza con l’ambiente informativo presente e con elevati livelli di sicurezza e priorità di accesso alle informazioni, dato che queste tecnologie espongono potenzialmente in automatico le logiche profonde aziendali lavorando sui dati interni ed esterni l’impresa.

Dopo questa fase, non semplice, di impostazione, segue quella della governance, cioè la necessità di avere in impresa competenze, funzioni e organizzazione che accompagnino di continuo la diffusione dell’AI in raccordo a modelli e processi presenti in azienda i quali, inevitabilmente, verranno nel tempo evoluti dalle stesse tecnologie di AI. Un percorso che va accompagnato e durante il quale le tecnologie di AI devono “contaminarsi” con il legacy aziendale per consentirne una sua evoluzione coerente.

Tutto a posto? Magari! La strada verso l’Agentic Enterprise, dove gran parte delle azioni saranno intraprese da sistemi intelligenti basati su algoritmi che consentono di modificare di continuo, ottimizzandoli, i processi, e dove le persone hanno sempre più un ruolo alto di indirizzamento, governance e individuazione di nuovi obiettivi, è ancora molto lunga. Usare l’intelligenza artificiale nella quotidiana attività di impresa significa accettare oggi il rischio elevato di indicazioni fuori contesto, le cosiddette “allucinazioni”, risposte all’apparenza coerenti ma che non tengono conto della logica in cui quella risposta deve essere calata. L’azione del sistema, infatti, si basa su una mera questione di analisi statistica dei dati, e proprio per questo, l’utilizzo dell’AI deve poter attingere a una qualità di dati elevata, cosa che da sempre rappresenta un grande problema per tutte le aziende. Le attuali architetture dei sistemi sono infatti tra loro poco integrate e i dati, spesso ridondati e non aggiornati, non sono del tutto affidabili.

La governance unificata dei dati è quindi un punto centrale per fornire il corretto ambito agli agenti AI, ambito dal quale questi potranno risalire con insight di qualità al giusto contesto da cui ricavare risposte e indicazioni pertinenti ai task commissionati. Si tratta di un prerequisito fondamentale per riuscire in futuro a eseguire interi flussi di lavoro (e non solo specifici task) in autonomia, coerenti con i macro-processi aziendali e creare innovazione.

Dati: finalmente si affronterà il problema

Il tema della qualità dei dati esiste da quando esiste l’informatica. Con il passaggio dai mainframe centralizzati degli Anni 70 alla nascita dell’informatica distribuita del personal computer degli 80 fino all’avvio, ed è storia recente, di una digitalizzazione diffusa nelle aziende e nella società che ha visto il proliferare di fonti di utilizzo e generazione di nuovi dati, il tema della loro qualità, coerenza, integrazione ha assunto ormai importanza cruciale. Oggi il ricorso ad architetture specializzate nella gestione e accesso ai dati, come ad esempio il data fabric, è essenziale per una diffusione strutturale dell’AI in azienda. Unificare l’accesso e la governance delle informazioni distribuite in azienda su differenti fonti creando un layer logico per l’integrazione, l’analisi e la loro condivisione, è fondamentale per una vista il più possibile coerente del patrimonio dati interno su cui far lavorare l’AI. La stessa intelligenza artificiale viene utilizzata per la gestione dei metadati, la gestione della loro qualità e pulizia, la semplificazione dei processi responsabili della distribuzione dei dati, nonché della loro sicurezza.

Di fatto, con queste tecnologie si prepara il terreno a una fase più matura dell’AI aziendale. Ed è una fase inevitabile se, come ha registrato uno studio dell’IBM IBV (Institute for Business Value) dello scorso anno, solo il 29% dei tech CxO concorda sul fatto che i propri dati hanno la qualità, l’accessibilità e la sicurezza necessarie per scalare l’AI generativa in modo efficiente.

Finalmente, dopo tanto tempo, se si vorranno sfruttare le nuove potenzialità offerte dall’AI, così come viene prospettato per gli anni futuri, si dovrà anche affrontare, e questa volta seriamente, la questione-dati, una “spada di Damocle” lasciata per troppi anni appesa sulla testa delle aziende.

Exit mobile version