La convergenza tra OT e IT non è più un tema teorico né una prospettiva rinviabile. La crescente centralità del dato nei processi industriali sta rendendo sempre più stretto il legame tra il mondo dell’automazione e quello dei sistemi informativi, ma questa vicinanza non elimina automaticamente differenze profonde di linguaggio, priorità, tempi e approcci. È proprio in questo spazio che si colloca il ruolo del Consorzio PROFIBUS e PROFINET Italia, impegnato a favorire l’evoluzione degli standard di comunicazione industriale verso modelli più aperti, interoperabili e capaci di portare valore anche ai livelli superiori del business.
In questa intervista Cristian Sartori, presidente del Consorzio, affronta il tema partendo da un punto preciso: la convergenza non consiste nel mettere semplicemente in contatto due mondi diversi, ma nel costruire strumenti, semantiche e metodi di lavoro comuni. Un passaggio che coinvolge le architetture di comunicazione, la gestione del dato, la virtualizzazione del PLC, la cybersecurity e il problema sempre più critico delle competenze.
Come cambia, in questo scenario, il rapporto tra IT e OT?
Il rapporto tra IT e OT diventa sempre più stretto perché oggi si parla di gestione dei dati e di valore del dato, e questo crea un legame inevitabile tra i due ambiti. Il punto è che restano mondi con linguaggi diversi e con priorità molto differenti. Nel mondo OT tutto ruota attorno alla continuità operativa, ai tempi deterministici e alla necessità che una macchina non si fermi. Nel mondo IT, invece, l’innovazione ha cicli molto più rapidi ed è più naturale accettare aggiornamenti, cambiamenti e nuove metodologie. La convergenza nasce proprio dalla necessità di far dialogare questi due approcci senza snaturarli.
Che cosa significa oggi parlare di convergenza tra OT e IT senza ridurla a una semplice interconnessione tecnica?
Parlare di convergenza significa lavorare su linguaggi comuni, strumenti comuni e metodi comuni. Bisogna prendere ciò che nell’automazione è fondamentale e non può essere sacrificato e insieme portare nel mondo industriale il meglio che l’IT ha sviluppato in termini di metodologie e gestione. Il vero tema è costruire un terreno condiviso su cui questi due mondi possano lavorare insieme.
Come sta cambiando il ruolo delle architetture di comunicazione industriale?
In origine il focus era soprattutto sul fatto che PLC, azionamenti, sensori e dispositivi di campo potessero parlarsi in modo efficiente e affidabile. Oggi questo non basta più. Con l’evoluzione dell’elettronica e dei sensori intelligenti, le architetture di comunicazione non servono soltanto a trasferire un valore, ma anche a portare informazioni aggiuntive sul contesto, sulla frequenza delle misure, sull’errore associato a un dato e su molti altri elementi che lo rendono più ricco e più utile. Per questo le reti di comunicazione industriale stanno assumendo un ruolo più ampio: non solo trasportano dati, ma li rendono leggibili e valorizzabili anche ai livelli superiori.
Quanto conta, in questo contesto, la semantica del dato?
Conta moltissimo, perché non basta più trasportare bit e byte. Serve anche trasferire il significato del dato. È qui che entrano in gioco approcci come MTP e NOA, che vanno oltre la definizione tradizionale del protocollo di comunicazione industriale e intervengono sul modo in cui i dati vengono strutturati, descritti e resi interpretabili. Un ingegnere dell’automazione e un ingegnere IT leggono gli stessi dati in modo diverso, quindi avere una sorta di vocabolario condiviso diventa fondamentale. Questa evoluzione permette di semplificare la raccolta dei dati, la loro interpretazione e, potenzialmente, anche il loro utilizzo da parte di algoritmi e modelli AI ready.
Quindi le architetture di comunicazione stanno diventando anche strumenti di business?
Si, perché quando i dati escono dal livello strettamente operativo e diventano utilizzabili dai sistemi superiori, smettono di essere soltanto un elemento tecnico. Possono servire a leggere meglio i processi, a migliorare l’efficienza e a supportare decisioni più avanzate. In passato molte aziende spendevano molto tempo semplicemente per far dialogare mondi diversi. Il principio del consorzio è proprio quello di standardizzare e aprire, così da ridurre questa complessità e creare le condizioni perché il dato diventi davvero un asset utile, e non soltanto qualcosa che transita da un punto all’altro dell’impianto.
Uno dei temi che lei richiama è la virtualizzazione del PLC. Di che cosa si tratta?
Si tratta della possibilità di virtualizzare un controllore e portarlo in un’architettura IT, per esempio in un data center. È un concetto molto familiare nel mondo IT, ma ancora relativamente nuovo per l’automazione industriale. Il valore sta proprio nel fatto che questo tipo di approccio può creare vantaggi condivisi e può aiutare il mondo IT ad avvicinarsi all’OT con strumenti che già conosce. Non significa banalizzare l’automazione, ma costruire punti di contatto più avanzati tra i due ambienti.
Quali sono oggi gli ostacoli principali a questa evoluzione?
Il primo ostacolo è culturale. Nel mondo OT c’è ancora l’idea che virtualizzazione e cybersecurity siano temi lontani dalla realtà di fabbrica, soprattutto quando si parte dal presupposto che un sistema non sia direttamente esposto a internet. Dall’altra parte, però, anche chi arriva dal mondo IT rischia di pensare di poter applicare automaticamente logiche che altrove funzionano bene. La realtà è più complessa. Per questo il consorzio insiste molto su un lavoro di evangelizzazione, di diffusione e di accompagnamento: non basta raccontare una tecnologia una volta, bisogna costruire consapevolezza nel tempo.
Sul fronte della cyber resilienza a che punto siamo?
La consapevolezza sul rischio è cresciuta. Oggi nessuno può dire di non sapere che esistono PLC vulnerabili, sistemi critici esposti e ambienti OT che possono essere attaccati. Questa fase è stata superata. Il vero problema, però, è un altro: come mitigare il rischio in modo corretto e diffuso. È qui che c’è ancora molto da fare. Normative e regolamenti stanno accelerando questo percorso, dalla NIS2 al Cyber Resilience Act, passando per l’evoluzione del rapporto tra safety e cybersecurity. In questo contesto PROFINET, che è una delle tecnologie chiave del consorzio, non lavora solo sull’evoluzione tecnica dello standard, ma anche sulla diffusione di linee guida e strumenti utili per affrontare in modo più strutturato la protezione degli ambienti industriali.
Le aziende stanno facendo più fatica sulla cybersecurity o più in generale sulla trasformazione digitale?
Il punto è più ampio della sola cybersecurity. La trasformazione digitale non si ottiene aggiungendo un oggetto tecnologico a una macchina o a un processo. Richiede di rivedere il modo in cui si vende, si progetta, si assiste e si gestisce un sistema. Richiede di capire dove sono le inefficienze e quali problemi si vogliono risolvere. Senza questo passaggio, la tecnologia da sola non produce valore. Negli anni molte aziende hanno adottato soluzioni legate all’industria 4.0 senza intervenire davvero sul cuore del problema. È per questo che in diversi casi si è avuta adozione tecnologica, ma non vera trasformazione.
L’intelligenza artificiale sta entrando anche in questo ambito?
Il consorzio non sviluppa prodotti AI in senso stretto, ma lavora sul presupposto che, se l’AI entrerà sempre di più nei processi industriali, bisognerà far sì che i dati siano pronti per essere raccolti, trasferiti e interpretati senza vincoli. L’obiettivo è portare fuori dal livello nascosto del semplice segnale e costruire modelli di trasferimento e di semantica del dato che possano essere realmente utilizzabili anche dagli algoritmi. In questo senso il lavoro non è sull’algoritmo finale, ma sulle condizioni necessarie perché l’intelligenza artificiale possa trovare dati coerenti, strutturati e davvero utilizzabili.
Quanto pesa il tema delle competenze in questa fase di convergenza?
Pesa moltissimo ed è uno dei problemi principali. Il lack of skill è evidente e non riguarda solo l’Italia. C’è una difficoltà generale nel trovare competenze adeguate, soprattutto perché oggi è più facile incontrare profili che conoscono linguaggi e strumenti del mondo IT piuttosto che forme di programmazione più tradizionalmente legate all’automazione. Per questo si stanno sviluppando strumenti che rendano più accessibile il lavoro anche a chi proviene da percorsi differenti. Come consorzio stiamo lavorando anche sulla formazione e sulla divulgazione, attraverso competence center come CSMT di Brescia e GFCC di Genova. Il nostro compito è anche questo: fare cultura tecnologica in modo neutrale, perché più le imprese conoscono queste tecnologie, più riescono a usarle correttamente e a trarne beneficio.
Da dove deve arrivare la spinta decisiva per guidare questa evoluzione?
I vendor hanno certamente un ruolo, soprattutto quelli che operano sia nel mondo OT sia in quello IT, ma non basta. Gli incentivi, da soli, non risolvono il problema se le aziende adottano la tecnologia senza comprenderne davvero il valore. In alcuni casi è successo proprio questo: si è installata tecnologia senza cambiare processi e senza ottenere benefici reali. La spinta più importante dovrebbe arrivare dalla costruzione di una cultura manageriale più matura sul valore della trasformazione digitale. Servono visione, capacità di leggere i processi e un lavoro più ampio di sistema, in cui anche realtà come i digital innovation hub possono contribuire a diffondere cultura, metodo e consapevolezza.

