Il Cloud, il GPT e il telelavoro

Condividi

Si fa un gran parlare dei Large Language Model, in particolare seguendo ChatGPT. Ma che rilevanza ha nel mondo aziendale e quali connessioni con il cloud? Apparentemente, molte.

I modelli di deep learning possono essere molto utili come servizi per le aziende. Negli ultimi tempi, umanisti etici ed umanisti legulei si accapigliano su fatti di grande rilievo mediatico. Per capire cosa sta succedendo tecnicamente, proviamo a descrivere ChatGPT. Si tratta, e non è banale, di due componenti: GPT e Chat.

Vediamo intanto cos’è GPT. Si tratta di un generative pre-trained transformer, un sistema di machine learning particolarmente adatto a lavorare su intere frasi di testo. OpenAI ha prelevato da varie fonti in Rete (problema rilevante per la legge) una gran mole di dati estremamente eterogenei. Li ha analizzati, sistematizzati secondo determinate tecniche e quindi ridotti di volume grazie a una forte classificazione. Molti dei tipi di analisi si basano su matematiche non accessibili a degli umani. Sulla mole di dati compressa è stata determinata una struttura sintattica e anche una valenza semantica (punto dolente per chi fa etica).

Ma questo è GPT.

ChatGPT, invece, è un servizio di tipo Chat che usa le API di GPT. Quindi su GPT e sistemi analoghi si possono basare servizi personalizzabili. Tra le tante cose che si possono chiedere a ChatGPT ci sono piccoli consigli d’informatica desktop, di gestione del tempo, di realizzazioni di semilavorati per contenuti, ma anche organizzazione. Somiglia molto a quelle cose che ciascuno di noi fa con un motore di ricerca, perdendoci un bel po’ di tempo, per poi scambiare queste informazioni con gli amici o con i colleghi di lavoro.

La competenza nascosta

Lo scambio d’informazioni con i colleghi di lavoro è forse la cosa principale che è venuta a mancare nel passaggio dal lavoro in ufficio al lavoro a distanza. Tutta quell’enorme mole di informazioni che si passano a voce, in chat o su foglietti, infatti, è ora diventata molto più difficile da raggiungere. Con il telelavoro, e con la rotazione dei collaboratori, queste informazioni si perderanno. Si tratta di materiale non formalizzato ma che fa da collante per le varie componenti aziendali, sia operative, sia informatiche.

Le API sono disponibili in cloud

Orbene, avendo a disposizione un raccoglitore e riorganizzatore d’informazioni come GPT, qualsiasi azienda può affidare il patrimonio non formalizzato alle sue capacità. L’accesso a uno di questi sistemi è affidato a un servizio di API, quindi è il cloud il fattore abilitante. L’azienda può quindi costruire un proprio software che usi la logica del transformer ma filtri i possibili input e output, via via permettendo la generazione di quelli a lei più consoni.

Bisogna tener presente due elementi: su GPT funziona su informazioni raccolte in un periodo temporale chiuso e non accede al Web. Il primo problema può essere risolto con degli aggiornamenti, un’operazione non semplice (la coerenza dei dati non è garantita) ma certo ipotizzabile.

Il secondo problema è già stato risolto con i plug-in, che rendono disponibili al sistema chiuso un certo numero di finestre sul reale come acquisto di beni e servizi su negozi in tempo reale.

Ma i dati restano in azienda

Il dipendente quindi ha accesso a tutto ciò che serve (con aggiornamento a salti). Se ha un problema tecnico o procedurale, anziché scandagliare da solo quel che trova sul Web e non potendo chiedere a qualcuno in ufficio, chiede al friendly neighborhood deeplearner.

Per le aziende, però, è un chiaro problema: i dati aziendali devono restare in azienda. Ma questo è possibile: basta studiare un apposito sistema che del transformer (o di qualsiasi altro deep learning) usi solo la logica, mantenendo i dati in azienda, sul server di casa -se serve, anche fuori dal cloud. Questo approccio si chiama, al momento, Agenti Autonomi. Ce ne sono di già pronti sul mercato per quel linguaggio semplificato che è la programmazione (AutoGPT e i suoi amici), ma altri sono in costante sviluppo.

 

Leo Sorge
Leo Sorge
Leo Sorge è laureato in ingegneria elettronica, ma ha preferito divulgare scienze e tecnologie reali o presunte. Ritiene che lo studio e l’applicazione vadano separate dai risultati attesi, e che l’ambizione sia il rifugio dei falliti. Ha collaborato a molte riviste di divulgazione, alle volte dirigendole. Ha collaborato a molti libri, tra i quali The Accidental Engineer (Lulu 2017), Lavoro contro futuro (Ultra 2020) e Internetworking (Future Fiction 2022). Copia spesso battute altrui, come quella sull’ambizione e anche l’altra per cui il business plan e la singolarità sono interessanti, ma come spunti di science fiction.

Altri Editoriali

Tre valori fondamentali per un’organizzazione di successo

Ogni organizzazione di successo deve avere alla base alcuni...

Il Giorno 2 è quello in cui le aziende muoiono

Il 17 aprile 2017 Jeff Bezos, Ceo di Amazon,...

Agenti software: una rivoluzione che ci chiede di cambiare

Pochi giorni fa mi sono imbattuto nella notizia di...

La cybersecurity sta dando i numeri: saranno le allucinazioni dell’AI?

Il mondo della cybersecurity sta attraversando una profonda fase...

Elettrificazione e IT: un binomio per il futuro

Negli ultimi anni, il concetto di elettrificazione è diventato...

Tanta connessione, scarsa comunicazione

Premetto che voglio solo sollecitarvi un pensiero e non...