La fase agentiva dell’AI, o meglio la sua orchestrazione su casi reali, porta vecchie e nuove forme di matematica, topologia e sicurezza al centro del villaggio. Far lavorare gli agenti e assicurare il patrimonio dati è il nuovo approccio all’economia reale proposta dall’AI: questo è il focus di Google Cloud Next 2026, l’evento dedicato al mondo B2B che si svolge in questi giorni a Las Vegas.
Dall’AI non ci attendiamo più risposte, quindi, ma azioni reali. È arrivata la fine dell’era dei chatbot e dei prototipi? Oggi l’obiettivo non è più fornire una risposta testuale, ma completare un nuovo processo operativo. Google applica la filosofia customer zero internamente, con il 75% del nuovo codice generato dall’AI e validato dagli ingegneri già oggi. Il risultato è reso possibile dalla misurabilità dell’efficienza, con il passaggio dalla performance teorica al valore reale, con volumi che raggiungono i 16 miliardi di token al minuto processati tramite API.
La Cyber security come primo terreno solido
Il paradigma della sicurezza si sposta dalla rilevazione passiva alla difesa agentiva autonoma. L’agente di triage e indagine, che ha elaborato oltre 5 milioni di segnalazioni fino a oggi, riduce un’analisi manuale tipica di 30 minuti a 60 secondi.
L’AI non si limita ad avvisare, ma agisce. La threat intelligence agisce con Gemini: un agente dedicato scansiona costantemente il dark web e i feed di threat intelligence globale, correlando miliardi di segnali per dare priorità agli avvisi di sicurezza critici ancora prima che diventino incidenti. Si scala nel tempo, andando indietro e prevedendo anziché rattoppando. Google propone una triade di difesa in collaborazione con Wiz, la “dedacorno” (valutazione maggiore di 10 miliardi di dollari) che si occupa di cyber security.
I colori della difesa sono tre, rosso, blu e verde. Il Red Agent simula attacchi avanzati e tecniche di penetrazione per testare costantemente le difese, il Blue Agent monitora l’infrastruttura in tempo reale, bloccando intrusioni e isolando segmenti di rete compromessi; il Green Agent automatizza la risoluzione delle vulnerabilità (patching) e la conformità normativa.
AI Factories ed egress costs
Passiamo all’analisi dell’infrastruttura. L’architettura dei dati viene ripensata per eliminare i silos informativi tra diversi fornitori di cloud. Il Cross Cloud Lakehouse permette analisi avanzate su dati residenti in AWS e Azure senza necessità di spostamento fisico (architettura zero-copy), riducendo drasticamente la latenza e i costi di uscita dei dati (egress fees).
Considerando il traffico generato dal coordinamento tra agenti AI, ecco Virgo, una nuova infrastruttura di rete ottica a 15 Tb/s progettata specificamente per gestire questo traffico massivo. Sempre in infrastruttura, lo storage alza le prestazioni con soluzioni basate su Lustre e Rapid Storage, fondamentali per alimentare i dataset di addestramento e l’inferenza in tempo reale sempre con i 15 Tb/s.
Il silicio è strategico: TPUv8 e Axion
I chip non sono più semplici componenti, ma il motore dell’economia agentica. Una novità per Google è la separazione tra chip per il training e chip per l’inferenza, una chiara direzione del mercato. La versione delle TPU di Google comprende ora 8t (Sunfish), ottimizzata per l’addestramento massivo, e 8i (Zebrafish), per l’inferenza ad alta velocità, con un’efficienza di 3 volte superiore alla generazione precedente.
Arriva inoltre la serie Axion, basata su ARM, con prestazioni ed efficienza energetica molto elevati (50-60% rispetto ai sistemi x86, secondo Google), diventando lo standard per l’orchestrazione degli agenti. Continua quindi la migrazione di carichi CPU da x86 ad ARM. Qualche futuro sviluppo può essere atteso nell’area delle DPU (Data processing unit), visto che al momento Google usa prevalentemente gli ASIC IPU E2000 co-progettati con Intel. Questi chip sono “nascosti” nelle istanze C4A/N4A su Google Cloud per workload generici ad alta efficienza (web, app, DB, analitica, AI‑on‑CPU).
Vertex AI diventa la piattaforma centrale
Vertex AI sta diventando il vero “OS dell’AI enterprise”. Comprende modelli multimodali (video, immagini, audio, testo) e strumenti di orchestrazione (agent-to-agent), permettendo una reale integrazione con dati aziendali. Annunci probabili, se non già nascosti tra le pieghe della comunicazione di Google, potrebbero riguardare una maggiore automazione (pipeline AI completa) e strumenti per deployment su larga scala.
Il vero salto, quindi, avviene con il passaggio da sistemi reattivi a sistemi proattivi. Il modello di punta per l’orchestrazione di workflow multi-agente è Gemini 3.1 Pro, mentre Agent Studio è una piattaforma low-code per creare agenti basati su policy aziendali e di coordinare vari agenti. Workspace ha ora il Canvas Mode, un’area di lavoro collaborativa all’interno di Gemini Enterprise dove gli agenti possono generare, modificare e formattare documenti, slide e fogli di calcolo seguendo le istruzioni dell’utente in linguaggio naturale. E Knowledge Catalog trasforma i dati aziendali (documenti, email, database) in un grafo semantico leggibile dagli agenti, garantendo che le risposte siano sempre basate sulla “verità” aziendale aggiornata.

