F5 traccia le possibili direzioni dei trend tecnologici del 2026

Dopo dodici mesi di sperimentazioni e aspettative, iniziano a delinearsi le vere direzioni che definiranno i trend tecnologici del 2026. Le proiezioni di F5

Sulla base dell’esperienza degli ultimi dodici mesi, gli esperti di F5 tracciano le possibili direzioni dei trend tecnologici del 2026.

I responsabili aziendali stanno iniziando a stancarsi dell’hype intorno all’AI. Il clamore iniziale che accompagna qualsiasi tecnologia rivoluzionaria, secondo Josh Goldfarb, Field CISO di F5 si sta rapidamente affievolendo. Il 2026 sarà un anno decisivo per l’AI: make it or break it. Il top management si aspetta di vedere concretamente il valore di business in proporzione agli investimenti; se l’AI non riuscirà a fornire risultati tangibili, l’entusiasmo intorno a questa tecnologia svanirà velocemente.

In particolare, per i professionisti della sicurezza, API e API discovery sono il punto in cui l’AI diventa reale. Le API consentono a diversi componenti software di comunicare e trasferire dati. Per questo motivo, sono la chiave per trasformare l’AI teorica in applicazioni pratiche e utilizzabili, automatizzando attività su reti e sistemi. In un contesto di sicurezza, è il layer API a fungere da tessuto connettivo e, proprio per questo, richiede protezione, detection, risposta e remediation.

Allocare maggior budget alla sicurezza delle API e all’API discovery sarà cruciale per ottenere una migliore sicurezza dell’AI nel 2026. Altrimenti, non sarà l’anno in cui l’AI offrirà valore, ma quello in cui inizieranno a emergere le crepe.

Nel 2026, la sovranità dei dati sarà la sfida principale in ambito AI per il settore pubblico

Nella PA, la governance dell’AI non è solo una casella da spuntare in tema di compliance: è una questione di sovranità. I governi di tutto il mondo stanno capendo che non possono delegare la responsabilità agli algoritmi. “Quando l’AI prende o influenza una decisione che impatta un cittadino – sottolinea Bill Church, Field CTO di F5deve esserci piena tracciabilità: dalla provenienza del modello a ogni prompt e output. Questo significa data loss prevention sugli input e sugli output, intervento umano nelle decisioni e trasparenza quando qualcuno interagisce con l’AI. La vera sovranità significa non solo sapere dove risiedono i dati, ma anche chi detiene le chiavi di accesso”.

Inoltre, AI, cloud e continuità della supply chain ridefiniranno il concetto di resilienza nel settore pubblico. Un tempo, resilienza significava uptime. Ora significa continuità attraverso confini, cloud e crisi. Le organizzazioni del settore pubblico stanno passando a architetture ibride e “multi-attive”, in grado di resistere tanto a shock geopolitici e della supply chain quanto a problemi tecnici. Questo implica rimpatriare i servizi sensibili in termini di latenza o sovranità, mantenere capacità di burst nel cloud e verificare l’intera supply chain software dalla CI al runtime. Non basta avere un piano di backup: i governi dovrebbero eseguire esercitazioni di failover che includano anche i sistemi di AI, perché la continuità nell’era dell’AI dipende da visibilità, agilità crittografica e controllo unificato su ogni livello dell’infrastruttura.

Inferenza, inferenza, inferenza

Per Lori MacVittie, Distinguished Engineer dell’azienda “assisteremo a un grande cambiamento: le aziende spenderanno di più in infrastrutture per l’inferenza (serving, scalabilità, latenza) rispetto al training. Il training è episodico; l’inferenza è 24/7. Ho già evidenziato questa tendenza e il mercato sta vedendo indicatori nella stessa direzione. Una nostra ricerca ha osservato che l’80% delle organizzazioni già gestiva propri servizi di inferenza. Questo colloca l’inferenza tra i “carichi di lavoro di prima classe” e indica che una parte significativa dei costi si sta già spostando”.

Dell riporta pubblicamente che il suo business AI/server sta esplodendo, affermando che le vendite di server AI sono cresciute di circa 6 volte dal FY2024 al FY2025 e prevedendo di raggiungere 20 miliardi di dollari di ricavi in server AI nel FY2026. IDC prevede che la spesa per server “accelerati” (cioè ottimizzati per AI/inferenza) rappresenterà oltre il 75% della spesa in infrastrutture server AI entro il 2028, con un CAGR a 5 anni di circa il 42%.

Perché questo è importante? Dal punto di vista del design entrano in gioco diversi trade-off: diventano cruciali la latenza, il throughput, la capacità, la scalabilità nei picchi di richiesta, così come il raffreddamento, il consumo energetico e la localizzazione. Di conseguenza, le organizzazioni che finora hanno progettato infrastrutture principalmente per il training dovranno ora correre a ridefinire l’architettura dei propri sistemi per garantire prestazioni di inferenza adeguate.

L’inferenza-as-a-Service diventa un requisito indispensabile

I servizi di “model hosting” si trasformeranno in vere offerte di Inference-as-a-Service (IaaS), proprio come il “compute as a service” ha fatto con l’infrastruttura. Diverse fonti di settore prevedono che circa il 78% delle organizzazioni farà affidamento sull’inference as-a-service entrando nel 2026.

Team e aziende più piccole possono quindi competere senza dover possedere interi stack di inferenza, mentre si diffonderanno veri e propri marketplace di endpoint di inferenza a bassa latenza, con versioning dei modelli e SLA garantiti; tutto questo contribuirà ad abbassare in modo significativo la barriera al deploy dell’AI in tempo reale.

L’inferenza viene spinta in nuovi domini grazie all’AI agentica

Con lo slancio dell’AI agentica, l’inferenza non sarà usata solo per previsioni o classificazioni statiche. Verrà utilizzata continuamente in loop di interazione: state management, tool invocation, pianificazione, dialogo, ecc. Gartner prevede che il 40% delle applicazioni enterprise incorporerà agenti task-specific entro il 2026. La nostra ricerca ha evidenziato molto più di semplici esperimenti con agenti e AI agentica: il 5% è già in produzione, mentre molte altre organizzazioni sono nella fase di “preparazione all’implementazione”.

Perché è importante: l’inferenza diventa composizionale, con molte chiamate a micromodelli per ogni “task”, i budget di latenza si restringono rendendo necessari routing intelligente, caching, livelli di guardrail e valutazioni parziali, e il confine tra edge e cloud inference diventa sempre più sfumato.

L’inferenza all’edge diventa mainstream

Poiché non si può sempre tollerare la latenza di andata e ritorno o dipendere dal cloud, sempre più inferenza verrà spostata sull’edge o in modalità ibride (edge + cloud). I carichi di lavoro in tempo reale in AR/VR, sistemi autonomi, IoT e settori industriali lo richiederanno. Questo è implicito nelle tendenze di “inference as infrastructure”, così come nell’esplosione degli “AI PC” e nella distribuzione dell’AI su endpoint come gli smartphone.

Assisteremo quindi a una crescente specializzazione hardware, con piccoli acceleratori, TPU/ASIC all’edge, quantizzazione dei modelli, pruning e adattamento a runtime, mentre i modelli si degraderanno in modo controllato tra decisioni cloud-edge, fallback e modalità “solo locale”.

La governance dell’inferenza e i controlli di explainability diventano essenziali

Man mano che l’inferenza scala, decisioni scorrette o non eque danneggeranno brand e compliance. Aspettatevi regolamentazioni e policy aziendali che richiedano decisioni di inferenza tracciabili, explainability causale, rilevamento del drift e log di audit per ogni inferenza. Ad esempio, Deloitte evidenzia sicurezza, sovranità e controllo come temi critici per il 2026. La nostra ricerca ha rilevato che le organizzazioni stanno proteggendo tutto, persino i log dei prompt. L’87% delle grandi organizzazioni utilizza già RBAC per governare l’accesso a prompt e log.

Dunque, il proprio “tessuto di inferenza” dovrà includere logging integrato, tracciabilità della provenienza, versioning e livelli di guardrail; le sonde semantiche e i controlli di sanità a runtime diventeranno uno standard, e i vendor non si contenderanno più solo velocità e costo, ma anche fiducia e capacità di spiegare le decisioni dell’AI.

L’inferenza non è, dunque, solo il prossimo carico di lavoro. È il nuovo runtime, quello che mette alla prova – e spesso rompe – ogni “convinzione” architetturale pigra che ci siamo trascinati dall’era del cloud.

Sicurezza, sovranità e controllo non sono buzzword: sono le valute della fiducia in un’impresa alimentata dall’AI. Entro il 2026, coloro che tratteranno l’inferenza come infrastruttura, non come ispirazione, saranno quelli che resteranno in piedi quando l’hype si dissolverà.

Quindi sì, basta una parola per riassumere il 2026: inferenza.

LEGGI ANCHE

Gli ultimi articoli