F5 tiene all’ambiente IT e protegge le Api

Marco Urciuoli, country manager F5 per Italia e Malta, ci racconta come F5 si adatta al mondo frammentato del cloud, del data center e dell'edge computing.

F5, conosciuta da molti per il load balancing, è oggi un punto di riferimento per la gestione delle performance, della delivery e della sicurezza delle applicazioni in un mondo che è sempre più frammentato tra cloud, data center e edge computing. Ne abbiamo parlato con Marco Urciuoli, country manager F5 per Italia e Malta.

Come si modernizzano le applicazioni?

Il core business di F5 è la gestione delle applicazioni e della loro sicurezza. Oggi i nostri clienti devono gestire l’eredità di un mondo che potremmo chiamare tradizionale ma allo stesso tempo trasformarsi verso un nuovo scenario: le applicazioni sono centrali in entrambi, da quelle monolitiche e rigidamente strutturate del legacy, a quelle moderne e più flessibili basate su architetture a container.

Come inserite Kubernetes?

Il portafoglio di soluzioni BIG-IP, disponibili sia in hardware che in software, fornisce tutta una serie di servizi che spaziano dall’application delivery all’application security, coprendo molteplici esigenze come la protezione DDoS (Distributed Denial of Service, ndr) a livello di rete e applicativo e il Web Application Firewall.

Oggi lo scenario si è complicato con l’arrivo del cloud e di ambienti a microservizi come Kubernetes. Un grande vantaggio delle applicazioni moderne, grazie all’architettura a microservizi, è la possibilità di operare in finestre di manutenzione più brevi e senza disservizio; anche i sistemi che garantiscono il delivery e la security di queste applicazioni si deve modernizzare.

Parliamo di NGINX e di Distributed Cloud

La piattaforma open source NGINX, il web server reverse proxy più utilizzato nel mondo, è entrata a far parte delle soluzioni della famiglia F5, che si è impegnata a mantenere le caratteristiche open source del progetto. Inoltre, abbiamo sviluppato NGINX One, una versione commerciale corredata da un Web Application Firewall: NGINX è la soluzione ideale per architetture moderne e containerizzate come Kubernetes, portando agilità e sicurezza applicativa in questi ambenti.

Quindi F5 rende sicura, disponibile e performante qualunque tipo di applicazione, ovunque?

Assolutamente sì! Consideriamo il cambiamento epocale che le digital transformation hanno portato negli asset applicativi aziendali: si è passati da un unico, ben identificato data center a un mix di ambienti come private-cloud, public-cloud, edge-cloud e colocation. In questo scenario complesso, proteggere le applicazioni diventa rapidamente un compito difficile, se non a volte impossibile: bisogna guardare a sistemi che siano in grado di gestire questa complessità, riducendola e semplificandola nella fase di gestione, centralizzando e uniformando le policy di sicurezza e delivery indipendentemente dal tipo di app e dal luogo in cui è stata installata.

Per traguardare questo obiettivo, nel 2021 F5 ha acquisito Volterra, un’azienda che ha costruito una piattaforma e un’architettura sulla quale offriamo in modalità as-a-service una famiglia di soluzioni per la gestione della delivery e della sicurezza dell’applicazione.

Voi mettete al centro le Api e la loro protezione

Una delle componenti fondamentali di questa piattaforma as-a-service è il WAAP, Web Application and Api Protection: è molto importante proteggere le Api che sono oggi il linguaggio d’elezione per il colloquio app-to-app. Le funzionalità di Api Discovery sono essenziali per capire quante e quali Api devono essere protette. Solo una volta stabilito cosa bisogna proteggere è possibile implementare Vulnerability Assessment e Api protection.

L’AI cybersecurity è il nuovo fronte?

Questo discorso vale ancora di più per l’AI, che -per quanto complessa- resta un’applicazione. Per sua natura, ha la necessità di accedere a molte fonti di dati attraverso un uso estensivo di Api.

In ambito AI troviamo le Api sia nella fase di deep learning, sia in quella di inferenza, quindi anche quando il modello è pronto e istruito. Un’applicazione di intelligenza artificiale che sia efficace non può essere solo on-premises: deve poter accedere a differenti fonti esterne di dati o di AI generative e generaliste e questo complica il compito di chi deve gestire questi colloqui.

Quali sono i problemi relativi?

Se un’intelligenza artificiale viene allenata in modo che non debba rispondere a determinati quesiti, può essere inquinata e restituire risposte scorrette: c’è tutta una serie di scenari sui quali noi possiamo intervenire per fornire sicurezza e performance.

LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.

LEGGI ANCHE

Gli ultimi articoli