Reti aziendali: quali i focus per il 2018 e criticità

cPacket ha analizzato quali potrebbero essere i problemi per le reti nel 2018 a causa delle alte velocità, dei big data  e dei problemi di sicurezza

 

Digital transformation, IoT, Mobility, Cloud privato o ibrido e persino Industry 4.0 hanno un fattore comune che ne può determinare lo sviluppo: la rete trasmissiva.

Nell’era delle connettività e della trasformazione digitale, le reti assumono un ruolo sempre più critico e impongono alle imprese di potenziare le loro infrastrutture di rete per stare al passo con il cambiamento.

Sapere cosa ci si aspetta è quindi essenziale per poter affrontare a ragion veduta e con minor aleatorietà e rischi per il business  il processo di cambiamento in atto.

Una analisi di cosa aspettarsi l’ha fatta Brendan O’Flaherty, CEO di cPacket Networks, che ha delineato alcuni dei trend che a suo avviso domineranno i prossimi mesi in ambito enterprise networking.

Una prima cosa è che a mano a mano che la velocità di rete aumenta i gestori della rete aziendale si troveranno a fronteggiare una non facile realtà perché va da se che i problemi si enfatizzano e crescono con il crescere della velocità e il traffico che supporta.

Questione di apparati e capacità elaborativa

Si tratta di un problema di quantità e di  apparati installati e relativa loro capacità di calcolo. Se si riesce ad analizzare solo una parte del traffico su una rete a 10Gbps, la percentuale del traffico analizzato su una rete a 100Gbps non può che essere inferiore.

A questa elevata velocità la fonte del problema ha poi un maggior numero di posti in cui ‘nascondersi’, rendendo gli approcci a campione più suscettibili a falsi positivi e negativi. Quando si effettua un’attività di packet capture e analisi a seguito del verificarsi di un problema, osserva O’Flaherty, nella maggior parte dei casi i pacchetti catturati potrebbero non esservi associati e di conseguenza una root cause analysis è quasi impossibile. La soluzione più adatta può consistere nel disporre di un sistema di monitoraggio di rete continuo e costante, in grado di tenere traccia di tutte le attività senza impattare su storage e network.

E i big data?

Se invece si guarda ai trend in ambito big data, dato l’aumento della quantità di dati che vengono trasportati in rete, alcune teorie sostengono che un data set più ampio possa fornire più informazioni rispetto a uno più contenuto.

Si iniziano però a vedere i limiti legati ai big data: innanzitutto, una maggiore quantità di dati non vuol dire che tutti questi siano significativi, e c’è anche da considerare il fatto che riuscire a trovare i dati che possono fornire insight interessanti potrebbe risultare troppo costoso in termini di potenza di calcolo.

I big data generano valore attraverso l’elaborazione di enormi quantità di informazioni digitali, ma la sfida rimane quella dell’analisi di questi dati con architetture e tecniche tradizionali.

A tal proposito, ricorda il manager, McKinsey Global Institute stima che il volume dei dati cresce a un tasso del 40% ogni anno, e aumenterà di 44 volte tra il 2009 e il 2020. Un simile sondaggio condotto da Capgemini Consulting nel novembre 2015, rivelava che il 35% dei 226 professionisti IT intervistati ha confermato di non essere in grado di utilizzare in modo efficace i big data perché non dispongono degli strumenti di rete adatti per catturare, validare, e analizzare con cura i dati.

LEGGI ANCHE

Gli ultimi articoli