L’evoluzione tecnologica degli ultimi due decenni è stata rapidissima: se da un lato ha ampliato le opportunità ed i vantaggi per il business, dall’altro ha però fatto emergere alcune criticità che hanno “costretto” le aziende a ripensare le strategie in ambito Data Center.

Pensiamo per esempio a come sono cambiate e accresciute le possibilità di raccolta, elaborazione, archiviazione e analisi dei dati in pochi anni: oggi i professionisti IT (e di contro vendor e operatori del canale ICT) possono contare su una flessibilità che fino a qualche anno fa era persino inimmaginabile. Una flessibilità che va letta a livello di sistemi e risorse IT (calcolo computazionale, storage, connettività) ma soprattutto a livello di applicazioni: le aziende sono attualmente in grado di decidere con estrema semplicità e agilità dove far risiedere le proprie applicazioni, optando tra Data Center, Cloud e ormai persino “in periferia” (nell’edge).

Quello che è cambiato, in particolare, è proprio il “peso” delle applicazioni rispetto ai sistemi che le devono supportare: per la prima volta, è la natura stessa delle applicazioni a determinare dove devono risiedere per poter funzionare al meglio. Ed è proprio questo cambio di paradigma che sta determinando il successo dell’edge computing.

WHITE PAPER: “I BENEFICI DELL’EDGE COMPUTING” – SCARICALO ORA!

Edge computing: un tassello importante del nuovo modello di Data Center “decentralizzato”

Storicamente l’IT ha spostato ciclicamente l’attenzione su due modelli prevalenti di gestione delle risorse: IT centralizzato e IT decentralizzato. Si è partiti con l’era della centralizzazione delle risorse sui mainframe, poi ci si è spostati sul modello client-server (quindi con un IT decentralizzato) e poi si è tornati alla centralizzazione guardando però all’IT come servizio (grazie al Cloud). Ora oscilliamo nuovamente verso un modello di decentralizzazione dove ad essere predominante è l’edge computing.

Questo perché sono cambiate le applicazioni, sempre più ibride e distribuite, e sono cambiate le fonti di dati e la modalità con le quali vengono analizzati. L’IoT in particolare sta contribuendo ad innalzare l’attenzione all’edge computing perché impone modelli di governance dell’IT diversi dal passato: applicazioni ibride e dispositivi IoT hanno requisiti completamente differenti dalle applicazioni tradizionali e il modello di gestione delle risorse centralizzato risulta inefficace.

In questo scenario il Cloud non perde d’importanza, tutt’altro! E’ l’elemento di completamento di un nuovo modello di Data Center che deve essere ibrido, flessibile, open, distribuito… In questo modello, l’edge computing è l’altro tassello portante del Data Center “decentralizzato”, quello che abilita servizi ed applicazioni che rendono intelligenti nuovi dispositivi periferici, nonché quello che permette analisi in real-time senza latenze.

L’IoT mira a collegare tra loro qualsiasi dispositivo o persona che può essere connesso attraverso una rete, per generare un flusso continuo di informazioni che aiuta le organizzazioni a ridurre i costi operativi, aumentare le entrate o migliorare le esperienze dei clienti. In questo scenario – di business prima di tutto – lo scambio di dati ed il passaggio da un ambiente ad un altro (dall’edge al Cloud e al Data Center) non possono in alcun modo rappresentare un problema.

All’interno di implementazioni IT ibride, l’edge locale crea un ponte ad alte prestazioni verso il Cloud pubblico, il Cloud privato o l’off-premise, i data center aziendali on-premise e co-localizzati e le altre implementazioni IT locali. Il Cloud di fatto è servito per centralizzare l’elaborazione e l’archiviazione dei dati, ma man mano che le aziende sviluppano progetti e fanno implementazioni nell’ambito dell’IoT, questa centralizzazione mostra alcuni limiti e alcune applicazioni non possono essere supportata in modo appropriato.

L’edge computing è necessario perché molte applicazioni IoT richiedono una combinazione di latenza estremamente bassa, larghezza di banda elevata o gestione dei dati rigorosa ed immediata. Requisiti che impongono di avere risorse IT disponibili là dove servono, negli “ambienti periferici”!

 

L’edge computing come risposta alla continuità operativa del business

In alcuni ambienti, l’edge computing sta aiutando le organizzazioni di business a ridurre la necessità di trasmettere dati avanti e indietro attraverso le reti, riducendo così i costi della larghezza di banda. Tuttavia, come abbiamo visto, alcune applicazioni, dove la latenza è un problema, potrebbero non essere adatte per lavorare in modo efficiente negli ambienti Cloud. Non solo, ci sono situazioni in cui le connessioni di rete instabili comportano tempi di fermo macchina non compatibili con le esigenze e gli obiettivi di un’azienda.

Ad esempio, nei punti vendita di negozi al dettaglio, i registratori di cassa non possono permettersi di smettere di registrare le vendite dei clienti se la rete Cloud subisce un’interruzione. Un caso d’uso come questo costituisce una valida argomentazione a favore dell’edge computing dato che l’impatto in termini di operatività “tocca” in modo diretto il business!

Questo è un esempio tangibile di come una gestione locale delle risorse (dati ed applicazioni) rappresenti un modello più flessibile per mantenere un grado più elevato di continuità operativa.

 

Micro Data Center: la risposta tecnologica per le esigenze degli ambienti periferici

Se l’edge computing, come abbiamo visto, sta diventando sempre più rilevante in un nuovo modello di Data Center decentralizzato, negli ultimi mesi i Micro Data Center stanno dimostrando di essere un’ottimale scelta tecnologica per aiutare a gestire le crescenti esigenze informatiche degli ambienti periferici.

MICRO DATA CENTER: AMBIENTE DI ELABORAZIONE “PREFABBRICATO” E SICURO. SCOPRI PERCHE’

Il vantaggio più importante di un Micro Data Center è la sua flessibilità nel far utilizzare alle aziende un’ampia varietà di applicazioni rispondendo così non solo alle esigenze specifiche di un progetto IoT ma a bisogno molto più estesi. È possibile ottimizzare le singole soluzioni di Micro Data Center, per esempio, per semplificare soluzioni che necessitano di implementazioni rapide e facilmente ripetibili, oppure per rispondere ad esigenze di resilienza o ancora per supportare applicazioni che necessitano di elaborazione locale senza dover necessariamente prevedere uno specifico supporto IT locale.

Da un punto di vista tecnologico, i Micro Data Center si presentano come soluzioni pre-configurate, pre-testate e pre-integrate che offrono calcolo hyperconverged, software operativo, monitoraggio ambientale, distribuzione dell’alimentazione e protezione dell’alimentazione in un rack sicuro.

Non solo, le soluzioni di Micro Data Center rispondono anche ad esigenze molto pratiche, come gli spazi nei siti di implementazione: molte opzioni di Micro Data Center richiedono pochissimo spazio fisico e il tempo per configurare il sistema è ridotto al minimo. Alcune soluzioni sono addirittura plug-and-play e non richiedono alcun supporto tecnico per la loro installazione.

Insomma, una soluzione, quella del Micro Data Center, che diventa ottimale per abilitare l’edge computing in progetti di IoT ma che risulta efficace anche per realtà che hanno diverse sedi operative distribuite in territori diversi e con modelli di business dove efficienza operativa e produttività non possono permettersi downtime o cali prestazionali a causa della tecnologia “distante”.

 

 

LEAVE A REPLY

Please enter your comment!
Please enter your name here