Sono in molti a essere convinti che l'edge computing sia destinato a ridisegnare l'IT management, soprattutto delle imprese, manifatturiere e non, che per guadagnare vantaggio competitivo stanno puntando sull'Internet of Things (IoT). Gli oggetti connessi, specie i macchinari industriali, generano e richiedono infatti un’enorme mole di dati: workflow che hanno la necessità di essere scambiati rapidamente e in modo del tutto sicuro, pena possibili disservizi lungo la catena logistica e produttiva. In questo scenario, cosa devono aspettarsi i CIO e i responsabili informatici delle organizzazioni che, in numero sempre maggiore, investono in architetture edge computing?
Per fare chiarezza, cominciamo col definire e circoscrivere l'ambito di cui stiamo parlando. L'espressione edge computing fa riferimento a un'architettura informatica distribuita in cui i dati vengono elaborati alla periferia della rete, il più vicino possibile alla loro fonte di origine. Invece di trasmettere i dati grezzi a un data center centrale per l'analisi, il sistema consente di svolgere il lavoro di elaborazione là dove i dati vengono effettivamente generati, che si tratti di un negozio al dettaglio, di una fabbrica 4.0, di un'azienda di servizi pubblici o di infrastruttura inserita in una smart city.
Nella logica IoT, il paradigma informatico tradizionale, basato su un data center centralizzato e sulla rete Internet ordinaria, non è adatto a sostenere flussi di lavoro così delicati, né le quantità di informazioni prodotte quotidianamente dagli oggetti connessi. Limiti di larghezza di banda, problemi di latenza e imprevedibili interruzioni a livello di network rendono quest'approccio decisamente meno efficace e affidabile delle soluzioni edge computing. Al contrario di quanto si possa immaginare, poi, non è un problema che dovranno affrontare soltanto le organizzazioni più strutturate o di use case specifici: Gartner prevede che entro il 2025 il 75% dei dati generati dalle aziende avrà origine al di fuori dei data center centralizzati.
Proprio per questa serie di motivi, sempre più architetti IT stanno spostando l'attenzione dal data center centrale al bordo logico dell'infrastruttura, trasferendo parte delle risorse di storage e di calcolo verso i punti in cui vengono generati i dati.
L'edge computing affronta in effetti tre specifici limiti delle reti tradizionali:
Il principio è semplice: se non è possibile avvicinare i dati al data center, è meglio avvicinare il data center ai dati, e l'edge computing consente di farlo, spesso richiedendo poco più di un rack parziale di apparecchiature da utilizzare sulla LAN remota per raccogliere ed elaborare i dati a livello locale.
In molti casi, l'attrezzatura informatica viene distribuita in involucri schermati per proteggere l'attrezzatura da temperature estreme, umidità e altre condizioni ambientali. L'elaborazione spesso comporta la normalizzazione e l'analisi del flusso di dati alla ricerca di informazioni rilevanti, e solo i risultati dell'analisi vengono inviati al centro dati principale.
Sebbene l'edge computing abbia il potenziale per fornire vantaggi interessanti in una moltitudine di casi d'uso, va detto che la tecnologia non è infallibile. L'implementazione effettiva di un'iniziativa di edge computing può variare drasticamente in termini di portata e di scala, spaziando come detto dall'installazione di qualche dispositivo di elaborazione locale, all'implementazione di una vasta gamma di sensori che alimentano una connessione di rete a bassa latenza verso il cloud pubblico. Non esistono, in altre parole, due progetti di edge computing uguali.
Sono queste variabili che rendono la strategia e la pianificazione così cruciali per il successo di un progetto edge computing e, a prescindere, nel tempo la decentralizzazione risulterà quasi sempre impegnativa, in quanto richiede un'attenta attività di monitoraggio e controllo.
Da non sottovalutare per esempio il fatto che in caso di disservizi potrebbe essere complesso portare fisicamente il personale IT nel luogo in cui si trova l'impianto edge computing. Quindi, le implementazioni devono essere progettate per garantire resilienza, tolleranza ai guasti e, auspicabilmente, capacità di auto-riparazione.
Gli strumenti di monitoraggio devono offrire una chiara panoramica della struttura, consentire un provisioning semplificato e strumenti di configurazione intuitivi, che abilitino notifiche e report completi e mantengano elevati i livelli di sicurezza dell'installazione. Il monitoraggio dell'edge computing, inoltre, spesso coinvolge una serie di KPI avanzati, come la disponibilità o l'uptime del sito, le prestazioni della rete, la capacità e l'utilizzo dello storage e le risorse di calcolo.
In funzione di queste premesse, è dunque fondamentale progettare un sistema che tenga conto di una connettività scarsa o irregolare e considerare cosa potrebbe succedere all'architettura nel momento in cui si perde la linea.
Bisogna anche considerare il tema della cybersecurity: i dispositivi IoT sono per definizione suscettibili ad intrusioni esterne, quindi è essenziale implementare un edge computing che ponga l'accento sulla corretta gestione dei device - come l'applicazione di configurazioni guidate da policy ben definite - nonché sulla sicurezza delle risorse di elaborazione e di archiviazione - con particolare attenzione alla crittografia dei dati - e su fattori tipici anche dei data center tradizionali, come le patch e gli aggiornamenti del software.
C'è infine la questione della gestione del ciclo di vita delle informazioni. La maggior parte degli input coinvolti nell'analisi in tempo reale sono dati a breve termine: un CIO deve stabilire quali archiviare e quali scartare una volta eseguite le analisi. Inoltre, i dati conservati devono essere protetti e conservati in conformità alle politiche aziendali e alle normative generali e di settore.
Si tratta di una quantità non indifferente di variabili di cui tenere conto, e che specialmente nella fase di startup di un progetto di migrazione può impensierire anche i CIO più esperti. Quando si parla di edge computing, dopotutto, ci si addentra in una gamma di soluzioni che anche per organizzazioni ben strutturate sotto il profilo dell'IT costituiscono ancora un ambito di frontiera. Ecco perché, per orientarsi rispetto alle opportunità attualmente offerte dal mercato e sfruttarle al meglio, conviene affidarsi a partner come Quanture, in grado cioè di mettere al servizio dei clienti competenze comprovate sul piano dell'IT Design & Engineering e sulla Data Security.