Edge Computing: breve storia di com’è nato

L’espressione “Edge Computing” si riferisce a un’architettura software in cui l’origine dei dati e gli utenti dell’elaborazione di questi dati si trovano fisicamente vicino ai processi di acquisizione ed elaborazione dei dati. Con l’intenzione di ridurre traffico e latenza, si cerca di mantenere l’elaborazione e il traffico a livello locale.

Elaborare le informazioni sul campo, o ai margini (Edge), non è un concetto nuovo. È in circolazione da un po’. Come vedremo, il pendolo tra le tecniche centralizzate (più core) e decentralizzate (più edge) ha spesso oscillato nel mondo tecnologico.

Contenuti

Fine anni ’50: architetture centralizzate Mainframe/Terminale

La fine degli anni ’50 vide l’ascesa dell’architettura software centralizzata, con mainframe al centro e semplici terminali ai margini del sistema. Questo modello faceva molto affidamento sui mainframe, e tutta l’elaborazione e lo storage risiedevano su queste macchine centrali. Quest’era è stata l’alba della tecnologia informatica e ha gettato le basi per gran parte delle moderne infrastrutture di oggi.

 

Primi anni ’80: da centralizzato a decentralizzato

I primi anni ’80 hanno visto il passaggio dai PC centralizzati a quelli decentralizzati. Questo cambiamento ha liberato le persone dalle lunghe attese necessarie per ricevere le loro schede perforate dai mainframe. Questo cambiamento è stato il risultato dell’introduzione dei microcomputer, molto più economici e più facili da usare rispetto ai loro predecessori. Ciò ha portato a una diminuzione della necessità di computer mainframe, nonché a un aumento del numero di personal computer nelle case e nelle aziende. Invece di avere un computer di grandi dimensioni in una posizione centrale, ogni persona aveva il proprio computer, più piccolo. Ciò ha reso l’informatica più personale e ha consentito alle persone di avere un maggiore controllo sui propri dati.

Con l’introduzione dei PC, il contenuto e l’elaborazione sono stati distribuiti ai singoli dispositivi perimetrali autonomi.

 

Fine anni ’90: si ritorna verso architetture centralizzate Server/PC

La fine degli anni ’90 ha visto il passaggio da server e PC decentralizzati a server centralizzati. L’era di Internet stava iniziando e i PC erano supportati da server centralizzati complementari, praticamente un Cloud Computing in fase iniziale. Il modello di Cloud Computing originale era altamente centralizzato, con browser semplici (ciao, IE?) posti ai margini del sistema per l’accedere ai servizi basati su cloud. Tuttavia, questo modello ha iniziato a cambiare alla fine degli anni ’90, quando sono emersi browser più sofisticati e le aziende hanno iniziato a realizzare il vero potenziale dell’informatica distribuita.

Oggi assistiamo al ritorno dei modelli server/PC decentralizzati poiché le aziende cercano di sfruttare al massimo la loro flessibilità e scalabilità. Con l’aumento dei container e dei microservizi, ora è più facile che mai distribuire le applicazioni su una varietà di piattaforme senza dover fare affidamento su un unico server centrale. È probabile che questa tendenza continui negli anni a venire, mentre ci muoviamo verso un mondo sempre più distribuito.

 

Metà degli anni 2000: con l’arrivo di smartphone e tablet si inverte di nuovo la tendenza

Lo smartphone e il tablet hanno rivoluzionato l’informatica rendendola mobile. L’informatica non era più legata al desktop; adesso l’elaborazione poteva essere fatta ovunque, in qualsiasi momento. Questo è stato un punto di svolta epocale, sia per le aziende che per i consumatori. Ciononostante, la larghezza di banda era ancora scarsa e costosa, i contenuti erano archiviati sul dispositivo stesso e la maggior parte dell’elaborazione veniva eseguita localmente.

 

Fine anni 2000: da decentralizzato a centralizzato con il Cloud Computing

Alla fine degli anni 2000, il Cloud Computing ha iniziato a invadere i data center aziendali, centralizzando i dati e l’elaborazione in mega data center. Alcuni dispositivi perimetrali, come smartphone di fascia bassa e Chromebook, hanno anche trasferito il costo dell’aggiunta di potenza di calcolo da ogni singolo dispositivo a un cloud centralizzato. Questo cambiamento ha avuto un profondo impatto sul modo in cui operano le aziende e ha portato a un modello di elaborazione più centralizzato.

Ci sono diverse ragioni che spiegano questo passaggio da sistemi di elaborazione decentralizzati al Cloud Computing centralizzato. In primo luogo, è semplicemente più efficiente per le aziende avere tutti i propri dati in un posto facilmente accessibile da parte del personale autorizzato. In secondo luogo, la centralizzazione dei dati semplifica la protezione contro le minacce alla sicurezza poiché ci sono meno punti di ingresso che devono essere protetti. Infine, questo modello consente alle aziende di sfruttare al meglio le economie di scala quando si tratta di acquistare hardware e licenze software.

 

Adesso: la decentralizzazione con l’Edge Computing e l’avvento dell’IoT

Riguardando il 2010, si sono conteggiati più oggetti interconnessi che individui collegati. L’IoT o “Internet delle cose” iniziò ad espandersi rapidamente. Il volume e la velocità dei dati forniti o raccolti dall’Edge, ossia da tutti quei dispostivi post ai margini dei sistemi (ad esempio macchine, sensoristica di campo, fotocamere…), aumentano rapidamente man mano che più utenti e cose si connettono e interagiscono tra loro.

Con l’aumento del numero di cose connesse, il costo di connessione e i prezzi di sensori e fotocamere continueranno a diminuire, creando un circolo virtuoso, che accelererà ulteriormente la crescita di cose e parti di cose connesse. Quest’enorme quantità di devices sta creando dati ben oltre la capacità delle reti di comunicazione e della potenza del Cloud Computing. La maggiore quantità di contenuti ha anche creato problemi alla rete per quanto riguarda la latenza, grande problema legato all’IoT, che necessita di analisi e controllo in tempo reale o quasi.

Per completare il Cloud Computing è necessario un modello più decentralizzato: l’Edge Computing. Molti considerano il Cloud e l’Edge Computing come approcci separati o addirittura concorrenti; considerano il Cloud Computing come un modello centralizzato che sfrutta le economie di scala e la standardizzazione, mentre l’Edge Computing impone che l’elaborazione sia eseguita ai margini, dove i dati vengono creati e raccolti. Ma questo è un fraintendimento dei due concetti. Il Cloud Computing è uno stile di elaborazione in cui le capacità tecnologiche scalabili in modo elastico vengono fornite come servizio utilizzando Internet: non impone necessariamente che tutto venga eseguito solo su un server centralizzato lontano dal campo. L’Edge Computing decentralizza il tutto, portando il calcolo in location distribuite vicine all’origine dei dati o, meno frequentemente, vicine all’utente finale. In pratica, l’Edge Computing apporta profondità all’architettura di distribuzione per garantire resilienza e velocità di elaborazione alla soluzione.

A seconda dell’applicazione, il calcolo e i dati possono essere necessari a più livelli, dalle automazioni del campo ai sistemi IT superiori e/o addirittura esterni all’azienda stessa. Nell’implementare una soluzione Edge/Cloud, volta per volta sarà necessario considerare fattori quali la quantità di dati raccolti, il loro livello di elaborazione, l’autonomia necessaria, la larghezza di banda disponibile, i vincoli di latenza e i requisiti normativi.

Parlaci del tuo processo: possiamo aiutarti a capire e sviluppare la migliore soluzione Edge Computing/Cloud per la tua azienda.