Il cloud è stato il centro di gravità dell’innovazione digitale degli ultimi anni. L’idea alla base è tanto semplice quanto rivoluzionaria: concentrare potenza di calcolo e storage in grandi data center, raggiungibili via Internet, e demandare lì ogni elaborazione. Tutto bene, ma, si sa, l'innovazione tecnologica non dorme mai e lo scenario che ci si presenta davanti evolve con grande rapidità. Con l’esplosione dell’intelligenza artificiale, infatti, dell’IoT e delle smart city, il modello puramente centralizzato ha iniziato a mostrare i suoi limiti strutturali. Ed è qui che sono entrati in gioco l'edge computing, il micro data center e l'AI distribuita.
Per Edge AI s'intende l’elaborazione di modelli di intelligenza artificiale direttamente sui dispositivi periferici, come smartphone, telecamere smart, sensori industriali, auto connesse, senza dover inviare ogni dato a un server remoto. In pratica: l’intelligenza artificiale lavora sul bordo della rete, vicino alla fonte dei dati.
Un esempio concreto? Il riconoscimento facciale sullo smartphone. Quando sblocchiamo il telefono, l’elaborazione non avviene in un data center dall’altra parte del mondo, ma direttamente sul chip del dispositivo. Lo stesso accade con assistenti vocali offline, sistemi di traduzione in tempo reale o funzioni fotografiche avanzate.
Questo tipo di approccio riduce la latenza, migliora la privacy e limita il traffico dati verso il cloud. La domanda, però, è meno scontata di quanto sembri: senza una rete in fibra ottica capillare, l’edge è davvero sostenibile? La domanda è retorica e la risposta abbastanza scontata: no, tecnicamente non è sostenibile, per la natura stessa dell'edge computing che consiste, appunto, nello spostare capacità di calcolo e storage vicino alla fonte dei dati: sensori industriali, telecamere, dispositivi IoT, sistemi urbani.
Il cloud che aggrega e conserva da remoto, oggi, potrebbe non essere più così strategico, il futuro potrebbe presentarsi molto più distribuito. Facciamo qualche esempio di scenari comuni:
A rendere possibile questi tipi di modelli sono i micro data center: infrastrutture compatte, spesso modulari, collocate in prossimità delle aree operative. Possono trovarsi in un quartiere urbano, in uno stabilimento industriale, in una centrale energetica. Non sono semplici server di zona, ma integrano virtualizzazione, orchestrazione e spesso capacità di accelerazione hardware per l’AI. In pratica, portano una porzione di cloud sul territorio.
Qui entrano in gioco attori come NVIDIA, con GPU e AI accelerators progettati per eseguire modelli di deep learning in ambienti edge, e Microsoft, che attraverso Microsoft Azure AI estende servizi e modelli dal cloud fino all’edge, garantendo continuità architetturale tra centro e periferia. L’obiettivo è chiaro: addestrare i modelli su larga scala nei data center centrali e distribuirli su nodi edge capaci di inferenza in tempo reale.
Il concetto chiave è l'AI distribuita su diversi livelli: cloud centrale per training massivo e gestione globale, micro data center per elaborazioni regionali e aggregazione, dispositivi edge per inferenza immediata.
L’edge può di fatto ridurre il traffico verso il cloud, ma non eliminarlo, i modelli di AI devono essere aggiornati, i dati aggregati devono essere sincronizzati, le policy di sicurezza devono essere propagate. Tutto questo, per rispondere in maniera ancora più esaustiva all'interrogativo che ci siamo posti all'inizio del nostro approfondimento, non potrebbe mai funzionare senza una connettività ad alta capacità e bassa latenza. E solo la fibra ottica ha tutte le carte in regola per adempiere al compito.
A questo si aggiunge, non ci stancheremo mai di dirlo, anche un tema di sostenibilità economica ed efficienza energetica. Una rete congestionata aumenta costi operativi e consumi. Una fibra diffusa, invece, permette di ottimizzare i flussi dati e sfruttare pienamente l’elaborazione locale, sostenendo con forza la prossima ondata di innovazione.
La Redazione