Sempre più il tema dell’energia pulita sta scalando le priorità del settore pubblico e privato: infatti, alla luce dell’obiettivo dell’Unione Europea di arrivare entro il 2030 con le rinnovabili a rappresentare almeno il 32% dell’energia consumata, ci si aspetta che gli anni a venire siano costellati da progressivi cambiamenti introdotti dai governi e dalle aziende che producono e distribuiscono energia e che inevitabilmente avranno un impatto significativo anche sul mercato dei data center. Per meglio inquadrare lo scenario che aspetta le aziende nel prossimo futuro, alle prese anche loro con una nuova rivoluzione, Eaton ha identificato le principali sfide che caratterizzeranno il settore dei data center a partire dal 2020 appena iniziato.
“La digital transformation confida in una maggiore affidabilità con l’aumentare della richiesta di potenza ed energia. Per indirizzare queste esigenze si parla da tempo dell’utilizzo di data center attenti alla riduzione dell’impatto ambientale, progettati per essere più efficienti e favorire risparmio energetico. Inoltre, sempre più le aziende sono chiamate ad adottare pratiche di gestione che non solo promuovano l’efficienza delle risorse ma che siano anche a ridotto impatto ambientale” ha dichiarato Stefano Cevenini, Product Manager Power Quality e Data Center Segment Marketing Manager di Eaton Italia. “In questo contesto di forte cambiamento siamo più che mai impegnati a supportare le aziende nell’identificare e adottare un approccio olistico alla gestione delle risorse dei data center e dei consumi energetici che sia in grado di sposarsi con gli obiettivi di business e che preveda l’implementazione di infrastrutture IT efficienti e contestualmente più sostenibili”.
Il 2020 sarà l’anno in cui si inizierà ad avvicinarsi e comprendere davvero cosa è l’edge computing: infatti, negli ultimi anni si è parlato molto dell’argomento, ma rimane ancora un importante gap da colmare su come funziona la tecnologia e su quali sono i suoi vantaggi e permane confusione su termini quali “edge computing”, “cloud edge” e “edge data center”, che vengono spesso erroneamente utilizzati come sinonimi. L’implementazione di una rete mesh di micro data center in grado di elaborare e memorizzare dati critici localmente e di trasmettere tutti i dati ricevuti ed elaborati da un data center centrale sarà un concetto sempre più diffuso, nonché una conseguenza diretta dell’IoT che richiede parte dell’elaborazione delle informazioni a livello dei dispositivi periferici locali.
Un fattore che avrà un impatto importante sull’effettiva diffusione dell’edge è l’evoluzione dell’infrastruttura mobile 5G che si dispiegherà in modo massivo nei prossimi anni, ma il cui avvento ha già iniziato a influire sul modo in cui molte aziende hanno iniziato a riprogettare le proprie architetture IT. Tecnologia abilitante dell’edge, quindi, il 5G offrirà velocità più elevate e larghezze di banda più ampie per ridurre quanto più possibile la latenza dei dati. Il 2020 vedrà quindi la progettazione di una nuova strategia di rete volta a favorire l’adozione diffusa del 5G: quando sarà completamente implementato, questo avrà un impatto notevole sul tessuto energetico per l’operatore e per il Paese stesso. Bilanciare i dati e il consumo di energia rappresenta una complessità crescente anche per il consumatore finale, sempre più attento all’impatto ambientale. Lo scenario ideale è che i data center e gli operatori di telecomunicazioni utilizzino la propria struttura elettrica per aiutare i gestori di rete a ottenere più energia pulita. Per fortuna, esiste una tecnologia che guarda all’impatto ambientale e che dovrà essere adottata su larga scala.
L’utilizzo di servizi e applicazioni basati su cloud pubblico e privato è in continua crescita nel mondo aziendale, con la conseguente crescita di data center hyperscale e multi-tenant. Parallelamente, si prevede che nel 2020 emergeranno anche data center multi-tenant nazionali che offrono ai clienti locali i vantaggi delle strategie off-site, ma allo stesso tempo un accesso ampio e facilitato ai professionisti IT dell’azienda per gestire aggiornamenti e operazioni nel data center. Alcune aziende, infatti, desiderano il vantaggio offerto dal cloud e dai data center commerciali, ma non vogliono perdere il controllo di risorse e dati.
Inoltre, la scelta della dislocazione di un data center è un’attività complessa. Se in passato un parametro che veniva preso in considerazione era la disponibilità di potenza di rete, ora ciò non è più sufficiente e diventa importante investire in architetture energetiche autonome e green su piccola scala: le cosiddette “microgrid”.
Poiché i tradizionali metodi di raffreddamento ad aria non soddisfano più le esigenze dei data center hyperscale e multi-tenant, è necessario considerare già da oggi alternative migliori rispetto al raffreddamento ad aria. All’aumentare della potenza di elaborazione del calcolo, aumenta anche il calore generato: per ogni kW di energia elettrica consumata in un data center, sono necessari altri kW per raffreddare l’apparecchiatura e mantenerla nell’intervallo di temperatura operativa. Invece di raffreddare l’intero spazio con un raffreddamento ad aria meccanica o libera a una certa densità di potenza, è possibile implementare un approccio di raffreddamento più diretto o mirato con il liquid cooling (raffreddamento a liquido). Questo può essere fatto mediante raffreddamento ad immersione – dove interi server sono immersi in serbatoi di liquido termicamente conduttivo, ma non elettricamente conduttivo – o mediante raffreddamento diretto da parte del liquido – per cui l’elettronica e il dissipatore di calore sulla scheda madre possono essere incapsulati in un collettore e un flusso di liquido rimuove il calore.