Ridurre i costi del raffreddamento

Il raffreddamento dei computer nei data center è un’operazione costosa. Gli operatori sono impegnati a ridurre i costi delle utenze associate al funzionamento delle ventole di raffreddamento e dei sistemi per il condizionamento dell’aria. Per cercare di risolvere il  problema sono state proposte numerose soluzioni finalizzate a minimizzare l’energia consumata dai sistemi di raffreddamento che, come ovvio, contribuisce ad aumentare i costi operativi senza apportare vantaggi. Queste soluzioni rientrano in due categorie: quelle che cercano di cambiare le regole e quelle che cercano di trattare il sintomo.

Cambiare le regole

I costi dei sistemi di raffreddamento possono essere ridotti facendo funzionare le apparecchiature a temperature più elevate. Sono state effettuate numerose ricerche per stabilire e valutare quali possano essere le temperature di funzionamento in grado di garantire livelli di affidabilità accettabili. Nel mondo dell’elettronica è risaputo il fatto che è meglio far funzionare i sistemi a temperature più basse possibili e questa affermazione è valida anche per i data center. Nel momento in cui si prendono in considerazione i costi legati al raffreddamento dei data center, l’affermazione fatta in precedenza diventa meno sostenibile: in questo caso è meglio individuare un limite accettabile. Nel caso dei data center un intervallo di temperatura ambiente solitamente accettato è quello compreso tra 20 e 22°C. In alcuni casi le temperature sono più basse, dell’ordine di 13°C e spesso vengono utilizzati refrigeratori ad acqua che contribuiscono a mantenere la temperatura a valori bassi. Ma il loro utilizzo è costoso. Le ricerche condotte per individuare valori accettabili di temperatura per il corretto funzionamento delle apparecchiature e dei data center hanno consentito di sfatare alcune convinzioni. Si calcola che i costi dell’energia possono essere ridotti del 4% per ogni grado di aumento del set point. Intel, ad esempio, ha riscontrato che quando nel corso di parecchi test è stata aumentata la temperatura di funzionamento, l’effetto non è stato così grave come ci si sarebbe aspettato. La società, insieme ad altre, ha aumentato i set point rispetto al range tradizionale per risparmiare sui costi del raffreddamento senza che ciò comportasse variazioni sull’affidabilità e sul tasso di sostituzione delle apparecchiature.

Curare i sintomi

Consentire il funzionamento a temperature più elevate può essere visto alla stregua di un cambiamento, o di una ri-ottimizzazione, delle regole. Un approccio alternativo è curare i sintomi spostando i data center in località più fredde e riducendo in tal modo il carico di lavoro dei sistemi di raffreddamento necessario per mantenere le temperature di funzionamento previste. Alcuni data center sono stati realizzati in regioni fredde al fine di ridurre i costi dell’energia richiesta per il raffreddamento dei server. In alcuni di questi Paesi, come ad esempio la Svezia e la Norvegia, sono inoltre presenti numerosi impianti idroelettrici o in grado di fornire energie rinnovabili a basso impatto ambientale. La dislocazione dei data center in queste regioni permette di ridurre i consumi di potenza e di risparmiare sulla bolletta energetica nel caso l’operatore sia in grado di fornire energia a prezzi più bassi. Esiste comunque una terza alternativa. Affrontare il problema alla radice e senza dubbio l’approccio migliore e nel caso del raffreddamento dei data center ciò comporta una diminuzione del calore che deve essere smaltito. Ciò si traduce nella necessità di migliorare l’efficienza energetica a livello dei sistemi elettronici. In questo caso non bisogna prendere in considerazione solamente i server, ma anche l’infrastruttura preposta alla distribuzione della potenza. Le modalità da utilizzare per aumentare l’efficienza dei server sono oramai consolidate: tecniche come ad esempio la virtualizzazione dei server stessi permettono di diminuire il numero di server che devono essere alimentati pur essendo utilizzati solo parzialmente. I gestori dei data center hanno senza dubbio familiarità con il Power Utilization Index, un indicatore chiave per valutare l’efficacia della virtualizzazione.

L’evoluzione dei sistemi di alimentazione

Gli operatori sono consapevoli del fatto che moduli di potenza più efficienti sono in grado di fornire una percentuale di energia più elevata per alimentare i server, riducendo nel contempo la quantità di energia che viene trasformata in calore indesiderato durante la conversione. Ciò comporta un risparmio iniziale, amplificato dal fatto che la riduzione della dissipazione di calore si traduce in una diminuzione del costo dell’energia consumata dal sistema di raffreddamento preposto allo smaltimento di questo calore. È possibile conseguire risparmi energetici migliorando la modalità di erogazione della potenza ai server. La Fig. 1 riporta lo schema dell’infrastruttura per la distribuzione della potenza a un server di un data center: un alimentatore Ac/Dc fornisce potenza a un convertitore di bus intermedio (Dc/Dc) collegato a una serie di convertitori di tensione di tipo PoL che alimentano i circuiti del server presenti sulla scheda. In alcuni casi, un alimentatore Ac/Dc può fornire la potenza necessaria direttamente ai convertitori PoL. La richiesta di potenza da parte delle schede dei server aumenta passando da una generazione a quella successive: dalle centinaia di Watt necessari per i server in cabinet di altezza ridotta si è arrivati nel giro di pochi anni agli oltre 2 kW richiesti dagli attuali server. Ciò ha due implicazioni per i componenti utilizzati per la distribuzione della potenza. In primo luogo, l’aumento della richiesta di potenza di picco da parte delle schede dei server significa che la differenza tra l’efficienza effettiva dei convertitori e quella ideale si traduce in una maggiore quantità di energia che deve essere dissipata sotto forma di calore. Per minimizzare questa dissipazione è necessaria una maggiore efficienza operativa. In secondo luogo gli alimentatori tradizionali possono essere ottimizzati solo per un ridotto intervallo del carico. Al di fuori di tale intervallo, in particolare per carichi di basso valore, l’efficienza risulta inferiore al valore massimo.

Software Defined Power, un concetto innovativo

Con l’introduzione del concetto di potenza digitale, i progressi nella progettazione di alimentatori hanno subito una notevole accelerazione. Nei tradizionali alimentatori analogici, il comportamento è determinato da valori fissi di componenti come i condensatori: tali valori sono scelti in modo da assicurare un riscontro stabile e prevedibile della tensione di uscita al circuito di controllo dell’alimentatore. Le caratteristiche di un alimentatore digitale, invece, sono determinate dal firmware. I valori dei registri che controllano i parametri operativi possono essere modificati in modo più semplice e rapido rispetto all’uso di componenti come i condensatori con valori fissi. La potenza digitale ha permesso ai costruttori di alimentatori di sfruttare economie di scala: essi sono in grado di realizzare piattaforme di alimentazione che possono essere configurate per molteplici applicazioni, o per soddisfare esigenze specifiche dell’utente finale o consentirne il funzionamento in una vasta gamma di condizioni operative. Nel caso di un data center, ad esempio, è possibile programmare un alimentatore digitale con un insieme di valori tali da ottimizzare l’efficienza a pieno carico, come pure modificare tali valori in presenza di un carico ridotto al fine di mantenere un’elevata efficienza. Nel caso di un alimentatore analogico l’efficienza è ridotta nel caso di bassi valori del carico. La regolazione dei moduli di potenza digitali è solitamente effettuata da un controllore centrale che comunica con i registri del modulo attraverso un collegamento PMBus. Gli alimentatori digitali, inoltre, possono essere stabilizzati utilizzando un numero ridotto di condensatori: ciò permette di realizzare moduli di potenza più piccoli. Il concetto di potenza digitale è stato adottato con successo nel telecom e nelle apparecchiature per data center e networking. La flessibilità intrinseca di questo approccio consente di configurare i moduli per garantire la massima efficienza in differenti condizioni operative. La progettazione degli alimentatori è in una fase di profonda trasformazione, grazie ai vantaggi offerti dalla potenza digitale e alla possibilità di effettuare adattamenti in tempo reale sfruttando un applicativo software che gira sul controllore centrale. Questa evoluzione, che va sotto il nome di Sdpa (Software defined power architecture), assicura un livello di flessibilità maggiore e offre l’opportunità di regolare automaticamente e in modo preciso l’alimentatore in risposta alle variazioni del carico o di gestire variazioni più lente, come gli effetti imputabili all’invecchiamento dei componenti. La potenza definita via software è nella fase iniziale di un ciclo di sviluppo che garantirà significativi incrementi in termini di prestazioni ed efficienza, permetterà di ottenere risposte più precise e una maggiore densità di potenza, che a sua volta favorirà lo sviluppo di moduli più compatti che occupano uno spazio inferiore sulla scheda.

Implicazioni per i data center

Una migliore comprensione del funzionamento dei sottosistemi che distribuiscono la potenza ai server può aiutare data center e operatori a capire come i miglioramenti a livello di progetto possono contribuire a migliorare l’efficienza complessiva e incrementare le prestazioni di elaborazione. La potenza digitale rappresenta lo stato dell’arte attuale, mentre la potenza definita via software si propone come un approccio che permette di sfruttare al meglio i vantaggi dell’approccio digitale in termini di flessibilità e configurabilità. La potenza definita via software si trova nella fase iniziale del proprio ciclo di sviluppo, mentre in tempi brevi sono previsti miglioramenti del codice applicativo. Gli Oem che operano nel mercato dei server devono essere quindi pronti a rilasciare frequenti aggiornamenti del software applicativo che riguarda la potenza nelle fasi iniziali del ciclo di vita dei prodotti installati. Tali aggiornamenti possono essere installati in modo remoto e in maniera completamente trasparente per gli utilizzatori: il solo effetto visibile sarà una diminuzione della potenza richiesta per far funzionare i sistemi di raffreddamento, con una conseguente riduzione della bolletta dell’elettricità.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome