Vertiv prevede che l’alimentazione per l’AI, i digital twin e il raffreddamento a liquido adattivo influenzeranno la progettazione e le operazioni dei data center. Fattori come l’estrema densificazione, la scalabilità a livello di gigawatt e il data center come unità di calcolo stanno guidando questi trend
L’innovazione nei data center continua a essere modellata da scenari macroeconomici e tendenze tecnologiche legate all’intelligenza artificiale, secondo un report di Vertiv. Il report Vertiv Frontiers, che si avvale delle competenze di tutta l’organizzazione, descrive in dettaglio i trend tecnologici che guidano l’innovazione attuale e futura, dall’alimentazione per l’AI, ai digital twin, fino al raffreddamento a liquido adattivo.
“Il settore continua a evolversi rapidamente in termini di progettazione, realizzazione, gestione e assistenza dei data center, in risposta alla densità e alla velocità delle richieste di implementazione delle AI factory,” dichiara Scott Armul, chief product and technology officer di Vertiv. “Osserviamo forze trasversali alle tecnologie, tra cui l’estrema densificazione, che guidano trend trasformativi quali architetture di alimentazione in corrente continua (DC) ad alta tensione e sistemi avanzati di raffreddamento a liquido, fondamentali per ottenere la scalabilità a livello di gigawatt e cruciale per l’innovazione dell’AI. Anche la generazione di energia on-site e i digital twin dovrebbero contribuire ad accelerare portata e velocità di adozione dell’AI.”
Il report Vertiv Frontiers si basa e amplia le precedenti previsioni annuali di Vertiv sui trend dei data center. Il documento identifica i macro-fattori che guidano l’innovazione: estrema densificazione — accelerata dai workload AI e HPC; scalabilità a gigawatt ad alta velocità — i data center vengono oggi implementati rapidamente e con una portata senza precedenti; data center come unità di calcolo — l’era dell’AI richiede strutture progettate e gestite come un unico sistema; e diversificazione del silicio — l’infrastruttura dei data center deve adattarsi a una gamma crescente di chip e soluzioni di calcolo.
Il report illustra come queste macro-tendenze abbiano a loro volta influenzato cinque trend chiave che impattano aree specifiche del settore dei data center.
-
Alimentazione potenziata per l’AI
La maggior parte dei data center attuali si basa ancora su una distribuzione di alimentazione ibrida AC/DC dalla rete ai rack IT, che include tre o quattro fasi di conversione e alcune inefficienze. Questo approccio è sotto pressione con l’aumento delle densità di potenza, in gran parte guidato dai workload AI. Il passaggio ad architetture DC a tensione più elevata consente riduzioni significative della corrente, delle dimensioni dei conduttori e del numero di stadi di conversione, centralizzando la conversione dell’energia a livello di sala. I sistemi ibridi AC e DC sono diffusi, ma con la crescente maturità di standard e apparecchiature completamente DC, la DC ad alta tensione è destinata a diventare più comune con l’aumento delle densità dei rack. Anche la generazione on-site e le microreti favoriranno l’adozione della DC ad alta tensione.
-
AI distribuita
I miliardi di dollari investiti finora nei data center per l’AI a supporto dei large language model (LLM) sono stati destinati a sostenere l’ampia adozione di strumenti AI da parte di consumatori e imprese. Vertiv ritiene che l’AI stia diventando sempre più critica per le aziende, ma il modo e li luogo in cui tali servizi di inferenza verranno erogati dipenderanno dai requisiti e dalle condizioni specifiche dell’organizzazione. Questo avrà impatto su aziende di ogni tipo; tuttavia, settori altamente regolamentati come finanza, difesa e sanità potrebbero dover mantenere ambienti AI privati o ibridi tramite data center on-premise, per requisiti di residenza dei dati, sicurezza o latenza. Sistemi flessibili e scalabili di alimentazione ad alta densità e raffreddamento a liquido possono abilitare capacità sia attraverso nuove costruzioni sia mediante retrofit di strutture esistenti.
-
Accelerazione dell’autonomia energetica
La capacità di generazione energetica on-site a breve termine è stata essenziale per la resilienza della maggior parte dei data center standalone per decenni. Tuttavia, le diffuse sfide di disponibilità della potenza stanno creando le condizioni per adottare un’autonomia energetica estesa, soprattutto per i data center AI. Gli investimenti nella generazione on-site, tramite turbine a gas naturale e altre tecnologie, presentano diversi benefici intrinseci ma sono principalmente guidati dalle criticità di disponibilità dell’energia. Strategie tecnologiche come il Bring Your Own Power (and Cooling) sono destinate a entrare a far parte dei piani di autonomia energetica.
-
Progettazione e operazioni guidate dai digital twin
Workload AI sempre più densi e GPU più potenti richiedono l’implementazione rapida di complesse AI factory. Utilizzando strumenti basati sull’AI, i data center possono essere mappati e specificati virtualmente tramite digital twin; l’IT e le infrastrutture digitali critiche possono essere integrati, spesso come progetti modulari prefabbricati, e distribuiti come unità di calcolo, riducendo il time-to-token fino al 50%. Questo approccio sarà fondamentale per realizzare in modo efficiente le espansioni su scala di gigawatt necessarie per i futuri progressi dell’AI.
-
Raffreddamento a liquido adattivo e resiliente
I workload e le infrastrutture AI hanno accelerato l’adozione del raffreddamento a liquido. Al contempo, l’AI può essere utilizzata per affinare e ottimizzare ulteriormente queste soluzioni. Il raffreddamento a liquido è diventato mission-critical per un numero crescente di operatori, e l’AI può offrire modalità per potenziarne ulteriormente le capacità. In combinazione con sistemi aggiuntivi di monitoraggio e controllo, l’AI ha il potenziale di rendere i sistemi di raffreddamento a liquido più intelligenti e robusti, prevedendo potenziali guasti e gestendo in modo efficace fluidi e componenti. Questa tendenza dovrebbe portare a maggiore affidabilità e disponibilità (uptime) per hardware di alto valore e per i dati/workload di lavoro associati.



