Intelligenza artificiale, corsa a costruire nuovi data center
Con l’Ai generativa è esplosa la domanda di capacità di calcolo. Intanto i primi 20 provider mettono in cantiere 427 strutture
di Gianni Rusconi
I punti chiave
4' di lettura
Spesso i numeri rendono bene l’idea di un fenomeno, o perlomeno ce lo rendono più comprensibile: nel 2022 sono stati creati e consumati quasi 100 trilioni (miliardi di miliardi) di gigabyte di dati in formato digitale, pari a 4,5 milioni di volte l’intero contenuto testuale di Wikipedia. Una cifra destinata a raddoppiare entro il 2025. Lo dice la società di ricerca americana (International Data Group) e il Financial Times ha ricordato questi numeri rilanciando un tema che non dovrebbe passare inosservato.
I grandi data center che elaborano, distribuiscono e archiviano questa enorme massa di dati (e-mail e foto, video consumati in streaming e token crittografici scambiati online, produzione di criptovalute e post pubblicati sui social) rischiano di diventare insufficienti? E i loro consumi energetici saranno sostenibili? Domande lecite alle quali non è ovviamente semplice rispondere, tanto più che la dipendenza dai data center della società digitale è in crescita, perché alimentata dall’esplosione delle applicazioni basate sull’intelligenza artificiale.
Cantieri aperti per nuove strutture
Per soddisfare la domanda servono infrastrutture più potenti e, di conseguenza anche il numero dei data center in esercizio. Stando alle stime di Synergy Research Group, agli attuali 926 grandi hub in funzione in tutto il mondo di proprietà dei primi 20 provider di servizi cloud e di connettività, si aggiungeranno entro i prossimi sei anni ulteriori 427 nuove strutture con una capacità media (unità Gpu e non solo) più che doppia rispetto a quelli attualmente operativi. Il motivo? Rispondere in modo adeguato alla domanda di extra risorse computazionali necessarie per addestrare e migliorare in modo costante i modelli dell’Ai generativa. Per le big tech, insomma, è tempo di fare i conti con un nuovo boom di dati da gestire, “pulire” e immagazzinare, che si sommerà ai carichi di lavoro (anch’essi in crescita) legati alle attività informatiche “convenzionali” (servizi cloud, hosting, connettività) dei data center attualmente in esercizio.
L’utilizzo massivo dell’intelligenza artificiale porterà dunque all’apertura di nuove server farm e, in molti casi, al potenziamento delle infrastrutture esistenti, con investimenti a nove zeri e una quantità di energia necessaria per farli funzionare decisamente superiore a quella impiegata attualmente. Un fenomeno globale, che chiamerà in causa i grandi hyperscaler nordamericani ma anche operatori di “seconda fascia” come la francese Data4, che ha appena ufficializzato un piano di investimenti di un miliardo di euro per l’Italia, andando a raddoppiare l’area che ospita il proprio campus digitale alle porte di Milano.
Al lavoro sui sistemi di raffreddamento
Una recente analisi di Dell’Oro Group ben riassume la sfida a cui sono chiamate big tech e specialisti del mondo data center: trovare il punto di equilibrio fra prestazioni e consumi, per evitare di essere travolti dal surplus di costi necessari a sostenere la nuova era dell’intelligenza artificiale. Il ceo di OpenAi, Sam Altman, ha stimato per esempio che per completare l’addestramento di Gpt-4 (l’ultima evoluzione della tecnologia alla base di ChatGpt) sono serviti oltre cento milioni di dollari. Cosa succederà quindi nei prossimi anni? Quanto servirà intervenire sull’infrastruttura fisica delle sale macchine per dotarle di maggiore densità di potenza e di velocità di connessione decisamente più elevate per processare tutti i dati? In parte si interverrà sui sistemi di raffreddamento, e in tal senso troveranno grande applicazioni gli apparati di liquid cooling (raffreddamento a liquido), le cui implementazioni sono previste in rapidissima crescita fino al 2027.
La parola chiave sarà «efficienza»
A risentire dell’impatto della Gen Ai saranno un po’ tutte le componenti del data center, e quindi server, router e sistemi di archiviazione, Ups (i gruppi di continuità) e unità di distribuzione che gestiscono l’alimentazione dei rack (gli armadi in cui sono installati i server e gli altri apparati di rete). La parola chiave sarà ancora una volta «efficienza», perché sarà vitale limitare lo spreco di energia. Stando alle elaborazioni dell’International Energy Agency (Iea), il consumo globale di elettricità dei centri dati (attività di mining per le criptovalute escluse) a fine 2022 era compreso fra 240-340 TWh, pari a circa l’1-1,3% della domanda complessiva di energia, e confermava un trend di aumento moderato proprio per effetto delle sostanziali ottimizzazioni operate sulle infrastrutture hardware. Il fabbisogno dei grandi data center è però lievitato del 20-40% all’anno dal 2018 in avanti e l’utilizzo combinato di elettricità da parte di Amazon, Microsoft, Google e Meta - guarda caso le aziende in prima fila nella battaglia per la supremazia nell’Ai – è più che raddoppiato tra il 2017 e il 2021, arrivando a circa 72 TWh. È un dato oggettivo, nonostante gli sforzi che le big tech stanno compiendo per approvvigionarsi attraverso energie rinnovabili. Così come è reale il vantaggio che deriva dalla possibilità di monitorare in tempo reale i fabbisogni di energia e di garantire la perfetta distribuzione dei carichi di lavoro grazie al supporto dell’intelligenza artificiale. Secondo uno studio condotto da Gartner, a partire dal 2025 il 50% dei centri dati “industriali” sfrutterà il lavoro di robot pilotati da algoritmi per governare i propri processi funzionali, con l’obiettivo di aumentare del 30% la propria efficienza operativa.
- Argomenti
- data center
- IEA
- Gartner
- Microsoft
loading...