ServizioContenuto basato su fatti, osservati e verificati dal reporter in modo diretto o riportati da fonti verificate e attendibili.Scopri di piùIt

Dai data center alle macchine exascale, il futuro del computing è «as a service»

L’It si sposta verso infrastrutture intelligenti, flessibili e ad altissima scalabilità. Lenovo: «L’Hpc diventa mainstream per l’azienda»

di Gianni Rusconi

(Corona Borealis - stock.adobe.com)

4' di lettura

Le tecnologie hyperscale utilizzate delle grandi BigTech come Facebook, Google e Microsoft e la transizione accelerata verso i servizi cloud di moltissime aziende in risposta alla discontinuità operativa dettata dalla pandemia: questi i motori degli investimenti in data center in questa prima parte del 2022 e soprattutto per tutto il 2021, quando la spesa su scala mondiale in questo comparto è praticamente raddoppiata, sfiorando il tetto dei 60 miliardi di dollari.

Lo sottolinea uno studio recente di Dla Piper, confermando la tendenza al rialzo di un segmento sempre più critico per l'economia mondiale e legato a filo doppio al tema della sostenibilità e della sicurezza energetica.

Loading...

Un settore, quello dei data center, che in parallelo sta conoscendo una profonda evoluzione dal punto vista tecnologico, rimodellando il vecchio concetto di server farm e sposando quello (di più ampia visione) di infrastrutture It intelligenti, flessibili e ad altissima scalabilità.

L'Hpc cambia pelle

Il paradigma della “servitizzazione”, e cioè il modello che trasforma la vendita di beni e prodotti in una fornitura di servizi (in abbonamento pay-per-use), ha interessato da tempo anche il mondo dell'informatica, offrendo alle aziende utenti la possibilità di ottimizzare i costi eliminando la spesa per l'acquisto e la gestione degli apparati hardware.

Oggi, in forma di servizio, si può accedere anche alla potenza del supercalcolo con un'esperienza simile a quella del cloud e lo dimostra la disponibilità sul mercato di soluzioni come TruScale High Performance Computing as a Service di Lenovo.

L'Hpc basato sul cloud, assicurano gli esperti della casa di origini cinesi, è il segmento in più rapida crescita del calcolo ad alte prestazioni e, come conferma Kirk Skaugen, Executive VP e presidente della divisione Infrastructure Solutions Group, «è un modo per aumentare le risorse on premise esistenti. Fra cinque anni riteniamo che la maggior parte delle aziende attive sul supercalcolo sfrutterà un modello a più livelli e un ambiente di computing misto per ottimizzare tempi di risposta, flessibilità ed esigenze economiche. L'on-premise non scompare per molti motivi, non ultimo per un tema di costi, ma anche di sovranità dei dati, nei casi in cui i sistemi It devono necessariamente rimanere locali».

La tecnologia Hpc, insomma, è destinata da una parte a sposare il modello “as a service” e continuerà a fornire dall'altra la base per innovazioni di carattere incrementale nei sistemi informatici utilizzati nei più diversi ambiti, dalla progettazione di automobili e aeroplani all'esplorazione di giacimenti petroliferi, dalla valutazione del rischio finanziario alla mappatura del genoma umano - un'architettura di high performance computing riduce il tempo di elaborazione di un singolo genoma da 150 ore a meno di 48 minuti -, dalle previsioni meteorologiche alla ricerca essenziale.

Mercato da 60 miliardi di dollari

Per Lenovo, che nell'ambito dei supercomputer è leader a livello globale - un cervellone su tre in esercizio sul pianeta è basato sulla sua tecnologia -, il calcolo ad alte prestazioni è un tassello fondamentale per un processo di trasformazione intelligente che coinvolge tutti gli aspetti della società.

«L'high performance computing – sottolinea Skaugen - sta diventando un business mainstream come strumento per l'analisi in tempo reale, fornendo gran parte della potenza di elaborazione necessaria per sviluppare nuovi algoritmi di intelligenza artificiale e autoapprendimento. E la nostra ambizione, come parte della nostra strategia, è portare la questa potenza nelle mani di quante più persone possibile».

Per inciso, come confermano i dati di Intersect360, il mercato Hpc nel suo complesso (hardware, servizi, software, sistemi cloud e networking) vale oggi circa 45 miliardi di dollari su scala globale e le previsioni parlano di una crescita costante verso i 60 miliardi entro il 2026.

Ed è per l'appunto questo mercato che la multinazionale cinese ha messo nel mirino rilasciando soluzioni come TruScale High-Performance Computing as a Service per superare i limiti dei tipici cluster Hpc che girano quasi a completa capacità, con continue richieste di potenza computazionale e storage ma poco spazio per carichi di lavoro aggiuntivi.

L’exascale per tutti

Sull'importanza dei dati, il manager di Lenovo ha le idee decisamente chiare: «Sono la chiave per utilizzare insight e intelligence per il supercomputing e il loro ruolo va ben oltre il data center e ben oltre l'Hpc». Al centro dell'economia digitale, infatti, c'è un'infrastruttura intelligente in grado di sbloccare informazioni che ampliano le opportunità di generare business e alimentano la crescita economica.

«Stiamo assistendo – aggiunge Skaugen - a nuove importanti evoluzioni nell'accesso ai dati periferici negli ambiti più disparati, nel retail come nel campo della produzione o dell'assistenza sanitaria. Le attuali capacità di edge computing e di intelligenza artificiale stanno trasformando quasi tutti i settori ed entro il 2025, secondo le stime di Gartner, il 75% dei dati aziendali verrà elaborato al di fuori dei data center, direttamente all'edge».

Nella visione di Lenovo, il paradigma della trasformazione intelligente dell'It si materializza quando i dispositivi e l'infrastruttura del data center dialogano per creare soluzioni end-to-end. E se il computing quantistico è considerato «una tecnologia estremamente interessante per cui ci aspettiamo di vedere importanti progressi nello spazio nella prossima decade», ma oggi «non ancora pronto per l'uso mainstream», sulle potenzialità del computing di classe exascale il Vp di Lenovo ha una lettura ben definita.

«L’era exascale è arrivata ma non tutti coloro che vogliono fare intelligenza artificiale o analisi ad alta potenza hanno bisogno di un sistema di questo tipo. La vera risposta è rendere queste tecnologie disponibili a tutti, non solo in grandi sistemi proprietari ma anche in unità di consumo più concentrate, in un nodo, un rack o un cluster multi-rack». Ne va del futuro del supercalcolo e dello sviluppo della società stessa.

Riproduzione riservata ©

Brand connect

Loading...

Newsletter

Notizie e approfondimenti sugli avvenimenti politici, economici e finanziari.

Iscriviti