Hpc. Informatica e AI

Università di Torino, il prototipo del supercalcolatore europeo

di Filomena Greco

Big data. Il Data Center all'Università degli Studi di Torino

3' di lettura

L’Università di Torino in prima fila nei progetti europei sul supercalcolo. «Siamo partiti un po’ in ritardo ma ora siamo inseriti nella rete di ricerca europea più avanzata» sottolinea Marco Aldinucci, responsabile del Dipartimento di Informatica dell’Unito. Punto di partenza è stato lo sviluppo, insieme al Politecnico di Torino, di HPC4AI, sistema di calcolo avanzato pensato per le applicazioni di intelligenza artificiale, attualmente in uso a ricercatori e imprese. «Abbiamo realizzato un Data Center – spiega Aldinucci – che ospita sistemi interamente progettati da noi,con la parte software progettata e realizzata con risorse interne». Un progetto che vale circa 4,5 milioni, finanziato con risorse europee. «Il lavoro è durato tre anni, con in mezzo la pandemia – spiega Aldinucci – e ha rappresentato una palestra per il nostro team tanto che ci ha permesso di agganciare le progettualità europee in questo momento più importanti a cominciare dai grandi progetti di ricerca finalizzati alla sovranità digitale Europea come i due Advanced pilots towards the European exascale (EUPEX e TEP) e European Processor Initiative (EPI) che valgono 140 milioni». Sarà poi proprio l’Università di Torino ad ospitare nel 2023 una delle schede prototipali del nuovo processore europeo EPI Rhea.

La dinamica di sviluppo dei supercalcolatori è una vera e propria corsa, con successivi livelli di potenza che aumentando di mille in mille. Il prossimo challenge, “exascale” (10 milioni di volte più veloce di un ordinario laptop), è atteso tra meno di tre anni. «L’Ue in questo momento storico se la sta giocando, e non era così fino a qualche anno fa» aggiunge Marco Aldinucci. La tecnologia cloud ha permesso di mettere l’enorme potenza di calcolo dei supercalcolatori a disposizione delle applicazioni di AI in modo semplice ed efficace. «Abbiamo molto derogato in Italia ai big player del settore – aggiunge Aldinucci – ora serve una maggiore consapevolezza per sostenere e ampliare la ricerca. Si tratta di ripartire dalle competenze per acquisire conoscenze importanti e necessarie all’industria».

Loading...

Il sistema realizzato dal team dell’Unito è un sistema sperimentale cloud e HPC utilizzato, ad esempio, per sviluppare il nuovo sistema Auditel per la Rai, in grado di misurare non solo l’ascolto ma anche il gradimento da parte del pubblico. Ma tra le nuove applicazioni in ambito di AI a cui l’Università sta lavorando c’è il Federated Learning, che ha grande rilevanza a livello industriale. Si tratta dello sviluppo di sistemi di analisi ed elaborazione di dati provenienti da fonti diverse senza che i dati stessi debbano essere spostati insieme in un solo posto (data lake). Un modello alternativo a quello proposto dai big player americani come Google e che si basa su un concetto chiave, quello della valore della proprietà dei dati. «È importante comprendere che i dati, una volta copiati, sono indistinguibili dagli originali – spiega Aldinucci – inoltre cederli significa rinunciare definitivamente ad un asset chiave. Stiamo lavorando ad una piattaforma che permetta di collaborare nell’elaborazione dei dati, per estrarre valore, ma senza cederli né trasferirli ». Potrebbe essere questo il modello europeo alternativo ai sistemi attuali sviluppati da Cina e Usa. «Serve spostare l’attenzione dall’acquisto di servizi sul mercato – conclude – allo sviluppo di competenze per accompagnare le aziende a sviluppare tecnologie HPC, cloud e AI, elementi fondamentali della catena del valore di molte filiere».

Riproduzione riservata ©

Brand connect

Loading...

Newsletter

Notizie e approfondimenti sugli avvenimenti politici, economici e finanziari.

Iscriviti