ServizioContenuto basato su fatti, osservati e verificati dal reporter in modo diretto o riportati da fonti verificate e attendibili.Scopri di piùInformatica

L’intelligenza artificiale di DeepMind trova nuove scorciatoie per calcoli più rapidi

La scoperta pubblicata su Nature consentirà di accelerare la ricerca di nuovi algoritmi utili, come quelli per le traduzioni di testi e il riconoscimento delle immagini

di Luca Tremolada

I pregiudizi dell'intelligenza artificiale, l'inclusione nei team dell'It e i mestieri del futuro

2' di lettura

Secondo un nuovo studio pubblicato su Nature la società di Google specializzata in intelligenza artificiale DeepMind ha scoperto un modo più veloce per risolvere un problema matematico fondamentale nell’informatica, battendo un record che dura da oltre 50 anni.

Lo studio dal titolo Discovering faster matrix multiplication algorithms with reinforcement learning consentirà di accelerare la ricerca di nuovi algoritmi utili, come quelli per le traduzioni di testi e il riconoscimento delle immagini. Vediamo di capire di cosa si tratta.

Loading...

Il problema, la moltiplicazione di matrici, è un tipo cruciale di calcolo al centro di molte applicazioni diverse, dalla visualizzazione di immagini su uno schermo alla simulazione di una fisica complessa.

È anche fondamentale per l’apprendimento automatico stesso. Accelerare questo calcolo potrebbe avere un grande impatto su migliaia di attività quotidiane del computer, riducendo i costi e risparmiando energia.

Alpha Tensor è una sorta di evoluzione di AlphaGo, l’algoritmo sviluppato dalla DeepMind, specializzato nel giocare a Go - considerato uno dei giochi più impegnativi per una macchina perché richiede un’enorme sforzo di elaborazione - che nel 2016 ne sconfisse anche il campione del mondo, Lee Sedol.

L’azienda Deep Mind di Google ha sostanzialmente utlizzato AlphaTensor per scoprire un metodo più veloce di quello ideato nel 1969 dal matematico tedesco Volker Strassen per moltiplicare insieme due matrici quattro per quattro. Il metodo di base della scuola superiore richiede 64 passaggi; Strassen richiede 49 passaggi. AlphaTensor ha trovato un modo per farlo in 47 passaggi.

Come ha spiegato l’esperto di reti neurali Simone Scardapane, dell’Università Sapienza di Roma all’Ansa,«di fatto i ricercatori hanno chiesto all’algoritmo di ’giocare’ nel cercare i modi migliori per moltiplicare tra loro due matrici. Esistono infatti due percorsi: uno è quello di eseguire tutte le operazioni passo dopo passo, l’altro è trovare delle sorta di scorciatoie che portano a risultati identici, ma eliminando alcuni calcoli. AlphaTensor ha trovato le migliori scorciatoie e migliorato molte di quelle già scoperte».Il possibile impatto del nuovo sistema è rilevante perché potrebbe ridurre anche del 10% il numero delle operazioni necessarie a completare calcoli molto impegnativi, come quelli che permettono la traduzione di un testo, il dialogo o il riconoscimento delle immagini. Meno operazioni vuol dire una minore energia utilizzata, di conseguenza costi minori e riduzione delle emissioni da parte dei grandi data center.

Riproduzione riservata ©
  • Luca TremoladaGiornalista

    Luogo: Milano via Monte Rosa 91

    Lingue parlate: Inglese, Francese

    Argomenti: Tecnologia, scienza, finanza, startup, dati

    Premi: Premio Gabriele Lanfredini sull’informazione; Premio giornalistico State Street, categoria "Innovation"; DStars 2019, categoria journalism

loading...

Brand connect

Loading...

Newsletter

Notizie e approfondimenti sugli avvenimenti politici, economici e finanziari.

Iscriviti