Tecnologia

«Il machine learning aiuterà a decodificare il sistema…

  • Abbonati
  • Accedi
Scienza

«Il machine learning aiuterà a decodificare il sistema immunitario»

Nel 2001 lui e il suo team lavoravano sulle ricerche sull’apprendimento, quello che oggi chiamiamo machine learning. Diciassette anni fa Chris Bishop spiegava come l’area di ricerca che mira allo sviluppo di computer capaci di percepire il comportamento umano e di interagire sarebbe diventata strategica per lo sviluppo della tecnologia. Oggi è a capo dei laboratori di Microsoft a Cambridge. Lo incontriamo alla R&d Designing innovation, l’evento del Politecnico di Milano dedicato alla trasformazione della società e delle organizzazioni, dove è stato chiamato a tenere un keynote. «C’è grandissima confusione intorno all’intelligenza artificiale - tiene subito a precisare lo scienziato -. Non esiste un’entità in grado di contrapporsi all’uomo. Quello che sta accadendo è invece l’introduzione di un nuovo modo di guardare alla ricerca e al business. In tutti i campi ma in particolare un settore che più di altri suggerisce le potenzialità dell’applicazione del machine learning è proprio quello sanitario». L’Ai (Artificial intelligence) in questo ambito ha la duplice funzione di automatizzare alcune operazioni proprie della terapia, aggiungere controllo alle operazioni quotidiane del medico e potenziare la ricerca sui dati sanitari. Peraltro la medicina racconta bene quello che gli esperti definiscono il paradosso della personalizzazione. Grandi moli di dati che provengono da pazienti con problematiche affini possono essere analizzati per produrre risultati o terapie personalizzate. Al tempo stesso la privacy impone l’anomizzazione dei dati e limita la portate di specifiche ricerche.

Il sistema immunitario umano, per esempio, è un sistema diagnostico stupefacente, che si adatta continuamente per rilevare qualsiasi segnale di malattia nel corpo. Una fotografia del sistema immunitario, racconta lo scienziato, vuol dire aggiungere un pezzo importante alla medicina predittiva. «Quando il tuo medico preleva una piccola fiala di sangue - spiega - tiene in mano un milione di cellule T, ognuna delle quali è geneticamente programmata per colpire un antigene specifico. Questa specificità è determinata dal recettore delle cellule T. Ciò che è sorprendente nella biotecnologia oggi è che è possibile leggere la sequenza di Dna di quei recettori. Se dovessi inviare questa fiala di sangue ai nostri partner di Adaptive Biotechnologies oggi, riceverei essenzialmente una stampa di un milione di stringhe, che contengono tutte le informazioni necessarie per diagnosticare la malattia».

Quello che non si sa ancora e su cui Microsoft, come altre università e centri di ricerca nel mondo stanno guardando, è come estrarre quel tipo di informazione. È qui che entrerebbe in gioco il machine learning. Usando concetti di apprendimento automatico simili a quelli propri della comprensione del linguaggio naturale, gli ingegneri di Microsoft pensano di poter decodificare il linguaggio delle cellule T e tradurlo nel linguaggio degli antigeni. «Significa estrarre una mappa delle proteine di interesse del sistema immunitario, che sbloccherà la diagnostica per il cancro, i patogeni e le malattie autoimmuni».

I toni non sono quelli del venditore di futuro. Anzi mi spiega che le promesse dell’intelligenza artificiale sono in questo momento il vero male dell’intelligenza artificiale. «La singolarità non è avvenuta oggi. Ada Lovelace è stata il primo programmatore a dire al computer cosa fare, fornendogli tutte le istruzioni passo dopo passo. Con l’Ai il computer impara dai dati, possiamo dire che i dati sono la nuova legge di Moore. La singolarità è nel software».

Quello che è accaduto è quindi una accelerazione veicolata dall'abbassamento del prezzo dell'hardware progettato per i servizi di cloud e di calcolo parallelo.

Esiste però un rischio di mercato legato all’intelligenza artificiale. Quello dei dati è un business per pochi, per pochissime grandi piattaforme digitali e tecnologiche che possono avere accesso a grandissime moli di dati. “Non la vedo così - commenta Bishop -. Dentro il cloud si offrono opportunità alle aziende e alle univeristà che aumentano le potenzialità di business e di ricerca» È un paradigma nuovo che alza l'asticella di quello che si può ottenere». L’esempio che propone è InnerEye, una applicazione dello sviluppo di tecniche di machine learning o intelligenza artificiale per l'analisi automatica di immagini medicali, soprattutto nel campo della radiologia - quindi Tac e risonanza magnetica. «Oggi i radiologi devono eseguire la scansione di un tumore e disegnare il contorno del tumore su decine di sezioni per creare una mappa 3D prima del trattamento. Il processo richiede ore. Con l'Ia i tempi promessi sono nell'ordine dei minuti». Come spiega Bishop non si tratta di sostituire i medici ma di aiutarli a estrarre più informazioni in minor tempo.

Come dire la diagnosi spetta ai dottori, quello che fanno gli algoritmi è misurare in modo più efficiente la dimensione e l'andamento del tumore. Il che è utile per capire rapidamente come sta evolvendo un tumore, se sta regredendo o sta progredendo».

La nuova sfida però è quella di ri-progettare l’hardware per interrompere la singularity del software. Lo sviluppo delle Gpu e dei chip neurali è oggi il paradigma all’interno del quale il calcolo in tempo reale dell’Ai potrebbe trovare collocazione. Accanto a queste due soluzioni c’è anche lo studio di Microsoft sugli Fpga (Field-programmable gate arrays). Sono chip in silicio riprogrammabili. Non sono una novità ma secondo Microsoft che li ha adottati per i nuovi server di Azure e il motore Bing rappresentano una nuova architettura hardware che si adatta bene alle esigenze dell'intelligenza artificiale. Un esempio è Project Brainwave è un'architettura hardware progettata in base ai dispositivi FPGA di Intel e utilizzata per accelerare i calcoli AI in tempo reale. Con questa economica architettura abilitata per FPGA, una rete neurale addestrata può essere eseguita il più rapidamente possibile e con una latenza inferiore. «Nel lungo periodo si guarda al quantum computing l'IA in tempo reale sta trovando un “contenitore” più flessibile- conclude Bishop -. Le infrastrutture cloud elaborano flussi di dati in tempo reale, siano essi query di ricerca, video, flussi di sensori o interazioni con gli utenti. La singolarity impone che anche l’hardware debba inseguire la corsa degli algoritmi».

© Riproduzione riservata