3' di lettura
Sono ancora tante le domande a cui i chatbot dell’AI generativa non sanno o a cui non possono rispondere. Prima tra tutte, quanto costano in termini energetici e da chi prendono le loro informazioni. Nei laboratori dei big dell’intelligenza artificiale si lavora in questa direzione. La ricerca sulle reti neurali, che permettono i principali servizi di intelligenza artificiale generativa, si sta concentrando verso modelli più piccoli e specializzati, basati su dati di qualità e che consumano meno energia. Sarà anche la fine delle risposte sorprendenti ma foriere a volte di spunti creativi, restituite dai chatbot generalisti a fronte di domande “folli”?
«L’allucinazione è una caratteristica dei modelli generativi – spiega Stefano Soatto, titolare della cattedra di Visione computazionale all’Università di California-Los Angeles (Ucla) e vicepresidente di Amazon web services, dove guida la ricerca e sviluppo di prodotti e servizi di intelligenza artificiale -. L’allucinazione però può essere controllata, usata solo quando ci serve. Per esempio, uno scrittore potrebbe desiderare dei contenuti generativi sulla base di una domanda “folle”; se invece l’utente cerca risposte oggettive, ha senso generare una sequenza di linguaggio di codice che attiva una chiamata esterna a un database per costruire una risposta oggettiva. Non sono caratteristiche mutuamente esclusive quelle di avere un modello in grado di generare contenuti sintetici plausibili nuovi e allo stesso tempo rispondere correttamente a domande che richiedono una risposta fattuale. In definitiva, non c’è dicotomia né incompatibilità tra avere modelli che sono specifici per certi domini e allo stesso tempo sono generali per altri domini».
Aws: un team globale che lavora per Amazon ma anche per i suoi competitor
Il team globale diretto da Stefano Soatto in 39 città di quattro continenti è responsabile del lancio di prodotti Amazon come Kendra, Lex, Personalize, Textract, Rekognition, Transcribe, Forecast, CodeWhisperer e più recentemente di Amazon Bedrock, compreso il modello linguistico di grandi dimensioni (Llm) Titan: le aziende possono trovare il modello di fondazione più adatto alle loro esigenze e potenziarlo utilizzando i propri dati. «Aws lavora per Amazon ma anche per i suoi competitor», ha ricordato il vicepresidente Aws agli imprenditori nel convegno promosso a Padova il 4 ottobre scorso dall’associazione Amici dell’Università con lo studio Cortellazzo&Soatto -. Il linguaggio di programmazione del futuro è il linguaggio naturale. Ci sarà molto cambiamento e sarà molto rapido, però questo creerà molte opportunità per chi oggi non ha le strutture e le competenze per costruire questi modelli».
Il processo di distillazione dei modelli di reti neurali
La pressione delle grandi aziende per ridurre i costi e il consumo energetico è enorme e spinge la ricerca per ottenere modelli piccoli che possano essere implementati su uno smartphone alla portata di tutti. Ma non si rischia di dover rinunciare in parte alla qualità? «Dipende – risponde Soatto -. Certi fenomeni potentissimi, per esempio chain of thought oppure modelli in-context learning, emergono solo a certe scale. Però alcuni modelli più piccoli, per esempio se l’apprendimento viene fatto con dati più curati, già producono prestazioni uguali o in alcuni casi superiori ai modelli più grandi. È un processo di distillazione dei modelli, per estrarne uno più piccolo e più preciso, in certi casi, o semplicemente più efficiente dal punto di vista energetico ed economico. Di solito chi vuole rimpicciolire un modello lo fa perché vuole risolvere dei problemi specifici e non gli interessa un modello generalista. Si è scoperto allora che in generale si ottiene un modello migliore partendo da un modello più grande e “distillandolo” come specifico, rispetto a una rete che ha visto solo informazione specializzata». Ci sono delle eccezioni? «Alcuni domini davvero molto specialistici funzionano meglio di qualsiasi modello grande, poi distillato – precisa il vicepresidente di Amazon web services -. Ne sono esempi, in AwS, Transcribe per il riconoscimento vocale oppure Alexa, servizio di interazione vocale. Un altro esempio è il riconoscimento di oggetti da immagini: se voglio fare controllo della produzione e so esattamente come sono fatti i miei oggetti, funziona meglio il modello specialistico».
loading...