ServizioContenuto basato su fatti, osservati e verificati dal reporter in modo diretto o riportati da fonti verificate e attendibili.Scopri di piùAnalisi

Il flop Galactica e la guerra di Cicero: cosa succede all’intelligenza artificiale di Meta?

Adesso è facile prendersela con Mark Zuckerberg ma il fallimento del modello di intelligenza artificiale per scienziati di Meta ci insegna molto sul futuro dell’AI

di Luca Tremolada

Gettyimages

2' di lettura

Ci sarà qualcuno che sicuramente dirà che in fondo bastava leggersi il paper “Galactica: A Large Language Model for Science” per accorgersi che qualcosa non sarebbe andato per il verso giusto. E difatti il modello di intelligenza artificiale Galactica di Meta progettato per assistere gli scienziati è durato meno di 48 ore. Pubblicato online il 15 novembre è stato tosto chiuso.

La promessa era quella di un grande modello linguistico per la scienza, addestrato su 48 milioni di esempi di articoli scientifici, siti Web, libri di testo, dispense ed enciclopedie. Una interfaccia appunto per scienziati che sulla carta doveva essere in grado di riassumere documenti accademici, risolvere problemi di matematica, generare articoli Wiki, scrivere codice scientifico, annotare molecole e proteine e altro ancora. Non è stato così.

Loading...

Errori marchiani

Chi ha potuto mettere le mani su Galactica.org prima che venisse messo offline ha raccontato di risposte assurde, errori da prima elementare, affermazioni ambigue nella migliore delle ipotesi, incomprensibili nella peggiore. Dall'università hanno subito alzato il dito indicando tra gli errori la mancanza di affidabilità e di team specializzati per controllare i risultati dei modelli di intelligenza artificiale. Per dirlo meglio, il problema fondamentale di Galactica è o era (vedremo) di non essere in grado di distinguere le bufale dalla verità, il falso dal vero.

Per alcuni scienziati dell'accademia è stato come togliersi un sassolino dalla scarpa. Dopo la massiccia campagna acquisti di professori esperti in Ai che sono andati a lavorare nelle grandi piattaforme digitali come Meta, Google e Amazon, per alcuni deve essere stato liberatorio. Peraltro di questi tempi sparare su Meta è come mettere nel mirino la Croce Rossa. In realtà come hanno osservato su Technology Review i modelli di linguaggio di grandi dimensioni (LLM), come GPT-3 di OpenAI , imparano a scrivere testo studiando milioni di esempi e comprendendo le relazioni statistiche tra le parole.

Giocare con le macchine

Di conseguenza, possono creare documenti dal suono convincente, ma quei lavori possono anche essere pieni di falsità e stereotipi potenzialmente dannosi. Alcuni critici chiamano i LLM “ pappagalli stocastici “ per la loro capacità di sputare in modo convincente il testo senza capirne il significato. I ricercatori di Meta AI credevano che questi presunti dati di alta qualità avrebbero portato a un output di alta qualità. E così non è stato.

Meglio è andata a Cicero, sempre di Meta Ai. E' una sorta di Risiko, l'intelligenza artificiale usa il linguggio naturale al posto dei dadi. I giocatori devono padroneggiare la persuasione intessendo alleanze e negoziando con gli avversari. Chi l'ha provato dice che nessuno ha capito di stare giocando con una macchina. E forse è anche giusto così, nella diplomazia i rapporti di forza sono questioni che possono essere affrontate solo con la matematica. Purtroppo.

Riproduzione riservata ©
  • Luca TremoladaGiornalista

    Luogo: Milano via Monte Rosa 91

    Lingue parlate: Inglese, Francese

    Argomenti: Tecnologia, scienza, finanza, startup, dati

    Premi: Premio Gabriele Lanfredini sull’informazione; Premio giornalistico State Street, categoria "Innovation"; DStars 2019, categoria journalism

loading...

Brand connect

Loading...

Newsletter

Notizie e approfondimenti sugli avvenimenti politici, economici e finanziari.

Iscriviti