ServizioContenuto basato su fatti, osservati e verificati dal reporter in modo diretto o riportati da fonti verificate e attendibili.Scopri di piùBussola

ChatGPT, dal modello alle risposte: è davvero intelligente?

Cos’è ChatGPT? Cos’è un modello linguistico e generativo? In che senso impara? Tutte le risposte ai dubbi più frequenti

di Sebastiano Vigna

Illustrazione di Giorgio De Marinis/Il Sole 24 Ore

4' di lettura

Tutti parlano di ChatGpt, anche a sproposito. Proviamo a fissare qualche punto fermo.

Cos’è ChatGpt?

ChatGPT è una versione di GPT-3, un modello linguistico sviluppato un paio di anni fa, modificata per dialogare in maniera naturale tramite domande e risposte.

Loading...

Cos’è un modello linguistico?

In questo contesto è un modello di apprendimento computazionale, in particolare un trasformatore, che è un tipo di modello generativo basato sulle reti neuronali profonde, che a loro volta sono un esempio di percettrone multilivello, un modello di apprendimento computazionale sviluppato negli anni Sessanta.

Negli anni Sessanta?

Sì, l’idea di base, cioè quella di simulare il funzionamento di un neurone del cervello umano, va molto indietro.

Cos’è un modello generativo?

Un modello generativo impara a generare output dato un input; per esempio, a partire da una domanda genera una risposta, o da una descrizione testuale un’immagine (vedi DALL-E, Midjourney, ecc.). Un trasformatore è un particolare tipo di modello generativo introdotto da gente che lavora a Google cinque anni fa.

In che senso “impara”?

Faccio un esempio più semplice: immagina di voler riconoscere le foto di un gatto da quelle di un altro animale. Prendi tante foto di gatti e altri animali e ci metti un’etichetta 1/-1 (gatto/non gatto). Ora (e qui devo essere un po’ tecnico) ogni foto la puoi esprimere come vettore, una sequenza di numeri reali, per esempio i toni di grigio di ogni pixel della foto. Una rete neuronale profonda funziona così: prende il vettore e lo moltiplica per una matrice, ottenendo un altro vettore. Questo vettore però ora viene sogliato: al posto di tutti i numeri negativi metti zeri. Ora lo moltiplichi per un’altra matrice, ottieni un altro vettore, e sogli di nuovo. Se lo fai tante volte la rete è profonda. Alla fine moltiplichi il vettore per un vettore colonna, e ottieni un numero. Se è positivo la rete ha risposta “gatto”, se è negativo “non gatto”. I “parametri” di cui tanto si parla sono semplicemente i coefficienti delle matrici.
Inizialmente, nelle matrici metti parametri a caso. Le risposte saranno a caso. Ma c’è un algoritmo (e qui è il grosso contributo dagli anni 80 in poi) che di fronte a una risposta sbagliata cambia un po’ i parametri modo che la risposta diventi giusta. Se lo fai per centinaia di milioni di immagini piano piano modifichi tutti i parametri. Alla fine la rete non solo non sbaglia quasi mai sugli esempi che gli hai dato in pasto, ma è in grado di generalizzare, cioè di rispondere correttamente anche su foto che non ha mai visto prima. Per questo aspetto le reti neuronali profonde sono state una rivoluzione. Questo tipo di rete è un classificatore, mentre GPT-3 è un trasformatore, ma il principio è lo stesso.

Quindi Gpt-3 è solo un insieme di gigantesche matrici?

Sì, per quello l’allarmismo alla Skynet è un po’ ridicolo. Non è intelligenza artificiale in senso proprio, è solo una rete generativa molto ben ingegnerizzata. Non ci sono idee nuove. L’hanno però impacchettata in maniera molto efficace per il largo pubblico. Negli anni sessanta giocavano con decine di parametri. GPT-3 ha 175 miliardi di parametri. Addestrare modelli linguistici così grandi è diventati possibile solo negli ultimi dieci anni.

Ma sembra intelligente nelle risposte...

È intelligente se gli chiedi cose che possono essere dedotte dal testo con cui è stato addestrato, e soprattutto cose che abbiano senso per un sistema di apprendimento. Chiedigli una lista di persone simpatiche e vedi che ti dice.

Riesce a essere anche creativo?

QQuesto è strano solo per chi identifica la creatività con alcune specifiche attività umane, per esempio scrivere o dipingere (e qui la disastrosa impostazione Gentiliana della nostra scuola non aiuta). Quando abbiamo creato macchine che ricamano i tessuti con più precisione e velocità di un essere umano non credo nessuno si sia sconvolto più di tanto. Semplicemente ora abbiamo macchine che creano testi o immagini a partire da un’idea di base con più precisione e velocità di un essere umano. Questo non vuol dire che una macchina per ricamo si possa inventare un ricamo mai visto prima, o che GPT-3 scriverà il prossimo romanzo che cambierà la storia della letteratura. Però possiamo inserire in un telaio un ricamo nuovo e avere 100 tovaglie in poche ore, o spiegare a GPT-3 una trama geniale e fargliela trasformare in un racconto di 50 pagine in uno stile specifico in pochi minuti. Ovviamente il testo sarà freddino e impersonale, come il ricamo a macchina.
Però è indubbio che questo tipo di applicazione delle reti neuronali profonde ci costringe a ripensare che cosa sia la creatività, nel senso che gran parte di quello che ci piace considerare “creativo” è in realtà qualcosa che si può imparare, e se si può imparare lo possiamo spiegare a una macchina tramite apprendimento computazionale. Come ogni volta che abbiamo estratto la parte tecnica da un’attività “creativa” (torno all’esempio del ricamo) ci sarà gente che perderà il lavoro, perché quella parte tecnica non sarà più necessaria. Già ora molti siti usano immagini generate da Midjourney al posto di chiedere a un artista digitale di crearle.
In compenso, l’uso di GPT-3 per generate articoli nel sito CNET si è rivelato un boomerang disastroso, con decine di articoli pubblicati con errori fattuali veramente marchiani. Quindi, paradossalmente, è più facile per una macchina vincere un concorso d’arte che riportare correttamente una notizia. C’è di che riflettere, no?

Riproduzione riservata ©

loading...

Loading...

Brand connect

Loading...

Newsletter

Notizie e approfondimenti sugli avvenimenti politici, economici e finanziari.

Iscriviti