Anche l’intelligenza artificiale di Bing sbaglia. Ecco perché
I chatbot di intelligenza artificiale incorrono spesso in errori. Non facciamoci affidamento per scelte importanti
di Franco Sarcina
I punti chiave
5' di lettura
Possiamo usare i sistemi di Intelligenza Artificiale che rispondono in chat, in corso di test su Google di Alphabet e su Bing di Microsoft, quando dobbiamo ottenere delle informazioni precise al 100%? La risposta breve, allo stato attuale delle cose, è solo una: no. L’intervento del nostro organo cerebrale, spesso così bistrattato e di cui a volte non ci fidiamo granché, resta ancora discriminante.
Gli scivoloni dei chatbot che utilizzano l’intelligenza artificiale sono infatti ancora tantissimi, e non solo quando poniamo ai chatbot domande critiche - per esempio sulla morale, sulla politica o sull’estetica - ma anche quando i sistemi, apparentemente, dovrebbero avere a disposizione tutte le informazioni per darci una risposta corretta.
È recente il caso del chatbot di Google, chiamato Bard, che ha comportato un grosso scivolone in Borsa. Ora però anche Bing (che, in testing, utilizza al suo interno ChatGPT) è incorso in una serie di errori, durante una demo, alla presenza del Ceo di Microsoft Satya Nadella, che è stata resa pubblica qualche giorno fa postando un (lungo) video su YouTube.
Lo riporta infatti il ricercatore sull’Intelligenza Artificiale Dmitri Brereton su suo blog, e in una serie di post su Twitter. Questi i fatti. Ce ne sono diversi.
Con il filo o senza?
Il primo scivolone Bing l’ha fatto parlando di un prodotto, una scopa elettrica senza filo, per altro venduta anche qui in Italia, che il chatbot (in beta testing, precisiamo ancora) di Bing descrive come «rumorosa» e «con il cavo di alimentazione troppo corto». Ma in realtà la scopa elettrica in questione è senza cavo e, sottolinea Brereton, dalle recensioni su Amazon appare tutt’altro che rumorosa. Se il secondo è un errore, diciamo, di “percezione”, il primo, evidentemente, è assai più grave in quanto inerisce una caratteristica fondamentale del prodotto: il cavo, o c’è o non c’è.
Viaggio a Mexico City... con imprevisti
Seconda circostanza a cui fa riferimento Brereton è una proposta di viaggio di 5 giorni a Città del Messico che è stata chiesta al chatbot di Bing, specificando che si è interessati anche a godere della vita notturna della capitale messicana. Qui riportiamo uno stralcio del post sul blog di Brereton, perché è significativa e scritta anche in modo divertente.
«Bing AI ha generato un itinerario di viaggio di 5 giorni per Città del Messico e ora stiamo chiedendo le opzioni per la vita notturna. Sarebbe tutto piuttosto interessante se le descrizioni non fossero imprecise.
Il Cecconi’s Bar *potrebbe* essere di classe, ma non sembra particolarmente accogliente dalle immagini che ho visto. E sicuramente non ha un sito web dove è possibile effettuare prenotazioni e vedere il loro menu.
Primer Nivel Night Club è un mistero assoluto. C’è una recensione di TripAdvisor del 2014 e l’ultima recensione di Facebook è del 2016. Su TikTok non se ne parla, quindi dubito seriamente che “sia popolare tra i giovani”. Sembra che tutti i dettagli su questo posto siano allucinazioni dell’intelligenza artificiale.
El Almacen potrebbe essere rustico o affascinante, ma Bing AI ha tralasciato il fatto molto rilevante che si tratta di un bar gay. In effetti, è uno dei bar gay più antichi di Città del Messico. È abbastanza sorprendente che non abbia «ancora valutazioni o recensioni» quando ha 500 recensioni su Google, ma forse questo è un limite con le fonti che Bing ha a disposizione.
El Marra è un bar vivace e colorato, anche se gli orari potrebbero essere sbagliati. Ci sono così tante valutazioni di questo posto online che è ancora una volta sorprendente che non ci siano “ancora valutazioni o recensioni”».
La finanza, un compito difficile
Terzo caso, forse il più clamoroso, riguarda l’analisi dei risultati finanziari di Gap Inc, una società di abbigliamento quotata al Nyse, i cui risultati finanziari sono pubblicati direttamente sul sito della società. Anche in questo caso, Brereton fa notare dei significativi errori fatti dal chatbot. Riportiamo uno stralcio delle sue parole:
Scrive Brereton: «“Gap Inc. ha riportato un margine lordo del 37,4%, rettificato per gli oneri di svalutazione relativi a Yeezy Gap, e il margine della merce è diminuito di 370 punti base rispetto allo scorso anno a causa di maggiori sconti e aumenti inflazionistici dei prezzi delle materie prime”
Eh... no. Questo è il margine lordo non rettificato. Il margine lordo rettificato per svalutazioni è stato del 38,7%. E il margine della merce è diminuito di 480 punti base se ci stiamo adeguando per le spese di svalutazione.
Ma si può fare di peggio.
“Gap Inc. ha riportato un margine operativo del 5,9%, rettificato per oneri di svalutazione e costi di ristrutturazione, e un utile diluito per azione di $ 0,42, rettificato per oneri di svalutazione, costi di ristrutturazione e impatti fiscali”.
“5,9%” non è né il valore rettificato né quello non rettificato. Questo numero non appare nemmeno nell’intero documento. È completamente inventato.
Il margine operativo inclusa la svalutazione è del 4,6% ed esclusa la svalutazione è del 3,9%».
Aftermath (conseguenze), e qualche consiglio
Richiamiamo il titolo di uno dei più begli album dei Rolling Stones per iniziare a capire quali possono essere le conseguenze di questi «errori di gioventù». A differenza di quanto è successo ad Alphabet, lo scivolone del chatbot (ripetiamo ancora, in beta testing) di Bing non ha avuto alcuna conseguenza sui mercati: il titolo Microsoft si mantiene comunque stabile, con una tendenza alla salita iniziata nei primi giorni di quest’anno.
Ben diverse però potrebbero essere le conseguenze se qualcuno si fosse affidato al chatbot per comprare un aspirapolvere, programmare un viaggio o decidere un investimento in azioni.
Allo stato attuale,i chatbot sono insomma interessanti se si vuole giocare, se si è in cerca di compagnia, per capire quale sarà il futuro, ma è forse meglio evitare di fare troppo affidamento su di loro per scelte importanti. Su questo argomento negli ultimi mesi è circolato un hype (letteralmente “montatura”) forse un tantino eccessivo, generato dalla voglia di novità.
Perché i chatbot sbagliano?
Fare un’analisi del perché allo stato attuale i chatbot sbaglino con tanta frequenza non è immediato. Quello che ci sentiamo di dire è che le cause possono essere diverse.
Innanzitutto, tutti i sistemi di intelligenza artificiale abbisognano di un periodo di test. Non hanno nulla di “magico”, e si limitano ad analizzare una mole di dati incredibilmente alta per dare le loro risposte, imparando con un processo di “prova, sbaglia e correggi” che non è dissimile da quello di un bambino. E come i bambini andrebbero trattati: nessun genitore si affiderebbe al figlio di 6 anni per i propri investimenti finanziari o per programmare il viaggio della vita. Con i procedimenti di machine learning di cui sono dotati, i chatbot miglioreranno sicuramente col tempo. Ma, appunto, il tempo è necessario.
Inoltre, se la risposta semplicemente non c’è, non è certa, è disputata, i chatbot si comportano di conseguenza, diventando elusivi se “comprendono” di affrontare un terreno minato.
Insomma, quando si “fa sul serio” l’utilizzo della nostra materia grigia, resta fondamentale. E - azzardiamo una previsione - lo resterà per ancora lunghissimo tempo. Forse per sempre.
Per fortuna.
loading...