ServizioContenuto basato su fatti, osservati e verificati dal reporter in modo diretto o riportati da fonti verificate e attendibili.Scopri di piùAnalisi

ChatGPT e intelligenza artificiale generativa: passioni che costano care

Non è ancora chiaro il modello di business di ChatGPT o dei tool che generano immagini con il testo. Sappiamo solo che sono servizi con costi altissimi

di Luca Tremolada

Illustrazione di Giorgio De Marinis/Il Sole 24 Ore

3' di lettura

All’inizio - diciamo la verità - ci siamo divertiti un mondo a giocare con l’intelligenza artificiale generativa. C’è chi ha creato per vanità centinaia di avatar di sé stesso, chi si è improvvisato illustratore e chi ha fiutato il business e si è messo a studiare per diventare un nuovo genere di artista. Qualcuno poi ha passato le vacanze di Natale a conversare con ChatGPT di Open Ai, altri si sono messi sul lettino come davanti a uno psicanalista e molti si sono limitati a interrogarlo come se fosse un bambino. Ma i più lo hanno usato per scoprire cose nuove da imparare. E in certi casi ha funzionato.

Oltre il divertimento

Poi però è subentrata l'inquietudine. Perché dopo anni di rivoluzioni attese come il metaverso, la blockchain, o le auto a guida autonoma, dopo telefonini e tablet ogni anno più belli ma quasi sempre tutti uguali, serviva qualcosa di nuovo e funzionante. L’intelligenza artificiale nel 2022 è stata una sorpresa. A partire dai generatori di immagini come appunto Dall-E 2, Midjourney e Stable Diffusion. Tanto che a qualche artista tradizionale sono anche girate le scatole. Non per la competizione teorica con la “macchina”. Ma perché avere accanto qualcuno che sa copiare benissimo lo stile di altri e produce a getto continuo non è il massimo della vita per un produttore di contenuti.

Loading...

Anche insegnanti e docenti si sono sentiti in qualche modo tirati in ballo. I tuttologi peraltro non piacciono a nessuno, se poi danno anche risposte simpatiche allora è finita. Sui social sono comparsi migliaia di messaggi con pezzi di conversazione dove si leggono strafalcioni, stereotipi di genere ed errori di matematica. E tutto questo solo per affermare che l’AI non è onnisciente. Che non sa tutto, cosa che peraltro già si sapeva. Gli algoritmi attuali sono descritti come un’intelligenza artificiale generale (Artificial General Intelligence) ma non lo sono. Non ragionano cioè come gli esseri umani. Quando rispondono a una domanda in realtà calcolano sulla base dei testi che gli avete fornito la distribuzione statistica delle parole e per fornire la risposta stimano quali sono i termini più probabili. Come pappagalli stocastici ad oggi si limitano a ripetere la risposta più probabile in base a quello che hanno letto. Per capirci, non sanno nulla di matematica ma sanno come “suona” la risoluzione di una specifica operazione.

E spesso funziona. Tanto che c’è perfino chi ha immaginato un nuovo ordine mondiale del Web non più dominato dai motori di ricerca ma da questi chatbot che dialogano con voi e forniscono risposte più articolate.

Il futuro

Quello che però nessuno ha fatto è stato di provare a capire da analista finanziario i “fondamentali” di questo fenomeno. Come funzionano, quanto costano? O per essere più diretti: come si fanno i soldi con questi strumenti? Nessuno ancora lo ha capito. Secondo alcuni osservatori questi tool sostituiranno a breve i motori di ricerca. La nuova versione di Bing di Microsoft, che potrebbe arrivare già a marzo 2023, farà uso della tecnologia di IA alla base di ChatGPT per determinate chiavi di ricerca. Secondo l’agenzia Bloomberg Microsoft sarebbe pronta a investire nella chat basata su intelligenza artificiale ben 10 miliardi di dollari. Ma per essere utilizzabili, questi algoritmi dovrebbero poter garantire un altissimo livello di accuratezza nelle risposte che restituiscono. E così oggi non è. E poi c’è un tema di costi energetici.

Come ha ammesso Sam Altman, Ceo di OpenAI quando hanno raggiunto 1 milioni di utenti le spese per la manutenzione e gestione del sistemai sono altissimi. Nel caso di di ChatGPT sappiamo che è ospitato sul cloud Azure di Microsoft. Sul web hanno calcolato in base ai costi del cloud di Microsoft che ogni parola generata su ChatGPT costa 0,0003 dollari. Vuole dire bruciare almeno 3 milioni al mese per i costi di gestione. Prima o poi qualcuno dovrà cominciare a trovare un modello di business e un prezzo per questi servizi. Fino ad allora Google può stare tranquilla.

Paradossalmente il superpotere dell'intelligenza artificiale per ora è quello di spiegarci meglio chi siamo più di allargare la nostra conoscenza.

Riproduzione riservata ©
  • Luca TremoladaGiornalista

    Luogo: Milano via Monte Rosa 91

    Lingue parlate: Inglese, Francese

    Argomenti: Tecnologia, scienza, finanza, startup, dati

    Premi: Premio Gabriele Lanfredini sull’informazione; Premio giornalistico State Street, categoria "Innovation"; DStars 2019, categoria journalism

loading...

Brand connect

Loading...

Newsletter

Notizie e approfondimenti sugli avvenimenti politici, economici e finanziari.

Iscriviti