ServizioContenuto basato su fatti, osservati e verificati dal reporter in modo diretto o riportati da fonti verificate e attendibili.Scopri di più Ai e linguaggi generativi

«Servono dei ‘guard rail’ per tutelare l’etica dei sistemi di Ai come Gpt»

L'impatto sul lavoro, la categoria più a rischio, l'importanza del ruolo dell'uomo spiegato da padre Paolo Benanti, esperto di intelligenza artificiale

di Simona Rossitto

Padre Paolo Benanti, esperto di intelligenza artificiale

4' di lettura

(Il Sole 24 Ore Radiocor) I large language models, come Gpt, sono andati oltre le aspettative, e hanno «mostrato capacità emergenti che non avrebbero dovuto possedere. Capacità che ci hanno sorpreso». Per tutelare l’etica anche nei confronti delle prospettive che apre questa forma di intelligenza artificiale, la soluzione passa, dunque, dalla realizzazione di una sorta di' guard rail' per non far deragliare la macchina e mantenerla nei binari che vuole l’uomo. Lo spiega padre Paolo Benanti, professore all’Università Gregoriana e tra i massimi esperti di intelligenza artificiale, in un colloquio con DigitEconomy.24, report del Sole 24 Ore Radiocor di Digit’Ed, gruppo attivo nella formazione e nel digital learning.

«Sorprendentemente – aggiunge – gli llm non solo compilano poche frasi, ma interi paragrafi, hanno conoscenze di matematica e sembrano avere delle conoscenze sui fatti, come potrebbe possederle una persona. Quest’ultima è la parte più fragile, come abbiamo visto con Chat Gpt che ogni tanto inventa delle risposte che si rivelano false; non colpisce che questi sistemi sbaglino ma che abbiano capacità che non avrebbero dovuto avere».

Loading...

«Ci potrebbe essere un impatto enorme sui lavori di mezzo»

Tutto questo è stato molto evidente durante la pandemia, con l’arrivo di Gpt-3, poi con Chat Gpt e infine con Gpt-4. Ne è dimostrazione il valore che questi sistemi hanno acquisito sul mercato tanto che Microsoft ha investito per la collaborazione con Open Ai più di 10 miliardi di dollari. «Quando negli anni Quaranta è stato programmato Eniac, uno degli ingegneri che lo aveva realizzato si stupì perché riusciva a risolvere equazioni differenziali in 30 minuti: 28 per ritagliare le schede perforate e due per il calcolo. Poi, nel 1975, è arrivato il Dos che consentiva di programmare una macchina mediante la tastiera, poi il sistema Windows, col mouse, e il sistema touch. Gli llm potrebbero rappresentare la nuova interfaccia che ci consente di massimizzare la produttività del computer. In fondo il personal computer è un insieme di informazioni e file che permette di interrogare la macchina e risponde mettendo assieme e assemblando i dati».Quello che colpisce molto per le implicazioni è l’utilizzo dei large language models nel momento storico attuale, con la crisi energetica da una parte e il calo demografico dei Paesi più ricchi dall’altra. «Ci potrebbe essere – spiega Benanti – un impatto enorme sui lavori di mezzo, nel senso che sarebbe automatizzata la mediocrità. Di fronte a sistemi di questi tipo o si prova a fare lavori manuali che la macchina non potrà facilmente replicare o si dovrà provare a essere molto più efficaci, posizionandosi sopra la mediocrità dei lavori che in realtà già adesso la macchina potrebbe in qualche misura affrontare». Tuttavia, sottolinea Benanti, i sistemi di intelligenza artificiale hanno anche un costo energetico: «quale sarà il reale impatto sul mondo del lavoro, dunque, dipenderà anche dal costo di questi sistemi che sembra si stia abbassandosi molto, ma è ancora difficile stimare di quanto». Un altro criterio che potrà essere utilizzato è capire «quale sarà la soglia che rende più economico assumere un uomo o assumere la macchina».

SFOGLIA IL REPORT COMPLETO

«La creatività potrà essere modificata ma ci sarà bisogno della parte umana»

L’impatto di questa forma di intelligenza generativa, sebbene in misura diversa, è prevista anche per i lavori creativi: «Quando AlphaGo ha battuto a Go il campione mondiale, Lee Sedol, non sapeva di aver giocato; se sia bella o brutta un’opera d’arte creata attraverso l’intelligenza artificiale sarà sempre un uomo a dirlo; se un testo prodotto da Gpt abbia senso o meno sarà un uomo a deciderlo. Questo vuol dire che la creatività potrà essere modificata, probabilmente quello che chiameremo arte diventerà una cosa diversa da quella che conosciamo ora, ma ci sarà bisogno della parte umana». In conclusione, per il mondo del lavoro la soluzione potrebbe passare attraverso il lavorare tutti di meno o in maniera diversa. «Dovremmo valutare queste prospettive in particolare per un Paese come l’Italia dove, per la condizione demografica sfidante, abbiamo già 40 province dove il numero dei pensionati è maggiore di quello dei lavoratori; dove, se non si fanno figli, se non ammettiamo gli immigrati, l’unica cosa che ci resta è utilizzare l’Ai per restare competitivi». E si viene, dunque, al grande problema, ovvero quali skill fornire alle persone per farle restare competitive, in questo mondo che cambia. «La sfida – dice il professore - è sfornare in tempo i profili che servono e capire quello che servirà domani, probabilmente non si tratterà di hard skill come le competenze necessarie per programmare il computer, ma serviranno profili con un pensiero critico più sviluppato».

«C’è tanta attenzione, ma ancora non ci sono soluzioni pratiche per i linguaggi generativi»

Di fronte a questo scenario in cui la macchina sarà sempre più importante, anche nel mondo lavorativo, nascono problemi di natura etica. A questo proposito padre Benanti precisa che va distinto il modello che c’è dietro, ovvero Gpt, dalla sua applicazione, la chatbox che serve a discorrere con l’uomo. «Occorre fare attenzione a giudicare la bontà del modello dalla demo fatta comunemente con Chat Gpt, applicazione che ha finalità di intrattenerci in dialogo, non è fatta per darci risposte corrette. Molti la usano come fosse un motore di ricerca e questo crea dei problemi. Arriviamo dunque al nodo etico: siamo di fronte a un sistema generativo che quando viene innescato produce dei risultati che però dovrebbero essere contenuti all’interno di alcuni ‘guard rail’ perché la macchina rimanga sulla strada che vorremmo noi, evitando il rischio di generare falsità». Il problema è poi individuare chi può fare tutto ciò. «C’è un modello – dice Benanti - usato da Microsoft che è quello del co-pilota, cioè della macchina che ha il compito di aiutarci e non di sostituirsi all’uomo; sta per arrivare un'intesa tra Europa e Stati uniti e sta crescendo la consapevolezza che c’è qualcosa che rischia di essere molto potente e che va messo bene a terra, su come ci si riuscirà dobbiamo ancora aspettare un po’ di tempo. In questo momento è molto difficile da dire. C’è tanta attenzione, ma non vedo ancora soluzioni pratiche per i linguaggi generativi».

SFOGLIA IL REPORT COMPLETO


Riproduzione riservata ©

loading...

Loading...

Brand connect

Loading...

Newsletter

Notizie e approfondimenti sugli avvenimenti politici, economici e finanziari.

Iscriviti