ChatGPT spartiacque tecnologico
ChatGPT è solo uno dei tanti strumenti dell’intelligenza artificiale, ma rappresenta uno spartiacque tecnologico, che ci ha dato una consapevolezza sul potenziale dell’IA
di Stefano Scarpetta
4' di lettura
Il lancio di ChatGPT, una piattaforma di intelligenza artificiale “generativa”, lo scorso novembre ha colto molti di sorpresa. Quelle che erano speculazioni da science fiction sono di colpo sembrate possibilità reali di sostanziale e velocissimo impatto sul futuro prossimo. Ma l’impatto dell’IA sul lavoro, l’economia e la società resta ancora da valutare. L’Ocse ha dedicato all’argomento un’attenzione particolare, svelando un insieme molto articolato di fenomeni, con un punto in comune. La necessità di inquadrare l’utilizzo dell’IA all'interno di regole ben definite. Ma ciò richiede una profonda conoscenza della tecnologia e del suo impatto sociale.
ChatGPT è solo uno dei tanti strumenti dell’intelligenza artificiale, ma rappresenta uno spartiacque tecnologico, che ci ha dato una consapevolezza sul potenziale dell’IA. A preoccuparsi non sono solo i cittadini comuni, ma anche molti di quelli che hanno sviluppato questi modelli: una lettera aperta con più di 30 mila firme, tra cui alcuni dei principali scienziati dell’IA, chiede una pausa immediata degli esperimenti di IA generativa citando i “profondi rischi per la società e l’umanità”. È probabilmente irrealistico fermare gli esperimenti; tra l’altro, anche dopo la lettera, gli investimenti miliardari sull’IA generativa sono continuati indisturbati. Ma è essenziale intervenire rapidamente per definire modi e forme di utilizzo dell’IA. Citando un economista americano del lavoro, David Autor, la domanda che dobbiamo porci non è cosa può fare l’IA, ma cosa vogliamo che faccia per noi.
L’utilizzo dell’IA da parte delle imprese è ancora limitato a grandi gruppi e circoscritta ad alcune funzioni specifiche. Ma con l’entrata in scena dell’IA generativa la velocità di sviluppo e utilizzo è impressionante e il potenziale di trasformazione ancora in gran parte da realizzare. All’Ocse abbiamo condotto un’analisi dell’impatto dell’IA sul mercato del lavoro anche attraverso sondaggi. A oggi, la paura di una disoccupazione tecnologica di massa non trova riscontro nei dati. Perché siamo in una fase iniziale nell’adozione dell’IA, molte imprese sono riluttanti a sostituire personale con IA, preferendo adeguare la forza lavoro con il rallentamento delle assunzioni, le dimissioni volontarie e i pensionamenti. Alcune aziende hanno sottolineato come a fronte dell’invecchiamento della popolazione e della carenza di manodopera, l’IA potrebbe contribuire ad alleviare la mancanza di lavoratori in alcune professioni. Tuttavia è chiaro che il potenziale di sostituzione rimanga significativo. Se chiediamo ai lavoratori esposti all’uso dell’IA di guardare al futuro, due su cinque ci dicono di temere per il loro lavoro nei prossimi 10 anni, e senza dubbio questa preoccupazione non potrà che aumentare. Occorre però evitare di cadere nella trappola di un “determinismo tecnologico”, in cui la tecnologia modella i cambiamenti sociali e culturali, piuttosto che il contrario. Da un lato, è necessario consentire ai lavoratori e ai datori di lavoro di cogliere i vantaggi dell’IA e di adattarsi ad essa, attraverso la formazione e il dialogo sociale. La formazione degli adulti, soprattutto quelli meno qualificati, sarà sempre più importante insieme all’investimento in scuola e università. Da un lato sono i lavoratori qualificati quelli più esposti, ma per molti di loro l’IA è uno strumento complementare che in molti casi aumenta la loro produttività e soddisfazione. Per i lavoratori a bassa qualifica il rischio di sostituzione è molto più elevato e sono questi ultimi che hanno meno accesso alla formazione.
D’altro canto, è urgente intervenire per inquadrare l’utilizzo dell’IA nei luoghi di lavoro in termini di privacy, sicurezza, equità e diritti del lavoro, così come per garantire responsabilità, trasparenza e “spiegabilità” delle decisioni supportate dall’IA. La legislazione esistente in molti Paesi comprende disposizioni che sono rilevanti anche per l’IA. Ad esempio, tutti i Paesi Ocse hanno una legislazione che mira a proteggere i dati e la privacy, e in alcuni di loro, come l’Italia, la legislazione esistente contro la discriminazione è stata già applicata con successo in cause giudiziarie relative all’uso dell’IA sul posto di lavoro.
Ma non basta. L’utilizzo dell’IA a supporto di decisioni che incidono su opportunità e diritti dei lavoratori deve essere accompagnato da informazioni accessibili e comprensibili e da responsabilità definite. Ciò suggerisce la necessità di un intervento normativo specifico. In questo senso deve essere letta la proposta di legge europea sull’IA, che adotta un approccio basato sul rischio per garantire che i sistemi di IA siano supervisionati da persone, siano sicuri, trasparenti, tracciabili e non discriminatori.
La preoccupazione di molti esperti è che il ritmo dell’intervento pubblico non sia al passo con i rapidi sviluppi dell’IA, soprattutto quella generativa, e che la risposta politica manchi di specificità e applicabilità. In questo senso l’Unione europea ha annunciato l’intenzione di introdurre un codice di condotta volontario sull’IA da adottare rapidamente. Ma occorre anche un’azione a livello internazionale. Il “Processo di Hiroshima sull’IA”, lanciato dal G7 a maggio, dà una prima risposta con l’obiettivo di allineare i paesi del G7 (compresa l’Ue) intorno a un approccio concordato sull’IA generativa. La cooperazione internazionale è fondamentale per garantire un approccio comune che eviti una frammentazione degli sforzi che danneggerebbe l’innovazione e creerebbe un vuoto normativo che potrebbe portare a una corsa al ribasso.
Direttore Employment,
Labour and Social Affairs Ocse
- Argomenti
- displuvio
loading...