Societa

La Nostra Odissea con l'IA

di Joseph S. Nye

(greenbutterfly - stock.adobe.com)

9' di lettura

CAMBRIDGE – Un anziano statista, un CEO di Big Tech in pensione e uno scienziato informatico si incontrano in un bar. Di cosa parlano? Di intelligenza artificiale, ovviamente, perché tutti ne parlano – o le parlano, che la chiamino Alexa, Siri, o altro. Non dobbiamo attendere un futuro da fantascienza; l'era dell'IA è già alle porte. L'apprendimento automatico (“machine-learning”), in particolare, ha già un potente effetto sulle nostre vite, e influenzerà fortemente anche il nostro futuro.
Questo è il messaggio del nuovo e affascinante libro dell'ex Segretario di Stato americano Henry A. Kissinger, dell'ex CEO di Google Eric Schmidt, e del decano del MIT Daniel Huttenlocher. Ed il libro arriva con un avvertimento: l'IA sfiderà il primato della ragione umana che esiste dagli albori dell'Illuminismo.
Le macchine possono davvero pensare? Sono intelligenti? E cosa significano questi termini? Nel 1950, il famoso matematico britannico Alan Turing suggerì di evitare enigmi filosofici tanto profondi valutandone la performance: se non siamo in grado di distinguere le prestazioni di una macchina da quelle di un essere umano, dovremmo classificarle come “intelligenti”. La maggior parte dei primi programmi per computer ha prodotto soluzioni rigide e statiche che non hanno superato questo “test di Turing”, e il settore dell'intelligenza artificiale ha continuato a languire per tutti gli anni ‘80.
Ma negli anni ‘90 si è verificata una svolta con un nuovo approccio che ha permesso alle macchine di apprendere da sole, invece di essere guidate esclusivamente da codici derivati da conoscenze “distillate” dall'uomo. A differenza degli algoritmi classici, che consistono in passaggi per produrre risultati precisi, gli algoritmi di apprendimento automatico consistono in passaggi per migliorare risultati imprecisi. Il campo moderno del machine learning – dei programmi che apprendono attraverso l'esperienza – era nato.
La tecnica di stratificazione degli algoritmi di apprendimento automatico all'interno di reti neurali (ispirata alla struttura del cervello umano) è stata inizialmente limitata dalla mancanza di potenza di calcolo. Ma tale limite si è modificato negli ultimi anni. Nel 2017, AlphaZero, un programma di intelligenza artificiale sviluppato da DeepMind di Google, ha sconfitto Stockfish, il programma di scacchi più potente al mondo. Ciò che è risultato notevole non è stato che un programma per computer prevalesse su un altro programma per computer, ma che imparasse a farlo da solo. I suoi creatori gli hanno fornito le regole degli scacchi e gli hanno insegnato a sviluppare una strategia vincente. Dopo appena quattro ore di apprendimento giocando contro se stesso, è riemerso come campione mondiale di scacchi, battendo Stockfish 28 volte senza perdere una partita (ci sono stati 72 pareggi).
Il gioco di AlphaZero si caraterizza per la capacità di riconoscere modelli, tra vasti insiemi di possibilità, che le menti umane non possono percepire, elaborare o utilizzare. Da allora simili metodi di machine-learning hanno portato l'IA ad andare oltre la capacità di battere esperti umani di scacchi, per arrivare alla scoperta di strategie scacchistiche completamente nuove. Come sottolineano gli autori, questo porta l'IA al di là del test di Turing di performance indistinguibili dall'intelligenza umana, per includere prestazioni che superano quelle degli esseri umani.

Politica Algoritmica

Le reti neurali generative possono anche creare nuove immagini o testi. Gli autori citano il “GPT-3” di “OpenAI” come uno dei sistemi di IA generativi più degni di nota oggi. Nel 2019, l'azienda ha sviluppato un modello linguistico che istruisce se stesso consumando testi disponibili gratuitamente su Internet. A partire da poche parole, può estrapolare nuove frasi e nuovi paragrafi rilevando schemi negli elementi sequenziali. È in grado di comporre testi nuovi e originali che soddisfano il “test di Turing” dimostrando un comportamento intelligente indistinguibile da quello di un essere umano.
Lo so per esperienza. Dopo che ho inserito alcune parole, il sistema ha cominciato a setacciare Internet e in meno di un minuto ha prodotto una plausibile notizia falsa su di me. Sapevo che era falsa, ma questo non mi importa molto. Supponiamo che la storia riguardasse un leader politico durante un' elezione importante? Cosa succede alla democrazia quando l'utente medio di Internet può scatenare un robot di intelligenza artificiale generativa e farlo riversare all'interno dei nostri dibattiti politici negli ultimi giorni prima che le persone votino?
La democrazia è già in sofferenza a causa della polarizzazione politica, un problema esacerbato dagli algoritmi dei social media che sollecitano “clic” (e pubblicità) servendo agli utenti visualizzazioni sempre più estreme (“accattivanti”). Le notizie false non sono un problema nuovo, ma lo è sicuramente la loro amplificazione veloce, economica e diffusa da parte degli algoritmi di IA. Può esserci il diritto alla libertà di parola, ma non esiste il diritto alla libera amplificazione.
Questi problemi fondamentali, sostengono gli autori, vengono alla ribalta in quanto le piattaforme di global network come Google, Twitter e Facebook utilizzano l'IA per aggregare e filtrare più informazioni di quanto i loro utenti potrebbero mai fare. Ma questa filtrazione porta alla “segregazione” degli utenti, creando delle “echo chamber” sociali, casse di risonanza che fomentano la discordia tra i gruppi. Ciò che una persona presume essere un'immagine accurata della realtà può risultare molto diversa dalla realtà che vedono altre persone o gruppi, rafforzando e approfondendo così la polarizzazione. L'intelligenza artificiale decide sempre più cosa è importante e cosa è vero, e i risultati non sono incoraggianti per la salute della democrazia.

Loading...

Decifrare Nuovi Codici

Ovviamente, l'IA offre anche enormi vantaggi potenziali per l'umanità. Gli algoritmi di intelligenza artificiale possono leggere i risultati di una mammografia con maggiore affidabilità di quanto possano fare i tecnici umani. (Ciò solleva un problema interessante per i medici che decidono di ignorare le raccomandazioni della macchina: saranno denunciati per negligenza?)
Gli autori citano il caso dell'halicin, un nuovo antibiotico scoperto nel 2020 quando ricercatori del MIT hanno richiesto ad un sistema di intelligenza artificiale di modellizzare milioni di composti in pochi giorni – un calcolo che supera di gran lunga le capacità umane – per esplorare metodi sconosciuti e non spiegati in precedenza per uccidere batteri. I ricercatori hanno sottolineato che senza l'intelligenza artificiale, l'halicin sarebbe stato estremamente costoso, o impossibile da scoprire mediante la sperimentazione tradizionale. Come affermano gli autori, le promesse dell'IA sono profonde: traduzione di lingue, rilevazione di malattie, modellizzazione del cambiamento climatico, sono solo alcuni esempi di ciò che la tecnologia potrebbe fare.
Gli autori non si soffermano molto sullo “spauracchio” AGI – Artificial General Intelligence – o software in grado di svolgere qualsiasi compito intellettuale, inclusi compiti e concetti correlati tra discipline. Qualunque sia il futuro a lungo termine dell' AGI, abbiamo già abbastanza problemi nell'affrontare la nostra attuale IA del machine-learning generativo. Essa può trarre conclusioni, offrire previsioni e prendere decisioni, ma non ha autocoscienza o capacità di riflettere sul proprio ruolo nel mondo. Non ha intenzionalità, motivazione, moralità o emozione. In altre parole, non è l'equivalente di un essere umano.
Ma nonostante i limiti dell'IA esistente, non dovremmo sottovalutare gli effetti profondi che ha già sul nostro mondo. Nelle parole degli autori:
“Non riconoscendo le molte comodità moderne già fornite dall'IA, lentamente, quasi passivamente, siamo arrivati ad affidarci alla tecnologia senza registrare la nostra dipendenza né le implicazioni che questa comporta. Nella vita quotidiana, l'IA è il nostro partner, che ci aiuta a prendere decisioni su cosa mangiare, cosa indossare, cosa credere, dove andare e come arrivarci... Ma queste e altre possibilità vengono acquistate – in gran parte senza clamore – alterando il rapporto umano con ragione e realtà”.

La Gara all'IA

L'intelligenza artificiale sta già influenzando la politica mondiale. Poiché l'IA è una “tecnologia abilitante” generale, la sua distribuzione diseguale è destinata a influenzare l'equilibrio di potere mondiale. In questa fase, mentre l'apprendimento automatico è globale, gli Stati Uniti e la Cina sono le potenze leader nel settore dell'IA. Delle sette principali aziende mondiali del campo, tre sono americane e quattro cinesi.
Il presidente cinese Xi Jinping ha proclamato l'obiettivo di rendere la Cina il paese leader nell'IA entro il 2030. Kai-Fu Lee di Sinovation Ventures a Pechino osserva che con la sua immensa popolazione, l'Internet più grande del mondo, le vaste risorse di dati, e la scarsa preoccupazione per la privacy, la Cina è ben posizionata per sviluppare la propria intelligenza artificiale. Inoltre, Lee sostiene che avere accesso ad un mercato enorme e la presenza di molti ingegneri potrebbe rivelarsi più importante che avere università e scienziati leader a livello mondiale.
Ma la qualità dei dati conta tanto quanto la quantità, così come la qualità dei chip e degli algoritmi. Sotto questo aspetto, gli Stati Uniti potrebbero essere in vantaggio. Kissinger, Schmidt e Huttenlocher sostengono che con i dati e i requisiti di elaborazione che limitano lo sviluppo di un'IA più avanzata, l'ideazione di metodi di addestramento che utilizzino meno dati e minore potenza di calcolo sia una frontiera cruciale.
Armi e IA
Oltre che sulla concorrenza economica, l'IA avrà un impatto importante sulla competizione militare e sulle guerre. Nelle parole degli autori, “l'introduzione della logica non umana nei sistemi militari trasformerà la strategia”. Quando i sistemi di intelligenza artificiale con apprendimento automatico generativo vengono utilizzati l'uno contro l'altro, può diventare difficile per gli esseri umani anticipare i risultati della loro interazione. Ciò premierà la velocità, l'ampiezza degli effetti, e la resistenza.
L'IA renderà quindi i conflitti più intensi e imprevedibili. La superficie di attacco di società interconnesse digitalmente sarà troppo vasta perché operatori umani possano difendersi manualmente. I “sistemi d'armi autonomi letali”, che selezionano e attaccano target, ridurranno le capacità di interventi umani tempestivi. Sebbene possiamo impegnarci ad avere un essere umano “in the loop” o “on the loop”, gli incentivi alla prelazione e ad escalation premature saranno forti. La gestione delle crisi diventerà più difficile.
Questi rischi dovrebbero incoraggiare i governi a sviluppare consultazioni ed accordi sul controllo degli armamenti; ma non è ancora chiaro come sarebbe il controllo delle armi per quanto riguarda l'IA. A differenza delle armi nucleari e convenzionali, che sono grandi, visibili, ingombranti e numerabili – gli sciami di droni o siluri abilitati tramite IA sono più difficili da verificare, e gli algoritmi che li guidano sono ancora più sfuggenti.
Sarà difficile limitare lo sviluppo delle capacità dell'IA in generale, data l'importanza e la pervasività della tecnologia per uso civile. Tuttavia, si può ancora fare qualcosa per le possibilità di targeting militare. Gli Stati Uniti distinguono già tra armi abilitate tramite IA e armi autonome di IA. Le prime sono più precise e letali ma sempre sotto il controllo umano; le seconde possono prendere decisioni letali senza operatori umani. Gli Stati Uniti affermano che non si doteranno delle armi del secondo tipo.
Inoltre, le Nazioni Unite hanno studiato la questione di un nuovo trattato internazionale per vietare tali armi. Ma saranno d'accordo tutti i paesi? Come ne verrà verificata la conformità? Data le capacità di apprendimento dell'IA generativa, le armi si evolveranno in modi che sfuggono ai vincoli? In ogni caso, saranno importanti gli sforzi per moderare la spinta verso l'automaticità. E, ovviamente, l'automaticità non dovrebbe essere consentita in ogni caso rispetto a sistemi di armamento nucleare.

Il Ritardo delle Leadership

Nonostante tutta la lucidità e la saggezza di questo libro ben scritto, vorrei che gli autori ci avessero fatto avanzare maggiormente nel suggerire soluzioni ai problemi legati alle modalità con cui gli esseri umani possono controllare l'IA, sia in patria che all'estero. Essi sottolineano che l'IA è fragile perché manca di consapevolezza di sé. Non è senziente e non sa ciò che non sa. Nonostante tutta la sua genialità nel superare gli esseri umani in alcuni sforzi, non può identificare ed evitare errori che sarebbero ovvi per qualsiasi bambino. Il romanziere premio Nobel Kazuo Ishiguro drammatizza brillantemente tale tema nel suo romanzo Klara and the Sun.
Kissinger, Schmidt e Huttenlocher notano che l'incapacità dell'IA di controllare autonomamente errori altrimenti evidenti sottolinea l'importanza di sviluppare dei test che consentano agli esseri umani di identificare i limiti, rivedere le linee d'azione proposte, e costruire la resilienza nei sistemi in caso di fallimento dell'IA. Le società dovrebbero consentire l'impiego dell'IA nei sistemi solo dopo che i suoi creatori ne hanno dimostrato l'affidabilità attraverso processi di testing. Gli autori scrivono che “sarà un progetto sociale cruciale lo sviluppo di certificazioni professionali, monitoraggi della conformità, e programmi di supervisione per l'IA – e la competenza in materia di audit che richiederà la loro esecuzione”.
A tal fine, il rigore del regime normativo dovrebbe dipendere dalla rischiosità dell'attività. Le IA che guidano le auto dovrebbero essere soggette a una supervisione maggiore rispetto alle IA per piattaforme di intrattenimento come TikTok.
Gli autori concludono con la proposta di una commissione nazionale composta da personalità riconosciute provenienti dai più alti livelli di governo, affari e mondo accademico. Essa avrebbe la duplice funzione di garantire che il paese rimanga intellettualmente e strategicamente competitivo nell'IA, aumentando al contempo la consapevolezza globale delle implicazioni culturali della tecnologia. Parole sagge, ma vorrei che ci avessero detto di più su come raggiungere questi importanti obiettivi. Nel frattempo, hanno prodotto un'introduzione estremamente interessante a questioni che saranno fondamentali per il futuro dell'umanità e ci costringeranno a riconsiderare la natura dell'umanità stessa.

*Joseph S. Nye, Jr., ex assistente del segretario alla difesa degli Stati Uniti per la sicurezza internazionale, ex presidente del National Intelligence Council USA, ed ex sottosegretario di stato per l'assistenza alla sicurezza, la scienza e la tecnologia, è professore alla Harvard University. È l'autore, più recentemente, di Do Morals Matter? Presidents and Foreign Policy from FDR to Trump, Oxford University Press, 2020.

Copyright: Project Syndicate, 2021.

Riproduzione riservata ©

loading...

Brand connect

Loading...

Newsletter

Notizie e approfondimenti sugli avvenimenti politici, economici e finanziari.

Iscriviti