L’Onu e la governance globale dell’Ai
A partire dal Segretario generale António Guterres, fino ai capi di stato e di governo dei paesi più rappresentativi, Biden in testa, è emerso un coro che, quasi all’unisono, ha sottolineato l’esigenza di creare una governance globale per l’Intelligenza artificiale
di Oreste Pollicino
5' di lettura
Ho assistito, qui a New York, la scorsa settimana, ai lavori dell’Assemblea Generale delle Nazioni Unite, in particolare seguendo i molti forum dedicati, e non poteva essere diversamente, alla sfida regolatoria dell’Intelligenza artificiale. A partire dal Segretario generale António Guterres, fino ai capi di stato e di governo dei paesi più rappresentativi, Biden in testa, è emerso un coro che, quasi all’unisono, ha sottolineato l’esigenza di creare una governance globale per l’Intelligenza artificiale. Ma cosa esattamente vuol dire, cercando di andare oltre le etichette, governance globale? In quali strumenti giuridici o di policy si concretizzerebbe tale esercizio e quale ne sarebbe il suo valore aggiunto?
Su questi punti, e sarebbe stato difficile aspettarsi altro, non sono invece emersi né indirizzi univoci, né orientamenti condivisi.
Il termine governance è uno dei più sfuggenti ed ambigui che possa essere utilizzato, non solo nel contesto digitale ma, in generale, per quanto riguarda la teoria della regolazione.
Lewis Kornhauser, che insegna qui alla New York University, ha provato a fare chiarezza su questo termine, indicando quattro domande fondamentali a cui bisognerebbe rispondere.
1. Che cosa è oggetto di governance?
2. Perché viene posto in essere un sistema di governance?
3. A chi è da inputare l’azione di governance?
4. E, infine, come assicurarsi che gli obiettivi che la governance si pone possano essere effettivamente realizzati?
Proviamo, secondo la bussola di Kornhauser, a rispondere a queste domande con riguardo alla asserita volontà, emersa, chiaramente, come si diceva dai lavori della Assemblea Generale, di porre in essere una governance globale dell’intelligenza artificiale.
Con riferimento alla prima domanda, oggetto della governance non è, né può essere una singola tecnologia. L’AI è un ecosistema digitale assai complesso in cui è vero che la quantità di dati e la forza computazionale giocano un ruolo da protagonisti, ma in cui ci sono cosi tante componenti di carattere interdisciplinare che sarebbe un errore fatale guardare ad esse soltanto da un punto di vista ingegneristico o normativo. Molto difficile quindi identificare oggetto. Sembra ci sia quanto meno accordo sul metodo: la maggioranza degli intervenienti ha fatto riferimento all’approccio basato sul rischio e alla necessità di un orientamento antropocentrico. Ma quest’ultima rischia di essere una sterile dichiarazione di intenti se non si delinea più chiaramente il perimento di quanto dovrebbe essere oggetto di tale governance.
Riguardo alla seconda domanda, quale il fine per pensare ad una governance globale per la regolamentazione dell’intelligenza artificiale, il primo motivo è fin troppo ovvio. Evitare la frammentarietà che finora si è vista sia a livello nazionale che continentale, con tre poli (Europa, USA e Cina) con approcci al momento assai differenti e chiaramente in competizione (sulla tecnologia l’unica competizione possibile è, al momento, quella tra USA e Cina, rimanendo all’Europa il primato regolatorio). A livello internazionale G7, UNESCO, Organizzazione per la coordinazione e lo sviluppo economico (OCSE) hanno provato ad adottare degli orientamenti condivisi, ma sono sempre stati di carattere frammentario e spesso in contrapposizione. In questo caso avremmo la prima regolamentazione, almeno per quanto riguarda i principi ed un minimo comune denominatore, di carattere unitario. Sarebbe una netta vittoria del multilateralismo rispetto alla concorrenza tra modelli in competizione o la colonizzazione più o meno forzata di un effetto di Bruxelles che dal GDPR si espanderebbe, in modo difficilmente accettabile per i valori locali di paesi con tradizioni costituzionali diverse, all’intelligenza artificiale.Si aggiunga, tanto per aumentare lo stato di frammentarietà già descritto, l’operazione, francamente più di facciata, che sta tentando il Regno Unito che, tagliato fuori dalle coordinate globali della geopolitica digitale, sta provando a rientrarci con l’annuncio di un summit globale nei prossimi mesi proprio a Londra.
Per quanto riguarda la terza domanda, vale a dire a chi effettivamente è da attribuire la governance globale dell’AI, si è fatto spessissimo riferimento durante i lavori, questione rimasta purtroppo sopita nel dibattito italiano al costituendo, sotto l’egida delle nazioni unite, High-Level Advisory body on Artificial intelligence. Si diceva come ci sono state più di 2000 domande da parte di esperti, rappresentanti delle istituzioni e società civile ed il segretariato generale selezionerà trentadue componenti di questo nuovo organismo che dovrebbe avere poteri è vero solo consultivi, ma la cui istruzione delle questioni più complesse di carattere regolatorio dovrebbero poi essere alla base delle decisioni più concrete ed operative dei vertici delle Nazioni Unite . Sarebbe interessante capire se il l’Italia ha interesse (dovrebbe averlo) ad avere un rappresentante indipendente nel board.
La quarta domanda è la più spinosa, perché mette le Nazioni Unite di fronte allo specchio dei tanti tentativi, spesso fallimentari, in altri settori rilevanti, dalla sostenibilità ambientale, al fenomeno migratorio alla tutela dei diritti fondamentali in generale, di passare dalle buone intenzioni e dalle dichiarazioni di principio ad una effettiva e concreta utilità dei modelli di governance preposti.
Credo che ci siano alcuni percorsi da non imboccare, e che pure ho sentito ripetere più volte in Assemblea Generale, ed altri che invece possano essere funzionali a fare si che gli obiettivi proposti siano effettivamente, al meno in parte, realizzati.
Quanto ai primi, non serve una nuova dichiarazione dei diritti sul web, questa volta rimodulata alla luce delle specifiche caratteristiche dell’intelligenza artificiale. I bill of Rights non possono inseguire la tecnologia ma devono avere un effetto conformativo sulla stessa, e per questo ci sono, come assai spesso ho provato a fare mergere in queste pagine le costituzioni e le carte dei diritti esistenti, che hanno una capacità trasformativa tale da essere bene applicabili (ed applicate dalle corti) anche i nuovi modelli di intelligenza artificiale. Un’inflazione di diritti non è utile alla maggiore tutela dei valori in gioco. Al contrario crea il rischio di conflitto tra diritti, tra carte e tra corti, e quindi paradossalmente si potrebbe ottenere l’ assai negativo effetto opposto.
Quello che può essere invece assai utile è secondo me percorrere tre direzioni, complementari e non alternative.
Innanzitutto, trovare un accordo sulla regolazione quanto meno delle applicazioni dell’intelligenza artificiale, molto più complicato farlo sugli algoritmi.
In secondo luogo, fissare degli standard minimi di ordine globale, per evitare un’emulazione al ribasso quanto alla protezione dei diritti fondamentali in gioco.
In terzo luogo, e forse è il punto più importante, adottare meccanismi di reazione efficace e non tardiva alle violazioni dei diritti che possono derivare da applicazioni improprie di intelligenza artificiale.
Ovviamente il riferimento quasi ossessivo in Assemblea Generale è stato alle prossime elezioni del 2024 (presidenziali negli USA ed del parlamento europeo dell’Unione) ed al rischio che il cocktail esplosivo intelligenza artificiale/disinformazione possa inquinare in modo irreversibile il dibattito pubblico.
Sarà forse questo il vero prossimo test non solo per la tenuta dello stato di diritto delle democrazie occidentali, ma anche della credibilità di questa nuova, possibile, governance globale dell’Intelligenza artificiale.
loading...