ServizioContenuto basato su fatti, osservati e verificati dal reporter in modo diretto o riportati da fonti verificate e attendibili.Scopri di piùEconomia Digitale

Il problema dell’Ai generativa non è solo la privacy, servono (presto) regole europee

L'innovazione non si può frenare ma si può, invece, regolare per limitare gli effetti negativi, azione, però, che non può certamente esaurirsi in sei mesi

di Andrea Bertolini Roberto Marseglia*

(FAMILY STOCK - stock.adobe.com)

4' di lettura

Negli ultimi giorni è stata pubblicata una lettera aperta firmata da numerosi esperti di AI, tra cui Elon Musk, che chiede una moratoria di sei mesi allo sviluppo di ogni intelligenza artificiale. Il timore di questi studiosi è che il rapido sviluppo di sistemi intelligenti come ChatGPT possa condurre il mondo verso scenari apocalittici, già prospettati in passato da scienziati come Stephen Hawking.
Tuttavia, la soluzione proposta – lo stop globale alla ricerca – è certamente irrealizzabile e comunque inefficace. L'innovazione non si può frenare ma si può, invece, regolare per limitare gli effetti negativi, azione, però, che non può certamente esaurirsi in sei mesi.
L'attività di policy making sui temi tecnologici, d'altra parte, è già in corso. Nel 2018 la Commissione Europea in una comunicazione su “A European approach to AI” ha dichiarato la sua intenzione di regolare l'IA in una prospettiva antropocentrica, garantendo che la tecnologia sia a servizio dell'uomo. I primi interventi in questo senso risalgono già al 2014 grazie al lavoro della MEP Mady Delvaux-Stehres al Parlamento Europeo.
Un primo risultato concreto è la proposta di regolamento conosciuto come AI Act”, dell'aprile 2021. Un regolamento – come il GDPR - applicabile così com'è scritto in ogni stato membro dal momento della sua approvazione, che si attende entro la fine del 2023.
Con questa proposta l'Unione Europea ha sancito un chiaro cambio di passo nella direzione corretta, abbandonando la retorica dell'etica e della soft-law, certamente inadatti a governare fenomeni così complessi. L'impianto però è ancora insufficiente, soprattutto nella misura in cui prova a regolare tutte assieme cose troppo diverse tra loro: dal veicolo autonomo, al chatbot, ai sistemi di fintech e ai sistemi esperti in medicina. L'approccio dovrebbe invece probabilmente abbandonare il one-rule-fits-all e provare invece a costruire formulazioni specifiche per i diversi macro casi d'uso.
Per contro, la richiesta di Elon è irricevibile nella teoria. Non esiste infatti una ragione per la quale imprese con interessi economici, esposizione, competizione, politiche e strategie complesse dovrebbero dare ascolto a un imprenditore multimiliardario che vorrebbe fermare la loro ricerca e sviluppo quando lui stesso, in quel modo, ha costruito la propria fortuna.
Non solo. La stessa è anche irrealizzabile nella pratica; non si può arrestare lo sviluppo della IA a livello globale e nessuno potrebbe sanzionare il trasgressore di un simile divieto. Non è necessario richiamare la teoria dei giochi per comprendere che se anche tutto l'occidente si fermasse per sei mesi o un anno il resto del mondo (la Cina, ad esempio) non lo farebbe. Finiremmo col fare un altro inatteso regalo ai nostri competitor globali, con conseguenze però ben più rilevanti. Una IA sviluppata in un contesto che interpreta a suo modo la democrazia sarebbe certamente ancor più pericolosa e tenderebbe a proporre bias culturali che non riconosciamo come nostri. Una volta diffusa e utilizzata a livello globale sarebbe poi quasi impossibile rimediare (come avviene oggi con TikTok).
Nell'ipotesi in cui la proposta venisse accolta, non avremmo inoltre alcun vantaggio nella pratica. Sei mesi, un anno o anche due non basteranno a regolare in modo sicuro ed efficace l'intelligenza artificiale. In primo luogo, perché è troppo complessa e trova applicazione in così tanti contesti diversi che sarà necessario intervenire molte volte in modo mirato. Non possiamo regolare la fintech nello stesso modo in cui regoliamo l'uso della IA in medicina o nei prodotti di consumo.
In secondo luogo, perché – per fare un parallelo - la regolazione non è una battaglia – che si combatte una volta sola – ma una guerra, fatta di molte battaglie successive che devono adeguare la strategia al contesto in evoluzione in cui viene applicata. Come società, attraverso la politica, dobbiamo rivendicare il diritto di provare a governare lo sviluppo tecnologico, senza lasciare l'ultima parola né al mercato, né al tecnologicamente possibile. Dobbiamo cioè scegliere quale “Dono dello spirito maligno” (per dirlo con Guido Calabresi) vogliamo accettare.
Molto può essere fatto e tutto resta da fare, ma ci vorranno decenni. L'innovazione non aspetta e il diritto deve correre.
Occorre però sottolineare un aspetto fondamentale. Il principale problema posto dalla IA non è la tutela dei dati personali, che pure va garantita in modi sempre più efficaci e anche – ma non solo - attraverso la tecnologia.
I problemi più rilevanti probabilmente sono altri e assai più complessi da regolare: ad esempio la capacità della IA di manipolare l'essere umano e la sua percezione del reale, con i deep fake o simulando intelligenza, sentimenti, personalità per indurre attaccamento emotivo da parte delle persone a sistemi sintetici. Questi aspetti non possono essere governati attraverso la privacy e, anche per questo, gli strumenti di cui dispone l'Autorità Garante quando interviene su ChatGPT o su Replika (la app che simula di essere il tuo partner sentimentale) sono chiaramente insufficienti rispetto al problema reale.
Insomma, se l'intelligenza artificiale conosce “ciò a cui non possiamo resistere” (così dice uno studioso dello Alan Turing Institute, Christopher Burr) oppure se è in grado di “estrarre la nostra attenzione” (come dice Elettra Bietti, della Harvard Law School parlando di piattaforme), non possiamo limitarci a tutelare la nostra privacy ma dobbiamo incidere – con regole precise – su questi aspetti. Abbiamo diritto a non essere manipolati e abbiamo diritto a tutelare il nostro tempo e la nostra capacità di concentrazione. Questa guerra però si chiama Technology regulation ed è soltanto iniziata.

*Andrea Bertolini, professore Scuola Sant'Anna di Pisa

Loading...

*Roberto Marseglia, research assistant presso Università degli Studi di Pavia


Riproduzione riservata ©

Brand connect

Loading...

Newsletter

Notizie e approfondimenti sugli avvenimenti politici, economici e finanziari.

Iscriviti