«Normativa su Ai pressocché nulla, regolare settorialmente come nella farmaceutica»
La posizione di Luca Bolognini, presidente dell'Istituto italiano per la privacy. L'Ai Act è «un primo passo», lo Stato di diritto «resti umano»
di Simona Rossitto
5' di lettura
La liceità della raccolta e dell'elaborazione dei dati, l'esattezza del dato, ma anche la responsabilità civile in caso di danno e la tutela dell'etica e del diritto pubblico quando vengono violati diritti costituzionali: sono solo alcune delle sfide sul piano normativo a cui dovrà rispondere la legge. E il tutto viene reso più difficoltoso per la lentezza della legislazione nei confronti della corsa tecnologica.. A parlare di norme, diritti, Ai e Ai generativa è Luca Bolognini, presidente dell'Istituto Italiano per la Privacy e la Valorizzazione dei Dati (IIP) e socio fondatore dello studio Ict Legal Consulting.
Al momento si possono utilizzare le regole sulla privacy ma «il grosso della regolazione manca ancora» mentre l'Ai Act «è un primo passo» necessario ma non sufficiente. Per Bolognini la soluzione, imitando quanto successo nel settore farmaceutico, potrebbe passare per una regolazione di settore, distinguendo i piani: non a tutti, insomma, dovrebbe essere consentito di gestire tutti i tipi di Ai, come per farmaci, quelli da banco li possono comprare tutti, diversamente da quelli per cui c'è bisogno di una prescrizione medica. «Almeno settorialmente, cioè, si dovrebbe iniziare a pensare che non tutte le tecnologie siano necessariamente a uso massivo».
Come Istituto della privacy avete già affrontato il tema delle Ai generativa? Abbiamo gli strumenti normativi necessari?
Siamo a metà del guado. Di specifico sull'Ai generativa non abbiamo nulla, e pressocché nulla abbiamo anche sull'Ai in generale in Italia ed Europa. Si spera che l' Ai Act, a livello europeo, sia in dirittura di arrivo entro l'anno per poi essere applicato dal 2025-26. Si tratta, tuttavia, di scadenze così lontane rispetto alla corsa delle tecnologie che rischiamo l'effetto che si ha in astronomia; la luce legislativa che vedremo arrivare potrà regolare solo quanto è già passato, sarà già troppo tardi. Ci sono, comunque, alcuni pezzi di normativa che possono essere applicati all'Ai, quelli che riguardano il copyright, la privacy, la protezione dei dati personali. Non è un caso che il Garante italiano, a cavallo delle festività pasquali, sia intervenuto con un provvedimento cautelare, inibendo provvisoriamente il trattamento dei dati ad OpenAi. E' interessante che l'Autorità abbia usato norme che guardano come e su che base vengono raccolti i dati relativi alle persone fisiche, come vengono elaborati, con quale grado di esattezza. Il Garante ha stigmatizzato il fatto che l'utente veda i propri dati catturati dal fornitore per allenare il motore generativo, ma anche le modalità secondo le quali vengono utilizzati i dati raccolti a monte, per creare la base di conoscenza di Gpt.
Quali sono le maggiori criticità a cui dovrebbe rispondere la regolazione?
Quando si parla di intelligenza generativa gli aspetti da considerare sono innumerevoli, ma due sono macro ambiti da preservare: la liceità del trattamento dei dati e l'esattezza del dato. Quanto al primo profilo, non c'è in genere il consenso, mancando il quale bisognava trovare un'altra base legislativa che Chapt Gpt ha individuato nel cosiddetto legittimo interesse. D'altronde in Europa si è presa una posizione molto netta: non si può trattare un dato personale, senza consenso, senza che ci sia almeno un'altra base prevista dalla legge, cioè dal Gdpr. In generale, con l'Ai generativa manca o in alcuni casi è difficile trovare un "pavimento" giuridico. Il secondo pilastro, ovvero l'esattezza nel trattare i dati personali, vuol dire che i dati devono essere esatti e aggiornati. Anche questo è un tema difficile visto che le Ai prendono elementi da fonti obiettive, magari affidabili, poi li ricombinano in maniera sensata dal punto di vista lessicale, verosimile ma non per forza vera. In questo campo, in un futuro non lontano, come faremo a distinguere il falso dal vero quando nemmeno un perito di tribunale sarà in grado di dire se un video è autentico o fake? In poche parole, la distinzione tra falso e vero sarà un'altra enorme sfida sul piano giuridico e relazionale.
Si pongono pure problemi di proprietà intellettuale una volta che si utilizzi per fini commerciali o comunque di lucro un testo prodotto con Chapt Gpt?
La situazione è complicatissima dal punto di vista giuridico. La risposta dipende dalla rilevanza del contenuto di origine, degli ingredienti utilizzati e dei risultati ottenuti. Secondo un'interpretazione classica si potrebbe trattare di opere derivate e come tali, nella maggioranza dei casi, vanno considerate. Bisognerebbe quindi rispettare i diritti dell'opera-ingrediente; l'opera originale nuova che si viene a creare può poi essere tutelata in quanto tale, soddisfacendo determinati criteri. Questo non vale solo per chi usa Chapt Gpt ma anche per la stessa Chapt Gpt quando formula contenuti usando contenuti altrui. Su questa materia a livello legislativo siamo in alto mare.
Chi risponde a livello di responsabilità dei contenuti prodotti?
Anche questo è un tema spinoso da affrontare. Ci sono casi in cui bisogna capire chi paga, ma il tema della responsabilità civile si potrebbe risolvere immaginando un sistema di assicurazioni obbligatorie, un sistema di wallet per cui non importa chi ci sia dietro, un essere umano o algoritmo, l'importante è che possa pagare. il problema più grande sorge per i valori che non hanno prezzo. L'etica, i diritti fondamentali e certi interessi pubblici essenziali sono tra i valori che non hanno prezzo. Se si va contro le Costituzioni e i diritti fondamentali, non è più una questione di soldi, ma di imputabilità dei sistemi di Ai. Questo è un tema immenso dal punto di vista giuridico e ancora irrisolto.
Come si potrebbe procedere cercando una risposta a livello globale?
Le prerogative di Chapt Gpt, circa sei mesi fa, hanno sorpreso tutti, persino i tecnologi. La definizione di intelligenza artificiale che ha dominato durante la stesura dell'Ai Act è ormai obsoleta. Si concepivano sistemi generati solo dall'essere umano, mentre l'Ai generativa programma, è in grado di figliare, ha spiazzato anche il legislatore in Europa che oggi ha aggiornato la definizione rendendola più vicina all'Ai generativa, seppur in modo ancora debole. Comunque, avere una normativa a livello europeo sarebbe già un primo passo. Spero che una parte di questioni si indirizzeranno al di là dei massimi sistemi, normando settore per settore con un approccio simile a quello usato in campo farmaceutico: cioè, si dovrebbe iniziare a pensare che non tutte le tecnologie siano necessariamente per tutti e alla portata di chiunque. OpenAi ha sperimentato, aprendo Chapt Gpt al mondo. E' giusto ed eticamente accettabile che questa forma di Ai sia a disposizione di tutti? Venendo alla similitudine farmaceutica, ci sono i farmaci da banco, alla portata di tutti, e farmaci che vanno prescritti da un medico. Immagino che in futuro in un'azienda come Meta o Google, quando si utilizzerà l'Ai generativa, ci saranno alcuni ‘camici bianchi' che gestiranno quanto non può essere gestito da tutti. Adesso non c'è nessun limite. C'è un altro tema molto importante che attiene alla sovranità legislativa umana: occorre cioè evitare che l'algoritmo approdi anche nei meccanismi di votazione parlamentare. E' un bene che questi processi si svolgano senza intermediazione di algoritmi. D'altronde, ad oggi è richiesta la presenza fisica ai parlamentari e ci sono già stati esperimenti di uso dell'Ai in Parlamento: in Italia, ad esempio, Calderoli tempo fa elaborò per provocazione migliaia di emendamenti con un sistema di Ai. Quindi è un rischio, quello dell'uso improprio dell'Ai in Parlamento, che si corre e che va evitato. Lo "Stato di diritto" dovrebbe rimanere solo umano.
loading...