Quale autorità governerà l’intelligenza artificiale?
l 2023 sarà l’anno del regolamento europeo sull’intelligenza artificiale (noto come AI Act), il cui voto finale del Parlamento dovrebbe arrivare il prossimo aprile
di Edoardo Raffiotta
3' di lettura
Il 2023 sarà l’anno del regolamento europeo sull’intelligenza artificiale (noto come AI Act), il cui voto finale del Parlamento dovrebbe arrivare il prossimo aprile. Siamo quindi alle battute finali, eppure alcune questioni cruciali restano ancora da risolvere, si spera, con l’approvazione degli ultimi emendamenti. Ad esempio, ci si augura vengano meglio chiariti gli aspetti della governance, ovvero quali autorità – a livello europeo e nazionale – saranno chiamate a verificare e far rispettare la nuova normativa (anche con sanzioni fino a 30mln di euro o 6% del fatturato).
L’AI Act mira a regolare l’intelligenza artificiale attraverso il c.d. risk-based approach che distingue più o meno elevati obblighi di conformità a seconda del rischio (basso, medio o elevato) che software e applicazioni intelligenti possono causare a danno dei diritti fondamentali. Più alto è il rischio e maggiori sono gli oneri di compliance e le responsabilità degli autori delle applicazioni intelligenti. Escludendo poi che l’intelligenza artificiale possa essere impiegata per alcune finalità individuate dalla stessa normativa considerate contrarie ai valori dell’UE (ad es. il social scoring).
È evidente come questa complessa e tecnica disciplina dovrà avere a livello europeo, ma soprattutto a livello nazionale, autorità altamente specializzate e in grado di affermare standard e prassi applicative chiare. Parliamo di una tecnologia in continua evoluzione. Pertanto, il ruolo delle autorità sarà particolarmente importante nell’assicurare regole certe che possano semplificare il lavoro di chi crea innovazione tecnologica. Un quadro normativo, ma soprattutto applicativo, contraddittorio rappresenterebbe un grave fattore di incertezza e ostacolo all’innovazione.
In tale contesto, le Autorità già dotate delle competenze e (da non sottovalutare) dell’esperienza per “governare” l’intelligenza artificiale sono i Garanti della privacy (sia quello europeo, sia dei singoli Stati).
L’intelligenza artificiale, infatti, si nutre di dati e, in particolare, di quelli di natura personale. Per questo impegna ormai da anni l’attività dei Garanti privacy, i quali di conseguenza si sono dotati di appositi dipartimenti e di qualificate competenze tecniche e giuridiche specifiche.
È altresì evidente come il trattamento dei dati personali comporti in ogni caso l’applicazione del regolamento sulla privacy (GDPR), attivando conseguentemente le competenze del Garante. Si pensi, tra gli altri, all’art. 22 appositamente rivolto alle decisioni automatizzate, il quale prevede il diritto di comprendere (e contestare) la decisione assunta da un’applicazione intelligente. Inoltre, lo stesso AI Act dispone una serie apposite discipline sulla trasparenza e sulla valutazione di impatto riferita ai dati personali, che dovrà per forza di cose interessare le Autorità di protezione dei dati.
Nonostante tali premesse, però, l’attuale bozza dell’AI Act non affida la governance ai Garanti, lascia invece agli Stati il potere di definire l’autorità nazionale di governo dell’intelligenza artificiale. Si auspica – dicevamo – che tale scelta venga fatta in modo chiaro dal legislatore europeo. Questo per evitare quanto accaduto in Spagna dove è stata creata l’autorità per l’intelligenza artificiale che si pone evidentemente in competizione con il Garante privacy spagnolo.
Duplicare le Authorities non comporta solo l’aumento dei costi e la complicazione dell’organizzazione amministrativa. La questione principale è quanto si diceva: l’incertezza regolatoria che va sempre a danno non solo dell’economia, ma anche della stessa tutela dei diritti, in particolare, nel caso della tecnologia in continua evoluzione. E questa non è un’ipotesi futura, ma una problematica del presente. Basti pensare ai sempre più frequenti conflitti di competenze tra Autorità amministrative indipendenti: AGCM, AGCOM, CONSOB, Privacy, Trasporti, per citare solo i casi più noti. Conflitti derivanti dalla valutazione delle medesime condotte che portano alla sovrapposizione delle discipline settoriali di cui sono titolari. Con la conseguenza di dovere stabilire una prevalenza nonché quali siano le Autorità competenti. Una sovrapposizione che pone tra l’altro anche conflitti nei procedimenti sanzionatori, non potendosi escludere casi nei quali qualcuno sia sanzionato prima da un’Autorità e poi dall’altra, in violazione del principio costituzionale per cui nessuno può essere processato due volte per la stessa accusa (ne bis in idem). Questo conflitto sarebbe molto probabile – e presumibilmente frequente – nel caso in cui si istituisse un’Autorità per l’intelligenza artificiale in concorrenza/aggiunta al Garante privacy.
(Università di Milano Bicocca – LCA Studio legale)
loading...