Interventi

Intelligenza artificiale e norme, il ruolo che può avere l’Italia nella sfida del futuro digitale

di Giusella Finocchiaro, Luciano Floridi e Oreste Pollicino

(ipopba - stock.adobe.com)

5' di lettura

Il 24 novembre, l'Italia ha adottato il Programma strategico per l'intelligenza artificiale 2022-2024. Nel solco della Strategia europea per la regolazione dell'intelligenza artificiale, che ha visto il suo culmine nella pubblicazione della proposta di Regolamento (Ai Act), l'Italia ha unito le sinergie di tre ministeri (Università e Ricerca, Sviluppo economico, Innovazione tecnologica e Transizione digitale), e, con il supporto del Gruppo di lavoro sulla strategia nazionale per l'Ia, ha stilato un programma che delinea 5 princìpi guida (di orientamento), 6 obiettivi (che cosa si vuole ottenere), 11 settori prioritari (dove si vuole ottenerlo) e 3 aree di intervento (come).

Il risultato sono 24 politiche (che cosa fare) da implementare nei prossimi tre anni per potenziare il sistema in Italia. La Strategia inoltre analizza debolezze e potenzialità di ciascun settore, mettendo in evidenza come potranno, anche nel breve termine, beneficiare degli investimenti nell’Ai.

Loading...

La cornice europea

I 5 princìpi guida richiamano la cornice già tracciata dall’Unione europea. Il primo recita: «L’Ia italiana è un’Ia europea», a suggellare quel sodalizio che vede nell’azione coordinata degli Stati membri la chiave per favorire un utilizzo consapevole dell’Ai. Il secondo principio ha lo scopo di rendere l’Italia un «polo globale» per la ricerca su un’Ia che sia, come recita il terzo, «antropocentrica, affidabile e sostenibile», ancora una volta richiamando le Linee Guida Etiche tracciate dall’High level expert group on Ai (disclosure: Floridi è stato uno dei membri). Il quarto principio mira a promuovere lo sviluppo, l’implementazione e l’adozione di soluzioni Ia da parte delle imprese e del settore pubblico, cui invece è dedicato il quinto principio. I princìpi offrono un’ambiziosa visione del futuro dell’Ia in Italia, che vuole toccare e coinvolgere ricerca e investimento, pubblico e privato, gli uni al servizio degli altri.

PIÙ O MENO “INTELLIGENTI”
Loading...

Le 24 politiche hanno lo scopo di aumentare la competitività tecnologica del Paese internazionalmente e di mettere a servizio di alcuni settori chiave le eccellenze della ricerca in campo Ia. Il filo conduttore della Strategia parte dall’istruzione e dal plasmare nuove competenze: un aspetto innovativo per l’Italia che, anche nell’ultimo Digital economy and society index (Desi), pubblicato dalla Commissione europea, spicca per le scarse competenze digitali di cittadini, imprese e Pa. Con riguardo all’istruzione di primo livello, la Strategia si propone di apportare un cambiamento inserendo delle materie ad hoc nel programma scolastico degli Istituti tecnici. Mentre, con riguardo all’istruzione di secondo livello, la Strategia vuole promuovere la ricerca di applicazioni sia etiche sia innovative dell’Ia, tramite la creazione di nuovi fondi dedicati all’individuazione di investimenti più competitivi per le imprese e soluzioni per creare una Pa moderna, anche finanziando piattaforme di condivisione di dati e software a livello nazionale.

Sulla formazione e sull’educazione è cruciale investire per un Paese come l’Italia e in questo senso va un altro progetto, quello del Fondo per la repubblica digitale”, recentemente approvato, destinato esclusivamente al sostegno di progetti rivolti alla formazione e all’inclusione digitale, con la finalità di accrescere le competenze digitali, anche migliorando i corrispondenti indicatori del Desi e che vuole proprio colmare il divario digitale di cui la pandemia ci ha costretto a prendere atto.

L’Ia è da tempo definita “una priorità chiave” per l’Europa e questa ambiziosa Strategia ha come obiettivo di renderla una soluzione vincente anche per l’Italia, e di rafforzare la struttura dell’ecosistema della ricerca italiana sull’Ia,
di promuovere collaborazioni tra il mondo accademico e della ricerca, le imprese gli enti pubblici e la società civile.

Le aree cruciali

La Strategia è fortemente, anche se non esclusivamente, orientata sulla tecnologia e sull’educazione. Sono due aree cruciali, ma ci sono anche altre prospettive da considerare.

L’area giuridica

Innanzitutto, quella giuridica. Il legislatore europeo ha scelto di disciplinare organicamente la materia dell’Ia, continuando nella strategia regolatoria che lo distingue dagli Stati Uniti e dalla Cina. La proposta di Regolamento europeo sull’Ia presenta molte criticità, ma resta un ottimo passo nella direzione giusta e un necessario punto di riferimento.

Nel programma italiano va considerato il ruolo strategico della normazione in questa materia come anche la necessità di eliminare gli ostacoli giuridici allo sviluppo dell’Ia, nel rispetto dei diritti fondamentali. Il legislatore ha davanti due rischi: la paura dell’Ia e la retorica dell’Ia. La grande letteratura sul tema, citata anche nella Risoluzione del Parlamento europeo del 2017 che riportava le leggi della robotica di Asimov, così come la cinematografia e altri sviluppi artistici, non devono destare paure infondate e condizionanti che conducano al bisogno di controllo assoluto e quindi al rischio di normare in dettaglio ciò che in realtà ancora non si conosce del tutto, e che ha bisogno di un modello normativo e princìpi fermi, di una cornice chiara entro cui svilupparsi, e non di regole minuziose e fardelli burocratici. L’altro rischio è quello della retorica: di rendere l’Ia soggetto giuridico senza che questo sia funzionale a un nuovo modello normativo. Il rischio è che l’uso generico del termine “intelligenza” implicitamente induca a pensare che c’è un “soggetto intelligente” e non applicazioni tecnologiche che fanno cose che se fatte da umani sarebbero considerate intelligenti, per riprendere la lezione di Turing. In questo la Strategia nelle sue prime due righe commette un errore concettuale, che potrebbe essere fuorviante: i sistemi di Ia non «riproducono la percezione, il ragionamento, l’interazione e l’apprendimento» umani, al contrario, ottengono risultati comparabili o, sempre più spesso, migliori di quanto l’intelligenza umana sarebbe in grado di raggiungere, operando in modalità completamente differenti. Non è il processo (come) ma il risultato (che cosa) che è in questione, si pensi a come AlphaFold è oggi in grado di predire la struttura tridimensionale delle proteine, una delle grandi sfide della biologia rimasta irrisolta per oltre cinquant’anni, e un risultato fondamentale anche per la medicina.

In altri termini, occorre porsi davanti alle applicazioni di Ia (diversissime tra loro e difficilmente assimilabili in un’unica dettagliata regolazione), privi del condizionamento della retorica e della paura, elaborando un modello normativo innovativo piuttosto che regole dettagliate o, peggio, suggestioni antropomorfe. Che cosa dobbiamo evitare? In estrema sintesi, molta dell’Ia oggi è fatta di sistemi di machine learning, che imparano dai dati che sono forniti. Dunque, “imparano” dall’esperienza passata. Daranno risultati tendenzialmente conformisti, conservatori e poco innovativi. Ci deve essere lo spazio per la decisione creativa che è quella che cambia la giurisprudenza. Ancora, ci deve essere lo spazio per la tutela dei diritti fondamentali. Senza demonizzare la tecnologia in modo fantascientifico o distopico, ma consentendone lo sviluppo. È un esercizio di contemperamento di esigenze differenti, solo apparentemente contrapposte e in questo l’Italia può affinare e condurre la strategia europea, e favorire la cooperazione internazionale, per assicurare che l’Ia faccia bene al mondo della produzione e della ricerca, a quello sociale e a quello ambientale.

Riproduzione riservata ©

Brand connect

Loading...

Newsletter

Notizie e approfondimenti sugli avvenimenti politici, economici e finanziari.

Iscriviti