ServizioContenuto basato su fatti, osservati e verificati dal reporter in modo diretto o riportati da fonti verificate e attendibili.Scopri di piùDiritto d'autore e Ai

«Essere umano imprescindibile nel rapporto AI e copyright, lo dicono Europa e Usa»

A fare il punto su quello che succede in Usa, Ue e Cina è Raffaele Giarda, partner di Baker McKenzie

di Simona Rossitto

Raffaele Giarda, partner di Baker McKenzie

7' di lettura

(Il Sole 24 Ore Radiocor) - Europa e Usa concordano «sulla natura imprescindibile dell’essere umano a fini del copyright». Lo afferma Raffaele Giarda, Technology media & telecommunications partner di Baker McKenzie in Italia, facendo un’analisi sul rapporto tra intelligenza artificiale e diritto d’autore, alla luce delle ultime sentenze sul tema e partendo dal presupposto che il dibattito sulla tutela del diritto d’autore in questo campo sia solo agli inizi. Quanto al contesto normativo in divenire, la Ue «si contraddistingue, in particolare, per la tutela dei diritti fondamentali, avendo tra i propri fini quello di stabilire parametri etici e di fornire un sostegno iniziale per consentire agli Stati Membri e alle imprese del settore privato di conformarsi a tali parametri» mentre «gli Usa tentano di fornire ai singoli Stati della federazione linee guida generali in modo da creare le condizioni per una disciplina armonizzata all’interno del Paese».

SFOGLIA IL REPORT COMPLETO

Loading...

Diverso l’approccio cinese che «si basa – spiega il legale a DgitEconomy.24, report del Sole 24 Ore Radiocor e di Digit’Ed, leader nella formazione e nel supporto alla crescita del capitale umano - su un sistema che prevede incentivi all’innovazione per i player pubblici e privati, per poi adottare misure specifiche al fine di contenere eventuali effetti pregiudizievoli quando questi si dovessero manifestare».

Ad agosto scorso c’è stata una decisione storica negli Usa sull’arte generata da AI, che eco ha avuto nei tribunali Usa e in quelli europei?

Il riferimento è al caso noto come Thaler v. Perlmutter nell’abito del quale una corte statunitense ha statuito che un’opera d’arte generata in piena autonomia dall’intelligenza artificiale (IA) non può costituire oggetto di tutela in base alla normativa sul diritto d’autore. Vale la pena ricordare da dove abbia tratto origine la vicenda giudiziaria, anche perché vi sono stati casi simili in passato in altri Paesi: si tratta del mancato accoglimento dell’istanza avanzata da un noto esperto di informatica e intelligenza artificiale, Stephen Thaler, nei confronti del Copyright office degli Stati Uniti per la registrazione di un’opera d’arte intitolata “A recent entrance to paradise” e creata, a dire dell’attore, completamente in autonomia da un sistema computeristico denominato “Creativity machine”, indicando pertanto la macchina stessa come unico autore. Di qui l’avvio del contenzioso da parte di Stephen Thaler nei confronti dell’Ufficio e la sentenza della Columbia District Court, il cui principio può essere così riassunto: l’opera, non essendo stata generata da persona umana, non può godere della protezione accordata dal diritto d’autore alle creazioni dell’ingegno.La decisione ha puntato un faro sulla centralità della questione relativa alla funzione dell’Ia e al ruolo della persona nella produzione di un’opera dell’ingegno. Dobbiamo infatti distinguere tra opere generate in modo autonomo dall’IA (cui la sentenza nega protezione ai sensi del diritto d’autore, mancando l’elemento imprescindibile della creatività umana) e opere generate con l’assistenza dell’IA (cui, al netto del tema dell’originalità, il fattore creativo e la paternità della creazione sono attribuibili ad un essere umano).

Le Corti europee stanno seguendo la stessa direzione tracciata del giudice Usa?

La direzione che le Corti, tanto statunitensi quanto europee, sembra stiano assumendo in tema di tutela delle opere frutto dell’IA è riassunta nelle parole del giudice Howell, il quale – proprio nel caso sopra citato – ha sottolineato che “la creatività umana è la conditio sine qua non dell’ammissibilità della tutela del diritto d’autore, anche quando tale creatività umana è incanalata attraverso nuovi strumenti o in nuovi media”. Un caso simile – sempre su iniziativa di Stephen Tyler – si era presentato già qualche anno fa nella vicenda giudiziale nota sotto il nome di “Dabus” (Device for the autonomous bootstrapping of unified sentience o, tradotto alla lettera, Dispositivo per l’avvio autonomo della coscienza unificata). In estrema sintesi, nel 2018, Stephen Thaler presenta domanda presso gli Uffici Brevetti di diversi Paesi affinché riconoscano la proprietà del brevetto di un determinato oggetto in capo all’oggetto stesso (in quel caso, un contenitore per cibi in grado di assumere forme diverse e individuabile mediante una luce a intermittenza). Ma, affermò in quel caso in modo inequivoco Lady Justice Elisabeth Laing della Corte d’Appello inglese, “only the person can have rights, a machine cannot”. In conclusione, se volessimo semplificare del tutto, Stati Uniti ed Europa sembrano attualmente concordare. Ma con il ruolo sempre più centrale che l’IA ha assunto e il terreno che continua a guadagnare nella creazione di contenuti e idee, il dibattito sul diritto d’autore e sulla sua tutela sembrano essere appena agli inizi.

In un contesto normativo in divenire ci si affida soprattutto ai giudici per delimitare gli ambiti dell’utilizzo dell’intelligenza artificiale?

Quando si devono disciplinare materie che hanno uno stretto legame con la tecnologia, è inevitabile che la normativa segua (piuttosto che anticipare) lo sviluppo delle innovazioni, sicché spesso la legge è preceduta da un momento di incertezza interpretativa nel corso del quale l’inquadramento giuridico delle singole questioni risulta oggettivamente complesso. In questi momenti di transizione, vengono allora in soccorso i principi generali come applicati sia dalle corti che dalle autorità di settore, con un’applicazione analogica della legge (la quale, per sua natura, è generale e astratta) a casi concreti che magari non erano stati neppure contemplati dal legislatore al momento della stesura della norma, in quanto correlati a elementi che ancora non esistevano. Proprio per ridurre il più possibile questi spazi di incertezza, queste aree grigie, il legislatore europeo, con l’AI Act ha tentato, da un lato, di disciplinare in modo chiaro il fenomeno dell’Intelligenza Artificiale e, dall’altro, di adottare definizioni il più ampie possibili, in modo tale che i loro confini possano ricomprendere, in un futuro non troppo lontano, fenomeni, sviluppi, macchine e programmi ad oggi probabilmente non immaginabili.

L’AI Act, in un emendamento, tenta di regolare anche l’intelligenza artificiale creativa: è un provvedimento esaustivo?

Dipende dal fine che si intende raggiungere mediante l’applicazione della norma. L’emendamento riguarda l’articolo 52 dell’AI Act, che pone obblighi informativi in capo ai produttori dell’Ia onde tutelare i soggetti che utilizzano un contenuto che sia stato prodotto in tutto o in parte mediante l’IA. In particolare, l’emendamento ha a che fare con l’intelligenza artificiale creativa e prevede l’obbligo di comunicazione delle informazioni relative a come e quanto un determinato contenuto o creazione artistica siano stati elaborati mediante uno strumento di intelligenza artificiale. Certamente, l’applicazione degli obblighi di trasparenza consente al consumatore/utente di essere consapevole del fatto che ciò di cui sta usufruendo è un contenuto o una creazione più o meno frutto di manipolazione da parte di un sistema non umano. L’obbligo di citazione delle fonti utilizzate per produrre tale contenuto o prodotto va nello stesso senso. L’applicazione pratica di questo sistema di garanzie ci darà poi indicazioni in merito alla sua efficacia o meno.

Come si pongono Italia ed Europa rispetto a Usa e Cina in materia di normativa?

L’approccio cinese si basa su un sistema che prevede incentivi all’innovazione per i player pubblici e privati, per poi adottare misure specifiche al fine di contenere eventuali effetti pregiudizievoli quando questi si dovessero manifestare. Il 2017 Next Generation AI Development Plan (AIDP) ha come punto di arrivo quello di traghettare la Cina verso una leadership mondiale in materia di Ia entro il 2030, configurando un piano di sviluppo dell’intelligenza artificiale di nuova generazione che delinea gli obiettivi geopolitici, fiscali, legali ed etici del paese in materia di tecnologie Ia.

Guardando in casa nostra, la strategia Ue si contraddistingue, in particolare, per la tutela dei diritti fondamentali, avendo tra i propri fini quello di stabilire parametri etici e di fornire un sostegno iniziale per consentire agli Stati Membri e alle imprese del settore privato di conformarsi a tali parametri. La normativa di riferimento sarà l’AI Act, la cui prima stesura risale alla primavera del 2021, avendo rappresentato l’esito di un processo di regolamentazione iniziato nel 2018 con la firma di una Dichiarazione di Cooperazione sull’Ia. L’impalcatura dell’AI Act è fondamentalmente basata sulla valutazione del rischio (per la salute, la sicurezza, i diritti fondamentali) distinto in quattro livelli diversi: inaccettabile, alto, limitato e minimo o nullo.

A che punto è invece la legislazione negli Usa, c’è un’iniziativa analoga all’AI Act?

Negli Stati Uniti, con l’adozione del National AI Initiative Act del 2021, gli Usa tentano di fornire ai singoli Stati della federazione linee guida generali in modo da creare le condizioni per una disciplina armonizzata all’interno del Paese. Tuttavia, il fatto che da oltreoceano si ponga l’accento sulla necessità di evitare una regolamentazione eccessivamente parcellizzata (ferma restandone comunque l’importanza) può generare la necessità di fornire ulteriori certezze regolatorie. La legge infatti è incentrata principalmente sul ruolo leader svolto dagli Stati Uniti nell’intelligenza artificiale, nello sviluppo di sistemi Ia affidabili, nella mitigazione delle conseguenze occupazionali, e nel coordinamento dei settori militare e civile.

Spostando l’attenzione sul tema della responsabilità civile del contenuto creato con AI, c’è chi profila anche la possibilità di prevedere un’assicurazione obbligatoria per le opere prodotte con intelligenza artificiale? Condivide questa impostazione?

Ad oggi, la disciplina della responsabilità correlata ai danni prodotti dall’IA è sostanzialmente demandata alla valutazione dei giudici i quali, in caso di contenzioso, sono chiamati ad individuare il soggetto in capo al quale riconoscere l’obbligazione risarcitoria dei danni prodotti nel caso specifico. L’IA pone alcuni rischi derivanti dalla complessità del suo inquadramento nell’ambito dei regimi di responsabilità esistenti. Infatti, non è detto che vi sia stata “colpa” in chi ha impiegato sistemi di Ia per l’offerta di un certo servizio o prodotto né è scontato (anzi molto arduo, se non impossibile) per il danneggiato dimostrare che vi sia stata “negligenza”, ad esempio, da parte del produttore. Pure difficilmente percorribile potrebbe essere la via dell’attribuzione della colpa in capo all’utilizzatore, salvo che magari per i profili di obbligo di mitigazione del danno.Con specifico riferimento ai regimi di responsabilità extracontrattuale, la maggior parte delle giurisdizioni europee individuano nella “responsabilità per colpa” il pilastro più importante di questo tipo di obbligo risarcitorio. In Italia, l’art. 2043 del codice civile stabilisce che chi è responsabile di un fatto doloso o colposo che cagioni ad altri un danno ingiusto, deve risarcirne il danno.

Cosa succede se il danno è causato da un software?

In questo caso il responsabile può essere di non immediata identificazione, e può essere ancora più complesso e costoso identificare un errore magari in un codice sorgente assai esteso e articolato. Nel caso dell’IA, esaminare il processo che ha portato ad uno specifico risultato (ossia come i dati in input abbiano portato ai dati in output) potrebbe essere arduo e anti-economico.La proposta di direttiva sulla responsabilità da intelligenza artificiale intende fornire una risposta a tali quesiti, imponendo obblighi specifici in materia di prova e stabilendo presunzioni (confutabili) di non conformità, colpa e nesso di causalità. Sicché, secondo alcuni orientamenti, integrare tale disciplina con un regime di assicurazione obbligatoria per la responsabilità civile potrebbe comportare un incremento della fiducia del consumatore e, possibilmente, un effetto deflattivo non solo dei costi finali che ogni nuovo sviluppo porta con sé in ambito sociale, ma anche del livello quantitativo dei relativi contenziosi.

Brand connect

Loading...

Newsletter

Notizie e approfondimenti sugli avvenimenti politici, economici e finanziari.

Iscriviti