Intelligenza artificiale e contratti, un difficile equilibrio legislativo
«L’intelligenza artificiale non è fantascienza: fa già parte delle nostre vite»: così scriveva già nel 2018 la Commissione Ue. Nei cinque anni trascorsi da allora questa affermazione ha trovato mille conferme.
di Giusella Finocchiaro e Oreste Pollicino
3' di lettura
«L’intelligenza artificiale non è fantascienza: fa già parte delle nostre vite»: così scriveva già nel 2018 la Commissione Ue. Nei cinque anni trascorsi da allora questa affermazione ha trovato mille conferme. L’intelligenza artificiale pervade la nostra quotidianità: dall’utilizzo degli oggetti nell’Internet of things, alle transazioni digitali, ai dispositivi personali, e in molte altre circostanze. Le nostre relazioni digitali sono sempre più spesso coadiuvate o governate dall’Ia, nelle sue molte declinazioni: che formuli suggerimenti o assuma decisioni. Molte delle nostre relazioni sociali costituiscono, dal punto di vista giuridico, dei contratti: dagli acquisti di opere d’arte online, all’organizzazione di viaggi, alla selezione dei collaboratori, agli investimenti finanziari. Per arrivare alle molteplici potenzialità offerte da ChatGPT.
Anche in campo giuridico, da tempo, si riflette sulle diverse questioni sollevate dall’intelligenza artificiale. Le riflessioni investono tutti i settori del diritto: i contratti conclusi da applicazioni di Ia, il trattamento dei dati personali da parte di appositi programmi, l’elaborazione di decisioni giurisprudenziali tramite algoritmi, il supporto agli organi societari, l’attribuzione dell’autorialità al software e molti altri, dal momento che le applicazioni di Ia sono potenzialmente rinvenibili in ogni ambito giuridico. E quando uno degli attori è un’applicazione di Ia, ci si interroga sul ruolo, anche giuridico, che essa riveste.
Oltre che in sede dottrinale, il dibattito si svolge anche nelle sedi di elaborazione della regolazione, in particolare a livello europeo e nelle organizzazioni internazionali. Uno degli interrogativi più frequenti, in ambito civilistico, è se si tratti di un nuovo soggetto giuridico, che interviene nella relazione e quindi risponde dei danni eventualmente cagionati, ad esempio per inadempimento. La tesi della soggettività giuridica è di grande suggestione e riscuote un certo successo, ma poi inevitabilmente conduce a un interrogativo pragmatico: chi paga? L’applicazione di intelligenza artificiale che può avere causato dei danni non dispone di un autonomo patrimonio al quale attingere. Questo ha condotto, per esempio, la Commissione ad accantonare la soggettività giuridica nella proposta di direttiva sulla responsabilità da intelligenza artificiale. Altro sarebbe modificare il modello di responsabilità.
Nel diritto penale, invece, sono diversi gli interrogativi sollevati circa la responsabilità per un reato commesso da un’applicazione di Ia.
In ambito contrattuale ci si domanda se occorrano norme nuove o se le norme vigenti possano essere applicabili anche a questo fenomeno.
Agli inizi del 1900 Cicu e Scialoja si interrogavano sui contratti conclusi per automatico, quelli stipulati con le macchine automatiche per la distribuzione di prodotti, e concludevano che di contratti si trattasse. Nessuno dubita oggi che il contratto concluso con un sistema di intelligenza artificiale sia un contratto. E questi contratti si concludono quotidianamente in tutto il mondo.
Le norme giuridiche sono per loro natura destinate all’interpretazione, che costituisce il lavoro proprio del giurista, e tali da accogliere anche le nuove applicazioni tecnologiche. Dunque non è del tutto esatto affermare che il diritto insegue la tecnologia, secondo un’affermazione ricorrente. Né che, quando si afferma una nuova tecnologia, la disciplina giuridica deve ogni volta reinventarsi. Piuttosto, oltre alla capacità interpretativa per qualificare i nuovi fenomeni alla luce delle norme esistenti, possono essere necessari alcuni aggiustamenti: in primo luogo terminologici, per adeguare il linguaggio del legislatore ai nuovi contratti, ma soprattutto per risolvere questioni controverse.Seguendo questa direzione, occorre limitare l’intervento normativo a quanto necessario per superare o rimuovere gli ostacoli giuridici all’utilizzo della tecnologia. I temi da disciplinare sono quelli relativi alla responsabilità, cui si è accennato, e quelli relativi all’attribuzione della dichiarazione contrattuale, volti cioè a chiarire di chi è la volontà manifestata con il contratto di Ia.
L’ulteriore domanda che sorge è se sia opportuno per il legislatore adottare un approccio volto a disciplinare l’Ia nel suo complesso o invece regolarne le applicazioni in specifici settori o singole materie. La prima opzione è quella percorsa dalla proposta di regolamento europeo sull’Ia che ha un approccio normativo orizzontale. La seconda è quella auspicata in organizzazioni internazionali come Uncitral e Unidroit in cui si è ritenuto fosse preferibile normare le applicazioni di intelligenza artificiale o gli effetti di esse, in specifici ambiti. Potrebbe essere opportuno preferire un approccio verticale concentrato sugli specifici problemi per non creare un’eccessiva complessità normativa che finirebbe per rallentare l’economia e appesantire il quadro giuridico.
loading...