ServizioContenuto basato su fatti, osservati e verificati dal reporter in modo diretto o riportati da fonti verificate e attendibili.Scopri di piùLa Guida in edicola con il Sole

L’Intelligenza artificiale e la questione giuridica dei danni e della soggettività

La guida sull’intelligenza artificiale oggi in edicola con «Il Sole-24 Ore» a 1 euro più il prezzo del quotidiano

di Luca De Biase, Giusella Finocchiaro e Oreste Pollicino

Così l’intelligenza artificiale anima la Gioconda e le grandi opere d’arte

5' di lettura

Allucinazioni. Ormai il termine è passato nel linguaggio comune per parlare delle baggianate che ogni tanto sfuggono alla pur eloquente prosa delle intelligenze artificiali generative. Lanciato da Gary Marcus, scienziato cognitivo che coltiva un’interpretazione critica dell’ipotesi di costruire un’intelligenza artificiale generalista, il termine «allucinazioni» ormai designa quell’insieme di imprecisioni, errori, o vere e proprie invenzioni, pur sempre verosimiglianti, che le varie ChatGpt e simili producono quando di fatto prediligono la scorrevolezza della conversazione con gli utenti all’ammissione di non sapere qualcosa.

Gli errori dell’Ai

Nel corso degli ultimi mesi le cronache hanno dato conto di risposte contenenti citazioni di paper scientifici che non esistono e biografie di grandi personaggi arricchite con fatti di fantasia. Il problema è che le allucinazioni saltano agli occhi di chi conosce la materia, ma restano nascoste a chi non conosca l’argomento del quale si sta parlando. Il che avviene tanto più spesso quanto maggiore è l’uso delle intelligenze artificiali generative nella produzione di risposte alle interrogazioni che miliardi di persone rivolgono quotidianamente ai motori di ricerca.

Loading...

Dopo le brutte figure collezionate nell’ordine da Google, Microsoft e poi altri, qualcuno si è accorto che tutto questo può diventare un problema giuridico. Snapchat, per esempio, ha rilasciato la sua My AI, arricchita da una tecnologia sviluppata da OpenAI, con un disclaimer che avverte che «My AI è soggetta ad allucinazioni». Inoltre, lo stesso disclaimer suggerisce di «non condividere segreti con My AI e non basarsi su My AI per ottenere consigli».

La paura delle cause legali

Evidentemente Snapchat prevede che qualcuno farà causa all’azienda quando i nodi delle allucinazioni, delle eventuali violazioni della privacy e dei consigli sbagliati dovessero arrivare al pettine. In quel caso i disclaimer saranno sufficienti? E qualora quel genere di intelligenze artificiali uscissero dal dominio dell’entertainment ed entrassero nella vita professionale, a chi spetterebbe il rischio di eventuali danni? È il grande dibattito giuridico, ancora aperto, della responsabilità delle applicazioni di intelligenza artificiale.

Le “domande” da farsi

La prima questione da porsi è: l’Ai risponde dei danni cagionati? È un soggetto giuridico al quale rivolgersi per chiedere un risarcimento? Anche su questo tema ci sono diversi punti di vista. Infatti, c’è chi ritiene che le applicazioni di Ai siano entità, dotate di caratteristiche assimilabili a quelle umane e dunque alle quali attribuire una soggettività. Ciò conduce a interrogarsi sul significato di “intelligenza” e sulla sua attribuibilità a un software.

L’opzione di riconoscere la soggettività alle applicazioni di Ai era menzionata anche nella Risoluzione del Parlamento europeo del 16 febbraio 2017, ove si invitava la Commissione europea a valutare «l’istituzione di uno status giuridico specifico per i robot nel lungo termine, di modo che almeno i robot autonomi più sofisticati possano essere considerati come persone elettroniche responsabili di risarcire qualsiasi danno da loro causato, nonché eventualmente il riconoscimento della personalità elettronica dei robot che prendono decisioni autonome o che interagiscono in modo indipendente con terzi».

Un problema già conosciuto

Non è un tema nuovo e già una ventina di anni fa se ne discuteva con riferimento ai cosiddetti agenti software. L’altra corrente di pensiero ritiene che l’attribuzione della soggettività giuridica a un’applicazione di Ai o a un robot, per utilizzare il linguaggio che utilizzava la Commissione sei anni fa, sia una finta soluzione.

Infatti, se pure fosse riconosciuta all’applicazione una soggettività giuridica, nel caso in cui l’applicazione fosse ritenuta responsabile, occorrerebbe comunque risolvere il problema del risarcimento del danno cagionato. Il programma di intelligenza artificiale non avrebbe, infatti, un patrimonio di cui poter disporre con il quale risarcire il danno. Rimarrebbe dunque non risolto il problema del risarcimento.

Ma chi risarcisce il danno?

Si torna alla domanda iniziale: anche se l’Ai è un soggetto giuridico, alla fine, chi paga? Si potrebbe costituire un patrimonio da riservare all’applicazione di intelligenza artificiale, proprio allo scopo di consentire il risarcimento del danno. Tuttavia, se si vuole preservare un patrimonio a questo scopo, non è necessario costruire il complesso edificio giuridico della soggettività del programma. Si può comunque costituire un fondo riservato al risarcimento di queste tipologie di danni. È già successo, ad esempio, per i danni cagionati dall’utilizzo abusivo delle carte di credito.

Il punto è che neppure l’attribuzione della soggettività all’applicazione di intelligenza artificiale risolve il problema più complesso: quello di individuazione dei criteri di allocazione della responsabilità. Questo, infatti, sembra essere il vero nodo della questione.

Individuare di chi è la responsabilità

Se l’Ai agisce in modo non prevedibile a priori, neanche dal produttore, non possiamo utilizzare i criteri tradizionali della colpa, della negligenza, del dolo, che sono criteri soggettivi. Occorre passare a un metodo di responsabilità oggettiva che non ricerchi la colpa o l’errore, il che in taluni casi è impraticabile e non porta a risultati concreti, stante la difficoltà o l’impossibilità dell’operazione, sotto il profilo tecnologico.

Occorre, invece, individuare un sistema di allocazione della responsabilità, secondo un criterio di massima efficienza per la società. Anche in questo caso, non è un esercizio del tutto nuovo, e Guido Calabresi 50 anni fa si interrogava proprio su un tema non dissimile: quello della responsabilità da incidenti nella circolazione stradale. In attesa di un nuovo modello giuridico e quindi di una nuova normativa su questo punto – e si tratta di una delle poche nuove leggi veramente necessarie in ambito digitale – guardiamo al panorama attuale.

Come funziona in Europa

In Europa, la trattazione del tema è stata sostanzialmente rinviata. Nella proposta di regolamento sull’Ai (Ai Act) vi è soltanto l’indicazione che il fornitore di un sistema di Ai ad alto rischio è chiamato a garantire che il sistema sia conforme a determinati requisiti che ne consentano la certificazione.

La proposta di “direttiva relativa all’adeguamento delle norme in materia di responsabilità civile extracontrattuale all’intelligenza artificiale” (AI Liability Directive) pubblicata il 28 settembre 2022 segue un approccio di armonizzazione minima, limitandosi ad armonizzare solo le norme in materia di responsabilità per colpa che disciplinano l’onere della prova a carico di coloro che chiedono il risarcimento del danno causato da sistemi di Ai.

Cosa succede nel nostro Paese

Se si applica la normativa vigente in Italia si approda, in molti casi, alla responsabilità del produttore. Altri strumenti di tutela, strettamente collegati alla protezione dei dati personali, sono previsti già dal Gdpr, come il diritto di accesso, il diritto di cancellazione dei dati, il diritto alla portabilità. Dunque, per tornare alle domande iniziali, in caso di allucinazioni dell’Ai, non si potrà sostenere la sua incapacità. E comunque, per il momento, in attesa di modelli normativi più adeguati e calzanti, all’interrogativo, “chi paga?”, si risponderà con le vecchie regole della responsabilità civile. Bisognerà dunque, provare il danno e il nesso causale. Il giurista si ferma qui.

Se allarghiamo lo sguardo però, chi pagherà per i danni cagionati dalla falsa conoscenza? E riformulando la domanda con un approccio costruttivo, come la nostra società potrà garantire la qualità della conoscenza?

Riproduzione riservata ©

loading...

Loading...

Brand connect

Loading...

Newsletter

Notizie e approfondimenti sugli avvenimenti politici, economici e finanziari.

Iscriviti