Commenti

La legge è uguale per tutti. Anche per i robot?

global view

La legge è uguale per tutti. Anche per i robot?

Una scena dal film «I robots» con Will Smith
Una scena dal film «I robots» con Will Smith

«Maximum Overdrive» è entrato nella leggenda del cinema come uno dei peggiori film mai realizzati. Opera di fantascienza, horror e commedia proposta nel 1986, immaginava un mondo in cui oggetti inanimati - tra cui bulldozer, motoseghe e asciugacapelli elettrici - prendevano vita e cominciavano a massacrare persone. Anche Stephen King, l’autore di bestseller che lo ha scritto e diretto, lo ha definito come un “film idiota”. Ma la vita reale si avvicinò tragicamente alla finzione durante le riprese di “Maximum Overdrive”, quando un tosaerba radiocomandato irruppe nel set e ferì gravemente il direttore della fotografia, che perse un occhio. Costui citò in giudizio King e altre 17 persone per 18 milioni di dollari per pratiche lavorative non sicure, prima di arrivare a una composizione extragiudiziale della controversia.

Per certi versi, la storia di questo film esemplifica gran parte del dibattito popolare sull’automazione, i robot e l’intelligenza artificiale. Mentre sembriamo farci prendere dal panico per la minaccia esistenziale che tali tecnologie possono rappresentare per l’umanità in un futuro lontano, rischiamo di trascurare alcune delle preoccupazioni più immediate su come gestire le nostre creazioni meccaniche.

Chi dovrebbe assumersi la responsabilità morale, etica e legale per le azioni di robot sempre più onnipresenti? Dovrebbero farlo i produttori, i programmatori o gli utenti? A lungo andare, quando acquisiranno maggiori poteri di conoscenza e forse di consapevolezza, dovrebbero farlo anche i robot stessi?

Nel suo prossimo libro “Android Dreams”, Toby Walsh, professore di intelligenza artificiale all’ Università del Nuovo Galles del Sud in Australia, sostiene che lo sviluppo di macchine pensanti è una delle avventure più audaci e ambiziose che l’umanità abbia mai tentato. «Come la rivoluzione copernicana - scrive - cambierà radicalmente il modo in cui ci vediamo nell’universo».

“Robotica e intelligenza artificiale stanno sconvolgendo l’industria e sollevando interrogativi su chi si assume la responsabilità morale e legale delle nostre creazioni meccaniche”

 

Tali questioni stanno diventando sempre più urgenti a causa dell’esplosiva crescita del numero di droni, auto senza conducente e robot medici, educativi e domestici che si diffondono nei nostri cieli, lungo le nostre strade e all’interno delle nostre case. Mentre promette di migliorare la condizione umana, questa rivoluzione robotizzata minaccia anche di scatenare una forza economica dirompente.

Ryan Calo, professore di legge presso l’Università di Washington, dice che tendiamo a parlare di robot come se fossero una tecnologia futura, ignorando il fatto che abbiamo già vissuto con loro per diversi decenni. «Se si vuole guardare al futuro dagli anni 20, 40, 80 o nel 2017 – osserva - si pensa ai robot. Ma la realtà è che i robot sono presenti nelle nostre società fin dagli anni 50 », dice.

In un documento intitolato “Robots in American Law”, Calo ha studiato nove casi giuridici negli ultimi sei decenni che coinvolgono i robot e ha scoperto che gran parte del ragionamento giudiziario si basava su vedute tecnologiche di basso profilo, spesso superate. «I robot – è stata la sua conclusione - cominciano a porre nei tribunali sfide legali inedite che i giudici non sono in una posizione adeguata per affrontare».

I casi riguardavano principalmente questioni di questo tipo: se i robot potessero essere considerati surrogati delle persone; se dovessero essere considerati “animati” ai fini delle tariffe d’importazione; se potessero “esibirsi” come intrattenitori in una sala da concerto; se un sottomarino robot senza equipaggio potesse “possedere” un relitto nel contesto dei diritti scaturenti da un’azione di recupero.

“I giudici hanno una visione anacronistica dei robot come semplici macchine programmabili prive di discrezionalità. Ma l’evoluzione del loro comportamento può far emergere risposte imprevedibili. Di nuovo: chi sarà responsabile?”

 

Calo ha scoperto che i giudici avevano una concezione molto forte dei robot come strumenti programmabili o macchine prive di discrezionalità. Quella visione appare sempre più anacronistica, in quanto le macchine assumono forme incarnate, a volte umanoidi, e dimostrano ciò che la robotica chiama “comportamento emergente”. «L’emergenza è una proprietà in base alla quale i robot si comporteranno in modi che il sistema non può anticipare - dice Calo -. Non è l’autonomia nel senso filosofico del termine. Ma solleva la prospettiva di avere vittime senza colpevoli ».

Ad esempio, alcuni algoritmi di trading ad alta velocità stanno “imparando” dai modelli dei mercati finanziari e rispondono in modi che i loro creatori non possono prevedere, forse nemmeno capire. Le auto senza conducente vengono sviluppate per rispondere agli eventi in tempo reale (almeno così si spera), piuttosto che pre-programmate per anticipare ogni situazione sulla strada.

Questo mese, 116 fondatori di aziende di robotica e intelligenza artificiale hanno firmato una petizione chiedendo la messa al bando assoluta dei robot killer - noti come sistemi autonomi di armi letali o “Laws” (lethal autonomous weapons systems). L’uso di tali sistemi di armi ha attraversato moralmente una linea rossa, sostengono. Solo agli esseri umani dovrebbe essere consentito di uccidere gli esseri umani.

«Non dobbiamo perdere di vista il fatto che, a differenza di altre potenziali manifestazioni dell’intelligenza artificiale che rimangono ancora nel regno della fantascienza, i sistemi d’arma autonomi sono il fronte avanzato dello sviluppo in questo momento - dice Ryan Gariepy, fondatore della Clearpath Robotics di Ontario -. Lo sviluppo di sistemi autonomi di armi letali è poco saggio, non etico e dovrebbe essere vietato su scala internazionale».

Tuttavia, tracciare linee nette tra gli esseri umani e i robot in questo mondo in rapida evoluzione è difficile. Le più recenti tecnologie stanno offuscando la linea tra persone e strumenti, rendendo i robot “agentic” (si comportano come agenti umani senza assumere la responsabilità per le loro azioni o per le loro conseguenze, NdT), se non necessariamente agenti in senso stretto. Anche se i robot odierni non riuscirebbero a superare il test legale della “mens rea” (l’intenzione di commettere un reato), appaiono comunque “responsabili” delle loro azioni nel senso vero della parola.

L’interazione tra androidi e umani
Un secondo grande sviluppo nella robotica, che confonde ulteriormente il quadro, è l’incarnazione dell’intelligenza artificiale nella forma fisica, a volte umanoide, di macchine progettate per interagire direttamente con le persone.
Henny Admoni, professore assistente presso l’Istituto di Robotica della Carnegie Mellon University, afferma che storicamente la maggior parte dei robot ha operato separatamente dagli esseri umani, svolgendo lavori monotoni, sporchi e pericolosi soprattutto in ambienti industriali. Tutto questo sta ora cambiando velocemente con l’arrivo di chat bot, droni e robot domestici. «Negli ultimi 10 anni abbiamo assistito ad un aumento di robot destinati ad entrare direttamente in contatto con le persone», dice la ricercatrice.

Ciò ha stimolato un nuovo campo accademico in rapida evoluzione conosciuto come “interazione uomo-robot” o “HRI”. I dipartimenti di robotica di università e aziende hanno assunto sociologi, antropologi, avvocati, filosofi ed esperti di etica per acquisire informazioni su come queste interazioni dovrebbero evolvere.

«In senso giuridico e morale, i robot sono macchine programmate dalle persone e progettate da queste ultime - afferma la professoressa Admoni -. Ma vogliamo che i robot agiscano autonomamente. Vogliamo robot in grado di gestire nuove situazioni. L’etica è un’aggiunta molto recente alla conversazione perché i robot possono ora realizzare cose in modo indipendente».

Alcuni dei robot umanoidi più sorprendenti sono stati costruiti da David Hanson, fondatore della Hanson Robotics di Hong Kong. La sua creazione più conosciuta è Sophia, un robot incredibilmente realistico che è apparso in tv in aprile al “The Tonight Show” di Jimmy Fallon.

Hanson sostiene che i sistemi di intelligenza artificiale stanno diventando sempre più efficaci nel comprendere la comunicazione verbale grazie alle tecnologie di elaborazione del linguaggio naturale. Ma aggiunge che i robot dovrebbero anche imparare le modalità di comunicazione non verbali, come le espressioni facciali e i gesti della mano. Ne abbiamo bisogno anche per capire i comportamenti, le culture e i valori umani. Il modo migliore per farlo è quello di permettere ai robot di imparare, come fanno i bambini, a vivere e interagire con gli esseri umani.

Sviluppando “algoritmi intelligenti biologicamente ispirati” e permettendo loro di assorbire una grande ricchezza di dati sociali, attraverso sensori sofisticati, secondo Hanson possiamo creare robot più intelligenti e veloci. Questo porterà inesorabilmente al punto in cui la tecnologia sarà «letteralmente viva, autosufficiente, emergente, sentimento e consapevolezza». E aggiunge: «Voglio che i robot imparino ad amare e che cosa significhi essere amati, non solo amare in un significato ridotto. Sì, vogliamo robot capaci di amicizia e amore familiare, di questo tipo di legami. Vogliamo però che anche i robot amino in senso più ampio, nel senso del termine greco “agape”, che significa amore superiore, imparino a valorizzare l’informazione, le relazioni sociali, l’umanità».

Hanson sostiene che un cambiamento profondo avverrà quando le macchine cominceranno a comprendere le conseguenze delle loro azioni e a inventare soluzioni alle sfide quotidiane: «Quando le macchine ragionano in questo modo, allora possono iniziare a compiere atti di immaginazione morale. E questo è un po’ speculativo, ma credo che stia entrando nella nostra vita».

Se si possono veramente creare tali “macchine morali”, allora ciò solleva tutta una nuova serie di domande e sfide. Il robot o il suo proprietario posseggono i diritti sui suoi dati? Si potrebbe dire che i robot hanno una loro identità legale? Come sostiene Hanson, dovrebbero essere in grado di guadagnare diritti?

Cognizione e consapevolezza
Hanson si trova ai margini del dibattito sui robot e le sue idee sembrano oggi pura fantasia, ma vi sono buone ragioni per cominciare a concentrarsi su tali questioni. Per diversi motivi legali, a tutte le società statunitensi e ad alcuni fiumi sacri indiani è già stato concesso lo status di persona. Il Regno Unito ha inoltre concesso una protezione giuridica supplementare a un invertebrato, il polpo, perché ha una maggiore sensibilità. I robot futuri saranno così diversi?

Murray Shanahan , professore di robotica cognitiva all’Imperial College di Londra e ricercatore senior presso Google DeepMind, dice che abbiamo già raggiunto il punto in cui dovremmo assumerci la responsabilità di alcune delle nostre creazioni meccaniche, proprio come facciamo per le grandi opere d’ arte. «Abbiamo la responsabilità morale di non distruggere la Gioconda – dice - perché è un notevole artefatto, così come un archivio o qualsiasi altro oggetto che assorba in sé un immenso patrimonio emotivo».

Shanahan sostiene, tuttavia, che ci sono grandi pericoli nei sistemi antropomorfizzanti di intelligenza se ciò porta a fraintendimenti e incomprensioni della tecnologia sottostante. I produttori non dovrebbero cercare di ingannare gli utenti inducendoli a credere che i robot abbiano più capacità di quelle possedute. «La gente - dice - non dovrebbe essere spinta a credere che i robot siano più intelligenti di quanto non lo siano effettivamente».

In particolare, Shanahan ritiene che sia importante distinguere tra cognizione e coscienza nel determinare le nostre responsabilità nei confronti delle macchine: «Al momento penso che sia del tutto inopportuno parlare di diritti dei robot. Non abbiamo alcuna responsabilità morale al riguardo. Ma non sto dicendo che non sarà mai opportuno. Sono d’accordo che i robot potrebbero un giorno avere una coscienza. Ma prima avrebbero dovuto avere la capacità di giocare, di costruire le cose e prendere un biscotto al cioccolato da un vaso su uno scaffale».

Per il momento, pochi politici sembrano interessati a tali dibattiti. Ma un movimento di base di accademici e imprenditori sta spingendo questi temi più in alto nell’agenda.

Negli Stati Uniti, alcuni accademici, come Calo, hanno sostenuto la necessità di istituire una commissione federale di robotica per esaminare le questioni morali e giuridiche relative all’uso delle macchine intelligenti. Calo dice che questa idea sta cominciando a guadagnare un po’ di spinta in seno al Congresso, se non nell’amministrazione Trump.

Quest’anno i membri del Parlamento europeo hanno approvato una risoluzione in cui invitano la Commissione europea a istituire un’agenzia analoga di esperti per la robotica e l’intelligenza artificiale e a elaborare norme a livello europeo. In particolare, gli eurodeputati hanno esortato la Commissione a concentrarsi sulle questioni relative alla sicurezza e alla privacy e a considerare la possibilità di dare ai robot una forma di “personalità elettronica”.

Negli Usa, anche alcuni potenti imprenditori della West Coast sembrano intenzionati ad alimentare un dibattito. Questo mese, Elon Musk, l’imprenditore tecnologico padre di Tesla Motors e SpaceX, che ha appoggiato il divieto dei sistemi autonomi di armi letali, ha chiesto una regolamentazione più ampia. «A nessuno - ha twittato Musk - piace essere regolato, ma tutto ciò che costituisce un pericolo per il pubblico (autovetture, aerei, cibo, droghe, ecc.) è regolamentato. Anche l’intelligenza artificiale dovrebbe esserlo» .

Copyright The Financial Times 2017

© Riproduzione riservata