sbagliando si impara

Roboetica, aziende e... la lungimiranza di Isaac Asimov

di Veronica Giovale *


default onloading pic
(AP)

3' di lettura

Era la primavera del 2007 e stavo per discutere la mia tesi di laurea triennale il cui titolo recitava: «Il dibattito sulla Roboetica: perché la Filosofia dovrebbe occuparsene?». Filosofia della mente, Filosofia della scienza, Logica, Bioetica, Storia del pensiero scientifico ed Etica della comunicazione erano state foriere, direttamente o indirettamente, della riflessione sul rapporto tra tecnologia e essere umano. Ritenevo, e lo ritengo ancora oggi, che la robotica e le sue declinazioni fossero uno strumento imprescindibile di progresso (previa definizione di progresso) ma che avrebbero sicuramente generato problemi e interrogativi riservati sino a quel momento alla fantascienza.

Il termine robotica è stato coniato nel 1942 dallo scienziato e scrittore di fantascienza Isaac Asimov. Immaginandosi un mondo in cui i robot fossero creature autonome, intelligenti e con capacità pari o superiori agli esseri umani, due anni prima, elaborò le Tre Leggi della Robotica, volte a tutelare il rapporto uomo-macchina. Queste leggi si trovano nell’antologia intitolata “Io, Robot”. Successivamente Asimov sentì la necessità di aggiungerne una quarta, che definì “Legge Zero”: «un robot non può recare danno all’umanità, né permettere che, a causa del suo mancato intervento, l’umanità subisca danni».

Prima Legge: un robot non può recare danno agli esseri umani, né permettere che, a causa del suo mancato intervento, gli esseri umani subiscano danni, a meno che ciò non violi la legge Zero della Robotica. Seconda Legge: un robot deve obbedire agli ordini impartiti dagli esseri umani, a meno che tali ordini siano in conflitto con la Legge Zero o con la Prima Legge. Terza Legge: un robot deve tutelare la propria esistenza, fin tanto che questo non sia in conflitto con la Legge Zero, con la Prima Legge o con la Seconda Legge.

È interessante notare come le prime Tre Leggi di Asimov mirino a limitare l’azione dei robot verso gli esseri umani, mentre nella Legge Zero si afferma che un robot non può recare danno all’umanità. Questo sottile ma sostanziale passaggio indica, probabilmente, come Asimov avesse già percepito l’importanza di tutelare gli esseri umani dai robot in un senso universalistico. In questi ultimi anni lo scenario uomo-robot e, più in generale, uomo-tecnologia si è maggiormente definito diventando sempre più complesso. Oggi è in atto una nuova rivoluzione industriale. L’interdipendenza e la dipendenza della società e delle organizzazioni dalle tecnologie hanno rimodellato i confini tradizionali di apprendimento e di interazione, dando vita a nuovi processi produttivi che, a loro volta, hanno stimolato nuovi modelli di consumo.

Le imprese più curiose e innovative hanno abbracciato la Digital Trasformation, altre invece la stanno rincorrendo o interpretando in maniera goffa. Tutte le aziende che vogliono continuare a competere fanno i conti con questa rivoluzione, che corre a velocità esponenziale, si presenta con confini labili e dà vita a scenari imprevedibili. Parole come Intelligenza Artificiale (IA), Big Data, Internet of Things (IoT), Blockchain, Cyber-Security ecc. diventano le protagoniste di questo periodo storico. Tra scandali e opportunità di business è sempre più noto l’utilizzo dei Big Data da parte delle aziende per raggiungere e soddisfare i propri clienti, offrendo una customer experience innovativa. L’IA viene utilizzata sempre più dalla funzione HR, ad esempio, nei colloqui di selezione e così via.

Tutte queste tecnologie, interazioni e relazioni hanno dato vita ad uno scenario altamente complesso dove sono richieste nuove competenze, un approccio multidisciplinare e una responsabilità crescente nei confronti delle persone e del pianeta. Ecco come la Roboetica può diventare una competenza etica da sviluppare all’interno delle aziende e nella società. Essa si definisce, diversamente da quello che potrebbe pensare un fedele lettore di Asimov, non come etica dei robot bensì come etica applicata dei produttori di robot. Tale termine è stato coniato nel 2002 da Gianmarco Veruggio, uno scienziato robotico sperimentale, che la qualifica come un’etica applicata il cui scopo è sviluppare strumenti scientifici, culturali e tecnici che siano universalmente condivisi, indipendentemente dalle differenze culturali, sociali e religiose.

Questi strumenti potranno promuovere e incoraggiare lo sviluppo della robotica verso il benessere della società e della persona. Inoltre, grazie alla roboetica, si potrà prevenire l’impiego della robotica contro gli esseri umani. Se l’evoluzione ci ha insegnato che non sopravvivono le specie più forti bensì quelle più sensibili al cambiamento, è giunto il momento di cambiare.

* Partner Newton S.p.A.

Newsletter

Notizie e approfondimenti sugli avvenimenti politici, economici e finanziari.

Iscriviti