SBAGLIANDO SI IMPARA

Prevedere non significa decidere, la differenza è nella consapevolezza

L’intelligenza artificiale scopre relazioni tra cose, ma a differenza degli esseri umani non è consapevole di ciò che sta scoprendo

di Alessandro Cravera *

(REUTERS)

4' di lettura

Nel 1996 Deep Blu batteva Garry Kasparov, il campione del mondo di scacchi. Per la prima volta l’intelligenza artificiale superava quella umana. Vent’anni dopo AlphaGo batteva Lee Se-dol, il campione del mondo di GO, un gioco ben più complesso degli scacchi. Oggi Deep Patient, un genere di intelligenza artificiale chiamata deep learning, è in grado di diagnosticare la probabilità che determinati pazienti sviluppino particolari malattie in maniera più accurata dei medici che li hanno in cura, riconoscendo in alcuni casi malattie che sfuggono a ogni previsione.

La capacità di elaborazione negli ultimi 20 anni ha fatto passi da gigante. Negli Anni 40 l’ENIAC (Electronic Numerical Integrator and Computer) impiegava ventiquattr’ore per prevedere il tempo del giorno successivo. Oggi siamo in grado di monitorare centinaia di variabili per le previsioni del tempo e dei cambiamenti a lungo termine del clima.Questi indubbi successi facilitano enormemente la nostra vita, ci consentono di fare previsioni del futuro prima del tutto impossibili e forniscono informazioni fondamentali per la presa di decisioni in moltissimi ambiti, da quello aziendale, a quello politico e medico.

Loading...

Tali successi portano però anche a un rischio, talvolta sottovalutato: quello di confondere il concetto di previsione con quello di decisione. I concetti di previsione e decisione possono coincidere solo all’interno di contesti ordinati, in cui si conoscono le relazioni input-output, esiste un best way per raggiungere un risultato ed è quindi possibile usare la potenza di calcolo della tecnologia per trovare schemi e modelli di azione ottimali. In contesti non ordinati, dove le relazioni tra le variabili che li compongono non sono lineari e non esiste a priori una soluzione ottimale da individuare, la previsione dell’IA non può essere assimilabile a una decisione. Questi ambiti sono caratterizzati da continui fenomeni emergenti non spiegabili dalle caratteristiche delle singole variabili ma dalla complessità delle loro interazioni, e da numerosi trade-off di obiettivi ed esigenze differenti.

Per muoverci efficacemente in questi contesti abbiamo bisogno di un aspetto che l’intelligenza artificiale, pur con tutta la sua potenza di calcolo non è ancora riuscita (e forse non riuscirà mai) a imitare: il giudizio soggettivo dell’essere umano. Il giudizio è la capacità di prendere decisioni ponderate e quindi comprendere l’impatto che le diverse azioni avranno su diversi obiettivi correlati tra loro in forma di trade-off. Come sottolinea Massimo Chiriatti nel suo libro Incoscienza Artificiale, “per l’uomo, il bit che può decidere lo scatenarsi di una guerra atomica non ha la stessa valenza dell’ultimo bit significativo di un numero, che non vale pressoché niente”.

Ciò che differenzia la previsione e le decisioni è pertanto la consapevolezza, ovvero quello che sentiamo mentre stiamo pensando e agendo. Nonostante l’evocativo termine “deep learning”, l’apprendimento artificiale non è affatto paragonabile a quello umano. Una macchina apprende attraverso l’inferenza statistica. Prende in esame coppie di dati in cui la relazione input-output è nota e, attraverso la sua capacità di calcolo, riesce a estrarre conoscenza dal particolare (le coppie di dati) al generale. Di fatto l’intelligenza artificiale scopre relazioni tra cose ma non è consapevole di ciò che sta scoprendo.

L’uso massivo della tecnologia ha progressivamente eroso la nostra tolleranza all’incertezza. Oggi diamo per scontato avere tutte le informazioni che ci servono per decidere cosa fare nel quotidiano. Disponiamo di sistemi GPS che ci indicano la strada, sistemi di controllo dell’auto che ci avvertono quando siamo troppo vicini agli altri veicoli, recensioni che ci guidano nella scelta degli hotel dove soggiornare e dei ristoranti dove cenare, e app che ci permettono di prenotare un weekend lungo con le migliori condizioni metereologiche.

Assuefatti a queste previsioni derivanti dall’uso della tecnologia, rischiamo di non tollerare l’incertezza e affidarci eccessivamente ad essa, sottovalutando il contributo determinante del giudizio umano. Il termine “robot” deriva da robota, vocabolo slavo che significa “servo”. Non riconoscere i limiti dell’'intelligenza artificiale può renderci a nostra volta “robot” e quindi schiavi della tecnologia che abbiamo creato, considerandola più intelligente di quanto realmente sia. Riusciremo a evitarlo se svilupperemo la consapevolezza che previsione e decisione, soprattutto nei contesti non ordinati, sono due aspetti differenti e se eviteremo di abbassare i nostri standard cognitivi. È accettabile, ad esempio, che oggi non si abbia la stessa facilità di calcolo a mente che si aveva un tempo. Ciò che non è accettabile è che non si investa nelle capacità umane connesse alla contestualizzazione.

Ogni decisione nasce infatti in un determinato contesto. Raramente le decisioni hanno una portata universale e generica. Più frequentemente, si inseriscono in un reticolo di trade-off tra esigenze diverse, obiettivi in conflitto tra loro ma ugualmente importanti, condizioni storiche e dinamiche sociali e relazionali particolari e uniche. L’intelligenza artificiale può continuare a darci una mano e fornirci alcune risposte in maniera più rapida e accurata. Sta a noi però apprendere a farci le giuste domande per capire come muoverci in un contesto complesso come quello attuale.

* Partner Newton SpA


Riproduzione riservata ©

Brand connect

Loading...

Newsletter

Notizie e approfondimenti sugli avvenimenti politici, economici e finanziari.

Iscriviti