Intelligenza artificiale

Dialogo e confronto per scrivere algoritmi più responsabili

di Elena Beccalli

(Adobe Stock)

3' di lettura

L’intelligenza artificiale (Ia) trova un elevato potenziale di applicazione anche in ambito finanziario, dove sta già innovando radicalmente lo sviluppo di strategie di investimento. Nei modelli quantitativi tradizionali, la definizione della composizione ottimale del portafoglio è caratterizzata da un’implementazione statica che di per sé non è in grado di adattarsi ai cambiamenti di mercato. L’innovazione introdotta dai modelli di intelligenza artificiale consiste nell’aggiornamento dinamico della composizione ottimale del portafoglio sulla base delle nuove informazioni di mercato via via disponibili, dando origine alla cosiddetta gestione adattiva del portafoglio basata su tecniche di apprendimento automatico.

Nella gestione del portafoglio basata sull’intelligenza artificiale, gli esseri umani e le macchine hanno ruoli interconnessi: gli sviluppatori di algoritmi (o data scientist) non solo costruiscono una strategia di investimento, ma progettano e implementano un algoritmo che la aggiorna continuamente e in maniera adattiva con implicazioni dirette sulle scelte di investimento. Cosa succede se tali scelte provocano gravi perdite o allocazioni eticamente stigmatizzabili? Chi ne è responsabile, l’uomo o la macchina? Il tema della responsabilità uomo-macchina si impone all’attenzione con la crescente diffusione dell’Ia. Ecco perché, per dirlo con le parole di Papa Francesco,«il rapporto tra l’apporto umano e il calcolo automatico va studiato bene perché non sempre è facile prevederne gli effetti e definirne le responsabilità». Gli studi recenti in materia prestano particolare attenzione al tema della cosiddetta h uman/machine accountability, ossia l’attribuzione della responsabilità all’uomo piuttosto che alla macchina. Intuitivamente sembra inevitabile assegnare la responsabilità agli esseri umani, anche quando gli algoritmi sviluppano capacità di apprendimento.

Loading...

In alcuni contesti l’attribuzione della responsabilità agli esseri umani può avvenire coinvolgendo l’utente finale, con una sua partecipazione attiva e consapevole alle decisioni e azioni dell’algoritmo, come ad esempio – prendendo un caso lontano dalla finanza – i sistemi di guida automatica assistita da un co-pilota umano. A volte però, come nel caso delle strategie di investimento, gli algoritmi di intelligenza artificiale sono “imperscrutabili”, cioè assumono decisioni complesse sulla base di un’elevata mole di informazioni e con sofisticate tecniche di analisi tali da rendere impossibile o inefficiente una ricostruzione analitica del processo decisionale e una partecipazione dell’utente finale. In tali casi la responsabilità non può che essere fatta risalire fino agli sviluppatori, anche per scelte non direttamente effettuate da loro.

Lo snodo centrale, dunque, riguarda il modo in cui gli sviluppatori possono essere resi responsabili, ovvero la cosiddetta attribuzione di responsabilità che non può limitarsi alla costruzione dell’algoritmo oggi, ma che deve spingersi alle sue future capacità di apprendimento e alle decisioni che ne deriveranno. Studi empirici cui ho contribuito di recente, basati su analisi di esperienze di un’azienda fintech che sviluppa strategie di investimento mediante intelligenza artificiale, mostrano che per rendere responsabili gli sviluppatori di algoritmi le organizzazioni adottano diverse risposte manageriali e organizzative in termini di ridefinizione delle relazioni lavorative sulla base di gruppi di lavoro, attuazione di livelli distribuiti di responsabilità, costruzione di sistemi di incentivi di natura non solo economica per gli sviluppatori (in termini di contenuto del lavoro, soddisfazione lavorativa e condivisione valoriale) e introduzione di sistemi di controllo di gestione.

In tali contesti, l’archetipo dell’attribuzione gerarchica mostra i suoi limiti a vantaggio della nozione di social accountability, ossia un processo di attribuzione della responsabilità di natura sociale e relazionale. Un allineamento continuo tra i membri del gruppo di lavoro è fondamentale poiché algoritmi complessi richiedono la calibrazione in tempo reale attraverso il dialogo e il confronto tra persone con competenze diverse. L’allineamento è garantito da fiducia, collaborazione e autonomia, con gli sviluppatori che emergono come agenti responsabili. I sistemi di rendicontazione non sono soltanto uno strumento di misura e controllo, ma costituiscono un fattore da cui scaturisce un discorso interpersonale continuo.

L’avanzamento tecnologico alla base dell’intelligenza artificiale deve dunque andare di pari passo con l’adozione e diffusione di nuovi modelli manageriali e organizzativi; l’applicazione dell’intelligenza artificiale richiede cioè di essere studiata e governata per evitare i pericolosi effetti che potrebbero derivare da un’adozione acritica spinta dalle innegabili potenzialità della stessa.

Riproduzione riservata ©

loading...

Brand connect

Loading...

Newsletter

Notizie e approfondimenti sugli avvenimenti politici, economici e finanziari.

Iscriviti