intelligenza artificiale

Studiare gli algoritmi con le scienze sociali: le «black box» spiegate bene

Serve cultura del dato ma per capire come funzionano i sistemi del deep learning occorre una narrazione di simboli e numeri in grado di fare dialogare i manager con l’Ai

di Luca Tremolada


default onloading pic

3' di lettura

È lo spirito dei tempi. In questi anni abbiamo visto diffondersi algoritmi sempre più opachi, creati dal deep learning, per inferire di tutto e di più, dai tratti intimi delle persone al rischio creditizio, dalle condizioni di salute alla propensione al crimine. Parliamo delle famigerate black box, scatole nere che osservando le caratteristiche degli utenti pronosticano una classe, un giudizio, un voto e suggeriscono decisioni. Tutto questo senza spiegare come sono arrivate a quel consiglio o a quella conclusione. Sono inperscrutabili by default e non per cattiva fede. Le grandi piattaforme digitali che oggi controllano il mercato dell'intelligenza artificiale non forniscono alle aziende dei tool per guardare dentro al funzionamento degli algoritmi. A volte ci provano fornendo tool specifici che monitorano questi sistemi complessi. Ma i risultati non sono soddisfacenti: spesso l’algoritmo si è talmento evoluto grazie all’addestramento con i dati da sfuggire alle regole dei loro padri.

LEGGI ANCHE / Fenomologia del calcolo

Con sempre più convinzione il mondo accademico e della ricerca, sopratutto quello europeo, che sembra meno dipendente dall’influenza delle multinazionali del’’Ai (Google, Ibm, Facebook ecc) sostene il diritto alla spiegazione. Un gruppo di ricercatori Usa ha però iniziato a proporre un pensiero laterale affermando che in fondo non abbiamo bisogno di leggi per penetrare queste scatole nere per capire, e quindi controllare, il loro effetto sulle nostre vite. «Abbiamo sviluppato metodi scientifici per studiare scatole nere per centinaia di anni, ma questi metodi sono stati principalmente applicati a esseri viventi fino a questo punto», ha spiegato alla Mit Technologu Review Nick Obradovich, ricercatore del Media Lab e co-autore di un nuovo studio pubblicato la scorsa settimana su Nature. «Possiamo sfruttare gli stessi strumenti delle scienze sociali per studiare i nuovi sistemi AI». Gli autori del documento, propongono di creare una nuova disciplina accademica chiamata “machine behavior” per studiare i sistemi di intelligenza artificiale attraverso l'osservazione empirica e la sperimentazione.

«Diciamo che è il medesimo problema affrontato da un altro punto di vista-commenta Fosca Giannotti, ricercatrice del Cnr di Pisa - ma è certamente vero che gli algoritmi istruiti dai dati raggiungono una tale complessità che sfugge ai creatori. In alcuni casi anche se venissero aperte le black box non capiremmo nulla».

Ad oggi ci sono tre approcci: equipaggiare questi sistemi complessi con strumenti che spieghino il loro comportamento; progettare queste scatole per essere trasparenti con logiche di “etihics by design”; osservarli e interrogarli, come avviene negli stress test che si usano nel campo della cybersecurity. «Molti ricercatori studiano il contesto in cui opera questi software, analizzano come rispondono alle domande per ricostruire a posteriori la logica di funzionamento». Ma potrebbe non bastare. Secondo la ricercatrice che è anche coordinatrice del progetto SoBigData serve una narrativa dell’algoritmo. «Il tentativo è quello di rappresentare quello che accade dentro la scatola nera in modo comprensibile».

LEGGI ANCHE / Cancellarsi dai social e proteggersi dalle manipolazioni

La premessa è che se vogliamo progettare dei sistemi che parlino con gli umani dobbiamo lavorare in funzione di uno scambio reciproco di conoscenza. Il medico che usa l’Ai per le sue ricerche e per formulare diagnosi deve sapere come e perché il sistema gli fornisce quella specifica risposta. Deve esserci per chi si affida a questi sistemi un diritto alla spiegazione. Nella Gdpr, normativa europea di trattamento dei dati entrata in vigore a maggio,questo diritto c’è ma finora non è mai stato impugnato.Uno dei motivi per cui non ci sono aziende o cittadini che hanno chiesto di aprire le scatole nere è legato alla mancanza di decisioni autonome. «Occorrerà aspettare qualche anno come è avvenuto nel 1995 quando è arrivata la normativa sulla privacy. Le tencologie di anomizzazione ci hanno messo un paio di anni a prendere piede. Oggi le aziende non si affidano ancora esclusivamente all’Ai per le proprie decisioni strategiche ma usano questi tool come strumento di aiuto agli umani». Forse l’approccio più corretto ma non sposta di un millimetro l’urgenza di un diritto alla spiegazione.

@lucatremolada

Brand connect

Loading...

Newsletter

Notizie e approfondimenti sugli avvenimenti politici, economici e finanziari.

Iscriviti
Loading...