Scienza

Il volto sessista dell’algoritmo

di Fr.Ce.

2' di lettura

Accade ancora, nel 21esimo secolo, che un docente universitario esordisca di fronte a un'intera platea con la frase «La fisica? Non è donna». Il recente caso di Alessandro Strumia, docente all'Università di Pisa e ricercatore - ora sospeso - del Cern conferma che il percorso di ricerca intrapreso da anni da Londa Schiebinger, professore di Storia della scienza alla Stanford University e a capo del progetto Gendered innovations in Science, health and medicine, engineering and environment, finanziato dalla Commissione europea, dalla Nsf (National science foundation) e dall'Università di Stanford, non solo è necessario, ma deve continuare. Perchè le discriminazioni possono nascondersi e perpetuarsi anche in contesti singolari come le nuove tecnologie, la robotica, la salute e la medicina, nei quali l'analisi di genere e sesso ha un forte impatto. Pensiamo per esempio a un programma di machine-learning: se i dati forniti contengono dei pregiudizi culturali, etnici o di genere, il programma non farà altro che rifletterli nel suo comportamento, tramandandoli nel futuro e addirittura amplificandoli. Un paio di esempi riportati nello studio che la Schiebinger ha pubblicato su Nature lo scorso luglio - e intitolato “L'intelligenza artificiale può essere sessista e razzista: è ora di renderla equa” - mettono in risalto l'importanza di questo “pregiudizio inconscio”. Il primo: i sistemi di riconoscimento facciale già in commercio quando hanno a che fare con donne di colore sbagliano spesso (35% delle volte) nel riconoscere il genere, rispetto a quando le donne sono di carnagione chiara (0,8%), una distorsione che può avere gravi conseguenze per esempio nella dignostica basata sull'Ai per il riconoscimento dei tumori cutanei, in quanto i big data sono tarati sull’archetipo di uomo bianco occidentale. Lo stesso dicasi per il progetto Genoma, che contiene informazioni relative al Dna della popolazione occidentale, che rappresenta solo il 4% del totale. E in una società che progressivamente è sempre più dipendente dai sistemi di automazione, i pregiudizi di genere e razza limitano di molto la nostra comprensione.«I programmi di intelligenza artificiale vengono alimentate con i big data che la nostra società produce. Questi dati, e i programmi costruiti attorno ad essi, altro non sono che lo specchio delle nostre inclinazioni. E prima di correggere i software forse dovremmo pensare a correggere alcune nostre, a volte inconsapevoli, tendenze a considerare l’uomo bianco, occidentale e civilizzato, l'archetipico modello di un'umanità molto più complessa e ricca di diversità» commenta Schiebinger, che ospite degli Open Innovation Days a Padova, parlerà oggi, in aula Archivio antico alle 14.30, di “Innovazioni per una scienza paritaria” e domani in Aula magna alle 14.30 con l'open talk “Innovazioni di genere nella ricerca scientifica e tecnologica”. Insomma, se il tema a prima vista potrebbe sembrare astratto, come dimostra la scienza ha invece molte applicazioni pratiche per la nostra vita quotidiana.

Loading...
Riproduzione riservata ©

Brand connect

Loading...

Newsletter

Notizie e approfondimenti sugli avvenimenti politici, economici e finanziari.

Iscriviti