Tecnologia

Gli algoritmi non sono mai neutri. Le traduzioni automatiche sono sessiste

  • Abbonati
  • Accedi
Scienza

Gli algoritmi non sono mai neutri. Le traduzioni automatiche sono sessiste

Il caso Facebook ha dimostrato che gli algoritmi così come le piattaforme digitali non sono neutri. E anche quando provano a esserlo sono potenzialmente hackerabili, vuoi per violazione di policy vuoi attraverso sistemi di manipolazione informatica. Da quando insomma affidiamo pezzi importanti della nostra vita e funzioni ad algoritmi o a software di auto-apprendimento in qualche modo ci esponiamo a pensieri automatici, scorciatoie semantiche e banali incomprensioni. Il machine learning e le traduzioni automtiche e quindi la comprensione del linguaggio non sfuggono a questi rischi.

«Le traduzioni fatte dalle macchine - spiega Kate McCurdy, Senior Computational linguist di Babbel, l’app più popolare nello studio delle lingue - senza dubbio, possono rispecchiare in un qualche modo una certa cultura». E i relativi steoreotipi di genere. «Dalle mie ricerche - osserva la ricercatrice - è emerso come gli algoritmi più usati dai vari strumenti di traduzione (e altri tipi di tecnologie applicate al linguaggio) possano confondere la differenza tra genere “grammaticale” e “genere” di persona. Di conseguenza può capitare che alcuni sistemi d’intelligenza artificiale, quando traducono certe lingue, proiettino stereotipi di genere su degli oggetti.

Per esempio, se si digita “The table is soft, but the table is hard” su Bing traduttore, si otterrà la frase italiana “la tavola è morbida, ma il tavolo è duro. I sistemi commerciali sono molto complessi ed è difficile dire per certo cosa accade in un caso del genere, ma la mia ricerca suggerisce che la ragione per cui “table” è tradotto come “la tavola” nella prima frase e come “tavolo” nella seconda sia dovuto all’associazione sulla base del genere degli aggettivi “morbido” e “duro”».

Sollevando lo sguardo, le lingue che possiedono un genere grammaticale assegnano i sostantivi a diversi gruppi grammaticali; in alcune lingue queste categorie sono completamente distinte dal concetto di genere di una persona, ovvero “femminile” e “maschile” (questo accade per esempio nelle lingue scandinave: lo svedese ha due generi grammaticali per i suoi sostantivi che però non corrispondono al genere “femminile” e “maschile” che si attribuisce a una persona), in altre lingue invece il genere grammaticale corrisponde a quello di persona . In italiano, per esempio, gli articoli “il” e “la”, quando vengono usati in riferimento a una persona ne indicano il genere femminile o maschile, mentre quando si riferiscono a un oggetto ne indicano il genere grammaticale.

In questo senso i problemi che si riscontrano nella traduzione del genere di una persona riflettono sicuramente dei preconcetti impliciti della società, e quei preconcetti sono più facili da notare quando vengono mostrati tramite degli esempi di traduzione fatti da alcuni traduttori automatici. Tuttavia, il problema del genere grammaticale non ci dice molto a proposito della nostra cultura, ma piuttosto dimostra un problema con la tecnologia di oggi applicata al linguaggio. Prendiamo l’Italiano e la frase “Lei è una professoressa”. Generalmente l’italiano richiede che sia il pronome (“lei”) che il sostantivo (“professoressa”) combacino con il genere della persona di cui si parla. Gli strumenti di traduzione moderni solitamente usano metodi statistici basati sui dati per calcolare quella che, secondo il sistema, è la traduzione più probabile; sfortunatamente, questo a volte significa che la traduzione che si ottiene non rifletta le informazioni linguistiche, ma preconcetti impliciti della società. Per esempio, se si inserisce la frase in inglese “She is a professor” nel servizio di traduzione automatica Google traduttore si otterrà la traduzione “lei è una professoressa”; tuttavia, se si inserisce la stessa frase in Bing traduttore (che è il servizio di traduzione automatica utilizzato da Facebook), si ottiene come risultato “lei è un professore”, presumibilmente perché i dati d’allenamento per questo algoritmo includono più esempi di professori uomini. Anche Google traduttore, quando alla frase si aggiunge l’aggettivo “good” (per esempio “She is a good professor”), dà come risultato “Lei è un bravo professore”. Grave ma non gravissimo, verrebber da dire. Ma comunque indicativo. Ma quanto servono nella pratica questi software?. «Credo che, in generale, una persona che impara un’altra lingua troverà molto più facile apprenderne la cultura da una persona madrelingua. Le traduzioni delle macchine sono utili, nei limiti, poiché aiutano le persone a imparare altri idiomi, ma non credo che forniscano una conoscenza particolare di una determinata cultura. Si limitino ad aiutare le persone a comunicare».

© Riproduzione riservata