Discriminazioni, pregiudizi e consumi energetici, il lato oscuro dell’Ai generativa
Parla Tina Eliassi-Rad scienziata statunitense considerata a livello internazionale una voce critica sull'Ai.
di Luca Tremolada
5' di lettura
Tina Eliassi-Rad è una scienziata statunitense. E' docente alla Northeastern University di Boston dove studia gli scenari evolutivi dell'intelligenza artificiale. A giugno ha ritirato il Premio Lagrange, il più importante riconoscimento internazionale per la scienza dei sistemi complessi e dei dati. Istituito e finanziato dalla Fondazione Crt (Cassa di risparmio di Torino) e coordinato dalla Fondazione Isi (Istituto per l’interscambio scientifico). Ed è considerate a livello internazionale una voce critica sull'Ai
Quali sono alcuni dei potenziali pericoli o rischi associati all’intelligenza artificiale?
I potenziali pericoli e rischi associati all’uso della tecnologia di intelligenza artificiale sono già presenti. Questi includono mancanza di responsabilità, sfruttamento dei lavoratori, ulteriore concentrazione di potere, sorveglianza incontrollata, automazione non regolamentata e cambiamenti climatici avversi.Prendiamo ad esempio il cambiamento climatico. Le grandi aziende tecnologiche non rivelano l’impronta di carbonio della loro tecnologia AI generativa, come ChatGPT di OpenAI. Tuttavia, le migliori stime suggeriscono che la formazione di ChatGPT ha emesso 500 tonnellate metriche di anidride carbonica, equivalenti a oltre un milione di miglia percorse da un’auto a benzina media. Se avremo molte di queste tecnologie AI generative, il loro contributo ai cambiamenti climatici non può essere ignorato.
Come possono gli sistemi AI essere vulnerabili ai pregiudizi e alla discriminazione e quali sono le implicazioni di questi pregiudizi?
Quasi tutti i moderni sistemi AI utilizzano l’apprendimento automatico. Come definito da Arthur Samuel nel 1959, l’apprendimento automatico è il “campo di studio che dà ai computer la capacità di imparare senza essere esplicitamente programmato”. Pregiudizi e discriminazione possono insinuarsi in qualsiasi fase del ciclo di vita dell’apprendimento automatico: dalla definizione del compito alla costruzione del dataset, alla definizione del modello, ai processi di formazione, test e distribuzione, e infine al feedback. Prendiamo la definizione del compito. Un compito popolare è la valutazione del rischio, dove il sistema AI fornisce un valore tra 0 e 10 per indicare il rischio. Ad esempio, il rischio di Jack di inadempienza a un prestito è 8, mentre il rischio di Jill è 2. Quindi, è più probabile che Jill ottenga il prestito. I ricercatori e i professionisti dell’IA sanno molto sulla valutazione del rischio. I decisori umani apprezzano l’output della valutazione del rischio perché sono facili da capire. Tuttavia, ci sono numerosi problemi associati alla valutazione del rischio. Ecco solo due di essi. Primo, la maggior parte dei sistemi AI per la valutazione del rischio non fornisce valori di incertezza, cioè non indicano quanto il sistema sia sicuro o incerto sul suo punteggio di rischio. In un caso negli Stati Uniti, un giudice ha annullato un accordo di patteggiamento negoziato dagli avvocati semplicemente perché il sistema AI ha dato a un imputato un punteggio di rischio elevato. Se il sistema AI avesse detto che era sicuro solo al 40%, il giudice avrebbe potuto agire diversamente. Secondo, la maggior parte dei sistemi AI sono scatole nere in cui un essere umano non può capire perché il sistema ha assegnato a qualcuno un certo punteggio di rischio. Non c’è spiegazione o controinterrogatorio del sistema AI.
Quali sono le preoccupazioni etiche che circondano lo sviluppo e l’implementazione delle tecnologie AI?
Le tecnologie AI vengono ora utilizzate per prendere decisioni che possono cambiare la vita delle persone. Queste sono situazioni in cui le posta in gioco è alta, come nella polizia e nella giustizia penale, nelle decisioni di assunzione e di prestito, nell’assistenza sanitaria e nell’idoneità al welfare, e negli incarichi scolastici. Pertanto, dovremmo esaminare criticamente quando, dove, perché e come vengono utilizzate le tecnologie AI. Ad esempio, la tecnologia AI dovrebbe essere utilizzata per prendere decisioni che cambiano la vita? Quali sono gli incentivi per utilizzare l’AI? Profitti? Efficienza? Precisione? Affidabilità? Decisioni “più eque”? Chi beneficia di più? Ad esempio, le tecnologie AI utilizzate in sanità forniscono cure migliori per te, il paziente? Oppure queste tecnologie vengono utilizzate per aumentare i profitti, indipendentemente dal fatto che migliorino l’assistenza ai pazienti? Noi, il pubblico, abbiamo un’agenzia. Dobbiamo stabilire le norme e gli standard etici che devono essere rispettati nello sviluppo e nell’implementazione delle tecnologie AI
Quali sono le potenziali conseguenze dei sistemi di intelligenza artificiale che prendono decisioni senza l’intervento o la supervisione dell’uomo?
Abbiamo bisogno di responsabilità quando vengono utilizzati i sistemi di IA. Senza l’intervento o la supervisione umana, non avremo responsabilità. Ad esempio, nel 2018, un’auto a guida autonoma di Uber ha investito e ucciso un pedone in Arizona. L’autista umano dell’auto era responsabile del monitoraggio dell’auto a guida autonoma. Nel 2020 è stata accusata di omicidio colposo. Senza un umano a bordo dell’auto, chi sarebbe stato ritenuto responsabile della morte del pedone?.
Quali sono i rischi potenziali associati all’acquisizione di posti di lavoro e industrie da parte dell’IA?
Alcuni settori, come quello manifatturiero e dei trasporti, rischiano l’automazione o la sottoccupazione. Una probabile conseguenza di queste minacce è una maggiore disuguaglianza di ricchezza, che non è positiva per la nostra democrazia. Il modo per mitigare queste minacce è l’istruzione. Abbiamo bisogno di una popolazione che sappia quando, dove, perché e come utilizzare le tecnologie AI.
In che modo l’IA può amplificare le disuguaglianze sociali esistenti e creare nuove sfide?
Vorrei fare due esempi. Il primo risale al marzo 2023. La città di Rotterdam, nei Paesi Bassi, ha acquistato un sistema di intelligenza artificiale e lo ha utilizzato per individuare le frodi nel sistema di assistenza sociale. Il sistema di intelligenza artificiale determinava il rischio di frode e non era trasparente. In seguito si è scoperto che il sistema di intelligenza artificiale discriminava le donne e i non anglofoni. Come già detto, tale discriminazione può verificarsi in qualsiasi fase del sistema di apprendimento automatico e i sistemi di valutazione del rischio devono affrontare molte sfide. Le conseguenze di tale discriminazione sono devastanti. A Rotterdam, ad esempio, sono state fatte irruzioni nelle case e ai genitori sono state fatte domande intime davanti ai loro figli.
Il secondo risale al 2021, quando sono stato coautore di un articolo di Nature perspective, in cui abbiamo parlato di come la struttura della nostra società sia coformata dal comportamento algoritmico e umano. I sistemi di intelligenza artificiale che ci consigliano prodotti, notizie e appuntamenti influenzano i nostri processi economici quotidiani, la regolamentazione politica e l’accettazione sociale. E questi, a loro volta, influenzano i sistemi di intelligenza artificiale. E così, questo ciclo di feedback rafforza i nostri pregiudizi esistenti.
Per comprendere e mitigare i rischi e i danni associati alla tecnologia AI, dobbiamo studiare i sistemi complessi più ampi in cui la tecnologia AI opera. Per sistemi complessi più ampi, mi riferisco ai nostri sistemi sociali, economici e politici. Se si vuole utilizzare l’IA per risolvere problemi sociali (ad esempio, i senzatetto), è necessario conoscere la società (ad esempio, la vita dei senzatetto e i complessi processi che li hanno portati ad esserlo). Non si può semplicemente rappresentare il problema come un problema di ottimizzazione vincolata, come avviene per lo più nell’IA.
loading...