Management

I robot che selezionano il personale acquisiscono i pregiudizi umani

gli errori delle tecnologie

I robot che selezionano il personale acquisiscono i pregiudizi umani

I progressi compiuti nell’intelligenza artificiale (IA) e l’uso dei big data stanno cambiando il modo col quale molte grande aziende assumono personale per le posizioni di livello iniziale e per il junior management. Di questi tempi, quindi, i curricula dei laureati farebbero bene a fare colpo su un algoritmo, più che su un responsabile delle risorse umane. «Negli ultimi due anni si è verificato un aumento esponenziale e degno di nota nell’uso dei processi di automazione per i processi di selezione su un gran numero di candidati» spiega Sophie Meaney, managing director per lo sviluppo strategico e le soluzioni per i clienti di Amberjack, azienda che fornisce e offre consulenze sui processi automatizzati di selezione del personale. Se da un lato si presume che gli algoritmi trattino tutte le candidature con la massima imparzialità, dall’altro gli esperti sono divisi sulla possibilità che la cosiddetta selezione del personale attuata dai robot possa porre fine sul serio ai pregiudizi umani impliciti in tale processo.

«Non tutti i sistemi di IA sono imparziali in assoluto» dice Loren Larsen, responsabile capo per la tecnologia di HireVue, che ha messo a punto un sistema automatizzato di analisi dei colloqui video con gli aspiranti lavoratori, utilizzato da varie aziende tra le quali il gruppo di beni al consumo Unilever, l’azienda di telefonia Vodafone e il negozio di vendite al dettaglio Urban Outfitters. Secondo Larsen, «è indispensabile pensare al team scientifico che deve star dietro a questo lavoro». A detta degli esperti il problema principale è che, per individuare i candidati migliori, prima di ogni altra cosa un algoritmo deve essere istruito a comprendere le esigenze e le richieste specifiche di ogni singola azienda.

Anche se i criteri insegnati in questa fase non sono discriminatori, un sistema efficiente di apprendimento automatico ben presto sarà in grado di replicare le caratteristiche dei lavoratori esistenti. Se dunque un’organizzazione ha privilegiato lavoratori maschi laureati presso università prestigiose, l’algoritmo imparerà a selezionarne altri di questa stessa tipologia. Il sempre maggiore affidamento sull’automazione per giudicare l’idoneità di tutto – da un prestito a un posto di lavoro e addirittura alla libertà condizionata nel sistema penale giudiziario – preoccupa non poco Yuriy Brun, professore associato che si sta specializzando in software engineering all’Università del Massachusetts.

«Il più delle volte un’azienda mette in commercio un software senza sapere che è discriminatorio», dice ed esemplifica con il caso di Compas – uno strumento adoperato in numerosi stati americani per aiutare a valutare le probabilità di recidiva di una persona che ha commesso un reato – e che si è scoperto essere discriminatorio nei confronti degli afro-americani. Il professor Brun spiega che, poiché utilizzano i big data, gli algoritmi inevitabilmente impareranno a effettuare discriminazioni. «La gente lo considera un problema serio. C’è il pericolo reale di peggiorare le cose rispetto a come sono» e la sua preoccupazione lo ha portato a sviluppare insieme ad altri uno strumento che mette alla prova i sistemi per individuare eventuali segni di pregiudizi.

Molti di coloro che lavorano con robot addetti alla selezione del personale si dicono più ottimisti. Kate Glazebrook, capo esecutivo di Applied, una piattaforma per le selezioni del personale, dice che la sua missione è incoraggiare i manager che assumono a prendere le distanze da quelli che definisce i «surrogati della qualità» (indicatori quali le scuole o le università frequentate) e di avvicinarsi maggiormente a metodi attestati e documentabili. «In linea generale, quanto più rendi importante il processo di assunzione, tanto più è probabile che tu possa trovare la persona giusta per quel posto», dice. Prima di analizzare i test che i candidati devono compilare online, Applied li rende anonimi e li passa, domanda dopo domanda, a esperti in carne e ossa per la valutazione finale. Ogni fase dell’intero processo è stata studiata per garantire la massima imparzialità e assenza di pregiudizi.

Con la stessa intenzione, nel 2016 Unilever ha deciso di passare a un processo più automatizzato per la selezione al suo programma di ingresso a livello di laureati, al quale si presentano ogni anno in trecentomila per 800 posti di lavoro. Unilever ha collaborato con Amberjack, HireVue e Pymetrics, altra grande azienda di selezione del personale abituata ai grandi numeri, e ha messo a punto un test, basato su un gioco, nel quale i candidati ricevono punti in funzione della loro abilità nell’assumersi i rischi e imparare dai propri errori, e della loro intelligenza emotiva. Unilever dice che il processo ha aumentato la diversità etnica dei candidati che passano le prime scremature e ha avuto successi ancora maggiori nella selezione di coloro che alla fine sono stati assunti.

«Le cose che riusciamo a fare oggi sono straordinarie, ma sono ancora nulla rispetto a quelle che saremo in grado di fare tra un anno due» dice Larsen. In ogni caso, i robot che selezionano il personale devono essere controllati a intervalli regolari per accertare che le loro operazioni non siano inficiate da alcun pregiudizio assimilato nel corso della loro stessa attività, dice Frida Polli, direttore esecutivo di Pymetrics: «È assai verosimile che la maggior parte degli strumenti che lavorano con gli algoritmi finisca col trasmettere alcune forme di discriminazione. Quelli migliori dovrebbero essere tenuti costantemente sotto controllo».

Copyright The Financial Times Limited
(Traduzione di Anna Bissanti)

© Riproduzione riservata