Economia Digitale

L’intelligenza artificiale nell’ufficio del personale? Come evitare discriminazioni  

Gli algoritmi possono aiutare i responsabili delle risorse umane ma sono ancora a rischio discriminazione

di Luca Tremolada

Gli algoritmi possono aiutare i responsabili delle risorse umane

(ryzhi - stock.adobe.com)

4' di lettura

Le persone giuste al posto giusto per usare uno slogan o, per usare un’espressione più prosaica, potremmo chiederci: com'è possibile rendere la selezione del personale più efficiente? Una risposta arriva dagli algoritmi di intelligenza artificiale. Ma non solo. «Negli ultimi anni - spiega Carlmaria Tiburtini, diversity leader di Avio Aero - grazie alle recenti innovazioni in campo tecnologico, è stato possibile fare grandi passi avanti nella gestione del capitale umano nella sua completezza. Lo studio Deloitte Global Human Capital Trends 2020 afferma che il 70% degli intervistati ha dichiarato che all’interno della loro organizzazione si stanno valutando soluzioni basate su intelligenza artificiale a vario titolo per garantire maggiore qualità e produttività delle risorse. La rotta è quindi tracciata».

L’Ai nel recruiting

L’indicazione è chiara, ma in che modo e in che forme l’Ai può entrare negli uffici del personale? Per esempio, osserva Maria Rita Fiasco, vicepresidente di Assintec Assinform, fondatrice e presidente del Gruppo Pragma: «Gli algoritmi possono valutare enormi volumi di curriculum per trovare i migliori candidati in base a esperienze e capacità specifiche. La tecnologia oggi può aiutare nell'ottimizzazione della ricerca dei candidati, nell'estrapolare automaticamente dati da documenti destrutturati come i CV, nell'usare l'analisi semantica per individuare cluster di candidati, scrivere gli annunci, suggerire candidati simili. Tutte attività che, se svolte manualmente su grandi quantità di candidature, comportano una mole di tempo assai considerevole».

Loading...

Il sistema non è esente da rischi,

Sopratutto se il sistema non è supervisionato. E con rischi intendiamo possibili discriminazioni o pregiudizi operati nelle scelte dagli algoritmi. «Si sta molto lavorando su questo - aggiunge Maria Rita Fiasco - cercando di introdurre metodologie che aiutano a “depurare” da quegli elementi distorsivi introdotti dai bias. Teniamo presente anche che il settore informatico è ancora largamente dominio maschile, il tema dei bias incrocia il tema del gender gap in ambito Stem. È come quando le leggi vengono fatte solo da uomini. Il tema è culturale, prima ancora che tecnologico. In fondo la tecnologia fa quello che noi chiediamo a lei di fare».

«Alcuni studi svolti in UK ad esempio - sottolinea Linda Serra, co-founder e Ceo di Work Wide Women - hanno dimostrato che già solo il cognome non anglofono su un CV è causa di discriminazione nella selezione dei candidati. La stessa cosa a livello universale succede, se sul cv compare una bella foto: siamo portati ad associare l'aspetto fisico ad altre caratteristiche. La bellezza, essendo un canone positivo, per quello che viene definito “Effetto Alone”(automatismo mentale), tende a portare il nostro cervello ad estendere la caratteristica fisica valutata positivamente, ad altre caratteristiche fondamentali in una selezione del personale, quali ad esempio la precisione, l'affidabilità, la proattività.

Le contromisure

Una delle soluzioni adottate ad esempio negli Stati Uniti sono le blind interviews (i colloqui al buio) che in fase di raccolta dei CV richiedono profili in cui non compaiano elementi che possono dare vita a distorsioni cognitive quali genere, età, cognome (che spesso richiama provenienza o gruppo etnico) e anche il colloquio viene fatto online con webcam spenta. Un'ulteriore risposta sono certamente i sistemi di AI, il problema è che come sappiamo, anch'essi riproducono gli stessi bias propri dell’intelligenza umana».

La presenza di bias nei sistemi di AI si può evitare creando consapevolezza sul tema in chi sviluppa. Ad esempio, aggiunge Linda Serra, «diversificando i team di sviluppo: oggi solo il 12% di chi sviluppa AI, ad esempio, è composto da donne. Finché i team di sviluppo saranno composti dai “Mini-me” sarà difficile evitare la trasmissione di una visione poco diversificata anche nei sistemi di Ai».

Dall’altra parte, bisogna che i dati siano raccolti e disaggregati tenendo conto dei vari ground di diversità: rilasciando dati più diversificati e allo stesso tempo educando i sistemi a non trattare i dati “minori” come dati di scarto, ma come dati che devono essere presi in considerazione allo stesso modo dei dati di valore numerico più rilevante, sicuramente potremo avere un panorama più inclusivo anche nel territorio della AI».

«Avere programmatori diverse per genere, etnia e cultura - conclude Carla Maria Tiburtini - non può che contribuire alla creazione di un modello che riduce l'applicazione del pregiudizio. Educare gli algoritmi ad essere inclusivi è possibile, basta che lo diventino le persone».

I rischi della “correzione dei dati.

Da più parte è stata sollevata l’esigenza di mettere mano agli algoritmi e correggere il sistema in modo da evitare pregiudizi partendo proprio dai dati. «La correzione dei dati è sicuramente delicata - osserva Linda Serra - e può essere un’arma a doppio taglio se si pensa alla possibilità di modificare l’informazione che ne deriva, semplicemente modificando un data set; tuttavia l’Unione Europea sta puntando molto sul tema della sicurezza e dell’affidabilità dell'intelligenza artificiale pubblicando le linee guida per garantire l'affidabilità dei sistemi di AI “Ethics Guidelines for Trustworthy Artificial” che poi ha dato vita ad ALTAI (Assessment List for Trustworthy AI ) uno strumento di self-assessment per chi sviluppa i sistemi, sviluppati da un team di esperti sul tema. Da questo punto di vista certamente è necessario che ci sia vigilanza e controllo da parte di organismi che siano in grado di valutare l'affidabilità dei sistemi e questa sembra la direzione presa dall'EU che il 21 aprile 2021 ha proposto il primo Quadro giuridico sull’AI e il nuovo Piano sull’intelligenza artificiale coordinato con gli Stati membri, che ha lo scopo di garantire la sicurezza e i diritti fondamentali delle persone e delle imprese, in tutta l’Unione in tema di adozione dell’intelligenza artificiale. Ormai usiamo sistemi di AI quotidianamente e spesso inconsapevolmente per fare qualunque cosa, dobbiamo poterci fidare sia dei sistemi; sia di chi li sviluppa».

Riproduzione riservata ©

loading...

Brand connect

Loading...

Newsletter

Notizie e approfondimenti sugli avvenimenti politici, economici e finanziari.

Iscriviti