Le potenzialità dell’intelligenza artificiale al servizio della società
La sfida della filantropia e dei governi è indirizzare l’Ai verso una riduzione delle diseguaglianze e tenendo al centro il bene comune
di Alessia Maccaferri
I punti chiave
5' di lettura
Bill Gates ci arriva sul finale e butta lì nelle ultime righe la questione cruciale: dopo aver osannato la rivoluzione dell’intelligenza artificiale generativa, il fondatore di Microsoft accenna al tema dei temi, chi e come dovrebbe indirizzare l’intelligenza artificiale ponendola al servizio dell’umanità: «Le forze di mercato non produrranno naturalmente prodotti e servizi di Ai che aiutino i più poveri – scrive in un post del marzo scorso - È più probabile il contrario. Con finanziamenti affidabili e le giuste politiche, i governi e la filantropia possono garantire che l’Ai venga utilizzata per ridurre le disuguaglianze».
Il più conosciuto filantropo del mondo ha poi fatto seguire alle parole i fatti. Ha lanciato una challenge finanziando, con 5 milioni di dollari, 50 progetti provenienti da Paesi a basso e medio reddito. Progetti per soluzioni di salute e sviluppo per le loro comunità utilizzando l’Ai.
Benanti: «Ottimizzazione e un approccio più dinamico»
Similmente il braccio filantropico di Google nel maggio scorso ha lanciato un fondo per l’innovazione da 10 milioni di euro per aiutare gli imprenditori sociali europei provenienti da contesti svantaggiati a sviluppare soluzioni trasformative di Ai. Un contributo, quello di Google.org, che viene incontro alle aspettative dettate dall’Agenda Sociale Europea e che ora sarà interpretata da ogni Paese a livello nazionale. Ma cosa ci dobbiamo aspettare dall’utilizzo dell’Ai in ambito sociale? «L’Ai è uno strumento la cui è efficacia è strettamente connessa ai dati. Quindi nella misura in cui abbiamo problemi complessi, come il cambiamento climatico o le sfide globali, che coinvolgono grandi quantità di dati, l’Ai potrebbe portare significativi miglioramenti. I tipi di soluzioni che potrebbe introdurre l’Ai sono quantitativamente e qualitativamente molto differenti rispetto a quelli che abbiamo visto finora. È qui che ci aspettiamo un grande fattore innovativo non solo per l’ottimizzazione ma per un approccio più efficiente e più dinamico» spiega padre Paolo Benanti, docente di Teologia morale ed Etica delle Tecnologie all’università Gregoriana.
L’Ai al servizio degli obiettivi delle Nazione Unite
Significativamente il mese scorso, diversi governi tra cui Giappone, Spagna, Regno Unito e gli Stati Uniti hanno convocato a New York un evento collaterale durante un’assemblea delle Nazioni Unite. L’obiettivo era discutere il potenziale dell’Ai per accelerare i progressi sugli Obiettivi di sviluppo sostenibile delle Nazioni Unite. Al centro dell’evento – presenti tra gli altri Amazon, Google, Ibm, Meta, Microsoft, OpenAI, Bill & Melinda Gates Foundation – le applicazioni concrete su salute, istruzione, sicurezza alimentare, energia e clima, che potrebbero far avanzare i progressi nel raggiungimento degli Obiettivi di sviluppo sostenibile. I partecipanti hanno riconosciuto che, se utilizzata in modo efficace e sfruttata in modo responsabile, l’Ai promette di favorire una crescita inclusiva e sostenibile, riducendo la povertà e la disuguaglianza, promuovendo la sostenibilità ambientale, migliorando la vita e responsabilizzando gli individui in tutte le società in tutte le fasi di sviluppo.
Il rischio di nuove diseguaglianze e pregiudizi
Allo stesso tempo, però, hanno anche riconosciuto le preoccupazioni sulla possibilità che il mondo in via di sviluppo possa essere lasciato indietro man mano che l’Ai avanza rapidamente; inoltre non hanno negato che la tecnologia ha il potenziale per esacerbare la disuguaglianza, radicare i pregiudizi e sconvolgere le società se non è progettata e sviluppata in modo responsabile e inclusivo. Come discernere un versante dall’altro? Come può l’umanità camminare serenamente su questo stretto crinale? Quali criteri adottare per capire qual è la direzione giusta, orientata al bene comune?
Venturi: «Va costruita una governance»
«Innanzitutto, bisogna avere bene a mente che l’Ai è il mezzo, mentre l’innovazione sociale è il fine a cui tendere. È già molto importante non confondere i mezzi con i fini – chiarisce Paolo Venturi, docente di imprenditorialità e innovazione sociale all’Università di Bologna e direttore di Aiccon – Ora il tema è quale valore d’uso dare a questa grande potenza dell’Ai, che accelera tutti i processi. Diventa un tema politico, va costruita una governance: il valore d’uso va definito prima e va misurato dopo. La misura e la governance non sono neutre».
Altrimenti il rischio è ritrovarsi effetti non desiderati, imprevisti e/o negativi. Ma quali criteri darsi? La responsabilità a questo punto è tutta dell’umano e della sua visione della società futura, in questo senso è politica. «Posso verificare quale tipo di impatto l’Ai ha su felicità pubblica, libertà delle persone, democrazia, sostenibilità, disuguaglianze. Diverso è se prendo altri fattori come connessioni, aumento del Pil ecc. La questione è dare un fine a un mezzo. L’Ai nasce dalle informazioni, oggi potenzialmente infinite, ma non alimenta coscienza di sé né del senso del valore che genera. Conosce, ma non riconosce in termini affettivi».
La misura dell’impatto ben oltre la produttività
Gli Stati però – sottolinea Venturi - oggi hanno le regole in mano ma non possiedono né i capitali né la conoscenza che è in mano a pochi. «Quindi servono un’azione politica e una visione che si facciano guidare da categorie su cui misurare l’Ai sulla sua effettiva generatività che non sta nella capacità esponenziale di estrarre profitto dai dati, ma nel migliorare il benessere di tutti i cittadini e nell’aumentare il loro grado di libertà e non di dipendenza. Per questo motivo non possiamo, come spesso succede, misurare l’impatto dell’Ai solo in termini di produttività».
L’Ai si governa solo con l’intelligenza collettiva
Quindi la questione è: a quale domanda specifica vogliamo che l’Ai risponda? «L’Ai può essere governata solo se potenzia un’intelligenza collettiva. Se noi indeboliamo l’intelligenza collettiva nei processi di sviluppo dell’Ai, non andiamo lontano. All’origine della tecnica deve esserci una domanda di senso per evitare che questa non determini un processo estrattivo o dis-umano – conclude Venturi - Per esempio possiamo abilitare l’Ai per conciliare i tempi vita-lavoro in maniera armonica e inclusiva (penso in particolare alle disuguaglianze che toccano le donne e le madri) oppure possiamo spingerla unicamente per razionalizzare un processo riducendo il tutto all’ottimizzazione (apparente) di un piano orario».
I bias che rischiano di aumentare le diseguaglianze
Come va indirizzata nel processo, l’Ai va monitorata sul dato, ancora troppo spesso all’origine di bias (distorsioni cognitive) che alimentano pregiudizi sociali. La questione è talmente grande che la Casa Bianca ha invitato le società tech a collaborare con gli hacker per stanare i bias e migliorare dati che possono compromettere la richiesta di un mutuo o l’accesso a certi lavori da parte di fasce di popolazione su cui da sempre gravano pregiudizi. Una parte degli esperti è ottimista e ritiene che mano a mano i dati saranno integrati, i bias diminuiranno. Qualche settimana fa però la ricercatrice Meredith Broussard, già autrice del libro Artificial Unintelligence (2018) ha spiegato come quello dei bias sia molto di più di un problema tecnico (More than a glitch il suo ultimo libro). In realtà – sostiene la professoressa alla New York University - razzismo, sessismo e abilismo sono problemi sistemici radicati nei sistemi tecnologici, perché sono radicati nella società. Insomma, sarebbe facile se la correzione fosse l’aumento dei dati. Ma questo non migliora i sistemi tecnologici se il problema di fondo è la società.
«Certo c’è un problema di qualità del dato. A volte preferenze sistematiche (i cosiddetti bias) non volute sono connesse alla qualità del dato. Ma in generale noi vogliamo che una macchina utilizzi una preferenza sistematica per automatizzare i processi. È nel design – commenta Benanti - Il problema è se queste siano trasparenti oppure no. Perché se non sono trasparenti, possono esserci preferenze sistematiche non volute. Le discriminazioni sono proprio preferenze sistematiche non socialmente accettabili. L’importante è che questo sia trasparente, visibile. La trasparenza è il primo dei requisiti etici».
loading...