Non facciamoci travolgere: l’intelligenza artificiale deve essere a guida umana
La tecnologia di per sè non garantisce l’innovazione: la sfida è tracciare un futuro in cui le persone rimangano indispensabili
di Massimo Chiriatti
3' di lettura
Cara\o Ceo, sono tempi faticosissimi: travolti da tanti testi sulle meraviglie dell’intelligenza artificiale generativa, se scritti da umani o da macchine non v’è certezza, tanto sono indifferenziati tra loro.
ChatGPT è uno strumento che, dato un piccolo spunto - prompt - genera una concatenazione di parole su base statistica: credibili ma anche false, legali o illegali, etiche o non etiche. Nello stesso momento è smart e stupido, quanto è benefico e pericoloso, perché non tutto passa attraverso il linguaggio. Pensiamo, per esempio, al nostro senso comune.
Se seguiamo i media, ci spaventano («L’intelligenza artificiale ci seppellirà e ci sostituirà»); se seguiamo certi direttori marketing, ci promettono troppo («Compra la mia Ia e ti risolverà tutti i problemi»); se seguiamo i filosofi del passato, ci spiegano quello che l’intelligenza artificiale non può ancora fare (e non è costruita per farlo!). Nel frattempo, bisogna capire cosa fare, e soprattutto come minimizzare i rischi di un nuovo progetto dentro l’azienda, tenendo ben presente lo scopo dell’intelligenza artificiale: trovare le regole che spieghino le relazioni tra i dati che gli sono stati forniti, lavorando affinché siano statisticamente significativi. Altrimenti meglio restare con la programmazione classica basata su regole.
Per differenziare un progetto che utilizza effettivamente l’intelligenza artificiale dalla propaganda, è necessario verificare l’esistenza dei dati di addestramento, almeno un algoritmo di apprendimento e un modello per rappresentare il fenomeno osservato. Di fatto siamo ancora nell’infanzia dell’Intelligenza artificiale: parliamo tanto di quello che potrà fare, ma già sappiamo che molti progetti potrebbero fallire per ragioni squisitamente umane.
Perché il progetto può fallire con grande facilità? Al fine di non confonderci, separiamo le cause degli eventuali fallimenti: la gestione dei dati, l’elaborazione e l’interpretazione dei risultati. Inoltre, l’assenza di architetture Ict che consentano di operare velocemente garantendo controllo, governance e accesso alle risorse rappresenta la grande sfida per tutte le aziende. Non ultimo, la non disponibilità di talenti. Purtroppo, se non si è consapevoli che mancano le competenze tecniche, spesso si fa affidamento eccessivo sulla tecnologia, supportati dall’hype: «I dati sono il nuovo petrolio», Ia-first,... La foga di diventare data-driven fa correre verso una raccolta indistinta di dati, tanto si è certi di trovarvi qualcosa di incredibilmente prezioso. Sarebbe un errore capitale, perché gli esperti di dominio vanno ascoltati come oracoli, anche se non hanno una formazione tecnica, perché solo loro possono interpretare i risultati e conoscono bene gli obiettivi da raggiungere.
L’obiettivo concreto dovrebbe essere non solo quello di ottimizzare per ridurre i costi, ma migliorare le previsioni per incrementare il business, sempre seguendo la stella polare dell’etica. A tal proposito, preoccuparsi per i rischi etici dell’intelligenza artificiale non significa essere contrari all’Ia, anzi, è proprio la ponderazione dei possibili rischi che ci consentirà di ottenere i migliori benefici. Se li sottostimiamo, o nascondiamo, è evidente che a fronte di un problema abbandoneremo una strada che in realtà potrebbe migliorare la nostra vita. L’etica non deve essere vista come una compliance cui sottostare ma come un’opportunità per innovare, grazie alla tecnologia.
La tecnologia migliora il nostro mondo, espande i nostri orizzonti, ci concede vite più lunghe, è una leva che espande il potenziale delle relazioni umane. Umane come le cose che non cambiano nel tempo: il bisogno di comunicare, la capacità di emozionarci etc. Noi, a differenza dell’Intelligenza artificiale, siamo responsabili e coscienti, e ci facciamo infinite domande, con una fame di conoscenza altrettanto infinita.
Una domanda frequente rispetto all’intelligenza artificiale, ma mal posta è «Cosa succederà?». La domanda corretta dovrebbe essere «Cosa dovremmo far succedere?». «Domani sarò ciò che oggi ho scelto di essere», scriveva James Joyce, perché sono le decisioni, non le previsioni, ad avere conseguenze. Pertanto, abbiamo bisogno di leader che siano abbastanza esperti di tecnologia da saper ottimizzare i processi aziendali, scegliendo dove, nella catena decisionale dell’azienda, l’Ia possa essere utilizzata per favorire produttività, efficienza e nuova occupazione qualificata.
La sfida è tracciare un percorso verso un futuro in cui le persone rimangano indispensabili, senza temere l’impiego di qualsiasi tecnologia. Di fatto i robot costruiscono sempre più prodotti in fabbrica, l’Ia generativa scrive testi in ufficio, e va bene così, perché a tutti gli esseri umani invece interessa produrre valore. Più umani saremo e più liberi saremo. Non c’è il timore che le macchine ci superino, ma c’è la convinzione che noi, grazie a loro, ci autosupereremo. Nessun Ceo è passato alla storia per aver usato una tecnologia - neanche ChatGPT avrà questa fortuna -, ma per come ha innovato coinvolgendo, emotivamente ed eticamente, le persone nel plasmare il futuro.
- Argomenti
- intelligenza artificiale
- James Joyce
loading...