3' di lettura
Il metodo scientifico ci ha insegnato a fare previsioni sulla base (1) di modelli dei fenomeni e (2) di dati: un modello ci dice che se il fenomeno è in una certa condizione, osserveremo certi effetti, e i dati ci dicono che siamo in una certa condizione; se tutto ciò è sufficientemente accurato, possiamo supporre che osserveremo proprio gli effetti predetti dal modello in base ai dati.
Si tratta di una versione razionalizzata di ragionamenti che tutti noi, anche senza rendercene conto, attuiamo abitualmente: dall'idea, un modello appunto, che ci siamo fatti di come la nostra automobile si comporta quando freniamo e dai dati che otteniamo osservando intorno a noi mentre guidiamo, concludiamo se, quando e quanto intensamente dobbiamo schiacciare il freno.
Ma in questo momento non abbiamo modelli affidabili di quello che sta succedendo a proposito dei sistemi cosiddetti di intelligenza artificiale generativa, e quindi questa strategia non è applicabile.
Quando non abbiamo un modello a cui affidarci, a volte ricorriamo a una strategia di riserva: nel passato, in una certa condizione si sono prodotti certi effetti; se ora i dati ci dicono che siamo in una condizione simile, per analogia ipotizziamo che si produrranno effetti simili.
Ragionando per analogia possiamo essere creativi, se troviamo nuove connessioni tra le entità a cui ci stiamo interessando, ma paradossalmente anche inerti di fronte ai cambiamenti, se ci ostiniamo a interpretare le novità alla luce di quello che già sappiamo.
Ma anche questa strategia analogica non funziona oggi a proposito dei sistemi di intelligenza artificiale generativa: sia perché stiamo vivendo una condizione decisamente nuova, e quindi non sappiamo bene con cosa del passato confrontarla, sia perché le analogie sono valide quando i cambiamenti sono lineari, e invece i cambiamenti che stiamo vivendo in questi mesi sembrano proprio esponenziali.
Insomma, se è spesso difficile fare previsioni affidabili senza modelli e dati affidabili, nella situazione in cui siamo potremmo ammettere onestamente che le nostre previsioni non hanno davvero nulla di affidabile.
Qualcuna delle tante si rivelerà forse esatta, ma sarà come nel caso di un orologio fermo, che comunque due volte al giorno segna l'ora esatta (solo un esempio, per altro cruciale: lo scenario sarà di concentrazione di potere, controllo e ricchezza nelle mani di poche aziende, o prevarrà l'open source, e con esso la democratizzazione – o l'anarchia? – dell'accesso ad agenti artificiali sempre più sofisticati? Opportunità e rischi, e quindi decisioni per una governance oculata, sono molto diversi nei due casi…).
Quello che rimane è che le previsioni che si fanno – e che giustamente devono fare i decision makers, quantomeno per giustificare le decisioni che prendono – sono soprattutto il segnale di un macro-esperimento psicologico che stiamo realizzando nella nostra società.
C'è chi sostiene che i chatbot sono “pappagalli stocastici” e quindi ovviamente non sono intelligenti, e chi al contrario sostiene che sono e soprattutto diventeranno talmente intelligenti da minacciare la sopravvivenza stessa della nostra specie.
Non è il segno del fatto che ci si affida a modelli contrapposti, ma è la constatazione di quanto può essere diversa la psicologia degli esseri umani: di fronte all'ignoto, in qualcuno prevale il valore della continuità e in qualcun altro la paura.
La posizione intermedia è quella di coloro che riconoscono l'ignoto, sono sufficientemente consapevoli delle opportunità e dei rischi che questo implica, ma non per questo perdono il gusto della sfida. L'invito a parlarne, a sperimentare, e conoscere e cercare di capire sempre di più e sempre meglio è anche un invito a non lasciarsi prendere dagli estremi, e dagli estremismi, e a mantenere un'attitudine vigile e critica su quello che sta succedendo.
* Docente all’università Liuc di Castellanza
- Argomenti
- intelligenza artificiale
loading...