sbagliando si impara

Prendere decisioni? Meglio farlo andando a caccia dei dati non disponibili

Sono proprio le informazioni «invisibili» che alla fine potrebbero portare ad una decisione diversa e magari a salvare da un insuccesso

di Marco Maglione *

default onloading pic
(AFP)

Sono proprio le informazioni «invisibili» che alla fine potrebbero portare ad una decisione diversa e magari a salvare da un insuccesso


4' di lettura

«Non giudicate e non vi sbaglierete mai», scriveva ironicamente Jean-Jacques Rousseau in uno dei 5 libri che compongono l’«Emilio». Capita, invece, più o meno quotidianamente, di giudicare e prendere posizioni e decisioni basate sui fatti che ci circondano e ci riguardano. In più, siamo convinti che «sia così» e spesso cerchiamo di convincere anche gli altri. Ma è proprio “così”?

Nel 1943 l’Aeronautica Militare americana incaricò Abraham Wald, un professore di statistica matematica della Columbia University di origini austro-ungheresi, di risolvere un importante problema. Troppi dei loro aerei venivano abbattuti durante le missioni di bombardamento in Germania e, di conseguenza, avevano pensato di aggiungere armature extra alle parti più vulnerabili degli aerei. Di contro, troppa armatura avrebbe reso gli aerei troppo pesanti per volare correttamente, rendendo impossibile aggiungere armature extra sull’intero piano della carlinga. Chiesero quindi a Wald di dire loro quanta armatura aggiuntiva aggiungere alla carlinga degli aerei ed esattamente in quali parti.

Per aiutare Wald, l’Aeronautica Militare aveva raccolto delle statistiche sui fori dei proiettili negli aerei di ritorno dalle missioni. Gli vennero fornite le statistiche delle parti dell’aereo dove erano stati registrati la maggior parte dei fori di proiettile. Dopo un po', Wald fornì i suoi risultati e raccomandazioni. La risposta che Wald trovò fu sorprendente. Ordinò all’Aeronautica di mettere l’armatura extra non dove erano i fori dei proiettili, ma dove non c’erano – in particolare sui motori!

L’Air Force gli aveva presentato le statistiche sugli aerei che erano tornati sani e salvi dalle missioni. Wald lo riconobbe come un campione distorto, che raccontava una storia distorta ed incompleta. Purtroppo, c’erano anche molti aerei sul fondo dell’oceano, e Wald indovinò correttamente che quegli aerei fossero pieni di fori di proiettile nei motori. L’Air Force seguì i suoi consigli ed i risultati furono sorprendenti. Più aerei iniziarono a rientrare alla base dal combattimento, salvando la vita a innumerevoli piloti e membri dell’equipaggio.

Come fece Wald a trovare questa risposta? Semplice. Considerò i fori dei proiettili mancanti! Wald correttamente identificò il contesto non tanto come un problema di matematica, ma come un problema di «pregiudizio alla sopravvivenza». Il «Pregiudizio alla sopravvivenza» è un limite mentale, quasi naturale ed istintivo, dell’essere umano. Spiegato nella sua forma più semplice, è la tendenza a concentrarsi sulle «cose (cioè sui fatti) sopravvissute» anziché pensare a quelle che non lo sono.

Questa tendenza, o questo bias, come potremmo anche chiamarlo, racconta spesso molte storie distorte o perlomeno incomplete. La ricerca dei buchi di proiettili mancanti, come aveva fatto Wald, può salvarci dal prendere spesso decisioni sbagliate sulla base di informazioni e dati incompleti. O addirittura mancanti. Quasi paradossalmente sono proprio le informazioni ed i dati che non ho disponibili, o che non riesco a vedere, che alla fine mi potrebbero portare ad una decisione diversa e magari a salvarmi da un insuccesso.

Quando traggo le mie conclusioni, e decisioni, sulla base solamente di quanto risulta “visibile” (perché sopravvissuto) e non prendo in alcuna considerazione la parte “invisibile” (cioè che cosa è successo, ma che non registro, non vedo), allora la mia conclusione o decisione ne risulta fortemente “biased”, cioè influenzata, distorta o pregiudicata.

Facciamo un esempio concreto per evidenziare meglio gli effetti di questo modo di procedere nel prendere decisioni. Abito in una zona della città piena di ristoranti, tutti spesso pieni e quindi che garantiscono un buon livello di redditività. La mia decisione potrebbe quindi essere quella di aprire lì un ristorante, considerando il successo di quelli che vedo. L'errore, o il bias, è proprio quello di giungere alla decisione di investimento non prendendo in alcuna considerazione (perché non ho il dato o perché non lo considero proprio) di quanti ristoranti nella mia zona hanno aperto e poi sono stati chiusi in poco tempo. Potrebbe essere che il 90 per cento dei ristoranti che aprono nella mia zona chiudano entro il primo anno di vita, ma io sono spinto ad una decisione solamente sulla base dei ristoranti “sopravvissuti”, e quindi a me visibili.

Questo bias ci porta ad avere certezze eliminando i dubbi, a voler imitare casi di successo per noi evidenti. Non succede così anche con le relazioni con gli altri? Ci fissiamo sui disaccordi, sulle cose che non ci piacciono, quelle che saltano agli occhi e che non possiamo non vedere. E quindi la relazione o si interrompe o ne risulta comunque danneggiata. E io sono “sicuro” che non poteva che andare così. In realtà, dovrei prendere in considerazione anche ciò che non si “vede”, che non salta agli occhi, ma che costituisce probabilmente il vero collante della relazione.

Conviene dunque, per evitare decisioni errate, fare un “assessment” della realtà più accurato e completo, prendendo in esame anche la parte “invisibile” o non inclusa nel campione alla base dell’analisi. Come scrive Nassim Taleb nel suo libro «Il cigno nero», il cimitero dei ristoranti falliti è molto silenzioso.

Brand connect

Loading...

Newsletter

Notizie e approfondimenti sugli avvenimenti politici, economici e finanziari.

Iscriviti