mind the economy

Pianificazione è l’arte di capire quali errori conservare

Per capire come una pianificazione può fallire, dovremmo esplorare le vulnerabilità di tre elementi: database di lavoro, operazioni mentali e strutture di conoscenze apprese

di Vittorio Pelligra

default onloading pic
(ra2 studio - stock.adobe.com)

Per capire come una pianificazione può fallire, dovremmo esplorare le vulnerabilità di tre elementi: database di lavoro, operazioni mentali e strutture di conoscenze apprese


9' di lettura

Sono davvero poche le nostre decisioni, sia quelle piccole quasi insignificanti che prendiamo quotidianamente e ripetutamente, ma ancora di più, quelle veramente importanti che si prendono poche volte nella vita e che possono avere conseguenze rilevantissime, che emergono da un processo non pianificato.

Quasi sempre, cioè, le nostre scelte arrivano come esito di varie altre operazioni preliminari, di un vero e proprio piano d’azione a cui spesso ci siamo applicati con impegno, ma che può anche scaturire automaticamente sulla base dell’esperienza passata. Quando le cose vanno storte, però, quando le nostre decisioni non producono gli esiti desiderati o, al peggio, determinano esiti catastrofici, raramente mettiamo in discussione la qualità del piano, piuttosto ci concentriamo sulla scadente o mancata esecuzione di alcune delle azioni che il piano prevedeva.

Loading...

In altre parole, quando commettiamo un errore, nella maggior parte dei casi lo classifichiamo come un errore di esecuzione, tralasciando la possibilità che invece si sia trattato di un errore di pianificazione.

I tre fattori della pianificazione

Questo, naturalmente, offusca i veri motivi che ci hanno portato fuori strada e ci impedisce di apprendere dai nostri sbagli. Il processo di pianificazione delle decisioni non è da intendersi solamente in termini formali – un piano dettagliato, ragionato, formalizzato ed esplicito – spesso tale piano ha origine quasi istantaneamente attingendo a risorse che la nostra mente mette prontamente a disposizione dei nostri fini.

Questo genere di pianificazione dell’azione si articola, secondo una nota classificazione, in tre componenti principali: un database di lavoro, le operazioni mentali e le strutture di conoscenze apprese che conserviamo nella nostra memoria. A questi elementi si aggiungono gli input che riceviamo dal contesto ambientale e gli output, che sarebbero le nostre azioni, il nostro agire sull’ambiente (Reason, J., 2013. “A Life in Error. From Little Slips to Big Disasters”. CRC Press).

Nel database di lavoro vengono conservate le informazioni immediatamente rilevanti per la decisione che stiamo elaborando; informazioni che abbiamo appositamente recuperato nella nostra memoria o, più frequentemente, che abbiamo derivato dalla situazione contestuale nella quale ci troviamo.

Le operazioni mentali riguardano, invece, la selezione delle informazioni più rilevanti, la definizione degli obiettivi da raggiungere, la valutazione di percorsi alternativi per il raggiungimento di quegli stessi obiettivi e la identificazione del percorso ottimale.

Infine, le conoscenze apprese contribuiscono ad ognuna delle altre fasi, rendendo disponibili schemi di ragionamento e ricordi nei quali emergono nessi causali tra azioni e conseguenze, già esplorati nel passato, con tutto il carico emotivo legato agli esiti positivi o negativi di quelle passate decisioni.

Per capire in che modo il processo di pianificazione può fallire, allora, dovremmo predisporci ad esplorare le vulnerabilità connesse a ciascuno di questi tre elementi. La memoria di lavoro, per esempio, difficilmente sarà in grado di utilizzare tutte le variabili che teoricamente sarebbe necessario prendere in considerazione in una decisione ottimale. Tendenzialmente utilizzerà quelle che si sono rivelate più utili nel passato, rendendoci in questo modo meno capaci di affrontare efficacemente le novità, e quelle, in particolare, che hanno portato a decisioni di successo piuttosto che a fallimenti, rendendo più complicato, in questo modo, attivare contromisure appropriate.

Per quanto riguarda le operazioni mentali, anche queste saranno fortemente influenzate da ciò che è accaduto nel passato. Questo ci renderà meno capaci di affrontare eventi casuali, proprio perché arriveranno inattesi rispetto alle esperienze passate e non saremo stati in grado di pianificare le operazioni necessarie per fronteggiare l’imprevisto. Nelle nostre operazioni, poi, saremo più inclini a dare maggior peso a quelle informazioni ed eventi che si sono fissate saldamente nella nostra memoria a causa della loro forte connotazione emotiva.

Ricordiamo più facilmente e più frequentemente eventi drammatici – chi non si ricorda, per esempio, dove si trovava nel momento in cui l’11 settembre 2001 il secondo aereo colpì il World Trade Center? – che non eventi, magari più rilevanti ai fini della nostra pianificazione, ma dal profilo, emotivamente parlando, più basso.

I rischi legati all’eccesso di sicurezza

Ogni piano, poi, è guidato da una teoria, una serie di ipotesi che facciamo circa il nesso tra azioni e risultati attesi. In genere, in ogni azione di pianificazione, tali teorie vengono messe a confronto solo con le informazioni che le sostengono. Raramente, infatti, andiamo alla ricerca di elementi dell’esperienza che contraddicono le nostre idee. Questo, sia perché vogliamo, in fondo, avere ragione, sia perché siamo generalmente “overconfident”, crediamo di essere più bravi a fare ciò che facciamo di come siamo in realtà. Stando ai dati di un classico studio sul tema, sembra che l’88% degli automobilisti americani ritenga di avere capacità di guida superiori alla media.

L’eccesso di sicurezza unitamente alla tendenza a ricercare dati che confermano le nostre ipotesi, rappresenta una combinazione di operazioni mentali potenzialmente esplosiva, perché acceca le nostre capacità di giudizio dandoci l’illusione, al contempo, di operare per il meglio.

Non ci piace avere torto

Questa combinazione influenza anche il terzo elemento della nostra pianificazione: l’uso delle conoscenze apprese. Un piano, infatti, non vale l’altro. Quello che abbiamo appena elaborato e ritenuto più idoneo al raggiungimento dei nostri obiettivi è, ai nostri occhi, il migliore. Se dovessero emergere delle falle a seguito del confronto con l’esperienza passata o con altre conoscenze apprese, state pur certi che saremmo indotti ad attribuire un peso molto inferiore, rispetto a quanto sarebbe razionale fare, a tali esperienze e conoscenza. E questo semplicemente perché non ci piace avere torto.

A dire il vero non ci piace neanche pensare alla possibilità di avere torto. Per questo una volta identificato un piano d’azione, saremo estremamente restii a modificarlo, anche a fronte di fatti chiari e inequivocabili che dovessero suggerire di farlo. Tutti questi elementi possono produrre errori di pianificazione che, anche in assenza di errori di esecuzione, potrebbero impedirci di raggiungere i fini che ci siamo prefissati.

«Un cammello è un cavallo progettato da un gruppo»

Un ulteriore elemento di complicazione emerge, poi, dal fatto che spesso a pianificare non siamo soli. Molto spesso, infatti, queste operazioni avvengono all’interno di gruppi e organizzazioni. Questo fa si che i potenziali errori vadano non a sommarsi, ma a moltiplicarsi, espandendo enormemente lo spazio delle possibili conseguenze negative.

L’errore, l’abbiamo già detto molte volte, altro non è che una conseguenza naturale dei nostri processi cognitivi. Deriva dalla nostra straordinaria capacità di gestire la complessità e di navigare in un mondo estremamente complicato. Quindi, così come, se ragioniamo in gruppo, aumentano le chances di trovare la soluzione ad un problema complicato, allo stesso modo, la dinamica collettiva fa aumentare la possibilità di generare errori di pianificazione. Chi ha provato a scrivere un testo in gruppo riesce ad intuire immediatamente questo punto. Come dice, scherzando ma non troppo, il premio Nobel per l’Economia, l’indiano Amartya Sen: «Un cammello non è altro che un cavallo, ma nella versione progettata da un gruppo».

Anche assumendo la migliore buona fede e il totale allineamento degli interessi tra i membri del gruppo, una decisione collettiva presenta delle sfide che una decisione individuale non deve affrontare.

Se, però, introduciamo un briciolo di realismo nell’analisi e consideriamo il fatto che non tutti i membri del gruppo possono volere la stessa cosa e lavorare, quindi, in perfetto accordo e perfetta trasparenza, allora le cose si complicano ulteriormente. Nella selezione dell’informazione rilevante, per esempio, ogni membro sarà propenso a optare per quella che può avere ricadute positive su di sé, individualmente, e a scartare quella con potenziali ricadute negative.

La paura del dissenso

Nell’ambito di una organizzazione gerarchica, poi, tali informazioni possono essere trasmesse in maniera distorta, ai livelli superiori, quando tale distorsione va a favore o riduce le conseguenze negative nei confronti di chi la trasmette.

Qualche anno fa Jennifer Kish-Gepharta, professoressa di Management dell’Università dell’Arkansas, assieme ad un gruppo di colleghi ha pubblicato una sintesi degli studi che hanno indagato questi fenomeni (“Silenced by fear: The nature, sources, and consequences of fear at work”. Research in Organizational Behavior 29, 2009, pp. 163-193). Dai risultati emerge, per esempio, che tra i circa mille scienziati della Food and Drug Administration americana, l’agenzia incaricata, tra le altre cose, di autorizzare l’utilizzo e la commercializzazione dei vaccini anti-COVID, il 40% dichiarava di temere rappresaglie nel caso avesse parlato pubblicamente di rischi per la sicurezza.

Tra i 40 mila dipendenti di una grande impresa tecnologica, il 50% circa non si sentiva sicuro ad esprimersi in dissenso rispetto a decisioni aziendali e l’85% di un campione di lavoratori nell’ambito della consulenza aziendale, dei servizi finanziari, dei nuovi media, del settore farmaceutico e della pubblicità: «In almeno un’occasione si sono sentiti scoraggiati dal sollevare un problema coi loro capi, pur sapendo che si trattava di una questione importante».

Se la fedeltà al gruppo diventa patologia

A queste distorsioni che spesso riguardano la comunicazione verso l’alto nell’ambito di organizzazioni gerarchiche, si affiancano gli equivalenti collettivi delle distorsioni cognitive individuali. Il “groupthink”, per esempio, è una forma patologica di pensiero collettivo che assomiglia molto alla “overconfidence” individuale. Nella definizione dello psicologo sociale Irving Janis, che molto si è occupato del fenomeno, il “groupthink” è «un modo di pensare che la gente fa proprio quando si trova profondamente coinvolta in un gruppo coeso, chiuso e caratterizzato da una forte identità (ingroup), quando l’aspirazione dei membri all’unanimità ha la precedenza sulle loro motivazioni a valutare, in maniera realistica, la possibilità di differenti linee di condotta» (Victims of Groupthink. A Psychological Study of Foreign-Policy Decisions and Fiascoes, 1972).

Non si tratta tanto di un atteggiamento conformistico, ma di una forma patologica in virtù della quale tutte le informazioni, le obiezioni, le controdeduzioni e le alternative, che potrebbero mettere in dubbio la bontà delle decisioni del gruppo, vengono sacrificate ai valori di coesione e unità del gruppo stesso.

Il “groupthink” dietro i fallimenti di Vietnam e Baia dei Porci

Lo stesso Janis, ha applicato tale concetto a episodi famosi di politica internazionale nei quali gruppi altamente qualificati ed esperti hanno preso decisioni che hanno condotto ad esiti catastrofici: l’escalation della guerra del Vietnam e il disastro della Baia dei Porci, solo per fare due esempi. Il groupthink ha influito in questi, così come in molti altri casi, creando un senso diffuso di infallibilità tra i membri del gruppo, un ottimismo tanto estremo quanto ingiustificato, un’eccessiva propensione al rischio, l’esplicita sottovalutazione di tutti i segnali di avvertimento, una forma individuale e collettiva di auto-censura rispetto all’espressione di dubbi o riserve rispetto alla posizione condivisa dal gruppo ed una ingiustificata ricerca ed aspirazione all’unanimismo.

Questa combinazione esplosiva di fattori contribuisce agli errori di pianificazione nel più micidiale dei modi: rendendo la possibilità di un fallimento “un’opzione se non addirittura impensabile, certamente indicibile” (Reason, 2013, p. 62).

Il “groupthink” è un neutralizzatore naturale dell’originalità. Avete mai notato come molto spesso gli insegnanti tendano a penalizzare e, infine, a spegnere lo spirito dei loro allievi più ispirati e originali? Di quelli troppo fuori dagli schemi per essere parte integrante del gruppo? Ma è di questa originalità che abbiamo bisogno quando dobbiamo affrontare una situazione nuova, imprevista e imprevedibile, sperando di poter ridurre al massimo la probabilità di sbagliare.

Meglio il “vuja de” del “deja vu”

Ecco perché i leader migliori sono quelli tanto audaci da incoraggiare la diversità tra i loro collaboratori. Per spiegare il punto, Adam Grant, professore di psicologia delle organizzazioni alla Wharton School dell’Università della Pennsylvania, contrappone il concetto di “déjà vu” con quello di “vuja de”. Il “deja vu” si verifica quando incontriamo qualcosa di nuovo che ci sembra, in realtà, vecchio, già visto, mentre il “vuja de”, al contrario, si verifica quando ci troviamo in una situazione familiare che iniziamo, però, a guardare con occhi nuovi, davanti alla quale ci facciamo venire in mente soluzioni inedite a problemi consolidati.

Troppe star in un gruppo diminuiscono le probabilità di vittoria

Anche davanti al rischio di una pianificazione inefficace la diversità è un antidoto efficace. Sono molte le ricerche che ce lo testimoniano. Non basta, per esempio, mettere insieme analisti finanziari di altissimo livello per assemblare un team realmente efficace. Boris Groysberg e i suoi colleghi hanno mostrato, al contrario, che, soprattutto in un settore dove lo status individuale assume un valore più che rilevante, il numero di superstar nello stesso team è legato alla performance del team stesso da una relazione ad U-rovesciata. Oltre una certa soglia, la concentrazione diventa nociva (“Too Many Cooks Spoil the Broth: How High-Status Individuals Decrease Group Effectiveness”. Organization Science 22(3), 2010).

Risultati simili si osservano nell’ambito delle squadre nazionali di calcio con la probabilità di qualificarsi alle fasi finali dei Mondiali e con le squadre di basket dell’Nba dove le squadre con almeno cinque top players hanno una probabilità inferiore di vittoria rispetto alle squadre con solo tre superstar. Quella della pianificazione è una fase critica del processo decisionale nella quale si possono insinuare numerosi agenti patogeni. La gravità dell’effetto di tali agenti è ulteriormente potenziata quando la pianificazione non riguarda solo singoli individui, ma gruppi. In questo caso l’effetto dei potenziali errori è moltiplicativo e nuovi fenomeni come il “groupthink” concorrono all’instabilità dell’esito.

In questo senso la diversità culturale, di status e di esperienza può rappresentare un antidoto efficace all’eccessiva sicurezza e alla tendenza alla ricerca della conferma. È importante tenerne conto in ogni ambito e situazione, perché non esiste un vaccino per gli errori, ma come ci ricorda il papà di Dilbert, Scott Adams: «La creatività sta nel concedersi di commettere errori. L’arte nel sapere quali conservare».


Brand connect

Loading...

Newsletter

Notizie e approfondimenti sugli avvenimenti politici, economici e finanziari.

Iscriviti