Pensieri lenti e veloci – Riassunto

Pensieri lenti e veloci di Daniel Kahneman dimostra che la maggior parte dei nostri pensieri e comportamenti è generata da un sistema automatico del cervello. Per fortuna con l’attenzione possiamo attivare il ragionamento e ridurre gli errori.

Crediamo di essere razionali, ma siamo al massimo razionalizzanti. Sì, sappiamo ragionare e scegliere con cognizione di causa, ma il più delle volte seguiamo l’intuizione lungo scorciatoie mentali e a posteriori cerchiamo una logica nelle nostre azioni.

Pensieri lenti e veloci (Thinking, fast and slow) illustra le due modalità in cui funziona la mente: il sistema 1 automatico, vero protagonista delle nostre decisioni, e il sistema 2 riflessivo, personaggio secondario e pigro convinto di essere molto importante. 

Le ricerche di Amos Tversky e Daniel Kahneman – Nobel per l’economia nel 2002 – hanno gettato le basi dell’economia comportamentale e mostrato che persino quando crediamo di perseguire freddamente i nostri interessi economici siamo in realtà manovrati dall’emotività e accecati da bias cognitivi

Scopri come limitare gli errori per prendere decisioni migliori, comunicare meglio ed essere più felice! Leggi il riassunto e impara a riconoscere gli automatismi e ad attivare il pensiero lento e riflessivo.

I due sistemi

Il cervello umano può funzionare in due modalità: 

  • Sistema 1: veloce, basato su automatismi e scorciatoie mentali
  • Sistema 2: lento e riflessivo

Il cervello funziona quasi sempre in modalità automatica veloce e occasionalmente in quella lenta e riflessiva, per garantire una gestione buona con il minimo consumo energetico. 

Secondo Kahnemann, Pensieri lenti e veloci potrebbe essere uno psicodramma in cui il riflessivo sistema 2 crede di essere al centro dell’azione, ma è solo un personaggio secondario. È il sistema 1 il protagonista del libro.

Sistema 1

Il sistema 1, veloce e automatico è sempre in funzione e consuma pochissima energia. È la modalità fondamentale in cui lavora il nostro cervello. Gestisce tutte le attività che possiamo svolgere senza pensare e senza sforzo: guidare su una strada tranquilla e conosciuta, camminare al passo che ci viene naturale. Il sistema 1 è il nostro pilota automatico.

È lui che gestisce tutte le attività di routine facendo appello al sistema 2 solo in caso di compiti complessi che da solo non riesce a svolgere. Purtroppo anche in questi casi tende a dire la sua con intuizioni e spunti, che il sistema riflessivo spesso convalida senza indagare per pura pigrizia.

Anche se la tua parte razionale è “convinta di avere il controllo e di conoscere le ragioni delle proprie scelte”, la maggior parte delle tue azioni deriva in tutto o in parte dal sistema automatico.

È il sistema 1 che:

  • Nota che un oggetto è più lontano di un altro. 
  • Ci fa orientare verso la sorgente di un suono improvviso. 
  • Completa la frase “pane e…”. 
  • Capisce frasi semplici. 
  • Associa caratteristiche a stereotipi.

Il sistema 1 è una macchina per saltare alle conclusioni attraverso pensiero associativo ed euristiche:

  • Cerca nella memoria per associazione di idee, evitando di scandagliare tra tutti i ricordi ogni volta che ci serve un’informazione. 
  • Pesca risposte più o meno plausibili in base alle esperienze più recenti o più emotivamente significative, a stereotipi e rapporti causa-effetto apparenti.

Il sistema 1 è crea e aggiornare una mappa del mondo che rappresenti cosa sia normale, per poter agire velocemente. Strumento indispensabile per la sopravvivenza della specie nell’ambiente selvaggio in cui ci siamo evoluti, incapace di esprimere la complessità attuale della società e dei tuoi bisogni. 

In alcuni casi il sistema 1 diventa molto affidabile anche nel gestire situazioni complesse: succede quando grazie a migliaia di ore di pratica si acquisisce l’intuizione esperta. Un campione di scacchi che trova la mossa decisiva, un’ostetrica che intuisce in pochi secondi se il neonato sta bene, sono alcuni di questi casi.

Sistema 2

Il sistema 2 è quello che si occupa di svolgere o monitorare i compiti difficili. Per attivarlo devi concentrarti. È lento, riflessivo e consuma molta energia, per questo cerca di intervenire il meno possibile e spesso si limita a convalidare i suggerimenti istintivi del sistema 1. 

Il sistema 2 entra in funzione quando dobbiamo:

  • Cercare una donna con i capelli bianchi in mezzo ad una folla. 
  • Frugare nella memoria per identificare un suono molto strano. 
  • Mantenere un passo più veloce di quello che ci riesce naturale. 
  • Contare quante volte compare la lettera A in una pagina. 
  • Dare a qualcuno il numero di telefono. 
  • Confrontare le caratteristiche di due lavatrici. 
  • Compilare la dichiarazione dei redditi.
  • Mantenere un comportamento adeguato nelle situazioni sociali. 

Il sistema lento si attiva solo quando quello automatico non riesce a gestire un compito da solo, ad esempio i calcoli complessi o il confronto di più opzioni. O quando la realtà non corrisponde a quella rappresentata nei nostri schemi mentali, perché la sorpresa innesca l’attenzione, di cui il sistema 2 si nutre. 

Senza attenzione e pensiero cosciente, siamo sempre in mano al pilota automatico del sistema 1.

Quando ci riesce facile fare una cosa siamo in uno stato di fluidità cognitiva e tendiamo ad usare solo l’intuizione e a lasciarci convincere. Quando invece dobbiamo sforzarci, ad esempio di fronte ad un testo in caratteri molto piccoli, il sistema razionale si attiva e tendiamo a mettere in discussione anche il contenuto di quel che leggiamo.

Il pensiero critico è competenza esclusiva del sistema 2.

Euristiche e bias

Se dovessimo fermarci a riflettere su ogni azione che compiamo la nostra vita sarebbe un inferno, o più probabilmente non ne avremmo una, perché la specie umana si sarebbe estinta molte migliaia di anni fa. Gli automatismi usati dal sistema 1 si chiamano euristiche e possono essere utili come causare errori della percezione o bias.

Ecco alcune euristiche e bias descritti da Kahneman:

Priming

I nostri ricordi più recenti influenzano le associazioni di idee che usiamo per risolvere quesiti e problemi. Ad esempio quando completiamo la parola S_ _P come soup (zuppa) dopo aver pensato alla cena e come soap (sapone) dopo aver pensato alla doccia. 

Illusione del ricordo

Se ti chiedono di verificare una  lista di celebrità crederai siano famosi tutti quelli che hanno nomi che ti suonano familiari, per una sorta di dejà vu illusorio.

Effetto esposizione

La familiarità ci fa sembrare tutto più positivo: la ripetizione di stimoli neutri e perfino di parole straniere incomprensibili alimenta un senso di abitudine e fiducia.

Illusione di causalità

Il sistema 1 vede nessi causali anche dove non ci sono e il sistema 2 spesso li convalida. Lo sanno bene i giornalisti, che amano suggerire rapporti causa-effetto inesistenti ma affascinanti e a volte si contraddicono. Ad esempio, nel 2003 l’agenzia di stampa Bloomberg uscì a distanza di mezzora con questi due titoli: “Buoni del tesoro in rialzo: la cattura di Saddam Hussein potrebbe non fermare il terrorismo”; “Buoni del tesoro in ribasso: la cattura di Saddam Hussein aumenta l’attrattiva dei titoli ad alto rischio”. 

“Qualsiasi evento saliente recente è candidato a diventare il nucleo di una narrazione causale.”

Bias di credenza e conferma

Il sistema automatico crede a ciò che sa già. Se un dubbio riesce ad emergere al livello della coscienza, il sistema 2 si attiva per gestirlo e confrontare le opzioni. Se è impegnato in altro, crediamo quasi a tutto. E poi cerchiamo conferme alle nostre convinzioni.

Effetto alone

È la tendenza a giudicare tutto di una persona, anche quel che non abbiamo osservato, in base all’impressione che ci ha fatto in precedenza. Se Alan ci viene presentato come intelligente e ostinato, vedremo nella sua ostinazione una dote. Se ci viene presentato come invidioso e ostinato, la sua caparbietà ci sembrerà un ulteriore difetto.
È l’effetto alone a darci la sensazione che le persone belle siano anche buone.

WYSIATI (Quel che si vede è l’unica cosa che c’è)

Il sistema 1 lavora per creare coerenza, esagerandola se necessario, strutturando la propria conoscenza in storie. Basa tutte le sue convinzioni sulle informazioni a portata di mano, indifferente alla loro quantità e affidabilità, anche per via del bias di eccessiva sicurezza. 

Il bias della disattenzione per la probabilità a priori fa sì che valutiamo le probabilità non in base a statistiche ma a ciò che ci è familiare, ad esempio ipotizzando caratteristiche delle persone coerenti con i nostri stereotipi.

Illusione dello schema

Tendiamo a bypassare statistiche e numeri perché non riusciamo a gestirli col sistema 1. Così vediamo schemi anche in situazioni create solo dal caso, ad esempio nei piccoli campioni, i cui comportamenti non sono generalizzabili (legge dei piccoli numeri).

Euristica della disponibilità

L’euristica della disponibilità è il meccanismo automatico che usiamo per rispondere alle domande sulla probabilità in base ai nostri ricordi più recenti o più vividi, dando per scontato che siano più probabili i fatti di cui abbiamo esperienza.

Effetti di formulazione

Esprimere lo stesso concetto dando rilievo ad un aspetto negativo o ad uno positivo ne cambia la percezione. “Le probabilità di sopravvivenza sono del 90%” induce scelte diverse – anche negli esperti – della frase “la mortalità è del 10%”.

Euristica dell’affetto

Spesso prendiamo decisioni sulla base di sentimenti e pulsioni. Ci incoraggia il processo di sostituzione, cioè la nostra tendenza a rimpiazzare quesiti difficili, che richiedono riflessione, con altri più semplici che possono essere risolti con euristiche, quindi dal sistema 1.

È il caso di un uomo d’affari che comprò azioni di un’azienda automobilistica non perché avesse verificato le probabilità di guadagno, ma perché amava le macchine di quella casa.

Effetto ancoraggio

Qualunque numero ci venga proposto come soluzione ad un problema condizionerà la risposta che daremo. Se ti chiedono: “Gandhi aveva più o meno di 144 anni quando morì? Quanti anni aveva Gandhi quando morì?”, darai per scontato che la sua vita sia stata molto lunga e risponderai aggiustando al ribasso il valore iniziale 144 che fa da ancora.

Euristica della rappresentatività e Problema di Linda

Il problema di Linda mostra il paradosso chiamato da Kahneman il meno è il più: l’aggiungersi di caratteristiche coerenti con una rappresentazione mentale aumenta in noi la sensazione di probabilità. È l’euristica della rappresentatività che ci trae in inganno.

Regressione verso la media

Se un atleta fa una gara molto migliore o molto peggiore delle solite, ci aspettiamo che da lì in avanti prosegua allo stesso livello. Ma in realtà i risultati successivi saranno più simili alla media di quelli precedenti che a quelli estremi. 

Per questo premi e punizioni in base al singolo risultato non hanno molto senso, così come seguire quotidianamente l’andamento della borsa o delle criptovalute: servono solo controlli su tempi lunghi, che permettano di capire l’andamento medio dei mercati. Secondo Kahneman, bisogna imparare a pensare come i trader esperti, ricordando che sui piccoli campioni domina la casualità, anche se ci sembra di vedere nessi causali.

Insensibilità per la qualità delle informazioni

Se sei spigliato ad un colloquio potresti avere la meglio su un collega con un CV molto migliore del tuo. Perché? Perché attribuiamo lo stesso valore a informazioni di qualità diversa e prendiamo decisioni in base a questo! Da una parte la simpatia, dall’altra i titoli accademici, ma non vediamo la differenza.

Fallacia della narrazione

Le storie distorte del passato forgiano la nostra visione del mondo e le nostre aspettative per il futuro. 

Come distorciamo le storie?

  • Attribuendo a talento, stupidità, personalità e intenzioni eventi spesso puramente casuali. 
  • Concentrandoci sugli eventi straordinari e tralasciando come vanno le cose nella maggior parte dei casi.
    Raccontare un singolo episodio di successo induce una sensazione di inevitabilità, che ci porta ad ignorare il ruolo della fortuna.
  • Guardando agli eventi passati attraverso il bias del senno di poi.

I rapporti causa-effetto aiutano a capire le statistiche

Ci è più facile metabolizzare le statistiche quando sono associate a rapporti causa-effetto. 

“Di notte, un taxi è coinvolto in un incidente e tira dritto. L’85 per cento dei taxi della città è Verde e il 15 per cento Blu. Un testimone ha identificato il taxi come Blu. Il tribunale ha verificato l’attendibilità del testimone ponendolo nelle stesse condizioni della notte dell’incidente e ha constatato che egli ha riconosciuto ciascuno dei due colori l’80 per cento delle volte e non lo ha fatto il 20 per cento delle volte. Qual è la probabilità che il taxi coinvolto nell’incidente fosse Blu anziché Verde?”

Se sei come la maggior parte delle persone, calcolerai la probabilità concentrandoti sul testimone. Se invece ti dicessero che l’85% degli incidenti stradali è causato dai taxi verdi, ti verrebbe naturale soppesare tutte le variabili problema.

Le storie possono aiutare a capire le statistiche

I casi individuali sorprendenti hanno su di noi un enorme potere e possono aiutarci a metabolizzare le statistiche.

Sappiamo che la maggior parte delle persone tende ad ignorare le richieste d’aiuto lanciate ad un gruppo, mentre si attiva quando riceve una richiesta diretta. Ma anche chi è appena stato informato di questo tende a dimenticarsene quando stima la probabilità che una persona che sta male venga aiutata da qualcuno a caso tra la folla.

Se le stesse statistiche vengono raccontate con protagonisti ben descritti o meglio con immagini e video, le probabilità hanno molta più presa sulla nostra mente e riusciamo a ricordarcene quando ci si presenta un caso simile. 

Bias del senno di poi

Quando ripensiamo agli eventi passati li giudichiamo alla luce delle conoscenze che abbiamo oggi. Per questo non appena adottiamo una nuova visione del mondo non riusciamo più a ricordarci cosa credevamo prima. E così oggi tanti economisti dicono che la crisi del 2008 fosse prevedibilissima.
Questo bias del risultato rende difficilissimo valutare le decisioni in modo oggettivo. Se un operazione chirurgica a basso rischio dovesse portare alla morte del paziente, facilmente crederemmo che i medici non avrebbero dovuto ordinarla. Se invece un’azione molto rischiosa va bene ci si complimenta con chi ha deciso di farla senza tener conto di cosa sarebbe potuto andare male.

Eccessiva sicurezza: Illusione di validità e di abilità

Spesso le nostre scelte sono poco più attendibili di quelle che verrebbero fuori tirando i dadi, anche quelle degli esperti. In contesti estremamente variabili, come la borsa, gli esperti fanno valutazioni di poco migliori rispetto ai principianti. Addirittura i massimi esperti tendono a fare valutazioni peggiori per via dell’eccessiva fiducia nel proprio intuito, perché avere maggiori conoscenze alimenta l’illusione di abilità.

Gli errori di previsioni sono inevitabili perché il mondo è imprevedibile. Solo le tendenze a breve termine possono essere previste. Ci aiutano le check-list, che ci costringono a valutare separatamente una serie di parametri fondamentali, attraverso informazioni obiettive. 

Quando ci si può fidare della valutazione di un esperto?

Kahneman cita pompieri che intuiscono che il soffitto di una casa sta per crollare, campioni di scacchi che prevedono le mosse successive degli avversari, ostetriche, medici, atleti. La loro è un’intuizione esperta, che non è altro che la capacità di riconoscere una situazione già sperimentata in passato, grazie all’esperienza di un enorme numero di casistiche.

L’intuizione esperta si può sviluppare solo nei campi in cui le competenze fanno davvero la differenza:

  • Ambienti regolari e quindi prevedibili
  • Pratica prolungata e feedback continui

Fallacia di pianificazione

Facciamo stime in base ai dati che sono davanti ai nostri occhi e a come ci sentiamo, mentre sarebbe opportuno fare riferimento a dati oggettivi, attingendo alle statistiche su casi simili. Solo così possiamo accedere ad una visione esterna dei nostri progetti e superare il “quel che vedo è tutto quel che c’è”.

L’attrazione per la visione interna alimenta la fallacia di pianificazione, che ci porta a sottoovalutare gli imprevisti che possono rallentare il lavoro o far lievitare i costi. Un modo per ridurla è il pre-mortem: immaginare il fallimento del nostro progetto e tutto quello che può essere andato storto nel frattempo.

Bias dell’ottimismo 

Se sbagliamo le previsioni di costi e tempistiche è spesso colpa del bias dell’ottimismo, che ci fa sembrare tutto più facile di quanto sia in realtà. Ma come ammette anche Kahneman, “quando occorre agire, l’ottimismo, anche se del tipo leggermente delirante, è forse una cosa positiva.” 

L’ottimismo e la disattenzione per la competizione sono il motore del capitalismo, perché ci spingono a lanciare iniziative imprenditoriali in cui molti prima di noi hanno già fallito.

Prospect theory e avversione alla perdita

Evitiamo il rischio di perdere qualcosa ma cerchiamo il rischio quando c’è la possibilità di ridurre la perdita.

“L’idea di accettare una grande perdita sicura è troppo dolorosa, e la speranza di un totale salvataggio troppo allettante, perché si prenda la ragionevole decisione di ridurre le perdite.”

Le perdite e i guadagni ci appaiono più o meno grandi in proporzione a quanto già possediamo. Ma in generale perdere ci fa stare malissimo e pur di impedirlo andiamo contro i nostri stessi interessi. Rischiamo 100€ solo se possiamo guadagnarne almeno 200.

Effetto dotazione

Quello che ci appartiene vale più di oggetti identici che non ci appartengono. È evidente quando ci chiedono di stabilire a che prezzo venderemmo qualcosa e quanto pagheremmo per comprarla. Liberati dell’effetto dotazione se vuoi fare trading in modo efficiente.

Fallacia del costo irrecuperabile

Per l’avversione alla perdita facciamo fatica ad abbandonare progetti in cui abbiamo investito soldi e/o energia anche se destinati al fallimento. Paradossalmente ci impegnamo ancora di più sprecando ulteriori risorse.

Sensibilità agli eventi negativi

Emozioni e feedback negativi ci influenzano molto più di quelli positivi. Notiamo molto più facilmente le espressioni negative, le possibili minacce e le opinioni in netto contrasto con le nostre. 

Anche gli stereotipi negativi si formano facilmente e sono più resistenti. Ad esempio, in una relazione servono 5 azioni positive per compensare una sola azione negativa.

“Il nostro cervello non è strutturato in maniera da ricompensare la generosità nello stesso modo sicuro in cui punisce la cattiveria.”

Effetto possibilità ed Effetto certezza

Le persone sovrastimano le probabilità di eventi improbabili e danno loro troppo peso nelle decisioni. D’altra parte risultati quasi certi sono considerati meno probabili di quel che realmente sono.

Poiché anche la remota possibilità di un evento molto spiacevole ci spaventa, siamo disposti a pagare prezzi alti per azzerare il rischio. E le assicurazioni ringraziano.

Questi bias rendono difficile una valutazione obiettiva delle opzioni più convenienti. Entrano in gioco le emozioni che ogni scenario evoca, che non tengono conto della probabilità che esso si verifichi effettivamente. Ancora peggio se aggiungiamo dettagli realistici che aumentano il coinvolgimento emotivo.

Per questo gli eventi catastrofici rari non ci preoccupano troppo: sono situazioni mai provate che hanno poca presa sulla nostra sfera emotiva. 

Framing ampio e Framing ristretto

Tendiamo a prendere le decisioni man mano che insorgono i problemi (framing ristretto). In realtà spesso la scelta più razionale è più facile da individuare quando si considerano le scelte come piccole scommesse che fanno parte di un unico insieme (framing ampio). È quello che fanno i trader esperti, che valutano l’andamento complessivo dei propri investimenti e non si attaccano emotivamente alla singola scelta. Sono liberi dall’effetto dotazione

Effetto inclinazione

L’effetto inclinazione è invece un esempio di framing ristretto. L’investitore ha aperto un conto mentale per ogni azione che ha comprato e vuole chiudere ogni conto guadagnandoci.

Contabilità mentale

Teniamo conti immaginari separati per ogni tipo di spesa, come mangiare, andare ai concerti ecc…, e questo ci porta a decisioni irrazionali. Se ad esempio perdiamo i biglietti per uno spettacolo, facciamo fatica a ricomprali anche se potremmo permettercelo, perché sentiamo di andare in negativo sul “conto delle attività culturali”.

Rammarico

La paura di pentirci ostacola le decisioni, soprattutto se implicano un cambiamento. Infatti la paura del rammarico è molto più forte quando si tratta di cambiare che di mantenere le cose come stanno. 

Per limitarla pondera bene le opzioni, oppure decidi subito, perché riflettere poco non ti salverà. Ricorda che la sofferenza che provoca un risultato negativo di solito è molto più sopportabile di come la immagini.

Responsabilità e tabù del tradeoff

Il rifiuto di accettare un aumento del rischio in cambio di qualche altro vantaggio informa leggi e regolamenti ed è un grosso limite. Infatti azzerare il rischio in un campo consuma risorse enormi con cui si potrebbe ridurre il rischio in più campi, con un risultato complessivo molto migliore.

Inversione del giudizio

Considerare due possibilità insieme aiuta a vederle più oggettivamente. La valutazione singola e la valutazione congiunta non coincidono.

Se ci raccontano che una persona è rimasta coinvolta in una rapina in un negozio in cui entrava per la prima volta perché quello abituale era chiuso, ci sembrerà che abbia diritto ad un risarcimento più alto che compensi la sua grande sfortuna. Se invece ci viene chiesto di stimare il giusto risarcimento per questo caso e per il caso in cui la rapina gli sia capitata nel solito negozio, capiremo che il risarcimento che gli spetta è esattamente identico. 

Come mai? Perché il confronto tra i due scenari favorisce l’attivazione del sistema 2.

La saggezza della folla

Se si fa indovinare ad un gruppo di persone quante monete ci sono dentro un barattolo, alcuni sovrastimeranno il numero e altri lo sottostimeranno, ma la media delle stime si avvicinerà alla realtà. Nel complesso un gruppo abbastanza ampio e vario può arrivare a conclusioni molto migliori dei singoli individui. È La saggezza della folla, su cui James Surowiecki ha scritto un bestseller.

Vedi la lista dei bias completa.