"Système 1, système 2 - Les Deux vitesses de la pensée" de Daniel Kahneman

Interview de Daniel Kahneman, à partir de 32'
https://www.franceinter.fr/emissions/n-arrete-pas-l-eco/n-arrete-pas-l-eco-27-octobre-2012



En anglais : Thinking, Fast and Slow

A LIRE ABSOLUMENT MALGRÉ MON RÉSUMÉ

Texte pris et modifié sur https://jeanneemard.wordpress.com/

Analyse des biais cognitifs

Le livre aborde les comportement de l'humain par
- la pensée : Système 1 & Système 2
- l'analyse de l'espèce Econ des économistes éloignés des Humains qui vivent dans le monde réel
- par son moi expérimentant, qui s'occupe de vivre et le moi mémoriel, qui tient les comptes et fait les choix.

Système 1 & Système 2

L'esprit fonctionne comme une interaction entre 2 personnages fictifs
Système 1 / automatique : rapide, instinctif et émotionnel, pas ou peu d'effort et aucune sensation de contrôle délibéré.
Système 2 / délibéré: plus lent, plus réfléchi et plus logique, accorde de l'attention aux activités mentales contraignantes qui le nécessitent, y compris des calculs complexes

Système 1 n'émet pas de signal quand il perd de sa fiabilité. Il n'y a aucun moyen simple pour le système 2 de distinguer entre une réponse compétente et une réponse heuristique. Il n'a d'autres recours que de ralentir et de tenter de construire une réponse par lui-même, ce qu'il n'aime guère car il est paresseux.
Il approuve avec désinvolture de nombreuses suggestions du système 1, en les vérifiant au mieux superficiellement. C'est ainsi que le Système 1 acquiert sa mauvaise réputation en tant que source d'erreurs et de biais. Ses caractéristiques fonctionnelles, dont COVERA, l'équivalence d'intensité, et la cohérence associative, entre autres, débouchent sur des biais prévisibles et des illusions cognitives comme l'ancrage, les prédictions non régressives, l'excès de confiance, et bien d'autres.

============
Résoudre 2 + 2 est à la portée du système 1, mais résoudre 17 x 24 demande l’intervention du système 2, qui n’y parviendra peut-être pas… J’ajouterai, on l’aura compris avec l’exemple précédent, que l’utilisation du système 2 demande des efforts, efforts que nous préférons bien souvent ne pas entreprendre. Il demande aussi de la concentration. Par exemple, un conducteur d’automobile n’a aucune difficulté à entretenir une conversation sur une route dégagée, mais cessera de parler s’il tente un dépassement sur un segment droit d’une route avec de nombreuses courbes. Si on lui parle, il n’entendra rien (mais, n’essayez pas cela à la maison…)!

Il est bien sûr impossible de présenter tout le contenu de ce livre touffu de 545 pages, mais je vais tenter d’au moins résumer les principaux concepts que l’auteur décortique dans ce livre. Même en résumant, je vais devoir scinder ce billet en deux parties. La richesse et l’importance de ce livre le justifient tout à fait!

La paresse du système 2 : Le système 2 est puissant, mais il ne faut pas le solliciter trop longtemps, car il s’épuise rapidement. Si on se concentre trop longtemps, on devient moins efficace et on n’a plus le goût de se forcer. Il semble que le système 2 consomme beaucoup de glucose : en prendre (comme une limonade sucrée) rétablirait, au moins en partie, notre capacité de concentration.

Il est en outre paresseux. Par exemple, si on est face à une énigme simple, on rechignera à utiliser notre système 2 et on tentera de la résoudre avec notre système 1. Exemple :

un bâton et une balle de baseball coûtent en tout 11,00 $;
on sait que la différence de prix entre les deux est de 10,00 $ et que la balle est moins chère;
combien coûte cette balle?
La majorité des personnes qui répondent à cette question, même des étudiants en sciences, donnent 1,00 $ comme réponse. Pourtant, en activant leur système 2, elles verraient bien que si la balle coûtait 1,00 $, le bâton coûterait 11,00 $ (10,00 $ de plus) et que leur coût total serait de 12,00$. Elles concluraient que la balle coûte en fait 0,50 $ et le bâton 10,50 $ pour un total de 11,00 $ et une différence de prix de 10,00 $. Mais, devant un problème aussi simple, peu de personnes se donnent la peine de vérifier leur impulsion première (basée sur la confiance en leur capacité de la résoudre facilement) de dire que la balle coûte 1,00 $… Une seule personne parmi la dizaine à qui j’ai présenté cette «énigme» m’a donné la bonne réponse. Mon échantillon était petit, mais il allait dans le sens des résultats mentionnés par l’auteur!

L’amorçage : L’amorçage est un des concepts qui revient le plus souvent dans ce livre, car il peut prendre de très nombreuses formes. Un exemple simple est de demander à quel mot on associe PA_N. Si on parle de nourriture juste avant, le mot PAIN ressortira le plus souvent. Mais, si on parle d’oiseaux, ce sera le mot PAON qui viendra le plus souvent à l’esprit. Pire, un groupe qui se fait parler de vieillesse (ou même seulement de mots qu’on y associe) marchera plus lentement dans un déplacement subséquent qu’un groupe dont les membres ont écouté de la musique rythmée.

Un vote tenu près d’une école favorisera les résultats d’un référendum (ils sont fréquents dans les élections aux États-Unis) sur le financement de l’éducation ou même sur d’autres activités à l’intention des jeunes et des enfants. Une association à l’argent rend au contraire les gens plus égoïstes et moins enclins à adopter des mesures pour aider les plus démunis. Un événement terroriste rend les gens plus enclins à appuyer des guerres ou des lois qui briment nos libertés (non, cet exemple n’est pas dans le livre, mais dans l’actualité)! Pourtant, quand les gens ont été amorcés par les révélations de Snowden sur l’espionnage des données personnelles, la réaction fut totalement opposée!

L’illusion du souvenir et de la vérité : Le fait de montrer des noms fictifs à des personnes fera en sorte que, quelques jours plus tard, une forte proportion d’entre elles penseront, si on leur fournit une liste de noms avec un de ceux montrés plus tôt, que cette personne doit être célèbre. De même, mais ça, on le sait parce qu’on l’a entendu ou lu fréquemment, une fausseté répétée suffisamment de fois prend les apparences de la vérité. J’ai encore plein d’exemples en tête de nos conservateurs et même libéraux qui vont dans ce sens. Combien de personnes ne sont-elles pas convaincus qu’un budget gouvernemental doit se gérer comme celui d’une famille (alors que c’est bien sûr ridicule) ou qu’on n’a pas le choix de couper les dépenses de l’État, même si on recycle ainsi une vieille rengaine initialement composée par Margaret Thatcher?

L’illusion de causalité : Le système 1 adore les histoires! Il rebute à imaginer que des événements peuvent être corrélés par hasard. L’auteur mentionne entre autres que la capture de Saddam Hussein a servi à la fois d’explication à une hausse du Dow Jones un matin et à sa baisse le même après-midi! Et que dire des convictions religieuses qui ont déjà servi d’explication aux bonnes récoltes et même de nos jours aux ouragans! Cet attachement aux histoires et à la causalité expliquerait aussi la popularité des thèses conspirationnistes qui savent si bien donner un sens compréhensible à ce qui ne l’est pas. Cela ne les rend pas plus vraies!

L’effet de halo : L’effet de halo est entre autres la tendance à accorder plus de crédibilité à une personne connue (ou ayant une belle apparence physique) qu’à une autre. Les artistes ou sportifs appréciés peuvent même convaincre des gens d’appuyer un parti politique plutôt qu’un autre, une opinion ou une option politique, même s’il n’ont finalement aucune compétence particulière dans le domaine. La popularité de PKP serait-il un effet de halo (pour moi, c’est clair!)?

Le COVERA (ce qu’on voit et rien d’autre) : Le système 1 a tendance à accorder beaucoup plus d’importance à ce qu’il voit (ou connaît) qu’à ce qu’il ne voit pas (ou ne connaît pas). Ce biais cognitif se manifeste entre autres par l’importance démesurée qu’on accorde aux opinions de nos proches ou aux anecdotes. Cela se manifeste par exemple en pensant qu’il y a plus de chômeurs instruits que de chômeurs moins scolarisés, même si les données globales montrent, et de loin, l’inverse. Ce biais, avec celui de l’amorçage, est un des plus importants selon l’auteur qui y revient tout au long du livre.

La loi des petits nombres (et l’importance de la taille d’un échantillon) : Des études ont démontré que les comtés des États-Unis où la proportion de cancers du rein est la plus faible sont peu peuplés. Est-ce une conséquence des bienfaits de la vie rurale (le système 1 aime bien les histoires, je le rappelle…)? Hum… Douteux, car c’est aussi dans les comtés les moins peuplés que cette proportion est la plus élevée! Est-ce en raison de la pauvreté des ces comtés et de la consommation d’alcool et de tabac de ses habitants? De la présence d’agents toxiques? Peut-être… Mais, en fait, ces observations sont normales en raison de la plus grande variabilité que les événements rares ont de se produire dans des zones peu peuplées. D’ailleurs, si les comtés peu peuplés dominent les deux classements à chaque année, ce sont rarement les mêmes qui l’emportent! Un événement qui n’a qu’une probabilité minime de se produire, disons un cas sur 10 000, s’observera à la fois plus souvent et moins souvent dans une petite population. Trois ou quatre cas dans une population de 5 000 habitants représente un ratio six ou huit fois plus élevé que la moyenne et aucun cas sera infiniment moins que la moyenne!

C’est pourtant sur cette base que la Fondation Bill et Melinda Gates a choisi d’investir dans de petites écoles, en scindant souvent de grosses écoles en établissements plus petits. En effet une étude qu’elle avait commandé avait conclu que les meilleurs taux de réussite scolaire s’observaient dans de petites écoles. On y observe aussi les pires taux de réussite, mais comme la Fondation n’avait pas commandé d’étude pour le savoir, elle ne l’a pas su!

L’effet d’ancrage : En faisant tourner une roue de la fortune truquée qui ne donnait que des résultats fixes (65 et 10) et en demandant par après aux utilisateurs le nombre de pays d’Afrique et le pourcentage de ces pays qui siègent à l’ONU, ceux-ci ont donné un nombre disproportionné de réponses de 10 ou 65 aux deux questions… Le même phénomène s’observe quand une question suggère un chiffre précis : les réponses sont plus près de cette suggestion que de la réalité et rarement plus loin.

L’effet d’ancrage est utilisé fréquemment en négociation (d’affaire, dans la vente d’immeubles ou en relation de travail) avec des demandes qui visent à ancrer un niveau dans la tête de la personne avec qui ont négocie. Ça ne fonctionne pas toujours, surtout quand l’information sur le sujet est facilement disponible (comme dans une négociation collective), mais cela a plus de succès quand une des deux parties possède plus d’information (comme dans la vente d’une automobile usagée)! L’auteur souligne que l’effet d’ancrage est souvent une forme d’amorce et qu’il est fréquemment utilisé dans les publicités. Raison de plus de s’en méfier!

L’effet de disponibilité : Après deux accidents d’avion rapprochés, on aura plus ces événements en tête et on surestimera le danger qu’il s’en produise un quand on prendra l’avion. Il en est de même d’autres estimations de fréquence d’événements quand des exemples récents (ou impliquant des personnes connues, ou fortement médiatisés) nous viennent à l’esprit. Les exagérations sur la fréquence et l’importance des accommodements raisonnables et des attaques terroristes me viennent soudain à l’esprit…

Les données croisées (ou les taux de base) : On voit une personne lire un livre de philosophie. La probabilité qu’elle ait étudié en philosophie est-elle plus élevée que celle qu’elle n’ait qu’un diplôme d’études secondaires (DES)? Pour répondre à cette question, il faut tout d’abord se demander qu’elle est la proportion de personnes qui ont étudié en philosophie par rapport à celles qui n’ont qu’un DES. C’est le taux de base. Ensuite, on peut se demander qu’elle est la proportion des personnes qui ont étudié en philosophie qui sont susceptibles de lire un livre de philosophie devant nous par rapport à celle des personnes qui ont un DES. Par exemple, si la proportion de personnes qui ont étudié en philosophie est 100 fois moins élevée que celles qui ont un DES et que ces personnes sont 20 fois plus susceptibles de lire des livres de philosophie, la probabilité que la personne que j’ai croisée ait étudié en philosophie sera cinq fois moins élevée (100/20) que la probabilité qu’elle soit titulaire d’un DES…

Les ensembles et les sous-ensembles : Dans la même optique, l’auteur nous montre que la majorité des répondants à une série de questions sur le sujet pensent qu’une écologiste progressiste a une probabilité supérieure d’être à la fois une employée de banque et une militante féministe que seulement une employée de banque. Or, une employée de banque féministe est forcément une employée de banque, mais une employée de banque n’est pas nécessairement une féministe. En conséquence, il est impossible que la probabilité qu’une personne soit seulement une employée de banque (un ensemble) puisse être moins élevée que la probabilité qu’elle soit à la fois une employée de banque et une militante féministe (un sous-ensemble). Ce genre d’erreur est entre autres un autre exemple montrant que notre système 1 aime bien les histoires et les relations causales!

La régression vers la moyenne : Un entraîneur avait observé que lorsqu’il engueulait un joueur qui avait joué une mauvaise partie, il jouait mieux dans la prochaine. À l’inverse, s’il avait le malheur de féliciter un joueur qui avait connu une bonne partie, celui-ci jouait moins bien dans la prochaine. Il a donc cessé de féliciter ses joueurs, mais a continué à les engueuler! En fait, l’auteur montre que si nous effectuons une performance au-dessus de notre moyenne, la probabilité est plus forte que notre prochaine performance soit inférieure à la précédente (et vice-versa), qu’on nous félicite ou pas (ou qu’on nous engueule ou pas).

Les intuitions : Dans bien des situations, on ne possède pas les informations suffisantes pour estimer un phénomène. L’auteur donne comme exemple une question portant sur une enfant qui savait lire à quatre ans. On doit estimer les notes qu’elle obtiendra à l’université. Comme sa situation est hors de l’ordinaire, notre système 1 a tendance à supposer qu’il en sera de même à l’université. Or, une foule d’événements sont survenus après cette observation, événements qui peuvent avoir un impact sur ses notes à l’université. Il conseille donc d’appliquer la régression vers la moyenne dans ce type de cas et de tempérer notre réflexe premier en réduisant notre estimation première tout en la laissant au-dessus de la moyenne (j’ai dû simplifier à outrance ce chapitre).

L’illusion de compréhension : Quand on lit une histoire comme celle de Google (ou d’Apple ou de Microsoft), on est happé par la cohérence des événements. On ne peut voir que ce qui s’est passé, pas ce qui se serait passé si les événements avaient été différents. La cohérence qu’on voit dans ce genre d’histoire est à la fois due au fait que notre système 1 adore les histoires et qu’il se base sur ce qu’il voit et rien d’autre (COVERA). En fait, ce type d’histoires n’a aucune valeur prédictive car elles sont toutes dues à beaucoup de chance et ce, à de nombreuses reprises. Bref, ce n’est pas seulement en raison du talent (indéniable) de leurs protagonistes ou de leurs stratégies que ces entreprises ont eu du succès, mais grâce à la chance, à beaucoup de chance!

Le biais rétrospectif : On a tendance à modifier les souvenirs de nos intuitions antérieures, surtout lorsqu’elles étaient inexactes. Pour un chroniqueur de centre-droit, il est difficile de se rappeler correctement la façon dont il pensait quand il était trotskiste… Il aura tendance à minimiser ses certitudes passées. De même, notre conviction que telle équipe sportive est la meilleure fondra rapidement après une ou deux défaites humiliantes. Certains prétendront que, dans le fond, elles le savaient bien que cette équipe n’était pas si bonne, même si leur estimation inexacte disait le contraire! Qui n’a jamais dit «je le savais bien» quand le contraire de ce qu’il prévoyait est arrivé?

L’illusion de validité (l’illusion du talent, de la compétence et des experts) : Dans un travail auprès d’une société d’investissement, Kahneman et ses collaborateurs ont démontré que les courtiers de cette firme n’avaient à long terme pas plus de succès que les indices de la Bourse (ou que si leurs investissements avaient été choisis au hasard). Pourtant, les gestionnaires de la firme croyaient dur comme fer aux bienfaits des primes de performance récompensant les courtiers les plus performants une année donnée. Même en réalisant que ces performances étaient essentiellement dues à la chance, jamais ils n’ont même envisagé de modifier leur système. Ils avaient toujours fonctionné ainsi, les autres firmes aussi et c’était donc la bonne façon de faire. D’ailleurs, la baisse de rendement de l’an passé n’a pas empêché une augmentation des primes touchées par les courtiers de Wall Street…

Si on remplace dans cette étude les financiers par des économistes orthodoxes, on observera le même résultat. On aura beau leur montrer par des faits que leur théorie ne fonctionne pas dans le monde réel, jamais (ou très rarement) ils ne remettront en cause les bases de leurs modèles pourtant inexacts. Comme le dit bien Kahneman «les illusions cognitives peuvent s’avérer plus tenaces que les illusions visuelles». Face à une illusion d’optique, comme celle des lignes qui semblent de longueur différente en raison des appendices penchant vers l’intérieur ou vers l’extérieur, notre cerveau acceptera qu’il se trompe, même si on continue à voir les lignes de longueur différente. Il en est tout autrement dans le cas des illusions cognitives, car «les illusions de validité et de compétence sont soutenues par une puissante culture professionnelle. Nous savons que les gens peuvent entretenir une fois inébranlable dans n’importe quelle proposition, aussi absurde soit-elle, quand ils sont entourés par une communauté partageant la même foi». Voilà qui explique bien l’entêtement des économistes orthodoxes (et des financiers…)!

Les intuitions et les formules : L’auteur montre que des formules basées sur des données précises et objectives donnent souvent de meilleurs résultats que ceux provenant de verdict de professionnels. Par exemple, une formule n’utilisant que les notes obtenues au cégep (j’adapte l’exemple de l’auteur au Québec) et les résultats d’un test d’aptitudes a mieux prédit dans 11 des 14 études où elle a été utilisée les notes d’étudiants universitaires que l’analyse de bien plus de facteurs et d’entrevues menées chez ces étudiants par des consultants spécialisés. Ce type de formule utilisé dans d’autres domaines (risque de violation de la liberté conditionnelle, récidivisme chez des délinquants, etc.) a aussi donné de meilleurs résultats que des analyses bien plus fouillées par des psychologues. Le même phénomène s’est observé dans l’utilisation de telles formules en médecine (survie de nourrissons, longévité de patients atteints du cancer, etc), en économie (probabilité de survie de nouvelles entreprises), en politique, en agriculture, etc. On ne s’étonnera pas que les professionnels de ces secteurs ont bien souvent rejeté avec hostilité la validité de l’utilisation de telles formules dans leur domaine (illusion de compétences?)… Il semble que le manque de constance des experts (dû en bonne partie aux nombreux biais cognitifs qu’une méthode moins systématique entraîne) soit le facteur qui expliquerait le mieux leur manque de succès.

Qu’est-ce que l’intuition? : Le texte précédent ne veut pas dire que l’intuition ne sert à rien et qu’elle est toujours biaisée. En fait, une intuition se forme graduellement par l’accumulation d’expériences et l’acquisition de compétences. La prise de décision intuitive repose en effet sur la reconnaissance d’une situation antérieure. «La situation fournit un indice; cet indice donne à l’expert un accès à une information stockée dans sa mémoire et cette information, à son tour, lui donne la réponse».

La vision externe : En concevant avec une équipe un nouveau programme scolaire sur la prise de décision, Kahneman s’est demandé, après un an de travaux, dans combien de temps ils auraient fini. L’évaluation moyenne des membres de l’équipe tournait entre un an et demie, et deux ans et demie. Il a demandé au responsable de l’élaboration de programmes combien de temps cela prenait en moyenne pour en terminer une. À sa surprise, le responsable, qui était pourtant parmi ceux qui avait évalué le temps que cela prendrait à cette équipe, a révélé que jamais cela n’a pris moins de sept ans, ni plus que 10 ans, mais que seulement 60 % des travaux avaient finalement été terminés. Et, de fait, cela leur a pris encore huit ans! Cet écart gigantesque entre l’évaluation interne et ce que Kahneman appelle la vision externe est dû à de nombreux facteurs, dont l’optimisme des participants, l’illusion qu’un rythme élevé de travail peut être maintenu indéfiniment et la minimisation des risques d’écueils. Les entrepreneurs qui n’envisagent qu’une fois leurs ressources épuisées leur échec potentiel malgré le fort taux d’échecs des nouvelles entreprises représente un autre exemple du rejet de la vision externe au profit de la vision interne bien moins réaliste, trop influencée par leur optimisme et leur excès de confiance.

La prise de décision et l’homo œconomicus : Au début des années 1970, l’auteur a pris connaissance de la vision de l’être humain (ou plutôt de l’homo œconomicus, qu’il appelle l’Écon) des économistes classiques, soit un être rationnel et égoïste «dont les goûts ne changent pas». Il en fut abasourdi. «Pour un psychologue, il est évident que les gens ne sont ni complètement rationnels, ni complètement égoïstes, et que leurs goûts sont tout sauf stables». C’est comme si l’objet d’étude des économistes (orthodoxes, me sens-je obligé d’ajouter…) et des psychologues n’était pas le même, les Humains n’ayant rien à voir avec les Écons, comme nous le verrons dans les prochains biais cognitifs…

L’aversion du risque et à la perte : Les gens préfèrent en général recevoir nettement moins de la moitié d’une somme avec certitude (disons 45 $) que de parier à pile ou face la possibilité de la recevoir en entier (100 $) s’ils gagnent et rien du tout s’il perdent (0,9 tiens vaut mieux que deux tu l’auras!). De même, d’autres tests ont montré qu’une personne qui possède une richesse de 1 million $ est moins satisfaite si elle en possédait 10 millions $ la veille que celle qui possède la même richesse (1 million $) mais qui en possédait 100 000 $ la veille. Pourtant, un homo œconomicus n’y verrait aucune différence… De même, un gain de 500 $ pour un pauvre apporte beaucoup de bien-être que le même gain à un milliardaire.

La théorie des perspectives : Cette théorie est celle qui a permis à Kahneman de remporter le Prix de la Banque de Suède en sciences économiques en mémoire d’Alfred Nobel en 2002 et est à la base de l’économie comportementale, qui explique que les êtres humains n’agissent pas toujours de façon rationnelle. Cette théorie formalise les découvertes antérieures de Kahneman et Tversky (notamment sur l’aversion du risque et à la perte). Il serait beaucoup trop long de la présenter dans le cadre de ce billet. Disons seulement qu’elle a été précisée de façon importante depuis sa première version par de nombreuses autres personnes, même si ses principes demeurent les mêmes.

L’effet de dotation : Quand on possède un bien utilisable (ce qui exclut l’argent), on lui accordera souvent une valeur plus élevée. L’auteur donne de nombreux exemples de cet effet (tous très intéressants!), mais je n’en présenterai qu’un. Si vous avez acheté un billet pour un spectacle d’un groupe que vous adorez et qu’on vous offre dix fois ce que vous avez payé pour vous l’acheter, vous refuserez plus souvent qu’autrement cette offre. Par contre, très rarement vous accepteriez de payer ce montant dix fois plus élevé pour aller voir ce spectacle! La douleur de vous en séparer est plus grande que le plaisir de vous le procurer. C’est dans le fond un autre aspect de l’aversion à la perte.

Autres formes d’aversion à la perte : L’auteur et ses collaborateurs se sont aperçus que, à distance et difficulté égales, les golfeurs ratent moins souvent un putt pour obtenir une normale (éviter un bogey) que pour réussir un birdie (ils passent aussi bien plus de temps à s’y préparer). Cela est un autre exemple de l’aversion à la perte et de la douleur plus accentuée d’une perte que du plaisir d’un gain. Il en est de même des règlements hors cour dans des poursuites. Bien souvent un accord rapportant bien moins qu’escompté (même en tenant compte des frais d’avocats) sera accepté même si la personne qui poursuit l’autre est presque (la clé est le «presque») certaine de l’emporter. La petite probabilité de perdre a plus d’importance que la différence de gains souvent disproportionnée par rapport à la probabilité de perdre.

Dans le même sens, on accorde plus d’importance à une probabilité de gagner qui passe de 0 % à 5 % ou de 95 % à 100 % qu’à une probabilité qui passe de 60 % à 65 %, même si les différences d’espérance de gains sont les mêmes. Dans le premier cas, on passe d’une certitude de perdre à une possibilité de gagner, dans le deuxième, on élimine la possibilité de perdre et dans le troisième… bof!

Événements rares : Pour illustrer les effets des événements rares sur notre rationalité, Kahneman donne pour exemple ses présences à Israël à l’époque où il y avait des attentats terroristes dans les autobus de ce pays. En trois ans (de décembre 2001 à septembre 2004), ces attentats ont fait 236 victimes. En tenant compte du nombre d’usagers des autobus (1,3 million par jour), la probabilité d’être victime d’un attentat était donc minime (environ 0,00002 %). Mais, ce n’était pas la sensation qu’en avait le public. Même avec seulement deux victimes du terrorisme au Canada, on assiste ici aussi au gonflement de la prévalence et de l’importance de ces attaques (ce qui ne veut pas dire qu’il ne faut rien y faire…), alors qu’on minimise celles des meurtres et disparitions des femmes autochtones (1186 en 30 ans). Kahneman s’en voulait d’éviter de prendre l’autobus à l’époque et même de tout faire pour ne pas être près d’un autobus à un feu rouge. Si quelqu’un comme lui, qui connaît bien ce genre de biais cognitif, modifiait son comportement en raison d’événements qui avaient une probabilité infime de se passer (en fait inférieure à la probabilité d’avoir un accident de voiture mortel), il se sentait mal placé pour faire la leçon aux Israéliens! Il a ainsi constaté que les humains (mais pas les Écons!) surestiment la probabilité qu’un événement rare se produise et surévaluent son importance dans la prise de décision.

Kahneman donne comme autre exemple de la surestimation de la probabilité qu’un événement rare se produise les estimations par des partisans de la probabilité que chacune des équipes de basketball ayant accédé aux éliminatoires emporte le trophée Larry O’Brien (remis au champion de la finale). Le total de chaque personne interviewée donnait en moyenne 240 %!

Expérience et mémoire : Dans de nombreuses expériences, l’auteur a montré qu’on préfère parfois souffrir davantage pour garder en mémoire un niveau de souffrance moins élevé. Ainsi, la plupart des personnes ont choisi de garder leur main dans une eau un peu moins froide (mais tout de même inconfortable) 30 secondes, après l’avoir laissée dans une eau très froide pendant une minute, prolongeant ainsi leur inconfort, plutôt que de l’enlever immédiatement après la minute dans l’eau plus froide. Ainsi, le dernier souvenir qu’ils gardent de cette expérience est moins déplaisant. Ce phénomène s’observe aussi quand on interroge des personnes après une opération chirurgicale douloureuse : ils gardent un meilleur souvenir d’une opération douloureuse si elle dure plus longtemps quand les dernières minutes sont moins douloureuses. De même, on gardera un souvenir négatif d’un film qu’on a aimé pendant deux heures si la conclusion durant deux minutes nous déplaît.

L’illusion de concentration : Cette illusion est le fait d’accorder trop d’importance à un facteur par rapport aux autres pour estimer un phénomène. C’est une conséquence du COVERA (ce qu’on voit et rien d’autre). L’auteur donne comme exemple l’impression que les Californiens seraient plus heureux que les habitants du Midwest parce qu’ils bénéficient d’un climat plus agréable. S’il est vrai que les Californiens apprécient davantage leur climat que les habitants du Midwest, les données ne montrent aucune différence dans la satisfaction de la vie entre ces deux populations. Tellement d’autres facteurs entrent en ligne de compte dans la satisfaction de la vie…

Conclusion de l’auteur

Pour clore ce livre, l’auteur présente quelques conséquences de trois des distinctions que ses études ont démontrées :

entre le moi mémoriel (ce dont on se souvient) et le moi expérimental (ce qu’on a vécu) : il se demande entre autres si on doit estimer le bien-être d’une personne (ou son bonheur, sa satisfaction de la vie) en fonction de ce qu’elle a vécu ou de ce qu’elle s’en rappelle. Les enquêtes sur le sujet portent bien plus souvent, en raison de leur conception, sur le moi mémoriel. Est-ce juste?
entre les Humains et les Écons: si les Humains ne sont pas toujours irrationnels, ils ont souvent besoin d’aide pour prendre des décisions avisées. Ce constat démolit totalement l’approche classique (et l’approche libertarienne) en économie. Les marchés seuls ne permettent pas la maximisation de l’utilité. Des institutions, comme l’État, ont un rôle important pour «aider les gens à prendre de bonnes décisions sans empiéter sur leur liberté».
entre le système 1 et le système 2 : malgré tous les biais cognitifs présentés dans ce livre, il n’en demeure pas moins que la division de notre pensée en deux systèmes fonctionne bien. Et les erreurs que nous commettons ne sont pas uniquement dues aux caractéristiques de ces deux systèmes, mais aussi, entre autres, au manque de connaissance. On peut aussi mieux éduquer ces deux systèmes et surtout être conscient de leurs biais, ce qui peut contribuer à moins en subir les effets. Ce dernier point était en fait un des principaux objectifs de l’auteur quand il a entrepris l’écriture de ce livre.

Commentaires

Posts les plus consultés de ce blog

Financement dettes privées

Mezzaneurs & Unitranche