Les mauvaises décisions à l’épreuve de l’Everest

Ou comment les biais cognitifs ont condamné des alpinistes chevronnés.

Sophie Guignard
7 min readOct 14, 2021
L’équipe de Rob Hall avant l’ascension de l’Everest, dont quatre membres ne revinrent pas.

En mai 1996, deux entreprises commerciales « rivales » se lançaient dans une nouvelle ascension de l’Everest, menées par les charismatiques Rob Hall et Scott Fischer, l’objectif consistant à permettre à leurs nouveaux clients d’atteindre le toit du monde. Dans la journée du 10 mai, les deux expéditions redescendaient du sommet lorsqu’elles furent surprises par une violente tempête. Les leaders des deux groupes de grimpeurs ainsi que deux de leurs clients et un guide périrent ce jour-là, incapables de rejoindre le camp de base le plus proche.

Escalader l’Everest n’est pas une expérience anodine. Il est estimé que, depuis sa première ascension en 1950, 280 personnes y ont trouvé la mort. Il ne s’agit pourtant pas de la montagne la plus dangereuse : l’Annapurna I, le K2 et le Nanga Parbat, au Pakistan, enregistreraient toutes les trois des taux de mortalité oscillant entre 20 % et 28 %. À côté de ses voisines mortelles, l’Everest serait même la plus pratiquée et l’une des plus sûres. Dès lors, comment expliquer que des professionnels aguerris et bien équipés — ils disposaient, entre autres, de bouteilles d’oxygène — aient pu, par une série de mauvaises décisions, se condamner ?

Les biais cognitifs ou pourquoi nos choix ne sont pas toujours logiques

En 1970, deux superstars de la psychologie, Amos Tversky et Daniel Kahneman, prouvèrent avec fracas que les hommes ne sont pas des créatures rationnelles et que nos choix ne sont pas toujours logiques. Cela serait dû à ce qu’on appelle les « biais cognitifs », des sortes de mécanismes neurologiques inconscients venant influencer ou troubler notre rapport à la réalité, avec pour conséquence d’influencer nos opinions et nos comportements. En d’autres termes, une grande partie de nos jugements, choix et décisions serait bien plus souvent le fruit de règles largement arbitraires que le résultat de calculs statistiques et logiques.

Selon Daniel Kahneman, l’origine de ces biais se trouverait dans la cohabitation complexe de deux systèmes dans notre cerveau, qu’il a appelés le « Système 1 » et le « Système 2 ». Dans son schéma de raisonnement, le Système 1 correspond notre cerveau rapide, automatique : il est celui qui prend des décisions de manière spontanée et intuitive, se laissant souvent guider par les émotions. Le Système 2 correspond à notre cerveau lent, réfléchi : il est celui qui prend des décisions de manière consciente et raisonnable.

L’inconvénient du Système 2 est qu’il suppose d’avoir du temps et l’envie de mener une réflexion posée. La grande majorité de nos décisions quotidiennes serait donc dirigée par notre Système 1 pour des raisons de pragmatisme : si toutes nos décisions devaient se prendre de manière réfléchie, nous y passerions nos journées et n’aurions plus le temps de faire quoi que ce soit d’autre. La plupart du temps, donc, les raccourcis qu’opère notre cerveau à travers son Système 1 nous sont à la fois utiles et de bon conseil : ils nous permettent de rapidement trier et interpréter l’information que nous recevons, pour ensuite passer à l’action.

Parfois, néanmoins, il y a des ratés. Les chemins de traverse empruntés par notre cerveau rapide — le Système 1 — peuvent de temps en temps s’avérer pernicieux : lorsque c’est le cas, on parle de « biais cognitifs », nom donné à ces nombreux raccourcis de la pensée qui, plutôt que de nous amener efficacement à bon port, nous conduisent dans le mur.

Les biais cognitifs à l’épreuve de l’Everest

En 2002, six ans après le drame de l’Everest, un assistant de recherche de la Harvard Business School du nom de Michael Roberto s’est intéressé de près à l’accident ayant coûté la vie à une partie de l’expédition. Après avoir analysé les témoignages des survivants et les avoir méticuleusement interrogés sur la séquence d’événements ayant mené au drame, il a établi qu’au moins trois importants biais cognitifs auraient conduit à de mauvaises décisions pendant l’ascension, contribuant à l’issue catastrophique de l’aventure.

Le biais des coûts irrécupérables — qui consiste à s’obstiner dans une décision que l’on sait mauvaise de peur de voir les sacrifices qu’elle nous a couté gâchés, serait à l’origine de l’obstination des grimpeurs à poursuivre leur ascension, ceci en dépit d’une météo calamiteuse et de leur connaissance des dangers encourus, notamment celui de ne plus disposer d’assez d’énergie et d’oxygène pour affronter la descente. Dans son propre récit de l’aventure, le journaliste américain Jon Krakauer — qui avait été invité à prendre part à l’expédition — rappelle ainsi combien il a été difficile pour certains membres de l’équipée d’accepter de faire demi-tour lorsque la décision s’imposait : ils avaient tant sacrifié, financièrement, physiquement et psychologiquement pour arriver là où ils se trouvaient, qu’il leur semblait impensable d’abandonner si près du but. « J’ai investi trop de moi-même dans cette montagne pour abandonner maintenant, pour ne pas lui donner tout ce que j’ai », aurait dit Doug Hansen, l’un des alpinistes ayant trouvé la mort ce jour-là. Bien que le leader de l’expédition ait été parfaitement conscient des dangers que supposait une poursuite de l’ascension et ait lui-même édicté des règles inflexibles pour se protéger, précisément, de toute tentation d’y faire entorse dans un moment de faiblesse, il n’avait pas su tenir tête à certains de ses clients. Pire, il avait accompagné Doug Hansen dans son ascension finale, sachant pertinemment qu’ils n’auraient plus assez d’oxygène ni de force pour redescendre. Ils y sont tous les deux restés.

Le biais de surconfiance — qui consiste à surestimer nos capacités, nos compétences ou la pertinence de notre jugement à l’heure de faire un choix-, serait quant à lui à l’origine de la mauvaise appréciation par les guides de leurs propres capacités. Rappelons-le : les meneurs des deux expéditions étaient des alpinistes expérimentés ayant tous deux gravi plusieurs fois l’Everest, emmenant avec succès des dizaines de personnes à son sommet au cours des cinq années précédentes. Fischer avait ainsi l’habitude de balayer les doutes de ses clients, leur garantissant que tout était sous contrôle. À un journaliste, il aurait un jour déclaré : « Je suis à 100 % sûr que je vais rentrer sain et sauf. Ma femme aussi. Elle ne se fait pas de souci quand je pars en expédition car elle sait que je vais prendre toutes les bonnes décisions. » Comme l’a remarqué Michael Roberto dans son travail d’analyse, Fischer n’était pas le seul à se targuer d’une confiance totale : plusieurs autres membres avaient également surévalué leurs aptitudes physiques et psychologiques, ne faisant état d’aucun doute quant à leur capacité à réaliser l’ascension (et la descente) avec succès.

Un troisième biais, communément appelé « effet de récence » (« recency biais ») — potentiellement interprétable comme une variante du biais de confirmation, qui nous pousse à ne voir que ce que nous voulons voir–, aurait conduit les leaders de l’expédition à sous-estimer la probabilité qu’une violente tempête puisse les surprendre, négligeant donc toute préparation à cette éventualité. Leurs récentes expéditions s’étant effectuées par beau temps et la météo s’étant montrée particulièrement clémente au cours des cinq années précédentes, ils s’étaient limités à ne prendre en considération que ces observations de moyen terme, ignorant inconsciemment les données météorologiques plus anciennes démontrant clairement que les tempêtes étaient fréquentes sur l’Everest. S’ils avaient élargi leur champ d’analyse pour y inclure ces informations plus anciennes, ils se seraient souvenus qu’au milieu des années 80 — soit seulement dix ans plus tôt — aucune expédition n’avait pu escalader l’Everest pendant trois années consécutives, et ce pour cause de mauvais temps.

Un quatrième biais pourrait être invoqué dans ce drame: le biais d’autorité (« authority biais »). La mauvaise communication entre les membres de l’expédition semblerait en effet avoir également aggravé le déroulement des événements. Le fait d’assigner différents statuts hiérarchiques aux grimpeurs aurait ainsi eu pour effet de dissuader certains d’entre eux, notamment les guides, de remettre en question les choix des leaders, y compris dans les moments de crise. L’un des guides aurait ainsi rapporté n’avoir pas osé faire part de son désaccord avec certaines décisions prises par Rob Hall (leader de l’expédition), préférant respecter l’expérience, le statut et l’autorité de son « supérieur » plutôt que lui partager ses doutes. De manière plus générale, Michael Roberto souligne que l’équipe manquait de « sécurité psychologique », c’est-à-dire d’un climat propice à l’échange et à la confrontation d’opinions. Une relation de confiance mutuelle, assortie de la possibilité d’exprimer sereinement d’éventuelles divergences de jugement, aurait permis, peut-être, d’éviter que certains biais viennent troubler la rationalité des leaders de l’expédition aux moments où elle était la plus vulnérable.

Outre démontrer les conséquences catastrophiques auxquelles peuvent mener les biais cognitifs dans des contextes à hauts risques, le cas de l’expédition de 1996 montre aussi combien il peut être difficile d’y résister, même lorsque nous sommes conscients de leur existence et des risques qu’ils entraînent. Les règles strictes que les alpinistes s’étaient fixées avant l’ascension — dont celle de faire demi-tour si le sommet n’était pas atteint avant 14 heures — veillaient, précisément, à les protéger des dérives potentielles de leur Système 1 lorsque celui -ci serait aux manettes. Car alors qu’ils approchaient du sommet et commençaient à manquer sérieusement d’oxygène, d’énergie et de discernement, c’est bien leur Système 1, pragmatique, mais vulnérable, qui avait le dessus sur leur Système 2, les conduisant droit vers leur mort.

Les spécialistes estiment que plus de 90% de notre comportement mental est subconscient et automatique, donc que nos jugements et comportements se forment sans que nous n’en ayons conscience. Dans ce contexte, connaitre et reconnaitre l’existence des biais permet d’éviter quelques pièges, surtout à l’heure de prendre des décisions importantes…qu’il s’agisse de rentrer sain et sauf de l’Everest, ou de ne pas planter sa boite (et sa vie).

--

--

Sophie Guignard

Auteure et entrepreneure dans les médias. J’écris pour comprendre pourquoi on fait ce qu’on fait.