Guide pilier

Décider en crise : cadres cognitifs, biais & dispositifs

Décider en crise n'est pas décider en accéléré. C'est une forme cognitive distincte qui mobilise des mécanismes mentaux spécifiques (RPDM, Cynefin, sensemaking), se heurte à des biais structurellement amplifiés, et exige des dispositifs collectifs et des postures propres au moment aigu.

Décider en crise n'est pas décider en situation normale, simplement accéléré. C'est une forme cognitive distincte, qui mobilise des mécanismes mentaux spécifiques, qui se heurte à des biais particuliers, qui exige des postures et des dispositifs propres.

La littérature scientifique sur la décision en environnement à enjeux élevés compte plusieurs milliers de publications depuis les années 1970. Elle s'est constituée à partir d'études de terrain (pompiers, contrôleurs aériens, chirurgiens, militaires, équipes de cellule de crise) et a produit des cadres théoriques contradictoires qui continuent de structurer les débats actuels. Ce guide propose une synthèse de ces cadres, des biais documentés, des dispositifs validés et des postures recommandées, à destination des décideurs stratégiques, des acteurs intermédiaires et des opérationnels qui prennent des décisions sous pression.

Chez Twist, marque gestion de crise de SCOPIC (société coopérative de production), ce guide complète la série des piliers sur la gestion de crise, qui couvre la discipline globale, le plan, la cellule, la mobilisation et la sortie. Il focalise sur l'objet le plus difficile à modéliser de la gestion de crise : la décision elle-même, dans son moment aigu.

L'essentiel à retenir

  • La décision en crise n'est pas la décision rationnelle classique. Elle ne consiste pas à comparer des options et à choisir la meilleure, mais à reconnaître des patterns familiers et à simuler mentalement leur viabilité.
  • L'expertise change la nature de la décision. Un expert décide par reconnaissance intuitive (RPDM), un novice par comparaison rationnelle. Les dispositifs efficaces tiennent compte de cette différence.
  • Le cadre Cynefin distingue cinq domaines de problèmes. L'erreur la plus coûteuse est de traiter un problème complexe ou chaotique comme s'il était compliqué.
  • OODA décrit la dynamique temporelle. Celui qui boucle plus vite que son environnement prend l'avantage. La supériorité décisionnelle est temporelle, pas seulement qualitative.
  • Six biais cognitifs sont structurellement amplifiés en crise. Autorité, ancrage, focalisation, surconfiance, confirmation, langage commun. Leur neutralisation passe par des dispositifs structurels, pas par la vigilance individuelle.
  • La charge cognitive du décideur est limitée. Au-delà d'un seuil, la qualité de la décision se dégrade indépendamment de la compétence. Le rôle du décideur exige une protection de cette charge.
  • Les dispositifs collectifs valent mieux que la vigilance individuelle. Avocat du diable, groupe d'intelligence critique, rotation de la parole, sensemaking partagé.
  • La capacité à décider en crise s'entraîne. Elle ne s'apprend pas en cours, elle se construit par la simulation itérative qui nourrit la bibliothèque mentale du décideur.
Définition

Qu'est-ce que décider en crise ?

Décider en crise désigne l'acte par lequel un acteur, individuel ou collectif, choisit une action ou une orientation dans une situation caractérisée par l'urgence, l'incertitude, l'incomplétude de l'information, l'ampleur des enjeux et l'irréversibilité partielle des conséquences. Cette définition contient déjà cinq variables qui différencient radicalement la décision en crise de la décision ordinaire : la pression temporelle, l'incertitude radicale, l'information partielle, l'enjeu fort et l'irréversibilité.

Ce qui n'est pas une décision en crise

Plusieurs configurations se confondent souvent avec la décision en crise sans en relever vraiment.

La décision en urgence ordinaire : un événement se produit, exigeant une réponse rapide, mais dans un cadre prévu et outillé. Un médecin urgentiste qui traite un infarctus prend des décisions rapides, sous pression, mais selon des protocoles établis. Ce n'est pas une décision en crise au sens strict, c'est une décision experte sous contrainte temporelle.

La décision sous incertitude pure : un dirigeant qui choisit une stratégie de long terme prend des décisions sous incertitude, parfois lourdes, mais sans la pression temporelle ni l'irréversibilité immédiate. Le temps long permet la délibération.

La décision tragique : certaines décisions sont moralement douloureuses sans être pour autant des décisions en crise. Choisir entre deux candidats, fermer un site industriel, cela engage des conséquences humaines mais relève d'une autre temporalité.

Critère discriminant

La décision en crise se distingue par la simultanéité des cinq variables. C'est cette simultanéité qui crée la spécificité cognitive du moment décisionnel et qui rend les modèles classiques en partie inopérants.

Les niveaux de décision en crise

La décision en crise se déploie à plusieurs niveaux qui ne doivent pas être confondus.

  • Opérationnel. Le pompier qui choisit l'angle d'attaque du foyer, l'urgentiste qui choisit le traitement, l'opérateur qui décide d'isoler un système. Décisions immédiates, techniques, à conséquences locales mais cumulatives.
  • Tactique. Le chef d'agrès qui répartit ses équipes, le médecin coordonnateur qui définit les priorités de tri, le chef IT qui choisit l'ordre de restauration. Décisions de coordination.
  • Stratégique. Le directeur de crise qui pilote la cellule de crise, le préfet qui arbitre l'engagement des moyens, le dirigeant qui choisit de communiquer publiquement. Décisions qui engagent l'organisation dans la durée.
  • Politique. L'élu qui assume publiquement les choix faits, qui rend des comptes, qui négocie avec d'autres autorités. Décisions qui inscrivent la crise dans le récit institutionnel.

Ces quatre niveaux ne sont pas hiérarchisés en termes d'importance : chacun a ses enjeux, ses contraintes et ses outils propres. Une organisation mature distingue les niveaux et les articule, plutôt que de tout traiter au même endroit.

Spécificité cognitive

Pourquoi la décision en crise est différente de la décision ordinaire

La spécificité cognitive de la décision en crise n'est pas une simple intensification de la décision ordinaire. Elle relève d'un fonctionnement mental différent, étudié depuis les années 1980 par les chercheurs en naturalistic decision making.

La compression temporelle change le mode cognitif

Daniel Kahneman, prix Nobel d'économie 2002, a popularisé la distinction entre système 1 (pensée rapide, intuitive, automatique) et système 2 (pensée lente, délibérative, analytique). La décision rationnelle classique mobilise principalement le système 2 ; la décision en crise, par contrainte temporelle, mobilise principalement le système 1. Cette bascule n'est pas un défaut, c'est une adaptation : le système 2 est trop lent pour la pression temporelle d'une crise réelle.

La conséquence pratique est majeure. Les méthodes pédagogiques qui forment au système 2 (analyse de cas, débat argumenté) ne préparent pas à la décision en crise. Pour préparer à la décision en crise, il faut alimenter le système 1 par la répétition de scénarios, la confrontation à des situations variées, la construction d'une bibliothèque mentale de patterns reconnaissables.

L'incertitude radicale interdit l'optimisation

La décision rationnelle classique suppose qu'on peut, au moins en principe, identifier toutes les options et évaluer leurs conséquences. En crise, cette hypothèse est fausse. L'optimisation devient impossible : il faut se contenter de satisficing (Herbert Simon), c'est-à-dire trouver une solution suffisamment bonne plutôt que la meilleure possible.

Cette résignation à la solution suffisamment bonne est cognitivement difficile. Beaucoup de décideurs continuent de chercher la décision optimale alors que la situation ne le permet pas. Cette quête produit deux effets dommageables : la paralysie analytique ou la décision tardive.

L'enjeu fort active des mécanismes émotionnels

En crise, le décideur est pris dans la situation : conséquences personnelles potentielles, exposition publique, responsabilité juridique, parfois péril vital de tiers. Cette charge émotionnelle active des mécanismes neurobiologiques qui modifient le fonctionnement cognitif : libération d'adrénaline, mobilisation du système nerveux sympathique, réduction de la mémoire de travail, focalisation attentionnelle.

Ces modifications ont des effets ambivalents. Elles peuvent améliorer certaines performances (réflexes, vitesse de traitement de l'information familière) et en dégrader d'autres (raisonnement complexe, créativité, mémorisation).

L'irréversibilité partielle élève les coûts d'erreur

En crise, certaines décisions sont irréversibles : engager un dispositif lourd, communiquer publiquement, déclencher l'évacuation. Une fois prises, elles ne peuvent pas être défaites. Paradoxalement, l'irréversibilité peut aussi simplifier : quand on sait qu'on ne pourra pas revenir en arrière, on cesse de chercher la décision parfaite et on s'engage. Les décideurs expérimentés exploitent ce mécanisme.

L'observation publique transforme la décision en performance

La crise est presque toujours observée : équipes internes, partenaires, médias, parfois autorité judiciaire ultérieure. Cette observation transforme la décision en performance, ajoutant une couche cognitive : non seulement il faut décider, mais il faut décider d'une manière qui sera jugée acceptable par les observateurs présents et futurs. Cette dimension performative explique des décisions parfois sous-optimales sur le plan technique mais nécessaires sur le plan symbolique.

Modèles classiques

Les modèles classiques : rationalité, rationalité limitée et leurs limites

L'histoire intellectuelle de la décision compte plusieurs grands modèles théoriques. Comprendre leur portée et leurs limites est nécessaire pour situer les modèles plus récents qui s'appliquent spécifiquement à la décision en crise.

Le modèle rationnel pur

Issu des sciences économiques (Von Neumann et Morgenstern, années 1940), il postule un décideur qui dispose de toutes les informations, identifie toutes les options, évalue leurs conséquences, choisit celle qui maximise son utilité espérée. Élégance mathématique, structure encore beaucoup d'outils d'aide à la décision (analyse multicritère, arbres de décision).

Ses limites sont massives en situation réelle, et plus encore en crise. L'information n'est jamais complète. Les options ne sont jamais exhaustivement identifiables. En crise, le modèle rationnel pur n'est même pas une approximation utile.

La rationalité limitée de Simon

Herbert Simon, prix Nobel d'économie 1978, a posé dès les années 1950 la critique fondatrice. Sa thèse : les décideurs réels opèrent sous rationalité limitée (bounded rationality) : capacités cognitives bornées, temps limité, information partielle, complexité qui dépasse les capacités humaines de traitement.

Face à ces limites, les décideurs ne maximisent pas, ils satisficent : ils cherchent une solution suffisamment bonne et s'arrêtent dès qu'ils l'ont trouvée. Ce comportement est en fait adapté aux contraintes réelles. En crise, la rationalité est encore plus limitée et le satisficing devient la norme.

Le modèle politique de March et Olsen

James March et Johan Olsen (Ambiguity and Choice in Organizations, 1976) ont prolongé Simon en montrant que les décisions organisationnelles sont rarement le résultat d'un calcul rationnel, même limité. Elles émergent de processus politiques : négociations entre acteurs aux intérêts divergents, coalitions changeantes, jeu d'influence.

« Le célèbre modèle de la poubelle (garbage can model) décrit des organisations où des problèmes, des solutions, des participants et des occasions de choix se rencontrent presque par hasard, et où la décision résulte de cette rencontre plus que d'une logique de résolution. »

Ce modèle, en apparence cynique, capture une réalité importante : la décision organisationnelle, y compris en crise, n'est pas un acte purement cognitif, c'est un acte politique. Comprendre cette dimension protège des illusions sur la pureté décisionnelle des cellules de crise.

Les limites des modèles classiques en crise

Les modèles classiques ont été construits pour analyser la décision en environnement organisationnel ordinaire. Ils ne capturent pas spécifiquement les phénomènes de la décision sous très forte pression temporelle, dans des situations potentiellement létales, avec une expertise spécifique des décideurs. C'est pour combler cette lacune que se sont développés, à partir des années 1980, les modèles naturalistes.

RPDM Klein

La rupture naturaliste : le Recognition-Primed Decision Model

L'étude empirique de la décision réelle dans des environnements à enjeux élevés a produit, à partir des années 1980, un changement de paradigme majeur. Plutôt que de prescrire comment les décideurs devraient décider, les chercheurs en naturalistic decision making ont commencé à observer comment ils décidaient effectivement.

Les origines : Klein et les pompiers

Gary Klein, psychologue cognitif américain, a conduit dans les années 1980 une étude fondatrice sur les décisions des chefs de service de pompiers en intervention. Son hypothèse de départ était classique : les chefs comparent plusieurs options et choisissent la meilleure. Ses observations ont contredit cette hypothèse de manière radicale.

Les pompiers expérimentés ne comparaient pas d'options. Ils reconnaissaient instantanément la situation, identifiaient une réponse adaptée par familiarité, simulaient mentalement son application, et agissaient. La décision n'était pas un choix entre alternatives, c'était une reconnaissance suivie d'une simulation.

Klein a formalisé cette observation sous le nom de Recognition-Primed Decision Model (RPDM), dans Sources of Power: How People Make Decisions (1998). Le modèle décrit trois variantes selon la complexité.

  • Variante simple. Reconnaissance directe d'un pattern familier et action immédiate.
  • Variante intermédiaire. Reconnaissance suivie d'une simulation mentale pour vérifier la viabilité.
  • Variante complexe. Reconnaissance partielle qui exige une élaboration cognitive plus approfondie avant action.

Les conditions du RPDM

Le RPDM ne fonctionne pas chez tous les décideurs et dans toutes les situations. Trois conditions doivent être réunies.

L'expertise : le décideur doit avoir construit une bibliothèque mentale riche de patterns. Cette bibliothèque s'acquiert par l'expérience accumulée, pas par l'apprentissage théorique. Un novice ne peut pas reconnaître ce qu'il n'a jamais rencontré ou simulé.

La familiarité : le RPDM fonctionne quand la situation, même nouvelle dans ses détails, présente une similarité de structure avec des situations déjà rencontrées. Quand la situation est radicalement nouvelle, le RPDM ne s'applique pas.

Le feedback : pour que la bibliothèque mentale se construise correctement, le décideur doit recevoir un feedback sur ses décisions passées. Les environnements à feedback rapide et clair (sport, urgences médicales, opérations militaires) produisent plus facilement des experts RPDM que les environnements à feedback lent et opaque.

Les implications pédagogiques

Le RPDM a des implications majeures pour la formation. La formation théorique seule ne produit pas de capacité décisionnelle. Ce qui produit la capacité, c'est la simulation itérative qui nourrit la bibliothèque mentale du décideur. Plus un décideur a vécu en simulation des situations variées, mieux il reconnaîtra et traitera les situations réelles. C'est ce mécanisme qui justifie l'investissement dans les exercices de crise, les serious games, les RETEX structurés.

Limites du RPDM

Le piège de l'expertise étroite (transférabilité non automatique entre domaines), le risque du pattern erroné (la situation présente ressemble à un précédent mais en diffère sur un point essentiel), et l'absence de bibliothèque pour les novices. Ces limites justifient les dispositifs anti-biais et la mobilisation d'expertise externe pour les décideurs non-experts.

Intuition vs biais

Le débat Kahneman / Klein : intuition experte ou heuristiques biaisées ?

Deux des plus grands chercheurs en psychologie de la décision ont des positions apparemment opposées sur le rôle de l'intuition. Daniel Kahneman a documenté les biais cognitifs et les erreurs systématiques. Gary Klein a documenté la performance de l'intuition experte. Comment concilier ?

La position de Kahneman : se méfier de l'intuition

Dans Thinking, Fast and Slow (2011), Kahneman établit que la pensée intuitive (système 1) est sujette à de nombreux biais systématiques : ancrage, disponibilité, représentativité, surconfiance, framing. Ces biais ne sont pas des erreurs occasionnelles, ce sont des distorsions structurelles du jugement humain. La sagesse pratique consiste à se méfier de ses intuitions et à mobiliser le système 2 quand les enjeux le justifient.

La position de Klein : faire confiance à l'intuition experte

Dans The Power of Intuition (2003) et plusieurs publications, Klein défend une position différente. Les experts confirmés, dans leur domaine d'expertise, peuvent légitimement faire confiance à leurs intuitions parce qu'elles reposent sur une bibliothèque mentale construite par l'expérience. Refuser de mobiliser cette intuition serait une perte de performance.

Le compromis de la conférence conjointe (2009)

En 2009, Kahneman et Klein ont publié Conditions for Intuitive Expertise: A Failure to Disagree dans American Psychologist. Ils ont identifié les conditions sous lesquelles l'intuition experte peut être fiable, et celles où elle doit être traitée avec méfiance.

L'intuition experte est fiable quand trois conditions sont réunies :

  • Un environnement régulier dont les patterns se répètent
  • Une opportunité d'apprentissage par feedback rapide et clair
  • Une expérience prolongée du décideur dans cet environnement

L'intuition experte est non fiable quand l'environnement est irrégulier, quand le feedback est lent ou opaque, ou quand l'expertise présumée n'a pas pu se construire dans des conditions favorables.

Les implications pour la décision en crise

Pour les professionnels habitués aux crises de leur domaine (pompiers en feu, urgentistes en SAMU, militaires en opération), l'intuition experte peut être mobilisée avec confiance, à condition de ne pas la confondre avec une assurance en dehors du domaine.

Pour les décideurs occasionnels (élus, dirigeants d'entreprise, cadres mobilisés exceptionnellement), l'intuition n'est pas fiable, parce que la bibliothèque mentale n'est pas construite. Ces décideurs doivent s'appuyer sur des méthodes analytiques, sur le conseil d'experts, sur des dispositifs de protection contre les biais cognitifs. Faire confiance à son intuition quand on n'est pas un expert du domaine est presque toujours une erreur.

Pour les situations nouvelles, même chez des experts confirmés, l'intuition doit être traitée avec prudence. Le RPDM ne s'applique pas à une crise sans précédent connu, et il faut basculer vers des modes plus analytiques, ou vers des cadres de qualification du problème comme Cynefin.

Cynefin

Cynefin : qualifier la nature du problème avant d'y répondre

Le cadre Cynefin, développé par Dave Snowden depuis la fin des années 1990, propose une approche radicalement différente : avant de décider comment répondre, il faut qualifier la nature du problème. Cette qualification détermine la méthode appropriée. Utiliser une mauvaise méthode aggrave systématiquement la situation.

Les cinq domaines de Cynefin

Cynefin (mot gallois qui désigne l'habitat, l'environnement familier) distingue cinq domaines de problèmes.

Le domaine simple ou évident — la cause et l'effet sont clairs. Méthode : percevoir, catégoriser, répondre. Les meilleures pratiques (best practices) suffisent. Exemple : traiter une fuite d'eau mineure dont la procédure de remplacement est documentée.

Le domaine compliqué — la cause et l'effet existent mais exigent une analyse experte. Méthode : percevoir, analyser, répondre. On mobilise des experts pour diagnostiquer puis on choisit parmi les bonnes solutions. Exemple : diagnostiquer une panne complexe d'un système industriel.

Le domaine complexe — il n'existe pas de réponse préexistante. Les causes et les effets sont liés par des interdépendances multiples qui ne peuvent être comprises qu'a posteriori. Méthode : sonder, percevoir, répondre. On expérimente par petites touches. Exemple : gérer l'émergence d'un pathogène nouveau (premiers temps de la COVID-19).

Le domaine chaotique — il n'y a pas de relation causale discernable. Le système s'effondre. Méthode : agir, percevoir, répondre. On agit pour stabiliser, puis on observe, puis on ajuste. Exemple : les premières heures d'un attentat majeur, d'un incendie hors contrôle, d'une cyberattaque massive en cours.

Le domaine du désordre — on ne sait pas dans quel domaine on se trouve. Confusion totale. Règle : déconstruire la situation en sous-problèmes pour les distribuer dans les quatre autres domaines.

L'erreur la plus coûteuse

Traiter un problème complexe ou chaotique comme s'il était compliqué. Le décideur croit qu'avec plus d'experts, plus d'analyses, plus d'études, il finira par trouver la bonne réponse. Cette croyance est confortable parce qu'elle préserve l'illusion de la maîtrise. Elle est dévastatrice. Les premiers mois de la COVID-19 illustrent cette erreur à grande échelle.

Les implications pour le décideur

Cynefin propose une discipline préalable : qualifier le domaine avant de mobiliser une méthode. Plusieurs questions aident à qualifier : la causalité est-elle claire ? Existe-t-il des solutions connues ? Les effets de mes actions sont-ils prévisibles ? La situation évolue-t-elle de façon stable ou imprévisible ?

Une fois le domaine identifié, la méthode appropriée s'impose. Pour le complexe, l'expérimentation par petites touches plutôt que la planification rigide. Pour le chaotique, l'action immédiate de stabilisation plutôt que l'analyse paralytique. Pour le compliqué, la mobilisation experte plutôt que la décision instantanée. Pour le simple, l'application des procédures.

Variantes opérationnelles

Une variante notable a été développée pour les services de santé d'urgence (Healthcare Variant of Cynefin) qui ajoute une boucle act-probe-sense-respond spécifique aux situations médicales tactiques extrêmes (arrêts cardiaques en contexte chaotique). Cette variante permet au leader d'agir d'abord pour stabiliser, puis de tester par sondes, puis de donner du sens, puis d'ajuster.

OODA

OODA : la dynamique temporelle de la décision

La boucle OODA, formalisée par le stratège militaire américain John Boyd dans les années 1960-1970, décrit la dynamique temporelle de la décision en environnement adversarial. Initialement développée pour analyser les combats aériens entre pilotes de chasse, elle a été étendue à de nombreux contextes : opérations militaires, négociations, gestion de crise, cybersécurité.

Les quatre étapes

  • Observe. Capter l'information disponible sur la situation. Quelles sont les données entrantes ?
  • Orient. Interpréter ces informations au regard des connaissances antérieures, de la culture, des modèles mentaux. Cette étape est la plus importante pour Boyd : une orientation erronée produit des décisions inadaptées même si l'observation et l'action sont correctes.
  • Decide. Choisir la réponse parmi les options identifiées par l'orientation. Si l'orientation est bien faite, la décision est presque dictée par elle.
  • Act. Exécuter la réponse choisie.

La boucle se referme : l'action produit de nouvelles observations qui relancent un nouveau cycle. Le rythme de bouclage devient un avantage stratégique majeur.

La supériorité par la vélocité

L'apport décisif de Boyd est la notion de supériorité temporelle. Celui qui boucle plus vite que son adversaire (ou que l'environnement) prend l'avantage parce qu'il peut anticiper, surprendre, modifier la situation avant que l'autre n'ait fini d'analyser le tour précédent.

En crise, la cellule qui boucle vite peut s'adapter à l'évolution de la situation. La cellule qui boucle lentement subit l'événement. À un certain seuil, la cellule lente perd le contact avec la réalité du terrain, parce qu'au moment où elle a fini d'analyser ce qui se passait, la situation a changé.

Le piège de l'orientation figée

Boyd insistait sur le fait que l'orientation, étape la plus importante, est aussi la plus vulnérable. Elle dépend des modèles mentaux du décideur, de sa culture, de ses préjugés, de son expérience. Un décideur dont l'orientation est figée par un schéma préétabli interprète les nouvelles observations à travers ce schéma, ce qui produit des décisions inadaptées même si la boucle est rapide.

La protection contre ce piège passe par la diversité cognitive en cellule, par les dispositifs anti-biais (avocat du diable, groupe d'intelligence critique), et par la vigilance active sur les hypothèses implicites.

Les limites d'OODA en cellule complexe

OODA a été développée pour des décideurs individuels (pilotes de chasse). Son application à des cellules de crise pose plusieurs questions. La boucle collective est plus lente parce qu'elle doit intégrer la communication entre acteurs. Dans les configurations multi-acteurs, la boucle de chaque organisation peut être désynchronisée des autres.

Malgré ces limites, OODA reste un cadre puissant pour penser la dynamique temporelle de la cellule de crise et pour valoriser les dispositifs qui accélèrent la boucle (rituel de point de situation court, traçabilité immédiate des décisions, communication structurée).

Sensemaking

Sensemaking : décider c'est construire du sens collectif

Karl Weick, psychosociologue américain dont les travaux ont profondément influencé la compréhension des crises, a proposé une approche différente : la décision en crise n'est pas d'abord un acte cognitif individuel, c'est un processus collectif de construction de sens.

Le sensemaking comme processus

Dans Sensemaking in Organizations (1995), Weick décrit le sensemaking comme le processus par lequel des acteurs en situation construisent collectivement une compréhension partagée de ce qui se passe et de ce qu'il faut faire. Ce processus a plusieurs caractéristiques distinctives.

  • L'énaction : le sens n'est pas découvert, il est produit par l'action. En agissant, on transforme la situation, on modifie l'environnement, ce qui modifie le sens qu'on lui attribue.
  • La sélection : parmi les multiples interprétations possibles d'une situation ambiguë, les acteurs en sélectionnent quelques-unes qui deviennent dominantes. Cette sélection est sociale.
  • La rétention : les interprétations sélectionnées sont conservées, structurent les futures interprétations, deviennent des cadres tacites.
  • La rétrospection : le sens se construit en regardant en arrière. On comprend ce qu'on a fait après l'avoir fait, pas avant.

L'effondrement du sensemaking : Mann Gulch

Weick a proposé une analyse célèbre de l'incident de Mann Gulch (1949), où treize pompiers spécialistes des feux de forêt sont morts dans un feu qu'ils avaient pourtant les compétences pour maîtriser. Sa thèse, dans The Collapse of Sensemaking in Organizations (1993) : ce qui s'est effondré n'est pas la compétence technique, c'est la capacité collective à donner du sens à une situation qui changeait trop vite.

Quand le sensemaking s'effondre, les acteurs ne savent plus où ils sont, ce qui se passe, ce qu'il faut faire. Les décisions individuelles, même rationnelles dans leur logique propre, s'agrègent en un comportement collectif catastrophique.

Cette analyse a des implications majeures. La crise n'est pas seulement un événement extérieur qui frappe l'organisation, c'est aussi un effondrement de la capacité collective à comprendre cet événement. Soutenir le sensemaking pendant la crise est aussi important que résoudre les problèmes techniques. Les dispositifs qui le soutiennent (points de situation, vocabulaire commun, récit partagé, rôles clairs) ne sont pas des accessoires de la gestion de crise, ils en sont le cœur.

Les facteurs de résilience selon Weick

  • L'improvisation et le bricolage — capacité à inventer des réponses à partir des matériaux disponibles, sans s'enfermer dans des plans préétablis devenus inadaptés.
  • Les systèmes de rôles virtuels — possibilité pour les acteurs de comprendre les rôles des autres au point de pouvoir les soutenir ou les remplacer si nécessaire.
  • La sagesse pratique — combine connaissance accumulée et humilité face à l'inconnu. Ni confiance arrogante ni doute paralysant.
  • La combinaison de confiance et de respect — la confiance permet l'action rapide ; le respect permet le challenge des certitudes naissantes.

Sensemaking et décision en crise

Le sensemaking weickien complète plutôt qu'il ne contredit les modèles précédents. Le RPDM décrit la décision individuelle de l'expert ; le sensemaking décrit la décision collective dans l'incertitude. Cynefin qualifie le type de problème ; le sensemaking décrit le processus social par lequel le type de problème est qualifié. Mobiliser le sensemaking en cellule signifie privilégier la construction collective de la compréhension plutôt que la juxtaposition des analyses individuelles.

Accompagnement Twist

Construire la capacité décisionnelle de votre cellule

Twist articule formation aux cadres + simulation par serious game + coaching individuel des décideurs. Voir nos parcours.

Cadrer un projet
Biais cognitifs

Les biais cognitifs structurellement amplifiés en crise

La littérature sur les biais cognitifs, initiée par Kahneman et Tversky dans les années 1970, est aujourd'hui considérable — plusieurs centaines de biais documentés et catalogués (le codex des biais cognitifs). Six biais sont particulièrement amplifiés en situation de crise et méritent une attention spécifique. Pour le détail, voir le pilier biais cognitifs.

Le biais d'autorité

Description : tendance à suivre les instructions ou opinions d'une figure perçue comme autorité, parfois au détriment de l'analyse critique. Documenté par les expériences de Stanley Milgram.

Manifestation en crise : la parole du dirigeant prend une importance disproportionnée. Les autres membres alignent leurs interventions, parfois en silence. La cellule peut produire des décisions unanimement validées qui sont en fait des décisions d'une seule personne.

Protection : avocat du diable institutionnalisé, groupe d'intelligence critique distinct, rotation systématique de la parole, tour de table avant chaque arbitrage.

Le biais d'ancrage

Description : tendance à se baser excessivement sur la première information reçue (l'ancre). Les informations ultérieures sont interprétées par rapport à cette ancre.

Manifestation en crise : la première qualification de la situation, faite dans les minutes initiales avec des informations incomplètes, structure durablement la compréhension. Les informations qui contredisent l'ancre sont minimisées.

Protection : explicitation systématique des hypothèses initiales, révision périodique, intervention d'observateurs frais (relèves, partenaires extérieurs).

Le biais de focalisation

Description : tendance à concentrer l'attention sur un aspect au détriment de la vision périphérique — l'effet tunnel.

Manifestation en crise : la cellule se concentre sur un chantier prioritaire (le foyer principal, le système attaqué, le sujet médiatique chaud) et perd de vue les autres dimensions. Paradoxalement, une procédure trop précise peut renforcer le biais en focalisant l'attention sur les sujets prévus.

Protection : rôle dédié de balayage des chantiers périphériques, tour systématique de l'ensemble des sujets, vigilance des fonctions support (RH, juridique, communication).

Le biais de surconfiance

Description : tendance à surestimer ses propres compétences, connaissances ou prévisions.

Manifestation en crise : surestimation de la maîtrise, sous-estimation de la complexité, optimisme dans les prévisions de durée et d'impact. Conduit à sous-dimensionner la réponse ou à programmer une sortie de crise prématurée.

Protection : analyse systématique des scénarios pessimistes (worst case planning), avis externe, comparaison avec des crises passées d'ampleur similaire.

Le biais de confirmation

Description : tendance à privilégier les informations qui confirment l'hypothèse déjà posée et à négliger ou réinterpréter celles qui la contredisent.

Manifestation en crise : une fois qu'une qualification est posée, les informations entrantes sont triées selon qu'elles la confirment ou non. Les biais d'ancrage et de confirmation se renforcent mutuellement.

Protection : recherche active d'informations contradictoires, désignation explicite d'un acteur chargé d'identifier les signaux qui contredisent l'hypothèse dominante, structure du point de situation qui demande explicitement « qu'est-ce qui pourrait remettre en cause notre lecture actuelle ? ».

Le biais de langage commun

Description : tendance à croire que les acteurs partagent le même sens des mots, alors que chacun y met une signification différente. Particulièrement actif dans les contextes multi-acteurs aux cultures professionnelles différentes.

Manifestation en crise : les mots-clés (priorité, urgence, secteur, mobilisation, sortie) sont utilisés différemment par les pompiers, les médecins, les forces de l'ordre, les élus, les techniciens. Les décisions semblent partagées, elles ne le sont pas. Les malentendus apparaissent au moment de la mise en œuvre.

Protection : explicitation systématique des termes ambigus dès leur première utilisation, glossaire partagé, reformulation des décisions avant validation.

Hiérarchie de protection

Aucun de ces biais ne disparaît par la seule prise de conscience individuelle. La littérature converge : la vigilance personnelle est insuffisante. Ce qui protège efficacement, ce sont les dispositifs structurels (section 12).

Charge cognitive

La charge cognitive du décideur sous pression

Au-delà des biais, un facteur souvent sous-estimé conditionne la qualité des décisions : la charge cognitive que le décideur peut supporter sans dégradation de ses performances. Cette charge a des limites neurobiologiques précises qui s'imposent à toutes les compétences et expériences.

Les limites de la mémoire de travail

La mémoire de travail (capacité à manipuler des informations en temps réel) est limitée. Les travaux de George Miller (années 1950) ont posé le célèbre nombre magique sept (plus ou moins deux). Les recherches plus récentes ont nuancé (plutôt quatre éléments selon Cowan), mais le principe reste : la capacité de manipulation simultanée est faible et ne se développe pas par l'effort.

En crise, le décideur doit gérer simultanément informations entrantes, demandes des partenaires, sollicitations des médias, attentes des équipes, contraintes juridiques, anticipations des parties prenantes. Ces flux dépassent rapidement les capacités de la mémoire de travail. Le décideur surchargé filtre involontairement, au risque de perdre des informations cruciales.

La fatigue cognitive

La pensée délibérative (système 2) consomme des ressources métaboliques importantes (glucose, oxygène). Cette consommation se manifeste par une fatigue cognitive qui s'accumule. Au-delà d'un certain seuil, le système 2 ne peut plus être mobilisé efficacement, et le décideur bascule sur des mécanismes plus automatiques (système 1, plus économe mais plus sujet aux biais).

Au bout de 8 à 12 heures d'activité intense, la qualité décisionnelle se dégrade significativement. Au bout de 16 à 20 heures, elle peut atteindre un niveau dangereusement faible. Les relèves organisées ne sont pas un luxe, ce sont une condition de la qualité décisionnelle dans la durée.

Le stress aigu et ses effets

Le stress aigu améliore la performance sur les tâches simples et bien apprises (vitesse de réaction, exécution de procédures connues). Il dégrade la performance sur les tâches complexes (raisonnement multi-critères, créativité, mémorisation à long terme). Il rétrécit l'attention (effet tunnel). Il libère cortisol et adrénaline aux effets cumulatifs.

« La performance en crise dépend autant de la préparation cognitive et émotionnelle que de la compétence technique. Les dirigeants qui ont appris à reconnaître leurs propres signes de stress, à les nommer, à les gérer, prennent des décisions de meilleure qualité. » — Bénédicte Vraie, Stress aigu en situation de crise (2018).

Les protections de la charge

  • La séparation des rôles. Le directeur ne traite pas le détail opérationnel, qui est délégué à des fonctions dédiées. Cette séparation libère sa mémoire de travail pour les arbitrages stratégiques.
  • Les rituels structurés. Le point de situation à intervalle régulier offre un cadre prévisible qui réduit la charge cognitive de la coordination.
  • La main courante. La trace écrite des décisions soulage la mémoire du décideur. Il peut consulter au lieu de retenir.
  • Les pauses imposées. Quinze minutes toutes les deux heures, dans un endroit isolé, font une différence mesurable.
  • Les relèves organisées. Le passage de témoin entre décideurs successifs, à condition que la transmission soit structurée.
  • L'accès à un appui de réflexion. Un groupe d'intelligence critique distinct soulage la charge stratégique.
Leadership de crise

Le leadership de crise : ce que fait spécifiquement le décideur

Le rôle du décideur en chef (directeur de crise, élu, dirigeant) est spécifique et non substituable. La littérature sur le leadership de crise identifie plusieurs fonctions propres au leader que personne d'autre ne peut remplir.

Donner du sens

La première fonction est de donner du sens à la situation. Dans le chaos initial, les acteurs ont besoin d'un cadre interprétatif qui leur permet de situer ce qui arrive. Patrick Lagadec a insisté sur cette dimension : la demande des parties prenantes en crise n'est pas d'abord opérationnelle, elle est de sens. Au nom de quoi agissez-vous ? Quelle est la signification de cette épreuve ? Vers quoi nous emmenez-vous ?

Cette fonction est non substituable. Aucun cadre, aucune cellule, aucun expert ne peut donner du sens à la place du leader. Sa parole, sa posture, ses choix portent une légitimité spécifique.

Tenir la ligne

La cohérence dans la durée repose sur la capacité du leader à maintenir une orientation stable, à éviter les zigzags, à arbitrer dans la durée selon des principes constants. Tenir la ligne ne signifie pas être rigide : le leader doit s'adapter à l'évolution de la situation, mais ses adaptations doivent être visibles, justifiées, intégrées à un récit cohérent.

Arbitrer entre logiques contradictoires

En crise, plusieurs logiques légitimes entrent en tension : protection des personnes, continuité de l'activité, préservation de la réputation, obligations réglementaires, enjeux politiques, intérêts des partenaires. Aucune n'est illégitime ; toutes ne peuvent pas être pleinement satisfaites simultanément. Le leader doit arbitrer, expliciter ses choix, assumer publiquement les renoncements.

L'arbitrage n'est pas une activité technique. C'est une activité politique au sens noble : choisir entre des biens en tension, au nom de valeurs explicites, en assumant les conséquences. Le leader qui prétend ne pas arbitrer ne décide pas, il diffère, et la crise prend les décisions à sa place.

Communiquer publiquement

Les médias, autorités, partenaires majeurs, citoyens ou clients attendent une parole du leader. Cette parole ne peut pas être déléguée à un porte-parole pour les moments décisifs. Cette communication exige une préparation spécifique : médiatraining, coaching de prise de parole en situation difficile, anticipation des questions hostiles. Voir aussi communication de crise.

Protéger sa propre disponibilité

La cinquième fonction, paradoxale, est de se protéger soi-même. Un leader qui s'épuise dans les premières heures n'est plus disponible pour les décisions des jours suivants. Cette protection passe par la délégation rigoureuse, l'isolement physique de la cellule, la limitation des sollicitations directes, la préservation de moments de récupération.

Les pièges du leadership de crise

  • La gesticulation. Se jeter dans le détail opérationnel par anxiété, en perdant le pilotage.
  • L'isolement protecteur. S'enfermer avec un cercle restreint qui filtre les informations gênantes.
  • La décision sans arbitrage. Différer les choix difficiles, en laissant les conflits s'accumuler.
  • La communication tardive. Laisser le silence s'installer, en cédant le terrain de la narration aux médias et aux opposants.
  • L'épuisement non géré. Refuser le repos par devoir, en dégradant progressivement la qualité décisionnelle.
Dispositifs structurels

Les dispositifs structurels anti-biais

La vigilance individuelle contre les biais cognitifs est insuffisante. Les biais sont structurels et résistent à la simple prise de conscience. Ce qui fonctionne, ce sont des dispositifs structurels qui institutionnalisent la contradiction, la diversité cognitive et la révision systématique.

L'avocat du diable institutionnalisé

Une personne (parfois plusieurs en rotation) a pour mission ritualisée de contester les décisions en formation. Sa parole n'est pas perçue comme une opposition personnelle mais comme l'exercice d'un rôle. Pour fonctionner, il doit être réellement légitimé : prise de parole protégée, écoute attentive, intégration des objections dans la décision finale même quand elles ne sont pas retenues.

Le groupe d'intelligence critique

Concept formalisé par Patrick Lagadec, c'est une équipe distincte de la cellule opérationnelle (généralement 2 à 4 personnes) qui a pour seule mission de prendre du recul. Elle analyse en parallèle, teste des scénarios alternatifs, identifie les angles morts, reformule les hypothèses dominantes.

Sa séparation organisationnelle de la cellule opérationnelle est essentielle. Il n'est pas soumis à la pression de l'exécution, il peut donc se permettre d'aller à contre-courant. Cette indépendance est sa principale valeur ajoutée.

La rotation de la parole

Dans les points de situation, la parole tourne dans un ordre stable et explicite. Chaque fonction a son tour, dans un ordre prédéterminé, avec un temps imparti. Cette discipline neutralise plusieurs biais simultanément : autorité, focalisation, biais des bavards. Elle s'applique aussi aux fonctions discrètes (juridique, RH, communication interne) qui ont souvent des informations critiques mais ne s'imposent pas spontanément.

Le challenge structuré des hypothèses

Plusieurs méthodes formelles permettent de challenger les hypothèses dominantes :

  • La pre-mortem. On imagine que la décision a échoué et on analyse pourquoi. Cette projection rétrospective inverse fait émerger des risques que l'analyse classique ignore. Méthode développée par Klein.
  • L'équipe rouge (red team). Un sous-groupe est chargé de critiquer systématiquement la position dominante, en prenant le rôle d'un adversaire intelligent.
  • Le devil's advocate. Version individuelle, parfois pour une décision spécifique plutôt qu'en permanence.
  • L'analyse des hypothèses concurrentes (analysis of competing hypotheses). Méthode des services de renseignement pour comparer plusieurs explications possibles.
  • Le delphi modifié. Recueil structuré et anonyme des avis de plusieurs experts, pour éviter conformité et hiérarchie.

Les check-lists et procédures structurées

Les check-lists structurées (modèle Atul Gawande, médecine et aviation) imposent un parcours d'attention qui couvre les dimensions critiques. Les procédures de challenge (call out the question) demandent explicitement à un membre de la cellule de poser une question spécifique avant chaque décision majeure (« avons-nous considéré le scénario X ? »). Leur efficacité a été démontrée empiriquement.

La gestion du sensemaking collectif

Les dispositifs anti-biais individuels doivent être complétés par des dispositifs qui soutiennent le sensemaking collectif. Le point de situation structuré est l'outil central : actualisation par chaque fonction, identification des sujets à arbitrer, organisation des arbitrages, consignation des décisions. Sa qualité dépend de la discipline du facilitateur.

Entraînement

Entraîner la capacité à décider : la simulation comme méthode

La capacité à décider en crise ne s'acquiert pas par la formation théorique seule. Elle se construit par la simulation itérative qui nourrit la bibliothèque mentale du décideur.

Pourquoi la formation théorique ne suffit pas

Connaître les modèles théoriques (Cynefin, OODA, RPDM, biais cognitifs) est utile mais largement insuffisant. La connaissance théorique alimente le système 2 ; or la décision en crise mobilise principalement le système 1. Le système 1 ne se nourrit pas de concepts, il se nourrit de patterns rencontrés et traités.

Un décideur qui a lu trois livres sur Cynefin sans jamais avoir vécu un exercice n'est pas mieux préparé qu'un décideur qui n'a pas lu ces livres. Il est mieux informé, ce qui n'est pas la même chose.

Les formats de simulation

  • Le séminaire de découverte. Format court (quelques heures), peu engageant cognitivement, utile pour amorcer une démarche.
  • L'exercice sur table (tabletop). La cellule autour d'un scénario écrit avec injects chronologiques. Décisions verbales, sans contrainte logistique. Format accessible (½ à 1 journée), facilement répétable.
  • Le serious game. Articule rigueur méthodologique et dimension immersive. Injects en temps réel, conséquences des choix, débriefing collectif. Format puissant pour révéler les dynamiques décisionnelles réelles. Voir notre format serious game.
  • L'exercice cadre. Conditions très proches du réel, main courante tenue, communications simulées avec partenaires extérieurs, durée prolongée (jusqu'à 1 journée).
  • L'exercice terrain. Acteurs opérationnels sur un site, parfois figuration de victimes et moyens réels. Format le plus coûteux, réservé aux organisations critiques.

La progression pédagogique

Les décideurs progressent en passant successivement par les différents formats. Un dirigeant qui n'a jamais vécu d'exercice ne tirera pas grand-chose d'un exercice cadre exigeant : la charge cognitive sera trop forte. Progression typique : séminaire → tabletop → serious game → exercice cadre → exercice terrain.

À chaque étape, le débriefing structuré transforme l'expérience en apprentissage. Sans débriefing, l'exercice produit du vécu mais pas d'apprentissage durable. Le débriefing suit généralement la méthode After Action Review (5 questions séquentielles : que devait-il se passer, que s'est-il passé, qu'est-ce qui a fonctionné, qu'est-ce qui n'a pas fonctionné, quelles actions correctives). Voir aussi RETEX.

La cadence

Une simulation par an est le seuil minimum pour entretenir la capacité décisionnelle. 2 à 3 par an pour les organisations exposées. Le décret de décembre 2022 a rendu obligatoire la tenue régulière d'exercices pour les PCS et PICS.

L'alternance des scénarios est importante. Rejouer toujours la même crise installe une routine qui ne teste plus la capacité d'adaptation. Varier les typologies (naturelles, technologiques, cyber, sanitaires, sociales, réputationnelles) construit une bibliothèque mentale plus large et plus robuste.

Le coaching individuel des rôles clés

Au-delà des exercices collectifs, certains rôles bénéficient d'un coaching individuel sur leur posture en crise. Le directeur de crise notamment : posture de pilotage, communication sous pression, gestion de la charge cognitive, gestion du sommeil et de la récupération en crise longue.

Configurations

Trois configurations décisionnelles : mono-décideur, collégial, multi-acteurs

Toutes les décisions en crise ne se prennent pas dans la même configuration organisationnelle. Trois configurations principales se distinguent, chacune avec ses logiques, ses forces et ses fragilités.

Le mono-décideur

Une personne unique a l'autorité de décision sur les arbitrages structurants : dirigeants d'entreprise, élus locaux, chefs militaires en opération.

Forces : rapidité, cohérence dans la durée, clarté de la responsabilité juridique, lisibilité externe.

Fragilités : exposition aux biais individuels du décideur (autorité, confirmation, surconfiance amplifiés sans contrepoids), surcharge cognitive si non protégé, dépendance à un seul individu, isolement potentiel si la culture entourante est déférente.

Protection : groupe d'intelligence critique distinct, avocat du diable institutionnalisé, conseils extérieurs réguliers, suppléance organisée pour la fatigue, formation spécifique du décideur à sa posture.

Le collégial

La décision se prend en cellule, par un collectif aux rôles différenciés mais qui partagent l'arbitrage : comités de direction, cellules municipales, cabinets ministériels.

Forces : richesse de l'analyse par diversité cognitive, partage de la charge décisionnelle, robustesse face à la défaillance d'un membre, légitimité partagée.

Fragilités : ralentissement si la collégialité n'est pas disciplinée, risque de consensus mou (groupthink), dilution de la responsabilité juridique, complications en cas de désaccord interne.

Protection : règle explicite d'arbitrage en cas de désaccord (qui tranche, comment, dans quel délai), distinction entre consultation et décision, structuration rigoureuse des points de situation, vigilance sur le groupthink.

Le multi-acteurs

La décision résulte de la coordination entre plusieurs organisations indépendantes (collectivités, services de l'État, opérateurs privés, associations) qui ont chacune leur propre cellule : crises territoriales majeures, crises sanitaires coordonnées, crises industrielles complexes.

Forces : mobilisation de ressources que personne n'a seul, légitimité multi-niveaux, intelligence collective amplifiée par la diversité des cultures professionnelles.

Fragilités : ralentissement majeur (chaque organisation a sa propre boucle), désynchronisation des temporalités, conflits de rôles entre autorités, difficultés de communication aggravées par les cultures différentes.

Protection : conventions explicites entre acteurs avant la crise, exercices conjoints réguliers pour construire le capital relationnel, points de situation conjoints, profils passeurs de frontières, reconnaissance explicite des compétences indépendamment des hiérarchies formelles.

Le choix de la configuration

La configuration peut évoluer dans le temps de la crise. La phase aiguë initiale exige souvent une décision rapide proche du mono-décideur. La phase de stabilisation peut basculer vers une configuration plus collégiale. La phase de sortie mobilise typiquement une configuration multi-acteurs pour l'articulation avec les partenaires. Ces choix doivent être explicités dans le plan, formalisés, testés en exercice.

Cas concrets

Trois cas concrets pour incarner les principes

Les cadres théoriques prennent sens dans des situations concrètes. Trois cas, tirés de configurations différentes, illustrent comment les principes s'articulent en pratique.

Une préfète face à une bascule rapide d'alerte météo

Une préfète d'un département du sud reçoit en début d'après-midi une alerte orange pour pluies intenses. Trois heures plus tard, l'alerte passe en rouge avec annonces de cumuls historiques. Six heures plus tard, deux communes sont touchées par une crue éclair qui dépasse les seuils des PPRI. La COD est activée en milieu de soirée.

Décision critique : déclencher l'évacuation préventive de plusieurs zones encore non touchées mais situées en aval, ou attendre confirmation. L'évacuation préventive coûte politiquement et opérationnellement. L'attente coûte humainement si la crue surprend les habitants.

L'analyse mobilise plusieurs cadres. Cynefin : on est dans le complexe (interdépendances multiples, prévisions incertaines, comportements humains imprévisibles), tendant vers le chaotique. La règle est l'expérimentation par petites touches plutôt que la planification rigide. Le sensemaking est soutenu par les points de situation toutes les 20 minutes. La directrice de cabinet joue le rôle d'avocate du diable : « et si nous nous trompions ? ».

La préfète prend la décision d'évacuation préventive 2 heures avant la confirmation factuelle, sur la base d'une convergence de signaux faibles. La crue arrive comme prévu. Les zones évacuées sont touchées, sans victime. Lors du RETEX, la préfète identifie le moment décisif : elle a accepté de basculer d'une logique d'attente prudente (compliqué) à une logique d'expérimentation préventive (complexe), parce que la qualification du domaine avait été explicite en cellule.

Une commandante d'opération SAMU face à un afflux NOVI

Une médecin urgentiste, commandante des opérations sur un accident de car scolaire avec 45 blessés simultanés, doit décider de la stratégie de tri médical. 22 ans d'expérience en SMUR, plusieurs scénarios similaires gérés.

Sa décision se prend selon le mode RPDM. Elle reconnaît instantanément la configuration : nombre de victimes, types de blessures, ressources, distance des hôpitaux. Sa bibliothèque mentale propose une réponse-type : tri rapide, urgences absolues vers le CHU, urgences relatives vers l'hôpital secondaire, urgences dépassées prises en charge sur place. Simulation mentale en quelques secondes : viable. Elle agit.

Pendant la première heure, elle décide quasi automatiquement des centaines d'arbitrages locaux. Un moment particulier : un blessé classé urgence relative se dégrade brusquement. La commandante doit décider en 30 secondes de le reclasser en urgence absolue, donc de modifier l'ordre d'évacuation déjà engagé. Elle reconnaît, simule, adapte. La décision est prise sans verbalisation explicite des critères.

Lors du RETEX, elle peine à expliquer formellement comment elle a pris ces décisions. C'est typique du RPDM : les experts décident bien, mais ils ne savent pas toujours expliquer comment. Cette intuition est fiable parce que la situation correspond aux conditions Kahneman-Klein : environnement régulier, feedback rapide, expérience prolongée. Une novice n'aurait pas pu prendre ces décisions à cette vitesse, et n'aurait pas dû essayer.

Un dirigeant ETI face à une fuite de données

Un dirigeant d'une ETI de 220 salariés découvre un mardi matin qu'une fuite de données touchant 15 000 clients a été révélée par un journaliste qui appellera dans 2 heures pour publication. La fuite remonte à 6 mois (compromission d'un sous-traitant), donc l'entreprise est en infraction avec son obligation de notification CNIL.

Le dirigeant active une cellule improvisée avec son DSI, son DAF, son avocat extérieur, sa responsable communication, et un cabinet de gestion de crise mobilisé en urgence. Il a 2 heures pour décider.

Le dirigeant n'a pas l'expérience de ce type de crise. Sa bibliothèque mentale est vide sur ce scénario. Le RPDM ne s'applique pas. Il doit basculer sur une analyse délibérative, mais avec une pression temporelle qui interdit l'analyse approfondie. Le cabinet extérieur joue ici un rôle central : il apporte sa propre bibliothèque mentale, construite sur des dizaines de cas similaires.

Le cabinet pose la qualification du domaine : compliqué (causalité claire, plusieurs bonnes solutions selon le profil de risque). Il mobilise la théorie SCCT de Coombs : la fuite est dans le cluster préventable, donc la stratégie de reconstruction (assumer, s'excuser, agir) est la mieux adaptée. Il signale les biais à neutraliser : optimisme, autorité (suivre l'avocat sans questionner sa préférence pour la prudence juridique).

Décision en 45 minutes : stratégie de reconstruction. Communiqué diffusé avant la publication du journaliste, qui doit modifier son angle. La CNIL ouvre une enquête mais salue la transparence — sanction plus légère. CA temporairement impacté, récupère en 6 mois. Lors du RETEX, le dirigeant identifie ce qui a fait la différence : sa décision de mobiliser un cabinet extérieur dans la première heure.

Synthèse

Trois modes décisionnels différents : décision sous incertitude radicale par expérimentation préventive (préfète), décision experte par RPDM dans son domaine de maîtrise (commandante SAMU), décision novice rendue possible par la mobilisation rapide d'expertise externe (dirigeant ETI). Aucun mode n'est intrinsèquement supérieur ; chacun s'adapte à des conditions spécifiques.

Approfondir

Pour aller plus loin

Ce guide pilier informationnel s'inscrit dans la série des piliers Twist sur la gestion de crise. Il n'a pas vocation à promouvoir une offre commerciale spécifique mais à proposer une référence sur le sujet de la décision en crise.

Références bibliographiques mobilisées

  • Daniel Kahneman, Thinking, Fast and Slow (2011) ; Kahneman et Tversky, Judgment under Uncertainty: Heuristics and Biases (1974).
  • Gary Klein, Sources of Power: How People Make Decisions (1998) ; The Power of Intuition (2003).
  • Daniel Kahneman et Gary Klein, Conditions for Intuitive Expertise: A Failure to Disagree (American Psychologist, 2009).
  • Herbert Simon, Models of Man: Social and Rational (1957) ; Administrative Behavior (1947).
  • James March et Johan Olsen, Ambiguity and Choice in Organizations (1976).
  • Karl Weick, Sensemaking in Organizations (1995) ; The Collapse of Sensemaking in Organizations: The Mann Gulch Disaster (Administrative Science Quarterly, 1993).
  • Dave Snowden et Mary Boone, A Leader's Framework for Decision Making (Harvard Business Review, 2007).
  • John Boyd, présentations sur la boucle OODA (voir Frans Osinga, Science, Strategy and War: The Strategic Theory of John Boyd, 2007).
  • Patrick Lagadec, La gestion des crises : Outils de réflexion à l'usage des décideurs (1991) ; Apprendre à gérer les crises (1993).
  • Bénédicte Vraie, Stress aigu en situation de crise (2018).
  • Sylvain Cros, Estelle Lombardot et Bénédicte Vraie, Manager sous stress aigu en situation de crise (Revue française de gestion, 2019).
  • Atul Gawande, The Checklist Manifesto: How to Get Things Right (2009).

Pour le contexte français de la sécurité civile et de la coordination ORSEC, les travaux de Patrick Lagadec et de l'IHEMI constituent des références majeures. Pour la dimension sociologique de la décision en cellule multi-acteurs, les travaux de Pierre Bourdieu (Le sens pratique, 1980) et de Bernard Lahire (L'homme pluriel, 1998) éclairent les comportements collectifs en situation d'incertitude.

Twist accompagne ces démarches

Notre cabinet, société coopérative de production, accompagne les organisations dans le développement de leur capacité décisionnelle en crise. Notre approche articule formation aux cadres théoriques + simulation par serious game + coaching individuel des décideurs clés + conseil sur les dispositifs anti-biais. Nous intervenons pour les collectivités, les entreprises, les établissements sanitaires et les associations qui souhaitent passer d'une connaissance théorique de la décision en crise à une capacité réelle, ancrée dans des bibliothèques mentales construites par l'expérience.

Questions fréquentes

FAQ Décision en crise

Peut-on apprendre à décider en crise sans avoir vécu de crise réelle ?

Oui, mais à une condition : avoir vécu suffisamment de simulations réalistes pour construire une bibliothèque mentale opérationnelle. La théorie seule ne produit pas de capacité décisionnelle. La pratique simulée, à condition d'être sérieuse (scénarios calibrés, injects en temps réel, débriefing structuré), construit des patterns mentaux comparables à ceux issus de l'expérience réelle. C'est précisément le rôle des serious games et des exercices cadres.

Quelle est la différence entre une intuition et un biais ?

Les deux relèvent du système 1 de Kahneman (pensée rapide, automatique). Une intuition experte, dans les conditions définies par Kahneman et Klein (environnement régulier, feedback rapide, expérience prolongée), repose sur une bibliothèque mentale construite et peut être fiable. Un biais cognitif est une distorsion systématique du jugement qui peut affecter même les experts hors de leur domaine de maîtrise. L'intuition est un atout dans son domaine d'expertise et un piège en dehors.

Faut-il interdire l'intuition en cellule de crise ?

Non. L'intuition des experts dans leur domaine est précieuse et doit être mobilisée. Ce qu'il faut, c'est l'encadrer par des dispositifs de protection (avocat du diable, challenge structuré, vérification des hypothèses) qui réduisent les risques de pattern erroné ou de surconfiance. La cellule efficace combine l'intuition rapide et la délibération critique, sans renoncer à l'une ou à l'autre.

Comment savoir si on est dans le complexe ou le compliqué selon Cynefin ?

Plusieurs questions aident à qualifier. La causalité est-elle claire et accessible aux experts du domaine ? Existe-t-il des solutions connues pour ce type de situation ? Les effets de mes actions sont-ils prévisibles ? La situation évolue-t-elle de façon stable ou imprévisible ? Si plusieurs réponses indiquent l'imprévisibilité, l'absence de précédent, les interdépendances multiples, on est dans le complexe. Si la cause est claire mais exige une expertise pour être diagnostiquée, on est dans le compliqué. Le doute lui-même est un signal : si vous hésitez, c'est probablement complexe.

Que faire quand le décideur est incompétent dans le domaine de la crise ?

Plusieurs leviers s'imposent. Mobiliser rapidement une expertise externe (cabinet, conseil spécialisé) qui apporte sa propre bibliothèque mentale. S'appuyer sur les experts internes en leur déléguant les décisions techniques. Concentrer le rôle du décideur sur les fonctions non-substituables (sens, arbitrage politique, communication, ligne stratégique) plutôt que sur les arbitrages techniques. Reconnaître ses limites est paradoxalement la posture la plus solide pour un décideur novice.

Comment lutter contre l'effet de groupthink en cellule ?

Plusieurs dispositifs réduisent le risque. La diversité cognitive en cellule (acteurs aux profils, âges, métiers, parcours différents). L'avocat du diable institutionnalisé. Le groupe d'intelligence critique distinct de la cellule opérationnelle. La rotation de la parole pour donner de l'espace aux voix discrètes. La règle d'arbitrage explicite qui assume le désaccord plutôt que de le masquer. Un climat où le désaccord est valorisé et non sanctionné.

Faut-il toujours décider rapidement en crise ?

Non. La rapidité est un avantage selon OODA, mais elle ne doit pas se substituer à la qualité de l'orientation. Décider rapidement sur la base d'une orientation erronée est pire que décider plus lentement sur la base d'une orientation juste. Le bon rythme dépend de la nature du problème (Cynefin) : pour le chaotique, il faut agir vite pour stabiliser ; pour le complexe, il vaut mieux expérimenter par petites touches que se précipiter ; pour le compliqué, il faut prendre le temps de l'analyse experte.

Comment gérer un désaccord persistant en cellule ?

Le désaccord est normal et même souhaitable. Trois leviers se combinent. L'explicitation : chaque partie doit pouvoir formuler clairement sa position et ses arguments. L'arbitrage : si le désaccord persiste après discussion, il revient au directeur de crise de trancher, en explicitant ses raisons. La trace : l'arbitrage est consigné dans la main courante, ce qui protège les acteurs en cas de question ultérieure. Le pire serait un consensus de façade qui masque le désaccord.

Quel est l'impact du sommeil sur la décision en crise ?

L'impact est massif et sous-estimé. La privation de sommeil réduit les performances cognitives à des niveaux comparables à l'alcoolémie : 20 heures sans sommeil équivalent approximativement à 0,5 g/L d'alcool dans le sang sur les tests cognitifs. Pour les crises qui durent plus de 12 heures, l'organisation des relèves n'est pas un confort, c'est une condition de qualité décisionnelle. Le décideur qui refuse de dormir par devoir prend des décisions de moins en moins bonnes, sans le percevoir lui-même.

Comment mesurer la qualité d'une décision en crise ?

Plusieurs critères se combinent. Le critère du résultat : la décision a-t-elle produit l'effet attendu ? (Insatisfaisant car les résultats dépendent de facteurs hors du contrôle du décideur.) Le critère du processus : a-t-elle été prise selon une méthode rigoureuse, avec mobilisation des informations disponibles, considération des alternatives, gestion des biais ? Le critère du délai : ni trop tôt ni trop tard. Le critère de l'adaptabilité : la décision laissait-elle des marges de révision si la situation évoluait ? Une bonne pratique consiste à évaluer les décisions en RETEX selon ces multiples critères, pas seulement à l'aune du résultat final.

Glossaire

Les termes à connaître

AAR

After Action Review. Méthode structurée de retour d'expérience issue de l'armée américaine, devenue standard international.

Avocat du diable

Rôle désigné qui consiste à contester systématiquement les décisions en formation pour tester leur solidité.

Biais cognitif

Distorsion systématique du jugement qui affecte la perception, la mémoire ou la décision, particulièrement sous stress.

Bibliothèque mentale

Ensemble des patterns rencontrés et traités par un décideur, qui alimentent son intuition experte selon le RPDM.

Bounded rationality

Rationalité limitée — concept d'Herbert Simon décrivant les limites cognitives, temporelles et informationnelles qui contraignent toute décision réelle.

Charge cognitive

Ressources mentales consommées par une activité, limitées par la mémoire de travail et la fatigue cognitive.

Cynefin

Cadre de classification des problèmes (simple, compliqué, complexe, chaotique, désordre) développé par Dave Snowden, qui détermine la méthode décisionnelle appropriée.

Décision experte

Décision prise par un acteur ayant accumulé une bibliothèque mentale riche dans son domaine, pouvant mobiliser le RPDM.

Effet tunnel

Conséquence du biais de focalisation qui restreint l'attention à un sujet au détriment de la vision périphérique.

Énaction

Concept weickien décrivant comment l'action produit la situation qu'elle est censée traiter, brouillant la séparation classique entre observer et agir.

Garbage can model

Modèle de March et Olsen décrivant les décisions organisationnelles comme la rencontre presque aléatoire entre problèmes, solutions, participants et occasions de choix.

Groupe d'intelligence critique

Équipe distincte de la cellule opérationnelle, dédiée à la prise de recul et au questionnement des hypothèses dominantes. Concept formalisé par Patrick Lagadec.

Groupthink

Phénomène de consensus mou en groupe qui nivelle les analyses et écarte les voix dissidentes. Documenté par Irving Janis.

Heuristique

Règle de décision rapide et économique en ressources cognitives, souvent efficace mais parfois sujette à biais. Étudiées par Kahneman et Tversky.

Naturalistic Decision Making

Courant de recherche initié dans les années 1980 qui étudie la décision réelle dans des environnements à enjeux élevés.

OODA

Observe, Orient, Decide, Act. Boucle décisionnelle formalisée par John Boyd, qui valorise la vélocité comme avantage stratégique.

Pattern

Configuration récurrente reconnaissable dans une situation, élément central du RPDM.

Pre-mortem

Méthode qui consiste à imaginer que la décision a échoué et à analyser pourquoi, pour faire émerger les risques que l'analyse classique ignore.

Red team

Sous-groupe chargé de critiquer systématiquement la position dominante en prenant le rôle d'un adversaire intelligent.

RPDM

Recognition-Primed Decision Model. Modèle décisionnel formalisé par Gary Klein, qui décrit comment les experts décident par reconnaissance de patterns plutôt que par comparaison d'options.

Satisficing

Concept d'Herbert Simon désignant la recherche d'une solution suffisamment bonne plutôt que d'une solution optimale.

SCCT

Situational Crisis Communication Theory. Théorie de Timothy Coombs qui aligne les stratégies de communication sur les types de crise.

Sensemaking

Processus collectif de construction de sens dans une situation ambiguë, théorisé par Karl Weick.

Stress aigu

Réponse physiologique à une situation perçue comme menaçante, qui modifie le fonctionnement cognitif (rétrécissement attentionnel, accélération cardiaque, libération hormonale).

Système 1 / Système 2

Distinction popularisée par Daniel Kahneman entre la pensée rapide, intuitive et automatique (système 1) et la pensée lente, délibérative et analytique (système 2).

Signature SCOPIC

Twist est la marque gestion de crise de SCOPIC, une équipe de 20 consultant·es, créatif·ves et chef·fes de projets qui accompagne les entreprises et les territoires dans leurs projets de transformation, de concertation et de communication responsables. Notre signature : ne jamais livrer un plan seul. Plan + exercice + culture + capacité décisionnelle, toujours articulés. Neutralité revendiquée, approche sur-mesure, ancrage territorial.

Construire la capacité décisionnelle de votre cellule ?

30 minutes pour cadrer vos enjeux, objectiver ce qui existe et dessiner une trajectoire réaliste. Gratuit et sans engagement.

BL

Benoît Labalette

Consultant en gestion de crise et culture du risque

Voir nos parcours d'accompagnement

Votre message à bien été envoyé