29 mai 2012 ~ 2 Commentaires

Dans la catégorie Gestion de projet

In the Navy!

Bonjour

Eh oui, le retour !

Après un long moment de silence, je reprends la plume pour un post qui sent bon les prochaines vacances (rapport à la mer, bien sûr).

Plus sérieusement, ce silence fut lié (sans que cela constitue une excuse) à 2 missions d’intérim de 6 mois chacune que j’ai réalisées l’une à la suite de l’autre chez le même client : la première consistait à reprendre le rôle de directeur de programme sur un projet Oracle de centralisation des achats et la seconde à jouer le rôle de manager de transition dans le domaine Finance à la DSI. Je vous assure que mes temps libres ont été fortement réduits ces derniers mois.

Pour ce retour, je vous propose de vous livrer mes réflexions sur le livre de Christian Morel, Les décisions absurdes II, comment les éviter ?, Gallimard, 2012

Christian Morel avait écrit il y a 10 ans le premier tome de cet opus « Les décisions absurdes, sociologie des erreurs radicales et persistantes » qui présentait quelques exemples fameux de décisions singulières ayant mené à des résultats en totale contradiction avec le but recherché : exemple, l’explosion de la navette Challenger en 1986 pour un problème connu de joints non adaptés à la température extérieure lors du lancement.
Après les constats du premier tome, Christian Morel propose ici des pistes pour éviter de se fourvoyer.
Il illustre ses propos par de nombreux exemples d’organisations qui ont réussi à mettre en place des processus de haute fiabilité comme la marine nucléaire américaine (d’où le titre de ce post), l’armée de l’air française, les guides de haute montagne en Suisse, des équipes de blocs opératoires, …
Vous verrez que les démarches adoptées tranchent radicalement par rapport à notre vision a priori des moyens pour obtenir une haute fiabilité et par rapport à notre image première des organisations concernées (je me focaliserai sur la Navy qui me paraît l’exemple emblématique).

Dixit Christian Morel, « Les porte-avions et sous-marins nucléaires de la marine américaine sont considérés comme des modèles d’organisations hautement fiables. La fréquence des accidents y est nettement inférieure à ce que l’on pourrait attendre compte tenu des situations à haut risque auxquelles ils sont exposés ».

Selon lui, ces résultats sont obtenus grâce à 3 principes forts et originaux :
- La flexibilité de la hiérarchie militaire (vous lisez bien !) : la décision se prend au niveau opérationnel pertinent
- L’interaction éducative permanente : un sous-marin nucléaire est un modèle d’entreprise apprenante
- L’avocat du diable et le droit de veto : les débats contradictoires sont encouragés sinon obligatoires et des instances (ou acteurs) définies ont droit de veto sur la décision finale

Christian Morel s’appuie sur ces exemples pour proposer ce qu’il appelle des métarègles de la fiabilité
- Hiérarchie restreinte impliquée
- Avocat du diable et débat contradictoire
- Interaction généralisée
- Vision des interstices
- Non punition des erreurs

Hiérarchie restreinte impliquée
Comme déjà écrit, il s’agit de faire prendre la décision au bon niveau opérationnel. Christian Morel cite à ce sujet le nom d’un sociologue américain, Richard Sennet, qui soutient la thèse que les cadres supérieurs américains ont souvent moins de compétences que leurs subalternes (serait-ce possible en France ? :-) ). Le rôle du responsable (ou manager ou chef) reste cependant bien réel (cf. le « impliquée » dans « hiérarchie restreinte impliquée ») et consiste à délivrer un objectif clair en expliquant les tenants et aboutissants, en bref, en donnant la vision d’ensemble dans laquelle s’insère la décision à prendre

Avocat du diable et débat contradictoire
Il s’agit d’instituer un processus fort de contestation productive lors d’une prise de décision. Ceci évite notamment les pièges classiques de la dynamique de groupe comme les faux consensus, la pression hiérarchique, l’effet des règles bureaucratiques ( « j’ai transmis le problème à l’autorité compétente, ce n’est donc plus mon problème » ), …
Le droit de veto sur la décision finale fait aussi partie de cette métarègle.

Interaction généralisée
On retrouve ici l’aspect interaction éducative permanente (l’équipe s’auto-forme) mais aussi les notions de communication circulant de façon fluide, de haut en bas et de bas en haut. L’auteur évoque aussi les points bénéfiques d’une interaction en one-to-one et d’une communication explicite (ex. la validation orale de la bonne compréhension de la question par répétition de la question avant de donner la réponse dans une check-list avant décollage). Il termine enfin par louer les bienfaits d’une équipe stable (ex. les équipages des sous-marins nucléaires) et de la redondance dans les équipes (encore une fois, pour garantir de véritables contrôles croisés et ce, toujours dans un but constructif).

Vision des interstices
Par interstices, l’auteur entend les lieux où des éléments organisationnels doivent travailler ensemble. Je me permets de traduire par « interfaces » qui induisent des trous dans la communication et dans la vision globale du problème à traiter ainsi que des pertes en matière de connaissance. Ces interstices sont aussi sources potentielles d’erreurs par la divergence des intérêts des différentes parties prenantes. Enfin, Christian Morel donne un coup de griffe à la mode actuelle des mutualisations des moyens qui est supposée, par la division du travail, améliorer l’efficacité, ce qui est sans doute vrai en optimum local mais reste à démontrer en optimum global.

Non punition des erreurs
Ce point est selon l’auteur un des fondements de la haute fiabilité. Cette pratique permet notamment de faire remonter tous les « petits » incidents précurseurs et permet aussi de diffuser les retours d’expérience (évitant ainsi la reproduction d’erreurs déjà connues par ailleurs).
Plutôt que de chercher à punir à tout prix un bouc émissaire, il propose d’instaurer la notion de « rigueur jurisprudentielle » (à travers une charte), notion qui permet de raffiner sans cesse le meilleur processus en réponse à des erreurs identifiées.

Un des points les plus dérangeants et des plus intéressants que je retiens du livre de Christian Morel concerne le management :
Le mode hiérarchique classique fonctionne bien en période de stabilité (il écrit : « quand il ne se passe pas grand-chose »). Dans un environnement incertain, des approches plus fluides permettent d’optimiser la prise de décision au niveau le plus pertinent.
Après réflexion, Darwin ne disait pas autre chose par rapport à la survie des espèces : « seul le plus adaptable survit ». A méditer à notre époque de transitions de plus en plus rapides …

En conclusion, je vois un lien entre cette recherche de la haute fiabilité et le concept d’entreprise agile et, en tant que fervent promoteur des approches agiles, je compte bien faire le parallèle entre ces métarègles de haute fiabilité et les principes agiles dans un prochain post.

D’ici là, bon vent …

in the navy

Christophe Leroy

2 Réponses à “In the Navy!”

  1. Christophe 22 mars 2013 à 22 h 44 min Lien direct avec ce commentaire

    Bonjour Christophe.
    Les décisions absurdes (…) : intéressant. Mais en conclusion, il est question d’un prochain post. Il y a 10 mois ! J’en déduis que tu es à nouveau fort occupé ;)
    Amicalement,
    Christophe.

  2. Christophe Leroy 23 mars 2013 à 13 h 01 min Lien direct avec ce commentaire

    bonjour Christophe
    merci pour ton commentaire
    effectivement, j’ai encore été fort occupé
    heureusement, que je n’avais pas parlé « des décisions lentes » :-)
    allez, je m’engage à livrer un nouveau post semaine prochaine !
    amitiés
    Christophe


Laisser une réponse