Passionnant et essentiel !
A partir du moment où nous agissons, nous commettons des erreurs. Chaque jour, on peut se dire « zut, là, j'ai oublié ça », « J'aurai pas du dire ça », « J'ai pas fait attention ».
Seulement voilà, il y a des domaines d'activité où la moindre erreur se paie cash. Si vous êtes pilote d'avion, si vous êtes marinier dans un sous-marin nucléaire, si vous êtes chirurgien, la « petite erreur » se paie en centaine de morts, en risque de guerre et de contamination, en intégrité physique corrompue ou infection nosocomiale.
Alors ces organisations à haut risque ont du apprendre à développer une culture de haute fiabilité, elles se sont améliorées de décennies en décennie, en réfléchissant à leurs erreurs et souvent en s'inspirant les unes des autres. La plus fiable servant de modèle.
On voit par-exemple dans ce livre comment la Nasa a du s'inspirer de la fiabilité de l'aviation de ligne après les explosions de Challenger. Comment la chirurgie a mis un temps fou à s'améliorer, à casser des habitudes anciennes pour adopter l'habitude évidente ( mais coûteuse en temps) de la fameuse check list.
Là où on se sent plus intelligent en lisant ce livre, c'est que ce sont souvent des idées contre-intuitives. Exemple: le concept de non-punition. Si un pilote d'Air France fait une erreur en vol, au décollage ou à l'atterrissage, il ne risque aucune sanction ! Cela nous semble fou, n'est-ce-pas ? Mais il a le devoir de signaler son erreur, elle est enregistrée de manière anonyme, et la longue suite de signalements d'erreur permet petit à petit d'améliorer le système. Et on connaît les statistiques: ça fonctionne parfaitement.
Christian Morel retrace l'historique de toutes ces procédures. L'auteur a exploré son sujet en long et en large et nous fait partager ses expériences, cela va du chef d'Etat-major de l'armée de l'air française à un entretien avec Thierry Lhermitte. Pourquoi le Pierre Mortez du Père Noel ... ? Parce que l'écriture collective de la troupe du Splendid a prouvé sa qualité dans le temps grâce à quelques règles que l'auteur désigne comme métarègles de fiabilité:
• un principe d'unanimité absolue,
• la collégialité
• et un processus contradictoire fort.
Il s'est aussi immergé dans son sujet en embarquant dans un sous-marin nucléaire, à la fiabilité reconnue. Il voit les officiers retirer leurs galons et appliquer la hiérarchie restreinte impliquée. Encore une idée contre-intuitive battue en brèche, celle du chef tout-puissant, qui a toujours raison.
Dans un sous-marin nucléaire, on ne peut pas se permettre de ne pas écouter un mécanicien. de même, il y a un processus d'apprentissage en continu:
« Dans le sous-marin, le PCNO (poste central navigation et opération), qui regroupe toutes les activités et fonctions essentielles (barre, périscope, écoute et analyse, sécurité, centrale à inertie, armes) est à la fois un lieu de forte socialisation, où des acteurs de tous grades se retrouvent dans un espace minuscule pendant de longs moments et échangent, et d'apprentissage intensif sur le tas. »
Résumé de ces fameuses règles:
- La check-list (même si elle «surprend par sa dimension élémentaire, presque enfantine.. »)
- L'effacement de la structure hiérarchique ou hiérarchie restreinte impliquée
- Valorisation de la fonction d'avocat du diable: la procédure contradictoire stimule l'examen critique et freine le conformisme.
- Ne pas hausser le ton devant une erreur (concept de non punition)
- Communication explicite et redondante: on s'exprime à haute voix et on répète le message. « Le renforcement linguistique est un cercle vertueux car il déclenche d'autres échanges d'informations »
- Laisser du temps pour faire reposer la décision
C'est un essai passionnant. Ces idées novatrices méritent d'être connus de tous.
Il montre également l'impact de deux matières de sciences humaines, psychologie sociale et sociologie dans l'amélioration de disciplines techniques et scientifiques. En médecine, la formation aux facteurs humains a fait baisser la mortalité chirurgicale de 50 %. En aéronautique, il y a une formation obligée à la sociologie et à la psychologie. On comprend et on évite des erreurs cognitives comme la fixation sur la cible ou polarisation (on s'engage dans un processus et il est difficile de faire marche arrière), l'effet dévastateur des suppositions silencieuses (on aurait pu éviter l'accident mais on a pas osé parler pour ne pas s'isoler du groupe. Chacun cherche à supputer ce que pensent les autres), les biais de confirmation ( on retient uniquement informations et arguments qui confirment notre opinion).
Difficile de résumer un tel livre car on a envie de le piller et de le citer sans cesse. J'avais lu le premier tome il y a quelques années, on peut sans crainte lire celui-ci sans avoir lu le premier, il reprend et développe les mêmes idées.
Lien :
http://killing-ego.blogspot...