Dans le domaine de la sécurité industrielle, la complexité des systèmes sociotechniques est reconnue comme une cause organisationnelle récurrente des accidents : les analyses des accidents ont fait évoluer la perception de la complexité technique1 des systèmes à la complexité organisationnelle2. Ce facteur d’influence a été retenu comme l’un des facteurs organisationnels pathogènes1.
Les exigences croissantes de disponibilité, de hautes
performances et de sécurité conduisent à la fois à renforcer le
système avec des redondances techniques et à multiplier les
contrôles, ce qui tend à accroître la complexité (technique et
organisationnelle). Comment résoudre cet apparent dilemme,
notamment en conception, si la complexité est par ailleurs une
cause de risque ?
Par ailleurs, quel regard devons-nous porter sur les systèmes
sociotechniques à risques qui existent déjà, qui constituent
l’essentiel des risques à maîtriser (pour la durée de vie de ces
systèmes) et dont la conception date parfois de plusieurs
dizaines d’années ?
Les risques des systèmes
existants sont-ils acceptables ? Et le risque résiduel ne
serait-il que la traduction en conséquence inéluctable de cette
complexité sous-jacente ?
Le défi de la maîtrise des risques de systèmes sociotechniques à risques (futurs ou existants) peut laisser penser que la complexité actuelle (ou son accroissement) rend les accidents inévitables. Certains chercheurs, comme le sociologue Charles Perrow, pensent que la complexité des systèmes et le couplage des éléments les constituant rendent un accident inévitable. En ce sens, ils considèrent l’accident comme « normal » car inéluctable. C. Perrow argumente que l’accident de la centrale nucléaire de Fukushima en mars 2011, valide et renforce son propos.2 Le point de vue de C. Perrow a été longuement débattu par M. Llory dans Préventique3.
Si C. Perrow introduit sa thèse de la complexité après l’accident
de Three Mile Island, paradoxalement en tant que sociologue, il
insiste sur la complexité technique. L’accident de la navette
spatiale Challenger en 1986 permit à la sociologue Diane
Vaughan d’illustrer les effets de la complexité organisationnelle
(de la Nasa) sur la sécurité. Elle souligne que la complexité du
système engendre des barrières à la compréhension.
Elle précise : « comme les organisations grossissent,
les actions sont pour la plupart non observables. La division du
travail entre sous-unités, entre lignes hiérarchiques, et la
dispersion géographique disséminent la connaissance des tâches et
des buts. La distance – à la fois physique et sociale – interfère
avec les efforts de ceux qui en haut essaient de connaître le
comportement des autres dans l’organisation et vice-versa. La
connaissance spécialisée est un frein à la connaissance
approfondie »4. Ainsi, avec D. Vaughan, la complexité
organisationnelle prend toute son ampleur, pour ne pas dire
qu’elle devient un enjeu qui peut être plus important que la
complexité technique.
Continuons d’en préciser les contours au travers de deux
accidents emblématiques.
1. Dien, Y., « Les facteurs
organisationnels des accidents industriels », dans L. Magne, et
D. Vasseur, (Eds), Risques industriels – Complexité, incertitude
et décision : une approche interdisciplinaire, p. 133-174,
Éditions TEC & DOC, Lavoisier 2006
2. Perrow C. (2011), « Fukushima and the inevitability of
accidents », Bulletin of the Atomic Scientists, 2011 67:44,
http://bos.sagepub.com/content/67/6/44.
3. Llory M., « L’accident est-il évitable ou peut-on
l’éviter ? », Préventique no 125, sept.-oct. 2012.
4. Vaughan D., op. cit., p. 250
Dossier extrait de la revue Préventique n°128 mars/avril
2013 :
http://www.preventique.org/Preventique_Securite/analyse-des-risques-n%C2%B0128