
FANUC, le fabricant japonais de robots industriels, opère depuis les années 2000 des usines qui produisent des robots dans l'obscurité totale. Pas de lumière, pas de chauffage, pas d'humain présent pendant la production. Les machines fabriquent d'autres machines pendant des semaines sans intervention. Ce que l'industrie appelle dark factory n'est pas une métaphore. C'est une décision sur ce que l'espace de travail doit contenir.
La contrainte de visibilité disparaît avec le travailleur. La lumière était une infrastructure pour les yeux humains. Sans yeux, elle devient un coût sans fonction. Mais la lumière n'était pas seulement de la lumière. Elle permettait de voir la fumée, la fuite d'huile, la pièce mal positionnée, la courroie qui s'effiloche. Ces observations n'étaient pas formalisées dans les procédures. Elles n'avaient pas de nom dans les manuels de sécurité. Elles se produisaient en passant, par des travailleurs dont la présence dans l'espace n'était pas instrumentalisée comme détection.
L'ingénierie de la fiabilité distingue les défaillances détectables et les défaillances latentes. Une défaillance latente existe sans se manifester, elle attend les conditions qui la rendront visible. Dans une usine avec des ouvriers, une partie des défaillances latentes devenaient détectables avant de devenir catastrophiques, non pas parce qu'un protocole le prescrivait, mais parce qu'un corps humain était là et percevait quelque chose d'anormal. Ce corps était un instrument de mesure non calibré, non documenté, non reconnu comme tel.
Les systèmes modernes de maintenance prédictive semblent répondre à ce problème. Les accéléromètres détectent des signatures vibratoires caractéristiques de défaillances imminentes, bien avant tout signe perceptible à l'humain. Les algorithmes d'apprentissage identifient des corrélations que personne n'aurait vues. Mais ces systèmes détectent ce pour quoi ils ont été conçus, les défaillances dont la signature a été préalablement caractérisée, dont les paramètres pertinents ont été identifiés, dont les données ont été décidées comme devant être collectées. La maintenance prédictive est une détection formalisée de l'inconnu connu. Elle ne couvre pas l'inconnu inconnu, la défaillance dont personne n'a encore observé la signature parce qu'elle ne s'est pas encore produite dans un système suffisamment instrumenté.
La redondance par arrêt automatique fonctionne selon la même logique. Un paramètre dévie d'un seuil préétabli, le système s'arrête. Ce qui présuppose que la défaillance produit une déviation mesurable dans un paramètre surveillé, que cette déviation précède le point de bascule d'un intervalle suffisant, et que le seuil a été correctement calibré. Ce que l'ouvrier captait en passant n'avait pas de seuil. Il n'avait pas de paramètre. Il avait une présence dans l'espace.
Reason (1990) distingue les erreurs actives des erreurs latentes dans les systèmes complexes. Les erreurs actives sont commises par les opérateurs en contact direct avec le système. Les erreurs latentes sont des déficiences enfouies dans l'organisation, invisibles jusqu'au moment où elles se combinent avec d'autres facteurs pour produire un accident. La dark factory élimine les erreurs actives des opérateurs humains. Elle ne touche pas aux erreurs latentes. Elle en ajoute une catégorie : les défaillances que seule une présence non spécialisée aurait détectées.
Doctrine
L'ouvrier n'était pas seulement un producteur. Il était un capteur. Son retrait n'automatise pas la production. Il aveugle une partie du système de détection que personne n'avait formalisé comme tel parce que personne n'avait imaginé son absence.
Vecteur ouvert
La maintenance prédictive et la redondance couvrent les défaillances dont la forme est connue. Elles déplacent la frontière entre l'inconnu connu et l'inconnu inconnu sans la supprimer. Si la présence humaine dans un espace industriel constitue un instrument de détection non documenté, alors tout espace dont les humains sont progressivement retirés perd une capacité de détection dont personne ne connaît précisément l'étendue avant qu'elle disparaisse. Les hôpitaux qui réduisent leur personnel de nuit, les salles de contrôle qui passent en supervision à distance, les réseaux électriques pilotés par algorithme, dans chacun de ces cas, quelque chose cesse d'être perçu. Ce qui reste de l'autre côté de cette frontière ne diminue pas nécessairement. Il change de forme. La question est de savoir si cette transformation est mesurable avant qu'un accident en révèle l'étendue.
