single

La Maintenance Prédictive

Aussi appelée maintenance prévisionnelle, cette nouvelle façon de concevoir l'optimisation des outils industriels est l'un
des cas d'usage les plus prometteurs du big Data. Il va s'agir, comme son nom l'indique, d'anticiper les pannes et les dégradations susceptibles de survenir sur une machine pour pouvoir les gérer en amont, et donc améliorer la durée de vie de l'appareil en question, réduire ou supprimer les temps d'immobilisation pour réparation, et faire baisser les coûts d'entretien et d'intervention.
De tels bénéfices vont être rendus possibles par la capacité de ces outils industriels à faire remonter une foule de données grace à leur informatique embarquée. et surtout, comme le souligne Stéphan Clémençon (Télécom-ParisTech), par le traitement de plus en plus fin de ces informations grace aux technos big Data :

INTERVIEW : Télécom-parisTech Stéphan Clémençon

La maintenance prédictive est devenue l'un des grands champs d'application du Big Data, avec la possibilité, grace à l'implémentation d'une multitude de capteurs plus ou moins intelligents dans des réseaux de machines, de monitorer le système en temps réel. Pour des entreprises industrielles qui évoluent de plus en plus vers la mise à disposition de services, c'est la possibilité d'assurer la pérennité de ce service, en rendant la maintenance intelligente. Parvenir à de tels objectifs suppose de résoudre quelques problèmes mathématiques importants : Comment adresser une telle volumétrie de données ? Comment produire des prédictions efficaces en temps réel ? Comment exploiter efficacement des systèmes d'information qui sont fondamentalement distribués ? Cela demande de revisiter complètement l'algorithmie.


De telles perspectives ne peuvent manquer d'intéresser les grands groupes industriels, dans des secteurs aussi variés que le transport, l'aviation, l'énergie… Dans celui de l'oil & gaz, l'entrée dans cette nouvelle ère de la maintenance constitue ainsi, un véritable step change, comme le détaille Olivier Brousseau(Schlumberger) :

INTERVIEW : schlumberger Olivier Brousseau

Cela fait partie depuis longtemps des best practices de notre secteur de posséder, dans chacune de nos machines, une carte de stockage pouvant tout monitorer. Mais ce qui manquait jusqu'à présent, c'était la discipline et les process permettant de tirer de la valeur des informations dormant dans ces cartes, en les rapatriant en central pour les exploiter dans une boucle plus longue. Cette possibilité est apparue avec la démocratisation des technologies autour de la donnée (notamment l'architecture Hadoop), qui a rendu le stockage et l'exploitation de la data beaucoup plus abordables.


Nous avons lancé une première POC qui a duré trois semaines. Nous avons récupéré les logs fournis par l'électronique embarquée de nos outils (statut sur 140 mesures - températures, pressions, chocs - relevées toutes les 5 à 10 secondes). Puis avec des outils Big Data, amenés par un partenaire, nous avons commencé à analyser ces données, après avoir retiré les informations relatives au client contenues dans les logs pour ne garder que les données techniques.


Au bout de trois semaines à faire matcher cette data, les premiers résultats et les premières corrélations sont apparus, montrant clairement qu'au-delà d'une certaine température en sous-sol, le taux d'échec des outils grimpait en flèche. on a aussi constaté qu'il existait un niveau de choc particulièrement susceptible d'engendrer des défauts sur la carte électronique. C'était un enseignement intéressant, pour deux raisons:
  • ce n'était pas forcément l'angle attendu,et cela apportait une nouvelle compréhension de ce qui se passait en sous-sol
  • la compréhension de ce niveau de choc permettait de faire un feedback aux équipes opérationnelles pour ajuster la vitesse de sondage et optimiser la fiabilité.