pen icon Colloque
quote

Modélisation de la fiabilité des composants soumis à des contraintes fonctionnelles

LP

Membre a labase

Lambert Pierrat

Résumé du colloque

Historiquement, la théorie de la fiabilité est née et s'est développée dans le domaine des composants électroniques, où son utilité est aujourd'hui largement démontrée. Toutefois, son extension à d'autres domaines s'est heurtée à des difficultés qui ne sont pas encore totalement surmontées, par suite du caractère très simpliste des modèles (taux de défaillance constant) et de la forte validité statistique des données observables (effectifs suffisants et essais destructifs peu coûteux), spécifiques du domaine de l'électronique. En effet, si l'on considère des processus industriels, incluant des composants différents au sein d'une structure complexe, la probabilité de défaillance d'un tel système est beaucoup plus difficile à appréhender pour plusieurs raisons. D'une part, la notion de composant élémentaire est loin d'être unique et, suivant le niveau d'observation adopté, un composant fonctionnel peut être vu comme un système plus ou moins simple. D'autre part, les composants en question sont de nature plus diverse (mécanique, électrique, électronique...) et leur fonctionnement sous contraintes combinées (température, champ électrique, irradiation, corrosion, usure...) se traduit par un taux de défaillance variable (fonction du temps, du spectre des contraintes fonctionnelles, des actions de maintenance...). Enfin, comme on s'intéresse par définition à des systèmes assez fiables (obtenus par la combinaison de composants élémentaires intrinsèquement fiables au sein de structures redondantes par exemple), l'observation de défaillances peu fréquentes conduit à disposer d'une information assez pauvre, peu propice à la qualité des modèles et à la validité des prévisions qu'ils peuvent fournir. Il en résulte que les études de fiabilité réalisées sur des systèmes complexes fournissent des résultats qui ne sont pas toujours exploitables, parce que les modèles de fiabilité des composants sont trop simplistes et/ou trop imprécis. Cette tendance tend à s'accentuer et le recours à des bases de données importantes et coûteuses est loin de pallier ces insuffisances car l'observation de passé ne traduit pas nécessairement la variabilité et l'incertitude des conditions fonctionnelles futures. Dans ce contexte, la réapparition des méthodes bayésiennes représente une tentative non avouée visant à résoudre ce genre de problème par le biais d'une formulation mathématique, certes rigoureuse et cohérente, mais difficile à formaliser en des termes accessibles à l'ingénieur non spécialiste. Puisqu'il s'agit en fait d'enrichir une information insuffisante, on conviendra que les procédures de recours à des experts, peuvent être en partie évitées si l'on utilise efficacement la connaissance des phénomènes physiques que les ingénieurs spécialistes (concepteurs et utilisateurs) maîtrisent assez correctement. Toute la problématique se ramène donc à traduire cette connaissance en termes de fiabilité, puisque cette discipline est celle qui permet de prévoir les défaillances et de dégager les moyens d'action nécessaires à la maîtrise du comportement des systèmes. L'exposé dont le plan est indiqué ci-après vise à répondre à ces préoccupations. Tout d'abord, on présente les principaux modes de défaillance des composants, dont le comportement au cours de leur cycle de vie, donc leur évolution temporelle, sous l'influence des contraintes fonctionnelles (usure, actions de maintenance ou de renouvellement). Ensuite, on définit le concept de défaillance sur des bases probabilistes, afin de mettre en évidence la liaison entre le dimensionnement initial d'un composant et les sollicitations qu'il peut subir au cours de son cycle de vie futur. En théorie, on pourrait considérer autant de modèles de fiabilité que de composants typiques, mais ceci conduirait à renforcer inutilement la complexité du problème. En pratique, on peut rassembler l'essentiel des phénomènes physiques dans quelques modèles de fiabilité (5 ou 6 environ) et on se limitera ici aux modèles lognormal et de Weibull, parce qu'ils couvrent la plupart des cas rencontrés dans le domaine industriel. Pour chacun de ces modèles, on présente leur genèse (mathématique, statistique, physique...) et leur interprétation en termes de fiabilité et de phénomènes physiques. La méthodologie correspondante, applicable concrètement, consiste à associer, de manière cohérente, l'observation statistique et l'analyse des phénomènes physiques en vue d'aboutir à un modèle de fiabilité paramétrable et facilement exploitable en termes de prévision. On illustre cette méthodologie par des études de cas typiques correspondant respectivement, au concept de défaillance par interaction probabiliste et aux modèles de fiabilité log-normal et de Weibull.

Contexte

manager icon Responsables :
Raynald Vaillancourt
host icon Hôte : Université de Trois-Rivières

Découvrez d'autres communications scientifiques

Autres communications du même congressiste :