Notes sur la maintenance préventive - 1° partie, Notes de Génie de la production
Christophe
Christophe13 janvier 2014

Notes sur la maintenance préventive - 1° partie, Notes de Génie de la production

PDF (137 KB)
12 pages
444Numéro de visites
Description
Notes de ingénierie sur la maintenance préventive - 1° partie. Les principaux thèmes abordés sont les suivants: Analyse des Modes de Défaillance, des Effets et de leur Criticité" AMDEC, les estimateurs empiriques.
20 points
Points de téléchargement necessaire pour télécharger
ce document
Télécharger le document
Aperçu3 pages / 12

Ceci c'est un aperçu avant impression

3 shown on 12 pages

Télécharger le document

Ceci c'est un aperçu avant impression

3 shown on 12 pages

Télécharger le document

Ceci c'est un aperçu avant impression

3 shown on 12 pages

Télécharger le document

Ceci c'est un aperçu avant impression

3 shown on 12 pages

Télécharger le document

L'évolution des techniques de production vers une plus grande robotisation des systèmes

techniques plus complexes a augmenté l'importance de la fiabilité des machines de production.

Aussi, un arrêt imprévu coûte cher à une entreprise. De même, dans l'industrie aéronautique et

spatiale, les problèmes de fiabilité, de maintenabilité, de disponibilité sont capitaux. La

maintenance garantit le niveau de fiabilité pour l'ensemble des composantes (mécaniques,

électromécaniques et informatiques).

L'existence d'un service de maintenance a pour raison le maintien des équipements (systèmes)

et aussi la diminution des pannes. En effet, ces dernières coûtent cher, elles occasionnent :

- Des coûts d'intervention, de réparation

- Des coûts de non qualité du produit

- Des coûts indirects tels que des frais fixes, pertes de production, la marge bénéficiaire

perdu...

De ce fait, il faut tout mettre en oeuvre pour éviter la panne, agir rapidement lorsqu'elle

survient afin d'augmenter la disponibilité du matériel. Pour ce faire, il faut modéliser la vie des

équipements. L'ensemble des méthodes et techniques relatives à ses problématiques sont

habituellement classifiées sous le nom de "Analyse des Modes de Défaillance, des Effets et de

leur Criticité" AMDEC.

Nous distinguons principalement deux classes de systèmes: les systèmes non-réparables

(satellites, bien de conommations à faibles coûts, etc.) et les systèmes réparables (machines de

production, moyens de transports, etc.) où les approches théoriques sont différentes. Pour la

deuxième catégorie il est possible d'utiliser aussi les chaînes de Markov, les réseaux de Petri ou

la simulation par Monte-Carlo.

L'idée est dans les textes qui vont suivre de faire un petit point sur ces méthodes, d'en

rechercher l'efficacité et de permettre au praticiens ingénieurs ou techniciens de mieux

appréhender ces problèmes. Une large place sera faite au modèle de Weibull d'application

importante dans le domaine.

ESTIMATEURS EMPIRIQUES

Dans le cadre de l'étude de fiabilité non accélérée (le vieilissement accéléré est un sujet trop

complexe pour être abordé sur ce site), nous sommes amenés à définir certaines variables dont

voici la liste :

- sera le nombre d'éléments bons à (instant initial)

- le nombre d'éléments bons à

- le nombre d'éléments défaillant entre et noté aussi

- l'intervalle de temps observé égal à .

Définitions:

D1. Nous définissons le "taux de défaillance par tranche temporelle" par la relation :

(142)

qui s''interprète donc comme étant le % d'éléments défectueux par rapport au nombre

d'éléments survivants sur une tranche de temps donnée.

Cette dernière relation est aussi parfois appelée "hazard ratio" (HR) ou "survie relative".

D2. Nous définissons la "fonction de défaillance" par la relation (densité de probabilité de

défaillances à l'instant ) :

(143)

en remarquant bien que le dénominateur n'est pas le même que celui qui définit la taux de

défaillance par tranche!

Cette fonction s'interprète donc comme étant le % d'éléments défectueux dans la tranche de

temps étudiée par rapport au nombre total d'éléments initialement testés. Il s'agit de

l'indicateur qui intéresse le plus souvent l'ingénieur!

D3. Nous définissons naturellement la "fonction de défaillance cumulée" par :

(144)

que tend vers 1 lorsque le temps tend vers l'infini.

Cette fonction s'interprète donc comme étant le % d'éléments défectueux cumulé par rapport au

nombre total d'éléments initialement testés.

D4. Nous définissons in extenso la "fonction de fiabilité" par (il s'agit du deuxième terme de la

précèdente relation):

(145)

Son nom provient par l'interpratition du rapport dans le cadre de la définition de la fonction de

défaillance cumulée.

Pour se rappeler des termes se souvenir que R provient de l'anglais "reliability" qui signifie

"fiabilité" alors que leF en anglais signifie "failure" qui signifie en "panne".

Par suite nous avons aussi:

(146)

Cette dernière relation servant au calcul des lois de fiabilité!

Puisque :

et (147)

la fonction de défaillance peut être vue comme une probabilité ce qui nous amène à définir

naturellement son espérance :

(148)

Relation très utile dans la pratique qui donne en théorie le pourcentage moyen d'éléments en

panne à l'instant .

Exemple:

Nous avons relevé sur un lot de 37 moteurs d'un type donné les défaillances suivantes

répertoriées par tranches (données par des clients ou mesuré en internes sur des bancs

d'essais):

0 à

1'000 h.

1'000 à

2'000 h.

2'000 à

3'000 h.

3'000 à

4'000 h.

4'000 à

5'000 h.

5'000 à 6'000

h.

1 4 7 12 11 2

Tableau: 6 - Défaillances des moteurs par tranches d'effort

Il faut que nous estimions la valeur de la fonction de fiabilité , la fonction de

défaillance et la défaillance par tranche . Les calculs sont élémentaires et nous

obtenons le tableau suivant :

Intervalle

d'observation

Nombre de

défaillances

dans

l'intervalle

Survivants Cumul des

défaillants

0 - 37 0 100% 0 -

0 à

1'000 h. 1 36 1 97% 2.7% 27

1'000 à

2'000 h. 4 32 5 86% 10.8% 111

2'000 à

3'000 h. 7 25 12 67% 18.9% 218

3'000 à 4'000

h. 12 13 24 35.1% 32.4% 480

4'000 à 5'000

h. 11 2 35 5.4% 5.4% 846

5'000 à

6'000 h. 2 0 37 0% - 1

Tableau: 7 - Analyse des défaillances des moteurs par tranches d'effort

Nous voyons ci-dessus par exemple que le taux de défaillance n'est pas constant bien

évidemment!

Concernant les taux de défaillance, les ingénieurs reconnaissent souvent trois tranches

d'analyses suivant que certains objets étudiés soient jeunes, en fonctionnement normal ou

considérés en vieillissement.

On considère alors assez intuitivement (et parfois grossièrement) que le taux de défaillance suit

une courbe en baignoire comme représenté ci-dessous (dans les tables techniques c'est

souvent le taux de défaillance en fonctionnement normal qui est donné):

(149)

alors que si vous observez le tableau précédent, le taux de défaillance ne suit pas du tout une

courbe en baignoire (c'est donc un contre-exemple).

Les ingénieurs en fiabilité découpent souvent la baignoire en trois parties visibles ci-dessus

mais sous la dénomination technique suivante:

- D.F.R.: Decreasing Failure Rate (les composants jeune ayant des problèmes de fabrication non

identifiés lors de procédé sont éliminés du lot ce qui a pour effet de diminuer le taux de

défaillance). La loi de Weibull est relativement bien adaptée pour modéliser cette phase.

- C.F.R.: Constant Failure Rate (les composants sont dans un état stationnaire). La loi de

Poisson est relativement bien adaptée pour modéliser les arrivées de pannes, et la loi

exponentielle pour modéliser le temps entre pannes successives..

- I.F.R.: Increasing Failure Rate (les composants sont en fin de vie et leur taux de défaillance

augmente). La loi de Weibulle est à nouveau relativement bien adaptée pour modéliser cette

phase.

Remarque: Contrairement à ce que pas mal de théoriciens pensent..., les logiciels informatiques

grand public ont aussi leur taux de défaillance qui suit une courbe en baignoire. Effectivement,

au début il y a des bugs non détectés qui font que la défaillance va diminuer au fur et à mesure de

leur détection et leur correction. Ensuite, à cause des mises-à-jour fréquentes de l'environnement

qui ont tendance à rajouter d'autres problèmes (service pack), le taux de défaillance se maintient

à peu près constant. Enfin, avec le temps, l'évolution des technologies environnantes (framwork)

rendent l'applicatif obsolète et des fonctions ne répondent ou n'agissent plus correctement ce qui

fait à nouveau augmenter le taux de défaillance.

Vis-à-vis de l'efficacité de la rénovation, indiquons qu'elles peuvent (en simplifiant) très

fréquemment se ranger en trois catégories:

1. As good as new: C'est de la maintenance préventive dans le sens que nous changeons une

pièce lorsque sa durée de vie l'amène à une taux de défaillance que nous considérons comme

trop élevé et dont la rupture non anticipée coûtera plus cher que sa non-anticipation.

2. As bad as old: C'est de la maintenance déficiente dans le sens que nous changeons une pièce

que lorsqu'elle est arrivée à rupture ce qui engendre majoritairement des coûts d'arrêts plus

élevés que la maintenance préventive qui consiste elle à anticiper au plus juste la casse.

3. Restauration partielle: C'est de la maintenance préventive minimale dans les sens que nous

réparons la pièce défaillante plutôt que de la remplacer par une nouvelle. A nouveau le

problème du coût doit être calculé en faisant un audit des besoins et des délais de l'entreprise.

Revenons en à d'autres définitions au passage à la limite du continu.

Nous savons donc que le "taux de défaillance instantané" aura pour unité l'inverse du temps tel

que . Ce taux est dans le cadre de notre étude pas nécessairement constant dans le

temps nous l'avons constaté!

Soit R(t) le pourcentage cumulé d'objets analysés toujours en état de bon fonctionnement d'un

échantillon testé au temps t. Le nombre d'objets tombant en panne durant le temps

infinitésimal dt est donc égal à :

(150)

ce qui correspond donc à la diminution du stock initial en bon fonctionnement au temps t.

Nous pouvons alors écrire la relation:

(151)

soit :

(152)

Définition: La "probabilité conditionnelle de défaillance" (rien à voir avec les probabilités

conditionnelles cependant....) entre t et t + dt est définie par:

(153)

où F(t) et R(t) sont respectivement la fonction cumulée de défaillance (probabilité cumulée de

tomber en panne au temps t) et la fonction fiabilité appelée également "fonction de survie". R(t)

valant 1 au temps 0 et... 0 après un temps infini comme nous l'avons déjà vu avant!

Dès lors, peut s'interpréter comme la défaillance instantanée! En analyse de survie, le

facteur de dt est nommé aussi parfois "fonction de risque".

Remarque: Par la même démarche intelectuelle, plutôt que de définir une fonction de

défaillance F(t) et de survie R(t) avec sa fonction de risque, nous pouvons définir une fonction de

réparibilité avec sa fonction de M(t) qui serait alors une "fonction de maintenabilité".

Si nous intégrons (attention u représente maintenant le temps!) :

(154)

Comme nous avons :

(155)

d'où :

(156)

Par ailleurs, puisque nous avons vu que , nous avons alors la "fonction de

densité/répartition de défaillance instantanée":

(157)

Nous pouvons obtenir cette relation et interprétation sous une autre manière:

(158)

où nous retrouvons donc F(t) la fonction de probabilité cumulée de défaillance. Evidemment

pour déterminer la loif(t), nous utilisons les outils statistiques d'ajustements habituels (cf.

chapitre de Statistiques).

Nous avons alors la relation très importante (voir la plus importante!) dans la pratique que relie

la loi de densité de la loi de fiabilité:

(159)

Nous avons ci-dessus les trois expressions les plus générales liant les lois de fiabilité et le taux

instantané de défaillance.

Puisque f(t) est la fonction de densité de défaillance au temps t, nous pouvons introduire la

"moyenne du temps de bon fonctionnement" (M.T.B.F. qui provient de l'anglais: Mean Time

Between Failures) qui n'est que l'espérance mathématique de la défaillance dans le cas où le

temps de réparation ou de changement est considéré comme négligeable:

(160)

Ainsi, si la répartition des pannes est équiprobable (fonction de densité uniforme), ce qui est

plutôt rare, la moitié des équipement seront hors service à M.T.B.F.

Remarque: En observant 100'000 disques durs, des ingénieurs de Google auraient observé en

moyenne 8% de pertes par an! Donc un taux de perte plus élevé qu'avec le M.T.B.F. annoncé des

fabricants qui serait d'environ 300'000 heures! Le taux de perte est plus élevé les 3 premières

années! Mais peut être que les disques qui survivent vivent plus longtemps!

Si le temps de réparation ou de changement est pas négligeable, il faut remplacer la M.T.B.F.

par la MUT (voir plus bas la signification des ces abréviations) car ces deux-ci sont alors

considérées comme égales.

Nous avons aussi en utilisant l'intégration par parties et la relation précédente:

Donc une autre manière de l'exprimer:

(161)

Nous avons donc la relation:

(162)

d'où le fait que certains calculent une approximation de la MTBF en faisant une simple moyenne

arithmétique des temps entre panne d'un système réparable!

Par ailleurs, il faut savoir que certains y incluent le temps de réparation et d'autres pas... (car le

premier cas est assez difficile à obtenir). Au fait, mathématiquement le M.T.B.F. calculé ne

devrait pas comprendre pas le temps de réparation!

Nous avons alors en approximation pour un composant réparable qui est vendu à des

consommateurs:

(163)

soit de manière abrégée sous la forme:

(164)

Il est nécessaire avant d'aller plus loin de donner quelques indications sur les termes employés,

en particulier pour les M.T.B.F. (Mean Time Between Failures), M.U.T. (Mean Up Time), M.T.T.R.

(Mean Time To Repair), M.D.T. (Mean Down Time).

Pour les matériels réparables, nous avons le chronogramme type ci-dessous où le lecteur

remarquera qu'il est équivalent de définir le M.T.B.F. comme étant le temps entre la fin de deux

pannes soit entre le début de deux pannes (et en interne d'une entreprise on y inclut le temps

de réparation, dans le cas contraire d'un produit vendu on inclut pas le temps de réparation):

(165)

et pour les matériels non réparables avec le M.T.T.F. (Mean Time To Failure):

(166)

Pour ceux faisant de la maintenant préventive, nous ajoutons également la M.T.B.R. (Mean Time

Between Removal) ou M.T.B.M. (Mean Time Beetween Maintenance) qui idéalement pour une

machine complexe doit être le plus grand possible si elle est de bonne qualité.

Remarques:

R1. En ce tout début de 21ème siècle les pays devraient en toute rigueur légiférer pour obliger

tous les industriels à communiquer la M.T.T.F. et M.T.B.F. de leurs produits afin que le

consommateur puisse mieux faire son choix à l'achat et comparer les valeurs par rapport à la

garantie fournie! Malheureusement ce n'est pas le cas et cela permettrait de mettre en évidence

une mauvaise tradition actuelle dans l'industrie des produits grand public qui est de fabriquer des

composants dont la durée de vie tourne autour des 200'000 heures afin d'assurer aux industriels

un renouvellement de leur marché.

R2. L'expression anglaise Mean Time Between Failures est parfois traduite à tort en français par

"Moyenne des Temps de Bon Fonctionnement ". Mais le temps moyen entre deux défaillances

intègre dans son calcul les temps de réparation et de maintenance, alors que la moyenne des

temps de bon fonctionnement ne les intègre pas!

R3. Pour un composant non réparable certains constructeurs communiquent la M.T.B.F. quand

même... qui est en toute rigueur alors égale à la M.T.T.F. Mais sinon dans un cas général, la

M.T.T.F est bien plus longue que la M.T.B.F..

Certains industriels mettent alors dans la datasheet de leurs produits le "taux de disponibilité"

défini par:

(167)

et dont le but est qu'il soit le plus proche possible de 1 (c'est-à-dire de faire tendre vers zéro le

MTTR).

La classification des systèmes en termes de disponibilité conduit communément à 7 classes de

non prise en compte (système disponible 90% du temps, et donc indisponible plus d'un mois

par an) à ultra disponible (disponible 99.99999% du temps et donc indisponible seulement 3

secondes par an): ces différentes classes correspondent au nombre de 9 dans le pourcentage

de temps durant lequel les systèmes de la classe sont disponibles (une année comporte

525'600 minutes):.

Type Indisponibilité

(minutes par an) Pourcentage disponibilité Classe

non géré 50'000 (~35 jours) 90% 1

géré 5'000 (~3.5 jours) 99% 2

bien géré 500 (~8 heures) 99.9% 3

tolérence fautive 50 99.99% 4

haute disponibilité 5 99.999% 5

très haute disponibilité 0.5 99.9999% 6

très grande haute disponibilité 0.05 99.99999% 7

Tableau: 8 - Classes de défaillances AMDEC

L'usage de ces paramètres dans le cadre de fiabilité font dire que nous avons une "approche en

valeurs moyennes".

Signalons enfin un cas simple: Certains composants (électroniques typiquement) ont dans leur

période de maturité un taux de défaillance constant. La loi de probabilité cumulée de la

défaillance qui en découle s'en déduit alors immédiatement puisque :

(168)

La fonction de densité des éléments défaillants au temps t est alors:

(169)

Elle suit donc une loi exponentielle! Cette loi et ses moments nous sont connus (cf. chapitre de

Statistiques). Il devient alors facile déterminer le MTTF (dans un cas non réparable, sinon nous

parlerons de la MTBF) et son écart-type (inverse du taux de défaillance) ainsi qu'un intervalle de

confiance.

Par ailleurs, si nous calculons la fiabilité R(t) au temps correspondant à la MTTF pour un

matériel non réparable ou MTBF pour un matériel réparable (inverse du taux de défaillance dans

le cas de la loi exponentielle) nous obtiendrons toujours une probabilité cumulée de 36.8%

(donc en gros une chance sur trois de fonctionner à ce moment là et 2 chances sur 3 de tomber

en panne) et non de 50% comme on peut le penser intuitivement (ce qui est le cas seulement si

la loi de probabilité est symétrique).

Etant donné que les tables techniques de fiabilité dans l'industrie supposent presque toujours

le taux de fiabilité constant alors nous comprenons mieux l'importance de celle-ci (nous en

auronts un exemple lors de notre présentation des topologies de systèmes).

Rappellons aussi que nous avons vu dans le chapitre de Probabilités que si nous avons un

ensemble d'événements indépendants (mécanismes indépendants) avec une probabilité donnée,

alors les probabilités calculées sur l'ensemble dans sa totalité implique la multiplication des

probabilités.

Donc dans un mécanisme ayant des pièces indépendantes mais essentielles (système dit en

"série") la fonction de densité de fiabilité globale sera égale à la multiplication des lois de

probabilités cumulées R(t) et ce qui équivaut donc dans le cas d'une loi exponentielle d'avoir

une seule loi exponentielle dont le taux de défaillance global est égal à la somme des taux de

défaillances des différentes pièces.

commentaires (0)

Aucun commentaire n'a été pas fait

Écrire ton premier commentaire

Ceci c'est un aperçu avant impression

3 shown on 12 pages

Télécharger le document