Notes sur le cours de génie industriel - 2° partie, Notes de Génie Industriel
Christophe
Christophe13 January 2014

Notes sur le cours de génie industriel - 2° partie, Notes de Génie Industriel

PDF (295.1 KB)
12 pages
1Numéro de téléchargement
730Numéro de visites
Description
Notes de ingénierie sur le cours de génie industriel - 2° partie. Les principaux thèmes abordés sont les suivants: la méthodologie Six Sigma, Démonstration, Deux lectures typiques.
20points
Points de téléchargement necessaire pour télécharger
ce document
Télécharger le document
Aperçu3 pages / 12
Ceci c'est un aperçu avant impression
Chercher dans l'extrait du document
Ceci c'est un aperçu avant impression
Chercher dans l'extrait du document
Aperçu avant impression terminé
Chercher dans l'extrait du document
Ceci c'est un aperçu avant impression
Chercher dans l'extrait du document
Ceci c'est un aperçu avant impression
Chercher dans l'extrait du document
Aperçu avant impression terminé
Chercher dans l'extrait du document

(38)

Dans la méthodologie Six Sigma nous prenons alors souvent pour les processus à long terme et

sous contrôle:

(39)

quand nous analysons des cartes de contrôles dont les variables aléatoires sont des

échantillons de n variables aléatoires indépendantes et identiquement distribuées et que les

limites n'ont pas été imposées par un client ou par une politique interne ou des contraintes

techniques! Bien évidemment, il faut bien être conscient que UCL etLCL n'ont pas la même

expression dans des cas plus complexes et donc pour des distributions autre que la loi

Normale!

Par ailleurs l'expression précédente diffère aussi pour les processus à court terme car l'exemple

donnée ci-dessus est pour un cas de mesures sur le long terme uniquement pour rappel!

Le lecteur remarquera que nous avons maintenant:

(40)

Normalement, au sein des entreprise, l'étendue de contrôle est fixe (le numérateur) et donc

quand la valeur de l'écart-type type est grande (plus de variations, moins de contrôles) la valeur

de l'indice est faible et lorsque l'écart-type est faible (moins de variations, plus de contrôles) la

valeur de l'indice est élevé.

Comme le montre les deux exemples ci-dessous :

(41)

L'indice impose que la moyenne (l'objectif) est centrée entre LSL et USL. Dès lors, la

moyenne est confondue avec ce que nous appelons la "cible" T du processus.

Mais la moyenne dans la réalité peut être décalée par rapport à l'objectif T initial qui doit lui

toujours (dans l'usage courant) être à distance égale entre USL et LSL comme le montre la figure

ci-dessous dans le cas particulier d'une loi Normale :

(42)

Mais ce n'est pas forcément le cas dans la réalité où les ingénieurs (quelque soit leur domaine

d'application) peuvent choisir des LSL et USL asymétriques par rapport à la moyenne ne serait-

ce que parce que la loi n'est pas toujours Normale (typiquement le cas en gestion de projets...)!

D'où la définition suivante :

D2. Nous appelons alors "Capabilité potentielle décentrée court terme du procédé" (dans le cas

décentré) ou "Process Capability Index (within)" la relation :

(43)

avec :

(44)

où est appelé le "dégré de biais" et T le "target" donné naturellement par:

(45)

qui donne le milieu de la distribution relativement au bi-point [LSL,USL] imposé (ne pas oublier

que l'écart-type au dénominateur de la relation antéprécédente est l'écart-type court terme!).

Au fait cet indicateur de capabilité de contrôle peut sembler très artificiel mais il ne l'est pas

totalement.... Effectivement il y a quelques valeurs remarquables (celles qui intéressent

l'ingénieur) qui permettent de se faire une bonne idée ce qu'il se passe avec celui-ci:

1. Si la moyenne et la cible sont confondues nous avons alors:

(46)

nous nous retrouvons donc avec et donc et le critère de jugement de la valeur

de l'indice sera basée sur l'indice de capabilité centrée court terme.

2. Si faute d'un mauvais contrôle du processus nous avons :

(47)

alors la moyenne est soit au-dessus de USL soit en-dessous de LSL ce qui a pour

conséquence d'avoir et donc .

3. Si nous avons :

(48)

alors la moyenne est comprise entre les valeurs USL et LSL ce qui a pour conséquence

d'avoir et donc .

4. Si nous avons:

(49)

alors cela signifie simplement que la moyenne est confondue avec USL ou LSL et nous avons

alors et .

Comme l'interprétation reste cependant délicate et difficile, nous construisons les indices

"Upper Capability Index CPU" et "Lower Capability Index CPL" donnés par:

(50)

Voyons d'où viennent ces deux valeurs et comment les utiliser:

Démonstration:

D'abord, nous avons besoin de deux formulations particulière du degré de biais k.

Si:

(51)

alors nous pouvons nous débarrasser de la valeur absolue:

(52)

Si:

(53)

alors nous pouvons nous débarrasser de la valeur absolue:

(54)

Nous avons alors lorsque :

(55)

et respectivement lorsque :

(56)

C.Q.F.D.

A long terme dans certaines entreprises il est intéressant de savoir qu'elles sont les plus

mauvaises valeurs prises par les indices CPU et CPL (c'est le cas dans le domaine de la

production mais pas forcément de la gestion de projets)

Les plus mauvaises valeurs étant trivialement les plus petites, nous prenons souvent (avec

quelques une des notations différentes que l'on peut trouver dans la littérature spécialisée...):

(57)

Voici par exemple un diagramme d'analyse de la capabilité produit par le logiciel Minitab (en

anglais) avec les différents facteurs susmentionnés sur un échantillons de 68 données suivant

une loi Normale (un test de normalité a été fait avant):

(58)

Deux lectures typiques sont possibles (nous expliquerons la partie inférieure gauche du

graphique plus loin):

1. En production: Le processus est capable (valeur >1.33) mais avec une (trop) forte déviation

vers le gauche par rapport à la cible définie ce qui n'est pas bon (CPL ayant la valeur la plus

petite) et doit être corrigé.

2. En gestion de projets: Les tâches redondantes sont sous contrôle (valeur >1.33) mais avec

une forte déviation vers le gauche ce qui peut être bon si notre objectif est de prende de

l'avance par rapport au planifié (rien à corriger).

Il faut vraiment prendre garde au fait que dans la réalité il n'est pas toujours possible de

prendre la loi Normale or tous les exemples donnés ci-dessus ce sont basés sur cette

hypothèse simplificatrice.

Toujours le cadre de la gestion de la qualité en production, la figure ci-dessous représente bien

la réalité dans le cadre d'un processus court ou long terme:

(59) Source: MSP/SPC de Maurice Pillet

Chaque petite gaussienne en gris clair, représente une analyse de lots. Effectivement, nous

voyons bien que leurs moyennes ne cessent de bouger pendant la période de mesures (que

cette variation soit grande ou très faible).

Or la relation définissant supposait, comme nous l'avons mentionné que le processus est

sous contrôle centré (donc toutes les gaussiennes sont alignées) et sur une optique court-

terme.

De même, la relation définissant supposait, comme nous l'avons mentionné que le

processus est sous contrôle, sur une optique court terme et décentré par choix (ou à cause du

fait que la loi n'est pas Normale).

Par contre, si le processus n'est pas centré parce qu'il n'est pas sous contrôle alors qu'il devrait

l'être, la variable aléatoire mesurée est la somme de la variation aléatoire des réglages X de la

machine et des variations aléatoires non-contrôlables des contraintes des pièces Y.

L'écart-type total est alors, si les deux variables aléatoires suivent une loi normale, la racine

carrée de la somme des écart-types (cf. chapitre de Statistiques):

(60)

Or, si nous n'avons qu'une seule mesure, il vient en prenant l'estimateur biaisé (c'est un peu

n'importe quoi de l'utiliser dans ce cas là mais bon...) :

(61)

Or dans le cas d'étude qui nous intéresse Y représente la moyenne expérimentale (mesurée) du

processus qu'on cherche à mettre sous contrôle. Cette moyenne est notée

traditionnellement m dans le domaine.

Ensuite, n'étant pas connu on prend ce qu'il devrait être: c'est la cible T du processus.

Ainsi, nous introduisons un nouvel indice appelé "Capabilité potentielle décentrée moyenne

court terme du procédé" :

(62)

où encore une fois il faut se rappeler que l'écart-type dans la racine au dénominateur est

l'écart-type court terme!

Nous voyons immédiatement que plus est proche de mieux c'est (dans les domaines

de production du moins).

Nous avons donc finalement les trois indices de capabilités court terme centré et non centré les

plus courants (nous avons délibérément choisi d'uniformiser les notations et de mettre le

maximum d'infos dans celles-ci):

(63)

De même nous avons aussi les trois indices de capabilités long terme centré et non centré les

plus courants (nous avons délibérément choisi d'uniformiser les notations et de mettre le

maximum d'infos dans celles-ci):

(64)

Enfin, indiquons que bien que ce soit pas très pertinent, il arrive parfois que certains ingénieurs

fassent les deux analyses (court terme + long terme) en même temps sur la même base de

données de mesures.

Cependant, pour faire de l'analyse objective sur les indices de capabilité vus jusqu'à

maintenant, il faudrait d'abord que les instruments de mesure soient eux-mêmes capables... ce

que nous appelons souvent les "méthodes R&R" (Répétabilité, Reproductibilité).

Le principe consiste alors à évaluer la dispersion courte terme ou respectivement long terme de

l'instrument de mesure afin de calculer une "capabilité de processus de contrôle" définie par:

(65)

Dans les cas classiques, nous déclarons le moyen de contrôle capable pour une suivi MSP

lorsque cette capabilité est supérieure à 4 et nous allons de suite voir pourquoi. Rappelons pour

cela d'abord que:

(66)

Mais la variance observée est au fait la somme de la "vraie" variance et de celle de l'instrument

telle que:

(67)

Or nous avons:

et (68)

En mettant le tout au carré, nous en déduisons:

(69)

D'où:

(70)

Ce qui nous donne:

(71)

Soit:

(72)

Ce qui se traduit par le graphique de la figure suivante qui montre bien l'intérêt d'un au

moins égal à 4!

(73)

Dans la pratique, signalons que pour déterminer on se sert d'une pièce étalon mesurée par

interférométrie LASER et s'assurer ensuite que tous les essais répétés de mesure se fassent sur

les deux mêmes points de mesure.

Une fois ceci fait, on effectue plusieurs mesures de la cote étalon et on prend l'écart-type de

ces mesures. Ce qui donnera le .

L'étendue E est elle imposée par le client ou par des ingénieurs internes à l'entreprise. Elle sera

souvent prise comme étant au plus dixième de l'unité de tolérance d'une pièce.

Par exemple, si nous avons un diamètre intérieur de (étendue de tolérance de 2

microns ce qui est déjà du haut de gamme niveau de précision car à notre époque le standard

se situe plutôt autour des 3!), notre appareil devra alors avoir selon la règle précédemment

citée une étendue de 0.2 microns.... Il est alors aisé de déterminer qu'elle devra être l'écart-

type maximum de l'instrument si on se fixe une capabilité de processus de contrôle de 4 (et

encore... 4 c'est grossier!).

Certains ingénieurs apprécient de savoir à combien d'éléments en millions d'unités produites

(parties par million: PPM) seront considérées comme défectueuses relativement.

Le calcul est alors aisé puisque l'ingénieur a à sa disposition au moins les informations

suivantes:

(74)

et que les données suivent une loi Normale alors il est immédiat que (cf. chapitre de

Statistiques):

(75)

et:

(76)

valeurs très aisées à obtenir avec n'importe quel tableur comme MS Excel par exemple.

Nous avons alors

(77)

commentaires (0)
Aucun commentaire n'a été pas fait
Écrire ton premier commentaire
Ceci c'est un aperçu avant impression
Chercher dans l'extrait du document
Docsity n'est pas optimisée pour le navigateur que vous utilisez. Passez à Google Chrome, Firefox, Internet Explorer ou Safari 9+! Téléchargez Google Chrome