Notes sur le cours de génie industriel - 1° partie, Notes de Génie Industriel
Christophe
Christophe13 January 2014

Notes sur le cours de génie industriel - 1° partie, Notes de Génie Industriel

PDF (110.8 KB)
13 pages
811Numéro de visites
Description
Notes de ingénierie sur le cours de génie industriel - 1° partie. Les principaux thèmes abordés sont les suivants: Le génie industriel, trois domaines principaux, six sigma, le contrôle qualité, défauts/erreurs, les ind...
20points
Points de téléchargement necessaire pour télécharger
ce document
Télécharger le document
Aperçu3 pages / 13
Ceci c'est un aperçu avant impression
Chercher dans l'extrait du document
Ceci c'est un aperçu avant impression
Chercher dans l'extrait du document
Aperçu avant impression terminé
Chercher dans l'extrait du document
Ceci c'est un aperçu avant impression
Chercher dans l'extrait du document
Ceci c'est un aperçu avant impression
Chercher dans l'extrait du document
Aperçu avant impression terminé
Chercher dans l'extrait du document

Le génie industriel englobe la conception, l'amélioration et l'installation de systèmes. Il utilise

les connaissances provenant des sciences mathématiques, physiques et sociales, ainsi que les

principes et méthodes propres à l'art de l'ingénieur, dans le but de spécifier, prédire et évaluer

les résultats découlant de ces systèmes.

Nous pouvons résumer tous les domaines qui touchent au génie industriel (et pas seulement....

cela peut s'appliquer avec adaptation ad hoc à l'administration) par l'objectif d'optimiser et

contrôler les performances globales de l'entreprise (coûts, délais, qualité) car:

On ne peut améliorer que ce que l'on mesure!

Remarquons que certaines techniques de génie industriel ont déjà été abordées dans d'autres

chapitres comme les techniques de gestion quantitatives, l'optimisation (recherche

opérationelle), l'analyse financière, l'analyse des files d'attentes, et autres...

Danc ce chapitre nous traiterons uniquement des deux aspects du SQC (Statistical Quality

Control) soit du contrôle statistique de la qualité (dont c'est le métier du "qualiticien") dans le

cadre de la fabrication et de la mise en production de biens ou de services.

Selon l'utilisation nous distinguons trois domaines principaux qui dans l'ordre conventionnel

sont:

1. Contrôle statistique de processus, surveillance de fabrication ou réglage de qualité

(Statistical

Process Control, SPC). Il s'agit de la surveillance d'un processus de fabrication pendant la

production de produits de masse, pour découvrir des différences de qualité et pour pouvoir

intervenir et conduire directement.

2. Contrôle de réception ou examen d'échantillon de réception (Acceptance Sampling, AC). Il

s'agit du contrôle d'entrée, d'un contrôle pendant la production et d'un contrôle final des

produits dans une entreprise (ou usine) sans influence directe sur la production. Ainsi le

montant

de rebut produit est mesuré. Le contrôle initial sert aussi à refuser la marchandise arrivante.

Elle

n'influence par conséquent la production que de manière indirecte.

3. Maintenance préventive et contrôle du veilissement et de la défaillance et impacts critiques

(Analyse des Modes de Défaillances, de leurs Effets et de leur Criticité, AMDEC). Il s'agit

principalement de calculer la durée de vie de composants ou de machines afin de prévoir des

remplacements à l'avance et les actions y relatives à mener pour éviter les situations critiques

humaines ou financières.

Indiquons que depuis la fin du 20ème siècle, il est à la mode de regrouper les deux premiers

points dans une méthodologie de travail appelée "Six Sigma" que nous allons aborder

immédiatement. Enfin, signalons que dans la pratique, pour avoir un intérêt de la direction

d'une entreprise, il faut toujours trouver une relation quantitative entre non-qualité et les coûts

pour pouvoir faire bouger les choses...

SIX SIGMA Six Sigma est à l'origine une démarche qualité limitée dans un premier temps aux techniques

de "maîtrise statistique des procédés" (M.S.P.) appelée aussi "statistiques des processus qualité"

(S.P.Q. ou S.P.C. en anglais pour Statistical Process Control).

C'est une méthodologie de travail utile pour satisfaire les clients dont l'idée est de délivrer des

produits/services de qualité, sachant que la qualité est inversement proportionnelle à la

variabilité. Par ailleurs, l'introduction de la qualité doit être optimisée afin de ne pas trop

augmenter les coûts. Le jeu subtil entre ces deux paramètres (qualité/coûts) et leur

optimisation conjointe est souvent associé au terme de "Lean management". Si nous y intégrons

Six Sigma, nous parlons alors de "Lean Six Sigma".

Six Sigma intégre tous les aspects de la maîtrise de la variabilité en entreprise que ce soit au

niveau de la production, des services, de l'organisation ou de la gestion (management). D'où

son intérêt! Par ailleurs, dans Six Sigma un défaut doit être paradoxalement la bienvenue car

c'est une source de progrès d'un problème initialement caché. Il faut ensuite se poser plusieurs

fois la question "Pourquoi?" (traditionnellement 5 fois) afin de bien remonter à la source de

celui-ci.

Nous distinguons deux types de variablité dans la pratique:

- La "variabilité inhérente" au processus (et peu modifiable) qui induit la notion de distribution

des mesures (le plus souvent admise par les entreprises comme étant une loi Normale).

- La "variabilité externe" qui induite le plus souvent un biais (déviation) dans les distributions

dans le temps.

Les processus de fabrication dans l'industrie de pointe ayant une forte tendance à devenir

terriblement complexes, il faut noter que les composants de base utilisés pour chaque produit

ne sont pas toujours de qualité ou de performance égale. Et si de surcroît, les procédures de

fabrication sont difficiles à établir, la dérive sera inévitablement au rendez-vous.

Que ce soit pour l'une ou l'autre raison, au final bon nombre de produits seront en dehors de la

normale et s'écarteront ainsi de la fourchette correspondant à la qualité acceptable pour le

client. Cette dérive est fort coûteuse pour l'entreprise, la gestion des rebuts, des retouches ou

des retours clients pour non-conformité générant des coûts conséquents amputant

sérieusement les bénéfices espérés.

Comme nous allons le voir dans ce qui suit, une définition possible assez juste de Six Sigma

est: la résolution de problèmes basée sur l'exploitation de données. C'est donc une méthode

scientifique de gestion.

contrôle qualité

Dans le cadre des études qualité en entreprise, nous renonçons souvent à un contrôle à 100% à

cause du prix que cela engendrerait. Nous procédons alors à une prise d'échantillons. Ceux-ci

doivent bien évidemment être représentatifs, c'est-à-dire quelconques et d'égales chances (in

extenso le mélange est bon).

Le but de la prise d'échantillons étant bien évidemment la probabilité du taux de défaillance

réel du lot complet sur la base des défaillances constatées sur l'échantillonnage.

Rappelons avant d'aller plus loin que nous avons vu dans le chapitre de Statistique la loi

hypergéométrique (et son interprétation) donnée pour rappel par (cf. chapitre de Statistiques) :

(1)

Lors d'un échantillonnage, nous avons normalement un paquet de n éléments dont nous en

tirons p. Au lieu de prendre m (nombre entier!) comme le nombre d'éléments défectueux nous

allons implicitement le définir comme étant égal à :

(2)

où est la probabilité (supposée connue ou imposée...) qu'un pièce soit défectueuse. Ainsi,

nous avons pour probabilité de trouver k pièces défectueuses dans un échantillon de p pièces

parmi n :

(3)

La probabilité cumulée de trouver k pièces défectueuses (entre 0 et k en d'autres termes) se

calcule alors avec la distribution hypergéométrique cumulative :

(4)

Exemple:

Dans un lot n de 100 machines, nous admettons au maximum que 3 soient défectueuses (soit

que ). Nous procédons à un échantillonnage p à chaque sortie de commande de 20

machines.

Nous voulons savoir dans un premier temps qu'elle est la probabilité que dans cet

échantillonnage p trois machines soient défectueuses et dans un deuxième temps quel est le

nombre de machines défectueuses maximum autorisé dans cet échantillonnage p qui nous

dirait avec 90% de certitude que le lot de n machines en contienne que de 3 défectueuses.

xH(x)

0 0.508 0.508

1 0.391 0.899

2 0.094 0.993

3 0.007 1.000

Tableau: 1 - Application loi hypergéométrique

Ainsi, la probabilité de tirer en une série de tirages trois machines défectueuses dans

l'échantillon de 20 est de 0.7% et le nombre de pièces défectueuses maximum autorisé dans cet

échantillon de 20 qui nous permet avec au moins 90% de certitude d'avoir 3 défectueuses est

de 1 pièce défectueuse trouvée (probabilité cumulée)!

Les valeurs H(x) peuvent être calculées facilement avec MS Excel. Par exemple la première

valeur est obtenue grâce à la fonction LOI.HYPERGEOMETRIQUE(0;20;3;100).

DÉFAUTS/ERREURS

Intéressons-nous donc à exposer pour la culture générale un exemple pratique et particulier de

ce qui n'est qu'une application simple de la théorie des statistiques et probabilités.

Imaginons une entreprise fabricant trois copies d'un même produit sortant d'une même chaîne,

chaque copie étant composée de huit éléments.

Remarque: Nous pouvons tout aussi bien imaginer une société de services développant

(fabricant) trois copies d'un logiciel (produit) sortant d'une même équipe de développement

(chaîne), chacun composé d'un nombre égal de modules (éléments).

Supposons que le produit P1 a un défaut, le produit P2 zéro défauts et le produit P3 deux

défauts.

Ici, Six Sigma suppose implicitement que les défauts sont des variables indépendantes ce qui

est relativement rare dans les chaînes de fabrication machines mais plus courant dans les

chaînes dans lesquelles des humains sont les intervenants. Cependant, nous pouvons

considérer lors de l'application SPC sur des machines qu'un échantillonage du temps dans le

processus de mesure équivaut à avoir une variable aléatoire!!

Remarques:

R1. Dans le cadre de l'exemple du logiciel pris plus haut, l'indépendance est peu probable si nous

ne prenons pas un exemple dans lequel les modules sont personnalisés selon les besoins du

client.

R2. L'inconstance des résultats de production de certaines machines dont les réglages bougent

pendant le fonctionnement... (ce qui est courant), voir que la matière première change de qualité

pendant la production (ce qui est aussi courant!) posent donc de gros problèmes d'application des

méthodes SPC.

La moyenne arithmétique des défauts nommée dans le standard Six Sigma "Defects Per Unit"

(D.P.U.) est alors défini par :

(5)

et donne dans notre exemple :

(6)

ce qui signifie en moyenne que chaque produit a un défaut de conception ou fabrication.

Attention! Cette valeur n'est pas une probabilité pour les simples raisons qu'elle peut d'abord

être supérieure à 1 et qu'ensuite elle a comme dimension des [défauts]/[produits].

De même, l'analyse peut être faite au niveau du nombre total d'éléments défectueux possibles

qui composent le produit tel que nous sommes amenés naturellement à définir selon le

standard Six Sigma le "Defects per Unit Opportunity" (D.P.O.) :

(7)

ainsi, dans notre exemple, nous avons :

(8)

et ceci peut être vu comme la probabilité d'avoir un défaut par élément de produit puisque c'est

une valeur sans dimensions :

(9)

Par extension nous pouvons argumenter que 87.5% des éléments d'une unité n'ont pas de

défauts et comme Six Sigma aime bien travailler avec des exemples de l'ordre du million (c'est

plus impressionnant) nous avons alors les "Defects Per Million Opportunities" (D.P.M.O.) qui

devient :

(10)

ce qui dans notre exemple donne :

(11)

Comme la probabilité D qu'un élément d'une pièce soit non défectueux est de 87.5% (soit 12.5%

de taux de rebus) alors, par l'axiome des probabilités conjointes (cf. chapitre de Probabilités), la

probabilité qu'un produit dans son ensemble soit non défectueux est de :

(12)

ce qui dans notre exemple donne :

(13)

ce qui n'est pas excellent...

Remarque: Dans Six Sigma, les probabilités conjointes sont aussi naturellement utilisées pour

calculer la probabilité conjointe de produits non défectueux dans une chaîne de processus de

production P connectés en série. Cette probabilité conjointe est appelée dans Six Sigma "Rolled

Troughput Yield" (R.T.Y.) ou "Rendement Global Combiné" (R.G.C.) et vaut :

(14)

Ce type de calcul étant très utilisé par les logisticiens qui nomment le résultat "taux de

disponibilité" ainsi que par les chefs de projets pour la durée d'une phase d'un projet lorsqu'ils

considèrent la durées des tâches comme indépendantes.

Ainsi, dans une chaîne industrielle basée sur l'exemple précédent pour avoir une quantité Q bien

définie de produits (supposés utiliser qu'un seul composant de chaque étape) au bout de la chaîne

il faudra à l'étape Aprévoir :

(15)

soit 52.42% de composants A de plus que prévus. Il faudra prévoir à l'étape B:

(16)

soit 37.17% de composants de plus. Et ainsi de suite...

Rappelons maintenant que la densité de probabilité d'avoir k fois l'événement p et N-k fois

l'événement q dans n'importe quel arrangement (ou ordre) est donné par (cf. chapitre de

Statistiques):

(17)

et est appelée la loi binomiale ayant pour espérance et écart-type (cf. chapitre de Statistiques) :

(18)

Ainsi, dans le standard Six Sigma, nous pouvons appliquer la loi binomiale pour connaître

quelle est la probabilité d'avoir zéros éléments défectueux et 8 autres en bon état de marche

sur un produit de la chaîne de fabrication de notre exemple (si tous les éléments ont la même

probabilité de tomber en panne...):

(19)

et nous retombons bien évidemment sur la valeur obtenue avec les probabilités conjointes

avec :

(20)

Ou la probabilité d'avoir un élément défectueux et sept autres en bon état sur un produit de la

chaîne de fabrication :

(21)

nous voyons que la loi binomiale nous donne 39.26% de probabilité d'avoir un élément

défectueux sur 8 dans un produit.

Par ailleurs, dans le chapitre de statistiques, nous avons démontré que lorsque la

probabilité p est très faible et tend vers zéro mais que toutefois la valeur moyenne tend

vers une valeur fixe si n tend vers l'infini, la loi binomiale de

moyenne avec k épreuves était donnée alors donnée par :

(22)

avec :

(23)

Remarque: Dans un cadre pratique, il est fait usage de l'estimateur de maximum de

vraisemblance de la loi expontentielle pour déterminer la moyenne et l'écart-type ci-dessus (cf.

chapitre de Statistiques).

Ce que Six Sigma note naturellement :

(24)

avec :

(25)

Ainsi, dans notre exemple, il est intéressant de regarder la valeur obtenue (qui sera forcément

différente étant donné que nous sommes loin d'avoir une infinité d'échantillons et que p est

loin d'être petit) en appliquant une telle loi continue (la loi continue la plus proche de la loi

binomiale en fait) :

(26)

avec :

(27)

ce qui est un résultat encore plus mauvais qu'avec la loi binomiale pour nos produits.

Cependant, si p est fixé au départ, la moyenne tend également vers l'infini

théoriquement dans la loi de Poissons de plus l'écart-type tend également vers l'infini.

Si nous voulons calculer la limite de la distribution binomiale, il s'agira donc de faire un

changement d'origine qui stabilise la moyenne, en 0 par exemple, et un changement d'unité qui

stabilise l'écart, à 1 par exemple. Ce calcul ayant déjà été fait dans le chapitre de Statistique,

nous savons que le résultat est la loi Normale :

(28)

Ainsi, dans notre exemple, nous avons et l'écart-type est donné par l'estimateur sans

biais de l'écart-type (cf. chapitre de Statistique) :

(29)

ce qui dans notre exemple donne .

Pour calculer la probabilité nous calculons la valeur numérique de la loi de Gauss-Laplace

pour :

(30)

Ainsi, en appliquant la loi Normale nous avons 24.19% de chance de tirer au premier coup un

produit défectueux. Cet écart par rapport aux autres méthodes s'expliquant simplement par les

hypothèses de départ (nombre d'échantillons fini, probabilité faible, etc.)

Remarque: Ceux qui penseraient utiliser la loi triangulaire (cf. chapitres de Statistiques) doivent

tout de suite l'oublier. Effectivement, comme en qualité la valeur optimiste sera le zéro par

définition, la probabilité que le nombre de défauts soit égal à 0 sera immédiatement de zéro.

INDICES DE CAPABILITÉ

Six Sigma défini plusieurs indices permettant de mesurer pendant le processus de fabrication la

capabilité de contrôle dans le cas d'un grand nombre de mesures de défauts répartis souvent

selon une loi de Gauss-Laplace (loi Normale).

Basiquement, si nous nous imaginons dans une entreprise, responsable de la qualité d'usinage

d'une nouvelle machine, d'une nouvelle série de pièces, nous allons être confrontés aux deux

situations suivantes:

1. Au début de la production, il peut y avoir de gros écarts de qualité dûs à des défauts de la

machine ou de réglages importants mal initialisés. Ce sont des défauts qui vont souvent être

rapidement corrigés (sur le court terme). Dès lors pendant cette période de grosses corrections,

nous faisons des contrôles par lot (entre chaque grosse correction) et chacun sera considéré

comme une variable aléatoire indépendante et identiquement distribuée (selon une loi Normale)

mais de moyenne et écart-type bien évidemment différents.

2. Une fois les gros défauts corrigés, nous n'allons avoir en théorie plus que des défauts

minimes très difficilements contrôlables et ce même sur long terme. Alors l'analyse statistique

ne se fait plus forcément par lot de pièces mais par pièces et l'ensemble des pièces sur le long

terme est considéré comme un unique lot à chaque fois.

Ces deux scénarios mettent en évidence que nous n'effectuons alors logiquement pas les

mêmes analyses en début de production et ensuite sur le long terme. Raison pour laquelle en

SPC nous définissons plusieurs indices (dont les notations sont propre à ce site Internet car

elles changent selon les normes) dont 2 principaux qui sont:

D1. Nous appelons "Capabilité potentielle du procédé court terme" le rapport entre l'étendue de

contrôle E de la distribution des valeurs et la qualité de Six Sigma (6 sigma) lorsque le

processus est centré (c'est-à-dire sous contrôle) tel que :

(31)

ce qui s'écrit aussi :

(32)

où USL est la limite supérieure de contrôle/tolérance ou "Upper Specification Level" (USL) de la

distribution et LSL la limite inférieure ou "Lower Specification Level" (LSL) que nous imposons

souvent (mais pas toujours!) dans l'industrie comme à distances égales par rapport à la

moyenne théorique souhaitée.

Ce rapport est utile dans l'industre dans le sens où l'étendue E (qui est importante car elle

représente la dispersion/variation du processus) est assimilée à la "voix du client" (ses

exigences) et le 6 sigma au dénominateur au comportement réel du procédé/processus et que

la valeur 6 est censée inclure quasiment toutes les issues possibles. Il vaut donc mieux espérer

que ce rapport soit au pire égal à l'unité!

Voici typiquement un exemple en gestion de projets où lorsque le client ne paie pas pour une

modélisation du risque fine on tombe sur ce type de distribution (le client accepte que le

consultant puisse garantir une variation qui ne dépassera pas les 50% de l'estimation sans

modélisation du risque):

(33)

Remarque: En MSP, l'étendue E est souvent notée IT, signifiant "intervalle de tolérance".

L'écart-type au dénominateur étant donné par la relation démontrée dans le chapitre de

Statistique dans le cas dek variables aléatoires indépendantes et identiquement distribuées

selon une loi Normale (mais d'écart-type et moyenne non-identique):

(34)

où CT est l'abréviation de "court terme" (abréviation souvent non précisée dans la pratique car

supposée connue dans le contexte). Cet écart-type est bien évidemment le meilleur pour le

premier scénario dont nous avons fait mention plus haut. Car entre chaque grosse correction,

les lots sont considérés comme indépendants et ne peuvent pas être analysés comme un seul et

unique lot (ce serait une abérration!).

Attention cependant! Comme souvent dans la situation court terme (lors de la correction des

grosses sources d'erreurs donc) les lots de tests sont petits, même très petits, afin de diminuer

les coûts en production. Dès lors l'écart-type se trouvant sous la racine (qui est l'estimateur de

maximum de vraisemblance de la loi Normale) n'a pas une valeur vraiment correcte... Il est alors

bon d'utiliser soit d'autres méthodes de calcul assez empiriques comme le font de nombreux

logiciels, soit de calculer un intervalle de confiance de l'indice de capabilité en calculant

l'intervalle de confiance de l'écart-type court terme comme nous l'avons vu dans le chapitre de

Statistique.

D2. Nous appelons "Performance globale du procédé long terme" le rapport entre l'étendue de

contrôle E de la distribution des valeurs et la qualité de Six Sigma (6 sigma) lorsque le

processus est centré tel que :

(35)

ce qui s'écrit aussi :

(36)

L'écart-type au dénominateur étant donné cette fois par le cas où nous considérons tous les

gros défauts corrigés et le processus stable afin de considérer toutes les pièces fabriquées

comme un seul et unique lot de contrôle:

(37)

où LT est l'abréviation de "long terme" (abréviation souvent non précisée dans la pratique car

supposée connue dans le contexte). Cet écart-type est bien évidemment le meilleur pour le

deuxième scénario dont nous avons fait mention plus haut. Car les variations étant par

hypothèses maintenant toutes petites, l'ensemble de la fabrication peut être supposée comme

étant un seul et unique lot de contrôle sur le long terme (bon cela n'empêche pas qu'il faut

parfois nettoyer les valeurs extrêmes qui peuvent se produire).

Le tolérancement des caractéristiques est donc très important pour l'obtention de la qualité et

de la fiabilité des produits assemblés. Traditionnellement, une tolérance s'exprime sous la

forme d'un bipoint [Min,Max]. Une caractéristique est alors déclarée conforme si elle se situe

dans les tolérances.

Le problème du tolérancement consiste à tenter de concilier la fixation des limites de variabilité

acceptable les plus larges possibles pour diminuer les coûts de production et d'assurer un

niveau de qualité optimal sur le produit fini.

Deux approches tentent de résoudre ce problème:

1. Le tolérancement au pire des cas garanti l'assemblage dans toutes les situations à partir du

moment où les caractéristiques élémentaires sont dans les tolérances.

2. Le tolérancement statistique tient compte de la faible probabilité d'assemblages d'extrêmes

entre eux et permet d'élargir de façon importante les tolérances pour diminuer les coûts et c'est

donc à celui-ci que nous allons nous intéresser ici comme vous l'aurez compris.

Un processus est dit "limite capable" (soit limite stable par rapport aux exigences du client en

d'autres termes) s'il le ratio donné ci-dessus (en choisissant 6 fois l'écart-type) est supérieur à

1. Mais dans l'industrie on préfère prendre en réalité la valeur de ~1.33 dans le cas d'une

distribution Normale des données.

Bien évidemment, la valeur de l'écart-type peut-être être calculée en utilisant les estimateurs

de maximum de vraisemblance avec ou sans biais vus dans le chapitre de Statistiques mais il ne

s'agit en aucun cas dans la réalité pratique de l'écart-type théorique mais d'un estimateur. Par

ailleurs, nous verrons plus loin qu'en fonction de l'écart-type utilisé, les notations des

indicateurs changent!

Remarque: En entreprise, il faut faire attention car l'instrument de mesure rajoute son propre

écart-type (erreur) sur celui de la production.

Comme nous l'avons démontré au chapitre de Statistique, l'erreur-type (écart-type de la

moyenne) est :

commentaires (0)
Aucun commentaire n'a été pas fait
Écrire ton premier commentaire
Ceci c'est un aperçu avant impression
Chercher dans l'extrait du document
Docsity n'est pas optimisée pour le navigateur que vous utilisez. Passez à Google Chrome, Firefox, Internet Explorer ou Safari 9+! Téléchargez Google Chrome