La variabilité dans l’usine et ailleurs

Dans ce post je reviens sur la variabilité dans l’outil de production et ailleurs. Dans un précédent post j’avais souligné l’importance de la maitrise et, surtout, de la compréhension de la variabilité dans tout processus industriel. La compréhension de la variabilité ne doit pas se limiter seulement à quelques spécialistes dans une entreprise mais elle est, à mon humble avis, primordiale à la prise de bonne décision. Par conséquent, cela est un pré-requis pour un bon manager… Avant d’aller plus loin dans les prochains posts, je voudrais aborder très rapidement, dans ce post, la notion de cause commune et cause spéciale qui est très importante dans le traitement et l’analyse de la variabilité. En effet, les conclusions à en tirer ou les solutions à appliquer ne sont absolument pas les mêmes.

Pour illustrer mon propos voici l’histoire de Xavier est un jeune auto-entrepreneur qui en est encore au démarrage de son affaire. Il lui faut travailler de longues heures et se déplacer très souvent chez ses clients. Dans le cadre de son affaire, il est amené à recevoir de nombreux colis encombrants et des lettres recommandées. S’il n’est pas là lors du passage du postier, il lui faut aller au bureau de poste local pour retirer son courrier. Il a compté que cela lui faisait perdre au minimum 1 heure de son précieux temps ; l’obligeant ainsi à déprogrammer des rendez-vous avec des clients dont certains annulent purement et simplement la commande. Cela met en danger sa toute jeune affaire. Après réflexion, Xavier décide que la meilleure solution est d’être présent lors du passage du facteur afin de récupérer son courrier. Il lui faut donc déterminer de la manière la plus précise possible la plage horaire de passage du postier. Pour ce faire, il décide de relever l’heure de passage de son facteur sur 30 jours consécutifs. Les résultats se trouvent dans le tableau ci-dessous. Xavier a également noté que le jour où il a attendu le plus longtemps, le courrier n’avait pas été livré par le facteur habituel mais par son remplaçant. Inversement, le jour où il a le moins attendu, le courrier avait été livré par le facteur habituel accompagné d’une autre personne. La courbe ci-dessous donne est le résultat de son analyse statistique. L’heure de passage du postier varie autour d’une en moyenne égale à 10heures 30.

 

 

 

On considère en générale que les variations ont des causes spéciales ou communes.

  • Les causes spéciales correspondent à la situation où l’on a un lien clair entre la cause et la variation elle-même. L’exemple classique est celui de l’usure ou de la casse d’un outil de coupe qui entraine la production de pièces défectueuses ou l’arrêt de la machine. Il y a dans le cas d’une cause spéciale un changement net de l’état du processus. Il ne reviendra à son état initial qu’après intervention extérieure (e.g. réparation d’une panne). D’autres termes utilisés dans la littérature pour caractériser ce type de variations sont : markoviens, systématiques, assignables… Dans le cas de Xavier il s’agit des points 3 et 11 représentés sur le graphique.
  • Les causes communes correspondent à une situation résultant d’un ensemble de phénomènes quelquefois diffus et incontrôlables. Il s’agit du résultat de la variation naturelle d’un processus. L’exemple parfait est le salarié qui est interrompu par un coup de fil ou de l’opérateur qui met plus ou moins de temps pour effectuer une opération manuelle sans qu’il n’y ait de justification évidente. Les perturbations qui en résultent suivent très souvent une loi normale. Dans ce sens, il est donc possible de prévoir sa distribution ainsi que les bornes supérieures et inférieures. Apres l’occurrence d’une variation commune, il n’y a pas de changement de l’état du système si bien qu’il peut sans raison apparente retourner à la situation initiale. Tout se passe comme un lancé de pièces (pile ou face). La situation actuelle ne donne aucune information sur le résultat futur. D’autres termes utilisés dans la littérature pour caractériser ce type de variations sont : bernoulliens, aléatoires… Dans le cas de Xavier il s’agit très probablement de tous les points à l’exception des points 3 et 11 représentés sur le graphique.

Pour être complètement précis, on distingue une troisième catégorie de variations dites hybrides. Celles-là sont un peu plus rares. Ici le changement d’état agit uniquement sur la distribution des variations (e.g., différents taux de pannes). Je ne l’évoquerai pas ici.

Revenons aux deux types de variations énumérées ci-dessus. Quand la réponse du processus varie entre les bornes inférieures et supérieures (variations de causes communes) on parle d’un processus stable. Il s’agit d’une forte présomption et non d’une preuve. Si la réponse du processus sort des bornes inférieures et supérieures (variations de causes spéciales) alors le processus est dit instable (voir figure ci-dessus). Là également, il s’agit d’une forte présomption et non d’une preuve. Dans le cas de Xavier, le processus de livraison du courrier n’est pas stable.

Alors quand Xavier doit-il être là pour récupérer sont courrier ?

Il existe des méthodes simples pour calculer la limite de contrôle inférieure et la limite de contrôle supérieure représentées sur le graphique ci-dessus que nous ne développerons pas ici. Le résultat de ce calcul donne comme limites de contrôles inférieure et supérieure respectivement 10:24 et 10:36. Par contre, le processus n’étant pas stable, Xavier ne pourra pas collecter 100% de son courrier entre 10:24 et 10:36. On peut voir sur la figure ci-dessus que les points de passage de 10:20 et 10:48 sont bien hors contrôle, c’est-à-dire à l’extérieur de la zone de causes communes de variation. Pour être certain à 100% il devrait être présent 24 heures sur 24. Rien de bien raisonnable…

Les faiblesses du Six Sigma – épisode #2

La bonne réponse à la question posée dans mon antépénultième post est B. Mais si le calcul avait été effectué en integrant le 1,5 sigma de la marge de sécurité suggerée par Motorola il aurait fallut initialement avoir 0.00098 DPMO (Defects Per Million Opportunities) sur l’echantillon de depart et non 3,4 DPMO .  Cela veut dire que le niveau de six sigma « officiel » au depart aurait éte de 7.5 sigma.

En réalité, quand les ingénieurs de Motorola ont « inventé » le Six Sigma  en 1981, ils ont estimé qu’il fallait prendre une marge de sécurité de 1,5 sigma pour anticiper toutes les possibles déviations sur le long terme. « Alors pourquoi 1,5 sigma et pas 1 ; 1,2 ; 1,6 ; 2 ; 2,5 ou autre ? », me demanderiez-vous ? La réalité est que personne ne sait l’expliquer de manière absolument logique et inattaquable. Il s’agit de résultats empiriques issus des expérimentations de Motorola. Je n’essaie pas de faire du « purisme » ici, je suis ingénieur de formation ; je sais donc que ce genre d’approche du type « recette de cuisine » est courant dans l’industrie et cela ne me pose pas de problème. Alors supposons que Motorola ait identifié cette valeur (1,5 sigma) comme étant bonne pour eux. Est-ce que ce qui est bon chez Motorola l’est également ailleurs ? Avant même de discuter encore plus du fameux « long term shift » de 1,5, qu’en est-il du 6 sigma lui-même ? Pourquoi 6 pourquoi pas 5 ? Et, est-ce que ce nombre de défauts acceptables pour un stylo l’est également pour la sécurité par exemple (cf. mon post sur l’accident dans le métro de Paris) ? En d’autres termes, ne serait-il pas raisonnable d’exiger 6, 7 voire 8 sigma, voire plus, pour la sécurité et se contenter de 3, 4 pour des stylos ? En tant que fournisseur de stylos ne serait-ce pas de la surqualite (l’un des 7 gaspillages de Toyota) que de livrer de produits 6 sigma ? Autre question classique si l’on veut parler des défauts : Comment les compte-t-on ? Dois-je compter une petite aspérité sur le capuchon d’un stylo comme un défaut ou pas ? Même si ce stylo fonctionne bien ? Alors je vois d’ici les praticiens du six sigma rentrer en furie et m’expliquer ce qui est important ici est la méthodologie utilisée : DMAIC. Parlons de la méthodologie phare (far ?) du Six Sigma : DMAIC (Define, Measure Analyze Improve and Control). Il s’agit simplement d’une reformulation du PDCA (Plan Do Check and Act) de Deming. De manière générale le Six Sigma s’est largement inspiré de méthodologies du type Quality Control, TQM et Zero Defects, … issues d’illustres statisticiens et scientifiques tels que Juran, Deming et autres. « Mais le plus important est que cela marche », me diraient les chantres du Six sigma. Si j’étais cynique, je répondrais alors que toutes les méthodes marchent voir mon post sur le « The Hawthorne effect ». : “Toutes les méthodes marchent…”. Alors, le Six sigma est-il bon pour la poubelle ? Ma réponse est NON. Ce que j’aime bien dans le Six sigma c’est la focalisation sur la variation qui pour moi est l’un des « concepts » les plus importants dans le monde du manufacturing. Ce que j’aime bien dans le Six sigma c’est qu’il insiste sur la décision basée sur les données réelles par des sentiments (quoique quelquefois certains jeune praticiens se laissent distraire par cela et oublient  la finalité même). L’ironie dans tout cela  est que le Six sigma s’est largement inspiré de Deming (PDCA,  statistique des variations,…) mais en a fait un outil qui sur plusieurs points est contradictoire aux principes de management de Deming. Par exemple : le six sigma focalise plus sur les chiffres moins sur le process. Voir ce qu’en pense Deming dans ce post : Le management par les chiffres. Ne représente-t-on pas le process par une boîte noire dans laquelle rentrent des X et ou en ressortent des Y ? Autre exemple : l’extrême focalisation sur le retour financier, fut-il à court terme. Cela s’oppose à certains principes de management de Deming : voir Les 14 principes de management de Deming : deux sites de « référence » prennent quelques libertés sur leur traduction.). En somme, Motorola a récupéré tous les outils de Deming, le statisticien, et oublié les principes de management de Deming, l’expert du management. Sur ce point je trouve que les japonais (Toyota) on eu un approche plus équilibrée. Dernier élément au dossier : Jack Welch, le grand champion du Six Sigma. Un rapide résumé de sa bibliographie et de son style de management est disponible ici. Je ne suis pas certain que l’expert du management Deming lui aurait donné les plus hautes appréciations. 

Dans la série des réserves que l’on peut avoir sur le Six sigma, je vous passe le questionnement sur la nature gaussienne présupposée des variations qui est la fondation même du six sigma.  En clair : toutes les variations ont-elles une distribution gaussienne ? J’ai analysé des nombreuses données de pannes. Je peux affirmer que leur distribution est plutôt exponentielle et certainement pas gaussienne.

Pour finir sachez que le six sigma est un excellent outil mais qu’il existe beaucoup d’autres outils qui peuvent être plus efficaces et rentables pour votre business (voir mon post : Le terme « Lean Six Sigma » est-il un oxymore?).  

En conclusion, Six Sigma, Lean, Lean Six Sigma, TOC et autres ne sont que des méthodologies à appliquer en connaissance de leurs faiblesses et sans dogmatisme. Le dogmatisme est « péché » si tentant….  En ce qui me concerne, j’essaie de les utiliser comme un chercheur (scientist en Anglais) le ferait tout en cherchant en apprendre le plus en appuyant sur une démarche du type PDCA…

Des nouvelles de Hyundai, le prochain Toyota?

Entre deux posts sur le Six Sigma, je voudrais me rattraper sur un sujet que j’aurais dû aborder il y a plusieurs mois. Il s’agit de vous informer sur les suites du programme de Hyundai que j’ai mentionné dans l’un de mes précédents posts : Hyundai invente la relance par l’investissement… dans la confiance. Dans une interview sur NPR, John Krafcik, le Président et CEO de Hyundai a fait un bilan de cette opération qui consistait à reprendre la Hyundai de tout client qui perdait son emploi quelque temps après l’avoir l’acheté. Tout d’abord les chiffres ou le chiffre : il n’y a eu en tout et pour tout que 100 retours sur 435.064 voitures vendues. En somme, nettement moins que leur prévisions. Même si l’impact de cette offre est difficile à mesurer, John Krafcik pense que cela n’a eu que des bénéfices notamment en termes d’image en montrant aux américains que « Hyundai les comprenait et était proche d’eux ». Hyundai a donc décidé de prolonger cette offre en 2010. Notez, au passage, que pour faire la pub ils ont utilisé Jeff Bridges qui est l’un de symboles des USA (pour info, il vient de gagner l’Oscar du meilleur acteur principal).

Au moment où l’on parle des malheurs de Toyota, Hyundai apparait plus que jamais en bonne place pour nous fournir quelques « success stories ».

Les faiblesses du Six Sigma – épisode #1

Dans la continuité de mes deux précédents posts, je voudrais discuter d’une démarche bien connue : le Six Sigma.

Comme nous le savons tous, le Six Sigma a été développé par Mororola en 1981. L’un de ses fervents disciples est Jack Welch dont les succès chez GE à la fin des années 90 a été l’objet de nombreux bouquins. Cette méthodologie qui est créditée de beaucoup de succès dans le domaine industriel a également quelques points faibles. Dans ce post et le suivant, je reviens sur l’un d’eux sous forme de quizz et en prenant un exemple concret.

 

 

Voici l’exemple : je suis un distributeur de stylos qui a entendu parle du Six Sigma. Convaincu que je fabrique des stylos de qualité, je collecte des informations sur la qualité des stylos livrés au cours des 10 dernières années. Je me rends compte qu’il y a eu 3,4 DPMO. Quel a été le nombre de sigma de mon service au cours des 10 dernières années ?

  • A : 4,5 sigma
  • B : 6 sigma
  • C : 7,5 sigma
  • D : Autre

Bonne chance! Suite au prochain post.

La loi de cohabitation de TOC et du lean : « Plus une usine est lean moins le goulot est important »

Dans la lancée de mon dernier post, je voudrais présenter une des limites de TOC & variantes. Il s’agit plus précisément des limites de toutes les méthodologies d’amélioration qui se focalisent sur le goulot. Voici l’énoncé de ce que nous  pouvons appeler la loi de cohabitation de TOC et du lean : « Plus une usine est lean moins le goulot est important »

En d’autres termes, les méthodes basées sur le management du goulot telles que TOC et autres variantes ont une efficacité limitée quand une usine est lean. Elles restent, toutefois, efficaces dans les usines qui font de la production de masse (usines comportant beaucoup de stocks).

 Justification de la loi :

Je vais prendre un exemple simple d’une ligne composée de deux machines séparées par un stock intermédiaire. Au départ, ces deux machines sont identiques. Il n’y a donc pas de goulot. Je trace alors la courbe donnant le taux de production de la ligne (pièces / unité de temps) en fonction de la capacité du stock intermédiaire (courbe noire).

Ensuite, j’améliore la première machine (courbe rouge). La deuxième machine devient alors le goulot.

Enfin, j’améliore un peu plus la première machine, qui n’est pas la machine goulot (courbe bleue). Alors que constate-t-on ?

L’on peut voir que quand la ligne a une capacité de stockage importante, les courbes rouge et bleue sont confondues. Cela signifie que la deuxième amélioration apportée à la machine non-goulot n’a servi à rien. Il aurait fallut l’apporter à la machine goulot. Par contre, quand la ligne a peu de stocks l’on aperçoit un écart entre les deux courbes. Cela signifie que cette amélioration a eu un effet. Les usines lean se caractérisent par le fait qu’elles ont peu de stock. Elles sont donc moins sensibles au goulot. Poussons la logique jusqu’au bout et considérons la ligne la plus lean possible : celle qui n’a pas de stock. En effet, dans sa phase ultime l’usine lean n’a pas de stock. Dans ces conditions, la disponibilité résultante de l’usine peut être approximée par produit des disponibilités de toutes les machines (D1xD2 dans notre cas, D1 et D2 étant les disponibilités des machines 1 et 2). Par conséquent, toutes les machines ont la même importance. En effet, l’on peut observer qu’une amélioration de même proportion de D1 ou de D2 produira le même effet final sur la ligne. En réalité, la formule exacte permet de montrer que le goulot reste toujours la cible première, mais de très peu.

Il est intéressant de noter que certaines améliorations peu couteuses sur des machines non-goulot peuvent avoir un retour sur investissement meilleur que des actions sur le goulot. D’où l’intérêt de ne pas se limiter à la machine goulot quand on recherche des opportunités d’amélioration. Cela est encore «  plus vrai » dans des usines lean.

Tout ce qui précède montre également les limites de toutes les méthodologies d’amélioration centrées autour du goulot. La question de l’avenir de ces méthodologies se pose dès lors que l’on considère qu’avec la diffusion du lean, il y aura de moins en moins d’usines de production de masse dans le monde pour justifier leur déploiement.