Faculté des sciences et techniques de l'ingénieur STI, Section de microtechnique, Institut de microtechnique IMT (Laboratoire de production microtechnique 1 LPM1)

Vers la maîtrise de la qualité des assemblages de précision

Bourgeois, Fabien ; Jacot, Jacques (Dir.)

Thèse sciences Ecole polytechnique fédérale de Lausanne EPFL : 2007 ; no 3825.

Ajouter à la liste personnelle
    Summary
    In several industrial case studies, we put in evidence that microsystem manufacturing costs skyrocket because of low yields. Sometimes product functionalities are badly defined ; sometimes metrology systems, in spite of their high cost, happen not to measure the desired functions of the assembly ; at other times process off-centerings (mean distance to target) measured on batches required systematic adjustment, or else targets are not in the middle of the tolerances range. Resulting products present lack of profitability. Often, quality engineers first reaction is to fight process variability. We have shown that this is not the right policy in precision engineering. The first step is to verify that measurements are reliable, then insure the relevance of the functional requirements and after that, control the process off-centerings. It is then time to search ways to reduce variability. We provide engineers with a set of questions to analyse problems, so that product cost and profitability are considered from the beginning. For the low yields seen in precision assembly, we formulate how to calculate the ratio of conforming assemblies whatever part probability density functions might be. Low yields are due to three main sources : functional interval, off-centering and variability. Measurement variability is a fourth one, not negligible, often included in, and mixed up with process variability. A first cure for low-yields is illustrated by an example where measurement variability and tight tolerances are overturned by functional tolerancing and measurement. In precision engineering, where tolerance intervals are specified in the range of some microns, off-centering effects greatly influence assembly yields. Inertial tolerancing allows designers to assure that assemblies are produced at expected cost. Inertia is a joint specification including both process variability and off-centering. If high costs are due to process variabilities, selective assembly (sorting and mating parts) may be a cost-effective option. Moreover, it affords to reach very small variabilities, unreachable with existing manufacturing machines, or to avoid heavy investment in new equipment. Few make the most of this method, which is more practiced than confessed. Our state of the art, the most important to our knowledge, has pointed out the lack of cost perspective on this subject, on which some work is presented. Through an in-depth study of submillimetric press-fit, different techniques to reduce variability are illustrated. It all starts with a clear definition of press-fit functional requirements, before trying to optimize its design. Parameters of the Lamé-Clapeyron model are identified to be the relevant ones to design press-fits. Among them, interference is the most sensitive and critical one in press-fit, because submillimetric holes are hard to produce precisely. Knowing the functional requirements and the main sources of variability affords the optimization of assembly robustness, to desensitize it to dimensional variations. Electroforming is a manufacturing technique that opens up new opportunities for creative design by adapting the contact surface between hub and shaft. To sum things up, we have shown the great influence of quality control in precision engineering, proposed the best ways to achieve it, including the use of novel microelectronic manufacturing processes.
    Résumé
    Dans plusieurs cas industriels, nous avons mis en évidence que les coûts de production en microtechnique sont grevés par des faibles rendements. Parfois les fonctions étaient mal définies, parfois les outils de mesure ne mesuraient pas la fonction malgré leur coût élevé, d'autres fois les décentrages mesurés sur les séries de composants imposaient une retouche systématique, ou encore les cibles n'étaient pas centrées par rapport aux tolérances. Tous ces facteurs rendaient le produit non profitable ou pire, déficitaire. Souvent, ce sont les responsables des procédés de production qui tirent la sonnette d'alarme, et leur réflexe est de s'attaquer à la variabilité des procédés. L'éclairage que nous avons apporté est de montrer que cette voie ne prime pas. Il s'agit d'abord de s'assurer de la fiabilité des mesures, puis du bien-fondé de la fonction et enfin du pilotage des procédés pour éviter le décentrage. Il est alors temps de chercher des moyens de réduire la variabilité. Les enchaînements de questions proposés guident l'ingénieur, pour l'analyse des problèmes, et que dès l'origine du produit, il s'inquiète de son coût et de sa profitabilité. Pour décortiquer les problèmes de rendement en microtechnique, nous avons proposé une formulation générale pour calculer le rendement d'un assemblage quelles que soient les distributions de ses composants. Nous avons montré qu'il y a trois principales sources de mauvais rendement : la tolérance sur la fonction, le décentrage et la variabilité des procédés. La variabilité de mesure est une quatrième source non négligeable, souvent incluse dans, et confondue avec la variabilité des procédés. Un premier remède au mauvais rendement a été illustré par un exemple où des tolérances serrées et la variabilité de mesure sont renversées par le tolérancement et la mesure fonctionnelle. L'effet catastrophique du décentrage pour les assemblages de précision a été montré. Le tolérancement inertiel est un moyen pour le concepteur de s'assurer que la réalisation de son produit se fasse bien au coût estimé. La spécification est posée conjointement sur la variabilité et le décentrage du procédé de fabrication ou d'assemblage. S'il savère que l'excès de coût est dû à la variabilité des procédés, nous avons montré que l'assemblage sélectif (tri et appairage) peut être économiquement viable. Bien plus, il permet d'atteindre des variabilités très réduites, inatteignables avec les équipements existants, ou d'éviter un lourd investissement dans de nouvelles machines. Nous avons voulu réhabiliter cette méthode plus souvent appliquée qu'avouée, mais sans que tout son potentiel ne soit exploité. Notre état de la technique, le plus important connu à ce jour, a mis en évidence que le problème n'était jamais approché par les coûts, point sur lequel nous amenons une contribution. En étudiant en détail un procédé d'assemblage de précision, le chassage à l'échelle submillimétrique, nous avons illustré différentes techniques imaginées pour réduire la variabilité. Il faut clairement identifier la fonction demandée au chassage avant d'optimiser le design pour la remplir. Les paramètres du modèle de Lamé-Clapeyron sont identifiés comme étant les plus importants à prendre en compte pour concevoir un chassage. Parmi eux, le serrage est le paramètre le plus sensible et le plus critique, à cause de la difficulté à produire des trous précis. La connaissance des exigences fonctionnelles et des principales sources de variabilité oriente le choix des moyens pour améliorer la robustesse de l'assemblage, de l'insensibiliser aux variations dimensionnelles. L'électroformage est une technique de fabrication qui ouvre de nouvelles possibilités de créer une section de contact axe-trou adaptée à la fonction. En bref, nous avons mis en exergue l'importance de la maîtrise de la qualité des assemblages de précision, proposé les meilleurs moyens à disposition pour y parvenir, y compris des techniques de fabrication et matériaux nouveaux pour ces applications, issus de la microélectronique.