MUKOM - Cost-efficient determination of the measurement uncertainty of complex measurement processes
Automation, Mechatronics, Control Systems, Intelligent Technical Systems, Robotics
Measurement Systems
Final Report Abstract
Jede Messung einer Größe ist mit einer Unsicherheit behaftet. Aufgrund dieser Messunsicherheit kann es bei der Prüfung der Produktkonformität zu folgenschweren Fehlentscheidungen kommen. Um eine gesicherte Entscheidung über die Produktkonformität treffen zu können, muss daher die Unsicherheit der Messung bzw. des gesamten Messprozesses bekannt sein und unterhalb eines toleranzabhängigen Grenzwertes liegen. Insbesondere die Messunsicherheitsbestimmung komplexer Messprozesse stellt Anwender jedoch vor Herausforderungen, da hier kein standardisiertes metrologisches Modell und damit auch keine vereinfachte Verfahren wie z. B. die VDA 5 verwendet werden können. Ziel des DFG-Forschungsprojekts „MUKOM“ war die Entwicklung eines Verfahrens zur aufwandsreduzierten Bestimmung der Messunsicherheit komplexer Messprozesse. Der Fokus lag dabei auf der Entwicklung eines Verfahrens, welches insbesondere den Aufwand für die Modellierung des Messprozesses und seiner Einflussfaktoren reduziert und so die Lücke zwischen den anwendungsgerechten Verfahren wie der ISO 22514-7, VDA 5 oder MSA und dem aufwendigen GUM schließen. Die drei Kernelemente sind hierbei die Relevanzbewertung von Einflussfaktoren, das Aufstellen des Modells der Messung inkl. der anschließenden Modellvalidierung und das strukturierte Einbinden von Erfahrungswissen in den Modellierungsprozess. Die Grundlage für eine valide Modellbildung ist die Berücksichtigung aller relevanter Einflussgrößen, die auf die Messgröße wirken. Hierbei führt die Berücksichtigung übermäßig vieler und somit zum Teil irrelevanter Einflüsse zwar nicht zwangsläufig zu einem schlechteren Modell, jedoch steigt sowohl der Aufwand der Modellierung, als auch der Aufwand der Messunsicherheitsbestimmung. Um diesem Effekt entgegenzuwirken, wurde im Forschungsvorhaben ein Verfahren zur Relevanzbewertung entwickelt. Hierbei kann zwischen einem analytischen Vorgehen, welches auf der RPZ basiert und u. a. die Größe des Unsicherheitsbeitrags auf Basis von Erfahrungswissen oder Literaturangaben abschätzt, sowie ein datengetriebenes Vorgehen, welches über Feature Selection Algorithmen die Relevanz bewertet. Der Vorteil des analytischen Vorgehens ist die fehelende Notwendigkeit von Daten, welche bei dem datengetriebenen Vorgehen über Vorversuche oder historische Daten zur Verfügung gestellt werden müssen. Sollten diese Daten zur Verfügung stehen, bildet die höhere Objektivität einen Vorteil der Feature Selection Methoden. Mit den identifizierten relevanten Einflussgrößen wird anschließend die Modellbildung angestoßen. Hierbei besteht zum einen die Möglichkeit der rein analytischen Modellbildung (z. B. gemäß Signalflussanalyse), der hybriden Modellbildung oder der rein experimentellen Modellbildung. Für die letzten beiden Optionen wurde im Forschungsvorhaben die Symbolische Regression untersucht und weiterentwickelt. Es konnte eine Möglichkeit gefunden werden, Teilmodelle aus Erfahrungswissen in die Modellbildung zu integrieren und so die Rechenzeit zu verkürzen und/oder die Modellgüte zu erhöhen. Über eine automatisierte Hyperparameteroptimierung werden die Einstellparameter des Modellbildungsalgorithmus optimal gewählt, ohne dass Erfahrungswissen vorliegen muss. Eine Erweiterung der internen Optimierung innerhalb der Symbolischen Regression zu einer multikriteriellen Optimierung verhindert unnötig lange Modellgleichungen, in derer diverse Teilterme keinen Mehrwert hinsichtlich der Modellgüte bilden und die semantische Verständlichkeit des Modells reduzieren. Nachdem ein Modell gebildet wurde, ist dieses zu validieren. Hierzu wurde ein Verfahren entwickelt, welches die ermittelten Modellwerte den Realwerten gegenüberstellt und über einen Abgleich zwischen Konfidenzintervallen des Realzusammenhangs und des idealen Zusammenhangs messbereichsspezifisch die Validität bewerten kann. Dies ermöglicht es, anwendungsbezogen zu entscheiden, ob eine mögliche Validität auf einem Teilbereich der Messgröße ausreichend ist, oder ob das Modell neu zu bilden ist. Weiterhin lässt sich beispielsweise über eine zu große Streuung erkennen, dass mit hoher Wahrscheinlichkeit nicht alle relevanten Einflussgrößen berücksichtigt wurden. Für die Validierung des Verfahrens wurde eine Durchmessermessung eines Multimaterial-Werkstücks mittels Zwei-Röhren-Computertomographen gewählt. Anhand entwickelter Kriterien sowie mittels Abgleich der Ergebnisse mit etablierten Verfahren konnte die Validität des Vorgehens nachgewiesen werden. Ergebnis des Forschungsprojekts ist ein Verfahren zur aufwandsreduzierten Bestimmung der Messunsicherheit komplexer Messprozesse. Das Verfahren liefert valide Modelle und ist automatisierbar, sodass in der Anwendung kein Expertenwissen im Bereich der Modellbildung notwendig ist. Durch die allgemeine Ausgestaltung des Verfahrens ist das Verfahren prinzipiell auf alle statischen Messprozesse anwendbar.
Publications
- Messunsicherheitsbestimmung komplexer Messprozesse mittels Machine Learning – Eine Alternative zu klassischen Methoden, QZ, Jg 64(2019) 12, S. 58-61
Müller, Tobias; Schmitt, Robert H
- Messunsicherheitsbestimmung komplexer Prüfprozesse. ZWF Zeitschrift für wirtschaftlichen Fabrikbetrieb, 2019, 114. Jg., Nr. 3, S. 124-127
Müller, Tobias; Voigtmann, Christoph; Schmitt, Robert H.
(See online at https://doi.org/10.3139/104.112052) - (2020), "Modelling complex measurement processes for measurement uncertainty determination", International Journal of Quality & Reliability Management, Vol. 37 No. 3, pp. 494-516
Mueller, T., Huber, M. and Schmitt, R.
(See online at https://doi.org/10.1108/ijqrm-07-2019-0232)