banner

Blog

Mar 26, 2023

Kalibrierung von Messgeräten

Bildquelle: Apicha Thumvisead / iStock / Getty Images Plus über Getty Image

Die datengesteuerte Problemlösung ist für Unternehmen von entscheidender Bedeutung, um wettbewerbsfähig zu bleiben. Gute Entscheidungen basieren jedoch auf genauen Messungen. Ein Kalibrierungsplan für Instrumente muss zum richtigen Zeitpunkt erstellt werden, um eine minimale Abweichung zu gewährleisten. Die Bewertung des Ist-Zustands gibt Aufschluss über die Gebrauchstauglichkeit und die Angemessenheit der Kalibrierungsbemühungen. Dieser Artikel beleuchtet die Verwendung von Linearitäts- und Bias-Studien, um Informationen über die Genauigkeit von Messungen zu extrahieren, und hebt Instrumente hervor, die möglicherweise weiterer Untersuchungen bedürfen.

Messgeräte erzeugen Daten, mit denen sichergestellt wird, dass Prozesse unter Kontrolle sind und die Anforderungen erfüllen können. Messungen beinhalten Unsicherheiten, die eine gute Entscheidungsfindung beeinträchtigen können. Die Messunsicherheit umfasst drei Komponenten: Genauigkeit, Präzision und zufällige Variabilität. Die Verwendung der Stoppuhrfunktion auf einem persönlichen Gerät ist ein gutes Beispiel dafür. Der Unterschied zwischen dem angezeigten Messwert und dem, was mit einem Gerät ermittelt werden konnte, von dem bekannt ist, dass es zuverlässige Ergebnisse liefert, gibt die Genauigkeit des Messwerts an. Das Erzielen des gleichen Ergebnisses durch wiederholte Versuche oder die Reproduktion desselben Ergebnisses durch mehrere Personen gilt als Präzision. Gegen die dritte Komponente, die Zufallsvariabilität, kann nichts unternommen werden. Weitere Untersuchungen zur Präzision umfassen die Analyse von Messsystemen, die nicht Teil dieses Artikels ist und den Lesern dringend als Folgethema empfohlen wird. Bei der Kalibrierung von Messgeräten geht es um eine der drei Unsicherheitsquellen: die Genauigkeit.

Die Kalibrierung ist am effektivsten, wenn das betreffende Instrument zunächst im Ist-Zustand in der typischen Einsatzumgebung untersucht wird (Abbildung 1). Die Grafik liefert einen ersten visuellen Beweis für die Genauigkeit des Instruments. Im gesamten Referenzbereich ist eine beträchtliche Abweichung der blauen Punkte (Beobachtungen) vorhanden. Die roten Quadrate stellen den durchschnittlichen Bias dar und die rote Linie zeigt an, dass sich der Bias über den Referenzbereich hinweg ändert. Der Vergleich der Beobachtungswolke mit dem Bias (y-Skala) erklärt, dass das Gerät im Allgemeinen Werte liefert, die größer sind als die tatsächliche Messung.

Abbildung 1 - Studie im Ist-Zustand | Bildquelle: Minitab LLC

Die Kalibrierung wird durchgeführt, um Verzerrungen abzumildern. Der durchschnittliche Bias ist eine Zusammenfassung der Messunterschiede im Referenzbereich. Der Referenzbereich sollte breit genug sein, um die Verzerrung für Messungen zu bestimmen, die Ergebnisse außerhalb der Spezifikation umfassen. Eine gute Faustregel ist ein Referenzbereich, der mindestens 125 % über den Spezifikationen liegt. Eine Überprüfung der Prozesshistorie kann zur Feinabstimmung des Referenzbereichs durch Bestimmung der wahrscheinlich extremsten Maße genutzt werden.

Stellen Sie sich eine Digitalwaage vor, die in Produktionsbetrieben zum Messen des Gewichts von Arzneimitteltabletten eingesetzt wird. Das Tablettengewicht wird in Milligramm (mg) angegeben und der Hersteller der Waage gibt an, dass das Gerät eine Genauigkeit von 1 mg erreichen kann. Zur Erstellung der Standardmessungen wird eine Laborwaage verwendet, die auf eine Genauigkeit von 0,1 mg genau messen soll. Messstandards, die zehnmal strenger sind als die des Testgeräts, sollten für eine Studie sehr gut geeignet sein. Bei einigen Studien handelt es sich um hergestellte Standards, die tendenziell teuer sind und eine spezielle Lagerung und Handhabung erfordern, um eine kontinuierliche Gebrauchstauglichkeit sicherzustellen.

Die Tablettenproben werden während der Studie in deutlich gekennzeichneten kleinen Behältern aufbewahrt, um ein versehentliches Vermischen zu vermeiden. Es muss mit größter Sorgfalt und Dokumentation sichergestellt werden, dass die Proben nicht in den Fluss des guten Produkts gelangen können. Die Techniker einigen sich auf Handhabungsverfahren, um sicherzustellen, dass die Testproben nicht verändert werden, was für den Wert der Studie von entscheidender Bedeutung ist. Die Beispielstudie umfasst wiederholte Messungen von Proben und mehrere Versuche durch drei Bediener, um die typische Verwendung darzustellen. Die Standards wurden erstellt, indem jede Probe dreimal gemessen und der Durchschnitt berechnet wurde. Man könnte argumentieren, dass in den Daten eine gewisse Unsicherheit durch Replikation und Reproduktion enthalten ist, was nicht unbedingt eine schlechte Sache ist.

Der Bias ist in der Regel über einen Messbereich hinweg nicht konstant. Linearität wird verwendet, um ein lineares Modell über die Bias-Werte anzupassen. Die Durchschnittswerte der Abweichung über den Messbereich werden zur Berechnung des Schnittpunkts und der Steigung des Trends verwendet (Tabelle 1). Statistische Regression wird verwendet, um zu testen, ob die Steigung des durchschnittlichen Bias-Trends von Null abweicht, was der Standarderwartung entspricht. Ein deutlicher Trend zur Voreingenommenheit bedeutet nicht zwangsläufig, dass ein Gerät verurteilt wird. Techniker müssen die Anpassungsstatistik (R-Quadrat) und Fachwissen nutzen, um festzustellen, ob der Trend für die erforderliche Genauigkeit bei der Anwendung des Geräts praktisch relevant ist. Ein signifikanter Trend einer sich aufbauenden negativen Abweichung von 0,11 mg für jede Bereichserhöhung ist praktisch nicht relevant, wenn ein Spezifikationsbereich von 80 bis 90 mg gemessen wird.

Die durchschnittliche Abweichung kann eine nützliche zusammenfassende Statistik sein, um die Genauigkeit eines Messgeräts zu erklären. Allerdings wird es weniger nützlich, wenn ein signifikanter linearer Trend vorliegt. Die p-Werte im gesamten Referenzbereich (Tabelle 2) weisen auf signifikante Unterschiede in der Verzerrung hin, insbesondere bei Tabletten in der helleren Hälfte des Referenzbereichs. Die leichteste Tablette (Standard = 73 mg) weist eine Messabweichung auf, die fast dreimal größer ist als die durchschnittliche Abweichung, wobei die Wahrscheinlichkeit, dass der Unterschied auf zufällige Variabilität zurückzuführen ist, nur sechs Zehntel Prozent beträgt (p = 0,006).

Die Digitalwaage funktioniert offensichtlich nicht so genau, wie die technischen Spezifikationen des Instruments vermuten lassen. Das Problem ist schwerwiegender, wenn das Gerät für Tabletten mit einem Standardgewicht von weniger als 99 mg verwendet wird. Die organisatorische Anforderung an Digitalwaagen, die im Betrieb eingesetzt werden, ist eine Genauigkeit von 3 mg. Pro Verfahren sind keine weiteren Maßnahmen erforderlich; Es kann jedoch ratsam sein, zu untersuchen, ob das Gerät für sehr leichte Tablettenprodukte verwendet wurde, um sicherzustellen, dass ein inakzeptables Qualitätsrisiko besteht.

Die digitale Waage wird von Kalibriertechnikern gewartet und die interne Wägezelle wird gemäß einem Standardverfahren auf „Null“ der Einheit eingestellt. Viele Organisationen hören an diesem Punkt auf und geben das Gerät wieder für den regulären Gebrauch frei. Es ist ratsam, die Studie zu wiederholen und die Linearität und Abweichung der kalibrierten Einheit zu bestimmen, um die Genauigkeit im Betrieb zu veranschaulichen.

Figur 2 - Studie zu Anpassungen und Wartung nach der Kalibrierung | Bildquelle: Minitab LLC

Die Studie nach der Kalibrierung (Abbildung 2) zeigt, dass die Digitalwaage eine viel höhere Genauigkeit aufweist als zuvor. Es besteht eine signifikante Linearität des Instruments (P=0,001); Es wird jedoch nicht als praktisch relevant für die bei der Produktion verwendeten Gewichtsspezifikationen angesehen. Zur Zusammenfassung der Leistung kann ein durchschnittlicher Bias von (-0,2 mg) verwendet werden, da nur ein Referenzgewicht einen Bias aufweist, der sich deutlich unterscheidet (100 mg, Bias von -1,6, p=0,005).

Linearitäts- und Bias-Studien liefern zahlreiche Informationen über ein Messgerät. Die Verfolgung der Ergebnisse über einen längeren Zeitraum kann Unternehmen dabei helfen, festzustellen, ob der Kalibrierungsplan robust ist, und mögliche Handhabungsprobleme aufzuzeigen. Gut geplante Studien verringern das Qualitätsrisiko, indem sie die Zuverlässigkeit der bei Qualitätskontrollen ermittelten Werte erhöhen. Instrumente, die auf eine zunehmende Verzerrung in Ist-Studien hinweisen, sollten als Ersatz in Betracht gezogen werden, um ein hohes Maß an Genauigkeit im gesamten Unternehmen sicherzustellen.

Robert Lievens , Lösungsarchitekt, Minitab LLC. Weitere Informationen finden Sie unter www.minitab.com.

Abbildung 1 Abbildung 2 Rob Lievense
AKTIE