Sensorik
Unrichtig oder unsicher?
Im dritten Teil der Serie über Fehler in der Sensorik geht um statistische Fehler und wie Spezialist Amsys Kunden hilft, damit umzugehen.
Welche unterschiedlichen Fehler treten bei einem Sensor auf und wie sind diese in meinem Projekt zu bewerten? Bei der Auswahl des passenden Sensors sollten Entwickler die möglichen Fehlerquellen, deren Verhalten und Tragweite für die eigene Anwendung beurteilen können. Denn der Fehler eines Sensors lässt sich nicht für alle Anwendungen in einem einzelnen Wert kondensieren und nicht alle Fehler fallen in der Praxis immer ins Gewicht.
Datenblätter reduzieren die Genauigkeit eines Sensors oft auf einen oder wenige Werte. Diese werden von den Herstellern meist nicht nach praktischen Überlegungen für den Anwender, sondern so ausgewählt, dass der Sensor möglichst genau erscheint.
Der Vergleich der Datenblätter mehrerer Hersteller gestaltet sich so zu einer Fleißarbeit – wenn die angegebenen Daten überhaupt einen direkten und gültigen Vergleich erlauben.
Nichtwiederholbarkeit
Wiederholbarkeit ist eine Angabe über die Variation der Übertragungsfunktion bei Wiederholung der Druckmessungen unter identischen Messbedingungen. Die Wiederholbarkeit (im Englischen neben ‚repeatability‘ auch manchmal als ‚precision‘ bezeichnet) kann dabei über mehrere Messungen eines einzelnen Sensors oder – sinnvollerweise – über viele Sensoren verschiedener Produktionslose „ermittelt werden. Dann spricht man auch von der Austauschbarkeit der Sensoren.
Den Unterschied zur Genauigkeit kann man sich anhand einer Dartscheibe vorstellen: Eine gute Wiederholbarkeit bedeutet eng beieinanderliegende Treffer, die jedoch nicht notwendigerweise auch innerhalb eines angegebenen Fehlerbereichs liegen müssen.
Auch bei hoher Genauigkeit können die Messwerte erheblich streuen. Oft ist daher eine hohe Wieder-holbarkeit das eigentliche Ziel, vor allem, wenn der absolute Messwert gar nicht relevant ist, wie bei vergleichenden Messungen. Durch systematische Fehler können die Messwerte jedoch auch bei hoher Wiederholbarkeit außerhalb des gewünschten Bereichs liegen, etwa bei Betrieb des Sensors jenseits der Temperaturspezifikationen. Daher gehört die (Nicht-)Wiederholbarkeit als statistische Unsicherheit unbedingt zur Fehlerbetrachtung dazu.
Diese Unsicherheit, welche die Wiederholbarkeit beeinflusst, wird in der Statistik als statistischer, zufälliger oder stochastischer Fehler gekennzeichnet. Er stammt aus unvorhersehbaren, zufälligen Schwankungen und kann als Störfaktor gesehen werden, dessen Größe es zu reduzieren gilt, ohne ihn vollständig ausschließen zu können. Der statistische Fehler als Abweichung vom Idealwert hat sowohl per Definition als auch intuitiv, angesichts seiner Zufälligkeit kein bestimmtes Vorzeichen.
Der statistische Fehler in der Messtechnik kann letztendlich auf nicht erfassbare Veränderungen des Messgerätes, des Messgegenstandes und/oder der Umwelt, sowie der beobachtenden Person zurückgeführt werden. Es ist nicht möglich, die statistischen Fehler vollständig zu vermeiden. „Als Fachleute würden wir sagen, dass immer ein statistischer Fehler bleibt, wenn auch ein kleiner. Es kommt aber auch auf ein geeignetes Messverfahren und auf den Grad an Präzision des Messgeräts an, was in diesem Fall auch die Qualität des Endproduktes ausmacht“, sagt Elena Zafarana, Dozentin für Statistik an der FHNW Schweiz. „Jede Messung wird durch eine Vielzahl von Faktoren beeinflusst, man kann aber deren Aus-mass abschätzen und durch statistische Methoden zusammenfassen.“
Eigenschaften definieren
Durch Wiederholungsmessungen aus unterschiedlichen Stichproben und Erfassung ihrer statistischen Verteilung werden die technischen Eigenschaften des Messelementes definiert, die sich dann im Datenblatt eines Druckmesselements wiederfinden.
Dazu werden die Verteilung der Messwerte und ihre Streuung um ihren Mittelwert betrachtet. Bei nur wenigen Werten erhält man eine diskrete Verteilung wie oben rechts oben, die sich jedoch bei einer hinrei-chend großen Anzahl Messwerte einer kontinuierlichen Normalverteilung wie oben rechts unten dargestellt annähert. Die graue Kurve entspricht dabei einer geringen Wiederholbarkeit, die rote einer höheren mit entsprechend geringerer Streuung der Messwerte. Ein geläufiges Maß dieser Abweichung ist die Standardabweichung. Innerhalb einer Standardabweichung um den Mittelwert befinden sich nur 68,3 % aller Messwerte, d.h. fast ein Drittel liegt außerhalb dieses Bereichs. Außerhalb von zwei Standardabweichungen befinden sich nur 4,6 %, außerhalb von drei Standardabweichungen sogar nur 0,3 % aller Messwerte.
Wichtig werden diese Werte bei Aussagen in Datenblättern zum sogenannten typischen Fehler, der oft mit nur einer Standardabweichung definiert ist und damit für 32 % der Fälle gar nicht zutrifft. Nur ein Überschreiten definierter Grenzwerte wie der im Datenblatt aufgeführten Minimal-/Maximalwerte lässt den Sensor aus seinen Spezifikationen fallen und ermöglicht eine Reklamation beim Hersteller! Diese Werte sind meist durch eine drei Standardabweichungen umfassende Wahrscheinlichkeit oder sogar einen 100 %igen Warenausgangstest abgesichert.
Die Fehler in der Praxis
Für praktische Anwendungen gilt es den Gesamtfehler durch einen geschickten Aufbau zu reduzieren. Die in Teil 1 dieser Serie erwähnten korrigierbaren Fehler können letztlich wie der Name schon impliziert durch die spezifische Kalibration der Sensoren über die Verrechnung individueller Korrekturkoeffizienten minimiert werden. Ein Prozess in den viel Know-how und Erfahrung der Hersteller einfließen.
Stochastische wie physikalisch bedingte nicht-korrigierbare Fehler machen den Großteil der in den Datenblättern enthaltenen Fehlerwerte der Sensoren aus. Einige Datenblätter berücksichtigen dies, indem eine Fehlerverteilung für die einzelnen Fehler mit typischen und maximalen Werten angeben wird. Da bei der Kalibration jeder Sensor individuell vermessen wird, können durch Selektion (zu höheren Kosten) auch kleinere Gesamtfehler, die mehr Sicherheit und Genauigkeit bieten, erreicht werden.
Einige Drucksensoren bieten auch eine Mittelwertbildung über mehrere Einzelmessungen unter dem Stichwort Oversampling an, teilweise mit einer einstellbarer OSR (oversampling rate). Hierdurch erhöht sich die Auflösung und das Signal-Rausch-Verhältnis zu Lasten der Messgeschwindigkeit.
Auf einen Wert kondensiert
Ungenauigkeit ist nach Definition die Summe der relevanten Fehler. Streng genommen müsste man die Fehler, die sich auf verschiedene physikalische Ursachen zurückführen lassen, mit der Fehlerquadratmethode ermitteln (Wurzel aus der Summe der Quadrate der Einzelfehler). Die sich ergebende Summe ist der totale oder auch Gesamtfehler, der entweder für eine fixe Temperatur oder in Form des Fehlerbandes TEB (Total Error Band) für den operativen Temperaturbereich angegeben wird. Üblicherweise wird dieser Wert in % FSO (Spanne) angegeben.
Bei der Auswahl eines Sensors ist es wichtig, die zwangsläufig auftretenden Ungenauigkeiten zu verste-hen und abzuwägen, welche in der eigenen Anwendung relevant und welche vernachlässigbar sind. Durch entsprechende Kompromisse kann der bestmögliche Sensor für das Projekt gewählt werden, da die Priorität gezielt auf Teilbereiche gelegt werden kann, wie zum Beispiel Wiederholbarkeit in einem kleinen Temperaturband. Absolutfehler und Temperatureinflüsse können in einer Anwendung beispielsweise vernachlässigt werden, in einem anderen Projekt jedoch nicht. Daher greift die Fokussierung auf den Gesamtfehler (TEB) in vielen Applikationen zu kurz, auch wenn er einen guten Startpunkt für individuelle Betrachtungen darstellt. Ein individuelles Beratungsgespräch mit einem Experten für Drucksensorik hilft dabei, Kosten zu sparen, indem der günstigste Sensor für den jeweiligen Anwendungsfall gefunden wird und man nicht mangels Zeit und Know-how auf eine teure Goldrandlösung angewiesen ist.
Autor: Stefan Falk, Amsys GmbH & Co. KG
Bilder: Amsys GmbH & Co. KG





amsys.de




































































































