Drucksensoren
Genauigkeit bei Drucksensoren – ein ungenauer Begriff
Um den für eine Anwendung passenden Sensor auszuwählen ist es wichtig, die auf-tretenden Fehler zu verstehen und abzuwägen, welche im eigenen Projekt relevant und welche vernachlässigbar sind. Jeder Anwender von Drucksensoren fragt zu-nächst nach der Genauigkeit der Sensoren - und schon fangen die Missverständnisse an.
Da der Begriff der Genauigkeit für Sensoren nicht standardisiert ist, benutzt ihn jeder nach seinem Gusto. Ein aussagekräftiger Vergleich der Produkte wird zu einer längeren Rechenübung – sofern die Hersteller überhaupt die relevanten Angaben bereit-stellen. Dabei möchte der Anwender nur wissen, mit welchem Fehler er bei seiner Druckmessung wirklich rechnen muss. Hier der Versuch einer Begriffsbestimmung der Genauigkeit für den Bereich der Drucksensoren auf Siliziumbasis.
Sprachlich betrachtet, wird der Begriff Genauigkeit in den meisten Spezifikationen falsch verwendet. In der Praxis benutzt man ihn zur Beschreibung der Abweichung von der idealen Kennlinie, womit dann aber die Ungenauigkeit gemeint ist. Die Ungenauigkeit ist definitionsgemäß eine Summe von Fehlern. Folglich sollte man bei der Klärung des Begriffes Genauigkeit zunächst von den Fehlern ausgehen, die die Ungenauigkeit bestimmen. Da diese sich auf einzelne Spezifikationen beziehen, sind sie der Ausgangspunkt der folgenden Betrachtungen.
Spezifikationen von Drucksensoren
Da es keine allgemein gültigen Standards zur Beschreibung von Drucksensoren gibt, sollen zu-nächst die fehlerrelevanten Spezifikationen erläutert werden.
Geht man von einem gebrauchsfertigen Silizium-Drucksensor aus, so muss nachfolgend zwischen korrigierbaren und nicht korrigierbaren Fehlern unterschieden werden. Korrigierbar bedeutet, dass man den Fehler durch einen geeigneten Algorithmus in der Signalbearbeitung im Zuge einer Kalibration reduzieren oder gänzlich korrigieren kann.
Korrigierbare Fehler
Nullpunkt-(Zero-Offset-) Fehler
Spannen-(Output Span- / Full Scale-) Fehler
Nichtlinearität
Temperaturfehler des Nullpunktes (TCO)
Temperaturfehler der Spanne (TCS)
Nicht korrigierbare Fehler
Thermische Hysterese
Druckhysterese
Langzeitdrift
Versorgungsspannungsabhängigkeit
Wiederholbarkeit
Korrigierbare Fehler
Nullpunktfehler (Zero-Offset-Fehler)
Unter Zero-Offset-Fehler versteht man den Ausgangswert des Sensors, für den Fall, dass bei Raumtemperatur kein Druck auf die Messzelle einwirkt. Dieser Fehler kann durch die Messzelle selbst, durch die Aufbau- und Verbindungstechnik oder durch die nachfolgende Elektronik verursacht werden. #
Spannefehler (Output Span- oder Full Scale-Fehler)
Der Spannefehler (Output Span-/Full Scale-Fehler) ist die Differenz des Ausgangssignals bei minimaler und maximaler Druckbeaufschlagung bei Raumtemperatur und bei einer festen Versorgungspannung/-strom. Er resultiert aus der Empfindlichkeit der Messzelle und aus dem Verstärkungsverhalten der Auswerteelektronik. Dieser Fehler wird in der Regel ohne Berücksichtigung des Offsetwertes angegeben (in %FSO).
Nichtlinearität
Die Transferfunktion (Ausgangssignal als Funktion des angelegten Druckes) eines idealen Sensors ist stetig linear. Die Abweichung von dieser Kennlinie nennt man Nichtlinearität. In den meisten Fällen wird sie mit der Methode der Best-Fit-Straight-Line (BFSL) ermittelt.
Temperaturfehler des Nullpunktes (TCO)
Der Nullpunkt ist leider immer temperaturabhängig. Grund ist die Temperaturabhängigkeit der Piezowiderstände der Sensoren. Der Temperaturkoeffizient des Offsets (TCO) beschreibt diesen Fehler. Er ist die Differenz des Offsetwertes bei der niedrigsten Temperatur zu dem der höchsten Temperatur. Abzuklären ist von Fall zu Fall, ob in den Datenblätter dabei der Kalibrations- oder der Arbeitstemperaturbereich gemeint ist. Der TCO wird in %FS/°C ausgedrückt.
Temperaturfehler der Spanne (TCS)
Wie der Offset, so ist auch die Spanne temperaturabhängig. Der Temperaturkoeffizient der Spanne (TCS, s. Abb. 3) beschreibt diesen Fehler. Er ist die Differenz des Spannenwertes bei der niedrigsten Temperatur zur höchsten Temperatur. Der TCS wird ebenfalls %FS/°C ausgedrückt.
Nicht korrigierbare Fehler
Thermische Hysterese
Die thermische Hysterese wird ohne Druckbeaufschlagung gemessen. Sie ist die maximale Abweichung des Nullpunktsignals (Offset) im Arbeitstemperaturbereich nach einem Temperaturzyklus zwischen maximaler und minimaler Temperatur. Die Temperaturhysterese kann von der Zykluszeit und vom Temperaturintervall abhängen.
Druckhysterese
Die Druckhysterese wird oft bei Raumtemperatur gemessen. Sie ist die maximale Abweichung des Full-Scale-Signals im Druckbereich nach einem Druckzyklus zwischen maximalem und minimalem Druck. Die Druckhysterese kann von der Zykluszeit (Geschwindigkeit der Druckänderung) abhängen.
Langzeit(nicht)stabilität
Die Langzeitstabilität gibt an, wie groß die Signaländerung im Laufe der Zeit, typischerweise ein oder zehn Jahre, ist. Sie kann unter Betriebsbedingungen (z.B. mit angelegter Versorgungsspannung und unter Raumtemperatur) oder nach einer entsprechenden Lagerung gemessen werden. Zur Bestimmung der Langzeitdrift mit beschleunigten Verfahren werden verschiedene Methoden zur künstlichen Alterung der Sensoren angewendet, meist höhere Temperaturen und eine hohe Luftfeuchtigkeit. Sie sollten im Datenblatt benannt und Ihre Relevanz für den angegebenen Wert für die Langzeitdrift erkenntlich sein. Wichtig ist dabei ein Verständnis für den Aufbau der verschiedenen Bauformen von Siliziumdrucksensoren und ihre Funktionsweise die unter [1] detailliert erklärt wird.
Versorgungsspannungsabhängigkeit (Ratiometrie)
Auch die Höhe der Versorgungsspannung hat gerade bei OEM-Sensoren ohne Spannungsstabilisierung einen großen Einfluss auf den Messwert. Üblicherweise verhalten sich die Analogausgänge von OEM-Sensoren ratiometrisch, d.h. die Ausgangsspannung ist in einem gewissen Bereich proportional zur Eingangsspannung (nähere Erläuterungen unter [2]). Das kann bei batteriegespeisten Geräten mit schwankender Versorgungsspannung von Vorteil sein, wenn diese als Referenz zur weiteren Auswertung dient. Bei stabilisierten Eingangsspannungen ist es bedeutungslos und Digital-ausgänge sowie Analogausgänge spannungsstabilisierter Sensoren sind versorgungsspannungsunabhängig.
Nichtwiederholbarkeit
Wiederholbarkeit ist eine Angabe über die Variation der Übertragungsfunktion bei Wiederholung der Druckmessungen unter identischen Messbedingungen.
Die Wiederholbarkeit (im Englischen neben ‚repeatability‘ auch manchmal als ‚precision‘ bezeichnet) kann dabei über mehrere Messungen eines einzelnen Sensors oder - sinnvollerweise - über viele Sensoren verschiedener Produktionslose ermittelt werden. Dann spricht man auch von der Austauschbarkeit der Sensoren.
Der Unterschied zur Genauigkeit ist in Abbildung 7 dargestellt. Man kann sie sich anhand einer Dartscheibe vorstellen: Eine gute Wiederholbarkeit bedeutet eng beieinanderliegende Treffer, die jedoch nicht notwendigerweise auch innerhalb eines angegebenen Fehlerbereichs liegen müssen.
Auch bei hoher Genauigkeit können die Messwerte erheblich streuen. Oft ist daher eine hohe Wiederholbarkeit das eigentliche Ziel, insbesondere, wenn der absolute Messwert gar nicht so relevant ist. Durch systematische Fehler können die Messwerte jedoch auch bei hoher Wiederholbarkeit außerhalb des gewünschten Bereichs liegen, z.B. bei Betrieb des Sensors jenseits der Temperatur-spezifikationen. Daher gehört die (Nicht-)Wiederholbarkeit als statistische Unsicherheit unbedingt zur Fehlerbetrachtung dazu.
Auf einen Wert kondensiert: Der Gesamtfehler
Ungenauigkeit ist nach Definition die Summe der relevanten Fehler. Streng genommen müsste man die Fehler, die sich auf verschiedene physikalische Ursachen zurückführen lassen mit der Fehlerquadratmethode ermitteln (Wurzel aus der Summe der Quadrate der Einzelfehler). Die sich ergebende Summe ist der totale oder auch Gesamtfehler, der entweder für Umgebungstemperatur oder in Form des Fehlerbandes TEB (Total Error Band) für den operativen Temperaturbereich an-gegeben wird. Üblicherweise wird dieser Wert in %FSO (Full Scale Output = Spanne) angegeben.
Ein Großteil des Werts der Ungenauigkeit stammt von statistisch verteilten individuellen Fehlern der Sensoren. Viele Datenblätter berücksichtigen dies, indem eine Fehlerverteilung für die einzelnen Fehler mit typischen und maximalen Werten angeben wird. Da bei der Kalibration jeder Sensor individuell vermessen wird, können durch Selektion (zu höheren Kosten) auch kleinere Fehler erreicht werden.
Zusammenfassung
Bei der Auswahl eines Sensors ist es wichtig, die auftretenden Fehler zu verstehen und abzuwägen, welche in der eigenen Anwendung relevant und welche vernachlässigbar sind. Durch entsprechen-de Kompromisse kann der bestmögliche Sensor für das Projekt gewählt werden, da die Priorität gezielt auf Teilbereiche gelegt werden kann, wie z.B. Wiederholbarkeit in einem kleinen Temperaturband. Absolutfehler und Temperatureinflüsse können in dieser Anwendung beispielsweise vernachlässigt werden. Daher greift die Fokussierung auf den Gesamtfehler (TEB) in vielen Applikationen zu kurz, auch wenn er einen guten Startpunkt für individuelle Betrachtungen darstellt.
Die Wahl des passenden Sensors erfordert einen Vergleich zwischen den spezifischen Anforderungen der Anwendung und den erhobenen Fehlerarten des Sensors. Die Entscheidung für einen passenden Sensor erfolgt oft auf Basis eines unklaren Begriffs und nicht direkt vergleichbarer Spezifikationen in den Datenblättern verschiedener Hersteller. Eine individuelle Beratung kann daher wochenlange Vergleichstests und Fehler ersparen.