Messgeräte kalibrieren

Hallo,
ich habe hier zwei Messgeräte für Temperatur und Feuchte. Eines soll als Normal dienen und das andere soll gegen das Normal kalibriert werden. Ich bin mir unsicher, im welchem Messbereich noch alles okay ist.

Das Normal hat folgende Parameter:
Abweichung: ±0,1°C 1 Digit // Auflösung: 0,1 °C
Abweichung: 2%rF //Auflösung 0,1%rF

Das zu kalibrierende Gerät:
Abweichung: ±0,3°C // Auflösung: 0,01 °C
Abweichung: ±1,8%rF //Auflösung 0,01%rF

Wie ermittele ich nun die maximale noch erlaubte Differenz?
Ich würde beide Abweichungen addieren. Für Temperatur komme ich dann auf 0,5°C (incl. 1 Digit) und bei Feuchte auf 3,8% rF. Da das Normal eine geringere Auflösung hat, wäre alles, was das zu kalibrierende Gerät im Bereich 0,6°C und 3,9%rF anzeigt, noch okay. Würde ich mit dem zu kalibrierenden Gerät 0.7°C bzw. 4,0%rF messen, wäre die Abweichung nicht mehr okay.

Ist das so richtig?

Danke und Gruß,
Fred

Kann das so funktionieren, wenn das zu kalibrierende Gerät eine höhere Auflösung hat als das Vorgabegerät? Ich bezweifle das, kenn es eigentlich nur anders rum

Du kannst Dir prinzipiell beliebige Toleranzbereiche überlegen und ansetzen, da damit sowieso keine verbindlichen Messungen irgendwo durchgeführt werden können. Dafür müssten sie (indirekt und regelmäßig) auf ein Normal rückführbar sein.

In der Praxis wichtig ist, dass prinzipiell die korrekte Funktion gewährleistet ist (z.B. nicht durch einen Schaden die Skala verrutscht oder ein Widerstand defekt) und dass im benötigten Bereich die Genauigkeit ausreichend ist. Bei vielen Geräten wird das nie geprüft, bei anderen werden X Geräte nebeneinander gehalten und wenn alle das gleiche anzeigen ist es ok.

Wenn Du aber zur See fährst, nehme niemals zwei Uhren mit.

Die Auflösung an sich hat keine Aussagekraft.
Sie ist nur die obere Grenze für die Genauigkeit eines abgelesenen Wertes, muss damit aber ansonsten nicht korrellieren.

Ich kenne das anders:
Ein Mann mit einer Uhr weiss genau wie spät es ist.
Ein Mann mit zwei Uhren ist sich nicht sicher.

Vor GPS, hat man den Längengrad über die Zeit bestimmt.

Man bestimmt den kürzesten Schattenwurf, dann ist es 12 Uhr Lokalzeit. Dann braucht man die aktuelle Zeit eines bekannten Längengrades. Pro Stunde Differenz sind es dann 15 Längengrade Differenz.

Das Normal ist ISO kalibriert. Daher möchte ich mir nichts überlegen, sondern die max. noch erlaubte Abweichung ausrechnen.

Das klingt gut (auch wenn die Bezeichnung mehr als schwammig und damit im Zweifel wertlos ist. Vermutlich meinst Du gemäß den Grundsätzen der „Qualitätsnorm“ 9000ff)

Beim zweiten Gerät gilt aber weiterhin: Du kannst Dir überlegen, was Du möchtest. Da nur Du den Einsatz des Gerätes kennst, weißt nur Du, welche Genauigkeit gefordert ist. Dass Du damit nicht die auf dem Gerät angegebene Genauigkeit prüfen oder gar sicherstellen kannst ist Dir ja durch Deine Rechnung klar geworden, oder?

Nach der Qualitätsnorm.

Ich möchte mir aber nicht irgendetwas überlegen. Ich möchte die maximale erlaubte Messabweichung haben.
Die Daten aus dem Datenblatt vom Hersteller stehen ja oben. Da kann ich schlecht sagen "Ach, wenn mein Messgerät 1 50% anzeigt und Messgerät 290%, dann ist Messgerät 2 kalibriert. (Natürlich kann ich das sagen, aber das ist ja nicht korrekt)

Wenn die Genauigkeit des Referenzgerätes kleiner oder gleich ist, als die Genauigkeit des Messgerätes, dann kann doch nicht geprüft werden, ob das Messgerät innerhalb seiner Genauigkeit arbeitet.

Wenn das Referenzgerät z.B. ±2 Digit genau ist, und das Messgerät mit ±10Digit angegeben ist, dann darf eine Kontrollmessung maximal 7 Digit abweichen.

2 Digit, da das Referenzgerät nicht genauer ist

  • 7 Digit Abweichung
  • 1 Digit Quantisierungsfehler (2*1/2Digit)