Fehlerrechnung für Verdampfungsenthalpie

Hallo zusammen!

Ich habe im Praktikum die Verdampfungsenthalpie von Wasser und Isopropanol bestimmt indem ich die Siedetemperatur bei verschiedenen Drücken zwischen 400 mbar und Umgebungsdruck gemessen haben. Daraus soll nach Clausius-Claperon die Verdampfungsenthalpie berechnet werden. Dazu wird die C-C- Gleichung zuerst linerisiert und ln§ gegen 1/T aufgetragen und die Steigung berechnet. Diese negiert und mit der allg. Gaskonstante multipliziert ergibt die Verdampfungsenthlapie.

delta_v_H = - (delta_ln§ / delta_(1/T)) * R

Soweit, so gut. Es kommen auch annähernd die Literaturwerte heraus. Aber eben nur annähernd! Und darum würden wir für’s Protokoll gerne eine Fehlerrechnung mit den Messfehlern unserer Messgeräte durchführen. Nur wie stelle ich das an? Die Grundlagen zur Fehlerfortpflanzungsrechnung sind bekannt. Aber irgendwie stehe ich gerade auf dem Schlauch.

Die Messgenauigkeit (Ablesegenauigkeit) des Thermometers lag bei „nur“ 1°C und das Barometer war auf 10 mbar ablesbar.

Wie stell ich jetzt die Gleichung zur Berechnung des maximalen Fehlers der ermittelten Verdampfungsenthalpie auf? Vor lauter deltas und Logarithmen schwirrt mir schon der Kopf. HILFE!! :wink:

Danke und Grüße

Sven

Moin,

das ist gar nicht so einfach. Habt Ihr die Steigung mittels linearer Regression berechnet? Oder grafisch ermittelt? Lagen die Punkte alle schön auf der Geraden oder gab es starke Streuungen?
Eine Möglichkeit ist, für alle Messwerte ein Fehlerkreuz mit einzuzeichnen. Und dann legst Du zwei extreme Ausgleichsgeraden durch. Die sollten möglichst in allen Fehlerkreuzen liegen, und eine sollte eine kleine und die andere eine große Steigung haben. Und mit diesen beiden Steigungen rechnest Du dann die Verdampfungsenthalpie aus. Und der Literaturwert sollte dann dazwischen liegen.

Olaf

Nabend!

Moin,

das ist gar nicht so einfach. Habt Ihr die Steigung mittels
linearer Regression berechnet? Oder grafisch ermittelt? Lagen
die Punkte alle schön auf der Geraden oder gab es starke
Streuungen?

Die Ausgleichsgerade habe ich per Excel berechnen lassen mit einem Regressionskoeffizienten r von 0,997… . Die Messpunkte liegen also alle recht gut auf dieser Geraden.

Eine Möglichkeit ist, für alle Messwerte ein Fehlerkreuz mit
einzuzeichnen. Und dann legst Du zwei extreme
Ausgleichsgeraden durch. Die sollten möglichst in allen
Fehlerkreuzen liegen, und eine sollte eine kleine und die
andere eine große Steigung haben. Und mit diesen beiden
Steigungen rechnest Du dann die Verdampfungsenthalpie aus. Und
der Literaturwert sollte dann dazwischen liegen.

An diese Möglichkeit hatte ich auch schon kurz gedacht. Allerdings finde ich ein mathematische Lösung auf Basis der Fehlerfortpflanzung „eleganter“. Hab auch schon ne mathematische Gleichung zur Ermittlung des Fehlers der Funktionsgeraden aber das ist noch nicht so richtig das was ich suche. Na ja, wenn ich da auf keine Lösung komme werde ich es wohl grafisch ermitteln müssen.

Danke

Sven

Hallo,

Die Ausgleichsgerade habe ich per Excel berechnen lassen mit
einem Regressionskoeffizienten r von 0,997… . Die Messpunkte
liegen also alle recht gut auf dieser Geraden.

dann könntest Du den zufälligen (statistischen) Fehler, der durch die Streuung der Punkte um die Gerade entsteht, vernachlässigen. Und dann könntest Du eine „normale“ Fehlerrechnung/Fehlerfortpflanzung machen, idem Du nur den ersten und den letzten Messpunkt berücksichtigst.
Da nur Differenzen in die Rechnung eingehen, fallen dabei alle systematischen Fehler weg, sofern sie wirklich bei allen Messungen systematisch den Messwert in dieselbe Richtung verfälscht haben.

Allerdings finde ich ein mathematische Lösung auf Basis der
Fehlerfortpflanzung „eleganter“. Hab auch schon ne
mathematische Gleichung zur Ermittlung des Fehlers der
Funktionsgeraden aber das ist noch nicht so richtig das was
ich suche.

Diese Formel würde mich mal interessieren, schreibe sie mal oder gib nen link dazu.

Olaf