Hallo zusammen!
Ich habe im Praktikum die Verdampfungsenthalpie von Wasser und Isopropanol bestimmt indem ich die Siedetemperatur bei verschiedenen Drücken zwischen 400 mbar und Umgebungsdruck gemessen haben. Daraus soll nach Clausius-Claperon die Verdampfungsenthalpie berechnet werden. Dazu wird die C-C- Gleichung zuerst linerisiert und ln§ gegen 1/T aufgetragen und die Steigung berechnet. Diese negiert und mit der allg. Gaskonstante multipliziert ergibt die Verdampfungsenthlapie.
delta_v_H = - (delta_ln§ / delta_(1/T)) * R
Soweit, so gut. Es kommen auch annähernd die Literaturwerte heraus. Aber eben nur annähernd! Und darum würden wir für’s Protokoll gerne eine Fehlerrechnung mit den Messfehlern unserer Messgeräte durchführen. Nur wie stelle ich das an? Die Grundlagen zur Fehlerfortpflanzungsrechnung sind bekannt. Aber irgendwie stehe ich gerade auf dem Schlauch.
Die Messgenauigkeit (Ablesegenauigkeit) des Thermometers lag bei „nur“ 1°C und das Barometer war auf 10 mbar ablesbar.
Wie stell ich jetzt die Gleichung zur Berechnung des maximalen Fehlers der ermittelten Verdampfungsenthalpie auf? Vor lauter deltas und Logarithmen schwirrt mir schon der Kopf. HILFE!!
Danke und Grüße
Sven