Fehlerrechnung bei Steifigkeitsmessung

Hallo,

Leider muss ich im Moment schmerzlich feststellen, dass das Thema Fehlerrechnung im Maschinenbaustudium zu kurz kommt. Zwar habe ich mich inzwischen an mehreren Stellen eingelesen, aber irgendwie bekomme ich das immer noch nicht ganz geordnet.

Hier die Problemstellung:

Es soll die Steifigkeit verschiedener Federn gemessen werden. Dazu wird die Kraft mit einem auf Dehnmesstreifen basierenden Kraftsensor erfasst. Die Längenänderung wird mit einem auf photoelektrischer Abtastung eines inkrementellen Maßstabes beruhendem Messtaster gemessen. Nach Herstellerangeben muss bei der Kraftmessung mit einem absoluten Fehler von 50 N gerechnet werden und bei der Wegmessung mit 0.2 µm.

Um nun die Steifigkeit zu bestimmen berechne ich nun durch Minimierung der Fehlerquadrate eine Regressionsgerade. Die Steigung gibt mir die Steifigkeit. Zwar könnte ich auch aus jedem einzelnen zueinander gehörenden Messpaar bezogen auf die Ausgangslage die Steifigkeit berechnen und dann mitteln. Aber bei kleinem delta_F bzw. delta_s bezogen auf die Ausgangslage wurden dann die Unvollkommenheit der Sensoren unverhältnismäßig stark ins Gewicht fallen. Deshalb die meine Idee aus je einer Be- und Entlastung die Steifigkeit mittels Regressionsgerade berechnen. Das Ganze dann 10 mal durchführen und dann mitteln.

Ist die Herangehensweise soweit Stimmig?

Dabei stellen sich aber folgende Fragen:

-Beide Sensoren sind Fehlerbehaftet – Welches Fehlerquadrat minimiere ich am besten?
Es gibt auch Möglichkeiten beide Fehler zu betrachten (z.B. http://mathworld.wolfram.com/LeastSquaresFittingPerp…), doch wie gewichte ich dann zwischen den beiden? Der Einfluss (relativer Fehler) hängt ja von der noch zu Bestimmenden Steifigkeit, bzw. dem dadurch festgelegten Messbereich der Kraft und des Weges ab.

-Habe ich die Steifigkeit in mehreren Messungen bestimmt, do kann ich den Mittelwert und die Standardabweichung berechnen. Mit der Standardabweichung kann ich nun sozusagen die stochastische Abweichung angeben. Richtig? Aber wie bekomme ich meine Systematische Abweichung (durch Ungenauigkeit der Sensoren) als Steifigkeitswert ausgedrückt? Da habe ich Moment echt keine Idee!

-Außerdem frage ich mich ob ich bei dieser Vorgehensweise nicht den wahren statistischen Fehler verschleiere. Denn ich berechne ja die Standardabweichung aus den Steigungswerten der einzelnen Regressionsgeraden. Also sozusagen mittele ich bereits gemittelte Werte?!?

-Insgesamt wäre es auch schön von einem einzelnen Be- und Entlastungszyklus eine Art Vertrauensbereich für die Steifigkeit angeben könnte. Dazu habe ich etwas unter „Standardabweichung der Steigung einer Regressionsgeraden“ gefunden. Siehe z.B. http://iwan.chem.tu-berlin.de/~lehre/pc/pr1_WS/skrip… auf S.7 oder https://www.tu-braunschweig.de/Medien-DB/pci/fehlerr… auf Seite 6-7. Verstehen tue ich das Ganze aber nicht wirklich. Ich kann mir ja ansehen wie weit die einzelnen Messpunkte von der Geraden weg sind. Aber wie kann ich sagen wie sehr die Steigung abweicht?

Ich weiß, das sind einige Fragen auf einmal. Aber ich zerbreche mir schon eine ganze Weile den Kopf darüber und komme einfach nicht weiter. Wäre echt sehr froh wenn ich ein paar Tipps bekommen würde (Gerne auch nur zu einzelnen Punkten!!) Oder bin ich ganz am Holzweg?

Danke schon mal!

Joeh