Gibt es eine Möglichkeit bei einer linearen Regression die Fehler der Meßwerte zu berücksichtigen?
Alle Programme die ich kenne, ermitteln den Fehler der Regression als Abweichung von der Messpunkte von der ermittelten Geraden (bzw. ich habe die Funktion nicht finden koennen). Wenn die Meßwerte nun aber selbst Fehlerbehaftet sind, sollte der Fehler der Regression entsprechend größer sein.
informiere Dich in der Literatur über das Verfahren der latenten Regression. Dann erhältst Du meßfehlerbereinigte Regressionsgewichte, Korrelationen und additiven Konstanten:
Adams, R. J., Wilson, M. R. & Wu, M. L. (1997). Multilevel Item Response Models: An Approach to Errors in Variables Regression. Journal of Educational and Behavioural Statistics, 22 (1), 46-75.
Die Autoren haben dazu auch ein Computerprogramm namens ConQuest geschrieben. Das Ganze ist mathematisch recht anspruchsvoll. Also mache Dich auf etwas gefaßt.
Zudem kannst Du aus korrelativen Zusammenhängen meßfehlerbehafteter Variablen selbst die Meßfehler herausrechnen. Benutze dazu die Formeln für die Minderungskorrektur von Spearman.
Hallo Trempf!
Klar gibt’s sowas.
Ist m.E. auch die einzig vernünftige Methode, Ausgleichsgeraden und die „Fehler“ (Unsicherheiten) der Parameter zu bestimmen.
Die fertigen Formeln findet man bei „Numerical Recipes“ (sehr gutes Buch!) Kap. 15.2, online bei http://www.library.cornell.edu/nr/bookcpdf/c15-2.pdf
Wenn Du ein fertiges Excel-Arbeitsblatt suchst, hier gibt’s eins: