ich stolpere gerade mal wieder über den Unterschied zwischen der (empirischen) Standardabweichung einer Stichprobe und der der Grundgesamtheit. Da ist doch ein Faktor Wurzel aus n dabei. Aber in welcher Richtung?
Also welche Standardabweichung ist die größere? Und warum? Und was ist, wenn n sehr groß wird bzw. gegen Unendlich geht?
die empirische SD wird mittels S=sqrt(1/(n-1) * …) berechnet, die der Grundgesamtheit aber mittels S’=sqrt(1/n * …).
Damit ist S immer etwas größer als S’.
Beide sind als S² und S’² erwartungstreue Schätzer für die Varianz (d.h. wenn also n->oo kommt auch die Varianz dabei heraus), da aber sqrt eine konkave Funktion ist, unterschätzen sowohl S als auch S’ die tatsächliche SD. Da S dies etwas weniger tut, ist S gleichmässig bester Schätzer, also sozusagen effizienter.
danke, aber das meinte ich nicht. Das mit dem (n-1) oder n ist mir im Moment noch egal … aber grundlegender ist das andere Problem:
Manchmal ist die SD einfach die Wurzel aus der Varianz, und manchmal ist es Wurzel aus (Varianz/n). Wann ist nun was richtig bzw. wie heißen die Begriffe richtig?
das eine Ding ist die Standardabweichung (http://de.wikipedia.org/wiki/Standardabweichung) und beschreibt die Streuung der Einzelwerte ,
das andere ist der „Standardfehler“ (auch Standardfehler od. Standardabweichung des Mittelwerts genannt) und beschreibt die Genauigkeit, mit der der Mittelwert bestimmt wurde (http://de.wikipedia.org/wiki/Standardfehler#Standard…) Der ist natürliche genauer als die Streuung der Einzelwerte, deshalb der zusätzliche Faktor 1/wurzel(n) .
Der [SE] ist natürliche genauer als die Streuung der Einzelwerte,
deshalb der zusätzliche Faktor 1/wurzel(n) .
Das stimmt so nicht ganz. Der Faktor leitet sich einfach aus der Berechnung ab. Da SD und SE - wie du ganz richtig andeutest - zwei verschiedene Sachen schätzen kann man schlecht sagen, welcher „genauer“ ist.
Grüße,
JPL
dankeschön, das ist genau das, was ich wissen wollte und was mir bisher noch nie so recht klar war.
Es ist nicht die SD der Grundgesamtheit, sondern eben
Genauigkeit, mit der der Mittelwert bestimmt wurde
Und dieser Fehler geht eben gegen 0, wenn n gegen Unendlich geht. Logisch.