ich habe keine gute Quelle zur Hand, in der steht, welches die Voraussetzungen für den F-Test sind. Die Quellen, die ich online aufgetan habe, sprechen z.T. von normalverteilten Stichproben (Daten), manchmal aber auch nur von normalverteilten Mittelwerten (so wie beim t-Test).
Also, müssen die Daten selbst normalverteilt sein, oder reicht es dass die Mittelwerte (nach dem ZGWS) normalverteilt sind?
Und wie robust ist der Test gegen Abweichungen davon? Eine Aussage relativ zum t-Test, der nach Ansicht der meisten von mir gelesenen Quellen recht robust sein soll, würde mir schon reichen.
im Armitage, Statistical methods in medical reserach, 4th edition, steht folgendes (149ff): Wenn s² der übliche Schätzer füe die Varianz einer Stichprobe ist, die einer Normalverteilung mit Varianz sigma entnommen ist, dann folgt (n-1)s² / sigma² einer Chi²-Verteilung mit (n-1) df.
Weiterhin gilt: „If X1 and X2 are chi-squared random variables with ν1 and ν2 degrees of freedom respectively, then (X1/ν1)/(X2/ν2) is an F(ν1, ν2) random variable“. (http://www.johndcook.com/distribution_chart.html#chi…)
Der ganze Spaß ist also unabhängig vom mean und dessen Verteilung.
Armitage amcht auch eine Aussage darüber, dass schon die Chi²-Verteilung sensitiv gegenüber Verletzung der Normaverteilungsannahme ist, folglich ist es auch der F-test. Sogar in höherem Masse als der t-Test (page 153).
Hoffe, das hilft dir weiter … wenn die Mixed theory fpr non-normal Models brauchst, kann ich dir den Jiang „Linear and generalized linear mixed models and their applications“ (2007) empfehlen.
Der ganze Spaß ist also unabhängig vom mean und dessen
Verteilung.
Was ja schade ist…
Armitage amcht auch eine Aussage darüber, dass schon die
Chi²-Verteilung sensitiv gegenüber Verletzung der
Normaverteilungsannahme ist, folglich ist es auch der F-test.
Sogar in höherem Masse als der t-Test (page 153).
Das wiederum finde ich interessant:
Man kann doch den t-Test als 2-Stichproben-Grenzfall der Anova betrachten, die ja im Grunde ein F-Test ist. Für die Anova gilt meines Wissens als Voraussetzung, dass die Residuen normalverteilt sein müssen. Soweit ok. Da t² aber das selbe liefert wie F, frage ich mich, warum der t-Test robust sein soll, der F-Test aber nicht (beide liefern ja dieselben Ergebnisse). Wie kann das sein?
Ich weiß wohl, dass bei der Anova die „within variance“ mit der „between variance“ verglichen wird und nicht direkt die Varianzen der Stichproben. Ich denke aber, wenn die Varianzschätzung der Stichprobe schlecht ist (weil die Daten nicht normalverteilt sind), dann sind es doch in gleicher weise auch die Schätzungen der within- und between-Varianzen. Hier steh’ ich verständnismäßig aufm Schlauch…
Hoffe, das hilft dir weiter … wenn die Mixed theory fpr
non-normal Models brauchst, kann ich dir den Jiang „Linear and
generalized linear mixed models and their applications“ (2007)
empfehlen.
Ich fürchte, das wir mir zu hoch. Aber ich werde mal schauen, ob’s in der Bibliothek verfügbar ist. Danke für den Tipp!
Man kann doch den t-Test als 2-Stichproben-Grenzfall der Anova
betrachten, die ja im Grunde ein F-Test ist. Für die Anova
gilt meines Wissens als Voraussetzung, dass die Residuen
normalverteilt sein müssen. Soweit ok. Da t² aber das selbe
liefert wie F, frage ich mich, warum der t-Test robust sein
soll, der F-Test aber nicht (beide liefern ja dieselben
Ergebnisse). Wie kann das sein?
Die Aussage bezieht sich auf den klassischen F-Test var(x1)/var(x2) wobei x1 und x2 random samples from a normal distribution sein sollen. Das ist nicht dasselbe wie der F-Test für einen within/between Vergleich. Die Konversion, die du meinst bezieht sich ausserdem auf die Verteilung, nicht auf den die Schätzer. Ich denke, dass da der Hund begraben liegt.
Wäre interessant, das weiter aufzubohren … wenn man die Zeit hätte.
Wie bist du denn auf die Frage gekommen?
Viele Grüße,
John
Die Aussage bezieht sich auf den klassischen F-Test
var(x1)/var(x2) wobei x1 und x2 random samples from a normal
distribution sein sollen. Das ist nicht dasselbe wie der
F-Test für einen within/between Vergleich.
Dafür gilt aber doch, dass die Residuen normalverteilt sein müssen. Geht man von der gaaanz einfachen einfaktoriellen Anova mit nur zwei Stufen aus (also dem 2-Sttichproben-t-Test), dann - so denke ich mir - ist doch die Normalverteilung der Residuen gleichbedeutend mit der Normalverteilung der Werte. Es sollte dabei auch unerheblich sein, durch welchen Faktor die Quadratesummen geteilt werden.
Wäre interessant, das weiter aufzubohren … wenn man die Zeit
hätte.
Ja. Und wenn man die Ahnung davon hätte
Wie bist du denn auf die Frage gekommen?
Hmm. Keine Ahnung. Letzter Funke war die Frage eines Studenten, ob die Voraussetzungen für den F-Test (hier ging es um die klassische Form, um zu entscheiden, ob man in zwei Stichproben von gleichen Varianzen ausgehen kann) die gleichen sind wie für den t-Test. Darum habe ich nachgeschaut (mit wenig eindeutigem Erfolg bis zu Deiner Antwort) und mich spontan daran erinnert, dass die t² Verteilung eine F-Verteilung ist und ich auch mal in einem Vortrag gehört habe, dass der t-Test im Prinzip nur ein Spezialfall der Varianzanalyse ist.
Also, ich wäre da schon an einer Antwort interessiert, aber mir fehlen die Grundlagen, das richtig zu durchleuchten.
Dafür gilt aber doch, dass die Residuen normalverteilt sein
müssen. Geht man von der gaaanz einfachen einfaktoriellen
Anova mit nur zwei Stufen aus (also dem
2-Sttichproben-t-Test), dann - so denke ich mir - ist doch die
Normalverteilung der Residuen gleichbedeutend mit der
Normalverteilung der Werte.
Stimmt.
Es sollte dabei auch unerheblich
sein, durch welchen Faktor die Quadratesummen geteilt werden.
In dem Fall ist die Normalverteilung aber schon gegeben und der F-test für within/between lässt sich (sogar arithmetisch denke ich) in einen t-test überführen.
Wenn die Voraussetzung aber nicht erfüllt ist, also keine normalverteilung gegeben ist, enstrpicht F(w/b) immer noch dem t-test, aber der F-test basierend auf dem Schätzer Var(x1)/Var(x2) ist dann eben was anderes und deswegen auch anders anfällig für Verletzung der Voraussetzungen.
Probier mal den Code:
# start of program
rm(list=ls(all=TRUE))
set.seed(10)
sim
da sieht man das dann recht gut.
Grüße,
JPL
danke für das Skript. Ich hab’s noch nicht versucht, weil mein Rechner zweimal abgestürzt ist… Liegt aber an dieser Gurke und nicht am Skript. Ich denke aber, ich weiß, was rauskommt. Aber verstehe ich auch, warum?
Liegt das daran, dass die MSSq[between] und die MSSq[within] bei der Anova genau so korrelieren, dass sich die Effekte der Asymmetrie in der Verteilung der Residuen (halbwegs) aufheben?
Beim normalen F-Test sind Zähler und Nenner ja unabhängig. Hier kann es keine solche Korrelation geben.