ich habe eine Frage bzgl. der Varianzanalyse. Wenn ich bspw. eine einfaktorielle VA mit einem dreifach-gestuften Merkmal habe und die Overall-Unterschiede signifikant sind: Dann möchte ich wissen, durch welche Einzel-Unterschiede dieser Overall-Unterschied zustande gekommen ist.
Laut Bortz soll man hierfür den „Einzelvergleichstest für zwei Mittelwerte“ (7.3.1, S. 253 5. Auflage) nehmen, in der Praxis nimmt man jedoch einfach den t-Test. Was genau ist der Unterschied?
einen Tipp am Rande: Wenn du soche Fragen im Methebrett stellst, bekommst du schneller eine Antwort.
Aber zu deiner Frage: Bortz kommt sehr allgemein daher, nach der Aussagem kannst du jeden x-beliebigen Mittelwertsvergelcih nehmen. Das macht auch Sinn, denn es hängt generell von der Fragestellung ab. Wenn du aber sicher bit, dass eine ANOVA passt, kannst du mit dem t-Test weitermachen (aber nur bei einer einfaktoriellen).
Zei Sachen gibt es dabei noch zu bedenken: Das Issue der „Inkohärenz und der Inkonsonaz“: Ein sig. F-Test muss nicht irgendeinen sig. paarweisen Vergleich anch sich ziehen und anders herum (vgl. http://www.pitt.edu/~wpilib/statfaq/97postho.html); ausserdem das Problem des multiplen Testens, da du mit den zusätzlichen Tests das alpha-Nibeau nicht mehr einhälst (vgl. http://en.wikipedia.org/wiki/Multiple_comparisons)
wie sieht es denn aus bei einer 2-faktoriellen VA? Kann man da auch t-Tests für die Einzelvergleiche machen? Und was würde es bedeuten, wenn man es trotzdem macht? Zu liberal, zu konservativ?
Viele Grüße,
Tobias
P.S.: Oder sollte ich die Antwort lieber im Mathe-Forum posten?
wenn du schon mal hier bist, dann bleiben wir auch hier.
Wenn du eine nicht-einfaktorielle ANOVA hast und dann einen t-Test hinterher, verlierst du natürlich alle Informationen aus den anderen Koviarablen. die genaue Auswirkung lässt sich m.E. nicht so generalsierien, du hast aber mehr df’s und daher tendenziell einen kleineren kritischen Wert, also wohl eher liberal würde ich sagen (ohne Garantie).
I.a. bieten die ANOVAS aber eh die Möglichkeit zu post hoc Tests an, die dann den Fehler des gesamten Modells auf die paarweisen Vergleiche umlegen. Das würde ich empfehlen weil danna uch alles „aus einer Hand“ ist.
Multiplizität und Kohärenz/Konsonanz umgehtst du damit aber noch nciht
Ich kann ja mal das konkrete Beispiel nennen: Es geht um die Leistung bei einem Mathe-Test. Als UVn dienen zum einen „stereotype threat“ (ja vs. nein) und Individuation (ja vs. nein). Es gibt also 4 Gruppen und die Interaktion wird auch signifikant. Bereits vor der Untersuchung habe ich die Hypothese aufgestellt, dass ohne Individuation „stereotype threat ja“ schlechter sein soll als „stereotype threat nein“. Ich will also zwei Gruppen vergleichen. Welche Alternative gäbe es denn hier zum t-Test und warum konkret sollte man keinen t-Test nehmen?
Ich kann ja mal das konkrete Beispiel nennen: Es geht um die
Leistung bei einem Mathe-Test. Als UVn dienen zum einen „stereotype
threat“ (ja vs. nein) und Individuation (ja vs. nein). Es gibt also
4 Gruppen und die Interaktion wird auch signifikant.
Das ist dann schon mal kein zu verachtendes Problem uns stellt die Haupteffekte ggf. auf den Kopf. Sinnvoll hier: Einen Interaktionsplot ausgeben, damit man sich die Effekte mal ansehen kann.
Bereits vor der
Untersuchung habe ich die Hypothese aufgestellt, dass ohne
Individuation „stereotype threat ja“ schlechter sein soll
als „stereotype threat nein“. Ich will also zwei Gruppen
vergleichen. Welche Alternative gäbe es denn hier zum t-Test und
warum konkret sollte man keinen t-Test nehmen?
Für den t-Test würdest du einfach alle stereotypen in einen Topf werfen und mit allen nicht-stereotypen vergleichen. Wenn du bei der ANOVA einen post hoc test machst, dann bleibt der Faktor Individuation erhalten und wird innerhalb des Faktors stereotyp berücksichtigt (so ähnlich wie eine stratfizierte Analsye, wenn dir das weiter hilft). Dadurch kannsr du i.a. die Streuung innerhalb der Stereotypengruppen verrringern und vor allem die Interaktion berücksichtigen. Der t-Test könnte da sogar konträre Ergebnisse liefern.
Zu beachten wäre auch noch, dass bei unterschiedlicher (Sub-)Gruppengröße die L(east)S(quares)Means geeigneter sind als die naiven means, da dann die Gruppengröße entsprechend mit berücksichtigt wird.