ich habe ein kleines Problem und zwar habe ich eine Studie durchgeführt und möchte nun zwei Hypothesen beweisen. Mir ist jedoch nicht ganz klar, wann ich den Chi-Quadrat-Test nehme und wann den t-Test.
Zeigen nicht im Hinblick auf das Belegen von Hypothesen beide das gleiche?
Ich habe bspw. eine HY „Werbekanal1 ist besser als Werbekanal2“. Dazu besitze ich zwei unabhängige Variablen (Integrationsform und Kanal) sowie eine abhängige Variable (Recall):
Ich dachte mir jetzt, dass ich mit Chi-Quadrat in Verbindung mit einer deskriptiven Statistik diese beweisen kann, wenn ich die Abhängigkeit von Kanal und Recall beweisen kann.
Zeigt mir der t-Test dann nicht das gleiche, in dem Sinne, dass wenn ich Kanal-Recall im t-Test für unabhängige Stichproben teste? Nur dass der t-Test die Mittelwerte vergleicht und ich dann an der Signifikanz sehe, ob ein Unterschied besteht und somit also im gewissen Sinne auch eine Abhängigkeit besteht? Ich kann dann ja daraus schließen, dass der Effekt durch die Wahl des Kanals zustande kommt.
Vielleicht kann mir ja jemand bitte den Unterschied grob erklären.
ich habe ein kleines Problem und zwar habe ich eine Studie
durchgeführt und möchte nun zwei Hypothesen beweisen testen.
Mir ist
jedoch nicht ganz klar, wann ich den Chi-Quadrat-Test nehme
und wann den t-Test.
Chi² bei kontingenztafeln (abh. und unabh. Variable sind kategoriell), t-test bei 2 Stichproben, wobei die abh. metrisch ist und die unabh. kategoriell.
Jeweils die Voraussetzungen beachten!
Zeigen nicht im Hinblick auf das Belegen von Hypothesen beide
das gleiche?
Nein. Chi² testet H0: Kein Zusammenhang zwischen UV und AV,
t-test: H0: Keinen Unterschied im Mittelwert.
dan kann schon was andere herauskommen …
Ich habe bspw. eine HY „Werbekanal1 ist besser als
Werbekanal2“. Dazu besitze ich zwei unabhängige Variablen
(Integrationsform und Kanal) sowie eine abhängige Variable
(Recall):
Ich dachte mir jetzt, dass ich mit Chi-Quadrat in Verbindung
mit einer deskriptiven Statistik diese beweisen kann, wenn ich
die Abhängigkeit von Kanal und Recall beweisen kann.
Zeigt mir der t-Test dann nicht das gleiche, in dem Sinne,
dass wenn ich Kanal-Recall im t-Test für unabhängige
Stichproben teste? Nur dass der t-Test die Mittelwerte
vergleicht und ich dann an der Signifikanz sehe, ob ein
Unterschied besteht und somit also im gewissen Sinne auch eine
Abhängigkeit besteht? Ich kann dann ja daraus schließen, dass
der Effekt durch die Wahl des Kanals zustande kommt.
Du musst in etwa folgendes Vorgehen überlegen:
Skalenniveau der UV
Skalenniveau der AV
=> was wäre ein geeigneter Test?
Voraussetzungen für den test erfüllt (theoretisch?)
Formulierung von H0 im Sinne des tests.
testen
wie ja schon mal besprochen, gibt es mehrere AVs und UVs, somit sind sowohl Chi² und t-test eigentlich nicht eine Krücke.
Noch eine kurze Frage dazu. Wenn ich den Quadrat-Test dann verwende (ich mache alles mit SPSS) aber dann wird ja eigentlich nach Pearson gerechnet. So nun muss ich aber leider exakter nach Fisher rechnen. Bei dem nach Pearson sieht man oft in der Literatur dann diese Form (Chi-Quadrat-Wert = 33,66; df=1; Sign.= 0.04). Gebe ich bei Fisher auch den Chi-Quadrat-Wert nach Pearson an und sage dnan bei der Signifkanz, dass die nach Fisher berechnet wurde?
Noch eine kurze Frage dazu. Wenn ich den Quadrat-Test dann
verwende (ich mache alles mit SPSS) aber dann wird ja
eigentlich nach Pearson gerechnet. So nun muss ich aber leider
exakter nach Fisher rechnen.
Das klingt für mich logisch! Dann werde ich einfach auf eine Kreuztabelle inkl. der statistischen Werte im Anhang verweisen. Aus welchem Grund findet man eigentlich oft in der Literatur nicht die Angabe Sign. = 0.xxx (habe ich manchmal so gelesen) sondern p . Ich versteh dieses nicht.
Weisst du zufällig auch die gängige Schreibweise für den Mann-Whitney-Test (Google sagt leider gar nichts dazu). Habe gelesen, dass man den U-Wert und den p-Wert angibt. Ich bin bis jetzt so verfahren, dass ich U-Wert= xxx + Sign. = 0.xxx angegeben habe. Wobei sich hier wieder die Frage stellt, warum p…
Aus welchem Grund findet man eigentlich oft in der
Literatur nicht die Angabe Sign. = 0.xxx (habe ich manchmal so
gelesen) sondern p . Ich versteh dieses
nicht.
man will damit andeuten, dass man unterhalb einer gewissen schranke ist (üblich sind 5%, 1%, 0.1% und 0.01%). Ist aber eine Unsitte. Besser ist allerdings eine Angabe wie du vorgeschlagen hast: den genauen Wert mit 4 nachkommastellen. nur im Falle
Aus unerfindlichen Gründen hat sich eingebürgert, dass die
Leute die teststatistik, die Freiheitsgrade und den p-Wert
angeben. Früher war das wohl mal sachdienlich als man noch
anhand teststatistik und dfs den p-Wert nachgucken musste(*).
In der heutigen Zeit spuckt jedes Programm ja den p-Wert schon
mit aus. Insofern kann man sich alles bis auf den p-Wert
sparen, sollte aber - wenn zutreffend - ein Maß für den
Unterschied angeben, z.B. differences in means, ratio of
means,…
d.h.? Damit ist nicht z.B. Cramer’s V gemeint oder?
In der heutigen Zeit spuckt jedes Programm ja den p-Wert schon
mit aus. Insofern kann man sich alles bis auf den p-Wert
sparen, sollte aber - wenn zutreffend - ein Maß für den
Unterschied angeben, z.B. differences in means, ratio of
means,…
d.h.? Damit ist nicht z.B. Cramer’s V gemeint oder?
Das wäre eigentlich der 2. Schritt, wenn man Studien vergleichen möchte. aber um zu bewirken ob sich eine Marke nun besser verkauft als eine andere nützt einem eine Effektgröße nichts, da man mit z.B. 13 einheiten nichts anfangen kann. Mit 300€/MOnat mehr Umsatz aber schon.
da muss man ausnahmsweise mal gar nicht kompliziert denken. Differences in means ist schlicht die difernz der Mittelwerte.
wenn gruppe A MW=5 hat und B MW=3, dann ist es ganz einfach 2 (oder -2 je nachdem). Dazu gibt man dann noch das Konfi an und den p-Wert, z.B. .2 bis 2.8 und p=0.0023, statt t=4.567 df=17 und p