T-Test erlaubt, obwohl nicht normalverteilt?

Hallo,

ich will testen, ob 2 Mittelwerte zweier von mir nach bestimmten Merkmalen festgelegten Gruppen (z.B. 2,973% mit einer Varianz von 14,7040 und 0,908% mit einer Varianz von 12,1698) sich signifikant voneinander unterscheiden. Die Stichprobe n1 und n2 haben jeweils 250 conversions aus denen der Mittelwert berechnet wurde.

Meine Frage:

Darf ich nun einen t-Test benutzen, obwohl die Daten nicht normalverteilt sind (habe sie mir in SPSS per Histogramm, Q-Q Plot und anhand des Shapiro-Wilk angeschaut)?
Ich habe in diversen Quellen gelesen, dass bei n>30 (100) man auf die Bedingung „normalverteilt“ verzichten darf?
Da die Differenzen der Mittelwerte normalverteilt sein müssen und dies ist bei großen Stichproben automatisch der Fall sei.

Hintergrund ist, dass ich mit dem Mann-Whitney-U-Test nie eine Bestätigung eines Unterschiedes der Mittelwerte bekommen habe und so meine ganzen aufgestellten Hypothesen hinfällig wären :frowning:. Wohingegen ich beim t-Test bei dem oben beschriebenen Beispiel mit dem t-Test eine Signifikanz bekommen habe. Für den Fall, dass es erlaubt ist: ich muss doch zweiseitig testen, da es sich um zwei unabhängige Stichproben handelt, also z.B. nicht vorher/nachher?

Ich würde mich sehr über eine zeitnahe Antwort freuen.
Vielen, vielen Dank!

Hallo,

nachdem ich über meine erste (falsche) Antwort nachgedacht habe, hier ein neuer Versuch.

Den Test anhand der Ergebnisse bzw. p-Werte auszuwählen, ist grundsätzlich zweifelhaft. Ein Test sollte immer aufgrund der Eigenschaften der Daten gewählt werden.

Diese Grenze von n = 25 bis n = 30 (so circa) gilt nicht immer. So wie ich meine Literatur verstehe, wird es akzeptiert, einen t-Test bei symmetrisch verteilten Daten für große n anzuwenden, auch wenn keine Normalverteilung vorliegt, aber nur, wenn ein gepaarter Test durchgeführt wird, d.h. je zwei Werte stammen von der selben Quelle (z.B. man hat Probanden, an denen die Wirkung von Medikamenten geprüft wird, ein Messwert stammt von vor der Therapie, der zweite von nach dem Therapieende).

Prinzipiell ist bei Daten, bei denen begründet vermutet werden kann, dass sie nicht normalverteilt sind, der t-Test mit Vorsicht zu genießen, da er für diese Fälle nicht konzipiert ist. Je größer das n ist, desto weniger fällt es ins Gewicht, der t-Test ist da recht robust, aber das allein reicht eben nicht aus.

Viele Grüße,
d.

Hallo,

Den Test anhand der Ergebnisse bzw. p-Werte auszuwählen, ist
grundsätzlich zweifelhaft. Ein Test sollte immer aufgrund der
Eigenschaften der Daten gewählt werden.

Zustimmung.

Diese Grenze von n = 25 bis n = 30 (so circa) gilt nicht
immer. So wie ich meine Literatur verstehe, wird es
akzeptiert, einen t-Test bei symmetrisch verteilten Daten für
große n anzuwenden, auch wenn keine Normalverteilung vorliegt,

Zustimmung.

aber nur, wenn ein gepaarter Test durchgeführt wird, d.h. je
zwei Werte stammen von der selben Quelle (z.B. man hat
Probanden, an denen die Wirkung von Medikamenten geprüft wird,
ein Messwert stammt von vor der Therapie, der zweite von nach
dem Therapieende).

Woher ist das?

Der t-Test testet Mittelwerte. Voraussetzung ist, dass die Stichprobenmittelwerte normalverteilt sind. Das sind sie exakt nur dann, wenn die Werte selbst auch normalverteilt sind. Nach dem Zentralen Grenzwertsatz nähert sich die Verteilung der Stichprobenmittelwerte einer Normalverteilung mit steigendem Stichprobenumfang.

Prinzipiell ist bei Daten, bei denen begründet vermutet werden
kann, dass sie nicht normalverteilt sind, der t-Test mit
Vorsicht zu genießen, da er für diese Fälle nicht konzipiert
ist.

Zustimmung.

Je größer das n ist, desto weniger fällt es ins Gewicht,

Wegen des Zentralen Grenzwertsatzes

der t-Test ist da recht robust,

das kommt noch hinzu.

Der T-Test ist der einzige Test, der Mittelwerte testet. Der U-Test zB. testet unterschiede in den Verteilungen insgesamt. Das ist genau dann äquivalent mit einem Test der Mediane, wenn außer der „location“ alle anderen Verteilungsparameter der zu vergleichenden Populationen identisch sind.

Wenn die Daten symmetrisch, aber nicht normalverteilt sind, reichen n=30 definitiv aus, um die Verwendung des t-Tests zu rechtfertigen. Wenn die Daten deutlich schief verteilt sind, kann man meist durch eine geeignete Transformation die Verteilungen symmetrisch oder gar normalverteilt machen und dann den t-Test nehmen.

Viele Grüße,
Jochen

Hallo,

ich habe das vermutlich falsch wiedergegeben.
In meiner Ausgabe „Basiswissen Medizinische Statistik“ hat nur der t-Test mit einer Stichprobe den Vermerk, dass für große n die Normalverteilung anzunehmen ist. Für unverbundene Stichproben dagegen fehlt dieser Vermerk, allerdings ist vermerkt, dass der t-Test für Stichproben mit ähnlichem und großem Umfang sowie ähnlicher Verteilung der Stichprobenwerte machbar sei.

Grüße,
d.

Da habe ich doch noch eine Frage zum Zentralen Grenzwertsatz:
Es heisst, er gilt für genügend große, unabhängige und identisch-verteilte Zufallsvariablen bzw. mit Einschränkungen auch, wenn die identische Verteilung fehlt.

Wie häufig kommt es denn vor bzw. wie müssten Datensätze geartet sein, damit man den Zentralen Grenzwertsatz nicht mehr anwenden kann?

Wie häufig kommt es denn vor bzw. wie müssten Datensätze
geartet sein, damit man den Zentralen Grenzwertsatz nicht mehr
anwenden kann?

Der ZGWS besagt, dass die Verteilung von Summen (bzw. Mittelwerten) von unabh. verteilten Zufallszahlen gleich welcher Verteilung für n -> oo gegen die Normalverteilung strebt. Der gilt immer.

Die Frage ist, ab wann die Unterschiede zur Normalverteilung für einen Hypothesentest vernachlässigbar werden.

Dazu gibt es keine gute Antwort.

Bei unimodal symmetrisch verteilten Daten reicht m.E. ein n=5 schon, um den t-Test darauf loszulassen. Oft kommen schiefe Verteilungen vor. Schiefe Verteilungen sind immer problematisch, aber aus meiner Erfahrung reichen auch hier 100-500 Werte pro Stichprobe, damit der t-Test selbst bei sehr schiefen Verteilungen hinreichend gut die nominelle Power und das Fehlerniveau einhält.

Bei bimodalen oder ganz eigenartigen Verteilungen (Cauchy u.ä.) hat man ein ganz grundsätzliches Problem - schon bei der Formulierungen der Hypothesen (was sagt einem zB. der Mittelwert einer bimodalen Verteilung?).

VG
Jochen

Hallo Jochen,

meine Verteilungen sind relativ schief (aufgrund der vielen 0er Werte, 25-40%). Wenn ich aber mit der Stichprobe 250+250 auf 500 komme, müsste ich also den t-Test machen können, oder nicht?

Gibt es dazu (Vernachlässigung der Normalverteilung) Literatur? Da ich, wenn ich es machen würde, natürlich gerne ein Buch zitieren würde…

Vielen Dank für deine Hilfe!

bzw. wie kann ich die „schiefen“ Daten transformieren, um dann den t-Test machen zu können?

Danke

Hallo.

Der ZGWS besagt, dass die Verteilung von Summen (bzw.
Mittelwerten) von unabh. verteilten Zufallszahlen gleich
welcher Verteilung für n -> oo gegen die Normalverteilung
strebt. Der gilt immer.

Das widerspricht meiner Auffassung des Begriffs „immer“, weil eben unabhängige und identisch verteilte Zufallsvariablen vorausgesetzt werden. Daher hätte es mich interessiert, unter welchen Bedingungen er nicht gilt.
Unter http://de.wikipedia.org/wiki/Zentraler_Grenzwertsatz findet sich in der Einleitung auch ein Verweis darauf, und mich hätte nun interessiert, ob das tatsächliche Relevanz besitzt (sodass man dann bei der Datenauswertung entsprechende Berechnungen anstellen muss) oder nur ein Ausnahmefall ist und damit vernachlässigbar ist.

Viele Grüße,
d.

Hallo,

Das widerspricht meiner Auffassung des Begriffs „immer“, weil
eben unabhängige und identisch verteilte Zufallsvariablen
vorausgesetzt werden.

Wo ist das Problem bei der Aussage: „Gilt immer für beliebige iid Zufallzahlen“? Wenn Autokorrelationen u.ä. vorliegen, gilt der ZGWS eben nicht, weil nicht iid. Wenn aber iid, dann gilt er immer.

Daher hätte es mich interessiert, unter
welchen Bedingungen er nicht gilt.

Wenn die Zufallszahlen nicht unabhängig sind.
Für unabhängige, aber nicht identisch verteilte Zufallszahlen gilt er in der erweiterten Form m.W. auch.

mich hätte nun interessiert, ob das tatsächliche Relevanz
besitzt

Tja, was ist relevant?
Wer mag das definieren?

Pragmatisch: Wenn es den Reviewer nicht stört, ist es nicht relevant :wink:

Ich denke, dein Verständnisproblem liegt darin, dass du dich auf konkrete Stichproben mit einem konkreten, endlichen n beziehst, die Aussage über den ZGWS sich aber auf ein „Verhalten für n gegen unendlich“ bezieht.

VG
Jochen

bzw. wie kann ich die „schiefen“ Daten transformieren, um dann
den t-Test machen zu können?

Danke

Das kann man nur beantworten, wenn man sich die Daten anschaut und ggf. versch. Transformationen probiert.

Allgemein gibt es das Box-Cox-Verfahren, welches eine optimale Transformation für die meisten Verteilungen findet. Das Problem ist dann aber oft, dass die Transformation inhaltlich nicht verstanden wird und dass man für die an den getesteten Verteilungen keine Konfidenzintervalle für die Originalwerte rückrechnen kann.

VG
Jochen

Hi d.,

Der ZGWS besagt, dass die Verteilung von Summen (bzw.
Mittelwerten) von unabh. verteilten Zufallszahlen gleich
welcher Verteilung für n -> oo gegen die Normalverteilung
strebt. Der gilt immer.

Das widerspricht meiner Auffassung des Begriffs „immer“, weil
eben unabhängige und identisch verteilte Zufallsvariablen
vorausgesetzt werden.

Der ZGWS mit den genannten Bedingungen gilt immer. sind die Voraussetznugen nciht erfüllt, gilt er auch nicht.

Daher hätte es mich interessiert, unter
welchen Bedingungen er nicht gilt.
Unter http://de.wikipedia.org/wiki/Zentraler_Grenzwertsatz
findet sich in der Einleitung auch ein Verweis darauf, und
mich hätte nun interessiert, ob das tatsächliche Relevanz
besitzt (sodass man dann bei der Datenauswertung entsprechende
Berechnungen anstellen muss) oder nur ein Ausnahmefall ist und
damit vernachlässigbar ist.

Es gibt andere Bedingnugen, die statt der „gewöhnlichen“ gefordert sein können. Das ist dann quasi ZGWS Version 2. diese Bedingungen lassen sich aber i.a. noch schwerer testen als die vom ZGWS_V1 und werden angewandt, wenn man sich bestimmte Verteilung ansieht (was aber nur in theoretischen Arbeiten vorkommt).
wie schnell ZGWS_V1 und ZGES_V2 erfüllt sind, hängt von vielen Dingen ab: Der Verteilung, der Schiefe, der Kurtosis udn was man als hinreichend normelverteilt ansieht. Denn der ZGWS sagt immer nur etwas über den Fall n=oo aus (dann _ist_ es normalverteilt), für alle n

Ja, mein Problem liegt unter anderem darin, dass ich gerne einen Praxisbezug hätte, da ich immer wieder mal vor dem selben Problem stehe wie im Ausgangsbeitrag beschrieben :wink:

Ansonsten ists mehr ein sprachliches Problem, da ich es nicht als sinnvoll erachte, bestimmte Voraussetzungen mit dem Begriff „immer“ zu verknüpfen, so wie streng genommen auch 1+1=2 nicht immer gilt.

Da mir momentan aber eh die Möglichkeiten fehlen, mathematisch detaillierter auf die Zusatzbedingungen für nichtidentische Verteilungen einzugehen, behalte ich es im Hinterkopf und ignoriere es derweil :wink:

Hi osiemelo,

meine Verteilungen sind relativ schief (aufgrund der vielen
0er Werte, 25-40%). Wenn ich aber mit der Stichprobe 250+250
auf 500 komme, müsste ich also den t-Test machen können, oder
nicht?

Nein. Denn wenn du schon eine schiefe Verteilung mit 250 Werten zeigen kannst, dann kannst du das ja nicht einfach ignorieren und trotzdem einen t-Test machen.
Mich wundert allerdings, dass der Mann-Whitney nicht anspringt. da du aber sowieso %-Werte hast, würde ich eh was ganz anderes vorschlagen: Logistic regression (http://nlp.stanford.edu/manning/courses/ling289/Jaeg…) damit umgehst die ganze Problematik.
Grüße,
JPL

Hallo,

ah ok, ich dachte nur, dass ich bei einer logistischen Regression den Einfluss von einer oder mehreren Variablen auf eine abhängige Variable teste.

Wie müsste ich denn meine Daten aufbereiten, um in SPSS Ergebnisse zu generieren?

In SPSS:
Analyze / Regression / Binary Logistic —> Welche Werte müsste ich wo eintragen?

Vielen Dank

Hi osiemelo,

da du aber sowieso %-Werte hast, würde ich eh was
ganz anderes vorschlagen: Logistic regression
(http://nlp.stanford.edu/manning/courses/ling289/Jaeg…)
damit umgehst die ganze Problematik.

Du hast %-Werte… das habe ich übersehen. Ja, da hat JPL wie immer recht.

Die passende Transformation für solche Daten ist die logit-Transformation, s. z.B.:

http://psych.colorado.edu/~carey/Courses/PSYC5741/ha…

Grüße,
Jochen

Hallo JPL,

ich könnte dir auch gerne schnell den Datensatz schicken, falls du einen Blick drauf werfen möchtest? Vielleicht erkennst du ja, warum der Mann-Whitney nicht funktioniert…

Bitte nicht falsch verstehen, ich möchte nicht das du meine Auswertungen machst, nur stehe ich momentan ein wenig auf dem Schlauch, was die verschiedenen Tests, oder Regressionen angeht.

Vielen Dank
Beste Grüße

Hallo Jochen,

ok…
Soll heißen, wenn ich die Transformation durchgeführt habe, könnte ich den t-Test machen, oder aber sollte ich wie JPL eher auf eine logistische Regression zurückgreifen? (von der ich momentan leider noch keine Ahnung habe :wink:)

Vielen Dank
Beste Grüße

Hi,

ah ok, ich dachte nur, dass ich bei einer logistischen
Regression den Einfluss von einer oder mehreren Variablen auf
eine abhängige Variable teste.

Richtig: abh. sind die 500 %-Werte, unabh. die Gruppenzugehörigkeit. wenn du diese als 0,1 kodierst kannst du über die im paper beschriebene Umrechung die odds ausrechnen, was dir einen „Gruppeneinfluss“ angibt.

Wie müsste ich denn meine Daten aufbereiten, um in SPSS
Ergebnisse zu generieren?

einfach eine spalte „value“ und als metrisch deklarieren, und in der anderen „group“ als ordinal deklarieren und dann eingeben. Ergibt 2 Spalten mit je 500 Werten.

Grüße,
JPL

Richtig: abh. sind die 500 %-Werte, unabh. die
Gruppenzugehörigkeit. wenn du diese als 0,1 kodierst kannst du
über die im paper beschriebene Umrechung die odds ausrechnen,
was dir einen „Gruppeneinfluss“ angibt.

Die im Paper beschriebene Umrechnung: dort wird beschrieben, dass ich den Logarithmus mit der Basis 10 nehmen sollte: Heißt also, dass ich meine %-Werte nehme und sie tranformiere. In Excel sollte das wohl kein Problem sein…

einfach eine spalte „value“ und als metrisch deklarieren, und
in der anderen „group“ als ordinal deklarieren und dann
eingeben. Ergibt 2 Spalten mit je 500 Werten.

Ok, hier also die umgewandelten %-Werte und in der anderne Spalte 0/1.
Es gibt dort noch super viele Einstellungen. Muss ich dort noch was beachten? Wie würde ich dann das Ergebnis interpretieren? (starker, schwacher Einflus)

Vielen Dank