T-Test Auswertung bei SPSS

Hallo ihr,
ich hoffe, ihr könnt mir helfen. Ich bin eine absolute Statistikniete und kämpfe mich gerade durch eine statistische Auswertung. Ich habe es immerhin schon geschafft, die Daten auf Normalverteilung zu prüfen und anschließend den t-Test für gepaarte Stichproben durchzuführen. Aber jetzt komme icheinfahc nicht mehr weiter:

SPSS hat mir jetzt WErte ausgespuckt und ich kann damit einfach nix anfangen, bzw. ich weißt nicht, wann ich jetzt sagen kann, dass der Unterschied statistisch signifikant ist oder nicht.
Ich tippe mal eine Zeile der Tabelle hier rein:
95% Konfidenzintervall
untere obere T df Sig(2seitig)
Paar 1 -40,767 9,142 -1,351 15 0,197

Was ist jetzt hier der p-Wert? Und was muss kleiner/gleich 0,05 sein, damit das ganze nicht statistisch signifikant ist???

Ich hoffe, ihr könnt mir helfen. Vielen Dank schon einmal,

lg, Hermione

Ich seh grad, das mit der Tabelle klappt nicht, also ander:

unterer Wert der Differenzt des 95% Konfidenzintervalls:
-40,767

oberer Wert der Diffenrenz des 95% Konfidenzintervalls:
9,142

T
-1,351

df
15

Sig (2seitig)
0,197

Ich hoffe, jetzt ists verständlicher…

Hallo,

Beim gepaarten t-Test werden die Differenzen der Wertepaare berechnet. Die Nullhypothese lautet: Der wahre Mittelwert dieser Differenzen ist Null.

Die Daten deiner Stichprobe streuen nun natürlich, und womoglich ist der Mittelwert aus deiner Stichprobe von Null verschieden, obwohl der wahre Mittelwert tatsächlich Null ist. Praktisch Sicher wird der Mittelwert deiner Stichprobe von exakt NUll abweichen. Das bringt also nicht wirklich einen Erkenntnisgewinn. Daher stellt man im Prinzip die Frage, wie wahrscheinlich es ist, solche Daten zu bekommen, die um wenigstens diesen von dir beobachteten Wert von Null abweichen, UNTER DER ANNAHME, dass der wahre Mittelwert Null sei. Wenn das UNWAHRSCHEINLICH ist, dann spricht das DAFÜR, dass der wahre Mittelwert eben doch NICHT Null ist. (Ist etwas kompliziert um zwei Ecken, aber beim langsamen Lesen kann man es verstehen).

Im Prinzip will man folgendes: Du bestimmst eine mittlere Differenz von -15,8 und möchtest behaupten: „Toll, der Wert ist gesunken.“ Ein Kritiker behauptet: „Quark. Du hast eine blöde Stichprobe genommen. Jede Stichprobe ist anders. Eine andere Stichprobe könnte genausogut einen positiven Wert zeigen.“ - Also machst du diese Statistik und kannst danach sagen (oder auch nicht!): „Nee, also rein zufällig einen so stark von Null abweichenden Wert würde man nur in weniger als 5% solcher Experimente finden. Also entweder hatte ich hier verdammtes ‚Pech‘ mit dieser Stichprobe, oder in Wahrheit ist der Mittelwert nicht Null.“ - So könntest du den Kritiker überzeugen, dass doch was dran ist an deiner Messung. Die meisten Kritiker geben sich mit den 5% Irrtumswahrscheinlichkeit zufrieden. Je ungewöhnlicher oder Folgenschwere deine Behauptung aber ist, desto sicherer musst du sein; dann müssen vielleicht 1% oder weniger Irrtumswahrscheinlichkeit drin sein. Kannst du mit deinen daten diese Irrtumswahrscheinlichkeit nicht erreichen, haste Pech gehabt; du kannst keine Kritiker überzeugen und solltest den Mund halten.

unterer Wert der Differenzt des 95% Konfidenzintervalls:
-40,767

oberer Wert der Diffenrenz des 95% Konfidenzintervalls:
9,142

Das 95% Konfidenzintervalls gibt einen Bereich an, in dem mit 95% Wahrscheinlichkeit der wahre Mittelwert liegt. Man sieht hier, dass sich die Null INNERHALB des Bereichs befindet.

T
-1,351

Das ist der Testwert. und ist schlicht der Quotient aus Mittelwert und Standardfehler des Mittelwerts. Er folgt einer bekannten Wahrscheinlichkeitsverteilung (nämlich der „t-Verteilung“), mit welcher man dann die irrtumswahrscheinlichkeit und das Konfidenzintervall ausrechnen kann.

df
15

steht für „degrees of freedom“ und ist ein weiterer Parameter, den man für die Berechnung der t-verteilung braucht. In deinem Fall sind das die Anzahl der Wertepaare minus 1.

Sig (2seitig)
0,197

Das ist die Irrtumswahrscheinlichkait, auch „Signifikanz“ genannt. Es ist die Wahrscheinlichkeit, in gleichartigen Stichproben rein zufällig Mittelwerte zu bekommen, die um mehr als 15,8 (nach ober ODER unten; daher die „2seitig“) von der Null abweichen. Will heißen: jedes 5. Experiment (20%) würde auch dann Mittelwerte >15.8 oder

2 Like

Super, danke für deine ausführlichen Erklärungen - jetzt ist mir einiges klarer.
Eine Frage hätte ich aber jetzt doch noch:

Wenn die Signifikanz jetzt also über 0,05 ist, dann kann ich einfach davon ausgehen, dass der Test nicht signifikant ist und somit die Nullhypothese zutrifft, oder (wäre in meinem Fall ok, weil ich nachweisen will, dass sich nix ändert :smile:)

Nur wenn die Signifikanz unter 0,05 liegt, dann kann ich die Nullhypothese verwerfen, oder?

Wäre super, wenn du mir das noch sagen könntest, wäre eine riesen Hilfe!

Super, danke für deine ausführlichen Erklärungen - jetzt ist
mir einiges klarer.

Das freut mich. Es gibt Stidenten, denen ist das nach zwei Semestern und vielen Übungen immer noch nicht klar… :wink:

Wenn die Signifikanz jetzt also über 0,05 ist, dann kann ich
einfach davon ausgehen, dass der Test nicht signifikant ist

Ja: Der mittlere Unterschied zwischen den Gruppen/Behandlungen ist nicht signifikant auf einem Niveau von 5%. (Die mittlere Differenz ist nicht signifikant verschieden von Null auf einem Niveau von 5%).

Es ist m.E. wichtig, zu sagen, auf welchem Niveau man prüft. Es kann ja auch sein, Du legst laschere oder strengere Kriterien an als das 5%-Niveau.

und somit die Nullhypothese zutrifft, oder (wäre in meinem
Fall ok, weil ich nachweisen will, dass sich nix ändert :smile:)

NEIN! NEIN! GANZ WICHTIG!!!

Ein gescheiterter Versuch, die Nullhypothese abzulehnen, bedeutet NICHT zwangsläufig, dass sie zutrifft!!

Krasses (aber nicht sooo gutes Alltagsbeispiel): Vor Gericht. Dem Angeklagten wird vorgeworfen, dass seine mittlere Differenz von Null verschieden ist. Dem Gericht liegen einige Indizien (Daten der Stichprobe) vor. Der Anwalt des Angeklagten weist darauf hin, dass die Indizien nicht mit ausreichender Sicherheit belegen, dass der Angeklagte schuldig ist im Sinne der Anklage. Ohne ausreichende Faktenlage kann der Richter den angeklagten nicht verurteilen. Es bleibt auf freiem Fuß.

Klar:
Nullhypothese => der Angeklagte ist unschuldig;
Alternativhypothese => er ist schuldig,
Daten => Indizien,
Hypothesentest => legt die Beweiskraft der Indizien GEGEN den Angeklagten fest,
Verurteilung => richterliche Behauptung, der Angeklagte sei schuldig (mit den unangenehmen Folgen für den Angeklagten
Beweiskraft GEGEN den Angeklagten reicht NICHT aus -> also keine Verurteilung

Das KEINE Verurteilung erfolgt, ist kein BEWEIS dafür, dass der Angeklagte unschuldig ist! Er kann sehr wohl schuldig sein, nur lagen dem Gericht zur Urteilsfindung keine ausreichenden Indizien vor.

Wenn das Gericht eine extrem umfangreiche Indizienaufnahme vorgenommen hat und nach langer, gründlicher Recherche trotzdem keine ausreichende Menge belastender Indizien gesammelt werden konnten, DANN kann man ruhigen Gewissens davon ausgehen, dass der Angeklagte tatsächlich unschuldig ist.

In der Statistik läßt sich das natürlich quantifizieren. Hierzu ist wichtig zu wissen, mit welcher Sicherheit man einen Effekt welcher Größe als „signifikant“ nachweisen können will, wenn er (der Effekt) denn da ist. Man muss also einen interessierenden Mindesteffekt festlegen. Außerdem muss man wissen, wie die zu messenden Daten dann so streuen. Das entnimmt man der Literatur oder einer Pilotstudie.

Mit diesem Wissen (Mindesteffektstärke, Varianz, gewünschtes Signifikanzniveau, gewünschte Sicherheit) macht man dann Stichprobenplanung oder (a priori) Power-Analyse. Hierbei wird berechnet, wie groß eine Stichprobe sein muss, um die o.g. Kriterien erfüllen zu können.

Dann erst erhebt man die eigentlichen Daten und wertet sie aus.

Jetzt gibt es zwei Möglichkeiten:
a) das Ergebnis ist statistisch signifikant oder
b) es ist nicht statistisch signifikant.

Bei a) ist die Sache klar: Die Nullhypothese wird abgelehnt. Bei b) hätten wir ohne die Stichprobenplanung jetzt keine Aussage treffen können. Mit Stichprobenplanung aber haben wir die Kenntnis darüber, dass wir mit der o.g. Sicherheit ein sig. Ergebnis bekommen hätten, wenn der Effekt mindestens so groß ist wie der o.g. Mindesteffekt. Nun ist der Fall eingetreten: Wir haben kein sig. Ergebnis. Jetzt ist der Umkehrschluß erlaubt: Mit der o.g. Sicherheit ist der wahre Effekt KLEINER als der Mindesteffekt. (Beachte: auch hier wird nicht die Wahrscheinlichkeit FÜR die Nullhypothese gegeben; es wird NICHT behauptet, der Effekt sei genau gleich Null, sondern nur für die Menge der Fälle, in denen er kleiner ist als ein Grenzwert).

Nur wenn die Signifikanz unter 0,05 liegt, dann kann ich die
Nullhypothese verwerfen, oder?

Ja, und zwar auf dem Niveau von 5%.

Ist die Signifikanz kleiner als 0,01, dann kann man auch auf einem Niveau von 1% ablehnen. Ist die Signifikanz 0,18, dann könnte man noch auf einem Niveau von 18% ablehen, aber das kommt nicht gut an!

Also nochmal, das ist wichtig: Wenn du die ABWESENHEIT eines Effekts nachweisen willst, dann musst du eine Stichprobenplanung machen. Dazu mußt du wisssen bzw. festlegen:

a) Wie groß wird die Streuung der Daten sein?
b) Welcher Effekt ist mindestens relevant?
c) Mit welcher Sicherheit soll ein Mindesteffekt nachgewiesen werden können?
d) Auf welchem Signifikanzniveau soll geprüft werden?

Den Punkt c) nennt man auch die „Power des Tests“. Sie sollte über 90%, besser bei 95% liegen.

Dann berechnest du mit einer Poweranalyse bzw. Stichprobenplanung den nötigen Stichprobenumfang. Dann machst du das Experiment und wertest es aus. Dann ziehst du die Schlussfolgerung unter berücksichtigung der Stichprobenplanung.

VG
Jochen