Fragen zu Statistik / Empirie

Hallo!

Da ich des öfteren empirische Studien lese, und oft auch Zugang zu den Urdaten habe, ist mir aufgefallen, dass sehr viel mit Ratings bzw. z.B. Likert-Skalen mit 4-7 Abstufungen, meistens mit 5 Abstufungen gearbeitet wird. Es wird eine Aussage gemacht und per Ankreuzen auf diesen Skalen der grad der Zustimmung erhoben.

1.) Fast immer werden die Daten mittels Verfahren für metrische Daten analysiert, obwohl es sich ja streng genommen um ordinale Daten handelt.

2.) Die Normalverteilungsannahme wird meist ohne Test vorausgesetzt obwohl, wenn man denn mit Kolmogorov Smirnov in SPSS testet, fast nie (auch bei augenscheinlich der Normalverteilung ähnlichen erteilungen) die Normalverteilungsannahme akmzwptiert werden kann.

3.) Ich habe bisweilen den Fall erlebt, wo nach herauspartialisieren einer vermeintlichen Moderatorvariable aus einer Korrelation diese nicht schwächer, sondern stärker(!) ausfällt. Ich dachte , das sei unmöglich, da doch ein gewisser Streuungsbetrag immer durch die Drittvariable erklärt wird.

4.) Ich hatte bei einer Regression einen negativen Beta-koeffizienten, obwohl die beiden Variablen positiv korrelliert waren.

Könntet Ihr mir helfen

1.) die Mysterien bei 3. und 4. zu verstehen
2.) Einen Tipp geben, wie man das „laxe“ Vorgehen bei 1. und 2. vernünftig begründen kann, oder wie man es ggf. besser macht.

Herzlichen dank für Eure Hilfe!

Er hat bereits Experten angeschrieben. owt
.

.

Oh Gott, das christliche Abendland ist dem Untergang geweiht.

Nach einer Welle von bösen Doppelpostern nun auch noch ein verkommener Mensch der es wagt zwei Gruppen die gleiche Frage zu stellen.

Na dann mal schnell alle Welt darauf hinweisen, bevor ihm jemand hilft.

Holger (bei so einem Thema ohne Anrede und Gruß!)

PS: leider kann ich dem Ursprungsposter inhaltlich nicht helfen, deshalb diese Antwort aber keine inhaltliche.

PPS: okay, Beitrag ist offtopic. Ich werde es auch nicht weiter vertiefen.

Hallo nochmal,

es geht mir nicht nur darum, selbst eine Antwort zu erhalten, sondern wegen des im Posting angesprochenen Verbreitungsgrades dieses Problems könnte es auch für Dritte interressant sein. Daher auch dieses öffentliche Posting.

Hi fellow,

> 1.) Fast immer werden die Daten mittels Verfahren für metrische Daten
> analysiert, obwohl es sich ja streng genommen um ordinale Daten
> handelt.

ja. Die Rechtfertigung dafür ist folgende:

Wenn man solche Daten wie intervallskalierte Daten behandelt, in dem man z.B. Summen, Mittelwerte, Varianzen bildet, so ist das Verfahren in dem Maße gerechtfertigt, wie die aus den statistischen Ergebnissen abgeleiteten Aussagen valide sind.

Diese Rechtfertigung findet man z.B. bei Lord & Novick (1968) und impliziert, daß die externe Validität der verwendeten Skalen notwendigerweise überprüft werden muß.

Bortz (2005) führt zudem an, daß die Wahl eines falschen Skalenniveaus es erschweren würde, die inhaltlichen Hypothesen zu bestätigen.

Die ganze Problematik stellt sich natürlich nicht, wenn man auf die Urdaten ein Meßmodell (z.B. das Rasch-Modell) anwendet und mit diesem Modell Meßwerte berechnet, die mindestens intervallskaliert sind.

> 2.) Die Normalverteilungsannahme wird meist ohne Test vorausgesetzt
> obwohl, wenn man denn mit Kolmogorov Smirnov in SPSS testet, fast nie
> (auch bei augenscheinlich der Normalverteilung ähnlichen
> Verteilungen) die Normalverteilungsannahme akzptiert werden kann.

Das ist unproblematisch, wenn man hinreichend große Stichproben hat (n > 30 ungefähr) und statistische Verfahren verwendet, die gegen die Verletzung der Normalverteilungsannahme robust sind (z.B. t-Test). Bei großen Stichproben macht die Testung der Normalverteilungsannahme übrigens nicht so viel Sinn, da schon kleinere, zu vernachlässigende Abweidchungen von der Normalverteilung zur Verwerfung der Normalverteilungsannahme führen würden.

> 3.) Ich habe bisweilen den Fall erlebt, wo nach herauspartialisieren
> einer vermeintlichen Moderatorvariable aus einer Korrelation diese
> nicht schwächer, sondern stärker(!) ausfällt. Ich dachte , das sei
> unmöglich, da doch ein gewisser Streuungsbetrag immer durch die
> Drittvariable erklärt wird.

Doch, der Fall ist möglich, z.B. wenn die Drittvariable mit einer der beiden Variablen zu Null korreliert. Ein anderer Fall: Die Drittvariable korreliert mit einer der beiden Variablen negativ. Kann man sich leicht klar machen, wenn man in die Formel der Partialkorrelation ein paar Werte einsetzt und beobachtet, was passiert.

> 4.) Ich hatte bei einer Regression einen negativen
> Beta-koeffizienten, obwohl die beiden Variablen positiv korrelliert
> waren.

Das kann vorkommen, wenn die Prädiktoren in einer multiplen Regressionsanalyse miteinander korrelieren. Das Stichwort ist: Multikollinearität.

Beste Grüße,

Oliver Walter