Hi Julian,
Geht SPSS vernünftig und konservativ mit Bindungen
hinsichtlich des Verwerfens der H0 vor, so dass ein
Testergebnis valide ist? Kann ich hierzu etwas zitieren?
Zuerst würde ich nachsehen, was SPSS im Falle von Bindungen macht. Dann würde ich mir überlegen, ob ich das okay finde und mit pseudodaten herumspielen um ein Gefüh für das Ausmass des Vorgehens bei Bindungen zu bekommen.
Ich vermute, dass SPSS die Bindungen ignoriert und dann die Teststatistik nur auf Basis der nicht-Bindungen berechnet. Das kann insofern irreführend sein, also dass bspw bei 1000 Bindungen (die ja keine Veränderung bedeuten) und 20 nicht-bindungen ein sig. ergebnis herauskommt, weil für den kritischen Wert nur n=20, statt 1020 verwendet wird.
Bzgl. der Normalverteilung. Kann ich nicht so in meiner
Argumentation vorgehen: Nach Shapiro prüfe ich auf
Normalverteilung, da diese nicht gegeben ist, kann ich aber
auf die Gegebenheit n > 30 springen, wie dies Sachs in seinem
Buch „Angewandte Statistik“ schreibt. Und zur Überprüfung, des
Testergebnisses führe ich noch einen NP-Test durch, der
allerdings an Teststärke verliert, sofern doch eine
Normalverteilung in der Grundgesamtheit vorliegt!?
bei dem vorgehen würde ich dich fragen, arum du dann überhaupt getestet hast. Du overrulest den Test ja in genau dem Fall, wenn etwas herauskommt, was dir nicht passt um dann ein Arguemtn herzunehmen (n> 30) was sowieso gegeben ist. D.h. du wolltest dich eh nur absichern, aber sowieso einen t-test machen.
Wenn du aber dem outcome des tests aber nicht folgen willst, dann kannst du ihn dir auch gleich sparen.
Aber bei n>30 (von welchem n reden wir eiegentlich, n=2000 oder n=31?) mit Näherung durch die Normalverteilung zu kommen ist - naja - etwas altmodisch. R (wilcox.test) bspw zieht die Normalverteilung erst bei n>50 heran und auch sonst hat sich schon einiges getan in den letzten 24 Jahren. Nen paar neue schmöcker wären da mal angebracht 
Irgendwie verstehe ich es noch nicht so ganz. Im Prinzip ist
ja die Normalverteilung der Grundgesamtheit entscheidend nicht
der der Stichprobe, oder?
Nein. Deine GG liegt ja nicht zum testen vor, sondern eben nur deine Stichprobe.
Der Shapiro-Wilk testet aber quasi,
ob die Stichprobenrealisation von einer NV-Grundgesamtheit
stammen kann, wenn das abgelehnt wird, dann könnte man doch
mit dem n > 30 kommen, oder?
Hä? ne.
Der test gibt einen p-Wert von sagen wir 0.0002 aus, und du willst dann argumentieren, dass die GG normalverteilt sei, weil deren n > 30 ist? Dann ist jede GG normalverteilt - schön, aber das nützt dir nichts. du musst ja mit der Verteilung deiner Daten arbeiten, weil das das einzige ist, was du hast.
Zur Symmetrie: Büning und Trenkler 1994 schreiben bei den
Voraussetzungen beim Wilcoxon-Test: Die Verteilung der
Differenzen Di = Yi - Xi sind symmetrisch um den Median M.
Beim Vorzeichen-Test erwähnen sie diese Voraussetzungen nicht.
Ich habe in meinen drei Differenzen einmal einen Schiefewert
von 0,819; 0,008 und -0,279. Bei ersteren und letzterem kann
man wohl von Schiefe reden, oder? So müsste man doch den
Vorzeichentest anwenden müssen und können!?
Ja, kannst du. aber:
die Verteilung der Diffs für den wilcox werden vorausgesetzt, weil man eine abweichung des lageparameters von 0 testen will und keine abweichung von der Verteilung.
Spiel mal ein wenig mit R (http://www.r-project.org/), bei
set.seed(7);x=rnorm(n=10009); wilcox.test(x=x, mu=median(x))
kommt p-value = 0.7755 heraus, macht auch Sinn, da die Verteilung symmetrisch ist und man gegen ihren eigenen Mittelwert testet.
Hingegen:
set.seed(7);x=rlnorm(n=10009); wilcox.test(x=x, mu=median(x))
ergibt p-value