Statistik - Unterschied zweier Schulklassen

Hallo,

ich habe hier mehrere Aufgaben gleichen Typs, bei denen mir jeglicher Ansatz fehlt. Vielleicht habt Ihr eine Idee, wie ich das rechnen soll.

Es geht in einer Aufgabe um zwei Schulklassen, die eine Vergleichsarbeit schreiben. In der ersten Klasse befinden sich 40 Schüler, die eine durchschnittliche Note von 74 Punkten erreichen bei einer Standardabweichung von 8. Die zweite Klasse, mit 50 Schülern, schreibt durchschnittlich 78 Punkte bei einer Standardabweichung von 7.

Die Frage lautet: Kann ein Unterschied in der Leistung der Schüler im Rahmen von a) 5% bzw. b) 1% festgestellt werden?

Ich hoffe, mir kann jemand einen guten Tip geben. Viele Grüße,

Bernhard

t-Test. owt.
.

Hallo.

Taschenbuch der Statistik, Rinne Seite 396
Test auf Mittelwerte bei bekannten sigma… =t-Test
Ansatz: n1=40, nü1=74, sigma1=8 n2=50, nü2=78,sigma2=7
Hypothese H0: nü1 - nü2 = 0
Prüfgrösse: |nü1-nü2-0| / SQRT[(sigma1^2/n1 + sigma2^2/n2)]
Ablehnbereich ( u 1-alpha/2; 00 )

Zahlen einsetzen und selbst ausrechnen, dann in Tabelle der t-Verteilung den richtigen Wert raussuchen und prüfen ob Tabellenwert >, = ,

Hallo,

die korrekte Antwort zu diesen Frage ist:

Es liegen nicht ausreichend Informationen vor, um das beurteilen zu können!
Warum? Die beiden anderen hatten dir den t-Test vorgeschlagen - das ist daber unter den gegebenen Umständen NICHT der richtige Test!
Der t-Test gibt nur eine vernünftige Aussage, wenn die Grundgesamtheiten (zumindest näherungsweise) verteilt sind. Das ist bei Punkte-Wertsystemen (Schulnoten, Klausurpunte etc.) sicher nicht gegeben. Wenn es aber vermutet wird, so sollte das wenigstens vorher auch _gezeigt_ werden. Du hast keine Angabe über die Verteilungen - diese Wichtige Information fehlt also.

Hier wäre ein Rangkorrelationstest (z.B. exaker Test nach Wilcoxon) m.E. eher angebracht! Alternativ ist ein Permutationstest auch nie verkehrt. Der erfordert allerdings die Kenntnis der einzelnen Meßwerte (Punkte), die aber sind nicht gegeben - also fehlt auch dazu die nötige Information.

Bleibt der Ausweg: „Dann nehmen wir halt an, daß die Daten schon so in etwa normalverteilt sind und nehmen halt den t-Test…“. Dieser Ausweg ist unsinnig im Hinblik auf die Frage nach dem 1% bzw. 5%-Niveau: der Fehler bzw. die Unsicherheit über die Verteilungsannahme ist größer als 5%, da ist es müßig, unter dieser „Grund-Unsicherheit“ eine statistische Testsicherheit zu fordern, die das unterschreitet.

Gruß,
Jochen

Hallo.

Ich will nicht abstreiten, dass Jo… teilweise Recht hat. An der Form der Fragestellung merkt man nämlich wie schlampig Nicht-Mathematiker mit Mathematik jeglicher Couleur umgehen können :-/ Andererseits fehlen für die anderen Tests andere wichtige Informationen und gemessen an meinen Quellen ist der t-Test das Sinnvollste :wink:

Okay, Bronstein „Taschenbuch der Mathematik“ Seite 686f: für 5% gilt u(alpha)= 1,96, für 1% die 2,33
Prüfgrösse wird wie in meinem Beitrag berechnet. Falls |u| > u(alpha) wird H0 verworfen.

HTH
mfg M.L.

Hi,

die explizite Erwähnung von Standardabweichungen in der Aufgabenstellung lässt meiner Meinung nach unmissverständlich auf Normalverteilung schliessen.
Dies ist ja „nur“ eine Übungsaufgabe, da müssen die genannten Voraussetzungen nicht unbedingt praxisnah sein.
(Natürlich sind Schulnoten nicht normalverteilt)
Gruss,

Hallo Jochen,

Der t-Test gibt nur eine vernünftige Aussage, wenn die
Grundgesamtheiten (zumindest näherungsweise) [normal]verteilt sind.

gegen Abweichungen von der Normalverteilung ist der t-Test für unabhängige Stichproben recht robust. Um diese Annahme muß man sich daher kaum Sorgen machen. Im Zweifelsfall ist eine ausreichend große Stichprobe (-> zentraler Grenzwertsatz) zu ziehen.

Hier wäre ein Rangkorrelationstest (z.B. exaker Test nach
Wilcoxon) m.E. eher angebracht!

Der Wilcoxon-Test erfordert die symmetrische Verteilung der Rangdifferenzen. Ob dieser Test eine bessere Alternative als der t-Test ist, muß im Einzelfall geprüft werden.

Abgesehen davon kommt es beim Einsatz statistischer Verfahren immer auf die Passung der Methode zur inhaltlichen Fragestellung an. Dazu hat der Erstposter kaum etwas geschrieben, sondern es wurde durch die Antwortenden einfach angenommen, daß auf Erwartungswertunterschiede getestet werden soll. und dann der t-Test empfohlen.

Grüße,

Oliver Walter

Hallo,

die explizite Erwähnung von Standardabweichungen in der
Aufgabenstellung lässt meiner Meinung nach unmissverständlich
auf Normalverteilung schliessen.

Tut es nicht. Die Standardabweichung ist ein Dispersionsmaß - unabhängig von der Verteilung! Auch gleich-, binomial-, lognormal- usw-verteilte Größen haben eine Standardabweichung!

Dies ist ja „nur“ eine Übungsaufgabe, da müssen die genannten
Voraussetzungen nicht unbedingt praxisnah sein.

Ok. Aber es hätte ruhig als Hinweis im Aufgabentext stehen können, daß man annehmen könne/solle, daß die Daten normalverteilt sind. Das wär ja schonabsolut ausreichend gewesen.

Darüberhinaus werden diese Zusammenhänge nicht nur in der Schule nicht, sondern darüber hinaus auch im (Nichtstatistik)Studium nie korrekt vermittelt. Schließlich tümmeln sich Heerscharen von „Lebenswissenschaftlern“ und Medizinern (eigene Erfahrung) in der Forschung, die jeden Tag irgendwelche p-Werte ausrechnen und „nicht-signifikante“ Ergebnisse unbeachtet lassen, ohne zu verstehen, welcher Test warum wo (keinen) Sinn macht! Das macht mir Sorgen, und ich finde, man kann und sollte das - auch wenn’s „nur“ Übungsaufgaben sind, ruhig berücksichtigen.

Abgesehen davon stimme ich Dir natürlich grundsätzlich zu.

Grüße,
Jochen

Hallo Oliver,

Ok. Zur Begründung aber s. Antwort auf Helge.

Dazu habe ich eine weitere Frage:

…Im Zweifelsfall ist eine
ausreichend große Stichprobe (-> zentraler Grenzwertsatz)
zu ziehen.

Der zentrale Grenzwertsatz besagt, daß die Summe von Zufallszahlen näherungsweise normalverteilt ist (für hinreichend große n und bei beliebiger Verteilung der Ausgansdaten). Das gilt dann natürlich auch für den Mittelwert, der ja der n-te Teil der Summe ist. Im t-Test werden ja auch die Mittelwerte verglichen, und das betrachtete Streumaß ist der Standardfehler des Mittelwertes. Und das ist meine Frage: Selbst, wenn die Mittelwerte großer Stichproben normalverteilt sind, muß ich dann nicht die Standardfehler anpassen, die ich ja aus der (nichtnormalen) Verteilung der Urdaten berechne?

Danke schonmal und Grüße,

Jochen

Hallo Jochen,

Zur Begründung aber s. Antwort auf Helge.

die Antwort ist o.k. und erfährt durch mich Unterstützung.

Im t-Test werden ja auch die Mittelwerte verglichen, und das betrachtete
Streumaß ist der Standardfehler des Mittelwertes. Und das ist
meine Frage: Selbst, wenn die Mittelwerte großer Stichproben
normalverteilt sind, muß ich dann nicht die Standardfehler
anpassen, die ich ja aus der (nichtnormalen) Verteilung der
Urdaten berechne?

Meiner Kenntnis nach gilt die bekannte Formel (s/Wurzel(n)) unabhängig von der Art der Verteilung. Du schriebst selbst an Helge, daß die Streuung unabhängig von der Verteilung berechnet werden kann. Modifikationen der Formel kenne ich allerdings für den Fall, daß die Stichproben nicht zufällig gezogen wurden.

Grüße,

Oliver Walter

Hallo Oliver,

Meiner Kenntnis nach gilt die bekannte Formel (s/Wurzel(n))
unabhängig von der Art der Verteilung. Du schriebst selbst an
Helge, daß die Streuung unabhängig von der Verteilung
berechnet werden kann. Modifikationen der Formel kenne ich
allerdings für den Fall, daß die Stichproben nicht zufällig
gezogen wurden.

Die Standardabweichung ist nichts weiter als die Wurzel der Varianz, also dem mittleren Abweichungsquadrat. Diese statistische Maßzahl ist zunächst einfach nur eine statistische Maßzahl. Meiner Kenntnis nach gewinnt sie eine weitere, besondere Bedeutung im t-Test für _normalverteilte_ Werte.

Ok, unabhängig davon habe ich mal „empirisch“ probiert, was ich vermutet habe, und möchte das auch gleich als Beispiel nehmen:

Ich habe in Excel Zufallzahlen generieren lassen: 1000 normalverteilte (MW=50, SD=30) und 1000 gleichverteilte (Bereich 0-100, ergibt MW=50 und SD=30). Diesen je 1000 Werten habe ich dieselben 1000 Werte gegenübergestellt, allerdings jeden Wert um einen bestimmten Betrag erhöht.

Für die addierten Konstanten C zwischen 3 bis 15 habe ich die p-Werte der Funktion TTEST im Vergleich zu den Originaldaten berechnet (2-seitig, gleiche Varianz). Natürlich werden die p-Werte mit steigendem C immer kleiner. Allergings wird die 0.05-Marke für gleichverteilte Werte schon bei C=6.6 erreicht, während bei normalverteilten Daten schon C=8.3 addiert werden müssen, damit der TTEST einen Alphafehler von 5% unterschreitet. Ich folgere daraus: Wenn ich einen T-Test auf gleichverteilte Daten mache, wird mir ein zu geringer Alphafehler berechnet. Sehe ich das falsch? Bzw. wo ist mein Denkfehler?

Dankbar für Bestätigung oder Hilfe,

Jochen

Hallo Jochen,

Ich folgere daraus: Wenn ich einen T-Test auf
gleichverteilte Daten mache, wird mir ein zu geringer
Alphafehler berechnet. Sehe ich das falsch? Bzw. wo ist mein
Denkfehler?

es geht um die Verteilung der Mittelwerte. Diese Verteilung ist unbekannt bei kleiner Stichprobengröße, wenn die Verteilung der Meßwerte nicht normal ist. Nun rechnest Du EINMAL bei einem konkreten C-Wert. Du bekommst irgendeinen Mittelwert heraus. Damit ist die *Verteilung* der Mittelwerte immer noch unbekannt. Um sie gut zu schätzen, braucht man Simulationsstudien mit Hunderten von Rechendurchgängen.

Abgesehen davon besagt der Begriff „Robustheit“ nicht, daß es keine Abweichungen gibt, sondern daß sie nicht sehr groß sind.

Grüße,

Oliver

Hallo Oliver,

Um sie gut zu schätzen, braucht man
Simulationsstudien mit Hunderten von Rechendurchgängen.

Ich habe die „Studie“ nochmal wiederholt, diesmal aber deutlich umfangreicher:

10000 Durchgänge, je Durchgang zwei unabhängige, neue Stichproben mit Umfang n=100 (µ=50, s=30, entweder beide gleichverteilt oder normalverteilt), das Ganze für Mittelwertunterschiede C von 3 bis 13 in Teilschritten von 0.1.

Das habe ich nicht mehr mit Excel gemacht, sondern mit R.

Das Ergebnis ist interessant: Du hast Recht! Es gibt keinen erkennbaren Unterschied im Ergebnis des T-Tests für die beiden Verteilungen.

Für C=3 ist der Median von p der 10000 Durchläufe = 0.5, der Interquartilsbereich (IQR) geht von 0.25 bis 0.85. Die IQR wie der Median fallen mit zunehmendem C sigmoidal ab. Bei C=13 ist der Median etwa 0.016, der IQR liegt bei ca. 0.001 - 0.1 (die Verteilung der p-Werte wird also mit steigendem C deutlich schief! Für C=3 ist die Verteilung nahezu uniform, für größere C sieht die Dichtefunktion aus wie A/p+B [p ist der p-Wert, A und B sind Parameter der Dichtefunktion; die Dichte fällt nicht auf Null]).

Wie gesagt, das gilt für beide Verteilungsformen gleichermaßen. Die je 100 Mediane der je 10000 p-Werte beider Verteilungsformen gegeneinander abgetragen liegen sehr gut auf einer Winkelhalbierenden.

Interessant ist, daß das Ergebnis in Excel sehr sauber aussah und eine gänzlich andere Aussage hatte. Ich glaube nicht, daß das alleine am kleineren Stichprobenumfang lag. Ein Kernproblem wird wohl die Vereinfachung gewesen sein, daß nicht wirklich unabhängige Stichproben gezogen wurden. Dazu kommt evtl, daß die Funktion TTEST von Excel nicht immer richtig funktioniert (ich traue Excel nicht so sehr - kann’s aber nicht belegen).

Grüße und Danke für die Denkanstöße!

Jochen

Volle Zustimmung
Hi,
auch dafür:

Tut es nicht. Die Standardabweichung ist ein Dispersionsmaß -
unabhängig von der Verteilung! Auch gleich-, binomial-,
lognormal- usw-verteilte Größen haben eine Standardabweichung!

Völlig richtig.

Gruss,

Excel an sich
Hi,

es gehört seit längerem zum gesicherten Wissen, dass Excel Statistikfunktionen nicht immer richtig rechnen.
Das gilt sogar für so einfache Funktionen wie STABW.
Im Web gibt es Sogar Rechenbeispiele.
Aus eigener Erfahrung weiss ich auch, dass der t-Test in Excel manchmal nicht tut. Man merkt das besonders bei sehr kleinen Stichproben, die man im Kopf noch nachrechnen kann. (Ok, da ist der Test zwar nicht mehr gültig, aber das kann doch Excel nicht wissen)
Gruss,