Test auf Gleichheit

Hallo Statistiker,

Es gibt ja 'ne Menge Hypothesentests mit der Nullhypothese „beide (Mittel-)Werte sind gleich“. Ich weiß, dass eine nicht-vorhandene Überzufälligkeit des beobachteten Ergebnisses unter der Nullhypothese eben nicht _für_ die Nullhypothese spricht.

Gibt es auch ein Testverfahren, mit dem sich die Irrtumswahrscheinlichkeit für die Hypothese „beide Werte sind ungleich“ kontrollieren kann?

Näheres:

Es geht darum, in einer Reihe von Gruppen von Messwerten (z.B. 5-10 Gruppen mit jeweils 5-30 Messwerten) diejenigen Gruppen herauszufinden, deren Messwerte nicht von Null verschieden sind. Nach obiger Anmerkung ist es ja gerade _nicht_ sinnvoll, daß man testet, welche Gruppen von Null verschiedene Messwerte haben (H0: A=B) und alle, für die das nicht statistisch signifikant ist, als „gleich Null“ betrachtet.

In diesem speziellen Fall hat man sogar noch Vermutungen über bestimmte Gruppen, daß sie „gleich Null“ seien. Jemand hat einen Ansatz vorgeschlagen, diese Information zu nutzen, indem eine Clusteranalyse nach einer Datenreduktion über eine Principal Component Analyse gemacht wird und eine „sinnvolle“ Gruppe von Clustern, welche „möglichst viele“ der bekannterweise „gleich-Null“-Gruppen enthält, als „Null-Gruppen-Cluster“ zusammengefaßt wird (uiuiui, ich hoffe, das versteht noch einer…). Also, ich halte diesen Ansatz für nicht gut, kann das aber rational nicht begründen.

Auf Nachfrage gibt es auch gerne genauere Auskunft…

Ich bin dankbar für jede Hilfe!

LG
Jochen

Hallo nochmal,

Inzwischen ist mit folgendes eingefallen:

Könnte man nicht alle Gruppen für die bekannterweise gilt: „Mittelwert=Null“ zusammenstecken und dann alle möglichen Kombinationen mit den verbleibenden Gruppen bilden und für jede mit einem H-Test nach Kruskal-Wallis testen, welche Gruppen-Kombinationen aus einer Grundgesamtheit stammen?

Beispiel:

Gruppen 1 bis 10, davon ist von den Gruppen 2,5 und 6 bekannt, dass der Mittelwert 0 ist. Also nimmt man diese Gruppen heraus:

2,5,6

Dann geht’s los:
Kombination 1: 2,5,6 und 1
Kombination 2: 2,5,6 und 3
Kombination 3: 2,5,6 und 4
.
.
.
Kombination i: 2,5,6 und 1,3
Kombination i+1: 2,5,6 und 1,4
.
.
.
Kombination n: 2,5,6 und 1,3,4,7,8,9,10

Für alle diese Kombinationen liefert der H-Test einen p-Wert. Nun könnte man (darf man das?) den p-Wert der ausschließlich bekannten Gruppen (2,5,6) als „cut-off“ nehmen und die Kombination mit den meisten Elementen, deren p-Wert maximal so groß ist, als die Kombination alles Gruppen mit einem Mittelwert von Null betrachten.

(das Verfahren läßt sich rechnerisch stark optimieren, ich weiß - hier geht’s nur ums Prinzip…)

Was sagen die Profis dazu?

LG
Jochen

Hallo Jochen,

was Du ansprichst, ist ein bekanntes Problem beim Hypothesentesten. In dem Fall, daß man die Nullhypothese bestätigen möchte, ist es nicht mehr der Alpha-Fehler, den man kontrollieren muß, sondern der beta-Fehler (fälschliche Annahme von H0, obwohl H1 gilt). Über den beta-Fehler kann man jedoch m.W. keine Aussage machen, wenn H1 lautet: non H0. Man behilft sich damit, daß man den alpha-Fehler erhöht, wodurch der Test leichter signifikant wird. Der Grund für die Erhöhung des alpha-Fehlers besteht darin, daß der beta-Fehler mit größerem alpha-Fehler tendenziell abnimmt.

Ich setze den alpha-Fehler in solchen Fällen gewöhnlich auf 30%, d.h. ich bewerte alle Signifikanzniveaus unter 0,3 als signifikant, wenn ich die Nullhypothese überprüfen möchte.

Grüße,

Oliver Walter

Hallo Biologe mit Chemie als Nebenfach. :wink:

Gibt es auch ein Testverfahren, mit dem sich die
Irrtumswahrscheinlichkeit für die Hypothese „beide Werte sind
ungleich“ kontrollieren kann?

Ungleich Null etwa ? Na klar, jede Menge. Einer davon heisst Varianzanalyse.
Oder doppelter t-Test…
Natürlich unter der Bedingung, dass das Gegebene und das Gesuchte strikt eingehalten wird.
Literatur: „Taschenbuch der Statistik“ von Werner Voß u.a.

Näheres:

Es geht darum, in einer Reihe von Gruppen von Messwerten (z.B.
5-10 Gruppen mit jeweils 5-30 Messwerten) diejenigen Gruppen
herauszufinden, deren Messwerte nicht von Null verschieden
sind. Nach obiger Anmerkung ist es ja gerade _nicht_ sinnvoll,
daß man testet, welche Gruppen von Null verschiedene Messwerte
haben (H0: A=B) und alle, für die das nicht statistisch
signifikant ist, als „gleich Null“ betrachtet.

Hm, meine Idee wäre jede einzelne dieser Gruppen auf H0:nü=0 und H1:nü!=0 zu testen. Danach lassen sich die Gruppen tatsächlich zusammenfassen. Übrigens unter Beachtung des Verteilungstyps.
Ich zitiere aus obigem Buch: „Bei einer Klassifikation auf stoch. Basis muß im allg. vorausgesetzt werden, daß die Daten durch einen Zufallsprozess erzeugt wurden, in dem sich versch. mehrdimensionale Normalverteilungen gemischt haben“

In diesem speziellen Fall hat man sogar noch Vermutungen über
bestimmte Gruppen, daß sie „gleich Null“ seien. Jemand hat
einen Ansatz vorgeschlagen, diese Information zu nutzen, indem
eine Clusteranalyse nach einer Datenreduktion über eine
Principal Component Analyse gemacht wird und eine „sinnvolle“
Gruppe von Clustern, welche „möglichst viele“ der
bekannterweise „gleich-Null“-Gruppen enthält, als
„Null-Gruppen-Cluster“ zusammengefaßt wird (uiuiui, ich hoffe,
das versteht noch einer…). Also, ich halte diesen Ansatz für
nicht gut, kann das aber rational nicht begründen.

s.o. sowie das genannte Buch (S. 566ff)
Zitat Varianzanalyse (S.437): „Die zu prüfende Nullhypothese lautet: Alle Stichproben stammen aus der gleichen Grundgesamtheit, oder anders formuliert: Die beobachteten Mittelwertunterschiede sind nur zufälliger Natur und statistisch nicht signifikant“

HTH
mfg M.L.

***freu,freu***
Die erneute Reparatur meines MINI-SAP Systems war erfolgreich. Und das ohne Linux erneut zu installieren :smile:

A Priori Vergleiche, Kontraste.
Hi,

Dein unten nachträglich dargelegter Ansatz trifft es im Wesentlichen.
Allerdings musst du mit dem Gruppieren etwas anders vorgehen.
Du musst die Gruppenmittelwerte derart gewichten, dass die Summe aller Gewichtungsfaktoren = 2 ergibt. Mittelwerte Null positive Gewichtungsfaktoren.
Auf die nun so skalierten Mittelwerte wendest du Kruskal Wallis an.
Durch die Skalierung ist nämlich sichergestellt, dass alle von dir genannten Annahmen „drin“ sind und somit der Omnibus Test (testet alles gleichzeitig, hier: K.W.) gültig ist.

Google mal mit den Stichworten
„Lineare Kontraste, A Priori“.

Alles Andere halte ich in deinem Fall für Suboptimal.
Um das Beta Risiko in den Griff zu bekommen könnte man zwar eine bedeutsame Effektstärke definieren, aber man kommt dann um paarweises Testen nicht herum, was rein signifikanzmässig problematisch werden kann.

Gruss,

Nachtrag
Hi,

natürlich geht auch ANOVA, falls die Voraussetzungen gegeben sind.
(Im Wesentlichen gleiche Varianz in allen Gruppen)

Gruss,

Hsllo Oliver,

Über den beta-Fehler kann man
jedoch m.W. keine Aussage machen, wenn H1 lautet: non H0.

Doch das kann man, wenn eine stark stetig parametrisierte Verteilungsannahme und ein gleichmäßig bester Test vorliegen.

Man
behilft sich damit, daß man den alpha-Fehler erhöht, wodurch
der Test leichter signifikant wird. Der Grund für die Erhöhung
des alpha-Fehlers besteht darin, daß der beta-Fehler mit
größerem alpha-Fehler tendenziell abnimmt.

Ja, aber letzteres gilt nur bei unverfälschten Tests (in der Praxis nicht immer gegeben). Die Lösung ist ein sogenannter Alternativtest, mit dem man sowohl den Fehler 1. Art als auch den Fehler 2. Art kontrollieren kann. Bei stark stetig parametrisierten Verteilungsannahmen konstruiert man sich Hypothesen mit positivem Abstand (Indifferenzzone) und kann damit beide Fehler klein halten.

Viele Grüße
Katharina