Hallo Statistiker,
Es gibt ja 'ne Menge Hypothesentests mit der Nullhypothese „beide (Mittel-)Werte sind gleich“. Ich weiß, dass eine nicht-vorhandene Überzufälligkeit des beobachteten Ergebnisses unter der Nullhypothese eben nicht _für_ die Nullhypothese spricht.
Gibt es auch ein Testverfahren, mit dem sich die Irrtumswahrscheinlichkeit für die Hypothese „beide Werte sind ungleich“ kontrollieren kann?
Näheres:
Es geht darum, in einer Reihe von Gruppen von Messwerten (z.B. 5-10 Gruppen mit jeweils 5-30 Messwerten) diejenigen Gruppen herauszufinden, deren Messwerte nicht von Null verschieden sind. Nach obiger Anmerkung ist es ja gerade _nicht_ sinnvoll, daß man testet, welche Gruppen von Null verschiedene Messwerte haben (H0: A=B) und alle, für die das nicht statistisch signifikant ist, als „gleich Null“ betrachtet.
In diesem speziellen Fall hat man sogar noch Vermutungen über bestimmte Gruppen, daß sie „gleich Null“ seien. Jemand hat einen Ansatz vorgeschlagen, diese Information zu nutzen, indem eine Clusteranalyse nach einer Datenreduktion über eine Principal Component Analyse gemacht wird und eine „sinnvolle“ Gruppe von Clustern, welche „möglichst viele“ der bekannterweise „gleich-Null“-Gruppen enthält, als „Null-Gruppen-Cluster“ zusammengefaßt wird (uiuiui, ich hoffe, das versteht noch einer…). Also, ich halte diesen Ansatz für nicht gut, kann das aber rational nicht begründen.
Auf Nachfrage gibt es auch gerne genauere Auskunft…
Ich bin dankbar für jede Hilfe!
LG
Jochen

