Signifikanz

Hallo,

ich habe hier 491 Datensätze mit den Ausprägungen 1, 2, 3, 4 und 5. Der Durchschnitt beträgt 3,05, die Standardabweichung 1,386.

Die Werte kommen wie folgt vor:
1 - 87
2 - 105
3 - 100
4 - 109
5 - 90

Mich interessiert nun, ob die "Ausreißer) bei 1 und 5 signifikant sind. Der Haken: Meine letzte Statistikvorlesung ist 12 Jahre her, meine Statistikbücher sind ebensowenig greifbar wie eine entsprechende Software und die Suche mit Google und bei Wikipedia ergab nichts, was mich auf die schnelle weitergrbracht hätte.

Wenn mir also jemand auf die Sprünge helfen könnte, wäre ich recht dankbar.

Gruß,
Christian

Hallo,

Kurze Antwort: Sicher nicht.

Begründung:

Außreißer sind Werte, die (zumindest theoretisch) _begründbar_ weit abseits der Masse an anderen Werten (bzw. außerhalb eines großzügigen Konfidenzintervalls) liegen.

Bei Deinen Werten, wolltest du „1“ oder „5“ als Ausreißer bezeichnen, wären etwa 20% aller Werte Ausreißer. Da macht die Definition von „Ausreißer“ gar keinen Sinn mehr.

Um feststellen zu können, ob eine Werteliste Ausreißer enthält, muß man etwas über die erwartete Verteilung der Daten wissen. Meist wird angenommen, dass die Verteilung Normal sei. Am einfachsten läßt sich dann aufgrund der empirischen Parameter der Verteilung (also zB. Mittelwert und Standardabw.) [berechnet aus der Stichprobe ohne den vermuteten Ausreißer!] ein Konfidenzinterval berechnen (zB. das 99%-Konfidenzintervall). Liegt der vermutete Ausreißer nicht innerhalb dieses Intervalls, kann er (im Bsp. mit 99% Konfidenz) als Ausreißer behandelt werden. Diese Methode ist einfach. Es gibt weit bessere Methoden, insbesondere, wenn mehrere Ausreißer vermutet werden. Link: Schau mal hier unter dem Punkt „Ausreisser“: http://www.reiter1.com/Glossar/Glossar.htm

Deine Werte nicht ganz klar nicht normalverteilt. Aus dem Bauch heraus würde ich eher auf eine diskrete Gleichverteilung tippen. Also sind die „normalen“ Ausreissertests eh überhaupt nicht anwendbar auf deine Daten.

Aber: Du könntest testen, ob die Verteilung deiner Daten mit einer Gleichverteilung (oder der dir bekannten, theoretischen verteilung, die diese Daten haben sollten) vereinbar ist. Dazu kannst du zB. den Chi²-Test verwenden (gleicher Link wie oben, Stichwort „Chi Quadrat Test“).

Weitere Hilfe gerne bei konkreteren oder weiteren Fragen.

LG
Jochen

Hallo Jochen,

enthält, muß man etwas über die erwartete Verteilung der Daten
wissen. Meist wird angenommen, dass die Verteilung Normal sei.

ich wußte, daß ich was vergessen hatte: Die Werte 1…5 sollten eigentlich gleich oft vorkommen, also Gleichverteilung.

Gruß,
Christian

Hallo!

1 - 87
2 - 105
3 - 100
4 - 109
5 - 90

In dieser Datenreihe beträgt die Standardabweichung 9,5. Laut Wikipedia (http://de.wikipedia.org/wiki/Statistische_Signifikanz) geht man von einer signifikanten Abweichung vom Mittelwert aus, wenn die Abweichung größer als die doppelte Standardabweichung ist. Dann beträgt die Irrtumswahrscheinlichkeit weniger als 5%. Dieses Maß ist ziemlich willkürlich, aber weit verbreitet.

Für Deine Messwerte bedeutet das, dass sie nicht signifikant abweichen. Wenn man sich die Zahlen anschaut, stellt man fest, dass dieser Irrtum wahrscheinlich psychologisch begründet ist: 1 und 5 haben eine zweistellige Häufigkeit, was sofort ins Auge sticht. Tatsächlich liegt jedoch der Mittelwert bei 98,2 (und nicht bei 100) und damit ist Messwert 4 sogar weiter vom Mittelwert entfernt als Messwert 5!

Michael

Hallo,

eine Korrektur für den geneigten Leser, damit er sich nit verwirren läßt:

In dieser Datenreihe beträgt die Standardabweichung 9,5.

Ich denke, Michael war der Ansicht, dass es sich hie um n=5 Werte handelte. Tatsächlich ist die Sdandardabw. der 5 angegebenen Werte auch 9.5. So war das aber im Originalartikel von Christian nicht gemeint. Christian hat eine Liste von insgesamt n=491 Werten. Diese Werte sind entweder 1, 2, 3, 4 oder 5. So hat er zB. 87-mal einen Wert von 1, 105-mal einen Wert von 2 usw. Die Standardabw. dieser 491 Werte ist 3.8. Das Hat Christian ja auch geschrieben.

Laut Wikipedia
(http://de.wikipedia.org/wiki/Statistische_Signifikanz) geht
man von einer signifikanten Abweichung vom Mittelwert aus,
wenn die Abweichung größer als die doppelte Standardabweichung
ist.

Das gilt näherungsweise für normalverteilte Daten (die von Christian angegeben Daten sehen aber nicht normalverteilt aus!). Bei normalverteilten Daten liegen 95% der Werte (etwa) im Intervall von µ-2s bis µ+2s (µ ist der Mittelwert). Das ist nichts anderes als das 95%-Konfidenzintervall für normalverteilte Daten.

Zur Aussage „man geht davon aus, dass“ will ich noch anmerken, dass bei einfachen, nicht folgeschweren Experimenten, insbesondere in den Sozial-, Medizin- und Biowissenschaften, oft das 5%-Niveau gewählt wird, ab dem man eine Abweichung der Ergebnisse von der Nullhypothese als „statistisch signifikant“ bewertet (und die Nullhypothese ablehnt). Bei klinischen Studien, bei Expressionsprofilanalysen, genetischen Fingerabdrücken, Vaterschaftstests usw usw usw oder auch oft in der Chemie und Physik (wo man Versuche häufiger wiederholen kann und weniger Störgrößen hat), wird ein deutlich strengeres Signifikanzniveau gewählt.

Dann beträgt die Irrtumswahrscheinlichkeit weniger als
5%. Dieses Maß ist ziemlich willkürlich, aber weit verbreitet.

Genauer: „Die Irrtumswahrscheinlichkeit unter der Nullhypothese“. Will heißen: Wenn bei 100 Tests jedesmal die Nullhypothese wirklich wahr wäre, würden etwa 5 Tests fälschlicherweise zur Ablehnung Nullhypothese führen. Dieser Fehler wird auch als alpha- oder Typ-I-Fehler oder „Falsch-Positiv-Rate“ bezeichnet. Ein Test kann auch ein statistisch nicht signifikantes Ergebnis liefern, obwohl die Nullhypothese tatsächlich falsch ist. Dieser Irrtum wird als beta- oder Typ-II-Fehler oder „Falsch-Negativ-Rate“ bezeichnet. Das ist auch eine „Irrtumswahrscheinlichkeit“, aber eben eine ganz andere als die zuvor genannte.

LG
Jochen

Hallo,

ich habe jetzt mal einen Chi²-Test auf Gleichverteilung gemacht.
Hier die Ergebnisse:

Nullhypothese: Es handelt sich um eine Gleichverteilung.
alpha: 5%
Freiheitsgrade: 4

Chi² empirisch: 3.654
Chi² kritisch (95%): 9.488
p-Wert empirisch: 0.455

Folgerung: Die Nullhypothese kann auf einem alpha-Niveau von 5% nicht verworfen werden. Der hohe p-Wert zeigt, dass die Verteilung der Daten gut mit einer Gleichverteilung übereinstimmt. Es gibt keinen Grund, auch nur an einer Gleichverteilung zu zweifeln.

LG
Jochen

1 „Gefällt mir“

Hallo noch mal,

Nullhypothese: Es handelt sich um eine Gleichverteilung.
alpha: 5%
Freiheitsgrade: 4

Chi² empirisch: 3.654
Chi² kritisch (95%): 9.488
p-Wert empirisch: 0.455

Folgerung: Die Nullhypothese kann auf einem alpha-Niveau von
5% nicht verworfen werden. Der hohe p-Wert zeigt, dass die
Verteilung der Daten gut mit einer Gleichverteilung
übereinstimmt. Es gibt keinen Grund, auch nur an einer
Gleichverteilung zu zweifeln.

es gab zwischenzeitlich eine andere Antwort, die aber leider wieder gelöscht wurde. Darini wurde der Kolmogoroff-Smirnov-Test erwähnt, der mir dann doch noch etwas bekannt vorkam.

Ich habe die Daten dann hier eingegeben:
http://jumk.de/statistik-rechner/
Ergebnis:
Kolmogorow-Smirnow-Test auf Normalverteilung: 88.211
Signifikante Abweichung von einer Normalverteilung zu mindestens 99%.

Der geheimnisvolle Antworter kam ebenfalls auf einen p-Wert von

Nullhypothese: Es handelt sich um eine Gleichverteilung.
alpha: 5%
Freiheitsgrade: 4

Chi² empirisch: 3.654
Chi² kritisch (95%): 9.488
p-Wert empirisch: 0.455

Kolmogorow-Smirnow-Test auf Normalverteilung: 88.211
Signifikante Abweichung von einer Normalverteilung zu
mindestens 99%.

Der geheimnisvolle Antworter kam ebenfalls auf einen p-Wert
von

1 „Gefällt mir“

Deine Verteilung weicht also hochsignifikant von einer
Normalverteilung ab, entspricht dafür aber sehr gut der von
Dir erwarteten Gleichverteilung.

Ja, da hatte ich Tomaten auf den Augen. Herzlichen Dank an alle Beteiligten.

Ich mach dann mal ein Update, wenn wir bei 1000 Datensätzen sind. Wird wohl im September der Fall sein.

Gruß,
Christian

Hallo Jochen!

In dieser Datenreihe beträgt die Standardabweichung 9,5.

Ich denke, Michael war der Ansicht, dass es sich hie um n=5
Werte handelte. Tatsächlich ist die Sdandardabw. der 5
angegebenen Werte auch 9.5. So war das aber im Originalartikel
von Christian nicht gemeint. Christian hat eine Liste von
insgesamt n=491 Werten. Diese Werte sind entweder 1, 2, 3, 4
oder 5. So hat er zB. 87-mal einen Wert von 1, 105-mal einen
Wert von 2 usw. Die Standardabw. dieser 491 Werte ist 3.8. Das
Hat Christian ja auch geschrieben.

Auf die Gefahr hin, mich jetzt völlig zu blamieren (tatsächlich bin ich ja auch kein Statistik-Experte): Ist es völlig verkehrt den Spieß umzukehren?

Mein Gedanke war in etwa folgender: Wir haben fünf Körbe und 491 Bälle. Jeder geworfene Ball landet in einem der fünf Körbe. Der Einfachheit halber nehmen wir mal an, dass die Wahrscheinlichkeit für alle fünf Körbe gleich groß ist. Der Erwartungswert für jeden Korb beträgt nun 491/5=98,2. Ich behaupte: Man kann auch die Zahl der Bälle in Korb X als Zufallsvariable definieren, und diese Zahl müsste auch annähernd normalverteilt sein. Deswegen habe ich die Standardabweichung ausgerechnet usw.

Der einzige Fehler, den ich in meiner Überlegung finden kann, ist der, dass die Zahl der Bälle in Korb 1, 2, 3, 4 und 5 nicht unabhängig von einander sind. Auf deutsch: Wenn in einem Korb mehr Bälle liegen, bleiben weniger für die anderen übrig.

Das mit der Standardabweichung war also nur eine grobe Abschätzung. War sie aber völlig verkehrt?

Dass aber Nr. 4 ein größerer „Ausreißer“ ist als Nr. 5, bleibt sowieso wahr.

Michael

Hallo an dieser Stelle.

Auf die Gefahr hin, mich jetzt völlig zu blamieren
(tatsächlich bin ich ja auch kein Statistik-Experte): I

Ja, die Vika ist ja auch sehr aussagekräftig ausgefüllt :wink:

Ist es
völlig verkehrt den Spieß umzukehren?

Das nicht, aber in der Statistik ist wie in der Physik: was ist gegeben, was ist gesucht ? Und wie lautet der Weg vom Problem zur Lösung ?

Mein Gedanke war in etwa folgender: Wir haben fünf :Körbe und
491 Bälle. Jeder geworfene Ball landet in einem der :fünf
Körbe. Der Einfachheit halber nehmen wir mal an, dass :die
Wahrscheinlichkeit für alle fünf Körbe gleich groß ist.

Korrekt

Der
Erwartungswert für jeden Korb beträgt nun 491/5=98,2. :Ich
behaupte: Man kann auch die Zahl der Bälle in Korb X :als
Zufallsvariable definieren, und diese Zahl müsste auch
annähernd normalverteilt(*) sein. Deswegen habe ich die
Standardabweichung ausgerechnet usw.

(*)Fehler: die Zahl ist _gleich_verteilt. Bei Normalverteilung wären ~50% der Bälle in Korb Nr.3

Der einzige Fehler, den ich in meiner Überlegung finden :kann,
ist der, dass die Zahl der Bälle in Korb 1, 2, 3, 4 und :5
nicht unabhängig von einander sind. Auf deutsch: Wenn :in einem
Korb mehr Bälle liegen, bleiben weniger für die anderen :übrig.

Ja, aber das wäre auch keine Gleichverteilung mehr. Ein Korb wird doch lt. Annahme schon mit Wahrscheinlichkeit 0,2 getroffen.

Das mit der Standardabweichung war also nur eine grobe
Abschätzung. War sie aber völlig verkehrt?

Das Modell war wohl falsch…

Dass aber Nr. 4 ein größerer „Ausreißer“ ist als Nr. 5, :bleibt
sowieso wahr.

Ja.

Richtig heisst es übrigens, dass die Hypothese einer Gleichverteilung mit 5% Irrtumsniveau nicht verworfen werden kann. Welche Verteilgung ansonsten dahintersteckt ist sekundär.

HTH
mfg M.L.

Hallo Michael,

Auf die Gefahr hin, mich jetzt völlig zu blamieren
(tatsächlich bin ich ja auch kein Statistik-Experte)

keine Angst - das bin ich auch nicht.

Ist es völlig verkehrt den Spieß umzukehren?

Nein. Deine Idee ist ganz „witzig“, und im Prinzip hast Du zwar Recht (die korrekte Verteilung ist übrigends die Poisson-Verteilung, für mehr als 30 Bälle pro Korb kann man aber in sehr guter Näherung von einer Normalverteilung sprechen), aber dein Verfahren nutzt nur etwa ein Fünftel der zur Verfügung stehenden Information (weil du - im Prinzip - ja nur einen Korb anschaust und die anderen - im Prinzip - nicht berücksichtigst).

Wenn ich Dich richtig verstanden habe, könnte man deinen Ansatz doch auch so formulieren: 491 Kugeln werden auf einen Korb geworfen. Unter der Nullhypothese (Gleichverteilung) ist p(Kugel bleibt im Korb) = 1/5. Das ergibt einen Erwartungswert von 491/5 = 98.2 Kugeln. Die Verteilung der Kugelmengen in den Körben ist die Binomialverteilung (mit n=491; p=1/5). Die Varianz der Binomialverteilung ist n*p*(1-p), hier also 123, die Standardabweichung entsprechend der Wurzel daraus: 11.1. Bei so vielen Kugeln kann die Verteilung auch als Normalverteilung angenähert werden mit µ=98.2 und s=11.1. Wenn ein Korb weniger als 77 oder mehr als 120 Kugeln enthalten würde, würde das mit einem akzeptierten Typ-I-Fehler von 5% zur Ablehnung der Nullhypothese führen. Bei den Originaldaten ist kein solcher Wert dabei. Es kann also für keinen der Körbe behauptet werden, dass er nicht 1/5 der 491 Bälle enthält.

Das Problem hierbei ist, dass du nach diesem Schema jeden der 5 Korbe testen müßtest. Bei einem 5%-Typ-I-Fehler ist es rein statistisch zu erwarten, dass (im Mittel) in 5% der Fälle mit wahrer Nullhypothese diese fälschlicherweise abgelehnt wird. Bei 5 Körben geht es gerade noch so, trotzdem ist hier der effektive Typ-I-Fehler für die Identifikation eines „Ausreißers“ nicht mehr 5%, sondern 1-(1-0.05)^5 = 22% !! Bei solchen multiplen Tests muß der Typ-I-Fehler entsprechend angepaßt werden. Hier gibt es wiederum viele Möglichkeiten (zB. Bonferroni-Korrektur, Benjamini-Hochberg, Holm, …) aber das muß man eben beachten.

Sinnvoller ist es da doch, die Information aus allen 5 Körben simultan zu benutzen (so wie in einer ANOVA anstelle serieller t-Tests) - und das macht der Chi²-Test.

Es ist also nicht falsch, was du vorschlägst, sondern nur umständlich und weniger elegant.

Dass aber Nr. 4 ein größerer „Ausreißer“ ist als Nr. 5, bleibt
sowieso wahr.

Nicht unbedingt. Ohne die Verteilung zu kennen, könnte auch gerade Nr. 4 dem wahren Wert am nächsten gekommen sein und alle anderen Werte wurden zu klein bestimmt. Bei nur 5 Werten ist es daher schwer, einen nur aufgrund des Werte als Ausreißer zu benennen. Wenn gleichzeitig noch vernünftige weitere Argumente für genau diesen Ausreißer sprechen (das Meßgerät war kurz danach kaputt, das hat die Aushilfe gemessen, ich war an dem Tag betrunken, …) dann sieht die Sache schon anders aus.

LG
Jochen

1 „Gefällt mir“

Hallo,

die geheimnisvolle Antwort kam von mir. Ich hatte auf Gleichverteilung getestet, nicht auf Normalverteilung. Dem K-S-Test zufolge, den ich gerechnet habe, weicht Deine Verteilung signifikant von der Gleichverteilung ab. Der Chi-Quadrat-Test zeigt dagegen an, daß die Verteilung nicht signifikant von der Gleichverteilung abweicht.

One-Sample Kolmogorov-Smirnov Test
VAR00001
N 491
Uniform Parameters Minimum 1,00
Maximum 5,00
Most Extreme Differences Absolute ,183
Positive ,177
Negative -,183
Kolmogorov-Smirnov Z 4,062
Asymp. Sig. (2-tailed) ,000
Exact Sig. (2-tailed) ,000
Point Probability ,000
a Test distribution is Uniform.
b Calculated from data.

Test Statistics
VAR00001
Chi-Square 3,654
df 4
Asymp. Sig. ,455
Exact Sig. ,456
Point Probability ,003
a 0 cells (,0%) have expected frequencies less than 5. The minimum expected cell frequency is 98,2.

Grüße,

Oliver Walter

2 „Gefällt mir“

Hallo Oliver,

die geheimnisvolle Antwort kam von mir.

ich weiß, aber nachdem Du sie gelöscht hattest, wollte ich Dich nicht ungefragt nennen, weil ich gute Gründe für die Löschung vermutete.

Ich hatte auf
Gleichverteilung getestet, nicht auf
Normalverteilung. Dem K-S-Test zufolge, den ich gerechnet
habe, weicht Deine Verteilung signifikant von der
Gleichverteilung ab. Der Chi-Quadrat-Test zeigt dagegen
an, daß die Verteilung nicht signifikant von der
Gleichverteilung abweicht.

Ich bin dabei, mich in das Thema wieder einzulesen, aber kannst Du mir vorab in kurzen Worten erläutern,

  • warum die Tests unterschiedliche Ergebnisse liefern und
  • warum der eine besser oder schlechter geeignet ist als der andere, um eine signifikante Abweichung von der Gleichverteilung zu prüfen?

Gruß und danke,

Christian

P.S.
Immer wieder spannend, was sich bei www so alles lernen und diskutieren läßt. Eigentlich wollte ich nur wissen, ob es Wochentage gibt, an denen mir die mir zuarbeitenden Menschen Kreditvorlagen einreichen signifikant mehr Arbeit machen. :wink:

Hallo, Christian,

ich weiß, aber nachdem Du sie gelöscht hattest, wollte ich
Dich nicht ungefragt nennen, weil ich gute Gründe für die
Löschung vermutete.

geht so vollkommen in Ordnung und hätte ich auch nicht anders gemacht.

  • warum die Tests unterschiedliche Ergebnisse liefern

Theoretisch: Der K-S-Test basiert auf einer anderen Logik als der Chi-Quadrat-Test. Beim K-S-Test werden kumulative Häufigkeitsverteilungen miteinander verglichen und die größte Differenz zwischen diesen für das inferenzstatistische Urteil herangezogen. Beim Chi-Quadrat-Test wird dagegen die Summe der standardisierten quadrierten Abweichungen der tatsächlichen Werte von den theoretisch erwarteten Werten in den Kategorien gebildet. Diese ist asymptotisch chi-quadrat-verteilt.

Praktisch: Das Computerprogramm scheint mir beim K-S-Test auf Gleichverteilung irgend etwas zu machen, was ich noch nicht verstehe. Vielleicht macht es Unsinn.

  • warum der eine besser oder schlechter geeignet ist als der
    andere, um eine signifikante Abweichung von der
    Gleichverteilung zu prüfen?

Zwei wesentliche Vorteile sind:
Der K-S-Test hat - wenn er richtig gemacht wird - eine größere Power (entdeckt eher Abweichungen von der Vergleichsverteilung). Mit ihm lassen sich auch einseitige Hypothesen testen (die empirische Verteilung weist in einem Abschnitt bedeutend weniger bzw. mehr Fälle auf), nicht nur zweiseitige (die empirische Verteilung ist in einem Abschnitt irgendwie bedeutend anders).

Immer wieder spannend, was sich bei www so alles lernen und
diskutieren läßt. Eigentlich wollte ich nur wissen, ob es
Wochentage gibt, an denen mir die mir zuarbeitenden Menschen
Kreditvorlagen einreichen signifikant mehr Arbeit machen. :wink:

*lol*

Aber merke: Mit Statistik läßt sich nichts beweisen.

Beste Grüße,

Oliver

Praktisch: Das Computerprogramm scheint mir beim K-S-Test auf
Gleichverteilung irgend etwas zu machen, was ich noch nicht
verstehe. Vielleicht macht es Unsinn.

Ich habe den Grund gefunden: Das Computerprogramm ist beim K-S-Test ganz genau. Wie für diesen Test eigentlich gedacht, nimmt es an, daß die Verteilung der Werte stetig ist. Da es zwischen 1 und 2, 2 und 3, 3 und 4, 4 und 5 keine Werte findet, meldet es korrekt: Die empirischen Daten sind nicht gleichverteilt.

Grüße,

Oliver

1 „Gefällt mir“

Hallo Jochen!

Erst einmal vielen Dank! Du hast mich verstanden und Deine Anmerkungen waren auch sehr lehrreich. Andere Frage:

Dass aber Nr. 4 ein größerer „Ausreißer“ ist als Nr. 5, bleibt
sowieso wahr.

Nicht unbedingt. Ohne die Verteilung zu kennen, könnte auch
gerade Nr. 4 dem wahren Wert am nächsten gekommen sein und
alle anderen Werte wurden zu klein bestimmt. Bei nur 5 Werten
ist es daher schwer, einen nur aufgrund des Werte als
Ausreißer zu benennen. Wenn gleichzeitig noch vernünftige
weitere Argumente für genau diesen Ausreißer sprechen (das
Meßgerät war kurz danach kaputt, das hat die Aushilfe
gemessen, ich war an dem Tag betrunken, …) dann sieht die
Sache schon anders aus.

Hier wird es schon fast philosophisch: Die Messwerte lassen keine Aussage darüber zu, ob Messwert 5 ein Ausreißer ist oder nicht. Auf den ersten Blick scheint es zwar so, aber die Zahlen geben das nicht her. Ist es dann zulässig, diesen Wert aufgrund anderer Argumente unter den Tisch fallen zu lassen? Angenommen ich wäre tatsächlich betrunken gewesen und der Messwert betrüge genau 98 (also Erwartungswert), dann hätte ich ja gar keine Veranlassung, ihn rauszunehmen.

Das Problem, das ich da anspreche, ist ziemlich allgemein und taucht in unwahrscheinlich vielen experimentellen Arbeiten auf: Selbst wenn handwerklich einwandfrei gearbeitet wird und man ansonsten alle Regeln der Wissenschaftsethik verfolgt, ist man eher geneigt, nach systematischen Fehlern zu suchen, wenn ein Messwert der Grundhypothese widerspricht, als wenn er übereinstimmt. (Es gibt Arbeitsgruppen, in denen ein positives Ergebnis als Bestätigung gilt, mehrere negative Ergebnisse jedoch nicht als Widerlegung!

Michael

Hallo ML!

Ich glaube, Du hast nicht ganz verstanden, wie ich es gemeint habe. Lies mal, was Jochen dazu geschrieben hat. Meine Vika werde ich „auffüllen“.

Michael

Hallo Michael,

Hier wird es schon fast philosophisch:

*zustimm*

Ist es dann zulässig, diesen Wert
aufgrund anderer Argumente unter den Tisch fallen zu lassen?

Klar. Wenn im Rahmen regelmäßiger Kalibriermessungen z.B. gefunden wird, dass das Messgerät an dem besagten Tag nicht korrekt funktionierte, ist dem Wert nicht zu trauen. Dann muß er raus - egal ob er „paßt“ oder nicht.

Doch noch ein anderer Aspekt ist wichtig:

Es gibt viele Fälle, wo die Verteilung bzw. der Wertebereich der Messwerte selbst bekannt ist (zumindest in gewissem Rahmen). Beispiel: Bestimmung des Blutdrucks. Ziel eines Experimentes könnte es sein, den Einfluß von Yoga-Übungen auf den Blutdruck zu messen. Aus der Literatur ist bekannt, dass a) der Blutdruck in grober Näherung Normalverteilt ist und dass b) ein normaler Mensch mit einem Blutdruck von weniger als 50mm Hg oder mehr als 200mm Hg in der Regel tot ist. Physikalisch ist klar, dass es auch keine negativen Drücke geben kann. Wenn jetzt in einer Meßreihe ein Wert von 42.8mm Hg auftaucht, dann ist das begründbar ein Ausreißer, zum einen aus den o.g. Punkten, zum weiteren wegen der bekannten Tatsache, dass die Manschette manchmal nicht korrekt angelegt wird (es gibt also einsichtige, bekannte technische Probleme, welche zu derart niedrigen Messwerten führen können).

Angenommen ich wäre tatsächlich betrunken gewesen und der
Messwert betrüge genau 98 (also Erwartungswert), dann hätte
ich ja gar keine Veranlassung, ihn rauszunehmen.

Tja, es ist „gute Laborpraxis“, beim Experimentieren eben nicht betrunken zu sein. Ein Experiment, was nicht sauber durchgeführt wurde, hat sowieso keine Aussagekraft.

man eher geneigt, nach systematischen Fehlern zu suchen, wenn
ein Messwert der Grundhypothese widerspricht, als wenn er
übereinstimmt. (Es gibt Arbeitsgruppen, in denen ein
positives Ergebnis als Bestätigung gilt, mehrere
negative Ergebnisse jedoch nicht als Widerlegung!

*heul* ja! LEIDER! Ich kenne Arbeitsgruppen, die ein gelungenes Experiment grundsätzlich nicht wiederholen. Schlimm ist das!!

Richtig ernst wird es, wenn Klinische Studien nicht wiederholt werden. Weil solche Studien lange dauern und teuer sind, ist es leider die Regel, dass Studien nicht wiederholt werden. Ich wage nicht zu vermuten, welche fatalen Konsequenzen das für die Behandlung von Patienten hat!

Ein eher amüsantes Beispiel aus der Praxis habe ich da:

Erich Wolf hat 1870 Untersuchungen zum Mineralstoffgehalt von Spinat gemacht. Er fand ca. 5mg Eisen pro 100g Spinat, was für Pflanzen relativ viel ist und durchaus an den Eisengehalt von Fleisch rankommt. In der Zusammenfassung seines Fachartikels schrieb er fälschlicherweise einen Wert von 50mg Eisen pro 100g Spinat, was etwa der 10fachen Konzentration von Eisen in Fleich entspricht. Das würde Spinat natürlich zur ultimativen Eisenquelle machen!

Die Tatsache, dass über ein Jahrhundert sogar Kindern von ihren Müttern wegen des vielen Eisens mit Spinat gefüttert wurden, zeigt, dass offensichtlich nur die Zusammenfassung gelesen wurde (im Artikel waren die Messwerte korrekt angegeben), und dass sich niemand, der eben nur dieses doch ungewöhnliche Ergebnis kannte, mal versucht hätte, das nachzumessen!

Erst 1937 ist der Fehler übrigends „entdeckt“ worden - allerdings nicht, weil jemand den Artikel richtig gelesen hätte, sondern weil im Rahmen einer anderen Studie auch nochmal der Eisengehalt von Spinat bestimmt wurde. Mehrfach… weil die Werte (um die 5mg/100g) eben viel kleiner waren als erwartet…!).

LG
Jochen

Hallo an den Meister.

Ich glaube, Du hast nicht ganz verstanden, wie ich es :gemeint habe.

Eigentlich schon, aber mit unbekannten Parametern rechnet man im Konkreten nicht besonders gut :wink: Und die Schätzungen können auch falsch sein. In der Statistik kann man von einer Zahlenmenge nicht adhoc auf deren Originalverteilung schliessen. Und mit Anpassungstests kann man nur Hypothesen über dieselbe aufstellen.

Lies mal, was Jochen dazu geschrieben hat. Meine Vika
werde ich „auffüllen“.

Sehr schön :smile:

mfg M.L. (ex-‚nur‘-Statistiker, jetzt im BI-Bereich angekommen)