Hallo,
ich bin etwas ratlos, wie ich folgendes Problem angehe:
Angenommen, ich habe 200 Versuchspersonen, welche alle ein Medikament bekommen.
Nach einem Tag greife ich mir 100 Personen heraus und messe die Wirksamkeit.
Nach einer Woche messe ich die Wirksamkeit bei den verbleibenden 100 Personen.
Nun möchte ich herausfinden, wie stark das Medikament in dieser Zeitspanne an Wirkung verliert. Kann ich hier einfach die Differenz der jeweils 100 Messungen bilden? Also einfach so:
n / Tag1 / Tag7 / Differenz
1 / 20 / 7 / -13
2 / 22 / 6 / -16
.
.
.
100 / 18 / 7 / -11
und dann beispielsweise Mittelwert und Standardabweichung der Differenzen bilden?
Oder ist das statistischer Müll, weil ja die Messungen immer jeweils von unterschiedlichen Personen kommen?
Hoffe, ich konnte erklären, was ich meine…
July
Hallo,
am besten wäre eigentlich, wenn du alle 200 Personen sowohl nach 1 Tag als auch nach 7 Tagen testest. Dann kannst (mußt) du auch für jede Person die Differenz berechnen, so wie Du es vorgeschlagen hast.
Das geht natürlich nicht, wenn der Test an Tag 1 das Ergebnis des Tests an Tag 7 beeinflusst (zB. beim Erlernen von bestimmten Sachen oder wenn der erste Test praktisch eine Übung ist und dadurch der zweite Test besser ausfällt, also ohne „Übung“).
Wenn du nun deine zwei Gruppen zu 100 Personen hast, dann rechne für jede Gruppe einfach nur die Mittelwerte und Standardabweichungen aus. Der mittlere Unterschied zw. 1 Tag und 7 Tagen ist einfach die Differenz der Mittelwerte. Die Standardabweichung dieser Differenz erhälst Du durch die Fehlerfortpflanzung aus Wurzel(s²[Tag1] + s²[Tag2]), wobei s jeweils die Standardabweichungen und s² die Varianzen sind.
Ob der Unterschied in den Mittelwerten statistisch signifikant ist, kannst du mit dem t-Test prüfen.
LG
Jochen
Hallo Jochen,
danke für Deine Antwort, das gibt mir zumindest schon mal ein paar weitere Denkanstöße. Leider kann ich die gleichen Personen nicht an beiden Tagen messen, also käme letzterer Lösungsvorschlag von Dir zum tragen. Dazu hab ich allerdings nochmal ein paar Fragen:
Hallo,
am besten wäre eigentlich, wenn du alle 200 Personen sowohl
nach 1 Tag als auch nach 7 Tagen testest. Dann kannst (mußt)
du auch für jede Person die Differenz berechnen, so wie Du es
vorgeschlagen hast.
Das geht natürlich nicht, wenn der Test an Tag 1 das Ergebnis
des Tests an Tag 7 beeinflusst (zB. beim Erlernen von
bestimmten Sachen oder wenn der erste Test praktisch eine
Übung ist und dadurch der zweite Test besser ausfällt, also
ohne „Übung“).
Wenn du nun deine zwei Gruppen zu 100 Personen hast, dann
rechne für jede Gruppe einfach nur die Mittelwerte und
Standardabweichungen aus. Der mittlere Unterschied zw. 1 Tag
und 7 Tagen ist einfach die Differenz der Mittelwerte. Die
Standardabweichung dieser Differenz erhälst Du durch die
Fehlerfortpflanzung aus Wurzel(s²[Tag1] + s²[Tag2]), wobei s
jeweils die Standardabweichungen und s² die Varianzen sind.
Wie kann ich Fehler, Standardabweichung und Varianz miteinander in Beziehung setzen? Also Fehler und Standardabweichung sind ja offensichtlich nicht das gleiche, dennoch sprichst Du von einer „Berechnung der Standardabweichung anhand der Fehlerfortpflanzung“.
Irgendwie verwirrt mich das 
Meine bisherigen Recherchen bei Wikipedia konnten die Unklarheit bisher nicht so recht beseitigen. Kannst Du es evtl. erklären oder mir einen Link empfehlen, wo ich nochmal nachlesen kann?
Viele Grüße,
July
Ob der Unterschied in den Mittelwerten statistisch signifikant
ist, kannst du mit dem t-Test prüfen.
LG
Jochen
Hallo July,
Wie kann ich Fehler, Standardabweichung und Varianz
miteinander in Beziehung setzen? Also Fehler und
Standardabweichung sind ja offensichtlich nicht das gleiche,
„Fehler“ ist ein Oberbegriff. Er bedeutet letztlich, dass Messgrößen nicht konstant sind, sondern dass sich jeder wiederholte Messwert von den anderen mehr oder weniger stark unterscheidet.
Es gibt nun ganz unterschiedliche Ansätze, diese „Fehler“ irgendwie zu quantifizieren, zB. als ganz simpel als Spannweite der Daten, oder besser als mittlere Abweichung zum Mittelwert, oder oder. Statistisch sehr sinnvoll (aus mehreren Gründen, die zu erklären hier zu weit führen würde) ist die mittlere quadratische Abweichung zum Mittelwert (auch „Varianz“ genannt). Die Einheit der Varianz ist das Quadrat der Einheit der Messwerte. Mathematisch kein Problem, von uns Menschen aber schlecht zu interpretieren (was stell man sich vor, wenn das Körpergewicht eine Varianz hat von 25,3 kg² ?). Daher gibt man meist die Wurzel aus der Varianz an, die „Standardabweichung“. Dann hat die Fehler-Angabe (man kann auch „Streumaß“ dazu sagen, weil es ein Maß für die Streuung, also die Variabilität der Daten, ist) die selbe Einheit wie die Messwerte selbst. Varianz und Standardabweichung sind also zwei Seiten der selben Medaille. Das eine ist nur das Quadrat der anderen.
dennoch sprichst Du von einer „Berechnung der
Standardabweichung anhand der Fehlerfortpflanzung“.
Macht jetzt doch Sinn, oder? Die Fehlerfortpflanzung kann man im Prinzip mit allen möglichen Streumaßen rechnen. Auch und gerade mit der Standardabweichung.
Kommst Du nun klar?
LG
Jochen
PS: Die quadrierten Abweichungen zum Mittelwert werden auch „Fehlerquadrate“ genannt, engl. „squared errors“. Die Varianz ist der Mittelwert dieser Fehlerquadrate, engl. auch als Mean Squared Error (MSE) bezeichnet, eine Bezeichnung/Abkürzung, die man besonders oft in der Varianzanalyse findet. Außerdem tauchen da oft die Begriffe Fehlerquadratsumme (sum of squared error [SSE], auch kürzer: sum of squares [SS]) auf. Immer bezieht sich hier das Wort „Fehler“ auf die Abweichungen zum Mittelwert.
Hallo Jochen,
herzlichen Dank für die Erklärung. Ich glaub, ich hab’s begriffen 
Danke auch für die englischen Begriffe dazu, denn meine „Arbeitsprache“ hier ist Englisch und das verwirrt mich auf dem Gebiet der Statistik teilweise doppelt (bin halt kein Statistiker/Mathematiker).
Gut, füe die Zukunft werd ich mir Deine Erklärung als Merkhilfe aufheben
- solange bis ich es verinnerlicht habe.
Ciao,
July
[Bei dieser Antwort wurde das Vollzitat nachträglich automatisiert entfernt]