Verwirrung um den Mittelwert

Servus,

ich bin gerade durch einen Kollegen etwas verwirrt worden, hier meine Situation/Frage:

Ich habe über einen Zeitraum von 1 Sekunde eine bestimmte physikalische Größe, nennen wir sie x, mit einer Datenaufnahmerate von 1MHz gemessen. Ich habe also eine Zeitreihe mit N=1E6 Messpunkte.

Aus dem Mittelwert dieser Zeitreihe erhalte ich eine recht gute Abschätzung für den tatsächlichen Wert von x.
Formel für den Mittelwert:

\bar{x}=\frac{1}{\sqrt{N}}\sum_{i=1}^N x_i .

Wenn ich aber jetzt den Fehler des Mittelwertes berechnen will, dann muss ich doch die Standardabweichung berechnen und noch durch die Wurzel der Anzahl der Messwerte teilen, hier also N=1E6, oder ?

Entsprechende Formel für den Fehler des Mittelwertes:

\Delta\bar{x}=\frac{1}{\sqrt{N}}\sqrt{ \frac{1}{N-1} \sum_{i=1}^N (x_i-\bar{x})^2 }

Beste Grüße!

Hallo,
der Mittelwert ist die Summe der Einzelwerte geteilt durch N, nicht durch Wurzel aus N.
Viele Grüße von
Haubenmeise

Hallo,

Aus dem Mittelwert dieser Zeitreihe erhalte ich eine recht
gute Abschätzung für den tatsächlichen Wert von x.
Formel für den Mittelwert:

\bar{x}=\frac{1}{\sqrt{N}}\sum_{i=1}^N x_i .

Vielleicht nur ein Tippfehler, aber so wie die Formel da steht, kann sie nicht stimmen, egal um welchen Mittelwert (arithmetisch, quadratisch, etc) es sich handeln sollte.

Angenommen du hast 4 mal den Wert 10 gemessen. Da alle Werte gleich 10 sind, sollte das Mittel auch 10 sein. Mit deiner Formel würde das aber (10+10+10+10)/wurzel(4) ergeben, also 20. Das kann also nicht stimmen.

vg,
d.

Vielleicht nur ein Tippfehler, aber so wie die Formel da
steht, kann sie nicht stimmen, egal um welchen Mittelwert
(arithmetisch, quadratisch, etc) es sich handeln sollte.

richtig, das war nur ein Tippfehler, korrekt lautet die Formel (für den arithmetischen Mittelwert):

\bar{x}=\frac{1}{N}\sum_{i=1}^N x_i .

Wie aber sieht es mit dem Fehler des Mittelwertes der Zeitreihe in diesem Fall aus?

Hi,

das ist die Schätzung für die Standardabweichung, das Sigma. Aber nur, wenn Du 1/wurzel(N) vorne wegläßt. Also nur das, was unter der großen Wurzel steht, zählt.

Dann musst Du Dir die sog. Quantile anschauen, im 1-Sigma-Bereich bist Du nur zu 65%, 3-Sigma ist 95%, etc.

Gruß, Lutz

Naja, die Standardabweichung s ist doch wie folgt definiert:

s=\sqrt{\frac{1}{N-1}\sum_{i=1}^N(x_i-\bar{x})^2} .

Sie ist doch ein Maß für den Fehler eines Einzelmesswertes und sagt aus, dass ein beliebiger einzelner Messwert mit ca. 65% Wahrscheinlichkeit innerhalb dieses Intervalls liegt.

Jetzt will ich aber den Fehler meines Mittelwertes abschätzen, und das geht doch für diesen Fall mit der Formel

\Delta \bar{x}=\frac{s}{\sqrt{N}} .

Ich habe also eine lange Zeitreihe bzw. eine kontinuierliche Messung einer physikalischen Größe gemacht um am Ende die Aussage zu treffen, dass diese Größe in etwa den Wert
\bar{x}\pm\Delta \bar{x}
hat.

Meiner Meinung nach gibt man so den Messwert einer physikalischen Größe an. Oder hat da jemand andere Vorschläge bzw. Meinungen?

Hallo,

Meiner Meinung nach gibt man so den Messwert einer
physikalischen Größe an. Oder hat da jemand andere Vorschläge
bzw. Meinungen?

deine Verwirrung ist hausgemacht.
In der Praxis verwendet man meist den Mittelwert und die Standardabweichung.
Wie etwa über die Standardabweichung bei Wiki beschrieben:

'Als Abkürzung findet man neben σ in Anwendungen insbesondere für die empirische Standardabweichung oft s oder SD (für standard deviation), sowie m.F. für mittlerer Fehler.

In der angewandten Statistik findet man häufig die Kurzschreibweise der Art „Ø 21 ± 4“, was als „Mittelwert 21 mit einer Standardabweichung von 4“ zu lesen ist.’

Was du noch herumrechnest kann man zwar machen - Papier ist geduldig - aber ich habe das nicht in meinem Berufsalltag (Qualitätssicherung des Gewichtes von Preßlingen) angewendet gefunden.

Gruß

watergolf

Ok,

das stimmt dann, allerdings ist das dann auch wieder das Sigma einer Normalverteilung, also das Intervall mit diesem Radius der 65%-Bereich.

Und die Formel mit N-1 im Nenner ist die Schätzung der Standardabweichung bei gleichzeitiger Schätzung des Mittelwertes. Wird mehr als ein Parameter geschätzt, ändert sich der Nenner.

Gruß, Lutz

Was du noch herumrechnest kann man zwar machen - Papier ist
geduldig - aber ich habe das nicht in meinem Berufsalltag
(Qualitätssicherung des Gewichtes von Preßlingen) angewendet
gefunden.

so war auch die Argumentation eines Kollegen (er gäbe immer „nur“ die Standardabweichung s an, wenn es um den Fehler des Mittelwertes geht).

Allerdings konnte ich mich vage erinnern, es so gelernt zu haben, wie ich es beschrieben hatte, also die Standardabweichung des Mittelwertes anzugeben.

Fazit: Egal wie man die Messung bzw. die Schätzung des Mittelwertes angibt, man sollte auf jeden Fall schreiben, ob man die Standardabweichung oder die Standardabweichung des Mittelwertes meint.

richtig, das war nur ein Tippfehler meinerseits (siehe restliche Diskussion).

Hallo,

Wie aber sieht es mit dem Fehler des Mittelwertes der
Zeitreihe in diesem Fall aus?

Der (mittlere quadratische) Fehler des Mittelwerts ist \frac{\text{SD}}{\sqrt{N}}. Aber den Unterschied zwischen der Standardabweichung (die ein Maß dafür ist, wie weit die einzelnen Messwerte um den Mittelwert streuen) und dem mittleren Fehler des Mittelwerts selbst scheinst du ja, wenn ich dein anderes Posting weiter unten richtig deute, inzwischen erkannt zu haben. Und auch noch wichtig: All das gilt natürlich nur, wenn deine Messwerte einer Gauß-Verteilung folgen (was sie aber eh fast immer tun).

vg,
d.

Hallo,

gilt natürlich nur, wenn deine Messwerte einer Gauß-Verteilung
folgen (was sie aber eh fast immer tun).

und wenn sie unabhängig voneinander sind.

vg,
d.

Viele Grüße von
Haubenmeise

und wenn sie unabhängig voneinander sind.

und das sollten sie wohl sein in einer langen Messreihe, in der ich immer wieder die gleiche Messung durchführe und sonst nichts ändere.

Hallo,

und wenn sie unabhängig voneinander sind.

und das sollten sie wohl sein in einer langen Messreihe, in
der ich immer wieder die gleiche Messung durchführe und sonst
nichts ändere.

Das hat mit der Messung nicht zwangsweise was zu tun. Selbst wenn du völlig exakt und ohne Messfehler messen könntest, dann kann es dennoch sein, dass die einzelnen Messwerte nicht unabhängig voneinander sind. So gibt es z.B. Systeme, die Autokorrelation aufweisen, d.h. ein Wert zu einem bestimmten Zeitpunkt ist nicht völlig unabhängig von dem Wert der davor geherrscht hat, sondern er wird von den vorhergehenden Werten beeinflusst. Das Signal korreliert also mit sich selbst.

Ein gutes Beispiel ist z.B. die Lufttemperatur, die ja auch um einen langjährigen Mittelwert variiert. Diese Variation ist aber nicht gänzlich zufällig, denn wenn es gestern überdurchschnittlich warm war, dann ist die Wahrscheinlichkeit, dass es heute auch wärmer als im Durchschnitt ist, erhöht.

Bei autokorrelierten Messwerten muss (bzw sollte) man diese Autokorrelation in bestimmten Situationen berücksichtigen (z.B. insbesondere in der Trend- oder Zeitreihenanalyse), wofür es verschiedene statistische Ansätze gibt.

vg,
d.

Tja, tatsächlich liegt auch in meiner Messreihe eine gewisse Autokorrelation vor, allerdings ist die Korrelationslänge bzw. -zeit deutlich kleiner als die Gesamtmesszeit.

Von daher kann ich wohl bei der genannten Mittelwertbildung und Standardabweichung (bzw. Fehlerberechnung des mittleren Fehlers des Mittelwertes) bleiben.