Servus,
ich bin gerade durch einen Kollegen etwas verwirrt worden, hier meine Situation/Frage:
Ich habe über einen Zeitraum von 1 Sekunde eine bestimmte physikalische Größe, nennen wir sie x, mit einer Datenaufnahmerate von 1MHz gemessen. Ich habe also eine Zeitreihe mit N=1E6 Messpunkte.
Aus dem Mittelwert dieser Zeitreihe erhalte ich eine recht gute Abschätzung für den tatsächlichen Wert von x.
Formel für den Mittelwert:
\bar{x}=\frac{1}{\sqrt{N}}\sum_{i=1}^N x_i .
Wenn ich aber jetzt den Fehler des Mittelwertes berechnen will, dann muss ich doch die Standardabweichung berechnen und noch durch die Wurzel der Anzahl der Messwerte teilen, hier also N=1E6, oder ?
Entsprechende Formel für den Fehler des Mittelwertes:
\Delta\bar{x}=\frac{1}{\sqrt{N}}\sqrt{ \frac{1}{N-1} \sum_{i=1}^N (x_i-\bar{x})^2 }
Beste Grüße!