Herleitung Summenregel Erwartungswert und Varianz

Hallo,
es sei ein Zufallsexperiment gegeben mit den Zufallsgrößen X und Y.
W_X = x_1, x_2, x_3 und W_Y = y_1, y_2. Zur Not kann man ja die Indizes bis n fortführen.
Das Zufallsgrößen von X und Y seine unabhängig.

Der Erwartungswert ist so definiert: E(X+Y) = (x_1+y_1)*P(x_1 und y_1) + (x_1+y_2)*P(x_1 und y_2) + (x_2+y_1)*P(x_2 und y_1) usw.
Da X und Y unabhängig sind, kann man für P(x_n und y_m)= P(x_n)*P(y_n) schreiben.
Leider bring ich dann die obere Definition nicht auf die gewünschte Form, dass man dann E(X+Y)=E(X)+E(Y) herleiten kann.
Nach dieser Definition müsste doch die Rechenregel E(X+Y)=E(X)+E(Y) nur auf unabhängige Zufallsexperimente übertragbar sein. Aber in meiner Formelsammlung steht keine weitere Bedingung dabei.
Die Summenregel für die Varianz ist nur auf unabhängige Zufallsexperimente anwendbar.
Nehmen wir das selbe Experiment wie oben, dann gilt:
Var(X+Y)= (x_1+y_2-E(X+Y))²*P(x_1 und y_1)+ usw.
Hier gelingt es mir ebenfalls nicht, die Rechenregel Var(X+Y)=Var(X)+Var(Y) mit P(x_n und y_m)= P(x_n)*P(y_n) herzuleiten.
Warum ist dies jetzt nur bei der Summenregel der Varianz unabhängige Zufallsgrößen nötig?
Wenn ich mir die Ansätze mal so anschaue, benutze ich bei beiden Herleitungen, die Eigenschaft P(x_n und y_m)= P(x_n)*P(y_n) und die haben nur unabhängige Zufallsgrößen.
Das führt mich auf den Verdacht, dass man die Summenregel für den Erwartungswert auch für abhängige Größen führen kann.

Vielen Dank für Hilfen und Erläuterungen
Gruß
Tim

Hi Tim,

Der Erwartungswert ist so definiert: E(X+Y) = (x_1+y_1)*P(x_1 und :y_1) + (x_1+y_2)*P(x_1 und y_2) + (x_2+y_1)*P(x_2 und y_1) usw.
Da X und Y unabhängig sind, kann man für P(x_n und y_m)= P(x_n)*P:frowning:y_n) schreiben.

Das stimmt nicht ganz.
Allgemein gilt für den Erwartungswert: E(X) = \sum_{\omega \in \Omega}X(\omega)*P({\omega})
Dann gilt:
E(X)+E(Y)
= \sum_{\omega \in \Omega}X(\omega)*P({\omega})+\sum_{\omega \in \Omega}Y(\omega)*P({\omega})
= \sum_{\omega \in \Omega}(X(\omega)*P({\omega})+Y(\omega)*P({\omega}))
= \sum_{\omega \in \Omega}((X(\omega)+Y(\omega))*P({\omega}))
= E(X+Y)

du musst also keineswegs ale Kombinationen betrachten, weil du dich in Omega aufhälst. Deswegen brauchst du keine Unabhängigkeit von X und Y. Diese ist erst notwendig, wenn du E(X*Y) betrachtest.

Die Summenregel für die Varianz ist nur auf unabhängige :Zufallsexperimente anwendbar.

Nein, sie gilt allgemein als

V(\sum_{i=1}^n a_i*X_i) = \sum_{i=1}^n a_i^2*V(X_i))+2*\sum_{i=1}^{n-1}\sum_{j=i+1}^n a_i*a_j*Cov(X_i, X_j)

wobei Cov die Kovarianz ist, die null wird, wenn die ZV’s unabhängig sind.
Die Grundzüge für den Beweis bei unabhängigkeit findest du hier:
http://www.hs-weingarten.de/~georgi/math/public_html…

Grüße,
JPL

Vielen Dank für den Link, da steht der Beweis für die Varianz in der Art, wie ich sie gesucht hab.

Nur zur Summenregel des Erwartungswertes möchte ich noch was anmerken:

X und Y tritt ein, wenn w (omega) eintritt.
Ein Beispiel wäre, wenn ich eine 6 würfel, dann bekomme ich von der einen Bank als gewinn 4x den Einsatz und von der anderen Bank 5x den Einsatz.
So ein Experiment hast du mir da beschrieben, also mathematisch X(w)+Y(w).

Aber bei meinem Beispiel gibts ja die Möglichkeit von zum Beispiel X(w_1)+Y(w_2), das heißt, dass ein Ereignis, was X hervorruft, nicht zwangsläufig auch Y hervorruft.
Ein Beispiel: Ein Brett erhält beim zersägen eine gewisse Länge X mit einer gewissen Wahrscheinlichkeit. Nun wird es lackiert und der Lack hat eine gewisse unterschiedliche Dicke Y, je nach Wahrscheinlichkeit.

Die erwartete Gesamtlänge des Brettes wäre ja nun E(X(w)+Y(v)) und nun gilt es zu beweisen, dass E(X(w)+Y(v))=E(X(w))+E(Y(v)) ist.
Wie kann man, bezogen auf das Beispiel vom Bretterherstellen, die Regel,
[Formel: E(X)+E(Y) = \sum_{\omega \in \Omega}X(\omega)*P({\omega})+\sum_{\omega \in \Omega}Y(\omega)*P({\omega})], anwenden oder warum gilt sich auch für dieses Zufallsexperiment?

Vielen Dank für eine Erläuterung

Hi Tim,

wenn verschiedene Wahrscheinlichkeitsräume vorliegen (wie für dein Zuschneidebsp) betrachtet man den Produktraum mit dem entsprechenden Produktmass. Weiterhin sind dann die projektiven Zufallsvariablen Xi(i)(omega) = Xi(omegai) voneinander unabhängig und das Produktmass von omega ist dann das Produkt der Masse der einzelnen Komponenten.
Dann kann die Unabhängigkeit voll ausgenutzt werden.
Siehe auch hier: http://www.math.uni-leipzig.de/~koenig/www/ElemWT.pdf (Bemerkung 3.2.10)

Grüße,
JPL

Hallo,
vielen Dank für die Mühe, die du dir machst.
Dein letzter Link ist vom Niveau schon sehr gehoben im Vergleich zum letzten und für mich noch sehr schwer zu verstehen.
Aber in Verbindung mit deiner Erklärung wird mir klar, dass es für abhängige Ergebnisräume keine triviale Lösung zu geben scheint.
Für unabhängige Ergebnisräume ist mir der Beweis gelungen.

Für abhängige werde ich mal meinen Versuch schildern:

E(X+Y)=(x_1+y_1)*P(x_1)*P_x_1(y_1)+(x_1+y_2)*P(x_1)*P_x_1(y_2)+(x_2+y_1)*P(x_2)*P_x_2(y_1)+(x_2+y_2)*P(x_2)*P_x_2(y_2)

= x_1*P(x_1)*[P_x_1(y_1)+P_x_1(y_2)]+x_2*P(x_2)*[P_x_2(y_1)+P_x_2(y_2)]+…
Bis jetzt sieht man, dass [P_x_1(y_1)+P_x_1(y_2)] 1 ist und die andere eckige Klammer natürlich auch, da es jeweils zwei normierte Ergebnisräume sind. Dann kann man schon mal E(X) hinschreiben.
Wenn ich aber zu den E(Y) komme, dann bleibe ich stecken:

Als E(X+Y)=E(X) + y_1*P_x_1(y_1)*P(x_1)+y_2*P_x_1(y_2)*P(x_1)+y_1*P_x_2(y_1)*P(x_2)+y_2*P_x_2(y_2)*P(x_2)
Wie macht man nun daraus noch E(Y)? Zumal, wie gesagt, der Ausgang von X Y beeinflusst. Ich meine, wenn ich jeweils P(x_1) und im anderen Fall P(x_2) ausklammer mit
P(x_1)*[y_1*P_x_1(y_1)+y_2*P_x_1(y_2)] +
P(x_2)*[y_1*P_x_2(y_1)+y_2*P_x_2(y_2)],
dann kommt das gewünschte Ergebnis raus, wenn man für die eckigen Klammern jeweils E(Y). Aber mit welcher Überlegung darf man die eckigen Klammern jeweils mit E(Y) schreiben, zumal aufgrund der Abhängigkeit nicht mal sichergestellt ist, dass beide eckige Klammern das gleiche Ergebnis liefern. Man müsste doch erstmal für die eine Klammer E(Y_1) und die andere E(Y_2) schreiben.

Vielen Dank nochmal für eine kurze Erläuterung dieses Sachverhalts
Gruß
Tim

Hi Tim,

sorry für den schweren link, leichter geht’s leider nicht.
Du machst es dir aber auch zu schwer. Setzen wir voraus, dass du es für den unabhängigen Fall gezeigt hast, geht der Rest dann so: Seien
X_1 : (\Omega_1, P_1) \to \mathbb{R} und X_2 : (\Omega_2, P_2) \to \mathbb{R} .
Dann ist der Produktraum \Omega = \Omega_1\times\Omega_2 mit dem Produktmass P(A) = P_1(A_1)*P_2(A_2) \forall A=A_1*A_2 ein Wahrscheinlichkeitsraum.
Setzte: X_1^{(1)} : \Omega \to S, \omega \to X_1(\omega_1) und X_2^{(2)} : \Omega \to S, \omega \to X_2(\omega_2) sowie X: \Omega \to S, \omega \to X_1^{(1)}(\omega) + X_2^{(2)}(\omega) . Dann sind nach 3.2.10 X_1^{(1)} und X_2^{(2)} unabhängig und es gilt: E(X)=E(X_1^{(1)}+X_2^{(2)}) \overset{unbh.}{=} E(X_1^{(1)})+ E(X_2^{(2)}) = E(X_1) + E(X_2) , da X_i^{(i)} und X_i dieselbe Verteilung haben.

Ein bisschen mehr müsste man noch machen, aber dazu muss man dann tiefer in Massräume und so weiter einsteigen.
Grüße,
JPL