Totale Wsk. vs Bayessches Theorem

Hallo,
kennt sich jmand mit den beiden Rechenregeln oben ein wenig aus und kann mir kurz inhaltlich erklären, welches Verfahren wann angewandt wird?
Ich hab mir das so gedacht: totale Wahrscheinlichkeit, wenn ich bedingte Wahrscheinlichkeiten gegeben habe und ich auf die Wahrscheinlichkeit der ganzen Bedingung schließen will.
Bayes: Wenn ich bedingre Wahrscheinlichkeiten gegeben habe und nur auf einen Teil der Bedingung schließen will.

Aber irgendwie scheint mir das nicht klar genug. Kann jemand helfen?

Hossa :smile:

Am einfachsten macht man sich das klar, wenn man die folgende simple Definition von Wahrscheinlichkeit verwendet:

\mbox{Wahrscheinlichkeit}=\frac{\mbox{Anzahl der guenstigen Ereignisse}}{\mbox{Anzahl der moeglichen Ereignisse}}

Beim Würfeln ist z.B. die Wahrscheinlichkeit für eine „5“ genau 1/6. Denn es gibt genau ein günstiges Ereignis, nämlich die „5“ fällt, und genau 6 mögliche Ereignisse, mämlich „1“, „2“, … oder „6“ fällt.

In dem folgenden „Bild“ ist E die Menge aller möglichen Ereignisse. A ist eine bestimmte Menge von Ereignissen und B ebenfalls. Ein paar Ereignisse liegen sowohl in A als auch in B; diese „Schnittmenge“ ist mit Sternchen gefüllt.

/----------------------------------\
| |
| /----------\ |
| | | |
| | /----|-------------\ |
| | |\*\*\*\*| B | |
| | \----|-------------/ |
| | A | |
| \----------/ |
| E |
\----------------------------------/

Nun kannst du direkt zwei Wahrscheinlichkeiten ablesen.

Die Wahrscheinlichkeit, dass ein Ereignis aus der Menge B eintritt:

P(B)=\frac{\mbox{Anzahl der Elemente in B}}{\mbox{Anzahl der Elemente in E}}

Die Wahrscheinlichkeit, dass ein Ereignis aus der Schnittmenge von A und B (im „Bild“ mit Sternchen gefüllt) eintritt:

P(A\cap B)=\frac{\mbox{Anzahl der Elemente in }A\cap B}{\mbox{Anzahl der Elemente in E}}

Nehmen wir nun an, wir wissen bereits, dass ein Ereignis aus der Menge B eingetreten ist. Wie groß ist dann die Wahrscheinlichkeit, dass dieses Ereignis auch in der Menge A liegt?

Die Anzahl der möglichen Fälle ist nun gleich der Anzahl der Elemente in der Menge B, denn wir wissen ja bereits, dass das Ereignis in B liegt. Die Anzahl der günstigen Fälle ist gleich der Anzahl der Elmente in der Schnittmenge von A und B. Diese Wahrscheinlichkeit wird auch Wahrscheinlichkeit von A bezüglich B genannt:

P_B(A)=\frac{\mbox{Anzahl der Elemente in }A\cap B}{\mbox{Anzahl der Elemente in B}}

Wir erweitern den Bruch auf der rechten Seite mit einer „1“:

P_B(A)=\frac{\mbox{Anzahl der Elemente in }A\cap B}{\mbox{Anzahl der Elemente in B}}\cdot\frac{\mbox{Anzahl der Elemente in E}}{\mbox{Anzahl der Elemente in E}}

und sortieren die Faktoren etwas um:

P_B(A)=\frac{\mbox{Anzahl der Elemente in }A\cap B}{\mbox{Anzahl der Elemente in E}}\cdot\frac{\mbox{Anzahl der Elemente in E}}{\mbox{Anzahl der Elemente in B}}

P_B(A)=\frac{\mbox{Anzahl der Elemente in }A\cap B}{\mbox{Anzahl der Elemente in E}}\div\frac{\mbox{Anzahl der Elemente in B}}{\mbox{Anzahl der Elemente in E}}

Nun kannst du die beiden Terme auf der rechten Seite durch die oben identifizierten Wahrscheinlichkeiten ersetzen:

P_B(A)=\frac{P(A\cap B)}{P(B)}

Der Unterschied zwischen bedingter Wahrscheinlichkeit und totaler Wahrscheinlichkeit ist also folgender:

Bei der totalen Wahrscheinlichkeit ist die Anzahl der möglichen Fälle nicht eingeschränkt, die Ereignismenge ist E.

Bei der bedingten Wahrscheinlichkeit ist Anzahl der möglichen Fälle bereits auf eine Teilmenge von E eingeschränkt, in unserem Beispiel war das die eingeschränkte Ereignismenge B.

Das wird besonders deutlich, wenn du in der Bayes-Formel einfach mal E an Stelle von B einsetzt:

P_E(A)=\frac{P(A\cap E)}{P(E)}=\frac{P(A)}{1}=P(A)

Viele Grüße

Danke vielmals!

ALso kann man sagen, dass bei der totalen Wahrscheinlichkeit eine Wahrscheinlichkeit für ein Erreignis gesucht wird, beim Bayesschen Theorem aber ein Teilereignis, das durch ein anderes auch noch zusätzlich bedingt ist?