Die Stochastik und Statistik konnte ich noch nie leiden.
Jetzt sitze ich über einem Problem, bei dem ich nicht wirklich weiterkomme:
Jemand spielt beim Glücksrad mit folgender Strategie:
Er setzt beim ersten Mal 10 €; gewinnt er, hört er auf, wenn nicht, verdoppelt er den Einsatz; so geht das immer weiter, allerdings setzt er nie mehr als 10.000 €;
Die Wahrscheinlichkeit für einen Gewinn wie für einen Verlust beträgt 50%;
d.h.: beim ersten Spiel gewinnt er mit p=0,5; er bekommt das den doppelten Einsatz (20 €) zurück, hat also einen Gewinn von 10 € (nach Abzug des Einsatzes); verliert er aber, so setzt er 20 € und gewint wieder mit p=0,5; gewinnt er, beträgt der Gewinn 20 € (er bekommt 40 ausbezahlt); verliert er, setzt er beim dritten mal 40 €, usw…
Die Frage ist nun: wenn er nie mehr als 10.000 € setzt, wieviel gewinnt er durchschnittlich pro Durchgang (ein Durchgang dauert im extremen Fall, dass er immer verliert, 10 Spiele)?
Wenn der Spieler im ersten Durchgang gewinnt, hat er 10€ Gewinn. Sonst 10€ Verlust. Bei einem Gewinn im zweiten Durchgang erhält er zwar 40€, hat aber 20€ gesetzt und 10€ im ersten Durchgang verloren. Bleiben 10€. Im dritten Durchgang kriegt er 80€, hatte aber 40€ Einsatz sowie 20€+10€ Verlust etc. Egal in welchem Durchgang der Gewinnfall eintritt, unterm Strich bleiben 10€.
Die Wahrscheinlichkeit, im ersten Durchgang zu verlieren, beträgt 0,5. Die Wahrscheinlichkeit, dann auch noch den zweiten zu verlieren, ist 0,25. Und so weiter, 10 Durchgänge gehen mit einer Wahrscheinlichkeit von 1 / 210 verloren. Im Durchschnitt ist also in 1023 von 1024 Fällen ein Gewinn von 10€ zu erwarten, und in durchschnittlich einem von 1024 Fällen gehen die Einsätze aus 10 Runden komplett flöten, die sich gerade zu 10230€ summieren. Unterm Strich bleibt gar nix.