Matroids Matheplanet Forum Index
Moderiert von luis52
Mathematik » Stochastik und Statistik » Erwartungswert beim Münzwerfen berechnen
Seite 1   [1 2]   2 Seiten
Autor
Universität/Hochschule J Erwartungswert beim Münzwerfen berechnen
Cyborg
Aktiv Letzter Besuch: im letzten Quartal
Dabei seit: 20.05.2009
Mitteilungen: 675
  Themenstart: 2022-11-01

Hallo, Leute! Ich brauche mal wieder eure Hilfe: Ich habe eine Aufgabe bei matheraetsel.de nicht lösen können, daher musste ich leider die Musterlösung einsehen. Weil ich die Aufgabe mag, möchte die Lösung gerne verstehen. https://matheplanet.de/matheplanet/nuke/html/uploads/b/26086_2_Frage.jpg Ich habe Probleme mit dem rotumrahmten Kasten! Kann mir jemand erklären wie genau man darauf kommt, dass der $i$-te Summand gleich $\left(\dfrac{1}{2}\right)^i\cdot (E[Z_k]+1)$ ist. \red\ Ich verstehe das einfach nicht!!! $E[Z_k]$ ist die mittlere Anzahl an Schritten, um von Zustand $1$ in Zustand $k$ zu landen. Es gilt weiter $P(Z)=P(K)=\dfrac{1}{2}$ Ich danke euch!


   Profil
StrgAltEntf
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 19.01.2013
Mitteilungen: 8293
Wohnort: Milchstraße
  Beitrag No.1, eingetragen 2022-11-01

Hallo Cyborg, wie lautet denn die Aufgabe?


   Profil
Cyborg
Aktiv Letzter Besuch: im letzten Quartal
Dabei seit: 20.05.2009
Mitteilungen: 675
  Beitrag No.2, vom Themenstarter, eingetragen 2022-11-01

Hallo, StrgAltEntf! Zum besseren Verständnis hier die Aufgabenstellung: https://matheplanet.de/matheplanet/nuke/html/uploads/b/26086_6_Unbenannt.jpg


   Profil
Diophant
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 18.01.2019
Mitteilungen: 10684
Wohnort: Rosenfeld, BW
  Beitrag No.3, eingetragen 2022-11-01

\(\begingroup\)\(\newcommand{\ba}{\begin{aligned}} \newcommand{\ea}{\end{aligned}} \newcommand{\bc}{\begin{cases}} \newcommand{\ec}{\end{cases}} \newcommand{\bpm}{\begin{pmatrix}} \newcommand{\epm}{\end{pmatrix}} \newcommand{\bvm}{\begin{vmatrix}} \newcommand{\evm}{\end{vmatrix}} \newcommand{\mb}[1]{\mathbb{#1}} \newcommand{\mc}[1]{\mathcal{#1}} \newcommand{\mf}[1]{\mathfrak{#1}} \newcommand{\ms}[1]{\mathscr{#1}} \newcommand{\on}{\operatorname} \newcommand{\ds}{\displaystyle}\) Hallo, \quoteon(2022-11-01 12:09 - Cyborg im Themenstart) Ich habe Probleme mit dem rotumrahmten Kasten! \quoteoff das ist eigentlich direkt darunter erklärt, wenn auch eventuell etwas unglücklich formuliert. Also: wenn man das ersten mal im Zustand \(k\) war und dann beim Werfen der Münze Glück hatte, dann ist man im Zustand \(k+1\) und es gilt sicherlich \(E[Z_{k+1}]=E[Z_k]+1\), da man einen Wurf mehr benötigt hat als bis in den Zustand \(k\). Wenn man aber schon zum zweiten mal bei \(k\) angelangt war und dann Glück hatte, kommt ja nochmal der gleiche Weg dazu, aber mit der Wahrscheinlichkeit \(p=1/2\). Das ist die Wahrscheinlichkeit, mit der man beim ersten Mal Pech hatte. Ist man schon zum dritten Mal beim Zustand \(k\), dann hat man schon zweimal Pech gehabt, wofür die Wahrscheinlichkeit \(p=(1/2)^2=1/4\) ist, usw. Gruß, Diophant [Die Antwort wurde vor Beitrag No.1 begonnen.]\(\endgroup\)


   Profil
Cyborg
Aktiv Letzter Besuch: im letzten Quartal
Dabei seit: 20.05.2009
Mitteilungen: 675
  Beitrag No.4, vom Themenstarter, eingetragen 2022-11-01

Hallo, Diophant! Ich verstehe es immer noch nicht so ganz! Ich hoffe du bist mir nicht böse!? 🙄 Ich verstehe, dass die Wahrscheinlichkeit für $i$-mal Pech gehabt eben $(\dfrac{1}{2})^i$ ist. Ich verstehe: Wenn man genau $1$-mal in Zustand $k$ war und dann Glück hat, dass man $E[Z_k]+1$ Schritte hat. \quoteon(2022-11-01 12:36 - Diophant in Beitrag No. 3) ... kommt ja nochmal der gleiche Weg dazu, [Die Antwort wurde vor Beitrag No.1 begonnen.] \quoteoff Ich glaube, dass das irgendwie wichtig ist! Kannst du das mal genauer ausführen???


   Profil
Diophant
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 18.01.2019
Mitteilungen: 10684
Wohnort: Rosenfeld, BW
  Beitrag No.5, eingetragen 2022-11-01

\(\begingroup\)\(\newcommand{\ba}{\begin{aligned}} \newcommand{\ea}{\end{aligned}} \newcommand{\bc}{\begin{cases}} \newcommand{\ec}{\end{cases}} \newcommand{\bpm}{\begin{pmatrix}} \newcommand{\epm}{\end{pmatrix}} \newcommand{\bvm}{\begin{vmatrix}} \newcommand{\evm}{\end{vmatrix}} \newcommand{\mb}[1]{\mathbb{#1}} \newcommand{\mc}[1]{\mathcal{#1}} \newcommand{\mf}[1]{\mathfrak{#1}} \newcommand{\ms}[1]{\mathscr{#1}} \newcommand{\on}{\operatorname} \newcommand{\ds}{\displaystyle}\) Hallo, \quoteon(2022-11-01 13:09 - Cyborg in Beitrag No. 4) Ich verstehe es immer noch nicht so ganz! Ich hoffe du bist mir nicht böse!? 🙄 \quoteoff Nee, wieso sollte ich? 🙂 \quoteon(2022-11-01 13:09 - Cyborg in Beitrag No. 4) \quoteon(2022-11-01 12:36 - Diophant in Beitrag No. 3) ... kommt ja nochmal der gleiche Weg dazu, [Die Antwort wurde vor Beitrag No.1 begonnen.] \quoteoff Ich glaube, dass das irgendwie wichtig ist! Kannst du das mal genauer ausführen??? \quoteoff Man kann es auch so begründen: man kann ja überhaupt nur in den Zustand \(k\) kommen, wenn man in \(k\) aufeinderfolgenden Würfen Zahl wirft. Wenn man es erst beim zweiten Mal nach \(k+1\) schafft, dann hatte man zwei solcher Serien, beim \(n\). Mal eben \(n\) Serien. Jetzt kann man sich eine neue Zufallsvariable denken, die die Anzahl solcher "Zahl-Serien" beschreibt. Deren Wertebereich sind die natürlichen Zahlen ohne Null. Und dann baut man den Erwartungswert dieser ZV nach Definition auf, also als Summe über die Produkte "Ereignis mal Eintrittswahrscheinlichkeit". Für eine Serie ist dieses Produkt eben genau die Summe \(E[Z_k]+1\), denn man hat dann einen Zahl-Wurf mehr benötigt. Für zwei Serien hat man zusätzlich noch mit Wahrscheinlichkeit \(1/2\) die gleiche Summe nochmal, für drei Serien mit der Wahrscheinlichkeit \(1/4\) noch ein drittes mal, usw. Es ist schon ein wenig um die Ecke gedacht, oder eigentlich eher rückwärts. Ich musste auch zuerst überlegen, bevor ich die Erläuterung verstanden hatte. Im Prinzip wird durch die von mir erwähnte Zufallsvariable das Problem auf eine geometrische Verteilung zurückgeführt (daher auch die geometrische Reihe zur Berechnung des Erwartungswertes). Vielleicht hilft dir dieser Zusammenhang? Gruß, Diophant\(\endgroup\)


   Profil
Cyborg
Aktiv Letzter Besuch: im letzten Quartal
Dabei seit: 20.05.2009
Mitteilungen: 675
  Beitrag No.6, vom Themenstarter, eingetragen 2022-11-01

Hallo, Leute! Ich VERGESSE mal die Lösung von Berechnungsweg 1. Eine Lösung möchte ich noch kapieren, weil die Aufgabe spannend ist. Berechnungsweg 2: https://matheplanet.de/matheplanet/nuke/html/uploads/b/26086_3_Frage.jpg Wie genau sieht man, dass $E[A_k]=2^k$ gilt??? Dass $E[A_1]=1$ ist, kann ich noch nachvollziehen. Das scheint mir diesmal machbar zu sein! Danke euch!


   Profil
Cyborg
Aktiv Letzter Besuch: im letzten Quartal
Dabei seit: 20.05.2009
Mitteilungen: 675
  Beitrag No.7, vom Themenstarter, eingetragen 2022-11-01

Ich verstehe jetzt endlich mal was: $$E[A_1]=1$$ Weil man im letzten Zustand genau einmal landet. $$E[A_2]=2$$ Weil man mit der Wahrscheinlichkeit $\dfrac{1}{2}$ von $A_2$ im Endzustand landet, es muss also gelten $E[A_2]\cdot\left(\dfrac{1}{2}\right)^1=E[A_1]=1$, also $E[A_2]=2^1$. $$E[A_3]=4$$ Weil man mit der Wahrscheinlichkeit $\left(\dfrac{1}{2}\right)^2$ von $A_3$ im Endzustand landet, es muss also gelten $E[A_3]\cdot\left(\dfrac{1}{2}\right)^2=E[A_1]=1$, also $E[A_3]=2^2$. $$E[A_4]=8$$ Weil man mit der Wahrscheinlichkeit $\left(\dfrac{1}{2}\right)^3$ von $A_4$ im Endzustand landet, es muss also gelten $E[A_4]\cdot\left(\dfrac{1}{2}\right)^3=E[A_1]=1$, also $E[A_4]=2^3$. usw. Bevor man den letzten Zustand besucht, hat man also insgesamt $\sum\limits_{i=1}^k E[A_i]=\sum\limits_{i=1}^k 2^{i-1}=2^{k+1}-1$ Zustände besucht, also $2^{k+1}-2$ Kanten.


   Profil
Cyborg
Aktiv Letzter Besuch: im letzten Quartal
Dabei seit: 20.05.2009
Mitteilungen: 675
  Beitrag No.8, vom Themenstarter, eingetragen 2022-11-01

Im Text sind Fehler!


   Profil
Diophant
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 18.01.2019
Mitteilungen: 10684
Wohnort: Rosenfeld, BW
  Beitrag No.9, eingetragen 2022-11-01

\(\begingroup\)\(\newcommand{\ba}{\begin{aligned}} \newcommand{\ea}{\end{aligned}} \newcommand{\bc}{\begin{cases}} \newcommand{\ec}{\end{cases}} \newcommand{\bpm}{\begin{pmatrix}} \newcommand{\epm}{\end{pmatrix}} \newcommand{\bvm}{\begin{vmatrix}} \newcommand{\evm}{\end{vmatrix}} \newcommand{\mb}[1]{\mathbb{#1}} \newcommand{\mc}[1]{\mathcal{#1}} \newcommand{\mf}[1]{\mathfrak{#1}} \newcommand{\ms}[1]{\mathscr{#1}} \newcommand{\on}{\operatorname} \newcommand{\ds}{\displaystyle}\) \quoteon(2022-11-01 18:35 - Cyborg in Beitrag No. 8) Im Text sind Fehler! \quoteoff Ja. Zumindest sollte der Zustand \(1\) dem (ehemaligen) Zustand \(k+1\) entsprechen, und nicht dem Zustand \(k\). Gruß, Diophant\(\endgroup\)


   Profil
Cyborg
Aktiv Letzter Besuch: im letzten Quartal
Dabei seit: 20.05.2009
Mitteilungen: 675
  Beitrag No.10, vom Themenstarter, eingetragen 2022-11-01

Es gilt nicht $E[A_k]=2^k$, sondern $E[A_k]=2^{k-1}$! Es gilt nicht $\sum\limits_{i=1}^k 2^i=2^{k+1}-1$, sondern $\sum\limits_{i=1}^k 2^i=2^{k+1}-2$! [Die Antwort wurde nach Beitrag No.8 begonnen.]


   Profil
AnnaKath
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 18.12.2006
Mitteilungen: 3747
Wohnort: hier und dort (s. Beruf)
  Beitrag No.11, eingetragen 2022-11-01

Huhu cyborg, ein Wort noch zur Warnung: Die letzte Argumentation funktioniert nur, weil sie die spezielle Struktur dieser Markovkette ausnutzt (nämlich, dass man aus jedem Zustand durch das Werfen von K in den Grundzustand $0$ zurückfällt). Natürlich ist es schön, wenn Du diese Lösung nachvollzogen hast, sie ist aber nicht zu verallgemeinern. Viel einfacher erscheint es mir, sich direkt die Rekursionsgleichung zu überlegen (ein Verfahren, welches man auch in anderen Situationen verwenden kann). Setzen wir zur Abkürzung $E_k = E[Z_k]$. Befinden wir uns im Zustand $k$ benötigen wir mit W'keit $1/2$ noch einen Wurf und mit W'keit $1/2$ fallen wir in den Zustand $0$ zurück und benötigen also dann im Mittel $E_{k+1}$ Würfe (zuzüglich des aktuellen Wurfes von K), um den gewünschten Zustand $k+1$ zu erreichen. Den Zustand $k$ haben wir im Mittel nach $E_k$ Würfen erreicht. Zusammengefasst gilt also $$E_{k+1} =E_k + \frac12 \cdot 1 + \frac12 (E_{k+1} + 1) $$ bzw. $$E_{k+1} = 2E_k + 2.$$ Mit $E_0=0$ ergibt sich dann die Lösung wie in Lösungsweg 1. lg, AK [Die Antwort wurde nach Beitrag No.7 begonnen.]


   Profil
Cyborg
Aktiv Letzter Besuch: im letzten Quartal
Dabei seit: 20.05.2009
Mitteilungen: 675
  Beitrag No.12, vom Themenstarter, eingetragen 2022-11-01

Hallo, AnnaKath! Das sieht schon ganz gut aus. Eine Frage habe ich aber: Ist man im Zustand $k$, dann hat man bis dahin $E_k$ W"urfe gebraucht. Man muss also $\dfrac{1}{2}\cdot 1$ addieren, weil man nach einem Wurf mit der Wahrscheinlichkeit $\dfrac{1}{2}$ im Zustand $k+1$ landet. Also ist mir $[E_k+\dfrac{1}{2}\cdot 1]$ jetzt klar. Mit der Wahrscheinlichkeit $\dfrac{1}{2}$ landet man im Zustand $1$ und braucht $E_{k+1}$ Würfe, um im Zustand $k+1$ zu landen. Wieso $E_{k+1}+1$??? man braucht doch $E_{k+1}+0$ Schritte, um im Zustand $k+1$ zu landen???


   Profil
Cyborg
Aktiv Letzter Besuch: im letzten Quartal
Dabei seit: 20.05.2009
Mitteilungen: 675
  Beitrag No.13, vom Themenstarter, eingetragen 2022-11-01

Moment ... : \quoteon(2022-11-01 18:50 - AnnaKath in Beitrag No. 11) also dann im Mittel $E_{k+1}$ Würfe (zuzüglich des aktuellen Wurfes von K), um den [Die Antwort wurde nach Beitrag No.7 begonnen.] \quoteoff Der Wurf von $K$ im Zustand $k$ wird zu $E_{k+1}$ dazugenommen.


   Profil
Cyborg
Aktiv Letzter Besuch: im letzten Quartal
Dabei seit: 20.05.2009
Mitteilungen: 675
  Beitrag No.14, vom Themenstarter, eingetragen 2022-11-01

Ja, jetzt ist der Groschen gefallen. Danke AnnaKath, das war sehr schlau und einleuchtend!!!


   Profil
Cyborg
Aktiv Letzter Besuch: im letzten Quartal
Dabei seit: 20.05.2009
Mitteilungen: 675
  Beitrag No.15, vom Themenstarter, eingetragen 2022-11-02

Ich wollte mich eigentlich mit der Lösung von AnnaKath zufrieden geben, aber möchte mit euch zusammen gucken, ob man die Lösung von Berechnungsweg 2 noch retten kann. Da sind Fehler drin! Nochmal: https://matheplanet.de/matheplanet/nuke/html/uploads/b/26086_3_Frage.jpg Es gilt aber $E[A_i]=2^{i-1}$ und nicht $E[A_i]=2^{i}$. Es müsste dann gelten $\sum\limits_{i=1}^k E[A_i]=\sum\limits_{i=1}^k 2^{i-1}=2^k-1$ ungleich $2^{k+1}-1$??? \red\ Ist die Lösung noch zu retten???? Die Argumentation fand ich eigentlich ganz logisch!?


   Profil
Diophant
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 18.01.2019
Mitteilungen: 10684
Wohnort: Rosenfeld, BW
  Beitrag No.16, eingetragen 2022-11-02

\quoteon(2022-11-02 08:52 - Cyborg in Beitrag No. 15) \red\ Ist die Lösung noch zu retten???? \quoteoff Ja. Siehe Beitrag #9. Gruß, Diophant


   Profil
Cyborg
Aktiv Letzter Besuch: im letzten Quartal
Dabei seit: 20.05.2009
Mitteilungen: 675
  Beitrag No.17, vom Themenstarter, eingetragen 2022-11-02

Hallo, Diophant! Nimmt man $k+1$ dazu, dann hat man: $$\sum\limits_{i=1}^{k+1}2^{i-1}=2^{k+1}-1$$ Ich muss nochmal BLÖD fragen: Rechnet man mit dieser Summe dann nicht $E[Z_{k+1}]$ statt $E[Z_{k}]$ aus???


   Profil
Diophant
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 18.01.2019
Mitteilungen: 10684
Wohnort: Rosenfeld, BW
  Beitrag No.18, eingetragen 2022-11-02

\(\begingroup\)\(\newcommand{\ba}{\begin{aligned}} \newcommand{\ea}{\end{aligned}} \newcommand{\bc}{\begin{cases}} \newcommand{\ec}{\end{cases}} \newcommand{\bpm}{\begin{pmatrix}} \newcommand{\epm}{\end{pmatrix}} \newcommand{\bvm}{\begin{vmatrix}} \newcommand{\evm}{\end{vmatrix}} \newcommand{\mb}[1]{\mathbb{#1}} \newcommand{\mc}[1]{\mathcal{#1}} \newcommand{\mf}[1]{\mathfrak{#1}} \newcommand{\ms}[1]{\mathscr{#1}} \newcommand{\on}{\operatorname} \newcommand{\ds}{\displaystyle}\) Hallo, \quoteon(2022-11-02 09:39 - Cyborg in Beitrag No. 17) Hallo, Diophant! Nimmt man $k+1$ dazu, dann hat man: $$\sum\limits_{i=1}^{k+1}2^{i-1}=2^{k+1}-1$$ Ich muss nochmal BLÖD fragen: Rechnet man mit dieser Summe dann nicht $E[Z_{k+1}]$ statt $E[Z_{k}]$ aus??? \quoteoff Du hast schon recht, der Ansatz ist ziemlich verunglückt. Was man schon an der Auflistung sieht, wo auf der einen Seite \(E[A_1]=1\), \(E[A_2]=2\) und \(E[A_3]=4\) gelten und dann geht es plötzlich weiter mit \(E[A_{k-1}]=2^{k-1}\). Das ist ja ein Widerspruch in sich. Und am Ende wird das dann durch die falsche Summe wieder repariert. Des Pudels Kern ist aber das, was ich schon in Beitrag #9 geschrieben hatte. Man betrachtet hier ja jetzt nicht mehr die besuchten Kanten, sondern die besuchten Zustände, und das ganze rückwärts. Also muss man, um es mit dem anderen Ansatz vergleichen zu können, ebenfalls \(k+1\) Zustände betrachten, und zwar rückwärts die Zustände \(A_1\) (das ist der Zustand \(k+1\)) bis \(A_{k+1}\) (das ist der Zustand \(1\)). Und dann wird ein Schuh draus: \[\ba E[A_1]&=1=2^0\\ \\ E[A_2]&=2=2^1\\ \\ E[A_3]&=4=2^2\\ \\ &\vdots\\ \\ E[A_{k+1}]&=2^k \ea\] Macht summa summarum: \[E[A_{\text{gesamt}}]=\sum_{i=1}^{k+1} 2^{i-1}=\sum_{i=0}^k 2^i=2^{k+1}-1\] Die Argumentation, dass die Anzahl an besuchten Zuständen um 1 größer ist als die der besuchten Kanten, ist dann wiederum richtig. Gruß, Diophant\(\endgroup\)


   Profil
Cyborg
Aktiv Letzter Besuch: im letzten Quartal
Dabei seit: 20.05.2009
Mitteilungen: 675
  Beitrag No.19, vom Themenstarter, eingetragen 2022-11-02

\quoteon(2022-11-02 10:45 - Diophant in Beitrag No. 18) Man betrachtet hier ja jetzt nicht mehr die besuchten Kanten, sondern die besuchten Zustände, und das ganze rückwärts. Also muss man, um es mit dem anderen Ansatz vergleichen zu können, ebenfalls \(k+1\) Zustände betrachten, und zwar rückwärts die Zustände \(A_1\) (das ist der Zustand \(k+1\)) bis \(A_{k+1}\) (das ist der Zustand \(1\)). \quoteoff Tut mir Leid, das verstehe ich nicht! \quoteon(2022-11-02 10:45 - Diophant in Beitrag No. 18) Also muss man, um es mit dem anderen Ansatz vergleichen zu können, ebenfalls \(k+1\) Zustände betrachten \quoteoff Kannst du das genauer erklären? Ich bin geneigt, auch diese Lösung zu vergessen, falls der Groschen einfach nicht fallen will!


   Profil
Diophant
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 18.01.2019
Mitteilungen: 10684
Wohnort: Rosenfeld, BW
  Beitrag No.20, eingetragen 2022-11-02

\(\begingroup\)\(\newcommand{\ba}{\begin{aligned}} \newcommand{\ea}{\end{aligned}} \newcommand{\bc}{\begin{cases}} \newcommand{\ec}{\end{cases}} \newcommand{\bpm}{\begin{pmatrix}} \newcommand{\epm}{\end{pmatrix}} \newcommand{\bvm}{\begin{vmatrix}} \newcommand{\evm}{\end{vmatrix}} \newcommand{\mb}[1]{\mathbb{#1}} \newcommand{\mc}[1]{\mathcal{#1}} \newcommand{\mf}[1]{\mathfrak{#1}} \newcommand{\ms}[1]{\mathscr{#1}} \newcommand{\on}{\operatorname} \newcommand{\ds}{\displaystyle}\) \quoteon(2022-11-02 10:58 - Cyborg in Beitrag No. 19) \quoteon(2022-11-02 10:45 - Diophant in Beitrag No. 18) Also muss man, um es mit dem anderen Ansatz vergleichen zu können, ebenfalls \(k+1\) Zustände betrachten \quoteoff Kannst du das genauer erklären? \quoteoff Beide Lösungsansätze gehen offensichtlich von dem Graphen in Abbildung 2 aus dem Themenstart aus. Und der hat nun einmal \(k+1\) Zustände und nicht \(k\). Die Zustände sind dabei die Punkte zwischen den Münzwürfen, d.h.: die Kanten in dem Graphen entsprechen den Münzwürfen. Und zwar inkl. dem Start, der in dieser zweiten Lösung mit \(A_{k+1}\) bezeichnet wird (zumindest in meiner Version), wohingegen der Zustand, dass man k-mal Zahl geworfen hat, jetzt \(A_1\) heißt. Vielleicht ist das ja hilfreich? Gruß, Diophant\(\endgroup\)


   Profil
Cyborg
Aktiv Letzter Besuch: im letzten Quartal
Dabei seit: 20.05.2009
Mitteilungen: 675
  Beitrag No.21, vom Themenstarter, eingetragen 2022-11-02

Man muss irgendwie zeigen: Wenn ich $k+1$ Zustände habe, dann zeigt man wie oft man in der Summe die Zustände besucht hat. Warum ist das das gleiche wie?: Ich habe $k$ Zustände und besuche im Mittel $E[Z_k]$ Kanten bis man im Endzustand $Z_k$ landet. [Die Antwort wurde nach Beitrag No.19 begonnen.] Vielleicht nähere ich mich mit dieser Frage dem Kern.


   Profil
Diophant
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 18.01.2019
Mitteilungen: 10684
Wohnort: Rosenfeld, BW
  Beitrag No.22, eingetragen 2022-11-02

\(\begingroup\)\(\newcommand{\ba}{\begin{aligned}} \newcommand{\ea}{\end{aligned}} \newcommand{\bc}{\begin{cases}} \newcommand{\ec}{\end{cases}} \newcommand{\bpm}{\begin{pmatrix}} \newcommand{\epm}{\end{pmatrix}} \newcommand{\bvm}{\begin{vmatrix}} \newcommand{\evm}{\end{vmatrix}} \newcommand{\mb}[1]{\mathbb{#1}} \newcommand{\mc}[1]{\mathcal{#1}} \newcommand{\mf}[1]{\mathfrak{#1}} \newcommand{\ms}[1]{\mathscr{#1}} \newcommand{\on}{\operatorname} \newcommand{\ds}{\displaystyle}\) \quoteon(2022-11-02 11:17 - Cyborg in Beitrag No. 21) Warum ist das das gleiche wie?: Ich habe $k$ Zustände und besuche im Mittel $E[Z_k]$ Kanten bis man im Endzustand $Z_k$ landet. \quoteoff \(Z_k\) ist eben kein Zustand, sondern eine Kante und somit ein Münzwurf. Nochmal: - Kanten: Münzwürfe - Zustände: Phasen zwischen den Münzwürfen bzw. zu Beginn und am Ende der gesamten Serie. Es gibt somit einen Zustand mehr als die mit "Z" bezeichneten Kanten, die dafür stehen, dass man Zahl geworfen hat. Vielleicht verwirrt dich in dem Zusammenhang das Symbol \(E[Z_{k+1}]\) aus dem ersten Ansatz? Das hat mit dem Problem überhaupt nichts zu tun, sondern ist nur die übliche Darstellung einer Rekursion 1. Ordnung. Da hätte man vielleicht für die Rekursionsgleichung besser eine andere Indexvariable gewählt. Wenn du für genau 7 Tage einen Urlaub buchst: wie viele Übernachtungen schließt dieser Urlaub dann mit ein? Gruß, Diophant\(\endgroup\)


   Profil
Cyborg
Aktiv Letzter Besuch: im letzten Quartal
Dabei seit: 20.05.2009
Mitteilungen: 675
  Beitrag No.23, vom Themenstarter, eingetragen 2022-11-02

\quoteon(2022-11-02 11:42 - Diophant in Beitrag No. 22) Es gibt somit einen Zustand mehr als die mit "Z" bezeichneten Kanten, die dafür stehen, dass man Zahl geworfen hat. Gruß, Diophant \quoteoff Ich glaube jetzt verstehe ich es: In den Zustand $k+1$ gelandet zu sein heißt, dass man $(k+1)-1$ mal $Z$ geworfen hat. $k+1$ Zustände zu haben, bedeutet, dass man das Problem $k$-mal $Z$ geworfen betrachtet und nicht $k+1$-mal $Z$. Hat man die Zustände $1$ bis $k+1$ in der Summe im Mittel $2^{k+1}-1$ besucht, dann hatte man wohl $2^{k+1}-2$ Münzwürfe. Um $k$-mal das $Z$ geworfen zu haben, sollte man $2^{k+1}-2$ mal geworfen haben. DAS WAR NE SCHWERE GEBURT! Alles OK?


   Profil
Diophant
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 18.01.2019
Mitteilungen: 10684
Wohnort: Rosenfeld, BW
  Beitrag No.24, eingetragen 2022-11-02

\(\begingroup\)\(\newcommand{\ba}{\begin{aligned}} \newcommand{\ea}{\end{aligned}} \newcommand{\bc}{\begin{cases}} \newcommand{\ec}{\end{cases}} \newcommand{\bpm}{\begin{pmatrix}} \newcommand{\epm}{\end{pmatrix}} \newcommand{\bvm}{\begin{vmatrix}} \newcommand{\evm}{\end{vmatrix}} \newcommand{\mb}[1]{\mathbb{#1}} \newcommand{\mc}[1]{\mathcal{#1}} \newcommand{\mf}[1]{\mathfrak{#1}} \newcommand{\ms}[1]{\mathscr{#1}} \newcommand{\on}{\operatorname} \newcommand{\ds}{\displaystyle}\) Hallo, \quoteon(2022-11-02 12:51 - Cyborg in Beitrag No. 23) Alles OK? \quoteoff Fast. 😉 \quoteon(2022-11-02 12:51 - Cyborg in Beitrag No. 23) Ich glaube jetzt verstehe ich es: In den Zustand $k+1$ gelandet zu sein heißt, dass man $(k+1)-1$ mal $Z$ geworfen hat. \quoteoff Genauer: dass man in k aufeinanderfolgenden Würfen "Zahl" geworfen hat. So meintest du es aber vermutlich. \quoteon(2022-11-02 12:51 - Cyborg in Beitrag No. 23) $k+1$ Zustände zu haben, bedeutet, dass man das Problem $k$-mal $Z$ geworfen betrachtet und nicht $k+1$-mal $Z$. \quoteoff Auch hier wieder: dass man das Problem betrachtet, k-mal hintereinander "Zahl" zu werfen. \quoteon(2022-11-02 12:51 - Cyborg in Beitrag No. 23) Hat man die Zustände $1$ bis $k+1$ in der Summe im Mittel $2^{k+1}-1$ besucht, dann hatte man wohl $2^{k+1}-2$ Münzwürfe. Um $k$-mal das $Z$ geworfen zu haben, sollte man $2^{k+1}-2$ mal geworfen haben. \quoteoff Genau. \quoteon(2022-11-02 12:51 - Cyborg in Beitrag No. 23) DAS WAR NE SCHWERE GEBURT! \quoteoff Ja, aber das ist in der Mathematik manchmal gar nicht so schlecht, finde ich. Solche Probleme oder Konzepte, wo ich echt dran ackern musste, merke ich mir in aller Regel viel besser als Sachen, die einem eher so zugefallen sind... 🙂 Gruß, Diophant\(\endgroup\)


   Profil
Cyborg
Aktiv Letzter Besuch: im letzten Quartal
Dabei seit: 20.05.2009
Mitteilungen: 675
  Beitrag No.25, vom Themenstarter, eingetragen 2022-11-02

Danke dir, Diophant!


   Profil
Cyborg
Aktiv Letzter Besuch: im letzten Quartal
Dabei seit: 20.05.2009
Mitteilungen: 675
  Beitrag No.26, vom Themenstarter, eingetragen 2022-11-03

\quoteon(2022-11-01 12:09 - Cyborg im Themenstart) https://matheplanet.de/matheplanet/nuke/html/uploads/b/26086_2_Frage.jpg Ich habe Probleme mit dem rotumrahmten Kasten! Kann mir jemand erklären wie genau man darauf kommt, dass der $i$-te Summand gleich $\left(\dfrac{1}{2}\right)^i\cdot (E[Z_k]+1)$ ist. $E[Z_k]$ ist die mittlere Anzahl an Schritten, um von Zustand $1$ in Zustand $k$ zu landen. Es gilt weiter $P(Z)=P(K)=\dfrac{1}{2}$ \quoteoff \blue\ Ich habe für die Lösung der Aufgabe zwei Lösungen dank eurer Hilfe verstehen können. Mich wurmt es, dass ich die schöne Lösung von Berechnungsweg 1 nicht verstehe. Vielleicht kriegen wird das zusammen noch hin!


   Profil
Cyborg
Aktiv Letzter Besuch: im letzten Quartal
Dabei seit: 20.05.2009
Mitteilungen: 675
  Beitrag No.27, vom Themenstarter, eingetragen 2022-11-03

Einstiegsfrage: Wenn man zum $i$-ten Mal in Zustand $k$ war, dann hatte man $i-1$-mal Pech gehabt, was soviel heißt wie man hat in Zustand $k$ Kopf gewürfelt. Man sollte also betrachten: $\left(\dfrac{1}{2}\right)^{i-1}(E[Z_k]+1)$ Denn: Denn man war $i-1$-mal in Zustand $k$ und hat danach $K$ gewürfelt. Hat man beim $i$-ten Mal $Z$ gewürfelt, dann hat man gewonnen. Man müsste doch dann nochmal mit $\dfrac{1}{2}$ multiplizieren für $Z$ gewürfelt, also: $\left(\dfrac{1}{2}\right)^{i-1}(E[Z_k]+1)\cdot\dfrac{1}{2}$???


   Profil
Diophant
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 18.01.2019
Mitteilungen: 10684
Wohnort: Rosenfeld, BW
  Beitrag No.28, eingetragen 2022-11-03

\(\begingroup\)\(\newcommand{\ba}{\begin{aligned}} \newcommand{\ea}{\end{aligned}} \newcommand{\bc}{\begin{cases}} \newcommand{\ec}{\end{cases}} \newcommand{\bpm}{\begin{pmatrix}} \newcommand{\epm}{\end{pmatrix}} \newcommand{\bvm}{\begin{vmatrix}} \newcommand{\evm}{\end{vmatrix}} \newcommand{\mb}[1]{\mathbb{#1}} \newcommand{\mc}[1]{\mathcal{#1}} \newcommand{\mf}[1]{\mathfrak{#1}} \newcommand{\ms}[1]{\mathscr{#1}} \newcommand{\on}{\operatorname} \newcommand{\ds}{\displaystyle}\) Hallo, \quoteon(2022-11-03 14:17 - Cyborg in Beitrag No. 26) Ich habe für die Lösung der Aufgabe zwei Lösungen dank eurer Hilfe verstehen können. Mich wurmt es, dass ich die schöne Lösung von Berechnungsweg 1 nicht verstehe. Vielleicht kriegen wird das zusammen noch hin! \quoteoff Das können wir gerne versuchen. Dazu wäre es gut, wenn du deine Verständnisprobleme noch weiter konkretisieren könntest. Ich versuche es nochmal ähnlich wie oben: wir tun einmal so, als befänden wir uns beim Zustand \(k\) und der Erwartungswert \(E[Z_k]\) wäre uns bekannt. Dann kann man den Erwartunsgwert von \(Z_{k+1}\) berechnen, indem man die Länge aller Wege, die einen vom Zustand \(k\) dorthin führen, multipliziert mit der Wahrscheinlichkeit, mit der man diesen Weg genommen hat bzw. nehmen wird, aufaddiert. Und das ergibt direkt die angegebene Rekursionsgleichung. Kommt man von \(k\) mit dem ersten Wurf nach \(k+1\), dann gilt sicherlich \(E[Z_{k+1}]=E[Z_k]+1\). Kommt man jedoch erst beim nächsten Durchgang nach \(k+1\), dann muss man ja alle "Z-Kanten" vom Start weg plus die eine "K-Kante", die einen zum Start zurückwirft, wieder abmarschieren. Das sind ja im Mittel eben auch gerade wieder \(E[Z_k]+1\), aber diesmal mit einer Wahrscheinlichkeit von \(p=1/2\). Braucht man drei Anläufe, hat man im Zustand \(k\) zweimal hintereinander Kopf geworfen, wofür die Wahrscheinlichkeit \(p=(1/2)^2=1/4\) ist. Allgemein ist die Wahrscheinlichkeit, dass man \(i\) Durchgänge benötigt, also \(p=(1/2)^{i-1}\). Und das führt dann wie gesagt direkt auf die angegebene Rekursion. Insbesondere ist es für diese Rekursion unerheblich, wie oft man vor dem Zustand \(k\) schon umkehren musste. Das ist ja alles schon im Erwartungswert \(E[Z_k]\) "eingepreist". Gruß, Diophant [Die Antwort wurde nach Beitrag No.26 begonnen.]\(\endgroup\)


   Profil
Cyborg
Aktiv Letzter Besuch: im letzten Quartal
Dabei seit: 20.05.2009
Mitteilungen: 675
  Beitrag No.29, vom Themenstarter, eingetragen 2022-11-03

\quoteon(2022-11-03 14:31 - Cyborg in Beitrag No. 27) Einstiegsfrage: Wenn man zum $i$-ten Mal in Zustand $k$ war, dann hatte man $i-1$-mal Pech gehabt, was soviel heißt wie man hat in Zustand $k$ Kopf gewürfelt. Man sollte also betrachten: $\left(\dfrac{1}{2}\right)^{i-1}(E[Z_k]+1)$ Denn: Denn man war $i-1$-mal in Zustand $k$ und hat danach $K$ gewürfelt. Hat man beim $i$-ten Mal $Z$ gewürfelt, dann hat man gewonnen. Man müsste doch dann nochmal mit $\dfrac{1}{2}$ multiplizieren für $Z$ gewürfelt, also: $\left(\dfrac{1}{2}\right)^{i-1}(E[Z_k]+1)\cdot\dfrac{1}{2}$??? \quoteoff Vielleicht hast du das oben noch nicht gelesen!


   Profil
Diophant
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 18.01.2019
Mitteilungen: 10684
Wohnort: Rosenfeld, BW
  Beitrag No.30, eingetragen 2022-11-03

\(\begingroup\)\(\newcommand{\ba}{\begin{aligned}} \newcommand{\ea}{\end{aligned}} \newcommand{\bc}{\begin{cases}} \newcommand{\ec}{\end{cases}} \newcommand{\bpm}{\begin{pmatrix}} \newcommand{\epm}{\end{pmatrix}} \newcommand{\bvm}{\begin{vmatrix}} \newcommand{\evm}{\end{vmatrix}} \newcommand{\mb}[1]{\mathbb{#1}} \newcommand{\mc}[1]{\mathcal{#1}} \newcommand{\mf}[1]{\mathfrak{#1}} \newcommand{\ms}[1]{\mathscr{#1}} \newcommand{\on}{\operatorname} \newcommand{\ds}{\displaystyle}\) \quoteon(2022-11-03 15:00 - Cyborg in Beitrag No. 29) \quoteon(2022-11-03 14:31 - Cyborg in Beitrag No. 27) Einstiegsfrage: Wenn man zum $i$-ten Mal in Zustand $k$ war, dann hatte man $i-1$-mal Pech gehabt, was soviel heißt wie man hat in Zustand $k$ Kopf gewürfelt. Man sollte also betrachten: $\left(\dfrac{1}{2}\right)^{i-1}(E[Z_k]+1)$ Denn: Denn man war $i-1$-mal in Zustand $k$ und hat danach $K$ gewürfelt. Hat man beim $i$-ten Mal $Z$ gewürfelt, dann hat man gewonnen. Man müsste doch dann nochmal mit $\dfrac{1}{2}$ multiplizieren für $Z$ gewürfelt, also: $\left(\dfrac{1}{2}\right)^{i-1}(E[Z_k]+1)\cdot\dfrac{1}{2}$??? \quoteoff Vielleicht hast du das oben noch nicht gelesen! \quoteoff Doch, schon. Aber ich verstehe deine Überlegung an der Stelle nicht wirklich, um ehrlich zu sein. Offensichtlich betrachtest du das ganze nach wie vor chronologisch, also vom Start zum Ziel. Und das ist der Denkfehler. Beide Ansätze, also auch der Rechenweg 2, betrachten das Experiment in zeitlich umgekehrter Reihenfolge. So wie ich es oben in #28 versucht habe zu beschreiben. Gruß, Diophant\(\endgroup\)


   Profil
Cyborg
Aktiv Letzter Besuch: im letzten Quartal
Dabei seit: 20.05.2009
Mitteilungen: 675
  Beitrag No.31, vom Themenstarter, eingetragen 2022-11-03

\quoteon(2022-11-03 14:38 - Diophant in Beitrag No. 28) Ich versuche es nochmal ähnlich wie oben: wir tun einmal so, als befänden wir uns beim Zustand \(k\) und der Erwartungswert \(E[Z_k]\) wäre uns bekannt. Dann kann man den Erwartunsgwert von \(Z_{k+1}\) berechnen, indem man die Länge aller Wege, die einen vom Zustand \(k\) dorthin führen, multipliziert mit der Wahrscheinlichkeit, mit der man diesen Weg genommen hat bzw. nehmen wird, aufaddiert. Und das ergibt direkt die angegebene Rekursionsgleichung. \quoteoff Das verstehe ich alles schon! \quoteon(2022-11-03 14:38 - Diophant in Beitrag No. 28) Kommt man von \(k\) mit dem ersten Wurf nach \(k+1\), dann gilt sicherlich \(E[Z_{k+1}]=E[Z_k]+1\). Kommt man jedoch erst beim nächsten Durchgang nach \(k+1\), dann muss man ja alle "Z-Kanten" vom Start weg plus die eine "K-Kante", die einen zum Start zurückwirft, wieder abmarschieren. Das sind ja im Mittel eben auch gerade wieder \(E[Z_k]+1\), aber diesmal mit einer Wahrscheinlichkeit von \(p=1/2\). Braucht man drei Anläufe, hat man im Zustand \(k\) zweimal hintereinander Kopf geworfen, wofür die Wahrscheinlichkeit \(p=(1/2)^2=1/4\) ist. \quoteoff Das verstehe noch nicht so ganz! \quoteon(2022-11-03 14:38 - Diophant in Beitrag No. 28) Allgemein ist die Wahrscheinlichkeit, dass man \(i\) Durchgänge benötigt, also \(p=(1/2)^{i-1}\). \quoteoff Das hilft mir schon ein bisschen. [Die Antwort wurde nach Beitrag No.29 begonnen.]


   Profil
Diophant
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 18.01.2019
Mitteilungen: 10684
Wohnort: Rosenfeld, BW
  Beitrag No.32, eingetragen 2022-11-03

\(\begingroup\)\(\newcommand{\ba}{\begin{aligned}} \newcommand{\ea}{\end{aligned}} \newcommand{\bc}{\begin{cases}} \newcommand{\ec}{\end{cases}} \newcommand{\bpm}{\begin{pmatrix}} \newcommand{\epm}{\end{pmatrix}} \newcommand{\bvm}{\begin{vmatrix}} \newcommand{\evm}{\end{vmatrix}} \newcommand{\mb}[1]{\mathbb{#1}} \newcommand{\mc}[1]{\mathcal{#1}} \newcommand{\mf}[1]{\mathfrak{#1}} \newcommand{\ms}[1]{\mathscr{#1}} \newcommand{\on}{\operatorname} \newcommand{\ds}{\displaystyle}\) \quoteon(2022-11-03 15:10 - Cyborg in Beitrag No. 31) \quoteon(2022-11-03 14:38 - Diophant in Beitrag No. 28) Kommt man von \(k\) mit dem ersten Wurf nach \(k+1\), dann gilt sicherlich \(E[Z_{k+1}]=E[Z_k]+1\). Kommt man jedoch erst beim nächsten Durchgang nach \(k+1\), dann muss man ja alle "Z-Kanten" vom Start weg plus die eine "K-Kante", die einen zum Start zurückwirft, wieder abmarschieren. Das sind ja im Mittel eben auch gerade wieder \(E[Z_k]+1\), aber diesmal mit einer Wahrscheinlichkeit von \(p=1/2\). Braucht man drei Anläufe, hat man im Zustand \(k\) zweimal hintereinander Kopf geworfen, wofür die Wahrscheinlichkeit \(p=(1/2)^2=1/4\) ist. \quoteoff Das verstehe noch nicht so ganz! \quoteoff Wie gesagt: ich betrachte das ja jetzt so, dass wir vom Start jedes mal garantiert schon nach \(k\) gelangt sind. Dass das auch nur mit einer gewissen Wahrscheinlichkeit passiert müssen wir nicht beachten, da das in unserem Erwartunsgwert \(E[Z_k]\) bereits berücksichtigt ist. Wir benötigen aber sowohl um vom Start direkt nach \(k+1\) zu gelangen, als auch, um von \(k\) zurück und dann nach \(k+1\) zu gelangen, jeweils \(k+1\) Münzwürfe, wir besuchen also auf jedem Durchgang eben diese \(k+1\) Kanten. Da wir den Erwartunsgwert für \(k\) Kanten als bekannt voraussetzen, benötigen wir im Mittel also für jeden Weg, egal ob zum Erfolg oder wieder zurück auf Los, \(E[Z_k]+1\) Münzwürfe bzw. besuchte Kanten. Gruß, Diophant\(\endgroup\)


   Profil
Cyborg
Aktiv Letzter Besuch: im letzten Quartal
Dabei seit: 20.05.2009
Mitteilungen: 675
  Beitrag No.33, vom Themenstarter, eingetragen 2022-11-03

\quoteon(2022-11-03 15:18 - Diophant in Beitrag No. 32) Da wir den Erwartunsgwert für \(k\) Kanten als bekannt voraussetzen, benötigen wir im Mittel also für jeden Weg, egal ob zum Erfolg oder wieder zurück auf Los, \(E[Z_k]+1\) Münzwürfe bzw. besuchte Kanten. \quoteoff Wenn man also für $i$ Wege benötigen die Wahrscheinlichkeit $\left(\dfrac{1}{2}\right)^{i-1}$ hat, muss man $\left(\dfrac{1}{2}\right)^{i-1}\cdot(E[Z_k]+1)$, denn ein Weg kostet im Mittel $E[Z_k]+1$ Kanten. (Erwartungswert=Ereignis*Wahrscheinlichkeit)


   Profil
Diophant
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 18.01.2019
Mitteilungen: 10684
Wohnort: Rosenfeld, BW
  Beitrag No.34, eingetragen 2022-11-03

\(\begingroup\)\(\newcommand{\ba}{\begin{aligned}} \newcommand{\ea}{\end{aligned}} \newcommand{\bc}{\begin{cases}} \newcommand{\ec}{\end{cases}} \newcommand{\bpm}{\begin{pmatrix}} \newcommand{\epm}{\end{pmatrix}} \newcommand{\bvm}{\begin{vmatrix}} \newcommand{\evm}{\end{vmatrix}} \newcommand{\mb}[1]{\mathbb{#1}} \newcommand{\mc}[1]{\mathcal{#1}} \newcommand{\mf}[1]{\mathfrak{#1}} \newcommand{\ms}[1]{\mathscr{#1}} \newcommand{\on}{\operatorname} \newcommand{\ds}{\displaystyle}\) \quoteon(2022-11-03 15:34 - Cyborg in Beitrag No. 33) \quoteon(2022-11-03 15:18 - Diophant in Beitrag No. 32) Da wir den Erwartunsgwert für \(k\) Kanten als bekannt voraussetzen, benötigen wir im Mittel also für jeden Weg, egal ob zum Erfolg oder wieder zurück auf Los, \(E[Z_k]+1\) Münzwürfe bzw. besuchte Kanten. \quoteoff Wenn man also für $i$ Wege benötigen die Wahrscheinlichkeit $\left(\dfrac{1}{2}\right)^{i-1}$ hat, muss man $\left(\dfrac{1}{2}\right)^{i-1}\cdot(E[Z_k]+1)$, denn ein Weg kostet im Mittel $E[Z_k]+1$ Kanten. (Erwartungswert=Ereignis*Wahrscheinlichkeit) \quoteoff Noch nicht ganz. Das sind ja nur Summanden, die auf unseren tatsächlichen Erwartungswert \(E[Z_{k+1}]\) "oben drauf" kommen. Vielleicht hast du es aber so gemeint? Gruß, Diophant\(\endgroup\)


   Profil
Cyborg
Aktiv Letzter Besuch: im letzten Quartal
Dabei seit: 20.05.2009
Mitteilungen: 675
  Beitrag No.35, vom Themenstarter, eingetragen 2022-11-03

\quoteon(2022-11-03 15:46 - Diophant in Beitrag No. 34) Noch nicht ganz. Das sind ja nur Summanden, die auf unseren tatsächlichen Erwartungswert \(E[Z_{k+1}]\) "oben drauf" kommen. Vielleicht hast du es aber so gemeint? \quoteoff Ja, das ist mir klar gewesen. Eines brauche ich noch, dann wird es erheblich besser: \quoteon(2022-11-03 14:38 - Diophant in Beitrag No. 28) Allgemein ist die Wahrscheinlichkeit, dass man \(i\) Durchgänge benötigt, also \(p=(1/2)^{i-1}\). \quoteoff Das ist ja gleichgesetzt mit der Wahrscheinlichkeit, dass man $i-1$-mal hintereinander Kopf geworfen hat, im Zustand $k$. Was ist mit der Wahrscheinlichkeit $\dfrac{1}{2}$, die man für Zahl werfen hat?


   Profil
Diophant
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 18.01.2019
Mitteilungen: 10684
Wohnort: Rosenfeld, BW
  Beitrag No.36, eingetragen 2022-11-03

\(\begingroup\)\(\newcommand{\ba}{\begin{aligned}} \newcommand{\ea}{\end{aligned}} \newcommand{\bc}{\begin{cases}} \newcommand{\ec}{\end{cases}} \newcommand{\bpm}{\begin{pmatrix}} \newcommand{\epm}{\end{pmatrix}} \newcommand{\bvm}{\begin{vmatrix}} \newcommand{\evm}{\end{vmatrix}} \newcommand{\mb}[1]{\mathbb{#1}} \newcommand{\mc}[1]{\mathcal{#1}} \newcommand{\mf}[1]{\mathfrak{#1}} \newcommand{\ms}[1]{\mathscr{#1}} \newcommand{\on}{\operatorname} \newcommand{\ds}{\displaystyle}\) \quoteon(2022-11-03 15:55 - Cyborg in Beitrag No. 35) Eines brauche ich noch, dann wird es erheblich besser: \quoteon(2022-11-03 14:38 - Diophant in Beitrag No. 28) Allgemein ist die Wahrscheinlichkeit, dass man \(i\) Durchgänge benötigt, also \(p=(1/2)^{i-1}\). \quoteoff \quoteoff Wie gesagt: das war alles unter der Voraussetzung geschrieben, dass wir bei jedem Durchlauf garantiert von \(1\) nach \(k\) kommen. Das dürfen wir annehmen, weil wir mit dem Erwartunsgwert \(E[Z_k]\) rechnen. Die fragliche Wahrscheinlichkeit hat also nichts mit dem Weg von \(1\) nach \(k\) zu tun, sondern man betrachtet ja nur noch den Zustand \(k\). Und dann ist es bei \(i\) Durchgängen einfach die Wahrscheinlichkeit, dass man bei \(k\) insgesamt \(i-1\)-mal "falsch abgebogen" ist. \quoteon(2022-11-03 15:55 - Cyborg in Beitrag No. 35) Das ist ja gleichgesetzt mit der Wahrscheinlichkeit, dass man $i-1$-mal hintereinander Kopf geworfen hat, im Zustand $k$. Was ist mit der Wahrscheinlichkeit $\dfrac{1}{2}$, die man für Zahl werfen hat? \quoteoff Da wir in unserer Überlegung davon ausgehen, dass wir bereits den Zustand \(k+1\) erreicht haben, spielt diese Wahrscheinlichkeit keine Rolle. Denn wir wissen ja sicher, dass wir diesen Zustand erreicht haben. Nochmal: das ganze wird rückwärts betrachtet. Gruß, Diophant\(\endgroup\)


   Profil
Cyborg
Aktiv Letzter Besuch: im letzten Quartal
Dabei seit: 20.05.2009
Mitteilungen: 675
  Beitrag No.37, vom Themenstarter, eingetragen 2022-11-03

\quoteon(2022-11-03 16:09 - Diophant in Beitrag No. 36) Da wir in unserer Überlegung davon ausgehen, dass wir bereits den Zustand \(k+1\) erreicht haben, spielt diese Wahrscheinlichkeit keine Rolle. Denn wir wissen ja sicher, dass wir diesen Zustand erreicht haben. \quoteoff OK das hilft!!! \quoteon(2022-11-03 16:09 - Diophant in Beitrag No. 36) Nochmal: das ganze wird rückwärts betrachtet. \quoteoff Darüber werde ich noch nachdenken. Ich glaube, wir machen hier erstmal Schluss, bevor ich hier noch peinlich werde. Ich werde nochmal genau lesen, was bisher geschrieben wurde, dann wird wohl der Groschen fallen. Wichtige Fragen habe ich gestellt und beantwortet bekommen, mehr geht nicht. Ich müsste jetzt alles zusammenhaben. Ich danke dir, Diophant für deine Geduld mit mir und für deinen Einsatz!!!


   Profil
Cyborg
Aktiv Letzter Besuch: im letzten Quartal
Dabei seit: 20.05.2009
Mitteilungen: 675
  Beitrag No.38, vom Themenstarter, eingetragen 2022-11-15

\quoteon(2022-11-03 16:09 - Diophant in Beitrag No. 36) \quoteon(2022-11-03 15:55 - Cyborg in Beitrag No. 35) Das ist ja gleichgesetzt mit der Wahrscheinlichkeit, dass man $i-1$-mal hintereinander Kopf geworfen hat, im Zustand $k$. Was ist mit der Wahrscheinlichkeit $\dfrac{1}{2}$, die man für Zahl werfen hat? \quoteoff Da wir in unserer Überlegung davon ausgehen, dass wir bereits den Zustand \(k+1\) erreicht haben, spielt diese Wahrscheinlichkeit keine Rolle. Denn wir wissen ja sicher, dass wir diesen Zustand erreicht haben. Nochmal: das ganze wird rückwärts betrachtet. \quoteoff Ich verstehe immer noch nicht, warum man nur $\left(\dfrac{1}{2}\right)^{i-1}$ als Wahrscheinlichkeit hat, und nicht $\left(\dfrac{1}{2}\right)^{i-1}\cdot\dfrac{1}{2}$, weil man nach $i-1$-mal Pech haben, dann mit der Wahrscheinlichkeit $\dfrac{1}{2}$ Glück hat. Vielleicht muss ich das anders verstehen. Ich verstehe immer noch nicht, was man mit "RÜCKWÄRTS betrachten meint, Vielleicht ist das wichtig?? Ich frage deshalb, weil bei Warten auf ein Erfolg: $p=\dfrac{1}{4}$ und $q=1-p=\dfrac{3}{4}$ Erfolg beim $k$-ten Werfen: $\left(\dfrac{3}{4}\right)^{k-1}\cdot\dfrac{1}{4}$ Da sagt man ja auch nicht, dass nach $k-1$-mal Pech haben klar ist, dass Erfolg kommt, man multipliziert noch mit der Geweinnwahrscheinlichkeit!!! Ansonsten kann man sich das als BEDINGTE WAHRSCHEINLICHKEIT erklären: $P_B(A)=\dfrac{P(A\cap B)}{P(B)}$: $P_{E_{k+1}}(\text{Glück bei }i)=\dfrac{\left(\dfrac{1}{2}\right)^{i}}{\frac{1}{2}}=\left(\dfrac{1}{2}\right)^{i-1}$ $E_{k+1}$ soll der Fall sein, dass ich in Zustand $k+1$ bin.


   Profil
Diophant
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 18.01.2019
Mitteilungen: 10684
Wohnort: Rosenfeld, BW
  Beitrag No.39, eingetragen 2022-11-15

\(\begingroup\)\(\newcommand{\ba}{\begin{aligned}} \newcommand{\ea}{\end{aligned}} \newcommand{\bc}{\begin{cases}} \newcommand{\ec}{\end{cases}} \newcommand{\bpm}{\begin{pmatrix}} \newcommand{\epm}{\end{pmatrix}} \newcommand{\bvm}{\begin{vmatrix}} \newcommand{\evm}{\end{vmatrix}} \newcommand{\mb}[1]{\mathbb{#1}} \newcommand{\mc}[1]{\mathcal{#1}} \newcommand{\mf}[1]{\mathfrak{#1}} \newcommand{\ms}[1]{\mathscr{#1}} \newcommand{\on}{\operatorname} \newcommand{\ds}{\displaystyle}\) Hallo Cyborg, \quoteon(2022-11-15 11:34 - Cyborg in Beitrag No. 38) Ich verstehe immer noch nicht, warum man nur $\left(\dfrac{1}{2}\right)^{i-1}$ als Wahrscheinlichkeit hat, und nicht $\left(\dfrac{1}{2}\right)^{i-1}\cdot\dfrac{1}{2}$, weil man nach $i-1$-mal Pech haben, dann mit der Wahrscheinlichkeit $\dfrac{1}{2}$ Glück hat. Vielleicht muss ich das anders verstehen. Ich verstehe immer noch nicht, was man mit "RÜCKWÄRTS betrachten meint, Vielleicht ist das wichtig?? \quoteoff Man geht davon aus, dass man bereits im Zustand \(k+1\) ist, insofern ist das hier sogar enorm wichtig. Darüberhinaus darfst du nicht außer acht lassen, dass wir hier mit dem als bekannt vorausgesetzten Erwarungswert \(E[Z_k]\) rechnen. Für alles, was zwischen den Zuständen \(1\) und \(k\) passiert, interessiert uns also schon einmal die Warhscheinlichkeit nicht, mit der wir direkt von \(1\) nach \(k\) gekommen sind. Denn die steckt ja in diesem Erwartungswert drin. Und die Wahrscheinlichkeit, mit der wir von \(k\) nach \(k+1\) kommen, interessiert uns auch nicht: schaffen wir es beim ersten Mal, dann gilt offensichtlich \(E[Z_{k+1}]=E[Z_k]+1\). Nur wenn wir das nicht schaffen, dann kommen zusätzliche Durchgänge dazu. Und deren durchschnittliche Länge müssen wir jeweils mit der Wahrscheinlichkeit gewichten, mit der sie anfallen. \quoteon(2022-11-15 11:34 - Cyborg in Beitrag No. 38) Ich frage deshalb, weil bei Warten auf ein Erfolg: $p=\dfrac{1}{4}$ und $q=1-p=\dfrac{3}{4}$ Erfolg beim $k$-ten Werfen: $\left(\dfrac{3}{4}\right)^{k-1}\cdot\dfrac{1}{4}$ Da sagt man ja auch nicht, dass nach $k-1$-mal Pech haben klar ist, dass Erfolg kommt, man multipliziert noch mit der Geweinnwahrscheinlichkeit!!! Ansonsten kann man sich das als BEDINGTE WAHRSCHEINLICHKEIT erklären: $P_B(A)=\dfrac{P(A\cap B)}{P(B)}$: \quoteoff Das ist etwas völlig anderes, weil du hier nicht mit Ewartungswerten rechnest. Gruß, Diophant\(\endgroup\)


   Profil
-->> Fortsetzung auf der nächsten Seite -->>
Seite 1Gehe zur Seite: 1 | 2  

Wechsel in ein anderes Forum:
 Suchen    
 
All logos and trademarks in this site are property of their respective owner. The comments are property of their posters, all the rest © 2001-2023 by Matroids Matheplanet
This web site was originally made with PHP-Nuke, a former web portal system written in PHP that seems no longer to be maintained nor supported. PHP-Nuke is Free Software released under the GNU/GPL license.
Ich distanziere mich von rechtswidrigen oder anstößigen Inhalten, die sich trotz aufmerksamer Prüfung hinter hier verwendeten Links verbergen mögen.
Lesen Sie die Nutzungsbedingungen, die Distanzierung, die Datenschutzerklärung und das Impressum.
[Seitenanfang]