Matroids Matheplanet Forum Index
Moderiert von Kleine_Meerjungfrau Monkfish epsilonkugel
Mathematik » Stochastik und Statistik » Eine wahrscheinlichkeitserzeugende Funktion bestimmen
Druckversion
Druckversion
Antworten
Antworten
Autor
Beruf Eine wahrscheinlichkeitserzeugende Funktion bestimmen
sulky
Aktiv Letzter Besuch: in der letzten Woche
Dabei seit: 21.12.2009
Mitteilungen: 1648
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Themenstart: 2021-01-16


Hallo Zusammen,

Bei folgender Aufgabe verstehe ich trotz Musterlösung eigentlich gar nichts und brauche Hilfe.

Aufgabe: Seien $Y_1, Y_2,...$ identlisch verteile ZV, sodass
$\mathbb{P}(Y_1=1)=\mathbb{P}(Y_1=-1)=\frac{1}{2}$

Sei $X_0=1$, $X_n=X_0+Y_1+...+Y_n$ für $n\ge 1$ und

$H_0=inf\{n\ge 0: X_n=0\}$

Bestimme die Wahrscheinlichkeitserzeugende Funktion $\phi(s)=\mathbb{E}(s^{H_0})$ von $H_0$




Zunächst wird bemerkt dass $(X_n)_{n\ge 0}$ eine Markovkette ist mit der Matrix $p_{k,k-1}=p_{k,k+1}=\frac{1}{2}$

Wie bemerkt man das? Dies alleine wäre eine Interessante Aufgabe, die es zu beweisen gäbe und ich habe mir einige Gedanken dazu gemacht.
Aber hier wird es einfach nur bemerkt. Vermutlich gibt es da einen Satz, an den ich gerade nicht denke. Wie erkennt man dass $(X_n)_{n\ge 0}$ eine Markovkette ist?


Musterlösung geht weiter: Verwenden wir nun dass $P$ invariant bezüglich Translation ist.

Sei $H_j=inf\{n\ge 0;X_n=j\}$

Sei $s\in ]0,1[$. Aufgrund der Markoveigenschaft gilt:

$\phi(s)= \mathbb{E}_{X_0=1}(\mathbb{E}^{H_0})$

Hier verstehe ich überhaupt nichts. Ich weiss nicht was das tiefgestellte $\mathbb{E}_{X_0=1}$ bedeutet noch was das hochgestellte $\mathbb{E}^{H_0}$ bedeutet.

Ich verstehe die Notation schon gar nicht und bin mir in diesem Zusammenhang nicht einmal sicher ob $\mathbb{E}$ für die Erwartung steht.

Ich bin mit dieser Aufgabe total überfordert und benötige Hilfe



Eine Notiz zu diese Forumbeitrag schreiben Notiz   Profil  Quote  Link auf diesen Beitrag Link
syngola
Senior Letzter Besuch: im letzten Quartal
Dabei seit: 21.10.2003
Mitteilungen: 2852
Herkunft: Berlin
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.1, eingetragen 2021-01-16


Hallo Sulky,

für die Markoveigenschaft braucht man noch die Unabhängigkeit der $Y_i$. Das steht bestimmt irgendwo? Dann kannst Du die Markoveigenschaft direkt nachweisen.

Insgesamt definiert man so einen klassischen Random Walk (Irrfahrt) auf den ganzen Zahlen. Hier gibt es einen Satz über unabhängige Zuwächse den man benutzen könnte (Jeder stoch. Prozess mit unabhängigen Zuwächsen ist Markov)

Die Notation im Rest macht meiner Meinung nach keinen Sinn. Hast Du eine Quelle dazu, in die man hineinschauen könnte?

Ansonsten, du findest die Herleitung dieser erzeugenden Funktion auch in Nicolas Privault "understanding Markov Chains", Kapitel 3 (Er hat eine ausführliche, frei zugängliche Version auf seiner Webseite).

Grüße, Peter


-----------------
I know it's trivial, but i've forgotten why -- Allan Guth



Eine Notiz zu diese Forumbeitrag schreiben Notiz   Profil  Quote  Link auf diesen Beitrag Link
sulky
Aktiv Letzter Besuch: in der letzten Woche
Dabei seit: 21.12.2009
Mitteilungen: 1648
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.2, vom Themenstarter, eingetragen 2021-01-16


Hallo Peter,
Vielen Dank für die schnelle Antwort.

Stimmt, die sind noch unabhängig. Das erste i. steht für "independant"



Die gesammte Aufgabenstellung ist recht kurz gefasst.

Mit kurzem googeln habe ich an verschiedenen Stellen die "Irrfahrt" gefunden, teilweise exakt so definiert wie im Beispiel.

Jedoch war ich erstaunt das nicht überall gleich der Beweis folgt, dass die Irrfahrt ein Markovprozess ist.

Ich habe folgendes versucht:

Induktionsannahme:
$\mathbb{P}(X_{n+1}=e_{n+1}|X_{n}=e_n\cap...\cap X_0=0)=\mathbb{P}(X_{n+1}=e_{n+1}|X_{n}=e_n)$

Weiteres matehematisches Beweiswerkzeug:
 
$X_{k+1}=X_{k}+Y_{k+1}$

$\mathbb{P}(Y_k=-1)=\mathbb{P}(Y_k=1=\frac{1}{2})$

$\mathbb{P}(X_{n+1}=e_{n+1}|X_{n}=e_n\cap...\cap X_0=0)=\frac{\mathbb{P}(X_{n+1}=e_{n+1}\cap X_{n}=e_n\cap...\cap X_0=0)}{\mathbb{P}(X_{n}=e_n\cap...\cap X_0=0)}$

Damit zu folgern dass:

$\mathbb{P}(X_{n+2}=e_{n+2}|X_{n+1}=e_{n+1}\cap...\cap X_0=0)=\mathbb{P}(X_{n+2}=e_{n+2}|X_{n+1}=e_{n+1})$

Habe etwa eine halbe stunde probiert, bin leider nicht darauf gekommen.
Normalerweise gebe ich nach einer halben Stunde noch nicht auf.
Aber es ist ja nicht Teil der Aufgabenstellung zu beeisen dass die Irrfahrt ein Markovprozess ist. Dies ist vorausgesetzt.






Eine Notiz zu diese Forumbeitrag schreiben Notiz   Profil  Quote  Link auf diesen Beitrag Link
syngola
Senior Letzter Besuch: im letzten Quartal
Dabei seit: 21.10.2003
Mitteilungen: 2852
Herkunft: Berlin
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.3, eingetragen 2021-01-16


Hallo Sulky,

Ich folge mal dem Beweis aus Bremauld "Markov Chains", S.58.

Satz 2.1. behauptet folgendes: Sei $(Y_n)_{n\geq1}$ eine iid Folge von Zufallsvariable mit Werten in F und $X_0$ eine von der Folge unabhängige Zufallsvariable mit Werten in E. Sei weiter f eine Funktion (für dein Beispiel ist f einfach die Summe) mit $f:E\times F\rightarrow E$. Dann wird durch die Rekursion
$$X_{n+1}=f(X_n,Y_{n+1})=X_n+Y_{n+1}$$ eine Markovkette definiert.

Der Beweis ist recht einfach.

$$\mathbb P(X_{n+1}=j|X_n=i,X_{n-1}=i_{n-1},\ldots,X_1=i_1,X_0=1)=
\mathbb P(f(i,Y_{n+1})=j|X_n=i,X_{n-1}=i_{n-1},\ldots,X_1=i_1,X_0=1)$$
Jetzt ist aber das $Y_{n+1}$ unabhängig von den $X_0,\ldots,X_n$ (Warum?) So folgt
$$\mathbb P(X_{n+1}=j|X_n=i,X_{n-1}=i_{n-1},\ldots,X_1=i_1,X_0=1)=\mathbb P(f(i,Y_{n+1})=j)=\mathbb P(i+Y_{n+1}=j)=\mathbb P(Y_{n+1}=j-i)$$
Mit einer ähnlichen Rechnung zeigt man
$$\mathbb P(X_{n+1}=j|X_n=i)=\mathbb P(f(i,Y_{n+1})=j)$$
Es ergibt sich daraus schon die Eigenschaft, dass die Folge $(X_n)_{n\geq 0}$ eine zeithomogene Markovkette ist mit Übergangswahrscheinlichkeiten
$$p_{i,j}=\mathbb P(Y_{n+1}=j-i)$$

Hilft Dir das erstmal weiter?



-----------------
I know it's trivial, but i've forgotten why -- Allan Guth



Eine Notiz zu diese Forumbeitrag schreiben Notiz   Profil  Quote  Link auf diesen Beitrag Link
sulky
Aktiv Letzter Besuch: in der letzten Woche
Dabei seit: 21.12.2009
Mitteilungen: 1648
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.4, vom Themenstarter, eingetragen 2021-01-16


Vielen Dank für die Ausführungen Peter,

Folgende Gleichung verstehe ich leider nicht:

$\mathbb P(X_{n+1}=j|X_n=i,X_{n-1}=i_{n-1},\ldots,X_1=i_1,X_0=1)=\mathbb P(f(i,Y_{n+1})=j)$

Hier wurde ja einfach $X_{n+1}$ durch $f(i,Y_{n+1})$ ersetzt.
Was erlaubt uns nun dem langen Ausdruck den Schwanz abzuschneiden?




Eine Notiz zu diese Forumbeitrag schreiben Notiz   Profil  Quote  Link auf diesen Beitrag Link
syngola
Senior Letzter Besuch: im letzten Quartal
Dabei seit: 21.10.2003
Mitteilungen: 2852
Herkunft: Berlin
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.5, eingetragen 2021-01-16


Hallo Sulky,

Schau Dir die erste Gleichung an, dort steht in der zweiten Zeile eine Funktion nur von $Y_{n+1}$. Nach Voraussetzung sind die Ypsilöner aber unabhängig untereinander und die $X_i$ Funktionen nur von $Y_1,\ldots,Y_n$. Die Zufallsvariablen $X_0,\ldots,X_n$ sind damit unabhängig von $Y_{n+1}$.

Ich hätte besser

$$\mathbb P(f(i,Y_{n+1})=j|X_n=i,X_{n-1}=i_{n-1},\ldots,X_1=i_1,X_0=1)=\mathbb P(f(i,Y_{n+1})=j)$$
schreiben sollen.

Ist es jetzt klarer?

Gruß, Peter


-----------------
I know it's trivial, but i've forgotten why -- Allan Guth



Eine Notiz zu diese Forumbeitrag schreiben Notiz   Profil  Quote  Link auf diesen Beitrag Link
sulky
Aktiv Letzter Besuch: in der letzten Woche
Dabei seit: 21.12.2009
Mitteilungen: 1648
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.6, vom Themenstarter, eingetragen 2021-01-16


2021-01-16 19:39 - syngola in Beitrag No. 3 schreibt:

Jetzt ist aber das $Y_{n+1}$ unabhängig von den $X_0,\ldots,X_n$ (Warum?) So folgt
$$\mathbb P(X_{n+1}=j|X_n=i,X_{n-1}=i_{n-1},\ldots,X_1=i_1,X_0=1)=\mathbb P(f(i,Y_{n+1})=j)=\mathbb P(i+Y_{n+1}=j)=\mathbb P(Y_{n+1}=j-i)$$

Ja, um die Unabhängigkeit zu zeigen kennen wir einige Möglichkeiten.
wenn ich mich richtig errinnere, dann ist gerade bei Summen die Charakteristische Funktion sehr geeignet.
Wenn $\phi_{X_{n+1}}(s)=\phi_{Y_{n+1}+X_{n}}(s)=\phi_{Y_{n+1}}(s)\cdot \phi_{X_n}(s)$ dann sind $Y_{n+1}$ und $X_n$ unabhängig, aber sicher bin ich mir nicht.
Aber ich vermute du siehst das irgendwie schneller.


Nun dank der Unabhängigkeit sehe ich zumindest mal dass:
$\mathbb P(X_{n+1}=j|X_n=i,X_{n-1}=i_{n-1},\ldots,X_1=i_1,X_0=1)$ $=\mathbb P(Y_{n+1}=j-i)\cdot \mathbb{P}(X_n=i,X_{n-1}=i_{n-1},\ldots,X_1=i_1,X_0=1)$


Jetzt habe ich aber noch einen Faktoren zuviel. Aber wir können das Manöver wiederholen:

$=\mathbb P(Y_{n+1}=j-i)\cdot \mathbb{P}(X_n=i|X_{n-1}=i_{n-1},\ldots,X_1=i_1,X_0=1)\cdot \mathbb{P}(X_{n-1}=i_{n-1},\ldots,X_1=i_1,X_0=1)$



$=\mathbb P(Y_{n+1}=j-i)\cdot \mathbb{P}(Y_n+X_{n-1}=i|X_{n-1}=i_{n-1},\ldots,X_1=i_1,X_0=1)\cdot \mathbb{P}(X_{n-1}=i_{n-1},\ldots,X_1=i_1,X_0=1)$

Es geht mir einfach irgendwie nicht auf




Eine Notiz zu diese Forumbeitrag schreiben Notiz   Profil  Quote  Link auf diesen Beitrag Link
sulky hat die Antworten auf ihre/seine Frage gesehen.
Neues Thema [Neues Thema] Antworten [Antworten]    Druckversion [Druckversion]

 


Wechsel in ein anderes Forum:
 Suchen    
 
All logos and trademarks in this site are property of their respective owner. The comments are property of their posters, all the rest © 2001-2021 by Matroids Matheplanet
This web site was originally made with PHP-Nuke, a former web portal system written in PHP that seems no longer to be maintained nor supported. PHP-Nuke is Free Software released under the GNU/GPL license.
Ich distanziere mich von rechtswidrigen oder anstößigen Inhalten, die sich trotz aufmerksamer Prüfung hinter hier verwendeten Links verbergen mögen.
Lesen Sie die Nutzungsbedingungen, die Distanzierung, die Datenschutzerklärung und das Impressum.
[Seitenanfang]