Markov-Kette, Würfeln

Neue Frage »

Sabbse92 Auf diesen Beitrag antworten »
Markov-Kette, Würfeln
Hallo zusammen,

Man wirft wiederholt einen (fairen) Würfel. Sei [latex]X_n[/latex] das Mininum der Ausgänge bis zum n-ten Wurf.

Ich verstehe noch nicht genau, was [latex]X_n[/latex] genau angibt, könnte mir das bitte mal jemand an einem Bsp. erklären.

Ich soll zeigen, dass [latex]X_n[/latex] eine zeithomogene Markovkette mit Zustandsraum [latex]\{1,2,3,4,5,6,\}[/latex] ist.

Genügt es, wenn ich die Übergangsmatrix [latex]p_{i,j}[/latex] bestimme und folgende Gleichheit zeige:

[latex] \mathbb P(X_n = i_n | X_{n-1}= i_{n-1}, ...., X_0 = {i_0} ) = p_{i_{n-1} \medspace i_n} [/latex]
HAL 9000 Auf diesen Beitrag antworten »
RE: Markov-Kette, Würfeln
Zitat:
Original von Sabbse92
Man wirft wiederholt einen (fairen) Würfel. Sei [latex]X_n[/latex] das Mininum der Ausgänge bis zum n-ten Wurf.

Ich verstehe noch nicht genau, was [latex]X_n[/latex] genau angibt, könnte mir das bitte mal jemand an einem Bsp. erklären.

Nehmen wir an, wir haben als die ersten 10 Würfe

6, 4, 6, 5, 3, 5, 3, 1, 4, 2 .

Dann ist für

6, 4, 4, 4, 3, 3, 3, 1, 1, 1

und beim Wert 1 bleibt das ganze auch im weiteren stehen, denn kleiner kann das Minimum ja nicht werden.
 
 
Sabbse92 Auf diesen Beitrag antworten »

Danke für die Erklärung!

Ich weiß leider immer noch nicht so genau wie ich zeigen soll, dass es sich um eine Zeithomogene Markovkette handelt..

Der zukünftige Zustand des Prozess ist nur durch den aktuellen Zustand bedingt. Wie soll ich das aber jetzt mathematisch zeigen?
HAL 9000 Auf diesen Beitrag antworten »

Bezeichnen wir mit die Augenzahl den -ten Wurfes. Dann ist

.

Da außerdem von unabhängig ist, ist klar, dass die bedingte Verteilung von unter Bedingung von der ferneren Vergangenheit nicht abhängt. Du kannst natürlich gern die genaue Ü-Matrix aufstellen, für die Beantwortung der bloßen Frage "liegt hier die Markov-Eigenschaft vor?" ist das aber nicht wirklich nötig.
Sabbse92 Auf diesen Beitrag antworten »

Okay, also ist es nicht immer zwingend notwendig dass mathematisch exakt zu zeigen, sondern man kann das ganze logisch begründen sowie du es gemacht hast.

Die Übergangsmatrix für diesen stochastischen Prozess, sieht doch wie folgt aus oder?

[latex]\begin{pmatrix}<br />
1 & 0 & 0 & 0 & 0 &0 \\<br />
 1/6 & 5/6 & 0 & 0 & 0 & 0 \\<br />
1/6 & 1/6 & 2/3 & & 0 & 0 \\<br />
.... .... \\<br />
1/6 ..... & & & & & 1/6<br />
<br />
\end{pmatrix}[/latex]
HAL 9000 Auf diesen Beitrag antworten »

Ja, die Ü-Matrix ist richtig. Freude
Heisenberg93 Auf diesen Beitrag antworten »

Ein Beweis ist nicht zwingend notwendig, lässt sich aber in den meisten Fällen einfachen zeigen.
Heisenberg93 Auf diesen Beitrag antworten »

Ein Beweis ist nicht zwingend notwendig, lässt sich aber in den meisten Fällen einfach zeigen.

Entschuldigung für den Doppel-Post.
Sabbse92 Auf diesen Beitrag antworten »

Könntest du bitte überprüfen ob die folgenden Aufgabe korrekt gelöst habe.

- Bestimmen Sie [latex]P_{1j}(n):=\mathbb P(X_n=j|X_0=1)[/latex] [latex] \forall j\in S = \{1,2,..,6\}[/latex]

[latex] P_{1j}(n)= 1 , j=1 [/latex], ansonsten [latex] P_{1j}(n)= 0 , j \in S \setminus \{1\} [/latex]


-Ist die Kette irreduzibel?

Nein, weil [latex] \exists k=1 \in S , \forall n \in \mathbb N , \forall j \in S \setminus \{1\}: P_{kj}(n)=0 [/latex]

-Welche Zustände sind absorbierend?

Der Zustand [latex]\{k=1\}[/latex] ist absorbierend, weil

[latex] \mathbb P (X_{n+1} \in  S \setminus \{k\} | X_n = k ) = 0  [/latex] ist


- Bestimmen Sie die Wahrscheinlichkeit [latex]p_{2,n}[/latex], dass , [latex]X_n>2[/latex] zu dem Zeitpunkt n.

Man beginnt bei Zustand 2 und soll die Wahrscheinlichkeit bestimmen in einen höheren Zustand zu gelangen? Falls ich die Aufgabe korrekt interpretiert habe, ist die W'keit 0.
HAL 9000 Auf diesen Beitrag antworten »

Sieht alles soweit richtig aus.


Beim letzten Punkt kann man allerdings

Zitat:
Original von Sabbse92
- Bestimmen Sie die Wahrscheinlichkeit [latex]p_{2,n}[/latex], dass , [latex]X_n>2[/latex] zu dem Zeitpunkt n.

die Formulierung auch anders interpretieren: ist vielleicht wirklich direkt als Wahrscheinlichkeit gemeint! In dem Fall wäre dann doch noch etwas zu rechnen.
Sabbse92 Auf diesen Beitrag antworten »

Also wird die W'keit gesucht, dass man zum Zeitpunkt n [latex]X_n>2[/latex] erhält.

Hmm, es gibt doch einen Anfangszustands(-vektor) [latex]\vec{x}(0)= (x_1=1/6,x_2=1/6,...,x_6=1/6)[/latex], wobei [latex]x_i, i\in S[/latex] die W'keit ist im Zustand i zu beginnen.

Wenn man jetzt [latex]P_{ij}(n) [/latex] berechnet, kann man [latex]\vec{x}(n)=P_{ij}(n) \cdot \vec{x}(0) [/latex] bestimmen. Dann ergibt sich die W'keit für [latex]X_n>2[/latex] aus der Summe [latex]\sum_{i=3}^6 \vec{x}(n)_i [/latex]


Das sieht aber ziemlich umständlich aus, um [latex]P_{ij}(n) [/latex] zu bestimmen müsste diese erstmal Diagonalisieren. Gibt es einen einfacheren Weg?
HAL 9000 Auf diesen Beitrag antworten »

Man kann auch einfach zur ursprünglichen Definition von gehen, unter Umgehung des Markov-Krams:

Zitat:
Original von Sabbse92
Man wirft wiederholt einen (fairen) Würfel. Sei [latex]X_n[/latex] das Mininum der Ausgänge bis zum n-ten Wurf.

ist gleichbedeutend damit, dass alle Würfe mit Augenzahlen aus enden, damit ist .
Sabbse92 Auf diesen Beitrag antworten »

Das ist natürlich praktisch!

Vielen Dank für deine Hilfe Hal 9000.
Neue Frage »
Antworten »



Verwandte Themen

Die Beliebtesten »
Die Größten »
Die Neuesten »