Markov-Ketten |
12.10.2010, 08:43 | Der Lustige Peter | Auf diesen Beitrag antworten » | ||
Markov-Ketten ich habe eine Frage zu Markov-Ketten. Dabei geht es um das Verständnis einer Aufgabenstellung. Nehmen wir an Psei die Übergangsmatrix der Zustände 1,2,3 Es ist nun zu berechnen: Ist damit gemeint, man solle berechnen, mit welcher Wahrscheinlichkeit sich die Kette in Zustand 3 befindet und dann in Zustand 2 wechselt, oder soll man ermitteln, mit welcher Wahrscheinlichkeit die Kette in Zustand 2 wechselt, wenn sie sich gerade in Zustand 3 befindet? Viele Grüße Peter |
||||
12.10.2010, 08:48 | Mazze | Auf diesen Beitrag antworten » | ||
Die Wahrscheinlichkeit, dass die Kette zum Zeitpunkt 1 in Zustand 3 ist und zum Zeitpunkt 2 im Zustand 2 ist, ist gesucht.
Diese Wahrscheinlichkeit könnte man direkt aus der Matrix ablesen. Von daher ist das sicher nicht die Aufgabe |
||||
12.10.2010, 14:12 | Der Lustige Peter | Auf diesen Beitrag antworten » | ||
Und diese Wahrscheinlichkeit ist dann . Oder? |
||||
12.10.2010, 14:29 | Mazze | Auf diesen Beitrag antworten » | ||
X_1 und X_2 sind nicht stochastisch unabhängig. Das ist doch gerade der Witz der Markovkette, dass der Folgezustand nur vom Vorgänger abhängt. Besser : Die Wahrscheinlichkeit P(X_2 = 2 | X_1 = 3) kannst Du aus der Matrix rauslesen. Die Wahrscheinlichkeit P(X_1 = 3) ist durch die Startverteilung gegeben. |
|
Verwandte Themen
Die Beliebtesten » |
Die Größten » |
Die Neuesten » |