Markov-Kette, Frage zu einer Definition

Neue Frage »

Sabbse92 Auf diesen Beitrag antworten »
Markov-Kette, Frage zu einer Definition
Guten Tag,

ich lese mir gerade in einem Script

http://www.mathematik.uni-ulm.de/stochastik/lehre/ss03/markov/skript/node5.html

etwas zu Markov-Ketten durch und hätte dies bzgl. eine Frage. Bei Gleichung (3) steht der folgende Term:



Wie interpretiert man diesen Ausdruck im Zusammenhang mit Markov-Ketten, könnte mir mal bitte jemand in ein bis zwei Sätze erklären . Ist n die Variable für die Zeit?


Dieser Ausdruck soll gleich



sein. Wenn man die Vergangenheit mit berücksichtigen würde und nicht nur die Gegenwart, würden dann im oberen Term auch die restlichen auftauchen?
SHigh Auf diesen Beitrag antworten »
RE: Markov-Kette, Frage zu einer Definition
Zitat:


Was soll das denn sein?

Du meinst wahrscheinlich die Gleichung



n ist hierbei die Schrittanzahl, wenn du so willst kann das die (diskrete) Zeit sein. Die obige Gleichung ist einfach die Definition einer Markoff-Kette. Äquivalent hierzu wird die Markoff-Kette oft wie in Theorem 2.1 definiert.

Zitat:
Wenn man die Vergangenheit mit berücksichtigen würde und nicht nur die Gegenwart, würden dann im oberen Term auch die restlichen auftauchen?


Warum sollten die anderen Startwahrscheinlichkeiten (zum Zeitpunkt n=0) mit berücksichtigt werden? Du startest nun mal in , d.h. .
Sabbse92 Auf diesen Beitrag antworten »

Dankeschön!
Neue Frage »
Antworten »



Verwandte Themen

Die Beliebtesten »
Die Größten »
Die Neuesten »