Markov-Kette, Frage zu einer Definition |
25.05.2017, 11:27 | Sabbse92 | Auf diesen Beitrag antworten » | ||||
Markov-Kette, Frage zu einer Definition ich lese mir gerade in einem Script http://www.mathematik.uni-ulm.de/stochastik/lehre/ss03/markov/skript/node5.html etwas zu Markov-Ketten durch und hätte dies bzgl. eine Frage. Bei Gleichung (3) steht der folgende Term: Wie interpretiert man diesen Ausdruck im Zusammenhang mit Markov-Ketten, könnte mir mal bitte jemand in ein bis zwei Sätze erklären . Ist n die Variable für die Zeit? Dieser Ausdruck soll gleich sein. Wenn man die Vergangenheit mit berücksichtigen würde und nicht nur die Gegenwart, würden dann im oberen Term auch die restlichen auftauchen? |
||||||
25.05.2017, 13:22 | SHigh | Auf diesen Beitrag antworten » | ||||
RE: Markov-Kette, Frage zu einer Definition
Was soll das denn sein? Du meinst wahrscheinlich die Gleichung n ist hierbei die Schrittanzahl, wenn du so willst kann das die (diskrete) Zeit sein. Die obige Gleichung ist einfach die Definition einer Markoff-Kette. Äquivalent hierzu wird die Markoff-Kette oft wie in Theorem 2.1 definiert.
Warum sollten die anderen Startwahrscheinlichkeiten (zum Zeitpunkt n=0) mit berücksichtigt werden? Du startest nun mal in , d.h. . |
||||||
27.05.2017, 10:19 | Sabbse92 | Auf diesen Beitrag antworten » | ||||
Dankeschön! |
|
Verwandte Themen
Die Beliebtesten » |
|
Die Größten » |
|
Die Neuesten » |
|