Was ist eine kanonische Markov-Kette?

Neue Frage »

Obitobi90 Auf diesen Beitrag antworten »
Was ist eine kanonische Markov-Kette?
Meine Frage:
Hallo liebe Mathe-Community,

ich muss nächste Woche einen Vortrag über die Markov-Ketten halten (Thema: Markov-Eigenschaft). Als Grundlage dafür steht mir das Buch "Stochastik - Einführung in die Wahrscheinlichkeitstheorie und Statistik" (4.Auflage) von Hans-Otto Georgii zur Verfügung (Mein Part: Seite 153 bis 156). Auf Seite 154 ist die Rede von einer "kanonischen Markovkette". Kann mir jm. genau erklären, was man sich darunter vorzustellen hat (das Wort "kanonisch" ist für mich hierbei das Problem)?

Viele Grüße,
Tobias

Meine Ideen:
Definition Markov-Kette:
Eine Folge von Zufallsvariablen auf einem Wahrscheinlichkeitsraum mit Werten in E heißt eine Markov-Kette mit Zustandsraum E und Übergangsmatrix , wenn für alle n größer gleich 0 und element aus E gilt:



sofern . Die Verteilung von heißt die Startverteilung der Markov-Kette.

... Was das heißt ist mir klar: Die bedingte Verteilung von bei bekannter Vorgeschichte hängt nur von der Gegenwart ab und nicht von der Vergangenheit. Hinzu kommt, dass diese bedingten Verteilungen nicht vom Zeitpunkt n abhängen (stationäre Übergangswahrscheinlichkeiten). Mit anderen Worten: Eine Markov-Kette ist ein stochastischer Prozess mit kurzem Gedächtnis von genau einer Zeiteinheit und ohne innere Uhr.

...Wann redet man dann aber von einer "kanonischen" Markov-Kette?
Neue Frage »
Antworten »



Verwandte Themen

Die Beliebtesten »
Die Größten »
Die Neuesten »