Konvergenz in Wahrscheinlichkeit

Neue Frage »

steviehawk Auf diesen Beitrag antworten »
Konvergenz in Wahrscheinlichkeit
Meine Frage:
Hallo Leute, wie bestimmt schon viele vor mir mache auch ich mir gerade mal wieder Gedanken über die Konvergenzarten in der Wahrscheinlichkeitstheorie.

Wir haben definiert:

Eine Folge von Zufallsvariablen konvergiert in Wahrscheinlichkeit gegen eine Zufallsvariable genau dann wenn:





Meine Ideen:
Jetzt versuche ich das mal mit Worten auszudrücken.

Eine Folge von Zufallsvariablen konvergiert in Wahrscheinlichkeit gegen eine Zufallsvariable, wenn die Wahrscheinlichkeit, dass es noch eine Abweichung gibt, gegen Null konvergiert.

Nun bin ich naiv davon ausgegangen, dass dann im Umkehrschluss gilt.

Eine Folge von Zufallsvariablen konvergiert in Wahrscheinlichkeit gegen eine Zufallsvariable, wenn die Wahrscheinlichkeit, dass es keine Abweichung mehr gibt gegen 1 konvergiert.

Ich habe nun aber irgendwo mal gelesen, dass dies nicht der Fall ist. Stimmt das?
Also wenn die Wkt, dass es eine Abweichung gibt gegen Null konvergiert, dann muss doch eigentlich die Wkt, dass es keine Abweichung gibt gegen 1 konvergieren.. Verstehe nicht warum das nicht stimmen soll ???

Formal sehe der Gedanke ja so aus:




[/l]

In diesem Falle würde zur Konvergenz fast sicher ja nur noch fehlen, dass der Limes innen steht. Hier sehe ich noch nicht so richtig, worin da dann der Unterschied liegen soll.

Danke für die HIlfe
melianarana Auf diesen Beitrag antworten »
RE: Konvergenz in Wahrscheinlichkeit
Der Unkehrschluss den du behauptest scheint mir richtig zu sein, aber da ist immernoch ein Unterschied zur fast sicheren Konvergenz. Das wird vielerorts erklärt, schau zB hier: http://www.matheplanet.com/default3.html...2Fwww.google.de
Neue Frage »
Antworten »



Verwandte Themen

Die Beliebtesten »
Die Größten »
Die Neuesten »