stochastische Konvergenz |
31.10.2008, 16:09 | libelle | Auf diesen Beitrag antworten » |
stochastische Konvergenz ich hab ein Problem zu einem Beweis von stochastischer Konvergenz. Und zwar soll gezeigt werden, dass Bliblablubb geht. Die speziellen Ausdrücke hier sind eigentlich gar nicht so arg von Bedeutung. Ausser vielleicht, dass meine (Xi, Yi) unabhängig identisch verteilt sind. Tipp für einen Ansatz ist, den Erwartungswert von obigem zuberechen. Der geht für gegen genau das Bliblablubb von oben, also Bliblablubb Dann wird noch die Varianz des Ausdrucks berechnet. Die geht für n gegen unendlich gegen 0. (was allerdings bei mir nicht rauskommt), also Damit soll dann die stochastische Konvergenz gezeigt sein. Wieso?? Ich kenn nur, dass, wenn X_i, i =1, ..., n Zufallsvariablen sind mit gleichem Erwartungswert E[X_i]=µ. Dann gilt für den Fall, dass dann stochastische Konv. von gegen µ gilt. Das ist aber nicht wirklich das, was oben gemacht wird. Ich hab dort ja nur den asymptotischen Erwartungswert. Gibt es irgendeinen Satz über asymptotischen Erwartungswert und Varianz, der was über stochastische Konvergenz gegen den asymptotischen EW aussagt? Wär nett, wenn jemand helfen könnte! Lasst euch nicht von der unschönen Formel abschrecken ;-) |
||
03.11.2008, 12:51 | libelle | Auf diesen Beitrag antworten » |
Tschebyscheff Hat keiner Rat? Ok, ich formulier es nochmal in vereinfachter Form: ich will zeigen, dass P-Stochastisch für Das heißt, ich muss zeigen: Ich kann zeigen, dass für und . Jetzt kann ich Tschebyscheff anwenden: für Dann hab ich stoch. Konvergenz von . Kann ich dann sagen, dass stoch Konvergenz von gilt, weil . Ist nicht ganz sauber so, kann jemand helfen? Danke!!! |
|
Verwandte Themen
Die Beliebtesten » |
|
Die Größten » |
|
Die Neuesten » |
|