gleichmäßige Konvergenz d. Wahrscheinlichkeit nach

Neue Frage »

libelle Auf diesen Beitrag antworten »
gleichmäßige Konvergenz d. Wahrscheinlichkeit nach
Wie ist die gleichmäßige Konvergenz der Wahrscheinlichkeit nach definiert?

Konvergenz der WSK nach: für alle espilon größer 0 gilt:



und glm Konvergenz:

.

Heißt das dann: für alle epsilon

?

Kann einer helfen?
JustPassingBy Auf diesen Beitrag antworten »

Deine Definition macht wenig Sinn, denn du benutzt x irgendwie zweimal.
Einmal um ein Element aus der Menge darzustellen und einmal als Laufvariable im Supremum.

Hm, es gibt eine gleichmässige Konvergenz fast überall, allerdings weiß ich nicht, ob du das suchst.
Es funktioniert folgendermaßen:
Für alle e>0 existiert eine Menge A s.d. P(A)<e und auf den Komplement von A.
Das heißt du kannst beliebig kleine Mengen aus den Raum entfernen, sodass die Funktionenfolge auf den (großen) Rest gleichmäßig konvergiert.
libelle Auf diesen Beitrag antworten »

Stimmt, das macht nicht wirklich Sinn. Aber das, was du beschreibst, ist ja fast sichere Konvergenz (oder fast überall), ich will aber stochastische Konvergenz.

Es heißt hier bei mir:


der Wahrscheinlichkeit nach.

Wobei Q_n(t) zufällige Funktionen sind. (Ich geh davon aus, das ist genauso gemeint wie Zufallsvariablen )

???
libelle Auf diesen Beitrag antworten »

es muss aber irgendwie so ähnlich gehen, schau mal auf S.8 von
informatik.uni-ulm.de/ni/Lehre/WS02/LMCVCG/skript/Vorlesung7.pdf

Was sind denn da für Elemente in der Ereignismenge, der P einen Wert zuordnet? Die f's über die das Supremum genommen wird? Das wär dann genauso doppelgemoppelt wie mein x.
JustPassingBy Auf diesen Beitrag antworten »

Auf den Link kann ich nicht zugreifen.
Vielleicht kann man ihn nur vom uni-internen Netzwerk öffnen?

Hm, das was du hingeschrieben hast, verstehe ich ebenfalls nicht.
Was bedeuted "der Warhscheinlichkeit nach" in diesem Kontext überhaupt?
Wenn dort stattdessen "fast überall" stehen würde, hättest du die Definition von der Konvergenz, die ich angegeben habe.
libelle Auf diesen Beitrag antworten »

Hm, ich bin nicht von der Uni Ulm. ich konnte den Link leider nicht direkt zitieren, da keine htmladresse erlaubt ist. Aber einfach ein we we we davor, dann müsste es gehen.

Ich kapier auch gerade gar nichts mehr. ich hab hier auch schwache konvergenz der wahrscheinlichkeit nach, was meiner meinung nach ganz ganz seltsam ist.

es soll hier bei mir gezeigt werden, dass für bestimmte voraussetzungen für n gegen unendlich, der wahrscheinlichkeit nach. (??)

F ist eine bedingte Verteilungsfunktion, F_n die empirische dazu. Wobei die Bedingtheit eigentlich irrelevant ist bei dem Beweis, da x einfach festgehalten wird.

Ok, Idee ist, erst einmal für alle Stetigkeitspunkte y, wenn n gegen unendlich, dann ist das doch schwache konvergenz (laut WIki). Das ist äquivalent dazu, dass ich (F ist stetig) für g beschränkt und stetig zeige. Dies will ich jedoch dann als stochastische konvergenz zeigen, also asympt. EW berechnen, ja super, geht gegen das zu Zeigende und as. Varianz ist 0 also hab ich stochastische Konvergenz, die eine punktweise ist für die Verteilungsfunktionen.

HÄ??
 
 
JustPassingBy Auf diesen Beitrag antworten »

Öhm, vielleicht ist verlangt, dass du als eine Funktion von x betrachtest und zeigst, dass diese Funktion in x in Wahrscheinlichkeit gegen 0 konvergiert.

D.h. sobald eine Folge von Zufallsvariablen hast, deren Verteilungsfunktion konvergiert, , dann konvergieren auch alles bedingten Verteilungsfunktionen fast überall, .

Eventuell nicht überall, da Verteilungsfunktionen nicht überall stetig sind, allerdings ist die Menge der unstetigkeitspunkte eine 0-Menge.


Macht das eventuell Sinn?
libelle Auf diesen Beitrag antworten »

nein, leider nicht. Das x ist einfach eine festgehaltene gegebene Realisation einer Zufallsvariable X.
Man betrachtet also sozusagen F(y| X = 5), x= 5.

Es gibt einen Artikel namens
UNIFORM CONVERGENCE IN PROBABILITY AND STOCHASTIC EQUICONTINUITY BY WHITNEY K. NEWEY

ich häng ihn dir mal an.
Was meinen die denn da mit ist eine Zufallsfunktion von ? Ist das wie eine Zufallsvariable gemeint , also dass theta wie das omega ein zufälliges ereignis ist und Q_n dann dementsprechend einen Wert ausspuckt?
Wie ist dann eine deterministische Funktion von theta? Heißt das, wenn , dass im ersten Fall theta zufällig ist und damit der Wert von zufällig, aber dann gegen genau das konvergiert, bei dem theta nicht mehr willkürlich ist, sondern das, dass gerade kam?

In (2.1) was heißt das kleine p bei o(1). Und wieso ist das stochastische Konvergenz?

oh ich sehe gerade pdfs kann man nicht hochladen. Kannst du den artikel sehen?
ideas.repec.org/a/ecm/emetrp/v59y1991i4p1161-67.html
libelle Auf diesen Beitrag antworten »

ok, ich hab eine Idee, wie es sein könnte:

Meine empirische Verteilungsfunktion ist ja in dem Sinne eine Zufallsvariable, dass sie von abhängt, nämlich

.

Man schreibt aber meistens vereinfacht nur .

Wenn ich nun stochastisch habe, dann heißt das , dass für alle :



macht das mehr sinn?
Neue Frage »
Antworten »



Verwandte Themen

Die Beliebtesten »
Die Größten »
Die Neuesten »