X,Y in L^2 ist dann XY in L^2 ? Was ist bei Unabhängigkeit |
23.09.2015, 12:17 | steviehawk | Auf diesen Beitrag antworten » | ||
X,Y in L^2 ist dann XY in L^2 ? Was ist bei Unabhängigkeit Hallo Leute, Wenn ich zwei reelle Zufallsvariablen habe. Dann sind das zunächst einmal einfach messbare Abbildungen: eventuell auch . Nun stellt unser Prof häuft Fragen der Art. Seien . Gilt dann auch Für kann ich diese Frage leicht mit Ja beantworten, denn erfüllt die Dreiecksungleichung mit der üblichen - Norm für diese Räume. Es gilt aber i.A. nicht, dass auch ist (hier habe ich aber kein Gegenbeispiel). Im falle der Unabhängigkeit der beiden Zufallsvariablen gilt aber was wegen die Frage mit ja beantwortet. Kann mir jemand ein möglichst einfaches Gegenbeispiel nennen, warum das ohne Unabhängigkeit im Allgemeinen nicht gilt. Und wie argumentiere ich für ? Hier weiß ich nur wegen der Hölder-Ungleichung (bzw. Cauchy - Schwarz Ungleichung) ? wie ist es bei Unabhängigkeit? Meine Ideen: Zum ersten. Ich dachte zunächst an die Cauchy Verteilung. Diese hat keinen Wert. Auch keine Varianz. Nun ist eine Cauchy verteilte Zufallsvariable gerade der Quotient zweier unabhängiger standardnormalverteilter Zufallsvariblen. Ich dachte erst, dass ich den Quotieten als Produkt umschreiben kann, also zu . Aber das geht wohl nicht, da es sich hier um Abbildungen und nicht um reelle Zahlen handelt oder? Also brauche ich was anderes.. Danke für die Hilfe EDIT: Ich habe doch noch eine Idee für die Frage bei Unabhängigkeit. Also Seien zwei unabhängige Zufallsvariablen. Dann ist auch unabhängig. Nun gilt Nun kann ich das umformen zu: Nun gilt doch , da ja in ist. Analog für Da ( impliziert ja ) müsste doch auch gelten oder? Analog für Damit ist der ganze Ausdruck Die Existenz der Varianz ist doch gleichbedeutend zu Oder? Denn . Ist dieser Audruck endlich, dann insbesondere Und somit |
||||
23.09.2015, 13:01 | HAL 9000 | Auf diesen Beitrag antworten » | ||
Nimm doch einfach ein mit und wähle dann . Oder kennst du kein solches ? Allgemein gilt natürlich . |
||||
23.09.2015, 13:25 | steviehawk | Auf diesen Beitrag antworten » | ||
Hallo HAL9000 wir haben in unsere Skript stehen: Sei ein endlicher Maßraum und dann gelten: Dabei ist wobei Wenn aus folt, dass dann würde ja zum Beispiel gelten: Dann wäre ja auch wieder in |
||||
23.09.2015, 13:26 | Guppi12 | Auf diesen Beitrag antworten » | ||
Du meinst sicherlich genau das umgekehrte , richtig? |
||||
23.09.2015, 13:27 | HAL 9000 | Auf diesen Beitrag antworten » | ||
Upps, statt hätte dort stehen sollen, und das nur für . Begründbar - wie so oft - mit der Hölder-Ungleichung. EDIT: Oder eben so, wie Guppi12 es inzwischen geschrieben hat. |
||||
23.09.2015, 15:17 | steviehawk | Auf diesen Beitrag antworten » | ||
okay, dafür schon mal vielen Dank. Bleibt die Suche nach meinem Gegenbeispiel und die Frage ob meine Überlegungen zu der Varianz stimmen. 1) Gegenbeispiel Ich möchte zeigen, dass aus im Allgemeinen nicht gilt. Dass es bei Unabhängigkeit gilt habe ich ja schon erklärt. Nun ist ja i.A. nicht Unabhängig zu sich selbst. Wenn ich jetzt eine Zufallsvariable habe, die in ist. Dann betrachte ich . Nun ist ja die Aussage äquivalent zur Aussage . Darauf wolltest du HAL9000 doch hinaus oder? Ich müsste also eine Zufallsvariable finden, für die zwar der Erwartungswert existiert, aber die Varianz nicht. Ich kenne zwar die Cauchy-Verteilung, für die existiert aber beides nicht (Existenz meint bei uns immer ) Ich habe schon mal irgendwo gelesen, dass es solche Zufallsvariablen gibt, auch wenn mir jetzt spontan keine einfällt, beim googlen findet man genug 2) Überlegungen zur Varianz (a) Ich weiß, dass im Falle von die Varianz existiert, gilt auch die Umkehrung? (b) Kann ich dann wie oben argumentieren , falls unabhängig sind. Da falls nun (a) gilt, wäre dann Danke für die Hilfe |
||||
Anzeige | ||||
|
||||
23.09.2015, 15:30 | HAL 9000 | Auf diesen Beitrag antworten » | ||
Ein einfaches Beispiel ist die stetige Verteilung mit Dichte : Für die existieren noch die Momente für , aber Moment existiert nicht mehr. |
||||
23.09.2015, 15:32 | steviehawk | Auf diesen Beitrag antworten » | ||
perfekt vielen Dank, das notiere ich gleich in meine Unterlagen versuche es mal durch zu rechnen.. Und zu Frage 2 ? |
||||
23.09.2015, 16:08 | HAL 9000 | Auf diesen Beitrag antworten » | ||
Generell: ist gleichbedeutend mit: Messbarkeit sowie 2)(a) Die Existenz der Varianz impliziert über deren Definition erstmal , und über folgt aus dann auch , also . 2)(b) Wie ich in einem anderen Thread schon mal sagte: Mit unabhängig sind auch unabhängig, es ist also und damit . Man sieht leicht, dass man diese Überlegung auf beliebige Exponenten statt ausdehnen kann. |
||||
10.10.2015, 12:01 | steviehawk | Auf diesen Beitrag antworten » | ||
Hallo zusammen, ich habe hier noch eine Frage dazu: stimmt es dass gilt: beziehungsweise: Ich wegen folgender Überlegung auf die Behauptung: bedeutet ja: das lässt sich umschreiben zu: , so wenn ich daraus die Wurzel ziehe, dann wird es sicherlich kleiner, also: für die andere Aussage analog: Danke für die Hilfe |
||||
10.10.2015, 12:19 | HAL 9000 | Auf diesen Beitrag antworten » | ||
Die beiden stimmen i.a. nicht, aber die sind zum Beweis ja auch gar nicht nötig, sondern nur der für beliebige positive gültige Schluss . Der Rest sollte soweit stimmen. Dein stimmt ja nur für , was bei dir i.a. nicht vorausgesetzt werden kann. |
||||
10.10.2015, 12:28 | steviehawk | Auf diesen Beitrag antworten » | ||
stimmt, das gilt ja nur für , aber da ich es nicht brauche ist es ja nicht so schlimm |
|
Verwandte Themen
Die Beliebtesten » |
|
Die Größten » |
|
Die Neuesten » |
|