Beschreibung nicht normalverteilter Daten

Neue Frage »

Bummbumm Auf diesen Beitrag antworten »
Beschreibung nicht normalverteilter Daten
Hallo, ich habe eine Stichprobe, mit der ich den Erwartungswert berechnen kann. Die Daten sind nicht normalverteilt.

Beispiel für die Verteilungsdichte:

code:
1:
{"2": 0.25,"3": 0.625,"4": 0.125}
Der Erwartungswert liegt damit bei E = 2.875.

Ich möchte nun die Wahrscheinlichkeiten für eine Abweichung vom Erwartungswert bestimmen, sodass beispielsweise die Wahrscheinlichkeit ist wobei y ein Wert < E sein muss. Offensichtlich ist ja, dass die Abweichung in Richtung des Wertes 2 (y_1) ungleich der Abweichung in Richtung des Wertes 4 (y_2) sein muss. Mit der Standardabweichung kann ich hier also nicht arbeiten.

Mein erster Ansatz war die Verwendung eines Kerndichteschätzers, um die Wahrscheinlichkeitsdichtefunktion zu schätzen, sodass ich über Integration der Funktion die Wahrscheinlichkeiten und ausrechnen kann.

Meine Frage ist jetzt: Ist der Ansatz sinnvoll und lässt sich mein Problem damit lösen? Welche Informationen brauche ich, um nicht normalverteilte Daten ausreichend beschreiben zu können?

Habt ihr vielleicht noch irgendwelche Quellen, die ich mir durchlesen sollte?

Gruß

PS. Ich habe die Frage schon in einem anderen Forum gepostet, dass offenbar leider nicht so gut besucht ist, daher versuche ich hier mal mein Glück. Ich hoffe, dass das okay ist!
HAL 9000 Auf diesen Beitrag antworten »

Du sprichst in Rätseln: Soll dieses

code:
1:
{"2": 0.25,"3": 0.625,"4": 0.125}
wirklich die Verteilung der interessierenden Zufallsgröße sein, ich deute das mal als diskrete Verteilung mit

,

oder redest du von einer Stichprobe vom Umfang mit den Werten 2,2,3,3,3,3,3,4, mit Mittelwert 2.875 (was NICHT der Erwartungswert der Grundgesamtheit, sondern nur dessen Schätzung ist)?

---------------

Gehen wir mal von ersterem aus. Dann kannst du derartige "Wahrscheinlichkeiten für eine Abweichung vom Erwartungswert" direkt bestimmen durch Aufsammeln der Wahrscheinlichkeiten derjenigen X-Werte, die genau in diesem Abweichungsintervall liegen!

Also z.B.

,

fertig! Auf 20% und drunter für kommst du offensichtlich nur für .
Bummbumm2 Auf diesen Beitrag antworten »

Hi, danke erstmal für deine Antwort.

Ja, es handelt sich um eine diskrete Verteilung, wie du sie aufgeschrieben hast.

Der Erwartungswert ist natürlich geschätzt:

Ich denke aber, ich habe nicht genug Informationen gepostet.

Sprechen wir mal nicht vom Erwartungswert sondern vom Mittelwerlt eines durchgeführten Zufallsexperiments, bei dem 100 Werte gezogen werden. Der Mittelwert entspräche dem Erwartungswert von 2.875, wenn 25 mal die 2, 62.5 mal die 3 und 12.5 mal die 4 gezogen werden würde.

Wenn nun aber beispielsweise mehr zweien gezogen werden, würde sich der Mittelwert in Richtung 2 bewegen. Die Wahrscheinlichkeiten dafür, dass eine 2, eine 3 oder eine 4 gezogen wird, ändern sich aber nicht. Die Wahrscheinlichkeit dafür, dass der Mittelwert des Zufallsexperiments 2.875 beträgt, ist also am höchsten. Jetzt möchte ich wissen, wie weit muss ich mich in Richtung 2 bewegen, also mehr zweien ziehen und gleichzeitig weniger dreien oder vieren, sodass die Wahrscheinlichkeit für den Mittelwert dieses Experiments bei mindestens 20% liegt.

Es kann außerdem nicht sein, dass andere Werte außer der 2, der 3 oder der 4 gezogen werden.
HAL 9000 Auf diesen Beitrag antworten »

Schon besser. Dein erster Beitrag klang nach jenem Mischmasch derer, die Verteilung der Grundgesamtheit (mit Erwartungswert/Varianz/Verteilungsfunktion) mit den entsprechenden Schätzgrößen einer zugehörigen Stichprobe (also Mittelwert/Stichprobenstreuung/empirische Verteilungsfunktion) verwechseln, was dann meist in grauenhaft missverständlichen Unterhaltungen mündet. Eben schlecht, wenn die Grundlagen fehlen.

Ok, dann mal so wie ich nun dein Anliegen verstehe: Du gehst von obiger Verteilung der Grundgesamtheit aus, ziehst nun ein Stichprobe, und fragst nach einem , so dass für den Stichprobenmittelwert die Wahrscheinlichkeit oder "ungefähr" 20% ist? Nun, dieser gesuchte -Wert hängt von ab; für große kannst du dazu die gemäß Zentralem Grenzwertsatz (ZGWS) gültige Approximation verwenden.
Bummbumm Auf diesen Beitrag antworten »

Okay, du schlägst mir also vor, eine Normalverteilung mit Varianz und meinem bereits vorhandenen Erwartungswert zu verwenden! Habe ich das richtig verstanden?

Aus der Verteilungsdichtefunktion der Verteilung könnte ich dann durch Integration von bis die Wahrscheinlichkeit für . Richtig?

Mir ist nur gerade nicht klar, ob das ist, was ich möchte, also ob es eben gleich ist.

Denn ich würde ja für eine schiefe Verteilungsdichtefunktion, die ja nun mal vorliegt, eine Normalverteilung mit nicht schiefer Verteilungsdichte annehmen.

Vielleicht ist dieser Satz
code:
1:
sodass die Wahrscheinlichkeit für den Mittelwert dieses Experiments bei mindestens 20% liegt.
etwas ungenau gewesen. Nicht der Mittelwert soll eine Wahrscheinlichkeit von 20% haben, sondern der Wert, den ich erhalte, wenn ich über die Verteilungsdichtefunktion von bis integriere, soll kleiner als 0.2 also kleiner als 20% sein. Ob jetzt 20% oder welcher Wert auch immer soll erstmal egal sein.

Kann sein, dass es dasselbe ist, das müsstest du mir jetzt aber noch mal bestätigen oder mich noch mal erleuchten.

Ich versuche es mal anschaulich zu erklären. Nehmen wir mal diese Verteilungsdichte an:

http://homepage.univie.ac.at/franz.vesely/sp01/sp/img433.gif

Jetzt suche ich eine y (das liegt vielleicht bei 0.3, keine Ahnung), für das gilt = 20%. Anschließend suche ich ein y2 für das gilt = 20%. Sodass ich im Grunde links und rechts jeweils 20% der auftretenden Ergebnisse ausblende. Die möchte ich einfach nicht berücksichtigen. Ich brauche also nur die linke untere und die rechrte obere Grenze. Bei einer Normalverteilung könnte ich vielleicht mit der Standardabweichung arbeiten, allerdings nicht bei der vorliegenden schiefen Verteilungsdichte.

Kann ich das mit deinem Ansatz realisieren?
HAL 9000 Auf diesen Beitrag antworten »

Zitat:
Original von Bummbumm
Denn ich würde ja für eine schiefe Verteilungsdichtefunktion, die ja nun mal vorliegt, eine Normalverteilung mit nicht schiefer Verteilungsdichte annehmen.

Ja - und? Dir ist der ZGWS geläufig?
 
 
Bummbumm Auf diesen Beitrag antworten »

Naja, schon, aber offenbar war mir die Bedeutung in dem Zusammenhang nicht klar.

Kannst du mir sagen, wo du die Formel her hast? Ich würde mich noch gerne etwas in das Thema einlesen.

Danke erstmal. Ich werde mir jetzt erst mal ein paar Gedanken machen.
HAL 9000 Auf diesen Beitrag antworten »

Zitat:
Original von Bummbumm
Ich versuche es mal anschaulich zu erklären. Nehmen wir mal diese Verteilungsdichte an:

http://homepage.univie.ac.at/franz.vesely/sp01/sp/img433.gif

Jetzt suche ich eine y (das liegt vielleicht bei 0.3, keine Ahnung), für das gilt = 20%. Anschließend suche ich ein y2 für das gilt = 20%. Sodass ich im Grunde links und rechts jeweils 20% der auftretenden Ergebnisse ausblende.

Das ist eine einfache Quantilberechnung zur Verteilung. Wozu dann das ganze Statistikgebäude mit Stichproben und pipapo, wenn es dir am Ende nur darum geht?

Ich gebe zu, ich bin höchst ungeduldig, wenn es 20 Beiträge braucht, bis das Anliegen richtig rübergebracht wird. Da bin ich einfach der falsche Mann. unglücklich
Bummbumm Auf diesen Beitrag antworten »

Ich sehe leider nicht, wieso das einfach sein soll. Schön wäre es. unglücklich

Ich bin dir jedenfalls dankbar für deine Hilfe. Tut mir Leid, dass ich offenbar nicht alles so genau beschreiben kann, dass jeder es versteht.

Quantilberechnung? Damit habe ich auch bereits herumprobiert.

100 Ergebnisse, davon 25 eine 2, 62.5 eine 3 und 12.5 eine 4.

n = 100
p = 0.2

n*p = 20

Dann kommt für das Quantil doch 2 raus. Was habe ich denn dann davon?

Meine Verteilungsdichtefunktion liegt als diskrete Funktion vor. Allerdings können als Mittelwert eines Experiments alle Werte zwischen 2 und 4 auftreten.

Vielleicht brauche ich dann einfach eine Verteilungsdichtefunktion, die die Wahrscheinlichkeit für einen bestimmten Mittelwert beschreibt. Und das dürfte ja mit der von dir genannten Formel machbar sein, oder?

Mir schwirrt bei dem ganzen Stochastik - Kram so langsam der Kopf. Nochmals sorry, wenn ich mich unverständlich ausdrücke.

Gruß
HAL 9000 Auf diesen Beitrag antworten »

Jetzt wieder eine Drehung hin zum Mittelwert (zu dem schon alles dasteht). Wie ich schon sagte, ich mache das nicht mit - zu deinem Glück bin ich bei weitem nicht der einzige hier im Board, der was von Stochastik versteht. Habe fertig. Wink
Bummbumm Auf diesen Beitrag antworten »

Ich versteh nicht, was ich jetzt falsches geschrieben habe.

Ich beziehe mich doch auf deinen Vorschlag:
code:
1:
Vielleicht brauche ich dann einfach eine Verteilungsdichtefunktion, die die Wahrscheinlichkeit für einen bestimmten Mittelwert beschreibt. Und das dürfte ja mit der von dir genannten Formel machbar sein, oder?


Ich will doch nur eine Bestätigung für meine Überlegungen haben, die ich aus deinen Hinweisen ziehe. Kein Grund, eingeschnappt zu sein. Ich war lange Zeit Moderator in einem Fach-Forum und weiß, wie anstrengend es ist, immer und immer wieder die selben und langwierigen Diskussionen zu führen.

Aber ich schreibe hier doch keinen Unsinn und an eigenen Überlegungen hapert es doch auch nicht.

Naja, trotzdem danke, auch wenn du dich jetzt hier ausklinkst. Ich werde jetzt erstmal mit der Formel arbeiten und sehen, wie weit ich komme.

Gruß
profulrich Auf diesen Beitrag antworten »

Es ist schade, dass man nicht sachlich und ausführlich antworten kann, wo doch alle voneinander lernen können. Ich muss da Bummbumm wirklich auch beipflichten und kann seine Gedanken schon nachvollziehen.
Bummbumm Auf diesen Beitrag antworten »

In der Hoffnung, dass noch jemand etwas Geduld für mich aufbringen kann, erkläre ich mein Problem gerne noch mal:

Ich lasse ein Zufallsexperiment durchführen. Die Ergebnismenge sieht so aus



Die Wahrscheinlichkeiten sind wie gehabt:



Der Erwartungswert liegt bei 2.875.

Das Experiment wird vielfach wiederholt, beispielweise werden 10000 mal 100 Ergebnisse ermittelt. Was mich interessiert sind die Mittelwerte der Experimente und nicht nur die Werte selbst, sondern auch deren Wahrscheinlichkeit. Die Wahrscheinlichkeit für den Erwartungswert als Mittelwert ist am höchsten, klar! Doch wie sieht es zum Beispiel mit dem Mittelwert 2.3 aus? Wie wahrscheinlich ist dieser?

Ich weiß, dass die Verteilungsdichte keiner Normalverteilung entspricht, daher glaube ich nicht, dass mir die Annäherung an eine Normalverteilung, so wie sie mir von HAL 9000 vorgeschlagen wurde, weiterhilft. Ich kann die Verteilungsdichte natürlich durch die Durchführung vieler Experimente ermitteln, doch das möchte ich vermeiden.

Wie gelange ich also nur mit Kenntnis der diskreten Verteilungsdichtefunktion der möglichen Ergebnisse zur Verteilungsdichtefunktion für die Mittelwerte.

-----------

Falls noch weitere Details zum Experiment benötigt werden:

Die Ergebnisse 2 bis 4 entstehen durch Summenbildung.

Es seien a, b und z beliebige Werte. a und b werden ebenfalls aus einem Topf gezogen. Von mir aus mit unterschiedlichen Wahrscheinlichkeiten aber unkorreliert.

Wenn eine beliebige Summe aus den Summanden a und b, diese können auch mehrmals und in allen Kombinationen auftauchen, den Wert z erreicht oder überschreitet, wird die Anzahl der Summanden gezählt. In diesem Fall sind dies nur Summen aus 2, 3 oder 4 Summanden. Die Wahrscheinlichkeit dafür, dass 2 Summanden benötigt werden, liegt hier bei 0.25. Die anderen Werte stehen ja schon oben.

Damit errechne ich also direkt den Erwartungswert.

-----------

Mein Ansatz oder meine Idee zur Bestimmung eines Mittelwerts, der bei der Durchführung des oben beschriebenen Experiments noch als Wahrscheinlich angenommen werden kann, steht oben. Welcher Wert im Endeffekt als sinnvoll angenommen werden kann, ist Geschmackssache und nicht weiter von Bedeutung, interessant ist für mich nur, wie man an diesen Wert kommen kann.

Wenn meine Gedanken/mein Ansatz dazu falsch sind, wäre ich froh, wenn mich jemand erleuchten könnte.

Gruß

[edit] Mein Problem anders ausgedrückt: Bei einer Normalverteilung mit bekannter Standardabweichung kann ich ein Intervall von angeben und decke damit 95,45 % der Messwerte ab. So etwas möchte ich auch erreichen. Der Unterschied: Meine Verteilungsdichte ist schief. Daher ist die Idee die Wahrscheinlichkeitsdichte zu bestimmen, sodass ich Grenzen finden kann, über die ich unwahrscheinliche Ergebnisse ausschließen kann.

Klare Fragen: Macht das Sinn? Wie gehe ich am besten vor?
HAL 9000 Auf diesen Beitrag antworten »

Zitat:
Original von profulrich
Es ist schade, dass man nicht sachlich und ausführlich antworten kann, wo doch alle voneinander lernen können. Ich muss da Bummbumm wirklich auch beipflichten und kann seine Gedanken schon nachvollziehen.

Dann halte dich nicht auf mit Solidaritätsbekundungen, sondern hilf ihm. Mir traut er ja nicht, wie er hier deutlich kundgetan hat:

Zitat:
Original von Bummbumm
Das Experiment wird vielfach wiederholt, beispielweise werden 10000 mal 100 Ergebnisse ermittelt.

[...]

Ich weiß, dass die Verteilungsdichte keiner Normalverteilung entspricht, daher glaube ich nicht, dass mir die Annäherung an eine Normalverteilung, so wie sie mir von HAL 9000 vorgeschlagen wurde, weiterhilft.

Der Glaube ist die eine Sache, der Zentrale Grenzwertsatz eine andere. Wenn du den für falsch hältst, dann überzeuge dich doch selbst mal anhand einer Simulation.

Simuliere jeweils 100 Werte deiner Verteilung, und bilde den Mittelwert. Das ganze machst du 10000 mal, und schaust dir anschließend mal diese Stichprobe der 10000 Mittelwerte an, z.B. per Histogramm, oder machst seriöserweise einen Verteilungstest auf Normalverteilung. Und anschließend schauen wir mal, wie fest dein Glaube dann noch ist.


Für "kleinere" kannst du natürlich die Verteilung vom Mittelwert auch noch direkt ausrechnen. Mystic etwa würde das über erzeugende Funktionen direkt so machen:

ist die erzeugende Funktion der diskreten ganzzahligen Zufallsgröße , damit kannst du dann die gesuchten Quantile genau bestimmen, musst dich also nicht auf die Güte der Normalverteilungsapproximation verlassen. Allerdings sind die Unterschiede zu dieser nur minimal.
Bummbumm Auf diesen Beitrag antworten »

Na, das ist doch mal eine Antwort, die mir weiterhilft. Und natürlich hast du Recht! Es sind nicht 10000 Mittelwerte, doch man erkennt ja schon bei weniger Werten, dass es sich um eine Normalverteilung handelt.

[attach]28293[/attach]

Ich denke, damit kann ich nun weiterarbeiten. Danke erstmal!

Gruß
Bummbumm Auf diesen Beitrag antworten »

Sorry für das Doppelposting, aber ich kann den Beitrag nicht mehr editieren.

Also, das Ergebnis sieht wirklich besser aus, als ich erwartet habe:

[attach]28295[/attach]

Die Verteilung habe ich in Matlab durch folgende Formel erzeugt:

code:
1:
r = 2.875 + stdx/sqrt(n).*randn(10000,1);

Wobei stdx die Standardabweichung der diskreten Verteilungsdichte ist. Bei n bin ich mir gar nicht so sicher. Ich habe 100 Ergebnisse a oder b, deren Summe, wie oben beschrieben, z ergeben müssen. Die Anzahl der Summanden kann 2, 3 oder 4 sein. Der Erwartungswert für die Anzahl möglicher Summen, die z ergeben, liegt dann bei etwa 35. Diesen Wert habe ich dann als n angenommen. Ich denke, das ist so richtig!?

Ich werde erstmal mit dieser Näherung weitermachen. Mit erzeugenden Funktionen kenne ich mich leider gar nicht aus. Ich habe die Funktion zwar mal abgeleitet und komme dann auch auf den Erwartungswert von 2.875, doch mit der zweiten Ableitung hapert es dann. Und ich weiß auch nicht, wie du auf die erzeugende Funktion gekommen bist bzw. Mystic. Wenn sich meine Verteilung ändert, muss ich dann ja eine neue Funktion bestimmen. Daher werde ich mich damit erst beschäftigen, wenn die Schätzung nicht mehr ausreicht.

Gruß
Bummbumm Auf diesen Beitrag antworten »

Gut, weiter geht es!

Die Näherung empfinde ich nach ein paar Tests als ausreichend.

Nun sieht das Experiment wie folgt aus: Es gibt 2 Töpfe, in denen beispielsweise jeweils 100 Ergebnisse liegen.

In Topf I liegen und und in Topf II liegen und .

Aus den 100 Ergebnissen in Topf I werden alle gezogen und in der gezogenen Reihenfolge Summen gebildet, die ergeben müssen. Die Summen der Ergebnisse aus Topf II müssen ergeben.

Das Experiment wird solange wiederholt, bis ein Topf leer ist.

Nach der oben gezeigten Verteilungsdichte, die mal für Topf I gelten soll, liegt der untere Mittelwert bei etwa 2.5. Wenn also 100 Ergebnisse und gezogen werden und im Schnitt 2.5 Summanden benötigt werden, um den Wert zu erreichen, werden beim ersten Experiment im besten Fall 40 Ergebnisse gezogen, d.h. 60 bleiben in Topf II übrig. Im schlechtesten Fall sind es bloß 100/3.2 = 31.25, 69 würden in Topf II übrig bleiben. Liegt das beim ersten Experiment noch bei etwa 35, liegt das bei einem Schnitt von 2.5 Summanden im nächsten Experiment nur noch bei und im Fall von 3.2 ist .
Dadurch wird die Varianz der Verteilungsdichten für Topf I und II des zweiten Experiments größer, abhängig vom vorherigen Experiment. Die Verteilungsdichte des Topfes II in Experiment II ist also abhängig von der Verteilungsdichte der Mittelwerte der Summen in Topf I in Experiment I.

Sie ist aber offensichtlich nicht abhängig von ihrer eigenen Verteilungsdichte in Experiment I.

Nach den oben beschriebenen beiden Fällen werden im zweiten Experiment also zwischen 60 und 69 Ergebnisse und gezogen, deren Summen wiederum ergeben müssen.

Wie ließe sich diese Abhängigkeit der Verteilungsdichten bestimmen?

Ich hätte ja zwei abhängige Zufallsvariablen und , deren Verbundverteilungsdichtefunktion ist, oder?

Ich habe mir überlegt, diese Dichtefunktion so zu bestimmen:












Wobei das wohl nur für statistisch unabhängige Zufallsvariablen gelten dürfte.

Ist mein Ansatz soweit nachvollziehbar? Wie komme ich am geschicktesten an die Verbundverteilungsdichte?
HAL 9000 Auf diesen Beitrag antworten »

Zitat:
Original von Bummbumm
Es gibt 2 Töpfe, in denen beispielsweise jeweils 100 Ergebnisse liegen.

In Topf I liegen und und in Topf II liegen und .

Aus den 100 Ergebnissen in Topf I werden alle gezogen und in der gezogenen Reihenfolge Summen gebildet, die ergeben müssen. Die Summen der Ergebnisse aus Topf II müssen ergeben.

Das Experiment wird solange wiederholt, bis ein Topf leer ist.

Nach der oben gezeigten Verteilungsdichte, die mal für Topf I gelten soll, liegt der untere Mittelwert bei etwa 2.5.

Vermutlich bin ich wieder begriffsstutzig, aber so gut wie nichts von dem Vorgehen, was du hier zu beschreiben versuchst, ist für mich verständlich. Aber vielleicht geht es anderen besser.
Bummbumm Auf diesen Beitrag antworten »

Na, dann frag doch einfach, was du nicht verstehst. Dafür ist das Forum doch da. Ich erkläre dir gerne genauer, wenn du etwas von dem, was ich versuche zu erklären, nicht verstehst.

Als kleine Anmerkung: Das hier ist keine „gewöhnliche“ Hausaufgabe oder ähnliches, für die die Aufgabenstellung klar definiert ist. Ich muss mir selbst überlegen, welche Probleme ich zu lösen habe und wie ich am besten vorgehe. Das ist nicht mal eben in einer schnellen Minute erklärt.

Also noch mal von vorne:

Es seien a, b und z beliebige Werte. a und b werden aus einem Topf gezogen (Topf I).

z hat nichts mt den Werten a oder b zu tun, sondern ist eine Konstante. Jeder Topf besitzt so eine Konstante. für Topf I und für Topf II. In jedem Topf befinden sich 2 Summanden. In Topf I eben a und b und in Topf II nenne ich sie c und d. Diese Werte haben nichts miteinander zu tun, sie können unterschiedliche Werte annehmen und sich in ihrer Wahrscheinlichkeit, mit der sie auf dem jeweiligen Topf gezogen werden, unterscheiden.

Die Summanden a, b, c und d haben also zwei Parameter. Einen Wert und eine Wahrscheinlichkeit, mit der sie aus dem Topf gezogen werden.

Ausgangssituation:

2 Töpfe I und II
Topf I: Summanden und und Konstante . Insgesamt 100 Summanden im Topf.

Topf II: Summanden und und Konstante . Insgesamt 100 Summanden im Topf.

Die Wahrscheinlichkeitsdichte, die ich oben bestimmt habe, beschreibt, mit welcher Wahrscheinlichkeit wie viele Summen im Mittel benötigt werden, um einen Summanden aus Topf II zu entfernen.

So sieht die Summenbildung beispielsweise aus.


Die Summanden wurden demnach in folgender Reihenfolge gezogen: a b b a a a b b a b b b.

Im Mittel werden nun angenommen 2.5 Summanden benötigt, um 1 Summanden aus Topf II zu entfernen. Bei 100 Summanden in Topf I ergibt das also 40 Summanden, die beim ersten Experiment aus Topf II entfernt wurden.
Das gleiche geschieht natürlich auch für Topf I.

So, da sich noch in Topf II 60 Summanden befinden, geht es weiter. Mit den 60 noch vorhandenen Summanden in Topf II werden wieder Summen gebildet, die ergebnen müssen, um zu ermitteln, wie viele Summanden aus Topf I entfernt werden. Dies geschieht über eine neue Verteilungsdichte, die ich neu ermitteln muss.

Da es aber nicht immer 60 Summanden sind, die nach dem ersten Experiment in Topf II übrig bleiben, hängt die Anzahl der Summanden offenbar von der Verteilungsdichte der Mittelwerte in Topf I ab, die oben zu sehen ist. Also muss ich doch eine Beziehung zwischen der neuen Verteilungsdichte in Topf II mit der alten Verteilungsdichte von Topf I herstellen.
Weil eben die Summenbildung in Topf I Auswirkungen auf die Anzahl der noch verbleibenden Summanden in Topf II hat.

Ist das nun verständlicher? Wenn nicht, sag einfach, was ich genauer erklären soll.

Gruß
HAL 9000 Auf diesen Beitrag antworten »

Du kannst zwar erst im zigten Anlauf deine Vorhaben richtig erklären, dafür amüsierst du mich aber mit deinem väterlichen Tonfall wie

Zitat:
Original von Bummbumm
Na, dann frag doch einfach, was du nicht verstehst. Dafür ist das Forum doch da.


Big Laugh

Na vielleicht schaue ich es mir heute abend mal an, trotz meiner Allergie gegen Problemstellungen, die erst durch umfangreiche Beispielschilderung logisch klar werden.
Bummbumm Auf diesen Beitrag antworten »

Ich habe dann wohl eine andere Vorstellung davon, wie man in einem Forum diskutiert. Wenn ich das Problem des Fragestellers nicht verstehe, frage ich nach und sage nicht bloß, dass ich es nicht verstehe.

Trotzdem freue ich mich darüber, dass du dir Gedanken machen willst. Danke!

Gruß
HAL 9000 Auf diesen Beitrag antworten »

Ja, ich habe eine andere Vorstellung davon, wie man Problemstellungen darlegt:

1) So knapp wie möglich.
2) So präzise wie nötig.

Punkt 1) beinhaltet, dass mögliche Lösungsansätze da noch nichts zu suchen haben - umgekehrt sollten nicht wichtige, zum Verständnis wichtige Informationen in den Untiefen der eigenen Lösungsgedanken noch versteckt sein. Letzteres gehört dann schon fast zu Punkt 2).



Mal als Beispiel: Du sprichst von 100 Summanden im Topf, aber dann wiederum nur von zwei und . Ja wie jetzt? Sind soundsoviel vom Typ und soundsoviel vom Typ im Topf, in der Summe 100 Stück? Diese und ähnliche Unklarheiten finden sich wie Sand am Meer in deinen Beschreibungen, und das ist einfach nervend, da immer wieder nachfragen zu müssen.
Bummbumm Auf diesen Beitrag antworten »

Zitat:
Ja wie jetzt? Sind soundsoviel vom Typ und soundsoviel vom Typ im Topf, in der Summe 100 Stück?


Das sollte ja eigentlich dadurch klar werden:

Zitat:
Topf I: Summanden und und Konstante . Insgesamt 100 Summanden im Topf.


Also ja, soundsoviele a und soundsoviele b im Topf. Insgesamt 100. Wenn welche durch das erste Experiment rausgenommen werden, ändert sich beim zweiten Experiment nicht die Wahrscheinlichkeit dafür, dass ein a oder ein b gezogen wird. Also wenn die Wahrscheinlichkeit beim ersten Experiment für a bei 40% liegt und für b bei 60%, dann ist das beim zweiten Experiment auch so.

Gibt es noch mehr Unklarheiten? Falls du das annimmst: Ich verstecke keine wichtigen Informationen absichtlich. Ich versuche alles verständlich zu beschreiben.

Gruß
HAL 9000 Auf diesen Beitrag antworten »

Zitat:
Original von Bummbumm
Gibt es noch mehr Unklarheiten?

Jede Menge. Aber dafür habe ich jetzt keine Zeit.
Bummbumm Auf diesen Beitrag antworten »

Kein Problem, du kannst ja später noch mal nachfragen.

Gruß
Bummbumm Auf diesen Beitrag antworten »

Ich überlege mal weiter:

Topf I ist dafür verantwortlich, dass sich Topf II leert. Wie stark pro Experiment, ist abhängig von der Wahrscheinlichkeitsdichte des Topfes I, die ich mit bezeichne. Diese ist oben als Histogramm zu sehen.

Im 2. Experiment erfolgt unter anderem die Betrachtung, wie viele Summanden in Topf I durch Topf II herausgenommen werden. Und ich glaube, diese Wahrscheinlichkeitsdichte ergibt sich zu:

.

Wobei das Ereignis {Y = y} eintritt. y ist dann zum Beispiel die 2,5. würde ich dann über die Normalverteilung berechnen. Wobei das n dann von der 2,5 abhängen würde.
Bummbumm Auf diesen Beitrag antworten »

Hmm, so ganz stimmt das wohl nicht! verwirrt

Also, das, was in Topf I in Experiment 1 passiert, hat Auswirkungen auf die Verteilungsdichte von Topf II in Experiment 2. Aber wenn ich, wie oben geschrieben, die beiden Verteilungsdichten dann multiplizieren würde, und der Erwartungswert der Dichten sich stark unterscheidet, dann würde ja bloß 0 rauskommen. Daher ist wohl eher die Verteilungsdichte von Topf II aus Experiment 1, die ich mit der Verteilungsdichte multiplizieren muss. Und diese 2,5 kommt dann aus der Verteilungsdichte des Topfes I aus Experiment 1.

So hätte ich die Abhängigkeit zum ersten Topf aus Experiment 1 hergestellt und gleichzeitig berücksichtigt, was in Topf II während des 1. Experiments passiert ist. Denn die Wahrscheinlichkeit dafür, dass der Mittelwert für die zu entfernenden Summanden aus Topf I bei jedem Experiment immer den kleinsten Wert annimmt, sinkt ja mit jedem weiteren Experiment.

Also wenn in Experiment I die Wahrscheinlichkeit zum Entfernen von der kleinsten möglichen Anzahl an Summanden aus Topf I bei 5% liegt, ist die Wahrscheinlichkeit dafür, das im zweiten Experiment wieder bloß die Minimalanzahl entfernt wird, deutlich kleiner.

[edit] Wobei, ne, die Wahrscheinlichkeit sinkt dadurch ja nicht, bloß unter der Bedingung, dass bereits vorher einmal die Minimalanzahl entfernt wurde, ist die Wahrscheinlichkeit für ein Entfernen der Minimalanzahl 2 mal hintereinander, geringer.

Soweit meine Überlegungen. verwirrt

Oh man, mir qualmt der Kopf. Hammer
Bummbumm Auf diesen Beitrag antworten »

Das 15 Minuten Bearbeitungslimit nervt. unglücklich

Zitat:
Aber wenn ich, wie oben geschrieben, die beiden Verteilungsdichten dann multiplizieren würde, und der Erwartungswert der Dichten sich stark unterscheidet, dann würde ja bloß 0 rauskommen.
Das ist Blödsinn! Ich muss noch mal neu nachdenken. Sorry. traurig
Bummbumm Auf diesen Beitrag antworten »

Ich habe weitergemacht und ein paar Verteilungsdichten geplottet. Ausgangssituation ist folgende:

Topf I: 130 Summanden
Topf II: 75 Summanden

[attach]28343[/attach]

[attach]28344[/attach]

Die ersten beiden Plots zeigen die Wahrscheinlichkeitsdichte der Mittelwerte für Topf I. Die diskrete Verteilung wurde durch die Durchführung des Experiments ermittelt. Die Schätzung durch die weiter oben genannte Formel.

Nachdem das erste Experiment durchgeführt wurde, befinden sich in Topf I nun noch 106-110 Summanden. Der genaue Wert ist erstmal aber nicht so wichtig.
Wichtiger ist die Anzahl der Summanden in Topf II. In einem unwahrscheinlichen Fall liegt der Mittelwert für die Anzahl der benötigten Summanden und um zu bilden bei 3,25. Mit diesem Wert werden dann 130/2,5 = 40 Summanden aus Topf II entfernt, es bleiben demnach noch 35 übrig.

Mit diesem Fall rechne ich nun in Experiment II weiter:

[attach]28345[/attach]

[attach]28346[/attach]

Die hier gezeigten Wahrscheinlichkeitsdichten gelten für Topf II. Sie beschreiben, wie wahrscheinlich es ist, dass im Mittel so und so viele Summanden aus Topf I entfernt werden.

Nach der Durchführung des zweiten Experiments ist Topf II leer und aus Topf I wurden insgesamt 29-35 Summanden entfernt.

Wenn ich das Experiment nur 1 mal durchführen muss, um einen der beiden Töpfe zu leeren, reichen mir die Wahrscheinlichkeitsdichten, die ich in Experiment I und II für die Töpfe I und II bestimme aus, um vorauszusagen, wie viele Summanden noch im nicht leeren Topf übrig bleiben. Was mir fehlt, ist die Herstellung des Zusammenhangs zwischen dem vorhergehenden Experiment und dem Folgenden. Es kann auch sein, dass das Experiment x mal durchgeführt werden muss. Je nachdem, wie viele Summanden sich in den Töpfen befinden und pro Experiment entfernt werden. Klar! Auch dafür müsste ich dann einen Zusammenhang herstellen können.

Pro Experiment gibt es natürlich 2 Verteilungsdichten. Eine für Topf I und eine für Topf II. Die Berechnung in Experiment I weist keine Abhängigkeiten auf, allerdings treten Abhängigkeiten in allen Folgenden Experimenten auf.

Mit meinen Überlegungen bleibe ich an dieser Formel hängen: .

wäre die obere der beiden Verteilungsdichten und die untere der beiden.

Als nächstes werde ich mal versuchen, die zweidimensionale Verteilungsdichte zu berechnen und sie mir anschauen.

Ich hoffe ja immer noch, dass sich hier noch jemand einklinkt. Augenzwinkern

Gruß

[edit]

Hmm, wenn ich y = 2,5 setze, müsste ich dann eigentlich nur die Wahrscheinlichkeit für diesen Mittelwert aus ermitteln und diesen mit der oben in Plot 4 gezeigten Verteilungsdichte mutliplizieren?
Bummbumm Auf diesen Beitrag antworten »

Korrektur kleiner Fehler in der Beschreibung:

Zitat:
130/2,5 = 40


muss natürlich

Zitat:
130/3.25 = 40


und

Zitat:
Hmm, wenn ich y = 2,5 setze [...]


muss

Zitat:
Hmm, wenn ich y = 3,25 setze [...]


heißen.
JPL Auf diesen Beitrag antworten »

Hi,
ich kann HALs Probleme mit deiner 'Aufgabe' schon nachvollziehen. du startest mit einer Problemstellung und formulierst sie andauernd um, am Ende gar im Twitter-Style. Das ist wirklich nicht sehr hilfreich.
Was ich aus deinem originalposting herauslese ist, dass ein Kerndichteschätzer schon die Lösung sein könnte um das Quantil, wie on HAL erwähnt, zu bestimmen, alleridings scheinst du nur Häufigkeiten vorliegen zu haben und keine realen Daten. Daher müsstest du aus den gegebenen Häufigkeiten erstmal Daten simulieren, aus enen du dann den KDS bestimmst und daraus dann das Quantil. Das scheinst du auch irgendwie gemacht zu haben -wenn ich deine weiteren posts richtig verstehe? Am besten wäre es also, wenn du - falls du noch hilfe brauchst - das Problem schilderst, und was du zu dessen Lösung unternommen hast.

Grüße,
JPL
Bummbumm Auf diesen Beitrag antworten »

Hi,

das Problem an sich formuliere ich eigentlich nicht um, ich erweitere es nur.

Mit Hilfe von HAL habe ich mein erstes, grundsätzliches Problem, aus einer vorliegenden diskreten Verteilungsdichte für mögliche Ergebnisse eine Verteilungsdichte für mögliche Mittelwerte, die sich aus der Mittelwertbildung mehrerer Ergebnisse nach einem Experiment ergeben, zu erzeugen, gelöst.

Ursprünglich habe ich mit dem Kerndichteschätzer die stetige Verteilungsdichte für die vorliegende diskrete Verteilungsdichte der Ergebnisse schätzen wollen.
Während der Diskussion hier ist mal allerdings klar geworden, dass es nicht das ist, was ich brauche, sondern dass ich die Verteilungsdichte der Mittelwerte benötige. Die habe ich ja nun.

Zitat:
Am besten wäre es also, wenn du - falls du noch hilfe brauchst - das Problem schilderst


Das Problem ist nach wie vor, dass ich nun nicht ein Experiment durchführe, sondern mehrere hintereinander, bis einer der beiden genannten Töpfe leer ist, also keine Summanden mehr enthält.

Das Ziel des ganzen ist es, ein Intervall angeben zu können, in dessen Bereich die Anzahl der Summanden liegt, die aus den jeweiligen Töpfen nach der Durchführung aller nötigen Experimente entfernt wurden.

Wenn also Topf II (70 Summanden) eher leer ist als Topf I (130 Summanden), sehen die Intervalle für die beiden Töpfe vielleicht so aus.

Topf I

40-47 Summanden wurden entfernt

Topf II

70-70 Summanden wurden entfernt

Insgesamt wurden dazu 2 Experimente durchgeführt. Das 2. Experiment hängt vom ersten ab, da nach dem ersten Experiment eine unterschiedliche Anzahl an Summanden in Topf I und Topf II übrig bleiben können. Diese Abhängigkeit gilt es nun zu beschreiben.

Also im Grunde in der Richtung: Wie Wahrscheinlich ist es, dass in Experiment 1 aus Topf II die maximal mögliche und noch wahrscheinliche Anzahl an Summanden entfernt wird und anschließend in Experiment 2 die minimale Anzahl an Summanden aus Topf I entfernt wird.

Natürlich ist dies nur eine mögliche Abhängigkeit. Je nachdem, wie viele Summanden in Experiment I aus Topf I entfernt werden, ändert sich dann natürlich auch die mögliche Anzahl der Summanden, die in Experiment 2 aus Topf II entfernt werden können.

Ich erkläre eigentlich immer das Gleiche, nur mit anderen Worten und anderen Beispielen.

Zitat:
am Ende gar im Twitter-Style


Naja, ich höre ja nicht auf zu Überlegen, um weiter an der Problemlösung zu arbeiten. Warum soll ich also nicht meine Ideen und neuen Ansätze posten?

Es würde mir helfen, wenn jemand versuchen würde, meine Ideen nachzuvollziehen und kritisch zu hinterfragen.

Vielleicht kann ja auch jemand mal mit seinen Worten beschreiben, wie er mein Problem versteht und wie der Ablauf des Experiments/der Experimente aussieht. Dann könnte ich sagen, ja, genau so verläuft das Experiment oder, nein, das habe ich wohl nicht gut genug erklärt.

Gruß
JPL Auf diesen Beitrag antworten »

Hi,

dann komme ich deiner Aufforderung mal nach:
Du hast 2 Töpfe(?) in denen summanden liegen(?), keine Ahnung wieviele oder ob das bestimmte sind oder doppelt oder irgendwelche Eigenschaften oder ob das nicht einfach auch nur Zahlen sein können. Dann gibt es einen 2-stufigen(?) Prozess bei dem nach völlig unerklärten Regeln diese Summanden aus den Töpfen verschwinden(?), irgendwie wird wohl mehrmals(?) aus Topf 1 gezogen(?) und je nachdem was man erhält kann/muss/soll(?) man auch aus Topf 2 ziehen oder die Summanden verschwinden von alleine(?). Am Ende willst du einen Bereich wissen wie viele Summanden aus Topf verschwinden können ohne man viele aus Topd 2 entfernt?

Hilfreich wäre eine Beschreibung des ganzen Vorgangs ohne zusätzliche Abstraktionsebene wie Topf/Summand (worum handeltes sich dabei wirklich?). Und das möglichst genau - nicht irgendwas hinschreiben und dann noch eine Erweiterung hinterhertwittern, weil einem gerade noch was eingefallen ist. Mach dir lieber vorher mehr Gedanken und lass es dauern, bis du geschrieben hast, was du willst.

Grüße,
JPL
Bummbumm Auf diesen Beitrag antworten »

Danke für deinen Versuch, aber offenbar hast du nur die letzte „Twitter“-Nachricht gelesen. Nur mit Hilfe dieses Postings kann man natürlich nicht das gesamte Experiment verstehen.

Ich versuchs mal mit einer Skizze:

[attach]28431[/attach]

Nach einer gewissen Anzahl an Experimenten ist ein Topf leer. Im anderen Topf bleiben aber noch x-y Summanden übrig, abhängig von den Wahrscheinlichkeiten für die Entfernung von Summanden aus den Töpfen.

Ich kann das Experiment wiederholt ausführen, um dieses Intervall zu bestimmen, doch das Ziel ist es, dies über die Wahrscheinlichkeiten direkt auszurechnen.

Gruß
JPL Auf diesen Beitrag antworten »

Zitat:
Original von Bummbumm
Danke für deinen Versuch, aber offenbar hast du nur die letzte „Twitter“-Nachricht gelesen. Nur mit Hilfe dieses Postings kann man natürlich nicht das gesamte Experiment verstehen.

Ich versuchs mal mit einer Skizze:

Ach, zu gütig der Herr. Verstehe er aber, dass wir hier auch in unserer Freizeit sind und 33 Beiträge zu lesen nicht dem Wunsche nachkommt, das Experiment zu beschreiben.

aber die Grafik ist ganz nützlich.
Also:

Seien .
Sei und .

Definieren rekursiv für alle j=1,...
mit


Falls : , sonst:
Falls : , sonst:




Stop, if oder .

Nun ist interessant wie die Verteilung der Zahlen in A1 und B1 sind und welche überhaupt vorkommen. Und natürlich wie sch zA und zB zueinander verhalten und zum Median der Werte in A1 und B1.

Grüße,
JPL
Bummbumm Auf diesen Beitrag antworten »

Moin,

also, ich nehme mal an, dass du mit den Formeln den Algorithmus zur Durchführung de Experiments beschreibst!? Das könnte schon ganz gut hinkommen, wobei natürlich nicht nur die Summe über alle gebildet wird, sondern auch über die , die dann ergeben müssen.

Zitat:
Nun ist interessant wie die Verteilung der Zahlen in A1 und B1 sind und welche überhaupt vorkommen. Und natürlich wie sch zA und zB zueinander verhalten und zum Median der Werte in A1 und B1.

Die Verteilung der und ist immer gleich. In einem Topf sind immer 2 Summanden und die Wahrschlichkeit dafür, dass ich entweder den einen oder den anderen Summanden ziehe, ändert sich durch herausnehmen eines Summanden nicht. Zwischen den und gibt es keine Abhängigkeiten. Ich nehme mal an, du meinst mit den die Summanden aus Topf I und mit den die Summanden aus Topf II. Genauso gibt es keine Abhängigkeiten zwischen den und den . Das Verhältnis zum Median kann man ja bestimmen. Das habe ich ja auch gemacht. Die gezeigten Verteilungsdichten geben ja eben die Wahrscheinlichkeit für die entsprechenden Mittelwerte, sprich für die Verhältnisse zwischen z.B. und der Summe über die an.

Soweit so gut. Bloß geht das Experiment jetzt weiter. Alle Summanden wurden einmal aus Topf I und Topf II gezogen. Sind in beiden Töpfen noch Summanden übrig, müsste der Algorithmus wiederholt werden. Der Knackpunkt wäre dann die Bestimmung der neuen Wahrscheinlichketisdichte, also das Verhältnis der bzw. zur Anzahl an benötigten Summanden bzw. , um bzw. zu bilden.

Gruß
JPL Auf diesen Beitrag antworten »

Hi,

du musst mal langsam von der Prosa wegkommen, zumindest dann, wenn du eine Lösung anstrebst.


Zitat:
Original von Bummbumm
Das könnte schon ganz gut hinkommen, wobei natürlich nicht nur die Summe über alle gebildet wird, sondern auch über die , die dann ergeben müssen.

naja, das "natürlich" erschließt sich nicht so ganz, aber sei's drum.
Man zieht also aus TopfI und II (dann musst du eben entsprechend anpassen)?
Wieviele zieht man denn jeweils (das entspräche dem k)?

Zitat:
Die Verteilung der und ist immer gleich.

Hä, das kann ja gar nicht sein. wie du sagst gibt es nur zwei Zahlen (mit welcher Häufgkeit?) in jedem Topf. Sind das dieselben für jeden Topf? du musst dieDefinitionen von A1 und B1 so anpassen, dass sie dies widerspiegeln.


Zitat:

In einem Topf sind immer 2 Summanden und die Wahrschlichkeit dafür, dass ich entweder den einen oder den anderen Summanden ziehe, ändert sich durch herausnehmen eines Summanden nicht.

Hä? Wenn du z.B. 2 Mal "2" und 3 Mal "3" in Topf I hast und du ziehst eine "2" dann änder sich natürlich die W'keit danach eine 3 zu ziehen -oder ziehst du mit zurücklegen (was irgendwie keinen Sinn ergibt) oder spielst du darauf an, k summanden gleichzeitig zu ziehen (==> Hypergeometrische Verteilung)? aber auch dann verändern sich die W'keiten beim nächsten Mal (falls man die Summanden aus dem Topf nimmt).

Zitat:
Das Verhältnis zum Median kann man ja bestimmen. Das habe ich ja auch gemacht. Die gezeigten Verteilungsdichten geben ja eben die Wahrscheinlichkeit für die entsprechenden Mittelwerte, sprich für die Verhältnisse zwischen z.B. und der Summe über die an.

Das erschließt sich einem leider gar nicht. die Verhältnisse zum Median kannstdu nur bestimmen, wenn du weißt wie oft welche Zahl in welchem Topf vorkommt und das Verhältnis der Summanden zueinander ist. Und was das einem bringen soll, weiß ich irgendwie auch nicht. wenn du den Median schon relativ angeben
kannst, geht das mit dem MW auch, daher brauchst du dann aber nicht "vom Median auf den MW schließen".

Zitat:

Soweit so gut. Bloß geht das Experiment jetzt weiter.

Genau,bisher haben wir j=1 besprochen, jetzt geht's weiter mit j=2.
Hast du irgendwie auch nur ein Quentchen von dem verstanden, was ich geschrieben hatte?

Grüße,
JPL
Bummbumm Auf diesen Beitrag antworten »

Zitat:
Original von JPL
Wieviele zieht man denn jeweils (das entspräche dem k)?
Alle.

Zitat:
]
Zitat:
Die Verteilung der und ist immer gleich.

Hä, das kann ja gar nicht sein. wie du sagst gibt es nur zwei Zahlen (mit welcher Häufgkeit?) in jedem Topf. Sind das dieselben für jeden Topf? du musst dieDefinitionen von A1 und B1 so anpassen, dass sie dies widerspiegeln.

Sagen wir die Häufigkeit für A ist 0.8 und für B 0.2.C und D aus Topf II haben die Wahrscheinlichkeit 0.3 und 0.7. Und diese Wahrscheinlichkeiten bleiben konstant. Keine Ahnung, ob man das einen Versuch "mit zurücklegen" nennt. Ich bin kein Experte in Stochastik aber vermutlich hast du Recht und es ist so. Für mein Problemist das allerdings kaum relevant, denke ich, da ich ja ohnehin in jedem Experiment neu die Wahrscheinlichkeit für die Mittelwerte möglicher Anzahlen an Summanden bestimme. Und die beruhen auf diesen Wahrscheinlichkeiten.


Zitat:
oder spielst du darauf an, k summanden gleichzeitig zu ziehen (==> Hypergeometrische Verteilung)? aber auch dann verändern sich die W'keiten beim nächsten Mal (falls man die Summanden aus dem Topf nimmt).
Nein, man zieht alle Summanden hintereinander.

Zitat:

Zitat:
Das Verhältnis zum Median kann man ja bestimmen. Das habe ich ja auch gemacht. Die gezeigten Verteilungsdichten geben ja eben die Wahrscheinlichkeit für die entsprechenden Mittelwerte, sprich für die Verhältnisse zwischen z.B. und der Summe über die an.

Das erschließt sich einem leider gar nicht. die Verhältnisse zum Median kannstdu nur bestimmen, wenn du weißt wie oft welche Zahl in welchem Topf vorkommt und das Verhältnis der Summanden zueinander ist. Und was das einem bringen soll, weiß ich irgendwie auch nicht. wenn du den Median schon relativ angeben
kannst, geht das mit dem MW auch, daher brauchst du dann aber nicht "vom Median auf den MW schließen".

Zitat:

Soweit so gut. Bloß geht das Experiment jetzt weiter.

Genau,bisher haben wir j=1 besprochen, jetzt geht's weiter mit j=2.
Hast du irgendwie auch nur ein Quentchen von dem verstanden, was ich geschrieben hatte?
Das, was ich zuletzt zitiert habe, irgendwie nicht.

Ja, ich kenne die Werte der Summanden und deren Wahrscheinlichkeiten. Ich kenne auch die Werte von zA und zB.

Gruß
Grüße,
JPL[/quote]
Bummbumm Auf diesen Beitrag antworten »

Hier mal ein paar ermittelte Daten, die nach Durchführung des Experiments ermittelt wurden. Jedes Experiment musste dazu 2 mal wiederholt, um einen der beiden Töpfe zu leeren.

Man sieht anhand der Daten, wie sich die Mittelwerte von Experiment 1 zu Experiment 2 verändern.

Zitat:
Mittelwert Anzahl an Summanden A und B um Z2 zu bilden: 3.8571428571429
bedeutet, dass im Mittel 3.857 Summanden aus Topf I gezogen werden müssen, um einen Summanden aus Topf II zu entfernen.

code:
1:
2:
3:
4:
5:
6:
7:
8:
9:
10:
11:
12:
13:
14:
15:
16:
17:
18:
19:
20:
21:
22:
23:
24:
25:
26:
27:
28:
29:
30:
31:
32:
33:
34:
35:
36:
37:
38:
39:
40:
41:
42:
43:
44:
45:
46:
47:
48:
49:
50:
51:
52:
53:
54:
55:
56:
57:
58:
59:
Experiment 1

Mittelwert Anzahl an Summanden A und B um Z2 zu bilden: 3.0952380952381

Mittelwert Anzahl an Summanden C und D um Z1 zu bilden: 3.1818181818182

Experiment 2

Mittelwert Anzahl an Summanden A und B um Z2 zu bilden: 3.8571428571429

Mittelwert Anzahl an Summanden C und D um Z1 zu bilden: 3.1111111111111

Experiment 1

Mittelwert Anzahl an Summanden A und B um Z2 zu bilden: 3.1707317073171

Mittelwert Anzahl an Summanden C und D um Z1 zu bilden: 3.1818181818182

Experiment 2

Mittelwert Anzahl an Summanden A und B um Z2 zu bilden: 3.7241379310345

Mittelwert Anzahl an Summanden C und D um Z1 zu bilden: 3.625

Experiment 1

Mittelwert Anzahl an Summanden A und B um Z2 zu bilden: 3.0232558139535

Mittelwert Anzahl an Summanden C und D um Z1 zu bilden: 3.1818181818182

Experiment 2

Mittelwert Anzahl an Summanden A und B um Z2 zu bilden: 4

Mittelwert Anzahl an Summanden C und D um Z1 zu bilden: 3.375

Experiment 1

Mittelwert Anzahl an Summanden A und B um Z2 zu bilden: 3.0952380952381

Mittelwert Anzahl an Summanden C und D um Z1 zu bilden: 3.3333333333333

Experiment 2

Mittelwert Anzahl an Summanden A und B um Z2 zu bilden: 3.8928571428571

Mittelwert Anzahl an Summanden C und D um Z1 zu bilden: 3.5

Experiment 1

Mittelwert Anzahl an Summanden A und B um Z2 zu bilden: 3.0952380952381

Mittelwert Anzahl an Summanden C und D um Z1 zu bilden: 3.1818181818182

Experiment 2

Mittelwert Anzahl an Summanden A und B um Z2 zu bilden: 3.8571428571429

Mittelwert Anzahl an Summanden C und D um Z1 zu bilden: 3.5
Bummbumm Auf diesen Beitrag antworten »

Hier noch die zugehörigen Wahrscheinlichkeitsdichten:

Experiment 1

Topf I entfernt aus Topf II

[attach]28601[/attach]

Topf II entfernt aus Topf I

[attach]28602[/attach]

Experiment 2

Topf II entfernt aus Topf I

[attach]28603[/attach]

Die Verteilungsdichte für „Topf I entfernt aus Topf II“ für Experiment 2 lässt sich nicht so leicht bestimmen, da nicht alle Summanden aus Topf I in Experiment 2 gezogen werden müssen, um den Rest der Summanden aus Topf II zu entfernen.

Gruß

PS. Ja, im Twitter-Stil, da das Forum hier ja keine Editierfunktion anbietet, die auch noch 15 Minuten nach dem Erstellen des Beitrags funktioniert.

[edit]

Ja, der Stichprobenumfang ist klein. Darum geht es aber auch nicht. Es geht darum, zwischen der 1. und 3. Verteilungsdichte, die oben gezeigt sind, einen Zusammenhang herzustellen. Auf Basis der 1. Verteilungsdichte möchte ich also die 3. schätzen können. Die 3. ändert sich ja offensichtlich im Vergleich zur 2., obwohl diese noch immer für den 2. Topf gilt. Der Erwartungswert wird offensichtlich niedriger.

Gruß
Neue Frage »
Antworten »



Verwandte Themen

Die Beliebtesten »
Die Größten »
Die Neuesten »