Caveat bei Multiplikationssatz und Bayes |
17.03.2023, 02:06 | Pippen | Auf diesen Beitrag antworten » | ||||
Caveat bei Multiplikationssatz und Bayes Oder anders ausgedrückt: wenn bei einem Münzwurf im ersten Wurf P(Z) = P(K) = 0.5, aber im zweiten Wurf P(Z) = 0.2 und P(K) = 0.8, dann klappt Bayes nicht und auch nicht o.g. Verallgemeinerung des Multiplikationssatzes. Falls ich das richtig verstanden habe, genügt auch ein „Jawohl“, ich traue meinem Denken wenig zu, ich brauche Bestätigung. |
||||||
17.03.2023, 03:55 | klauss | Auf diesen Beitrag antworten » | ||||
RE: Caveat bei Multiplikationssatz und Bayes Kleine Korrektur: Ich würde etwas lesen wie
Ich würde im übrigen entgegnen, dass der Ausdruck gar nicht speziell auf ein zweistufiges Zufallsexperiment bezogen ist, sondern die Wahrscheinlichkeit angibt, dass bei einem Zufallsexperiment die (zu definierenden) Ereignisse und gemeinsam eintreten. Beim einmaligen Münzwurf mit ist z. B. Beim zweimaligen Münzwurf mit Deinen Vorgaben muß man natürlich das Zufallsexperiment festlegen, etwa "Wurf 1 mit fairer Münze, Wurf 2 mit gezinkter Münze" oder umgekehrt. In beiden Fällen könnte man angeben, aber dann sind die Wahrscheinlichkeiten der Elementarereignisse nicht für beide Zufallsexperimente identisch und man muß die interessierenden Ereignisse präzisieren: "Erst , dann " = "Erst , dann " = "Genau einmal " = "Genau einmal " = ... |
||||||
17.03.2023, 07:20 | Ulrich Ruhnau | Auf diesen Beitrag antworten » | ||||
RE: Caveat bei Multiplikationssatz und Bayes
Ich würde sagen: Beim ersten Mal wird die Münze zufällig geworfen und beim zweiten Wurf manipuliert geworfen, sodaß Kopf mit größerer Wahrscheinlichkeit gewinnt. Das setzt aber eine speziell dafür geübte Technik des Werfens voraus. Letztere hat zunächst nichts mit bedingten Wahrscheinlichkeiten zu tun. |
||||||
17.03.2023, 08:56 | Pippen | Auf diesen Beitrag antworten » | ||||
Damit klappt aber Bayes nicht mehr oder die Verallgemeinerung des Multiplikationssatzes. Man muss also bei Zufallsexperimenten immer darauf achten, dass P (A & B) = P (B & A). Wenn man merkt, dass das nicht der Fall ist, muss man die Finger von diesen Sätzen lassen. Gerade bei empirischen „nicht idealisierten“ Zufallsexperimenten wird das häufig so sein, genauso wie bei Zufallsereignissen wie Lottoziehungen, wo die erste Ziehung die Wahrscheinlichkeiten für die zweite Ziehung verändert (in der ersten Ziehung ist P(gerade Zahl) = 1/24, nach der Ziehung von 4 ist P(gerade Zahl) in der 2. Ziehung nur noch = 1/23. |
||||||
17.03.2023, 13:04 | klauss | Auf diesen Beitrag antworten » | ||||
Ich sehe bisher keinen Widerspruch, da Deine Beispiele zu vage sind. Du hast kein konkretes Zufallsexperiment und keine konkreten Ereignisse definiert, wo angeblich P (A & B) = P (B & A) nicht gelten soll. In meinem oben Gesagten gilt für jedes der beiden Zufallsexperimente aber natürlich nicht Und bei der Lottoziehung meintest Du wohl 1. Ziehung: 24/49 2. Ziehung: 23/48 |
||||||
17.03.2023, 13:45 | HAL 9000 | Auf diesen Beitrag antworten » | ||||
Die Durchschnittsoperation für Mengen (und Ereignisse sind nichts weiter als Mengen) ist symmetrisch, d.h. für alle . Das muss man also nicht extra voraussetzen - Pippen erhebt da wieder Dinge zum Problem, die gar keins sind. Immerhin sind in reichlich 4 Jahren geringe Fortschritte gegenüber diesem Blödsinn erkennbar.
Gemäß üblicher Reihenfolge "Ereignis|Bedingung" in der Symbolik für bedingte Wahrscheinlichkeiten ist das gerade falsch rum geschrieben. Richtig ist . |
||||||
Anzeige | ||||||
|
||||||
18.03.2023, 04:24 | Pippen | Auf diesen Beitrag antworten » | ||||
Nimm einen zweifachen Münzwurf. Im ersten Wurf gelte: P(K1) = P(Z1) = 0.5, im zweiten gelte: P(K2) = 0.8, P(Z2) = 0.2. Gilt P(A B) = P(A) * P(B|A) = P(B) * P(A|B) genauso wie der Satz von Bayes? Ich würde dir recht geben, Beides gilt auch für o.g. Szenario. Ich habe mich wohl davon verwirren lassen, dass oft nicht präzise zwischen K1 und Z2 usw. unterschieden wird. Da kommt dann solche headscratcher zustande wie: warum ist K & Z = Z & K. @hal: Keineswegs war das Blödsinn (die Idee schonmal gar nicht, die drängt sich geradezu auf). P(A|B) modelliert die nichttriviale Implikation B -> A (also wo B nicht falsch bzw. gleich Null) auf Unsicherheitsbasis. Deshalb ist auch P(~A|B) die Negation davon. Im Fall P(A|B) = 1 haben wir die wahre (nichttriviale) Implikation der klass. Logik, bei P(A|B) = 0 das Gegenteil, es gilt dann sofort P(~A|B) = 1. So muss es auch sein: Aus einem falschen B -> A folgt B & ~A. |
||||||
18.03.2023, 11:17 | HAL 9000 | Auf diesen Beitrag antworten » | ||||
Das in Symbolik als zweistellige Operation aufzufassen war, ist und bleibt Blödsinn. Das jetzt wieder zu leugnen, zeigt deutlich, dass du auf dem Gebiet der Stochastik ein unverbesserlicher Ignorant bist. |
||||||
18.03.2023, 14:40 | klauss | Auf diesen Beitrag antworten » | ||||
Das wäre dann der Fall "Wurf 1 mit fairer Münze, Wurf 2 mit gezinkter Münze". Dabei muß man dann im Rahmen der Berechnung aber auch bleiben. Ich versuche mal folgendes: Es kommt zumindest zweimal das gleiche raus. Oder ist die Formel einfach nur in sich selbst konsistent falsch? |
||||||
18.03.2023, 19:35 | Pippen | Auf diesen Beitrag antworten » | ||||
@klauss Bei P(Z2 & K1) rechne ich so: P(Z2 & K1) = P(Z2) * P(K1 | Z2). Bei P(Z2) addiere ich einfach P(K1 & Z2) und P(Z1 & Z2), was ergibt P(Z2) = 0,1, was den Satz der totalen W. anwendet. Bei P(K1 | Z2) gilt: wenn zuerst Z2 gezogen würde, dann würde es ja trotzdem dabei bleiben, dass in der ersten Ziehung beide Male die Wahrscheinlichkeit 0,5 wäre, also P(K1 | Z2) = 0,5. So komme ich genau wie du auf 0,1. Damit wäre Bayes machbar. Ich denke, du hattest recht. Sobald zwei Ereignisse A,B gemeinsam auftreten können, müssen sie wg. Kommutativität der Mengen gleich sein und also auch ihre Wahrscheinlichkeiten. Bayes ist damit eigentlich immer anwendbar, wo bed. W. eine Rolle spielen, auch im Lotto zB. @Hal: „A unter der Bedingung B“ (A | B) ist exakt die semantische Bedeutung der Implikation B -> A. Ich habe es dir ja vorgeführt, wie schön das auch aufgeht, solange man den Sonderfall des falschen Antecedens ausschließt, der hier zu einer Division durch Null führen würde. |
||||||
18.03.2023, 20:07 | klauss | Auf diesen Beitrag antworten » | ||||
Das habe ich doch eigentlich auch gemacht, es kommt aber raus. Schreibfehler Deinerseits?
So sollte man das m. E. eben gerade nicht formulieren, denn die Ergebnisse sind jetzt über ihren Index mit der Stelle, an der sie auftreten, ausgezeichnet. Dazu hätte ich aber noch diese Idee: Wenn die unbedingte Wahrscheinlichkeit , dann muß ebenfalls sein, denn muß stochastisch unabhängig sein von einem nachfolgenden Wurf, der noch gar nicht stattgefunden hat. Wenn richtig ist, kann die Formel nur dann gültig sein, wenn |
||||||
19.03.2023, 21:23 | Pippen | Auf diesen Beitrag antworten » | ||||
Ja, P(Z2) = 0,2, also Schreibfehler. Wichtig war mir nur, dass die Voraussetzung P(A & B) = P(B & A) am Ende doch kein Problem ist, weil Beides immer gleich ist und sein muss. Da habe ich mich verwirren lassen. Mein Ausgangsbeitrag ist damit hinfällig: sobald bedingte Wahrscheinlichkeiten auftreten, gilt Bayes und die Umformung des Multiplikationssatzes im Ausgangsbeitrag. P(K1 | Z2) muss die Wahrscheinlichkeit P(K1) haben, ja. Denn wenn - kontrafaktisch Z2 vor K1 käme, bleibt es ja dabei, dass K1 die ihm einmal zugewiesene Wahrscheinlichkeit behält. |
|
Verwandte Themen
Die Beliebtesten » |
|
Die Größten » |
|
Die Neuesten » |