Caveat bei Multiplikationssatz und Bayes

Neue Frage »

Pippen Auf diesen Beitrag antworten »
Caveat bei Multiplikationssatz und Bayes
Oft liest man sowas wie P(A & B) = P(B) * P(B|A) = P(A) * P(A|B) als sog. Multiplikationssatz. Genau wie der Satz von Bayes hat dies aber zur Voraussetzung, dass P(B & A) = P(A & B), sonst klappt es nicht, richtig? Man liest das nirgends ausdrücklich, deshalb frage ich.

Oder anders ausgedrückt: wenn bei einem Münzwurf im ersten Wurf P(Z) = P(K) = 0.5, aber im zweiten Wurf P(Z) = 0.2 und P(K) = 0.8, dann klappt Bayes nicht und auch nicht o.g. Verallgemeinerung des Multiplikationssatzes.

Falls ich das richtig verstanden habe, genügt auch ein „Jawohl“, ich traue meinem Denken wenig zu, ich brauche Bestätigung. smile
klauss Auf diesen Beitrag antworten »
RE: Caveat bei Multiplikationssatz und Bayes
Kleine Korrektur: Ich würde etwas lesen wie
Zitat:
P(A & B) = P(B) * P(A|B) = P(A) * P(B|A)


Ich würde im übrigen entgegnen, dass der Ausdruck gar nicht speziell auf ein zweistufiges Zufallsexperiment bezogen ist, sondern die Wahrscheinlichkeit angibt, dass bei einem Zufallsexperiment die (zu definierenden) Ereignisse und gemeinsam eintreten.
Beim einmaligen Münzwurf mit

ist z. B.

Beim zweimaligen Münzwurf mit Deinen Vorgaben muß man natürlich das Zufallsexperiment festlegen, etwa "Wurf 1 mit fairer Münze, Wurf 2 mit gezinkter Münze" oder umgekehrt.
In beiden Fällen könnte man

angeben, aber dann sind die Wahrscheinlichkeiten der Elementarereignisse nicht für beide Zufallsexperimente identisch und man muß die interessierenden Ereignisse präzisieren:
"Erst , dann " =
"Erst , dann " =
"Genau einmal " = "Genau einmal " =
...
Ulrich Ruhnau Auf diesen Beitrag antworten »
RE: Caveat bei Multiplikationssatz und Bayes
Zitat:
Original von Pippen
Oder anders ausgedrückt: wenn bei einem Münzwurf im ersten Wurf P(Z) = P(K) = 0.5, aber im zweiten Wurf P(Z) = 0.2 und P(K) = 0.8, dann klappt Bayes nicht und auch nicht o.g. Verallgemeinerung des Multiplikationssatzes.

Ich würde sagen: Beim ersten Mal wird die Münze zufällig geworfen und beim zweiten Wurf manipuliert geworfen, sodaß Kopf mit größerer Wahrscheinlichkeit gewinnt. Das setzt aber eine speziell dafür geübte Technik des Werfens voraus. Letztere hat zunächst nichts mit bedingten Wahrscheinlichkeiten zu tun.
Pippen Auf diesen Beitrag antworten »

Zitat:
Original von klauss
Beim zweimaligen Münzwurf mit Deinen Vorgaben muß man natürlich das Zufallsexperiment festlegen, etwa "Wurf 1 mit fairer Münze, Wurf 2 mit gezinkter Münze" oder umgekehrt.
In beiden Fällen könnte man

angeben, aber dann sind die Wahrscheinlichkeiten der Elementarereignisse nicht für beide Zufallsexperimente identisch und man muß die interessierenden Ereignisse präzisieren:
"Erst , dann " =
"Erst , dann " =
"Genau einmal " = "Genau einmal " =
...


Damit klappt aber Bayes nicht mehr oder die Verallgemeinerung des Multiplikationssatzes. Man muss also bei Zufallsexperimenten immer darauf achten, dass P (A & B) = P (B & A). Wenn man merkt, dass das nicht der Fall ist, muss man die Finger von diesen Sätzen lassen. Gerade bei empirischen „nicht idealisierten“ Zufallsexperimenten wird das häufig so sein, genauso wie bei Zufallsereignissen wie Lottoziehungen, wo die erste Ziehung die Wahrscheinlichkeiten für die zweite Ziehung verändert (in der ersten Ziehung ist P(gerade Zahl) = 1/24, nach der Ziehung von 4 ist P(gerade Zahl) in der 2. Ziehung nur noch = 1/23.
klauss Auf diesen Beitrag antworten »

Ich sehe bisher keinen Widerspruch, da Deine Beispiele zu vage sind. Du hast kein konkretes Zufallsexperiment und keine konkreten Ereignisse definiert, wo angeblich P (A & B) = P (B & A) nicht gelten soll.
In meinem oben Gesagten gilt für jedes der beiden Zufallsexperimente

aber natürlich nicht


Und bei der Lottoziehung meintest Du wohl
1. Ziehung: 24/49
2. Ziehung: 23/48
HAL 9000 Auf diesen Beitrag antworten »

Die Durchschnittsoperation für Mengen (und Ereignisse sind nichts weiter als Mengen) ist symmetrisch, d.h. für alle . Das muss man also nicht extra voraussetzen - Pippen erhebt da wieder Dinge zum Problem, die gar keins sind.

Immerhin sind in reichlich 4 Jahren geringe Fortschritte gegenüber diesem Blödsinn erkennbar.

Zitat:
Original von Pippen
Oft liest man sowas wie P(A & B) = P(B) * P(B|A) = P(A) * P(A|B) als sog. Multiplikationssatz.

Gemäß üblicher Reihenfolge "Ereignis|Bedingung" in der Symbolik für bedingte Wahrscheinlichkeiten ist das gerade falsch rum geschrieben. Richtig ist

.
 
 
Pippen Auf diesen Beitrag antworten »

Zitat:
Original von klauss
Du hast kein konkretes Zufallsexperiment und keine konkreten Ereignisse definiert, wo angeblich P (A & B) = P (B & A) nicht gelten soll.


Nimm einen zweifachen Münzwurf. Im ersten Wurf gelte: P(K1) = P(Z1) = 0.5, im zweiten gelte: P(K2) = 0.8, P(Z2) = 0.2.

Gilt P(A B) = P(A) * P(B|A) = P(B) * P(A|B) genauso wie der Satz von Bayes? Ich würde dir recht geben, Beides gilt auch für o.g. Szenario. Ich habe mich wohl davon verwirren lassen, dass oft nicht präzise zwischen K1 und Z2 usw. unterschieden wird. Da kommt dann solche headscratcher zustande wie: warum ist K & Z = Z & K.

@hal: Keineswegs war das Blödsinn (die Idee schonmal gar nicht, die drängt sich geradezu auf). P(A|B) modelliert die nichttriviale Implikation B -> A (also wo B nicht falsch bzw. gleich Null) auf Unsicherheitsbasis. Deshalb ist auch P(~A|B) die Negation davon. Im Fall P(A|B) = 1 haben wir die wahre (nichttriviale) Implikation der klass. Logik, bei P(A|B) = 0 das Gegenteil, es gilt dann sofort P(~A|B) = 1. So muss es auch sein: Aus einem falschen B -> A folgt B & ~A.
HAL 9000 Auf diesen Beitrag antworten »

Zitat:
Original von Leopold
Wie HAL 9000 schon sagte, ist kein eigenständiges Symbol im Sinne einer Operation unter Mengen. Alle diesbezüglichen Versuche deinerseits führen ins Nirwana.

Das in Symbolik als zweistellige Operation aufzufassen war, ist und bleibt Blödsinn. Das jetzt wieder zu leugnen, zeigt deutlich, dass du auf dem Gebiet der Stochastik ein unverbesserlicher Ignorant bist.
klauss Auf diesen Beitrag antworten »

Zitat:
Original von Pippen
Nimm einen zweifachen Münzwurf. Im ersten Wurf gelte: P(K1) = P(Z1) = 0.5, im zweiten gelte: P(K2) = 0.8, P(Z2) = 0.2.

Das wäre dann der Fall "Wurf 1 mit fairer Münze, Wurf 2 mit gezinkter Münze". Dabei muß man dann im Rahmen der Berechnung aber auch bleiben.
Ich versuche mal folgendes:







Es kommt zumindest zweimal das gleiche raus. Oder ist die Formel einfach nur in sich selbst konsistent falsch?
Pippen Auf diesen Beitrag antworten »

@klauss Bei P(Z2 & K1) rechne ich so: P(Z2 & K1) = P(Z2) * P(K1 | Z2). Bei P(Z2) addiere ich einfach P(K1 & Z2) und P(Z1 & Z2), was ergibt P(Z2) = 0,1, was den Satz der totalen W. anwendet. Bei P(K1 | Z2) gilt: wenn zuerst Z2 gezogen würde, dann würde es ja trotzdem dabei bleiben, dass in der ersten Ziehung beide Male die Wahrscheinlichkeit 0,5 wäre, also P(K1 | Z2) = 0,5. So komme ich genau wie du auf 0,1. Damit wäre Bayes machbar. Ich denke, du hattest recht. Sobald zwei Ereignisse A,B gemeinsam auftreten können, müssen sie wg. Kommutativität der Mengen gleich sein und also auch ihre Wahrscheinlichkeiten. Bayes ist damit eigentlich immer anwendbar, wo bed. W. eine Rolle spielen, auch im Lotto zB.

@Hal: „A unter der Bedingung B“ (A | B) ist exakt die semantische Bedeutung der Implikation B -> A. Ich habe es dir ja vorgeführt, wie schön das auch aufgeht, solange man den Sonderfall des falschen Antecedens ausschließt, der hier zu einer Division durch Null führen würde.
klauss Auf diesen Beitrag antworten »

Zitat:
Original von Pippen[
Bei P(Z2) addiere ich einfach P(K1 & Z2) und P(Z1 & Z2), was ergibt P(Z2) = 0,1

Das habe ich doch eigentlich auch gemacht, es kommt aber raus. Schreibfehler Deinerseits?

Zitat:
[i]Original von Pippen
wenn zuerst Z2 gezogen würde, ...

So sollte man das m. E. eben gerade nicht formulieren, denn die Ergebnisse sind jetzt über ihren Index mit der Stelle, an der sie auftreten, ausgezeichnet.
Dazu hätte ich aber noch diese Idee:
Wenn die unbedingte Wahrscheinlichkeit , dann muß ebenfalls sein, denn muß stochastisch unabhängig sein von einem nachfolgenden Wurf, der noch gar nicht stattgefunden hat.
Wenn richtig ist, kann die Formel

nur dann gültig sein, wenn
Pippen Auf diesen Beitrag antworten »

Ja, P(Z2) = 0,2, also Schreibfehler. Wichtig war mir nur, dass die Voraussetzung P(A & B) = P(B & A) am Ende doch kein Problem ist, weil Beides immer gleich ist und sein muss. Da habe ich mich verwirren lassen. Mein Ausgangsbeitrag ist damit hinfällig: sobald bedingte Wahrscheinlichkeiten auftreten, gilt Bayes und die Umformung des Multiplikationssatzes im Ausgangsbeitrag.

P(K1 | Z2) muss die Wahrscheinlichkeit P(K1) haben, ja. Denn wenn - kontrafaktisch Z2 vor K1 käme, bleibt es ja dabei, dass K1 die ihm einmal zugewiesene Wahrscheinlichkeit behält.
Neue Frage »
Antworten »



Verwandte Themen

Die Beliebtesten »
Die Größten »
Die Neuesten »