Bedingte Wahrscheinlichkeiten: konkretes Beispiel

Neue Frage »

Alan47 Auf diesen Beitrag antworten »
Bedingte Wahrscheinlichkeiten: konkretes Beispiel
Hallo,

nachdem ich in diesem Thread bereits Hilfe zu prinzipiellen Fragen erhalten habe (danke nochmals), habe ich mich an einem konkreten Beispiel versucht, aber ich scheitere kläglich. Es handelt sich um Beispiel 8.11 aus "Pattern Recognition and Machine Learning" von Christoph M. Bishop.

Szenario (informell):
In einem alten Auto befindet sich eine Tank-Anzeige G (für "Gauge"), welche den Füllstand des Tanks F (für "Fuel") anzeigt. Allerdings ist sie nicht ganz zuverlässig: wenn die Leistung der Batterie B nachlässt, fällt G ebenfalls auf 0, selbst wenn der Tank noch nicht leer ist. Es kann auch passieren, dass die Batterie noch voll und der Tank leer ist, G aber trotzdem einen vollen Tank bescheinigt.
Ein Fahrer D (für "Driver") liest die Anzeige ab und berichtet mir, dem Beifahrer, davon. Da er aber mit Fahren beschäftigt ist, ist das Ablesen der Tankanzeige ebenfalls nur zu 90% zuverlässig.

Gegeben:
  • Vier diskrete Zufallsvariablen namens G, B, F und D
  • Jede der vier Variablen kann den Wert 0 oder 1 annehmen


Es gelten folgende Wahrscheinlichkeiten:
  • p(G=1|B=1,F=1) = 0.8
  • p(G=1|B=1,F=0) = 0.2
  • p(G=1|B=0,F=1) = 0.2
  • p(G=1|B=0,F=0) = 0.1
  • p(B=1) = 0.9
  • p(F=1) = 0.9
  • p(D=1|G=1) = 0.9
  • p(D=0|G=0) = 0.9


Daraus lässt sich folgender Abhängigkeits-Graph aufstellen:

http://img59.imageshack.us/img59/2886/dependencygraph.png


Zu berechnen sind:
  • p(F=0|D=0)
    (informell: Wahrscheinlichkeit, dass der Tank leer ist wenn es der Fahrer behauptet)
  • p(F=0|D=0, B=0)
    (informell: Wahrscheinlichkeit, dass der Tank leer ist wenn der Fahrer es behauptet und die Batterie leer ist)



Im Lauf der Rechung verwende ich oft folgende Formel ("Marginalization", das deutsche Wort kenne ich leider nicht):



... und berechne mir die Gegenwahrscheinlichkeiten:
  • p(G=0|B=1,F=1) = 1 - 0.8 = 0.2
  • p(G=0|B=1,F=0) = 1 - 0.2 = 0.8
  • p(G=0|B=0,F=1) = 1 - 0.2 = 0.8
  • p(G=0|B=0,F=0) = 1 - 0.1 = 0.9
  • p(B=0) = 1 - 0.9 = 0.1
  • p(F=0) = 1 - 0.9 = 0.1
  • p(D=0|G=1) = 1 - 0.9 = 0.1
  • p(D=1|G=0) = 1 - 0.9 = 0.1



Nun verwende ich Bayes' Gesetz:




Ich versuche nun, mit Hilfe der Marginalization die einzelnen Bestandteile der rechten Seite zu sammeln.



Mittels Marginalization ergibt sich:



... und bei erneuter Anwendung:











Mittels Gegenwahrscheinlichkeit folgt:



Dies kann man nun in obige Gleichung einsetzen und erhält:





... aber an dieser Stelle bin ich mit meiner Weisheit am Ende. Wie soll man auf die fehlende Komponente von Bayes' Gesetz, nämlich



kommen, wenn die einzigen Wahrscheinlichkeiten, die man von D kennt, über G definiert sind, welches - zu allem Überfluss - auch noch von B und F abhängig ist? Ich wäre wirklich sehr dankbar für einen Denkanstoß in dieser Sache, es ist das erste Mal, dass ich mit Wahrscheinlichkeitsrechnungen dieser Komplexität konfrontiert bin und habe noch so meine Schwierigkeiten damit ^^'


Danke,


Alan
HAL 9000 Auf diesen Beitrag antworten »
RE: Bedingte Wahrscheinlichkeiten: konkretes Beispiel
Zwei Anmerkungen:


1) und sollen anscheinend als unabhängig angenommen werden. In deiner Rechnung hast du das auch schon benutzt, was dir hoffentlich bewusst ist!


2) Dem Satz über den Zusammenhang zwischen und würde ich mehr Informationen als du entnehmen: Nämlich





für beliebige nichtleere , d.h. ist bedingt unabhängig von , sofern nur bekannt ist. D.h., kann zwar nicht von unabhängig betrachtet werden, aber die Abhängigkeit besteht ausschließlich indirekt über , nicht noch direkt.

Dein

Zitat:
Original von Alan47
[*] p(D=1|G=1) = 0.9
[*] p(D=0|G=0) = 0.9

nutzt nur einen Bruchteil dieser Information, nämlich den Fall .


Bei Berücksichtigung dessen kann man nun die vollständige gemeinsame Verteilung von berechnen

,

aus der man dann alle absoluten oder bedingten Wahrscheinlichkeiten im Zusammenhang mit diesen vier Größen berechnen kann. Scheint mir am Ende übersichtlicher als ellenlange Ketten mit bedingten Wahrscheinlichkeiten. Augenzwinkern
Alan47 Auf diesen Beitrag antworten »

@HAL 9000: Ein erneutes Dankeschön für deine Antwort smile Auf die Idee mit der Tabelle wäre ich so in dieser Form noch gar nicht gekommen, gefällt mir aber sehr gut!
Du hast den Nagel mit deiner Aussage #2 übrigens auf den Kopf getroffen. Ich hab mich so lange mit der Aufgabe beschäftigt, dass ich den Wald vor lauter Bäumen nicht mehr gesehen habe. Ich habe es mittlerweile geschafft, sie dank deiner Hilfe vollständig zu lösen.


Dankeschön nochmals smile


Alan
HAL 9000 Auf diesen Beitrag antworten »

Zitat:
Original von Alan47
Auf die Idee mit der Tabelle wäre ich so in dieser Form noch gar nicht gekommen, gefällt mir aber sehr gut!

An sich hätte ich die Wahrscheinlichkeitswerte ja lieber in einem vierdimensionalen Würfel der Kantenlänge 2 dargestellt, aber der passt so schlecht auf eine zweidimensionale Website. Big Laugh
Neue Frage »
Antworten »



Verwandte Themen

Die Beliebtesten »
Die Größten »
Die Neuesten »