Mutual information

Neue Frage »

McST Auf diesen Beitrag antworten »
Mutual information
Hallo, ich habe folgende Aufgabe zu Lösen:

Let X,Y be independent RVs, each with values in {0; 1} and probabilities ( ). Compute I(X + Y ;X)

Hier ist mein aktueller Lösungsweg, ich bin mir nicht sicher ob dass so Stimmt.

Zuerst umformen mithilfe von einem Lemma.


Dann erstelle ich die Wahrscheinlichkeiten für die Relevanten Fälle uns setzte in die Formeln für Entropy ein:




Da mutual Information die Unabhägigkeit zwischen zwei RVs beschreibt macht dass ergebniss Sinn denke ich.

Mich wüde auch interessieren ob es noch einen "leichteren"/direkteren Lösungsweg gibt anstatt alle Wahrscheinlichkeitsverteilungen in die Entropy Formeln ein zu setzen? Hätte ich noch weiter vereinfachen können?

LG
Neue Frage »
Antworten »



Verwandte Themen

Die Beliebtesten »
Die Größten »
Die Neuesten »