Mutual information |
09.05.2022, 16:39 | McST | Auf diesen Beitrag antworten » |
Mutual information Let X,Y be independent RVs, each with values in {0; 1} and probabilities ( ). Compute I(X + Y ;X) Hier ist mein aktueller Lösungsweg, ich bin mir nicht sicher ob dass so Stimmt. Zuerst umformen mithilfe von einem Lemma. Dann erstelle ich die Wahrscheinlichkeiten für die Relevanten Fälle uns setzte in die Formeln für Entropy ein: Da mutual Information die Unabhägigkeit zwischen zwei RVs beschreibt macht dass ergebniss Sinn denke ich. Mich wüde auch interessieren ob es noch einen "leichteren"/direkteren Lösungsweg gibt anstatt alle Wahrscheinlichkeitsverteilungen in die Entropy Formeln ein zu setzen? Hätte ich noch weiter vereinfachen können? LG |
|