Entropie

Neue Frage »

naoukiko Auf diesen Beitrag antworten »
Entropie
Hi,
ich muss die aufgabe bis Donnertag lösen kann mir jemand bitte helfen ich habe wieder keine Ahnung. Seien S ={s1,....,sn}ein Alphabet und X, Y Zufallsvariable in S mit P (Y =sj) > 0 für j = 1,...., n. Dann sind durch
H(X|{Y = sj}) =Summe von i=1 bis n von P ({X = si}|{Y= sj}) log2 1/ P({X= si}|{Y = sj})
die bedingte Entropie von X gegeben {Y = sj} und durch
H(X |Y) =Summe von j=1 bis n von P ({Y = sj})H(X |{Y = sj})
die bedingte Entropie von X gegeben Y definiert. Zeigen Sie, dass
H( X|Y) = H((X, Y)) -
H(Y) gilt.
Leopold Auf diesen Beitrag antworten »

Setze zur Abkürzung



Dann gelten





Hier und im Folgenden durchlaufen die Indizes alle Werte von bis . Dann folgt wegen gemäß deiner Definition



Und jetzt multipliziere aus und ziehe die Summe auseinander. Dann bekommst du vorne und hinten unter Beachtung von schließlich .
Neue Frage »
Antworten »



Verwandte Themen

Die Beliebtesten »
Die Größten »
Die Neuesten »