Entropie |
29.06.2005, 06:19 | naoukiko | Auf diesen Beitrag antworten » |
Entropie ich muss die aufgabe bis Donnertag lösen kann mir jemand bitte helfen ich habe wieder keine Ahnung. Seien S ={s1,....,sn}ein Alphabet und X, Y Zufallsvariable in S mit P (Y =sj) > 0 für j = 1,...., n. Dann sind durch H(X|{Y = sj}) =Summe von i=1 bis n von P ({X = si}|{Y= sj}) log2 1/ P({X= si}|{Y = sj}) die bedingte Entropie von X gegeben {Y = sj} und durch H(X |Y) =Summe von j=1 bis n von P ({Y = sj})H(X |{Y = sj}) die bedingte Entropie von X gegeben Y definiert. Zeigen Sie, dass H( X|Y) = H((X, Y)) - H(Y) gilt. |
||
29.06.2005, 20:40 | Leopold | Auf diesen Beitrag antworten » |
Setze zur Abkürzung Dann gelten Hier und im Folgenden durchlaufen die Indizes alle Werte von bis . Dann folgt wegen gemäß deiner Definition Und jetzt multipliziere aus und ziehe die Summe auseinander. Dann bekommst du vorne und hinten unter Beachtung von schließlich . |
|
Verwandte Themen
Die Beliebtesten » |
|
Die Größten » |
|
Die Neuesten » |
|