Bedingte Entropie |
08.10.2011, 21:01 | cloudscraper | Auf diesen Beitrag antworten » |
Bedingte Entropie es geht nun um folgendes Beispiel: Gedächtnisbehaftete Quelle: P[s0] = 5 /11, P[s1] = 3 /11, P[s2] = 5 /22 P[s3] = 1 /22 Es ist ein Markov- Diagramm angegeben(Bild), aus dem hervorgeht, dass die Übergangswahrscheinlichkeiten P[s1|s0] = 1/2, P[s0|s1] = 5/6 bekannt sind. Gesucht ist die bedingte Entropie H[Y|s0]. Formel, die mir vielleicht helfen könnte?: H(Y |X) = Ich weiß echt nicht, womit ich anfangen muss, um diese Aufgabenstellung lösen zu können? Muss ich "einfach" nur in diese Formel einsetzen? Ich habe schon im Internet recherchiert, aber ich komme auf keine griffige(für mich verständliche) Erklärung |
||
09.10.2011, 20:35 | cloudscraper | Auf diesen Beitrag antworten » |
Hat sich schon erledigt. |
||
29.06.2014, 18:03 | fd1234 | Auf diesen Beitrag antworten » |
Hey, habe gerade deinen Beitrag durch Google gefunden, und habe gerade genau das gleiche Problem, du hast geschrieben dass es sich erledigt hat. Wie konntest du es lösen? |
||
09.07.2014, 11:01 | fd1234 | Auf diesen Beitrag antworten » |
kann mir sonst jemand helfen der user scheint nicht mehr aktiv zu sein |
|
Verwandte Themen
Die Beliebtesten » |
|
Die Größten » |
|
Die Neuesten » |