Unbestimmtheit bzgl der Informationstheorie

Neue Frage »

xvzwx Auf diesen Beitrag antworten »
Unbestimmtheit bzgl der Informationstheorie
Hallo,

ich lese mich gerade in das Thema der Entropie ein und bin auf folgende Aufgabe gestoßen:

Wie groß ist die Entropie einer fünfstelligen Zahl, wobei jede Ziffer unabhängig und gleichverteilt aus der Menge stammt.

Meine Überlegungen:

Jede dieser fünf Zahlen besitzt die Wahrscheinlichkeit , da Gleichverteilt.

Nun würde ich dies einfach in die Formel einsetzten und folgendes erhalten:



aufgerundet sind minimal 4 Bits nötig um eine Zahl zu kodieren.

Da die Zeichen unabhängig und gleichverteilt sind würde ich nun das ganze für jede Ziffer aufsummieren und folgendes erhalten:



es werden aufgerundet minimal 17 Bits für die Kodierung der fünfstelligen Zahl benötigt.

Meine Frage: ist diese Vorgehensweise richtig oder habe ich mich da komplett geirrt? leider gibt es zu dieser Aufgabe keinen Lösungsvorschlag.
Elvis Auf diesen Beitrag antworten »

Die 17-stellige Dualzahl 11000011010011111 ist die Binärdarstellung der 5-stelligen Dezimalzahl 99999. Das passt recht gut zu deinem Ergebnis (ich gestehe, ich kenne die Formel nicht mehr (zu lange her, dass ich Einführung in die Informatik gehört habe, und mein damaliges Buch ist verloren gegangen)).
xvzwx Auf diesen Beitrag antworten »

Danke für die Antwort Freude

So betrachtet macht meine Lösung scheinbar halbwegs Sinn.
Die Formel findet man übrigens unter dem Begriff Entropy (Information Theory) bzw Shannon-Entropy. Diese sieht folgendermaßen aus:



wobei n die Mächtigkeit des Ereignisraumes darstellt.
Elvis Auf diesen Beitrag antworten »

Ja danke, ich erinnere mich duster an die Shannon'sche Informationstheorie. Passt anscheinend, was Du gemacht hast.
Neue Frage »
Antworten »



Verwandte Themen

Die Beliebtesten »
Die Größten »
Die Neuesten »