Shannon-Information

Neue Frage »

jentowncity Auf diesen Beitrag antworten »
Shannon-Information
Hallo an alle!
Wir machen gerade zur Einführung in die statistischer Physik etwas Wahrscheinlichkeitstheorie und folgendes Problem bereitet mir Schwierigkeiten:

Zeigen Sie, dass unter allen eindimensionalen Wahrscheinlichkeitsverteilungen mit vorgegebener Standardabweichung die Normalverteilung
die Shannon-Information (-Entropie) maximiert.

Also ich glaube es macht wenig Sinn für alle eindimensionalen Verteilungen die Shannon-Information einzeln zu berechnen un dann zu vergleichen was am größten ist.
Aber andererseits weiß ich nicht wie man das anders zeigen könnte... verwirrt
Kann mir jemand helfen?
AD Auf diesen Beitrag antworten »

Also mit so einer Gleichsetzung

Zitat:
Original von jentowncity

wäre ich ganz, ganz vorsichtig: Weil nämlich die rechts stehende differentielle Entropie auch nicht einfach durch Grenzübergang (etwa einer immer feiner werdenden Diskretisierung) aus der "normalen" diskreten Entropie links hervorgeht! Siehe z.B.

http://en.wikipedia.org/wiki/ Informatio...rential_entropy

Zur Sache an sich: Klingt nach einem Variationsproblem, und lässt sich so vielleicht auch lösen. Kann natürlich sein, dass ihr bereits irgendwelche Hilfsaussagen kennengelernt habt, die einen anderen, leichteren Weg ermöglichen. verwirrt
jentowncity Auf diesen Beitrag antworten »

Danke Arthur!
Die Variationsrechnung liegt bei mir schon etwas zurück, deswegen komm ich an einer Stelle nicht weiter:
Also ich suche das Minimum der Funktion
also
meine Nebenbedingungen sind: und
also
und daraus folgt, dass
also
Dies bedeutet aber nur, dass es eine Gleichverteilung ist.
Wie komm ich denn von hier zur Normalverteilung? Hat jemand einen Tip für mich, diese Lagrange-Methode ist bei mir schon etwas eingerostet...
AD Auf diesen Beitrag antworten »

Ok, behandeln wir wie von dir jetzt angegangen erstmal diskrete Verteilungen statt der eigentlich zu betrachtenden stetigen Verteilungen (wie erwähnt: es gibt da deutliche Unterschiede zwischen beiden Entropieauffassungen):

Dann hast du aber gerade eine wesentliche Nebenbedingung vergessen:

Zitat:
Original von jentowncity
Zeigen Sie, dass unter allen eindimensionalen Wahrscheinlichkeitsverteilungen mit vorgegebener Standardabweichung [...] die Shannon-Information (-Entropie) maximiert.

Die muss natürlich in das Minimierungsproblem mit rein!
jentowncity Auf diesen Beitrag antworten »

Ja, hast Recht, an diese Bedingung hab ich noch nicht gedacht...
Aber dann wäre es sicherlich besser, wenn man stetige Verteilungen betrachtet, damit man diese Bedingung auch einbauen kann.
Mein Problem ist: ich weiß nicht wie ich das mit der Lagrange-Methode bei kontinuierlichen Problemen anwenden kann. Geht es so:


Und wie geht man weiter vor? An welcher Stelle benutze ich die Bedingung mit der Standardabweichung?

Wie gesagt, es ist bei mir schon etwas her mit Lagrange. Deswegen wär ich für jede Hilfe sehr dankbar Hilfe
jentowncity Auf diesen Beitrag antworten »

Ok, hab mir das jetzt nochmal genauer angesehen und hier ist meine Lösung:






NB 1:
NB 2:
Eingesetzt in NB 1:


Und alles eingesetzt in p(x) ergibt die gesuchte Formel


Ist alles richtig so? Und ist das jetzt damit gezeigt?
 
 
AD Auf diesen Beitrag antworten »

Ok, so richtig Ahnung von Variationsproblemen habe ich bisher nicht (bis auf das Wissen, für welche Art Problemen die angemessen ist, deshalb mein Hinweis oben). Aber soweit ich das nach kurzem Überfliegen der Grundlagen dieser Theorie (Euler-Lagrange-DGL) sagen kann, sieht das bei dir alles sehr, sehr gut aus. Freude

Und das Ergebnis entspricht ja auch den vorherigen Erwartungen, obwohl das natürlich kein mathematisches Argument ist - aber es beruhigt doch ungemein. Augenzwinkern



EDIT: Halt, eine Unstimmigkeit ist mir noch aufgefallen, aber vielleicht fehlt da noch was in der Problemstellung:

Zitat:
Zeigen Sie, dass unter allen eindimensionalen zentrierten (d.h. mit Erwartungswert Null) Wahrscheinlichkeitsverteilungen mit vorgegebener Standardabweichung die Normalverteilung
die Shannon-Information (-Entropie) maximiert.

Ohne diese Zentrierungsbedingung lautet nämlich die Varianz



mit Erwartungswert , dann müsstest du deine obige Lagrangefunktion entsprechend anpassen. Am Ergebnis ändert das aber nicht so umwerfend viel, außer dass eben beliebige (nicht nur zentrierte) Normalverteilungen als Lösung herauskommen.
jentowncity Auf diesen Beitrag antworten »

Alles klar, danke für deine Hilfe Arthur!
Die Aufgabenstellung ist übrigens genauso wie ich sie geschrieben habe, aber ich glaube, dass Physiker das nicht so genau nehmen mit der Formulierung mathematischer Aufgaben Augenzwinkern zumindest meine Professorin nicht...

MfG jentowncity
Neue Frage »
Antworten »



Verwandte Themen

Die Beliebtesten »
Die Größten »
Die Neuesten »