Informationsgehalt einer Übergangswahrscheinlichkeit

Neue Frage »

Dasiggo Auf diesen Beitrag antworten »
Informationsgehalt einer Übergangswahrscheinlichkeit
Hallo,

kann mir jemand vielleicht ein Tipp geben warum dieses hier:
der mittlere Informationsgehalt einer Übergangswahrscheinlichkeit von einer Quelle X zu einer Quelle Y ist?

Der Mittlere Informationsgehalt berechnet sich so:



Dann würde ich naiv vermuten das das für jede Wahrscheinlichkeit gilt, also:



Was macht das in der obersten Formel?


Gruß

ich
René Gruber Auf diesen Beitrag antworten »
Eine Frage der Definition...
ist keine normale, sondern eine bedingte Entropie. Wie ist die definiert? Nun, über



mit



auch für das Ereignis . Anscheinend verwendet du dann eine "verkürzte" Schreibweise , was ich nicht gerade befürworte gerade bei Leuten, die noch derart unsicher wie du agieren - aber was soll ich machen... Augenzwinkern
Dasiggo Auf diesen Beitrag antworten »
Interpretationsversuch...
Danke das du mir auch hier weiterhilfst.

Das ist das erste Heft zu dem Thema, was nicht gerade mit Erklärungen um sich schmeißt, erschwerend kommt noch hinzu das Stochastik ein Gebiet ist, was später noch in Mathe behandelt wird. Diese Definition haben wir im Heft gar nicht:

Danke dafür. Freude

Ich habe mal meine Gedanken durch die Wikipedia-Waschmaschine laufen lassen, lass mich mal die Formeln interpretieren und sag mir ob ich richtig liege.

Die bedingte Entropie ist die mittlere Unsicherheit (bzw. der mittlere Informationsgehalt) darüber, das nach einem beliebigen Ereignis aus A welches >0 ist (also ein Ereignis, das auf jeden Fall eine gewisse Wahrscheinlichkeit besitzt, in der es eintreten kann), irgendein Ereignis aus Y eintritt. Je größer die Unsicherheit, desto höher die Wahrscheinlichkeit das ein Ereignis aus Y eintrifft. Bei kann man sagen das nach einen Ereignis aus A auf jeden Fall ein Ereignis aus Y eintritt.


Diese Formel ist dann nicht anderes als die obige Formel, nur das jetzt die Unsicherheiten für jedes einzelne Ereignis aus A, das nach einem Ereignis aus A eines aus Y folgt, summiert werden.


Dadurch hat man einen Mittelwert dafür, dass nach irgend einem Ereignis aus A eines aus Y folgt bzw. den Mittelwert der aufgetretenen Störungen in einem Kanal.


Ich hoffe ich liege nicht vollkommen daneben und bin noch halbwegs verständlich...
René Gruber Auf diesen Beitrag antworten »

Zitat:
Original von Dasiggo
Die bedingte Entropie ist die mittlere Unsicherheit (bzw. der mittlere Informationsgehalt) darüber, das nach einem beliebigen Ereignis aus A welches >0 ist (also ein Ereignis, das auf jeden Fall eine gewisse Wahrscheinlichkeit besitzt, in der es eintreten kann), irgendein Ereignis aus Y eintritt.

Diese Formulierung "Ereignis aus " wirkt verwirrend auf mich, denn selbst ist ja ein Ereignis. verwirrt


Ich weiß jetzt nicht genau, was du von mir erwartest - ich versuche einfach mal mit eigenen Worten, die obigen Formeln irgendwie plausibel zu machen:

Die Definition von entspricht genau der von , nur dass statt der (direkten) Verteilung der Zufallsgröße die bedingte Verteilung entropiemäßig "bewertet" wird.

Solch eine Ereignisbedingung kann nun eben z.B. auch sein. Ist nun eine Zufallsgröße, so versteht man unter eine "mittlere" Entropie, d.h. man mittelt die (bedingten) Einzelentropien gemäß der Eintrittswahrscheinlichkeiten aller möglichen -Werte, was dann die obige Formel ergibt.


Zitat:
Original von Dasiggo
Bei kann man sagen das nach einen Ereignis aus A auf jeden Fall ein Ereignis aus Y eintritt.

Nein: Entropien sind keine Wahrscheinlichkeiten, sie sind auch nicht als solche interpretierbar. Insbesondere dem Wert 1 kommt da keine besondere Bedeutung zu.

Bei Wert 0 sieht das anders aus: bedeutet, dass fast sicher konstant ist. Entsprechend heißt , dass fast sicher konstant ist unter der Bedingung, dass Ereignis eingetreten ist.


P.S.: Ich sag's mal salopp, wie ich heuristisch (also nicht mathematisch wasserdicht) den Grundgedanken hinter der Informationsentropie einer diskreten Zufallsgröße formulieren würde:

Man benötigt im Mittel mindestens Antworten auf Ja-Nein-Fragen (= Anzahl Bits), um einen gemäß ausgewürfelten Wert rauszukriegen. Bei optimaler Fragstrategie wird aus dem "mindestens" sogar ein "genau".
Dasiggo Auf diesen Beitrag antworten »

OK,
dann habe ich den Begriff "Ungewissheit" aus Wikipedia falsch verstanden.

(Ich dachte bei A und Y ging es um Mengen, da ich Großbuchstaben in Mathe nur von Mengen her kenne.)

Dann heißt das ich voraussehen kann welchen Wert Y annimmt wenn A auftaucht, da es keine Information mehr ist bzw. die Ungewissheit ist nicht vorhanden. heißt dagegen das nach dem A sicher ein Y auftaucht.

Womit ich auch noch Schwierigkeiten habe, ist der begriff bedingte Entropie in der Informationstheorie. Falls ich mit der obigen Beschreibung richtig liege, dann würde das für mich so anhören das ich bei weiß welches Y nach A kommt. Wie kann man sich so was vorstellen, das nach 101101001 auf jeden fall eine 1 kommt?
René Gruber Auf diesen Beitrag antworten »

Zitat:
Original von Dasiggo
heißt dagegen das nach dem A sicher ein Y auftaucht.

Nein, auch wieder falsch, und diesmal ist es wirklich eine Folge nachlässiger Symbolik, die ich oben schon bemängelt habe:

kennzeichnet die ganze bedingte Verteilung der Zufallsgröße unter der Bedingung, dass eingetreten ist. Das ist also kein einzelner konkreter Wert!

Ein konkreter Wahrscheinlichkeitswert (zwischen 0 und 1) wird es erst mit , was die Wahrscheinlichkeit kennzeichnet, dass den Wert annimmt, wiederum unter der Bedingung, dass eingetreten ist.


P.S.: Zu deiner obigen Interpretation

Zitat:
Original von Dasiggo
Wahrscheinlichkeit [...] dass nach dem A sicher ein Y auftaucht.

würde hier konkret bei der Aufgabe die Symbolik passen.
 
 
Dasiggo Auf diesen Beitrag antworten »

Also um noch mal ganz sicher zu gehen.

bedeutet, das wenn irgendein A auftaucht, das dann Y den Wert annimmt.

Wenn ich für ="Erde ist nass" definiere und dann sage:

A="Es regnet" dann gilt für eine Unüberdachte Fläche diese Formel

und bei

A="Ich gieße Blumen" dann gilt auch

und bei

A="Auf der Erde gibt es kein Tropfen Wasser mehr" gilt dann

Das wären dann nur Extremfälle.

Bin ich jetzt etwas näher an der Richtigkeit?
René Gruber Auf diesen Beitrag antworten »

Es gefällt mir irgendwie ganz und gar nicht, in welche Richtung der Thread hier abdriftet: Du fängst an mit einigermaßen anspruchsvollen Dingen wie (bedingter) Entropie, und jetzt sind wir dabei, primitive Beispiele bedingter Wahrscheinlichkeit zu diskutieren. Sowas sollte zu diesem Zeitpunkt doch eigentlich längst sitzen, sonst stehen doch die Überlegungen zur Entropie auf mehr als nur wackligem Fundament?
Dasiggo Auf diesen Beitrag antworten »

Ok, halten wir fest das ich noch einige Lücken im Stochastischen wissen habe.
Wie gesagt, wir haben ein Heft bekommen, das stochastische Rechnungen enthält, obwohl wir aber noch keine Stochastik hatten.

Dann schließe ich diesen Beitrag ab und danke dir das du es versucht hast.
René Gruber Auf diesen Beitrag antworten »

Zitat:
Original von Dasiggo
Wie gesagt, wir haben ein Heft bekommen, das stochastische Rechnungen enthält, obwohl wir aber noch keine Stochastik hatten.

Hatte ich so bisher nicht mitgekriegt, Entschuldigung. Aber das klingt irgendwie gar nicht gut, was das Verständnis der Problematik betrifft. Hoffentlich hattest du wenigstesn in der Schule eine brauchbare Stochastik-Grundlage, ansonsten besteht wirklich Nachholbedarf, um diesen ganzen Entropiekram wirklich inhaltlich besser zu verstehen.
Neue Frage »
Antworten »



Verwandte Themen

Die Beliebtesten »
Die Größten »
Die Neuesten »