Relativer Informationsgehalt H bei max. Streuung

Neue Frage »

Moritary Auf diesen Beitrag antworten »
Relativer Informationsgehalt H bei max. Streuung
Hallo zusammen,

wir hatten heute als ein mögliches Streuungsmaß für nominalskalierte Variablen den relativ Informationsgehalt mit folgender Formel:

In der Übung gab es dann folgende Aufgabe: Zeigen Sie, dass bei maximaler Dispersion gilt.

Mein Ansatz war folgender: Maximaler Dispersion bedeutet, alle Merkmalskategorien sind gleich häufig, also gilt in dem Fall für alle . Ist der Ansatz soweit richtig?

Das in die Formel für H eingesetzt ergibt dann . Richtig?

An dem Punkt komm ich jedoch irgendwie nicht weiter..Wie kann ich jetzt die Summe und die Logarithmen auflösen und wie zur Hölle kriege ich das negative Vorzeichen ganz am Anfang weg?

Vielen Dank schon mal für eure Hilfe smile
Romaxx Auf diesen Beitrag antworten »

Das sieht doch alles sehr gut aus. Du brauchst nur noch die Logarithmen-Regeln anwenden und die Summe richtig aufaddieren:



Ich hoffe . Den Rest schaffst du allein Augenzwinkern .
HAL 9000 Auf diesen Beitrag antworten »

Interessanter ist der Nachweis, dass für alle anderen Verteilungen dann gilt. Geht aber mit der Jensenschen Ungleichung.

Erinnert hier doch alles sehr an Informationsentropie, bis auf den anderen Vorfaktor.
Romaxx Auf diesen Beitrag antworten »

Besser gesagt: Kullback Leibler Divergenz
HAL 9000 Auf diesen Beitrag antworten »

Hab ich noch nie gehört, aber gehört offenbar auch zu diesem Dunstkreis. Scheint mir allerdings nicht ganz zu passen, da dort ja zwei Verteilungen miteinander verglichen werden. Hier im Thread geht es (soweit ich das sehe) erstmal nur immer um eine.
Romaxx Auf diesen Beitrag antworten »

Wer suchet der findet Augenzwinkern .
 
 
HAL 9000 Auf diesen Beitrag antworten »

Ich finde da nichts, was ein "besser gesagt" rechtfertigt - allenfalls (mit etwas Wohlwollen) ein "anders gesagt". smile
Romaxx Auf diesen Beitrag antworten »

'relativ Informationsgehalt': erster Post, ist genau so definiert Augenzwinkern - und so kann man auch die zweite Verteilung sehr schnell identifizieren.
HAL 9000 Auf diesen Beitrag antworten »

Da du offenbar sehr streitlustig heute bist:

Wenn ich mir den Wiki-Artikel über diese "Kullback Leibler Divergenz" so durchlese, dann entspricht dieser Wert nicht dem von oben, auch nicht wenn man als eine der Verteilungen die Gleichverteilung wählt:

Nicht nur, dass der Vorfaktor ein anderer ist (das ist bei der Informationsentropie ja auch so), man hat zusätzlich auch noch einen additiven Offset.

Also alles in allem doch schon etwas entfernt zu obigem , deswegen mein "mit Wohlwollen". Augenzwinkern
Romaxx Auf diesen Beitrag antworten »

, eeee volia... Wer ist hier Streitsüchtig?
HAL 9000 Auf diesen Beitrag antworten »

Tja, wenn man die Logarithmengesetze nicht beherrscht, dann blamiert man sich eben so gut man kann:

Wenn ist, dann folgt

.
Romaxx Auf diesen Beitrag antworten »

Das könnte ich jetzt von dir behaupten smile :

https://en.wikipedia.org/wiki/Kullback%E...bler_divergence

Equation 1: hier ist P(X) im Nenner Augenzwinkern .
HAL 9000 Auf diesen Beitrag antworten »

Das ist doch gehupft wie gesprungen, ob man nun oder betrachtet, beide Definitionen sind äquivalent. Bin gespannt, welche Ausrede dir noch einfällt, dich aus dem Schlamassel jetzt noch rauszureden...


EDIT: Du hast ja lange mit einer Antwort gerungen, es dann aber doch (erstmal?) verschoben. Es ist eben doch nicht so leicht zu widerlegen. Augenzwinkern
Romaxx Auf diesen Beitrag antworten »

Ich überlasse es dir, zu zeigen, dass es die Gleichverteilung mit Wahrscheinlichkeit:

,

dies impliziert die Wahl der Basis e.

Für jede andere Basis erhalte ich:

.

Und jetzt frag mich nicht, was ist, wenn ich die Basis kleiner als wähle.

Viel Spass! smile
HAL 9000 Auf diesen Beitrag antworten »

Aha, du wählst die Chewbacca-Verteidigung. Ist natürlich einfacher, statt einfach mal die obige Fehleinschätzung zuzugeben. Ich überlass dich jetzt mal deinen Selbstgesprächen. Teufel
Romaxx Auf diesen Beitrag antworten »

Naja, ich sage mal so, solange es sich um die relative Information handelt, ist das genau das Ergebnis, etwas allgemeiner natürlich, und glaub mir, dass habe ich wirklich durch etwas Rechnen herausgefunden. Das ist kein Schmarn Wink . Man könnte sich natürlich jetzt fragen, was es bedeutet, zwei Verteilungen über derselben Variablen zu definieren.
HAL 9000 Auf diesen Beitrag antworten »

Es ging immer darum, die Verbindung zwischen dem im Eröffnungsbeitrag und deiner Kullback Leibler Divergenz herzustellen. Die besteht, wenn man als Vergleichsverteilung die diskrete Gleichverteilung wählt, und diese Beziehung ist (wie ich oben nachgewiesen habe) . Also genau das, was ich hier vorher

Zitat:
Original von HAL 9000
Nicht nur, dass der Vorfaktor ein anderer ist (das ist bei der Informationsentropie ja auch so), man hat zusätzlich auch noch einen additiven Offset.

beschrieben hatte.

Du hingegen hast kein einziges Argument vorgebracht, was gegen diese Aussage spricht. Und auch keine andere Vergleichsverteilung *) genannt, die eine noch engere Verwandtschaft zu zeigt. Statt dessen immer neue Winkelzüge, die vom Thema ablenken - hab mich jetzt lang genug an der Nase herumführen lassen, meine Geduld mit dir ist am Ende.


Zu *): Die Summe der Einzelwahrscheinlichkeiten einer diskreten Verteilung MUSS gleich 1 sein. Insofern kannst du mit Einzelwahrscheinlichkeiten von je gar keine diskrete Gleichverteilung auf Werten bauen. Deine "Gleichverteilung" verletzt also elementarste Grundregeln der Wahrscheinlichkeitsrechnung - das ist einfach nur ein unüberlegter, hanebüchener Versuch, deinen Arsch zu retten.
Romaxx Auf diesen Beitrag antworten »

Ok, aber du könntest dich auch fragen, für welches denn gilt und würdest bestimmt auf dasselbe kommen Augenzwinkern .

Eine Sache muss ich noch loswerden:

zur Basis

Bitte erkläre mir die Wahl der Basis im Fall der Entropie, wenn nun die Entropie ist.

Zusatz: zu einer andere logarithmischen Basis, eben der Basis , wenn konstant.
HAL 9000 Auf diesen Beitrag antworten »

Ich greif nochmal ein, da du deinen Beitrag von 20:30 so gegen 23 Uhr umgebaut hast, nunmehr mit diesem Zeug:

Zitat:
Original von Romaxx
Ich überlasse es dir, zu zeigen, dass es die Gleichverteilung mit Wahrscheinlichkeit:

,

dies impliziert die Wahl der Basis e.

Abgesehen davon, dass der merkwürdigen Satzstruktur gar nicht zu entnehmen ist, was ich zeigen soll: Auch mit diesem hat man keine diskrete Gleichverteilung auf Zahlen. Bitte informier dich doch endlich mal, was eine

https://de.wikipedia.org/wiki/Diskrete_Gleichverteilung

ist, bzw., was überhaupt eine diskrete Verteilung auszeichnet: U.a. Summe der Wahrscheinlichkeiten gleich 1. Es ist wirklich nervig, diese Banalitäten immer wiederholen zu müssen, aber bei dir muss es ja anscheinend sein.
Romaxx Auf diesen Beitrag antworten »

Glaub mir, dass ist und war mir stets bewusst. Ich habe in dem editieren Beitrag lediglich ein Vorzeichen angepasst, dass dann aus den Ausdruck werden lässt.

Bitte erkläre mir die Wahl der Basis des Logarithmus in diesem Beispiel, dann kommen wir weiter..
HAL 9000 Auf diesen Beitrag antworten »

Zitat:
Original von Romaxx
Bitte erkläre mir die Wahl der Basis des Logarithmus in diesem Beispiel, dann kommen wir weiter..

Lenk nicht schon wieder ab, sondern mach erst mal deine Hausaufgaben: Wie bügelst du diese unglaubliche Dummheit aus, deine Argumentation auf einer Verteilung aufzubauen, die gar keine Wahrscheinlichkeitsverteilung ist?

Dein Beitrag 20:57 war übrigens der Gipfel der Unverschämtheit: Da forderst du mich auf, ein zu finden mit , obwohl das die ganze Zeit DEINE Theorie war! Und wo ich der Meinung bin, dass das gar nicht möglich ist: Sieht man supereinfach am Beispiel , da ist nämlich während für alle nur denkbaren Verteilungen ist.


Seit jenen Tagen hat sich überhaupt nichts geändert:

In einer unglaublichen Sturheit reitest du immer noch tote Pferde weiter und immer weiter. Allem Anschein nach kannst du es einfach nicht ertragen, wenn andere vor dir erkennen und es dir auf den Kopf zusagen "Das Pferd ist tot, steig ab!".
Romaxx Auf diesen Beitrag antworten »

Sag mal, hast du sie noch alle? Du wirfst hier mit Sachen um dich, anstelle in Ruhe mit mir zu reden. Du bist doch der, der lieber die Konfrontation sucht. Dabei wolltest du dich schon vor 4 Posts verabschieden.
HAL 9000 Auf diesen Beitrag antworten »

Zitat:
Original von Romaxx
Sag mal, hast du sie noch alle? Du wirfst hier mit Sachen um dich, anstelle in Ruhe mit mir zu reden.

Vielleicht ist es Zeit, dass sich mal ein Moderator drum kümmert. So wie du dich hier aufführst, hat das alles keinen Zweck mehr - vielleicht begibst du dich mal in ärztliche Behandlung.
Romaxx Auf diesen Beitrag antworten »

So wie du hier auftritts und mit Beleidigungen um dich wirfst, frage ich mich, ob du überhaupt Charakter hast. Das es sich um die relative Entropie handelt steht sogar im Titel.
HAL 9000 Auf diesen Beitrag antworten »

Vielleicht Zeit für einen inhaltlichen Neustart, beginnend mit einem Überblick über die diversen Entropien, um die es hier ging und geht. Sie alle sind definiert für diskrete Wahrscheinlichkeitsvektoren aus



(strikt positive Verteilung) sowie bisweilen auch auf dem zugehörigen topologischen Abschluss

.

Wichtig dabei ist u.a. auch die diskrete Gleichverteilung , d.h., den Vektor, für den sämtliche Komponenten gleich sind.


(1) Das aus dem Eröffnungsbeitrag von Moritary, das ist

für mit .

Aus der Definition ergibt sich unmittelbar für alle (beweisbar per Jensenscher Ungleichung), wobei die obere Grenze genau dann eintritt, wenn ist.

Man kann diese Definition auch stetig fortsetzen für alle , indem man für den Term durch den Grenzwert ersetzt. In diesem Fortsetzungssinne gilt dann für alle , wobei genau dann eintritt, wenn eine Einpunktverteilung ist (d.h. es gibt ein mit und für alle ).


(2) Die Informationsentropie (nach Shannon)

für .

Offenkundig besteht der lineare Zusammenhang für alle , mit . Damit haben wir hier die veränderten Grenzen für bzw. für .


(3) Die Kullback Leibler Divergenz

für ,

neu im Vergleich zu (1)(2) ist hier die einfließende Vergleichsverteilung . Wählt man für diese die Gleichverteilung, so bekommt man

für

mit dem aus (1). Soweit alles klar, aber gibt es nicht vielleicht auch eine Vergleichsverteilung sowie einen reellen Proportionalitätsfaktor , so dass in Analogie von (2) die Gleichung

für alle

gilt? Die Antwort ist ein klares NEIN, mit folgender Begründung: Wie man unschwer nachrechnet, gilt speziell für dann während aber ja gilt. Das führt unweigerlich zu Proportionalitätsfaktor und damit der Forderung für alle . Dass das nicht stimmt, sollte jeder sehen (wenn es sein muss, weise ich es auch noch nach, ich lasse nach den schlimmen Erfahrungen hier im Thread keine Lücke offen).


Summa summarum stellt sich also die Frage: Wieso soll die Kullback Leibler Divergenz (3) der Entropie aus (1) näher verwandt sein ("besser gesagt") als die Informationsentropie (2), wenn keine Gleichheit für irgendein erreichbar ist, ja nicht mal Proportionalität für irgendein (ähnlich wie sie für (2) besteht) ?

Sich allein am Strohhalm des Wörtchens "relativ" hochzuziehen ist vollkommen untauglich: Wie gerade ausführlich seziert ist eine geringere inhaltliche Verwandtschaft von (1) zu (3) als zu (2) feststellbar, daran ändert auch ein missverständliches Attribut nichts. Meine Vermutung ist, dass sich "relativ" bei (1) auf die Vektordimension bezieht, d.h., die von diesem abhängige Normierungskonstante im Vergleich zur festen (d.h. von unabhängigen) Normierungskonstante für Informationsentropie (2). Diese Normierungskonstante in (1) ist offenbar so gewählt, dass diese Entropie nach oben gedeckelt ist durch einheitlich den Wert 1, ganz egal in welcher Vektordimension - das macht wie oben bereits erwähnt den wesentlichen Unterschied zum ansonsten eng verwandten in (2).


P.S.: Diese Zusammenfassung ist für alle gedacht, die am Thema interessiert sind. Das schließt vor allem den Threadersteller Moritary ein (den wohl vor allem (1) interessieren wird), aber auch alle anderen inklusive Romaxx, so er denn für eine wirkliche inhaltliche Diskussion bereit ist.
Romaxx Auf diesen Beitrag antworten »

Danke für den sehr ausführlichen Exkurs.

Wie du sicher schon festgestellt hast, ist , wobei die Entropie zu der Basis tada, ist. Die Basis spielt eine entscheidende Rolle in der Informationstheorie, so auch bei KL und ist nicht per se vorher definiert...

Man kann nun zeigen, dass



genau dann der Fall ist, wenn



ist. Einfach hoch ergibt

. Und das wieder einsetzen

.

Hier sieht man, das der Ausdruck wesentlich von der Basis bestimmt wird.
Um ihn unabhängig davon zu betrachten müsste ich wählen, dass geht aber nicht. Dennoch wäre das der genaueste Ansatz und du siehst, wie die Verteilung aussieht, abhängig von einer BASIS.

IMAO sollte man das stets so verstehen... und jetzt schaue mal meinen Post an, den ich gestern noch editiert habe. Bis dato nicht mehr EDITIERT.
HAL 9000 Auf diesen Beitrag antworten »

Die Argumentation

Zitat:
Original von HAL 9000
aber gibt es nicht vielleicht auch eine Vergleichsverteilung sowie einen reellen Proportionalitätsfaktor , so dass in Analogie von (2) die Gleichung

für alle

gilt? Die Antwort ist ein klares NEIN, mit folgender Begründung: Wie man unschwer nachrechnet, gilt speziell für dann während aber ja gilt. Das führt unweigerlich zu Proportionalitätsfaktor und damit der Forderung für alle .

bleibt völlig dieselbe, ganz egal welche Logarithmenbasen du bei oder verwendest, von mir aus sogar verschiedene! Eine andere Basis bewirkt lediglich einen anderen Vorfaktor vor der Gesamtentropie, aber bleibt 0, egal mit welchem anderen Faktor du das noch durchmultiplizieren willst. unglücklich



Aber machen wir es kurz, wenn du schon meine Argumente oben nicht akzeptierst: Nenne mir mit deiner anderen Logarithmenbasis (von mir aus oder was auch immer) eine konkrete Vergleichsverteilung , so dass für alle die fragliche Gleichheit



gilt! Wie du sagst sogar mit echter Gleichheit (also ), aber ich bin auch bereit, jede andere reelle Zahl zu akzeptieren, solange sie nicht gerade von abhängt. Wenn du das tust, dann bin ich auch bereit, das nachzurechnen und biete ein umfassendes "Mea culpa", falls (*) dann hinhaut. Augenzwinkern

Deine Rechnung von gerade eben taugt dazu nicht, da du da ja nur den Spezialfall (also Gleichverteilung) diskutierst - wír wollen aber, dass es für alle gilt.
Romaxx Auf diesen Beitrag antworten »

Noch einmal, die Entropie ist die relative Entropie zu einer anderen Basis, eben der Wahrscheinlichkeit in diesem speziellen Fall.

Man kann allgemein zeigen, dass es die Basis ist.

Wählst du haben wir .

Andersherum, hälst du die Basis flexibel, siehst du für die KL Divergenz die Wahrscheinlichkeit , abhängig von einer Basis, siehe oben.

Das ist ungefähr so, wie wenn ich eine andere Basis in einem Vektorraum wähle.

Zusatz: Die Frage ist, in welcher Basis betrachte ich meine Verteilung, dann hast du deine Antwort zu dem Post.
HAL 9000 Auf diesen Beitrag antworten »

Beantwortest du bitte meine Frage?

Zitat:
Original von Romaxx
Andersherum, hälst du die Basis flexibel, siehst du für die KL Divergenz die Wahrscheinlichkeit

ist ein Vektor, keine Zahl. Darf ich diesen Satz so deuten, dass du die "Gleichverteilung" mit den Komponenten wählen willst? Soweit waren wir doch schon mal: Dieses ist im Fall keine Wahrscheinlichkeitsverteilung, liegt also nicht in , und ist damit für die Betrachtungen unzulässig! Du selbst hast doch oben

https://en.wikipedia.org/wiki/Kullback%E...bler_divergence

verlinkt, da steht es doch klipp und klar drin:

"For discrete probability distributions P and Q defined on the same probability space [...]"

Darüber kannst du dich nicht hinwegsetzen!


Und ich erinnere nochmal dran: In dem obigen Link ist klar vom natürlichen Logarithmus die Rede. Also nicht von einem Logarithmus mit einer anderen Basis , und gleich gar nicht mit einer Basis, die pro Summand der KL-Funktion jeweils anders (?!?) ist. Letzteres ist ja ein übler Taschenspielertrick und hat nichts, aber auch gar nichts mehr mit der verlinkten KL-Definition zu tun. unglücklich
Romaxx Auf diesen Beitrag antworten »

Die Entropie wird für eine Basis kleiner als 1 negative. Dabei ist die Definition der Basis erst einmal völlig flexibel, solange man weiß, welche Basis es ist, dennoch sollte man das nicht als selbstverständlich nehmen.

Du argumentierst so: die Basis ist 2, oder e, basta. Nur was antwortest du, wenn dich jemand fragt, wieso nicht 0.1 oder 78687? Darin unterscheiden wir uns und deswegen sieht meine Gleichverteilung so aus, wie sie aussieht.
HAL 9000 Auf diesen Beitrag antworten »

Weißt du was? Ich komme dir weitgehend entgegen und akzeptiere entgehen der oben verlinkten Definition (und wider jede Vernunft) sogar den Taschenspielertrick, d.h. du darfst nach Lust und Laune



definieren mit Basen , die von sonstwas abhängen. Dennoch bleibt auch nach dieser Definition ein nicht wegwischbares Faktum.
Romaxx Auf diesen Beitrag antworten »

Ich warte aber immer noch auf eine Antwort, wie du die Basis in diesen Definitionen legitimierst - die bleibst du mir völlig aus..
HAL 9000 Auf diesen Beitrag antworten »

Ich komme dir entgegen und du erzählst wieder irgendwelches Zeug von "legitimieren" ? Ich weiß überhaupt nicht, was du damit sagen willst? Erstaunt1

Ist es denn so schwer zu begreifen, dass bei Definition



mit VÖLLIG FREI NACH DEINEM GUSTO WÄHLBAREN dennoch immer



gilt??? Kann mal bitte jemand anderes diese Rechnung Romaxx erklären, mir scheint er sie ja nicht abzunehmen.



Aber wenn man mal den kleinen Finger reicht... vergessen wir das ganze: Arbeiten wir eben jetzt wieder streng nach deiner selbstgewählten Referenz von KL

https://en.wikipedia.org/wiki/Kullback%E...bler_divergence

d.h. , und jetzt keine Ausreden mehr, ich will jetzt nach meiner ausgiebigen Vorleistung oben jetzt endlich mal klipp und klar eine Antwort auf

Zitat:
Original von HAL 9000
Nenne mir [...] eine konkrete Vergleichsverteilung , so dass für alle die fragliche Gleichheit



gilt!

Und jetzt kein "Nenn du mir erstmal..."-Unsinn, ich hab alle Vorleistungen gebracht, die nötig sind, dass du dich dieser Frage widmen kannst. Wenn du es nicht kannst, dann sag es doch einfach, dann können wir die Sache hier beenden.


Zitat:
Original von Romaxx
und deswegen sieht meine Gleichverteilung so aus, wie sie aussieht.

Hatte ich oben überlesen, deshalb zum gefühlt hundertsten Mal: Deine Gleichverteilung ist keine Gleichverteilung, sie ist nicht mal eine Wahrscheinlichkeitsverteilung, weil die Bedingung "Wahrscheinlichkeitssumme = 1" verletzt ist. Wie oft willst du das eigentlich noch ignorieren? Brauchst dich nicht zu wundern, wenn allein deswegen dich hier alle für einen Spinner halten. Und ja, es ist mir egal, wenn du dich darüber jetzt wieder echauffieren magst: Wer eine "eigene" Wahrscheinlichkeitsrechnung unter Umgehung wichtiger Regeln schaffft und damit meint, irgendwelche "Beweise" führen zu können, ist für mich ein Spinner.
Romaxx Auf diesen Beitrag antworten »

Ich finde es toll, dass du mir entgegenkommst, aber warum ist das für dich eine Sache, die man mehr Wertschätzen muss, als andersherum. Jetzt noch einmal, vielen Dank dafür!

Nun:



Das nehme ich dir ab, nur habe ich:



Das ist der Unterschied.

Und jetzt mal mein voller Ernst:

Wenn du es nicht für nötig hältst meinen Post von Heute, 10:09 zu lesen, denn da steht es für den Fall desjenigen, der dieses Topic geöffnet hat - dann kann ich dir nicht helfen.

Ich zitiere deinen Post direkt nach meinem Post Heute, 10:09:

Zitat:
Wenn du das tust, dann bin ich auch bereit, das nachzurechnen und biete ein umfassendes "Mea culpa", falls (*) dann hinhaut. Augenzwinkern


Sorry, das du dich herablassen musst, dass nachzuvollziehen.

Beste Grüße
HAL 9000 Auf diesen Beitrag antworten »

Zitat:
Original von Romaxx


Das ist der Unterschied.

Für mich ist es nichts weiter als eine falsch angewandte Definition

https://en.wikipedia.org/wiki/Kullback%E...bler_divergence

Da ist ja nicht nur die Logarithmenbasis anders, sondern du hast einen Faktor ins Logarithmusargument hineingemogelt. Wenn du auf Grundlage von manipulierten Definitionen hier schlussfolgern willst, dann muss ich in Anlehnung an dein obiges Statement fragen: Hast du sie noch alle? ROFL

Aber wenigstens hast du jetzt endlich mal gestanden, mit welchen desaströsen "Tricks" du zu arbeiten gedenkst. Ich bitte mal andere Boardteilnehmer zu bewerten, was sie von Romaxx' Umgang mit Definitionen halten.
Romaxx Auf diesen Beitrag antworten »

Und eine Sache noch, mir ist es mittlerweile egal, was du noch zusagen hast - deine Einstellung mit Beleidungen um dich zu werfen ist asozial, dass sollte dir mal jemand sagen.

Leider Gottes hast du den Sachverhalt der Wahl der Basis eben nicht verstanden:

Zitat:
Ich weiß überhaupt nicht, was du damit sagen willst
HAL 9000 Auf diesen Beitrag antworten »

Das ist jetzt sowieso egal, was du hier noch von Einstellung usw. rumlaberst - du hast dich oben schwarz auf weiß als mathematische Nullnummer geoutet. Endlich festgenagelt ... puh, hat gedauert. Tanzen
Mathema Auf diesen Beitrag antworten »

Damit ist dann wohl genug gesagt. Also - bevor es hier noch eskaliert - mache ich erstmal zu.
Neue Frage »
Antworten »



Verwandte Themen

Die Beliebtesten »
Die Größten »
Die Neuesten »