Support Vector Machines

Neue Frage »

Sinusoidal Auf diesen Beitrag antworten »
Support Vector Machines
Hallo zusammen,

ich hatte gestern schon im Bereich Algebra eine Frage zu Support Vector Machines unter dem Namen "Linearkombinationen" gestellt.
Da Support Vector Machines im weitesten Sinne auch zu Optimierung zählen könnten, wechsel ich jetzt mal den Bereich.
Die Frage, die ich hier stellen möchte, ist natürlich eine andere, nur das Oberthema ist das gleiche.

Wenn ich das richtig verstanden habe bisher, dann dienen bei Support Vector Klassifikatoren Hyperebenen zur Trennung zwischen Objekten verschiedener Klassenzugehörigkeit. Die Hyperebene charakterisiert dann die Entscheidungsgrenze, welches Objekt zu welcher Klasse gehört.

Ich habe gelesen, dass sich Hyperebenen nicht "verbiegen" lassen, ich demzufolge, wenn eine linare Trennung der Objekte in der Ursprungsdimension nicht möglich ist, die Transformation in eine höhere Dimension nutzen muss, die Objekte dort linear durch eine Hyperebene trenne und dann eine Rücktransformation vornehme. (Anscheinend wird dies über den Kernel-Trick realisiert)

Mir fehlt aber schon das Verständnis vor diesem Kernel-Trick. Dass in einer höheren Dimension verschachtelte Vektormengen linear trennbar werden, damit kann ich mich anfreunden.

Die Rücktransformation bereitet mir jedoch Kopfzerbrechen. Unter der Annahme, dass Hyperebenen nicht "verbiegbar" sind: Müsste die Hyperebene der höheren Dimension bei der Rücktransformation nicht "verbogen" werden? Aber das geht laut der Aussage vorher doch gar nicht?

Bin für einen Tip zum Verständis sehr dankbar!
zyko Auf diesen Beitrag antworten »
RE: Support Vector Machines
Die ursprüngliche Idee der Support Vector Machine war die Trennung zweier Klassen. Daraus ergibt sich als Trennfläche die Hyperebene zwischen den beiden Klassen, die senkrecht auf deren Verbindungslinie steht.
Liegen mehr als zwei Klassen vor, dann muss man diese Trennflächen für alle PaarKombinationen betrachten. Dies bedeutet ein zu klassifizierendes Objekt wird der Klasse zugeordnet, dessen Repäsentant am nächsten liegt.

Den "Kernel-Trick" kann man sich physikalisch veranschaulichen:
Jeder Klassenrepräsentant stellt einen Massenkörper im m-dimensionalen Raum dar. m ist die Anzahl der Merkmale, die die zu untersuchenden Objekte haben. Diese Massenkörper besitzen jeweils ein Gravitationsfeld.
Ein zu untersuchendes Objekt wird nun der Klasse zugeordnet, dessen Gravitationsfeld an der Position des Objektes den größten Einfluss hat.

Achtung: Es gibt Klassen, die durch mehr als einen einzigen Repräsentanten beschrieben werden. Dies ist für die Zuordnung unwesentlich, aber es erhöht sich der erforderliche Rechenaufwand.
Sinusoidal Auf diesen Beitrag antworten »

Vielen Dank! Die Idee mit der Gravitation ist sehr anschaulich.

Dennoch frage ich mich weiterhin, ob der Ansatz mit der Transformation in eine höhere Dimension bedeutet, dass zwar gekrümmte oder sogar nichtzusammenhängende Hyperebenen existieren, sich diese aber in der Ursprungsdimensionalität nicht bilden lassen.
Dann wäre mir das Prinzip klar:
-hochtransformieren
-lineare Hyperebene bilden
-Rücktransformation und Erhalt der gekrümmten / nichtzusammenhängenden Hyperebene

Oder ob gekrümmte Hyperebenen einfach nicht existieren. Dann bleibt die Frage, ob die in der höheren Dimension gebildeten linearen Hyperebenen nicht bei der Rücktransformation gekrümmt werden und ich wieder in dem genannten Widerspruch bin?

Vielleicht könnten Sie da noch eine Idee liefern?
Danke
Neue Frage »
Antworten »



Verwandte Themen

Die Beliebtesten »
Die Größten »
Die Neuesten »