Über ein nichtlineares Optimierungsproblem

Neue Frage »

Zeno-2 Auf diesen Beitrag antworten »
Über ein nichtlineares Optimierungsproblem
Liebe Leute,

bereits seit einer ganzen Weile denke ich über ein interessantes Problem aus der nichtlinearen Optimierung nach. Ich habe leider keine formale Ausbildung in (nichtlinearer) Optimierung. Ich nutze daher dieses besondere Problem auch, um auf diesem Gebiet Kenntnisse zu sammeln und grundsätzlich, um mathematisch etwas "auf Trab" zu bleiben.

Die Fragestellung entstammt, in speziellerer Form, einer realen Anwendung. Wenn meine Gedankengänge einigermaßen richtig sind, dann würde ich es gerne auch praktisch anwenden. Ich möchte zunächst, so weit es geht, analytische (Näherungs-)Lösungen erhalten. Soweit zu den ganzen "Nebenbedingungen", jetzt zum Problem:

Ich habe eine Anzahl von konstanten die ich jeweils um Variablen erhöhen/erniedrigen kann: mit . Ich möchte die maximieren. In meinem Fall kann ich dies so zusammenfassen:



Das dazugehörige Minimierungsproblem lautet bekanntlich:



Mit den über einen funktionalen Zusammenhang assoziiert sind Zahlenwerte . Der genau Zusammenhang ist hier nicht wichtig. Es gelten jedoch folgende Nebenbedingungen für das Optimierungsproblem:



Bis auf die sind nur reele und bekannte Konstanten verarbeitet und . Die gesamte Aufgabenstellung lautet also:



Man kann nun zunächst festhalten: ist konvex, denn lineare Funktionen sind immer konvex (und konkav, jedoch nicht strikt konvex/konkav). Die e-Funktion ist konvex und die Summe konvexer Funktionen ist ebenfalls konvex. Somit ist das Optimierungsproblem konvex. Ein lokales Minimum bei ist somit auch globales Minumum.

Allerdings haben wir hier Ungleichungsnebenbedingungen. Wenn es nur eine Nebenbedingung (d. h. ) gibt, ist das Problem via Lagrange-Multiplikator analytisch lösbar:



Die Lagrange-Gleichungen lauten dann:



und



Diese Gleichungen sind lösbar, indem man die ersten Gleichungen nach umstellt:



und in die -ste Gleichung einsetzt:



Also ist . Dies kann man wieder in die obigen Lagrange-Gleichungen 1 bis N einsetzen um die zu bestimmen:





.

Damit ist das Optimierungsproblem für eine Nebenbedingung (d. h. ) gelöst.

Leider kann man, soweit ich sehen kann, das allgemeine Problem analytisch nicht lösen. Ich würde gerne in einem 2. Teil, wenn ich dazu komme, ein paar weitere Überlegungen darlegen.

Ein Frage habe ich aber: Verstehe ich es richtig, dass die Methode der Lagrangen Multiplikatoren nur für Nebenbedingungen mit Gleichungen funktioniert? Also, wenn Ungleichungen als Nebenbedingungen vorkommen, dann funktioniert die analytische Lösung allgemein nicht? verwirrt Ich finde das immer schwer zu verstehen, da relativ schnell Karush-Kuhn-Tucker-Bedingungen die Rede ist, und ich da noch nicht wirklich den Sinn drin sehe.

Ansonsten vielen Dank erstmal fürs Zuhören. Wenn hier jemand tolle Tipps oder mir sagt, alles trivial und mit links lösbar und seit 100 Jahren bekannt... immer her damit.

smile
Zeno-2 Auf diesen Beitrag antworten »

Ok, hier ein zweiter Teil, mit ein paar Überlegungen und Fragen.

Oben wurde gesagt, dass für den Fall mit einer Ungleichungsnebenbedingung das Optimierungsproblem min analytisch gelöst werden kann. Dier Lösungsvekor für



lautet

.

Wenn eine weitere Ungleichungsrestriktion hinzugenommen wird:



gibt es 2 Möglichkeiten: Für die bisherige Lösung kann diese inaktiv sein, d. h.



Dann passiert nichts und ist immer noch die gesuchte Lösung.

Oder die zusätzliche Ungleichungsrestriktion wird mit der Lösung nicht eingehalten:



In diesem Fall kann man "die Seite wechseln" und prüfen, ob, wenn man zuerst die Minimierungsaufgabe mit der (einzelnen) Nebenbedingung löst, und dann die Lösung erhält, die erste Ungleichung inaktiv ist. Dann ist die neue Lösung.

Der worst-case ist, dass die Lösung für das Optimierungsproblem mit einer Ungleichungsrestriktion zu führt und die Lösung für das Optimierungsproblem mit einer Ungleichungsrestriktion zu führt.

Man kann dann folgende Heuristik anwenden:

Wenn aber ist, dann werden "händisch" so lange die Werte für reduziert, bis irgendwann ist (und zwangsläufig ).

Die Werte lösen zwar das Optimierungsproblem im allgemeinen nicht optimal. Aber was besseres fällt mir nicht ein.

In Teil 3 geht es um die "optimale" Bestimmung der Werte .

Vielen Dank wieder für's Zuhören. Möglicherweise ist das alles ein bisschen Quatsch, jedoch, mir hilft es meine Gedanken zu sortieren. smile
hgseib Auf diesen Beitrag antworten »

hallo

nur eine idee, falls programmieren für dich auch ein gangbarer weg wäre:

dann such mal im internet nach:
Dr.-Ing. Jürgen Adamy
Fuzzy-Logik, Neuronale Netze und Evolutionäre Algorithmen

ich habe da ein buch von dem über:
steuerungs- und regelungstechnik.
das ist sehr verständlich geschrieben und auf jeden fall interessant, auch wenn du nicht programmieren willst/ kannst.

mfg.
Zeno-2 Auf diesen Beitrag antworten »

Ok, Fortsetzung.

Man hat das o.g. Optimierungsproblem mit einer Ungleichungsrestriktion gelöst und die optimalen Werte ermittelt. Allerdings gibt es jetzt folgendes Problem:



aber



Es sollen jetzt folgende Werte gefunden werden:



Mein Gedanke dabei ist jetzt wie folgt:

Es gilt:



Ich will mich nun bei meiner Funktion auf "auf dem schnellsten" Weg, oder besser, auf dem "steilsten Weg" bergab zum Wert .

Der steilste Weg wird durch den Gradienten der skalaren Funktion vorgegeben:



Ich benötige jetzt den "steilsten" Pfad vom Punkt zum Punkt . Dazu muss ich die Integralkurve bestimmen, also:




Dieses Differentialgleichungssystem ist lösbar. Mit der Symbolic Math Toolbox von Matlab konnte ich folgende Lösung generieren:



Was bedeutet das nun? Für ergibt sich . Das soll so sein. Wenn ich den Parameter werden lasse, steigt man auf dem steilsten Weg bergab.

Irgendwann hat man man für ein den Wert und



erreicht.

Ich brauche aber eigentlich nicht von sondern .

Leider kann ich aus die Funktion nicht als ableiten. Ich bekomme die analytisch offenbar nicht auflösbare Gleichung:



Und hier endet die Reise zunächst. Vielen Dank erstmal für's zuhören.

Lesen1
Neue Frage »
Antworten »



Verwandte Themen

Die Beliebtesten »
Die Größten »
Die Neuesten »