Beweis maximale und minimale Eigenwerte

Neue Frage »

bunti17 Auf diesen Beitrag antworten »
Beweis maximale und minimale Eigenwerte
Meine Frage:
Also hier sollen wir beweisen, dass diese Formeln für die maximalen bzw. minimalen Eigenwerte gelten. Ich bin noch nicht ganz vertraut mit dem Thema und frage mich auch, ob es für jede symmetrische bzw. hermitesche Matrix Eigenwerte gibt?

Meine Ideen:
Mein Ansatz für diese Aufgabe wäre zunächst dies umzuformen.
ist wenn man x^H*x auf die andere Seite bringt und x^H wegkürzt äquivalent zu ... ist das richtig oder wo liegt der Fehler bzw. ist das überhaupt ein richtiger Ansatz und wie macht man weiter?
Captain Kirk Auf diesen Beitrag antworten »

Hallo,

Zitat:
ob es für jede symmetrische bzw. hermitesche Matrix Eigenwerte gibt?
Ja, sie sind sogar orthogonal diagonalisierbar.
Das ist sehr nützlich.
Schau auch mal was passiert wenn man für x einen Eigenvektor einsetzt.

Zitat:
und x^H wegkürzt
Wie und mit was willst du denn kürzen?
bunti17 Auf diesen Beitrag antworten »

Hmm okay, wenn ich einen Eigenvektor einsetze, dann würde ich auf sowas kommen:


und dann könnte ich doch vielleicht auf der rechten Seite beim Bruch (x^H)x kürzen und darauf kommen...: Nur dass dann auf der rechten Seite etwas von x abhängiges steht, aber kein x und auf der linken das maximale Lambda...
Captain Kirk Auf diesen Beitrag antworten »

Zitat:
Nur dass dann auf der rechten Seite etwas von x abhängiges steht,
Tut es nicht.

Was du da treibst ist ziemlicher Unfug.
Wie kann denn z.B. das max noch dastehen obwohl du einsetzt.


Mein erster Hinweis, liefert dir der Einsetzhinweis die jeweils andere ungleichung
bunti17 Auf diesen Beitrag antworten »

Also ich verstehe dass da eine Abschätzung stattfindet, aber nicht wie man dann letztendlich darauf kommt, dass lambda max= max ((x^H) * Ax)/(x^H * x) ist.

Also dann vielleicht so..?:
Sei EW von A und x EV.
-->
-->
<==>
Captain Kirk Auf diesen Beitrag antworten »

Zitat:
-->

Was ist denn 1/x für einen Vektor?
 
 
bunti17 Auf diesen Beitrag antworten »

Gibt es nicht..... weil es für einen Vektor ja keine Transponierte gibt, richtig? :/
Captain Kirk Auf diesen Beitrag antworten »

Inverse, nicht Transponierte, die existiert.
bunti17 Auf diesen Beitrag antworten »

Ja, Inverse meinte ich....Kannst du mir nochmal einen Ansatz geben? ich verstehe nicht genau wann ich die Abschätzung machen muss und von wo ich ausgehe.. weil die geg Gleichung ist ja zu beweisen. Dann muss ich doch mit einer bekannten Gleichung anfangen oder?
Captain Kirk Auf diesen Beitrag antworten »

Zitat:
Dann muss ich doch mit einer bekannten Gleichung anfangen oder?
Ähm, nein.

Zeige:

- mittels orthogonale Diagonalisierung.
Analog für's Minimum
- für einen Eigenvektor x zum Eigenwert k gilt: .
Das zeigt die Gleichheit in den zuerst bewiesenen Ungleichungen.
bunti17 Auf diesen Beitrag antworten »

Ich weiß aber leider nicht wie ich da die Orthogonale Diagonalisierbarkeit anwenden kann.. was ich über orthogonale Matrizen weiß ist, dass die Matrix multipliziert mit der Inversen die Identität ist. Und über orthogonale Diagonalisierbarkeit, dass für eine orthogonale Matrix eine orthogonale Matrix existiert, mit wobei D eine Diagonalmatrix ist, mit den Eigenvektoren, die alle orthogonal zueinander sind....
Captain Kirk Auf diesen Beitrag antworten »

Es ist
Zitat:
mit

nicht transponiert.
Vielmehr braucht's hier auch nicht. (Es wär noch sinnvoll die Rollen von A und D zu tauschen).
Einsetzen und damit arbeiten.
bunti17 Auf diesen Beitrag antworten »

okay, also nach Umformung und weil alle Matrizen invertierbar sind komme ich auf und das eingesetzt wäre dann wobei ich nicht verstehe was mir das bei der Abschätzung für Vorteile bringt... was mir halt auffällt, ist dass im im Nenner und auch im Zähler einmal der Vektor mit dem hermitesch konjugierten, im Nenner ebenso und zusätzlich noch die Matrix mit ihrer hermitesch konjugierten Matrix steht, nachdem man die Inversen in den Nenner getan hat
Captain Kirk Auf diesen Beitrag antworten »

Zitat:
im Nenner ebenso und zusätzlich noch die Matrix mit ihrer hermitesch konjugierten Matrix steht, nachdem man die Inversen in den Nenner getan hat

geschockt verwirrt geschockt
Was bitte rechnest du da?
Matrizen sind keine Zahlen, Matrixmultiplikation ist nicht kommutativ. Oder was auch immer du dir dabei gesacht hast.

Es ist: .
Das zeigt die Ungleichung.
bunti17 Auf diesen Beitrag antworten »

Und damit ist bewiesen, dass ..... (-diesmal kann ich hier doch nach lamda umformen, weil ja eine '1x1' Matrix ist, also eine Zahl..?) .....aber noch nicht bewiesen, dass [latex] x\leq max_{x} \frac{x^{H} Ax}{x^{H}x} [/latex} oder? Oder soll ich das dann jetzt mit dieser Ungleichung zeigen können? .
bunti17 Auf diesen Beitrag antworten »

Da sollte stehen:
Captain Kirk Auf diesen Beitrag antworten »

Zitat:
Original von bunti17
Da sollte stehen:


Sorry, ich weiß mit dir nicht mehr wirklich weiter.
Das da oben ist ein gutes Beispiel. Es ist ein eigentlich offensichtlicher Tippfehler von mir gewesen, den du seit mehreren Posts mitschleifst.
Und ich hab dir im letzten Post fast den ganzen Beweis der -Ungleichung geschrieben, es fehlt nur noch ein kleiner Schritt.
Und von dir kam bis jetzt nichts auch nur annähernd sinnvolles.
Neue Frage »
Antworten »



Verwandte Themen

Die Beliebtesten »
Die Größten »
Die Neuesten »