Orthogonalität von Eigenwerten

Neue Frage »

ES Auf diesen Beitrag antworten »
Orthogonalität von Eigenwerten
Guten Abend liebe "Boarder",

ich hab mal wieder eine Frage:
Dieses mal geht es um Eigenwerte und Eigenvektoren.

Am Besten schilder ich euch meine Verwirrung an einem Beispiel:

Matrix A =

Um die Eigenwerte auszurechnen:



wird umgeschrieben zu

Ich subtrahiere also in unserer Matrix auf der Diagonale Lambda und berechne die Determinante:
Ich erhalte das charakteristische Polynom:
Die Nullstellen dieses Polynoms sind die Eigenwerte der Matrix A

Eigenwerte




Bis hier her alles prima. Nun rechne ich die Eigenvektoren aus. Dies geht über Einsetzen der Eigenwerte in

Matrix A =


erhalte ich den Eigenvektor v1 =

erhalte ich den Eigenvektor v2 =

Natürlich gibt es unendlich viele Eigenvektoren zu diesen Eigenwerten (die zwei die ich angegeben habe, sind Richtungsvektoren und 0-Vektor ist nicht dabei)

Meine Fragen:

1.
Warum stehen hier die Eigenvektoren nicht auf einander senkrecht? Unser Prof. hat gesagt: " Wenn alle Eigenwerte unterschiedlich sind, dann sind die zugehörigen Eigenvektoren senkrecht zu einander. In meinem Beispiel hat Eigenwert 2 halt eine algebraische Vielfachheit e2=2 und Eigenvektor hat nur geometrische Vielfachheit d2=1. Wie wär das denn wenn ich zu dem Eigenwert 2 =1 zwei verschiedene Eigenvektoren rausbekommen hätte? Könnt ihr mir die Zusammenhänge erklären?
Also: Wann sind Eigenvektoren senkrecht aufeinander? Nur wenn es einzelne Eigenwerte (mit alg. Vielfachheit 1) und zugehörige Eigenvektoren gibt? Was ist wenn es zu einem Eigenwert mehrere Eigenvektoren gibt?

2.
Unser Prof hat die Eigenvektor mit dem Schmidtschen Orthonomierungsverfahren immer orthonomiert bevor man sie in Transformationsmatrix (zum Diagonalisieren) gesteckt hat. (Wie wir sehen kann ich die Matrix A nicht diagonalisieren weil alg. Vielfachheit von Eigenwert 2 ungleich geometrische Vielfachheit des Eigenraums.)
Muss man das? Oder reicht es wenn ich die Eigenvektoren so wie sie sind reinstecke?

3.
Hat nichts mit Eigenwerten zu tun:
Beim Berechnen der obigen Eigenvektoren ist mir aufgefalllen, dass ich im LGS eine andere Lösung raus bekomme wenn ich über Spaltenoperationen umforme! Darf man das gar nicht? Beim Determinanten berechnen z.B. durfte man das doch?


Ich hoffe ihr könnt euch durch den Salat hier durchwühlen. Herzlichen Dank für Antworten!


Viele Grüße

Euer ES
hnky Auf diesen Beitrag antworten »

hallo,

Zitat:
Wenn alle Eigenwerte unterschiedlich sind, dann sind die zugehörigen Eigenvektoren senkrecht zu einander.


diese aussage ist so falsch. es kann durchaus, wie es auch bei dir hier der fall ist, vorkommen, dass dies nicht der fall ist.

wenn die matrix allerdings symmetrisch sind, dann ist die aussage richtig.

Zitat:
Unser Prof hat die Eigenvektor mit dem Schmidtschen Orthonomierungsverfahren immer orthonomiert bevor man sie in Transformationsmatrix (zum Diagonalisieren) gesteckt hat. (Wie wir sehen kann ich die Matrix A nicht diagonalisieren weil alg. Vielfachheit von Eigenwert 2 ungleich geometrische Vielfachheit des Eigenraums.)
Muss man das? Oder reicht es wenn ich die Eigenvektoren so wie sie sind reinstecke?


nein, das muss man nicht. wenn du die eigenvektoren, so wie du sie nach dem lösen des LGS erhalten hast, in eine matrix steckst, dann transformiert diese auch deine matrix auf diagonalgestalt.
im allgemeinen muss ja nicht immer zwingend ein skalarprodukt auf dem betrachteten vektorraum definiert sein(du befindest dich also nicht immer in einem hilbertraum), und ohne skalarprodukt ist ein orthonormieren nicht möglich, ein diagonalisieren(sofern bestimmte kriterien erfüllt sind) schon.

Zitat:
Hat nichts mit Eigenwerten zu tun:
Beim Berechnen der obigen Eigenvektoren ist mir aufgefalllen, dass ich im LGS eine andere Lösung raus bekomme wenn ich über Spaltenoperationen umforme! Darf man das gar nicht? Beim Determinanten berechnen z.B. durfte man das doch?


ich bin mir nicht ganz sicher, aber wenn du die eigenvektoren berechnest, bestimmst du ja , und dieser ist ein untervektorraum des zeilenraums. wenn du nun spaltenumformungen benutzt, bestimmst du einen unterraum des spaltenraums.
da ich aber (fast) ausschließlich zeilenumformungen benutze, kann ich diese frage nicht genau beantworten.

du kannst aber natürlich transponieren & spaltenumformungen benutzen, dann sollte es keine probleme geben.
ES Auf diesen Beitrag antworten »

Guten Morgen,

Symmetrische Matrizen sind ja .
Deine Aussage, dass alle Eigenvektoren senkrecht auf einander stehen bei symmetrischen Matrizen gilt ja aber dann auch nur, wenn alle Eigenwerte und Eigenvektoren alg. und geo. Vielfachheit 1 haben oder?
Also eine symmetrische Matrix die z.B. zwei Eigenwerte hat und einer davon hat geometrische Vielfachheit 2 -> die 3 Vektoren müssen nicht senkrecht aufeinander stehen?

Grüße

ES
hnky Auf diesen Beitrag antworten »

morgen,

Zitat:
Also eine symmetrische Matrix die z.B. zwei Eigenwerte hat und einer davon hat geometrische Vielfachheit 2 -> die 3 Vektoren müssen nicht senkrecht aufeinander stehen?


das stimmt, bestes beispiel dafür ist die matrix, die momentan in einem anderen thread behandelt wird, nämlich .

diese hat zwei eigenwerte, -3 und 6, und die eigenvektoren und zum eigenwert -3, und zum eigenwert 6.

der erste und dritte bzw. zweite und dritte vektor steht senkrecht aufeinander, die beiden eigenvektoren zum eigenwert -3 allerdings nicht.
ES Auf diesen Beitrag antworten »

Perfekt, das war meine Frage!

Heißt:
Zu unterschiedlichen Eigenwerten sind die Vektoren immer "paarweise" zu einander orthogonal.
Zum gleichen Eigenwert müssen die Eigenvektoren nicht orthogonal sein.


Vielen Dank

Grüße

ES
jester. Auf diesen Beitrag antworten »

Ja, oder anders gesagt: Bei symmetrischen Matrizen (bzw. selbstadjungierten Endomorphismen) sind die Eigenräume zu verschiedenen Eigenwerten zueinander orthogonal.
 
 
ES Auf diesen Beitrag antworten »

Danke
Neue Frage »
Antworten »



Verwandte Themen

Die Beliebtesten »
Die Größten »
Die Neuesten »