Eigenvektoren |
02.05.2022, 20:13 | prime | Auf diesen Beitrag antworten » | ||||
Eigenvektoren Hallo Die Eigenvektoren einer hermiteschen Matrix sind doch orthogonal. Auch bei mehrfachen Eigenwerten. Oder? Oft liest man dass Eigenvektoren immer orthogonal sind, wenn sich die Eigenwerte unterscheiden Kann es denn sein,dass zwei Eigenvektoren mit gleichem Eigenwert nicht orthogonl sind? Danke für Antworten Meine Ideen: Bei einer symmetrischen Matrix sind die Eigenvektoren immer orthogonal. Auch bei gleichen Eigenwerten. Deshalb denke ich dass es bei hermiteschen Matrizen auch so ist |
||||||
02.05.2022, 20:20 | Helferlein | Auf diesen Beitrag antworten » | ||||
Du musst deine Aussage schon präzisieren. Beispielsweise gilt für die identische Abbildung, dass jeder Vektor Eigenvektor zum Eigenwert 1 ist. Es gilt aber garantiert nicht |
||||||
02.05.2022, 21:00 | prime | Auf diesen Beitrag antworten » | ||||
Angenommen ich habe eine hermitesche Matrix wobei ein Eigenwert doppelt vorkommt Die dazugehörigen Eigenvektoren seien v1 und v2 dann gilt doch für das Skalarprodukt Es heißt oft,dass das Skalsrprodukt Null ist wenn zu entsprechenden Eigenvektoren unterschiedliche Eigenwerte gehören Es ist doch aber so, dass jedes Skalarprodukt aus Eigenvektoren von hermetischen Matrizen Null ist. Auch bei gleichen Eigenwerten. Oder nicht? |
||||||
02.05.2022, 21:11 | Helferlein | Auf diesen Beitrag antworten » | ||||
Wenn Du meinen Beitrag vollständig gelesen hättest, würdest Du die Aussage nicht wiederholen. Verschiedene Eigenwerte: Skalarprodukt gleich 0. Gleiche Eigenwerte: Skalarprodukt möglicherweise Null (Siehe mein Beispiel von oben mit v, w=verschiedene Einheitsvektoren) |
||||||
02.05.2022, 21:26 | prime | Auf diesen Beitrag antworten » | ||||
Danke schonmal
Habe ich vollständig gelesen. Aber ich bin leider kein Mathematiker und verstehe deshalb manches nicht
Da habe ich noch eine Zusatzfrage Wenn das Skalarprodukt nicht Null ist. Sind die Vektoren dann linear abhängig Es heißt doch,dass die Eigenvektoren von hermetischen Matrizen ein Orthogonalsystem bilden |
||||||
02.05.2022, 21:44 | Helferlein | Auf diesen Beitrag antworten » | ||||
Führe Dir das Beispiel noch einmal gründlich vor Augen: Die identische Abbildung hat die Einheitsmatrix als Abbildungsmatrix und daher ist jeder (x-beliebige) Vektor auch ein Eigenvektor zum Eigenwert 1. Deine Frage nach der linearen Abhängigkeit ist also für dieses Beispiel gleichbedeutend mit der Aussage, dass zwei Vektoren, die nicht orthogonal sind, automatisch linear abhängig sind. Erscheint Dir das sinnvoll? Rechne es mal mit einfachen Beispielvektoren durch. Zur Frage "Es heißt doch..." verweise ich auch noch einmal auf mein Anfangsposting mit der Bitte deine Aussage zu präzisieren. Warum? Weil die Aussage so, wie Du sie aufgeschrieben hast, falsch ist. Sie ist viel zu allgemein formuliert. Es gibt nicht "die" Eigenvektoren einer Matrix, sondern im reellen (oder komplexen) Fall immer unendlich viele und nicht alle dieser Vektoren erfüllen deine Aussage. Betrachtet man aber eine geeignete Auswahl solcher Vektoren, dann stimmt die Aussage durchaus. Ein wichtiges Mittel der Mathematik ist die präzise und eindeutige Formulierung, was Dir als Nicht-Mathematiker schwer fallen mag, aber für die korrekten Schlussfolgerungen zwingend notwendig ist. |
||||||
Anzeige | ||||||
|
||||||
02.05.2022, 22:04 | prime | Auf diesen Beitrag antworten » | ||||
Mir ist was eingefallen. Wären die Eigenvektoren linear abhängig, dann wäre die Matrix nicht diagonalisierbar Aber hermitesche Matrizen sind soweit ich weiß immer diagonalisierbar Etwas enttäuschend ist es aber schon, dass bei hermiteschen Matrizen mit gleichen Eigenwerten die Eigenvektoren nicht immer senkrecht aufeinander stehen Bei symmetrischen Matrizen ist das anders. Und das sind doch hermitesche Matrizen nur im Reellen |
||||||
03.05.2022, 01:08 | Helferlein | Auf diesen Beitrag antworten » | ||||
Wenn das so wäre, dann müsste doch jeder Vektor die Länge Null haben, da er ja - nach deinem Wunsch - auf sich selbst senkrecht stehen müsste.
Anscheinend hast Du noch immer nicht verstanden, welches Beispiel ich Dir genannt habe und dabei ist es doch fast das einfachste, das man finden könnte. Vielleicht verstehst Du es besser, wenn Du anstelle der Einheitsmatrix die Nullmatrix nimmst. Beides sind offensichtlich symmetrische Matrizen , somit auch hermitsch und sie besitzen nur einen Eigenwert. Jeder Vektor ist Eigenvektor und daher ist es ziemlich verwegen zu erwarten, dass zwei beliebige davon orthogonal sind. Aber um Dich nicht länger zu quälen: Es geht mir um die korrekte Formulierung des Sachverhalts und den hast Du durch deine starke Verkürzung leider total verfehlt. Jede hermitsche Matrix (egal wieviele verschiedene Eigenwerte sie hat) besitzt eine Menge von Eigenvektoren, die eine Orthogonalbasis bilden. |
||||||
03.05.2022, 17:49 | prime | Auf diesen Beitrag antworten » | ||||
Danke mir ist der Sachverhalt jetzt klar Was ich bisher nicht wusste ist, dass bei gleichen Eigenwerten bei den Eigenvektoren auch Linearkombinationen möglich sind zB |
||||||
04.05.2022, 11:33 | HAL 9000 | Auf diesen Beitrag antworten » | ||||
In dem Zusammenhang solltest du dir neben Eigenwert und Eigenvektor auch noch den Begriff Eigenraum zu Gemüte führen. |
|
Verwandte Themen
Die Beliebtesten » |
|
Die Größten » |
|
Die Neuesten » |
|