Simultan konjugierbar, Selbstadjungierte Matrizen |
02.01.2014, 16:03 | Knurpel | Auf diesen Beitrag antworten » | ||||||
Simultan konjugierbar, Selbstadjungierte Matrizen Seien A,B . Wir sagen, dass A und B miteinander kommutieren, wenn gilt: AB = BA Wir sagen weiterhin, dass A und B simultan diagonalisierbar sind, falls es eine Basis von gibt, die aus Vektoren besteht, die zugleich Eigenvektoren von A und B sind. Zeigen sie, dass zwei selbstadjungierte Matrizen, die miteinander kommutieren, simultan diagonalisierbar sind. (Hinweis: Betrachten sie die Wirkung von A auf die Eigenvektoren von B und umgekehrt.) Meine Ideen: Meine Frage bezieht sich erst einmal nur auf den Hinweis: Ich verstehe nicht genau, welche "Wirkung" von A (bzw.B) hier gemeint ist? |
||||||||
02.01.2014, 16:12 | ollie3 | Auf diesen Beitrag antworten » | ||||||
RE: Simultan konjugierbar, Selbstadjungierte Matrizen hallo, damit ist glaube ich gemeint, was passiert, wenn man die matrix A von links mit einem eigenvektor von B multipliziert (bzw. die matrix B mit einem eigenvektor von A). gruss ollie3 |
||||||||
03.01.2014, 11:06 | Knurpel | Auf diesen Beitrag antworten » | ||||||
Hmmmm.... Also, da es ja eine Basis von C geben soll aus Vektoren, die zugleich EV von A und B sind, müssen doch A und B dieselben Eigenvektoren haben. Und wenn man dann Matrix (A oder B) mit einem Eigenvektor multipliziert, ergibt das doch einfach ein vielfaches des Eigenvektors.... Das hilft mir aber doch nicht weiter, oder? |
||||||||
03.01.2014, 11:16 | tmo | Auf diesen Beitrag antworten » | ||||||
Um den Tipp mal zu erweitern: Nimm dir einen Eigenvektor von zum EW . Berechne nun und folgere dann, dass der Eigenraum zum EW (von ) -invariant ist. Danach rollt die Induktionsmaschinerie eigentlich von alleine... |
||||||||
03.01.2014, 13:51 | Knurpel | Auf diesen Beitrag antworten » | ||||||
Also, ich habe jetzt das Folgende: ABv = BAV (weil A und B ja kommutieren) BAV = Bv = (weil Av = Also: A(Bv) = Weil es zu jedem Eigenwert nur einen Eigenvektor gibt, gilt: Bv = Damit ist doch die Invarianz gezeigt, oder? Aber jetzt muss ich ja noch irgendwie die Selbstadjungiertheit mit reinbringen und zeigen, dass das dann eine Basis von C ist. Da hängts dann wieder...Vor allem auch mit der Basis von C...muss ich da zeigen, dass der Spann der Eigenvektoren von A und B den C^n aufspannt? Und hat das mit der Selbstadjungation was mit der Diagonalmatrix zu tun? Denn in der Form TAT^-1 = D stehen ja die Eigenvektoren als Spalten in T.... |
||||||||
05.01.2014, 10:36 | Knurpel | Auf diesen Beitrag antworten » | ||||||
Keiner einen Tipp? |
||||||||
Anzeige | ||||||||
|
||||||||
05.01.2014, 11:40 | jester. | Auf diesen Beitrag antworten » | ||||||
Bis hierhin ist alles richtig und du hast bereits gezeigt, dass jeder Eigenraum von invariant unter ist.
Nein, warum sollte zu jedem Eigenwert nur ein Eigenvektor existieren (in genauerer Sprechweise: jeder Eigenraum eindimensional sein)?
Die Selbstadjungiertheit bedeutet, dass die Matrizen (unitär - aber das ist hier nicht so wichtig, man könnte die Voraussetzung selbstadjungiert auch einfach zu 'diagonalisierbar' abschwächen) diagonalisierbar sind. Diagonalisiere also eine der Matrizen, d.h. wähle eine Basis aus Eigenvektoren, etwa von . Die Eigenräume von sind nun -invariant und von kleinerer Dimension als die ursprüngliche Dimension (wenn man annimmt, dass sowohl als auch mehr als einen Eigenwert haben, was man tun sollte - überlege dir selbst, warum). Dann ist man aber per Induktion fertig. |
||||||||
05.01.2014, 12:53 | Knurpel | Auf diesen Beitrag antworten » | ||||||
Sind Eigenvektoren zwangsläufig linear unabhängig? Also, wenn ich dich richtig verstehe, müssten sie das sein. Denn da hätte ich eine Basis aus Eigenvektoren, die ja per Definition auf ein Vielfaches von sich selbst abgebildet werden. Wenn sie alle linear unabhängig sind, spannen sie also einen Raum auf, mit der Dimension m = der Anzahl der Eigenvektoren. Aber: Die geometrische Vielfachheit ist doch kleiner als die algebraische, und die wiederrum ist kleiner als n. Dann können die Eigenvektoren doch nur einen Raum von der Dimension kleiner n aufspannen, und demzufolge nicht C^n.... Oder bin ich jetzt schlicht vollkommen verwirrt? |
||||||||
05.01.2014, 16:30 | RavenOnJ | Auf diesen Beitrag antworten » | ||||||
Nein, sind sie nicht. Wenn du zwei Eigenvektoren (EV) zum selben Eigenwert (EW) hast, dann ist auch jede Linearkombination von diesen ein EV zum selben EW. Aus zwei unterschiedlichen EV (soweit vorhanden) zum selben EW und einer Linearkombination von diesen lässt sich also ein Satz von drei linear abhängigen EV konstruieren. Du kannst aber im Raum der EV zu einem bestimmten EW eine Basis konstruieren. Diese Basisvektoren sind dann linear unabhängig. Die EV spannen aber im Allgemeinen nicht den gesamten Hauptraum zu einem bestimmten EW auf, sondern nur einen Unterraum. Die Dimension dieses Unterraums ist die geometrische Vielfachheit zu diesem EW. Ist die Matrix allerdings selbstadjungiert, dann ist sie diagonalisierbar, womit Hauptraum und Eigenraum zu einem bestimmten EW übereinstimmen. Genau dann kannst du auch eine Basis aus EV bilden. Geometrische und algebraische Vielfachheit stimmen dann für jeden EW überein. Ansonsten lässt sich die Matrix nur in Jordansche Normalform bringen, wobei die geometrische Vielfachheit zu mindestens einem EW kleiner als die algebraische ist. Vielleicht guckst du mal unter Jordansche Normalform und Hauptraum. |
|
Verwandte Themen
Die Beliebtesten » |
Die Größten » |
|
Die Neuesten » |
|