Simultan konjugierbar, Selbstadjungierte Matrizen

Neue Frage »

Knurpel Auf diesen Beitrag antworten »
Simultan konjugierbar, Selbstadjungierte Matrizen
Meine Frage:
Seien A,B . Wir sagen, dass A und B miteinander kommutieren, wenn gilt: AB = BA
Wir sagen weiterhin, dass A und B simultan diagonalisierbar sind, falls es eine Basis von gibt, die aus Vektoren besteht, die zugleich Eigenvektoren von A und B sind. Zeigen sie, dass zwei selbstadjungierte Matrizen, die miteinander kommutieren, simultan diagonalisierbar sind.
(Hinweis: Betrachten sie die Wirkung von A auf die Eigenvektoren von B und umgekehrt.)

Meine Ideen:
Meine Frage bezieht sich erst einmal nur auf den Hinweis:
Ich verstehe nicht genau, welche "Wirkung" von A (bzw.B) hier gemeint ist?
ollie3 Auf diesen Beitrag antworten »
RE: Simultan konjugierbar, Selbstadjungierte Matrizen
hallo,
damit ist glaube ich gemeint, was passiert, wenn man die matrix A von links mit einem eigenvektor
von B multipliziert (bzw. die matrix B mit einem eigenvektor von A).
gruss ollie3
Knurpel Auf diesen Beitrag antworten »

Hmmmm....
Also, da es ja eine Basis von C geben soll aus Vektoren, die zugleich EV von A und B sind, müssen doch A und B dieselben Eigenvektoren haben. Und wenn man dann Matrix (A oder B) mit einem Eigenvektor multipliziert, ergibt das doch einfach ein vielfaches des Eigenvektors....
Das hilft mir aber doch nicht weiter, oder?
tmo Auf diesen Beitrag antworten »

Um den Tipp mal zu erweitern:

Nimm dir einen Eigenvektor von zum EW .

Berechne nun und folgere dann, dass der Eigenraum zum EW (von ) -invariant ist.

Danach rollt die Induktionsmaschinerie eigentlich von alleine...
Knurpel Auf diesen Beitrag antworten »

Also, ich habe jetzt das Folgende:

ABv = BAV (weil A und B ja kommutieren)
BAV = Bv = (weil Av =
Also:
A(Bv) =
Weil es zu jedem Eigenwert nur einen Eigenvektor gibt, gilt:
Bv =
Damit ist doch die Invarianz gezeigt, oder?

Aber jetzt muss ich ja noch irgendwie die Selbstadjungiertheit mit reinbringen und zeigen, dass das dann eine Basis von C ist. Da hängts dann wieder...Vor allem auch mit der Basis von C...muss ich da zeigen, dass der Spann der Eigenvektoren von A und B den C^n aufspannt?
Und hat das mit der Selbstadjungation was mit der Diagonalmatrix zu tun?
Denn in der Form TAT^-1 = D stehen ja die Eigenvektoren als Spalten in T....
Knurpel Auf diesen Beitrag antworten »

Keiner einen Tipp? unglücklich
 
 
jester. Auf diesen Beitrag antworten »

Zitat:
Original von Knurpel
Also, ich habe jetzt das Folgende:

ABv = BAV (weil A und B ja kommutieren)
BAV = Bv = (weil Av =
Also:
A(Bv) =

Bis hierhin ist alles richtig und du hast bereits gezeigt, dass jeder Eigenraum von invariant unter ist.
Zitat:
Weil es zu jedem Eigenwert nur einen Eigenvektor gibt, gilt:
Bv =
Damit ist doch die Invarianz gezeigt, oder?

Nein, warum sollte zu jedem Eigenwert nur ein Eigenvektor existieren (in genauerer Sprechweise: jeder Eigenraum eindimensional sein)?

Zitat:
Aber jetzt muss ich ja noch irgendwie die Selbstadjungiertheit mit reinbringen und zeigen, dass das dann eine Basis von C ist. Da hängts dann wieder...Vor allem auch mit der Basis von C...muss ich da zeigen, dass der Spann der Eigenvektoren von A und B den C^n aufspannt?
Und hat das mit der Selbstadjungation was mit der Diagonalmatrix zu tun?
Denn in der Form TAT^-1 = D stehen ja die Eigenvektoren als Spalten in T....

Die Selbstadjungiertheit bedeutet, dass die Matrizen (unitär - aber das ist hier nicht so wichtig, man könnte die Voraussetzung selbstadjungiert auch einfach zu 'diagonalisierbar' abschwächen) diagonalisierbar sind.
Diagonalisiere also eine der Matrizen, d.h. wähle eine Basis aus Eigenvektoren, etwa von . Die Eigenräume von sind nun -invariant und von kleinerer Dimension als die ursprüngliche Dimension (wenn man annimmt, dass sowohl als auch mehr als einen Eigenwert haben, was man tun sollte - überlege dir selbst, warum). Dann ist man aber per Induktion fertig.
Knurpel Auf diesen Beitrag antworten »

Sind Eigenvektoren zwangsläufig linear unabhängig?

Also, wenn ich dich richtig verstehe, müssten sie das sein. Denn da hätte ich eine Basis aus Eigenvektoren, die ja per Definition auf ein Vielfaches von sich selbst abgebildet werden. Wenn sie alle linear unabhängig sind, spannen sie also einen Raum auf, mit der Dimension m = der Anzahl der Eigenvektoren.
Aber: Die geometrische Vielfachheit ist doch kleiner als die algebraische, und die wiederrum ist kleiner als n. Dann können die Eigenvektoren doch nur einen Raum von der Dimension kleiner n aufspannen, und demzufolge nicht C^n....
Oder bin ich jetzt schlicht vollkommen verwirrt?
RavenOnJ Auf diesen Beitrag antworten »

Zitat:
Original von Knurpel
Sind Eigenvektoren zwangsläufig linear unabhängig?

Nein, sind sie nicht. Wenn du zwei Eigenvektoren (EV) zum selben Eigenwert (EW) hast, dann ist auch jede Linearkombination von diesen ein EV zum selben EW. Aus zwei unterschiedlichen EV (soweit vorhanden) zum selben EW und einer Linearkombination von diesen lässt sich also ein Satz von drei linear abhängigen EV konstruieren.

Du kannst aber im Raum der EV zu einem bestimmten EW eine Basis konstruieren. Diese Basisvektoren sind dann linear unabhängig. Die EV spannen aber im Allgemeinen nicht den gesamten Hauptraum zu einem bestimmten EW auf, sondern nur einen Unterraum. Die Dimension dieses Unterraums ist die geometrische Vielfachheit zu diesem EW.

Ist die Matrix allerdings selbstadjungiert, dann ist sie diagonalisierbar, womit Hauptraum und Eigenraum zu einem bestimmten EW übereinstimmen. Genau dann kannst du auch eine Basis aus EV bilden. Geometrische und algebraische Vielfachheit stimmen dann für jeden EW überein. Ansonsten lässt sich die Matrix nur in Jordansche Normalform bringen, wobei die geometrische Vielfachheit zu mindestens einem EW kleiner als die algebraische ist.

Vielleicht guckst du mal unter Jordansche Normalform und Hauptraum.
Neue Frage »
Antworten »



Verwandte Themen

Die Beliebtesten »
Die Größten »
Die Neuesten »