Eigenwert einer Matrix mit Gegendiagonale

Neue Frage »

pedagmb Auf diesen Beitrag antworten »
Eigenwert einer Matrix mit Gegendiagonale
Meine Frage:
Hallo zusammen, ich habe eine Frage zu einem Beispiel mit Eigenwerten:

Man soll die Eigenwerte Folgender Matrix bestimmen:

u u u v
u u v u
u v u u
v u u u

und sorry wegen der Formatierung, aber mit LaTex hats nicht funktioniert.

Meine Ideen:
Bis jetzt habe ich das Charakteristische Polynom aufgestellt, aber ich finde einfach keine offensichtlichen Nullstellen.
Bzw. wenn ich das Polynom löse, was ziemlich langwierig ist komme ich auf eine komplett falsche Lösung.

Die Lösung sollte laut Mathematica sein:

e_1=u-v
e_2=u-v
e_3=-u+v
e_4=3u+v

Ich vermute, dass mein Ansatz mit dem charakteristischen Polynom alles unnötig kompliziert macht!

Ich freue mich über sämtliche Vorschläge um auf diese Lösung zu kommen
sibelius84 Auf diesen Beitrag antworten »

Hi,

(1) die Multiplikation einer Matrix mit dem Vektor (1,...,1)^T bedeutet ja gerade die Bildung ihrer Zeilensummen. Jede Matrix, die identische Zeilensummen hat, hat demnach den Eigenvektor (1,...,1)^T zu dem Eigenwert, der genau der Zeilensumme entspricht (das ist hier 3u+v).

(2) Weiter ist es naheliegend, den Vektor (1,-1,1,-1)^T mal auszuprobieren, weil nebeneinanderstehende u's sich gegenseitig wegmachen. Tatsächlich, wenn man ihn an die Matrix anmultipliziert, kommt heraus:
(u-v,v-u,u-v,v-u), das ist genau das (u-v)-Fache des ursprünglichen Vektors.

(3) Das Erste war noch ziemlich einfach zu sehen und (2), wenn auch nicht ganz trivial, ging auch noch. Nun scheint guter Rat teuer. Beachtenswert ist sicher die Gleichung . Hier kann man versuchen, Symmetrien etwa folgendermaßen hinzubasteln, so dass der u-1-1-1-1-Anteil sich weghebt und da was (für Eigenvektoren) Brauchbares stehenbleibt:

- juhu, Treffer! Rock Eigenvektor (0,1,-1,0) zum Eigenwert u-v.

Und der nächste Torschuss in unserer Elfmeterserie:

.

Merkwürdig, ich komme auf den dreifachen Eigenwert u-v. Habe ich mich oben irgendwo vertan? Naja, evtl. ist das "Prinzip" (davon, dass es hier kein echtes gibt, mal ganz abgesehen Augenzwinkern ) schon ein wenig deutlicher geworden und du findest diesen Fehler selber?

Was auch immer dabei wichtig ist im Auge zu behalten, ist: Matrix mal Vektor = Linearkombination der Spalten der Matrix. Etwa A·(1,-1,0,0)^T bedeutet: erste Spalte von A - zweite Spalte von A.

LG
sibelius84

edit: es hilft, einfache Beispiele zu betrachten, um sich selber die Zusammenhänge zu vergegenwärtigen. Einfach mal u=0, v=1 setzen. Dieser "Anti-Einheitsmatrix" sieht man auf Anhieb an, dass sie die Eigenvektoren (1,0,0,1), (0,1,1,0), (1,1,1,1) zum Eigenwert 1, und (1,0,0,-1), (0,1,-1,0) zum Eigenwert -1 hat. Hier kann man dann ausprobieren, ob dies auch EVen der allgemeinen "u-v-Matrix" sind. (Die drei erstgenannten Vektoren sind zwar linear abhängig - sonst wären 5 Eigenvektoren für eine 4 x 4-Matrix ja auch merkwürdig -, aber ich habe sie trotzdem einfach mal so stehenlassen, um bessere Chancen zu haben, dass das für die "u-v-Matrix" funktioniert.)

edit2:
Lineare Abhängigkeit ist das Stichwort. Der Eigenvektor (1,-1,1,-1) hängt natürlich von (0,1,-1,0) und (1,0,0,-1) linear ab, und ist damit zum selben Eigenwert u-v. "Den" Eigenvektor zum Eigenwert v-u gemäß Mathematica habe ich also noch nicht gefunden. Vielleicht mal wirklich alle Eigenvektoren der "Anti-Einheitsmatrix" bestimmen und schauen, ob da ein passender bei ist? Es muss ja eine Linearkombi sein. Vielleicht noch (1,-1,-1,1)^T?
Huggy Auf diesen Beitrag antworten »
RE: Eigenwert einer Matrix mit Gegendiagonale
Zitat:
Original von pedagmb
Bis jetzt habe ich das Charakteristische Polynom aufgestellt, aber ich finde einfach keine offensichtlichen Nullstellen.

Mit ein paar heuristischen Überlegungen kann man die schon finden, vorausgesetzt natürlich, man hat das charakterische Polynom (CP) korrekt aufgestellt, was per Hand schon etwas mühsam ist.

Wenn und ganze Zahlen wären, hätte CP ganzzahlige Koeffizienten und eine ganzzahlige Nullstelle müsste dann Teiler des absoluten Gliedes sein. Man kann das ja mal für allgemeines und testen. Das absolute Glied des CP lautet



Man sieht, dass es für Null wird. Und tatsächlich erweist sich als Nullstelle des CP. Danach ist es per Polynomdivision nicht mehr schwer, die übrigen Nullstellen zu finden. Es sind natürlich ganau die, die du mit Mathematica gefunden hast.

Zitat:
Bzw. wenn ich das Polynom löse, was ziemlich langwierig ist komme ich auf eine komplett falsche Lösung.

Was hast du da gemacht? Überprüfe doch mal mit Mathematica, ob dein CP korrekt ist.
HAL 9000 Auf diesen Beitrag antworten »

War das nicht erst letztens Thema?

https://www.matheboard.de/thread.php?threadid=584976

Ok, dort aber irgendwann versandet wegen Desinteresses des Threaderstellers.
Huggy Auf diesen Beitrag antworten »

Ob die Threadersteller identisch sind?
Guppi12 Auf diesen Beitrag antworten »

@Huggy: Ich glaube nicht.
 
 
HAL 9000 Auf diesen Beitrag antworten »

Das ganze Eigenvektor-Brainstorming von sibelius84 und/oder die Erkenntnisse im anderen Thread mal zusammengefasst findet man folgende Eigenvektorbasis

und zu
zu
zu

Die EV verschiedener EW sind bei einer symmetrischen Matrix wie hier natürlich von Haus aus orthogonal; bei den beiden zu angegeben EV wurde das so zurechtgebastelt. Klar hätte man da auch und nehmen können - aber optisch sieht es nun mal besser aus, wenn alle Komponenten aller vier EV betragsmäßig gleich 1 sind. Big Laugh

Mit Normierungsfaktor versehen bilden die vier genannten EV damit dann eine für die Diagonalisierung geeignete Orthogonalmatrix.


Wer diese Art "Rateweg" nicht mag, der sei darauf verwiesen, dass ihm immer noch der seriöse Normalweg über Eigenwertbestimmung usw. bleibt. Augenzwinkern
Neue Frage »
Antworten »



Verwandte Themen

Die Beliebtesten »
Die Größten »
Die Neuesten »