Tricks für Eigenwerte bestimmter Matrizen?

Neue Frage »

Yoshimitsu Auf diesen Beitrag antworten »
Tricks für Eigenwerte bestimmter Matrizen?
Hallo Matheboard,

natürlich kann ich die Eigenwerte einer (diagonalisierbaren) Matrix über das charakteristische Polynom ausrechnen, allerdings gibt es ja immer wieder Spezialfälle, z. B. symmetrische Matrizen oder wie ich gerade berechnet habe



Das mit der Hand auszurechnen ist schon ein ziemlicher Hammer
(zumindest eine sehr gute Konzentrationsübung), allerdings ist das
Ergebnis in gewisser Weise "verdächtig": 3 x 0 und 1 x (a+b+c+d)



Meine Gedanken dazu sind folgende:

Man weiß ja, dass det(A) = 0 => mindestens ein EW = 0
Sind soviele Eigenwerte ungleich 0 wie Vektoren linear unabhängig? Müsste eigentlich sein, da die Eigenvektoren ja Basen des von A aufgespannten Raums darstellen.

Elementare Vertauschungen und Additionen verändern nicht die Determinante (k-Linearität ist glaub ich der Grund). Der Eigenwert wird über die Determinante von berechnet.
Lassen also Vertauschungen und Additionen die Eigenwerte unverändert?

Mein Ergebnis (a+b+c+d) Wäre die Spur der Matrix. Hängt diese mit den Eigenwerten von (bestimmten?) Matrizen zusammen?

Es wäre toll, wenn mich da jemand erleuchten (oder auch desillusionieren *g*) könnte... oder eventuell auch Tipps und Tricks von bestimmten Eigenwerten, die man schneller bestimmen kann als 0815.
jester. Auf diesen Beitrag antworten »

Die Matrix lässt ihre Eigenwerte in der Tat etwas leichter erkennen.
Wenn alle vier Zeilen übereinstimmen, kann es sich lohnen, mal den Vektor an die Matrix zu multiplizieren. Dies zeigt sofort, dass ein Eigenwert ist. Dies ist zwar in einem solchen Fall auch die Spur, aber im Allgemeinen lässt die Spur alleine zunächst keinen Rückschluss auf die Eigenwerte zu.
Nun weiter zu den Eigenwerten. Diese Matrix hat höchstens Rang 1, nämlich dann, wenn es unter einen Parameter gibt, der nicht Null ist. Sind alle Null, dann haben wir die Nullmatrix vorliegen. Somit hat aber der Kern (und dieser ist der Eigenraum zum Eigenwert 0) Dimension 3 (oder 4 bei der Nullmatrix).
Damit haben wir dann aber schon alles abgedeckt, denn die Dimensionen der gefundenen Eigenräume summieren sich zu 4 (das ist das Maximum bei einer 4x4-Matrix) auf.
Also ist das charakteristische Polynom - ohne Rechnung. Augenzwinkern
tmo Auf diesen Beitrag antworten »

Die Vielfachheit des Eigenwertes 0 ist immer die Dimension des Kerns. Das ist hier offensichtlich 3 (wenn nicht gerade alle Parameter 0 sind).

Zum anderen Eigenwert:

Wenn man eine Matrix mit dem Vektor multipliziert, so erhält man in jedem Eintrag des Ergebnisvektors einfach nur die Zeilensumme der entsprechenden Zeile der Matrix.
Wenn die in jeder Zeile gleich ist, so ist mit also ein Eigenvektor gefunden und der Eigenwert ist dann natürlich gerade die Zeilensumme.

Dass das hier auch die Spur war, ist nur Zufall. Du kannst schließlich in jeder Zeile die vier Buchstaben a,b,c,d beliebige permutieren und es ändert sich nichts an dem Eigenwert , wohl aber an der Spur.
Yoshimitsu Auf diesen Beitrag antworten »

Könnte ich in diesem Spezialfall so argumentieren:
- weil die Spalten- und Zeilenvektoren die Dimension 4 haben gibt es maximal 4 Eigenwerte
- wegen dim( ker( A ) ) = 3 gilt: ex. 3 EW gleich 0
- wegen Spur( A ) = Summe der Eigenwerte und Determinante( A ) = Produkt der Eigenwerte muss gelten: der vierte Eigenwert ist a+b+c+d?

Nachtrag: die Determinante kann man hier wohl vernachlässigen
tmo Auf diesen Beitrag antworten »

In diesem Spezialfall würde das so gehen.

Wenn du in einer nxn-Matrix den Eigenwert 0 mit der geometrischen Vielfachheit n-1 hast (d.h. der Rang der Matrix ist 1), so ist die Spur auch ein Eigenwert. Das ist dann entweder ein "anderer" Eigenwert oder die Spur kann natürlich auch 0 sein. Dann ist die algebraische Vielfachheit des EW 0 halt n und eins größer als die geometrische Vielfachheit. Das Minimalpolynom wäre dann und die Matrix nicht diagonalisierbar.
gonnabphd Auf diesen Beitrag antworten »

Hi,

Falls deine Universität eine JSTOR-Subscription hat, lohnt sich vielleicht das folgende Paper anzuschauen:

Computing Eigenvalues and Eigenvectors without Determinants
William A. McWorter, Jr. and Leroy F. Meyers
Mathematics Magazine
Vol. 71, No. 1 (Feb., 1998), pp. 24-33

http://www.jstor.org/stable/2691340

Dieses Paper zeigt, dass man tatsächlich immer auf die Berechnung der (nervigen) Determinanten verzichten kann.
 
 
Neue Frage »
Antworten »



Verwandte Themen

Die Beliebtesten »
Die Größten »
Die Neuesten »