Eigenvektoren und Basis von R^n

Neue Frage »

goldfisch91 Auf diesen Beitrag antworten »
Eigenvektoren und Basis von R^n
Sei A eine n x n Matrix, die n verschiedene Eigenwerte a =/= 0 zu n verschiedenen Eigenvektoren vi, 1<= i <= n besitzt. Zeigen Sie, dass dann {v1, v2,...,vn} eine Basis des R^n ist.

Meine Idee wäre erstmal zu beweisen, dass die Vektoren linear unabhängig ist. Aber wie soll man das machen?
IfindU Auf diesen Beitrag antworten »
RE: Eigenvektoren und Basis von R^n
Argumentiere per Widerspruch, indem du bei
startest, wobei die lambda die entsprechenden Eigenwerte sind. Dann kannst du die \lambda's durch die Matrix A ersetzen und bist fast fertig.
goldfisch91 Auf diesen Beitrag antworten »

Lambdas durch die Matrix ersetzen? Also es gilt ja: A*x = lambda*x
Aber das heißt doch nicht, dass A = lambda ist, oder? Big Laugh Also ich hab das jetzt so aufgeschrieben, aber was schließe ich denn jetzt daraus?
IfindU Auf diesen Beitrag antworten »
RE: Eigenvektoren und Basis von R^n
Ich meinte die Eigenwertgleichung benutzen, ja. Und nein, natürlich ist außer in einer Dimension nie .

Und tut mir Leid, ich hatte da einen massiven Denkfehler drin. Denke aber das sollte funktionieren: Seien eine Nullkombination d.h.
.

Für jedes k ist das äquivalent zu . Mit der Eigenwertgleichung bekommst du so ein Gleichungssystem in den . Diese sollten diese damit eindeutig festlegen. Ich hoffe man kann diese Schritte so einfach zeigen wie ich hoffe.
goldfisch91 Auf diesen Beitrag antworten »

Könntest du das ausführen? Fällt mir etwas schwer das zu verstehen
IfindU Auf diesen Beitrag antworten »

Die Idee ist recht simpel: Wenn wir eine nicht-triviale Linearkombination finden, so können wir auf die Gleichung A anwenden, und erhalten eine weitere nicht-trivale Kombination der 0. Das können wir jetzt n mal wiederholen. Wir erhalten dann insgesamt n lineare Gleichungen für die n Variablen . Wenn man noch zeigen kann, dass es eindeutig lösbar ist, folgt dass alle mu bereits 0 sind und wir sind linear unabhängig.
 
 
goldfisch91 Auf diesen Beitrag antworten »

irgendwie versteh ich das grad gar nicht

Zitat:
Für jedes k ist das äquivalent zu . Mit der Eigenwertgleichung bekommst du so ein Gleichungssystem in den . Diese sollten diese damit eindeutig festlegen. Ich hoffe man kann diese Schritte so einfach zeigen wie ich hoffe.


fängt schon hier an. Wofür steht das k?

Kannst du mir mal zeigen wie du auf diese Gleichung überhaupt kommst (die mit A^k).
IfindU Auf diesen Beitrag antworten »

Ok, da habe ich natürlich die Punkte vergessen. Es sollte
heißen, entschuldige.

Und das k ist eine natürliche Zahl. Für k = 0 bekommt man die Originalgleichung, für k = 1 eine daraus hergeleitete.
goldfisch91 Auf diesen Beitrag antworten »

Wie die davon hergeleitete? Irgendwas fehlt mir da noch an Wissen Big Laugh Ich check grad garnichts
IfindU Auf diesen Beitrag antworten »

Wenn
,
dann gilt auch
.

Soweit klar?
goldfisch91 Auf diesen Beitrag antworten »

Nicht so ganz. Du beziehst dich wahrscheinlich auf die Gleichung Ax = ax, oder? Wie kommt man dann darauf?

EDIT: Achso, doch. Wenn das oben gleich 0 ist, dann muss A*0 auch gleich 0 sein. alles klar.
IfindU Auf diesen Beitrag antworten »

Die Folgerung ", dann gilt auch für alle Funktionen f" ist eine extrem elementare. Heißt, dass die Darstellung von Elementen nicht ihre Eigenschaften bestimmt.

Hier nehme ich . Alternativ nehme ich die Gleichung und multipliziere die Matrix A links an beide Seiten dran.

Edit: Ok gut, dass es doch klar ist. Und jetzt kann ich noch einmal A anwenden und bekomme
. Allgemeiner kann ich das k mal machen und bekomme die Gleichung . Auch das klar?
goldfisch91 Auf diesen Beitrag antworten »

Ja, ok. diesen schritt hab ich dann verstanden

EDIT: oh, ja verstehe ich jetzt. also den zweiten schritt auch. und dann?
IfindU Auf diesen Beitrag antworten »

Die ganzen Gleichungen kannst du ausmultiplizieren, und ausnutzen, dass es sich hier um Eigenvektoren handelt. Damit bekommt man n (vektorwertige) Gleichungen. Die (verschiedenen) Eigenwerte mit dem Haufen von Exponenten sollte dann ausreichen, damit mu = 0 die einzige Lösung ist.

Am besten setzt du dafür: und zeigst, dass die w_i = 0 sind.
goldfisch91 Auf diesen Beitrag antworten »

Also ich hab das zwar jetzt so aufgeschrieben, mit A^k(A^k-1(......)) = 0 etc , sehe jetzt aber nicht wie ich da was aus den gleichungen schließen kann.

Also du meinst sicherlich, dass man dann die zeilenvektoren der matrix nimmt, die dann alle 0 sind, oder was? Und danach sieht man genau was?
IfindU Auf diesen Beitrag antworten »

Also die Idee war immer A zu nehmen, also mit wie oben


Man kann das folgende komponentenweise machen, daher oBdA. w_i sind Skalare statt Vektoren. D.h. man interessiert sich für die Lösung des System
.

Wenn die linke Matrix invertierbar ist, so folgt dass die w_i alle 0 sind, und weil die v_i nach Definition nicht 0 waren, sind die mu also 0.
goldfisch91 Auf diesen Beitrag antworten »

Bevor ich jetzt zeigen will, dass die Matrix invertierbar ist, habe ich noch ne Frage:

Wie kommt man auf diese Lösung? Ich finde die gar nicht so "trivial". Das ist für mich schon eher so ein Trick. Oder kann es sein, dass ich da noch was nicht verstanden habe? Du nimmst ja die Gleichung Ax = ax. dann sagst du, dass die linearkombination der einheitsvektoren linear abhängig ist (für den gegenbeweis), dann sagst du, dass wenn die LK der eigenvektoren gleich 0 ist, dann auch A*0 = 0 ist
und dann beziehst du dich auf Ax = ax um das mit den eigenwerten zu schreiben.

was mit schwer fällt zu verstehen ist, dass du dann A^k nimmst. also immer wieder bis n-1. Das ist eigentlich das einzige was ich nicht verstehe
IfindU Auf diesen Beitrag antworten »

Wir wollen zeigen, dass die Vektoren linear unabhängig sind. Also nehmen wir uns eine beliebige Linearkombination von ihnen mit der 0 und zeigen, dass dann die mu schon 0 sind. (Ob man annimmt, dass die mu ungleich 0 sind und danach einen Widerspruch landet oder einfach annimmt sie sind reelle Zahlen ist mehr Symantik als Mathematik)

Dann sind wir doch schon bei . Und viel haben wir ja nicht zur Verfügung. Wir wissen, dass die w_i "Eigenvektoren" von A sind (... in Anführungszeichen, weil 0 nach Definition leider kein Eigenvektor ist ... kommt davon, wenn man w_i statt mu v_i schreibt, weil man denkt, es ist weniger Schreibarbeit), also sollte A angewandt auf die Gleichung doch was schönes ergeben. Und wir erhalten tatsächlich eine weitere Linearkombination zur 0. Das schränkt die Wahl der mu schon weiter ein, weil es die v_i zu 0 linearkombinieren muss, als auch die lambda_i v_i. Also warum aufhören, und nicht weiter Gleichungen produzieren? Am Ende des Tages beschreiben diese Gleichungen dann mu sogar eindeutig (ultimative Einschränkung deren Auswahl) und man ist glücklich.

Das waren in etwa meine Gedanken als ichs dir geschrieben habe.

Und ich würde wetten, dass das einer der hässlicheren Beweise von der Aussage ist. Leider habe ich zu Beginn gedacht es geht hier viel leichter -- wenn das das einzige ist was ich gesehen hätte, so hätte ich lieber verfolgt, welche Ideen die Algebraiker hier herzaubern.
Elvis Auf diesen Beitrag antworten »

Zaubertrick von Hans-Joachim Kowalsky (Zitat leicht angepasst an die hier vorliegende Aufgabe):

Satz 17.7 Es seien Eigenvektoren des Endomorphismus , deren zugehörige Eigenwerte paarweise verschieden sind. Dann sind die Vektoren linear unabhängig.

Beweis: Wendet man die Endomorphismen auf den Vektor an, so erhält man
für
für

Aus folgt daher durch sukzessive Anwendung aller Endomorphismen mit
.

Da hier die Klammern wegen der Verschiedenheit der Eigenwerte nicht verschwinden, ergibt sich .
IfindU Auf diesen Beitrag antworten »

Sehr cool, danke Elvis Freude

Offenbar ist die Grundidee sogar die gleiche: Wende den Endomorphismus mal an. Allerdings wird es deutlich schöner, wenn man ihn etwas verschiebt. Damit bekommt man dann nicht das hässliche Gleichungssystem, sondern die Lösung sofort auf dem Silbertablett serviert.
Elvis Auf diesen Beitrag antworten »

Ja, prima der alte Kowalsky. Gott http://de.wikipedia.org/wiki/Hans-Joachim_Kowalsky
Der Beweis ist kurz und verständlich, und die Eigenvektoren müssen noch nicht mal eine Basis von V sein. ist ja auch möglich.
IfindU Auf diesen Beitrag antworten »

Ich erweise ihm die Ehre, indem ich einen Holzhammer-Weg gehe, und damit sein Beweis noch eleganter wirkt Augenzwinkern
goldfisch91 Auf diesen Beitrag antworten »

Das muss ich erstmal verdauen. So schnell werde ich das erstmal nicht verstehen können. Trotzdem danke! Ich werde das schon früher oder später verstehen
Elvis Auf diesen Beitrag antworten »

Ganz sicher wirst Du das verstehen. Noch einfacher geht's nicht.

Hinweis: Versuche, den Satz und Beweis in allen Einzelheiten und schrittweise für r=1, 2, 3 und 4 nachzuvollziehen. Es hilft dem Verständnis enorm, einfache Beispiele durchzuführen, und dann vom Speziellen zum Allgemeinen überzugehen. Wenn Du selbst Mathematik betreiben möchtest, kannst Du zusätzlich darüber nachdenken, wie der Satz und der Beweis für unendlichdimensionale Vektorräume aussehen müsste.
Neue Frage »
Antworten »



Verwandte Themen

Die Beliebtesten »
Die Größten »
Die Neuesten »