Eigenvektoren und Basis von R^n |
10.03.2015, 12:38 | goldfisch91 | Auf diesen Beitrag antworten » | ||
Eigenvektoren und Basis von R^n Meine Idee wäre erstmal zu beweisen, dass die Vektoren linear unabhängig ist. Aber wie soll man das machen? |
||||
10.03.2015, 12:42 | IfindU | Auf diesen Beitrag antworten » | ||
RE: Eigenvektoren und Basis von R^n Argumentiere per Widerspruch, indem du bei startest, wobei die lambda die entsprechenden Eigenwerte sind. Dann kannst du die \lambda's durch die Matrix A ersetzen und bist fast fertig. |
||||
10.03.2015, 14:07 | goldfisch91 | Auf diesen Beitrag antworten » | ||
Lambdas durch die Matrix ersetzen? Also es gilt ja: A*x = lambda*x Aber das heißt doch nicht, dass A = lambda ist, oder? Also ich hab das jetzt so aufgeschrieben, aber was schließe ich denn jetzt daraus? |
||||
10.03.2015, 14:40 | IfindU | Auf diesen Beitrag antworten » | ||
RE: Eigenvektoren und Basis von R^n Ich meinte die Eigenwertgleichung benutzen, ja. Und nein, natürlich ist außer in einer Dimension nie . Und tut mir Leid, ich hatte da einen massiven Denkfehler drin. Denke aber das sollte funktionieren: Seien eine Nullkombination d.h. . Für jedes k ist das äquivalent zu . Mit der Eigenwertgleichung bekommst du so ein Gleichungssystem in den . Diese sollten diese damit eindeutig festlegen. Ich hoffe man kann diese Schritte so einfach zeigen wie ich hoffe. |
||||
13.03.2015, 11:36 | goldfisch91 | Auf diesen Beitrag antworten » | ||
Könntest du das ausführen? Fällt mir etwas schwer das zu verstehen |
||||
13.03.2015, 13:23 | IfindU | Auf diesen Beitrag antworten » | ||
Die Idee ist recht simpel: Wenn wir eine nicht-triviale Linearkombination finden, so können wir auf die Gleichung A anwenden, und erhalten eine weitere nicht-trivale Kombination der 0. Das können wir jetzt n mal wiederholen. Wir erhalten dann insgesamt n lineare Gleichungen für die n Variablen . Wenn man noch zeigen kann, dass es eindeutig lösbar ist, folgt dass alle mu bereits 0 sind und wir sind linear unabhängig. |
||||
Anzeige | ||||
|
||||
13.03.2015, 13:52 | goldfisch91 | Auf diesen Beitrag antworten » | ||
irgendwie versteh ich das grad gar nicht
fängt schon hier an. Wofür steht das k? Kannst du mir mal zeigen wie du auf diese Gleichung überhaupt kommst (die mit A^k). |
||||
13.03.2015, 13:59 | IfindU | Auf diesen Beitrag antworten » | ||
Ok, da habe ich natürlich die Punkte vergessen. Es sollte heißen, entschuldige. Und das k ist eine natürliche Zahl. Für k = 0 bekommt man die Originalgleichung, für k = 1 eine daraus hergeleitete. |
||||
13.03.2015, 14:42 | goldfisch91 | Auf diesen Beitrag antworten » | ||
Wie die davon hergeleitete? Irgendwas fehlt mir da noch an Wissen Ich check grad garnichts |
||||
13.03.2015, 14:45 | IfindU | Auf diesen Beitrag antworten » | ||
Wenn , dann gilt auch . Soweit klar? |
||||
13.03.2015, 15:24 | goldfisch91 | Auf diesen Beitrag antworten » | ||
Nicht so ganz. Du beziehst dich wahrscheinlich auf die Gleichung Ax = ax, oder? Wie kommt man dann darauf? EDIT: Achso, doch. Wenn das oben gleich 0 ist, dann muss A*0 auch gleich 0 sein. alles klar. |
||||
13.03.2015, 15:28 | IfindU | Auf diesen Beitrag antworten » | ||
Die Folgerung ", dann gilt auch für alle Funktionen f" ist eine extrem elementare. Heißt, dass die Darstellung von Elementen nicht ihre Eigenschaften bestimmt. Hier nehme ich . Alternativ nehme ich die Gleichung und multipliziere die Matrix A links an beide Seiten dran. Edit: Ok gut, dass es doch klar ist. Und jetzt kann ich noch einmal A anwenden und bekomme . Allgemeiner kann ich das k mal machen und bekomme die Gleichung . Auch das klar? |
||||
13.03.2015, 15:29 | goldfisch91 | Auf diesen Beitrag antworten » | ||
Ja, ok. diesen schritt hab ich dann verstanden EDIT: oh, ja verstehe ich jetzt. also den zweiten schritt auch. und dann? |
||||
13.03.2015, 15:49 | IfindU | Auf diesen Beitrag antworten » | ||
Die ganzen Gleichungen kannst du ausmultiplizieren, und ausnutzen, dass es sich hier um Eigenvektoren handelt. Damit bekommt man n (vektorwertige) Gleichungen. Die (verschiedenen) Eigenwerte mit dem Haufen von Exponenten sollte dann ausreichen, damit mu = 0 die einzige Lösung ist. Am besten setzt du dafür: und zeigst, dass die w_i = 0 sind. |
||||
13.03.2015, 15:59 | goldfisch91 | Auf diesen Beitrag antworten » | ||
Also ich hab das zwar jetzt so aufgeschrieben, mit A^k(A^k-1(......)) = 0 etc , sehe jetzt aber nicht wie ich da was aus den gleichungen schließen kann. Also du meinst sicherlich, dass man dann die zeilenvektoren der matrix nimmt, die dann alle 0 sind, oder was? Und danach sieht man genau was? |
||||
13.03.2015, 16:07 | IfindU | Auf diesen Beitrag antworten » | ||
Also die Idee war immer A zu nehmen, also mit wie oben Man kann das folgende komponentenweise machen, daher oBdA. w_i sind Skalare statt Vektoren. D.h. man interessiert sich für die Lösung des System . Wenn die linke Matrix invertierbar ist, so folgt dass die w_i alle 0 sind, und weil die v_i nach Definition nicht 0 waren, sind die mu also 0. |
||||
13.03.2015, 16:23 | goldfisch91 | Auf diesen Beitrag antworten » | ||
Bevor ich jetzt zeigen will, dass die Matrix invertierbar ist, habe ich noch ne Frage: Wie kommt man auf diese Lösung? Ich finde die gar nicht so "trivial". Das ist für mich schon eher so ein Trick. Oder kann es sein, dass ich da noch was nicht verstanden habe? Du nimmst ja die Gleichung Ax = ax. dann sagst du, dass die linearkombination der einheitsvektoren linear abhängig ist (für den gegenbeweis), dann sagst du, dass wenn die LK der eigenvektoren gleich 0 ist, dann auch A*0 = 0 ist und dann beziehst du dich auf Ax = ax um das mit den eigenwerten zu schreiben. was mit schwer fällt zu verstehen ist, dass du dann A^k nimmst. also immer wieder bis n-1. Das ist eigentlich das einzige was ich nicht verstehe |
||||
13.03.2015, 16:48 | IfindU | Auf diesen Beitrag antworten » | ||
Wir wollen zeigen, dass die Vektoren linear unabhängig sind. Also nehmen wir uns eine beliebige Linearkombination von ihnen mit der 0 und zeigen, dass dann die mu schon 0 sind. (Ob man annimmt, dass die mu ungleich 0 sind und danach einen Widerspruch landet oder einfach annimmt sie sind reelle Zahlen ist mehr Symantik als Mathematik) Dann sind wir doch schon bei . Und viel haben wir ja nicht zur Verfügung. Wir wissen, dass die w_i "Eigenvektoren" von A sind (... in Anführungszeichen, weil 0 nach Definition leider kein Eigenvektor ist ... kommt davon, wenn man w_i statt mu v_i schreibt, weil man denkt, es ist weniger Schreibarbeit), also sollte A angewandt auf die Gleichung doch was schönes ergeben. Und wir erhalten tatsächlich eine weitere Linearkombination zur 0. Das schränkt die Wahl der mu schon weiter ein, weil es die v_i zu 0 linearkombinieren muss, als auch die lambda_i v_i. Also warum aufhören, und nicht weiter Gleichungen produzieren? Am Ende des Tages beschreiben diese Gleichungen dann mu sogar eindeutig (ultimative Einschränkung deren Auswahl) und man ist glücklich. Das waren in etwa meine Gedanken als ichs dir geschrieben habe. Und ich würde wetten, dass das einer der hässlicheren Beweise von der Aussage ist. Leider habe ich zu Beginn gedacht es geht hier viel leichter -- wenn das das einzige ist was ich gesehen hätte, so hätte ich lieber verfolgt, welche Ideen die Algebraiker hier herzaubern. |
||||
13.03.2015, 18:37 | Elvis | Auf diesen Beitrag antworten » | ||
Zaubertrick von Hans-Joachim Kowalsky (Zitat leicht angepasst an die hier vorliegende Aufgabe): Satz 17.7 Es seien Eigenvektoren des Endomorphismus , deren zugehörige Eigenwerte paarweise verschieden sind. Dann sind die Vektoren linear unabhängig. Beweis: Wendet man die Endomorphismen auf den Vektor an, so erhält man für für Aus folgt daher durch sukzessive Anwendung aller Endomorphismen mit . Da hier die Klammern wegen der Verschiedenheit der Eigenwerte nicht verschwinden, ergibt sich . |
||||
13.03.2015, 18:51 | IfindU | Auf diesen Beitrag antworten » | ||
Sehr cool, danke Elvis Offenbar ist die Grundidee sogar die gleiche: Wende den Endomorphismus mal an. Allerdings wird es deutlich schöner, wenn man ihn etwas verschiebt. Damit bekommt man dann nicht das hässliche Gleichungssystem, sondern die Lösung sofort auf dem Silbertablett serviert. |
||||
13.03.2015, 18:55 | Elvis | Auf diesen Beitrag antworten » | ||
Ja, prima der alte Kowalsky. http://de.wikipedia.org/wiki/Hans-Joachim_Kowalsky Der Beweis ist kurz und verständlich, und die Eigenvektoren müssen noch nicht mal eine Basis von V sein. ist ja auch möglich. |
||||
13.03.2015, 18:58 | IfindU | Auf diesen Beitrag antworten » | ||
Ich erweise ihm die Ehre, indem ich einen Holzhammer-Weg gehe, und damit sein Beweis noch eleganter wirkt |
||||
13.03.2015, 19:05 | goldfisch91 | Auf diesen Beitrag antworten » | ||
Das muss ich erstmal verdauen. So schnell werde ich das erstmal nicht verstehen können. Trotzdem danke! Ich werde das schon früher oder später verstehen |
||||
13.03.2015, 19:24 | Elvis | Auf diesen Beitrag antworten » | ||
Ganz sicher wirst Du das verstehen. Noch einfacher geht's nicht. Hinweis: Versuche, den Satz und Beweis in allen Einzelheiten und schrittweise für r=1, 2, 3 und 4 nachzuvollziehen. Es hilft dem Verständnis enorm, einfache Beispiele durchzuführen, und dann vom Speziellen zum Allgemeinen überzugehen. Wenn Du selbst Mathematik betreiben möchtest, kannst Du zusätzlich darüber nachdenken, wie der Satz und der Beweis für unendlichdimensionale Vektorräume aussehen müsste. |
|
Verwandte Themen
Die Beliebtesten » |
|
Die Größten » |
|
Die Neuesten » |
|