Matrizen-Äquivalenz: Invertierbarkeit <=> Ax = 0 nur trivial lösbar |
30.11.2015, 01:56 | MrASquare | Auf diesen Beitrag antworten » | ||||
Matrizen-Äquivalenz: Invertierbarkeit <=> Ax = 0 nur trivial lösbar Folgende Äquivalenz ist zu beweisen: Für alle quadratischen n×n-Matrizen A gilt: A ist invertierbar <=> Ax = 0 besitzt keine nichttriviale Lösung für x. (Mit nichttriviale Lösung ist eine Lösung verschieden von x = 0 gemeint, Ax = A*x ist die Matrixmultiplikation) Meine Ideen: Das ist meine Idee zur "=>"-Richtung: Ist A invertierbar, so existiert ein B mit der Eigenschaft AB = n×n-Einheitsmatrix = BA. Für eine beliebige Lösung t für x in der Gleichung Ax = 0 gilt dann: At = 0 <=> B(At) = B*0 <=> (BA)t = 0 <=> n×n-Einheitsmatrix * t = 0 <=> t = 0. Also gilt für jede Lösung für x von Ax = 0, dass sie gleich 0, also trivial ist, also existieren keine nichttrivialen Lösungen. Kann man das bis dahin so machen? Für die andere Richtung ("<=") fehlen mir irgendwie die Ideen: Ich muss ja damit anfangen, dass für alle x ungleich 0 gilt, dass Ax ungleich 0 ist, und daraus irgendwie schließen, dass ein B existiert, sodass AB = BA = n×n-Einheitsmatrix. Hat jemand eine Idee für einen Ansatz? |
||||||
30.11.2015, 09:27 | klarsoweit | Auf diesen Beitrag antworten » | ||||
RE: Matrizen-Äquivalenz: Invertierbarkeit <=> Ax = 0 nur trivial lösbar
Ist für meinen Geschmack etwas kompliziert geschrieben. Du kannst in der Gleichung Ax = 0 auch direkt von links mit der inversen Matrix multiplizieren. Und bitte sei vorsichtig mit den Äquivalenzpfeilen. Für die andere Richtung wäre zu klären, ob man auf Aussagen wie det(A) ungleich Null <==> A ist invertierbar zurückgreifen darf. |
||||||
30.11.2015, 11:54 | MrASquare | Auf diesen Beitrag antworten » | ||||
Danke für die Antwort!
Ok, dann kürze ich das damit ein bisschen ab und mache aus den Äquivalenzpfeilen stattdessen "=>"-Folgepfleile (was ja genügen sollte, wenn ich in dem Schritt nur die "=>"-Richtung zeigen will.
Nein, Determinante ist noch nicht im Repertoire... |
||||||
30.11.2015, 13:14 | klarsoweit | Auf diesen Beitrag antworten » | ||||
OK. Wir haben also als Voraussetzung, daß die Gleichung Ax = 0 nur von dem Nullvektor gelöst wird. Zeige als erstes, daß die Menge der Vektoren linear unabhängig ist. (e_i bezeichne den i-ten Einheitsvektor.) |
||||||
30.11.2015, 16:34 | MrASquare | Auf diesen Beitrag antworten » | ||||
Also ergibt die -te Spalte von , dementsprechend ist die Menge die Menge aller Spalten von . kann allgemein als dargestellt werden. Zu zeigen ist dann, dass die Menge aller Spalten von linear unabhängig ist, also Die linke Seite der Implikation wird dann umgeformt: Also ist . Per Voraussetzung ist bekannt, dass der Nullvektor ist. Also gilt , die Spalten sind linear unabhängig. So weit, so gut. Aber wie schließe ich jetzt von der linearen Unabhängigkeit der Spalten auf die Invertierbarkeit der Matrix? |
||||||
01.12.2015, 11:37 | klarsoweit | Auf diesen Beitrag antworten » | ||||
Der Beweis ist formal ok, läßt sich aber in meinen Augen etwas eleganter schreiben. Angenommen, die Menge der Vektoren wäre linear abhängig. Dann gäbe es x_i (i=1,...,n), die nicht alle gleich Null sind, so daß ist. Wegen der Linearität der Matrixmultiplikation ist . Da e_i die Einheitsvektoren sind, ist eine Lösung von A*x = 0. Dies steht im Widerspruch dazu, daß A*x = 0 nur die triviale Lösung hat. Wir haben also, daß die Menge der Vektoren linear unabhängig ist. Mithin bildet diese eine Basis des Vektorraums K^n und somit gibt es zu jedem Einheitsvektor e_j einen Vektor v_j mit . Definiere die Matrix B, deren Spalten aus den Vektoren v_j gebildet wird. Überlege nun, was A * B ist. |
||||||
Anzeige | ||||||
|
||||||
01.12.2015, 20:02 | MrASquare | Auf diesen Beitrag antworten » | ||||
Ok, ich denke, ich habe es jetzt soweit verstanden: Aus der gezeigten linearen Unabhängikeit der Spalten von und der Tatsache, dass insgesamt schon Spalten besitzt (also genauso viele Vektoren wie die Standardbasis des ) folgt, weil alle Basen eines Vektorraums gleich mächtig sind, dass die Spalten von eine Basis des sind, also kann jeder Einheitsvektor als Linearkombination der Spalten von dargestellt werden (da Basen Erzeugendensysteme sind), also gilt: Zu jedem gibt es also ein , sodass ist. Und wenn man jetzt definiert als die Matrix, die als Spalten die enstprechenden Vektoren zu allen Einheitsvektoren besitzt, dann ergibt die Matrixmultiplikation eine -Einheitsmatrix, womit die Invertierbarkeit, also die Existenz des Inversen gezeigt ist. Stimmt das alles soweit? |
||||||
02.12.2015, 08:46 | klarsoweit | Auf diesen Beitrag antworten » | ||||
Ja, das entspricht meinem Beweiskonzept. |
||||||
02.12.2015, 14:20 | MrASquare | Auf diesen Beitrag antworten » | ||||
Alles klar, vielen Dank für die Hilfe! Nur noch eine kurze Frage: es ist jetzt ja gezeigt, dass (-Einheitsmatix) gilt. Jetzt sollte ich auch beweisen, damit die Definition der Invertierbarkeit erfüllt ist. Genügt es das so zu zeigen? Es gilt Wegen folgt: Wegen der Assoziativität der Matrixmultiplikation folgt: Und deshalb ist auch |
||||||
02.12.2015, 15:13 | klarsoweit | Auf diesen Beitrag antworten » | ||||
Nun ja, im Grunde ist der Nachweis überflüssig, denn es gehört zu den Eigenschaften einer Gruppe, daß für ein inverses Element gilt: . |
|
Verwandte Themen
Die Beliebtesten » |
Die Größten » |
|
Die Neuesten » |
|