Beweis zur Summe von Untervektorräumen |
07.06.2022, 10:07 | MasterWizz | Auf diesen Beitrag antworten » | ||
Beweis zur Summe von Untervektorräumen Gegeben seien die Matrizen und und die Untervektorräume und Die Aufgabe ist zu zeigen, dass (a) und (b) Idee Wenn ich und addiere, dann ergibt das mit , woraus folgt, dass und damit wäre (a) bewiesen, stimmt das? Und da M und L die Kerne linearer Abbildungen sind, folgt daraus dann auch, dass das Bild von gleich der , was direkt (b) beweist? |
||||
07.06.2022, 11:15 | Elvis | Auf diesen Beitrag antworten » | ||
Da ich leider nicht klug genug bin um deinen Beweis zu verstehen, würde ich a) direkt beweisen, indem ich eine allgemeine Matrix mit und multipliziere und die Koeffizienten vergleiche. Teil b) beweise ich dann mit einem Dimensionsargument für die direkte Summe . |
||||
07.06.2022, 11:43 | MasterWizz | Auf diesen Beitrag antworten » | ||
Du bist wahrscheinlich 10 mal so klug wie ich haha. Das mit dem direkt beweisen in (a) hab ich tatsächlich auch noch gemacht, ich hatte nur gehofft, dass es sich mit Matrizen genauso wie auch mit Vektoren verhält und ich aus auch auf hätte schließen können. Aber wenn du das nicht weißt, dann gibts das wahrscheinlich auch nicht xD Und meinst du bei (b) mit "Dimensionsargument", dass wenn der Kern der linearen Abbildung nur die "Null" enthält, dann hat das Bild von die Dimension 2 und daraus lässt sich (b) folgern? Falls ja, versteh ich noch nicht ganz wieso |
||||
07.06.2022, 11:56 | Elvis | Auf diesen Beitrag antworten » | ||
Bei a) erkenne ich aus dem Argument mit der Determinante und dem Determinantenmultiplikationssatz nur, dass gilt, aber nicht, warum daraus folgt. zu b) , ist direkt wegen a) , also ist |
||||
07.06.2022, 12:13 | IfindU | Auf diesen Beitrag antworten » | ||
@Elvis: Du musst ja nicht erst auf die Determinante loslassen. Aus folgt ist invertierbar und damit darf man von links mit multiplizieren und bekommt . |
||||
07.06.2022, 12:21 | MasterWizz | Auf diesen Beitrag antworten » | ||
@IfindU: Richtig starke Idee für (a)!! @Elvis: Dass wegen (a) folgt, dass es sich um eine direkte Summe handelt, habe ich verstanden. Das ist ja quasi die Definition. Nur kannst du mir bitte noch mal kurz auf die Sprünge helfen, wie du auf die Dimensionen von M und L kommst? |
||||
Anzeige | ||||
|
||||
07.06.2022, 12:56 | Elvis | Auf diesen Beitrag antworten » | ||
Das sehe ich daran, welche Komponenten die Matrizen X in M bzw. L haben, die den Bedingungen AX=0 bzw. BX=0 genügen. Wie diese Matrizen aussehen, habe ich ja schon im Teil a) berechnet. Ein Physiker würde sagen "zwei Freiheitsgrade, also Dimension 2". |
||||
07.06.2022, 13:08 | IfindU | Auf diesen Beitrag antworten » | ||
Das war doch deine Idee (die ich ziemlich cool finde). Das war nur eine mögliche formale Begründung für den letzten Schritt. |
||||
07.06.2022, 14:12 | MasterWizz | Auf diesen Beitrag antworten » | ||
@IfindU: Danke dir!! Ich lern hier ja auch von den Besten. Ich mein neben anderen euch beide @Elvis: Also zählst du im Grunde einfach die Unbekannten zusammen, die "frei" bleiben. Kann ich denn dann auch einfach so hier argumentieren: A hat einen Rang von 1. Wenn X aus 1er Spalte besteht, dann hat M eine Dimension von 1*1. Wenn X aus 2 Spalten besteht, dann hat M eine Dimension von 1*2,...? |
||||
07.06.2022, 14:19 | Elvis | Auf diesen Beitrag antworten » | ||
X ist per def eine 2x2-Matrix. Besteht also immer aus 4 Komponenten. Der Witz ist, dass diese nicht unabhängig sind. Jeweils 2 sind frei, die beiden anderen davon abhängig. 2 freie Variable in X, also hat der VR aller X in M und ebenso der Vektorraum aller X in L jeweils die Dimension 2. |
||||
07.06.2022, 15:04 | MasterWizz | Auf diesen Beitrag antworten » | ||
Aber das ist ja abhängig vom Rang der Matrix A. Wäre A zum Beispiel die Einheitsmatrix, dann hätte X plötzlich 4 "Freiheitsgrade" und damit M die Dimension 4, richtig? Ich möchte nur gern allgemein den Zusammenhang zwischen dem Rang von A und der Dimension von M verstehen. |
||||
07.06.2022, 17:12 | Elvis | Auf diesen Beitrag antworten » | ||
Nicht ganz falsch und nicht ganz richtig. Für die Einheitsmatrix I ist der Vektor X=0 der einzige Vektor für den IX=0 ist, also hat X 0 Freiheitsgrade, und der von I annullierte UVR ist der Nullraum. Richtig ist, dass der von einer Matrix annullierte UVR von der Matrix abhängt. Das siehst du ja auch daran, dass A einen anderen UVR annulliert als B. Je höher der Rang r der annullierenden Matrix, desto kleiner die Dimension d des annullierten Untervektorraums: r=2,d=0; r=1,d=2; r=0,d=4. |
||||
07.06.2022, 18:21 | MasterWizz | Auf diesen Beitrag antworten » | ||
Ach ja klar, jetzt seh ichs! Bitte sag noch, ob ichs jetzt richtig verstanden habe: Für jeden Rangverlust von bekommt zwei Freiheitsgrade. Und ich würde mich sogar aus dem Fenster lehnen und behaupten, dass allgemeiner für mit und sich die Freiheitsgrad von berechnen über , kann das sein? Nur selbst wenn, hab ich grad gar keine Idee wie man das beweist xD |
||||
07.06.2022, 19:23 | Elvis | Auf diesen Beitrag antworten » | ||
Da möchte ich mich nicht festlegen. Sicher lässt sich diese Vermutung sehr viel schneller beweisen oder widerlegen als die riemannsche Vermutung. |
||||
07.06.2022, 19:48 | IfindU | Auf diesen Beitrag antworten » | ||
Wenn , so ist . Sei eine Basis von Kern. Für jeden Vektor kann man die Matrix definieren, wobei und das Tensorprodukt, d.h. . Dann sind die für linear unabhängig in . D.h. hat mindestens Freiheitsgrade. Dass es höchstens so viele sind... Da müsste ich auch überlegen Edit: Sei mit . Dann folgt trivial auch, dass im Kern von liegt. D.h. die Spalten von sind Vektoren im Kern von . Wären es mehr Freiheitsgrade als , könnte man sich mehr als linear unabhängige Vektoren von basteln. Details sind dem geneigten Leser überlassen |
||||
08.06.2022, 10:16 | MasterWizz | Auf diesen Beitrag antworten » | ||
Es macht mich immer wieder glücklich mich mit euch auszutauschen haha. Vielen Dank @Elvis und @IfindU |
|
Verwandte Themen
Die Beliebtesten » |
|
Die Größten » |
|
Die Neuesten » |
|