Beweis zur Summe von Untervektorräumen

Neue Frage »

MasterWizz Auf diesen Beitrag antworten »
Beweis zur Summe von Untervektorräumen
Hey Leute Wink

Gegeben seien die Matrizen

und

und die Untervektorräume

und

Die Aufgabe ist zu zeigen, dass (a) und (b)

Idee
Wenn ich und addiere, dann ergibt das mit , woraus folgt, dass und damit wäre (a) bewiesen, stimmt das? Und da M und L die Kerne linearer Abbildungen sind, folgt daraus dann auch, dass das Bild von gleich der , was direkt (b) beweist?
Elvis Auf diesen Beitrag antworten »

Da ich leider nicht klug genug bin um deinen Beweis zu verstehen, würde ich a) direkt beweisen, indem ich eine allgemeine Matrix mit und multipliziere und die Koeffizienten vergleiche. Teil b) beweise ich dann mit einem Dimensionsargument für die direkte Summe .
MasterWizz Auf diesen Beitrag antworten »

Du bist wahrscheinlich 10 mal so klug wie ich haha. Das mit dem direkt beweisen in (a) hab ich tatsächlich auch noch gemacht, ich hatte nur gehofft, dass es sich mit Matrizen genauso wie auch mit Vektoren verhält und ich aus auch auf hätte schließen können. Aber wenn du das nicht weißt, dann gibts das wahrscheinlich auch nicht xD

Und meinst du bei (b) mit "Dimensionsargument", dass wenn der Kern der linearen Abbildung nur die "Null" enthält, dann hat das Bild von die Dimension 2 und daraus lässt sich (b) folgern? Falls ja, versteh ich noch nicht ganz wieso verwirrt
Elvis Auf diesen Beitrag antworten »

Bei a) erkenne ich aus dem Argument mit der Determinante und dem Determinantenmultiplikationssatz nur, dass gilt, aber nicht, warum daraus folgt.
zu b) , ist direkt wegen a) , also ist
IfindU Auf diesen Beitrag antworten »

@Elvis: Du musst ja nicht erst auf die Determinante loslassen. Aus folgt ist invertierbar und damit darf man von links mit multiplizieren und bekommt .
MasterWizz Auf diesen Beitrag antworten »

@IfindU: Richtig starke Idee für (a)!!
@Elvis: Dass wegen (a) folgt, dass es sich um eine direkte Summe handelt, habe ich verstanden. Das ist ja quasi die Definition. Nur kannst du mir bitte noch mal kurz auf die Sprünge helfen, wie du auf die Dimensionen von M und L kommst?
 
 
Elvis Auf diesen Beitrag antworten »

Das sehe ich daran, welche Komponenten die Matrizen X in M bzw. L haben, die den Bedingungen AX=0 bzw. BX=0 genügen. Wie diese Matrizen aussehen, habe ich ja schon im Teil a) berechnet. Ein Physiker würde sagen "zwei Freiheitsgrade, also Dimension 2".
IfindU Auf diesen Beitrag antworten »

Zitat:
Original von MasterWizz
@IfindU: Richtig starke Idee für (a)!!

Das war doch deine Idee (die ich ziemlich cool finde). Das war nur eine mögliche formale Begründung für den letzten Schritt.
MasterWizz Auf diesen Beitrag antworten »

@IfindU: Danke dir!! Ich lern hier ja auch von den Besten. Ich mein neben anderen euch beide smile

@Elvis: Also zählst du im Grunde einfach die Unbekannten zusammen, die "frei" bleiben. Kann ich denn dann auch einfach so hier argumentieren: A hat einen Rang von 1. Wenn X aus 1er Spalte besteht, dann hat M eine Dimension von 1*1. Wenn X aus 2 Spalten besteht, dann hat M eine Dimension von 1*2,...?
Elvis Auf diesen Beitrag antworten »

X ist per def eine 2x2-Matrix. Besteht also immer aus 4 Komponenten. Der Witz ist, dass diese nicht unabhängig sind. Jeweils 2 sind frei, die beiden anderen davon abhängig. 2 freie Variable in X, also hat der VR aller X in M und ebenso der Vektorraum aller X in L jeweils die Dimension 2.
MasterWizz Auf diesen Beitrag antworten »

Aber das ist ja abhängig vom Rang der Matrix A. Wäre A zum Beispiel die Einheitsmatrix, dann hätte X plötzlich 4 "Freiheitsgrade" und damit M die Dimension 4, richtig? Ich möchte nur gern allgemein den Zusammenhang zwischen dem Rang von A und der Dimension von M verstehen.
Elvis Auf diesen Beitrag antworten »

Nicht ganz falsch und nicht ganz richtig. Für die Einheitsmatrix I ist der Vektor X=0 der einzige Vektor für den IX=0 ist, also hat X 0 Freiheitsgrade, und der von I annullierte UVR ist der Nullraum. Richtig ist, dass der von einer Matrix annullierte UVR von der Matrix abhängt. Das siehst du ja auch daran, dass A einen anderen UVR annulliert als B.
Je höher der Rang r der annullierenden Matrix, desto kleiner die Dimension d des annullierten Untervektorraums: r=2,d=0; r=1,d=2; r=0,d=4.
MasterWizz Auf diesen Beitrag antworten »

Ach ja klar, jetzt seh ichs! Bitte sag noch, ob ichs jetzt richtig verstanden habe:

Für jeden Rangverlust von bekommt zwei Freiheitsgrade. Und ich würde mich sogar aus dem Fenster lehnen und behaupten, dass allgemeiner für mit und sich die Freiheitsgrad von berechnen über , kann das sein? Nur selbst wenn, hab ich grad gar keine Idee wie man das beweist xD
Elvis Auf diesen Beitrag antworten »

Da möchte ich mich nicht festlegen. Sicher lässt sich diese Vermutung sehr viel schneller beweisen oder widerlegen als die riemannsche Vermutung.
IfindU Auf diesen Beitrag antworten »

Zitat:
Original von MasterWizz
Ach ja klar, jetzt seh ichs! Bitte sag noch, ob ichs jetzt richtig verstanden habe:

Für jeden Rangverlust von bekommt zwei Freiheitsgrade. Und ich würde mich sogar aus dem Fenster lehnen und behaupten, dass allgemeiner für mit und sich die Freiheitsgrad von berechnen über , kann das sein? Nur selbst wenn, hab ich grad gar keine Idee wie man das beweist xD


Wenn , so ist . Sei eine Basis von Kern. Für jeden Vektor kann man die Matrix definieren, wobei und das Tensorprodukt, d.h. . Dann sind die für linear unabhängig in . D.h. hat mindestens Freiheitsgrade. Dass es höchstens so viele sind... Da müsste ich auch überlegen Augenzwinkern

Edit: Sei mit . Dann folgt trivial auch, dass im Kern von liegt. D.h. die Spalten von sind Vektoren im Kern von . Wären es mehr Freiheitsgrade als , könnte man sich mehr als linear unabhängige Vektoren von basteln. Details sind dem geneigten Leser überlassen Big Laugh
MasterWizz Auf diesen Beitrag antworten »

Es macht mich immer wieder glücklich mich mit euch auszutauschen haha. Vielen Dank @Elvis und @IfindU smile
Neue Frage »
Antworten »



Verwandte Themen

Die Beliebtesten »
Die Größten »
Die Neuesten »