lineare Unabhänigkeit |
08.09.2004, 11:04 | Nicocle | Auf diesen Beitrag antworten » | ||
lineare Unabhänigkeit Zeige: eine Menge von Vektoren ist linear unabhängig, wenn die Matrix eine Dreiecksmatrix mit nicht verschwindender Determinante ist. Also z.B.: Wie kann man das denn verallgemeinern? Und was heißt "nicht verschwindende" Determinante? ...bei einer oberen Dreiecksmatrix ist die Determinante das Produkt ihrer Diagonalelemente, also müssten alle Diagonalelemente ungleich 0 sein. |
||||
08.09.2004, 11:17 | Tobias | Auf diesen Beitrag antworten » | ||
V hat eine nicht verschwindende Determinante, wenn . Ich weiss leider nicht, was du voraussetzen darfst. Man könnte z.B. mit dem Rang der Matrix und dem Spaltenraum argumentieren. Oder man zeigt: Sind die Vektoren l.a., so verschwindet die Determinante. |
||||
08.09.2004, 11:38 | Nicocle | Auf diesen Beitrag antworten » | ||
{v_1,...,v_n} sind l. u. wenn Rg(V)=n. Spaltenraum sagt mir gar nix?! ..irgendwie hilft mir das nicht weiter |
||||
08.09.2004, 12:15 | Mazze | Auf diesen Beitrag antworten » | ||
Zeig doch das Gegenteil die Vektoren sind linearer abhängig genau dann wenn die Determinante = 0. Wenn Du die genau dann wenn beziehung gezeigt hast folgt unmittelbar die Behauptung, das die Vektoren linear unabhängig sind wenn die Determinante nicht 0 ist. (So hab ich den Beweis damals geführt) zZ: "<=" Die Rückrichtung ist einfach , da bei linearer Abhängigkeit gilt das ein Vektor darstellbar durch die anderen ist kann man eine Nullspalte erzeugen. Aus der Nullspalte folgt unmittelbar das die Determinante = 0 ist. "=>" Hier nutzen wir die Eigenschaft das das homogene Gleichungssystem bei Determinante = 0 min. eine nichttriviale Lösung besitzt und somit lineare Abhängigkeit für gilt. Damit ist die Genaudannwenn-Beziehung gezeigt. Und aus dieser folgt dann die eigentliche Aussage. Man kanns auch direkt machen Wir wissen das was heißt das für das zugehörige homogene Gleichungssystem Ax = 0 ? Daraus folgt unmittelbar die lineare Unabhängigkeit edit Für den Direktbeweis genügt die tatsache das eine Matrix invertierbar ist wenn die Determinante nicht 0 ist! |
||||
08.09.2004, 12:16 | Ben Sisko | Auf diesen Beitrag antworten » | ||
So wie die Aufgabe hier steht ist zu zeigen: Hast du die Aufgabe genau abgeschrieben, Nicocle? Wenn sie das ist, dann ist sie nicht so schwer. Du hast ja selbst schon gesagt, dass bei einer Dreiecksmatrix die Determinante das Produkt der Diagonalelemente ist und du weißt, dass die Determinante ungleich Null ist. Was weißt du also über die Diagonalelemente? Die lineare Unabhängigkeit ist dann nicht mehr schwer. Gruß vom Ben Edit: @Mazze, du hast nicht genau genug hingeschaut, es geht dort um Dreiecksmatrizen und es gilt kein genau dann wenn. |
||||
08.09.2004, 12:19 | Bruce | Auf diesen Beitrag antworten » | ||
Moin Nicole, (die Anderen waren zwar schneller, aber jetzt wo ich es schon mal geschrieben habe soll es auch veröffentlicht werden ) falls Du nicht voraussetzen darfst, daß die Determinante von V das Produkt ihrer Diagonalelemente ist, dann zeigst Du das einfach durch Anwendung des Laplaces'schen Entwicklungssatzes. Nachdem also klar ist, daß die Diagonalelemente von V nicht verschwinden, kannst Du die Gleichung Vx=0 auflösen, indem Du die Komponenten von x explizit berechnest. Du mußt dir das nur an einem Beispiel (meinetwegen 3 dimensional) klar machen, dann ist die Verallgemeinerung fast trivial. Zuerst folgt z.B. x_n=0 und daraus x_n-1=0 und so weiter bis x_1. Gruß von Bruce. |
||||
Anzeige | ||||
|
||||
08.09.2004, 12:21 | Mazze | Auf diesen Beitrag antworten » | ||
@Ben Der allgemeine Beweis umfasst unter anderem dann auch die Dreiecksmatrizen, ich seh das Problem nicht wirklich? Ist die Determinante ungleich 0 für Dreiecksmatrizen folgt auch automatisch lineare Abhängigkeit, und eine Dreiecksmatrix ist genauso invertierbar für Det(a) != 0! |
||||
08.09.2004, 12:24 | Ben Sisko | Auf diesen Beitrag antworten » | ||
Warum soll sie denn eine Aufgabe bearbeiten, die weit über das hinausgeht, was sie eigentlich machen soll? Von allein wüsste sie doch u.U. gar nicht, dass so eine Aussage gilt. |
||||
08.09.2004, 12:29 | Tobias | Auf diesen Beitrag antworten » | ||
Zeigt man also, dass bei l.a. Vektoren eine Null auf der Diagonale erzeugt werden kann, so ist dies ein gültiger Beweis. Warum zitierst du das, Kapitän Sisko? |
||||
08.09.2004, 12:35 | Mazze | Auf diesen Beitrag antworten » | ||
Hm, wir hatten die lineare Abhängigkeit damals bei Vektorräumen eingeführt, ich kannte also die Invertierbarkeit schon. Wenn mans nicht vorrausetzen darf dann :P. Der (direkte) Beweis über die Inverse ist halt n 2-Zeiler. Hm, ansonsten ginge wohl die Argumentation über die nullen bei weil sich halt über die 2 Nullen vom ersten Vektor die Komponent der anderen nicht erreichen lassen etc. . Müsste man dann nur allgemeiner formulieren. |
||||
08.09.2004, 13:05 | Ben Sisko | Auf diesen Beitrag antworten » | ||
Hab das zu schnell gelesen und und l.u. gedacht, statt an l.a. und das wäre die andere Richtung gewesen. Entschuldige! Gruß vom Ben |
||||
08.09.2004, 16:39 | Nicocle | Auf diesen Beitrag antworten » | ||
Die Diagonalelemente dürfen nicht 0 sein, weil sonst die Determinante von V=0 wäre. Aus der Gleichung folgt das ist. Also ist die Menge von linear unabhängig, weil nur die triviale Linearkombination den Nullvektor liefert. ..könnte man das so schreiben? |
||||
08.09.2004, 17:25 | Mazze | Auf diesen Beitrag antworten » | ||
Es ist zwar unmittelbar einsichtig das die lineare Unabhängigkeit folgt aber vieleicht solltest Du ums besser zu zeigen das Gleichungssystem komplett aufschreiben. Dann sieht mans besser, oder aber Du lößt das System von unten nach oben. Die Idee ist schon richtig so. |
|
Verwandte Themen
Die Beliebtesten » |
Die Größten » |
|
Die Neuesten » |