Rang einer Matrix

Neue Frage »

Sven1001 Auf diesen Beitrag antworten »
Rang einer Matrix
Hallo,
es geht um die Matrix C, deren Rang man in Abhängigkeit von a untersuchen soll.
Für a=0, ist die Matrix C die Einheitsmatrix. Wenn die Matrix dann aus r Spalten besteht,ist der Rang r. Somit hat sie vollen Rang und ist invertierbar. Die Inverse ist dann die Einheitsmatrix.
Sei : Dann will ich die reduzierte Zeilenstufenform herstellen. Diese ist ja fast ereicht. Es fehlen nur noch die 0 über 1. Ich muss also die -a zur Null machen.
Das würde ich dann so machen. Die Matrix habe n Zeilen. Dann nehme die n-1-Zeile und ziehe addiere das a-fache der letzten.
Dann nehme ich die n-2 und addiere das a fache auf die n-1 usw.
Am Ende erhalte ich wieder die Einheitsmatrix. Wenn r wieder die Spaltenanzahl ist, ist der Rang r und die Matrix invertierbar.
Ist das richtig Hammer smile
Elvis Auf diesen Beitrag antworten »

Ja, das ist richtig. Es ist sogar egal, ob a gleich 0 ist oder nicht. Wenn man das 0-fache einer Zeile zu einer anderen addiert, macht man auch nichts kaputt.
Sven1001 Auf diesen Beitrag antworten »

Danke. Weitere Fallunterscheidungen kann man ja nicht machen?




Die Matrix habe n Zeilen. Dann nehme die n-1-Zeile und ziehe addiere das a-fache der letzten.
Dann nehme ich die n-2 und addiere das a fache auf die n-1 usw.
Am Ende erhalte ich wieder die Einheitsmatrix. Wenn r wieder die Spaltenanzahl ist, ist der Rang r und die Matrix invertierbar.

Wie kann ich diesen Algorithmus mathematisch korrekt aufschreiben?
Elvis Auf diesen Beitrag antworten »

Das ist korrekt, denn ich habe es verstanden. Weil du und ich Mathematiker sind, können wir uns problemlos darauf verständigen, dass dein Beweis mathematisch korrekt ist. An der Wortwahl musst du noch ein wenig arbeiten: "ziehe addiere" ist natürlich Unsinn.

Du meinst und ich verstehe folgendes: Addiere nacheinander das a-fache der n.-ten Zeile zur n-1. ten Zeile, das a-fache der n-1.-ten Zeile zur n-2. ten Zeile, usw. und das a-fache der 2.-ten Zeile zur 1. ten Zeile. Man erhält die n-reihige Einheitsmatrix, also ist C invertierbar.
Sven1001 Auf diesen Beitrag antworten »

Zitat:
Du meinst und ich verstehe folgendes: Addiere nacheinander das a-fache der n.-ten Zeile zur n-1. ten Zeile, das a-fache der n-1.-ten Zeile zur n-2. ten Zeile, usw. und das a-fache der 2.-ten Zeile zur 1. ten Zeile. Man erhält die n-reihige Einheitsmatrix, also ist C invertierbar.


Danke Elvis Freude smile

Zitat:
ziehe addiere" ist natürlich Unsinn.


Du hast natürlich Recht. Ich habe wsl erst etwas subtrahieren wollen, habe mich dann aber doch dafür entschieden, etwas zu addieren und vergessen, dass ziehe zu entfernen Big Laugh

Ich habe noch eine Frage zu einem Beweis:

Wenn ich zwei quadratische Matrizen A,B. Ich soll zeigen, dass aus A*B=E folgt B*A=E.
Wenn das 1. gilt, dann ist doch die Matrix . Wie komme ich dann weiter.

Ich habe an gedacht. Aber dann müsste auch die Inverse zu B existieren?
Wie ist die Idee?
Elvis Auf diesen Beitrag antworten »

In jeder Gruppe ist zu jedem Element das inverse Element eindeutig bestimmt, und man kann nicht zwischen linksinversen und rechtsinversen Elementen unterscheiden.
Also ist .Natürlich ist A das inverse zu B und B das inverse zu A.
 
 
Sven1001 Auf diesen Beitrag antworten »

Wir haben leider noch nicht Gruppen in lineare Alegbra:

Als Hinweis ist gegeben, dasss wir folgende Sätze aus der Vorlesung nehmen sollen:

1.) A hat Zeilenstufenform A'=E_n
2.A=L^-1 wobei L^-1 A'=A also aus der ZSF die Ausgangsmatrix wieder herstellt.
3. A ist invertierbar.
4. Ax=0 hat nur die triviale Lsg.

Wie kann ich das hier verwenden?
Sven1001 Auf diesen Beitrag antworten »

Ich würde den Beweis so machen:



Nur es muss dann A^-1 existieren. Wie sehe ich das aus meinen oben geschriebenen Aussagen?
Elvis Auf diesen Beitrag antworten »

Das sieht gut aus, aber funktioniert nur, wenn das rechtsinverse auch linksinvers ist. Ich habe ohne Gruppentheorie keine Begründung dafür. Da ich weiß, dass die Einheitengruppe eines Rings eine Gruppe ist, würde ich deinen Beweis so akzeptieren.
Sven1001 Auf diesen Beitrag antworten »

Das mit den Gruppen hatten wir leider noch gar nicht. Siehst du eine ander Möglichkeit, das dann zu machen? Mit meinen Aussagen vllt? Hammer
Elvis Auf diesen Beitrag antworten »

Elementare Rechnung muss auch möglich sein, um zu zeigen, dass A^-1A=AA^-1 ist.
Sven1001 Auf diesen Beitrag antworten »

Einfach beide Seiten mit A von links multiplizieren oder
Wie beweise ich die Exiszenz der Inversen zu A. Vllt so :Nach der 1. Aussage gilt ja A'=E_n. Dann muss A invertiebar sein, weil es ein L^-1 gibt mit L^-1A'=A
verwirrt
Elvis Auf diesen Beitrag antworten »

Mit elementar meine ich elementweise. Wenn Summe(a_ik*b_kj) gleich 1 oder 0 die Einheitsmatrix ist, dann muss es auch Summe(b_ik*a_kj) sein.
Sven1001 Auf diesen Beitrag antworten »

Für was ist das jetzt der Beweis? verwirrt
Elvis Auf diesen Beitrag antworten »

Das wäre der elementare und direkte Beweis

Es muss möglich sei, den mittleren Schritt zu berechnen, sonst wäre die Theorie falsch.
Sven1001 Auf diesen Beitrag antworten »

Wo ist der kritische Schritt?
Wie verstehe ich deine Summe genau. Einmal übrr das k und auf der linken Seite i,j bis n?
Elvis Auf diesen Beitrag antworten »

ist eine Schreibweise für Matrizen. In den Produkten von Matrizen stehen Summenprodukte über Zeilen- und Spaltenvektoren.
Sven1001 Auf diesen Beitrag antworten »

Ok verstehe ich. Und wo soll der kritische Schritt sein?
Elvis Auf diesen Beitrag antworten »

Problem: Warum gilt
Hier wird die Reihenfolge der Matrizen vertauscht, deren Produkt AB die Einheitsmatrix ist. Warum ist dann BA gleich der Einheitsmatrix ?
Die elementare d.h. elementweise Rechnung ist nicht einfach. Erfahrungsgemäß sind elementare Rechnungen immer schwieriger als Rechnungen, die durch eine gute Theorie gestützt werden.

Wir haben - damals, das ist lange her - in der Vorlesung Lineare Algebra I einen vorbereitenden Teil gehabt bestehend aus (1) natürliche und ganze Zahlen, vollständige Induktion (2) Was ist ein Körper ? (3) Mengen und Abbildungen (4) Das Rechnen mit Matrizen (5) Gruppen (6) Gruppen und Geometrie . Danach fing der Hauptteil an mit (1) Vektorräume , ... Wenn man nichts über Gruppen und Körper weiß, wie definiert man dann einen Vektorraum ? Ein Vektorraum ist eine abelsche additive Gruppe (!) zusammen mit einem Körper (!), so dass eine Skalarmultiplikation gegeben ist und ein paar Rechenregeln gelten.
Sven1001 Auf diesen Beitrag antworten »

Danke für deine ausführliche Antwort. Ich verstehe was du meinst. Das Problem ist, wir haben davon nichts behandelt. Wir haben angefangen als Vorausgriff mit Matrizen zu rechen, also multiplizeren und addieren. Des weiteren Operationen mit Matrizen, die zur ZSF führen und das wars egtl.
Als Tipp haben wir bekommen, dass wir das verwenden sollen:

1.) A hat Zeilenstufenform A'=E_n
2.A=L^-1 wobei L^-1 A'=A also aus der ZSF die Ausgangsmatrix wieder herstellt.
3. A ist invertierbar.
4. Ax=0 hat nur die triviale Lsg.
Das hilft mir doch nur die Existenz von B=A^-1 nachzuweisen nach Satz 3 der aus 1 und 2 folgt. Das mit dem links und rechtsinvers muss ich dann wohl so stillschweigend anehmen verwirrt
Elvis Auf diesen Beitrag antworten »

Ja, da fällt mir momentan auch nichts besseres ein ... wenn du eine Lösung hast, lass es mich bitte wissen. Das Problem liegt wirklich darin, dass es Strukturen gibt, in denen man Linksinverse und Rechtsinverse unterscheiden muss. Es ist also für Matrizen nicht selbstverständlich, dass beide zusammenfallen, ist aber so.
Elvis Auf diesen Beitrag antworten »

Wir können auch argumentieren, dass jede quadratische Matrix bei gegebener Basis des Vektorraums die Darstellungsmatrix der linearen Abbildung ist. Ist invertierbar, so ist bijektiv und mit die Darstellungsmatrix der Umkehrabbildung . Also ist , und die Behauptung ist bewiesen.
Sven1001 Auf diesen Beitrag antworten »

Danke Elvis für deine Bemühungen. Ich verstehe deinen Beweis und ich kann mit deinen Begriffen etwas anfangen.Jedoch haben wir das noch gar nicht so betrachtet. Ich frage nochmal, ob ich das mit dem Links und Rechtsinvers annehmen darf und werde dir dann sagen, was dann letztendlich erwartet wird. Auf
jeden Fall habe ich unabhängig davon, dank dir gesehen, dass es verschiedeneMöglichkeiten gibt so etwas zu beweisen. Ich werde nochmal schreiben, falls ich noch etwas herausfinden sollte, aber die Aufgabe ist ja letztlich geklärt. smile smile
Danke dir bis hierhin Freude
Elvis Auf diesen Beitrag antworten »

Noch ein Tipp: Ax=0 hat nur die triviale Lösung ist gleichbedeutend damit, dass Ax=b für jedes b genau eine Lösung hat. Also ist die lineare Abbildung f(x)=Ax bijektiv also umkehrbar, also existiert die inverse Matrix, die zugleich linksinvers und rechtsinvers ist.
Damit hätten wir das Existenzproblem dann doch auf eine deiner Voraussetzungen zurück geführt.

Anmerkungen: Wenn man die Theorie der Multilinearformen, insbesondere der alternierenden Multilinearformen und speziell der Determinantenformen hat, kann man auch die Determinante einer Matrix definieren.
Eine quadratische Matrix ist genau dann invertierbar, wenn ihre Determinante ungleich 0 ist.
Eine quadratische Matrix ist genau dann invertierbar, wenn sie vollen Rang hat.
Eine quadratische Matrix ist genau dann invertierbar, wenn die zugehörige lineare Abbildung bijektiv ist.
Eine quadratische Matrix ist genau dann invertierbar, wenn das zugehörige LGS stets eindeutig lösbar ist.
Wie man sieht, gibt es zwischen vielen ganz unterschiedlichen Objekten in der Linearen Algebra mannigfache Beziehungen. Das ist es, was den Reiz einer Theorie und den Reiz der Mathematik insgesamt ausmacht. smile
Sven1001 Auf diesen Beitrag antworten »

Vielen Dank Elvis smile smile Freude . Kannst du mir vlllt noch erklären, wie man folgendes sieht:
Noch ein Tipp: Ax=0 hat nur die triviale Lösung ist gleichbedeutend damit, dass Ax=b für jedes b genau eine Lösung hat.
Ich freue mich schon darauf, diese Zusammenhänge, die du beschreibst dann richtig kennenzulernen. Der Reiz sich damit zu beschäftigen ist gänzlich auf mich übergesprungen. Big Laugh smile
Elvis Auf diesen Beitrag antworten »

Für jede Matrix mit Spalten und Zeilen über einem Körper ist die Lösungsmenge des homogenen LGS stets ein Untervektorraum , und für jedes ist die Lösungsmenge des inhomogenen LGS entweder eine Nebenklasse mit einer "speziellen Lösung" und der "allgemeinen Lösung des homogenen LGS" oder leer. Das ist die Lösungstheorie linearer Gleichungssysteme.

hat also genau dann nur die triviale Lösung , wenn entweder genau eine Lösung hat oder leer ist.

Lineare Algebra ist leicht zugänglich und relativ einfach zu verstehen. Es gibt vielfältige Anwendungsmöglichkeiten in Theorie (z.B. hat Emil Artin große Teile der Zahlentheorie auf der linearen Algebra aufgebaut) und Praxis (z.B. hat George Dantzig die lineare Optimierung über der linearen Algebra entwickelt und so dafür gesorgt, dass Millionen Computer sich heutzutage nicht nur langweilen).
Sven1001 Auf diesen Beitrag antworten »

Ok vielen Dank. Ich verstehe zwar nicht alle Begriffe, aber ich denke ich weis was du meinst smile Freude
Hast du egtl eine gute Buchempfehlung für lineare Algebra?
Elvis Auf diesen Beitrag antworten »

Ich hatte richtig gute Vorlesungen und habe Lineare Algebra viele Jahre lang intensiv genutzt. Daher gab es für mich keine Notwendigkeit, Literatur zum Thema zu verfolgen.
Ein Lehrbuch war für mich H.-J.Kowalsky, den empfehle ich aber nicht mehr, weil er eine andere Notation benutzt als sie schon vor 40 Jahren üblich war.
Dopap Auf diesen Beitrag antworten »

Sieh an, der gute alte Kowalsky. Wie klein doch die Welt ist. Augenzwinkern
Elvis Auf diesen Beitrag antworten »

Ich glaube, ich muss der guten Ordnung wegen noch sagen, warum ich Kowalsky nicht mehr uneingeschränkt empfehle.
Nachteil: Er verwendet durchgehend f(x)=xA statt f(x)=Ax für lineare Abbildungen. Das ergibt natürlich eine äquivalente Theorie, aber es ist für Anfänger sicher nicht einfach, damit zu lernen und gleichzeitig Aufgaben in der anderen Notation zu bearbeiten.
Vorteil: Sein Kapitel 11 über multilineare Algebra nehme ich immer wieder gern zur Hand, wenn ich versuche zu verstehen, warum der eine oder andere Physiker den Begriff Tensorprodukt verhunzt hat. (Sorry, liebe Physiker, ihr habt bestimmt auch gute Gründe für eure Notationen. Trotzdem hätte Dirac auf John von Neumann hören sollen, dann müsste ich mich in der Quantenmechanik weniger quälen.)
Dopap Auf diesen Beitrag antworten »

jetzt wo du es sagst kann ich mich erinnern, dass mich die ganze Transponiererei doch ziemlich ziemlich genervt hatte.
Das Buch steht heute noch im Regal, 'war ja auch nicht billig. Augenzwinkern
Wie Mathematik sich entwickelt sieht man auch sehr gut am "Bronstein" , verglichen mit der Ausgabe von 2005.
Neue Frage »
Antworten »



Verwandte Themen

Die Beliebtesten »
Die Größten »
Die Neuesten »