Matrizen-Äquivalenz: Invertierbarkeit <=> Ax = 0 nur trivial lösbar

Neue Frage »

MrASquare Auf diesen Beitrag antworten »
Matrizen-Äquivalenz: Invertierbarkeit <=> Ax = 0 nur trivial lösbar
Meine Frage:
Folgende Äquivalenz ist zu beweisen:

Für alle quadratischen n×n-Matrizen A gilt:
A ist invertierbar <=> Ax = 0 besitzt keine nichttriviale Lösung für x.

(Mit nichttriviale Lösung ist eine Lösung verschieden von x = 0 gemeint, Ax = A*x ist die Matrixmultiplikation)

Meine Ideen:
Das ist meine Idee zur "=>"-Richtung:

Ist A invertierbar, so existiert ein B mit der Eigenschaft AB = n×n-Einheitsmatrix = BA. Für eine beliebige Lösung t für x in der Gleichung Ax = 0 gilt dann: At = 0 <=> B(At) = B*0 <=> (BA)t = 0 <=> n×n-Einheitsmatrix * t = 0 <=> t = 0. Also gilt für jede Lösung für x von Ax = 0, dass sie gleich 0, also trivial ist, also existieren keine nichttrivialen Lösungen.

Kann man das bis dahin so machen?

Für die andere Richtung ("<=") fehlen mir irgendwie die Ideen: Ich muss ja damit anfangen, dass für alle x ungleich 0 gilt, dass Ax ungleich 0 ist, und daraus irgendwie schließen, dass ein B existiert, sodass AB = BA = n×n-Einheitsmatrix. Hat jemand eine Idee für einen Ansatz?
klarsoweit Auf diesen Beitrag antworten »
RE: Matrizen-Äquivalenz: Invertierbarkeit <=> Ax = 0 nur trivial lösbar
Zitat:
Original von MrASquare
Ist A invertierbar, so existiert ein B mit der Eigenschaft AB = n×n-Einheitsmatrix = BA. Für eine beliebige Lösung t für x in der Gleichung Ax = 0 gilt dann: At = 0 <=> B(At) = B*0 <=> (BA)t = 0 <=> n×n-Einheitsmatrix * t = 0 <=> t = 0. Also gilt für jede Lösung für x von Ax = 0, dass sie gleich 0, also trivial ist, also existieren keine nichttrivialen Lösungen.

Ist für meinen Geschmack etwas kompliziert geschrieben. Du kannst in der Gleichung Ax = 0 auch direkt von links mit der inversen Matrix multiplizieren. Und bitte sei vorsichtig mit den Äquivalenzpfeilen.

Für die andere Richtung wäre zu klären, ob man auf Aussagen wie
det(A) ungleich Null <==> A ist invertierbar
zurückgreifen darf.
MrASquare Auf diesen Beitrag antworten »

Danke für die Antwort! smile

Zitat:
Ist für meinen Geschmack etwas kompliziert geschrieben. Du kannst in der Gleichung Ax = 0 auch direkt von links mit der inversen Matrix multiplizieren. Und bitte sei vorsichtig mit den Äquivalenzpfeilen.


Ok, dann kürze ich das damit ein bisschen ab und mache aus den Äquivalenzpfeilen stattdessen "=>"-Folgepfleile (was ja genügen sollte, wenn ich in dem Schritt nur die "=>"-Richtung zeigen will.

Zitat:
Für die andere Richtung wäre zu klären, ob man auf Aussagen wie
det(A) ungleich Null <==> A ist invertierbar
zurückgreifen darf.


Nein, Determinante ist noch nicht im Repertoire...
klarsoweit Auf diesen Beitrag antworten »

OK. Wir haben also als Voraussetzung, daß die Gleichung Ax = 0 nur von dem Nullvektor gelöst wird.

Zeige als erstes, daß die Menge der Vektoren linear unabhängig ist. (e_i bezeichne den i-ten Einheitsvektor.)
MrASquare Auf diesen Beitrag antworten »

Zitat:
Zeige als erstes, daß die Menge der Vektoren linear unabhängig ist. (e_i bezeichne den i-ten Einheitsvektor.)

Also ergibt die -te Spalte von , dementsprechend ist die Menge die Menge aller Spalten von .
kann allgemein als



dargestellt werden. Zu zeigen ist dann, dass die Menge aller Spalten von linear unabhängig ist, also



Die linke Seite der Implikation wird dann umgeformt:







Also ist . Per Voraussetzung ist bekannt, dass der Nullvektor ist. Also gilt , die Spalten sind linear unabhängig.

So weit, so gut. Aber wie schließe ich jetzt von der linearen Unabhängigkeit der Spalten auf die Invertierbarkeit der Matrix?
klarsoweit Auf diesen Beitrag antworten »

Der Beweis ist formal ok, läßt sich aber in meinen Augen etwas eleganter schreiben.

Angenommen, die Menge der Vektoren wäre linear abhängig. Dann gäbe es x_i (i=1,...,n), die nicht alle gleich Null sind, so daß ist. Wegen der Linearität der Matrixmultiplikation ist .

Da e_i die Einheitsvektoren sind, ist eine Lösung von A*x = 0. Dies steht im Widerspruch dazu, daß A*x = 0 nur die triviale Lösung hat.

Wir haben also, daß die Menge der Vektoren linear unabhängig ist. Mithin bildet diese eine Basis des Vektorraums K^n und somit gibt es zu jedem Einheitsvektor e_j einen Vektor v_j mit . Definiere die Matrix B, deren Spalten aus den Vektoren v_j gebildet wird. Überlege nun, was A * B ist. smile
 
 
MrASquare Auf diesen Beitrag antworten »

Ok, ich denke, ich habe es jetzt soweit verstanden: Aus der gezeigten linearen Unabhängikeit der Spalten von und der Tatsache, dass insgesamt schon Spalten besitzt (also genauso viele Vektoren wie die Standardbasis des ) folgt, weil alle Basen eines Vektorraums gleich mächtig sind, dass die Spalten von eine Basis des sind, also kann jeder Einheitsvektor als Linearkombination der Spalten von dargestellt werden (da Basen Erzeugendensysteme sind), also gilt:



Zu jedem gibt es also ein , sodass ist. Und wenn man jetzt definiert als die Matrix, die als Spalten die enstprechenden Vektoren zu allen Einheitsvektoren besitzt, dann ergibt die Matrixmultiplikation eine -Einheitsmatrix, womit die Invertierbarkeit, also die Existenz des Inversen gezeigt ist.

Stimmt das alles soweit?
klarsoweit Auf diesen Beitrag antworten »

Ja, das entspricht meinem Beweiskonzept. smile
MrASquare Auf diesen Beitrag antworten »

Alles klar, vielen Dank für die Hilfe! Freude

Nur noch eine kurze Frage: es ist jetzt ja gezeigt, dass (-Einheitsmatix) gilt.
Jetzt sollte ich auch beweisen, damit die Definition der Invertierbarkeit erfüllt ist.

Genügt es das so zu zeigen?

Es gilt
Wegen folgt:

Wegen der Assoziativität der Matrixmultiplikation folgt:

Und deshalb ist auch
klarsoweit Auf diesen Beitrag antworten »

Zitat:
Original von MrASquare
Jetzt sollte ich auch beweisen, damit die Definition der Invertierbarkeit erfüllt ist.

Nun ja, im Grunde ist der Nachweis überflüssig, denn es gehört zu den Eigenschaften einer Gruppe, daß für ein inverses Element gilt: . Augenzwinkern
Neue Frage »
Antworten »



Verwandte Themen

Die Beliebtesten »
Die Größten »
Die Neuesten »