A^n diagonalisierbar und A invertierbar => A diagonalisierbar

Neue Frage »

hilbert23 Auf diesen Beitrag antworten »
A^n diagonalisierbar und A invertierbar => A diagonalisierbar
Meine Frage:
Ich habe folgende Aufgabenstellung:
A Mat(nxn,), A GL(n,), ist diagonalisierbar für m
A ist diagonalisierbar

Meine Ideen:
Da A Mat(nxn,), ist A ähnlich zu einer Matrix in Jordanform, s. d. ich mir die Aufgabe zunächst für Matrizen mit Jordanform J gestellt habe und sie dann mit Ähnlichkeitstransformationen leicht auf beliebige Matrizen hoffe übertragen zu können.
Zur weiteren Vereinfachung habe ich mir die Aufgabe zunächst für m = 2 gestellt:

diagonalisierbar

= D ; D Diagonalmatrix, T GL(n,)
...


Klar, wenn Diagonalgestalt hätte, wäre ich fertig. Aber warum sollte das so sein?
IfindU Auf diesen Beitrag antworten »
RE: A^n diagonalisierbar und A invertierbar => A diagonalisierbar
Ich weiß auch nicht wie man mit deinem Ansatz weitermachen kann. Aber eine abstraktere Idee: Eine Matrix ist diagoanlisierbar genau dann wenn eine Basis aus Eigenvektoren entsteht.

D.h. du hast eine Basis von Eigenvektoren für . Und noch folgender Fakt: Eine invertierbare Abbildung bildet eine Basis auf eine Basis ab.

Damit kannst du eine Basis von Eigenvektoren für konstruieren.
sibelius84 Auf diesen Beitrag antworten »

Hi,

dass A^m diagonalisierbar ist, bedeutet ja äquivalent, dass das Minimalpolynom von A^m in einfache Linearfaktoren zerfällt:

alle Eigenwerte lambda_i paarweise verschieden. Insbesondere wissen wir damit



Oder anders formuliert: Das Polynom erfüllt p(A)=0.

Nun haben es ja algebraisch abgeschlossene Körper wie so an sich, dass wir aus jedem Element des Körpers beliebige Wurzeln ziehen können. Ferner, haben wir zu einem lambda eine m-te Wurzel alpha gefunden, so dass also , so wissen wir, dass die weiteren m-ten Wurzeln sind, und dass dies alles einfache Nullstellen des Polynoms sind, denn es sind ja bereits m Stück und aus Gradgründen kann es keine weiteren geben.
Also können wir uns das Polynom p nehmen und jeden Faktor in m Linearfaktoren zerlegen.

Mit p(A)=0 kannst du daraus folgern, dass das Minimalpolynom von A in einfache Linearfaktoren zerfällt, was äquivalent bedeutet, dass A diagonalisierbar ist.

LG
sibelius84
IfindU Auf diesen Beitrag antworten »

Zitat:
Original von sibelius84
Hi,

dass A^m diagonalisierbar ist, bedeutet ja äquivalent, dass das Minimalpolynom von A^m in einfache Linearfaktoren zerfällt:
alle Eigenwerte lambda_i paarweise verschieden.


Damit ist also die Einheitsmatrix nicht diagonalisierbar? Sie hat nur den Eigenwert 1.
sibelius84 Auf diesen Beitrag antworten »

Zitat:
Original von IfindU
Zitat:
Original von sibelius84
Hi,

dass A^m diagonalisierbar ist, bedeutet ja äquivalent, dass das Minimalpolynom von A^m in einfache Linearfaktoren zerfällt:
alle Eigenwerte lambda_i paarweise verschieden.


Damit ist also die Einheitsmatrix nicht diagonalisierbar? Sie hat nur den Eigenwert 1.


Ja, und das Minimalpolynom T-1. Ihr Minimalpolynom zerfällt also in einfache Linearfaktoren.

Zum oberen Post:

In diese Richtung hatte ich auch zunächst überlegt und dann nach kritischem Gegenlesen das Ergebnis einer knappen halben Stunde Arbeit wieder ersatzlos streichen müssen traurig Ich hatte da stehen

(Vorsicht, falsch!)

.

Wenn das so wäre, könnte man sich weiter nun tatsächlich mit der Invertierbarkeit der Matrix A überlegen, dass diese Vektoren A^{m-1}x wiederum eine Basis von C^n bilden. Das Problem ist nur: Damit A^{m-1}x ein Eigenvektor ist, müsste ja gelten

.

Gemerkt habe ich es daran, dass es mir komisch vorkam, dass die Matrizen die selben Eigenwerte haben sollten. Etwa ist ja und der Satz sagt nun, dass die linke Matrix diagonalisierbar ist, weil es die rechte ist. Die rechte hat aber den doppelten EW -1, und die linke hat die EWe +/-i.
IfindU Auf diesen Beitrag antworten »

Entschuldige, ich hatte Minimalpolynom glatt überlesen.

Was die Eigenwerte angeht, so sind Eigenwerte von , dann sind die Eigenwerte von . Und sind die Eigenvektoren von , so sind sie es auch von .

Da die Eigenvektoren eine 1 zu 1 Beziehung haben müssen, während die m-te Wurzel alles andere als injektiv ist, wollte ich mit der Basis argumentieren. Allerdings fällt es mir gerade schwer es nachzuweisen...
 
 
hilbert23 Auf diesen Beitrag antworten »
Invertierbarkeit von A
Hi,

vielen Dank für die Mühe.


Ich hielt deinen Beweis in der ersten Durchsicht zunächst für wasserdicht, bis mir auffiel, dass du die Voraussetzung A GL(n,)
in deinem Beweis nicht verwendest. Wenn dein Beweis stimmt, hat das zur Konsequenz, dass Diagonalisierbarkeit von A äquivalent mit der Diagonalisierbarkeit
von ist. Dies kam mir merkwürdig vor, s. d. ich deinen Beweis nochmals durchgegangen bin.

Wenn ich in dem Minimalpolynom von zwei ungleiche Nullstellen habe, welche den gleichen Betrag haben
aber eine geeignete Phasenverschiebung besitzen, so zerfällt dein p(A) in mehrfache Linearfaktoren, obwohl das Minimalpolynom von es nicht tut.

Damit ist der letzte Schluss deines Beweises hinfällig.

Irgendwie muss man in deinen Beweis noch die Invertierbarkeit von A einbringen.

Gruß
hilbert23
sibelius84 Auf diesen Beitrag antworten »

Hi,

stimmt, du hast völlig Recht. Etwa wenn A nilpotent ist (insbesondere dann nicht invertierbar) und nicht die Nullmatrix, dann ist ja A^n=0 diagonalisierbar und A ist es nicht. Irgendwo muss in meinem Beweis demnach eine undichte Stelle sein. An so etwas, wie du sagtest, mit Nullstellen vom selben Betrag hatte ich auch gedacht. Aber:

Wäre für irgendwelche geeigneten d, j und k

, so wäre auch

, also

, im Widerspruch zur Voraussetzung.

Aber:
Eine Matrix ist invertierbar genau dann, wenn 0 nicht im Spektrum ihrer Eigenwerte liegt. 0 ist ein Eigenwert einer Matrix genau dann, wenn das Minimalpolynom durch T teilbar ist. Und wenn das Minimalpolynom von A^m den Faktor T enthielte, dann enthielte mein p tatsächlich den mehrfachen Faktor T^m und das Ganze würde nicht mehr funktionieren. Die fehlende Voraussetzung ist also hinter dem Minimalpolynom:

, da A invertierbar.

Wirklich schön, hier mal mit einem Nachfragenden auf diesem Niveau schreiben und argumentieren zu können smile

LG
sibelius84
hilbert23 Auf diesen Beitrag antworten »
Alternativer Beweis
Hi,

vielen Dank, jetzt ist dein Beweis komplett.


Hier noch ein alternativer Beweis der Behauptung von mir mittels einer Basis aus Eigenvektoren:

Sei m :

Da diagonalisierbar =>
Es exisiert Basis () aus Eigenvektoren von =>
für i = 1,...,n (1)

Da für i = 1,...,n

Multiplikation der Gleichungen (1) von links mit = ergibt:
für i = 1,...,n =>
für i = 1,...,n

Bei dem letzten Schritt habe ich die bekannte Tatsache benutzt, dass ein Eigenvektor einer invertierbaren Matrix auch Eigenvektor der inversen Matrix mit dem reziproken Eigenwert ist.

=> Die Basis () sind (auch) Eigenvektoren von A =>
A ist diagonalisierbar qed.


Gruß
hilbert23
hilbert23 Auf diesen Beitrag antworten »
RE: Alternativer Beweis
Nachtrag: Habe gerade gesehen, dass ich bei meinem alternativen Beweis gar keinen algebraisch abgeschlossenen Körper benötige. Daher gilt die Behauptung auch schon für A GL(n,K) ,K Körper.
sibelius84 Auf diesen Beitrag antworten »

Betrachte und . Dann ist diagonalisierbar; als Basis von Eigenvektoren kann man zum Beispiel nehmen. Das sind aber sicher keine Eigenvektoren von A.

Also braucht man die algebraische Abgeschlossenheit. Dann wäre zumindest A diagonalisierbar. Das mit den Eigenvektoren funktioniert so trotzdem nicht. Wenn man die Behauptung zur Äquivalenz ergänzt, glaube ich, ist dies hier wirklich ein gutes Beispiel für eine Aussage, deren Hinrichtung man auf einem anderen Weg zeigt als die Rückrichtung.
hilbert23 Auf diesen Beitrag antworten »

Dir ist ein mich überzeugendes Gegenbeispiel eingefallen.

Jetzt frage ich mich nur, wo die undichte Stelle in meinem Beweis ist.

Und weiter: Betrifft es jetzt nur GL(n,K), oder gar GL(n,) ?
NurEinGast Auf diesen Beitrag antworten »

Dein Fehler liegt darin, dass du schon annimmst, wäre ein Eigenvektor von .

Wie sibelius84 gezeigt hat, ist die Aussage falsch, wenn man über arbeitet. Man muss also in der Aufgabe irgendwo nutzen, dass man über ist.

Bringe auf Jordansche Normalform, d.h. es existiert ein , sodass in Jordanscher Normalform ist.

Wir können o.B.d.A. annehmen, dass ein Jordankästchen ist.

Nun kann man die Matrix berechnen und weiß von dieser, dass sie diagonalisierbar ist. Insbesondere muss diagonalisierbar sein.

Du kannst nun zeigen (hier benutzt man dann auch die Invertierbarkeit von und noch einmal maßgeblich, dass man über arbeitet), dass gilt

diagonalisierbar ist Diagonalmatrix.

Dabei musst du mal schauen, welche der verschiedenen äquivalenten Charakterisierungen von Diagonalisierbarkeit hier nützlich sein könnte.
NurEinGast Auf diesen Beitrag antworten »

Um etwas präziser zu sein:

Im Allgemeinen setzt sich die JNF von natürlich aus Blöcken der Kästchen zusammen. Zeigt man nun, dass eine Diagonalmatrix ist, so folgt, dass eine -Matrix ist, d.h. alle Jordankästchen von haben die Größe und somit ist diagonalisierbar.
hilbert23 Auf diesen Beitrag antworten »

Ich nehme gar nichts an, sondern ich rechne schlicht aus.
Welcher konkreter Schritt meines Beweises ist denn nun fraglich?
Ja, der Beweis kollidiert offensichtlich mit dem Gegenbeispiel von sibelius84 in nicht algebraisch abgeschlossenen Körpern.
Bin für konkrete Beiträge, die mir den Finger in die Wunde meines Beweises legen dankbar.
Bitte nur ernstgemeinte Zuschriften
NurEinGast Auf diesen Beitrag antworten »

Zitat:
Original von hilbert23
Bin für konkrete Beiträge, die mir den Finger in die Wunde meines Beweises legen dankbar.
Bitte nur ernstgemeinte Zuschriften


Deine Antwort ist so dermaßen frech und unangebracht, dass ich mir wünschte, ich hätte gar nichts geschrieben.

Hab ich dir nicht konkret den Fehler in deiner Argumentation genannt? Du musst einfach nur mal darüber nachdenken. Ich bin raus.
sibelius84 Auf diesen Beitrag antworten »

Hallo hilbert 23,

das mit "nur ernstgemeinte Zuschriften" gefällt mir Big Laugh

NurEinGast hat aber völlig Recht:



.

So weit, so gut und richtig. Aber



stimmt im Allgemeinen nicht. Denn du darfst ja nur benutzen, dass x_i ein Eigenvektor von A^m ist, und nicht annehmen, dass er ein Eigenvektor von A ist.
hilbert23 Auf diesen Beitrag antworten »

Ja, NurEinGast hat völlig Recht.

Die philosophische Debatte, ob mein Fehler im Beweis nun darauf beruht, dass ich mich verrechnet habe (dies ist mein Standpunkt) oder eine falsche Annahme getroffen habe, möchte ich euch und mir an dieser Stelle ersparen.

Nach dem überzeugenden Gegenbeispiel von sibelius84 war mein Beweis ohnehin zum Scheitern verurteilt, da er ja an keiner Stelle einen algebraisch abgeschlossenen Körper voraussetzte.
hilbert23 Auf diesen Beitrag antworten »
RE: A^n diagonalisierbar und A invertierbar => A diagonalisierbar
Hier nun der von NurEinGast angeregte alternative Beweis über Jordansche Normalformen, der endlich auch die algebraische Abgeschlossenheit von würdigt:

Der Beweis verläuft in drei Schritten. Zunächst beweise ich die Aussage für Jordanblöcke, dann für Jordanformen und schließlich für allgemeine komplexe quadratische Matrizen.

Für den gesamten Beweis benötige ich einige Hilfssätze, die ich im Folgenden nur formuliere:
(Wer mehr zu den Details der dazugehörigen Beweise wissen will kann gerne nachfragen)

Hilfssatz 1:
Sei n , Jordanblock
Dann sind folgende beiden Aussagen äquivalent:
(i) diagonalisierbar
(ii) n = 1

Hilfssatz 2:
Für alle Matrizen A Mat(nxn, ) gilt:
A = D+N (Matrix D diagonalisierbar und Matrix N nilpotent), wobei DN = ND.



Hilfssatz 3:
Sei K Körper und A Mat(nxn, K) eine Matrix mit der Gestalt A = , quadratische Matrizen i = 1,...,k
Dann sind folgende beiden Aussagen äquivalent:
(i) A diagonalisierbar
(ii) diagonalisierbar i = 1,...,k



I. Beweis der Aussage für Jordanblöcke

Ich beweise die Aussage mit Kontraposition, d. h. ich beweise nicht die Aussage:
"Wenn Aussage 1 wahr ist, dann ist Aussage 2 wahr"
sondern ich beweise die aussagenlogisch äquivalente Aussage ( die sogenannte Kontraposition):
"Wenn Aussage 2 nicht wahr ist, dann ist Aussage 1 nicht wahr"

Ich muss also in unserem Kontext folgende Aussage beweisen:
Wenn der Jordanblock Jordanblock nicht diagonalisierbar ist, dann ist
nicht diagonalisierbar

Sei Jordanblock nicht diagonalisierbar.
Dann folgt mit Hilfssatz 1:
n 2
Da eine invertierbare Matrix ist folgt leicht: 0
Für den Fall m = 1 ist die Sache trivial. Kommen wir zu dem interessanteren Fall m 2:
=
Bei dem letzten Schritt habe ich Hilfssatz 2 benutzt. D ist eine Diagonalmatrix mit in
der Hauptdiagonale und N ist die Matrix, in welcher in der oberen ersten Nebendiagonalen nur 1sen stehen, sonst nur Nullen. Man kann leicht sehen, dass N nilpotent ist.
Wofür das Ganze? Da die Matrizen N und D kommutieren ist die Voraussetzung gegeben um
den binomischen Satz zu verwenden:
=

Für diese Matrix kann man nun leicht zeigen, dass sie nicht diagonalisierbar ist:
Da es eine obere Dreiecksmatrix ist, ist das charakteristische Polynom schnell berechnet.
Man findet, dass die algebraische Vielfachheit dieser Matrix zum einzigen Eigenwert den Wert n hat. Da findet man genauso schnell, dass die geometrische Vielfachheit dieser Matrix zum Eigenwert den Wert 1 hat. Daraus folgt dann die Nichtdiagonalisierbarkeit von .

II. Beweis für Matrizen in Jordanform J

Dieser Beweis gelingt schnell mit Hilfssatz 3:
hat Blockmatrixgestalt. Eine einzelne Blockmatrix ist die m-te Potenz eines Jordanblocks.
Da nach Voraussetzung diagonalisierbar ist, folgt mit Hilfssatz 3, dass die m-ten Potenzen der Jordanblöcke auch diagonalisierbar sind. Damit sind wegen Beweisschritt I auch die Jordanblöcke selbst diagonalisierbar und damit wegen Hilfssatz 3 auch J qed.

III. Beweis für Matrizen A Mat(nxn, )

Da A eine komplexe Matrix ist und damit ihr charakteristisches Polynom in Linearfaktoren zerfällt (hier geht die algebraische Abgeschlossenheit von ein ), ist A ähnlich zu einer Jordanschen Normalform J. Die Behauptung kann man nun mit Ähnlichkeitstransformationen leicht zeigen qed.
hilbert23 Auf diesen Beitrag antworten »
RE: A^n diagonalisierbar und A invertierbar => A diagonalisierbar
Bisher keine Gegenrede zu der Richtigkeit meines Alternativ-Beweises im Forum binnen 24 Stunden in unserer schnelllebigen und defizitorientierten Gesellschaft?!
Darf ich als junges und unerfahrenes Mitglied von matheboard.de nun darauf hoffen, dass der Beweis diesmal wasserdicht ist?!
Oder muss ich bei der Bewertung meines Beweises solange warten wie Alan Turing bei seinem Halteproblem?
sibelius84 Auf diesen Beitrag antworten »

Sieht gut aus smile Ist etwas länger und komplizierter als mein Beweis; dafür ist es bei meinem aber auch möglich, dass er nur über gilt und nicht über beliebigen algebraisch abgeschlossenen Körpern (bzw. das müsste man sich erst noch überlegen). Habe jedenfalls beim 'Scannen' keinen Fehler finden können.
sibelius84 Auf diesen Beitrag antworten »

Nachtrag:



Das heißt: Über Körpern positiver Charakteristik kann es durchaus vorkommen, dass eine Potenz einer nicht-diagonalisierbaren JNF dann doch diagonalisierbar ist.

Also gelten wohl unser beider Beweise nur über Körpern der Charakteristik 0.
hilbert23 Auf diesen Beitrag antworten »
Nachtrag zu Nachtrag
Ich habe dich so verstanden:

1.) Bei deinem Beweis benutzt du explizit Eigenschaften von den komplexen Zahlen.
2.) Bei meinem Beweis benutze ich keine expliziten Eigenschaften von den komplexen Zahlen.
3.) Du hast ein Gegenbeispiel gefunden für Mat(2x2, K) , K algebraisch abgeschlossener Körper mit positiver Charakteristik.

Habe mir jetzt mal das Pascalsche Dreieck hergenommen (angeregt durch meine Benutzung des binomischen Satzes in meinem Beweis) und habe festgestellt, dass dein Gegenbeispiel (entsprechend verallgemeinert) für m = 4, 6, 8 nicht mehr funktioniert. Habe das Ganze von 2x2-Matrizen bis 8x8-Matrizen durchgespielt:

m = 2 ; Binomialkoeffizienten: 1 2 1; Binomialkoeffizienten modulo 2: 1 0 1 => Matrix diagonalisierbar
m = 3 ; Binomialkoeffizienten: 1 3 3 1; Binomialkoeffizienten modulo 3: 1 0 0 1 => Matrix diagonalisierbar
m = 4 ; Binomialkoeffizienten: 1 4 6 4 1; Binomialkoeffizienten modulo 4: 1 0 2 0 1 => Matrix nicht diagonalisierbar
m = 5 ; Binomialkoeffizienten: 1 5 10 10 5 1; Binomialkoeffizienten modulo 5: 1 0 0 0 0 1 => Matrix diagonalisierbar
m = 6 ; Binomialkoeffizienten: 1 6 15 20 15 6 1; Binomialkoeffizienten modulo 6: 1 0 3 2 3 0 1 => Matrix nicht diagonalisierbar
m = 7 ; Binomialkoeffizienten: 1 7 21 35 35 21 7 1; Binomialkoeffizienten modulo 7: 1 0 0 0 0 0 0 1 => Matrix diagonalisierbar
m = 8 ; Binomialkoeffizienten: 1 8 28 56 70 56 28 8 1; Binomialkoeffizienten modulo 8: 1 0 4 0 6 0 4 0 1 => Matrix nicht diagonalisierbar

Vielleicht kann man den Satz (neben Körpern der Charakteristik 0) ausdehnen auf Körper positiver Charakterisik ab einer noch zu bestimmenden (aber gar nicht so großen) natürlichen Zahl, indem man
analysiert, inwieweit der 1. Binomialkoeffizient(0-basiert gezählt), welcher ja die Matrixdimension ist, die "inneren" Binomialkoeffizienten teilt.


Ist nur so eine Idee.
GunterMachtFunfer Auf diesen Beitrag antworten »
RE: A^n diagonalisierbar und A invertierbar => A diagonalisierbar
Zitat:
Original von hilbert23
Oder muss ich bei der Bewertung meines Beweises solange warten wie Alan Turing bei seinem Halteproblem?


LOL Hammer LOL Hammer der war gut
sibelius84 Auf diesen Beitrag antworten »

@hilbert23, doch, du benutzt implizit Eigenschaften von C, in dem Schritt "J nicht diagonalisierbar => J^m nicht diagonalisierbar", indem du annimmst, dass bestimmte Matrixeinträge nicht verschwinden - was bei positiver Charakteristik aber eben durchaus passieren könnte. Und zwar, wie mein kleines Beispiel zeigt, nicht nur für p=2 oder solche Geschichten, sondern für beliebige positive Charakteristiken, auch p=49999, oder p=123457, oder so etwas.
hilbert23 Auf diesen Beitrag antworten »

Habe die für einen algebraisch abgeschlossenen Körper mit Charakteristik 0 bewiesene Aussage, auch für Körper mit positiver gerader Charakteristik mittels Analyse der Teilbarkeitseigenschaften der Binomialkoeffizenten (meiner Meinung nach) bewiesen.

Habe dann aber zur Kenntnis nehmen müssen, dass die Charakteristik von Körpern mit positiver Charakteristik prim sein muss (allgemein akzeptierter Lehrsatz) und mit dem Gegenbeispiel von sibelius84, dass die Charakterisik auch nicht 2 sein kann.

Damit ist der Satz zwar weiterhin auch für algebraisch abgeschlossene Körper mit positiver gerader Charakteristik korrekt, da die Behauptung des Satzes eine Implikation ist ("ex falso quod libet").

Die Prämissen dieser Implikation sind aber eben, wie oben beschrieben, erwiesenermaßen falsch, s. d. diese Implikation nichts wert ist.

Für algebraisch abgeschlossene Körper mit positiver ungerader Charakteristik kann ich derzeit nichts sagen.
hilbert23 Auf diesen Beitrag antworten »

Alles in allem bleibt die Frage:

Kann jemand den Satz ausdehnen für Mat(nxn,K) mit n >= 3 und K algebraisch abgeschlossenen Körper mit positiver Charakteristik?
sibelius84 Auf diesen Beitrag antworten »

Nein, weil er dann eben im Allgemeinen falsch ist. Da müsste man ihn wesentlich genauer differenzieren. Evtl. könnte man probieren, ob gilt: "A^m diagonalisierbar und K algebraisch abgeschlossen, m kein Vielfaches von p = char K => A diagonalisierbar". Das wäre ein erster Versuch, auch hier bin ich noch nicht 100pro sicher, ob das so stimmt.
IchBinGast Auf diesen Beitrag antworten »
Beweis falsch
Hallo,
ich wollte hier nur schnell erwähnen, dass der Beweis von sibelius82 falsch ist.
Ich weiß leider nicht wie man diese ganzen mathematischen Zeichen macht, aber auf jeden Fall ist sein Ansatz ja: Man nehme das Minimalpolynom von A^m und setzt p := M(T^m) mit M ist Minimalpolynom von A^m. Das ist ein Polynom vom Grad m*n und daher gilt für m>1 nicht mal, dass das Charakteristische Polynom von A ein Teiler von p ist, also ist es auf keinen Fall das Minimalpolynom von A.
Neue Frage »
Antworten »



Verwandte Themen

Die Beliebtesten »
Die Größten »
Die Neuesten »