lineare Algebra zeige lineare unabhängigkeit

Neue Frage »

mathe760 Auf diesen Beitrag antworten »
lineare Algebra zeige lineare unabhängigkeit
Hallo liebes Forum smile

Es ist nun längere Zeit her, dass ich mich hier mal aktiv gemeldet habe, aber jetzt habe ich mal wieder eine Frage, diesmal aber aus der Hochschulmathematik, da ich inzwischen endlich Mathe studiere smile
Hier also die Aufgabe:



Ich habe bisher folgendes:



Wie ich das jetzt genau zum Widerspruch führen kann, weiß ich leider nicht.
Ich hoffe ihr könnt mir einen Anstoß in die richtige Richtung geben.


mathe760 Wink
tmo Auf diesen Beitrag antworten »

Scheint mir nicht ganz so leicht zu sein. Mit folgenedem Trick könnte es gehen:

Ich schreibe mal für .

Zunächst können wir induktiv annehmen, dass linear unabhängig sind. Ferner sei o.B.d.A für alle .

Nun wenden wir Gram-Schmidt auf an, d.h. wir setzen:



für .

Nun bemerken wir, dass in jedem Schritt für gilt:



Begründung:
nach Vorraussetzung.
und nach Induktion.

Das ist ja schon mal Interessant. Nach Gram-Schmidt haben wir also folgende Situation.

Wir haben paarweise orthogonale Vektoren , die den selben Raum wie aufspannen.
Und es gilt weiterhin sowie für alle und natürlich immer noch .

Wir wollen jetzt natürlich zeigen, dass linear unabhängig sind. Das ist ja äquivalent zur Ursprungsbehauptung.

Damit kannst du mal weiter arbeiten, es ist jetzt nicht mehr weit zum Ziel.
mathe760 Auf diesen Beitrag antworten »

Vielen Dank für diese schöne Lösung tmo smile Ich konnte den Beweis zwar zu Ende führen, habe aber momentan nicht die Zeit ihn hier aufzuschreiben. Ich werde dies dann bei Gelegenheit nachholen. Da wir in der Vorlesung das Gram Schmidt Verfahren noch nicht hatten, müsste es eigentlich auch eine Lösung ohne dieses geben. Wenn jemandem eine solche alternative Lösung einfällt, würde ich mich freuen, wenn derjenige sie hier aufschreiben würde smile



mathe760 Wink
tmo Auf diesen Beitrag antworten »

Ja, ich dachte mir schon, dass das nicht der "Musterlösungsweg" ist (wenn man es sowas denn gibt).

Aber ich fand ihn dann eigentlich recht ellegant. Eine der wenigen mir bekannten Anwendungen von Gram-Schmidt in anderen Beweisen.

Sonst lernt man das ja nur um es anzuwenden (also drauflosrechnen)...Was mir immer als sinnlos erschien Big Laugh
mathe760 Auf diesen Beitrag antworten »

So nun habe ich endlich mal die Zeit gefunden den "Muster-Beweis" nachzuliefern. Da die Details in tmo's Beweis auf sehr offensichtliche Weise auszufüllen sind, werde ich dies mal nicht tun und gebe hier nur einen anderen Beweis:

Aus mit nicht allen Koefficienten gleich Null folgt nach meinem ersten Beitrag, dass es sowohl positive als auch negative a_j gibt. Seien nun , sowie . Dann folgt also . Nun folgt für :

. Nach Annahme ist dies aber die Summe nichtpositiver reeller Zahlen. Das Skalarprodukt ist aber auch eine nichtnegative Größe, also folgt und damit .
Aus folgt nun nach multiplikation mit auf beiden Seiten der Gleichung und anschließender Transposition:
. Aus folgt nun aber, dass mindestens ein Koefficient a_j negativ sein muss, was der Annahme widerspricht. Also müssen die a_j alle gleich Null sein und sind linear unabhängig, was zu zeigen war.


mathe760 Wink
Neue Frage »
Antworten »



Verwandte Themen

Die Beliebtesten »
Die Größten »
Die Neuesten »