Gleiche Ergebnisse beim Multiplizieren von Vektoren

Neue Frage »

Eistea Auf diesen Beitrag antworten »
Gleiche Ergebnisse beim Multiplizieren von Vektoren
Ich habe ein Menge von reellen Vektoren s_1 bis s_r. Unter welchen Voraussetzungen ist die unten angegebene Gleichung (von Skalaren) erfüllt, wenn es einen reellen Vektor z mit gleicher Dimension gibt, der nicht der Nullvektor ist?



Klar ist, dass r mindestens gleich 3 sein muss und die Werte sich in gewisser Weise unterscheiden müssen, aber was bedeutet das formal?

Vielen Dank!
wisili Auf diesen Beitrag antworten »
RE: Gleiche Ergebnisse beim Multiplizieren von Vektoren


Subtrahiere , dann resultieren r-1 Gleichungen

Die Differenzvektoren (in Klammern) gehören zu einer Hyperebene mit Normalvektor z.
Eistea. Auf diesen Beitrag antworten »

Danke wisili,

das heißt also von den Differenzvektoren müssen mindestens zwei linear unabhängig sein. Das ist mir noch ein bisschen zu abstrakt.

Wenn man die Menge der Vektoren s_1, ..., s_r als Matrix S interpretiert: Welche Eigenschaften muss diese Matrix also haben, dass die Gleichheit gilt?

Danke nochmal!
wisili Auf diesen Beitrag antworten »

Man weiss ja nichts über die Dimension d. Ist r>d, r=d, r<d? Ich kann nichts über lineare Abhängigkeiten sagen.
Eistea.. Auf diesen Beitrag antworten »

Hi zusammen,

mich interessiert die Frage: Unter welchen Bedingungen kann die Gleichung

wahr werden dadurch dass es einen bestimmten Vektor z gibt. s_k sind dabei r reelle Vektoren der Dimension d und z ist ein reeller Vektor der Dimension d, der nicht der Null-Vektor ist.

Dies hängt sicher von d und r ab, aber auch davon, wie die räumlichen Abhängigkeiten zwischen den Vektoren s_k sind. Offensichtlich kann die Gleichung nur in speziellen Fällen wahr werden, etwa wenn r<3 oder bestimmte s_k identisch sind. Dazu würde ich gerne Aussagen machen, die ich formal herleite.

Vielleicht geht Dein Hinweis in diese Richtung, wisili, ich werde nochmal darüber nachdenken. Im Moment sehe ich aber nicht, wie mir die Umformung weiterhilft bei den Aussagen die ich treffen will. Auf jeden Fall danke für Deine Mühe bis hierhin!

Grüße
wisili Auf diesen Beitrag antworten »

Zum darüber Nachdenken: Solange r < d oder r=d gilt, existiert z immer. Die gesuchten Bedingungen für die Vektoren s_i treten erst für r>d auf, und da die Vektoren dann sowieso linear abhängig sind, müssen die Bedingungen subtiler formuliert sein.
 
 
WebFritzi Auf diesen Beitrag antworten »

Nein, für r = d muss es ein solches z nicht geben. Zum Beispiel, wenn die Vektoren die Einheitsvektoren sind. Übrigens braucht man ja nicht nur den ersten Vektor von den anderen abzuziehen - es gibt r(r-1)/2 Differenzvektoren.

Die Bedingung ist gleichwertig damit, dass die r Vektoren in einer affinen Hyperebene , also einer verschobenen Hyperebene, liegen.

Eine notwendige und hinreichende Bedingung ist z.B., dass die Matrix mit den Zeilenvektoren



einen nichttrivialen Kern hat. Oder auch, dass der Vektor im Bild der Matrix mit den Zeilenvektoren liegt.
wisili Auf diesen Beitrag antworten »

r=d funktioniert mit den Einheitsvektoren und z=(1,1,1,1...).
Logisch gibt es r tief 2 Differenzvektoren, hier behauptet niemand was anderes.
Die angegebene Matrix hat ja auch nur die von mir genannten r Zeilenvektoren.
WebFritzi Auf diesen Beitrag antworten »

Zitat:
Original von wisili
r=d funktioniert mit den Einheitsvektoren und z=(1,1,1,1...).


Da hast du recht. Ich hatte mich bei etwas verrechnet.


Zitat:
Original von wisili
hier behauptet niemand was anderes.


Warum schreibst du das, wenn ich doch nirgendwo auch nur vermutet habe, dass jemand etwas anderes behauptet?

Die Bemerkung mit den anderen Differenzvektoren war nur dazu gedacht, ein weiteres Faktum auf den Tisch zu legen. Ich habe damit nicht behaupten wollen, ich hätte die Weisheit mit Löffeln gefressen, so dass ich eh schon alles weiß. Teamwork war mein Ziel als Weg.


Zitat:
Original von wisili
Die angegebene Matrix hat ja auch nur die von mir genannten r Zeilenvektoren.


Ja (eigentlich nur r-1 Augenzwinkern ), weil die für die angegebene Äquivalenz ausreichen. Augenzwinkern


EDIT: Ich sehe gerade, dass die Differenzvektoren linear abhängig werden, wenn man mehr als die r-1 Stück nimmt, bzw. dass die r-1 Stück alle anderen erzeugen:



Man braucht die anderen also eh nicht.
wisili Auf diesen Beitrag antworten »

Danke WebFritzi, jetzt deckt sich wieder alles:

Zitat:
Original von wisili
Zum darüber Nachdenken: Solange r < d oder r=d gilt, existiert z immer. Die gesuchten Bedingungen für die Vektoren s_i treten erst für r>d auf, und da die Vektoren dann sowieso linear abhängig sind, müssen die Bedingungen subtiler formuliert sein.

Noch ein Begriffsproblem: «verschobene Hyperebenen», obwohl sehr suggestiv, gibt es ja streng genommen nicht in reinen Vektorräumen (bzw. sind blosse Teilmengen, keine Unterräume). Der Raum müsste eine «Affine Raum-Struktur» tragen. Deshalb habe ich alles mit den Differenzen gesagt; möglicherweise ist diese Vorsicht hier fehl am Platze.
WebFritzi Auf diesen Beitrag antworten »

Ja, sie ist fehl am Platze. Was ist dein Problem? Wir sind im IR^n. Nimm einfach ne Hyperebene (also nen (n-1)-dimensionalen Unterraum) und verschiebe sie. Das Ergebnis ist eine affine Hyperebene. smile

Wäre übrigens von Vorteil, wenn sich Eistea auch mal wieder meldet...
Eistea. Auf diesen Beitrag antworten »

Hallo Wisili, WebFritzl und Rest,

meine kurze Schlussfolgerung und Zusammenfassung:

Man kann die Differenzvektoren (s_k - s_l) als Basis eines d-dimensionalen Raumes betrachten. Bilden sie keine vollständige Basis, so ist der Raum in mindestens einer Dimension nicht beschrieben und es gibt die Möglichkeit einen Orthogonalvektor z zu finden, der die Eigenschaft

hat. Ist die Basis vollständig, so kann es dieses Orthogonalvektor nicht geben.

Hat man r Vektoren s_1, ..., s_r bedeutet dies, dass man maximal r-1 linear unabhängige Differenzvektoren bilden kann:

Alle anderen Zwischenvektoren lassen sich als Linearkombinationen dieser r-1 Vektoren darstellen. Daher muss mindestens r>d sein.

Außerdem muss gelten, dass d Differenzvektoren linear unabhängig sind.

Danke für die Unterstützung!
Eistea. Auf diesen Beitrag antworten »

P.S.: Falls euch noch eine griffigere Schlussfolgerung einfällt als "Die Differenzvektoren müssen linear unabhängig sein", also z.B. eine Aussage, die sich direkt auf Matrix S = s_1 s_2 ... s_r bezieht, würde ich mich auch darüber freuen.

Grüße!
wisili Auf diesen Beitrag antworten »

Ich kann praktisch nichts von dem, was du schlussfolgerst unterstützen.
WebFritzi Auf diesen Beitrag antworten »

Tatsächlich: Jede Behauptung (und davon gibt es ja einige in den beiden Beiträgen) ist falsch. Unglaublich. unglücklich
Eistea. Auf diesen Beitrag antworten »

Wow, das ist ja mal eine vernichtende Kritik. unglücklich Liegt es an meinem ungenauen Ausdruck oder daran, dass ich tatsächlich völlig daneben liege?
Hier nochmal meine Schlussfolgerungen nacheinander. Vielleicht könntet ihr mir den Punkt nennen, wo es falsch wird oder bleibt.

Die Frage:
Bei welchen reellen Vektoren der Dimension kann es einen reelen d-dimensionalen Vektor (der nicht der Nullvektor ist) geben so dass wahr wird?

Folgerungen:
1) Der Ausdruck ist äquivalent zu


2) Das Skalarprodukt zweier Nicht-Null-Vektoren ist dann Null, wenn sie orthogonal zueinander stehen

3) z muss also orthogonal zu allen Vektoren (Differenzvektoren) sein.

4) Das kann nur genau dann der Fall sein, wenn die Differenzvektoren keine vollständige Basis im Raum bilden (keinen d-dimensionalen Raum aufspannen)

5) Die Differenzvektoren sind eine äquivalente Basis. Auch für diese Basis muss 3) gelten.

6) Es gibt maximal r-1 linear unabhängige Basisvektoren (siehe 3) und 4) )

7) Ihr nennt einen Hyperraum und den von der unvollständigen Basis beschriebenen Unterraum eine Hyperebene. z müsste Normalenvektor der Hyperebene sein, um die Gleichheit zu erfüllen.
WebFritzi Auf diesen Beitrag antworten »

Ab 4) ist alles falsch. Und in 7) tauchen komische Begriffe auf. Von einem Hyperraum war nie die Rede, und eine unvollständige Basis gibt es nicht.

Schonmal daran gedacht, dass alle Vektoren s_k gleich sein können?
Eistea. Auf diesen Beitrag antworten »

Danke WebFritzl! Cool, dass ich hier so viel Feedback bekomme. smile

Ehrlich gesagt habe ich daran gedacht, dass die s_k gleich sein können, bin aber davon ausgegangen, dass jeder Vektor orthogonal zum Nullvektor ist. Mein Bronstein klärt mich aber gerade auf, dass der Nullvektor bei der Definition von Orthogonalität ausgenommen ist. In dem Fall war Wikipedia keine präzise Quelle.

Deshalb würde ich wie folgt 3) bis 6) um-, 7) weg- und 8) als Idee dazu-formulieren:

3) z muss also orthogonal zu allen Vektoren (Differenzvektoren) sein, die nicht der Nullvektor sind.

4) Falls nicht alle Differenzvektoren gleich dem Nullvektor sind, dürfen die übrigen keine Basis im bilden sondern nur in einem Unterraum, sonst gibt es keinen gemeinsamen Orthogonalvektor. Die Basis, die diesen Unterraum aufspannt inklusive der Nullvektoren, heißt

5) Die Differenzvektoren bilden eine äquivalente Basis . Sie lässt sich durch Linearkombination aller Vektoren der Basis herleiten. Auch für diese Basis muss 3) gelten.

6) Es gibt maximal r-1 linear unabhängige Basisvektoren (siehe 3) und 4) )

7) ...

8) Ich vermute dass die Bedingung genau dann nicht erfüllbar ist, wenn eine Basis des ist und mindestens ein weiter linear abhängiger und von den anderen Vektoren verschiedener Vektor in der Menge dieser Vektoren ist.
WebFritzi Auf diesen Beitrag antworten »

Zitat:
Original von Eistea.
5) Die Differenzvektoren bilden eine äquivalente Basis


Unsinn. Was ist, wenn die linear abhängig sind? Triviales Beispiel:

s1 = (1,1,1), s2 = (2,2,2), s3 = (3,3,3).

Du solltest dir nochmal die Begriffe "Erzeugendensystem" und "Basis" zu Gemüte führen.
Eistea. Auf diesen Beitrag antworten »

Zitat:
Original von WebFritzi
Du solltest dir nochmal die Begriffe "Erzeugendensystem" und "Basis" zu Gemüte führen.

OK, Du hast völlig Recht! Ich habe nicht nur eine falsche Definition von Orthogonalität verwendet, sondern auch immer genau dann, wenn ich Basis geschrieben habe, eigentlich "Erzeugendensystem" gemeint. Insofern waren natürlich alle Aussagen falsch, wie ihr schon geschrieben habt -- da nützt es auch nichts, dass ich das Richtige gemeint habe. Augenzwinkern

Der Vollständigkeit halber schreibe ich jetzt nochmal alles auf.
Eistea. Auf diesen Beitrag antworten »

Die Frage:
Bei welchen reellen Vektoren der Dimension kann es einen reellen d-dimensionalen Vektor (der nicht der Nullvektor ist) geben so dass

wahr wird?

Folgerungen:
1) Der Ausdruck ist äquivalent zu


2) Das Skalarprodukt zweier Nicht-Null-Vektoren ist dann Null, wenn sie orthogonal zueinander stehen

3) z muss also orthogonal zu allen Vektoren (Differenzvektoren) sein, die nicht der Nullvektor sind.

4) Falls nicht alle Differenzvektoren gleich dem Nullvektor sind, dürfen die übrigen kein Erzeugendensystem im bilden sondern nur für einem Unterraum, sonst gibt es keinen gemeinsamen Orthogonalvektor. ist das Erzeugendensystem, das diesen Unterraum aufspannt (inklusive der Nullvektoren, obwohl diese an der Dimension des Raums natürlich nichts ändern).

5) Die Differenzvektoren bilden ein zu äquivalentes Erzeugendensystem . Dieses lässt sich durch Linearkombination aller Vektoren von herleiten.

6) Es gibt maximal linear unabhängige Vektoren im Erzeugendensystem (siehe 4) und 5) ). Dies impliziert lediglich die notwendige, aber nicht hinreichende Bedingung für die Menge der Vektoren

7) ...

8) Ich vermute dass die Gleichung genau dann nicht erfüllbar ist, wenn ein Erzeugendensystem des ist, das aus mindestens Vektoren besteht. Genauer: Dass es neben d Basisvektoren noch mindestens einen weiteren linear abhängigen Vektor beinhaltet, der nicht gleich einem der Basisvektoren sein darf.
Das muss ich noch zeigen, wäre dann aber die von mir gesuchte hinreichende Bedingung an
Eistea. Auf diesen Beitrag antworten »

8) Es gibt genau dann kein für das gilt

wenn die Menge d-dimensionaler, reeller Vektoren Erzeugendensystem des ist und mindestens ungleiche Vektoren enthält.

8.a) "=>"
Besteht eine Teilmenge aus d linear unabhängigen Vektoren und beinhaltet S noch mindestens einen weiteren Vektor mit , dann ist (äquialent ) Erzeugendensystem des . In 5) wurde gezeigt, dass somit kein solches z existiert.

Herleitung:
8.a.i)
(Definition lineare Unabhängigkeit)


8.a.ii)
Wären die ersten Elemente linear unabhängig, müsste gelten:


8.a.iii)
Dies ist äquivalent zu

Wäre nun doch lässt sich als Linearkombination der Vektoren darstellen von denen wegen mindestens zwei ungleich sind. Wegen der linearen Unabhängigkeit der (8.a.i) ergibt sich ein Widerspruch. Also ist . Aus 8.a.ii folgt nun dass auch sein muss.

8.a.iv)
Nun ist zu zeigen, dass der -te Eintrag in ebenfalls linear unabhängig zu den ersten d-1 ist, weil erst dann gibt d Basisvektoren. Dies lässt sich äquivalent zeigen. Auch hier ist die Ungleichheit als Bedingung zu Beginn festgelegt worden.

8.a.v)
Alle weiteren Vektoren ändern nichts an der Erzeugendeneigenschaft von

8.b) "<="
Falls Erzeugendensystem des ist (und somit kein z wie oben beschrieben existiert), lassen sich alle Untermengen von E_2, die aus linear unabhängigen Basisvektoren bestehen in d linear unabhängige Vektoren zerlegen und einen weiteren Vektor , der ungleich allen anderen ist.

...[zu vervollständigen]

Habt ihr Feedback zu dem ersten Teil oder zu der Beweisstruktur im Allgemeinen? Würde mich über Kritik freuen, bisher habe ich durch eure Antworten eine Menge gelernt! Ich habe die einzelnen Abschnitte durchnummertiert, dann könnt ihr gleich sowas sagen wie "8.a.iii)' ist Mist/Unsinn/falsch".

Danke und Grüße.
WebFritzi Auf diesen Beitrag antworten »

Zitat:
Original von Eistea.
8.a.ii)
Wären die ersten Elemente linear unabhängig, müsste gelten:


8.a.iii)
Dies ist äquivalent zu

Wäre nun doch lässt sich als Linearkombination der Vektoren darstellen von denen wegen mindestens zwei ungleich sind. Wegen der linearen Unabhängigkeit der (8.a.i) ergibt sich ein Widerspruch. Also ist . Aus 8.a.ii folgt nun dass auch sein muss.


Erstens: Du willst lineare Unabhängigkeit zeigen und beginnst damit anzunehmen, dass das so sei. Das ist falsch!

Zweitens: Schau dir nochmal lineare Unabhängigkeit an. Du willst zeigen, dass die Vektoren



linear unabhängig sind (und das ist nicht das gleiche wie die paarweise lineare Unabhängigkeit!!!), wenn die Vektoren



dies sind. Die Aussage ist richtig, aber den Beweis beginnt man so:

Seien so dass



Zeige nun
Eistea. Auf diesen Beitrag antworten »

Logisch... paarweise lineare Unabhängigkeit ist nicht das gleiche wie lineare Unabhängigkeit. Hammer
Dann werde ich nochmal nachsitzen. Danke Dir!
Eistea. Auf diesen Beitrag antworten »

Ich will zeigen:
Hat man linear unabhängige Vektoren der Dimension , so ist für bestimmte Vektoren auch eine Basis des

Das Vorgehen:
I) Zunächst wird gezeigt, dass die Differenzvektoren einer d-dimensionalen Basis d-1 linear unabhängige Vektoren bilden.

Seien so dass


II) Aus der linearen Unabhängigkeit der folgt nun, dass alle Koeffizienten 0 sein müssen:


III) Fügt man nun einen weiteren Vektor hinzu mit , ist die Frage, unter welchen Bedingungen die Vektoren eine Basis des bilden.

IV) Seien so dass



V) Die Vektoren der rechten Seite bilden eine Linearkombination von Basisvektoren, somit ist die Gleichung erfüllbar, wegen der Abhängigkeit der Koeffizienten jedoch unter Umständen nur für .
VI) Ist nicht der Nullvektor, führte dann die folgende Umformung zu einem Widerspruch


VII) Bezeichnet man nun die Koeffizienten der Linearkombination als ergibt sich durch Einsetzen folgendes Gleichungssystem:


VIII) Aus der letzten Gleichung folgt: Entweder ist (somit wäre die Umformung in IV) unzulässig gewesen) oder lässt sich als Linearkombination der Differenzvektoren bilden, wobei die Summe der Koeffizienten 1 ist: .

IX) Lässt sich das nicht auf diese Weise bilden, dann folgt, dass und durch Rückwärtseinsetzen in VII) auch dass alle anderen Null sind. Somit bildet dann die Menge der Differenzvektoren eine Basis des , da die einzige Möglichkeit in IV) den Nullvektor zu bilden aus dem Nullsetzen der Koeffizienten folgt.

Anmerkungen:
Danke für den Ansatz, WebFritzi. Für alle die mir Feedback geben wollen, habe ich alle Einzelschritte durchnummeriert, damit ihr mir sagen könnt, wo es möglicherweise falsch ist oder wird. Ist ziemlich lang geworden. Ich hoffe das schreckt nicht ab.

Außerdem bin ich mit der Aussage, wie das auszusehen hat, nicht so richtig glücklich. Das scheint mir irgendwie beliebig, dass die Summe der Koeffizienten nicht Null sein darf. Gibt es ein allgemeines Konzept oder eine intuitive Idee, die das eurer Meinung nach erklärt?

Danke, danke! smile
Eistea Auf diesen Beitrag antworten »

In den Anmerkungen meinte ich natürlich:

Zitat:

Außerdem bin ich mit der Aussage, wie das auszusehen hat, nicht so richtig glücklich. Das scheint mir irgendwie beliebig, dass die Summe der Koeffizienten nicht genau Eins sein darf um die Basiseigenschaften sicherzustellen. Gibt es ein allgemeines Konzept oder eine intuitive Idee, die das eurer Meinung nach erklärt?


Grüße,
Eistea
Neue Frage »
Antworten »



Verwandte Themen

Die Beliebtesten »
Die Größten »
Die Neuesten »