[WS] Lineare Gleichungssysteme 3 - Iterative Verfahren

Neue Frage »

tigerbine Auf diesen Beitrag antworten »
[WS] Lineare Gleichungssysteme 3 - Iterative Verfahren
Gliederung


7. Iterative Verfahren / Splitting Verfahren

  1. Präkonditionieren / Splitten

  2. Richardson-Iteration

  3. Gesamtschrittverfahren ( oder Jacobi-Verfahren)

  4. Einzelschrittverfahren (oder Gauß-Seidel-Verfahren)

  5. SOR-Verfahren (David Young)

  6. Konvergenzsatz für GSV und ESV und Fehlerabschätzung

  7. Beweise des Konvergenzsatzes für GSV und ESV
tigerbine Auf diesen Beitrag antworten »
7. Iterative Verfahren
Im Workshop [WS] Lineare Gleichungssysteme 2 - LR-Zerlegungen sind Verfahren vorgestellt worden, die theoretisch in endlich vielen Schritten die exakte Lösung des LGS Ax=b liefern oder zeigen, dass A singulär ist. Bei der Durchführung der Verfahren auf dem Rechner wird aber i.A. schon die Eingabe mit gewissen Ungenauigkeiten behaftet sein. Vergleiche hierzu die Konditionen eines LGS [Workshop - Lineare Gleichungssysteme 1]


Ein nächster Punkt ist, dass man alle Eliminationsschritte ausführen muss, um überhaupt eine Lösung(snäherung) zu erhalten. Deswegen soll in diesem Workshop ein anderer Weg vorgestellt werden. Zum einen werden Verfahren gesucht, die nach kürzerer Rechenzeit wieder beendet werden können und, die eine Näherungslösung als Eingabe akzeptieren und als Ausgabe eine verbesserte Näherungslösung liefern (Iterationsverfahren)

Die Konvergenzuntersuchung werden uns auf den Fixpunktsatz von Banach führen, daher ist ein Blick in den [WS] Fixpunktiterationen empfohlen.
tigerbine Auf diesen Beitrag antworten »
7a. Präkonditionieren / Splitten
Mit der Kondition einer Matrix hatten wir ja bereits einen Verstärkungsfaktor für den Eingabefehler von b kennengelernt. Ein Ansatz wäre also zu versuchen anstatt des LGS Ax = b ein besser konditioniertes zu lösen.

Sei eine reguläre Matrix. Man nennt sie den Linkspräkonditionierer.





Damit kann man nun die Iterationsvorschriften aufstellen:






Hier soll (2) verwendet werden. Zur Beurteilung der Konvergenz wird man jedoch die Darstellung (1) benötigen. Ebenso hätte man die Darstellungen auf folgende Weise erhalten können. Wegen des "Aufsplitten" der Matrix A nennt man die Verfahren daher auch Splitting Verfahren:




Der beste Linkskonditionierer ist offensichtlich . In diesem Fall erhält man unabhängig von in einem Schritt die Lösung. Diese Wahl (Invertierung von A) ist i.a. Natürlich zu aufwendig. Dennoch ist es daher nahe liegend, P so zu wählen, dass die Einheitsmatrix in einem gewissen Sinne approximiert. Dabei sollen folgende Regeln beachtet werden:
  • Das Gleichungssystem (2) muss arithmetisch einfach lösbar sein

  • Die Iterierten müssen bei jeder Wahl von (möglichst schnell) gegen die Lösung von Ax=b konvergieren, d.h.



Lehrer Es wird die Annahme gemacht, dass A durch Zeilen. bzw. Spaltenvertauschungen so umgeordnet worden sei, daß kein Hauptdiagonalelement Null ist (ist dies nicht möglich, so ist A singulär).

Zur Beschreibung von möglichen Präkonditionieren verwendet man die folgenden regulären Matrizen:






tigerbine Auf diesen Beitrag antworten »
7b. Richardson-Iteration
Hier gilt:





tigerbine Auf diesen Beitrag antworten »
7c. Gesamtschrittverfahren ( oder Jacobi-Verfahren)
Hier gilt:








Liest man die Rekursionsvorschrift Zeilenweise aus, erhält man:




Man benötigt also für einen Eintrag des neuen Vektors alle Einträge das alten Vektors . Deswegen nennt man das Verfahren auch Gesamtschrittverfahren, da die verbesserten Werte erst nach einem Gesamtschritt (n-Einzelschritte) zum Tragen kommen.
tigerbine Auf diesen Beitrag antworten »
7d. Einzelschrittverfahren (oder Gauß-Seidel-Verfahren)
Hier gilt:






Liest man die Rekursionsvorschrift Zeilenweise aus, und stellt um, erhält man:




Hier fließen also in die Berechnung von alle bis dahin schon verbesserten Werte ein. Da also eine Verbesserung in jedem Schritt erfolgt, nennt man das Verfahren auch Einzelschrittverfahren.
 
 
tigerbine Auf diesen Beitrag antworten »
7e. SOR-Verfahren (David Young)
Hier gilt:








Successive OverRelaxation ist definiert für beliebige Parameter . Der Name entstand dadurch, weil sich für die zuerst untersuchten (positiv definiten) Matrizen als geeignete Wahl herausgestellt hat.
tigerbine Auf diesen Beitrag antworten »
7f. Konvergenzsatz für GSV und ESV und Fehlerabschätzung (Starkes Zeilensummenkriterium)
Für die Matrix A gelte (ebentuell nach Zeilen- Spaltenvertauschung)



Eine andere Schreibweise des Kriteriums wäre:



D.h. die Matrix A ist strikt zeilendiagonal dominant.


Dann gilt:

  1. Das lineare Gleichungssystem Ax=b ist regulär, also eindeutig lösbar.

  2. Die vom GSV und ESV erzeugte folge konvergiert für jeden Startpunkt gegen die theoretische Lösung x.

  3. Der Abstand eines Folgengliedes von der Lösung x ist abschätzbar durch:




Lehrer

Eine Aussage ob GSV oder ESV schneller konvergiert, läßt sich im Allgemeinen nicht treffen. Die Verfahren konvergieren umso besser, je kleiner (mind. < 1) der Spektralradius der Iterationsmatrix M ist.
tigerbine Auf diesen Beitrag antworten »
7g. Beweise des Konvergenssatzes für GSV und ESV
Lehrer Querverweis: [Workshop - Fixpunktiterationen]


Starkes Zeilensummenkriterium für das GSV

Aus der strikten Diagonaldominanz von A folgt zunächst schon einmal



Dies sichert die Durchführbarkeit des GSV. Dieses hatten wir wie folgt aufgestellt:

Zitat:

Damit kann man nun die Iterationsvorschriften aufstellen:

1.

2.

3.




Es ergibt sich damit aus (1) und durch Darstellung von A als Summe dreier Matrizen (unteres Dreieck, Diagonale, oberes Dreieck):








Somit lautet die Iterationsmatrix M des GSV (Jacobi-Verfahrens):




Wählen wir als induzierte Matrixnorm die Zeilensummennorm, so erhalten wir:




Damit folgt die Konvergenz aus [Workshop - Fixpunktiterationen]




Starkes Zeilensummenkriterium für das ESV

Aus der strikten Diagonaldominanz von A folgt zunächst schon einmal



Dies sichert die Durchführbarkeit des ESV. Dieses hatten wir wie folgt aufgestellt:

Zitat:

Damit kann man nun die Iterationsvorschriften aufstellen:

1.

2.

3.



Die Iterationsmatrix des ESV(Gauss-Seidel-Verfahren) hat dann also die folgende Gestalt:




Gemäß Definition der Zeilensummennorm gilt:




Sei daher ein beliebig gegeben. Aus der Definition der Iterationsmatrix folgt für mit der Darstellung 2:







Nun soll gezeigt werden, dass gilt:




Dies geschieht durch Induktion. Für i=1 gilt:




Gilt nun bereits für j=1,...,i-1, so folgt:



Somit ist und damit auch , was zu zeigen war.

(Beachte hierzu die Verträglichkeit der Norm)
tigerbine Auf diesen Beitrag antworten »
Ausblick
Mit der Lösung zum Problem Ax=b äquivalenter Probleme beschäftigt sich der nächste Workshop.
Neue Frage »
Antworten »



Verwandte Themen

Die Beliebtesten »
Die Größten »
Die Neuesten »