Lineare Algebra - SAM - ETH Zürich
Lineare Algebra - SAM - ETH Zürich
Lineare Algebra - SAM - ETH Zürich
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
Kapitel 3 — LR–Zerlegung <strong>Lineare</strong> <strong>Algebra</strong> (2007)<br />
wobei im Term O(n) alle Beiträge untergebracht sind, die linear in<br />
n oder konstant sind. Der ln–Term fällt hier weg; bei der Addition<br />
ist er negativ. Für l = 0 erhalten wir den Rechenaufwand für die<br />
reine LR–Zerlegung. Wir können das so zusammenfassen:<br />
Satz 3.2 Der Rechenaufwand für die LR–Zerlegung einer voll<br />
besetzten, regulären n × n-Matrix beträgt n Divisionen (inklusive<br />
der letzten, die man erst beim Rückwärtseinsetzen braucht),<br />
1<br />
3 n3 + O(n) Multiplikationen und 1 3 n3 − 1 2 n2 + O(n) Additionen.<br />
Für Vor- und Rückwärtseinsetzen braucht man zusätzlich pro rechte<br />
Seite je n 2 − n Additionen und n 2 Multiplikationen.<br />
Das Lösen eines Systems AX = B mit n rechten Seiten erfordert<br />
dementsprechend n Divisionen, 4 3 n3 + O(n) Multiplikationen und<br />
4<br />
3 n3 − 3 2 n2 + O(n) Additionen.<br />
Der zweite Teil des Satzes gibt im wesentlichen auch den Aufwand<br />
für die Berechnung der Inversen an, wobei man allerdings in diesem<br />
Falle (wo B = I ist), noch beim Vorwärtseinsetzen Operationen<br />
sparen kann, weil die rechten Seiten viele Nullen haben. Dabei ist<br />
der führende Term von 4 3 n3 um einen Viertel auf je n 3 Additionen<br />
und Multiplikationen reduzierbar.<br />
Pivotstrategien<br />
Es ist wichtig, daran zu erinnern, dass selbst bei quadratischen<br />
Matrizen der Gauss-Algorithmus und die dazu äquivalente LR–<br />
Zerlegung in einer Arithmetik mit endlicher Genauigkeit (wo Rundungsfehler<br />
auftreten) nur dann zuverlässige Resultate liefert, wenn<br />
man die Pivots geeignet wählt und wenn die Matrix nicht beinahe<br />
singulär ist (was immerhin gleichzeitig überprüft werden kann).<br />
Die meistens benutzte Regel (Pivotstrategie [pivot strategy]) besagt,<br />
dass man im jten Eliminationsschritt als Pivot a (j−1)<br />
pj jenes<br />
Element wählen soll, das unter allen m − j + 1 Elementen der ersten<br />
Kolonne der Restgleichungsmatrix das betragsmässig grösste<br />
ist:<br />
|a (j−1)<br />
pj | = max<br />
j≤k≤m |a(j−1) kj<br />
| . (3.27)<br />
Diese Regel nennt man Kolonnenmaximumstrategie oder partielles<br />
Pivotieren [partial pivoting]. Damit lässt sich fast immer<br />
vermeiden, dass in L und R Elemente entstehen, die viel grösser<br />
sind als jene von A und zu grossen Rundungsfehlern führen können.<br />
Allerdings setzt dies voraus, dass die Zeilen von A von der gleichen<br />
Grössenordnung sind.<br />
Noch sicherer wäre es, auch Kolonnenvertauschungen zuzulassen<br />
und in der ganzen Restgleichungsmatrix nach dem grössten oder<br />
sogar dem relativ grössten Element (im Vergleich zu den anderen<br />
derselben Zeile) zu suchen. Aber dieses vollständige Pivotieren<br />
[complete pivoting] ist zu aufwendig und wird kaum je angewandt.<br />
LA-Skript 3-8 30. September 2007 c○M.H. Gutknecht