21.06.2014 Aufrufe

Lineare Algebra - SAM - ETH Zürich

Lineare Algebra - SAM - ETH Zürich

Lineare Algebra - SAM - ETH Zürich

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

Kapitel 3 — LR–Zerlegung <strong>Lineare</strong> <strong>Algebra</strong> (2007)<br />

wobei im Term O(n) alle Beiträge untergebracht sind, die linear in<br />

n oder konstant sind. Der ln–Term fällt hier weg; bei der Addition<br />

ist er negativ. Für l = 0 erhalten wir den Rechenaufwand für die<br />

reine LR–Zerlegung. Wir können das so zusammenfassen:<br />

Satz 3.2 Der Rechenaufwand für die LR–Zerlegung einer voll<br />

besetzten, regulären n × n-Matrix beträgt n Divisionen (inklusive<br />

der letzten, die man erst beim Rückwärtseinsetzen braucht),<br />

1<br />

3 n3 + O(n) Multiplikationen und 1 3 n3 − 1 2 n2 + O(n) Additionen.<br />

Für Vor- und Rückwärtseinsetzen braucht man zusätzlich pro rechte<br />

Seite je n 2 − n Additionen und n 2 Multiplikationen.<br />

Das Lösen eines Systems AX = B mit n rechten Seiten erfordert<br />

dementsprechend n Divisionen, 4 3 n3 + O(n) Multiplikationen und<br />

4<br />

3 n3 − 3 2 n2 + O(n) Additionen.<br />

Der zweite Teil des Satzes gibt im wesentlichen auch den Aufwand<br />

für die Berechnung der Inversen an, wobei man allerdings in diesem<br />

Falle (wo B = I ist), noch beim Vorwärtseinsetzen Operationen<br />

sparen kann, weil die rechten Seiten viele Nullen haben. Dabei ist<br />

der führende Term von 4 3 n3 um einen Viertel auf je n 3 Additionen<br />

und Multiplikationen reduzierbar.<br />

Pivotstrategien<br />

Es ist wichtig, daran zu erinnern, dass selbst bei quadratischen<br />

Matrizen der Gauss-Algorithmus und die dazu äquivalente LR–<br />

Zerlegung in einer Arithmetik mit endlicher Genauigkeit (wo Rundungsfehler<br />

auftreten) nur dann zuverlässige Resultate liefert, wenn<br />

man die Pivots geeignet wählt und wenn die Matrix nicht beinahe<br />

singulär ist (was immerhin gleichzeitig überprüft werden kann).<br />

Die meistens benutzte Regel (Pivotstrategie [pivot strategy]) besagt,<br />

dass man im jten Eliminationsschritt als Pivot a (j−1)<br />

pj jenes<br />

Element wählen soll, das unter allen m − j + 1 Elementen der ersten<br />

Kolonne der Restgleichungsmatrix das betragsmässig grösste<br />

ist:<br />

|a (j−1)<br />

pj | = max<br />

j≤k≤m |a(j−1) kj<br />

| . (3.27)<br />

Diese Regel nennt man Kolonnenmaximumstrategie oder partielles<br />

Pivotieren [partial pivoting]. Damit lässt sich fast immer<br />

vermeiden, dass in L und R Elemente entstehen, die viel grösser<br />

sind als jene von A und zu grossen Rundungsfehlern führen können.<br />

Allerdings setzt dies voraus, dass die Zeilen von A von der gleichen<br />

Grössenordnung sind.<br />

Noch sicherer wäre es, auch Kolonnenvertauschungen zuzulassen<br />

und in der ganzen Restgleichungsmatrix nach dem grössten oder<br />

sogar dem relativ grössten Element (im Vergleich zu den anderen<br />

derselben Zeile) zu suchen. Aber dieses vollständige Pivotieren<br />

[complete pivoting] ist zu aufwendig und wird kaum je angewandt.<br />

LA-Skript 3-8 30. September 2007 c○M.H. Gutknecht

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!