21.06.2014 Aufrufe

Beispiel - SAM - ETH Zürich

Beispiel - SAM - ETH Zürich

Beispiel - SAM - ETH Zürich

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

Vorlesung 401-2654-00L, Numerische Mathematik, FS 2008<br />

Numerische<br />

Mathemtik<br />

Numerische Mathematik<br />

(Numerik der ODEs)<br />

Prof. Ralf Hiptmair, Dr. Vasile Gradinaru<br />

Seminar for Applied Mathematics, <strong>ETH</strong> Zürich<br />

R. Hiptmair<br />

rev 35327,<br />

13. Mai<br />

2011<br />

Entwurf Februar 2011, Subversion rev 35327<br />

http://www.sam.math.ethz.ch/~hiptmair/tmp/NUMODE11.pdf<br />

0.0<br />

p. 1


Numerische<br />

Mathemtik<br />

Inhaltsverzeichnis<br />

0.1 Danksagung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10<br />

1 Einleitung 11<br />

1.1 Anfangswertprobleme (AWP) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12<br />

1.2 <strong>Beispiel</strong>e und Grundbegriffe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22<br />

1.2.1 Ökologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23<br />

R. Hiptmair<br />

rev 35327,<br />

13. Mai<br />

2011<br />

1.2.2 Chemische Reaktionskinetik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29<br />

1.2.3 Physiologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32<br />

1.2.4 Mechanik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37<br />

1.3 Theorie [8, Sect. 2], [1, Ch. II] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43<br />

1.3.1 Existenz und Eindeutigkeit von Lösungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44<br />

1.3.2 Lineare AWPe [3, Sekt. 8.2] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52<br />

1.3.3 Sensitivität [8, Sect. 3.1] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57<br />

0.0<br />

p. 2


1.3.3.1 Grundbegriffe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57<br />

1.3.3.2 Unser Problem: das Anfangswertproblem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59<br />

Numerische<br />

Mathemtik<br />

1.3.3.3 Wohlgestelltheit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61<br />

1.3.3.4 Asymptotische Kondition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63<br />

1.3.3.5 Schlecht konditionierte AWPe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66<br />

1.4 Polygonzugverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72<br />

1.4.1 Das explizite Eulerverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73<br />

1.4.2 Das implizite Euler-Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85<br />

1.4.3 Implizite Mittelpunktsregel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99<br />

1.4.4 Störmer-Verlet-Verfahren [15] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104<br />

2 Einschrittverfahren 117<br />

2.1 Grundlagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117<br />

2.1.1 Abstrakte Einschrittverfahren [8, Sect. 4.1] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118<br />

R. Hiptmair<br />

rev 35327,<br />

13. Mai<br />

2011<br />

2.1.2 Konsistenz [8, Sect. 4.1.1] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124<br />

2.1.3 Konvergenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130<br />

2.1.4 Das Äquivalenzprinzip (Dahlquist, Lax) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137<br />

2.1.5 Reversibilität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140<br />

2.2 Kollokationsverfahren[8, Sect. 6.3], [16, Sect. II.1.2] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144<br />

2.2.1 Konstruktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144<br />

2.2.2 Abstrakte Projektionsverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163<br />

2.2.3 Konvergenz von Kollokationsverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172<br />

0.0<br />

p. 3


2.2.3.1 Konsistenzordnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172<br />

2.2.3.2 Spektrale Konvergenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185<br />

2.3 Runge-Kutta-Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222<br />

2.3.1 Konstruktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222<br />

2.3.2 Konvergenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 237<br />

2.4 Extrapolationsverfahren [8, Sect. 4.3] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 249<br />

2.4.1 Der Kombinationstrick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 249<br />

2.4.2 Extrapolationsidee . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252<br />

2.4.3 Extrapolation von Einschrittverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 259<br />

2.4.4 Lokale Extrapolations-Einschrittverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 265<br />

2.4.5 Ordnungssteuerung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 271<br />

2.4.6 Extrapolation reversibler Einschrittverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 274<br />

2.5 Splittingverfahren [16, Sect. 2.5] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 278<br />

2.6 Schrittweitensteuerung [8, Kap. 5], [19, Sect. 2.8] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 287<br />

3 Stabilität [8, Kap. 6] 320<br />

3.1 Modellproblemanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 322<br />

3.2 Vererbung asymptotischer Stabilität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 339<br />

3.2.1 Attraktive Fixpunkte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 339<br />

3.2.2 Attraktive Fixpunkte von Einschrittverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 345<br />

3.3 Nichtexpansivität [8, Abschn. 6.3.3] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 352<br />

3.4 Gleichmässige Stabilität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 363<br />

3.5 Steifheit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 375<br />

3.6 Linear-implizite Runge-Kutta-Verfahren [8, Sect. 6.4] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 386<br />

3.7 Exponentielle Integratoren [24, 28, 25] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 396<br />

3.8 Differentiell-Algebraische Anfangswertprobleme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 402<br />

3.8.1 Grundbegriffe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 402<br />

3.8.2 Runge-Kutta-Verfahren für Index-1-DAEs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 408<br />

3.8.3 DAEs mit höherem Index . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 419<br />

Numerische<br />

Mathemtik<br />

R. Hiptmair<br />

rev 35327,<br />

13. Mai<br />

2011<br />

0.0<br />

p. 4


4 Strukturerhaltende numerische Integration 433<br />

4.1 Polynomiale Invarianten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 434<br />

Numerische<br />

Mathemtik<br />

4.2 Volumenerhaltung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 446<br />

4.3 Verallgemeinerte Reversibilität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 456<br />

4.4 Symplektizität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 466<br />

4.4.1 Symplektische Evolutionen Hamiltonscher Differentialgleichungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 466<br />

4.4.2 Symplektische Integratoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 483<br />

4.4.3 Rückwärtsanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 507<br />

4.4.4 Modifizierte Gleichungen: Fehleranalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 519<br />

4.4.5 Strukturerhaltende modifizierte Gleichungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 545<br />

4.5 Methoden für oszillatorische Differentialgleichungen [23] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 556<br />

Verzeichnisse 570<br />

R. Hiptmair<br />

rev 35327,<br />

13. Mai<br />

2011<br />

Stichwortverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 570<br />

Verzeichnis der <strong>Beispiel</strong>e und Bemerkungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 581<br />

Verzeichnis der Definitionen und Konzepte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 585<br />

Verzeichnis der MATLAB-CODE-Fragmente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 587<br />

Symbolverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 588<br />

0.0<br />

p. 5


Allgemeine Informationen<br />

Numerische<br />

Mathemtik<br />

Dozent: Prof. Ralf Hiptmair, <strong>SAM</strong>, D-MATH, Büro: HG G 58.2 Tel.: 044 632 3404,<br />

hiptmair@sam.math.ethz.ch<br />

Assistent: Cedric Effenberger, <strong>SAM</strong>, D-MATH Büro: HG G 55, Tel.: 044 632 0392,<br />

ece@sam.math.ethz.ch<br />

Tutoren: Dr. Jingzhi Li, <strong>SAM</strong>, D-MATH Büro: HG G 55 Tel.: 044 632 0392,<br />

jingzhi.li@math.ethz.ch<br />

Jan Ernest<br />

jernest@student.ethz.ch<br />

Website:<br />

http://www.math.ethz.ch/education/bachelor/lectures/fs2011/math/nm2<br />

Prüfung: schriftliche Prüfung am Rechner (teilweise MATLAB-basierte Programmieraufgaben),<br />

keine (mitgebrachten) Hilfsmittel<br />

Vorlesungsunterlagen werden als PDF-Datei zur Verfügung gestellt<br />

R. Hiptmair<br />

rev 35327,<br />

13. Mai<br />

2011<br />

Übungen:<br />

Einschreibung:http://www.math.ethz.ch/~grsam/NumMath2_MATH_FS11/i/<br />

• wöchentliches Übungsblatt zum Download (Bearbeitungszeit: 1 Woche)<br />

0.0<br />

p. 6


• MATLAB-basierte Programmieraufgaben<br />

• Abgabe: Dienstag bis 8:00 Uhr in den Fächern im Vorraum zum HG G 53<br />

Numerische<br />

Mathemtik<br />

• Abgabe der Codes via Webupload:http://www.math.ethz.ch/~grsam/submit/<br />

• Pflicht: 2× Vorlösen im Semester (mit Voranmeldung)<br />

• Korrektur nur auf Anfrage (jeder Teilnehmer erhält 5 Korrekturvouchers)<br />

• Selbstkorrektur mit stichprobenartigen Kontrollen<br />

• bei Betrug: Aberkennung der Punkte, +10% zur Testatbedingung<br />

• Testatbedingung:<br />

50% der Übungen rechtzeitig abgegeben und akzeptiert<br />

Sprechstunde der Assistenten:<br />

• Dr. Jingzhi Li, montags 08:15 – 09:00 Uhr, HG G 53 (Vorraum)<br />

• Jan Ernest, montags 08:15 – 09:00 Uhr, HG G 53 (Vorraum)<br />

R. Hiptmair<br />

rev 35327,<br />

13. Mai<br />

2011<br />

☞ Literatur:<br />

P. DEUFLHARD AND F. BORNEMANN, Numerische Mathematik II, DeGruyter, Berlin, 2 ed., 2002.<br />

Kapitel 4: http://www.sam.math.ethz.ch/~hiptmair/tmp/Literatur1.pdf<br />

Kapitel 6: http://www.sam.math.ethz.ch/~hiptmair/tmp/Literatur2.pdf<br />

(Von Springer auch in Englisch erhältlich→Link)<br />

0.0<br />

p. 7


Enzyklopädische Präsentation klassischer numerischer Integratoren:<br />

Numerische<br />

Mathemtik<br />

E. HAIRER, S. NORSETT, AND G. WANNER, Solving Ordinary Differential Equations I. Nonstiff Problems,<br />

Springer, Heidelberg, 2nd ed., 1993.<br />

E. HAIRER AND G. WANNER, Solving Ordinary Differential Equations II. Stiff and Differential-Algebraic<br />

Problems, Springer, Heidelberg, 1991.<br />

Umfassende Darstellung “strukturerhaltender” Integratoren:<br />

E. HAIRER, C. LUBICH, AND G. WANNER, Geometric numerical integration, vol. 31 of Springer Series<br />

in Computational Mathematics, Springer, Heidelberg, 2002.<br />

R. Hiptmair<br />

rev 35327,<br />

20. Februar<br />

2011<br />

Gute Einführung in die Numerik Hamiltonscher Differentialgleichungen:<br />

B. LEIMKUHLER AND S. REICH, Simulating Hamiltonian Dynamics, vol. 14 of Cambridge Monographs<br />

on Applied and Computational Mathematics, Cambridge University Press, Cambridge, UK, 2004.<br />

0.0<br />

p. 8


Hinweise auf Fehler in den Vorlesungsunterlagen<br />

Numerische<br />

Mathemtik<br />

Bitte melden Sie Fehler in den Vorlesungsunterlagen via folgende Wikiseite!<br />

http://elbanet.ethz.ch/wikifarm/rhiptmair/index.php?n=Main.NumOde<br />

(Passwort: NUMODE, bitte das EDIT-Menu wählen, um Text einzugeben.)<br />

Bitte versehen Sie eine Fehlermeldung mit folgenden Angaben:<br />

• Abschnitt, in dem der Fehler auftritt.<br />

• Genau Ortsangabe (a.B. nach Gleichung (4), in Bsp. 2.4.5, vor Satz 2.3.3, etc. ). Bitte vermeiden<br />

Sie die Angabe von Seitennummern.<br />

R. Hiptmair<br />

rev 35327,<br />

17. August<br />

2008<br />

• Kurze Fehlerbeschreibung<br />

Alternative: E-mail an C. Effenbergerece@sam.math.ethz.ch, Subject: NUMODE Error<br />

0.1<br />

p. 9


0.1 Danksagung<br />

Numerische<br />

Mathemtik<br />

Dank geht an Frau Evgenia Ageeva für die Aufarbeitung der MATLAB-Codes zu numerischen <strong>Beispiel</strong>en.<br />

R. Hiptmair<br />

rev 35327,<br />

17. August<br />

2008<br />

0.1<br />

p. 10


Numerische<br />

Mathemtik<br />

1 Einleitung<br />

Vertrautheit mit Grundbegriffen der Theorie der Anfangswertprobleme für gewöhnliche Differentialgleichungen<br />

wird für diesen Kurs vorausgesetzt. Diese Grundbegriffe werden in den Vorlesungen<br />

Analysis I & II im Basisjahr des Bachelorstudiums Mathematik vermittelt und sind in [3, Kap. 8 &<br />

Sekt. 11.6]. Zur Wiederholung wird ein Studium dieser Abschnitte empfohlen.<br />

Das erste Kapitel der Vorlesung frischt die theoretischen Grundlagen für Anfangswertprobleme für<br />

gewöhnliche Differentialgleichungen nochmals auf und stellt wichtige <strong>Beispiel</strong>e vor. Das Verhalten<br />

von einfachen numerischen Verfahren wird anhand dieser <strong>Beispiel</strong>e diskutiert.<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

1.1<br />

p. 11


1.1 Anfangswertprobleme (AWP)<br />

Numerische<br />

Mathemtik<br />

Eine gewöhnliche Differentialgleichung erster Ordnung (engl. first-order ordinary differential equation<br />

(ODE)):<br />

In dieser Vorlesung verwendete Terminologie, siehe [8]:<br />

ẏ = f(t,y) (1.1.1)<br />

f : I ×D ↦→ R d ˆ= rechte Seite (d ∈ N)<br />

I ⊂ R ˆ= (Zeit)intervall<br />

↔ “Zeitvariable”t<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

offene TeilmengeD ⊂ R d ˆ= Zustandsraum/Phasenraum (engl. state space/phase space)<br />

↔ “Zustandsvariable”y (Beschreibt “Zustand” eines Systems durchdreelle Zahlen)<br />

Ω := I ×D ˆ= erweiterter Zustandsraum<br />

(enthält Tupel(t,y))<br />

1.1<br />

p. 12


✎ Notation (Newton): Punkt ˙ ˆ= (totale) Ableitung nach der Zeitt<br />

✎ Notation: Fettdruck für Spaltenvektoren (Komponenten selektiert durch Subscript-Indices,<br />

z.B.y = (y 1 ,...,y d ) T ∈ R d )<br />

Numerische<br />

Mathemtik<br />

Fürd = 1 handelt es sich bei (1.1.1) um eine skalare gewöhnliche Differentialgleichung.<br />

Fürd > 1 heisst (1.1.1) auch System gewöhnlicher Differentialgleichungen:<br />

R. Hiptmair<br />

⎛<br />

d<br />

y ⎞ ⎛<br />

1 f ⎞<br />

1(t,y 1 ,...,y d )<br />

rev 35327,<br />

25. April<br />

(1.1.1) ⇐⇒ ⎝ . ⎠ = ⎝ . ⎠ .<br />

2011<br />

dt<br />

y d f d (t,y 1 ,...,y d )<br />

Grundannahme: stetige rechte Seitef : I ×D ↦→ R d 1.1<br />

p. 13


Definition 1.1.2 (Lösung einer gewöhnlichen Differentialgleichung).<br />

Eine Funktion y ∈ C 1 (J,D), J ⊂ I Intervall positiver Länge, heisst Lösung der gewöhnlichen<br />

Differentialgleichung (1.1.1), falls<br />

Numerische<br />

Mathemtik<br />

ẏ(t) = f(t,y(t)) für alle t ∈ J .<br />

<strong>Beispiel</strong> 1.1.3 (Richtungsfeld und Lösungskurven).<br />

Riccati-Differentialgleichung<br />

skalare ODE<br />

ẏ = y 2 +t 2 ➤<br />

d = 1, I,D = R + .<br />

(1.1.4)<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

1.1<br />

p. 14


1.5<br />

1.5<br />

Numerische<br />

Mathemtik<br />

1<br />

1<br />

y<br />

y<br />

0.5<br />

0.5<br />

0<br />

0 0.5 1 1.5<br />

t<br />

Fig. 1<br />

Richtungsfeld, [3, Fig. 8.1.4]<br />

0<br />

0 0.5 1 1.5<br />

t<br />

Fig. 2<br />

Lösungskurven<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Lösungskurven tangential zum Richtungsfeld in jedem Punkt des erweiterten Zustandsraumes.<br />

Alternative Interpretation des Richtungsfeldes als Geschwindigkeitsfeld einer Flüssigkeit: die Lösungskurven<br />

sind die Trajektorien von Partikeln, die in der Flüsssigkeit treiben.<br />

Listing 1.1: Erzeugen der Grafiken zu <strong>Beispiel</strong> 1.1.3<br />

1 % MATLAB function plotting the vector field and the solution curves for the<br />

1.1<br />

p. 15


2 % Ricatti differential equation for Example 1.1.3<br />

3 f u n c t i o n Ricatti<br />

4<br />

5 % define the right hand side of the differential equation as function handle<br />

6 fn = @(t,x) x.^2+t^2;<br />

7<br />

8 % plot solution curves<br />

9 f i g u r e(’Name’,’Ricatti’); hold on;<br />

0 % run ode45 and plot resuts for different starting values on y-axis<br />

1 f o r v = 0.05:0.1:1.4<br />

2 [t,y] = ode45(fn,[0 1.5],v);<br />

3 p l o t(t,y,’r-’);<br />

4 end<br />

5 % run ode45 and plot resuts for different starting values on x-axis<br />

6 f o r v = [0.4 0.7 1.0 1.2 1.4]<br />

7 [t,y] = ode45(fn,[v 1.5],0);<br />

8 p l o t(t,y,’r-’);<br />

9 end<br />

0 % set axes, labels, ...<br />

1 set(gca,’fontsize’,14); axis([0 1.5 0 1.5]);<br />

2 x l a b e l(’{\bf t}’); y l a b e l(’{\bf y}’);<br />

3 % Create EPS output file<br />

4 p r i n t -depsc2 ’riccatti1.eps’<br />

Numerische<br />

Mathemtik<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

1.1<br />

p. 16


5<br />

6 % plot tangent field<br />

7 f i g u r e(’Name’,’LV field’); hold on;<br />

8 % set up the sampling grid<br />

9 N = 8; [X,Y] = meshgrid(0:1.5/N:1.5,0:1.5/N:1.5);<br />

0 U = zeros( s i z e(X)); V = zeros( s i z e(Y));<br />

1 % get velocity vectors<br />

2 f o r i=0:N-1<br />

3 f o r j=0:N-1<br />

4 x = [1;fn(X(i+1,j+1),Y(i+1,j+1))];<br />

5 x = 0.3*x/norm(x);<br />

6 U(i+1,j+1) = x(1); V(i+1,j+1) = x(2);<br />

7 end<br />

8 end<br />

9<br />

0 % plot velocity vectors<br />

1 quiver(X,Y,U,V,’b-’);<br />

2 % set axes, labels, ...<br />

3 set(gca,’fontsize’,14); axis([0 1.5 0 1.5]);<br />

4 x l a b e l(’{\bf t}’); y l a b e l(’{\bf y}’);<br />

5 % Create EPS output file<br />

6 p r i n t -depsc2 ’riccatti2.eps’<br />

Numerische<br />

Mathemtik<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

1.1<br />

p. 17


✸<br />

Numerische<br />

Mathemtik<br />

Spezialfall: f(t,y) = f(y) ➡ autonome Differentialgleichung (hierI = R)<br />

ẏ = f(y) . (1.1.5)<br />

Hier: f : D ⊂ R d ↦→ R d is ein (stetiges) Vektorfeld (“Geschwindigkeitsfeld”, siehe Bsp. 1.1.3).<br />

Bemerkung 1.1.6 (Translationsinvarianz von Lösungen autonomer Dgl.).<br />

t ↦→ y(t) Lösung von (1.1.5) ⇒ t ↦→ y(t+τ) Lösung von (1.1.5) ∀τ ∈ R<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Bemerkung 1.1.7 (Autonomisierung).<br />

)<br />

z(t) :=<br />

( y(t)<br />

t<br />

=<br />

( z<br />

′<br />

z d+1<br />

)<br />

: (1.1.1) ↔ ż = g(z) , g(z) :=<br />

(<br />

f(zd+1 ,z ′ )<br />

)<br />

1<br />

△<br />

. (1.1.8)<br />

△<br />

1.1<br />

p. 18


Verallgemeinerung: Eine gewöhnliche Differentialgleichung n-ter Ordnung,n ∈ N:<br />

Numerische<br />

Mathemtik<br />

y (n) = f(t,y,ẏ,...,y (n−1) ) . (1.1.9)<br />

✎ Notation: Superscript<br />

(n) ˆ=n. Ableitung nach der Zeitt<br />

➤ Umwandlung in ODE (System !) erster Ordnung (d ← n·d):<br />

⎛ ⎞ ⎛ ⎞<br />

y(t) z y<br />

z(t) :=<br />

(1) 1<br />

(t)<br />

⎜ ⎟<br />

⎝ . ⎠ = ⎜z 2<br />

⎟<br />

⎝ . ⎠ ∈ Rdn : (1.1.9) ↔ ż = g(z) , g(t,z) :=<br />

y (n−1) (t) z n<br />

⎛ ⎞<br />

z 2<br />

z 3<br />

⎜ .<br />

⎟ .<br />

⎝ z n<br />

⎠<br />

f(t,z 1 ,...,z n )<br />

(1.1.10)<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Theorie<br />

Numerik<br />

für ODEs 1. Ordnung<br />

➥<br />

Theorie<br />

Numerik<br />

für ODEsn. Ordnung !<br />

Vorsicht: (1.1.10) weist spezielle Struktur auf, die ein generisches Verfahren für ODEs 1. Ordnung<br />

vielleicht nicht zur Verbesserung der Genauigkeit/Verringerung des Rechenaufwandes auszunutzen<br />

vermag (→ Diskussion in späteren Kapiteln).<br />

1.1<br />

p. 19


Bemerkung 1.1.11. Die Transformation (1.1.10) ist nur eine von (unendlich) vielen Möglichkeiten der<br />

Transformation von (1.1.9) in eine ODE 1. Ordnung.<br />

△<br />

Numerische<br />

Mathemtik<br />

Analysis: symbolisches Rechnen (Trennung der Variablen, Variation der Konstanten) liefert allgemeine<br />

Lösung einer ODE als parameterabhängige Funktionenschar, z.B. für eine skalare autonome ODE<br />

erhält man formal (mit Kettenregel) das unbestimmte Integral<br />

ẏ = f(y) ⇒ d dt G(y) = 1 ⇒ G(y) = t+C ⇒ y(t) = G−1 (t+C) , (1.1.12)<br />

wobeif(y) ≠ 0 anzunehmen ist.<br />

mit G(η) =<br />

∫ η<br />

η 0<br />

1<br />

f(ξ) dξ ,<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Allerdings ist eine symbolische Darstellung vonG, geschweige denn vonG −1 meist nicht verfügbar.<br />

1.1<br />

p. 20


Daher sind Darstellungsformeln wie (1.1.12) nur von beschränktem Nutzen und wir sind angewiesen<br />

auf numerische Lösung. Eine solche kann aber nur eine Approximation einer konkreten Funktion<br />

sein, so dass die numerischen Betrachtungen sich auf Probleme konzentrieren, für die Existenz und<br />

Eindeutigkeit von Lösungen gewährleistet ist. Das ist nur der Fall, wenn die gewöhnliche Differentialgleichung<br />

noch durch Anfangswerte komplettiert wird.<br />

Numerische<br />

Mathemtik<br />

ODE + Anfangsbedigungen = Anfangswertproblem (AWP)<br />

ẏ = f(t,y) , y(t 0 ) = y 0 für ein (t 0 ,y 0 ) ∈ Ω . (1.1.13)<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Definition 1.1.14 (Lösung eines Anfangswertproblems).<br />

Eine Lösung y : J ↦→ D, t 0 ∈ J, von (1.1.1), die y(t 0 ) = y 0 erfüllt, heisst Lösung des<br />

Anfangswertproblems (1.1.13).<br />

Bemerkung 1.1.15.<br />

Wenn ODE autonom<br />

Bem. 1.1.6<br />

➣ O.B.d.A. setze t 0 = 0 in (1.1.13)<br />

△<br />

1.1<br />

p. 21


Bemerkung 1.1.16 (Anfangswerte für Dgl. höherer Ordnung).<br />

Numerische<br />

Mathemtik<br />

Anfangswertproblem für gewöhnliche Differentialgleichungn-ter Ordnung (1.1.9):<br />

y (n) = f(t,y) , y(t 0 ) = y 0 , ẏ(t 0 ) = y 1 ,...,y (n−1) (t 0 ) = y n−1 .<br />

➡<br />

n unabhängige Anfangswerte sind vorzugeben.<br />

△<br />

1.2 <strong>Beispiel</strong>e und Grundbegriffe<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Modellierung:<br />

Anfangswertprobleme (1.1.13) beschreiben deterministische Evolutionen<br />

1.2<br />

p. 22


1.2.1 Ökologie<br />

Numerische<br />

Mathemtik<br />

<strong>Beispiel</strong> 1.2.1 (Resourcenbegrenztes Wachstum). [1, Sect. 1.1]<br />

Autonome logistische Differentialgleichung: (d = 1,D = R + ,I = R)<br />

ẏ = (α−βy)y (1.2.2)<br />

y ˆ= Populationsdichte,[y] = 1 m 2<br />

Wachstumsrateα−βy mit Wachstumskoeffizientenα,β > 0,[α] = 1 m2<br />

s<br />

,[β] =<br />

s<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Allgemein für ODE (1.1.1):<br />

y ∗ ∈ D,f(t,y ∗ ) = 0 ∀t ➣ y ∗ ist Fixpunkt/stationärer Punkt für die ODE → Sect. 3.2.<br />

1.2<br />

p. 23


1.5<br />

1<br />

Attraktiver Fixpunkty = α/β<br />

Repulsiver Fixpunkty = 0<br />

Numerische<br />

Mathemtik<br />

y<br />

0.5<br />

Separation der Variablen (1.1.12)<br />

➥ Lösung des AWP für (1.2.2)<br />

mity(0) = y 0 > 0<br />

0<br />

0 0.5 1 1.5<br />

t<br />

Fig. 3<br />

y(t) =<br />

für allet ∈ R<br />

αy 0<br />

βy 0 +(α−βy 0 )exp(−αt) , (1.2.3)<br />

R. Hiptmair<br />

Richtungsfeld und Lösungskurven (α,β = 5)<br />

rev 35327,<br />

25. April<br />

2011<br />

Numerische Integration der logistischen Differentialgleichung<br />

in MATLAB mittels Funktionode45():<br />

MATLAB-CODE: ODE-Integration<br />

fn = @(t,y) 5*y*(1-y);<br />

[t,y] = ode45(fn,[0 1.5],y0); Funktions-Handle zur Übergabe der rechten Seite<br />

plot(t,y,’r-’);<br />

Zeitintervall[t 0 ,T]<br />

Anfangswerty 0<br />

1.2<br />

Rückgabewerte: t ˆ= (Spalten)vektor von Zeitpunkten,y ˆ= (Spalten)vektor von Lösungswerten<br />

✸ p. 24


Bemerkung 1.2.4 (AWP-Löser in MATLAB). → [31]<br />

Numerische<br />

Mathemtik<br />

Aufrufsyntax:<br />

[t,y] = solver(odefun,tspan,y0);<br />

Funktionsargumente:<br />

solver : ∈ { ode23, ode45, ode113, ode15s, ode23s, ode23t,<br />

ode23tb }<br />

odefun : Funktions-Handle vom Typ@(t,y) ↔ rechte Seitef(t,y)<br />

tspan : 2-Vektor(t 0 ,T) T : Anfangs- und Endzeitpunkt für numerische Integration<br />

y0 : Anfangswerty 0 ∈ R d<br />

Rückgabewerte: t : (Spalten)vektor von Zeitpunktent 0 < t 1 < t 2 < ··· < t N = T<br />

y : (N +1)×dLösungsmatrix,i. Zeile∼y(t i )<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Warum bietet MATLAB so viele verschiedene Löser für AWPe an?<br />

Die Antwort auf diese Frage und die Auswahl des “richtigen” Lösers wird eines der Kernthemen der<br />

Vorlesung sein.<br />

1.2<br />

p. 25


△<br />

Numerische<br />

Mathemtik<br />

<strong>Beispiel</strong> 1.2.5 (Räuber-Beute-Modelle). [1, Sect. 1.1] & [16, Sect. 1.1.1]<br />

Autonome Lotka-Volterra-Dgl.: (d = 2)<br />

˙u = (α−βv)u<br />

˙v = (δu−γ)v , I = R, D = (R+ ) 2 , α,β,γ,δ > 0 . (1.2.6)<br />

Populationsdichten:<br />

u→Beute,<br />

v → Räuber<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

v<br />

Vektorfeldf für Lotka-Volterra-Dgl.<br />

✄<br />

α/β<br />

Lösungskurven sind Trajektorien von Partikeln, die<br />

vom Geschwindigkeitsfeldf mitgetragen werden.<br />

γ/δ<br />

u<br />

Fig. 4<br />

1.2<br />

p. 26


(1.2.6) ⇒ 0 =(δ − γ u )˙u−(α v −β)˙v = d dt<br />

Falls(u(t),v(t)) Lösung von (1.2.6)<br />

(δu−γlogu−αlogv +βv)<br />

} {{ }<br />

=:I(u,v)<br />

⇒ I(u(t),v(t)) ≡ const<br />

= 0 .<br />

Numerische<br />

Mathemtik<br />

Lösungen von (1.2.6) sind Niveaulinien vonI<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

1.2<br />

p. 27


6<br />

u = y 1<br />

v = y 2<br />

6<br />

Numerische<br />

Mathemtik<br />

5<br />

5<br />

4<br />

4<br />

y<br />

3<br />

v = y 2<br />

3<br />

2<br />

2<br />

1<br />

1<br />

0<br />

1 2 3 4 5 6 7 8 9 10<br />

t<br />

Zeitabhängige Lösung,y 0 := ( u(0)<br />

v(0)<br />

) =<br />

( 42<br />

)<br />

0<br />

0 0.5 1 1.5 2 2.5 3 3.5 4<br />

u = y 1<br />

Lösungskurven von (1.2.6)↔Niveaulinien vonI<br />

Fixpunkt<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Geschlossene Lösungskurven<br />

↔ (1.2.6) hat ausschliesslich periodische Lösungen<br />

(füru(0),v(0) > 0)<br />

✸<br />

1.2<br />

p. 28


Definition 1.2.7 (Erstes Integral).<br />

Ein Funktional I : D ↦→ R heisst erstes Integral/Invariante (engl. invariant) der ODE (1.1.1),<br />

wenn<br />

Numerische<br />

Mathemtik<br />

I(y(t)) ≡ const<br />

für jede Lösungy = y(t) von (1.1.1).<br />

Notwendige und hinreichende Bedingung für differenzierbares erstes Integral<br />

I erstes Integral von (1.1.1)<br />

⇔ gradI(y) ·f(t,y) = 0 ∀(t,y) ∈ Ω . (1.2.8)<br />

Euklidisches Skalarprodukt<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

1.2.2 Chemische Reaktionskinetik [8, Sect. 1.3]<br />

<strong>Beispiel</strong> 1.2.9 (Bimolekulare Reaktion).<br />

1.2<br />

p. 29


A<br />

C<br />

Reaktion:<br />

A+B<br />

k 2<br />

←−<br />

−→<br />

k1<br />

C+D . (1.2.10)<br />

Numerische<br />

Mathemtik<br />

B<br />

D<br />

Fig. 5<br />

mit Reaktionskonstanten k 1 (‘Hinreaktion”), k 2<br />

(“Rückreaktion”),[k 1 ] = [k 2 ] = cm3<br />

mols .<br />

Faustregel:<br />

Geschwindigkeit einer bimolekularen Reaktion proportional zum Produkt der Konzentrationen<br />

der Reaktionspartner:<br />

für (1.2.10): ċ A = ċ B = −ċ C = −ċ D = −k 1 c A c B +k 2 c C c D . (1.2.11)<br />

c A ,c B ,c C ,c D ˆ= (zeitabhängige) Konzentrationen der Reaktanden,[c X ] = mol<br />

cm 3 ➥<br />

c X (t) > 0;∀t<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

(1.2.11) = autonome gewöhnliche Dgl. (1.1.5) mit<br />

⎛ ⎞<br />

c A (t)<br />

y(t) = ⎜c B (t)<br />

⎟<br />

⎝c C (t) ⎠ , f(t,y) = (−k 1y 1 y 2 +k 2 y 3 y 4 )<br />

c D (t)<br />

Massenerhaltung:<br />

⎛ ⎞<br />

1<br />

⎜ 1<br />

⎟<br />

⎝−1⎠ .<br />

−1<br />

d<br />

dt (c A(t)+c B (t)+c C (t)+c D (t)) = 0<br />

✸<br />

1.2<br />

p. 30


<strong>Beispiel</strong> 1.2.12 (Oregonator-Reaktion).<br />

Spezialfall einer zeitlich oszillierenden Zhabotinski-Belousov-Reaktion [11]:<br />

Numerische<br />

Mathemtik<br />

BrO − 3 +Br− ↦→ HBrO 2<br />

HBrO 2 +Br − ↦→ Org<br />

BrO − 3 +HBrO 2 ↦→ 2HBrO 2 +Ce(IV)<br />

(1.2.13)<br />

2HBrO 2 ↦→ Org<br />

Ce(IV) ↦→ Br −<br />

y 1 := c(BrO − 3 ): ẏ 1 = −k 1 y 1 y 2 −k 3 y 1 y 3 ,<br />

y 2 := c(Br − ): ẏ 2 = −k 1 y 1 y 2 −k 2 y 2 y 3 +k 5 y 5 ,<br />

y 3 := c(HBrO 2 ): ẏ 3 = k 1 y 1 y 2 −k 2 y 2 y 3 +k 3 y 1 y 3 −2k 4 y 2 3 ,<br />

y 4 := c(Org): ẏ 4 = k 2 y 2 y 3 +k 4 y 2 3 ,<br />

y 5 := c(Ce(IV)): ẏ 5 = k 3 y 1 y 3 −k 5 y 5 ,<br />

mit (dimensionslosen) Reaktionskonstanten:<br />

k 1 = 1.34 , k 2 = 1.6·10 9 , k 3 = 8.0·10 3 , k 4 = 4.0·10 7 , k 5 = 1.0 .<br />

Periodische chemische Reaktion ➽ Video 1, Video 2<br />

(1.2.14)<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

MATLAB-Simulation mit Anfangswerten y 1 (0) = 0.06, y 2 (0) = 0.33 · 10 −6 , y 3 (0) = 0.501 · 10 −10 ,<br />

y 4 (0) = 0.03,y 5 (0) = 0.24·10 −7 :<br />

1.2<br />

p. 31


10 −3 Concentration of Br −<br />

Concentration of HBrO 2<br />

Numerische<br />

Mathemtik<br />

10 −5 t<br />

10 −4<br />

10 −6<br />

10 −5<br />

10 −7<br />

10 −6<br />

c(t)<br />

10 −7<br />

c(t)<br />

10 −8<br />

10 −8<br />

10 −9<br />

10 −9<br />

10 −10<br />

0 20 40 60 80 100 120 140 160 180 200<br />

t<br />

Fig. 6<br />

10 −10<br />

10 −11<br />

0 20 40 60 80 100 120 140 160 180 200<br />

Fig. 7 ✸<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

1.2.3 Physiologie<br />

<strong>Beispiel</strong> 1.2.15 (Zeemans Herzschlagmodell). → [6, p. 655]<br />

1.2<br />

p. 32


Grössen:<br />

l = l(t) ˆ= Länge der Herzmuskelfaser<br />

p = p(t) ˆ= elektrochemisches Potential<br />

Numerische<br />

Mathemtik<br />

Dimensionsloses phänomenologisches Modell:<br />

˙l = −(l 3 −αl+p) ,<br />

ṗ = βl ,<br />

(1.2.16)<br />

mit Parametern:<br />

α ˆ= Vorspannung der Muskelfaser<br />

β ˆ= (phänomenologischer) Rückkopplungsparameter<br />

Vektorfelder und numerische Lösungen für verschiedene Parameter:<br />

2.5<br />

2<br />

1.5<br />

1<br />

Phase flow for Zeeman model (α = 3,β=1.000000e−01)<br />

3<br />

2<br />

1<br />

Heartbeat according to Zeeman model (α = 3,β=1.000000e−01)<br />

l(t)<br />

p(t)<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

0.5<br />

p<br />

0<br />

l/p<br />

0<br />

−0.5<br />

−1<br />

−1<br />

−1.5<br />

−2<br />

−2<br />

−2.5<br />

−2.5 −2 −1.5 −1 −0.5 0 0.5 1 1.5 2 2.5<br />

l<br />

Fig. 8<br />

−3<br />

0 10 20 30 40 50 60 70 80 90 100<br />

time t<br />

Fig. 9<br />

1.2<br />

p. 33


2.5<br />

2<br />

Phase flow for Zeeman model (α = 5.000000e−01,β=1.000000e−01)<br />

3<br />

Heartbeat according to Zeeman model (α = 5.000000e−01,β=1.000000e−01)<br />

l(t)<br />

p(t)<br />

Numerische<br />

Mathemtik<br />

1.5<br />

2<br />

1<br />

1<br />

0.5<br />

p<br />

0<br />

l/p<br />

0<br />

−0.5<br />

−1<br />

−1<br />

−1.5<br />

−2<br />

−2<br />

−2.5<br />

−2.5 −2 −1.5 −1 −0.5 0 0.5 1 1.5 2 2.5<br />

l<br />

Fig. 10<br />

Beobachtung: α ≪ 1 ➤ “Kammerflimmern”<br />

−3<br />

0 10 20 30 40 50 60 70 80 90 100<br />

time t<br />

Fig. 11<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Listing 1.2: Erzeugen der Grafiken zu <strong>Beispiel</strong> 1.2.15<br />

1 f u n c t i o n heartbeat<br />

2 % MATLAB function for creating plots for Example 1.2.15<br />

3 beat(3,’normalbeat’); beat(0.5,’crazybeat’);<br />

4 r e t u r n<br />

1.2<br />

p. 34


5<br />

6 f u n c t i o n beat(alpha,filename)<br />

7 % MATLAB function for numerical simulation of the Zeeman model<br />

8 % (1.2.16) of heartbeat<br />

9<br />

0 i f (nargin < 2), filename = ’Heartbeat’; end<br />

1 i f (nargin < 1), alpha = 2; end<br />

2<br />

3 % Model equations (right hand side)<br />

4<br />

5 beta = 0.1; % feedback parameter<br />

6 l0 = 0; % length of relaxed muscle fibre<br />

7<br />

8 % Function handle to right hand side vector field<br />

9 f_l = @(l,p) -(l.^3-alpha*l+p);<br />

0 f_p = @(l,p) beta*(l-l0);<br />

1 odefun = @(t,y) [f_l(y(1),y(2)); f_p(y(1),y(2))];<br />

2<br />

3 % Create plot of vector field<br />

4 f i g u r e(’name’,’heartbeat field’); hold on;<br />

5 [L,P] = meshgrid((-2.5:0.25:2.5),(-2.5:0.5:2.5));<br />

6 quiver(L,P,f_l(L,P),f_p(L,P),1.5,’m-’);<br />

7 axis([-2.5 2.5 -2.5 2.5]);<br />

Numerische<br />

Mathemtik<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

1.2<br />

p. 35


8 x l a b e l(’{\bf l}’,’fontsize’,14);<br />

9 y l a b e l(’{\bf p}’,’fontsize’,14);<br />

0 t i t l e( s p r i n t f(’Phase flow for Zeeman model (\\alpha =<br />

%d,\\beta=%d)’,...<br />

1 alpha,beta));<br />

Numerische<br />

Mathemtik<br />

2<br />

3 % Compute evolution of l (length) and p (potential), see Rem. 1.2.4<br />

4 tspan = [0 100]; % Duration of simulation<br />

5 [t,y] = ode45(odefun,tspan,[1;0],odeset(’abstol’,1E-12));<br />

6<br />

7 % Plot trajectory of solution<br />

8 p l o t(1,0,’k*’,’markersize’,10);<br />

9 p l o t(y(:,1),y(:,2),’b-’);<br />

0 hold off;<br />

1 p r i n t(’-depsc2’, s p r i n t f(’%s1.eps’,filename));<br />

2<br />

3 % Plot time-dependent solution<br />

4 f i g u r e(’name’,’heartbeat’);<br />

5 p l o t(t,y(:,1),’r-’,t,y(:,2),’b-’);<br />

6 t i t l e( s p r i n t f(’heartbeat according to Zeeman model (\\alpha =<br />

%d,\\beta=%d)’,alpha,beta));<br />

7 x l a b e l(’{\bf time t}’,’fontsize’,14);<br />

8 y l a b e l(’{\bf l/p}’,’fontsize’,14);<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

1.2<br />

p. 36


9 axis([tspan -3 3]); legend(’l(t)’,’p(t)’);<br />

0<br />

1 p r i n t(’-depsc2’, s p r i n t f(’%s2.eps’,filename));<br />

Numerische<br />

Mathemtik<br />

✸<br />

1.2.4 Mechanik<br />

<strong>Beispiel</strong> 1.2.17 (Mathematisches Pendel).<br />

Zustandsraum D = Konfigurationsraum für Minimalkoordinaten<br />

(= Auslenkungswinkel)<br />

➣<br />

d = 1, D = T (Kreislinie = “1D Torus”)<br />

Auslenkungswinkelα ∈ [−π,π[)<br />

Newtonsche Bewegungsgleichungen:<br />

[1, I.3. Bsp. (3.4c)]<br />

l<br />

α<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

ml ¨α(t) = −mgsinα(t) . (1.2.18)<br />

autonome ODE 2. Ordnung, siehe (1.1.9)<br />

mg<br />

Fig. 12<br />

1.2<br />

p. 37


Formale Umwandlung in gewöhnliche Differentialgleichungen 1. Ordnung:<br />

( ) ( α<br />

p<br />

Winkelgeschwindigkeit<br />

p := ˙α ⇒ d dt<br />

=<br />

)<br />

p<br />

− g l sinα<br />

. (1.2.19)<br />

Numerische<br />

Mathemtik<br />

Energieerhaltung: E(t) = 1 2 ml2 p(t) 2 −mglcosα(t) ⇒ E(t) ≡ const. (1. Integral→Def. 1.2.7) .<br />

kinetische EnergieT(t)<br />

potentielle EnergieU(t)<br />

4<br />

Phase field for pendulum: l=1, g=1<br />

3<br />

3<br />

2<br />

p = velocity<br />

2<br />

1<br />

0<br />

−1<br />

p = velocity<br />

1<br />

0<br />

−1<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

−2<br />

−3<br />

−2<br />

−4<br />

−4 −3 −2 −1 0 1 2 3 4<br />

q = α<br />

Vektorfeld für (1.2.19)<br />

Fig. 13<br />

−3<br />

−3 −2 −1 0 1 2 3<br />

q = α<br />

Isolinien der Energie↔Lösungskurven<br />

Fig. 14<br />

✸<br />

1.2<br />

p. 38


Definition 1.2.20 (Hamiltonsche Differentialgleichung). → [16, Sect. VI.1.2]<br />

Es sei n ∈ N, M ⊂ R n offen, H : R n ×M ↦→ R, H = H(p,q), stetig differenzierbar. Dann<br />

heisst die gewöhnliche Differentialgleichung erster Ordnung<br />

Numerische<br />

Mathemtik<br />

ṗ(t) = − ∂H ∂H<br />

(p(t),q(t)) , ˙q(t) = (p(t),q(t)) , (1.2.21)<br />

∂q ∂p<br />

ein autonomes Hamiltonsches System mit Hamilton-Funktion (engl. Hamiltonian)H.<br />

Bemerkung 1.2.22. Bewegungsgleichungen der klassischen Mechanik führen auf autonome Hamiltonsches<br />

Systeme, siehe [1, Sect. I.3] für eine Einführung, [2] für eine umfassende Darstellung.<br />

△<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

✬<br />

✩<br />

Lemma 1.2.23 (“Energieerhaltungssatz”).<br />

Die Hamilton-FunktionH is ein erstes Integral des autonomen Hamiltonschen Systems.<br />

✫<br />

✪<br />

1.2<br />

p. 39


Hamiltonsches System in der Form (1.1.1):<br />

( p<br />

y = ⇒ (1.2.21) ⇔ ẏ = J<br />

q)<br />

−1·gradH(y) , J :=<br />

✎ Notation: I n ˆ=n×n Einheitsmatrix<br />

( ) 0 In<br />

−I n 0<br />

∈ R 2n,2n . (1.2.24)<br />

Numerische<br />

Mathemtik<br />

Zusammen mit (1.2.8) folgt sofort Lemma 1.2.23, denn J ist schiefsymmetrisch (J T = −J) und für<br />

jede schiefsymmetrische MatrixA ∈ R n,n giltx·Ax = 0 ∀x ∈ R n .<br />

<strong>Beispiel</strong> 1.2.25 (Massenpunkt im Zentralfeld).<br />

Newtonsche Bewegungsgleichungen eines Körpers (Ortskoordinate r = r(t)) mit Masse m > 0 im<br />

Kraftfeld f : R n ↦→ R n ,n ∈ N:<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Spezialfall:<br />

radialsymmetrisches konservatives Kraftfeld<br />

m¨r(t) = f(r(t)) . (1.2.26)<br />

f(x) = −gradU(x) , x ∈ R n , U(x) = G(‖x‖) . (1.2.27)<br />

√<br />

✎ Notation: ‖x‖ := x 2 1 +···+x2 n ˆ= Euklidische Norm eines Vektors<br />

Speziell G(r) = − G 0<br />

r<br />

:<br />

Keplerproblem: [16, Sect. I.2], [8, Sect. 1.1]<br />

1.2<br />

p. 40


←→ Hamiltonsches System (→ Def. 1.2.20) mit KonfigurationsraumM := R n \{0},q := r, und<br />

Hamilton-Funktion (Energie) H(p,q) := 1<br />

2m ‖p‖2 +G(‖q‖) (1.2.28)<br />

p := mṙ ˆ= Impuls, kinetische Energie potentielle Energie<br />

Numerische<br />

Mathemtik<br />

ṗ = −G ′ (‖q‖) q<br />

‖q‖ , ˙q = m−1 p . (1.2.29)<br />

✬<br />

Lemma 1.2.30 (Bahnebene).<br />

Jede Lösung ( p<br />

q<br />

) : J ⊂ R ↦→ R<br />

2n von (1.2.29) erfüllt<br />

✩<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

p(t),q(t) ∈ Span{p(t 0 ),q(t 0 )} ∀t 0 ,t ∈ J .<br />

✫<br />

✪<br />

✬<br />

Lemma 1.2.32 (Drehimpulserhaltung).<br />

Für n = 3 ist der Drehimpuls Drehimpuls (bzgl. 0) M := p×q(engl. angular momentum) ein<br />

erstes Integral (→ Def. 1.2.7) von (1.2.29).<br />

✫<br />

✩<br />

✪<br />

1.2<br />

p. 41


✎ Notation: × ˆ= Vektorprodukt im R 3 :<br />

a×b =<br />

⎛<br />

a ⎞<br />

2b 3 −a 3 b 2<br />

⎝a 3 b 1 −a 1 b 3<br />

⎠ .<br />

a 1 b 2 −a 2 b 1<br />

Numerische<br />

Mathemtik<br />

✬<br />

✩<br />

Theorem 1.2.33 (2. Keplersches Gesetz).<br />

Löst t ↦→ q(t) die Differentialgleichung<br />

(1.2.29), so überstreicht der Vektor q(t) in<br />

gleichen Zeitspannen gleiche Flächen in der<br />

Bahnebene.<br />

✫<br />

✪<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

1. Keplersches Gesetz (für Gravitationspotential):<br />

FürG(r) = − G 0<br />

r sind die Lösungskurven von (1.2.26) Ellipsen mit Brennpunkt0.<br />

Ausblick: Zur Simulation der Planetenbewegung in unserem Sonnensystem müsste man (1.2.29)<br />

über einen langen Zeitraum integrieren. Leider ist eine solche Langzeitintegration nicht unproblematisch.<br />

Zwar erhalten sowohl das implizite Euler- als auch das Störmer-Verlet-Verfahren den Dre-<br />

1.2<br />

p. 42


himpuls exakt, jedoch nicht die Energie des Systems (Hamilton-Funktion) [16, Table I.2.1]. Diese<br />

Problematik wird in Abschnitt 4.4 eingehend behandelt.<br />

Numerische<br />

Mathemtik<br />

✸<br />

1.3 Theorie [8, Sect. 2], [1, Ch. II]<br />

Zu gegebener rechter Seite f : Ω := I ×D ↦→ R d , d ∈ N, I ⊂ R offenes Intervall,D ⊂ R d offene<br />

Menge, betrachte das Anfangswertproblem<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

ẏ = f(t,y) , y(t 0 ) = y 0 für gegebenes (t 0 ,y 0 ) ∈ Ω . (1.1.13)<br />

1.3<br />

p. 43


1.3.1 Existenz und Eindeutigkeit von Lösungen<br />

Numerische<br />

Mathemtik<br />

Zwei wichtige Begriffe:<br />

Definition 1.3.1 (Maximale Fortsetzbarkeit einer Lösung).<br />

Eine Lösung y ∈ C 1 ([t 0 ,t + [,D) (→ Def. 1.1.2) des AWP (1.1.13) heisst maximal (in die Zukunft)<br />

fortgesetzt, wenn genau einer der drei folgenden Fälle zutrifft<br />

(i) t + = ∞ (Lösung existiert für alle Zeiten)<br />

(ii) t + < ∞ ,<br />

(„Blow-up”)<br />

lim ‖ỹ(t)‖ = ∞<br />

t→t +<br />

(iii) t + < ∞ ,<br />

lim dist((t,ỹ(t)),∂Ω) = 0 .<br />

t→t +<br />

(„Kollaps”))<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

(Analog: Maximal fortgesetzt in die Vergangenheit auf]t − ,t 0 ])<br />

Erinnerung:<br />

Ω := I ×D ist der erweiterte Zustandsraum<br />

➣ Kollaps↔Lösung läuft zum Rand des erweiterten Zustandsraumes!<br />

1.3<br />

p. 44


y<br />

(i)<br />

Numerische<br />

Mathemtik<br />

(iii)<br />

: „Blow-Up”<br />

(ii)<br />

: „Kollaps”<br />

:J(t 0 ,y 0 ) = R<br />

t<br />

Notation: J(t 0 ,y 0 ) =]t − ,t + [ = maximales Existenzintervall für Lösung von AWP (1.1.13).<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

1.3<br />

p. 45


Definition 1.3.2 (Lokale Lipschitz-Stetigkeit).<br />

f : Ω ↦→ R d heisst lokal Lipschitz-stetig<br />

Numerische<br />

Mathemtik<br />

⇔:<br />

∀(t,y) ∈ Ω: ∃δ > 0, L > 0:<br />

‖f(τ,z)−f(τ,w)‖ ≤ L‖z−w‖<br />

∀z,w ∈ D: ‖z−y‖ < δ, ‖w−y‖ < δ, ∀τ ∈ I: |t−τ| < δ .<br />

Lokale Lipschitz-Stetigkeit impliziert globale Lipschitz-Stetigkeit auf jeder kompakten Teilmenge K<br />

vonΩ:<br />

∃L = L(K) > 0: ‖f(τ,z)−f(τ,w)‖ ≤ L‖z−w‖ ∀(τ,z),(τ,w) ∈ K .<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

✎ Notation: D y f ˆ= Ableitung vonf nach Zustandsvariablen (= Jacobimatrix∈ R d,d !)<br />

1.3<br />

p. 46


Ein einfaches Kriterium für lokale Lipschitz-Stetigkeit (Beweis über Mittelwertsatz):<br />

Numerische<br />

Mathemtik<br />

✬<br />

✩<br />

Lemma 1.3.3 (Kriterium für lokale Lipschitz-Stetigkeit).<br />

Sindf undD y f stetig aufΩ, so istf lokal Lipschitz-stetig (→ Def. 1.3.2).<br />

✫<br />

✪<br />

✬<br />

Theorem 1.3.4 (Satz von Peano & Picard-Lindelöf).<br />

✫<br />

[1, Satz II(7.6)]<br />

Falls f : ˆΩ ↦→ R d lokal Lipschitz-stetig in der Variablen y (→ Def. 1.3.2), so hat das AWP<br />

(1.1.13) für beliebige Anfangsbedingungen (t 0 ,y 0 ) ∈ Ω eine eindeutige maximal fortgesetzte<br />

(→ Def. 1.3.1) Lösungy : J(t 0 ,y 0 ) ↦→ D.<br />

✩<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

✪<br />

Beweisidee:<br />

(→ [32, I.§6], [3, Sekt. 11.6]) Integration von (1.1.13) liefert<br />

∫ t<br />

y(t) = y 0 +<br />

t 0<br />

f(s,y(s)) ds, t ≥ t 0 . (1.3.5)<br />

1.3<br />

p. 47


Definiere Raum<br />

F = {y ∈ C([t 0 ,t 1 [), y(t 0 ) = y 0 }<br />

Numerische<br />

Mathemtik<br />

für eint 1 > t 0 und den Operator<br />

T : F → F, T : y ↦→ z(t) = y 0 +<br />

∫ t<br />

t 0<br />

f(s,y(s)) ds.<br />

Damit kann (1.3.5) auf dem Intervall [t 0 ,t 1 ] als Fixpunktgleichung T(y) = y in F geschrieben werden.<br />

Aus der lokalen Lipschitz-Stetigkeit folgt für genügend kleinest 1 > t 0 , dassT eine Kontraktion<br />

ist. Mit dem Banachschen Fixpunktsatz folgt die Behauptung für das Zeitintervall (t 0 ,t 1 ). Das maximale<br />

Existenzintervall erhält man über Fortsetzung.<br />

Bemerkung 1.3.6 (Definitionsintervalle von Lösungen von AWPen).<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

„Die Lösung eines Anfangswertproblems sucht sich Ihren Definitionsbereich selbst”<br />

!<br />

DefinitionsbereichJ(t 0 ,y 0 ) hängt (meist) von(t 0 ,y 0 ) ab !<br />

Terminologie: FallsJ(t 0 ,y 0 ) = I ➥ Lösungy : I ↦→ R d ist global.<br />

△<br />

1.3<br />

p. 48


Definition 1.3.7 (Evolutionsoperator).<br />

Die zweiparametrige Familie Φ s,t von Abbildungen Φ s,t : D ↦→ D heisst Evolutionsoperator<br />

zur Dgl.ẏ = f(t,y), wenn<br />

Numerische<br />

Mathemtik<br />

t ∈ J(s,z) ↦→ Φ s,t z Lösung des AWP<br />

ẏ = f(t,y) ,<br />

y(s) = z ,<br />

für alle (s,z) ∈ Ω .<br />

Definitionsbereich: Φ :<br />

{<br />

˜Ω ↦→ D<br />

(t,s,y) ↦→ Φ s,t y<br />

, ˜Ω := ⋃<br />

(s,y)∈Ω<br />

J(s,y)×{(s,y)}<br />

Satz 1.3.4 ⇒ Φ t,t = Id , Φ s,t y = (Φ r,t ◦Φ s,r )y , t,r ∈ J(s,y), (s,y) ∈ Ω . (1.3.8)<br />

Konvention: Für autonome Differentialgleichungen (1.1.5) (→ Bem. 1.1.15): Φ t := Φ 0,t<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

➣ FallsJ(0,y) = R ∀y ∈ D aus (1.3.8):<br />

Gruppe von Abbildungen vonD: Φ s ◦Φ t = Φ s+t , Φ −t ◦Φ t = Id ∀t ∈ R . (1.3.9)<br />

1.3<br />

p. 49


Bemerkung 1.3.10 (Numerische Integratoren als approximative Evolutionsoperatoren).<br />

Numerische<br />

Mathemtik<br />

MATLAB-Lösung eines , vgl. Bem. 1.2.4<br />

[t,y] = solver(odefun,[t0 T],y0)<br />

Φ s,t y<br />

☞<br />

Numerische Lösungsverfahren für Anfangswertprobleme für eine gewöhnliche Differentialgleichung<br />

realisieren Approximationen von Evolutionsoperatoren→Def. 2.1.2.<br />

△<br />

<strong>Beispiel</strong> 1.3.11 (Autonome skalare Differentialgleichungen). ✄ d = 1<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

•f(t,y) = −λy, λ ∈ R Lösung des AWP y(t) = y 0 e −λt ,t ∈ R<br />

existiert für alle Zeiten, d.h.]t − ,t + [= R für jedesy 0 : globale Lösung.<br />

Zugehöriger Evolutionsoperator:<br />

Φ t : R ↦→ R , Φ t (y 0 ) = e −λt y 0 .<br />

•f(t,y) = λy 2 ,λ ∈ R:<br />

ẏ = λy 2 ,y(0) = y 0 ∈ R<br />

1.3<br />

p. 50


Lösung:<br />

⎧<br />

⎨<br />

y(t) =<br />

1<br />

y0 −1<br />

⎩<br />

−λt , fallsy 0 ≠ 0 , (Blow-up)<br />

0 , fallsy 0 = 0 .<br />

λ,y 0 > 0 ⇒ J(0,y 0 ) =]−∞,1/λy 0 [ .<br />

,<br />

y(t)<br />

10<br />

8<br />

6<br />

4<br />

2<br />

0<br />

−2<br />

y 0<br />

= −0.5<br />

y 0<br />

= −1<br />

y 0<br />

= 1<br />

y 0<br />

= 0.5<br />

Numerische<br />

Mathemtik<br />

−4<br />

Lösungskurven fürλ = 1<br />

✄<br />

−6<br />

−8<br />

•f(t,y) = − 1 √ y<br />

,D = R + , Anfangswerty(0) = 1<br />

−10<br />

−3 −2 −1 0 1 2 3<br />

t<br />

Fig. 15<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

➣ y(t) = (1−3t/2) 2 /3 ,t − = −∞,t + = 2/3<br />

(Lösung läuft zum Randy = 0 des erweiterten Zustandraums: Kollaps)<br />

•f(t,y) = sin(1/y)−2,D = R + , Anfangswerty(0) = 1 [8, Bsp. 2.14]<br />

Lösungy(t) erfülltẏ ≤ −1 ➥ y(t) ≤ 1−t ➥ Kollaps fürt ∗ < 1.<br />

1.3<br />

p. 51


1<br />

0.9<br />

0.8<br />

0.014<br />

0.012<br />

Numerische<br />

Mathemtik<br />

0.7<br />

0.01<br />

0.6<br />

0.008<br />

y(t)<br />

0.5<br />

y(t)<br />

0.4<br />

0.006<br />

0.3<br />

0.004<br />

0.2<br />

0.1<br />

0.002<br />

0<br />

0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8<br />

t<br />

Fig. 16<br />

0<br />

0.76 0.761 0.762 0.763 0.764 0.765 0.766 0.767 0.768 0.769<br />

t<br />

Fig. 17<br />

✸<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

1.3.2 Lineare AWPe [3, Sekt. 8.2]<br />

1.3<br />

p. 52


Vorbereitung:<br />

Basiswechsel im Zustandsraum (kovariante Transformation):<br />

ŷ = S −1 y , S ∈ R d,d reguläre Matrix (zeitunabhängig).<br />

Numerische<br />

Mathemtik<br />

y löst<br />

{ẏ = f(t,y) ,<br />

y(t 0 ) = y 0<br />

⇔ ŷ := S −1 y löst<br />

{<br />

˙ŷ =̂f(t,ŷ) ,<br />

ŷ(t 0 ) = S −1 y 0<br />

mit̂f(t,ŷ) = S −1 f(t,Sŷ) .<br />

(1.3.12)<br />

Betrachte Lineare Differentialgleichung mit konstanten Koeffizienten im R d :<br />

D = R d ,Ω = I ×R d<br />

Koeffizientenmatrix A ∈ R d,d<br />

ẏ = Ay+g(t) . (1.3.13)<br />

„Quellterm”: stetige Funktiong : I ↦→ R d<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Annahme:<br />

A diagonalisierbar,∃S ∈ R d,d regulär:S −1 AS = diag(λ 1 ,...,λ d ),λ i ∈ C<br />

•g ≡ 0: ẏ = Ay (autonome homogene lineare Dgl., allgemeinere Diskussion [8, Sect. 3.2.2])<br />

ŷ := S −1 y löst<br />

˙ŷ 1 = λ 1 ŷ 1 ,<br />

. ⇒ ŷ i (t) = (S −1 y 0 ) i e λit , t ∈ R .<br />

˙ŷ d = λ d ŷ d<br />

1.3<br />

p. 53


⎛<br />

y(t) = S⎜<br />

⎝<br />

e λ 1t<br />

...<br />

...<br />

⎞<br />

⎟<br />

⎠ S−1<br />

e λ dt<br />

} {{ }<br />

Matrixexponentialfunktion exp(At)<br />

y 0 .<br />

Numerische<br />

Mathemtik<br />

Allgemeine Definition der Matrixexponentialfunktion durch<br />

“Matrixexponentialreihe”: exp(M) =<br />

∞∑<br />

k=0<br />

1<br />

k! Mk . (1.3.14)<br />

Wichtige Eigenschaft:<br />

Matrixexponentialfunktion kommutiert mit Ähnlichkeitstransformationen<br />

M = S −1 AS ⇒ exp(M) = S −1 exp(A)S ∀A,M,S ∈ C d,d , S regulär. (1.3.15)<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

• Inhomogener Fall<br />

ẏ(t) = Ay(t)+g(t) partikuläre Lösung durch „Variation der Konstanten”:<br />

1.3<br />

p. 54


Ansatz:<br />

y(t) = exp(At)z(t) mitz ∈ C 1 (R,R d ) → [1, Thm I(5.14)]<br />

ẏ(t) = Aexp(At)z(t)+exp(At)ż(t) = Ay(t)+g(t) = Aexp(At)z(t)+g(t)<br />

ż(t) = exp(−At)g(t) ⇒ z(t) = y 0 +<br />

∫ t<br />

t 0<br />

exp(−Aτ)g(τ)dτ<br />

y(t) = exp(A(t−t 0 ))y 0 + ∫ t<br />

t0<br />

exp(A(t−τ))g(τ)dτ =: Φ t 0,t y 0 .<br />

Numerische<br />

Mathemtik<br />

Lsg. des homogenen Problems<br />

Faltung mit Inhomogenität<br />

Allgemeinere Betrachtungen<br />

→ [1, Kap. III]:<br />

Bemerkung 1.3.16 (Allgemeine Variation-der-Konstanten-Formel). → [1, Thm. (11.13)]<br />

A : J ⊂ R ↦→ R d,d stetige Matrixfunktion,J ⊂ R Intervall<br />

g : J ↦→ R d stetig<br />

(s,t) ↦→ E(s,t) ∈ R d,d beschreibt Evolutionsoperator, definiert durch<br />

∂E<br />

(s,t) = A(t)E(s,t) ∀(s,t) ∈ J ×J , E(s,s) = I .<br />

∂t (1.3.17)<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

1.3<br />

p. 55


Dann ist die (eindeutige→ Thm. 1.3.4) Lösung des nicht-autonomen linearen Anfangswertproblems<br />

ẏ = A(t)y+g(t) , y(t 0 ) = y 0 ,<br />

Numerische<br />

Mathemtik<br />

gegeben durch<br />

∫t<br />

y(t) = E(t,t 0 )y 0 + E(t,s)g(s)ds , t ∈ J . (1.3.18)<br />

t 0<br />

△<br />

Bemerkung 1.3.19 (Bedeutung linearer AWPe).<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Linearisierung um einen stationären Punkt f(y ∗ ) = 0:<br />

fallsf ∈ C 2 .<br />

y ≈ y ∗ : f(y) = D y f(y ∗ )(y−y ∗ )+O(|y−y ∗ | 2 ) ,<br />

➣<br />

Lösungen von ẏ = f(y) verhalten sich in der Umgebung von y ∗ (qualitativ) wie Lösungen der<br />

linearen ODEẏ = D y f(y ∗ )y.<br />

△<br />

1.3<br />

p. 56


1.3.3 Sensitivität [8, Sect. 3.1]<br />

Numerische<br />

Mathemtik<br />

1.3.3.1 Grundbegriffe<br />

Erinnerung<br />

(→ Vorlesung „Numerische Methoden”):<br />

Problem = AbbildungΠ : X ↦→ Y von DatenraumX in den ErgebnisraumY<br />

(beide versehen mit Metrikend X ,d Y )<br />

✗<br />

✖<br />

Problem ist wohlgestellt (engl. well-posed), wennΠstetig.<br />

✔R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

✕<br />

Kondition/Sensitivität eines Problems:<br />

Mass für Einfluss von Störungen in den Daten auf das Ergebnis<br />

d<br />

Absolute Kondition: κ abs := sup Y (Π(x),Π(x ′ ))<br />

x,x ′ ∈X,x≠x ′ d X (x,x ′ )<br />

Sprachgebrauch: Problem ist „gut konditioniert”, wenn „κ abs ≈ 1”<br />

. (1.3.20)<br />

1.3<br />

p. 57


Numerische<br />

Mathemtik<br />

• Wohlgestelltheit und Gutkonditioniertheit eines Problems hängen entscheidend von den<br />

gewählten Metriken ab. Diese sind bei praktischen Problemen dadurch bestimmt, “woran der<br />

Anwender interessiert ist”.<br />

• Als Folge von unvermeidlichen Eingabefehlern, macht nur die numerische Lösung von<br />

wohlgestellten Problemen Sinn.<br />

• Absolute Konditionszahl ist die globale Lipschitz-Konstante der Problemabbildung (bzgl. der gewählten<br />

Metriken).<br />

Asymptotische (absolute) Kondition<br />

κ ∞ abs<br />

:= lim<br />

δ→0<br />

sup<br />

0


wobei‖·‖ ˆ= Matrixnorm induziert durch Vektornormen auf R m , R n .<br />

Numerische<br />

Mathemtik<br />

1.3.3.2 Unser Problem: das Anfangswertproblem<br />

Anwendung (der abstrakten Konzepte) auf Anfangswertproblem (1.1.13):<br />

Szenario ➊:<br />

Eingabedatumy 0 ➥<br />

DatenraumR d , Metrik: Euklidische Vektornorm<br />

Ausgabey(T) zu EndzeitpunktT > t 0 ➥<br />

Szenario ➋:<br />

ErgebnisraumR d , Metrik: Euklidische Vektornorm<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Eingabedatumy 0 ➥<br />

DatenraumR d , Metrik: Euklidische Vektornorm<br />

Ausgabe: Lösungsfunktiont ∈ J ⊂ I ↦→ y(T)<br />

➥ ErgebnisraumC 0 (J,R d ), Metrik: Maximumnorm‖·‖ L ∞ (J)<br />

Szenario ➌:<br />

1.3<br />

p. 59


Eingabedaten: Anfangswerty 0 und rechte Seitef<br />

➥ DatenraumR d ×C 1 (I×R d ,R d ), Metrik: Euklidische Vektornorm & Maximumnorm<br />

Numerische<br />

Mathemtik<br />

Ausgabe: Lösungsfunktiont ∈ J ⊂ I ↦→ y(T)<br />

➥ ErgebnisraumC 0 (J,R d ), Metrik: Maximumnorm‖·‖ L ∞ (J)<br />

Terminologie: Szenario ➊ : κ abs ,κ ∞ abs<br />

∼ punktweise Kondition,<br />

Szenario ➋ : κ abs ,κ ∞ abs<br />

∼ intervallweise Kondition<br />

<strong>Beispiel</strong> 1.3.22 (Kondition skalarer linearer Anfangswertprobleme).<br />

(Untersuchung für Szenarios ➊ and ➋)<br />

ẏ = λy , λ ∈ R , y(0) = y 0 ∈ R , (1.3.23)<br />

⇒ y(t) = y 0 exp(λt) , t ∈ R . (1.3.24)<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Punktweise Kondition: für EndzeitpunktT :<br />

κ abs = exp(λT)<br />

{<br />

≫ 1 fürλ > 0 ,<br />

≪ 1 fürλ < 0 .<br />

(1.3.25)<br />

1.3<br />

p. 60


Intervallweise Kondition:<br />

in[0,T]:<br />

κ abs = max{1,exp(λT)}<br />

{<br />

≫ 1 fürλ > 0 ,<br />

1 fürλ < 0 .<br />

(1.3.26)<br />

Numerische<br />

Mathemtik<br />

✸<br />

1.3.3.3 Wohlgestelltheit<br />

✬<br />

Annahme:<br />

Rechte Seitef : I ×D ↦→ R d von (1.1.13) erfüllt globale Lipschitzbedingung<br />

(vgl. lokale Lipschitzbedingung aus Def. 1.3.2)<br />

R. Hiptmair<br />

✩rev 35327,<br />

25. April<br />

2011<br />

∀t ∈ I: ∃L(t) > 0: ‖f(t,x)−f(t,y)‖ ≤ L(t)‖x−y‖ ∀x,y ∈ D ⊂ R d , (1.3.27)<br />

für geeignete Vektornorm‖·‖ auf R d .<br />

✫<br />

✪<br />

1.3<br />

p. 61


✬<br />

✩<br />

Theorem 1.3.28 (Lipschitz-stetige Abhängigkeit vom Anfangswert).<br />

Es seien y,ỹ Lösungen des AWP (1.1.13) zu Anfangswerten y 0 ∈ D bzw. ỹ 0 ∈ D. Unter der<br />

Annahme (1.3.27) mit stetigemL(t) gilt<br />

✫<br />

(∫ t<br />

)<br />

‖y(t)−ỹ(t)‖ ≤ ‖y 0 −ỹ 0 ‖·exp L(τ)dτ<br />

t 0<br />

∀t ∈ I .<br />

✪<br />

Numerische<br />

Mathemtik<br />

Hilfsmittel beim Beweis:<br />

✬<br />

Lemma 1.3.29 (Gronwalls Lemma). → [1, Sect. II.6], [8, Lemma 3.9]<br />

SeiJ ⊂ R Intervall,t 0 ∈ J,u,a,β ∈ C 0 (J,R + ),amonoton wachsend. Dann gilt<br />

∫ t<br />

∫ t<br />

u(t) ≤ a(|t−t 0 |)+ β(τ)u(τ)dτ ⇒ u(t) ≤ a(|t−t 0 |)exp<br />

∣ β(τ)dτ<br />

∣ .<br />

t 0 t 0<br />

✫<br />

✩<br />

✪<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

➤ AWP (1.1.13) is wohlgestellt unter Annahme (1.3.27) !<br />

➤ Schranke für absolute punktweise Kondition (für EndzeitpunktT )<br />

( ∫ ) T<br />

κ abs ≤ exp . (1.3.31)<br />

t 0<br />

L(τ)dτ<br />

1.3<br />

p. 62


Bemerkung 1.3.32 („Gronwall-Schranke” für Kondition).<br />

Numerische<br />

Mathemtik<br />

Schranke aus (1.3.31) oft extrem pessimistisch !<br />

<strong>Beispiel</strong> (siehe Bsp. 1.3.22):<br />

für skalares lineares AWP mit λ < 0, punktweise Kondition, EndzeitpunktT<br />

> 0 (1.3.23)<br />

(1.3.31) ➣ κ abs ≤ e |λ|T T→∞<br />

↦−→ ∞ ←→ κ abs = e λT T→∞<br />

↦−→ 0 .<br />

△<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

1.3.3.4 Asymptotische Kondition<br />

Szenario ➊:<br />

Wie wirken sich kleine Störungen im Anfangswert y 0 in (1.1.13) auf die Lösungy(t)<br />

aus ?<br />

Asymptotische absolute Konditionszahl durch differentielle Konditionsanalyse, siehe (1.3.21):<br />

1.3<br />

p. 63


Erforderlich: „Differenzieren der Lösung eins Anfagswertproblems nach dem Anfangswerty 0 ”<br />

(Dabei wird die Zeittals fester „Parameter” behandelt.)<br />

Numerische<br />

Mathemtik<br />

➣ Zu betrachten ist, mit EvolutionΦ s,t y = Φ(s,t,y)<br />

dy(t)<br />

dy 0<br />

∣ ∣∣∣t<br />

fest<br />

←→ ∂Φ<br />

∂y (t 0,t,y 0 ) .<br />

Formales Vorgehen unter der Annahme der Vertauschbarkeit partieller Ableitungen:<br />

(Annahme:<br />

d<br />

dy<br />

d<br />

dt Φt0,t y = f(t,Φ t0,t y) für festesy .<br />

(<br />

d ∂<br />

y)<br />

dy ∂t Φt0,t = d<br />

dy f(t,Φt0,t y)<br />

( )<br />

∂ ∂Φ<br />

∂t ∂y (t 0,t,y) = d<br />

dy f(t,Φt0,t y) = ∂f<br />

∂y (t,Φt0,t y) d<br />

dy Φt0,t y .<br />

f nachystetig differenzierbar)<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Die Propagationsmatrix (Wronski-Matrix),<br />

W(t;t 0 ,z) := d<br />

dy Φt 0,t y|y=z<br />

∈ R d,d , (1.3.33)<br />

1.3<br />

p. 64


zum AWP (1.1.13) erfüllt Anfangswertproblem für<br />

Variationsgleichung<br />

d<br />

dt W(t;t 0,y 0 ) = ∂f<br />

∂y (t,Φt0,t y 0 )W(t;t 0 ,y 0 ) , (1.3.34)<br />

W(t 0 ;t 0 ,y 0 ) = I .<br />

Numerische<br />

Mathemtik<br />

Beachte:<br />

Variationsgleichung = lineare Differentialgleichung auf ZustandsraumD = R d,d<br />

☞ Matrix-Differentialgleichung der Form<br />

wobei<br />

∂f<br />

∂y<br />

Ẇ = A(t)W mit<br />

A(t) = ∂f<br />

∂y (t,y(t)) ,<br />

ˆ= Jacobi-Matrix, abhängig von(t,y),<br />

y(t) ˆ= Lösung des AWP ẏ = f(t,y),y(t 0 ) = y 0<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

➣<br />

Um die Variationsgleichung zu lösen muss auch das zugehörige Anfangswertproblem gelöst<br />

werden!<br />

✗<br />

✖<br />

y 0 ← y 0 +δy 0 ➣ δy(t) ≈ W(t;t 0 ,y 0 )δy 0 für „kleineδy 0 ”<br />

Intervallweise asymptotische Kondition des AWP (1.1.13) auf[t 0 ,T] (bzgl. Norm‖·‖ aufR d ):<br />

✔<br />

✕<br />

1.3<br />

p. 65


κ ∞ abs := max{‖W(t;t 0,y 0 )‖: t 0 ≤ t ≤ T} . (1.3.35)<br />

Numerische<br />

Mathemtik<br />

1.3.3.5 Schlecht konditionierte AWPe<br />

<strong>Beispiel</strong> 1.3.36 (Lorenz-System). → [27, 21]<br />

Autonome Differentialgleichung, D = R 3 ,<br />

σ,ρ,β ∈ R + :<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

ẋ =σ(y −x) ,<br />

ẏ =x(ρ−z)−y ,<br />

ż =xy −βz .<br />

(1.3.37)<br />

1.3<br />

p. 66


Listing 1.3: Numerische Integration des Lorenz-Systems<br />

1 f u n c t i o n lorenzplot(rho,sigma,beta)<br />

2<br />

3 % MATLAB script for plotting 3D trajectories of the Lorenz system for<br />

Ex. 1.3.36<br />

4 % Arguments: parameters of the Lorenz system (1.3.37): ρ, σ, β.<br />

5<br />

6 % Default paramters<br />

7 i f (nargin < 3), rho=28; sigma = 10; beta = 8/3; end<br />

8<br />

9 % function handle for right hand side of the Lorez system (1.3.37)<br />

0 f = @(t,y) ([sigma*(y(2)-y(1));rho*y(1) - y(2) -<br />

y(1)*y(3);y(1)*y(2) - beta*y(3)]);<br />

1<br />

2 y0 = [8 9 9.5]; ystart = y0; % initial conditions<br />

3 ts = [0 20]; % Time for simulation<br />

4<br />

5 % Numerical integration of Lorenz system using MATLAB standard integrator,<br />

6 % see Rem. 1.2.4<br />

7 opts = odeset(’reltol’,1E-10,’abstol’,1E-10,’stats’,’on’);<br />

8 [t,y] = ode45(f,ts,y0,opts);<br />

9 y0(3) = y0(3) + 1.0E-5; % Slight perturbation of initial value<br />

0 [tt,yt] = ode45(f,ts,y0,opts);<br />

1<br />

Numerische<br />

Mathemtik<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

1.3<br />

p. 67


2 % 3D plot of trajectories<br />

3 f i g u r e(’name’,’Lorenz’); hold on;<br />

4 p l o t 3(y(:,1),y(:,2),y(:,3),’r-’);<br />

5 p l o t 3(yt(:,1),yt(:,2),yt(:,3),’b-’);<br />

6 x l a b e l(’{\bf x}’,’fontsize’,14);<br />

7 y l a b e l(’{\bf y}’,’fontsize’,14);<br />

8 z l a b e l(’{\bf z}’,’fontsize’,14);<br />

9 t i t l e( s p r i n t f(’\\sigma = %d, \\rho = %d, \\beta =<br />

%d’,sigma,rho,beta));<br />

0 view(45,15); g r i d on;<br />

1 p r i n t -depsc2 ’lorenz.eps’;<br />

Numerische<br />

Mathemtik<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

1.3<br />

p. 68


σ = 10, ρ = 28, β = 2.666667e+00<br />

— : Anfangswerty 0 := (8,9,9.5) T<br />

— : Anfangswerty 0 := (8,9,9.5+10 −5 ) T<br />

Numerische<br />

Mathemtik<br />

45<br />

Aus der Theorie der<br />

40<br />

35<br />

reellen dynamischen Systeme [21]:<br />

30<br />

Lorenz-System ist chaotisches System<br />

z<br />

25<br />

20<br />

15<br />

10<br />

Anfängliche exponetielle Divergenz der<br />

beschränkten Trajektorien<br />

(Schranke (1.3.31) gilt für kleineT !)<br />

5<br />

−20<br />

−10<br />

0<br />

x<br />

10<br />

20 −30<br />

−20<br />

−10<br />

y<br />

0<br />

10<br />

20<br />

30<br />

Fig. 18<br />

Winzige Störungen der Anfangswerte<br />

➤ völlig verschiedene Zustände nach „exponentiell<br />

kurzer Zeit”.<br />

✸<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Ziel numerischer Simulation chaotischer dynamischer Systeme:<br />

Indentifikation des „typischen” Verhaltens von Trajektorien<br />

★<br />

✥<br />

Essentiell:<br />

✧<br />

Korrekte Behandlung von Erhaltungsgrössen, z.B. Gesamtenergie<br />

(→ Erste Integrale, Def. 1.2.7)<br />

✦<br />

1.3<br />

p. 69


<strong>Beispiel</strong> 1.3.38 (Doppelpendel).<br />

l 1<br />

✁ (Mathematisches) Doppelpendel mit fester Aufhängung und masselosen<br />

Stäben.<br />

Minimalkoordinaten: Auslenkungswinkelθ 1 ,θ 2<br />

KonfigurationsraumD = [0,2π[ 2 (Torus)<br />

Numerische<br />

Mathemtik<br />

θ 1<br />

θ 2<br />

m 1<br />

Hamilton-Funktion (→ Def. 1.2.20) = Summe kinetischer und potentieller<br />

Energie:<br />

l 2<br />

m 2<br />

Fig. 19<br />

H(p 1 ,p 2 ,θ 1 ,θ 2 ) =<br />

l 2 2 m 2p 2 1 +l2 1 (m 1 +m 2 )p 2 2 −2m 2l 1 l 2 p 1 p 2 cos(θ 1 −θ 2 )<br />

2l 2 1 l2 2 m 2(m 1 +sin 2 (θ 1 −θ 2 )m 2 )<br />

−m 2 gl 2 cosθ 2 −(m 1 +m 2 )gl 1 cosθ 1 .<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Beobachtung (in Experiment und Simulation):<br />

Extrem sensitive Abhängigkeit der Pendelbewegung von Anfangsbedingungen<br />

1.3<br />

p. 70


m 1<br />

= 2, m 2<br />

= 1, l 1<br />

= 1, l 2<br />

= 1.732051e+00<br />

3<br />

m 1<br />

= 2, m 2<br />

= 1, l 1<br />

= 1, l 2<br />

= 1.732051e+00<br />

3<br />

Numerische<br />

Mathemtik<br />

2<br />

2<br />

1<br />

1<br />

0<br />

0<br />

−1<br />

−1<br />

−2<br />

−2<br />

−3<br />

Fig. 20<br />

−4 −3 −2 −1 0 1 2 3 4<br />

θ 1 (0) = − π 2 ,θ 2(0) = π,p 1 (0) = p 2 (0) = 0<br />

−3<br />

Fig. 21<br />

−4 −3 −2 −1 0 1 2 3 4<br />

θ 1 (0) = − π 2 ,θ 2(0) = π +10 −2 ,<br />

p 1 (0) = p 2 (0) = 0<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

[Simulation, MATLAB,ode45, Zeit[0,20], Schrittweite10 −3 ]<br />

✸<br />

1.4<br />

p. 71


1.4 Polygonzugverfahren<br />

Numerische<br />

Mathemtik<br />

Gegeben:<br />

Rechte Seitef : Ω ↦→ R d , lokal Lipschitz-stetig (→ Def. 1.3.2) auf<br />

erweitertem ZustandsraumΩ := I ×D ⊂ R d+1<br />

Anfangsbedingungeny 0 ∈ D zum Anfangszeitpunktt 0<br />

Thm. 1.3.4 (Peano & Picard-Lindelöf) ➤ Existenz & Eindeutigkeit von Lösungen (→ Def. 1.1.14)<br />

des AWP<br />

ẏ = f(t,y) , y(t 0 ) = y 0 . (1.4.1)<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Ziel: ☞ Approximation vony(T) für EndzeitpunktT ∈ J(t 0 ,y 0 ) ✄ y h (T).<br />

☞ Approximation der Funktiont ↦→ y(t),t ∈ [t 0 ,T],T ∈ J(t 0 ,y 0 ) ✄ t ↦→ y h (t).<br />

1.4<br />

p. 72


1.4.1 Das explizite Euler-Verfahren (Euler 1768)<br />

Numerische<br />

Mathemtik<br />

Idee: ➊ „Vorantasten” in der Zeit: (1.4.1) = Komposition von AWPe zu gegebenen<br />

kleinen Zeitintervallen[t k−1 ,t k ],k = 1,...,N,t N := T<br />

➋<br />

Approximation der zeitlokalen Lösungskurven durch Tangente im aktuellen<br />

Anfangszeitpunkt.<br />

y<br />

y h (t 1 )<br />

y(t)<br />

t<br />

t 0 t 1<br />

y 0<br />

Fig. 22<br />

Explizites Euler-Verfahren<br />

(Eulersches Polygonzugverfahren)<br />

✁ Erster Schritt des expliziten Euler-Verfahrens<br />

(d = 1):<br />

Steigung der Tangente= f(t 0 ,y 0 )<br />

y h (t 1 ) ist Startwert für nächsten Schritt !<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

In Formeln: durch explizites Eulerverfahren erzeugte Näherungen füry(t k ) erfüllen die Rekursion<br />

y k+1 := y h (t k+1 ) = y h (t k )+h k f(t k ,y h (t k )) , k = 0,...,N −1 , (1.4.2)<br />

mit lokaler (Zeit)schrittweite h k := t k+1 −t k .<br />

1.4<br />

p. 73


Numerische<br />

Mathemtik<br />

✎ Alternative Notation: y k := y h (t k )<br />

Veranschaulichung: Explizites Eulerverfahren<br />

2.4<br />

2.2<br />

exact solution<br />

explicit Euler<br />

Anfangswertproblem<br />

für<br />

Riccati-Differentialgleichung, siehe Bsp. 1.1.3<br />

y 0 =<br />

2 1 ,t 0 = 0,T = 1,<br />

gleichgrosse Zeitschritteh = 0.2<br />

ẏ = y 2 +t 2 . (1.1.4)<br />

↦→ ˆ= Richtungsfeld der Riccati-Dgl.<br />

✄<br />

y<br />

2<br />

1.8<br />

1.6<br />

1.4<br />

1.2<br />

1<br />

0.8<br />

0.6<br />

0.4<br />

0 0.2 0.4 0.6 0.8 1 1.2 1.4<br />

t<br />

Fig. 23<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

1.4<br />

p. 74


Bemerkung 1.4.3 (Explizites Eulerverfahren als Differenzenverfahren).<br />

Numerische<br />

Mathemtik<br />

(1.4.2) aus Approximation von Ableitung d dt<br />

{t 0 ,t 1 ,...,t N }:<br />

durch Vorwärtsdifferenzenquotienten auf Zeitgitter G :=<br />

ẏ = f(t,y) ←→ y h(t k+1 )−y h (t k )<br />

h k<br />

= f(t k ,y h (t k )) , k = 0,...,N −1 .<br />

△<br />

Frage: Wie genau ist die Näherungslösung ?<br />

<strong>Beispiel</strong> 1.4.4 (Konvergenz(-geschwindigkeit) des expliziten Euler-Verfahrens).<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Listing 1.4: Erzeugen von Fehlerkurven für explizites Eulerverfahren<br />

1 f u n c t i o n err = eulerConvergence(odefun,tspan,y0v,N)<br />

2 % MATLAB function computing the error (at final time) of the explicit Euler<br />

method (1.4.2)<br />

3 % Arguments:<br />

4 % odefun = @(t,y): handle to function returning a vector<br />

1.4<br />

p. 75


5 % tspan = [t0 T]: initial and final time<br />

6 % y0v ˆ= array of initial values<br />

7 % N ˆ= vector containing numbers of steps. For each the error is returned<br />

8<br />

9 err = []; l = 1; % Initialize error array<br />

0<br />

1 f o r y0 = y0v<br />

2 % Compute ’exact’ solution<br />

3 [t,y] =<br />

ode45(odefun,tspan,y0,odeset(’reltol’,1E-11,’abstol’,1E-11));<br />

4<br />

5 % Compute Euler solutions<br />

6 erri = [];<br />

7 f o r n=N<br />

8 h = (tspan(2)-tspan(1))/n; % uniform timestep size<br />

9 t_eul = tspan(1); % initial time<br />

0 y_eul = y0; % intialize iteration<br />

1 f o r k=1:n<br />

2 y_eul = y_eul + h*odefun(t_eul,y_eul); % see (1.4.2)<br />

3 t_eul = t_eul + h; % increment time<br />

4 end<br />

5 erri = [erri,norm(y(end,:)-y_eul)]; % record error<br />

6 end<br />

Numerische<br />

Mathemtik<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

1.4<br />

p. 76


7 err = [err;erri]; % assemble matrix of error values<br />

8 leg{l} = s p r i n t f(’y0 = %3.2f’,y0);<br />

9 l = l+1;<br />

0 end<br />

1<br />

2 % Plot error curves in log-log scale to discern alegebraic convergence →<br />

Def. 1.4.5<br />

3 f i g u r e(’name’,’erreul’);<br />

4 ts = (tspan(2)-tspan(1))./N;<br />

5 loglog(ts,err,’-+’); hold on;<br />

6 loglog(ts,10*ts,’k-’);<br />

7 x l a b e l(’{\bf timestep h}’,’fontsize’,14);<br />

8 y l a b e l(’{\bf error (Euclidean norm)}’,’fontsize’,14);<br />

9 leg{l} = ’O(h)’; legend(leg,’location’,’southeast’);<br />

Numerische<br />

Mathemtik<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

1.4<br />

p. 77


AWP für Riccati-Dgl. (1.1.4) auf[0,1]<br />

Explizites Euler-Verfahren (1.4.2) mit<br />

uniformem Zeitschritth = 1/n,<br />

n ∈ {5,10,20,40,80,160,320,640}.<br />

Fehler err h := |y(1)−y h (1)|<br />

error (Euclidean norm)<br />

10 −1<br />

10 −2<br />

Beobachtung:<br />

Algebraische Konvergenz<br />

err h = O(h)<br />

10 1 timestep h<br />

10 0<br />

Numerische<br />

Mathemtik<br />

10 −3<br />

y0 = 0.10<br />

y0 = 0.20<br />

y0 = 0.40<br />

y0 = 0.80<br />

O(h)<br />

10 −3 10 −2 10 −1 10 0<br />

Fig. 24<br />

✸<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

✎ Notation “Landau-O”:<br />

e(h) = O(g(h)) fürh → 0 :⇔ ∃h 0 > 0, C > 0: |e(h)| ≤ Cg(h) ∀0 ≤ h ≤ h 0 .<br />

1.4<br />

p. 78


Definition 1.4.5 (Arten der Konvergenz).<br />

Seierr h der Diskretisierungsfehler eines Verfahrens zum Diskretisierungsparameter/Schrittweiteh,h<br />

> 0.<br />

Numerische<br />

Mathemtik<br />

err h = O(h α ) :⇔ Algebraische Konvergenz der Ordnungα > 0<br />

err h = O(exp(−βh −γ )), :⇔ exponentielle Konvergenz, fallsβ,γ > 0<br />

Fehlerplots bei algebraischer Konvergenz (h i = (3/2) −i ,i = 1,...,10)<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

1.4<br />

p. 79


0.9<br />

0.8<br />

α = 1/2<br />

α = 1<br />

α = 2<br />

Error plots for algebraic convergence (linear scale)<br />

10 0 Error plots for algebraic convergence (log scale<br />

Numerische<br />

Mathemtik<br />

0.7<br />

10 −1<br />

0.6<br />

error<br />

0.5<br />

0.4<br />

error<br />

10 −2<br />

0.3<br />

0.2<br />

10 −3<br />

0.1<br />

0<br />

0 0.1 0.2 0.3 0.4 0.5 0.6 0.7<br />

h<br />

lineare Skalen<br />

Fig. 25<br />

10 −4<br />

10 −2 10 −1 10 0<br />

logarithmische Skalen<br />

h<br />

α = 1/2<br />

α = 1<br />

α = 2<br />

Fig. 26<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Fehlerplots bei exponentieller Konvergenz (h i = (3/2) −i ,i = 1,...,10)<br />

1.4<br />

p. 80


0.7<br />

0.6<br />

β = 0.5, γ = 0.5<br />

β = 1.0, γ = 0.5<br />

β = 2.0, γ = 0.5<br />

β = 1.0, γ = 1.0<br />

β = 1.0, γ = 1/3<br />

Error plots for exponential convergence (linear scale)<br />

10 0 Error plots for exponential convergence (log scale)<br />

10 −1<br />

10 −2<br />

Numerische<br />

Mathemtik<br />

0.5<br />

10 −3<br />

error<br />

0.4<br />

error<br />

10 −4<br />

10 −5<br />

0.3<br />

10 −6<br />

0.2<br />

10 −7<br />

0.1<br />

0<br />

0 0.1 0.2 0.3 0.4 0.5 0.6 0.7<br />

h<br />

lineare Skalen<br />

Fig. 27<br />

10 −8<br />

10 −9<br />

10 −10<br />

10 −2 10 −1 10 0<br />

logarithmische Skalen<br />

h<br />

β = 0.5, γ = 0.5<br />

β = 1.0, γ = 0.5<br />

β = 2.0, γ = 0.5<br />

β = 1.0, γ = 1.0<br />

β = 1.0, γ = 1/3<br />

Fig. 28<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

1.4<br />

p. 81


10 0 Error plots for exponential convergence (h −γ lin−log scale)<br />

10 −1<br />

10 −2<br />

β = 0.5, γ = 0.5<br />

β = 1.0, γ = 0.5<br />

β = 2.0, γ = 0.5<br />

β = 1.0, γ = 1.0<br />

β = 1.0, γ = 1/3<br />

Numerische<br />

Mathemtik<br />

error<br />

10 −3<br />

10 −4<br />

10 −5<br />

10 −6<br />

10 −7<br />

✁ (h −γ<br />

i<br />

,ǫ i ) (h i ˆ= Schrittweiten,ǫ i ˆ= zugehörige<br />

Diskretisierungsfehler ) liegen auf Geraden mit<br />

Steigung−β<br />

10 −8<br />

10 −9<br />

10 −10<br />

0 5 10 15 20 25 30<br />

h −γ<br />

Fig. 29<br />

<strong>Beispiel</strong> 1.4.9 (Explizites Euler-Verfahren für logistische Dgl.).<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Anfangswertproblem für logistische Differentialgleichung, siehe Bsp. 1.2.1<br />

ẏ = λy(1−y) , y(0) = 0.01 .<br />

Explizites Euler-Verfahren (1.4.2) mit uniformem Zeitschritth = 1/n,<br />

n ∈ {5,10,20,40,80,160,320,640}.<br />

Fehler zum EndzeitpunktT = 1<br />

1.4<br />

p. 82


10 0<br />

λ = 1.000000<br />

λ = 3.000000<br />

λ = 6.000000<br />

λ = 9.000000<br />

10 120<br />

10 100<br />

λ = 10.000000<br />

λ = 30.000000<br />

λ = 60.000000<br />

λ = 90.000000<br />

Numerische<br />

Mathemtik<br />

error (Euclidean norm)<br />

10 1 timestep h<br />

10 −1<br />

10 −2<br />

10 −3<br />

error (Euclidean norm)<br />

10 140 timestep h<br />

10 80<br />

10 60<br />

10 40<br />

10 20<br />

10 −4<br />

10 0<br />

10 −5<br />

10 −3 10 −2 10 −1 10 0<br />

λ klein:O(h)-Konvergenz (asymptotisch)<br />

Fig. 30<br />

10 −20<br />

10 −3 10 −2 10 −1 10 0<br />

λ gross: Explosion vony k für grosse<br />

Zeitschrittweitenh<br />

Fig. 31<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

1.4<br />

p. 83


1.4<br />

1.2<br />

1<br />

0.8<br />

✁ λ = 90, — ˆ= exakte Lösung, — ˆ= Eulerpolygon<br />

Numerische<br />

Mathemtik<br />

y<br />

0.6<br />

0.4<br />

0.2<br />

0<br />

−0.2<br />

y k schiessen über den stark attraktiven<br />

Fixpunkty = 1 hinaus.<br />

➥ Beobachtung: exponentiell anwachsende<br />

Oszillationen dery k<br />

−0.4<br />

exact solution<br />

explicit Euler<br />

0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1<br />

t<br />

Fig. 32<br />

✸<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Einsicht durch Modellproblemanalyse: einfachste Dgl. mit stark attraktivem Fixpunkty = 0<br />

Homogene lineare skalare Dgl., Sect. 1.3.2 : ẏ = f(y) := λy , λ < 0 . (1.4.10)<br />

ẏ = λy , y(0) = y 0 ⇒ y(t) = y 0 exp(λt) → 0 für t → ∞ . (1.4.11)<br />

1.4<br />

p. 84


Rekursion des expliziten Eulerverfahrens für (1.4.10) (uniforme Zeitschrittweiteh > 0)<br />

Numerische<br />

Mathemtik<br />

(1.4.2) forf(y) = λy: y k+1 = y k (1+λh) . (1.4.12)<br />

y k = y 0 (1+λh) k ⇒ |y k | →<br />

{<br />

0 , wennλh > −2 (qualitativ richtig) ,<br />

∞ , wennλh < −2 (qualitativ falsch) .<br />

1.4.2 Das implizite Euler-Verfahren<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Wie vermeidet man das Überschiessen des expliziten Eulerverfahrens bei stark attraktiven Fixpunkten<br />

und grossen Zeitschrittweiten ?<br />

1.4<br />

p. 85


y<br />

y h (t 1 ) y(t)<br />

t<br />

t 0 t 1<br />

y 0<br />

Fig. 33<br />

Idee: Approximiere Lösung durch (t 0 ,y 0 ) auf<br />

[t 0 ,t 1 ] durch<br />

• Strecke duch(t 0 ,y 0 )<br />

• mit Steigungf(t 1 ,y 1 )<br />

✁ — ˆ= Lösungkurve durch(t 0 ,y 0 ),<br />

— ˆ= Lösungkurve durch(t 1 ,y 1 ),<br />

— ˆ= Tangente an — in(t 1 ,y 1 ).<br />

Numerische<br />

Mathemtik<br />

Anwendung auf kleine Zeitintervalle [t 0 ,t 1 ],[t 1 ,t 2 ],...,[t N−1 ,t N ] ➤ implizites Euler-Verfahren<br />

durch implizites Eulerverfahren erzeugte Näherung füry(t k ) erfüllt<br />

y k+1 := y h (t k+1 ) = y h (t k )+h k f(t k+1 ,y k+1 ) , k = 0,...,N −1 , (1.4.13)<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

mit lokaler (Zeit)schrittweite h k := t k+1 −t k .<br />

Beachte: (1.4.13) erfordert Auflösen einer (evtl. nichtlinearen) Gleichung nachy k+1 !<br />

(➤ Terminologie „implizit”)<br />

1.4<br />

p. 86


Bemerkung 1.4.14 (Implizites Eulerverfahren als Differenzenverfahren).<br />

Numerische<br />

Mathemtik<br />

(1.4.13) aus Approximation der Zeitableitung d dt<br />

G := {t 0 ,t 1 ,...,t N }:<br />

durch Rückwärtsdifferenzenquotienten auf Zeitgitter<br />

ẏ = f(t,y) ←→ y h(t k+1 )−y h (t k )<br />

h k<br />

= f(t k+1 ,y h (t k+1 )) , k = 0,...,N −1 .<br />

△<br />

<strong>Beispiel</strong> 1.4.15 (Implizites Eulerverfahren für logistische Differentialgleichung). → Bps. 1.4.9<br />

Wiederholung der numerischen Experimente aus <strong>Beispiel</strong> 1.4.9 für implizites Eulerverfahren (1.4.13):<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

1.4<br />

p. 87


10 0<br />

λ = 1.000000<br />

λ = 3.000000<br />

λ = 6.000000<br />

λ = 9.000000<br />

O(h)<br />

10 0<br />

10 −2<br />

λ = 10.000000<br />

λ = 30.000000<br />

λ = 60.000000<br />

λ = 90.000000<br />

O(h)<br />

Numerische<br />

Mathemtik<br />

error (Euclidean norm)<br />

10 1 timestep h<br />

10 −1<br />

10 −2<br />

10 −3<br />

error (Euclidean norm)<br />

10 2 timestep h<br />

10 −4<br />

10 −6<br />

10 −8<br />

10 −10<br />

10 −12<br />

10 −4<br />

10 −14<br />

10 −5<br />

10 −3 10 −2 10 −1 10 0<br />

λ klein:O(h)-Konvergenz (asymptotisch)<br />

Fig. 34<br />

Modellproblemanalyse (wie in Abschnitt 1.4.1):<br />

(1.4.13) forf(y) = λy: y k+1 = y k<br />

1<br />

1−λh .<br />

10 −16<br />

10 −3 10 −2 10 −1 10 0<br />

Fig. 35<br />

λ gross: stabil für alle Zeitschrittweitenh!<br />

R. Hiptmair<br />

✸<br />

rev 35327,<br />

25. April<br />

2011<br />

(1.4.16)<br />

1.4<br />

p. 88


( ) 1 k<br />

y k = y 0 ⇒ |y<br />

1−λh k | →<br />

⎧<br />

⎪⎨ 0 , wennλh < 0 (qualitativ richtig) ,<br />

∞ , wenn0 < λh < 1 (qualitativ richtig) ,<br />

⎪⎩<br />

∞ , wennλh > 1 (Oszillationen, qualitativ falsch) .<br />

Numerische<br />

Mathemtik<br />

<strong>Beispiel</strong> 1.4.17 (Euler-Verfahren für Pendelgleichung).<br />

Mathematisches Pendel→Bsp. 1.2.17: Hamiltonsche Form (1.2.19) der Bewegungsgleichungen<br />

( ) ( α<br />

p<br />

Winkelgeschwindigkeit<br />

p := ˙α ⇒ d dt<br />

=<br />

)<br />

p<br />

− g l sinα<br />

, g = 9.8,l = 1 . (1.2.19)<br />

Approximative numerische Lösung mit explizitem/implizitem Eulerverfahren (1.4.2)/(1.4.13),<br />

Konstante Zeitschrittweiteh = T/N,T = 5 Endzeitpunkt,N ∈ {50,100,200},<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Startwert: α(0) = π/4,p(0) = 0.<br />

Listing 1.5: Simulation des mathematischen Pendels mit einfachen Polygonzugverfahren<br />

1 f u n c t i o n pendeul(y0,T,N,filename)<br />

2 % MATLAB function applying explicit and implicit Euler methods and implicit<br />

1.4<br />

p. 89


3 % midpoint rule of Sect. 1.4.3 to mathematical pendulum equation in<br />

4 % minimal coordinates and Hamiltonian form for Ex. 1.4.17<br />

5 % Arguments: y0 ˆ= initial position, T ˆ= final time N ˆ=<br />

6 % number of equidistant timesteps<br />

7<br />

8 g = 9.8; % constant of gravity<br />

9 l = 1; % length of pendulum<br />

0<br />

1 % Compute ’exact’ solution by means of high-order single step method with tight<br />

2 % error control<br />

3 odefun = @(t,y) [y(2);-g/l*sin(y(1))];<br />

4 [t,s] =<br />

ode45(odefun,[0,T],y0,odeset(’abstol’,1E-10,’reltol’,1E-10));<br />

5<br />

6 h = T/N; % timestep<br />

7<br />

8 % Explicit Euler (1.4.2)<br />

9 y_expl = y0; y = y0;<br />

0 f o r k=1:N<br />

1 y = y + h*[y(2);-g/l*sin(y(1))];<br />

2 y_expl = [y_expl,y];<br />

3 end<br />

4<br />

Numerische<br />

Mathemtik<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

1.4<br />

p. 90


5 % Implicit Euler<br />

6 y_imp = y0; y = y0;<br />

7 f o r k=1:N<br />

8 % Implicit Euler equation for next angle<br />

9 F = @(x) x+h*h*g/l*sin(x) - y(1) - h*y(2);<br />

0 [y(1),Fval] = fsolve(F,y(1)+h*y(2)); % solve non-linear system of<br />

equations<br />

1 f p r i n t f(’Impl Euler step %d: residual %f\n’,k,Fval);<br />

2 y(2) = y(2) - h*g/l*sin(y(1));<br />

3 y_imp = [y_imp,y];<br />

4 end<br />

5<br />

6 % Implicit midpoint rule<br />

7 y_mid = y0; y = y0;<br />

8 rhs = @(y) [y(2);-g/l*sin(y(1))];<br />

9<br />

0 f o r k=1:N<br />

1 % Implicit equation (1.4.19) for implicit midpoint rule<br />

2 F = @(x) (x - h*rhs(y+0.5*x));<br />

3 [dy,Fval] = fsolve(F,h*rhs(y)); y = y+dy;<br />

4 f p r i n t f(’Impl midp step %d: residual %f\n’,k,norm(Fval));<br />

5 y_mid = [y_mid,y];<br />

6 end<br />

7<br />

Numerische<br />

Mathemtik<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

1.4<br />

p. 91


8 tg = h*(0:N);<br />

9<br />

0 % Plotting of trajectories in phase space<br />

1 f i g u r e(’name’,’pendeul’);<br />

2 ph = p l o t(s(:,1),s(:,2),’g--’,...<br />

3 y_expl(1,:),y_expl(2,:),’r-+’,...<br />

4 y_imp(1,:),y_imp(2,:),’b-+’,...<br />

5 y_mid(1,:),y_mid(2,:),’m-*’); hold on;<br />

6 set(ph(1),’linewidth’,2);<br />

7 ax = axis;<br />

8 p l o t([ax(1) ax(2)],[0 0],’k-’);<br />

9 p l o t([0 0],[ax(3) ax(4)],’k-’);<br />

0 x l a b e l(’{\bf \alpha}’,’fontsize’,14);<br />

1 y l a b e l(’{\bf p}’,’fontsize’,14);<br />

2 legend(’exact solution’,’explicit Euler’,’implicit Euler’,...<br />

3 ’implicit midpoint’,’location’,’southwest’);<br />

4 t i t l e( s p r i n t f(’%d timesteps on [0,%f]’,N,T));<br />

5<br />

6 i f (nargin > 3)<br />

7 p r i n t(’-depsc2’, s p r i n t f(’%s.eps’,filename));<br />

8 end<br />

9<br />

0 % Tracking energies for explicit Euler<br />

Numerische<br />

Mathemtik<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

1.4<br />

p. 92


1 y = y_expl;<br />

2<br />

3 E_kin = 0.5*(y(2,:).^2);<br />

4 E_pot = -g/l*cos(y(1,:));<br />

5 E_pot = E_pot - min(E_pot) + min(E_kin);<br />

6 E_tot = E_kin + E_pot;<br />

7<br />

8 % Plot of evolution of energies<br />

9 f i g u r e(’name’,’Pendulum: energy’);<br />

0 p l o t(tg,E_kin,’b-’,...<br />

1 tg,E_pot,’c-’,...<br />

2 tg,E_tot,’r-’);<br />

3 x l a b e l(’{\bf time t}’,’fontsize’,14);<br />

4 y l a b e l(’{\bf energy}’,’fontsize’,14);<br />

5 legend(’kinetic energy’,’potential energy’,’total energy’);<br />

6 t i t l e(’Energies for {\bf explicit} Euler discrete evolution’);<br />

7<br />

8 i f (nargin > 3),<br />

p r i n t(’-depsc2’, s p r i n t f(’%s_EnExpl.eps’,filename)); end<br />

9<br />

0 % Tracking energies for implicit Euler<br />

1 y = y_imp;<br />

2 E_kin = 0.5*(y(2,:).^2);<br />

Numerische<br />

Mathemtik<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

1.4<br />

p. 93


3 E_pot = -g/l*cos(y(1,:));<br />

4 E_pot = E_pot - min(E_pot) + min(E_kin);<br />

5 E_tot = E_kin + E_pot;<br />

6<br />

7 f i g u r e(’name’,’Pendulum: energy’);<br />

8 p l o t(tg,E_kin,’b-’,...<br />

9 tg,E_pot,’c-’,...<br />

0 tg,E_tot,’r-’);<br />

1 x l a b e l(’{\bf time t}’,’fontsize’,14);<br />

2 y l a b e l(’{\bf energy}’,’fontsize’,14);<br />

3 legend(’kinetic energy’,’potential energy’,’total energy’);<br />

4 t i t l e(’Energies for {\bf implicit} Euler discrete evolution’);<br />

5<br />

6 i f (nargin > 3)<br />

7 p r i n t(’-depsc2’, s p r i n t f(’%s_EnImpl.eps’,filename));<br />

8 end<br />

9<br />

0 % Tracking energies for implicit midpoint rule<br />

1 y = y_mid;<br />

2<br />

3 E_kin = 0.5*(y(2,:).^2);<br />

4 E_pot = -g/l*cos(y(1,:));<br />

5 E_pot = E_pot - min(E_pot) + min(E_kin);<br />

Numerische<br />

Mathemtik<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

1.4<br />

p. 94


6 E_tot = E_kin + E_pot;<br />

7<br />

8 f i g u r e(’name’,’Pendulum: energy’);<br />

9 p l o t(tg,E_kin,’b-’,...<br />

0 tg,E_pot,’c-’,...<br />

1 tg,E_tot,’r-’);<br />

2 x l a b e l(’{\bf time t}’,’fontsize’,14);<br />

3 y l a b e l(’{\bf energy}’,’fontsize’,14);<br />

4 legend(’kinetic energy’,’potential energy’,’total<br />

energy’,’location’,’southwest’);<br />

5 t i t l e(’Energies for {\bf implicit midpoint} discrete evolution’);<br />

6<br />

7 i f (nargin > 3)<br />

8 p r i n t(’-depsc2’, s p r i n t f(’%s_EnImid.eps’,filename));<br />

9 end<br />

Numerische<br />

Mathemtik<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

1.4<br />

p. 95


6<br />

4<br />

exact solution<br />

explicit Euler<br />

implicit Euler<br />

50 timesteps on [0,5.000000]<br />

6<br />

4<br />

100 timesteps on [0,5.000000]<br />

4<br />

3<br />

200 timesteps on [0,5.000000]<br />

Numerische<br />

Mathemtik<br />

2<br />

2<br />

2<br />

1<br />

0<br />

p<br />

p<br />

0<br />

p<br />

0<br />

−2<br />

−4<br />

−2<br />

−1<br />

−2<br />

−6<br />

−8<br />

−10 −8 −6 −4 −2 0 2 4<br />

α<br />

−4<br />

exact solution<br />

explicit Euler<br />

implicit Euler<br />

−6<br />

−4<br />

−2 −1.5 −1 −0.5 0 0.5 1 1.5 2 2.5 −1.5 −1 −0.5 0 0.5 1 1.5<br />

Fig. 36 Fig. 37 Fig. 38<br />

α<br />

−3<br />

exact solution<br />

explicit Euler<br />

implicit Euler<br />

α<br />

Verhalten der approximativen Energien: kinetische Enegie :E kin (t) = 1 2 p(t)2<br />

potentielle Energie :E pot (t) = − g l cosα(t)<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

1.4<br />

p. 96


9<br />

8<br />

Energies for explicit Euler discrete evolution<br />

kinetic energy<br />

potential energy<br />

total energy<br />

3<br />

Energies for implicit Euler discrete evolution<br />

kinetic energy<br />

potential energy<br />

total energy<br />

Numerische<br />

Mathemtik<br />

2.5<br />

7<br />

6<br />

2<br />

energy<br />

5<br />

4<br />

energy<br />

1.5<br />

3<br />

1<br />

2<br />

0.5<br />

1<br />

0<br />

0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5<br />

time t<br />

Fig. 39<br />

0<br />

0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5<br />

time t<br />

Fig. 40<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

☞ Expliziter Euler: Anwachsen der Gesamtenergie des Pendels<br />

☞ Impliziter Euler: Pendel kommt zur Ruhe („numerische Reibung”)<br />

✸<br />

1.4<br />

p. 97


<strong>Beispiel</strong> 1.4.18 (Eulerverfahren für längenerhaltende Evolution).<br />

Anfagswertproblem für ,D = R 2 :<br />

( )<br />

y2<br />

ẏ = , y(0) = y<br />

−y 0 ➤ y(t) =<br />

1<br />

( ) cost sint<br />

y<br />

−sint cost 0 .<br />

I(y) = ‖y‖<br />

Erstes Integral (→ Def. 1.2.7):<br />

(Bewegung mit konstanter Geschwindigkeit auf Kreisbahn)<br />

Numerische<br />

Mathemtik<br />

2<br />

1.5<br />

exact solution<br />

explicit Euler<br />

implicit Euler<br />

40 timesteps on [0,10.000000]<br />

1.5<br />

exact solution<br />

explicit Euler<br />

implicit Euler<br />

160 timesteps on [0,10.000000]<br />

1<br />

1<br />

0.5<br />

0.5<br />

R. Hiptmair<br />

y 2<br />

0<br />

−0.5<br />

y 2<br />

0<br />

rev 35327,<br />

25. April<br />

2011<br />

−1<br />

−1.5<br />

−0.5<br />

−2<br />

−1<br />

−2.5<br />

−3<br />

−4 −3 −2 −1 0 1 2 3<br />

y 1<br />

Fig. 41<br />

−1.5<br />

−1.5 −1 −0.5 0 0.5 1 1.5<br />

y 1<br />

Fig. 42<br />

☞ Expliziter Euler: Numerische Lösung wird „aus der Kurve getragen”<br />

☞ Impliziter Euler: Numerische Lösung „stürzt ins Zentrum”<br />

1.4<br />

p. 98


✸<br />

Numerische<br />

Mathemtik<br />

1.4.3 Implizite Mittelpunktsregel<br />

Wie vermeidet man die Energiedrift für explizites/implizites Euler-Verfahren angewandt auf konservative<br />

Systeme ?<br />

R. Hiptmair<br />

y<br />

y ∗ y h (t 1 )<br />

y 0<br />

f(t ∗ ,y ∗ )<br />

t<br />

t 0 t ∗ t 1<br />

Fig. 43<br />

Idee: Approximiere Lösung durch (t 0 ,y 0 ) auf<br />

[t 0 ,t 1 ] durch<br />

• lineares Polynom durch(t 0 ,y 0 )<br />

• mit Steigungf(t ∗ ,y ∗ ),<br />

t ∗ := 1 2 (t 0+t 1 ),y ∗ = 1 2 (y 0+y 1 )<br />

✁ — ˆ= Lösungkurve durch(t 0 ,y 0 ),<br />

— ˆ= Lösungkurve durch(t ∗ ,y ∗ ),<br />

— ˆ= Tangente an — in(t ∗ ,y ∗ ).<br />

rev 35327,<br />

25. April<br />

2011<br />

1.4<br />

p. 99


Anwendung auf kleine Zeitintervalle [t 0 ,t 1 ],[t 1 ,t 2 ],...,[t N−1 ,t N ] ➤ implizite Mittelpunktsregel<br />

Numerische<br />

Mathemtik<br />

durch implizite Mittelpunktsregel erzeugte Näherungy k+1 füry(t k ) erfüllt<br />

y k+1 := y h (t k+1 ) = y k +h k f( 1 2 (t k +t k+1 ), 1 2 (y k +y k+1 )) , k = 0,...,N −1 , (1.4.19)<br />

mit lokaler (Zeit)schrittweite h k := t k+1 −t k .<br />

Beachte: (1.4.19) erfordert Auflösen einer (evtl. nichtlinearen) Gleichung nachy k+1 !<br />

(➤ Terminologie „implizit”)<br />

Bemerkung 1.4.20 (Implizite Mittelpunktsregel als Differenzenverfahren).<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

(1.4.19) aus Approximation der Zeitableitung d dt<br />

G := {t 0 ,t 1 ,...,t N }:<br />

durch zentralen Differenzenquotienten auf Zeitgitter<br />

ẏ = f(t,y) ←→ y h(t k+1 )−y h (t k )<br />

h k<br />

= f( 1 2 (t k +t k+1 ), 1 2 (y h(t k )+y(t k+1 )), k = 0,...,N −1 .<br />

△<br />

1.4<br />

p. 100


<strong>Beispiel</strong> 1.4.21 (Implizite Mittelpunktsregel für logistische Dgl.).<br />

Numerische<br />

Mathemtik<br />

Wiederholung der numerischen Experimente aus <strong>Beispiel</strong> 1.4.9 für implizite Mittelpunktsregel (1.4.19):<br />

10 −1<br />

10 −2<br />

10 −2<br />

10 −4<br />

error (Euclidean norm)<br />

10 0 timestep h<br />

10 −3<br />

10 −4<br />

10 −5<br />

10 −6<br />

10 −7<br />

10 −8<br />

10 −9<br />

λ = 1.000000<br />

λ = 2.000000<br />

λ = 5.000000<br />

λ = 10.000000<br />

O(h 2 )<br />

10 −3 10 −2 10 −1 10 0<br />

Fig. 44<br />

error (Euclidean norm)<br />

10 0 timestep h<br />

10 −6<br />

10 −8<br />

10 −10<br />

10 −12<br />

10 −14<br />

10 −16<br />

λ = 10.000000<br />

λ = 20.000000<br />

λ = 50.000000<br />

λ = 90.000000<br />

O(h 2 )<br />

10 −3 10 −2 10 −1 10 0<br />

Fig. 45<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

λ klein:O(h 2 )-Konvergenz (asymptotisch)<br />

λ gross: stabil für alle Zeitschrittweitenh!<br />

✸<br />

<strong>Beispiel</strong> 1.4.22 (Implizite Mittelpunktregel für Kreisbewegung).<br />

1.4<br />

p. 101


2<br />

1.5<br />

1<br />

exact solution<br />

explicit Euler<br />

implicit Euler<br />

implicit midpoint<br />

40 timesteps on [0,10.000000]<br />

1.5<br />

1<br />

exact solution<br />

explicit Euler<br />

implicit Euler<br />

implicit midpoint<br />

160 timesteps on [0,10.000000]<br />

Numerische<br />

Mathemtik<br />

0.5<br />

0.5<br />

0<br />

y 2<br />

−0.5<br />

y 2<br />

0<br />

−1<br />

−1.5<br />

−0.5<br />

−2<br />

−1<br />

−2.5<br />

−3<br />

−4 −3 −2 −1 0 1 2 3<br />

y 1<br />

Fig. 46<br />

☞ Implizite Mittelpunktsregel: Perfekte Längenerhaltung !<br />

−1.5<br />

−1.5 −1 −0.5 0 0.5 1 1.5<br />

y 1<br />

Fig. 47<br />

✸<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

✬<br />

✩<br />

Lemma 1.4.23 (Erhaltung quadratischer erster Integrale durch implizite Mittelpunktsregel).<br />

Falls I : D ⊂ R d ↦→ R, I(y) := 1 2 yT Ay, A ∈ R d,d , erstes Integral (→ Def. 1.2.7) der<br />

autonomen Dgl.ẏ = f(y) mit global differenzierbarer rechter Seitef : D ↦→ R d , dann gilt<br />

✫<br />

I(y k ) = I(y 0 ) ∀k ∈ Z für y k gemäss (1.4.19)<br />

✪<br />

1.4<br />

p. 102


<strong>Beispiel</strong> 1.4.24 (Implizite Mittelpunktsregel für Pendelgleichung).<br />

Numerische<br />

Mathemtik<br />

Anfangswertproblem und numerische Experimente wie in Bsp. 1.4.17<br />

6<br />

4<br />

exact solution<br />

explicit Euler<br />

implicit Euler<br />

implicit midpoint<br />

50 timesteps on [0,5.000000]<br />

6<br />

4<br />

100 timesteps on [0,5.000000]<br />

4<br />

3<br />

200 timesteps on [0,5.000000]<br />

2<br />

2<br />

2<br />

1<br />

0<br />

p<br />

p<br />

0<br />

p<br />

0<br />

−2<br />

−4<br />

−2<br />

−1<br />

−2<br />

−6<br />

−8<br />

−10 −8 −6 −4 −2 0 2 4<br />

α<br />

−4<br />

exact solution<br />

explicit Euler<br />

implicit Euler<br />

implicit midpoint<br />

−6<br />

−4<br />

−2 −1.5 −1 −0.5 0 0.5 1 1.5 2 2.5 −1.5 −1 −0.5 0 0.5 1 1.5<br />

Fig. 48 Fig. 49 Fig. 50<br />

α<br />

−3<br />

exact solution<br />

explicit Euler<br />

implicit Euler<br />

implicit midpoint<br />

α<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

1.4<br />

p. 103


3<br />

Energies for implicit midpoint discrete evolution<br />

Numerische<br />

Mathemtik<br />

2.5<br />

energy<br />

2<br />

1.5<br />

1<br />

✁ Verhalten der Energien bei numerischer<br />

Integration mit impliziter Mittelpunktsregel<br />

(1.4.19),N = 50.<br />

Keine (sichtbare) Energiedrift im Vergleich zu<br />

Euler-Verfahren (trotz grosser Zeitschritte)<br />

0.5<br />

kinetic energy<br />

potential energy<br />

total energy<br />

0<br />

0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5<br />

time t<br />

Fig. 51<br />

✸<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

1.4.4 Störmer-Verlet-Verfahren [15]<br />

?<br />

Übertragung der Idee der Euler-Verfahren (→ Sect. 1.4.1, 1.4.2) auf Differentialgleichungen 2.<br />

Ordnung<br />

ÿ = f(t,y) . (1.4.25)<br />

1.4<br />

p. 104


Gegebeny k−1 ≈ y(t k−1 ),y k ≈ y(t k ) approximierey(t) auf[t k−1 ,t k+1 ] durch<br />

• Parabelp(t) durch(t k−1 ,y k−1 ),(t k ,y k )(∗),<br />

Numerische<br />

Mathemtik<br />

• mit<br />

(∗) ➜<br />

¨p(t k ) = f(y k )(∗).<br />

Parabel eindeutig bestimmt.<br />

y k+1 := p(t k+1 ) ≈ y(t k+1 )<br />

Störmer-Verlet-Verfahren für (1.4.25) (ZeitgitterG := {t 0 ,t 1 ,...,t N }):<br />

y k+1 = − h k<br />

h k−1<br />

y k−1 +<br />

Für uniforme Zeitschrittweiteh:<br />

(<br />

1+ h )<br />

k<br />

y<br />

h k +<br />

2 1(h2 k +h kh k−1 )f(t k ,y k ) , k = 1,...,N −1 .<br />

k−1<br />

(1.4.26)<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

y k+1 = −y k−1 +2y k +h 2 f(t k ,y k ) , k = 1,...,N −1 . (1.4.27)<br />

Beachte: (1.4.26) erfordert nicht das Lösen einer Gleichung (➤ explizites Verfahren)<br />

Terminologie: y k+1 = y k+1 (y k ,y k−1 ) ➤ (1.4.26) ist ein Zweischrittverfahren<br />

(Explizites/implizites Euler-Verfahren, Mittelpunktsregel = Einschrittverfahren)<br />

1.4<br />

p. 105


Bemerkung 1.4.28 (Störmer-Verlet-Verfahren als Differenzenverfahren).<br />

Numerische<br />

Mathemtik<br />

(1.4.27) aus Approximation der zweiten Zeitableitung durch zweiten zentralen Differenzenquotienten<br />

auf ZeitgitterG := {t 0 ,t 1 ,...,t N }: für uniforme Zeitschrittweiteh > 0<br />

ÿ = f(y) ←→<br />

y h (t k+1 )−y h (t k )<br />

h<br />

− y h(t k )−y h (t k−1 )<br />

h<br />

h<br />

= y h(t k+1 )−2y h (t k )+y h (t k−1 )<br />

h 2 = f(y h (t k )) .<br />

△<br />

Bemerkung 1.4.29 (Startschritt für Störmer-Verlet-Verfahren).<br />

Anfangswerte für (1.4.25), siehe Bem. 1.1.16: y(0) = y 0 ,ẏ(0) = v 0<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Benutze virtuellen Zeitpunkt t −1 := t 0 −h 0<br />

Wende (1.4.27) an auf[t −1 ,t 1 ]:<br />

Zentraler Differenzenquotient auf[t −1 ,t 1 ]:<br />

y 1 = −y −1 +2y 0 +h 2 0 f(t 0,y 0 ) . (1.4.30)<br />

y 1 −y −1<br />

2h 0<br />

= v 0 . (1.4.31)<br />

1.4<br />

p. 106


Berechney 1 aus (1.4.30) & (1.4.31)<br />

<strong>Beispiel</strong> 1.4.32 (Störmer-Verlet-Verfahren für Pendelgleichung).<br />

△<br />

Numerische<br />

Mathemtik<br />

Listing 1.6: Störmer-Verlet-Verfahren für Pendelgleichung<br />

1 f u n c t i o n sverletpend(y0,v0,T,N,filename)<br />

2 % MATLAB function for Stoermer-Verlet simulation of movement of mathematical<br />

3 % pendulum, Example 1.4.32<br />

4 %<br />

5 % y0,v0: initial values for angle and its temporal derivative<br />

6 % T : final time<br />

7 % N : number of timesteps<br />

8<br />

9 g = 9.8; l = 1;<br />

0<br />

1 % right hand side for (1.4.25) (Newton’s equations of motion)<br />

2 f = @(y) -g/l*sin(y);<br />

3<br />

4 h = T/N; % uniform timestep<br />

5 y_old = y0; y_new = h*v0+y0+ 0.5*h*h*f(y0); % initial step, see<br />

Rem. 1.4.29<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

1.4<br />

p. 107


6<br />

7 % Stoermer-Verlet iteration<br />

8 y_sv = y0; y_sv = [y_sv,y_new]; y_p = v0;<br />

9 f o r k=2:N+1<br />

0 y = -y_old + 2*y_new + h*h*f(y_new);<br />

1 y_p = [y_p,(y-y_old)/(2*h)];<br />

2 y_old = y_new; y_new = y;<br />

3 y_sv = [y_sv,y];<br />

4 end<br />

5 y_sv = y_sv(1:end-1);<br />

6<br />

7 % right hand side (Hamiltonian form) for computation of reference solution<br />

8 % with high-order single step method with tight tolerances<br />

9 odefun = @(t,y) [y(2);-g/l*sin(y(1))];<br />

0 [t,y] = ode45(odefun,[0,T],[y0;v0],...<br />

1 odeset(’abstol’,1E-11,’reltol’,1E-11,’stats’,’on’));<br />

2<br />

3 % Plot of angle vs. time<br />

4 f i g u r e(’name’,’Pendulum alpha’);<br />

5 p l o t(t,y(:,1),’g-’,h*(0:N),y_sv,’r-+’);<br />

6 x l a b e l(’{\bf time t}’,’fontsize’,14);<br />

7 y l a b e l(’{\bf angle \alpha}’,’fontsize’,14);<br />

8 t i t l e( s p r i n t f(’Pendulum g = %f, l =<br />

Numerische<br />

Mathemtik<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

1.4<br />

p. 108


%f,\\alpha(0)=%f,p(0)=%f’,g,l,y0,v0));<br />

9 i f (nargin > 3),<br />

p r i n t(’-depsc2’, s p r i n t f(’%s_alpha.eps’,filename)); end<br />

0<br />

1 % Plot of velocity vs. time<br />

2 tg = h*(0:N);<br />

3 f i g u r e(’name’,’Pendulum velocity’);<br />

4 p l o t(t,y(:,2),’g-’,tg,y_p,’r-+’);<br />

5 x l a b e l(’{\bf time t}’,’fontsize’,14);<br />

6 y l a b e l(’{\bf velocity p}’,’fontsize’,14);<br />

7 t i t l e( s p r i n t f(’Pendulum g = %f, l =<br />

%f,\\alpha(0)=%f,p(0)=%f’,g,l,y0,v0));<br />

8 i f (nargin > 3), p r i n t(’-depsc2’, s p r i n t f(’%s_p.eps’,filename));<br />

end<br />

9<br />

0 % PLot of trajectory in phase space<br />

1 f i g u r e(’name’,’Pendulum trajectory’);<br />

2 ph = p l o t(y(:,1),y(:,2),’g--’,y_sv,y_p,’r-+’);<br />

3 set(ph(1),’linewidth’,2);<br />

4 x l a b e l(’{\bf angle \alpha}’,’fontsize’,14);<br />

5 y l a b e l(’{\bf velocity p}’,’fontsize’,14);<br />

6 t i t l e( s p r i n t f(’Pendulum g = %f, l =<br />

%f,\\alpha(0)=%f,p(0)=%f’,g,l,y0,v0));<br />

Numerische<br />

Mathemtik<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

1.4<br />

p. 109


7<br />

8 i f (nargin > 3),<br />

p r i n t(’-depsc2’, s p r i n t f(’%s_orbit.eps’,filename)); end<br />

9<br />

0 % Tracking of energies<br />

1 E_kin = 0.5*(y_p.^2);<br />

2 E_pot = -g/l*cos(y_sv);<br />

3 E_pot = E_pot - min(E_pot) + min(E_kin);<br />

4 E_tot = E_kin + E_pot;<br />

5<br />

6 f i g u r e(’name’,’Pendulum: energy’);<br />

7 p l o t(tg,E_kin,’b-’,tg,E_pot,’c-’,tg,E_tot,’r-’);<br />

8 x l a b e l(’{\bf time t}’,’fontsize’,14);<br />

9 y l a b e l(’{\bf energy}’,’fontsize’,14);<br />

0 legend(’kinetic energy’,’potential energy’,’total<br />

energy’,’location’,’southeast’);<br />

1 t i t l e(’Energies for {\bf Stoermer-Verlet} discrete evolution’);<br />

2 i f (nargin > 3),<br />

p r i n t(’-depsc2’, s p r i n t f(’%s_EnSV.eps’,filename)); end<br />

Numerische<br />

Mathemtik<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

1.4<br />

p. 110


(1.4.27) angewandt auf (1.2.18)<br />

5<br />

4<br />

Pendulum g = 9.800000, l = 1.000000,α(0)=1.570796,p(0)=0.000000<br />

Numerische<br />

Mathemtik<br />

Startschritt gemäss Bem. 1.4.29<br />

3<br />

Uniforme Zeitschrittweitee h := T/N, N ∈ N<br />

Zeitschritte<br />

Referenzlösung durch MATLAB-Funktion<br />

velocity p<br />

2<br />

1<br />

0<br />

−1<br />

ode45() (extrem kleine Toleranzen)<br />

−2<br />

α 0 = π/2,p 0 = 0,T = 5, vgl. Bsp. 1.4.17<br />

−3<br />

Anzahl Zeitschritte: N = 40<br />

−4<br />

−5<br />

−2 −1.5 −1 −0.5 0 0.5 1 1.5 2<br />

angle α<br />

Fig. 52<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

1.4<br />

p. 111


2<br />

1.5<br />

Pendulum g = 9.800000, l = 1.000000,α(0)=1.570796,p(0)=0.000000<br />

5<br />

4<br />

Pendulum g = 9.800000, l = 1.000000,α(0)=1.570796,p(0)=0.000000<br />

Numerische<br />

Mathemtik<br />

3<br />

1<br />

2<br />

angle α<br />

0.5<br />

0<br />

−0.5<br />

velocity p<br />

1<br />

0<br />

−1<br />

−2<br />

−1<br />

−3<br />

−1.5<br />

−4<br />

−2<br />

0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5<br />

time t<br />

Fig. 53<br />

−5<br />

0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5<br />

time t<br />

Fig. 54<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

1.4<br />

p. 112


10<br />

9<br />

Energies for Stoermer−Verlet discrete evolution<br />

Numerische<br />

Mathemtik<br />

8<br />

7<br />

6<br />

energy<br />

5<br />

4<br />

3<br />

☞ Keine Energiedrift trotz grosser Zeitschrittweite<br />

Perfekt periodische Orbits !<br />

2<br />

1<br />

kinetic energy<br />

potential energy<br />

total energy<br />

0<br />

0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5<br />

time t<br />

Fig. 55<br />

Kontrast: Bsp. 1.4.17<br />

Bemerkung 1.4.33 (Einschrittformulierung des Störmer-Verlet-Verfahrens).<br />

✸<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Für uniforme Zeitschrittweite, vgl. (1.4.27), analog zur Umwandlung einer Dgl. 2. Ordnung→Dgl. 1.<br />

1.4<br />

p. 113


Ordnung, siehe (1.1.10): mitv k+<br />

1<br />

2<br />

:= y k+1−y k<br />

h<br />

ÿ = f(y)<br />

↕<br />

←→<br />

ẏ = v ,<br />

˙v = f(y) .<br />

↕<br />

Numerische<br />

Mathemtik<br />

y k+1 −2y k +y k−1 = h 2 k f(y k) ←→<br />

Zweischrittverfahren<br />

v k+<br />

1 = v k + h<br />

2<br />

2 f(y k) ,<br />

y k+1 = y k +hv k+<br />

1 ,<br />

2<br />

v k+1 = v k+<br />

1 + h<br />

2<br />

2 f(y k+1) .<br />

Einschrittverfahren<br />

Startschritt (→ Bem. 1.4.29) ist implizit in der Einschrittformulierung enthalten.<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

△<br />

Bemerkung 1.4.34 (Störmer-Verlet-Verfahren als Polygonzugmethode).<br />

1.4<br />

p. 114


y/v<br />

v k+ 1/2<br />

Numerische<br />

Mathemtik<br />

Perspektive: Störmer-Verlet-Verfahren<br />

als Einschrittverfahren<br />

(siehe Bem. 1.4.33)<br />

v k+<br />

1 = v<br />

2<br />

k−<br />

1 +hf(y k ) ,<br />

2<br />

y k+1 = y k +hv k+<br />

1 .<br />

2<br />

v k− 1/2<br />

v k− 3/2<br />

y k<br />

f<br />

f<br />

y k−2<br />

y k−1<br />

y k+1<br />

t k−2 t k−1 t k t k+1<br />

t<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

△<br />

1.4<br />

p. 115


Erinnerung (Bem. 1.2.4) an die Frage<br />

für ODEs?”<br />

„Warum viele verschiedene numerischer Lösungsverfahren<br />

Numerische<br />

Mathemtik<br />

Antwort:<br />

Jeder numerische Integrator hat spezielle Eigenschaften<br />

➥<br />

besonders geeignet/ungeeignet für bestimmte Klassen von AWPe<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

1.4<br />

p. 116


Numerische<br />

Mathemtik<br />

2 Einschrittverfahren<br />

2.1 Grundlagen<br />

Gegeben: f : Ω ↦→ R d lokal Lipschitz-stetig (→ Def. 1.3.2) auf erweitertem Zustandsraum Ω ⊂<br />

R×D<br />

➣ Definiert ODE ẏ = f(t,y) (→ Sect. 1.1)<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Zugehöriger Evolutionsoperator: Φ s,t : D ↦→ D (→ Def. 1.3.7)<br />

Gegeben: Anfangsdaten(t 0 ,y 0 ) ∈ Ω ➣ Konkretes Anfangswertproblem (1.1.13)<br />

Ziel: ☞ Approximation vony(T) für EndzeitpunktT ∈ J(t 0 ,y 0 ).<br />

☞<br />

Approximation der Funktiont ↦→ y(t),t ∈ [t 0 ,T],T ∈ J(t 0 ,y 0 ) ✄ y h (t).<br />

2.1<br />

p. 117


Bemerkung 2.1.1 (Glattheitsannahmen an rechte Seitef).<br />

Numerische<br />

Mathemtik<br />

Für die Konvergenztheorie von Einschrittverfahren:<br />

Annahme: f „hinreichend” glatt ⇒ t ↦→ y(t) „hinreichend” glatt<br />

Beweise werden zunächst für beliebig glattesf konzipiert.<br />

Im Nachhinein werden minimale Glattheitsanforderungen an f für die jeweiligen Aussagen spezifiziert.<br />

(Dies wird im diesem Kurs in der Regel übersprungen werden)<br />

△<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

2.1.1 Abstrakte Einschrittverfahren [8, Sect. 4.1]<br />

2.1<br />

p. 118


Numerische<br />

Mathemtik<br />

Baustein: Verfahrensfunktion (diskrete Evolution) Ψ : ˜Ω h ⊂ I ×I ×D ↦→ R d<br />

✎ Notation: Ψ s,t y := Ψ(s,t;y)<br />

Baustein: Zeitgitter G := {t 0 ,t 1 ,...,t N = T} ,t 0 < t 1 < ··· < t N .<br />

(Terminologie: t k ˆ= Gitterpunkte, lokale (Zeit)schrittweiteh k := t k+1 −t k )<br />

✎ Notation: globale Zeitschrittweiteh = h G = max<br />

0≤i


Bemerkung 2.1.4 (Notation fuer Einschrittverfahren).<br />

Numerische<br />

Mathemtik<br />

Oft spezifiziert man Einschrittverfahren durch Angabe des ersten Schritts<br />

y 1 = Ausdruck iny 0 undf .<br />

Dieser Gepflogenheit wird sich auch diese Vorlesung manchmal anschliessen.<br />

△<br />

Einschrittverfahren<br />

function [T,Y] = esv(Psi,tspan,y0)<br />

t = tspan(1); y = y0; Y = y; T = t;<br />

while (t < tspan(2))<br />

h = Aktuelle Zeitschrittweite<br />

y = Psi(t,t+h,y); t = t+h;<br />

Y = [Y,y]; T = [T,t];<br />

end<br />

Funktionshandle<br />

Psi = @(t0,t1,y) ...<br />

Beachte: Die aktuelle Zeitschrittweite<br />

wird jeweils aus den Genauigkeitsanforderungen<br />

und y k berechnet(→<br />

Sect. 2.6).<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

2.1<br />

p. 120


Definition 2.1.5 (Explizite und implizite Einschrittverfahren).<br />

Ein Einschrittverfahren zur approximativen Lösung eines AWP heisst explizit, falls die zugrundeliegende<br />

diskrete Evolution durch endlich vielef-Auswertungen zu realisieren ist.<br />

Numerische<br />

Mathemtik<br />

Die diskrete Evolution eines impliziten Einschrittverfahrens erfordert die Lösung eines Gleichungssystems.<br />

ESV + Anfangswert + Zeitgitter erzeugt Gitterfunktion y G : G ↦→ R d ,y G (t k ) = y k<br />

Bei „geschickter Wahl” vonΨ:<br />

y k ≈ y(t k ) (y ˆ= exakte Lösung)<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Definition 2.1.6 (Diskretisierungsfehler).<br />

Für gegebenesT ∈ J(t 0 ,y 0 ), seiy : [t 0 ,T] ↦→ R d Lösung des AWP (1.1.13)<br />

y G eine Näherungslösung auf dem GitterG = {t 0 < t 1 < ··· < t N = T}.<br />

Diskretisierungsfehler<br />

ǫ G := max<br />

0≤k≤N ‖y(t k)−y k ‖ .<br />

2.1<br />

p. 121


Hier ist ‖·‖ irgendeine Vektornorm auf dem Zustandsraum D ⊂ R d . Wegen der Äquivalenz aller<br />

Normen auf eindlichdimensionalen Vektorräumen, gelten alle im folgenden abgeleiteten Aussagen<br />

für beliebige Normen.<br />

Numerische<br />

Mathemtik<br />

Definition 2.1.7 (Konvergenz und Konvergenzordnung). → [8, Def. 4.6]<br />

Das ESV (2.1.3) zum AWP (1.1.13) konvergiert, falls<br />

∀ǫ > 0: ∃δ > 0: ∀ZeitgitterG ⊂ [0,T]: h G ≤ δ ⇒<br />

(Kurz: ǫ G → 0, fallsh G → 0)<br />

ESV wohldefiniert,<br />

ǫ G ≤ ǫ .<br />

Das ESV heisst (algebraisch→Def. 1.4.5) konvergent von der Ordnungp ∈ N, falls<br />

∃h 0 > 0, C > 0:<br />

ESV wohldefiniert,<br />

ǫ G ≤ Ch p G<br />

∀ZeitgitterG, h G ≤ h 0 .<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

(Kurzschreibweise mit Landau-Symbol ǫ G = O(h p ))<br />

Erweiterung: Konvergenz für alle(t 0 ,y 0 ) ∈ Ω ➣ globale Konvergenz<br />

2.1<br />

p. 122


Beachte: Konvergenz gemäss Def. 2.1.7 ist ein asymptotischer Begriff (h G → 0)<br />

Numerische<br />

Mathemtik<br />

Die Aussage, dass ein Verfahren mit einer gewissen Ordnung konvergiert, sagt uns in der<br />

Regel nichts über die tatsächliche Grösse (einer Norm) des Fehlers. Solche stärkeren<br />

Aussagen gelingen der numerischen Analysis von Einschrittverfahren in der Regel nicht.<br />

Was nützt denn dann das Wissen über Konvergenz der Ordnungpüberhaupt ?<br />

Wenn wir annehmen, dass die Aussage scharf ist, also ǫ G ≈ Ch p G<br />

, dann können wir schliessen, um<br />

welchen Faktor wir die globale Zeitschrittweite verringern müssen, um den Fehler um einen vorgegebenen<br />

Faktor zu reduzieren.<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

2.1<br />

p. 123


2.1.2 Konsistenz [8, Sect. 4.1.1]<br />

Numerische<br />

Mathemtik<br />

Kontinuierliche Evolution (→ Def. 1.3.7)<br />

Φ s,t<br />

←→<br />

Diskrete Evolution<br />

Ψ s,t<br />

erfüllt für alle(t,y) ∈ Ω<br />

(i)Φ t,t y = y<br />

(ii) d ds Φt,t+s y<br />

∣ = f(t,y)<br />

s=0<br />

(iii)Φ r,s Φ t,r y = Φ t,s y ∀r,s ∈ J(t,y)<br />

Unter der Annahme, dasst ↦→ Ψ s,t y differenzierbar:<br />

d<br />

dt<br />

✗<br />

✖<br />

(<br />

Ψ s,t )<br />

y<br />

= lim<br />

τ→0<br />

Ψ s,t+τ y−Ψ s,t y<br />

τ<br />

sollte erfüllen:<br />

(i)Ψ t,t y = y klar!<br />

d<br />

ds Ψt,t+s y<br />

∣ = f(t,y) unbedingt!<br />

s=0<br />

(ii)<br />

(iii)Ψ r,s Ψ t,r y = Ψ t,s y ∀r,s ∈ J(t,y) utopisch!<br />

FallsΨ(i)–(iii) erfüllt, dann giltΨ = Φ !<br />

(iii)<br />

= lim<br />

τ→0<br />

Ψ t,t+τ (Ψ s,t y)−Ψ t,t (Ψ s,t y)<br />

τ<br />

✔<br />

✕<br />

(ii)<br />

= f(t,Ψ s,t y) .<br />

t ↦→ Ψ s,t löst das gleiche Anfangswertproblem für ẏ = f(t,y) wie t ↦→ Φ s,t y. Mit Satz von Picard-<br />

Lindelöf (→ Thm. 1.3.4) folgtΨ = Φ.<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

2.1<br />

p. 124


Definition 2.1.8 (Konsistenz einer diskreten Evolution).<br />

Diskrete EvolutionΨist konsistent mit der ODEẏ = f(t,y), falls für alle(t,y) ∈ Ω<br />

Ψ t,t d<br />

y = y und<br />

ds Ψt,t+s y<br />

∣ = f(t,y) .<br />

s=0<br />

Numerische<br />

Mathemtik<br />

✬<br />

Lemma 2.1.9 (Darstellung konsistenter diskreter Evolutionen). → [8, Lemma 4.4]<br />

Sei(t,y) ∈ Ω unds ↦→ Ψ t,t+s y stetig differenzierbar in Umgebung von0.<br />

Ψ is genau dann konsistent mitẏ = f(t,y) (→ Def. 2.1.8), wenn eine auf dieser Nullumgebung<br />

stetige Inkrementfunktionh ↦→ ψ(t,y,h) existiert mit<br />

✫<br />

Ψ t,t+h y = y+hψ(t,y,h) , ψ(t,y,0) = f(t,y) . (2.1.10)<br />

✩<br />

✪<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Definition 2.1.11 (Konsistenzfehler einer diskreten Evolution). → [8, Def. 4.3]<br />

Konsistenzfehler:<br />

τ(t,y,h) := Φ t,t+h y−Ψ t,t+h y (h hinreichend klein);.<br />

2.1<br />

p. 125


✬<br />

✩<br />

Lemma 2.1.12 (Konsistenz und Konsistenzfehler).<br />

Sei(t,y) ∈ Ω,s ↦→ Ψ t,t+s y stetig differenzierbar in einer Umgebung von0.Ψist genau dann<br />

konsistent mitẏ = f(t,y) (→ Def. 2.1.8), wenn für den Konsistenzfehler gilt<br />

Numerische<br />

Mathemtik<br />

‖τ(t,y,h)‖ = o(h) fürh → 0 lokal gleichmässig in(t,y) ∈ Ω .<br />

✫<br />

✪<br />

✎ Notation: „Landau-o”: g(h) = o(h) :⇔ g(h)<br />

h → 0 fürh → 0<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

2.1<br />

p. 126


Interpretation:<br />

D<br />

Ψ t,t+h y<br />

τ(t,y,h)<br />

Numerische<br />

Mathemtik<br />

✓<br />

✒<br />

Konsistenzfehler = Einschrittfehler<br />

✏<br />

✑<br />

Φ t,t+h y<br />

— ˆ= exakte Lösung durch(y,y)<br />

— ˆ= Näherungslösung aus diskreter Evolution<br />

y<br />

t<br />

t+h<br />

t<br />

Definition 2.1.13 (Konsistenzordnung einer diskreten Evolution). [8, Def. 4.7]<br />

Eine diskrete Evolution hat Konsistenzordnungp ∈ N, falls für den Konsistenzfehler lokal gleichmässig<br />

inΩgilt<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

‖τ(t,y,h)‖ = O(h p+1 ) fürh → 0 . (2.1.14)<br />

2.1<br />

p. 127


Dass (2.1.14) lokal gleichmässig gilt bedeutet<br />

∀(t,y) ∈ Ω: ∃h 0 ,δ,C > 0: τ(˜t,ỹ,h) ≤ Ch p+1 ∀˜t,ỹ,h: |˜t−t| ≤ δ,‖ỹ−y‖ ≤ δ ,<br />

0 ≤ h ≤ h 0 .<br />

Numerische<br />

Mathemtik<br />

Wegen der Äquivalenz aller Normen auf dem endlichdimensionalen Raum R d ist die Wahl der Norm<br />

in den Definitionen 2.1.11 und 2.1.13 belanglos.<br />

Technik zur Bestimmung der Konsistenzordnung:<br />

Taylor-Entwicklung<br />

<strong>Beispiel</strong> 2.1.15 (Konsistenzordnung einfacher Einschrittverfahren).<br />

Implizite Mittelpunktsregel (1.4.19): y 1 = y 0 +hf( 1 2 (t 0+t 1 ), 1 2 (y 0 +y 1 ))<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Beachte: Keine explizite Formel fürΨ! (“implicit” method)<br />

Für die „faulen” Leute: Computeralgebra (MAPLE) !<br />

2.1<br />

p. 128


D(y) := x -> f(y(x));<br />

D(y) := x ↦→ f (y(x))<br />

y0 := y(0);<br />

y0 := y(0)<br />

solve(y0+h*f((y0+y1)/2)=y1,{y1});<br />

{y1 = RootOf (−y(0)−hf (1/2y(0)+1/2 _Z) + _Z)}<br />

assign(%);<br />

taylor(y1-y(h),h=0,4);<br />

(( (<br />

series −1/6 D (2)) (f)(y(0))(f (y(0))) 2 −1/6 (D(f)(y(0))) 2 f (y(0))<br />

((<br />

+1/8f (y(0)) D (2)) (f)(y(0))f (y(0))+2 (D(f)(y(0))) 2)) h 3 +O<br />

Implizite Mittelpunktsregel hat Konsistenzordnung 2 !<br />

(<br />

h 4) )<br />

,h,4<br />

✸<br />

Numerische<br />

Mathemtik<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Bestimmung der formalen Konsistenzordnung eines ESV immer unter der Annahme<br />

hinreichender(∗) Glattheit der exakten Lösung !<br />

2.1<br />

p. 129


(∗):<br />

„hinreichend” ˆ= so glatt, wie für Taylorentwicklung erforderlich<br />

Numerische<br />

Mathemtik<br />

Falls exakte Lösung nicht hinreichend glatt ☞ eingeschränkte Bedeutung der Konsistenzordnung<br />

für das tatsächliche Verhalten eines Verfahrens.<br />

In dieser Vorlesung:<br />

(Oft) stillschweigende Annahme „hinreichender Glattheit” !<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

2.1.3 Konvergenz<br />

Betrachte wird Anfangswertproblem<br />

ẏ = f(t,y) , y(t 0 ) = y 0 für ein (t 0 ,y 0 ) ∈ Ω := I ×D . 1.1.13<br />

2.1<br />

p. 130


Annahme: rechte Seitef : Ω ↦→ R d lokal Lipschitz-stetig (→ Def. 1.3.2)<br />

Numerische<br />

Mathemtik<br />

Thm. 1.3.4 ➣ Existenz & Eindeutigkeit von Lösungt ↦→ y(t)<br />

Betrachte Einschrittverfahren (→ Def. 2.1.2) mit Verfahrensfunktion<br />

Ψ : Ω h ⊂ I × I × D ↦→ R d<br />

Ψ t,t+h y := y+hψ(t,y,h) . (2.1.17)<br />

Inkrementfunktion<br />

Annahme:<br />

Lokale Abschätzung für Konsistenzfehler(→ Def. 2.1.11): für einp ∈ N<br />

∥<br />

∀(t,y) ∈ Ω: ∃C c > 0,δ > 0: ∥Φ t,t+h y−Ψ t,t+h y∥ ≤ C c h p+1 ∀|h| hinreichend klein ,<br />

∀ty: |t−t| < δ, ‖y−y‖ < δ .<br />

(2.1.18)<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Beachte: Konsistenzordnungp für diskrete EvolutionΨbzgl.ẏ = f(t,y) ⇒ (2.1.18)<br />

2.1<br />

p. 131


y G = (y k ) N k=0 : Gitterfunktion erzeugt durch ESV Ψ auf Zeitgitter (T > t 0 ˆ= Endzeitpunkt) )<br />

G := {t 0 < t 1 < ··· < t N = T} ⊂ J(t 0 ,y 0 ) ,<br />

Numerische<br />

Mathemtik<br />

vgl. Def. 2.1.2.<br />

✬<br />

✩<br />

Theorem 2.1.19 (Kovergenztheorem für Einschrittverfahren). [8, Thm. 4.10]<br />

Es gelte Annahme (2.1.18) und die Darstellung (2.1.17). Ist die Inkrementfunktion ψ lokal<br />

Lipschitz-stetig (→ Def. 1.3.2) in der Zustandsvariableny, dann<br />

(i) liefert die Verfahrensfunktion Ψ für alle Zeitgitter G mit hinreichend kleinem h G eine<br />

Gitterfunktiony G zum Anfangswerty 0 ,<br />

(ii) konvergiert diese Familie {y G } G von Gitterfunktionen von der Ordnung p gegen t ↦→ y(t),<br />

✫<br />

siehe Def. 2.1.7<br />

✪<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Hilfsmittel beim Beweis:<br />

2.1<br />

p. 132


✬<br />

✩<br />

Lemma 2.1.20 (Diskretes Gronwall-Lemma, siehe Lemma 1.3.29).<br />

Erfüllt die Folge(ξ k ) k∈N0 ,ξ k ≥ 0, die Differenzenungleichung<br />

so gilt<br />

✫<br />

ξ k+1 ≤ Ch p+1<br />

k<br />

+(1+Lh k )ξ k , k ∈ N 0 , L,C,h k ≥ 0 , (2.1.21)<br />

ξ N ≤ C ( )1<br />

max<br />

k=0,...,N−1 hp k L<br />

⎛<br />

⎝exp ( L<br />

N−1 ∑<br />

k=0<br />

⎞<br />

)<br />

h k −1 ⎠+exp ( N−1 ∑<br />

L<br />

k=0<br />

h k<br />

)·ξ0 , N ∈ N 0 .<br />

✪<br />

Numerische<br />

Mathemtik<br />

Beweis. (durch Induktion nachN)<br />

Mit der Konvention, dass leere Summen verschwinden, gilt die Behauptung fürN = 0 (Induktionsbeginn)<br />

Induktionsschluss:<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

(2.1.21)<br />

ξ N+1 ≤ Ch p+1<br />

N +(1+Lh N)ξ N<br />

∗<br />

≤ Ch p+1<br />

N +(1+Lh N)<br />

⎛<br />

⎝C ( N−1<br />

max<br />

k=0 hp k<br />

)1<br />

L<br />

⎛<br />

⎝exp ( L<br />

N−1 ∑<br />

k=0<br />

⎞<br />

)<br />

h k −1 ⎠+exp ( N−1 ∑<br />

L<br />

k=0<br />

h k<br />

)<br />

ξ0<br />

⎞<br />

⎠<br />

2.1<br />

p. 133


≤ C ( N max<br />

k=0 hp k<br />

⎛<br />

)<br />

⎝h N + 1 (<br />

exp ( L<br />

L<br />

N∑ ) ) ⎞<br />

h k −1−LhN ⎠+exp ( L<br />

k=0<br />

Das ist die Behauptung des Lemmas fürN +1.<br />

N∑ )<br />

h k ξ0<br />

k=0<br />

Numerische<br />

Mathemtik<br />

∗: Benutzt die Induktionsannahme, d.h., die Behauptung des Lemmas fürξ N .<br />

Benutzt die elementare Abschätzung1+x ≤ exp(x),x ∈ R (Konvexität der Exponentialfunktion).<br />

Beweis von Thm. 2.1.19; Verallgeminerung des Beweises der algebraischen Konvergenz des expliziten<br />

Eulerverfahrens aus Abschnitt 1.4.1. Das vorbereitende Studium jenes Beweises wird empfohlen.<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

➀ Kompakte Umgebung der Lösungstrajektoriet ↦→ y(t) zum Anfangswerty 0 :<br />

K δ := {(t,y) ∈ I ×R d : t 0 ≤ t ≤ T, ‖y−y(t)‖ ≤ δ} , δ > 0 .<br />

Für hinreichend kleinesδ > 0:<br />

K δ ⊂ Ω<br />

Infolge der lokalen Lipschitz-Bedingung anψ und der lokalen Konsistenzfehlerabschätzung (2.1.18)<br />

2.1<br />

p. 134


➁ Annahme A1:(y k ) N k=0 existiert undy k ∈ K δ ⊂ Ω für einδ > 0. Diese Annahme wird a posteriori<br />

(durch Induktion nachN) für hinreichend kleinesh G besätigt.<br />

Numerische<br />

Mathemtik<br />

➂ Beachtey k+1 = Ψ t k,t k+1 y k ➣ Rekursion für Fehler e k := y(t k )−y k<br />

(<br />

e k+1 = y(t k+1 )−Ψ t )<br />

k,t k+1 y(t k ) +<br />

(Ψ t k,t k+1 y(t k )−Ψ t )<br />

k,t k+1 y k<br />

} {{ } } {{ }<br />

Einschrittfehler<br />

propagierter Fehler<br />

(2.1.17)<br />

= τ(t k ,y(t k ),h k )+e k +h k (ψ(t k ,y(t k ),h k )−ψ(t k ,y k ,h k )) ,<br />

wobei die Def. 2.1.11 des Konsistenzfehlersτ benutzt worden ist.<br />

➃ Kompaktheitsargumente:<br />

(2.1.22)<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Konsequenz der lokalen Konsistenzfehlerabschätzung (2.1.18): für|h| hinreichend klein<br />

∥ ∥<br />

∃C > 0:<br />

∥Φ t,t+h y−Ψ t,t+h y∥ ≤ C c h p+1 ∀(t,y),(t+h,y) ∈ K δ . (2.1.23)<br />

Konsequenz der lokalen Lipschitz-Stetigkeit (→ Def. 1.3.2) der Inkrementfunktion ψ: für |h|<br />

hinreichend klein<br />

∃L > 0: ‖ψ(t,z,h)−ψ(t,w,h)‖ ≤ L‖z−w‖ ∀(t,z),(t,w) ∈ K δ . (2.1.24)<br />

2.1<br />

p. 135


➄ (2.1.22) &△-Ungleichung<br />

⇒ Rekursion für Fehlernorm:<br />

‖e k+1 ‖ ≤ ‖e k ‖+‖τ(t k ,y(t k ),h k )‖+h k ‖ψ(t k ,y(t k ),h k )−ψ(t k ,y k ,h k )‖<br />

(2.1.24)<br />

≤ ‖e k ‖+‖τ(t k ,y(t k ),h k )‖+h k L‖y(t k )−y k ‖<br />

(2.1.23)<br />

≤ Ch p+1<br />

k<br />

+(1+Lh k )‖e k ‖ .<br />

Anwendung des diskreten Gronwall-Lemmas mitξ k := ‖e k ‖,ξ 0 = 0:<br />

Lemma 2.1.20 ⇒ ‖e k ‖ ≤ Ch p exp(L(T −t 0 ))−1<br />

G<br />

.<br />

L<br />

➅ Die Abschätzung zeigt, dass y k −y(t k ) → 0 für h G → 0. Damit kann durch Induktion bewiesen<br />

werden<br />

∀δ > 0: ∃h ∗ = h ∗ (δ) > 0: h G < h ∗ ⇒ (t k ,y k ) ∈ K δ ∀k .<br />

Damit ist Annahme A1 gerechtfertigt.<br />

✷<br />

Numerische<br />

Mathemtik<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Beachte: Der Beweis benutzt nur den Konsistenzfehler entlang der Lösungstrajektorieτ(t,y(t),h).<br />

Man kann also die Voraussetzung der Konsistenzordung p (→ Def. 2.1.13) schwächer<br />

formulieren als<br />

‖τ(t,y(t),h)‖ ≤ C c h p+1 ∀t ∈ [t 0 ,T] , fürh hinreichend klein.<br />

2.1<br />

p. 136


Merkregel:<br />

(Nur) für Einschrittverfahren:<br />

Numerische<br />

Mathemtik<br />

✓<br />

✒<br />

Konsistenzordnungp =⇒ Konvergenzordnungp<br />

✏<br />

✑<br />

Aus dem diskreten Gronwall-Lemma ergibt sich, dass die Konstante in der asymptotischen Fehlerabschätzung<br />

von Thm. 2.1.19 exponentiell von T − t 0 abhängt. Dies macht die Abschätzung des<br />

Theorems u.U. wertlos für Langzeitintegration, vgl. Lemma 4.4.82.<br />

2.1.4 Das Äquivalenzprinzip (Dahlquist, Lax)<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

2.1<br />

p. 137


Ziel: Abstraktion des Beweises von Thm. 2.1.19<br />

Numerische<br />

Mathemtik<br />

Betrachte: Äquidistante Zeitgitter G = {t k } N k=0 ,t k := t 0 +hk,h := (T −t 0 )/N,N ∈ N<br />

diskrete EvolutionΨ<br />

Gitterfunktiony G = (y k ) N k=0<br />

←→<br />

(kontinuierliche) EvolutionΦ<br />

Lösungt ↦→ y(t)<br />

(Annahme:<br />

G ⊂ J(t 0 ,y 0 ),y G wohldefiniert)<br />

D<br />

y(t)<br />

Konsistenzfehler, vgl. Def. 2.1.11:<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Ψ<br />

y k+1 y k+2<br />

Ψ<br />

y k<br />

Ψ<br />

y k−1<br />

t k−1 t k t k+1 t k+2<br />

t<br />

τ(t,y,h) := (Φ t,t+h y−Ψ t,t+h y) .<br />

Fehlerfunktion: e k := y(t k )−y k .<br />

✁ — ˆ=t ↦→ y(t)<br />

• ˆ=y(t k )<br />

• ˆ=y k<br />

−→ ˆ=Ψ t k,t k+1<br />

2.1<br />

p. 138


Fehlerrekursion<br />

e k = y(t k )−y k<br />

= y(t k )−Ψ t k−1,t k (y(t k−1 )−e k−1 )<br />

= Ψ t k−1,t k (y(t k−1 ))−Ψ t k−1,t k (y(t k−1 )−e k−1 )<br />

} {{ }<br />

fortgepflanzter Fehler<br />

+ y(t k )−Ψ t k−1,t k (y(t k−1 ))<br />

} {{ }<br />

Einschrittfehler = Konsistenzfehler<br />

e k−1<br />

y k−1<br />

y k<br />

e k<br />

Ψ t k−1,t k<br />

(y(t k−1 )<br />

y(t k )<br />

y(t k−1 )<br />

Fig. 56<br />

t k−1 t k<br />

Numerische<br />

Mathemtik<br />

Alternative Fehlerrekursion<br />

e k = y(t k )−y k = Φ t k−1,t k y(t k−1 )−Ψ t k−1,t k (y k−1 )<br />

= Φ t k−1,t k (y k−1 +e k−1 )−Φ t k−1,t k (y k−1 )<br />

} {{ }<br />

fortgepflanzter Fehler<br />

+Φ t k−1,t k (y k−1 )−Ψ t k−1,t k (y k−1 )<br />

} {{ }<br />

Einschrittfehler = Konsistenzfehler<br />

1. Fehlerrekursion: Abschätzung des Konsistenzfehlers in einer Umgebung der exakten Lösung ausreichend<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

2. Fehlerrekursion: Konsistenzfehler abzuschätzen in einer Umgebung der Lösung des ESV<br />

Konzept: Stabilität einer diskreten Evolution ←→ Kontrolle der Fehlerfortpflanzung<br />

2.1<br />

p. 139


Definition 2.1.25 (Nichtlineare Stabilität).<br />

Eine diskrete EvolutionΨist (nichtlinear) stabil<br />

∥<br />

:⇔ ∃c > 0:<br />

∥Ψ t,t+h y−Ψ t,t+h z∥ ≤ (1+ch)‖y−z‖<br />

Numerische<br />

Mathemtik<br />

lokal gleichmässig in(t,y) für hinreichend kleine‖y−z‖,h > 0.<br />

Für ESV (2.1.17): Lokale Lipschitz-Stetigkeit vonψ ➣ nichtlineare Stabilität<br />

✬<br />

Theorem 2.1.26 ( Konsistenz & (nichtlineare) Stabilität ⇒ Konvergenz ).<br />

FallsΨkonsistent mitΦ(von Ordnungp) und (nichtlinear) stabil, so konvergiert das Einschrittverfahren<br />

global (von Ordnungp).<br />

✫<br />

✩<br />

R. Hiptmair<br />

✪<br />

rev 35327,<br />

25. April<br />

2011<br />

2.1.5 Reversibilität<br />

2.1<br />

p. 140


Wir haben gesehen: Eine approximative diskrete Evolution Ψ (→ Sect. 2.1.1) kann im Allgemeinen<br />

nicht erfüllen:Ψ r,s Ψ t,r = Ψ t,s<br />

Numerische<br />

Mathemtik<br />

Jedoch: fürs = t ist diese Forderung realisierbar !<br />

Definition 2.1.27 (Reversible diskrete Evolutionen). → [8, Def. 4.40]<br />

Eine diskrete Evolution Ψ : ˜Ω h ⊂ I ×I ×D ↦→ R d (und das zugehörige Einschrittverfahren)<br />

heisst reversibel, falls<br />

Ψ t,s Ψ s,t y = y ∀(t,y) ∈ Ω , ∀|t−s| hinreichend klein .<br />

R. Hiptmair<br />

<strong>Beispiel</strong> 2.1.28 (Einfache reversible Einschrittverfahren).<br />

rev 35327,<br />

25. April<br />

2011<br />

implizite Mittelpunktsregel (1.4.19)<br />

Ψ t,t+h y = y+hf(t+<br />

2 1h, 1 2 (y+Ψt,t+h y))<br />

⇓<br />

y = Ψ t,t+h y−hf(t+h− 1 2 h, 2 1(y+Ψt,t+h y) .<br />

Unter der Annahme der Eindeutigen Auflösbarkeit der Definitionsgleichung (1.4.19) nachy k+1 :<br />

⇒ y = Ψ t+h,t Ψ t,t+h y .<br />

2.1<br />

p. 141


Störmer-Verlet-Verfahren (→ Sect. 1.4.4) in Einschrittformulierung von Bem. 1.4.33<br />

Numerische<br />

Mathemtik<br />

v k+<br />

1<br />

2<br />

= v k + h 2 f(y k) ,<br />

y k+1 = y k +hv k+<br />

1<br />

2<br />

,<br />

v k+1 = v k+<br />

1<br />

2<br />

+ h 2 f(y k+1) .<br />

⇒<br />

v k+<br />

1<br />

2<br />

= v k+1 − h 2 f(y k+1) ,<br />

y k = y k+1 −hv k+<br />

1<br />

2<br />

,<br />

v k = v k+<br />

1<br />

2<br />

− h 2 f(y k) .<br />

Man erkennt Reversibilität an der Verfahrensvorschrift, wenn der Austausch y k ↔ y k+1 und h ↔<br />

−h Gleichungen liefert, die mit der ursprünglichen Verfahrensvorschrift identisch sind.<br />

✸<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

✬<br />

Theorem 2.1.29 (Konsistenzordnung reversibler ESV). → [8, Satz 4.42]<br />

Die maximale Konsistenzordnung (→ Def. 2.1.13) eines reversiblen Einschrittverfahrens (→<br />

Def. 2.1.27) ist gerade.<br />

✫<br />

✩<br />

✪<br />

2.1<br />

p. 142


Der Beweis verwendet folgendes Hilfsresultat ([8, Lemma 4.38]):<br />

✬<br />

✩<br />

Numerische<br />

Mathemtik<br />

Lemma 2.1.30 (Störungslemma für diskrete Evolutionen).<br />

Seif zweimal stetig differenzierbar undΨeine zur ODEẏ = f(t,y) konsistente (→ Def. 2.1.8)<br />

diskrete Evolution, stetig differenzierbar in h und y. Dann gilt für (t,y) ∈ Ω und hinreichend<br />

kleinez ∈ R d<br />

Ψ t,t+h (y+z) = Ψ t,t+h y+z+h ∂f<br />

∂y (t,y)z+r(h,z) , ‖r(h,z)‖ ≤ C(h2 ‖z‖+h‖z‖ 2 ) ,<br />

mitC > 0 unabhängig vonhundz.<br />

✫<br />

✪<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

☞<br />

Thm. 2.1.29 erklärt in Bsp. 1.4.21 beoachtete O(h 2 )-Kovergenz der impliziten Mittelpunktsregel.<br />

2.2<br />

p. 143


2.2 Kollokationsverfahren[8, Sect. 6.3], [16, Sect. II.1.2]<br />

Numerische<br />

Mathemtik<br />

2.2.1 Konstruktion<br />

Zunächst: Fokus auf ersten (↔ allgemeinem) Schritt<br />

(dies genügt bei Einschrittverfahren→Def. 2.1.2)<br />

✗<br />

R. Hiptmair<br />

rev 35327,<br />

Idee: ➊ Approximierey(t),t ∈ [t 0 ,t 1 ], ins+1-dimensionalem AnsatzraumV von 25. April<br />

Funktionen[t 0 ,t 1 ] ↦→ R d 2011<br />

✄ y h .<br />

➋ Festlegung vony h ∈ V durch Kollokationsbedingungen<br />

y h (t 0 ) = y 0 , ẏ h (τ j ) = f(τ j ,y h (τ j )) , j = 1,...,s , (2.2.1)<br />

für Kollokationspunktet 0 ≤ τ 1 < ... < τ s ≤ t 1 .<br />

✔<br />

2.2<br />

„Standardoption”: Polynomialer Ansatzraum V = P s<br />

✖<br />

✕<br />

p. 144


✎ Notation: P s ˆ= Raum der univariaten Polynome vom Grad≤ s,s ∈ N 0<br />

Bekannt: dimP s = s+1<br />

Numerische<br />

Mathemtik<br />

➣<br />

Ein Polynomp ∈ P s ist durchs+1 Interpolationsbedingungen für Werte/Ableitungen eindeutig<br />

festgelegt.<br />

➣ Kollokationsbedingungen (2.2.1) legen Polynomgrads nahe (im Sinne von Existenz/Eindeutigkeit<br />

vony h )<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Herleitung: Formel für y h (t 1 ) (h := t 1 −t 0 ,τ j := t 0 +c j h,0 ≤ c 1 < c 2 < ... < c s ≤ 1)<br />

Hilfsmittel:{L j } s j=1 ⊂ P s−1 ˆ= Lagrange-Polynome zu Sützstellenc i ,i = 1,...,s, in[0,1]:<br />

L i (τ) =<br />

s∏<br />

j=1,j≠i<br />

τ −c j<br />

c i −c j<br />

, i = 1,...,s ⇒ L j (c i ) = δ ij , i,j = 1,...,s . (2.2.2)<br />

2.2<br />

p. 145


Numerische<br />

Mathemtik<br />

s∑<br />

(2.2.1) ⇒ ẏ h (t 0 +τh) = k j L j (τ) , k j := f(t 0 +c j h,y h (t 0 +c j h)) .<br />

j=1<br />

⇒ y h (t 0 +τh) = y 0 +h<br />

s∑<br />

∫ τ<br />

k j L j (ζ)dζ .<br />

j=1<br />

0<br />

Definierende Gleichungen des Kollokations-Einschrittverfahrens<br />

(zu Kollokationspunkten0 ≤ c 1 < c 2 < ··· < c s ≤ 1):<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

s∑<br />

y h (t 1 ) = y 0 +h b i k i ,<br />

i=1<br />

k i = f(t 0 +c i h,y 0 +h<br />

s∑<br />

a ij k j ) .<br />

j=1<br />

mit<br />

a ij =<br />

b i =<br />

∫ ci<br />

∫<br />

0<br />

1<br />

0<br />

L j (τ)dτ ,<br />

L i (τ)dτ .<br />

(2.2.3)<br />

Diskrete Evolution Ψ t 0,t 1 : Ω ↦→ Ω , Ψ t 0,t 1 y 0 := y 1 := y h (t 1 )<br />

2.2<br />

p. 146


➤ (2.2.3) ˆ= (Nichtlineares) Gleichungssystem für Inkremente k i (≈ ẏ(t 0 +c i h))<br />

Numerische<br />

Mathemtik<br />

✄ (Generische) Kollokationsverfahren = implizites Einschrittverfahren (→ Def. 2.1.2)<br />

Kollokations-Einschrittverfahren in der Form von Lemma 2.1.9:<br />

Ψ t 0,t 0 +h y0 = y 0 +hψ(t 0 ,y 0 ,h) mit Inkrementfunktion ψ(t 0 ,y 0 ,h) =<br />

s∑<br />

b i k i . (2.2.4)<br />

i=1<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Bemerkung 2.2.5 (Umformulierung der Inkrementgleichungen (2.2.3)).<br />

Äquivalente Form der Inkrementgleichungen (2.2.3):<br />

s∑<br />

Ersetze Inkrementek i durch g i := y 0 +h a ij k j , i = 1,...,s ⇔ k i = f(t 0 +c i h,g i ).<br />

j=1<br />

2.2<br />

p. 147


(2.2.3) ⇔<br />

s∑<br />

g i = y 0 +h a ij f(t 0 +c i h,g j )<br />

y 1 = y 0 +h<br />

j=1<br />

s∑<br />

b i f(t 0 +c i h,g i ) .<br />

i=1<br />

(2.2.6)<br />

Numerische<br />

Mathemtik<br />

△<br />

✬<br />

Lemma 2.2.7 (Lösbarkeit der Inkrementgleichungen).<br />

Ist f lokal Lipschitz-stetig (→ Def. 1.3.2) auf dem erweiterten Zustandsraum Ω, so gibt es zu<br />

jedem(t 0 ,y 0 ) ∈ Ω einh 0 > 0 so, dass (2.2.3) für jedesh < h 0 eindeutig nach den Inkrementen<br />

k i auflösbar ist, und diese sind stetige Funktionen inh.<br />

Ist f ∈ C m (Ω,R d ), m ∈ N, dann sind auch die Inkremente m-fach stetig differenzierbare<br />

Funktionen vony 0 ,t 0 ,h.<br />

✫<br />

✩<br />

✪<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

2.2<br />

p. 148


„Beweis” (von Lemma 2.2.7, unter stärkeren Glattheitsvoraussetzungen, hier nur ausgeführt für<br />

autonomen Fallẏ = f(y))<br />

Numerische<br />

Mathemtik<br />

Annahme:<br />

f ist stetig differenzierbar aufΩ<br />

⎛<br />

∑<br />

f(y 0 +h s<br />

s∑<br />

k i = f(y 0 +h a ij k j ) ⇔ G(h,k) = 0 , G(h,k) := k−<br />

.<br />

⎜<br />

j=1<br />

⎝ ∑<br />

f(y 0 +h s<br />

j=1<br />

j=1<br />

⎞<br />

a 1j k j )<br />

⎟<br />

a sj k j )<br />

⎠<br />

,<br />

mit k = (k 1 ,...,k s ) T ∈ R s·d .<br />

Idee: Anwendung des Satzes über implizite Funktionen aufG : R×D ↦→ D<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

✬<br />

Theorem 2.2.8 (Satz über implizite Funktionen).<br />

→ Analysis-Vorlesung<br />

SeienI ⊂ R q ,U ⊂ R n offen undG = G(ξ,y) : I ×U ↦→ R n sei stetig differenzierbar. Für ein<br />

(ξ 0 ,y 0 ) ∈ I ×U gelteG(ξ,y) = 0.<br />

Ist die Jacobi-Matrix ∂G<br />

∂y (ξ 0,y 0 ) invertierbar, dann gibt es eine Umgebung V ⊂ I von ξ 0 und<br />

eine eindeutige stetig differenzierbare Funktionξ ↦→ z(ξ) so, dass<br />

✩<br />

2.2<br />

p. 149


k 0 := (f(y 0 ),...,f(y 0 )) T erfüllt G(0,k 0 ) = 0<br />

Numerische<br />

Mathemtik<br />

Ableitung (ˆ= Jacobi-Matrix) vonGin(0,k 0 ) (aus Kettenregel)<br />

D k G(0,k 0 ) = I<br />

ist die Einheitsmatrix und damit offensichtlich invertierbar.<br />

✷<br />

Ein alternativer, technisch aufwändigerer, Beweis erfordert blosse lokale Lipschitz-Stetigkeit von f<br />

und gibt zusätzliche Schrittweitenschranke für die Existenz einer Lösung der Inkrementgleichungen:<br />

Hilfsmittel bei alternativem Beweis (→ Analysis-Vorlesung):<br />

✬<br />

✩<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Theorem 2.2.9 (Banachscher Fixpunktsatz, parameterabhängige Version).<br />

V ⊂ R d abgeschlossen,U ⊂ R n offen,F : U ×V ↦→ V sei totalm-mal stetig differenzierbar,<br />

m ∈ N 0 , und besitze die gleichmässige Kontraktionseigenschaft<br />

∃0 ≤ q < 1: ‖F(u,z)−F(u,w)‖ ≤ q‖z−w‖ ∀z,w ∈ V, ∀u ∈ U .<br />

Dann gibt es einem-mal stetig differenzierbare FunktionG : U ↦→ V so dass<br />

2.2<br />

p. 150


✎ Übliche Notation für Koeffizientenmatrix A := ( a ij<br />

) s<br />

i,j=1 ∈ Rs,s<br />

Numerische<br />

Mathemtik<br />

✎ Zeilensummennorm ‖A‖ ∞ := max<br />

i=1,...,s<br />

s∑<br />

j=1<br />

Beweis. (von Lemma 2.2.7 für autonomen Fallẏ = f(y))<br />

|a ij | (ˆ= Matrixnorm zur Maximumnorm)<br />

Vorbereitung: Wie im Beweis von Thm. 2.1.19 betrachten wir f wieder auf einer kompakten Umgebung<br />

K δ der L¨soungskurve t ↦→ y(t) im erweiterten Phasenraum Ω. Daher (zunächst) ohne<br />

Beschränkung der Allgemeinheit die Annahme:<br />

f global Lipschitz-stetig, vgl. Def. 1.3.2:<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

∃L > 0: ‖f(z)−f(w)‖ ≤ L‖z−w‖ ∀z,w ∈ D . (2.2.10)<br />

Wir nehmen auch an, dass sich einer-Umgebung vony 0 inD befindet:<br />

∃r > 0: ‖z−y 0 ‖ ≤ r ⇒ z ∈ D .<br />

Idee: Anwendung des Banachschen Fixpunktsatzes Thm. 2.2.9 auf die (äquivalenten) Inkrementgleichungen<br />

(2.2.6) für dieg i : mit g := (g 1 ,...,g s ) ∈ R s·d<br />

2.2<br />

p. 151


Auf R s·d verwende Norm<br />

⎛<br />

∑<br />

y 0 +h s (2.2.6) ⇔ g = F(h,g) , F(h,g) :=<br />

.<br />

⎜<br />

⎝ ∑<br />

y 0 +h s<br />

‖g‖ := max<br />

i=1,...,s ‖g i‖.<br />

j=1<br />

j=1<br />

⎞<br />

a 1j f(g j )<br />

⎟<br />

a sj f(g j )<br />

⎠<br />

. (2.2.11)<br />

Numerische<br />

Mathemtik<br />

Zu zeigen: für hinreichend kleineshbleiben alleg i in der abgeschlossenenr-Umgebung vony 0 : mit<br />

y 0 = (y 0 ,...,y 0 )<br />

‖F(h,g)−y 0 ‖ = max<br />

i=1,...,s |h| ∥ ∥∥∥∥∥ s∑<br />

j=1<br />

⇒<br />

Zu zeigen:<br />

{<br />

|h| <<br />

(2.2.10)<br />

a ij f(g j )<br />

∥ ≤ |h|‖A‖ ∞ max<br />

j=1,...,s<br />

∥<br />

∥f(y 0 )+f(g j )−f(y 0 ) ∥ ∥<br />

≤ |h|‖A‖ ∞ (‖f(y 0 )‖+L‖g−y 0 ‖) .<br />

}<br />

r<br />

⇒ ‖F(h,g)−y<br />

‖A‖ ∞ (‖f(y 0 )‖+Lr) 0 ‖ ≤ r , if ‖g−y 0 ‖ ≤ r<br />

g ↦→ F(h,g) isth-gleichmässige Kontraktion<br />

s∑<br />

‖F(h,g)−F(h,p)‖ ≤ |h|· max<br />

i=1,...,s<br />

a ij (f(g j )−f(p j ))<br />

∥ ∥<br />

j=1<br />

.<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

2.2<br />

p. 152


∥<br />

≤ |h|·‖A‖ ∞ max ∥f(g j )−f(p j ) ∥ j=1,...,s<br />

≤ |h|L·‖A‖ ∞ ‖g−p‖ ,<br />

Numerische<br />

Mathemtik<br />

wobei im letzten Schritt die globale Lipschitz-Bedingung fürf benutzt wurde.<br />

|h| <<br />

Wähle h 0 =<br />

1<br />

L‖A‖ ∞<br />

⇒ g ↦→ F(h,g) isth-gleichmässige Kontraktion.<br />

r<br />

‖A‖ ∞ (‖f(y 0 )‖+Lr)<br />

Damit erfüllt F mit U =]−h 0 ,h 0 [ und V = {g: ‖g−y 0 ‖ ≤ r} die Voraussetzungen des Banachschen<br />

Fixpunktsatzes Thm. 2.2.9.<br />

⇒<br />

{<br />

f ∈ C m (D) ⇒ ∃g :]−h 0 ,h 0 [↦→ R d·s }<br />

: F(h,g(h)) = g(h)<br />

Wegen der Äquivalenz (2.2.11) is damit der Beweis abgeschlossen.<br />

.<br />

✷<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Bemerkung 2.2.12 (Schrittweitenbeschränkung aus Lemma 2.2.7).<br />

Aus dem Beweis von Lemma 2.2.7 mit Hilfe des Fixpunktarguments, Thm 2.2.9: Lösbarkeit der Inkre-<br />

2.2<br />

p. 153


mentgleichungen nur garantiert, wenn<br />

|h| ≤<br />

1<br />

L‖A‖ ∞<br />

,<br />

wobeiL > 0 eine (lokale) Lipschitz-Konstante (→ Def. 1.3.2) für den Quelltermf ist.<br />

Numerische<br />

Mathemtik<br />

Dies ist eine Schrittweitenbeschränkung analog der Schrittweitenbeschränkung für das explizite<br />

Euler-Verfahren in der Nähe stark attraktiver Fixpunkte, vgl. Bsp. 1.4.9.<br />

△<br />

Es bleibt noch die Verifikation einer Voraussetzung von Thm. 2.1.19:<br />

✬<br />

✩<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Lemma 2.2.13 (Lipschitz-Stetigkeit der Inkrementfuntion).<br />

Unter den Voraussetzungen von Lemma 2.2.7 existiert zu jedem (t 0 ,y 0 ) ∈ Ω ein h 0 > 0 so,<br />

dassψ aus (2.2.4) lokal Lipschitz-stetig im Zustandsargument ist.<br />

✫<br />

✪<br />

2.2<br />

p. 154


Beweis auf der Grundlage des Satzes über implizite Funktionen, Thm. 2.2.8, unter Annahme von<br />

hinreichender Glattheit vonf:<br />

Wie im ersten Beweis zu Lemma 2.2.7 Umformulierung der Inkrementgleichungen als parameterabhängiges<br />

Nullstellenproblem:<br />

⎛<br />

∑<br />

f(y 0 +h s<br />

s∑<br />

k i = f(y 0 +h a ij k j ) ⇔ G(h,y 0 ,k) = 0 , G(h,y 0 ,k) := k−<br />

.<br />

⎜<br />

⎝ ∑<br />

f(y 0 +h s<br />

j=1<br />

Wir haben<br />

G ist stetig differenzierbar in allen Argumenten, fallf hinreichend glatt.<br />

G(0,y 0 ,k) = 0 für k = (f(y 0 ),...,f(y 0 )) ∈ R s·d<br />

j=1<br />

j=1<br />

⎞<br />

a 1j k j )<br />

,<br />

⎟<br />

a sj k j )<br />

⎠<br />

Numerische<br />

Mathemtik<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

D k G(0,y 0 ,k) = I für beliebigesk ∈ R s·d ,y 0 ∈ D.<br />

Nach dem Satz über implizite Funktionen gibt es also eine lokal stetig differenzierbare Lösungskurve<br />

k = k(y,h), definiert in einer Umgebung von(0,y 0 ). Daher folgt die Behauptung aus einem Analogon<br />

von Lemma 1.3.3.<br />

✷<br />

2.2<br />

p. 155


Beweis von Lemma 2.2.13 mit Fixpunktargument, ohne Glattheitsanforderungen an f (für<br />

autonome ODE):<br />

Numerische<br />

Mathemtik<br />

Ohne Beschränkung der Allgemeinheit wird f als global Lipschitz-stetig angenommen, vgl. Beweis<br />

zu Lemma 2.2.7:<br />

∃L > 0: ‖f(z)−f(w)‖ ≤ L‖z−w‖ ∀z,w ∈ D . (2.2.14)<br />

Mitg i aus den äquivalenten Inkrementgleichungen (2.2.6):<br />

Inkrementfunktion:<br />

s∑<br />

s∑<br />

ψ(t,y,h) = y+h b i f(g j ) , g i = y+h a ij f(g j ) . (2.2.15)<br />

j=1<br />

j=1<br />

Wähle y,z ∈ D und definiere (für hinreichend kleines h, siehe Lemma 2.2.7) g y i ,gz i<br />

∈ R d als<br />

Lösungen von<br />

g y s∑<br />

i = y+ a ij f(g y j ) ,<br />

j=1<br />

, i = 1,...,s .<br />

s∑<br />

gi z = z+ a ij f(gj z ) .<br />

j=1<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

2.2<br />

p. 156


Mit g y := (g y 1 ,...,gy s), g z := (g z 1 ,...,gs s):<br />

‖g y −g z ‖ ≤ ‖y−z‖+h max<br />

i=1,...,s<br />

(2.2.14)<br />

s∑ (∥ ∥ ∥ ) ∥∥f(g y ∥∥− ∥∥f(g<br />

|a ij |<br />

j ) z j ) ∥<br />

j=1<br />

≤ ‖y−z‖+hL·‖A‖ ∞ ‖g y −g z ‖ .<br />

h‖A‖ ∞ L < 1 ⇒ ‖g y −g z 1<br />

‖ ≤<br />

1−h‖A‖ ∞ L ‖y−z‖ .<br />

vgl. die Schrittweitenschranke aus Bem. 2.2.12<br />

Numerische<br />

Mathemtik<br />

Aus dieser Abschätzung und wieder mit (2.2.14) folgt (fallsh‖A‖ ∞ L < 1)<br />

‖ψ(t,y,h)−ψ(t,z,h)‖ ≤ h<br />

s∑<br />

|b i | ∥ ∥f(g y i )−f(gz i )∥ ∥ ≤<br />

i=1<br />

Day,zbeliebig, folgt die Behauptung.<br />

L<br />

s∑<br />

1−Lh‖A‖ ∞<br />

i=1<br />

|b i |·‖y−z‖ .<br />

(2.2.16)<br />

✷<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

<strong>Beispiel</strong> 2.2.17 (Konvergenz von einfachen Kollokations-Einschrittverfahren).<br />

Skalare logistische Differentialgleichung (1.2.2),λ = 10,y(0) = 0.01,T = 1<br />

Kollokations-Einschrittverfahren (2.2.3) fürs = 1,...,4, uniforme Zeitschrittweiteh<br />

2.2<br />

p. 157


Äquidistante Kollokationspunkte:<br />

s = 1 : c = ( 1 2 ) ,<br />

s = 2 : c = ( 1 3 , 2 3 )T ,<br />

s = 3 : c = ( 1 4 , 1 2 , 3 4 )T ;,<br />

s = 4 : c = ( 1 5 , 2 5 , 3 5 , 4 5 )T .<br />

Numerische Konvergenzraten :<br />

(berechnet durch lineare Regression)<br />

max k<br />

|y h<br />

(t k<br />

)−y(t) k<br />

)|<br />

10 0<br />

10 −2<br />

10 −4<br />

10 −6<br />

h<br />

s = 1 : p = 1.96<br />

10 −8<br />

s=1<br />

s=2<br />

s = 2 : p = 2.03<br />

s=3<br />

s = 3 : p = 4.00<br />

s=4<br />

10 −10<br />

10<br />

s = 4 : p = 4.04 −2 10 −1 10 0<br />

Fig. 57<br />

Numerische<br />

Mathemtik<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

2.2<br />

p. 158


Verschobene äquidistante Kollokationspunkte:<br />

s = 1 : c = (0) ,<br />

s = 2 : c = (0, 1 2 )T ,<br />

s = 3 : c = (0, 1 3 , 2 3 )T ;,<br />

s = 4 : c = (0, 1 4 , 1 2 , 3 4 )T .<br />

Numerische Konvergenzraten :<br />

(berechnet durch lineare Regression)<br />

max k<br />

|y h<br />

(t k<br />

)−y(t) k<br />

)|<br />

10 0<br />

10 −2<br />

10 −4<br />

10 −6<br />

h<br />

s = 1 : p = 0.95<br />

10 −8<br />

s=1<br />

s = 2 : p = 1.77<br />

s=2<br />

s=3<br />

s = 3 : p = 2.95<br />

s=4<br />

10 −10<br />

s = 4 : p = 3.92<br />

10 −2 10 −1 10 0<br />

Beobachtung bei symmetrisch gelegenen äquidistanten Kollokationspunkten:<br />

Algebraische Konvergenz der Ordnung<br />

Erklärung → Sect. 2.2.3 & Thm. 2.1.29<br />

{<br />

p = s+1 , fallssungerade ,<br />

p = s<br />

, fallssgerade.<br />

Fig. 58<br />

Numerische<br />

Mathemtik<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

✸<br />

2.2<br />

p. 159


Bemerkung 2.2.18 (Kollokationsverfahren und numerische Quadratur).<br />

f(t,y) = f(t) &y 0 = 0 ➤<br />

Numerische Quadratur (→ Vorlesung „Numerische Methoden”)<br />

Numerische<br />

Mathemtik<br />

➞<br />

y(t 1 ) =<br />

∫ t 1<br />

t 0<br />

f(t)dt ≈ h ∑ s<br />

i=1 b jf(t 0 +c j h) = Quadraturformel<br />

c 1 ,...,c s ↔ Knoten (engl. nodes) einer Quadraturformel (z.B. Gauss-Punkte auf[0,1]<br />

b 1 ,...,b s ↔ Gewichte (engl. weights) einer Quadraturformel<br />

△<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Aus Zusammenhang zwischen Kollokationsverfahren und numerische Quadratur<br />

✗<br />

➣ Wahl der Kollokationspunktec i als Knoten bewährter Quadraturformeln auf[0,1]<br />

✖<br />

Die folgenden <strong>Beispiel</strong>e zeigen, dass sich sinnvolle Verfahren ergeben:<br />

✔<br />

✕<br />

2.2<br />

p. 160


• Falls = 1 &<br />

c 1 = 1/2 (↔ einfachste Gauss-Legendre-Quadraturformel)<br />

L 1 ≡ 1 ⇒ a 11 = 1/2 , b 1 = 1 .<br />

k 1 = f(t 0 + 1/2h,y 0 + 1/2hk 1 ) , y h (t 1 ) = y 0 +hk 1 . (2.2.19)<br />

Numerische<br />

Mathemtik<br />

(2.2.19) = Implizite Mittelpunktsregel (1.4.19)<br />

• Falls = 1 &<br />

c 1 = 0 (↔ linksseitige Ein-Punkt-Quadraturformel)<br />

L 1 ≡ 1 ⇒ a 11 = 0 , b 1 = 1 .<br />

k 1 = f(t 0 ,y 0 ) , y h (t 1 ) = y 0 +hk 1 = y 0 +hf(t 0 ,y 0 ) .<br />

(2.2.1) = Explizites Eulerverfahren (1.4.2) (kein Lösen einer Gleichung erforderlich !)<br />

• Falls = 1 &<br />

c 1 = 1 (↔ rechtsseitige Ein-Punkt-Quadraturformel)<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

L 1 ≡ 1 ⇒ a 11 = 1 , b 1 = 1 .<br />

k 1 = f(t 1 ,y 0 +hk 1 ) , y h (t 1 ) = y 0 +hk 1 = y 0 +hf(t 1 ,y h (t 1 )) .<br />

(2.2.1) = Implizites Eulerverfahren<br />

Erinnerung: „Optimale Quadraturverfahren”: Gaussquadratur<br />

(→ Vorlesung „Numerische Methoden”[9, Sect. 9.3])<br />

2.2<br />

p. 161


△<br />

Numerische<br />

Mathemtik<br />

2.2.2 Abstrakte Projektionsverfahren<br />

Ziel dieses Abschnitts ist es, die Kollokationsverfahren in eine grössere Klasse von Einschrittverfahren<br />

einzuordnen, die eine elegante abstrakte Konvergenztheorie zulässt.<br />

R. Hiptmair<br />

Bemerkung 2.2.21 (Kollokationsverfahren als Projektionsverfahren).<br />

rev 35327,<br />

25. April<br />

P s : C 0 2011<br />

([t 0 ,t 1 ]) ↦→ P s−1 ˆ= Polynominterpolationsoperator zu Knotenτ 1 ≤ ··· ≤ τ s<br />

(vgl. Sect. 2.2.1, „Kollokationspunkte”)<br />

Damit lassen sich die Kollokationsbedingungen kompakt umformulieren:<br />

(<br />

)<br />

⇒ (2.2.1) ⇔ ẏ h = P s f(·,y h (·)) , y h (t 0 ) = y 0 .<br />

Beachte: Projektoreigenschaft P 2 2.2<br />

s = P s<br />

p. 163


△<br />

Numerische<br />

Mathemtik<br />

Bekannt aus der linearen Algebra:<br />

Definition 2.2.22 (Projektionsoperator).<br />

Seien X ein Vektorraum. Eine lineare Abbildung P : X ↦→ X ist ein Projektionsoperator, falls<br />

P 2 = P.<br />

Bekannt aus der Analysis:<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Definition 2.2.23 (Stetiger linearer Operator).<br />

SeienX,Y normierte Vektorräume. Ein linearer OperatorT : X ↦→ Y heisst stetig/beschränkt,<br />

falls<br />

‖Tx‖<br />

‖T‖ := sup Y<br />

< ∞ .<br />

x∈X\{0} ‖x‖ X<br />

‖T‖ heisst die Norm des stetigen OperatorsT.<br />

2.2<br />

p. 164


Betrachte: ODE ẏ = f(t,y), f : I ×D ↦→ R d lokale Lipschitz-stetig, siehe Sect. 1.1<br />

Zugehörige AWPe ẏ = f(t,y), y(t 0 ) = y 0 , auf[t 0 ,T] ∈ J(t 0 ,y 0 )<br />

Numerische<br />

Mathemtik<br />

Verallgemeinerung<br />

von Kollokations-ESV<br />

: Projektions-Einschrittverfahren<br />

Ψ t,t+h zu ODE<br />

diskrete Evolution des ESV<br />

ẏ = f(t,y)<br />

✬<br />

Ψ t,t+h y 0 definiert durch<br />

endlichdimensionalen Ansatzraum<br />

✩<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

V ⊂ (C 1 ([t,t+h])) d ➥ W := { d v:v ∈ V}<br />

dt<br />

stetigen Projektionsoperator<br />

P : (C 0 ([t,t+h])) d ↦→ W<br />

✫<br />

Ψ t,t+h ẏ h = P(f(·,y h (·))) ,<br />

y 0 := y h (t+h) mit y h ∈ V ∧<br />

y h (t) = y 0 ∈ D .<br />

interpretiert als Funktion∈ (C 0 ([t,t+h])) d<br />

(2.2.24)<br />

✪<br />

2.2<br />

p. 165


Bemerkung 2.2.25 (Fixpunktform von Projektions-Einschrittverfahren).<br />

Numerische<br />

Mathemtik<br />

Verallgemeinerung: (2.2.24) −→ Fixpunktgleichung,<br />

∫ τ<br />

(2.2.24) ⇒ y h (τ) = y 0 +<br />

t<br />

P(f(·,y h (·)))(ξ)dξ , t ≤ τ ≤ t+h . (2.2.26)<br />

! geringere Glattheitsanforderungen anV: (2.2.26) sinnvoll füry h ∈ (C 0 ([t,t+h])) d .<br />

△<br />

✬<br />

Lemma 2.2.27 (Wohldefiniertheit der diskreten Evolution für Projektions-Einschrittverfahren).<br />

Erfülltf eine lokale Lipschitz-Bedingung (→ Def. 1.3.2), dann istΨ t,t+h y 0 für hinreichend kleineshwohldefiniert.<br />

✫<br />

R. Hiptmair<br />

✩<br />

rev 35327,<br />

25. April<br />

2011<br />

✪<br />

✎ Notation: Maximumnorm ‖y(·)‖ ∞,I := max<br />

τ∈I ‖y(τ)‖,<br />

speziell im Folgenden: ‖y(·)‖ ∞ := max ‖y(τ)‖<br />

t≤τ≤t+h<br />

2.2<br />

p. 166


Beweis.<br />

(Analog zum Beweis von Lemma 2.2.7, Kontraktionsargument)<br />

Wir müssen die eindeutige Lösbarkeit der Definitionsgleichung (2.2.24) für die Funktiony h zeigen.<br />

Numerische<br />

Mathemtik<br />

Technik: Banachscher Fixpunktsatz Thm. 2.2.9 angwandt auf Fixpunktgleichung (2.2.26), vgl. Beweis<br />

von Thm. 1.3.4.<br />

y h (τ) = F(y h ) , F(y h )(τ) := y 0 +<br />

∫ τ<br />

t<br />

P(f(·,y h (·)))(ξ)dξ , t ≤ τ ≤ t+h . (2.2.28)<br />

Beachte: Abbildungseigenschaft F : (C 0 ([t,t+h])) d ↦→ (C 0 ([t,t+h])) d<br />

Erinnerung an Analysis: ➣ (C 0 ([t,t+h]),‖·‖ ∞ ) ist Banachraum !<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Lokale Lipschitz-Bedingung & Kompaktheitsargument, vgl. Beweis von Thm. 2.1.19<br />

∃L > 0: ‖f(τ,z)−f(τ,w)‖ ≤ L‖z−w‖ ∀t ≤ τ ≤ t+h , ∀z,w ∈ K ⊂ D , (2.2.29)<br />

2.2<br />

p. 167


mit KompaktumK ⊂ D, für das (rückblickend) angenommen werden kann, dassy h (τ) ∈ K für alle<br />

t ≤ τ ≤ t+h. Dann für alley,z ∈ (C 0 ([t,t+h])) d ,y(τ),z(τ) ∈ K ∀t ≤ τ ≤ t+h,<br />

Numerische<br />

Mathemtik<br />

‖F(y(·))−F(z(·))‖ ∞ ≤ h‖P(f(·.,y(·))−f(·,z(·)))‖ ∞<br />

(2.2.29)<br />

≤ h‖P‖L‖y(·)−z(·)‖ .<br />

|h| < 1<br />

‖P‖L<br />

⇒ F ist Kontraktion.<br />

Für hinreichend kleines|h| bleibtF(y(·)) in einer Umgebung der konstanten Funktiony 0 , wenny(·)<br />

daraus gewählt wird.<br />

Damit sind die Voraussetzungen des Fixpunktsatzes Thm. 2.2.9 erfüllt.<br />

✎ Notation: τ ↦→ y(τ) ˆ= Lösung des AWP ẏ = f(t,y),y(t) = y 0 ∈ D,<br />

τ ↦→ y h (τ) ˆ= Lösung von (2.2.24) (zu Anfangswerty 0 )<br />

✷<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

2.2<br />

p. 168


✬<br />

✩<br />

Theorem 2.2.30 (Einschritt-Fehlerabschätzung für Projektions-Einschrittverfahren).<br />

Erfülltf eine lokale Lipschitz-Bedingung (→ Def. 1.3.2), dann gibt esh 0 > 0, so dass<br />

Numerische<br />

Mathemtik<br />

∃C > 0: ‖y−y h ‖ ∞ ≤ Ch‖(Id−P)(f(·,y(·)))‖ ∞ ∀|h| ≤ h 0 .<br />

✫<br />

Projektionsfehler !<br />

✪<br />

Thm. 2.2.30<br />

⇒ Konsistenzfehlerabschätzung für Projektions-Einschrittverfahren:<br />

∥ ∥<br />

‖τ(t,y,h)‖ :=<br />

∥Φ t,t+h y−Ψ t,t+h y∥ ≤ Ch‖(Id−P)(f(·,y(·)))‖ ∞ ,<br />

mitC > 0 unabhängig von<br />

y ∈ K,K ˆ= kompakte Umgebung der Lösungstrajektoriet ↦→ y(t),t 0 ≤ t ≤ T ,<br />

hinreichend kleiner Zeitschrittweiteh > 0.<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Verallgemeinerung von Lemma 2.2.13:<br />

2.2<br />

p. 169


✬<br />

✩<br />

Lemma 2.2.31 (Lipschitz-Stetigkeit der Inkrementfunktion von Projektions-Einschrittverfahren).<br />

Erfüllt f eine lokale Lipschitz-Bedingung (→ Def. 1.3.2), dann existiert zu jedem (t,y) ∈ Ω ein<br />

h 0 so, dass, für|h| < h 0 ,<br />

Numerische<br />

Mathemtik<br />

Ψ t,t+h y = y+hψ(t,y,h) ,<br />

mit einer in der Zustandsvariariableny lokal Lipschitz-stetigen (→ Def. 1.3.2) Inkrementfunktion<br />

ψ (→ Lemma 2.1.9).<br />

✫<br />

✪<br />

Beweis. Unter Berufung auf Kompaktheitsargumente, vgl. Beweis von Thm. 2.1.19, o.B.d.A. Annahme<br />

einer globalen Lipschitz-Bedingung<br />

∃L > 0: ‖f(τ,z)−f(τ,w)‖ ≤ L‖z−w‖ ∀z,w ∈ D, t ≤ τ ≤ t+h .<br />

Wie im Beweis von Lemma 2.2.27: sind y h ,z h ∈ (C 0 ([t,t + h])) d Lösungen von (2.2.26) zu „Anfangswerten”y<br />

0 ,z 0 ∈ D, dann<br />

|h| <<br />

1<br />

hL‖P‖ ⇒ ‖y h −z h ‖ ∞ ≤<br />

Garantiert Existenz von Lösungen von (2.2.26)<br />

∫ t+h<br />

1<br />

1−hL‖P‖ ‖y 0−z 0 ‖ . (2.2.32)<br />

(2.2.26) ⇒ Ψ t,t+h y 0 = y 0 + P(f(·,y h (·)))(ξ)dξ =: y 0 +hψ(t,y 0 ,h) .<br />

t<br />

} {{ }<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

2.2<br />

p. 170


|ψ(t,y 0 ,h)−ψ(t,z 0 ,h)| ≤ 1 h<br />

∫ h<br />

0<br />

P(f(·,y h (·))−f(·,z h (·)))(ξ)dξ<br />

(2.2.32)<br />

≤ ‖P‖L‖y h −z h ‖ ∞ ≤<br />

‖P‖L<br />

1−hL‖P‖ ‖y 0 −z 0 ‖ . ✷<br />

Numerische<br />

Mathemtik<br />

(y k ) N k=0<br />

ˆ= Gitterfunktion, erzeugt durch Projektions-Einschrittverfahren fürẏ = f(t,y) auf Zeitgitter<br />

{t 0 < t 1 < ··· < t N = T} ⊂ J(t 0 ,y 0 ): y k+1 = Ψ t k,t k+1 y k<br />

Mit Lemma 2.2.31 & Beweis von Thm. 2.1.19 (diskretes Gronwall-Lemma 2.1.20):<br />

Globale Fehlerabschätzung für Projektions-Einschrittverfahren (auf Zeitgitter)<br />

‖y k −y(t k )‖ ≤ C max<br />

j=1,...,N ‖(Id−P)(f(·,y(·)))‖ ∞,[t j−1 ,t j ]<br />

fürk = 1,...,N,h j hinreichend klein,C > 0 unabhängig vonh j ,k.<br />

exp(L(h 1 +···+h k ))−1<br />

L<br />

,<br />

(2.2.33)<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

2.2<br />

p. 171


2.2.3 Konvergenz von Kollokationsverfahren<br />

Numerische<br />

Mathemtik<br />

2.2.3.1 Konsistenzordnung<br />

Frage: Konsistenz(ordnung) (→ Konvergenz, Sect. 2.1.3) von Kollokationsverfahren ?<br />

Bem. 2.2.21 ➣ Konsequenz von Lemma 2.2.31:<br />

✬<br />

Lemma 2.2.34 (Konsistenz von Kollokationsverfahren).<br />

Unter den Voraussetzungen von Lemma 2.2.7 ist jedes Kollokations-Einschrittverfahren konsistent<br />

(→ Def. 2.1.8).<br />

✫<br />

R. Hiptmair<br />

rev 35327,<br />

✩25. April<br />

2011<br />

✪<br />

2.2<br />

p. 172


Erinnerung:<br />

Verfahrensgleichungen eines Kollokations-Einschrittverfahrens shadowfullframeblack<br />

s∑<br />

y h (t 1 ) = y 0 +h b i k i ,<br />

i=1<br />

k i = f(t 0 +c i h,y 0 +h<br />

a ij =<br />

mit s∑<br />

a ij k j ) . b i =<br />

j=1<br />

∫ ci<br />

0<br />

∫ 1<br />

0<br />

L j (τ)dτ ,<br />

L i (τ)dτ .<br />

(2.2.3)<br />

Numerische<br />

Mathemtik<br />

✎ Notation: t ∈ [t 0 ,t 0 +h] ↦→ y h (t) ˆ= durch Kollokationsverfahren erzeugte Näherungslösung,<br />

Polynom vom Grads, siehe (2.2.1)<br />

✬<br />

✫<br />

➣ (Einschritt-)Fehlerfunktion e(t) := y(t)−y h (t), t 0 ≤ t ≤ t 1<br />

Lemma 2.2.36 ((Suboptimale) Konsistenzordnung von Kollokationsverfahren).<br />

Für hinreichend glatte rechte Seite f ist das Kollokations-Einschrittverfahren (2.2.3) zu ẏ =<br />

f(t,y) konsistent von der Ordnungs(→ Def. 2.1.13).<br />

R. Hiptmair<br />

rev 35327,<br />

✩25. April<br />

2011<br />

✪<br />

2.2<br />

p. 173


Hilfsmittel beim Beweis: Restgliedabschätzung für Polynominterpolation (→ Vorlesung “Numerische<br />

Methoden”)<br />

Numerische<br />

Mathemtik<br />

✬<br />

✩<br />

Lemma 2.2.37 (Fehlerabschätzung für Polynominterpolation). → [9, Satz 7.16]<br />

Sei f ∈ C n+1 ([x 0 ,x n ]), x 0 < x 1 < ... < x n , und p ∈ P n das Interpolationspolynom von f<br />

zu den Sützstellenx i (d.h.p(x i ) = f(x i )), dann gilt<br />

|f (k) (x)−p (k) (x)| ≤ |x n−x 0 | n+1−k<br />

(n+1−k)!<br />

max<br />

x 0


Zusammen mit Thm. 2.2.30 gibt dies eine Schranke O(h s+1 ) für den Einschrittfehler (= Konsistenzfehler).<br />

✷<br />

Numerische<br />

Mathemtik<br />

“Direkter” Beweis von Lemma 2.2.36. (für autonome Dgl.ẏ = f(y),t 0 = 0)<br />

t ↦→ y(t) ˆ= exakte Lösung für AWPẏ = f(y),y(0) = y 0<br />

t ↦→ y h (t), 0 ≤ t ≤ h, polynomiale approximative Lösung aus einem Schritt des Kollokationsverfahrens,y<br />

h (0) = y 0 .<br />

(Annahme: h hinreichend klein, siehe Lemma 2.2.7,h ∈ J(y 0 ))<br />

Wiederum vereinfachende Annahme:<br />

f global Lipschitz-stetig<br />

∃L > 0: ‖f(z)−f(w)‖ ≤ L‖z−w‖ ∀z,w ∈ D . (2.2.39)<br />

Zur Konsistenzuntersuchung betrachte die Einschrittfehlerfunktion<br />

Aus den Kollokationsbedingungen (2.2.1):<br />

s∑<br />

e(t) := y(t)−y h (t) ➣ τ(y 0 ,h) = e(h) . (2.2.40)<br />

ẏ h (t) =<br />

i=1<br />

f(y h (c i h))·L i (τ) , τ := t h .<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

(2.2.41)<br />

2.2<br />

p. 175


Aus der Lösungseigenschaft vont ↦→ y(t)<br />

ẏ(t) = f(y(t)) =<br />

s∑<br />

f(y(c i h))·L i (τ)+r(t) , τ := t h . (2.2.42)<br />

i=1<br />

Interpolationspolynom∈ P s−1 zur Funktiont ↦→ f(y(t)) und Knotenc i h auf[0,h]<br />

r ˆ= Restglied für Polynominterpolation, siehe Lemma 2.2.37, erfüllt<br />

∥<br />

∥r (k) 1<br />

∥<br />

(t) ∥ ≤ max ∥y (s+1) (t) ∥ h s−k ≤ Ch s−k , k = 0,...,s . (2.2.43)<br />

(s−k)! 0


mit vonhunabhängigen KonstantenC 1 ,C 2 > 0 (, die von den Kollokationspunktenc i undyabhängen.)<br />

Numerische<br />

Mathemtik<br />

C 1 Lh 0 < 1 ⇒ ‖τ(y,h)‖ ≤ ‖e‖ ∞ ≤<br />

C 2<br />

1−C 1 h 0 L hs+1 ∀|h| ≤ h 0 . (2.2.47)<br />

☞ Wir folgern: Das Kollokationsverfahren hat mindestens Konsistenzordnungs. ✷<br />

Aus (2.2.44) und (2.2.43) lässt sich sogar folgern, fürk = 0,...,s,<br />

∥<br />

max ∥e (k) (t) ∥ ≤ C 1 (k)Lh‖e‖ ∞ +C 2 (k)h s+1−k<br />

0≤t≤h<br />

∥<br />

⇒ max ∥e (k) (t) ∥ ≤ C(k)h s+1−k , (2.2.48)<br />

0≤t≤h<br />

mit vonhunabhängigen KonstantenC 1 (k),C 2 (k),C(k) > 0.<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

<strong>Beispiel</strong> 2.2.49 (Konvergenz von Gauss-Kollokations-Einschrittverfahren). → Bsp. 2.2.17<br />

Skalare logistische Differentialgleichung (1.2.2),λ = 10,y(0) = 0.01,T = 1<br />

Gauss-Kollokations-Einschrittverfahren (2.2.3) fürs = 1,...,4, uniforme Zeitschrittweiteh<br />

2.2<br />

p. 177


10 0 h<br />

1<br />

Numerische<br />

Mathemtik<br />

y<br />

0.8<br />

0.6<br />

0.4<br />

max k<br />

|y h<br />

(t k<br />

)−y(t) k<br />

)|<br />

10 −5<br />

10 −10<br />

y(t)<br />

0.2<br />

s=1<br />

s=2<br />

s=3<br />

s=4<br />

0<br />

0 0.2 0.4 0.6 0.8 1<br />

t<br />

Fig. 60<br />

y h (j/10): Gauss-Kollokationsverfahren<br />

Numerische Konvergenzraten :<br />

(berechnet durch lineare Regression)<br />

Student Version of MATLAB<br />

10 −15<br />

s = 1 : p = 1.96<br />

s = 2 : p = 4.01<br />

s = 3 : p = 6.00<br />

s = 4 : p = 8.02<br />

s=1<br />

s=2<br />

s=3<br />

s=4<br />

10 −2 10 −1 10 0<br />

Fig. 61<br />

Konvergenz des Fehlersmax k |y k −y(t k )|<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Beobachtung: Konvergenzraten sind doppelt so hoch wie die untere Schranke aus Lemma 2.2.36!<br />

2.2<br />

p. 178


9<br />

8<br />

Gauss points<br />

centered equidistant nodes<br />

shifted equidistant nodes<br />

logistic ODE, collocation RK methods<br />

Numerische<br />

Mathemtik<br />

7<br />

Vergleich der (empirischen) Konvergenzraten<br />

✄<br />

convergence rate<br />

6<br />

5<br />

4<br />

3<br />

2<br />

1<br />

0<br />

1 2 3 4<br />

s<br />

Fig. 62<br />

✸<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Betrachte: Kollokationsverfahren zu ẏ = f(t,y) mit (relativen) Kollokationspunkten c i ∈ [0,1],<br />

i = 1,...,s,s ∈ N ➣ Koeffizientenb i ,a ij in (2.2.3).<br />

Zugeordnete Quadraturformel, Bem. 2.2.18:<br />

Q(f) = h ∑ s<br />

i=1 b jf(t 0 +c j h) . (2.2.50)<br />

2.2<br />

p. 179


Bsp. 2.2.49 legt die Vermutung nahe, dass die Konsistenzordnung eines Kollokationsverfahrens mit<br />

der Ordnung der gemäss (2.2.50) zugeordneten Quadraturformel übereinstimmt.<br />

Numerische<br />

Mathemtik<br />

✬<br />

✩<br />

Theorem 2.2.51 (Konsistenzordnung von Kollokationsverfahren).<br />

Die Konsistenzordnung (→ Def. 2.1.13) eines Kollokations-Einschrittverfahrens stimmt mit der<br />

Ordnung der zugeordneten Quadraturformel überein.<br />

✫<br />

✪<br />

Hilfsmittel beim Bweis: Fehlerabschätzung für numerische Quadratur (→ Vorlesung “Numerische<br />

Methoden”)<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

s-Punkt-Quadraturformel auf[a,b]:<br />

Q(f) := (b−a)<br />

s∑<br />

b i f(a+c i (b−a)) ≈<br />

∫b<br />

f(x)dx .<br />

i=1<br />

a<br />

(2.2.52)<br />

Annahme: innere Knoten 0 ≤ c i ≤ 1,i = 1,...,s<br />

2.2<br />

p. 180


✬<br />

→ Quadraturformel von der Ordnungn+1<br />

Numerische<br />

✩Mathemtik<br />

Lemma 2.2.53 (Quadraturfehlerabschätzung).<br />

Ist eine Quadraturformel (2.2.52) exakt für Polynome von Grad≤ n, so gilt<br />

f ∈ C n+1 ∫ b<br />

([a,b]) ⇒<br />

∣ Q(f)− f(x)dx<br />

a ∣ ≤ C(b−a)n+2 (n+1)!<br />

mitC = 1+ ∑ s<br />

i=1 |b i |.<br />

max<br />

a


Wegenẏ(t) = f(y(t)) folgt für die Einschrittfehlerfunktione(t) = y(t)−y h (t)<br />

ė(t) = f(y(t))−f(y h (t))−δ(t) , 0 ≤ t ≤ h .<br />

Numerische<br />

Mathemtik<br />

Hilfsmittel: Taylorformel<br />

ϕ(1)−ϕ(0) = ϕ ′ (0)+<br />

∫ 1<br />

0<br />

(1−τ)ϕ ′′ (τ)dτ ,<br />

fürϕ(ξ) := f(y(t)+ξ(y h (t)−y(t))) mit der Kettenregel:<br />

ϕ ′ (ξ) = Df(y(t)+ξ(y h (t)−y(t)))·(y h (t)−y(t)) ,<br />

ϕ ′′ (ξ) = D 2 f(y(t)+ξ(y h (t)−y(t)))(y h (t)−y(t),y h (t)−y(t)) .<br />

Einsetzen in die Formel für die Einschrittfehlerfunktion:<br />

∫ 1<br />

ė(t) = ϕ(0)−ϕ(1)−δ(t) = Df(y(t))e(t)− (1−τ)D 2 f(y(t)+τe(t))(e(t),e(t)) −δ(t) .<br />

0<br />

} {{ }<br />

=:ρ(t)<br />

Dabei gilt die offensichtliche Abschätzung:<br />

‖ρ(t)‖ ≤ max<br />

y∈K<br />

∥<br />

∥D 2 f(y)<br />

∥<br />

∥·‖e(t)‖<br />

2<br />

Lemma 2.2.36<br />

≤ Ch 2s+2 , (2.2.55)<br />

wobeiK = {z ∈ D: ‖z−y(t)‖ ≤ R} mit vontunabhängigemR > 0 undC > 0 unabhängig von<br />

h.<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

2.2<br />

p. 182


➣<br />

Einschrittfehlerfunktion löst das Anfangswertproblem<br />

ė = Df(y(t))e−ρ(t)−δ(t) , e(0) = 0 . (2.2.56)<br />

Numerische<br />

Mathemtik<br />

Betrachtet man ρ(t),δ(t) als blosse Funktionen von t, dann ist (2.2.56) eine nichtautonome lineare<br />

Differentialgleichung.<br />

➣ Lösung durch allgemeine Variation-der-Konstanten-Formel (1.3.18):<br />

∫ t<br />

e(t) = −<br />

0<br />

W(t;y 0 )W(τ;y 0 ) −1 (ρ(τ)+δ(τ))dτ , 0 ≤ t ≤ h .<br />

mit der Propagationsmatrixt ↦→ W(t;y 0 ), vgl. (1.3.33), Sect. 1.3.3.4. Sie löst das Anfangswertproblem<br />

für die Variationsgleichung (1.3.34)<br />

Ẇ(t;y 0 ) = Df(y(t))W(t;y 0 ) , W(0;y 0 ) = I .<br />

Die Propagationsmatrix ist natürlich unabhängig vonh, also<br />

∥<br />

∃C > 0 unabhängig vonh: ∥W(t;y 0 )W(τ;y 0 ) −1∥ ∥ ≤ C ∀0 ≤ t,τ ≤ h .<br />

∫<br />

(2.2.55)<br />

t<br />

⇒<br />

∥ W(t;y 0 )W(τ;y 0 ) −1 ρ(τ)dτ<br />

∥ ≤ Ch2s+3 ,<br />

mitC > 0 unabhängig vonh.<br />

Beachte: (2.2.40) ➣ Konsistenzfehler bestimmt durche(h) !<br />

0<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

2.2<br />

p. 183


Geniale Idee: Abschätzung von ∫ h<br />

0 W(t;y 0 )W(τ;y 0 ) −1 δ(τ)dτ als Quadraturfehler !<br />

Wegenδ(c i h) = 0 (Kollokationsbedingung (2.2.1) !):<br />

s∑<br />

b i W(t;y 0 )W(c i h;y 0 ) −1 δ(c i τ)<br />

} {{ }<br />

i=1<br />

=0<br />

} {{ }<br />

Quadraturformel auf[0,h] fürτ↦→W(t;y 0 )W(τ;y 0 ) −1 δ(τ)<br />

➣ Mit der Quadraturfehlerabschätzung aus Lemma 2.2.53<br />

∫h<br />

s∑<br />

W(t;y 0 )W(τ;y 0 ) −1 δ(τ)dτ −<br />

∥0<br />

i=1<br />

mit<br />

C 3 := 1 p!<br />

max<br />

0≤τ≤h<br />

= 0 ∀0 ≤ t ≤ h .<br />

b i W(t;y 0 )W(c i h;y 0 ) −1 δ(c i τ)<br />

≤ C 3 h p+1 ,<br />

∥<br />

d p {<br />

∥dτ p τ ↦→ W(h;y 0 )W(τ;y 0 ) −1 δ(τ)} ∥ ∥∥ .<br />

δ(t) := ẏ h (t)−f(y h (t)) hängt natürlich im Gegensatz zuW(t;y) vonhab, doch dank der Schranken<br />

aus (2.2.48) sind alle Ableitungen von y h gleichmässig in h beschränkt !. Also lässt sich auch<br />

C 3 unabhängig vonhbeschränken.<br />

∫h<br />

∥0<br />

W(h;y 0 )W(τ;y 0 ) −1 δ(τ)dτ<br />

≤ Ch p+1 .<br />

∥<br />

Numerische<br />

Mathemtik<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

2.2<br />

p. 184


Zusammen mit der Abschätzung für den ρ-Term ergibt sich die Behauptung des Theorems, vgl.<br />

Def. 2.1.13<br />

✷<br />

Numerische<br />

Mathemtik<br />

s-stufige implizite Gauss-Kollokations-Einschrittverfahren haben Ordnung2s<br />

2.2.3.2 Spektrale Konvergenz<br />

Erinnerung: Polynominterpolation: „Grad→ ∞ ⇒ Fehler→ 0”<br />

(für geeignete Knoten, z.B. Tschebyscheff-Knoten [9, Sect. 7.1.4])<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Bei Gauss-Kollokations-Einschrittverfahren:<br />

Konvergenz fürs → ∞ ?<br />

<strong>Beispiel</strong> 2.2.57 (Konvergenz von globalen Gauss-Kollokationsverfahren).<br />

2.2<br />

p. 185


Dieses <strong>Beispiel</strong> studiert den Einschrittfehler von Kollokationsverfahren in Abhängigkeit von der<br />

Anzahl der Kollokationspunkte ↔ Polynomgrad s. Bisher haben wir nur die Strategie betrachtet,<br />

durch Verfeinerung des Zeitgitters eine genauere Lösung zu erhalten.<br />

Numerische<br />

Mathemtik<br />

Logistische Differentialgleichung (→ Bsp. 1.2.1)<br />

ẏ = λy(1−y) , y 0 ∈]0,1[ ⇒ y(t) =<br />

1<br />

1+(y0 −1 , t ∈ R . (2.2.58)<br />

−1)e−λt Numerische Experimente mit Gauss-Kollokationsverfahren auf[0,1],y 0 = 0.01,λ = 10:<br />

(Lösung der Gleichungen für Inkrementek i : MATLABfsolve, Toleranz10 −9 )<br />

Hier:<br />

Kollokationsverfahren als globales Integrationsverfahren<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

2.2<br />

p. 186


1.6<br />

1.4<br />

1.2<br />

1<br />

y(t)<br />

s=1<br />

s=2<br />

s=3<br />

s=4<br />

s=5<br />

s=6<br />

10 −1<br />

10 −2<br />

Numerische<br />

Mathemtik<br />

y<br />

0.8<br />

0.6<br />

|y h<br />

(1)−y(1)|<br />

10 0 Polynomgrad = Stufenzahl s<br />

10 −3<br />

0.4<br />

10 −4<br />

0.2<br />

0<br />

10 −5<br />

−0.2<br />

0 0.2 0.4 0.6 0.8 1<br />

t<br />

Näherungslösungeny h (t)<br />

10 −6<br />

1 2 3 4 5 6 7 8 9 10<br />

✄ Exponentielle Konvergenz ins(Warum ?)<br />

✸<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Naheliegend: Konvergenzanalyse auf der Grundlage von Thm. 2.2.30<br />

☞ Benötigt: Spektrale Interpolationsfehlerabschätzungen für Polynominterpolation in Gauss-<br />

Knoten, siehe Abb. 59 (spektral: Fehlerabschätzungen in Abhängigkeit vom Polynomgrad, ein neuer<br />

Aspekt im Vergleich zur Vorlesung “numerische Methoden”).<br />

2.2<br />

p. 187


Polynominterpolationsfehlerabschätzungen für analytische Funktionen<br />

Numerische<br />

Mathemtik<br />

<strong>Beispiel</strong> 2.2.59 (Interpolationsfehler bei Polynominterpolation in Gauss-Knoten).<br />

Interpoland: Lösung der logistischen Dgl. (1.2.2)<br />

auf[−1,1], vgl. Bsp. 1.2.1:<br />

Fehler:<br />

y(t) =<br />

1<br />

1+exp(− 1 2 λt) .<br />

err := max<br />

−1≤t≤1 |y(t)−p n(t)| ,<br />

p n (t) ˆ= Interpolationspolynom vony(t), Gradn−<br />

1, zunGauss-Knoten.<br />

Näherungsweise Auswertung von err durch Abtasten<br />

auf sehr feinem Gitter<br />

Interpolation error (max norm)<br />

@(t) 1./(1+exp(−0.5*lambda*t)) on [−1,1]<br />

10 0<br />

10 −1<br />

10 −2<br />

10 −3<br />

10 −4<br />

10 −5<br />

10 −6<br />

10 −7<br />

λ = 2<br />

λ = 4<br />

10 −8 λ = 7<br />

λ = 11<br />

λ = 16<br />

10 −9<br />

No. of Gauss nodes<br />

1 2 3 4 5 6 7 8 9 10<br />

Fig. 63<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

2.2<br />

p. 188


Listing 2.1: Berechung approximativer Maximumnorm des Fehlers bei Polynominterpolation<br />

1 f u n c t i o n errinf = polyintperr(fun,nodes,span)<br />

2 % Error of polynomial interpolation in maximum norm<br />

3 % fun : handle to function to be interpolated<br />

4 % nodes : interpolation nodes<br />

5 % span : evaluation interval (default [-1,1])<br />

6<br />

7 i f (nargin < 3), span = [-1,1]; end<br />

8 n = length(nodes);<br />

9<br />

0 fval = zeros(1,n);<br />

1 f o r j=1:n, fval(j) = fun(nodes(j)); end<br />

2<br />

3 p = p o l y f i t(nodes,fval,n-1); % built-in polynomial interpolation<br />

4<br />

5 % Compute maximum norm by sampling on fine mesh<br />

6 N = 1000*n;<br />

7 t = span(1) + (0:N)*(span(2)-span(1))/N;<br />

8 pval = polyval(p,t);<br />

9 fval = zeros(1,N+1);<br />

0 f o r j=1:N+1, fval(j) = fun(t(j)); end<br />

1 errinf = max(abs(pval-fval));<br />

Listing 2.2: Berechung approximativer Maximumnorm des Interpolationsfehlers in Gausspunkten<br />

Numerische<br />

Mathemtik<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

2.2<br />

p. 189


1 f u n c t i o n errinf = gaussintperr(fun,n)<br />

2 % Error of polynomial interpolation in Gauss points in maximum norm<br />

3 % fun : handle to function to be interpolated<br />

4 % n : number of interpolation nodes<br />

5<br />

6 path(path,’../SupportScripts’);<br />

7 [nodes,weights] = GaussQuad(n);<br />

8 errinf = polyintperr(fun,nodes’);<br />

Listing 2.3: Erzeugen der Plots für Bsp. 2.2.59<br />

1 f u n c t i o n plotgaussintperr<br />

2 % Error of Gaussian interpolation for solution of logistic differentialequation<br />

3<br />

4 rec = []; % Array for recording errors<br />

5 k = 1;<br />

6 f o r lambda=[2,4,7,11,16]<br />

7 sol = @(t) 1./(1+exp(-0.5*lambda*t));<br />

8 errs = [];<br />

9 f o r n=1:10, errs = [errs,gaussintperr(sol,n)]; end<br />

0 rec = [rec;errs];<br />

1 leg{k} = s p r i n t f(’\\lambda = %d’,lambda);<br />

2 k = k+1;<br />

3 end<br />

4<br />

Numerische<br />

Mathemtik<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

2.2<br />

p. 190


5 f i g u r e(’name’,’Gaussian interpolation error’);<br />

6 semilogy(1:10,rec(1,:),’r*-’,...<br />

7 1:10,rec(2,:),’c*-’,...<br />

8 1:10,rec(3,:),’b*-’,...<br />

9 1:10,rec(4,:),’k*-’,...<br />

0 1:10,rec(5,:),’m*-’);<br />

1 x l a b e l(’{\bf No. of Gauss nodes}’,’fontsize’,14);<br />

2 y l a b e l(’{\bf Interpolation error (max norm)}’,’fontsize’,14);<br />

3 t i t l e(’@(t) 1./(1+exp(-0.5*lambda*t)) on [-1,1]’);<br />

4 legend(leg,’location’,’southwest’);<br />

5<br />

6 p r i n t -depsc2 ’gaussintperr.eps’;<br />

Numerische<br />

Mathemtik<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Beobachtung: exponentielle Konvergenz (→ Def. 1.4.5) des Interpolationsfehlers, schneller bei kleineremλ.<br />

✸<br />

2.2<br />

p. 191


Interpolationsfehleranalyse mit Hilfsmitteln der Funktionentheorie:<br />

Numerische<br />

Mathemtik<br />

Bekannt sein sollte aus der Funktionentheorie:<br />

Konzept einer<br />

holomorphen Funktion,<br />

Cauchy Integralsatz , und<br />

Laurent-Entwicklung.<br />

Erinnerung, siehe etwa [30, Ch. 13]:<br />

✬<br />

Theorem 2.2.60 (Residuensatz).<br />

Sei D ⊂ C eine offene Menge,Γ ⊂ D ein einfach geschlossener Integrationsweg undΠ ⊂ D<br />

eine endliche Menge.<br />

Für jede inD\Πholomorphe (analytische) Funktionf : D\Π ↦→ C gilt<br />

∫<br />

1<br />

=<br />

2πi γf(z)dz ∑ res p f ,<br />

p∈Π<br />

wobeires p f das Residuum vonf im Punktpist.<br />

✫<br />

R. Hiptmair<br />

✩<br />

rev 35327,<br />

25. April<br />

2011<br />

✪<br />

2.2<br />

p. 192


Π wird oft als die Menge der Pole vonf bezeichnet.<br />

Numerische<br />

Mathemtik<br />

Definition 2.2.61 (Residuum einer komplexwertigen Funktion).<br />

Ist f holomorph in einer punktierten Umgebung von p ∈ C, so ist das Residuum res p f von f<br />

im Punktpder Koeffizienta −1 der Laurent-Entwicklung vonf inp.<br />

Beweisskizze. (von Thm. 2.2.60)<br />

Hat f in einer punktierten Umgebung von p ∈ C<br />

Im<br />

die konvergente Laurent-Enwicklung<br />

f(z) =<br />

∞∑<br />

k=−∞<br />

a k (z −p) k<br />

so gilt für einen (hinreichend kleinen) Kreisγ ump<br />

1<br />

2πi<br />

∫<br />

γ<br />

f(z)dz = a −1 .<br />

p 1<br />

D<br />

p 2 p 3<br />

p 4<br />

Γ<br />

Re<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Dann zerlege ∫ Γ wie in der Skizze angedeutet und<br />

verwende den Cauchy-Integralsatz.<br />

Fig. 64<br />

2.2<br />

p. 193


✬<br />

Lemma 2.2.62 (Residuenformel für einfachen Pol).<br />

Istf holomorph in einer punktierten Umgebung vonp ∈ C und(z −p)f(z) holomorph inp, so<br />

gilt<br />

✩<br />

Numerische<br />

Mathemtik<br />

res p f = lim z→p<br />

(z −p)f(z) . (2.2.63)<br />

✫<br />

✪<br />

Daraus folgt sofort:<br />

✬<br />

Lemma 2.2.64 (Residuenformel für Quotienten).<br />

Sindg,h holomorph in einer Umgebung vonp ∈ C undh(p) = 0,h ′ (p) ≠ 0, so gilt<br />

✫<br />

res p<br />

g<br />

h = g(p)<br />

h ′ (p) .<br />

✩<br />

✪<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Betrachte:<br />

Polynominterpolation vonf ∈ C 0 ([a,b]) in Knotenτ 1 < τ 2 < ... < τ s ,s ∈ N<br />

2.2<br />

p. 194


a<br />

Im<br />

D<br />

Γ<br />

τ 1 τ 2 τ 3 τ 4<br />

b<br />

R<br />

✬<br />

Annahme 2.2.65 (Analytizität des Interpolanden).<br />

f holomorph (analytisch) in eine komplexen<br />

UmgebungD ⊂ C von[a,b] fortsetzbar.<br />

✫<br />

✩<br />

Numerische<br />

Mathemtik<br />

✪<br />

Fig. 65<br />

✁ Analytizitätsgebiet (gelb)<br />

Wir betrachten folgende Funktion mit PolmengeΠ = {t,τ 1 ,...,τ s }<br />

g t (z) :=<br />

f(z)<br />

(z −t)P(z) , t ∈ [a,b]\{τ 1,...,τ s } , P(z) := α(z −τ 1 )·····(z −τ s ), α ∈ R .<br />

➣ g t ist holomorph aufD\{t,τ 1 ,...,τ s } (t ist Parameter!). )<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Anwendung des Residuensatzes Thm. 2.2.60 aufg t mit einfach geschlossenem IntegrationswegΓ<br />

⊂ D, der[a,b] umschliesst, siehe die magenta Kurve in Abb. 65:<br />

1<br />

2πi<br />

∫<br />

Γ<br />

g t (z)dz = res t g t +<br />

s∑<br />

Lemma 2.2.64f(t)<br />

s∑<br />

res τj g t =<br />

P(t) + f(τ j )<br />

(τ j −t)P ′ (τ j )<br />

j=1<br />

j=1<br />

Möglich, daP ausschliesslich einfache Nullstellen hat !<br />

2.2<br />

p. 195


f(t) = −<br />

s∑<br />

f(τ j )<br />

j=1<br />

P(t)<br />

(τ j −t)P ′ (τ j )<br />

} {{ }<br />

−Lagrange-Polynom !<br />

} {{ }<br />

Interpoationspolynom !<br />

+ P(t) ∫<br />

2πi<br />

g t (z)dz<br />

Γ<br />

} {{ }<br />

Interpolationsfehler !<br />

. (2.2.66)<br />

Numerische<br />

Mathemtik<br />

➣ Nun abzuschätzen: rechte Seite von<br />

|f(t)−Interpolationspolynom(t)| ≤<br />

P(t)<br />

∣ 2πi<br />

∫<br />

Γ<br />

f(z)<br />

(z −t)P(z) dz ∣ ∣∣∣<br />

, a ≤ t ≤ b . (2.2.67)<br />

Bausteine der Abschätzung:<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

• Obere Schranke für|P(t)|,a ≤ t ≤ b<br />

• Untere Schranke für|P(z)|,z ∈ Γ für einen geschickt gewählten IntegrationswegΓ ⊂ D<br />

Offensichtlich hängt die Schranke in (2.2.67) nicht vonαab.<br />

2.2<br />

p. 196


Abschätzungen für Legendre-Polynome<br />

Numerische<br />

Mathemtik<br />

Erinnerung: Für{τ j } s j=1<br />

ˆ= Gauss-Knoten in[−1,1] ➤ P(t) ˆ=s. Legendre-Polynom (Grads)<br />

✎ Notation: P n ˆ= Legendre-Polynom vom Gradn ∈ N 0<br />

Rekursionsformel: (n+1)P n+1 (t)−(2n+1)tP n (t)+nP n−1 (t) = 0 , (2.2.68)<br />

Rodrigues-Formel: P n (t) = 1 d n<br />

2 n n! dt n(t2 −1) n . (2.2.69)<br />

(Start der Rekursion mit P 0 ≡ 1,P 1 (t) = t)<br />

Legendre-Polynome auf[−1,1]<br />

✄<br />

1<br />

Legendre polynomials on [−1,1]<br />

R. Hiptmair<br />

P 0 (x) = 1 ,<br />

P 1 (x) = x ,<br />

0.8<br />

0.6<br />

0.4<br />

rev 35327,<br />

25. April<br />

2011<br />

P 2 (x) = 1/2(3x 2 −1) ,<br />

0.2<br />

P 3 (x) = 1/2(5x 3 −3x) ,<br />

P 4 (x) = 1/8(35x 4 −30x 2 +3) ,<br />

P 5 (x) = 1/8(63x 5 −70x 3 +15x) ,<br />

P 6 (x) = 1/(16)(231x 6 −315x 4 +105x 2 −5) .<br />

P n<br />

(t)<br />

0<br />

−0.2<br />

−0.4<br />

−0.6<br />

−0.8<br />

−1<br />

−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1<br />

t<br />

n = 0<br />

n = 1<br />

n = 2<br />

n = 3<br />

n = 4<br />

n = 5<br />

n = 6<br />

n = 7<br />

Fig. 66<br />

2.2<br />

p. 197


Vermutung: |P n (t)| ≤ 1 für alle−1 ≤ t ≤ 1<br />

Numerische<br />

Mathemtik<br />

Im(z)<br />

2<br />

1.5<br />

1<br />

0.5<br />

0<br />

−0.5<br />

−1<br />

−1.5<br />

2<br />

2<br />

1.5<br />

1<br />

1<br />

1.5<br />

0<br />

0.5<br />

2<br />

Modulus of Legendre polynomials, log 10<br />

|P 4<br />

|<br />

0<br />

2<br />

1.5<br />

−0.5<br />

−1<br />

1<br />

0.5<br />

1<br />

1.5<br />

−2<br />

−2 −1.5 −1 −0.5 0 0.5 1 1.5 2<br />

Re(z)<br />

−1<br />

0<br />

−0.5<br />

Niveaus von|P 4 (z)|<br />

0.5<br />

2<br />

0<br />

2<br />

1.5<br />

1<br />

0.5<br />

1<br />

1.5<br />

2<br />

1.5<br />

2<br />

Fig. 67<br />

Im(z)<br />

2<br />

1.5<br />

1<br />

0.5<br />

0<br />

−0.5<br />

−1<br />

−1.5<br />

3<br />

3<br />

2<br />

1<br />

1<br />

0<br />

2<br />

Modulus of Legendre polynomials, log 10<br />

|P 6<br />

|<br />

0<br />

3<br />

3<br />

2<br />

−1<br />

1<br />

−2<br />

−2 −1.5 −1 −0.5 0 0.5 1 1.5 2<br />

Re(z)<br />

Niveaus von|P 6 (z)|<br />

−1<br />

1<br />

2<br />

0<br />

0<br />

3<br />

3<br />

2<br />

1<br />

2<br />

3<br />

3<br />

Fig. 68<br />

Im(z)<br />

2<br />

1.5<br />

1<br />

0.5<br />

0<br />

−0.5<br />

−1<br />

−1.5<br />

3<br />

3<br />

4<br />

4<br />

2<br />

0<br />

Modulus of Legendre polynomials, log 10<br />

|P 8<br />

|<br />

0<br />

1<br />

3<br />

2<br />

1<br />

3<br />

4<br />

2<br />

4<br />

−2<br />

−2 −1.5 −1 −0.5 0 0.5 1 1.5 2<br />

Re(z)<br />

Niveaus von|P 8 (z)|<br />

0<br />

0<br />

1<br />

3<br />

1<br />

2<br />

3<br />

4<br />

2<br />

4<br />

3<br />

4<br />

4<br />

Fig. 69<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Beobachtung/Vermutung:<br />

Niveaulinien von|P n (z)| sind näherungsweise Ellipsen mit Brennpunkten−1,1.<br />

Exponentielles Anwachsen von|P n (z)| auf sich ausweitenden Ellipsen mit Brennpunkten{−1,1}.<br />

2.2<br />

p. 198


Numerische<br />

Mathemtik<br />

Hilfmittel für Abschätzung der Legendre-Polynome nach oben und nach unten:<br />

Erzeugende Funktion der Legendre-Polynome<br />

Durch gliedweise Differentiation:<br />

formale Reihe: F w (z) =<br />

∞∑<br />

P n (w)z n , z,w ∈ C . (2.2.70)<br />

n=0<br />

dF ∞ w<br />

dz (z) = ∑<br />

(n+1)P n+1 (w)z n ,<br />

n=0<br />

d<br />

dz (zF w(z)) =<br />

∞∑<br />

(n+1)P n (w)z n , z d dz (zF w(z)) =<br />

n=0<br />

∞∑<br />

nP n−1 (w)<br />

R. Hiptmair<br />

Aus der Rekursionsformel (2.2.68) folgt daher<br />

rev 35327,<br />

dF w<br />

dz (z)−(2z d dz (zF w(z))−zF w (z))+z d 25. April<br />

2011<br />

dz (zF w(z)) = 0 ,<br />

dF w<br />

dz (z) = w−z<br />

z 2 −2wz +1 F w(z) . (2.2.71)<br />

Nach Ersetzungz ← t: ODE fürt ↦→ F w (t).<br />

Zugehöriges Anfangswertproblem mitF w (0) = P 0 (w) = 1 hat eindeutige Lösung<br />

(<br />

F w (z) = z 2 ) −1/2 2.2<br />

−2wz +1 .<br />

n=0<br />

p. 199


Dabei wurde im Sinne der komplexen Fortsetzung wieder ersetzt t ← z. Also gilt für festes w ∈ C<br />

und|z| hinreichend klein<br />

Erzeugende Funktion der Legendre-Polynome<br />

(<br />

z 2 ) −1/2 ∑ ∞<br />

−2wz +1 = P n (w)z n . (2.2.72)<br />

n=0<br />

Numerische<br />

Mathemtik<br />

Faktorisierung vonF w (z): mit<br />

w := 1 2 (ζ +ζ−1 ) , ζ ∈ C\{0} ⇒ z 2 −2wz +1 = (1−zζ)(1−z/ζ) . (2.2.73)<br />

Aus Taylorreihe für(1−z) −1/2 :<br />

(→ Analysis)<br />

(1−z) −1/2 =<br />

∞∑<br />

n=0<br />

a n z n , a n = (2n)! 1·2·····2n<br />

(n!) 2 =<br />

22n (2·4·····2n) 2 > 0 .<br />

Aus dem Multiplikationssatz für Potenzreihen mit Transformation (2.2.73)<br />

⎛<br />

∞∑ n∑<br />

⎝<br />

(<br />

z 2 −2wz +1) −1/2<br />

= (1−zζ) −1/2 (1−z/ζ) −1/2 =<br />

n=0<br />

j=0<br />

⎞<br />

a j a n−j ζ n−2j ⎠z n .<br />

} {{ }<br />

=P n (w)<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

2.2<br />

p. 200


✬<br />

✩<br />

Lemma 2.2.74 (Obere Schranke für Legendre-Polynome).<br />

✫<br />

Es gilt |P n (t)| ≤ 1 für alle−1 ≤ t ≤ 1.<br />

✪<br />

Numerische<br />

Mathemtik<br />

Beweis. Wir verwenden die Darstellung des n. Legendre-Polynoms aus der Reihenentwicklung der<br />

erzeugenden Funktion: mit der Joukowski-TransformationT(ζ) = 1 2 (ζ +ζ−1 ) haben wir<br />

Beachte:<br />

P n (T(ζ)) =<br />

1<br />

2 (eiϕ +e −iϕ ) = cosϕ =: t<br />

n∑<br />

a j a n−j ζ n−2j , |ζ| ≥ 1 . (2.2.75)<br />

j=0<br />

⇒ Für T(ζ) :=<br />

2 1(ζ +ζ−1 ) gilt: T({|z| = 1}) = [−1,1] .<br />

⇒ |P n (t)| (2.2.75)<br />

n∑<br />

a j >0 n∑<br />

=<br />

a j a n−j exp(i(n−2j)ϕ)<br />

≤ a j a n−j = P n (1) = 1 ,<br />

∣<br />

∣<br />

j=0<br />

für einϕ ∈ [0,2π] so, dassT(exp(iϕ)) = t ∈ [−1,1].<br />

j=0<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

2.2<br />

p. 201


Wir betrachten nun die Joukowski-TransformationT(z) = 1 2 (z+z−1 ) in Ihrer Wirkung auf Kreise um<br />

0 etwas näher<br />

➣<br />

T(ρe iϕ ) = 1 2<br />

(<br />

ρe iϕ +ρ −1 e −iϕ) = 1 2 (ρ+ρ−1 ) cos(ϕ)+i·<br />

} {{ }<br />

grosse Halbachse<br />

1<br />

2 (ρ−ρ−1 ) sin(ϕ) .<br />

} {{ }<br />

kleine Halbachse<br />

T bildet einen Kreis mit Radius ρ > 1 auf eine Ellipse mit Brennpunkten {−1,1}, kleiner<br />

Halbachse 1 2 (ρ−ρ−1 ) und grosser Halbachse 1 2 (ρ+ρ−1 ) ab.<br />

Numerische<br />

Mathemtik<br />

Im<br />

1.5<br />

1<br />

0.5<br />

0<br />

ρ=1<br />

ρ=1.2<br />

ρ=1.4<br />

ρ=1.6<br />

ρ=1.8<br />

ρ=2<br />

TransformationT<br />

Im<br />

0.8<br />

0.6<br />

0.4<br />

0.2<br />

0<br />

ρ=1<br />

ρ=1.2<br />

ρ=1.4<br />

ρ=1.6<br />

ρ=1.8<br />

ρ=2<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

−0.5<br />

−1<br />

z→ 1 2 (z+1/z)<br />

−−−−−−−−→<br />

−0.2<br />

−0.4<br />

−0.6<br />

−1.5<br />

−0.8<br />

−2 −1 0 1 2<br />

Re<br />

Kreise{z ∈ C : |z| = ρ}<br />

−1 −0.5 0 0.5 1<br />

Re<br />

EllipsenE ρ gemäss (2.2.76)<br />

Fig. 70<br />

2.2<br />

p. 202


Abildungen 67-69: Niveaulinien von |P n (z)| sind näherungsweise Ellipsen mit Brennpunkten<br />

{−1,1}.<br />

Numerische<br />

Mathemtik<br />

Idee: Benutze elliptische Integrationswege, siehe Abb. 70<br />

E ρ := T({z ∈ C, |z| = ρ}) , ρ > 1 , (2.2.76)<br />

mit Joukowski-Transformation T(z) := 1 2 (z +1/z) . (2.2.77) R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

2.2<br />

p. 203


ρ n /10<br />

10 5<br />

10 4<br />

10 3<br />

10 2<br />

10 1<br />

10 6 n<br />

ρ = 1.10<br />

ρ = 1.20<br />

ρ = 1.30<br />

ρ = 1.40<br />

ρ = 1.50<br />

ρ = 1.60<br />

ρ = 1.70<br />

ρ = 1.80<br />

ρ = 1.90<br />

ρ = 2.00<br />

ρ = 2.10<br />

ρ = 2.20<br />

ρ = 2.30<br />

ρ = 2.40<br />

ρ = 2.50<br />

ρ<br />

min|P n<br />

(z)| on ellipse E<br />

10 5<br />

10 4<br />

10 3<br />

10 2<br />

10 1<br />

ρ<br />

ρ<br />

ρ<br />

10 6 n<br />

= 1.10<br />

= 1.20<br />

= 1.30<br />

= 1.40<br />

= 1.50<br />

= 1.60<br />

= 1.70<br />

= 1.80<br />

= 1.90<br />

= 2.00<br />

= 2.10<br />

= 2.20<br />

= 2.30<br />

= 2.40<br />

= 2.50<br />

ρ<br />

Numerische<br />

Mathemtik<br />

10 0<br />

10 0<br />

10 −1<br />

0 2 4 6 8 10 12 14 16<br />

Fig. 71<br />

0.1·ρ n als Funktion vonnfür verschiedeneρ > 1<br />

10 −1<br />

0 2 4 6 8 10 12 14 16<br />

Approximation von min<br />

z∈E ρ<br />

|P n (z)|<br />

Fig. 72<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

2.2<br />

p. 204


atio min|P n<br />

(z)|/(nρ n )<br />

3.5<br />

3<br />

2.5<br />

2<br />

1.5<br />

1<br />

ρ = 1.10<br />

ρ = 1.20<br />

ρ = 1.30<br />

ρ = 1.40<br />

ρ = 1.50<br />

ρ = 1.60<br />

ρ = 1.70<br />

ρ = 1.80<br />

ρ = 1.90<br />

ρ = 2.00<br />

ρ = 2.10<br />

ρ = 2.20<br />

ρ = 2.30<br />

ρ = 2.40<br />

ρ = 2.50<br />

Vermutung:<br />

Für grossen:<br />

min<br />

z∈E ρ<br />

|P n (z)| ∼ nρ n . (2.2.78)<br />

Numerische<br />

Mathemtik<br />

0.5<br />

0<br />

−2 0 2 4 6 8 10 12 14 16<br />

n<br />

Fig. 73<br />

Nach bestem Wissen des Autors gibt es keinen Beweis von (2.2.78). In [5, Sect. 12.4], [4] wird die<br />

schwächere Behauptung<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

gezeigt.<br />

∀ǫ > 0: ∃N = N(ǫ): min<br />

z∈E ρ<br />

|P n (z)| ≥ (ρ−ǫ) n ∀n > N(ǫ)<br />

Hier nur Heuristik:<br />

2.2<br />

p. 205


Erinnerung: Formel von Cauchy-Hadamard für den Konvergenzradius einer Potenzreihe [30,<br />

Sect. 4.1.3]<br />

1<br />

R :=<br />

limsup |a n| 1/n ⇒ ∑ ∞ a n z n konvergiert für|z| < R . (2.2.79)<br />

n→∞<br />

n=0<br />

Numerische<br />

Mathemtik<br />

Idee: (2.2.79) liefert asymptotische untere Schranke für|a n |, wennRbekannt !<br />

(Voraussetzung istlimsup<br />

|a n| 1/n = lim<br />

n→∞ n→∞ |a n| 1/n , gegeben z.B. bei Monotonie<br />

von(a n ) n .)<br />

Aus dem Entwicklungssatz von Cauchy schliesst man, siehe [30, Sect. 8.1.5]:<br />

✬<br />

Lemma 2.2.80 (Konvergenzradius von Potenzreihenentwicklungen).<br />

Sei D ⊂ C offen,f : D ↦→ C holomorph und0 ∈ D. Dann hat die Taylorreihe vonf um0den<br />

KonvergenzradiusR = dist(0,∂D).<br />

✫<br />

R. Hiptmair<br />

rev 35327,<br />

✩25. April<br />

2011<br />

✪<br />

Zu untersuchen mit Hilfe von Lemma 2.2.80: Konvergenzradius der Taylorreihe um 0 der erzeugenden<br />

Funktion (2.2.72), also f(z) = (z 2 − 2wz + 1) −1/2 , der Legendre-Polynome aus<br />

(2.2.72).<br />

2.2<br />

p. 206


Uns interessiert:<br />

min<br />

z∈E ρ<br />

|P n (z)| ➥<br />

Gesucht: Konvergenzradius fürw ∈ E ρ<br />

Numerische<br />

Mathemtik<br />

Lemma 2.2.80 ⇒ R = min{dist(0,ζ),dist(0,ζ −1 )} ,<br />

dennζ,ζ −1 sind die beiden Nullstellen vonz ↦→ z 2 −2wz +1 fürw = 1 2 (ζ +ζ−1 ), vgl. (2.2.73).<br />

ζ = ρexp(iϕ) , ρ > 1 ⇒ R = ρ −1 .<br />

Annahme. Existenz des Limes: limsup<br />

n→∞ |P n(w)| 1/n = lim<br />

n→∞ |P n(w)| 1/n<br />

Damit aus (2.2.72):<br />

∀ǫ > 0: ∃N = N(ǫ) ∈ N:<br />

(<br />

|P n (w)| 1/n > ρ−ǫ ⇔ |P n (w)| > (ρ−ǫ) n) ∀n > N(ǫ) .<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

2.2<br />

p. 207


✬<br />

✩<br />

Theorem 2.2.81 (Fehlerabschätzung für Interpolation in Gauss-Knoten).<br />

Es sei f : [−1,1] ↦→ C nach D ⊂ C analytisch fortsetzbar und E ρ ⊂ D für ein ρ > 1. Unter<br />

der Annahme (2.2.78) finden wirN = N(ρ) ∈ N undC = C(ρ) > 0, so dass<br />

s∑<br />

max<br />

−1≤t≤1<br />

∣ f(t)− f(τ j )L j (t)<br />

∣ ≤ Cρ−s max |f(z)| length(E ρ)<br />

∀s > N(ρ) .<br />

s z∈E ρ 2π<br />

✫<br />

j=1<br />

✪<br />

Numerische<br />

Mathemtik<br />

Aussage von Theorem 2.2.81: bzgl. der Maximumnorm exponentielle Konvergenz (→ Def. 1.4.5)<br />

des Interpolationspolynoms in den Gausspunkten einer in einer “geeigneten” Umgebung von [−1,1]<br />

analytischen Funktion.<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

<strong>Beispiel</strong> 2.2.82 (Fehler bei Polynominterpolation in Gauss-Knoten). → Fortsetzung Bsp. 2.2.59<br />

f(z) =<br />

1<br />

√<br />

1+exp(− 1 2 λz) ⇒ f analytisch inE ρ für ρ < π λ + ( π λ )2 +1 .<br />

2.2<br />

p. 208


Pole vonf:<br />

±(2k +1) 2πi<br />

λ , k ∈ Z .<br />

⇒ ρ−ρ −1 < 2π λ .<br />

2πi<br />

λ<br />

−1 1<br />

Im<br />

E ρ<br />

− 2πi<br />

λ Fig. 74<br />

Re<br />

Numerische<br />

Mathemtik<br />

Dieses <strong>Beispiel</strong> demonstriert die allgemeine Strategie zum Auffinden zulässiger Analytizitätsellipsen<br />

für “einfache” Funktionen: Man bestimmt die Pole der zu untersuchenden Funktion in C und dadurch<br />

das Gebiet, auf dem die Funktion holomorph ist.<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

✸<br />

1<br />

ẏ = λy(1−y) , y 0 > 0[ ⇒ y(t) =<br />

1+(y0 −1 −1)e −λt , t ∈ R . (2.2.84) 2.2<br />

<strong>Beispiel</strong> 2.2.83 (Analytizitätsgebiet für Lösung der logistischen Dgl.).<br />

Logistische Differentialgleichung (→ Bsp. 1.2.1)<br />

p. 209


Wenden wir ein Gauss-Kollokations-Einschrittverfahren, so reicht es<br />

∥<br />

‖(Id−P)f(·,y(·))‖ ∞,[0,1] =<br />

(·+1<br />

∥ (Id−P)f ,y(·+1 )∥ ∥∥∥∞,[−1,1]<br />

2 2 )<br />

Numerische<br />

Mathemtik<br />

zu untersuchen, siehe Thm. 2.2.30, wobei P den Operator der Polynominterpolation in den Gausspunkten<br />

bezeichnet.<br />

Füry 0 > 1: ein Pol in−1− 2 λ ln(−a) mit1/a = 1/y 0 −1.<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

2.2<br />

p. 210


Im<br />

1.5<br />

1<br />

0.5<br />

0<br />

y 0 = 1.1,λ = 5.5:<br />

pole<br />

ρ=3.4444<br />

ρ=3.095<br />

ρ=2.7456<br />

ρ=2.3961<br />

ρ=2.0467<br />

ρ=1.6972<br />

ρ=1.3478<br />

Numerische<br />

Mathemtik<br />

−0.5<br />

−1<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

−1.5<br />

−2 −1.5 −1 −0.5 0 0.5 1 1.5<br />

Re<br />

2.2<br />

p. 211


Im<br />

0.8<br />

0.6<br />

0.4<br />

0.2<br />

0<br />

y 0 = 10,λ = 5.5:<br />

pole<br />

ρ=1.3078<br />

ρ=1.2479<br />

ρ=1.188<br />

ρ=1.1281<br />

ρ=1.0683<br />

ρ=1.0084<br />

Numerische<br />

Mathemtik<br />

−0.2<br />

−0.4<br />

R. Hiptmair<br />

−0.6<br />

rev 35327,<br />

25. April<br />

2011<br />

−0.8<br />

−1 −0.5 0 0.5 1<br />

Re<br />

Maximum auf Ellipsen:<br />

2.2<br />

p. 212


10 5<br />

10 4<br />

y0=1.1 λ=1<br />

y0=1.1 λ=3.25<br />

y0=1.1 λ=5.5<br />

y0=1.1 λ=7.75<br />

y0=1.1 λ=10<br />

10 4<br />

y0=10 λ=1<br />

y0=10 λ=3.25<br />

y0=10 λ=5.5<br />

y0=10 λ=7.75<br />

y0=10 λ=10<br />

Numerische<br />

Mathemtik<br />

max on ellipse ρ<br />

10 6 ρ<br />

10 3<br />

10 2<br />

max on ellipse ρ<br />

10 5 ρ<br />

10 3<br />

10 2<br />

10 1<br />

10 0<br />

10 1<br />

10 −1<br />

0 2 4 6 8 10 12<br />

10 0<br />

1 1.2 1.4 1.6 1.8 2<br />

Fehler im Endzeitpunkt für globalen Schritt des Gauss-Kollokations-Einschrittverfahrens:<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

2.2<br />

p. 213


λ = 5.5:<br />

Fehler zum Zeitpunkt T=1, λ=5.5<br />

Numerische<br />

Mathemtik<br />

10 2 Polynomgrad = Stufenzahl s<br />

10 0<br />

10 −2<br />

y0=1.1 ρ=0.31378<br />

y0=2.88 ρ=0.29625<br />

y0=4.66 ρ=0.37181<br />

y0=6.44 ρ=0.41602<br />

y0=8.22 ρ=0.45792<br />

y0=10 ρ=0.4467<br />

|y h<br />

(1)−y(1)|<br />

10 −4<br />

10 −6<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

10 −8<br />

10 −10<br />

0 5 10 15<br />

2.2<br />

p. 214


λ = 10:<br />

Fehler zum Zeitpunkt T=1, λ=10<br />

Numerische<br />

Mathemtik<br />

10 2 Polynomgrad = Stufenzahl s<br />

10 0<br />

10 −2<br />

y0=1.1 ρ=0.20099<br />

y0=2.88 ρ=0.33691<br />

y0=4.66 ρ=0.43734<br />

y0=6.44 ρ=0.82362<br />

y0=8.22 ρ=0.53696<br />

y0=10 ρ=0.8109<br />

|y h<br />

(1)−y(1)|<br />

10 −4<br />

10 −6<br />

10 −8<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

10 −10<br />

10 −12<br />

0 5 10 15<br />

2.2<br />

p. 215


Füry 0 < 1: Pole in−1− 2 λ ln(a)− 2 λ (2k +1)πi mit1/a = 1/y 0 −1.<br />

Numerische<br />

Mathemtik<br />

y 0 = 0.80111,λ = 10:<br />

1<br />

pole z 0<br />

pole z 1<br />

Im<br />

0.5<br />

0<br />

−0.5<br />

−1<br />

−1 −0.5 0 0.5 1<br />

Re<br />

ρ=0.38348 rate=0.38348<br />

ρ=0.45087 rate=0.45087<br />

ρ=0.51826 rate=0.51826<br />

ρ=0.58565 rate=0.58565<br />

ρ=0.65304 rate=0.65304<br />

ρ=0.72043 rate=0.72043<br />

ρ=0.78783 rate=0.78783<br />

ρ=0.85522 rate=0.85522<br />

ρ=0.92261 rate=0.92261<br />

ρ=0.99 rate=0.99<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

2.2<br />

p. 216


y 0 = 0.10889,λ = 10:<br />

pole z 0<br />

Numerische<br />

Mathemtik<br />

Im<br />

0.5<br />

0<br />

−0.5<br />

−1 −0.5 0 0.5 1<br />

Re<br />

pole z 1<br />

ρ=1.9307 rate=0.51796<br />

ρ=1.8284 rate=0.54693<br />

ρ=1.7261 rate=0.57935<br />

ρ=1.6238 rate=0.61585<br />

ρ=1.5215 rate=0.65725<br />

ρ=1.4192 rate=0.70463<br />

ρ=1.3169 rate=0.75936<br />

ρ=1.2146 rate=0.82332<br />

ρ=1.1123 rate=0.89904<br />

ρ=1.01 rate=0.9901<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Maximum auf Ellipsen:<br />

2.2<br />

p. 217


400<br />

350<br />

300<br />

y0=0.80111 λ=1<br />

y0=0.80111 λ=3.25<br />

y0=0.80111 λ=5.5<br />

y0=0.80111 λ=7.75<br />

y0=0.80111 λ=10<br />

450<br />

400<br />

350<br />

y0=0.10889 λ=1<br />

y0=0.10889 λ=3.25<br />

y0=0.10889 λ=5.5<br />

y0=0.10889 λ=7.75<br />

y0=0.10889 λ=10<br />

Numerische<br />

Mathemtik<br />

max on ellipse ρ<br />

250<br />

200<br />

150<br />

100<br />

50<br />

max on ellipse ρ<br />

300<br />

250<br />

200<br />

150<br />

100<br />

50<br />

0<br />

0 5 10 15<br />

ρ<br />

0<br />

0 5 10 15<br />

ρ<br />

Fehler im Endzeitpunkt für globalen Schritt des Gauss-Kollokations-Einschrittverfahrens:<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

2.2<br />

p. 218


λ = 5.5:<br />

Fehler zum Zeitpunkt T=1, λ=5.5<br />

Numerische<br />

Mathemtik<br />

10 0 Polynomgrad = Stufenzahl s<br />

10 −2<br />

10 −4<br />

y0=0.01 ρ=0.17504<br />

y0=0.188 ρ=0.28951<br />

y0=0.366 ρ=0.23427<br />

y0=0.544 ρ=0.24882<br />

y0=0.722 ρ=0.21761<br />

y0=0.9 ρ=0.2343<br />

|y h<br />

(1)−y(1)|<br />

10 −6<br />

10 −8<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

10 −10<br />

10 −12<br />

0 5 10 15<br />

2.2<br />

p. 219


λ = 10:<br />

Fehler zum Zeitpunkt T=1, λ=10<br />

Numerische<br />

Mathemtik<br />

10 0 Polynomgrad = Stufenzahl s<br />

10 −2<br />

10 −4<br />

y0=0.01 ρ=0.23988<br />

y0=0.188 ρ=0.21673<br />

y0=0.366 ρ=0.21077<br />

y0=0.544 ρ=0.21413<br />

y0=0.722 ρ=0.20035<br />

y0=0.9 ρ=0.23234<br />

|y h<br />

(1)−y(1)|<br />

10 −6<br />

10 −8<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

10 −10<br />

10 −12<br />

0 5 10 15<br />

✸<br />

2.2<br />

p. 220


In <strong>Beispiel</strong> 2.2.83 konnten wir uns für die Bestimmung des Analytizitätsgebiets auf die explizit<br />

gegebene Lösung des AWP stützen, um die exponentielle Konvergenz des globalen Gauss-<br />

Kollokationsverfahrens zu bestätigen.<br />

Numerische<br />

Mathemtik<br />

Im Allgemeinen fehlt diese Information. Dennoch sind Aussagen über das Analytizitätsgebiet der<br />

Lösungen von AWP für Differentialgleichungen in C mit lokal holomorpher rechter Seite möglich:<br />

✬<br />

Theorem 2.2.85 (Existenz- und Eindeutigkeitssatz für Dgl. in C). → [32, Kap. I, §8]<br />

Ist f : D ⊂ C ↦→ C in einer Umgebung B ρ (z 0 ) := {z ∈ C : |z − z 0 | < ρ} ⊂ D von<br />

z 0 ∈ D holomorph und|f(z)| ≤ M für allez ∈ B ρ (z 0 ), dann existiert genau eine aufB ρ/M (0)<br />

holomorphe Lösungy des Anfangswertproblems<br />

✩<br />

✎<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

y ′ (z) = f(y(z)) ∀z ∈ B ρ/M (0) , y(0) = z 0 .<br />

✫<br />

Notation:<br />

′ ˆ= komplexe Differentiation<br />

✪<br />

Wenn f(z) ∈ R für z ∈ R und y 0 ∈ R dann stimmt die vom Theorem postulierte lokal holomorphe<br />

Lösung des komplexen AWP für reelle Argumente natürlich mit der Lösung gemäss Theorem 1.3.4<br />

überein.<br />

2.3<br />

p. 221


2.3 Runge-Kutta-Verfahren<br />

Numerische<br />

Mathemtik<br />

Nachteil der Kollokationseinschrittverfahren: Alle (mit Ausnahme des expliziten Euler-Verfahrens) sind<br />

implizit (→ Def. 2.1.5)<br />

Gibt es explizite Einschrittverfahren höhererOrdnung? Wenn ja, wie findet man diese?<br />

2.3.1 Konstruktion<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

AWP:<br />

ẏ(t) = f(t,y(t)) ,<br />

y(t 0 ) = y 0<br />

⇒ y(t 1 ) = y 0 +<br />

∫ t1<br />

Approximation durch Quadraturformel (auf[0,1]) mitsKnotenc 1 ,...,c s :<br />

t 0<br />

f(τ,y(t 0 +τ))dτ<br />

y(t 1 ) ≈ y 1 ( = y h (t 1 )) = y 0 +h<br />

Wie bekommt man diese Werte ?<br />

s∑<br />

b i f(t 0 +c i h, y(t 0 +c i h) ) , h := t 1 −t 0 .<br />

i=1<br />

✄ Bootstrapping<br />

2.3<br />

p. 222


<strong>Beispiel</strong> 2.3.1 (Konstruktion einfacher Runge-Kutta-Verfahren).<br />

Numerische<br />

Mathemtik<br />

Quadraturformel→Trapezregel:<br />

auf Intervall[a,b]<br />

Q(f) = 1 2 (b−a)(f(a)+f(b)) ↔ s = 2: c 1 = 0,c 2 = 1 , b 1 = b 2 = 1 2 , (2.3.2)<br />

undy h (T) aus explizitem Eulerschritt (1.4.2)<br />

k 1 = f(t 0 ,y 0 ) , k 2 = f(t 0 +h,y 0 +hk 1 ) , y 1 = y 0 + h 2 (k 1+k 2 ) . (2.3.3)<br />

(2.3.3) = explizite Trapezregel<br />

Quadraturformel → einfachste Gauss-Quadraturformel (Mittelpunktsregel) & y h ( 1 2 (t 1 + t 0 )) aus<br />

explizitem Eulerschritt (1.4.2)<br />

k 1 = f(t 0 ,y 0 ) , k 2 = f(t 0 + h 2 ,y 0 + h 2 k 1) , y 1 = y 0 +hk 2 . (2.3.4)<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

(2.3.4) = explizite Mittelpunktsregel<br />

✸<br />

Diskrete Evolutionen der Form (2.2.3)<br />

2.3<br />

p. 223


Definition 2.3.5 (Runge-Kutta-Verfahren).<br />

Fürb i ,a ij ∈ R,c i := ∑ s<br />

j=1 a ij ,i,j = 1,...,s,s ∈ N, definiert<br />

Numerische<br />

Mathemtik<br />

k i := f(t 0 +c i h,y 0 +h<br />

s∑<br />

a ij k j ) , i = 1,...,s , Ψ t 0,t 0 +h y 0 := y 0 +h<br />

j=1<br />

s∑<br />

b i k i ,<br />

ein s-stufiges Runge-Kutta-Einschrittverfahren (RK-ESV) für AWP (1.1.13) mit Inkrementen<br />

k i ∈ R d .<br />

i=1<br />

➣ Verallgemeinerung der Kollokationsverfahren→Sect. 2.2<br />

(doch keine konkrete Konstruktionsvorschrift !)<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Fallsa ij = 0 füri ≤ j Explizites Runge-Kutta-Verfahren→Def. 2.1.5<br />

Kurznotation für Runge-Kutta-Verfahren:<br />

Butcher-Schema<br />

✄<br />

c A<br />

b T :=<br />

c 1 a 11 ··· a 1s<br />

.<br />

.<br />

c s a s1 ··· a ss<br />

b 1 ··· b s<br />

. (2.3.6)<br />

.<br />

2.3<br />

p. 224


A echte untere Dreiecksmatrix<br />

A untere Dreiecksmatrix<br />

➤ explizites Runge-Kutta-Verfahren<br />

➤ diagonal-implizites Runge-Kutta-Verfahren (DIRK)<br />

Numerische<br />

Mathemtik<br />

Bemerkung 2.3.7 (Stufenform der Inkrementgleichungen).<br />

Fürs-stufiges Runge-Kutta-Einschrittverfahren (RK-ESV),→Def. 2.3.5, definiere (Annahme: eindeutige<br />

Lösbarkeit der Inkrementgleichungen)<br />

s∑<br />

Stufen (engl. stages:) g i = y 0 +h a ij k j , i = 1,...,s ⇒ k i = f(t 0 +c i h,g i ) .<br />

j=1<br />

(2.3.8)<br />

Stufengleichungen<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

s∑<br />

g i = y 0 +h a ij f(t 0 +c j h,g j ) , i = 1,...,s . (2.3.9)<br />

j=1<br />

△<br />

2.3<br />

p. 225


Interpretation: Runge-Kutta-Verfahren ↔ Polygonzugapproximation der Lösungskurve<br />

→ Sect. 1.4<br />

Numerische<br />

Mathemtik<br />

Anzahlb i ≠ 0 ˆ= Anzahl der Teilstrecken im Polygonzug<br />

b i ,i = 1,...,s−1 ˆ= relative Länge desi. Teilintervalls<br />

k i ˆ= „Steigung” deri. Teilstrecke<br />

c i ˆ= relativer Zeitpunkt (in[t k ,t k+1 ]) für Auswertung deri. Abschnittsteigung<br />

<strong>Beispiel</strong> 2.3.10 (Explizite Runge-Kutta-Polygonzugapproximation für Ricatti-Differentialgleichung).<br />

→ Bsp 1.1.3<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Anfangswertproblem: ẏ = t 2 +y 2 ,y(0) = 0.2.<br />

Geometrische Interpretation von expliziten RK-ESV als Polygonzugverfahren → Verallgemeinerung<br />

des expliziten Euler-Verfahrens, siehe Sect. 1.4.1, Fig. ??.<br />

2.3<br />

p. 226


grün<br />

Explizite Mittelpunktsregel:<br />

0 0 0<br />

1<br />

2<br />

1<br />

2<br />

0<br />

0 1<br />

Lösungskurven<br />

1<br />

0.8<br />

0.6<br />

yy(T)<br />

0.4<br />

Numerische<br />

Mathemtik<br />

magenta Abschnittsteigungenk i<br />

∗<br />

rot:<br />

Punktef-Auswertung<br />

Polygonzug<br />

0.2<br />

0<br />

y 0<br />

k 1<br />

k 2<br />

R. Hiptmair<br />

0 0.2 0.4 0.6 0.8 1<br />

t<br />

rev 35327,<br />

25. April<br />

2011<br />

2.3<br />

p. 227


1<br />

Numerische<br />

Mathemtik<br />

grün:<br />

Explizite Trapezregel<br />

0 0 0<br />

1 1 0<br />

1<br />

2 1 2<br />

Lösungskurven<br />

y<br />

0.8<br />

0.6<br />

0.4<br />

y(T)<br />

magenta: Abschnittsteigungenk i<br />

∗: Punktef-Auswertung<br />

rot: Polygonzug<br />

0.2<br />

0<br />

y 0<br />

k 1<br />

k 2<br />

R. Hiptmair<br />

0 0.2 0.4 0.6 0.8 1<br />

t<br />

rev 35327,<br />

25. April<br />

2011<br />

2.3<br />

p. 228


Klassisches Runge-Kutta-Verfahren<br />

grün<br />

(RK4)<br />

0 0 0 0 0<br />

1<br />

2<br />

1<br />

2<br />

0 0 0<br />

1<br />

2<br />

0 1 2 0 0<br />

1 0 0 1 0<br />

1<br />

6 2 6 2 6 1 6<br />

Lösungskurven<br />

magenta Abschnittsteigungenk i<br />

∗<br />

Punktef-Auswertung<br />

(2.3.11)<br />

y<br />

1<br />

0.8<br />

0.6<br />

0.4<br />

0.2<br />

0<br />

rot: Polygonzug<br />

0 0.2 0.4 0.6 0.8 1<br />

t<br />

y(T)<br />

Numerische<br />

Mathemtik<br />

k 4<br />

k 3<br />

y 0<br />

k 1<br />

k 2<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

2.3<br />

p. 229


Kuttas 3/8-Regel<br />

1<br />

Numerische<br />

Mathemtik<br />

grün<br />

0 0 0 0 0<br />

1 1<br />

3 3<br />

0 0 0<br />

2<br />

3 −1 3<br />

1 0 0<br />

1 1 −1 1 0<br />

1<br />

8<br />

3<br />

8<br />

3<br />

8 1 8<br />

Lösungskurven<br />

magenta Abschnittsteigungenk i<br />

(2.3.12)<br />

y<br />

0.8<br />

0.6<br />

0.4<br />

0.2<br />

y 0<br />

y(T)<br />

∗<br />

rot:<br />

Punktef-Auswertung<br />

Polygonzug<br />

0<br />

k 1<br />

k 2<br />

k 3<br />

k 4<br />

✸<br />

0 0.2 0.4 0.6 0.8 1<br />

t<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Bemerkung 2.3.13 (Affin-Kovarianz der Runge-Kutta-Verfahren).<br />

2.3<br />

p. 230


Wie reagiert ein Runge-Kutta -ESV auf einen Basiswechsel im Zustandsraum (→ Sect. 1.3.2,<br />

(1.3.12))?<br />

Numerische<br />

Mathemtik<br />

FürS ∈ R d,d regulär,ŷ := S −1 y Ψ, ̂Ψ aus RK-Verfahren (→ Def. 2.3.5)<br />

Ψ s,t<br />

h<br />

= Diskrete Evolution zu ẏ = f(t,y) ,<br />

̂Ψ s,t<br />

h = Diskrete Evolution zu ˙ŷ = ̂f(t,ŷ) → (1.3.12)<br />

ŜΨ s,t<br />

h S −1 y = Ψ s,t<br />

h y .<br />

(2.3.14)<br />

Dazu zeigt man, dass die Inkremente k i und transformierten Inkremente Ŝk i S −1 eines Runge-<br />

Kutta-ESV angewandt auf die ODEs ẏ = f(t,y), bzw. ˙ŷ = ̂f(t,ŷ) = S −1 f(t,Sŷ) die gleichen<br />

Gleichungen erfüllen. Wegen deren eindeutiger Lösbarkeit für hinreichend kleines h > 0 folgt k i =<br />

Ŝk i S −1 ,i = 1,...,s.<br />

Die obige Aussage lässt sich auch durch ein kommutierendes Diagramm ausdrücken<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

ẏ = f(t,y)<br />

⏐<br />

↓<br />

RK-ESV<br />

Basistransformation ŷ:=S −1 y<br />

−−−−−−−−−−−−−−−−−−→ ˙ŷ =̂f(t,ŷ)<br />

⏐<br />

⏐<br />

↓RK-ESV<br />

(y k ) k<br />

Basistransformation ŷ k :=S −1 y k<br />

−−−−−−−−−−−−−−−−−−−→ (ŷ k ) k .<br />

☞ Affin-Kovarianz drückt die Erhaltung einer einfachen algebraischen Struktur der Lösungsmenge<br />

eines AWP aus.<br />

2.3<br />

p. 231


Bemerkung 2.3.15 (Autonomisierungsinvarianz von Runge-Kutta-Verfahren).<br />

Eine weitere Transformation einer ODE: Autonomisierung → Bem. 1.1.7<br />

△<br />

Numerische<br />

Mathemtik<br />

Auch hier stellt sich die Frage, wann “RK-ESV mit Autonomisierung kommutieren”, vgl. Bem. 2.3.13.<br />

( ( )<br />

y y<br />

s)<br />

s)<br />

Autonomisierung:<br />

ẏ = f(t,y) ,<br />

y(t 0 ) = y 0<br />

⇒ ż :=<br />

▼<br />

˙<br />

=<br />

( ) f(s,y)<br />

1<br />

Evolutionen: Φ t,t+h ↔ ̂Φ h ,<br />

Diskrete Evl.: Ψ t,t+h<br />

h<br />

↔ ̂Ψ h h .<br />

Wunsch:<br />

(<br />

Φ t,t+h )<br />

y<br />

t+h<br />

▼<br />

=: g<br />

= ̂Φ h( )<br />

y<br />

(Ψ t,t+h<br />

) (<br />

h<br />

y<br />

=<br />

t t+h<br />

̂Ψ h y<br />

h t)<br />

,<br />

(<br />

y(0)<br />

s(0)<br />

(2.3.16) kann wieder durch durch ein kommutierendes Diagramm ausgedrückt werden:<br />

=<br />

(<br />

y0<br />

t 0<br />

)<br />

. (2.3.16)<br />

.<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

ẏ = f(t,y)<br />

⏐<br />

↓<br />

RK-ESV<br />

Autonomisierung<br />

−−−−−−−−−−→ ż = g(z)<br />

⏐<br />

⏐<br />

↓RK-ESV<br />

(y k ) k<br />

ŷ k :=( y k tk<br />

)<br />

−−−−−−→ (ŷ k ) k .<br />

2.3<br />

p. 232


Nun wollen wir Bedingungsgleichungen für die Koeffizienten a ij und b i des RK-ESV (→ Def. 2.3.5)<br />

herleiten, so dass (2.3.16) gilt.<br />

̂Ψ h h<br />

( y<br />

t)<br />

( ∑ y+h si=1<br />

)<br />

b<br />

= îk i<br />

t+h ∑ s<br />

i=1 b îκ i<br />

,<br />

) (̂k i<br />

̂κ i<br />

=<br />

(<br />

f(t+h ∑ s<br />

j=1 a iĵκ j ,y+h ∑ )<br />

s<br />

j=1 a iĵk j )<br />

1<br />

.<br />

Numerische<br />

Mathemtik<br />

c i = ∑ s<br />

j=1 a ij<br />

&<br />

∑ si=1<br />

b i = 1 ̂k i = k i . (2.3.17)<br />

= Hinreichende + notwendige Bedingungen für Autonomisierungsinvarianz eines RK-Verfahrens<br />

Darumc i = ∑ s<br />

j=1 a ij in Def. 2.3.5 !<br />

✄ Analyse von autonomisierungsinvarianten RK-Verfahren kann sich auf autonome Probleme beschränken.<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

△<br />

2.3<br />

p. 233


Bemerkung 2.3.18 (“Dense output”).<br />

[17, Sect. II.5]<br />

Numerische<br />

Mathemtik<br />

Runge-Kutta-Einschrittverfahren (→ Def. 2.3.5) liefern Gitterfunktionen G ↦→ R d als Näherung von<br />

t ↦→ y(t) in diskreten Zeitpunkten.<br />

Was, wenn Näherungen füry(t) zu anderen Zeitpunkten/überall auf[0,T] gebraucht werden ?<br />

Ziel:<br />

Stückweise polynomiale Definition vont ↦→ y h (t)<br />

Interpolationseigenschaft y h (t k ) = y k ,k = 0,...,N<br />

y h|[tk ,t berechenbar k+1<br />

ausy k ,y k+1 und Inkrementen imk. Schritt<br />

mit Polynomenp 0 ,p 1 ,q i : R ↦→ R.<br />

y h (t k +ξh k ) = p 0 (ξ)y k +p 1 (ξ)y k+1 +<br />

s∑<br />

q(ξ)k i , 0 ≤ ξ ≤ 1 ,<br />

i=1<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Wunsch: Für RK-ESV der Ordnungp ➣<br />

max ‖y(t)−y h(t)‖ = O(h p )<br />

0≤t≤T<br />

△<br />

Bemerkung 2.3.19 (Lösung der Inkrementgleichungen). → [8, Sect. 6.2.2]<br />

2.3<br />

p. 234


Inkrementgleichungen für implizites RW-ESV (→ Def. 2.3.5) = (i.a. nichtlineares) Gleichungssystem<br />

mits·d Unbekannten<br />

Numerische<br />

Mathemtik<br />

Im autonomen Fall (vgl. Beweis von Lemma 2.2.7)<br />

k i := f(y 0 +h<br />

s∑<br />

a ij k j )<br />

j=1<br />

k i =f(y 0 +g i )<br />

⇐⇒<br />

g i = h<br />

s∑<br />

a ij f(y 0 +g j ) , i = 1,...,s . (2.3.20)<br />

Die Grössen g i + y 0 heissen auch Stufen (engl. stages) des Runge-Kutta-Verfahrens, siehe<br />

Bem. 2.3.7. Daher heisst die Formulierung der Inkrementgleichungen mit Hilfe der g i wie in (2.3.20)<br />

auch deren Stufenform.<br />

j=1<br />

➣ iterative Lösung mit vereinfachtem Newton-Verfahren („eingefrorene” Jacobi-Matrix)<br />

! Effizienz: Minimiere Anzahl vonf,Df-Auswertungen<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Mit g = (g 1 ,...,g s ) T ∈ R s·d definiere<br />

⎛<br />

h s ⎞<br />

∑<br />

a 1j f(y 0 +g j )<br />

j=1<br />

F(g) := g−<br />

.<br />

⎜<br />

⎝ ∑<br />

h s ⎟<br />

a sj f(y 0 +g j )<br />

⎠<br />

j=1<br />

⇒ {(2.3.20) ⇔ F(g) = 0} . (2.3.21)<br />

2.3<br />

p. 235


h „klein” ➣ Natürliche Anfangsnaḧerung für vereinfachte Newton-Iteration: g (0) = 0<br />

Numerische<br />

Mathemtik<br />

DF(g (0) ) =<br />

Vereinfachte Newton-Iteration<br />

⎛<br />

⎞<br />

I−ha 11 Df(y 0 ) −ha 12 Df(y 0 ) ··· −ha 1s Df(y 0 )<br />

⎜ −ha 21 Df(y 0 ) I−ha 22 Df(y 0 ) .<br />

⎟<br />

⎝ . ... . ⎠ .<br />

−ha s1 Df(y 0 ) ··· −ha s,s−1 Df(y 0 ) I−ha ss Df(y 0 )<br />

g (0) = 0 , g (k+1) = g (k) −DF(0) −1 F(g (k) ) , k = 0,1,2,... .<br />

Wiedergewinnung der Inkremente k i aus g i : betrachte l. Komponente, l = 1,...,d. Mit g i =<br />

(g i,1 ,...,g i,d ) T ∈ R d s∑ ) d ( ) d<br />

g i,l = h a ij k j,l ⇐⇒<br />

(g i,l<br />

l=1 = hA k i,l<br />

l=1 .<br />

j=1<br />

A regulär ➣ k i durch Lösen vonslinearen Gleichungssystemen mit KoeffizientenmatrixA.<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Natürlich kann das vereinfachte Newton-Verfahren auch auf die Standardform der Inkrementgleichungen<br />

aus Def. 2.3.5 angewandt werden.<br />

2.3<br />

p. 236


△<br />

Numerische<br />

Mathemtik<br />

2.3.2 Konvergenz<br />

<strong>Beispiel</strong> 2.3.22 (Konvergenz expliziter Runge-Kutta-Verfahen).<br />

Skalare logistische Differentialgleichung (1.2.2),λ = 10,y(0) = 0.01,T = 1<br />

Explizite Runge-Kutta-Einschrittverfahren, uniforme Zeitschrittweiteh<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

2.3<br />

p. 237


1<br />

0.9<br />

0.8<br />

0.7<br />

y(t)<br />

Explicit Euler<br />

Explicit trapezoidal rule<br />

Explicit midpoint rule<br />

RK4 method<br />

10 0 h<br />

10 −2<br />

Numerische<br />

Mathemtik<br />

y<br />

0.6<br />

0.5<br />

0.4<br />

0.3<br />

|y h<br />

(1)−y(1)|<br />

10 −4<br />

10 −6<br />

0.2<br />

0.1<br />

0<br />

0 0.2 0.4 0.6 0.8 1<br />

t<br />

Fig. 75<br />

y h (j/10),j = 1,...,10 für explizite RK-Verfahren<br />

10 −8<br />

s=1, Explicit Euler<br />

s=2, Explicit trapezoidal rule<br />

s=2, Explicit midpoint rule<br />

s=4, RK4 method<br />

10 −2 10 −1 10 0<br />

Konvergenz des Fehlersy h (1)−y(1)<br />

✸<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Viele unserer Resultate über Kollokationsverfahren (→ Sect. 2.2) bleiben gültig für die allgemeinere<br />

Klasses der Runge-Kutta-Einschrittverfahren (mit im wesentlichen den gleichen Beweisen):<br />

✗<br />

✖<br />

Lemmas 2.2.7, 2.2.13 bleiben gültig für Runge-Kutta-Einschrittverfahren aus Def. 2.3.5<br />

✔<br />

✕<br />

2.3<br />

p. 238


✬<br />

✩<br />

Lemma 2.3.23 (Konsistenz von Runge-Kutta-Einschrittverfahren).<br />

Unter den Voraussetzungen von Lemma 2.2.7 ist ein Runge-Kutta-Einschrittverfahren (→<br />

Def. 2.3.5) konsistent (→ Def. 2.1.8) genau dann, wenn ∑ s<br />

i=1 b i = 1.<br />

✫<br />

✪<br />

Numerische<br />

Mathemtik<br />

Frage: Wann ist ein Runge-Kutta-Verfahren konsistent (⇒ konvergent, Thm. 2.1.19)<br />

von der Ordnungp?<br />

⇕<br />

(Konsistenz-)Bedingungsgleichungen für Koeffizientena ij ,b i<br />

Hilfsmittel zum Aufstellen<br />

der Bedingungsgleichungen<br />

: Taylor-Entwicklung (des Konsistenzfehlersτ(t,y,h)→Dff. 2.1.11)<br />

Annahme:<br />

f “hinreichend glatt”<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

<strong>Beispiel</strong> 2.3.24 (RK-Bedingungsgleichungen für Konsistenzordnung).p = 3] [8, Sect. 4.2.2]<br />

2.3<br />

p. 239


Konsistenzfehler:<br />

τ(t,y,h) := (Φ t,t+h −Ψ t,t+h )y (h hinreichend klein);.<br />

Numerische<br />

Mathemtik<br />

Fokus: autonome Differentialgleichung ẏ = f(y),f “hinreichend glatt”<br />

Fixiere Anfangswerty 0 ∈ D, O.B.d.A. t 0 = 0 (vgl. Bem. 1.1.15)<br />

➊ Taylorentwicklung der kontinuierlichen Evolution inhumh = 0:<br />

mit<br />

ẏ(0) = f(y 0 ) ,<br />

Φ h y 0 = y(h) = y 0 +ẏ(0)h+ 1 2ÿ(0)h2 + 1 6 y(3) (0)h 3 +O(h 4 ) , (2.3.25)<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

ÿ(0) = Df(y 0 )ẏ(0) = Df(y 0 )f(y 0 ) ,<br />

y (3) (0) = D 2 f(y 0 )(ẏ(0),ẏ(0))+Df(y 0 )ÿ(0) = D 2 f(y 0 )(f(y 0 ),f(y 0 ))+Df(y 0 )Df(y 0 )f(y 0 ) .<br />

Für analoge Überlegungen siehe auch Bsp. 2.1.15.<br />

2.3<br />

p. 240


Φ h y 0 = y 0 +hf(y 0 )+ 1 2 h2 Df(y 0 )f(y 0 )+<br />

1<br />

6<br />

h 3 (Df(y 0 )Df(y 0 )f(y 0 )+D 2 f(y 0 )(f(y 0 ),f(y 0 )))+O(h 4 ) .<br />

(2.3.26)<br />

Numerische<br />

Mathemtik<br />

➋ Taylorentwicklung der diskreten Evolution inhumh = 0<br />

⇕<br />

Taylorentwicklung der Inkrementek i inhumh = 0<br />

k i = f(y 0 +h<br />

s∑<br />

a ij k j ) =<br />

j=1<br />

⎛<br />

= f(y 0 )+hDf(y 0 ) ⎝<br />

s∑<br />

j=1<br />

⎞ ⎛<br />

a ij k j<br />

⎠+ 1 2 h2 D 2 f(y 0 ) ⎝<br />

s∑<br />

a ij k j ,<br />

j=1<br />

Einsetzen „kürzerer Taylorentwicklungen” anstelle der Inkremente<br />

s∑<br />

j=1<br />

a ij k j<br />

⎞<br />

⎠+O(h 3 )<br />

(2.3.27)<br />

Inkremente werden mithmultipliziert !<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

2.3<br />

p. 241


k i =f(y 0 )+hDf(y 0 )<br />

⎛<br />

1<br />

2<br />

h 2 D 2 f(y 0 ) ⎝<br />

=f(y 0 )+h<br />

s∑<br />

j=1<br />

a ij<br />

⎛<br />

⎝f ( y 0 +hDf(y 0 )<br />

s∑<br />

a ij (f(y 0 )+O(h)),<br />

j=1<br />

·∑s<br />

j=1 a ij<br />

} {{ }<br />

=c i , siehe Bem. 2.3.15<br />

⎞<br />

s∑<br />

a il k l +O(h 2 ) ) ⎠+<br />

l=1<br />

⎞<br />

s∑<br />

a ij (f(y 0 )+O(h)) ⎠+O(h 3 )<br />

j=1<br />

Df(y 0 )f(y 0 )+<br />

h 2( ∑ s )<br />

a il c l Df(y0 )Df(y 0 )f(y 0 )+h 21 2 c2 i D2 f(y 0 )(f(y 0 ),f(y 0 ))+O(h 3 ) .<br />

l=1<br />

Numerische<br />

Mathemtik<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

2.3<br />

p. 242


Beachte: Ψ h y 0 = y 0 +h<br />

➌<br />

Ψ h y 0 = y 0 +<br />

⎛<br />

⎛<br />

⎝h<br />

s∑<br />

b i k i ➤<br />

i=1<br />

s∑<br />

i=1<br />

⎝h 3 ∑ s s∑<br />

b i<br />

i=1<br />

b i<br />

⎞<br />

⎠f(y 0 )+<br />

j=1<br />

Entwicklung bisO(h 3 ) ausreichend<br />

⎛<br />

⎝h 2 s ∑<br />

i=1<br />

b i c i<br />

⎞<br />

⎠Df(y 0 )f(y 0 )+<br />

a ij c j<br />

⎞<br />

⎠Df(y 0 )Df(y 0 )f(y 0 )+<br />

⎛ ⎞<br />

⎝1<br />

2<br />

h 3 ∑ s b i c 2 i<br />

⎠D 2 f(f(y 0 ),f(y 0 ))+O(h 4 ) .<br />

i=1<br />

Gleichsetzen der Koeffizienten der linear unabhängigen elementaren Differentiale<br />

in (2.3.28) und (2.3.26)<br />

1,f(y 0 ),Df(y 0 )f(y 0 ),Df(y 0 )Df(y 0 )f(y 0 ),D 2 f(y 0 )(f(y 0 ),f(y 0 ))<br />

(2.3.28)<br />

Numerische<br />

Mathemtik<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Hinreichende & notwendige Bedingungsgleichungen für Konsistenzordnung p = 3 eines<br />

(autonomisierungsinvarianten→ Rem. 2.3.15) RK-Verfahrens:<br />

s∑<br />

b i = 1 , (2.3.29)<br />

i=1<br />

2.3<br />

p. 243


s∑<br />

b i c i = 1 2 , (2.3.30)<br />

i=1<br />

s∑<br />

b i c 2 i = 1 3 ,<br />

i=1<br />

s∑ s∑<br />

b i a ij c j = 1 (2.3.31)<br />

6 .<br />

i=1 j=1<br />

☞ (2.3.29) hinreichend & notwendig für Konsistenzordnungp = 1, siehe Lemma 2.3.23<br />

Numerische<br />

Mathemtik<br />

☞ (2.3.29) + (2.3.30) hinreichend & notwendig für Konsistenzordnungp = 2<br />

✸<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Bemerkung 2.3.32 (Butcher-Bäume).<br />

Allgemeiner kombinatorischer Algorithmus zum Aufstellen der RK-Bedingungsgleichungen: Butcher-<br />

Bäume [8, Sect. 4.2.3], [16, Ch. III]<br />

△<br />

2.3<br />

p. 244


➞<br />

Konstruktion von RK-Verfahren vorgegebener Konvergenzordnung durch Lösen der (nichtlinearen)<br />

Bedingungsgleichungen (vom Typ (2.3.29)-(2.3.31)):<br />

p 1 2 3 4 5 6 7 8 9 10 20<br />

♯B.G. 1 2 4 8 17 37 85 200 486 1205 20247374<br />

Numerische<br />

Mathemtik<br />

Einige Konvergenzordnungen von Runge-Kutta-Verfahren:<br />

Explizite Verfahren<br />

Expliztes Eulerverfahren (2.2.1) p = 1<br />

Explizite Trapezregel (2.3.3) p = 2<br />

Explizite Mittelpunktsregel (2.3.4) p = 2<br />

Klassisches Runge-Kutta-V. (2.3.11) p = 4<br />

Kuttas3/8-Regel (2.3.12) p = 4<br />

Implizite Verfahren<br />

Implizites Eulerverfahren (2.2.1) p = 1<br />

Implizite Mittelpunktsregel (2.2.19) p = 2<br />

Gauss-Kollokationsverfahren p = 2s<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Viele weitere RK-Verfahren ✄ [17, 18]<br />

Ordnungsschranken:<br />

Für explizite Runge-Kutta-Verfahren p ≤ s<br />

Für allgemeine Runge-Kutta-Verfahren p ≤ 2s<br />

➣ Gauss-Kollokationsverfahren realisieren maximale Ordnung<br />

2.3<br />

p. 245


Numerische<br />

Mathemtik<br />

Bemerkung 2.3.33 (“Butcher barriers” für explizite RK-ESV).<br />

Ordnungp 1 2 3 4 5 6 7 8 ≥ 9<br />

Minimale Stufenzahls 1 2 3 4 6 7 9 11 ≥ p+3<br />

Eine allgemeine Formel für die minimale Stufenzahl konnte bisher nicht hergeleitet werden.<br />

△<br />

Bemerkung 2.3.34 (Warum Einschrittverfahren hoher Ordnung?).<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Die allgemeine Konvergenztheorie von Einschrittverfahren aus Abschnitt 2.1.3 liefert uns bei hinreichender<br />

Glattheit der Lösung eines Anfangswertproblems die asymptotische Fehlerabschätzung<br />

err(G) := max<br />

k=1,...,N ‖y k −y(t k )‖ ≤ Ch p G für h G hinreichend klein, (2.3.35)<br />

siehe Thm. 2.1.19, wobei die Konstante C > 0 nicht von der maximalen Zeitschrittweite h G > 0<br />

abhängt, aber in der Regel nicht bekannt ist.<br />

2.3<br />

p. 246


Daher können wir aus (2.3.35) in der Regel keine Aussage über den Integrationsfehler auf einem<br />

konkreten Zeitgitter machen (→ Diskussion am Ende von Abschnitt 2.1.1) und auch nicht die Zeitschrittweite<br />

vorhersagen, die erforderlich ist, um eine gewünschte Genauigkeit zu erreichen.<br />

Numerische<br />

Mathemtik<br />

Wie bereits bemerkt erlaubt die Abschätzung (2.3.35) unter der Annahme, dass sie scharf ist, nur die<br />

Vorhersage<br />

welche Reduktion des Integrationsfehlers bei Verringerung der Zeitschrittweite zu erwarten ist.<br />

Annahme:<br />

Abschätzung (2.3.35) ist scharf<br />

Dann lässt sich vorhersagen, welcher Gewinn an Genauigkeit durch zusätzlichen Rechenaufwand für<br />

die numerische Integration eines AWP zu erzielen ist.<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Konvention: Rechenaufwand ∼ Gesamtzahl derf-Auswertungen<br />

➣ Fürs-stufiges Runge-Kutta-Einschrittverfahren (→ Def. 2.3.5):<br />

Rechenaufwand ∼ s·Anzahl(Schritte) ∼ Csh −1 mit einer KonstantenC > 0<br />

für uniformes Zeitgitter, Zeitschrittweiteh > 0<br />

2.3<br />

p. 247


Ziel: vorgegebene Reduktion des Fehlers: für0 < ρ < 1<br />

err(G neu )<br />

err(G alt )<br />

!<br />

= ρ<br />

(2.3.35)<br />

=⇒ hp neu<br />

h p alt<br />

!<br />

= ρ ⇔ h neu = ρ 1 /p h alt .<br />

Numerische<br />

Mathemtik<br />

Faustregel für ein RK-ESV der (Konsistenz- = Konvergenz-)Ordnungp ∈ N (uniformer Zeitschritt)<br />

✛<br />

✘<br />

Erhöhung des Rechenaufwands um Faktorρ − 1/p<br />

Erwarte Fehlerreduktion im Faktorρ<br />

✚<br />

✙<br />

☞<br />

Je höher die Ordnung, desto weniger relativer Zusatzaufwand ist für eine Reduktion des Fehler<br />

um einen vorgegebenen Faktor erforderlich.<br />

△<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

2.4<br />

p. 248


2.4 Extrapolationsverfahren [8, Sect. 4.3]<br />

Numerische<br />

Mathemtik<br />

2.4.1 Der Kombinationstrick<br />

Einschrittverfahren für Anfangswertproblem<br />

ẏ = f(t,y) , y(t 0 ) = y 0 , (t 0 ,y 0 ) ∈ Ω , ((1.1.13))<br />

betrachtet auf[t 0 ,T], liefert Gitterfunktiony G = (y k ) N k=1 als Lösung:y k ≈ y(t k ),t N = T .<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Bei äquidistanter Zeitschrittweiteh > 0, schreiben wir auchy h (t k ) := y k , alsoy h (T) = y N .<br />

Sect. 2.1.3: Einschrittverfahren fürẏ = f(y), konvergent von Ordnungp<br />

∃C > 0: ‖y h (T)−y(T)‖ ≤ Ch p fürh → 0, N = T/h ∈ N .<br />

2.4<br />

p. 249


(Annahme: Äquidistante Zeitschritte der Längeh > 0)<br />

Spekulation: ∃c ∈ R d : y h (T)−y(T) = ch p +O(h p+1 ) fürh → 0 . (2.4.1)<br />

Numerische<br />

Mathemtik<br />

y h (T)−y(T) = ch p +O(h p+1 )<br />

y h /2 (T)−y(T) = c2−p h p +O(h p+1 )<br />

(I)<br />

(II)<br />

(I)-2 p·(II): y h (T)−2 p y h /2 (T)−(1−2p )y(T) = O(h p+1 ) ,<br />

⇒<br />

y h (T)−2 p y h /2 (T)<br />

1−2 p −y(T) = O(h p+1 ) .<br />

kombiniertes Verfahren, konvergent von Ordnungp+1!<br />

<strong>Beispiel</strong> 2.4.2 (Konvergenz kombinierter Verfahren).<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

AWP für logistische Differentialgleichung (2.2.84): (→ Bsp. 1.2.1)<br />

ẏ = λy(1−y) , y 0 = 0.01 ⇒ y(t) =<br />

1<br />

1+99·e −λt , t ∈ R .<br />

Basisverfahren: Explizites Euler-Verfahren (1.4.2),p = 1<br />

Explizite Trapezregel (2.3.3),p = 2<br />

2.4<br />

p. 250


Logistic ODE on [0;1], y(0) = 0.01, λ = 10<br />

Logistic ODE on [0;1], y(0) = 0.01, λ = 10<br />

10 −3<br />

expl. trapezoidal rule combined<br />

simple expl. trapezoidal rule<br />

O(h 3 )<br />

Numerische<br />

Mathemtik<br />

10 −3<br />

10 −4<br />

|y h<br />

(1)−y(1)|<br />

10 −4<br />

10 −5<br />

|y h<br />

(1)−y(1)|<br />

10 −5<br />

10 −6<br />

10 −7<br />

10 −8<br />

10 −6<br />

10 −7<br />

10 −2 h<br />

Euler combined<br />

simple Euler<br />

O(h 2 )<br />

10 −3 10 −2 10 −1<br />

Euler-Verfahren<br />

Fig. 76<br />

10 −9<br />

10 −10<br />

10 −2 h<br />

10 −3 10 −2 10 −1<br />

Explizite Trapezregel<br />

Fig. 77<br />

✸<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Beachte: Falls h ↦→ y h (T) glatt, Verfahren konvergent von Ordnung p, dann ist (2.4.1) naheliegend:<br />

Taylorentwicklung !<br />

Dies wird in Abschnitt 2.4.3 vertieft.<br />

2.4<br />

p. 251


2.4.2 Extrapolationsidee<br />

Numerische<br />

Mathemtik<br />

Erinnerung (→ Vorlesung „Numerische Methoden”): Romberg-Quadratur (→ [9, Sect. 9.4])<br />

Abstrakter Rahmen:<br />

Problem: Π : X ↦→ R d , gesuchtΠ(x 0 ) für festesx 0 ∈ X,X ˆ= Datenraum<br />

{<br />

Familie numerischer Näherungsverfahen Π h : X ↦→ R d} h ➤ NäherungenΠ h(x o ) ≈ Π(x 0 )<br />

Π h abhängig von skalarem Diskretisierungsparameterh > 0 (z.B. Zeitschrittweite)<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

BerechneΠ h (x 0 ) fürh ∈ {h 1 ,...,h k } („Schrittweitenfolge”,h i > h i+1 )<br />

Berechne Interpolationspolynomp ∈ (P k−1 ) d mit<br />

p(h i ) = Π hi (x 0 ), i = 1,...,k .<br />

Bessere (?) Näherung<br />

Π(x 0 ) ≈ p(0)<br />

2.4<br />

p. 252


<strong>Beispiel</strong> 2.4.3 (Romberg-Quadratur).<br />

Numerische<br />

Mathemtik<br />

Interpretation des abstrakten Rahmens für die Romberg-Quadratur: X = C 0 ([a,b]), a,b ∈ R,<br />

a < b<br />

Π(f) :=<br />

∫b<br />

a<br />

f(x)dx , Π h := h N−1<br />

2 f(a)+h ∑<br />

Π h ˆ= Trapezregel zur numerischen Quadratur<br />

j=1<br />

f(a+j b−a<br />

N )+ h 2 f(b) , h := 1 N ,<br />

Diskretisierungsparameter h =<br />

N 1 , N ∈ N (“Maschenweite” der Trapezregel):<br />

Werte annehmen !<br />

R d<br />

kann nur diskrete<br />

✸<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Visualisierung:<br />

Idee von Extrapolationsverfahren<br />

✄<br />

h ↦→ Π h (x 0 )<br />

Π h1 (x 0 )<br />

Π h2 (x 0 )<br />

exakter Wert<br />

Π(x 0 )<br />

Π h3 (x 0 )<br />

h<br />

2.4<br />

p. 253


Bemerkung 2.4.4 (Skalierungsinvarianz der Extrapolation).<br />

Numerische<br />

Mathemtik<br />

p(t) ∈ P k−1 ˆ= Interpolationspolynom zu(t 1 ,y 1 ),...,(t k ,y k )<br />

˜p(t) ∈ P k−1 ˆ= Interpolationspolynom zu(ξt 1 ,y 1 ),...,(ξt k ,y k ) für einξ ∈ R<br />

p(0) = ˜p(0)<br />

(Wenn p(t) = ∑ s<br />

j=0 a j t j , dann haben alle Polynome p ξ (t) = ∑ s<br />

j=0 a j (ξt) j offensichtlich den gleichen<br />

Wert fürt = 0.)<br />

Es genügt, die Verhältnisse η i := h 1<br />

h i<br />

zu spezifizieren !<br />

△<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Algorithmus: Aitken-Neville-Schema [9, Sect. 9.4] → Vorlesung „Numerische Methoden”<br />

2.4<br />

p. 254


Rekursive Berechnung der Werte von Interpolationspolynomen<br />

fürh = 0,p = 1:<br />

T i1 := Π hi (x 0 ) , i = 1,...,k , (2.4.5)<br />

T il := T i,l−1 + T i,l−1−T i−1,l−1<br />

h i−l+1<br />

h i<br />

−1<br />

Extrapolationstableau<br />

, 2 ≤ l ≤ k .<br />

(2.4.6)<br />

✄<br />

T 11<br />

ց<br />

T 21 → T 22<br />

. ...<br />

T k−1,1 → ··· → T k−1,k−1<br />

ց ց ց<br />

T k1 → ··· → T k,k−1 → T kk<br />

Numerische<br />

Mathemtik<br />

MATLAB-CODE : Aitken-Neville-Extrapolation<br />

function T = anexpol(y,h)<br />

k = length(h);<br />

T(1) = y(1);<br />

for i=2:k<br />

T(i) = y(i);<br />

for l=i-1:-1:1<br />

T(l)=T(l+1)+(T(l+1)-T(l))/...<br />

end<br />

end<br />

(h(l)/h(i)-1);<br />

η l : η i<br />

T(1) T(2) T(3) ··· T(k)<br />

T 11 = y 1<br />

↓<br />

T 22 ← T 21 = y 2<br />

↓ ↓<br />

T 33 ← T 32 ← T 31 = y 3<br />

↓ ↓ ↓<br />

.<br />

.<br />

↓ ↓ ↓<br />

T kk ← T k,k−1 ← ··· ← T k,1<br />

Ausgabe:<br />

unterste Tableauzeile absteigend<br />

.<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

2.4<br />

p. 255


☞<br />

Extrapolation „funktioniert”, wenn<br />

• lim<br />

h→0<br />

Π h (x 0 ) = Π(x 0 ) ˆ= Konvergenz,<br />

•h ↦→ Π h (x 0 ) „sich für kleinehwie ein Polynom verhält.”<br />

Numerische<br />

Mathemtik<br />

Definition 2.4.7 ((Abgeschnittene) asymptotische Entwicklung).<br />

h ↦→ Π h (x 0 ) (x 0 ∈ X fest) besitzt eine (abgeschnittene) asymptotische Entwicklung in h bis<br />

zur Ordnung k, falls es Konstanten (∗) α 0 , α 1 ,...,α k ∈ R d und eine für hinreichend kleine h<br />

gleichmässig beschränkte Funktionh ↦→ R k (h) gibt, so dass<br />

Π h (x 0 ) = α 0 +α 1 h+α 2 h 2 +···+α k h k +R k (h)h k+1 für kleineh > 0 .<br />

(∗)α i Konstanten ˆ=α i unabhängig vonh!<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Klar: Hinreichend & notwendig für Konvergenz: α 0 = Π(x 0 )<br />

2.4<br />

p. 256


✬<br />

✩<br />

Theorem 2.4.8 (Konvergenz extrapolierter Werte).<br />

Π h (x 0 ) besitze asymptotische Entwicklung in h bis zur Ordnung k gemäss Def. 2.4.7. Dann<br />

erfüllen die Werte aus dem Extrapolationstableau, siehe (2.4.5), (2.4.6), für hinreichend kleine<br />

h j > 0<br />

Numerische<br />

Mathemtik<br />

∥<br />

∥T i,l −α 0<br />

∥ ∥∥ ≤ ‖αl ‖h i−l+1·····h i +C ·<br />

wobeiC > 0 nur von den Verhältnissenh i : h j abhängt.<br />

i∑<br />

j=i−l+1<br />

∥<br />

∥R k (h j ) ∥ ∥h l+1<br />

j<br />

, 1 ≤ i,l ≤ k ,<br />

✫<br />

✪<br />

Beweis: Jedes T i,k aus dem Extrapolationstableau lässt sich als “Endwert” T kk eines Teiltableaus<br />

interpretieren ➥ Es genügt, den Beweis füri = l = k zu führen<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Voraussetzung: Existenz einer (abgeschnittenen) asymptotischen Entwicklung → Def. 2.4.7<br />

T i,1 = Π hi (x 0 ) = α 0 +α 1 h i +α 2 h 2 i +···+α kh k i +R k(h)h k+1<br />

i für kleinesh i > 0 .<br />

Extrapolationspolynom zu (h i ,T i,1 ), i = 1,...,k: q ∈ P k−1 , dargestellt durch<br />

Lagrange-Polynome, siehe (2.2.2)<br />

q(t) =<br />

k∑<br />

T i,1 L i (t) , L i ∈ P k−1 , L i (h j ) = δ ij , i,j = 1,...,k .<br />

i=1<br />

2.4<br />

p. 257


k∑<br />

i=1<br />

L i (0)h j i = ⎧<br />

⎪⎨<br />

⎪ ⎩<br />

1 fürj = 0 ,<br />

0 für1 ≤ j ≤ k −1 ,<br />

(−1) k−1 h 1·····h k fürj = k .<br />

(2.4.9)<br />

Numerische<br />

Mathemtik<br />

Nachweis von (2.4.9): für0 ≤ j ≤ k−1 stimmtr j (t) := ∑ k<br />

i=1 h j i L i(t) ∈ P k−1 mitt ↦→ t j überein.<br />

Fürj = k hatt k −r k (t) ∈ P k die Nullstellenh i ,i = 1,...,k und führenden Koeffizienten1:<br />

t k −r k (t) = (t−h 1 )·····(t−h k ) .<br />

Damit folgt (2.4.9).<br />

T k,k = q(0) =<br />

=<br />

k∑<br />

L i (0)T i,1 =<br />

i=1<br />

k∑ k∑<br />

α j h j i L i(0)+<br />

j=0<br />

i=1<br />

k∑<br />

L i (0)<br />

i=1<br />

k∑<br />

i=1<br />

⎛<br />

⎝<br />

k∑<br />

j=0<br />

L i (0)R k (h i )h k+1<br />

i<br />

(2.4.9)<br />

= α 0 +α k ·(−1) k−1 h 1·····h k +<br />

k∑<br />

i=1<br />

α j h j i +R k(h i )h k+1<br />

i<br />

L i (0)R k (h i )h k+1<br />

i<br />

.<br />

Also gilt die Behauptung mit C := max |L i(0)|. Beachte, dass L i (0) nur von den Verhältnissen<br />

i=1,...,l<br />

h i : h j abhängt, siehe Bem. 2.4.4.<br />

✷<br />

⎞<br />

⎠<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

2.4<br />

p. 258


2.4.3 Extrapolation von Einschrittverfahren<br />

Numerische<br />

Mathemtik<br />

Anfangswertproblem (1.1.13): ẏ = f(t,y), y(t 0 ) = y 0 ➣ Lösungt ↦→ y(t)<br />

Das Anfangswertproblem wird betrachtet auf festem Zeitintervall<br />

[t 0 ,T]<br />

Annahme: f „hinreichend” glatt ⇔ y(t) „hinreichend” glatt<br />

Gegeben: Konsistentes Einschrittverfahren ↔ diskrete Evolution (→ Lemma 2.1.9)<br />

Ψ t,t+h y = y+hψ(t,y,h) , ψ(t,y,0) = f(t,y) , (t,y) ∈ Ω, h klein . (2.4.10)<br />

Annahmen: Inkrementfunktionψ stetig differenzierbar in(t,y)<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

ESV hat Konsistenzordnung = Konvergenzordnungp ∈ N (→ Thm. 2.1.19)<br />

Gegeben: EndzeitpunktT ∈ J(t 0 ,y 0 ) ➥ uniforme Zeitschrittweiteh = (T−t 0 )/N,N ∈ N<br />

Einschrittverfahren ➡ Gitterfunktion{y k } N k=0 , y N ≈ y(T)<br />

2.4<br />

p. 259


✬<br />

✩<br />

Theorem 2.4.11 (Asymptotische Entwicklung des Diskretisierungsfehlers von ESV).<br />

Es existieren ein K ∈ N (abhängig von der Glattheit von f) und glatte Funktionen e i :<br />

J(t 0 ,y 0 ) ↦→ R d , i = p,p+1,...,p+K, mit e i (0) = 0 und (für hinreichend kleine h) gleichmässig<br />

beschränkte Funktionen(T,h) ↦→ r k+p+1 (T,h),0 ≤ k ≤ K, so dass<br />

Dabei gilt<br />

✫<br />

y N −y(T) =<br />

k∑<br />

e l+p (T)h l+p +r k+p+1 (T,h)h k+p+1 für kleinesh .<br />

l=0<br />

∥<br />

∥r k+p+1 (T,h) ∥ = O(T −t 0 ) fürT −t 0 → 0 gleichmässig inh < T ,<br />

‖e(T)‖ = O(T −t 0 ) fürT −t 0 → 0.<br />

Beweis. Annahme: f,y(t) „hinreichend” glatt<br />

Numerische<br />

Mathemtik<br />

✪<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Weiter nehmen wir globale Lipschitz-Stretigkeit der Inkrementfunktionψ des ESV aus (2.4.10) an:<br />

∃L > 0: ‖ψ(t,z,h)−ψ(t,w,h)‖ ≤ L‖z−w‖ gleichmässig int 0 ≤ t ≤ T, h . (2.4.12)<br />

(Kompaktheitsargumente, vgl. Beweis von Thm. 2.1.19, machen Verzicht auf diese Annahme möglich.)<br />

Konsequenz der Konsistenzordnung p (→ Def. 2.1.13) und Glattheit von f: für Konsistenzfehler (→<br />

2.4<br />

p. 260


Def. 2.1.11) entlang der Lösungstrajektorie (nur dort wird die Konsistenzfehlerabschätzung im Beweis<br />

von Thm. 2.1.19 gebraucht !) gilt<br />

Numerische<br />

Mathemtik<br />

τ(t,y(t),h) := y(t+h)−Ψ t,t+h y(t) = d(t)h p+1 +O(h p+2 ) fürh → 0 , (2.4.13)<br />

mit stetiger Funktiond : [t 0 ,T] ↦→ R d . Dies ergibt sich mit Taylorentwicklung, siehe Bsp. 2.3.24:<br />

RK-ESV: d hängt nur von Ableitungen vonf ab ➢ d “hinreichend glatt”<br />

Idee: Betrachte ESV mit modifizierter Inkrementfunktion<br />

̂ψ(t,u,h) := ψ(t,u+e(t)h p ,h)−(e(t+h)−e(t))h p−1 , (2.4.14)<br />

mit “hinreichend glatter” Funktione : [t 0 ,T] ↦→ R d .<br />

Beachte: Auch ̂ψ erfüllt (2.4.12) mit dem gleichenL > 0.<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Warum betrachten wir dieses modifizierte ESV ?<br />

y j /ŷ j , j = 0,...,N ˆ= Gitterfunktionen erzeugt durch ursprüngliches/modifiziertes ESV mit Zeitschrittweiteh<br />

:= (T−t 0)<br />

N . Setzeŷ 0 = y 0<br />

ŷ j = y j −e(t j )h p , t j := t 0 +jh , j = 0,...,N . (2.4.15)<br />

2.4<br />

p. 261


Beweis von (2.4.15) durch Induktion:<br />

ŷ j+1 = ŷ j +ĥψ(t j ,ŷ j ,h)<br />

(2.4.14)<br />

= ŷ j +hψ(t j ,ŷ j +e(t j )h p ,h)−h p (e(t j+1 )−e(t j ))<br />

(∗)<br />

= y j +hψ(t j ,y j ,h)<br />

} {{ }<br />

=y j+1<br />

−e(t j+1 )h p .<br />

Numerische<br />

Mathemtik<br />

(∗)←Induktionsannahme.<br />

R. Hiptmair<br />

Annahme: Das modifizierte Einschrittverfahren ist konsistent mitẏ = f(t,y) zur Ordnungp+1<br />

rev 35327,<br />

25. April<br />

2011<br />

Thm. 2.1.19<br />

⇒ ŷ N −y(T) = r p+1 (T,h)h p+1 ,<br />

∥<br />

∥r p+1 (T,h) ∥ ∥ ≤ C exp(L(T −t 0))−1<br />

L<br />

} {{ }<br />

=O(T−t 0 ) für T−t 0 →0<br />

,<br />

mit C > 0 unabhängig von h,T . L ˆ= gemeinsame Lipschitz-Konstante von ψ, ̂ψ (bzgl. y) aus<br />

(2.4.12)<br />

(2.4.15)<br />

⇒ y N −y(T) = e(T)h p +r p+1 (T,h)h p+1 .<br />

2.4<br />

p. 262


Damit haben wir das erste Glied der asymptotischen Entwicklung des Theorems erhalten.<br />

Numerische<br />

Mathemtik<br />

Induktive Anwendung des Arguments ➢ Modifizierte ESVen ̂Ψ 1 := ̂Ψ, ̂Ψ 2 ,..., ̂Ψ k+1 konsistent<br />

zu ẏ = f(t,y) mit Ordnungen p + 1,p + 2,...,p + k + 1 erzeugen Näherungslösungen ŷ 1 j :=<br />

ŷ j ,ŷj 2,...,ŷk+1<br />

j<br />

,j = 1,...,N.<br />

Mitŷ 0 k = y k (Teleskopsumme)<br />

ŷ l+1<br />

j<br />

= ŷj l −e l(t j )h p+l , l = 0,...,k .<br />

k∑<br />

y N −y(T) = ŷN l −ŷl+1 N +r p+k+1(T,h)h p+k+1<br />

=<br />

l=0<br />

k∑<br />

e l (T)h p+l +r p+k+1 (T,h)h p+k+1 .<br />

l=0<br />

Daraus folgt die Behauptung des Theorems.<br />

?<br />

Existenz vone(t) so dass das modifizierte ESV Konsistenzordnungp+1 besitzt.<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

☞<br />

Betrachte den Konsistenzfehler des modifizierten Verfahrens & Taylorentwicklung(en)<br />

y(t+h)− ̂Ψ t,t+h y(t) = y(t+h)−y(t)−ĥψ(t,y(t),h)<br />

2.4<br />

p. 263


= y(t+h)−y(t)−hψ(t,y(t)+e(t)h p ,h)+(e(t+h)−e(t))h p<br />

(<br />

= y(t+h)−y(t)−h ψ(t,y(t),h)+ ∂ψ<br />

)<br />

∂y (t,y(t),h)e(t)hp +O(h 2p ) +ė(t)h p+1 +O(h p+2 )<br />

( )<br />

(2.4.13)<br />

= d(t)h p+1 +O(h p+2 ∂ψ<br />

)−<br />

∂y (t,y(t),0)+ ∂2 ψ<br />

∂y∂h (t,y(t),0)h e(t)h p+1<br />

+ė(t)h p+1 +O(h p+2 )<br />

= (d(t)− ∂f<br />

∂y (t,y(t))e(t)+ė(t))hp+1 +O(h p+2 ) .<br />

Löstefolgendes AWP für eine inhomogene linear Variationsgleichung<br />

ė(t) = ∂f (t,y(t))e(t)−d(t) , e(0) = 0 ⇒ e glatt , (2.4.16)<br />

∂y<br />

✷<br />

dann ist die Annahme über das modifizierte ESV erfüllt.<br />

Numerische<br />

Mathemtik<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Logisch:<br />

K hängt von der Glattheit vonf ab.<br />

2.4<br />

p. 264


Idee: Ordnungserhöhung durch Extrapolation (→ Sect. 2.4.2)<br />

WähleN 1 < N 2 < ··· < N k+1 ,N i ∈ N<br />

Numerische<br />

Mathemtik<br />

ESV (Schrittweiteh i = (T−t 0 )/N i ) lieferty Ni ,i = 1,...,k +1<br />

Polynomextrapolation(∗) aus(h i ,y hi ,N i<br />

)<br />

➥ Näherungỹ mit‖ỹ−y(T)‖ = O(h p+k<br />

1<br />

) (vgl. Thm. 2.4.8)<br />

(∗): Thm. 2.4.11 ➤ Extrapolation basierend auf Polynom der Form<br />

p(t) = α 0 +α p h p +α p+1 h p+1 +···+α p+k−1 h p+k−1 !<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

Thm. 2.4.11 erfordert „hinreichend kleines”h<br />

2011<br />

Nicht nury(T) von Interesse, sondern (genäherte) Lösungt ↦→ y(t)<br />

Anwendung der Extrapolationsidee auf Intervallen eines Zeitgitters G := {t 0 < t 1 < ··· < 2.4<br />

t N = T} ↔ Makroschritte: auf[t j ,t j+1 ], MakroschrittweiteH j := t j+1 −t j<br />

p. 265<br />

2.4.4 Lokale Extrapolations-Einschrittverfahren


Fixiere Sequenz(n l ) k+1<br />

l=1 ,n l ∈ N, z.B.(1,2,3,4,5,6,...) ↔ Anzahl Mikroschritte<br />

n l Schritte des ESV mit Startwerty j , Schrittweiteh = t j+1−t j<br />

n<br />

➥ y l l j+1<br />

,l = 1,...,k +1<br />

(ESV = Basisverfahren, Ordnungp)<br />

Numerische<br />

Mathemtik<br />

Polynomextrapolation(∗) aus(n −1<br />

l<br />

,y l j+1 ) ➥ y j+1 vgl. Bem. 2.4.4<br />

Extrapolations-Einschrittverfahren der Ordnungp+k<br />

MATLAB-CODE : Einzelschritt, lokales Extrapolations-ESV, skalare ODE<br />

function y = expesvstep(esvstep,y,t,h,n)<br />

for i=1:length(n)<br />

yt(i) = y;<br />

ht = h/n(i); tt = t;<br />

for j=1:n(i)<br />

yt(i) = esvstep(yt(i),tt,ht);<br />

tt = tt + ht;<br />

end<br />

T = anexpol(yt,1./n,p);<br />

return(T(1));<br />

esvstep(y,t,h) ˆ= ein Schritt<br />

des Basisverfahrens, Schrittweite<br />

h, ausgehend vom Zustand(t,y):<br />

esvstep(y,t,h) := Ψ t,t+h y<br />

n ˆ= Vektor(n l ) k+1<br />

l=1<br />

anexpol ˆ= verallgemeinerte<br />

Version für Extrapolationspolynom<br />

p(t) = α 0 + α p h p + α p+1 h p+1 +<br />

···+α p+k−1 h p+k−1<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

2.4<br />

p. 266


Ablauf: Lokales Extrapolations-Einschrittverfahren (n 1 = 1,n 2 = 2,n 3 = 3)<br />

D<br />

Numerische<br />

Mathemtik<br />

H j H j+1 H j+2<br />

Fig. 78<br />

• ˆ=y j<br />

•↔n 1 = 1<br />

•↔n 1 = 2<br />

•↔n 1 = 3<br />

ˆ= Extrapolation<br />

t j−1 t j t j+1<br />

t<br />

<strong>Beispiel</strong> 2.4.17 (Extrapoliertes Euler-Verfahren).<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

2.4<br />

p. 267


AWP für logistische Dgl. (→ Bsp. 1.2.1)<br />

ẏ = 5y(1−y) , y(0) = 0.02 .<br />

10 −2<br />

Numerische<br />

Mathemtik<br />

10 0 macro step h<br />

Endzeit: T = 1 Basis-ESV: explizites Euler-<br />

Verfahen (1.4.2)<br />

Extrapolation: verschiedenek,n l ,l = 1,...,k+1,<br />

uniforme Makroschrittweiteh<br />

Fehler<br />

max<br />

j<br />

|y(t j )−y j | .<br />

10<br />

Algebraische Konvergenz der Ordnungk+1 ✄ −10<br />

10 −3 10 −2 10 −1<br />

error<br />

10 −4<br />

10 −6<br />

10 −8<br />

(1,2)<br />

(1,2,3)<br />

(1,2,4)<br />

(1,4,16)<br />

O(h 2 )<br />

O(h 3 )<br />

O(h 4 )<br />

✸<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Theoretische Analyse ↔ Verifikation der Voraussetzungen von Thm. 2.1.19<br />

Überlegungen für Spezialfallp = 1 ↔ Euler-Verfahren, vgl. Bsp. 2.4.17<br />

Notationen:<br />

t ↦→ y(t) ˆ= exakte Lösung durch(t,y) ∈ Ω<br />

2.4<br />

p. 268


H > 0 ˆ= Schrittweite des Makroschritts<br />

n 1 ,...,n k+1 ˆ= Anzahl von Mikroschritten in[t,t+H]<br />

y N ˆ= Resultat der Anwendung von N Schritten des Basis-Einschrittverfahrens auf [t,t+H] mit<br />

uniformer Schrittweiteh := H/N und Startwerty<br />

ŷ ˆ= durch Extrapolation ausy n1 ,y n2 ,...,y nk+1 gewonnener Näherungswert füry(t+H)<br />

Numerische<br />

Mathemtik<br />

Konsistenzfehler (→ Def. 2.1.11): τ(t,y,H) = y(t+H)−ŷ .<br />

Zu zeigen ist: Konsistenzordnungk +1 ↔ ‖τ(t,y,H)‖ = O(H k+2 )<br />

➀ Lokale Anwendung von Thm. 2.4.11 mitt 0 = t,T = t+H: für hinreichend grossesK ∈ N<br />

K∑<br />

⇒ y N −y(t+H) = e l (t+H)h l +r K (t+H,h)h K+1 , h = H/N ,<br />

wobei ☞<br />

☞<br />

l=1<br />

‖r K (t+H,h)‖ ≤ CH<br />

‖e(t+H)‖ ≤ CH<br />

mitC > 0 unabhängig vontund (hinreichend kleinem)h.<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

➁ Damit aus Thm. 2.4.8<br />

‖ŷ−y(t+H)‖ ≤ ‖e k+1 (t+H)‖h 1·····h k+1 +C<br />

k∑<br />

j=1<br />

∥ r j (t+H,h j ) ∥∥ h k+2<br />

j<br />

,<br />

2.4<br />

p. 269


wobeiC > 0 nur von den Verhältnissenn j : n l abhängt.<br />

⇒ ‖ŷ−y(t+H)‖ ≤ CH k+2 ,<br />

Numerische<br />

Mathemtik<br />

mitC > 0 unabhängig vonH.<br />

Bemerkung 2.4.18 (Extrapolationsverfahren als Runge-Kutta-Verafhren).<br />

Basisverfahren: Explizites Euler-Verfahren (1.4.2), Ordnungp = 1<br />

➜ Polynomextrapolation zur Sequenz (1,2,3,4,...,k) liefert explizites (→ Def. 2.1.5)<br />

Runge-Kutta-Verfahren (→ Def. 2.3.5) der Ordnungk mits = k(k −1)/2+1 Stufen.<br />

△<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

2.4<br />

p. 270


2.4.5 Ordnungssteuerung<br />

Numerische<br />

Mathemtik<br />

Für Extrapolations-Einschrittverfahren:<br />

k = k(j) einfach zu realisieren<br />

Idee: [(lokale) Ordnungssteuerung]<br />

✗<br />

✖<br />

„Erhöhe lokale Ordnung, bis es sich nicht mehr lohnt(∗)”<br />

✔<br />

✕<br />

(∗) Heuristisches Beurteilungskriterium (basierend auf Aitken-Neville-Extrapolationstableau (2.4.6)):<br />

∥<br />

∥T k,k−1 −T k,k<br />

∥ ∥∥ ≤ TOL·∥ ∥∥Tk,k<br />

∥ ∥∥ für ToleranzTOL > 0 .<br />

Zweitbeste Näherung<br />

beste Näherung<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

2.4<br />

p. 271


MATLAB-CODE : Adaptives Euler-Extrapolationsverfahren<br />

function [y,k] = eulexstep(f,y,H,TOL)<br />

kmax = 1000;<br />

T{1} = y + H*f(y);<br />

for i=2:kmax<br />

T{i} = y; h = H/i;<br />

for k=1:i, T{i} = T{i} + h*f(T{i}); end<br />

for l=i-1:-1:1<br />

T{l} = T{l+1} + (T{l+1}-T{l})/(i/l-1);<br />

end<br />

if (norm(T{1}-T{2}) < TOL*norm(T{1}))<br />

y = T{1}; k = i; return;<br />

end<br />

Beachte:<br />

Adaptives<br />

Euler-Extrapolationsverfahren:<br />

(für autonomes AWP)<br />

Makroschritt der LängeH<br />

Argumente:<br />

f<br />

: Funktionshandlef=@(y)<br />

auf rechte Seite<br />

y : Anfangswert zut = 0<br />

TOL : Toleranz<br />

Rückgabewerte:<br />

y : Näherung zut = H<br />

Einfache Erweiterung des Extrapolationstableaus um eine weitere Zeile<br />

<strong>Beispiel</strong> 2.4.19 (Euler-Extrapolationsverfahren mit Ordnungssteuerung).<br />

k : Verwendete Extrapolationstiefe<br />

Numerische<br />

Mathemtik<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Bewegung eines geladenen Teilchens im Feld eines geraden Drahtes = Linienladung (konservatives<br />

Zentralfeld, Zentrum ( 0<br />

0<br />

)<br />

, PotentialU(x) := −2log‖x‖): → Bsp. 1.2.25<br />

ÿ = − 2y<br />

‖y‖ 2 ⇒<br />

( ˙ y<br />

v)<br />

=<br />

( ) v<br />

− 2y<br />

‖y‖ 2<br />

, y(0) =<br />

( )<br />

−1<br />

, v(0) =<br />

0<br />

( )<br />

0.1<br />

−0.1<br />

.<br />

2.4<br />

p. 272


Anfangswert: y(0) = (−1,0,0.1,−0.1), Endzeitpunkt: T = 4<br />

Numerische<br />

Mathemtik<br />

y 2<br />

0.8<br />

0.6<br />

0.4<br />

0.2<br />

0<br />

−0.2<br />

−0.4<br />

4<br />

3<br />

2<br />

1<br />

0<br />

−1<br />

y (t) 1<br />

y (t) 2<br />

v 1<br />

(t)<br />

v (t) 2<br />

−0.6<br />

−2<br />

−0.8<br />

Exakte Bahn<br />

−1<br />

−1 −0.5 0 0.5 1<br />

y 1<br />

−3<br />

−4<br />

0 0.5 1 1.5 2 2.5 3 3.5 4<br />

t<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Beobachtung:<br />

„Peaks” in der Lösungskomponentev(t) (= zeitlokale Charakteristika)<br />

Ordnungsadaptives Euler-Extrapolationsverfahren (TOL = 0.01), uniforme MakrozeitschrittweiteH =<br />

0.02<br />

2.4<br />

p. 273


0.6<br />

0.4<br />

5<br />

y (t ) (Naeherung)<br />

1 k<br />

y (t ) (Naeherung)<br />

2 k<br />

v 1<br />

(t k<br />

) (Naeherung)<br />

20<br />

Numerische<br />

Mathemtik<br />

v 2<br />

(t k<br />

) (Naeherung)<br />

0.2<br />

y 2<br />

(t)<br />

0<br />

−0.2<br />

−0.4<br />

−0.6<br />

−0.8<br />

−1<br />

−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8<br />

y 1<br />

(t)<br />

Fig. 79<br />

y i<br />

(t)<br />

0<br />

10<br />

−5<br />

0 0.5 1 1.5 2 2.5 3 3.5 4 0<br />

t<br />

Local extrapolation depth<br />

Fig. 80<br />

✄ Automatische Erhöhung der Ordnung an „kritischen Stellen”<br />

✸<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

2.4.6 Extrapolation reversibler Einschrittverfahren<br />

<strong>Beispiel</strong> 2.4.20 (Extrapolierte implizite Mittelpunktsregel).<br />

2.4<br />

p. 274


Anfangswertproblem aus Bsp. 1.4.9 (logistische Dgl., siehe Bsp. 1.2.1), λ = 10, y 0 = 0.01, aus<br />

[0,1] (T = 1)<br />

Numerische<br />

Mathemtik<br />

Einschrittverfahren: implizite Mittelpunktsregel (1.4.19)<br />

Globale Extrapolation (→ Abschnitt 2.4.3) von y h (T) aus Lösungen erhalten durch uniforme<br />

Schrittweiten h/n i<br />

Beachte: Extrapolation auf der Grundlage des Standard-Tableaus (2.4.5)<br />

Implicit MPR (extr.), logistic ODE, λ = 10.000000, y0 = 0.010000, T = 1.000000<br />

10 −2<br />

|y N<br />

−y(T)|<br />

10 −4<br />

10 −6<br />

10 −8<br />

10 −10<br />

10 −12<br />

10 −14<br />

10 0 h<br />

No extrapolation<br />

n=(1,2)<br />

n=(1,2,3)<br />

n=(1,2,3,4)<br />

n=(1,2,3,4,5)<br />

O(h 2 )<br />

O(h 4 )<br />

O(h 6 )<br />

10 −2 10 −1 10 0<br />

Fig. 81<br />

✁ Ordnungserhöhung nur in jedem zweite Extrapolationsschritt<br />

Ordnungserhöhung um jeweils zwei<br />

✸<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

2.4<br />

p. 275


Beobachtung aus Bsp. 2.4.20 einfach zu erklären, falls<br />

y h (T) = y(T)+α 1 h 2 +α 2 h 4 +α 6 h 6 +··· .<br />

Numerische<br />

Mathemtik<br />

<strong>Beispiel</strong> 2.4.21 (Globaleh 2 -Extrapolation für implizite Mittelpunktsregel).<br />

(Fast) wie Bsp. 2.4.20<br />

NEU:<br />

y N aus Extrapolation inh 2<br />

Implicit MPR (h 2 extr.), logistic ODE, λ = 10.0, y0 = 0.01, T = 1.0<br />

10 −2<br />

10 −4<br />

10 −6<br />

10 −8<br />

10 −10<br />

10 −12<br />

10 −14<br />

10 0 h<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

|y N<br />

−y(T)|<br />

✁ Ordnungserhöhung um zwei in jedem Extrapolationsschritt<br />

!<br />

No extrapolation<br />

n=(1,2)<br />

n=(1,2,3)<br />

O(h 2 )<br />

O(h 4 )<br />

O(h 6 )<br />

10 −2 10 −1 10 0<br />

Fig. 82<br />

✸<br />

2.4<br />

p. 276


✬<br />

✩<br />

Theorem 2.4.22 (Asymptotische Entwicklung des Diskretisierungsfehlers inh 2 ).<br />

Bezeichne y h (t), t ∈ äquidistantes Zeitgitter mit Schrittweite h > 0 auf [t 0 ,T], die durch ein<br />

reversibles Einschrittverfahren (→ Def. 2.1.27) erzeugte Näherungslösung eines Anfangswertproblemsẏ<br />

= f(t,y),y(t 0 ) = y 0 , mit exakter Lösungt ↦→ y(t).<br />

Dann existieren ein K ∈ N (abhängig von der Glattheit von f) und glatte Funktionen e i :<br />

J(t 0 ,y 0 ) ↦→ R d , i = 1,...,K, mit e i (0) = 0 und (für hinreichend kleine h) gleichmässig<br />

beschränkte Funktionen(T,h) ↦→ r k (T,h),0 ≤ k ≤ K, so dass<br />

✫<br />

y h (T)−y(T) =<br />

k∑<br />

e l (T)h 2l +r k (T,h)h 2k+2 für kleinesh .<br />

l=1<br />

Dabei gilt ‖r k (T,h)‖ = O(T −t 0 ) fürT −t 0 → 0 gleichmässig inh < T .<br />

Numerische<br />

Mathemtik<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

✪<br />

2011<br />

Beweis. Siehe [8, Satz 4.42] ✷<br />

2.4<br />

p. 277


Bemerkung 2.4.23 (DIFEX).<br />

Numerische<br />

Mathemtik<br />

Praktische Extrapolationsverfahren stützen sich auf explizite Verfahren, deren Fehler eine asymptotische<br />

Entwicklung inh 2 besitzt (eine spezielle Trapezregel)<br />

➣ DIFEX-Algorithmus [8, Sect. 4.3.3]<br />

△<br />

2.5 Splittingverfahren [16, Sect. 2.5]<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Autonomes AWP mit additiv zerlegter rechter Seite:<br />

ẏ = f(y)+g(y) , y(0) = y 0 , (2.5.1)<br />

mitf : D ⊂ R d ↦→ R d ,g : D ⊂ R d ↦→ R d “hinreichend glatt”, lokal Lipschitz-stetig (→ Def. 1.3.2)<br />

(Kontinuierliche) Evolutionen:<br />

Φ t f ↔ Dgl. ẏ = f(y) ,<br />

Φ t g ↔ Dgl. ẏ = g(y) .<br />

2.5<br />

p. 278


Annahme:<br />

Φ t f ,Φt g<br />

(analytisch) bekannt<br />

Numerische<br />

Mathemtik<br />

Idee: Konstruiere Einschrittverfahren mit diskreten Evolutionen<br />

Lie-Trotter-Splitting: Ψ h = Φ h g ◦Φ h f , (2.5.2)<br />

Strang-Splitting: Ψ h = Φ h /2<br />

f<br />

◦Φ h g ◦Φ h /2<br />

f<br />

. (2.5.3)<br />

(2.5.2) ↔<br />

y 1<br />

Ψ h<br />

Φ h g<br />

y 0<br />

Φ h f<br />

Fig. 83<br />

(2.5.3) ↔<br />

<strong>Beispiel</strong> 2.5.4 (Konvergenz einfacher Splittingverfahren).<br />

√<br />

ẏ = λy(1−y) + 1−y<br />

} {{ }<br />

2<br />

} {{ }<br />

=:f(y) =:g(y)<br />

Φ h /2<br />

f y 1<br />

Ψ h Φ h g<br />

y 0<br />

, y(0) = 0 .<br />

Φ h /2<br />

f<br />

Fig. 84<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

2.5<br />

p. 279


Φ t f y = 1<br />

1+(y −1 −1)e−λt, t > 0,y ∈]0,1] (Logistische Differentialgleichung (2.2.84))<br />

{<br />

Φ t sin(t+arcsin(y)) , fallst+arcsin(y) <<br />

π<br />

gy =<br />

2<br />

,<br />

t > 0,y ∈ [0,1] .<br />

1 , sonst,<br />

Numerische<br />

Mathemtik<br />

Numerisches Experiment:<br />

T = 1, λ = 1, Vergleich von Splittingverfahren<br />

10 −3<br />

(konstante Schrittweite) mit hochgenauer numeri-<br />

|y(T)−y h<br />

(T)|<br />

10 −4<br />

10 −5<br />

10 −6<br />

10 −2 Zeitschrittweite h<br />

Lie−Trotter−Splitting<br />

Strang−Splitting<br />

O(h)<br />

O(h 2 )<br />

10 −2 10 −1<br />

Fig. 85<br />

scher Lösung erhalten durch<br />

f=@(t,x) λ*x*(1-x)+sqrt(1-x^2);<br />

options=odeset(’reltol’,1.0e-10,...<br />

’abstol’,1.0e-12);<br />

[t,yex]=ode45(f,[0,1],y0,options);<br />

✁ Fehlerverhalten zum EndzeitpunktT = 1<br />

✸<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

✬<br />

Theorem 2.5.5 (Konsistenzordnung einfacher Splittingverfahren). Die ESV (2.5.2) und (2.5.3)<br />

haben die Konsistenzordnungen (→ Def. 2.1.13) 1 bzw. 2.<br />

✫<br />

✩<br />

✪<br />

2.5<br />

p. 280


Beweis.<br />

Für den Konsistenzfehler (→ Def. 2.1.11) haben wir nach Def. 2.1.13 zu zeigen (wir betrachten<br />

autonome ODEs!)<br />

∥<br />

‖τ(t,y,h)‖ = ∥Φ h y−Ψ h y∥ =<br />

Der Beweis wird hier für das Strang-Splitting geführt.<br />

{<br />

O(h 2 ) fürΨ aus (2.5.2) ,<br />

O(h 3 ) fürΨ aus (2.5.3) .<br />

Numerische<br />

Mathemtik<br />

Übliche Annahme:<br />

f,ghinreichend glatt.<br />

Technik:<br />

Taylorentwicklung<br />

Taylorentwicklung der exakten Evolution nachh, vgl. (2.3.25):<br />

Φ h y =y+ẏ(0)h+ 1 2ÿ(0)h2 +O(h 3 )<br />

=y+h(f(y)+g(y))+ 1 2 h2 (Df(y)+Dg(y))(f(y)+g(y))+O(h 3 ) .<br />

(2.5.6)<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Taylorentwicklung der partiellen EvolutionenΦ h f ,Φh g<br />

nachh, vgl. (2.3.25)<br />

Φ h f y = y+hf(y)+ 1 2 h2 Df(y)f(y)+O(h 3 ) , (2.5.7)<br />

Φ h gy = y+hg(y)+ 1 2 h2 Dg(y)g(y)+O(h 3 ) . (2.5.8)<br />

Sukzessives Einsetzen von Taylorentwicklungen, wobei multiplikative Faktoren h k ein frühzeitiges<br />

Abbrechen der eingesetzen Taylorentwickung ermöglichen, vgl. die Taylorentwicklung der Runge-<br />

2.5<br />

p. 281


Kutta-Inkremente in Bsp. 2.3.24, (2.3.27).<br />

Ψ h y =Φ h /2<br />

f (Φh g(Φ h /2<br />

f y))<br />

➊<br />

=Φ h /2<br />

f (Φh g(y+h/2f(y)+ 1 8 h2 Df(y)f(y)+O(h 3 )))<br />

➋<br />

=Φ h (<br />

/2<br />

f<br />

y+h/2f(y)+<br />

8 1h2 Df(y)f(y)+O(h 3 )+hg(y+h/2f(y)+O(h 2 ))<br />

+<br />

2 1h2 Dg(y+O(h))g(y+O(h))+O(h 3 )<br />

)<br />

(<br />

➌<br />

=Φ h /2<br />

f<br />

y+h/2f(y)+hg(y)+<br />

8 1h2 Df(y)f(y)+ 1 2 h2 Dg(y)f(y)+<br />

1<br />

2<br />

h 2 Dg(y)g(y)+O(h 3 )<br />

)<br />

➍<br />

=y+ h 2 f(y)+hg(y)+ 1 8 h2 Df(y)f(y)+ 1 2 h2 Dg(y)f(y)+ 1 2 h2 Dg(y)g(y)+O(h 3 )+<br />

h/2f(y+ h 2 f(y)+hg(y))+O(h2 ))+ 1 8 h2 Df(y+O(h))f(y+O(h))<br />

➎<br />

=y+ h 2 f(y)+hg(y)+ 1 8 h2 Df(y)f(y)+ 1 2 h2 Dg(y)f(y)+ 1 2 h2 Dg(y)g(y)<br />

+ 1 2 hf(y)+ 1 4 h2 Df(y)f(y)+ 1 2 h2 Df(y)g(y)+ 1 8 h2 Df(y)f(y)+O(h 3 )<br />

=y+h(f(y)+g(y))+ 1 2 h2( Df(y)f(y)+Dg(y)f(y)+Df(y)g(y)+Dg(y)g(y) )<br />

+O(h 3 ) .<br />

Numerische<br />

Mathemtik<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

➊ Wende (2.5.7) aufΦ h /2<br />

f y an.<br />

2.5<br />

p. 282


➋ Benutze (2.5.8) mit y ← y + h/2f(y) + 1 8 h2 Df(y)f(y) + O(h 3 ), um (Φ h g(y + h/2f(y) +<br />

1<br />

8<br />

h 2 Df(y)f(y)+O(h 3 )) zu entwickeln. Vernachlässige TermeO(h 3 ).<br />

Numerische<br />

Mathemtik<br />

➌ Taylorentwicklung (inh) vongundDg umy.<br />

➍ Benutze (2.5.7) mit y ← y + h/2f(y) + hg(y) + 1 8 h2 Df(y)f(y) + 1 2 h2 Dg(y)f(y) +<br />

1<br />

2<br />

h 2 Dg(y)g(y)+O(h 3 ) und vernachlässige Terme inO(h 3 ).<br />

➎ Taylorentwicklung (inh) vonf undDf umy.<br />

Vergleich mit (2.5.6) liefert die Behauptung für das Strang-Splitting.<br />

✷<br />

Bemerkung 2.5.9 ( reversible Strang-Splitting-Einschrittverfahren).<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

△<br />

<strong>Beispiel</strong> 2.5.10 (Splittingverfahren für mechanische Systeme).<br />

Newtonsche Bewegungsgleichung<br />

¨r = a(r)<br />

(<br />

(1.1.10) r<br />

⇐⇒ ẏ :=<br />

v) ˙<br />

=<br />

( ) v<br />

a(r)<br />

=: F(y) .<br />

2.5<br />

p. 283


( ) 0<br />

Splitting: F(y) = +<br />

a(r)<br />

} {{ }<br />

=:f(y)<br />

( v<br />

0)<br />

}{{}<br />

=:g(y)<br />

.<br />

Numerische<br />

Mathemtik<br />

Φ t f<br />

(<br />

r0<br />

v 0<br />

)<br />

=<br />

( )<br />

r 0<br />

v 0 +ta(r 0 )<br />

, Φ t g<br />

(<br />

r0<br />

v 0<br />

)<br />

Lie-Trotter-Splitting (2.5.2): ➢ Symplektisches Eulerverfahren<br />

) )<br />

Ψ h ( r<br />

v<br />

Strang-Splitting (2.5.3):<br />

Ψ h ( r<br />

v<br />

)<br />

=<br />

=<br />

(<br />

Φ h g ◦Φ h f<br />

) ( r<br />

v<br />

(<br />

Φ h /2<br />

g ◦Φ h ) ( )<br />

f ◦Φh /2 r<br />

g<br />

v<br />

=<br />

=<br />

( r+h(v+ha(r))<br />

v+ha(r)<br />

( )<br />

r0 +tv<br />

= 0<br />

v 0<br />

)<br />

(<br />

r+hv+ 1 2 h2 a(r+<br />

2 1 )<br />

hv)<br />

v+ha(r+ 1 2 hv)<br />

.<br />

. (2.5.11)<br />

. (2.5.12)<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

= Einschrittformulierung des Störmer-Verlet-Verfahrens (1.4.27), siehe Bem. 1.4.33 !<br />

r k+<br />

1<br />

2<br />

= r k + 1 2 hv k ,<br />

(2.5.12) ←→<br />

v k+1 = v k +ha(r k+<br />

1<br />

2<br />

) ,<br />

r k+1 = r k+<br />

1<br />

2<br />

+ 1 2 hv k+1 .<br />

(2.5.13)<br />

2.5<br />

p. 284


✸<br />

Numerische<br />

Mathemtik<br />

Einwand: Splittingverfahren sind nur in Spezialfällen zu gebrauchen, denn die exakten Evolutionen<br />

Φ f undΦ g werden oft nicht analytisch auswertbar sein.<br />

Idee: Ersetze<br />

Exakte Evolutionen<br />

−→ diskrete Evolutionen<br />

Φ h g , Φh f<br />

−→ Ψ h g , Ψh f<br />

<strong>Beispiel</strong> 2.5.14 (Inexakte Splittingverfahren). Forsetzung Bsp. 2.5.4<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

AWP von Bsp. 2.5.4, Inexakte Splittingverfahren auf der Grundlage verschiedener inexakter Basisverfahren:<br />

2.5<br />

p. 285


10 −2 Zeitschrittweite h<br />

|y(T)−y h<br />

(T)|<br />

☞<br />

10 −3<br />

10 −4<br />

10 −5<br />

10 −6<br />

10 −2 10 −1<br />

LTS−Eul<br />

SS−Eul<br />

SS−EuEI<br />

LTS−EMP<br />

SS−EMP<br />

LTS-Eul Explizites Eulerverfahren (2.2.1) →<br />

Ψ h h,g ,Ψh h,f<br />

+ Lie-Trotter-Splitting (2.5.2)<br />

SS-Eul Explizites Eulerverfahren (2.2.1) →<br />

Ψ h h,g ,Ψh h,f<br />

+ Strang-Splitting (2.5.3)<br />

SS-EuEI Strang-Splitting (2.5.3): Explizites Eulerverfahren<br />

(2.2.1) ◦ exakte Evolution Φ h g<br />

◦ implizites Eulerverfahren (2.2.1)<br />

LTS-EMP Explizite Mittelpunktsregel (2.3.4) →<br />

SS-EMP<br />

Ψ h h,g ,Ψh h,f<br />

+ Lie-Trotter-Splitting (2.5.2)<br />

Explizite Mittelpunktsregel (2.3.4) →<br />

Ψ h h,g ,Ψh h,f<br />

+ Strang-Splitting (2.5.3)<br />

Ordnung der Splittingverfahren wird durch Konsistenzordnung vonΦ h f ,Φh g begrenzt.<br />

Numerische<br />

Mathemtik<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Ausnahme: SS-EuEI: reversibles Verfahren ➢ Konsistenzordnung≥ 2 nach Thm. 2.1.29<br />

✸<br />

2.6<br />

p. 286


2.6 Schrittweitensteuerung [8, Kap. 5], [19, Sect. 2.8]<br />

Numerische<br />

Mathemtik<br />

<strong>Beispiel</strong> 2.6.1 (Numerische Integration bei Blow-up).<br />

Skalares autonomes AWP → Bsp. 1.3.11<br />

ẏ = y 2 , y(0) = y 0 > 0 .<br />

y(t) = y 0<br />

1−y 0 t , t < 1/y 0 .<br />

y(t)<br />

100<br />

90<br />

80<br />

70<br />

60<br />

50<br />

y 0<br />

= 1<br />

y 0<br />

= 0.5<br />

y 0<br />

= 2<br />

Die Lösung existiert nur für endliche Zeit und<br />

erleidet dann einen Blow-up, siehe Def. 1.3.1:<br />

lim<br />

t→1/y 0<br />

y(t) = ∞ : J(y 0 ) =]−∞,1/y 0 ]!<br />

40<br />

30<br />

20<br />

10<br />

0<br />

−1 −0.5 0 0.5 1 1.5 2 2.5<br />

t<br />

Fig. 86<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Herausforderung: Wie sollte das Zeitgitter {t 0 < t 1 < ··· < t N−1 < t N } für ein ESV gewählt<br />

werden, wennJ(y 0 ) nicht a priori bekannt ist und nicht klar ist, ob sich ein Blow-up ereignen wird?<br />

2.6<br />

p. 287


Gedankenexperiment: wie wird sich wohl ein Runge-Kutta-Einschrittverfahren (→ Def. 2.3.5) bei Verwendung<br />

uniformer (äquidistanter) Zeitschritte verhalten, wenn es auf das obige AWP angewendet<br />

wird.<br />

Numerische<br />

Mathemtik<br />

100<br />

90<br />

80<br />

y 0<br />

= 1<br />

y 0<br />

= 0.5<br />

y 0<br />

= 2<br />

solution by ode45<br />

y k<br />

70<br />

60<br />

50<br />

40<br />

1 fun = @(t,y) y.^2;<br />

2 [t1,y1] = ode45(fun,[0 2],1);<br />

3 [t2,y2] = ode45(fun,[0 2],0.5);<br />

4 [t3,y3] = ode45(fun,[0 2],2);<br />

R. Hiptmair<br />

30<br />

20<br />

rev 35327,<br />

25. April<br />

2011<br />

10<br />

0<br />

−1 −0.5 0 0.5 1 1.5 2 2.5<br />

t<br />

Fig. 87<br />

MATLAB Warnungsmeldungen:<br />

Warning: Failure at t=9.999694e-01. Unable to meet integration<br />

tolerances without reducing the step size below the smallest<br />

value allowed (1.776357e-15) at time t.<br />

> In ode45 at 371<br />

2.6<br />

p. 288


In simpleblowup at 22<br />

Warning: Failure at t=1.999970e+00. Unable to meet integration<br />

tolerances without reducing the step size below the smallest<br />

value allowed (3.552714e-15) at time t.<br />

> In ode45 at 371<br />

In simpleblowup at 23<br />

Warning: Failure at t=4.999660e-01. Unable to meet integration<br />

tolerances without reducing the step size below the smallest<br />

value allowed (8.881784e-16) at time t.<br />

> In ode45 at 371<br />

In simpleblowup at 24<br />

Numerische<br />

Mathemtik<br />

We stellen fest, dass es ode45 gelingt, die Schrittweite immer weiter zu reduzieren, wenn es sich<br />

dem Pol der Lösung nähert.<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

✸<br />

Bemerkung 2.6.2 (Zeitlich ungleichmässiges Verhalten von Lösungen).<br />

2.6<br />

p. 289


Concentration of HBrO 2<br />

Fig. 89<br />

4<br />

3<br />

2<br />

y (t) 1<br />

y (t) 2<br />

v 1<br />

(t)<br />

v 2<br />

(t)<br />

10 −6<br />

Numerische<br />

Mathemtik<br />

10 −5 t<br />

1<br />

10 −7<br />

0<br />

−1<br />

c(t)<br />

10 −8<br />

−2<br />

10 −9<br />

−3<br />

−4<br />

0 0.5 1 1.5 2 2.5 3 3.5 4<br />

t<br />

Fig. 88<br />

Keplerproblem von Bsp. 2.4.19<br />

10 −10<br />

10 −11<br />

0 20 40 60 80 100 120 140 160 180 200<br />

Oregonator-Reaktion von Bsp. 1.2.12<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Häufig:<br />

Lösungen von AWPs zeigen stark ungleichmässiges Verhalten in der Zeit.<br />

2.6<br />

p. 290


Eine Möglichkeit, Einschrittverfahren an das zeitlokale Verhalten der Lösung anzupassen haben wir<br />

bereits kennengelernt:<br />

Numerische<br />

Mathemtik<br />

→ Ordnungssteuerung bei Extrapolationsverfahren, Sect. 2.4.5<br />

Doch im Fall eines Blow-up nützt uns das gar nichts!<br />

△<br />

Grundlegende Fragestellung<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Wie wählt man ein geeignetes ZeitgitterG = {t 0 < t 1 < ··· < t N = T}<br />

für ein gegebenes Einschrittverfahren und Anfangswertproblem?<br />

Was heisst geeignet?<br />

2.6<br />

p. 291


Effizienz<br />

✬<br />

Ziel: N so klein wie möglich<br />

&<br />

Genauigkeit<br />

max ‖y(t k)−y k ‖


Trotzdem scheint zeitlokale Schrittweitensteuerung das einzige praktikable Verfahren zu sein,<br />

Numerische<br />

Mathemtik<br />

☞ weil man nicht während der Rechnung viele Zeitschritte zurückgehen will, was viel Rechenzeit<br />

kosten kann,<br />

☞ weil sie einfach zu implementieren ist und mit wenig zusätzlichem Rechenaufwand auskommt,<br />

☞ weil man prinzipiell keine Methode finden wird, die eine garantierte Genauigkeit liefert.<br />

Idee:<br />

Schätzung des Konsistenzfehlers<br />

Vergleich zweier diskreter EvolutionenΨ t,t+h , ˜Ψ t,t+h verschiedener Ordnung<br />

(→ Def. 2.1.13) für eine aktuelle Zeitschrittweite h:<br />

Falls Ordnung(˜Ψ) > Ordnung(Ψ)<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

⇒ Φ t,t+h y(t k )−Ψ t,t+h y(t k )<br />

} {{ }<br />

Konsistenzfehler<br />

≈ EST k := ˜Ψ t,t+h y(t k )−Ψ t,t+h y(t k ) . (2.6.3)<br />

Heuristik für konkretesh<br />

<strong>Beispiel</strong> 2.6.4 (Qualität der Fehlerschätzung).<br />

2.6<br />

Skalares AWP: ẏ = cos 2 (ay), Lösung y(t) = 1/aarctan(at) auf[−1,1],a = 10<br />

p. 293


Ψ↔Explizites Euler-Verfahren (1.4.2), Ordnungp = 1<br />

˜Ψ↔Explizite Trapezregel (2.3.3), Ordnungp = 2<br />

Numerische<br />

Mathemtik<br />

0.15<br />

0.1<br />

f(y) = cos 2 (10*y)<br />

0.14<br />

0.12<br />

Euler: error<br />

Euler: est. error<br />

TRP: error<br />

TRP: est. error<br />

f(y) = cos 2 (10*y)<br />

0.05<br />

0.1<br />

0<br />

0.08<br />

y,y h<br />

y,y h<br />

−0.05<br />

0.06<br />

−0.1<br />

0.04<br />

−0.15<br />

Expl. Euler solution<br />

Expl. trapezoidal rule<br />

Exact solution<br />

−0.2<br />

−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1<br />

t<br />

Fig. 90<br />

0.02<br />

0<br />

−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1<br />

t<br />

Fig. 91<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Beobachtung: ☞ Grosse Unterschiede zwischen geschätztem und wahrem Fehler möglich<br />

☞ Jedoch: Fehlerschätzung für ˜Ψ durchΨsinnvoll, da “richtig in der Tendenz”<br />

✸<br />

2.6<br />

p. 294


Vergleich<br />

EST k ↔ TOL<br />

EST k ↔ TOL‖y k ‖<br />

➣<br />

Absolute Toleranz<br />

Verwerfen/Akzeptieren des aktuellen Schritts<br />

Relative Toleranz<br />

Numerische<br />

Mathemtik<br />

Führt zu einem sehr einfachen Algorithmus:<br />

EST k < TOL: Ausführen des aktuellen Schritts (Schrittweiteh)<br />

Nächster Schritt mit Schrittweiteαh, mit einemα > 1(∗)<br />

EST k > TOL: Wiederholung des aktuellen Schritts mit Schrittweite< h, z.B. 1 2 h<br />

Begründung für(∗): Wenn die aktuelle Schrittweite bereits einen hinreichend kleinen Einschrittfehler<br />

sicherstellt, dann ist es unter Umständen möglich, auch mit einer etwas grösseren Schrittweite einen<br />

Einschrittfehler zu erhalten, der immer noch genügend klein ist. Dadurch kann die Gesamtzahl der<br />

Zeitschritte reduziert werden, was die Effizienz des Verfahrens erhöht. Das Risiko eines Genauigkeitsverlusts<br />

wird durch die Fehlerschätzung im nächsten Schritt in Grenzen gehalten.<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Listing 2.4: Einfache zeitlokale Schrittweitensteuerung für Einschrittverfahren (autonome ODE)<br />

1 f u n c t i o n [t,y] =<br />

odeintadapt(Psilow,Psihigh,T,y0,h0,reltol,abstol,hmin)<br />

2 t = 0; y = y0; h = h0; %<br />

2.6<br />

p. 295


3 while ((t(end) < T) (h > hmin)) %<br />

4 yh = Psihigh(h,y0); % ESV hoher Ordnung<br />

5 yH = Psilow(h,y0); % ESV niedriger Ordnung<br />

6 est = norm(yH-yh); %<br />

Numerische<br />

Mathemtik<br />

7<br />

8 i f (est < max(reltol*norm(y0),abstol)) %<br />

9 y0 = yh; y = [y,y0]; h = 1.1*h; % Schritt akzeptiert<br />

10 h = min(h,T-t(end)); t=[t,t+h]; %<br />

11 else, h = h/2; end % Schritt verworfen<br />

12 end<br />

R. Hiptmair<br />

Kommentare zu Code 2.4:<br />

rev 35327,<br />

25. April<br />

2011<br />

• Argumente vonodeintadapt:<br />

–Psilow,Psihigh: Funktionshandles auf diskrete Evolutionen (für autonome ODE)<br />

unterschiedlicher Ordnungen, Typ@(y,h), Zustandsvektor als erstes Argument, Schrittweite<br />

als zweites,<br />

–T: EndzeitpunktT > 0,<br />

2.6<br />

p. 296


–y0: Anfangszustandy 0 ,<br />

–h0: Schrittweiteh 0 für den ersten Zeitschritt<br />

Numerische<br />

Mathemtik<br />

–reltol,abstol: Relative and absolute Toleranzen, siehe oben,<br />

–hmin: minimale Zeitschrittweite, Verfahren bricht ab, fallsh k < h min , was für das Erkennen<br />

von Blow-ups und Kollaps wichtig ist.<br />

• Zeile 3: Überprüfe, ob der Endzeitpunkt erreicht ist oder das Verfahren steckengeblieben ist<br />

(h k < h min ).<br />

• Zeile 4, 5: Propagiere den aktuellen Zustand mit Hilfe beider Einschrittverfahren.<br />

• Zeile 6: Berechne die Norm des geschätzten Fehlers, siehe (2.6.3).<br />

• Zeile 8: Vergleich, um zu entscheiden, ob der aktuelle Schritt akzeptiert oder verworfen werden<br />

sollte.<br />

• Zeile 9, 10: Schritt akzeptiert: Aktualisiere den Zustand und schlage 1.1 mal die aktuelle<br />

Schrittweite für den nächsten Schritt vor.<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

• Zeile 11 Schritt verworfen: Versuche es nochmal mit der halben Zeitschrittweite.<br />

• Rückgabewerte<br />

–t: Zeitgittert 0 < t 1 < t 2 < ... < t N < T , wobeit N < T auf vorzeitigen Abbruch hinweist<br />

(Kollaps, Blow-up),<br />

–y: Folge von Zuständen(y k ) N k=0 .<br />

2.6<br />

p. 297


!<br />

Gemäss unserer Heuristik, siehe (2.6.3), scheint es, dassEST k den Einschrittfehler des Einschrittverfahrens<br />

niedrigerer Ordnung Ψ misst, und dass wir y k+1 = Ψ h ky k , setzen sollten,<br />

wenn der Zeitschritt akzeptiert wird.<br />

Numerische<br />

Mathemtik<br />

Jedoch wäre es ungeschickt, nicht den vermutlich besseren Werty k+1 = ˜Ψ hk y k zu nehmen, zumal<br />

er ohne Zusatzaufwnd verfügbar ist. Jede Implementierung zeitlokaler Schrittweitensteuerung folgt<br />

dieser Idee, also auch Code 2.4, und dieses Vorgehen kann durch steuerungstheoretische Argumente<br />

begründet werden [8, Sect. 5.2], siehe auch die folgende Bem. 2.6.7.<br />

<strong>Beispiel</strong> 2.6.5 (Effizienzgewinn durch Adaptivität). → Ex. 2.6.4<br />

AWP für ODE ẏ = cos(αy) 2 ,α > 0,<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Analytische Lösungy(t) = arctan(α(t−c))/α füry(0) ∈]−π/2,π/2[<br />

Integrationsintervall[0,2], Anfangswert y(0) = 0<br />

2.6<br />

p. 298


Einfache adaptive Strategie aus Code 2.4 mit der lokalen Fehlerschätzung aus Bsp. 2.6.4.<br />

Numerische<br />

Mathemtik<br />

Nun untersuchen wir die Abhängigkeit des Diskretisierungsfehlers vom Rechenaufwand, der proportional<br />

zu der Anzahl der Zeitschritte ist.<br />

0.05<br />

0.045<br />

Solving d t<br />

y = a cos(y) 2 with a = 40.000000 by simple adaptive timestepping<br />

Error vs. no. of timesteps for d t<br />

y = a cos(y) 2 with a = 40.000000<br />

uniform timestep<br />

adaptive timestep<br />

0.04<br />

10 0<br />

0.035<br />

10 −1<br />

y<br />

0.03<br />

0.025<br />

0.02<br />

0.015<br />

max k<br />

|y(t k<br />

)−y k<br />

|<br />

10 −2<br />

10 −3<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

rtol = 0.400000<br />

0.01<br />

rtol = 0.200000<br />

rtol = 0.100000<br />

rtol = 0.050000<br />

0.005<br />

rtol = 0.025000<br />

rtol = 0.012500<br />

rtol = 0.006250<br />

0<br />

0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2<br />

t<br />

Fig. 92<br />

10 1 no. N of timesteps<br />

10 −4<br />

10 −5<br />

10 1 10 2 10 3<br />

Fig. 93<br />

Lösungen(y k ) k für verschiedenertol<br />

Fehler als Funktion des Rechenaufwandes<br />

2.6<br />

p. 299


☞ Adaptive Zeitschrittweitensteuerung erzielt bei vergleichbarem Rechenaufwand wesentlich<br />

bessere Genauigkeit als das gleiche Einschrittverfahren mit uniformer Zeitschrittweite.<br />

Numerische<br />

Mathemtik<br />

✸<br />

Nachteil von Code 2.4: Pauschale Vergrösserung/Verringerung der Schrittweite in Zeilen 9, 11 “verschwendet”<br />

Information enthalten inEST k : TOL.<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Wir wollen mehr ! WennEST k > TOL : Schrittweitenkorrektur t k+1 = ?<br />

WennEST k < TOL : Schrittweitenvorschlag t k+2 = ?<br />

2.6<br />

p. 300


Schrittweitenkorrektur bezieht sich auf verworfenen zu wiederholenden aktuellen Schritt<br />

Schrittweitenvorschlag wird benutzt für den nächsten Schritt<br />

(vgl. Code 2.4)<br />

Numerische<br />

Mathemtik<br />

Falls Ordnung(Ψ) = p, Ordnung(˜Ψ) > p,p ∈ N,<br />

Ziel: Effizienz<br />

Ψ t,t+h y(t k )−Φ t,t+h y(t k ) = ch p+1 +O(h p+2 ) ,<br />

˜Ψ t,t+h h≪1<br />

y(t k )−Φ t,t+h y(t k ) = O(h p+2 ⇒ EST k ≈ ch p+1 ! = TOL .<br />

)<br />

Heuristik!<br />

„Optimale Schrittweite”:<br />

(Schrittweitenvorschlag)<br />

h ∗ = h p+1 √ TOL<br />

EST k<br />

. (2.6.6)<br />

Korrigierte Schrittweite<br />

Schrittweitenvorschlag<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Bemerkung 2.6.7 (Steuerung von ˜Ψ durchΨ). Code 2.4<br />

Bisherige Überlegung: „Schätzung des Fehlers” von ˜Ψ ➣ Steuerung von ˜Ψ<br />

2.6<br />

p. 301


Effizient ?<br />

Genaueres (teureres) Verfahren ˜Ψ wird nur zur Steuerung des ungenaueren Verfahrens<br />

verwendet.<br />

Numerische<br />

Mathemtik<br />

Mit gleichem Aufwand: Integration des AWP mit ˜Ψ gesteuert durchΨ!<br />

So wird es in der Praxis auch gemacht !<br />

Erinnerung an Bsp. 2.6.4:<br />

Euler-Verfahren (Ordnungp = 1) lieferte gute Fehlerschätzung für explizite<br />

Trapezregel (Ordnungp = 2)<br />

Noch eine Heuristik:<br />

EST k > TOL ist ein Hinweis darauf, dass eines der beiden Verfahren Ψ, ˜Ψ Probleme mit der<br />

(lokalen) Approximation der Lösung hat. Eine Verringerung vonh k ist daher angezeigt.<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Mathematische Rechtfertigung: Steuerungstheorie → [8, Sect. 5.2]<br />

△<br />

2.6<br />

p. 302


MATLAB-Implementierung:<br />

Ψ,˜Ψ ˆ= diskrete Evolutionen, Konsistenzordnungp/p+1<br />

t 0 ˆ= Anfangszeitpunkt,T ˆ= Endzeitpunkt<br />

y 0 ˆ= Anfangswert (Spaltenvektor)<br />

reltol,abstol ˆ= absolute/relative Toleranzen<br />

h 0 ,h min ˆ= Schrittweite für 1. Schritt/minimale Schrittweite<br />

Numerische<br />

Mathemtik<br />

ESV mit Schrittweitensteuerung<br />

function [t,y] = ssctrl(Ψ,˜Ψ,t0,T,y0,h0,reltol,abstol,hmin)<br />

t = t0; y = y0; h = h0;<br />

while ((t(end) < T) && (h > hmin))<br />

yh = ˜Ψ(t(end),y(:,end),h);<br />

yH = Ψ(t(end),y(:,end),h);<br />

est = norm(yH-yh);<br />

tol = max(reltol*norm(y(:,end)),abstol);<br />

h = h*max(0.5,min(2,(tol/est)^(1/(p+1))));<br />

if (est < tol)<br />

y = [y,yh]; h = min(h,T-t(end)); t = [t,t(end)+h];<br />

end<br />

end<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

<strong>Beispiel</strong> 2.6.8 (Schrittweitensteuerung für explizite Trapezregel/Euler-Verfahren).<br />

2.6<br />

p. 303


Anfangswertproblem für skalare logistische Dgl, siehe Bsp. 1.2.1<br />

ẏ = λy(1−y) , λ = 20 ➣ y(t) =<br />

y 0<br />

y 0 +(1−y 0 )exp(−λt) .<br />

Numerische<br />

Mathemtik<br />

1.4<br />

Logistic ODE, lambda = 20.000000, y 0<br />

= 0.005000<br />

Einschrittverfahren aus Bsp. 2.6.4, Schrittweitenanpassung<br />

gemäss (2.6.6)<br />

➊ Integration mit explizitem Euler-Verfahren<br />

(1.4.2), Fehlerschätzung (2.6.3) mit<br />

expliziter Trapezregel (2.3.3)<br />

y(t)/y k<br />

1.2<br />

1<br />

0.8<br />

0.6<br />

➋ Integration mit expliziter Trapezregel (2.3.3),<br />

Schrittweitensteuerung mit expliziten Euler-<br />

Verfahren gemäss Bem. 2.6.7<br />

0<br />

Absolute/relative Toleranz =0.005,y 0 = 0.1/λ 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1<br />

0.4<br />

0.2<br />

t<br />

trapezoidal rule<br />

Euler method<br />

exact solution<br />

Fig. 94<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Trapezregel/Euler: 63/62 Schritte, 12 verworfen<br />

2.6<br />

p. 304


10 0 reltol<br />

Adaptive trapezoidal rule<br />

Adaptive Euler method<br />

600<br />

Adaptive trapezoidal rule<br />

Adaptive Euler method<br />

Numerische<br />

Mathemtik<br />

10 −1<br />

500<br />

error<br />

10 −2<br />

10 −3<br />

No. of timesteps<br />

400<br />

300<br />

200<br />

10 −4<br />

100<br />

10 −5<br />

10 −5 10 −4 10 −3 10 −2 10 −1 10 0<br />

Fig. 95<br />

0<br />

10 −5 10 −4 10 −3 10 −2 10 −1 10 0<br />

reltol<br />

Fig. 96<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

In diesem <strong>Beispiel</strong> liefert die Fortführung der Rechnung mit der Näherung aus dem Verfahren höherer<br />

Ordnung ˜Ψ ganz klar die bessere Genauigkeit.<br />

Beobachtung: Fehler max<br />

j<br />

|y(t j )−y j | ist in diesem <strong>Beispiel</strong> gut mit ToleranzTOL korreliert.<br />

✸<br />

2.6<br />

p. 305


<strong>Beispiel</strong> 2.6.9 (“Versagen” adaptive Zeitschrittsteuerung). → Ex. 2.6.5<br />

Numerische<br />

Mathemtik<br />

Gleiche ODE und einfache adaptive Schrittweitensteuerung wie in Bsp. 2.6.5. Ebenfalls gleiche Auswertungen.<br />

Nun: Anfangswert y(0) = −0.0386, vgl. Bsp. 2.6.4.<br />

0.05<br />

0.04<br />

Solving d t<br />

y = a cos(y) 2 with a = 40.000000 by simple adaptive timestepping<br />

Error vs. no. of timesteps for d t<br />

y = a cos(y) 2 with a = 40.000000<br />

uniform timestep<br />

adaptive timestep<br />

10 0 no. N of timesteps<br />

0.03<br />

0.02<br />

10 −1<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

y<br />

0.01<br />

0<br />

−0.01<br />

max k<br />

|y(t k<br />

)−y k<br />

|<br />

−0.02<br />

rtol = 0.400000<br />

−0.03<br />

rtol = 0.200000<br />

rtol = 0.100000<br />

rtol = 0.050000<br />

−0.04<br />

rtol = 0.025000<br />

rtol = 0.012500<br />

rtol = 0.006250<br />

−0.05<br />

0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2<br />

Lösungen(y k ) k für verschiedenertol<br />

t<br />

Fig. 97<br />

10 −2<br />

10 −3<br />

10 1 10 2 10 3<br />

Fig. 98<br />

Fehler als Funktion des Rechenaufwandes<br />

2.6<br />

p. 306


Numerische<br />

Mathemtik<br />

☞ Grösserer Fehler bei adaptiver Schrittweitensteuerung im Vergleich zu uniformer Schrittweite<br />

Erklärung: die Lage der steilen Flanke der Lösung hängt sensitiv vom Anfangswert ab. Daher werden<br />

kleine Einschrittfehler in den ersten Zeitschritten zu grossen Fehlern zur Zeitt ≈ 1 führen. Die lokale<br />

Schrittweitensteuerung hält diese kleinen Einschrittfehler für harmlos und kann daher nichts gegen<br />

die durch sie hervorgerufenen beträchtlichen Diskretisierungsfehler zur späteren Zeiten ausrichten.<br />

Allgemeiner Kontext: Im Falle von schlecht konditionierten Anfangswertproblemen (d.h., die Lösung<br />

hängt sensitiv vom Anfangswert ab, vgl. Sect. 1.3.3.5, “chaotische Systeme”) kann selbst ein winziger<br />

Einschrittfehler, der nur im ersten Schritt passiert, zu einer von der exkaten Lösung völlig abweichenden<br />

diskreten Lösung führen. Für solche Probleme ist allerdings der auf dem Konzept des<br />

Diskretisierungsfehlers aufbauende Genauigkeitsbegriff nicht mehr angemessen, siehe die Diskussion<br />

in Sect. 1.3.3.5.<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

✸<br />

2.6<br />

p. 307


<strong>Beispiel</strong> 2.6.10 (Schrittweitensteuerung und Instabilität).<br />

Anfangswertproblem für skalare logistische Dgl, siehe Bsp. 2.6.8, nunλ = 100<br />

Numerische<br />

Mathemtik<br />

explizites Euler-Verfahren (1.4.2), explizite Trapezregel (2.3.3) mit Schrittweitensteuerung wie<br />

Bsp. 2.6.8<br />

Absolute/relative Toleranz =0.05, Anfangszeitschritt (für adaptive ESV) h = 0.05<br />

3<br />

Logistic ODE, lambda = 100.000000, y 0<br />

= 0.001000, stepsize = 0.050000<br />

1.4<br />

Logistic ODE, lambda = 100.000000, y 0<br />

= 0.001000<br />

2.5<br />

1.2<br />

y(t)/y k<br />

2<br />

1.5<br />

1<br />

0.5<br />

y(t)/y k<br />

1<br />

0.8<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

0<br />

0.6<br />

−0.5<br />

0.4<br />

−1<br />

trapezoidal rule<br />

Euler method<br />

−1.5<br />

exact solution<br />

TR blowup<br />

Euler blorwup<br />

−2<br />

0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1<br />

t<br />

Fig. 99<br />

Trapez/Euler: uniforme Zeitschrittweiteh = 0.05<br />

0.2<br />

trapezoidal rule<br />

Euler method<br />

exact solution<br />

0<br />

0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1<br />

t<br />

Fig. 100<br />

Trapez/Euler: 119/114 Schritte, 28/42 verworfen<br />

2.6<br />

p. 308


Schrittweitensteuerung verhindert Instabilität, vgl. Bsp. 1.4.9 !<br />

<strong>Beispiel</strong> 2.6.11 (Schrittweitensteuerung und Kollaps).<br />

✸<br />

Numerische<br />

Mathemtik<br />

1<br />

d t<br />

y = −1/<br />

Skalares Anfangswerproblem mit Kollaps, vgl.<br />

Bsp. 1.3.11<br />

ẏ = − 1 √ y<br />

, y(0) = 1<br />

⇒ y(t) = (1−3t/2) 2 /3 .<br />

Schrittweitensteuerung wie Bsp. 2.6.8 , absolute/relative<br />

Toleranz =0.005<br />

y(t)/y k<br />

0.9<br />

0.8<br />

0.7<br />

0.6<br />

0.5<br />

0.4<br />

0.3<br />

0.2<br />

0.1 adaptive trapezoidal rule<br />

adaptive Euler method<br />

exact solution<br />

0<br />

0 0.1 0.2 0.3 0.4 0.5 0.6 0.7<br />

t<br />

Fig. 101<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Schrittweitensteuerung ➣ Verfahren “erkennt” Kollaps der Lösung<br />

✸<br />

2.6<br />

p. 309


<strong>Beispiel</strong> 2.6.12 (Schrittweitensteuerung und Blow-up).<br />

Numerische<br />

Mathemtik<br />

d t<br />

y = y 2 , y 0<br />

= 1.000000<br />

Skalares Anfangswerproblem mit Blow-up, vgl.<br />

Bsp. 1.3.11<br />

100<br />

90<br />

80<br />

70<br />

adaptive trapezoidal rule<br />

adaptive Euler method<br />

exact solution<br />

ẏ = y 2 , y(0) = 1<br />

⇒ y(t) = 1<br />

1−t .<br />

Schrittweitensteuerung wie Bsp. 2.6.8, absolute/relative<br />

Toleranz =0.05<br />

y(t)/y k<br />

60<br />

50<br />

40<br />

30<br />

20<br />

10<br />

R. Hiptmair<br />

0<br />

0 0.2 0.4 0.6 0.8 1 1.2<br />

t<br />

Fig. 102<br />

rev 35327,<br />

25. April<br />

2011<br />

Schrittweitensteuerung ➣ Verfahren “erkennt” Blow-up der Lösung<br />

✸<br />

Bemerkung 2.6.13 (Eingebettete RK-ESV).<br />

2.6<br />

p. 310


Algorithmische Realisierung (ESV):<br />

Eingebettete Runge-Kutta-Verfahren<br />

Gleiche Inkremente k i , verschiedene Gewichte b i<br />

(→ Def 2.3.5) realisieren RK-EvolutionenΨ h , ˜Ψ h<br />

der Ordnungenpundp+1.<br />

c A<br />

b T :=<br />

b<br />

̂ T<br />

c 1 a 11 ··· a 1s<br />

.<br />

.<br />

c s a s1 ··· a ss .<br />

b 1 ··· b s<br />

̂b 1 ··· ̂b s<br />

Eingebettetes RK-ESV: Butcher-Schema<br />

.<br />

Numerische<br />

Mathemtik<br />

Ψ h y = y+h<br />

s∑<br />

b i k i , ˜Ψ h y = y+h<br />

i=1<br />

s∑ ̂b i k i .<br />

i=1<br />

Motivation: Effizienz (Inkrementek i nur einmal zu berechnen, siehe Def. 2.3.5)<br />

Gebräuchlich: p = 4,p = 7<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

△<br />

<strong>Beispiel</strong> 2.6.14 (Eingebettete Runge-Kutta-Verfahren).<br />

→ [17, Sect. II.4]<br />

2.6<br />

p. 311


0<br />

1<br />

3<br />

1<br />

3<br />

1<br />

2<br />

1<br />

3<br />

1 1<br />

6 6<br />

1<br />

8 0 3<br />

8<br />

1<br />

1<br />

2<br />

0 − 3 2 2<br />

y 1<br />

1<br />

6<br />

0 0 2 3 1 6<br />

ŷ 1<br />

1<br />

10<br />

0<br />

3<br />

10<br />

2<br />

5<br />

1<br />

5<br />

Eingebettes RK-Verfahren der Ordnung 3(„4”)<br />

von Merson<br />

0<br />

1<br />

2<br />

1<br />

2<br />

1<br />

2<br />

0<br />

1<br />

2<br />

1 0 0 1<br />

3<br />

4<br />

5<br />

32<br />

7<br />

32 32 13 − 32<br />

1<br />

y 1<br />

1<br />

6<br />

1<br />

3<br />

1<br />

3<br />

1<br />

6<br />

ŷ 1 − 1 7 7 13<br />

2 3 3 6<br />

− 16<br />

3<br />

Eingebettes RK-Verfahren der Ordnung 3(4) von<br />

Zonneveld<br />

Numerische<br />

Mathemtik<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

2.6<br />

p. 312


0<br />

Numerische<br />

Mathemtik<br />

1<br />

5<br />

3<br />

10<br />

4<br />

5<br />

1<br />

5<br />

3 9<br />

40 40<br />

44<br />

45<br />

− 56<br />

15<br />

8 19372<br />

9 6561 −25360 2187<br />

1<br />

9017<br />

3168<br />

− 355<br />

33<br />

1<br />

35<br />

384<br />

0<br />

500<br />

1113<br />

y 1<br />

35<br />

384<br />

0<br />

500<br />

1113<br />

ŷ 1<br />

5179<br />

57600<br />

0<br />

7571<br />

16695<br />

32<br />

9<br />

64448<br />

6561 −212 729<br />

46732 49<br />

5247 176<br />

−18656<br />

5103<br />

125<br />

192<br />

−6784<br />

2187<br />

125<br />

192<br />

−6784<br />

2187<br />

393<br />

640<br />

−339200<br />

92097<br />

11<br />

84<br />

0<br />

11<br />

84<br />

0<br />

187 1<br />

2100 40<br />

DOPRI5: Eingebettes RK-<br />

Verfahren der Ordnung 4(5)<br />

von Dormand & Prince<br />

(MATLABode45)<br />

✸<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Adaptive Integratoren für Anfangswertprobleme in MATLAB:<br />

options = odeset(’abstol’,atol,’reltol’,rtol,’stats’,’on’);<br />

[t,y] = ode45/ode23(@(t,x) f(t,x),tspan,y0,options);<br />

(f = function handle,tspan ˆ= [t 0 ,T],y0 ˆ= y 0 ,t ˆ=t k ,y ˆ=y k )<br />

2.6<br />

p. 313


<strong>Beispiel</strong> 2.6.15 (Adaptive RK-ESV zur Teilchenbahnberechnung). → Bsp. 2.4.19<br />

Numerische<br />

Mathemtik<br />

Bewegung eines geladenen Teilchens im Feld eines geraden Drahtes = Linienladung (konservatives<br />

Zentralfeld, Zentrum ( 0<br />

0<br />

)<br />

, PotentialU(x) := −2log‖x‖): → Bsp. 1.2.25<br />

ÿ = − 2y<br />

‖y‖ 2 ⇒<br />

( ˙ y<br />

v)<br />

=<br />

( ) v<br />

− 2y<br />

‖y‖ 2<br />

, y(0) =<br />

Anfangswert: y(0) = (−1,0,0.1,−0.1), Endzeitpunkt: T = 4<br />

( )<br />

−1<br />

, v(0) =<br />

0<br />

( )<br />

0.1<br />

−0.1<br />

.<br />

Adaptiver Integrator:<br />

ode45(@(t,x) satf,[0 4],[-1;0;0.1;-0.1,],options):<br />

➊ options = odeset(’reltol’,0.001,’abstol’,1e-5);<br />

➋ options = odeset(’reltol’,0.01,’abstol’,1e-3);<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

2.6<br />

p. 314


4<br />

3<br />

abstol = 0.000010, reltol = 0.001000<br />

y 1<br />

(t) (exakt)<br />

y (t) (exakt)<br />

2<br />

v 1<br />

(t) (exakt)<br />

5<br />

abstol = 0.000010, reltol = 0.001000<br />

y (t ) (Naeherung)<br />

1 k<br />

y 2<br />

(t k<br />

) (Naeherung)<br />

v (t ) (Naeherung)<br />

1 k<br />

0.2<br />

Numerische<br />

Mathemtik<br />

2<br />

v 2<br />

(t) (exakt)<br />

v 2<br />

(t k<br />

) (Naeherung)<br />

1<br />

0<br />

−1<br />

−2<br />

−3<br />

−4<br />

0 0.5 1 1.5 2 2.5 3 3.5 4<br />

t<br />

y i<br />

(t)<br />

0<br />

−5<br />

0 0.5 1 1.5 2 2.5 3 3.5 4<br />

t<br />

0 0.5 1 1.5 2 2.5 3 3.5 4 0 0.1<br />

Zeitschrittweite<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

2.6<br />

p. 315


4<br />

3<br />

abstol = 0.001000, reltol = 0.010000<br />

y 1<br />

(t) (exakt)<br />

y (t) (exakt)<br />

2<br />

v 1<br />

(t) (exakt)<br />

5<br />

abstol = 0.001000, reltol = 0.010000<br />

y (t ) (Naeherung)<br />

1 k<br />

y 2<br />

(t k<br />

) (Naeherung)<br />

v (t ) (Naeherung)<br />

1 k<br />

0.2<br />

Numerische<br />

Mathemtik<br />

2<br />

v 2<br />

(t) (exakt)<br />

v 2<br />

(t k<br />

) (Naeherung)<br />

1<br />

0<br />

−1<br />

−2<br />

−3<br />

−4<br />

0 0.5 1 1.5 2 2.5 3 3.5 4<br />

t<br />

y i<br />

(t)<br />

0<br />

−5<br />

0 0.5 1 1.5 2 2.5 3 3.5 4<br />

t<br />

0 0.5 1 1.5 2 2.5 3 3.5 4 0 0.1<br />

Zeitschrittweite<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

2.6<br />

p. 316


0.8<br />

0.6<br />

0.8<br />

0.6<br />

Numerische<br />

Mathemtik<br />

0.4<br />

0.4<br />

0.2<br />

0.2<br />

0<br />

0<br />

y 2<br />

−0.2<br />

y 2<br />

−0.2<br />

−0.4<br />

−0.4<br />

−0.6<br />

−0.6<br />

−0.8<br />

Exakte Bahn<br />

Naeherung<br />

−1<br />

−1 −0.5 0 0.5 1<br />

y 1<br />

−0.8<br />

Exakte Bahn<br />

Naeherung<br />

−1<br />

−1 −0.5 0 0.5 1<br />

y 1<br />

reltol=0.001, abstol=1e-5<br />

reltol=0.01, abstol=1e-3<br />

☞ Qualitativ falsche Lösung bei geringfügig erniedrigter Toleranz !<br />

<strong>Beispiel</strong> 2.6.16 (Schrittweitensteuerung für Bewegungsgleichungen). → Bsp. 2.4.19<br />

✸<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

2.6<br />

p. 317


AWP aus Bsp. 2.4.19<br />

ode45 mit verschiedenen absoluten/relativen Toleranzen<br />

Im Gegensatz zu Bsp. 2.6.8:<br />

!<br />

Toleranzen sagen nichts über globalen Fehler<br />

Erklärung: wie in Bsp. 2.6.9 liegt ein schlecht konditioniertes<br />

AWP vor, was den Einfluss von Einschrittfehlern<br />

auf den Diskretisierungsfehler unkalkulierbar<br />

macht.<br />

Fehler |y h<br />

(4)−y(4)|<br />

10 1<br />

10 0<br />

10 −1<br />

10 −2<br />

10 −3<br />

rtol = atol^(1/2)<br />

rtol=atol^(2/3)<br />

rtol=10*atol<br />

10 −4<br />

10 −6 10 −5 10 −4 10 −3 10 −2 10 −1<br />

10 2 (Absolute) Toleranz<br />

Numerische<br />

Mathemtik<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

2.6<br />

p. 318


10 0<br />

RK4 äquidistant<br />

ode45 adaptiv<br />

Effizienz von Schrittweitensteuerung:<br />

Vergleich:<br />

Numerische<br />

Mathemtik<br />

Fehler |y h<br />

(4)−y(4)|<br />

10 2 Anzahl f−Auswertungen<br />

10 −2<br />

10 −4<br />

10 −6<br />

10 −8<br />

10 −10<br />

10 1 10 2 10 3 10 4 10 5 10 6<br />

• Klassisches Runge-Kutta-Verfahren (2.3.11)<br />

• Eingebettetes Runge-Kutta-Verfahren mit<br />

Schrittweitensteuerung: ode45<br />

Aufwandsmass: ♯f-Auswertungen<br />

Adaptivität zahlt sich aus !<br />

✸<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

2.6<br />

p. 319


Numerische<br />

Mathemtik<br />

3 Stabilität [8, Kap. 6]<br />

<strong>Beispiel</strong> 3.0.1 (Ineffizienz expliziter Runge-Kutta-Verfahren). → Bsp. 1.4.9, 1.4.15<br />

Logistische Differentialgleichung ẏ = f(y), f(y) = λy(1 − y) → (2.2.84), λ = 50, Anfangswert<br />

y 0 = 0.1, Zeitintervall[0,1]:<br />

• Integratoren: Implizites Euler-Verfahren (1.4.13), klassisches Runge-Kutta-Verfahren (2.3.11)<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

• uniforme Zeitschrittweiteh = 1/N,N ∈ N<br />

• Fehlermass:<br />

err = max k |y k −y(t k )|,k = 1,...,N<br />

3.0<br />

p. 320


1.2<br />

1<br />

10 1<br />

10 0<br />

10 −1<br />

10 −2<br />

timestep h<br />

Numerische<br />

Mathemtik<br />

y<br />

0.8<br />

0.6<br />

0.4<br />

∞−error<br />

10 −3<br />

10 −4<br />

10 −5<br />

10 −6<br />

0.2<br />

y(t)<br />

Implicit Euler<br />

RK4<br />

0<br />

0 0.2 0.4 0.6 0.8 1<br />

t<br />

Fig. 103<br />

(Approximative) Lösungen fürN = 30<br />

10 −7<br />

10 −8<br />

implicit Euler<br />

RK4<br />

blow−up<br />

10 −4 10 −3 10 −2 10 −1 10 0<br />

Fig. 104<br />

Fehler gegen Schrittweite (doppeltlogarithmisch)<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

Beobachtung:<br />

RK4 asymptotisch genauer als implizites Euler-Verfahren<br />

RK4 präasymptotisch (fürh > 0.02) unbrauchbar (Instabilität)<br />

✸<br />

3.0<br />

p. 321


Überlegung: Linearisierung um Fixpunkt, siehe Bem. 1.3.19<br />

Numerische<br />

Mathemtik<br />

3.1 Modellproblemanalyse<br />

Überlegung zu Bsp. 3.0.1: In der Umgebung eines Fixpunktes verhalten sich die Lösungen einer<br />

(vorläufig skalaren) ODE wie die ihrer Linearisierung.<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

➣ Relevanz der (um einen Fixpunkt) linearisierten ODE: Numerischer Integrator ist nur dann für die<br />

Lösung der ODE in der Nähe des Fixpunktes geeignet, wenn er sich zumindest für die linearisierte<br />

ODE bewährt.<br />

Lineare autonome skalare ODE sind einfach:<br />

ẏ = λy (bis auf Translation)<br />

3.1<br />

p. 322


In diesem Abschnitt untersuchen wir das Verhalten numerischer Integratoren für solche einfachen<br />

ODEs<br />

Numerische<br />

Mathemtik<br />

Nichts Neues! Erinnerung an Abschnitt 1.4.1: Einsichten in das Verhalten des expliziten<br />

Euler-Verfahrens (1.4.2) durch Modellproblemanalyse, d.h., analytische Untersuchung der<br />

diskreten Evolution für die skalare lineare ODEẏ = λy,λ ∈ C.<br />

Autonomes skalares lineares AWP: ẏ = λy, y(0) = 1, Reλ < 0 auf[0,∞[ (3.1.1)<br />

y(t) = e λt → 0 fürt → ∞ (sog. Asymptotische Stabilität vony = 0) .<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

Beachte: komplexesλ ∈ C im Modellproblem zugelassen ➢ komplexer ZustandsraumC<br />

(Grund: „Diagonalisierungstechnik” für lineare, autonome AWP, Sect. 1.3.2, vgl.<br />

Bem. 3.1.13)<br />

Frage:<br />

Wann „erbt” Lösung {y k } ∞ k=0 , y k+1 = Ψ h λ y k (Ψh λ<br />

ˆ= diskrete Evolution) aus RK-ESV auf<br />

(unendlichem) äquidistantem Gitter (Maschenweiteh) asymptotische Stabilität ?<br />

3.1<br />

p. 323


Dies ist eine Frage nach Strukturerhaltung: Übereinstimmung von qualitativen Eigenschaften der kontinuierlichen<br />

und diskreten Evolution.<br />

Numerische<br />

Mathemtik<br />

Bemerkung 3.1.2 (Reskalierung des Modellproblems).<br />

Beachte: Anwendung eines linearen Operators auf R ↔ Multiplikation mit reeller Zahl<br />

L(R,R) ∼ = R<br />

✎ Notation: L(R,R) ˆ= Raum linearer Operatoren aufR<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

Da AWP (3.1.1) autonom & skalar ➢ Φ h λ ∈ L(R,R)<br />

➢<br />

Anwendung vonΦ h λ<br />

auf Zustandy ∈ C∼Multiplikation<br />

➢<br />

(h,λ) ↦→ Φ h λ<br />

beschreibbar durch FunktionR×C ↦→ C<br />

Welche Funktion ist das?<br />

Φ h λ (y) = eλh y ∀y ∈ R ⇒ Funktion (h,λ) ↦→ e λh .<br />

3.1<br />

p. 324


Φ h λ = Φλh 1 ⇒ Funktion hängt nur von Produktλh ab. (3.1.3)<br />

Numerische<br />

Mathemtik<br />

Auch für die diskrete Evolution eines Runge-Kutta-Einschrittverfahrens giltΨ h λ ∈ L(R,R)<br />

(h,λ) ↦→ Ψ h λ<br />

ebenfalls beschreibbar durch FunktionR×C ↦→ C<br />

Naheliegende Frage:<br />

Gilt die Zeitskalierungsinvarianz (3.1.3) auch fürΨ h λ<br />

, d.h. gilt<br />

Ψ h λ = Ψλh 1 ∀λ ∈ C, h hinreichend klein ?<br />

Die Zeitskalierungsinvarianz (3.1.3) ist für Runge-Kutta-Einschrittverfahren (→ Def. 2.3.5) erfüllt, wie<br />

durch einfaches Nachrechnen bestätigt werden kann! (h undλgehen in die Inkrementgleichung des<br />

RK-ESV für (3.1.1) nur in Form des Produktshλ ein, siehe Beweis zu Thm. 3.1.6.)<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

Ψ h λ = Ψλh 1 hängt nur vonz := λh ab: S(z) :=<br />

Ψ h λ<br />

Stabilitätsfunktion<br />

interpretiert als Zahl<br />

△<br />

3.1<br />

p. 325


Was sagt uns diese Stabilitätsfunktion über die qualitative Asymptotik der diskreten Lösung ?<br />

Diskrete Lösung: y k = S(z) k y 0 , k ∈ N 0 , z := λh .<br />

Numerische<br />

Mathemtik<br />

➥<br />

|S(z)| < 1 ⇔ lim<br />

k→∞ y k = 0 ∀y 0 ∈ R<br />

⇔ y = 0 asymptotisch stabil (→ Def. 3.2.2) für diskrete Evolution Ψ h λ .<br />

Definition 3.1.4 (Stabilitätsgebiet eines Einschrittverfahrens). [8, Sect. 6.1.2]<br />

Das Stabilitätsgebiet eines ESV für das AWP (3.1.1) auf der Grundlage der diskreten Evolution<br />

Ψ h λ y =: S(z)y,y ∈ C,z := λh,S : D S ⊂ C ↦→ C, ist<br />

S Ψ := {z ∈ D S : |S(z)| < 1} ⊂ C .<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

☞<br />

Für von RK-ESV zu AWP (3.1.1) erzeugte Gitterfunktion {y k } k∈N auf äquidistantem Zeitgitter<br />

mit Maschenweiteh > 0 gilt<br />

y 0 ≠ 0: lim<br />

k→∞ y k = 0 ⇔ lim<br />

k→∞ S(hλ)k = 0 ⇔ hλ ∈ S Ψ . (3.1.5)<br />

3.1<br />

p. 326


Numerische<br />

Mathemtik<br />

✬<br />

✩<br />

Theorem 3.1.6 (Stabilitätsfunktion von Runge-Kutta-Verfahren).<br />

Die diskrete Evolution Ψ h λ<br />

zu einem s-stufigen Runge-Kutta-Einschrittverfahren (→ Def. 2.3.5)<br />

mit Butcher-Schema c A bT (siehe (2.3.6)) für die ODE ẏ = λy ist ein Multiplikationsoperator<br />

der Form<br />

✫<br />

Ψ h λ = 1+zbT (I−zA) −1 1<br />

} {{ }<br />

Stabilitätsfunktion S(z)<br />

= det(I−zA+z1bT )<br />

det(I−zA)<br />

, z := λh , 1 = (1,...,1) T ∈ R s .<br />

✪<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

Bemerkung 3.1.7 (Interpretation der Stabilitätsfunktion).<br />

Ψ h λ y = S(z)y = (1+λhbT (I−λhA) −1 1)y<br />

Φ h λ = eλh<br />

Diskrete Evolution<br />

(Kontinuierliche) Evolution<br />

➣<br />

S(z) ≈ exp(z): Stabilitätsfunktion = Approximation der Exponentialfunktion (um0).<br />

△<br />

3.1<br />

p. 327


✬<br />

✩<br />

Korollar 3.1.8.<br />

✫<br />

Explizite Runge-Kutta-Verfahren ➤ S(z) ∈ P s ,<br />

Allgemeine Runge-Kutta-Verfahren<br />

➤ S(z) = P(z)<br />

Q(z) ,P,Q ∈ P s.<br />

✪<br />

Numerische<br />

Mathemtik<br />

Beweis. Aus der Determinantenformel von Thm. 3.1.6:<br />

Explizite Runge-Kutta-Verfahren ⇒ A echte untere Dreiecksmatrix ⇒ det(I−zA) = 1<br />

Allgemein istz ↦→ det(I−zM),M ∈ R s,s , ein Polynom vom Grads, wie aus der kombinatorischen<br />

Definition der Determinante folgt.<br />

✷<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

Korollar (3.1.8) ➣ Kein RK-ESV kann ẏ = λy bei vorgegebener Schrittweite h für alle λ ∈ R<br />

ohne Fehler lösen, denn die Exponentialfunktion (→ Bem. 3.1.7) lässt sich natürlich durch keine<br />

rationale Funktion modellieren.<br />

Korollar (3.1.8) ➣ Ordnungsschranken für explizite/implizite RK-ESV, siehe Sect. 2.3.2<br />

3.1<br />

p. 328


✬<br />

✩<br />

Lemma 3.1.9 (Rationale Approximation der Exponentialfunktion).<br />

IstS(z) = P(z)<br />

Q(z) ,P,Q ∈ P s,s ∈ N, so gilt<br />

Numerische<br />

Mathemtik<br />

S(z)−exp(z) = O(|z| m ) fürz → 0 ⇒ m ≤ 2s+1 .<br />

✫<br />

✪<br />

Beweis: (→ [8, Lemma 6.4], doch der dortige Beweis ist falsch!)<br />

Indirekte Beweisführung, Annahme S(z)−exp(z) = O(|z| 2s+2 ) fürz → 0:<br />

Ansatz:<br />

P(z) = p 0 +p 1 z +···+p s z s ,<br />

Q(z) = q 0 +q 1 z +···+q s z s , q 0 = 1, da O.B.d.AQ(0) = 1 .<br />

Q(z)exp(z)−P(z) = α 2s+2 z 2s+2 +α 2s+3 z 2s+3 +... (global konvergente Potenzreihe) .<br />

Einsetzen der Exponentialreihe und Multiplikation, dann Koeffizientenvergleich ➢ lineares Gleichungssystem<br />

s∑<br />

j=0<br />

q j<br />

1<br />

(i−j)! = 0 , i = s+1,...,2s+1 .<br />

s∑<br />

j=0<br />

q j<br />

1<br />

(i−j)! −p i = 0 , i = 0,...,s .<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

3.1<br />

p. 329


Dieses hat nur die triviale Lösung, was auf einen Widerspruch zuq 0 = 1 führt.<br />

<strong>Beispiel</strong> 3.1.10 (Stabilitätsfunktionen einiger RK-ESV).<br />

✷<br />

Numerische<br />

Mathemtik<br />

• Explizites Euler-Verfahren (1.4.2):<br />

0 0<br />

1<br />

➣ S(z) = 1+z .<br />

• Implizites Eulerverfahren (1.4.13):<br />

1 1<br />

1<br />

➣ S(z) = 1<br />

1−z .<br />

R. Hiptmair<br />

• Explizite Trapezregel (2.3.3):<br />

0 0 0<br />

1 1 0<br />

1<br />

2 1 2<br />

➣ S(z) = 1+z + 1 2 z2 .<br />

rev 35327,<br />

24. Juni<br />

2011<br />

• Implizite Mittelpunktsregel (2.2.19): 1<br />

2<br />

1<br />

21 ➣ S(z) = 1+ 1 2 z<br />

1− 1 2 z .<br />

3.1<br />

p. 330


• RK4-Verfahren (2.3.11):<br />

0 0 0 0 0<br />

1<br />

2<br />

1<br />

2<br />

0 0 0<br />

1<br />

2<br />

0 1 2 0 0<br />

1 0 0 1 0<br />

1<br />

6 2 6 2 6 1 6<br />

➣ S(z) = 1+z + 1 2 z2 + 1 6 z3 + 1<br />

24 z4 .<br />

Numerische<br />

Mathemtik<br />

✸<br />

<strong>Beispiel</strong> 3.1.11 (Verhalten von Stabilitätsfunktionen).<br />

Verhalten von Stabilitätsfunktionen<br />

(für reelles Argumentz):<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

Bem. 3.1.7 ➣ wir erwarten, dass sich die Stabilitätsfunktionen in z = 0 an exp(z) “anschmiegen”,<br />

d.h., beiden Funktionen stimmen im Werte und einigen niedrigsten Ableitungen überein. Die<br />

Mindestzahl der übereinstimmenden Ableitungen ist gegeben durch die Konsistenzordnung des Einschrittverfahrens.<br />

3.1<br />

p. 331


60<br />

50<br />

40<br />

30<br />

exp(z)<br />

Explicit Euler<br />

Classical RK4<br />

Implicit Euler<br />

Gauss−coll.−RK−ESV s=1<br />

Gauss−coll.−RK−ESV s=2<br />

Gauss−coll.−RK−ESV s=3<br />

Gauss−coll.−RK−ESV s=4<br />

4<br />

3.5<br />

3<br />

2.5<br />

exp(z)<br />

Explicit Euler<br />

Classical RK4<br />

Implicit Euler<br />

Gauss−coll.−RK−ESV s=1<br />

Gauss−coll.−RK−ESV s=2<br />

Gauss−coll.−RK−ESV s=3<br />

Gauss−coll.−RK−ESV s=4<br />

Numerische<br />

Mathemtik<br />

Re(S(z))<br />

20<br />

Re(S(z))<br />

2<br />

10<br />

1.5<br />

0<br />

1<br />

−10<br />

0.5<br />

−20<br />

−5 0 5<br />

z<br />

Fig. 105<br />

0<br />

−1 −0.5 0 0.5 1<br />

z<br />

Fig. 106<br />

✸<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

<strong>Beispiel</strong>e: StabilitätsgebieteS expliziter RK-ESV:<br />

3.1<br />

p. 332


2.5<br />

3<br />

3<br />

2<br />

1.5<br />

2<br />

2<br />

Numerische<br />

Mathemtik<br />

1<br />

1<br />

1<br />

0.5<br />

Im<br />

0<br />

Im<br />

0<br />

Im<br />

0<br />

−0.5<br />

−1<br />

−1<br />

−1<br />

−1.5<br />

−2<br />

−2<br />

−2<br />

−2.5<br />

−3 −2 −1 0 1<br />

Fig.<br />

2<br />

1073<br />

Re<br />

S Ψ : expliziter Euler (2.2.1)<br />

✗<br />

✖<br />

−3<br />

Fig. 108<br />

−3 −2 −1 0 1 2 3<br />

Re<br />

S Ψ : explizite Trapezregel<br />

Mittelpunktsregel<br />

−3<br />

S Ψ :<br />

Das Stabilitätsgebiet expliziter RK-Verfahren ist beschränkt !<br />

Fig. 109<br />

−3 −2 −1 0 1 2 3<br />

Re<br />

RK4-Verfahren (2.3.11)<br />

Kuttas 3/8-Regel (2.3.12)<br />

✔<br />

✕<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

3.1<br />

p. 333


3<br />

2<br />

*<br />

λ<br />

Stabilitätsbedingte Schrittweitenbeschrän-<br />

Numerische<br />

Mathemtik<br />

kung für explizite RK-ESV angewandt auf<br />

1<br />

λh ∋<br />

(3.1.1):<br />

Im<br />

0<br />

h < sup{t > 0: tλ ∈ S Ψ } . (3.1.12)<br />

−1<br />

−2<br />

Für eine detailliertere Betrachtung siehe [8, Lemma<br />

6.6]<br />

−3<br />

−3 −2 −1 0 1 2 3<br />

Re<br />

Bemerkung 3.1.13 (RK-ESV für autonome homogene lineare ODE). siehe Sect. 1.3.2<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

Was ist die Diskrete Evolution eines RK-ESV angewandt auf<br />

homogene, autonome, lineare ODE ẏ = Ay, A ∈ C d,d ?<br />

3.1<br />

p. 334


➀ Annahme: A diagonalisierbar ⇔ ∃S ∈ C d,d regulär: S −1 AS = D := diag(λ 1 ,...,λ d )<br />

Numerische<br />

Mathemtik<br />

Folgerung aus Affin-Kovarianz von RK-ESV (→ Bem. 2.3.13):<br />

Ist ̂Ψ die diskrete Evolution zu d dtŷ = Dŷ (entkoppelte skalare lineare ODE !), dann, mitŷ := S−1 y,<br />

Ψ h y (2.3.14)<br />

= ŜΨ h S −1 y = S<br />

⎛<br />

P(hλ 1)<br />

= S⎝ . ..<br />

⎛<br />

̂Ψ h ⎞ ⎛<br />

λ ŷ<br />

⎜ 1 1<br />

⎟<br />

S(hλ 1)<br />

⎝ . ⎠ = S⎝ . ..<br />

̂Ψ h λ ŷ<br />

d<br />

d<br />

⎞ ⎛ ⎛<br />

⎠S −1 ⎝S<br />

Q(hλ 1)<br />

⎝ . ..<br />

P(hλ d )<br />

⎞<br />

⎠ŷ<br />

S(hλ d )<br />

⎞ ⎞<br />

⎠S −1 ⎠<br />

Q(hλ d )<br />

= SP(hD)S −1( SQ(hD)S −1) −1<br />

y = P(hA)Q(hA) −1 y = S(hA)y .<br />

−1<br />

y<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

wobeiS(z) = P(z)/Q(z) ˆ= Stabilitätsfunktion (→ Thm. 3.1.6) des RK-ESV.<br />

➁<br />

Allgemeine MatrixA ∈ C d,d mit Eigenwerten (mit Vielfachheit gezählt)λ 1 ,...,λ d ∈ C<br />

3.1<br />

p. 335


Hilfsmittel:<br />

Schur-Zerlegung<br />

Numerische<br />

Mathemtik<br />

✬<br />

✩<br />

Lemma 3.1.14 (Schur-Zerlegung). Zu jeder Matrix A ∈ C d,d existiert eine unitäre Matrix U ∈<br />

C d,d und eine obere DreiecksmatrixT ∈ C d,d so, dass<br />

A = UTU H .<br />

✫<br />

✪<br />

Aus der Schur-Zerlegung für Matrizen folgt, dass die diagonalisierbaren Matrizen inC d,d dicht liegen<br />

(bzgl. der von der Euklidischen Norm induzierten Matrixnorm): addiere zu T eine DiagonalmatrixD<br />

mit beliebig kleinen Diagonaleinträgen so, dass T + D paarweise verschiedene Diagonaleinträge<br />

hat. Dann ist U(T + D)U H diagonalisierbar, denn auch diese Matrix hat parrweise verschiedene<br />

Eigenwerte.<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

➣ Ist σ(hA) ⊂ D S , dann gibt es also eine Folge diagonalisierbarer Matrizen A n → A, n ∈ N,<br />

σ(hA n ) ⊂ D S , für die offensichtlich infolge der Stetigkeit der Matrixmultiplikation gilt<br />

P(hA n ) → P(hA) , Q(hA n ) → Q(hA) .<br />

3.1<br />

p. 336


Wegen der Stetigkeit der Matrixinversion A ↦→ A −1 auf GL(d) := {M ∈ C d,d : M regulär} folgt<br />

damit<br />

Numerische<br />

Mathemtik<br />

S(hA n ) = P(hA n )Q(hA n ) −1 → P(hA)Q(hA) −1 = S(hA) . (3.1.15)<br />

Ist nunΨ h n die diskrete Evolution zuẏ = A ny, so gilt<br />

Ψ h y = lim<br />

n→∞ Ψh ny = ➀ lim<br />

n→∞ S(hA n)y (3.1.15)<br />

= S(hA) .<br />

Ψ h y =<br />

Stabilitätsfunktion<br />

S(hA)y ∀y ∈ C d . (3.1.16)<br />

△<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

Bemerkung 3.1.17 (Funktionenkalkül für Matrizen).<br />

FürA ∈ R d,d :<br />

3.1<br />

p. 337


Klar ist p(A) =<br />

s∑<br />

c j A j ∑<br />

für Polynomp ∈ P s ,p(z) = s<br />

j=1<br />

Für rationale Funktion<br />

s∑<br />

falls<br />

s∑<br />

j=1<br />

R(z) =<br />

j=1<br />

s∑<br />

j=1<br />

p j z j<br />

q j A j invertierbar.<br />

Istf(z) = ∞ ∑<br />

i=0<br />

q j z j R(A) =<br />

⎛<br />

⎝<br />

s∑<br />

j=1<br />

j=1<br />

q j A j ⎞<br />

⎠−1 ⎛ ⎝<br />

c j z j .<br />

s∑<br />

j=1<br />

a j z j eine Potenzreihe mit Konvergenzradiusρ > 0, so ist<br />

f(A) :=<br />

∞∑<br />

a j A j wohldefiniert für ‖A‖ < ρ .<br />

p j A j ⎞<br />

⎠ , (3.1.18)<br />

i=0<br />

So lassen sich transzendente Funktionen von Matrizen, wie etwa die Matrixexponentialfunktion<br />

(1.3.14) definieren.<br />

Numerische<br />

Mathemtik<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

Für alle oben eingeführten Matrixfunktionen gilt, vgl. 1.3.15,<br />

A = S −1 BS ⇒ f(A) = S −1 f(B)S ∀A,B ∈ C d,d , S ∈ C d,d regulär . (3.1.19)<br />

3.1<br />

p. 338


Für das Spektrum gilt<br />

σ(f(A)) = f(σ(A)) := {f(λ): λ ∈ σ(A)} . (3.1.20)<br />

Numerische<br />

Mathemtik<br />

△<br />

3.2 Vererbung asymptotischer Stabilität<br />

3.2.1 Attraktive Fixpunkte<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

Betrachte: Autonomes AWP ẏ = f(y), f ∈ C 1 (D,R d ),D ⊂ R d offen.<br />

Definition 3.2.1 (Fixpunkt).<br />

y ∗ ist Fixpunkt (stationärer Punkt) vonẏ = f(y), falls f(y ∗ ) = 0.<br />

3.2<br />

p. 339


Die Begriffsbildung ist klar:<br />

eine Fixpunkt repräsentiert einen Zustand, der sich während der Evolution<br />

nicht ändert:<br />

y(0) = y ∗ ⇒ y(t) = y ∗ ∀t ∈ R .<br />

Numerische<br />

Mathemtik<br />

Definition 3.2.2 (Asymptotische Stabilität eines Fixpunkts). → [8, Def. 3.19]<br />

Fixpunkty ∗ ∈ D asymptotisch stabil (attraktiv)<br />

:⇔ ∃δ > 0: ‖y 0 −y ∗ ‖ < δ ⇒ R + 0 ⊂ J(y 0) ∧ lim<br />

t→∞ y(t) = y∗ ,<br />

wobeiy(t) Lösung des AWP ẏ = f(y),y(0) = y 0 .<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

Erinnerung an Def. 1.3.1:<br />

J(y 0 ) ˆ= maximales Existenzintervall der Lösung einer autonomen Differentialgleichung<br />

zum Anfangswerty 0 .<br />

“Asymptotische Stabilität” in Worten: Ein Fixpunktzustand y ∗ ist asymptotisch stabil/attraktiv, wenn<br />

alle Lösungskurven, die hinreiched nahe bei ihm starten gegeny ∗ konvergieren.<br />

3.2<br />

p. 340


Das folgende <strong>Beispiel</strong> vermittelt eine bildliche Vorstellung:<br />

Numerische<br />

Mathemtik<br />

<strong>Beispiel</strong> 3.2.3 (Attraktive und repulsive Fixpunkte einer skalaren ODE).<br />

2<br />

d t<br />

y = −y(1−y)(1+y)<br />

Lösungskurven der ODE<br />

ẏ = −y(1−y)(1+y)<br />

y ∗ = 0 ist asymptotisch stabiler (attraktiver) Fixpunkt,<br />

y ∗ = ±1 sind instabile (repulsive) Fixpunkte<br />

(→ Bsp. 1.2.1)<br />

✄<br />

y(t)<br />

1.5<br />

1<br />

0.5<br />

0<br />

−0.5<br />

−1<br />

−1.5<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

−2<br />

0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2<br />

t<br />

Fig. 110 ✸<br />

3.2<br />

p. 341


✬<br />

✩<br />

Theorem 3.2.4 (Hinreichende Bedingung für asymptotische Stabilität).<br />

Fixpunkty ∗ ∈ D ist asymptotisch stabil, falls<br />

Numerische<br />

Mathemtik<br />

σ(Df(y ∗ )) ⊂ C − := {z ∈ C: Rez < 0} .<br />

✫<br />

✪<br />

✎ Notation: σ(A) := {λ : λ ist Eigenwert vonA} ˆ= Spektrum einer Matrix<br />

Hilfsmittel: Matrixexponentialfunktion (1.3.14), Jordan-Normalform vonA ∈ C d,d :<br />

∃S ∈ C d,d regulär: S −1 AS = diag(J 1 ,...,J m ) ,<br />

mit Jordan-Blöcken der Form (λ ∈ σ(A))<br />

⎛ ⎞<br />

λ 1 0 ... ... 0<br />

0 λ 1 0 .<br />

J k =<br />

⎜<br />

... ...<br />

⎟ = λI+N k ∈ C d k,d k , d k ∈ {1,...,d} .<br />

⎝ λ 1⎠ λ<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

3.2<br />

p. 342


N k ∈ C d k,d k sind nilpotente Matrizen: N<br />

d k = 0<br />

Numerische<br />

Mathemtik<br />

Wegen (1.3.15) genügt esexp(J) für einen generischen Jordan-BlockJ ∈ C n,n zu betrachten.<br />

Verwende: A,B ∈ R n,n : AB = BA ⇒ exp(A+B) = exp(A)·exp(B) . (3.2.5)<br />

exp(tJ) = exp(tλI+λN k ) = exp(tλI)exp(tN k ) = e λt exp(tN k ) .<br />

Beachte:<br />

exp(tN) ist ein Polynom in t, wenn N nilpotent (Exponentialreihe bricht nach endlich<br />

vielen Gliedern ab). Also finden wir<br />

exp(At) = Sexp(Dt)P(t)S −1 , D = diag(λ 1 ,...,λ d ) ,<br />

mit einem Matrixpolynom P vom Grad < d, λ 1 ,...,λ d ˆ= Eigenwerte von A (mit Vielfachheit gezählt).<br />

‖exp(At)‖ ≤ ‖S‖<br />

∥<br />

∥S −1∥ ∥ ∥‖exp(Dt)‖·‖Matrixpolynom int‖ ,<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

wobeiDdie Diagonalmatrix der Eigenwerte vonAist. Wegen<br />

∀λ ∈ R: ∀β > λ: ∀p ∈ P n : ∃C = C(λ,β,p): e λt p(t) ≤ Ce βt ∀t ∈ R .<br />

schliessen wir:<br />

‖exp(At)‖ ≤ Ce βt für jedesβ > max{Reσ(A)}.<br />

Beweis. (von Thm.3.2.4) → [8, Satz 3.30], O.B.d.A. y ∗ = 0<br />

3.2<br />

p. 343


Linearisierung, siehe Bem. 1.3.19:<br />

f(y) = Df(0)y+r(y) , ‖r(y)‖ = o(‖y‖) füry → 0 .<br />

y(t) ˆ= Lösung des AWP zu Anfangswert y 0 , t ∈ J(y 0 ). Variation-der-Konstanten-Formel, siehe<br />

Sect. 1.3.2:<br />

∫ t<br />

y(t) = exp(Df(0)t)y 0 +<br />

0<br />

Mit Hilfe der Jordan-Normalform, siehe oben:<br />

exp(Df(0)(t−τ))r(y(τ))dτ . (3.2.6)<br />

Numerische<br />

Mathemtik<br />

∀β ∈]max{Reλ : λ ∈ σ(Df(0))} ,0[: ∃C = C(β) > 0: ‖exp(Df(0)t)‖ ≤ Ce βt ∀t ∈ R .<br />

} {{ }<br />

0. Dazu gibt esǫ > 0:<br />

‖r(y)‖ ≤ |β|<br />

2C<br />

Annahme: ‖y(t)‖ < ǫ für0 < t < δ. Damit für0 ≤ t < δ aus (3.2.6)<br />

Benutze:<br />

‖y(t)‖ ≤ Ce βt ‖y 0 ‖+ |β|<br />

2<br />

∫ t<br />

e |β|t ‖y(t)‖ ≤ C‖y 0 ‖+ |β|<br />

2<br />

0<br />

e β(t−τ) ‖y(τ)‖ dτ ,<br />

Gronwalls Lemma (Lemma 1.3.29) füru(t) := e |β|t ‖y(t)‖<br />

‖y(t)‖ ≤ C‖y 0 ‖exp(− |β|<br />

‖y‖, wenn‖y‖ < ǫ<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

∫ t<br />

e |β|τ ‖y(τ)‖ dτ<br />

0<br />

2 t) ∀0 ≤ t < δ . (3.2.7) 3.2<br />

p. 344


Nun sieht man, dass die Annahme‖y(t)‖ < ǫ erfüllt ist, wenn‖y 0 ‖ <<br />

ǫ<br />

max{C,1} .<br />

Numerische<br />

Mathemtik<br />

Unter dieser Bedingung gilt (3.2.7) für allet ≥ 0 und auch R + 0 ⊂ J(y 0) mit Thm. 1.3.4.<br />

✷<br />

✬<br />

Asymptotische Stabilität eines Fixpunktes y ∗ folgt aus der asymptotischen Stabilität des Fixpunktesy<br />

∗ der umy ∗ linearisierten ODE<br />

✩<br />

ẏ = Df(y ∗ )(y−y ∗ ) . (3.2.8)<br />

✫<br />

✪<br />

Dies bestätigt die die Modellproblemanalyse von Sect. 3.1 motivierende Intuition, dass das Verhalten<br />

von Lösungen einer ODE in einer Umgebung eines Fixpunktes durch das Verhalten der Lösungen<br />

der um den Fixpunkt linearisierten ODE qualitativ richtig beschrieben wird.<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

3.2.2 Attraktive Fixpunkte von Einschrittverfahren<br />

3.2<br />

p. 345


Wir betrachten weiterhin ein autonomes AWP ẏ = f(y), f ∈ C 1 (D,R d ),D ⊂ R d offen.<br />

Numerische<br />

Mathemtik<br />

Ferner seiy ∗ ein Fixpunkt (→ Def. 3.2.1): f(y ∗ ) = 0.<br />

Betrachte: (Konsistentes) RK-ESV für autonome ODE ẏ = f(y) (→ Def. 2.3.5)<br />

Hinreichend:<br />

s∑<br />

k i := f(y+h a ij k j ) , i = 1,...,s , Ψ h y := y+h<br />

s∑<br />

i=1<br />

j=1<br />

b i = 1, Lemma 2.3.23<br />

s∑<br />

b i k i . (3.2.9)<br />

i=1<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

Annahme: h hinreichend klein für Wohldefiniertheit des ESV füry„nahe bei”y ∗ ,→Lemma. 2.2.7.<br />

Ψ h y ∗ = y ∗ ∀h hinreichend klein . (3.2.10)<br />

3.2<br />

p. 346


Numerische<br />

Mathemtik<br />

Betrachte eine mit Hilfe der AbbildungΠ : D ⊂ R d ↦→ R d rekursiv definierte Folge y k+1 = Π(y k ).<br />

(Man sagt auch, dass Π ein diskretes dynamisches System definiert. Offensichtlich stellen alle Einschrittverfahren<br />

diskrete dynamische Systeme dar.)<br />

Klar:y ∗ ∈ D heisst Fixpunkt des diskreten dynamischen Systems, fallsΠ(y ∗ ) = y ∗ .<br />

Auch klar: Definition der asymptotischen Stabilität eines Fixpunkts eines diskreten dynamischen Systems<br />

analog zu Def. 3.2.2<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

✬<br />

✩<br />

Theorem 3.2.12 (Asymptotische Stabilität von Fixpunkten diskreter dynamischer Systeme).<br />

SeiΠ : D ⊂ R d ↦→ R d stetig differenzierbar undΠ(y ∗ ) = y ∗ für einy ∗ ∈ D. Dann gilt<br />

ρ(DΠ(y ∗ )) < 1 ⇒ y ∗ ist asymptotisch stabiler Fixpunkt von y k+1 := Π(y k ) .<br />

✫<br />

✎ Notation: ρ(A) := max{|λ| : λ ∈ σ(A)} ˆ= Spektralradius einer Matrix<br />

✪<br />

3.2<br />

p. 347


✬<br />

Numerische<br />

Mathemtik<br />

✩<br />

Lemma 3.2.13 (Den Spektralradius approximierende Matrixnorm). → [12, Sect. 2.9.3]<br />

Zu jeder Matrix A ∈ C d,d und jedem ǫ > 0 gibt es eine Vektornorm‖·‖ A,ǫ auf R d so, dass für<br />

die induzierte Matrixnorm gilt<br />

ρ(A) ≤ ‖A‖ A,ǫ ≤ ρ(A)+ǫ .<br />

✫<br />

✪<br />

Der Beweis stützt sich auf die Schur-Normalform vonA.<br />

☞ Für diskrete EvolutionΨ h : Untersuche die Jacobi-Matrix D y (Ψ h y) füry = y ∗ !<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

Für RK-ESV: D y (Ψ h )(y ∗ ) = S(hDf(y ∗ )) . (3.2.14)<br />

Erinnerung:<br />

im Sinne von Bem. 3.1.17.<br />

S ist die (rationale) Stabilitätsfunktion (→ Thm. 3.1.6) des RK-ESV, in (3.2.14) benutzt<br />

3.2<br />

p. 348


✬<br />

✩<br />

{ f(y ∗ ) = 0 ⇔ Φ h y ∗ = y ∗} ⇒ Ψ h y ∗ = y ∗<br />

Numerische<br />

Mathemtik<br />

⇓<br />

y(h) ≈ (y 0 −y ∗ )exp(Df(y ∗ )h)+y ∗ ↔ Ψ h y ≈ (y 0 −y ∗ )S(hDf(y ∗ ))+y ∗<br />

✫<br />

✪<br />

✬<br />

✩<br />

Theorem 3.2.15 (Vererbung asymptotischer Stabilität).<br />

Ein Fixpunkt y ∗ ∈ D der diskreten Evolution eines RK-ESV mit Stabilitätsgebiet S Ψ ist asymptotisch<br />

stabil (→ Def. 3.2.2), wenn<br />

✫<br />

hσ(Df(y ∗ )) ⊂ S Ψ .<br />

✪<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

★<br />

✥<br />

Explizite RK-ESV : Schrittweitenbeschränkung für Vererbung<br />

von Stabilität eines Fixpunktes (→ (3.1.12))<br />

✧<br />

✦<br />

3.2<br />

p. 349


Für welche Verfahren entfällt Schrittweitenbeschränkung ?<br />

Numerische<br />

Mathemtik<br />

Definition 3.2.16 (A-stabiles Einschrittverfahren). → [8, Sect. 6.1.3]<br />

ESV A-stabil :⇔ C − := {z ∈ C: Rez < 0} ⊂ S Ψ (S Ψ = Stabilitätsgebiet,<br />

→ Def. 3.1.4)<br />

Aus Thm. 3.2.15: für A-stabile ESV (mit diskreter EvolutionΨ h )<br />

Autonome Dgl. ẏ = f(y) ,<br />

Fixpunkt f(y ∗ ) = 0<br />

<strong>Beispiel</strong> 3.2.17 (Einfache A-stabile RK-ESV).<br />

∧<br />

σ(Df(y ∗ )) ⊂ C −<br />

(ˆ= asymp. Stabilität vony ∗ )<br />

⇒<br />

dann<br />

Falls ‖y 0 −y ∗ ‖ < δ,<br />

lim<br />

k→∞<br />

(<br />

Ψ h) k<br />

y0 = y ∗ .<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

3.2<br />

p. 350


3<br />

Numerische<br />

Mathemtik<br />

2<br />

Im<br />

1<br />

0<br />

−1<br />

Implizites Eulerverfahren (1.4.13)<br />

Stabilitätsfunktion (→ Thm. 3.1.6)<br />

S(z) = 1<br />

1−z .<br />

−2<br />

−3<br />

−3 −2 −1 0 1 2 3<br />

Re<br />

Fig. 111<br />

✁ StabilitätsgebietS Ψ (→ Def. 3.1.4)<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

3.2<br />

p. 351


3<br />

2<br />

implizite Mittelpunktsregel (1.4.19)<br />

Numerische<br />

Mathemtik<br />

Im<br />

1<br />

0<br />

Stabilitätsfunktion (→ Thm. 3.1.6)<br />

S(z) = 1+ 1 2 z<br />

1− 1 2 z .<br />

−1<br />

✁ StabilitätsgebietS Ψ (→ Def. 3.1.4)<br />

−2<br />

−3<br />

−3 −2 −1 0 1 2 3<br />

Re<br />

Fig. 112<br />

Dies ist das “ideale Stabilitätsgebiet”!<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

✸<br />

3.3 Nichtexpansivität [8, Abschn. 6.3.3]<br />

Betrachte: Autonomes AWP ẏ = f(y), f ∈ C 1 (D,R d ),D ⊂ R d offen.<br />

3.3<br />

p. 352


Wir fixierenM ∈ R d,d s.p.d. ➣ Norm‖y‖ M := (y T My) 1 /2 auf R d .<br />

Numerische<br />

Mathemtik<br />

Definition 3.3.1 (Nichtexpansivität).<br />

Eine Evolution Φ t zu einer autonomen Dgl. bzw. eine diskrete Evolution Ψ h zu einem zugehörigen<br />

Einschrittverfahren heisst nichtexpansiv, falls<br />

∥ ∥<br />

und für allet ∈ J(y)∩J(ỹ)∩R + 0<br />

∥Φ t y−Φ t ỹ∥ ≤ ‖y−ỹ‖ M M ,<br />

∥<br />

∥Ψ h y−Ψ h ∀y,ỹ ∈ D ,<br />

ỹ∥ ≤ ‖y−ỹ‖ M M<br />

und alle „hinreichend kleinen”h > 0.<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

<strong>Beispiel</strong> 3.3.2 (Gradientenfluss ➞ „Kriechvorgänge”).<br />

Gegeben:<br />

C 1 -PotentialV : R d ↦→ R konvex<br />

3.3<br />

p. 353


Erinnerung: Eine AbbildungV : R d ↦→ R heisst konvex, falls<br />

Numerische<br />

Mathemtik<br />

V(ξx+(1−ξ)y) ≤ ξV(x)+(1−ξ)V(y) ∀0 ≤ ξ ≤ 1 . (3.3.3)<br />

Erinnerung: EineC 1 -Funktionϕ : R ↦→ R is genau dann konvex, wennϕ ′ monoton steigt.<br />

Offensichtliche Konsequenz aus (3.3.3): Ist V : R d ↦→ R konvex, so gilt das für jeden “Schnitt”<br />

τ ↦→ V(y+τ(x−y)),x,y ∈ R d .<br />

d<br />

dτ<br />

C 1 -PotentialV : R d ↦→ R konvex<br />

⇕<br />

ϕ monoton steigend fürϕ(τ) := V(y+τ(x−y)) ∀x,y ∈ Rd<br />

⇕<br />

(gradV(x)−gradV(y)) T (x−y) ≥ 0 ∀x,y ∈ R d .<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

3.3<br />

p. 354


Numerische<br />

Mathemtik<br />

40<br />

Gradientenfluss-AWP:<br />

30<br />

20<br />

2<br />

ẏ(t) = −gradV(y(t)) ,<br />

y(0) = y 0 ∈ R d .<br />

(3.3.4)<br />

10<br />

1<br />

0<br />

2<br />

1.5<br />

1<br />

0.5<br />

0<br />

−0.5<br />

−1<br />

−1.5<br />

−2<br />

−2<br />

x 2<br />

Fig. 113<br />

−1<br />

0<br />

x 1<br />

Die Evolution zu (3.3.4) ist nichtexpansiv bzgl. der Euklidischen Norm:<br />

∥<br />

χ(t) := ∥Φ t y−Φ t ỹ∥ 2 ⇒ ˙χ(t) = −2(gradV(Φ t y)−gradV(Φ t ỹ)) T (Φ t y−Φ t ỹ)<br />

2 } {{ }<br />

≥0<br />

➣ Nichtexpansivität (→ Def. 3.3.1) mitM = I.<br />

≤ 0 .<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

✸<br />

3.3<br />

p. 355


Nichtexpansivität einer Evolution:<br />

äquivalente Charakterisierung<br />

Numerische<br />

Mathemtik<br />

Definition 3.3.5 (Dissipatives Vektorfeld).<br />

f : D ⊂ R d ↦→ R d dissipativ :⇔ M(f(y)−f(ỹ))·(y−ỹ) ≤ 0 ∀y,ỹ ∈ D .<br />

Dies ist eine Verallgemeinerung der Eigenschaft „monoton fallend” von skalarwertigen Funkionen.<br />

✬<br />

Lemma 3.3.6 (Bedingung für Nichtexpansivität einer Evolution).<br />

✫<br />

Rechte Seitef dissipativ<br />

⇔ Nichtexpansivität der Evolution<br />

zur autonomen ODEẏ = f(y)<br />

✩<br />

R. Hiptmair<br />

✪<br />

rev 35327,<br />

24. Juni<br />

2011<br />

✬<br />

Theorem 3.3.7 (Gauss-Kollokations-RK-ESV nichtexpansiv).<br />

Die diskreten Evolutionen zu Gauss-Kollokations-RK-ESV (→ Sect. 2.2.3) erben die Nichtexpansivität<br />

der (exakten) Evolution.<br />

✫<br />

✩<br />

✪<br />

3.3<br />

p. 356


Beweis von Thm. 3.3.7. Betrachte Gauss-Kollokations-ESV mitsKnoten:<br />

Numerische<br />

Mathemtik<br />

y h (t),ŷ h (t) ∈ P s ˆ= Kollokationspolynome zu Anfangswerteny 0 bzw.ỹ 0 , siehe Sect. 2.2.1<br />

Ψ h y 0 = y h (h) , Ψ h ỹ 0 = ỹ h (h) .<br />

d(τ) := ‖y h (τh)−ỹ h (τh)‖ 2 M<br />

ist Polynom inτ vom Grad ≤ 2s .<br />

Nichtexpansivität vonΨ h is äquivalent zu<br />

∥<br />

∥Ψ h y 0 −Ψ h ỹ 0<br />

∥ ∥∥ 2<br />

M = d(1) = d(0)+ ∫ 1<br />

d ′ (τ)dτ<br />

0<br />

} {{ }<br />

Ziel<br />

!<br />

≤0<br />

∫ 1<br />

= ‖y 0 −ỹ 0 ‖ 2 M + d ′ (τ)dτ . (3.3.8)<br />

0<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

Gauss-Quadratur (mitsKnoten) ist exakt für Polynome∈ P 2s−1<br />

∫ 1<br />

0<br />

Ableitung aus der Kettenregel:<br />

d ′ (τ)dτ =<br />

s∑<br />

b j d ′ (c j ) . (3.3.9)<br />

j=1<br />

d ′ (τ) = 2hM(y h (τh)−ỹ h (τh))·(ẏ h (τh)− ˙ỹ h (τh)) . (3.3.10)<br />

3.3<br />

p. 357


Aus Kollokationsbedingungen (2.2.1):<br />

ẏ h (c j h) = f(y h (c j h)) , ˙ỹh (c j h) = f(ỹ h (c j h)) , j = 1,...,s .<br />

Numerische<br />

Mathemtik<br />

(3.3.10)<br />

d ′ (c j ) = 2hM(y h (c j h)−ỹ h (c j h))·(f(y h (c j h))−f(ỹ h (c j h))) ≤ 0 , (3.3.11)<br />

daf dissipativ ⇔ Nichtexpansivität vonΦ t , vgl Lemma 3.3.6.<br />

(3.3.8), (3.3.9), (3.3.11) ⇒ Behauptung, da Gewichteb j der Gauss-Quadraturformeln positiv !. ✷<br />

✬<br />

Lemma 3.3.12 (Diskrete Nichtexpansivität ⇒ A-Stabilität).<br />

Nichtexpansivität (→ Def. 3.3.1) erbende RK-ESV (→ Def. 2.3.5) sind A-stabil (→ Def. 3.2.16).<br />

✫<br />

✩<br />

R. Hiptmair<br />

✪<br />

rev 35327,<br />

24. Juni<br />

2011<br />

Beweis. Skalare komplexe Dlg. ↔ reelle Dlg. inD = R 2 : für beliebigesλ = α+iβ ∈ C<br />

(˙u˙v) ( )( (<br />

ẏ = λy y=u+iv α −β u u<br />

⇔ = ↔ ẏ = f(y) mit y := .<br />

β α v)<br />

v)<br />

} {{ }<br />

=:A<br />

3.3<br />

p. 358


Reλ < 0 ⇒ α < 0 ⇒ x T Ax = α‖x‖ 2 ≤ 0 ∀x ∈ R 2<br />

⇒ rechte Seite f(y) = Ay ist dissipativ (→ Def. 3.3.5)<br />

⇒ Evolution nichtexpansiv, siehe Lemma 3.3.6.<br />

Numerische<br />

Mathemtik<br />

(“Vererbung”)<br />

⇒<br />

Diskrete EvolutionΨ h nichtexpansiv<br />

∥<br />

∥Ψ h y∥ = |S(hλ)||y| ≤ ‖y‖ 2 2 = |y| ⇒ |S(z)| ≤ 1 ∀z ∈ C − .<br />

∗<br />

⇒ |S(z)| < 1 ∀z ∈ C − .<br />

⇒ C − ⊂ S Ψ (Stabilitätsgebiet→Def. 3.1.4) . ✷<br />

∗: S(z) is a meromorphic function so that |S(z)| can attain its maximal value on C − only on the<br />

boundary∂C = iR.<br />

✓<br />

✒<br />

Alle Gaus-Kollokations-ESV sind A-stabil<br />

✏<br />

✑<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

Bemerkung 3.3.13 (Lösbarkeit der Inkrementgleichungen für Gauss-Kollokations-ESV).<br />

Die Inkrementgleichungen eines Gauss-Kollokations-RK-ESV für eine nichtexpansive<br />

autonome ODE sind für jedesh > 0 eindeutig lösbar →[18, Sect. IV.14].<br />

3.3<br />

p. 359


0.9<br />

0.9<br />

1 1 1<br />

△<br />

Numerische<br />

Mathemtik<br />

Stabilitätsgebiete von Gauss-Kollokations-Einschrittverfahren:<br />

Im<br />

5<br />

4<br />

3<br />

2<br />

1<br />

0<br />

−1<br />

−2<br />

−3<br />

−4<br />

0.4<br />

0.4<br />

0.7<br />

0.7<br />

0.4<br />

0.4<br />

0.9<br />

0.7<br />

0.7<br />

0.9<br />

−5<br />

−6 −4 −2 0 2<br />

Fig.<br />

4<br />

1146<br />

Re<br />

1 1 1<br />

1.1<br />

1.1<br />

1.1<br />

1.5<br />

1.5<br />

1.5<br />

1.5<br />

Im<br />

20<br />

15<br />

10<br />

5<br />

0<br />

−5<br />

−10<br />

−15<br />

−20<br />

0.7<br />

0.4<br />

0.7<br />

0.4<br />

0.9<br />

0.7<br />

0.4<br />

0.7<br />

0.9<br />

1.1<br />

−20 −10 0 10 20<br />

Re<br />

1.5<br />

1.1<br />

1.1<br />

1.5<br />

1.5<br />

1.5<br />

Fig. 115<br />

Im<br />

50<br />

40<br />

30<br />

20<br />

10<br />

0<br />

−10<br />

−20<br />

−30<br />

−40<br />

0.4<br />

0.4<br />

0.7<br />

0.7<br />

0.4<br />

0.4<br />

0.9<br />

0.7<br />

0.7<br />

0.9<br />

−50<br />

−60 −40 −20 0 20<br />

Fig.<br />

40<br />

116<br />

60<br />

Re<br />

1 1 1<br />

1.1<br />

1.5<br />

0.9<br />

1.1<br />

1.1<br />

1.5<br />

1.5<br />

1.5<br />

1.5<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

Implizite Mittelpunktsregel<br />

s = 2 (Ordnung 4)<br />

s = 4 (Ordnung 8)<br />

Vermutung (Beweis später):<br />

Niveaulinien von|S(z)| für Gauss-Kollokations-Einschrittverfahren<br />

S Ψ = C −<br />

<strong>Beispiel</strong> 3.3.14 (Gauss-Kollokationsverfahren für logistische Differentialgleichung). → Bsp. 3.0.1,<br />

1.4.21<br />

3.3<br />

p. 360


Logistische Differentialgleichung<br />

ẏ = f(y),<br />

f(y) = λy(1 − y) → (2.2.84), λ = 50, Anfangswerty<br />

0 = 10 −4 , Zeitintervall[0,1].<br />

Kollokations-Einschrittverfahren (→ Abschnitt<br />

2.2) auf äquidistantem Gitter,<br />

h = 1<br />

20 . 0.2<br />

0<br />

0 0.2 0.4 0.6 0.8 1<br />

y<br />

1<br />

0.8<br />

0.6<br />

0.4<br />

t<br />

y(t)<br />

s=1<br />

s=2<br />

s=3<br />

s=4<br />

Fig. 117<br />

✸<br />

Numerische<br />

Mathemtik<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

Bemerkung 3.3.15 (A-Stabilität ⇏ Diskrete Nichtexpansivität ).<br />

Gegenbeispiel:<br />

implizite Trapezregel, Einschrittverfahren fürẏ = f(t,y) definiert durch<br />

y 1 = y 0 + 1 2 h(f(t,y 0)+f(t+h,y 1 )) ↔ Butcher-Schema<br />

0 0 0<br />

1 1/2 1/2<br />

1/2 1/2<br />

3.3<br />

p. 361


{<br />

−y<br />

3<br />

füry < 0 ,<br />

angewandt auf skalare autonome ODE ẏ =<br />

−y 2 füry ≥ 0 .<br />

→ Übungsaufgabe<br />

△<br />

Numerische<br />

Mathemtik<br />

Bemerkung 3.3.16 (B-Stabiliät).<br />

Einschrittverfahren, die die Nichtexpansivität der Evolution zu einer ODE erben, heissen auch B-stabil<br />

[18, Sect. IV.12].<br />

△<br />

Ein algebraisches Kriterium für B-Stabilität:<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

Definition 3.3.17 (Algebraische Stabilität).<br />

Ein Runge-Kutta-Einschrittverfahren (→ Def. 2.3.5) mit Butcher-Schema c A bT , siehe (2.3.6),<br />

ist algebraisch stabil, falls<br />

(i)b i ≥ 0,i = 1,...,s,<br />

(ii) und die Matrix<br />

ist.<br />

M := diag(b 1 ,...,b s )A−A T diag(b 1 ,...,b s )−bb T positiv semi-definit<br />

3.3<br />

p. 362


✬<br />

Theorem 3.3.18 (Kriterium für B-Stabilität).<br />

Algebraische Stabilität<br />

✫<br />

⇒ B-Stabilität<br />

✩<br />

Numerische<br />

Mathemtik<br />

✪<br />

3.4 Gleichmässige Stabilität<br />

<strong>Beispiel</strong> 3.4.1 (Gauss-Kollokations-ESV bei stark attraktiven Fixpunkten). → Bsp. 3.5.2<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

3.4<br />

p. 363


ODE mit stark attraktivem Fixpunkty = 1:<br />

1.4<br />

1.2<br />

Äquidistantes Gitter, h=0.016667<br />

y(t)<br />

Gauss−Koll., s= 1<br />

Gauss−Koll., s= 2<br />

Numerische<br />

Mathemtik<br />

ẏ = λy 2 (1−y) ,<br />

λ = 500 , y(0) = 1<br />

100 .<br />

y<br />

1<br />

0.8<br />

Qualitatives Verhalten von<br />

0.6<br />

Gauss-Kollokations-ESV (→ Abschnitt 2.2)<br />

auf äquidistantem Gitter<br />

✄<br />

0.4<br />

0.2<br />

0<br />

0 0.2 0.4 0.6 0.8 1<br />

t<br />

Fig. 118<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

➣<br />

Falsche Oszillationen bei Gauss-Kollokations-ESV niedriger Ordnung<br />

Erklärung: Für Gauss-Kollokations-ESV gilt S(z) ≈ ±1 für |z| → ∞, so dass der Fixpunkt der diskreten<br />

Evolution zwar anziehend bleibt, aber die diskrete Lösung (im Gegensatz zur kontinuierlichen)<br />

nur noch langsam (und oszillatorisch für ungeradess) gegen ihn konvergiert.<br />

Weitere Demonstration → Bsp. 3.4.2<br />

3.4<br />

p. 364


✸<br />

Numerische<br />

Mathemtik<br />

<strong>Beispiel</strong> 3.4.2 (Implizite RK-ESV bei schnellen Transienten). → Bsp. 3.5.5<br />

AWP: ẏ = −λy +βsin(2πt) , λ = 10 6 , β = 10 6 , y(0) = 1 .<br />

RK-ESV, äquidistantes Gitter auf[0,1],h = 1<br />

40 :<br />

Re(S(z))<br />

1<br />

0.8<br />

0.6<br />

0.4<br />

0.2<br />

0<br />

−0.2<br />

exp(z)<br />

Impliziter Euler<br />

Gauss−Koll.−RK−ESV s=1<br />

Gauss−Koll.−RK−ESV s=2<br />

Gauss−Koll.−RK−ESV s=3<br />

Gauss−Koll.−RK−ESV s=4<br />

y<br />

4<br />

3<br />

2<br />

1<br />

0<br />

y(t)<br />

Impliziter Euler<br />

Kollokations RK−ESV s=1<br />

Kollokations RK−ESV s=2<br />

Kollokations RK−ESV s=3<br />

Kollokations RK−ESV s=4<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

−0.4<br />

−0.6<br />

−1<br />

−0.8<br />

−2<br />

−1<br />

−1000 −800 −600 −400 −200 0<br />

z<br />

Fig. 119<br />

Stabilitätsfunktionen fürRez ≪ 1<br />

−3<br />

0 0.2 0.4 0.6 0.8 1<br />

t<br />

Fig. 120<br />

Diskrete Evolutionen (Zeitverlauf)<br />

3.4<br />

p. 365


➣ Ungenügende Dämpfung der Anfangsstörung bei Kollokations-RK-ESV !<br />

(Oszillationen für ungeradess ➞ vgl. Stabilitätsfunktionen, lim<br />

Rez→−∞ S(z) = (−1)s )<br />

Numerische<br />

Mathemtik<br />

➣ Implizites Euler-Verfahren (1.4.13): sofortige Relaxation der diskreten Lösung !<br />

Klar, denn<br />

lim S(z) =<br />

Rez→−∞<br />

lim<br />

Rez→−∞<br />

1<br />

1−z<br />

= 0 für implizites Euler-Verfahren.<br />

✸<br />

Sect. 3.1:<br />

StabilitätsfunktionS(z) ←→ exp(z)<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

Utopie (für RK-ESV): S(−∞) = 0 , S(∞) = ∞<br />

(von keiner rationalen Funktion erfüllbar !)<br />

Bescheidener Wunsch (bei stark attrativen Fixpunkten, schnellen Relaxationen): S(−∞) = 0<br />

3.4<br />

p. 366


Definition 3.4.3 (L-Stabilität).<br />

Numerische<br />

Mathemtik<br />

ESV L-stabil :⇔ {z ∈ C: Rez < 0} ⊂ S Ψ & lim<br />

Rez→−∞ |S(z)| = 0<br />

Kurz: L-stabil :⇔ A-stabil & „S(−∞) = 0”<br />

Wie findet man L-stabile RK-ESV ?<br />

Existenz ist zu fordern<br />

Fallsb T = a T j,·<br />

Thm. 3.1.6 ⇒ S(−∞) = 1−b T A −1 1 . (3.4.4)<br />

(Zeile von A) ∧ A regulär ⇒ S(−∞) = 0 . (3.4.5)<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

charakterisiert steif-genaue (engl. stiffly accurate) RK-ESV [8, Lemma 6.32]<br />

3.4<br />

p. 367


Bemerkung 3.4.6 (Invertierbarkeit der Koeffizientenmatrix von RK-ESV).<br />

Numerische<br />

Mathemtik<br />

Für jedes s-stufige Kollokationsverfahren (→ Sect. 2.2.1) mit c s > 0 (.d.h, für jedes Kollokationsverfahren<br />

mit Ausnahme des expliziten Eulerverfahrens (1.4.2)) ist die Koeffizientenmatrix (Butcher-<br />

Matrix) A nichtsingulär<br />

Beweis. Es seix ∈ R s mit Ax = 0<br />

(2.2.3)<br />

⇒<br />

s∑<br />

a ij x j =<br />

j=1<br />

s∑<br />

j=1<br />

mit den Lagrange-PolynomenL i ∈ P s−1 aus (2.2.2).<br />

q :=<br />

s∑<br />

x j L j erfüllt:<br />

j=1<br />

∫ c i<br />

0<br />

∫ c i<br />

x j L j (τ)dτ = 0 , i = 1,...,s ,<br />

c i−1<br />

q(τ)dτ = 0 , i = 1,...,s (c 0 := 0) .<br />

⇒ q ∈ P s−1 hatsNullstellen in[0,c s ] ⇒ q = 0 ⇒ x = 0.<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

✷<br />

△<br />

3.4<br />

p. 368


Butcher-Schema (2.3.6) für konsistente<br />

(→ Lemma 2.3.23), L-stabile RK-ESV,<br />

siehe Def. 3.4.3<br />

✄<br />

c A<br />

b T :=<br />

c 1 a 11 ··· a 1s<br />

.<br />

.<br />

c s−1 a s−1,1 ··· a s−1,s .<br />

1 b 1 ··· b s<br />

b 1 ··· b s<br />

.<br />

Numerische<br />

Mathemtik<br />

Idee: Wählec s = 1 im Kollokations-RK-ESV (2.2.3)<br />

Wählec 1 ,...,c s−1 als Knoten einer Quadraturformel maximaler Ordnung.<br />

(➞ Gauss-Radau-Quadratur, Ordnung2s−1)<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

3.4<br />

p. 369


order of quadrature rule<br />

23<br />

21<br />

19<br />

17<br />

15<br />

13<br />

11<br />

9<br />

7<br />

5<br />

Nodes for Gauss−Radau quadrature rules<br />

size of weight<br />

0.8<br />

0.7<br />

0.6<br />

0.5<br />

0.4<br />

0.3<br />

0.2<br />

Weights for Gauss−Radau quadrature rules<br />

order = 3<br />

order = 5<br />

order = 7<br />

order = 9<br />

order = 11<br />

order = 13<br />

order = 15<br />

order = 17<br />

order = 19<br />

order = 21<br />

order = 23<br />

Numerische<br />

Mathemtik<br />

3<br />

0.1<br />

1<br />

0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1<br />

node position x<br />

Knoten: Radau-Quadraturformeln<br />

Fig. 121<br />

0<br />

0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1<br />

node position x<br />

Gewichte: Radau-Quadraturformeln<br />

Fig. 122<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

Implizites-stufige L-stabile Radau-ESV, Konvergenzordnung2s−1<br />

(→ Thm. 2.2.51, [8, Sect. 6.3.2])<br />

3.4<br />

p. 370


1 1<br />

1<br />

1 5<br />

3 12 − 12<br />

1<br />

1 3 1<br />

4 4<br />

3 1<br />

4 4<br />

4− √ 6<br />

10<br />

4+ √ 6<br />

10<br />

1<br />

88−7 √ 6<br />

360<br />

296+169 √ 6<br />

1800<br />

16− √ 6<br />

36<br />

16− √ 6<br />

36<br />

296−169 √ 6<br />

1800<br />

88+7 √ 6<br />

360<br />

16+ √ 6<br />

36<br />

16+ √ 6<br />

36<br />

Implizites Euler-ESV Radau-ESV, Ordnung 3 Radau-ESV, Ordnung 5<br />

−2+3 √ 6<br />

225<br />

−2−3 √ 6<br />

225<br />

1<br />

9<br />

1<br />

9<br />

Numerische<br />

Mathemtik<br />

Stabilitätsfunktion s-stufiger Radau-Kollokations-<br />

RK-ESVs:<br />

S(z) = P(z)<br />

Q(z) , P ∈ P s−1, Q ∈ P s .<br />

Re(S(z))<br />

100<br />

90<br />

80<br />

70<br />

60<br />

50<br />

40<br />

30<br />

exp(z)<br />

RADAU, s=2<br />

RADAU, s=3<br />

RADAU, s=4<br />

RADAU, s=5<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

Vorsicht: Auch „S(∞) = 0”<br />

20<br />

10<br />

0<br />

−2 −1 0 1 2 3 4 5 6<br />

z<br />

Niveaus der Stabilitätsfunktionen vons-stufigen Radau-Kollokations-RK-ESVs:<br />

3.4<br />

p. 371


1.5<br />

1.5<br />

0.7<br />

0.4<br />

10<br />

20<br />

30<br />

8<br />

6<br />

4<br />

2<br />

0.4<br />

0.9<br />

0.7<br />

1.1<br />

1.5<br />

1<br />

0.4<br />

0.7<br />

15<br />

10<br />

5<br />

0.4<br />

0.9<br />

1<br />

1.1<br />

0.7<br />

1.5<br />

0.4<br />

0.9<br />

1.1<br />

1<br />

0.7<br />

0.4<br />

20<br />

10<br />

0.4<br />

1<br />

1.1<br />

1.5<br />

0.4<br />

0.7<br />

0.9<br />

1<br />

1.1<br />

1.5<br />

0.4<br />

0.7<br />

Numerische<br />

Mathemtik<br />

Im<br />

0<br />

−2<br />

−4<br />

−6<br />

−8<br />

0.4<br />

1<br />

0.7<br />

1.1<br />

0.9<br />

1<br />

1.5<br />

0.4<br />

1.1<br />

0.7<br />

0.9<br />

0.4<br />

Im<br />

0<br />

−5<br />

−10<br />

−15<br />

0.7<br />

0.4<br />

1<br />

1.1<br />

0.9<br />

0.7<br />

1.5<br />

0.4<br />

1.1<br />

1<br />

0.9<br />

0.4<br />

Im<br />

0.1<br />

0<br />

−10<br />

−20<br />

0.4<br />

0.9<br />

1.1<br />

1.5<br />

1<br />

0.4<br />

0.9<br />

0.7<br />

1.5<br />

1.1<br />

1<br />

0.9<br />

0.7<br />

0.4<br />

−10<br />

−2 0 2 4 6 8 10<br />

Re<br />

s = 2<br />

−20<br />

0 5 10 15 20<br />

Re<br />

s = 3<br />

<strong>Beispiel</strong> 3.4.7 (Radau-ESV bei stark attraktiven Fixpunkten). → Bsp. 3.4.1<br />

−30<br />

0 5 10 15 20 25 30<br />

Re<br />

s = 4<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

3.4<br />

p. 372


AWP für ODE mit stark attraktivem Fixpunkty = 1,<br />

1.4<br />

1.2<br />

Äquidistantes Gitter, h=0.016667<br />

y(t)<br />

RADAU, s= 1<br />

RADAU, s= 2<br />

Numerische<br />

Mathemtik<br />

Bsp. 3.4.1<br />

1<br />

ẏ = λy 2 (1−y) ,<br />

λ = 500 , y(0) = 1<br />

100 .<br />

y<br />

0.8<br />

0.6<br />

Qualitatives Verhalten von Radau-ESV auf äquidistantem<br />

Gitter<br />

✄<br />

0.4<br />

0.2<br />

0<br />

0 0.2 0.4 0.6 0.8 1<br />

t<br />

Fig. 123<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

➣<br />

Diskrete Evolution strebt schnell dem stabilen Zustand zu<br />

✸<br />

Wie für Gauss-Kollokations-RK-ESV, siehe Thm. 3.3.7:<br />

3.4<br />

p. 373


✬<br />

✩<br />

Theorem 3.4.8 (Radau-ESV nichtexpansiv).<br />

Die diskreten Evolutionen zu Radau-ESV erben die Nichtexpansivität der (exakten) Evolution.<br />

✫<br />

✪<br />

Numerische<br />

Mathemtik<br />

Beweis. Erweiterung des Beweises zu Thm. 3.3.7. Mit den dortigen Notationen und Fehlerdarstellungsformel<br />

für Gauss-Radau-Quadraturformeln<br />

∫ 1<br />

0<br />

d ′ (τ)dτ =<br />

s∑<br />

b j d ′ (c j )−R mit R = c(s)d (2s) (ξ) , 0 ≤ ξ ≤ 1 ,<br />

j=1<br />

wobeic(s) > 0. Formeln (3.3.10) und (3.3.11) bleiben gültig, so dass die Behauptung von Thm. 3.4.8<br />

gezeigt ist, sobaldR ≥ 0 sichergestellt ist:<br />

d(τ) =<br />

2s ∑<br />

j=0<br />

d(τ) ≥ 0 ⇒<br />

δ j τ j ⇒ d (2s) (τ) = (2s)!δ 2s ,<br />

lim d(τ) ≥ 0 ⇒ δ 2s ≥ 0 .<br />

|τ|→∞<br />

Beachte: Auch die Gewichte von Gauss-Radau-Quadraturformeln sind positiv, siehe Fig. 122.<br />

Radau-ESV sind A-stabil (→ Def. 3.2.16)<br />

✷<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

3.5<br />

p. 374


3.5 Steifheit<br />

Numerische<br />

Mathemtik<br />

Das Folgende ist keine Definition, sondern ein durch die Beobachtungen von Anwendern numerischer<br />

Integratoren motivierter Begriff. Es ist nicht möglich, diesen Begriff in einer strengen mathematischen<br />

Definition zu erfasssen. Dennoch ist er zentral für die Auswahl geeigneter numerischer Integratoren<br />

und Teilnehmer der Vorlesung sollten schliesslich ein “Gerfühl” dafür haben, wann ein Anfangswertproblem<br />

“steif” ist. Dieses wird in diesem Abschnitt anhand von <strong>Beispiel</strong>en geschult.<br />

Aus [25, Sect. 1]:<br />

The usual definition of stiffness applies which states that a differential equation is stiff whenever<br />

the implicit Euler method works (tremendously) better than the explicit Euler method.<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

Konzept 3.5.1 (Steifes Anfangswertproblem).<br />

Ein AWP heisst steif (engl. stiff), falls für explizite RK-ESV (→ Def. 2.1.5) Stabilität eine wesentlich<br />

kleinere Schrittweite verlangt als die Genauigkeitsanforderungen.<br />

3.5<br />

p. 375


<strong>Beispiel</strong> 3.5.2 (Adaptive explizite RK-ESV für steifes Problem). → Sect. 2.6<br />

ẏ(t) = λy 2 (1−y) , λ = 500 , y(0) = 1<br />

100 .<br />

MATLAB-CODE : Adaptives ESV für steifes Problem<br />

fun = @(t,x) 500*x^2*(1-x); tspan = [0 1]; y0 = 0.01;<br />

options = odeset(’reltol’,0.1,’abstol’,0.001,’stats’,’on’);<br />

[t,y] = ode45(fun,tspan,y0,options);<br />

plot(t,y,’r+’);<br />

Numerische<br />

Mathemtik<br />

1.4<br />

1.2<br />

y(t)<br />

ode45<br />

1.5<br />

0.03<br />

y<br />

1<br />

0.8<br />

0.6<br />

0.4<br />

0.2<br />

0<br />

0 0.2 0.4 0.6 0.8 1<br />

t<br />

Fig. 124<br />

y(t)<br />

1<br />

0.5<br />

0<br />

0 0.2 0.4 0.6 0.8 1<br />

t<br />

0.02<br />

0 0.2 0.4 0.6 0.8 1 0 0.01<br />

Zeitschrittweite<br />

Fig. 125<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

➣ Schrittweitensteuerung realisiert Schrittweitenbeschränkung ! → Bsp. 2.6.10<br />

(186 successful steps, 55 failed attempts, 1447 function evaluations)<br />

3.5<br />

p. 376


y = 1 stark attraktiver Fixpunkt ➣<br />

Extreme Schrittweitenbeschränkung für<br />

expliziten Integratorode45<br />

Numerische<br />

Mathemtik<br />

Beachte: die Schrittweitensteuerung erkennt Stabilitätsprobleme und reduziert die Schrittweite entsprechend<br />

! → Bsp. 2.6.10<br />

✸<br />

R. Hiptmair<br />

Welche Anfangswertprobleme sind steif ?<br />

rev 35327,<br />

24. Juni<br />

ODE-Modelle für Systeme mit schnell relaxierenden Komponenten<br />

2011<br />

☞<br />

(mit stark unterschiedlichen Zeitkonstanten)<br />

<strong>Beispiel</strong> 3.5.3 (Steife Probleme in der chemischen Reaktionskinetik). → Sect. 1.2.2<br />

k 2 k<br />

Reaktion: A+B<br />

←− 4<br />

−→ C , A+C<br />

←−<br />

−→ D (3.5.4)<br />

k1 k3<br />

3.5<br />

Stark unterschiedliche Reaktionsgeschwindigkeiten: k 1 ,k 2 ≫ k 3 ,k 4<br />

p. 377


Fallsc A (0) > c B (0) ➢<br />

2. Reaktion kontrolliert Langzeitdynamik<br />

Numerische<br />

Mathemtik<br />

Numerisches Experiment, MATLAB,t 0 = 0,T = 1,k 1 = 10 4 ,k 2 = 10 3 ,k 3 = 10,k 4 = 1<br />

MATLAB-CODE : Explizite Integration steifer chemischer Reaktionsgleichungen<br />

fun = @(t,y) ([-k1*y(1)*y(2) + k2*y(3) - k3*y(1)*y(3) + k4*y(4);<br />

-k1*y(1)*y(2) + k2*y(3);<br />

k1*y(1)*y(2) - k2*y(3) - k3*y(1)*y(3) + k4*y(4);<br />

k3*y(1)*y(3) - k4*y(4)]);<br />

tspan = [0 1];<br />

y0 = [1;1;10;0];<br />

options = odeset(’reltol’,0.1,’abstol’,0.001,’stats’,’on’);<br />

[t,y] = ode45(fun,[0 1],y0,options);<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

3.5<br />

p. 378


12<br />

10<br />

Chemical reaction: concentrations<br />

c (t) A<br />

c C<br />

(t)<br />

c A,k<br />

, ode45<br />

10<br />

9<br />

Chemical reaction: stepsize<br />

x 10 −5<br />

7<br />

6<br />

Numerische<br />

Mathemtik<br />

8<br />

c C,k<br />

, ode45<br />

8<br />

5<br />

concentrations<br />

6<br />

4<br />

c C<br />

(t)<br />

7<br />

6<br />

4<br />

3<br />

timestep<br />

2<br />

5<br />

2<br />

0<br />

−2<br />

0 0.2 0.4 0.6 0.8 1<br />

t<br />

Fig. 126<br />

<strong>Beispiel</strong> 3.5.5 (Steife Schaltkreisgleichungen im Zeitbereich).<br />

4<br />

3<br />

0 0.2 0.4 0.6 0.8 1<br />

t<br />

0 0.2 0.4 0.6 0.8 1 0 1<br />

Fig. 127<br />

✸<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

3.5<br />

p. 379


Schaltkreisanalyse im Zeitbereich:<br />

Bauelementgleichungen (i ˆ= Strom, u ˆ= Spannung):<br />

R<br />

u(t)<br />

Numerische<br />

Mathemtik<br />

• Widerstand:i(t) = R −1 u(t)<br />

• Kondensator:i(t) = C ˙u(t)<br />

C<br />

Dgl. aus Knotenanalyse:<br />

C ˙u(t) = −R −1 u(t)+I(t) .<br />

I(t)<br />

Konkret:<br />

C = 1pF ,R = 1kΩ,I(t) = sin(2π1Hzt)mA,u(0) = 0V<br />

Skalierte (dimensionslose) Dgl.: ˙u(t) = −10 9 u(t)+10 9 sin(2πt) ⇒ u(t) ≈ sin(2πt) .<br />

ˆ= ODE aus Bsp. 3.4.2<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

Im Fall der nichtautonomen Dgl. ẏ = −λy + g(t), λ ≫ 1, sind wird mit einem “zeitlich variierenden”<br />

stark attraktiven Fixpunkt y ∗ (t) = λ −1 g(t) konfrontiert. Auch dieser führt zu Steifheit gemäss<br />

Konzept 3.5.1.<br />

✸<br />

3.5<br />

p. 380


Abschnitt 3.4 ➣ Wir wissen was zu tun ist !<br />

Numerische<br />

Mathemtik<br />

Steife AWP<br />

➤<br />

(Geeignete) implizite RK-ESV (→ Def. 2.1.5) sind zu verwenden !<br />

d.h. L-stabil (→ Def. 3.4.3)<br />

<strong>Beispiel</strong> 3.5.6 (Attraktiver Grenzzyklus). vgl. Bsp. 1.2.15<br />

2<br />

ẏ = f(y)<br />

( ) 0 −1<br />

f(y) := y+λ(1−‖y‖<br />

1 0<br />

2 )y ,<br />

Autonome Dgl.<br />

auf ZustandsraumD = R 2 \{0}.<br />

Lösungstrajektorien (λ = 10)✄<br />

1.5<br />

1<br />

0.5<br />

0<br />

−0.5<br />

−1<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

−1.5<br />

Fig. 128<br />

−2<br />

−2 −1.5 −1 −0.5 0 0.5 1 1.5 2<br />

3.5<br />

p. 381


☞ Falls‖y 0 ‖ = 1 ⇒‖y(t)‖ = 1 ∀t<br />

☞ “Grenzzyklus auf Einheitskreis”:‖y(t)‖ → 1 fürt → ∞.<br />

Numerische<br />

Mathemtik<br />

In diesem <strong>Beispiel</strong> liegt kein asymptotisch stabiler Fixpunkt vor, sondern eine asymptotisch stabile<br />

invariante Mannigfaltigkeit, also eine echte Teilmenge M ⊂ D des Zustandsraums, für die gilt<br />

Φ t M ⊂ M für alle zulässigent(“Fixmenge”) und<br />

∃UmgebungU vonM: : y(0) ∈ U ⇒ lim<br />

t→∞ dist(y(t),M) = 0 .<br />

MATLAB-CODE Integration von Evolution mit Grenzzyklus<br />

fun = @(t,y) ([-y(2);y(1)] + lambda*(1-y(1)^2-y(2)^2)*y);<br />

tspan = [0,2*pi]; y0 = [1,0];<br />

opts = odeset(’stats’,’on’,’reltol’,1E-4,’abstol’,1E-4);<br />

[t45,y45] = ode45(fun,tspan,y0,opts);<br />

[t23,y23] = ode23s(fun,tspan,y0,opts);<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

3.5<br />

p. 382


1.5<br />

ode45 for attractive limit cycle<br />

x 10 −4<br />

8<br />

2<br />

ode23s for attractive limit cycle<br />

0.02<br />

Numerische<br />

Mathemtik<br />

1<br />

7<br />

1<br />

0.015<br />

0.5<br />

6<br />

y i<br />

(t)<br />

0<br />

5<br />

timestep<br />

y i<br />

(t)<br />

0<br />

0.01<br />

timestep<br />

−0.5<br />

4<br />

−1<br />

3<br />

−1.5<br />

0 1 2 3 4 5 6 7 2<br />

y 1,k<br />

y 2,k<br />

Fig. 129<br />

ode45: 3794 Schritte (λ = 1000)<br />

t<br />

−1<br />

0.005<br />

−2<br />

0 1 2 3 4 5 6 7 0<br />

y 1,k<br />

y 2,k<br />

Fig. 130<br />

t<br />

ode23s: 432 Schritte (λ = 1000)<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

3.5<br />

p. 383


1<br />

ode45 for rigid motion<br />

0.2<br />

Numerische<br />

Mathemtik<br />

y i<br />

(t)<br />

0<br />

0.1<br />

y 1,k<br />

−1<br />

0 1 2 3 4 5 6 7 0<br />

t<br />

timestep<br />

ode45 erzielt gute Genauigkeit trotz (relativ)<br />

✁ λ = 0 ˆ= Drehbewegung, siehe Bsp. 1.4.18<br />

grosser Schrittweite.<br />

Nichtsteifes Problem!<br />

y 2,k<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

Adaptive MATLAB-Integratoren für steife Probleme: (Schrittweitensteuerung wie in Abschnitt 2.6)<br />

opts = odeset(’abstol’,atol,’reltol’,rtol,’Jacobian’,@J)<br />

[t,y] = ode15s/ode23s(odefun,tspan,y0,opts);<br />

<strong>Beispiel</strong> 3.5.7 (Adaptives semi-implizites RK-ESV für steifes Problem). → Bsp. 3.5.2, 3.4.1<br />

ẏ(t) = λy 2 (1−y) , λ = 500 , y(0) =<br />

100 1 .<br />

✸<br />

3.5<br />

p. 384


MATLAB-CODE : Semi-Implizites ESV für steifes Problem<br />

lambda = 500; tspan = [0 1]; y0 = 0.01;<br />

fun = @(t,x) lambda*x^2*(1-x);<br />

Jac = @(t,x) lambda*(2*x*(1-x)-x^2);<br />

o = odeset(’reltol’,0.1,’abstol’,0.001,’stats’,’on’,’Jacobian’,Jac);<br />

[t,y] = ode23s(fun,[0 1],y0,o);<br />

Numerische<br />

Mathemtik<br />

Statistik:<br />

20 successful steps 4 failed attempts 70 function<br />

evaluations<br />

1.4<br />

1.2<br />

y(t)<br />

ode23s<br />

2<br />

0.1<br />

y<br />

1<br />

0.8<br />

0.6<br />

0.4<br />

0.2<br />

0<br />

0 0.2 0.4 0.6 0.8 1<br />

t<br />

Fig. 131<br />

y(t)<br />

1<br />

0<br />

0 0.2 0.4 0.6 0.8 1<br />

t<br />

0 0.2 0.4 0.6 0.8 1 0 0.05<br />

Zeitschrittweite<br />

Fig. 132<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

➤ Effizientes Verfahren (vgl. Bsp. 3.5.2): Keine Schrittweitenbeschränkung füry ≈ 1<br />

✸<br />

3.6<br />

p. 385


3.6 Linear-implizite Runge-Kutta-Verfahren [8, Sect. 6.4]<br />

Numerische<br />

Mathemtik<br />

Inkrementgleichungen (2.2.3) fürs-stufige implizite RK-ESV<br />

=<br />

Nichtlineares Gleichungssystem der Dimensions·d<br />

<strong>Beispiel</strong> 3.6.1 (Linearisierung der Inkrementgleichungen).<br />

Anfangswertproblem für logistische Differentialgleichung, siehe Bsp. 1.2.1<br />

ẏ = λy(1−y) , y(0) = 0.1 , λ = 5 .<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

3.6<br />

p. 386


Implizites Euler-Verfahren (1.4.13) mit uniformem<br />

Zeitschritth = 1/n,<br />

n ∈ {5,8,11,17,25,38,57,85,128,192,288,<br />

,432,649,973,1460,2189,3284,4926,7389}.<br />

10 −1<br />

Logistic ODE, y 0<br />

= 0.100000, λ = 5.000000<br />

10 0 h<br />

Numerische<br />

Mathemtik<br />

& näherungsweise Berechnung vony k+1<br />

durch 1 Newton-Schritt mit Startwerty k<br />

error<br />

10 −2<br />

10 −3<br />

Fehlermass<br />

= semi-implizites Euler-Verfahren<br />

err = max<br />

j=1,...,n |y j −y(t j )|<br />

10 −4<br />

10 −5<br />

implicit Euler<br />

semi−implicit Euler<br />

O(h)<br />

10 −4 10 −3 10 −2 10 −1 10 0<br />

Fig. 133<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

3.6<br />

p. 387


Logistic ODE, y 0<br />

= 0.100000, λ = 5.000000<br />

Numerische<br />

Mathemtik<br />

10 0 h<br />

Implizite Mittelpunktsregel (1.4.19) mit uniformem<br />

Zeitschritth = 1/n (wie oben)<br />

10 −2<br />

& näherungsweise Berechnung von y k+1<br />

durch 1 Newton-Schritt mit Startwerty k<br />

Fehlermass<br />

err = max<br />

j=1,...,n |y j −y(t j )|<br />

error<br />

10 −4<br />

10 −6<br />

10 −8<br />

10 −10<br />

implicit midpoint rule<br />

semi−implicit m.p.r.<br />

O(h 2 )<br />

10 −4 10 −3 10 −2 10 −1 10 0<br />

Fig. 134 ✸<br />

?Idee: Implizite RK-ESV mit linearisierten Inkrementgleichungen (2.2.3)<br />

⎛<br />

s∑<br />

k i = f(y 0 )+hDf(y 0 ) ⎝<br />

j=1<br />

a ij k j<br />

⎞<br />

⎠ , i = 1,...,s . (3.6.2)<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

3.6<br />

p. 388


(3.6.2) ˆ= LGS der Dimension s · d: (s ˆ= Anzahl der Stufen, A ∈ R s,s ˆ= Koeffizientenmatrix aus<br />

Butcher-Schema (2.3.6))<br />

mit Kronecker-Produkt:<br />

MATLAB-Kommando<br />

✗<br />

✖<br />

(I s·d −hA⊗Df(y 0 ))<br />

⎛<br />

k ⎞<br />

1<br />

⎝ . ⎠ =<br />

k s<br />

⎛<br />

⎞<br />

1<br />

⎝.<br />

⎠⊗f(y 0 ) ,<br />

1<br />

fürA ∈ R m,n ,B ∈ R k,l<br />

⎛ ⎞<br />

a 11 B ··· a 1n B<br />

A⊗B := ⎝ . . ⎠ ∈ R m·k,n·l .<br />

a m,1 B ··· a m,n B<br />

kron(A,B).<br />

Linearisierung folgenlos bei linearen ODE ➢ Stabilitätsfunktion (→ Def. 3.1.6) unverändert<br />

<strong>Beispiel</strong> 3.6.3 (Implizite RK-ESV mit linearisierten Inkrementgleichungen).<br />

rev 35327,<br />

✔24. Juni<br />

2011<br />

✕<br />

Numerische<br />

Mathemtik<br />

R. Hiptmair<br />

Anfangswertproblem für logistische Differentialgleichung, siehe Bsp. 1.2.1<br />

ẏ = λy(1−y) , y(0) = 0.1 , λ = 5 .<br />

3.6<br />

p. 389


2-stufiges Radau-ESV, Butcher Schema<br />

1 5<br />

3 12 − 12<br />

1<br />

1 3 1<br />

4 4<br />

, (3.6.4)<br />

3 1<br />

4 4<br />

Ordnung 3, siehe Sect. 3.4.<br />

Inkremente aus linearisierten Gleichungen<br />

(3.6.2)<br />

Fehlermass<br />

err = max<br />

j=1,...,n |y j −y(t j )|<br />

error<br />

Logistic ODE, y 0<br />

= 0.100000, λ = 5.000000<br />

10 −2<br />

10 −4<br />

10 −6<br />

10 −8<br />

10 −10<br />

RADAU (s=2)<br />

10 −12<br />

semi−implicit RADAU<br />

O(h 3 )<br />

O(h 2 )<br />

10 −14<br />

10 −4 10 −3 10 −2 h<br />

10 −1 10 0<br />

Fig. 135<br />

10 0<br />

Numerische<br />

Mathemtik<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

Ordnungsverlust durch Linearisierung !<br />

Die einfach Linearisierung (3.6.2) führt bei impliziten RK-ESV zu einem erheblichen Verlust an Genauigkeit<br />

und ist daher keine Option.<br />

✸<br />

3.6<br />

p. 390


Idee: „Rettung” der Ordnung durch bessere Startnäherung für (einen) Newtonschritt ?<br />

Wir betrachten:<br />

diagonal-implizite RK-ESV (DIRK)<br />

⇕<br />

A untere Dreiecksmatrix<br />

(A regulär⇔a jj ≠ 0)<br />

c A<br />

b T :=<br />

c 1 a 11 0 ··· 0<br />

c 2 a 21 a 22 0 0<br />

.<br />

.<br />

.<br />

. ... ... .<br />

. ... ... .<br />

. ... 0<br />

.<br />

c s a s1 ··· a ss<br />

b 1 ··· ··· b s<br />

(3.6.5)<br />

Numerische<br />

Mathemtik<br />

Gestaffeltes (nichtlineares) Gleichungssystem für Inkremente<br />

(autonomer Fall)<br />

Allgemeine Inkrementgleichungen fürs-stufiges DIRK-Verfahren:<br />

k i = f(y 0 +h<br />

i∑<br />

a ij k j ) , y 1 = y 0 +h<br />

j=1<br />

s∑<br />

b i k i .<br />

i. Inkrementgleichung: Umformulierung als Problem der Nullstellensuche von<br />

F(k) := k−f(y 0 +z+ha ii k) = 0 , z = h<br />

i=1<br />

i−1 ∑<br />

j=1<br />

a ij k j .<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

3.6<br />

p. 391


Ein Newton-Schritt mit Startwertk (0)<br />

i<br />

:<br />

DF(k) = I−Df(y 0 +z+a ii k)ha ii .<br />

k (1)<br />

i<br />

= k (0)<br />

i<br />

−(I−Df(y 0 +z+ha ii k)ha ii ) −1·<br />

(<br />

k (0)<br />

i<br />

−f(y 0 +z+ha ii k (0) )<br />

i<br />

)<br />

Numerische<br />

Mathemtik<br />

Vereinfachung, vgl. Bem. 2.3.19: Benutze Jacobi-Matrix an der Stelley 0<br />

Newton-Verfahren:<br />

Allgemeiner Ansatz für Startnäherung:<br />

Ansatz Startnäherung (fürk i ): k (0)<br />

i<br />

=<br />

i−1<br />

i−1 ∑<br />

j=1<br />

∑<br />

(I−ha ii J)k i =f(y 0 +h (a ij +d ij )k j )−hJ<br />

j=1<br />

i−1<br />

d ij<br />

a ii<br />

k j . (3.6.6)<br />

i−1 ∑<br />

j=1<br />

d ij k j , (3.6.7)<br />

J :=Df ( ∑ )<br />

y 0 +h (a ij +d ij )k j . (3.6.8)<br />

j=1<br />

Vereinfachtes Newton-Verfahen („eingefrorene” Jacobi-Matrix)<br />

Wie bei Standard-RK-ESV (→ Def. 2.3.5): y 1 = y 0 +h<br />

s∑<br />

b i k i . (3.6.9)<br />

i=1<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

3.6<br />

p. 392


Nächster Schritt:<br />

Bestimme Koeffizientena ij ,d ij in (3.6.7) (undb i ), so dass sie Ordnungsbedingungsgleichungen<br />

genügen<br />

(analog zur Konstruktion von Runge-Kutta-Verfahren in Sect. 2.3)<br />

Numerische<br />

Mathemtik<br />

Linear-implizite Runge-Kutta-Verfahren (Rosenbrock-Wanner(ROW)-Methoden)<br />

<strong>Beispiel</strong> 3.6.10 (Bedingungsgleichungen für Linear-implizite Runge-Kutta-Verfahren 2. Ordnung).<br />

Aus der Neumannschen Reihe für Matrizen: fürh > 0 “hinreichend klein”<br />

∞∑<br />

(I−ha ii J) −1 = (ha ii J) k = I+ha ii J+O(h 2 ) . (3.6.11)<br />

k=0<br />

Einsetzen in (3.6.7) + Taylor-Entwicklung vonf umy 0 + rekursives Einsetzen, vgl. Bsp. 2.3.24:<br />

(<br />

k i = I+ha ii J+O(h 2 )) ⎛ ⎞<br />

∑i−1<br />

⎝f(y 0 )+hJ (a ij +d ij )k j +O(h 2 ∑i−1<br />

)−hJ d ij k j<br />

⎠<br />

= f(y 0 )+ha ii Jf(y 0 )+hJf(y 0 ) (i−1 ∑<br />

j=1<br />

j=1<br />

a ij<br />

) +O(h 2 ) .<br />

j=1<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

3.6<br />

p. 393


(3.6.9)<br />

⇒<br />

y 1 = y 0 +h ( ∑ s )<br />

b i f(y0 )+h 2( s∑<br />

i=1<br />

i=1<br />

∑i−1<br />

b i<br />

j−1<br />

a ij<br />

)Jf(y 0 )+O(h 3 ) .<br />

Dabei wurde benutzt: J = Df(y 0 ). Dann Vergleich mit Taylorentwicklung (2.3.26) ➣ Bedingungsgleichungen<br />

(2.3.29), (2.3.30) (gleich wie für Standard-Rk-ESV !).<br />

✸<br />

Numerische<br />

Mathemtik<br />

<strong>Beispiel</strong> 3.6.12 (Energieerhaltung bei semi-impliziter Mittelpunktsregel).<br />

3<br />

300 timesteps on [0,50.000000]<br />

Hamiltonsche ODE (1.2.19) für mathematisches<br />

Pendel für 0 ≤ t ≤ T := 50, Anfangswerteα(0)<br />

= π/4,p(0) = 0<br />

Implizite Mittelpunktsregel (1.4.19)/semiimplizite<br />

Mittelpunktsregel (→ Bsp. 3.6.1) auf<br />

uniformem Zeitgitterh = T/300,<br />

Beobachtet: Zeitverhalten der Energien →<br />

Bsp. 1.4.17<br />

p<br />

2<br />

1<br />

0<br />

−1<br />

−2<br />

exact solution<br />

implicit midpoint<br />

semi−implicit m.r.<br />

−3<br />

−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1<br />

α<br />

Fig. 136<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

3.6<br />

p. 394


3<br />

Energies for implicit midpoint discrete evolution<br />

4.5<br />

4<br />

Energies for semi−implicit midpoint discrete evolution<br />

Numerische<br />

Mathemtik<br />

2.5<br />

3.5<br />

2<br />

3<br />

energy<br />

1.5<br />

energy<br />

2.5<br />

2<br />

1<br />

1.5<br />

1<br />

0.5<br />

kinetic energy<br />

potential energy<br />

total energy<br />

0<br />

0 5 10 15 20 25 30 35 40 45 50<br />

time t<br />

Fig. 137<br />

0.5 kinetic energy<br />

potential energy<br />

total energy<br />

0<br />

0 5 10 15 20 25 30 35 40 45 50<br />

time t<br />

Fig. 138<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

✗<br />

✖<br />

Energiedrift bei semi-impliziter Mittelpunktsregel<br />

✔<br />

✕<br />

✸<br />

3.7<br />

p. 395


3.7 Exponentielle Integratoren [24, 28, 25]<br />

Numerische<br />

Mathemtik<br />

Betrachte: Autonomes AWP ẏ = f(y),f : D ⊂ R d ↦→ R d stetig differenzierbar<br />

Idee:<br />

„Absubtrahieren” der Lösung der umy 0 linearisierten ODE<br />

ẏ = Jy+g(y) , g(y) := f(y)−Jy , (3.7.1)<br />

mit J := Df(y 0 )<br />

Variation der Konstanten (→ Sect. 1.3.2) angewandt auf (3.7.1)<br />

∫ h<br />

y(h) = exp(Jh)y 0 +<br />

0<br />

exp(J(h−τ))g(y(τ))dτ . (3.7.2)<br />

Faltungsintegral<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

exp ˆ= Matrixexponentialfunktion, definiert durch, vgl. (1.3.14),<br />

“Matrixexponentialreihe”: exp(M) =<br />

∞∑<br />

k=0<br />

1<br />

k! Mk .<br />

! Auswertung der Matrixexponentialreihe ist kein stabiler numerischer Algorithmus (Auslöschung !)<br />

3.7<br />

p. 396


Alternativen:<br />

Numerische<br />

Mathemtik<br />

☞ Pade-Approximation vont ↦→ e t (nach Skalieren der Matrix, „scaling and squaring”)<br />

☞ Schur-Zerlegung (siehe MATLAB-Kommando schur) M = Q T (D + U)Q mit Diagonalmatrix<br />

D, echter oberer Dreiecksmatrix U, orthogonaler Matrix Q. Anschliessend Auswertung der<br />

abgeschnittenen Matrixexponentialreihe fürD+U & (1.3.15)<br />

MATLAB-Funktionexpm, Algorithmus→[20]<br />

Numerische Quadratur des Faltungsintegrals ➢ Diskretisierung von (3.7.2) ➢ ESV<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

Einfachste Wahl:<br />

∫ h<br />

0<br />

exp(J(h−τ))g(y(τ))dτ ≈<br />

∫ h<br />

0<br />

mit<br />

exp(J(h−τ))dτ ·g(y 0 ) = hϕ(Jh)·g(y 0 )<br />

ϕ(z) = exp(z)−1<br />

z<br />

.<br />

3.7<br />

p. 397


exponentielles Euler-Verfahren (auf Zeitgitter{t k },h k := t k+1 −t k )<br />

y k+1 = y k +h k ϕ(h k J)f(y k ) , k = 0,...,N , J := Df(y k ) . (3.7.3)<br />

Numerische<br />

Mathemtik<br />

Bemerkung 3.7.4 (Stabilitätsgebiet des exponentiellen Euler-Verfahrens).<br />

Erinnerung: Analyse des linearen Modellproblems, Sect. 3.1 ➣ StabilitätsgebietS Ψ ⊂ C→<br />

Def. 3.1.4<br />

Beachte: exponentielles Euler-Verfahren ist exakt für AWP zur ODE ẏ = Ay + g mit konstantem<br />

A ∈ R d,d ,g ∈ R d .<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

(Ideale !) Stabilitätsfunktion: S(z) = exp(z) ➤ (ideales) StabilitätsgebietS Ψ = C − △<br />

<strong>Beispiel</strong> 3.7.5 (Exponentielles Euler-Verfahren).<br />

3.7<br />

p. 398


error<br />

Logistic ODE, y 0<br />

= 0.100000, λ = 5.000000<br />

h<br />

10 −1<br />

10 −2<br />

10 −3<br />

10 −4<br />

10 −5<br />

exponential Euler<br />

10 −6<br />

explicit Euler<br />

O(h)<br />

O(h 2 )<br />

10 −7<br />

10 −4 10 −3 10 −2 10 −1<br />

Fig. 139<br />

10 0<br />

• Anfangswertproblem für<br />

logistische Differentialgleichung,λ = 5,T = 1,<br />

siehe Bsp. 1.2.1<br />

• Exponentielles Euler-Verfahren (3.7.3) mit<br />

uniformen Zeitschrittweitenh<br />

• Fehlermass<br />

err = max<br />

j=1,...,n |y j −y(t j )|<br />

Algebraische Konvergenz der Ordnung 2 !<br />

✸<br />

Numerische<br />

Mathemtik<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

<strong>Beispiel</strong> 3.7.6 (Exponentielles Euler-Verfahren für steifes AWP).<br />

3.7<br />

p. 399


• Steifes AWP → Bsp. 3.5.2, 3.4.1, 3.5.7:<br />

1.4<br />

1.2<br />

exponential Euler, h=0.012500<br />

Numerische<br />

Mathemtik<br />

ẏ(t) = λy 2 (1−y) ,<br />

λ = 500 , y(0) = 1<br />

100 .<br />

1<br />

0.8<br />

y<br />

• Exponentielles Euler-Verfahren (3.7.3) mit uniformen<br />

Zeitschrittweitenh = 1 80<br />

Qualitativ richtiges Verhalten<br />

0.6<br />

0.4<br />

0.2<br />

exact solution y(t)<br />

exponential Euler<br />

0<br />

0 0.2 0.4 0.6 0.8 1<br />

t<br />

Fig. 140 ✸<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

Verallgemeinerung: Exponentielle Runge-Kutta-Verfahren: mit J := Df(y k )<br />

Semi-implizites Euler-Verfahren<br />

Exponentielles Euler-Verfahren<br />

y k+1 = y k +(I−hJ) −1 hf(y k ) y k+1 = y k +ϕ(hJ)hf(y k )<br />

☞ Ersetze: (I−γhJ) −1 → ϕ(γhJ) in linear-impliziten RK-ESV (3.6.7)<br />

3.7<br />

p. 400


Definition 3.7.7 (Exponentielle Runge-Kutta-Verfahren).<br />

Fürb i ,a ij ,d ij ∈ R,i,j = 1,...,s,s ∈ N, definiert<br />

Numerische<br />

Mathemtik<br />

k i :=ϕ(a ii hJ) ( f(u i )+hJ<br />

i−1<br />

i−1 ∑<br />

j=1<br />

d ij k j<br />

) , i = 1,...,s ,<br />

∑<br />

u i :=y 0 +h (a ij +d ij )k j , i = 1,...,s ,<br />

Ψ h y 0 :=y 0 +h<br />

j=1<br />

s∑<br />

b i k i .<br />

i=1<br />

eins-stufiges exponentielles Runge-Kutta-Einschrittverfahren für die autonome ODEẏ = f(y).<br />

R. Hiptmair<br />

rev 35327,<br />

Dabei istJ := Df(y 0 ).<br />

24. Juni<br />

2011<br />

Wie in Sect. 2.3: Gewünschte Konsistenzordnung<br />

➢ Bestimmungsgleichungen [24]<br />

➢ Koeffizientenb i ,a ij ,c ij ,d ij<br />

Zusatzbedingung: Exakte Integration von linearen Dgl. ẏ = Ay+g,A ∈ R d,d ,g ∈ R d<br />

3.7<br />

p. 401


Bemerkung 3.7.8. Herausforderung:<br />

effiziente/genaue Berechnung vonexp(c i hJ)<br />

Numerische<br />

Mathemtik<br />

Krylov-Unterraummethoden für grosse, dünnbesetzteJ→[22]<br />

△<br />

3.8 Differentiell-Algebraische Anfangswertprobleme<br />

3.8.1 Grundbegriffe<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

<strong>Beispiel</strong> 3.8.1 (Knotenanalyse eines Schaltkreises). → Bsp. 3.5.5<br />

3.8<br />

p. 402


R 1<br />

C<br />

R 2<br />

Knotengleichungen (Kirchoffsche Regel):<br />

➊: 0 = I D +I R1 −I C ,<br />

➋: 0 = I C −I R2 .<br />

Numerische<br />

Mathemtik<br />

u 0 (t)<br />

Diode<br />

➊<br />

➋<br />

Bauelementgleichungen:<br />

I D =I D (u 1 ) = I 0 (exp(K(u 0 −u 1 ))−1) ,<br />

I C =C(˙u 1 − ˙u 2 ) ,<br />

I R1 =R −1<br />

1 (u 0−u 1 ) ,<br />

I R2 =R −1<br />

2 u 2 .<br />

Vorgegeben:<br />

Zeitabhängige Eingangsspannungu 0 = u 0 (t)<br />

➊ ➣ 0 = I D (u 1 )+R1 −1 0−u 1 )−C(˙u 1 − ˙u 2 ) ,<br />

➋ ➣ 0 = C(˙u 1 − ˙u 2 )−R2 −1 2−u 0 ) .<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

( ) C −C<br />

)(˙u1<br />

−C C ˙u2<br />

=<br />

(<br />

I D (u 1 )+R −1<br />

)<br />

1 (u 0−u 1 )<br />

−R −1<br />

2 u 2<br />

Singuläre Matrix ! ➥ (3.8.2) ist Differentiell-Algebraische Gleichung (DAE)<br />

(3.8.2)<br />

3.8<br />

p. 403


Numerische<br />

Mathemtik<br />

Beachte:<br />

( 1 0<br />

1 1<br />

)( C −C<br />

−C C<br />

)( ) 1 1<br />

0 1<br />

=<br />

( ) C 0<br />

0 0<br />

.<br />

Transformation von (3.8.2): y 1 := u 1 −u 2 ,y 2 := u 2<br />

( )( ) ( ) (<br />

C 0 1 −1<br />

)(˙u1 C 0<br />

=<br />

)(ẏ1 I<br />

= D (u 1 )+R −1 )<br />

1 (u 0−u 1 )<br />

0 0 0 1 ˙u2 0 0 ẏ2 I D (u 1 )+R1 −1 (u 0−u 1 )−R2 −1 u 2<br />

(<br />

I<br />

= D (y 1 +y 2 )+R1 −1 )<br />

(u 0−y 1 −y 2 )<br />

I D (y 1 +y 2 )+R1 −1 (u 0 −y 1 −y 2 )−R2 −1 y 2<br />

Algebraische Nebenbedingung<br />

c(y 1 ,y 2 ) := I D (y 1 +y 2 )+R −1<br />

1 (u 0−y 1 −y 2 )−R −1<br />

2 y 2 = 0 .<br />

Beachte: ∀y 1 : y 2 ↦→ c(y 1 ,y 2 ) monoton fallend, lim<br />

y 2 →∞ c(y 1,y 2 ) = −∞,<br />

lim<br />

y 2 →−∞ c(y 1,y 2 ) = ∞<br />

⇒ Nebenbedingung ist auflösbar nachy 2 = u 2 :∃FunktionG : R ↦→ R so, dassy 2 = G(y 1 )<br />

.<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

Einsetzen ODE füry 1 !<br />

Cy˙<br />

1 = I D (y 1 +G(y 1 ))+R1 −1 (u 0−y 1 −G(y 1 )) .<br />

3.8<br />

p. 404


➣ Existenz & Eindeutigkeit von Lösungen, siehe Sect. 1.3.1.<br />

Numerische<br />

Mathemtik<br />

✸<br />

Gegeben: Rechte Seitef : D ⊂ R d ↦→ R d ,<br />

singuläre MatrixM ∈ R d,d<br />

☞<br />

Autonomes (lineares) differentiell-algebraisches Anfangswertproblem (DAE):<br />

Mẏ = f(y) , y(0) = y 0 . (3.8.3)<br />

Beachte: (3.8.3) impliziert algebraische Nebenbedingung f(y(t)) ∈ Im(M)<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

(Konsistente Anfangswerte erforderlich: f(y 0 ) ∈ Im(M) !)<br />

✎ Notation: Im(M) := {Mx:x ∈ R d } ˆ= Bild der MatrixM<br />

3.8<br />

p. 405


In Bsp. 3.8.1: Transformationen ➣ Reduktion auf spezielle Form:<br />

Numerische<br />

Mathemtik<br />

Erweiterung von Def. 1.1.2 ➣ Lösungsbegriff für (3.8.3)<br />

(Diffizil: Allgemeine Existenz & Eindeutigkeit von Lösungen, siehe [8, Sect. 2.6])<br />

Gegeben: „Rechte Seiten” d : D 1×D 2 ⊂ R p ×R q ↦→ R p ,<br />

c : D 1 ×D 2 ⊂ R p ×R q ↦→ R q (hinreichend glatt),p,q ∈ N,<br />

☞<br />

Anfangswerte u 0 ∈ D 1 ,v 0 ∈ D 2 .<br />

Separiertes differentiell-algebraisches Anfangswertproblem (DAE):<br />

Algebraische Nebenbedingung (engl. constraint)<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

˙u = d(u,v) ,<br />

0 = c(u,v)<br />

,<br />

u(0) = u 0 ,<br />

v(0) = v 0<br />

, c(u 0 ,v 0 ) = 0 . (3.8.4)<br />

Konsistente Anfangswerte erforderlich !<br />

3.8<br />

p. 406


Bemerkung 3.8.5 (DAE: Transformation auf separierte Form).<br />

Numerische<br />

Mathemtik<br />

Die Form (3.8.3) einer DAE ist immer in (3.8.4) transformierbar:<br />

Anwendung auf (3.8.3):<br />

rank(M) = r ⇒ ∃T,S ∈ R d,d regulär: TMS =<br />

Mẏ = f(y) ⇒ TMSS −1 ẏ = Tf(y)<br />

z:=S −1 y<br />

⇒<br />

( ) I 0<br />

0 0<br />

, I ∈ R r,r .<br />

( ) I 0<br />

ż = Tf(Sz) .<br />

0 0<br />

Also definieren die erstenr Gleichungen des transformierten Systems die Differentialgleichung, während<br />

die restlichend−r die Rolle der algebraischen Nebenbedingungen spielen.<br />

△<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

✬<br />

✩<br />

Annahme 3.8.6. Partielle Ableitung (Jacobi-Matrix)D v c(u,v) der Nebenbedingungen ist regulär<br />

entlang von Lösungskurvent ↦→ (u(t),v(t)) T .<br />

✫<br />

✪<br />

Lokale Auflösbarkeit: v = G(u): (3.8.4) ⇒ ˙u = d(u,G(u)) ˆ= (1.1.13).<br />

3.8<br />

p. 407


Definition 3.8.7 (DAE vom Index 1).<br />

Annahme (3.8.6) erfüllt ➣ DAE-AWP (3.8.4) hat (Differenzierbarkeits)index 1<br />

Numerische<br />

Mathemtik<br />

Bemerkung 3.8.8. Allgemeine Diskussion des Indexbegriffes (Index > 1, Störungsindex, etc.) bei<br />

DAE: [18, Kap. VII]<br />

△<br />

3.8.2 Runge-Kutta-Verfahren für Index-1-DAEs<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

Betrachte: differentiell-algebraisches Anfangswertproblem (3.8.4) unter Annahme 3.8.6<br />

3.8<br />

p. 408


Idee:<br />

➀ Betrachte AWPs für Dgl.<br />

➁ Formuliere RK-ESV für<br />

Singuläre Störungstechnik (engl.ǫ-embedding)<br />

➂ Macht Verfahren noch Sinnǫ = 0 ?<br />

˙u = d(u,v)<br />

ǫ˙v = c(u,v) , ǫ > 0.<br />

˙u = d(u,v)<br />

˙v = 1 , ǫ > 0.<br />

ǫc(u,v) Wenn ja→<br />

Numerische<br />

Mathemtik<br />

<strong>Beispiel</strong> 3.8.9 (Singulär gestörte Schaltkreisgleichungen).<br />

Schaltkreis aus Bsp. 3.8.1 mit parasitärer Kapazi-<br />

R 1<br />

R 2<br />

tät (durchflossen vom StromI p )<br />

Knotengleichungen (Kirchoffsche Regel):<br />

➊: 0 = I D +I R1 +I p −I C ,<br />

➊<br />

C<br />

➋<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

➋: 0 = I C −I R2 .<br />

Zusätzliche Bauelementgleichung:<br />

u 0 (t)<br />

Diode<br />

C p<br />

Fig. 141<br />

I p =C p (˙u 0 − ˙u 1 ) .<br />

3.8<br />

p. 409


( ) C+Cp −C<br />

)(˙u1<br />

−C C ˙u2<br />

=<br />

(<br />

I D (u 1 )+R1 −1 )<br />

(u 0−u 1 )+C p˙u 0<br />

−R2 −1 u 2<br />

(3.8.10)<br />

Numerische<br />

Mathemtik<br />

Reguläre Matrix fürC p > 0<br />

3<br />

Constraint manifold<br />

2.5<br />

2<br />

u 2<br />

1.5<br />

1<br />

0.5<br />

0<br />

✁ Richtungsfeld der singulär gestörten Schaltkreisgleichung<br />

füru 0 (t) ≡ 0<br />

(Skalierte Grössen R = 1, C = 1, I 0 = 10 −4 ,<br />

K = 10,C p = 10 −3 )<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

−0.5<br />

−1<br />

−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1<br />

u 1<br />

Fig. 142<br />

3.8<br />

p. 410


Aus dem Richtungsfeld liest man ab: schnelle Relaxation in Richtung auf die Mannigfaltigkeit beschrieben<br />

durch die algebraische Nebenbedingung der DAE (3.8.2)<br />

Numerische<br />

Mathemtik<br />

u 2 = R 2 (I D (u 1 )+R −1<br />

1 )(u 0−u 1 ) .<br />

☞ Steifheit des singulär gestörten Problems, siehe Bsp. 3.5.6.<br />

Quantitative Analyse: Betrachte den Fallu 0 (t) ≡ 0 ➣ Stationärer Punkt:u 1 = 0,u 2 = 0<br />

Jacobi-Matrix im stationären Punkt<br />

➣<br />

Df(0) = C −1 p<br />

C p → 0 ⇒ λ min (Df(0)) → −∞<br />

( )(<br />

1 1<br />

1 1+ C p<br />

C<br />

−I 0 K −R −1<br />

1<br />

0<br />

0 −R −1<br />

2<br />

)<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

✗<br />

✖<br />

DAEs = „∞-steife Anfangswertprobleme”<br />

✔<br />

✕<br />

✸<br />

3.8<br />

p. 411


Formale Rechnung: Singuläre Störungstechnik für Runge-Kutta-Einschrittverfahren mit<br />

Butcher-Schema c A b T<br />

Numerische<br />

Mathemtik<br />

Def. 2.3.5: s-stufiger Runge-Kutta-Schritt fürẏ = f(y), Stufenform, siehe Bem. 2.3.7:<br />

∑<br />

k i = f(y 0 +h s a ij k j )<br />

j=1 k i =f(g i )<br />

∑<br />

y 1 = y 0 +h s ⇔<br />

b i k i<br />

i=1<br />

g i = y 0 +h s ∑<br />

j=1<br />

y 1 = y 0 +h s ∑<br />

i=1<br />

a ij f(g j )<br />

b i f(g i )<br />

, i = 1,...,s .<br />

{ ˙u = d(u,v)<br />

˙v = 1 ǫ c(u,v)<br />

ǫ → 0 ⇒<br />

⎧⎪ ⎨<br />

⎪ ⎩<br />

g u i<br />

= u 0 +h s ∑<br />

⎧<br />

⎪⎨<br />

⎪⎩<br />

j=1<br />

ǫg v i<br />

= ǫv 0 +h s ∑<br />

u 1 = u 0 +h s ∑<br />

i=1<br />

j=1<br />

v 1 = v 0 + 1 ǫ h s ∑<br />

i=1<br />

a ij d(g u j ,gv j )<br />

a ij c(g u j ,gv j ) , i = 1,...,s<br />

b i d(g u i ,gv i )<br />

b i c(g u i ,gv i )<br />

s∑<br />

a ij c(gj u ,gv j ) = 0, i = 1,...,s ⇒ c(gu j ,gv j ) = 0 s<br />

j=1<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

3.8<br />

p. 412


Numerische<br />

Mathemtik<br />

➀ Falls Nebenbedingung nachv auflösbar (→ Index 1, Def. 3.8.7)<br />

Dies kann den Schrittv 0 ↦→ v 1 ersetzen.<br />

c(u 1 ,v 1 ) = 0 ⇒ v 1 = G(u 1 ) .<br />

➁<br />

Im allgemeinen Fall, formal, mit A −1 = (ǎ ij ) s i,j=1<br />

⇒ v 1 = v 0 +<br />

s∑ s∑<br />

b i<br />

i=1<br />

1<br />

s∑<br />

ǫ hc(gu i ,gv i ) =<br />

j=1<br />

j=1<br />

ǎ ij (g v j −v 0)<br />

ǎ ij (gj v −v 0) = (1−b T A −1 1) v<br />

} {{ } 0 +<br />

= S(−∞)<br />

Aus Formel (3.4.4) für StabilitätsfunktionS<br />

s∑ ( ∑ s )<br />

b i ǎ ij g<br />

v<br />

j .<br />

j=1<br />

i=1<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

Beachte: c(u 1 ,v 1 ) = 0 ist hier nicht garantiert !<br />

Spezialfall:<br />

(3.4.5) für L-Stabilität<br />

Wenn RK-ESV steif-genau, also b T = aT·,s (Zeile von A), vgl. hinreichende Bedingung<br />

3.8<br />

p. 413


⇒ v 1 = g v s ⇒ c(u 1 ,v 1 ) = 0<br />

Numerische<br />

Mathemtik<br />

Bemerkung 3.8.11 (RK-ESV und Elimination der DAE-Nebenbedingungen).<br />

Index-1 DAE (→ Def. 3.8.7) ↔ ODE ˙u = d(u,G(u))<br />

steif-genaues RK-ESV gemäss (3.4.5) für diese ODE:<br />

☞<br />

g u i = u 0+h<br />

⎧<br />

⎪⎨<br />

⎪⎩<br />

s∑<br />

a ij d(gj u ,G(gu j )) , i = 1,...,s , u 1 = gs<br />

u<br />

j=1<br />

g u i = u 0+h<br />

⇕<br />

s∑<br />

a ij d(gj u ,gv j )<br />

j=1<br />

, i = 1,...,s , u 1 = gs u .<br />

0 = c(gi u ,gv i )<br />

Ein “kommutierendes Diagramm”<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

Steif-genaues RK-ESV für<br />

˙u = d(u,v)<br />

0 = c(u,v)<br />

= Steif-genaues RK-ESV für ˙u = d(u,G(u))<br />

3.8<br />

p. 414


△<br />

Numerische<br />

Mathemtik<br />

Welche Runge-Kutta-Einschrittverfahren (→ Sect. 2.3)<br />

eignen sich für die singuläre Störungstechnik ?<br />

Notwendig (für Lösbarkeit der Imkrementgleichungen, Def. 2.3.5):<br />

implizites Verfahren<br />

DAE „∞-steif” ➣ Notwendig: A-Stabilität→Def. 3.2.16,<br />

Wünschenswert: L-stabilität→Def. 3.4.3<br />

Wiederum: Einsichten durch Modellproblemanalyse, vgl. Sect. 3.1:<br />

Modellproblem:<br />

˙u = vf(u) ,<br />

0 = 1−v<br />

˙u = vf(u) ,<br />

ǫ˙v = 1−v<br />

Singulär gestörte Dgl.<br />

0 < ǫ ≪ 1 .<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

Heuristik: ESV tauglich für Modellproblem ↔<br />

ESV tauglich für singulär gestörtes Problem∀ǫ<br />

≈ 0<br />

ESV muss für AWP<br />

liefern !<br />

˙v = ǫ −1 (1−v), v(0) = 1, 0 < ǫ ≪ 1, Folge{v k } ∞ k=0<br />

mit lim<br />

k→∞ v k = 1<br />

3.8<br />

p. 415


Erwünscht: S(−∞) = 0 für Stabilitätsfunktion (→ Thm. 3.1.6)S(z) des ESV.<br />

Numerische<br />

Mathemtik<br />

✬<br />

✩<br />

Theorem 3.8.12 (Konvergenz impliziter RK-ESV für Index-1-DAEs). → [18, Thm. 1.1,<br />

Sect. VI.1]<br />

Es seien d, c hinreichend glatt, das Anfangswertproblem (3.8.4) eindeutig lösbar<br />

und Annahme 3.8.6 erfüllt (→ Index-1-DAE, siehe Def. 3.8.7). Das s-stufige<br />

Runge-Kutte-Einschrittverfahren mit Butcher-Tableau c A bT , siehe (2.3.6), sei steif-genau, d.h.<br />

A ist regulär undb i = a s,i ,i = 1,...,s, und sei konsistent von der Ordnungp.<br />

Dann ist das Verfahren angewandt auf (3.8.4) für hinreichend kleine Zeitschrittweite h wohldefiniert<br />

und es gilt<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

‖u k −u(t k )‖ = O(h p ) , ‖v k −v(t k )‖ = O(h p ) ,<br />

auf jedem endlichen Integrationszeitintervall[0,T].<br />

✫<br />

✪<br />

3.8<br />

p. 416


Beweisskizze: Auflösen von (3.8.4) nach der algebraischen Variablenv und Einsetzen ➣ ODE<br />

Anwendung des RK-ESV auf die resultierende ODE liefert genau die gleiche diskrete Evolution fuer<br />

u wie das Verfahren für die DAE (“kommutierendes Diagramm”), vgl. Bem. 3.8.11.<br />

Numerische<br />

Mathemtik<br />

Numerische Integration von Index-1-DAEs mit Radau-ESV → Sect. 3.4<br />

Bemerkung 3.8.13. Radau-ESV auch geeignet für Index-1-DAEs (!) in der Form (3.8.3)Mẏ = f(y)<br />

△<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

Bemerkung 3.8.14 (MATLAB-Integratoren für Index-1-DAEs).<br />

3.8<br />

p. 417


MATLAB-CODE : Lösung einer Index-1-DAE<br />

f = @(t,y) [ ... ];<br />

J = @(t,y) [ ... ];<br />

M = @(t,y) [ ... ];<br />

opts = odeset(’Mass’,M,’Jacobian’,J);<br />

[t,y] = ode15s(f,tspan,y0,opts);<br />

MATLAB-Code zur Lösung allgemeiner<br />

DAEs<br />

M(t,y)ẏ = f(t,y) .<br />

Funktionf<br />

Jacobi-MatrixD y f<br />

Matrix(funktion)M(t,y)<br />

Numerische<br />

Mathemtik<br />

Alternativer Integrator: ode23t (gleicher Aufruf)<br />

(Beachte: Alle MATLAB DAE-Integratoren benutzen adaptive Schrittweitensteuerung, vgl. Sect. 2.6)<br />

△<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

<strong>Beispiel</strong> 3.8.15 (Lösung der Schaltkreis-DAEs mit MATLAB).<br />

DAE (3.8.2) mitC = 1,R 2 = 1,R 1 = 1000,K = 10,I 0 = 10 −4<br />

MATLAB-Integratoren ode23t, ode15s, default Toleranzen<br />

3.8<br />

p. 418


1<br />

0.8<br />

ode15s: Circuit DAE<br />

1<br />

0.8<br />

ode23t: Circuit DAE<br />

Numerische<br />

Mathemtik<br />

0.6<br />

0.6<br />

0.4<br />

0.4<br />

0.2<br />

0.2<br />

voltages<br />

0<br />

voltages<br />

0<br />

−0.2<br />

−0.2<br />

−0.4<br />

−0.4<br />

−0.6<br />

u 0<br />

(t)<br />

−0.6<br />

u 0<br />

(t)<br />

u 1<br />

(t)<br />

u 1<br />

(t)<br />

−0.8<br />

u 2<br />

(t)<br />

−0.8<br />

u 2<br />

(t)<br />

t i<br />

−1<br />

0 2 4 6 8 10 12 14 16<br />

time t<br />

Fig. 143<br />

t i<br />

−1<br />

0 2 4 6 8 10 12 14 16<br />

time t<br />

Fig. 144 ✸<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

3.8.3 DAEs mit höherem Index<br />

<strong>Beispiel</strong> 3.8.16 (Pendelgleichung in Deskriptorform). → Bsp. 1.2.17<br />

3.8<br />

p. 419


x 2<br />

0<br />

x 1<br />

Mathematisches Pendel (Aufhängung in0)<br />

Zwangskraft (Zug des Stabs) hält Pendelmasse<br />

Numerische<br />

Mathemtik<br />

ZwangskraftF z<br />

auf der Kreisbahn<br />

(<br />

0<br />

1)<br />

F z (x)−mg<br />

⊥ x . (3.8.17)<br />

g<br />

Zwangskraft in Richtung des Stabes:<br />

mg<br />

F z (x) = −λmx . (3.8.18)<br />

Fig. 145<br />

(x = (x 1 ,x 2 ) T ˆ= Position der Masse)<br />

Bewegungsgleichungen in Deskriptorform: (↔ Minimalkoordinaten in Bsp. 1.2.17)<br />

(<br />

0<br />

1)<br />

ẍ = −λx−g , x 2 1 +x2 2 = l2 . (3.8.19)<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

Lagrange-Multiplikator ➣ Zwangskraft Zwangsbedingung<br />

3.8<br />

p. 420


(3.8.19) ˆ= 2. Ordnung ➣ Umwandlung in separierte DAE (3.8.4) 1. Ordnung:<br />

⎛ ⎞ ⎛ ⎞<br />

ẋ 1 p 1<br />

(3.8.19) ➢ m ⎜ ẋ2<br />

⎟<br />

⎝ ṗ1 ⎠ = ⎜ p 2<br />

⎟<br />

⎝ −λx 1<br />

⎠ , x2 1 +x2 2 = l2 . (3.8.20)<br />

ṗ2 −λx 2 −g<br />

(3.8.20) ist DAE vom Index> 1 !<br />

Numerische<br />

Mathemtik<br />

Differenzieren der Zwangsbedingung x 1 p 1 +x 2 p 2 = 0 , (3.8.21)<br />

Nochmaliges Differenzieren (p 2 1 +p2 2 )−λ(x2 1 +x2 2 )−gx 2 = 0 . (3.8.22)<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

• (3.8.21), (3.8.22) ˆ= versteckte Nebenbedingungen (von den Anfangswerten zu erfüllen !)<br />

• Erst nach zweimaligem Differenzieren der Nebenbedingung können wir die daraus resultierende<br />

Nebenbedingung (3.8.22) nachλauflösen ➥ (3.8.20) hat Index 3<br />

✸<br />

3.8<br />

p. 421


Bemerkung 3.8.23 (Hamiltonsche Bewegungsgleichungen mit Nebenbedingungen).<br />

Betrachte:<br />

Mechanisches System mit Hamilton-Funktion (→ Def. 1.2.20)H = H(p,q)<br />

(q ∈ R n ˆ= Konfigurationsvariable,p ∈ R n ˆ= Impulsvariable, siehe Sect. 1.2.4)<br />

Numerische<br />

Mathemtik<br />

Zwangsbedingungen für Konfigurationen:<br />

c(q(t)) = 0 ∀t ≥ 0,c : R n ↦→ R m ,m < n<br />

Hamiltonsche Bewegungsgleichungen mit Zwangsbedingungen<br />

˙q = ∂H<br />

∂p (p,q)<br />

ṗ = − ∂H<br />

∂q (p,q)−Dc(q)T λ<br />

0 = c(q) .<br />

Lagrange-Multiplikatorλ : R ↦→ R m<br />

(3.8.24)<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

Fallsm = 1 ➣<br />

c(q) = 0 beschreibtn−1-dimensionale Mannigfaltigkeit im R n<br />

gradc(q) ˆ= Normalenvektor auf diese Mannigfaltigkeit<br />

λgradc(q) ˆ= Zwangskraft orthogonal zur Mannigfaltigkeit, vgl. (3.8.17)<br />

3.8<br />

p. 422


Häufiger Spezialfall:<br />

mitM ˆ= s.p.d. Massenmatrix,U ˆ= Potential,<br />

Numerische<br />

Mathemtik<br />

H(p,q) = 1 2 pT M −1 p+U(q) (3.8.25)<br />

kinetische Energie<br />

potentielle Energie<br />

(3.8.24) in diesem Spezialfall:<br />

˙q = M −1 p , ˙q = −gradU(q)−Dc(q) T λ , c(q) = 0 .<br />

Nun: Differentiation der Zwangsbedingung c(q) = 0 nach der Zeit + Anwenden der Produktregel &<br />

Kettenregel + Einsetzen der Differentialgleichungen aus (3.8.24).<br />

➢ Versteckte Nebenbedingungen ↔ (3.8.21), (3.8.22)<br />

0 =Dc(q) ∂H (p,q) ,<br />

∂p<br />

(3.8.26)<br />

0 =D 2 c(q)( ∂H<br />

∂p (p,q),∂H ∂p (p,q))+Dc(q) ∂2 H<br />

∂p∂q (p,q)∂H ∂p (p,q) (3.8.27)<br />

−Dc(q) ∂2 H<br />

∂ 2 p (p,q)(∂H ∂q (p,q)+Dc(q)T λ) .<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

3.8<br />

p. 423


FürH der Form (3.8.25):<br />

∂ 2 H<br />

∂p 2 = M−1 (invertierbare Matrix)<br />

Numerische<br />

Mathemtik<br />

➣ (3.8.27) nach λ auflösbar, wenn Dc(q) T injektiv ⇔ Dc(q) hat vollen Rang (entlang der<br />

Lösungstrajektorie): Zwangsbedingungen unabhängig.<br />

<strong>Beispiel</strong> 3.8.28 (MATLAB-Integratoren für Pendelgleichung in Deskriptorform).<br />

△<br />

MATLABode15s/ode23t angewandt auf (3.8.20):<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

??? Error using ==> funfun/private/daeic12 at 77<br />

This DAE appears to be of index greater than 1.<br />

Error in ==> ode15s at 394<br />

[y,yp,f0,dfdy,nFE,nPD,Jfac] = daeic12(odeFcn,odeArgs,...)<br />

3.8<br />

p. 424


Idee: „Überliste MATLAB”, probiere Nebenbedingung (3.8.22)<br />

⎛ ⎞ ⎛<br />

⎞<br />

1 0 0 0 0<br />

y 3<br />

0 1 0 0 0<br />

Mẏ = f(y): M =<br />

⎜0 0 1 0 0<br />

⎟ , f(y) = y 4<br />

⎜ −y 5 y 1<br />

⎟ .<br />

⎝0 0 0 1 0⎠ ⎝ −y 5 y 2 −g ⎠<br />

0 0 0 0 0 −y 5 (y1 2 +y2 2 )−gy 2+(y3 2 +y2 4 )<br />

l = 1,g = 9.8, Zeitspanne[0,50], Löser:ode15s mit default-Toleranzen<br />

Numerische<br />

Mathemtik<br />

Konsistente Anfangswertex 1 (0) = −x 2 (0) = 1 2√<br />

2,p1 (0) = p 2 (0) = 0 (→λ(0))<br />

0.8<br />

1.5<br />

x 1<br />

0.6<br />

x 2<br />

R. Hiptmair<br />

0.4<br />

1<br />

rev 35327,<br />

24. Juni<br />

2011<br />

0.2<br />

0.5<br />

position<br />

0<br />

−0.2<br />

0<br />

constraint (length)<br />

v \dot x<br />

energy (scaled)<br />

−0.4<br />

−0.6<br />

−0.5<br />

−0.8<br />

−1<br />

0 5 10 15 20 25 30 35 40 45 50<br />

time t<br />

−1<br />

Fig. 146 0 5 10 15 20 25 30 35 40 45 50<br />

time t<br />

Fig. 147<br />

3.8<br />

p. 425


✸<br />

Numerische<br />

Mathemtik<br />

<strong>Beispiel</strong> 3.8.29 (Implizites Euler-Verfahren für Pendelgleichung in Deskriptorform).<br />

AWP für Pendel-DAE (3.8.20) wie in Bsp. 3.8.28, EndzeitpunktT = 5<br />

Implizites Eulerverfahren (1-stufiges Radau-ESV)<br />

Formale Anwendung eines Rückwärtsdifferenzenquotienten (→ Bem. 1.4.14) auf die Hamiltonsche<br />

Bewegunggleichung mit Zwangsbedingungen (3.8.24): berechne (q 1 ,p 1 ,λ 1 ) aus (q 0 ,p 0 ,λ 0 ) gemäss<br />

q 1 = q 0 +h ∂H<br />

∂p (p 1,q 1 )<br />

p 1 = p 0 −h ∂H<br />

∂q (p 1,q 1 )−hDc(q 1 ) T λ 1<br />

0 = c(q 1 ) .<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

3.8<br />

p. 426


Konkret für Pendelgleichung in Deskriptorform (3.8.20),q ↔ x,H(p,q) = 1 2 ‖p‖2 +gx 2 :<br />

Numerische<br />

Mathemtik<br />

x 1 = x 0 +hp 1 ,<br />

(<br />

p 1 = p 0 −h λx 1 +<br />

0 = ‖x 1 ‖ 2 2 −l2 .<br />

(<br />

0<br />

g))<br />

,<br />

10 1 timestep h<br />

maximal errors<br />

10 0<br />

10 −1<br />

10 −2<br />

10 −3<br />

10 −4 10 −3 10 −2 10 −1<br />

x 1<br />

x 2<br />

v 1<br />

v 2<br />

λ<br />

O(h)<br />

Fig. 148<br />

✁ Fehler in Lösungskomponenten<br />

(diskrete Maximumnorm) für<br />

100,200,400,1600,3200,6400,12800 implizite<br />

Euler-Schritte<br />

(„Exakte Lösung berechnet mit<br />

impliziter Mittelpunktsregel angewandt auf Minimalkoordinatenform,<br />

siehe Bsp. 1.4.24)<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

3.8<br />

p. 427


Man beobachtet algebraische Konvergenz erster Ordnung in allen Lösungskomponenten !<br />

Numerische<br />

Mathemtik<br />

✸<br />

Sect. 3.8.2:<br />

Singuläre Störungstechnik für Runge-Kutte-Einschrittverfahren<br />

Anwendung auf autonome DAE (Index> 1!)<br />

ẏ = f(y,λ) ,<br />

0 = c(y) .<br />

(3.8.30)<br />

(f : D × R q ↦→ R d , D ⊂ R d , c : D ↦→ R q , Annahme: Konsistente Anfangswerte<br />

y 0 ,λ 0 zur Zeitt = 0)<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

Zu (3.8.30) gehörendes singulär gestörtes Problem<br />

fürǫ → 0.<br />

ẏ = f(y,λ) ,<br />

ǫ˙λ = c(y) ,<br />

3.8<br />

p. 428


Sect. 3.8.2 ➣ Betrachte steif-genaue RK-ESV<br />

Numerische<br />

Mathemtik<br />

Formale Rechnung: Singuläre Störungstechnik für Runge-Kutta-Einschrittverfahren mit<br />

Butcher-Schema c A b T ,b i = a s,i ,i = 1,...,s :<br />

{ ẏ = f(y,λ)<br />

˙λ = 1 ǫ c(y)<br />

ǫ → 0 ⇒<br />

⎧⎪ ⎨<br />

⎪ ⎩<br />

g i = y 0 +h s ∑<br />

⎧<br />

⎪⎨<br />

⎪⎩<br />

j=1<br />

ǫg λ i<br />

= ǫλ 0 +h s ∑<br />

y 1 := y 0 +h s ∑<br />

j=1<br />

v 1 := v 0 + 1 ǫ h s ∑<br />

a ij f(g j ,g λ j )<br />

a ij c(g j )<br />

, i = 1,...,s<br />

R. Hiptmair<br />

a s,i f(g i ,gi λ) = g rev 35327,<br />

24. Juni<br />

s<br />

2011<br />

i=1<br />

a s,i c(g i ) = gs<br />

λ<br />

i=1<br />

⇒ KoeffizientenmatrixA := (a ij ) s i,j=1 regulär<br />

s∑<br />

a ij c(g j ) = 0, i = 1,...,s ⇒ c(g j ) = 0<br />

j=1<br />

RK-ESV steif-genau<br />

3.8<br />

p. 429


➣ Stufengleichungen (→ Bem. 2.3.7) für steif-genaues RK-ESV für (3.8.30)<br />

⎧<br />

⎪⎨ ∑<br />

g i = y 0 +h s a ij f(g j ,gj λ)<br />

j=1 , i = 1,...,s , y 1 = g s . (3.8.31)<br />

⎪⎩ 0 = c(g i )<br />

Numerische<br />

Mathemtik<br />

Beachte:<br />

(3.8.31) ˆ= implizite Gleichung für Stufen g i ,g λ i<br />

λ 0 wird nicht benötigt!<br />

(s(d+q) Unbekannte)<br />

Bemerkung 3.8.32 (Implementierung steif-genauer RK-ESV für DAE).<br />

Formal: Stufengleichungen eines RK-ESV für allgemeine autonome DAE Mẏ = f(y), M ∈ R d,d<br />

singulär<br />

s∑<br />

Mg i = My 0 +h a ij f(g j ) , i = 1,...,s .<br />

j=1<br />

⇕<br />

⎛<br />

M(g 1 −y 0 )−h s ⎞<br />

∑<br />

a 1j f(g j )<br />

j=1<br />

F(g) = 0 , F(g) =<br />

.<br />

⎜<br />

⎝ ∑<br />

M(g s −y 0 )−h s ⎟<br />

asj f(g j )<br />

⎠<br />

, g =<br />

⎛<br />

g ⎞<br />

1<br />

⎝ . ⎠ . (3.8.33)<br />

g s<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

3.8<br />

p. 430


(steif-genau !)<br />

y 1 = g s<br />

Numerische<br />

Mathemtik<br />

MATLAB-CODE : steif-genaues RK-ESV für DAE<br />

function y1 = rksadaestep(rhs,M,y0,h,A)<br />

d = length(y0);<br />

s = size(A,1);<br />

F = @(gv) stagefn(gv,y,h,fun,A,M);<br />

[dgv,r,flg] = fsolve(F,zeros(s*d,1));<br />

if (flg


△<br />

Numerische<br />

Mathemtik<br />

Konvergenztheorie für (3.8.31) im Fall von DAEs mit Index 2:<br />

[18, Sect. VII.4]<br />

Fürs-stufig Radau-ESV:<br />

y h (t) konvergiert mit Ordnung2s−1,λ h (t) mit Ordnungs.<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

3.8<br />

p. 432


4<br />

Strukturerhaltende numerische<br />

Integration<br />

Numerische<br />

Mathemtik<br />

Struktur = essentielle qualitative Eigenschaften einer Evolution (☞ Sect. 1.3.3.5)<br />

• Erste Integrale/Invarianten (→ Def. 1.2.7), z.B. Gesamtenergie, Drehmoment, siehe Sect. 1.2.4<br />

• Anziehende und abstossende Fixpunkte, siehe 3.2<br />

• Nichtexpansivität, siehe 3.3<br />

• NEU: spezielle Abbildungseigenschaften des Flusses zu einer autonomen Dgl.:<br />

☞ Volumenerhaltung, Symplektizität, etc.<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

Ziel:<br />

„Vererbung” von Struktur an diskrete EvolutionΨ h<br />

Wichtig für Langzeitintegration zur Berechnung einer „qualitativ richtigen Lösung”<br />

Perspektive:<br />

Rückwärtsanalyse<br />

Numerische Lösung ist exakte Lösung zu einem „strukturell gleichen Problem” mit<br />

4.0<br />

p. 433


Beachte: In diesem Kapitel beschränken wir uns auf autonome Differentialgleichungen.<br />

Numerische<br />

Mathemtik<br />

4.1 Polynomiale Invarianten<br />

Erinnerung an Def. 1.2.7 & (1.2.8): Konzept und Eigenschaften von Invarianten/ersten Integralen<br />

<strong>Beispiel</strong>e: Massenerhaltung → Sect. 1.2.2, Energieerhaltung → Lemma 1.2.23, Längenerhaltung<br />

Bsp. 1.4.18<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

Betrachte:<br />

AWP für autonome ODEẏ = f(y) auf ZustandsraumD ⊂ R d<br />

t ↦→ y(t) ˆ= Lösung zum Anfangswerty 0 ∈ D<br />

Erinnerung: erstes IntegralI : D ↦→ R erfülltI(y(t)) = const für jede Lösungy(t) (→ Def. 1.2.7)<br />

4.1<br />

p. 434


(1.2.8): I ist erstes Integral vonẏ = f(y) ⇔ gradI(y)·f(y) = 0 für alley ∈ D.<br />

Numerische<br />

Mathemtik<br />

lineares erstes Integral : I(y) = b T y+c mitb ∈ R d ,c ∈ R<br />

quadratisches erstes Integral : I(y) = 1 2 yT My+b T y+c mitM ∈ R d,d ,b ∈ R d ,c ∈ R<br />

Definition 4.1.1 (Polynomiale Invarianten).<br />

Ein erstes IntegralI(y) ist polynomial vom Gradn,n ∈ N, wenn<br />

∑<br />

I(y) = β α y α , β α ∈ R (Multivariates Polynom) .<br />

α∈N d 0 ,|α|≤n<br />

✎ Multiindexnotation: α = (α 1 ,...,α d ) ∈ N d 0 ,|α| = ∑ i α i,y α := y α 1<br />

1 ·······yα d<br />

d<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

✬<br />

✩<br />

Theorem 4.1.2 (Erhaltung linearer Invarianten).<br />

Alle Runge-Kutta-Einschrittverfahren (→ Def. 2.3.5) erhalten lineare erste Integrale.<br />

✫<br />

✪<br />

4.1<br />

p. 435


Beweis.<br />

(für den autonomen Fall)<br />

Lineare Invariante I(y) = b T y+c,b ∈ R d ,c ∈ R ➣ gradI(y) = b ∀y ∈ D<br />

Numerische<br />

Mathemtik<br />

(1.2.8) ⇒ b·f(y) = 0 ,<br />

s∑<br />

⇒ b·f(y 0 +h a ij k j ) = b·k i = 0 , i = 1,...,s (für Inkremente) ,<br />

j=1<br />

⇒ I(y 1 ) = b·y 1 +c = b·(y<br />

0 +<br />

s∑ )<br />

b i k i +c = b·y0 +c = I(y 0 ) .<br />

i=1<br />

✷<br />

<strong>Beispiel</strong> 4.1.3 (Präzession einer Magnetnadel).<br />

y : R ↦→ R 3 = Trajektorie der Spitze einer Magnetnadel (im äusseren Feldh, fixiert in0)<br />

➣ Bewegungsgleichung<br />

⎛<br />

y ⎞<br />

2h 3 −y 3 h 2<br />

ẏ = y×h , Kreuzprodukt y×h = ⎝y 3 h 1 −y 1 h 3<br />

⎠ ⊥y<br />

y 1 h 2 −y 2 h 1<br />

Quadratische Invarianten:<br />

Anfangswert:y 0 = ( 1 2√<br />

2,0,1,<br />

1<br />

2<br />

√<br />

2)<br />

T<br />

∥<br />

∥y (m) (t) ∥ = const , m ∈ N 0<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

4.1<br />

p. 436


MATLAB-CODE : Berechnung des Präzession einer Magnetnadel<br />

h = [-1;-1;-1]; tspan = [0 10000]; y0 = [0.5*sqrt(2);0;0.5*sqrt(2)];<br />

fun = @(t,x) cross(x,h);<br />

Jac = @(t,x) [0 h(3) -h(2); -h(3) 0 h(1); h(2) -h(1) 0];<br />

options = odeset(’reltol’,0.001,’abstol’,1e-4,’stats’,’on’);<br />

[t45,y45] = ode45(fun,tspan,y0,options);<br />

options = odeset(’reltol’,0.001,’abstol’,1e-4,’stats’,’on’,’Jacobian’,Jac);<br />

[t23,y23] = ode23s(fun,tspan,y0,options);<br />

Numerische<br />

Mathemtik<br />

ode45: 24537 successful steps, 7432 failed attempts, 191815 function evaluations<br />

ode23s: 93447 successful steps, 4632 failed attempts, 289607 function evaluations<br />

1.1<br />

1.05<br />

ode45<br />

oed23s<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

1<br />

1<br />

y 3<br />

0.5<br />

0<br />

y(t)<br />

ode45<br />

ode23s<br />

Laenge |y(t)|<br />

0.95<br />

0.9<br />

−0.5<br />

1<br />

0.5<br />

0<br />

y 1<br />

−0.5<br />

1<br />

0.5<br />

y 2<br />

0<br />

−0.5<br />

Fig. 149<br />

0.85<br />

0.8<br />

0.75<br />

0 2000 4000 6000 8000 10000<br />

t<br />

Fig. 150<br />

4.1<br />

p. 437


➣ Keine Erhaltung von‖y(t)‖ über lange Zeiten (↔ viele Schwingungsperioden des Pendels)<br />

Numerische<br />

Mathemtik<br />

Einschrittverfahren auf äquidistanten Zeitgittern (qualitatives Verhalten):<br />

1.05<br />

1<br />

0.95<br />

1<br />

0.9<br />

0.5<br />

0<br />

y(t)<br />

RK4 method<br />

Gauss−Koll., s=2<br />

RADAU, s=3<br />

|y(t)|<br />

0.85<br />

0.8<br />

0.75<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

−0.5<br />

1<br />

0.5<br />

0<br />

y 3<br />

−0.5<br />

1<br />

0.5<br />

0<br />

−0.5<br />

Fig. 151<br />

0.7<br />

0.65<br />

RK4 method<br />

0.6 Gauss−Koll., s=2<br />

RADAU, s=3<br />

0.55<br />

0 200 400<br />

t<br />

600 800 1000<br />

Fig. 152<br />

4.1<br />

p. 438


1.6<br />

1.4<br />

△<br />

Numerische<br />

Mathemtik<br />

|y(t)xh|<br />

1.2<br />

1<br />

0.8<br />

0.6<br />

✬<br />

0.4 RK4 method<br />

Gauss−Koll., s=2<br />

RADAU, s=3<br />

0.2<br />

0 200 400<br />

t<br />

600 800 1000<br />

Fig. 153<br />

✁ Erhaltung aller quadratischer Invarianten nur<br />

durch das Gauss-Kollokationsverfahren.<br />

Erinnerung an Lemma 1.4.23: Erhalt<br />

quadratischer erster Integrale durch die implizite<br />

Mittelpunktsregel, das einfachste<br />

Gauss-Kollokationsverfahren.<br />

✸<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

✩<br />

Theorem 4.1.4 (Erhaltung quadratischer Invarianten).<br />

Gauss-Kollokations-ESV (→ Sect. 2.2.3) erhalten quadratische erste Integrale.<br />

✫<br />

✪<br />

Beweis. (für autonome ODEẏ = f(y), vgl. Beweis von Thm. 3.3.7)<br />

4.1<br />

p. 439


y h (t) ∈ P s ˆ= Gauss-Kollokationspolynom zum Anfangswerty 0 (t 0 = 0):<br />

Numerische<br />

Mathemtik<br />

ẏ h (c i h) = f(y h (c i h)) , h ˆ= Schrittweite, vgl. (2.2.1) . (4.1.5)<br />

Quadratische Invariante:<br />

I(y) = 1 2 yT My+b T y+c mitM = M T ∈ R d,d ,b ∈ R d ,c ∈ R<br />

d(τ) := I(y h (τh)) ist Polynom vom Grad ≤ 2s .<br />

Das-Punkt Gauss-Quadraturformel exakt für Polynome vom Grad≤ 2s−1 undd ′ ∈ P 2s−1<br />

d(1) = d(0)+<br />

∫ 1<br />

Aus Kollokationsbedingungen (4.1.5) und (1.2.8)<br />

0<br />

d ′ (τ)dτ = d(0)+<br />

s∑<br />

b i d ′ (c i )<br />

i=1<br />

} {{ }<br />

d ′ (τ) = hgradI(y h (τh))·ẏ h (τh) ⇒ d ′ (c i ) = hgradI(y h (c i h))·f(y h (c i h))<br />

} {{ }<br />

=0<br />

Dad(0) = I(y 0 ),d(1) = I(y 1 ) folgt die Behauptung.<br />

Ziel<br />

!<br />

=0<br />

.<br />

= 0 .<br />

✷<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

4.1<br />

p. 440


✬<br />

✩<br />

Lemma 4.1.6 (Erhaltung quadratischer Invarianten durch RK-ESV).<br />

Erfüllen die Koeffizienten eines s-stufigen (konsistenten) Runge-Kutta-Einschrittverfahrens (→<br />

Def. 2.3.5)<br />

Numerische<br />

Mathemtik<br />

b i a ij +b j a ji = b i b j für alle i,j = 1,...,s , (4.1.7)<br />

dann erhält dessen diskrete Evolution quadratische erste Integrale.<br />

✫<br />

✪<br />

Beweis: (für vereinfachte quadratische InvarianteI(y) := 1 2 yT My,M ∈ R d,d ,M = M T )<br />

(1.2.8) ➢ gradI(y) = My ⇒ y T Mf(y) = 0 ∀y ∈ D . (4.1.8)<br />

Ein Schritt des RK-ESV mit Inkrementenk i , vgl. Def. 2.3.5:<br />

s∑<br />

y 1 = y 0 +h b i k i ,<br />

i=1<br />

s∑<br />

y1 T My 1−y0 T My 0 = 2h b i y0 T Mk i +h 2 ∑ s<br />

i=1 i=1 j=1<br />

Benutze Stufenform, vgl. Bem. 2.2.5:<br />

s∑<br />

b i b j k T i Mk j . (4.1.9)<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

4.1<br />

p. 441


g i = y 0 +h s ∑<br />

j=1<br />

a ij f(g j ) ➣ k i = f(g i ),i = 1,...,s, y 0 = g i −h s ∑<br />

j=1<br />

a ij f(g j ).<br />

Numerische<br />

Mathemtik<br />

Einsetzen in (4.1.9), da aus (4.1.8) folgt g i Mf(g i ) = 0:<br />

y T 1 My 1−y T 0 My 0 = 2h<br />

s∑<br />

i=1<br />

b i<br />

⎛<br />

⎝g i −h<br />

⎞<br />

s∑<br />

a ij f(g j ) ⎠<br />

j=1<br />

= −2h 2 ∑ s s∑<br />

b i a ij f(g j ) T Mf(g i )+h 2 ∑ s<br />

i=1<br />

j=1<br />

T<br />

Mf(g i )+h 2 s ∑<br />

i=1<br />

= h 2 s ∑<br />

i=1<br />

i=1<br />

s∑<br />

b i b j f(g i ) T Mf(g j )<br />

j=1<br />

s∑<br />

b i b j f(g i ) T Mf(g j )<br />

j=1<br />

s∑<br />

(−2b i a ij +b i b j )f(g i ) T Mf(g j ) .<br />

j=1<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

M = M T ➣ Indexvertauschung in der Doppelsumme ➣ Behauptung. ✷<br />

4.1<br />

p. 442


✬<br />

✩<br />

Theorem 4.1.10 (Nichterhaltung allgemeiner polynomialer Invarianten).<br />

Fürn ≥ 3 gibt es kein konsistentes Runge-Kutta-Einschrittverfahren (→ Def. 2.3.5) das für alle<br />

autonomen Differentialgleichungenẏ = f(y) alle ihre polynomialen Invarianten (→ Def. 4.1.1)<br />

vom Gradnerhält.<br />

✫<br />

✪<br />

Numerische<br />

Mathemtik<br />

Hilfssatz für den Beweis:<br />

✬<br />

Lemma 4.1.11 (Ableitung der Determinantenfunktion).<br />

Für die Determinantenfunktiondet : R d,d ↦→ R gilt<br />

(Ddet(X))(H) = trace(adj(X)H) , X,H ∈ R d,d .<br />

✫<br />

✩<br />

✪<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

✎ Notation: Spur einer MatrixA = (a ij ) d i,j=1 ∈ Rd,d : trace(A) =<br />

d∑<br />

a jj<br />

j=1<br />

✎ Notation: adjungierte Matrix (adj(X)) ij = (−1) i+j det(ˇX ij ), X ∈ R d,d , 1 ≤ i,j ≤ d, ˇX ij<br />

ˆ= Matrix, die ausXdurch Streichen deri. Zeile undj. Spalte ensteht (Minor).<br />

4.1<br />

p. 443


☞ Bekannt aus der linearen Algebra [10, Lemma 4.3.4]: A·adj(A) = det(A)·I<br />

Numerische<br />

Mathemtik<br />

Beweis. Als Polynom in den Matrixelementen istA ↦→ detA eineC ∞ -Funktion:<br />

detA := ∑<br />

sgn(σ)<br />

σ∈Π d<br />

det(I+ǫH) = ∑<br />

sgn(σ)<br />

σ∈Π d<br />

d∏<br />

a i,σ(i) .<br />

i=1<br />

d∏<br />

(δ i,σ(i) +ǫh i,σ(i) )<br />

i=1<br />

d∏<br />

d∑<br />

= (1+ǫh ii )+O(ǫ 2 ) = 1+ǫ h ii +O(ǫ 2 ) . ,<br />

i=1<br />

i=1<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

für H = (h ij ) d i,j=1 , denn jede Permutation ≠ Id erzeugt ein Produkt der Grösse O(ǫ2 ). Daher für<br />

reguläresX ∈ R d,d :<br />

det(X+ǫH)−det(X) = ǫtrace(det(X)X −1 H)+O(ǫ 2 ) .<br />

} {{ }<br />

adj(X)<br />

Da die regulären Matrizen in R d,d dicht liegen,X ↦→ adjX stetig→<br />

✷<br />

4.1<br />

p. 444


Beweis von Thm. 4.1.10 (Widerspruchsbeweis)<br />

Numerische<br />

Mathemtik<br />

t ↦→ Y(t) löse lineare Matrix-Differentialgleichung Ẏ = AY, A ∈ R d<br />

Mit Lemma 4.1.11 folgt fürI(Y) = detY<br />

D Y I(Y)H = detY·trace(Y −1 H) ⇒ d dt detY(t) = Ytrace(ẎY−1 ) = Ytrace(A) .<br />

(4.1.12)<br />

⇒ ★<br />

Falls trace(A) = 0 ist I(Y) := detY eine polynomiale Invariante vom Grad d der<br />

Matrix-DifferentialgleichungẎ = AY.<br />

✧<br />

✥<br />

✦<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

Annahme: RK-ESV erhält Polynomiale Invarianten vom Grad d > 2. Wende das Verfahren an auf<br />

Ẏ = AY,trace(A) = 0,A ∈ R d,d . Nach Bem. 3.1.13, (3.1.16)<br />

Y 1 = S(hA)Y 0 mit StabilitätsfunktionS(z) , h > 0 .<br />

detY 1 = detY 0 ∀Y 0 ⇒ detS(hA) = 1<br />

Wähle spezielle (diagonale !) Matrix mittrace(A) = 0 und Zeitschrittweiteh = 1<br />

A = diag(µ,ν,−(µ+ν),0,...,0) ∈ R d,d , µ,ν ∈ R .<br />

4.1<br />

p. 445


S(A) = diag(S(µ),S(ν),S(−(µ+ν)),0,...,0)<br />

AusdetS(A) = 1 folgt, dassS die FunktionalgleichungS(µ)S(ν)S(−(µ+ν)) = 1 erfüllt.<br />

Numerische<br />

Mathemtik<br />

⇒ S(0) = 1 ⇒ S(−µ) = S(µ) −1 ⇒ S(µ)S(ν) = S(µ+ν) ∀µ,ν ∈ R .<br />

z ↦→ S(z) erfüllt die Funktionalgleichung der Exponentialfunktion, ist stetig in Umgebung von 0 ⇒<br />

S(z) = exp(z).<br />

Andererseits mussS(z) eine rationale Funktion sein, siehe Thm. 3.1.6, ein Widerspruch ✷<br />

4.2 Volumenerhaltung<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

Physik: inkompressible Strömung ↔ volumenerhaltender Fluss<br />

Definition 4.2.1 (Volumenerhaltung).<br />

Eine AbbildungΦ : D ⊂ R d ↦→ R d heisst volumenerhaltend<br />

∀V ⊂ D messbar: Vol(Φ(V)) = Vol(V) .<br />

4.2<br />

p. 446


✬<br />

✩<br />

Lemma 4.2.2 (Volumenerhaltende Abbildungen).<br />

Eine stetig differenzierbare Abbildung Φ : D ⊂ R d ↦→ R d ist genau dann volumenerhaltend,<br />

wenn|detDΦ(y)| = 1 für alley ∈ D.<br />

✫<br />

✪<br />

Numerische<br />

Mathemtik<br />

Beweis. Nach dem Transformationssatz für Integrale:<br />

∫ ∫<br />

Vol(Φ(V)) = 1dx =<br />

Φ(V) V<br />

|detDΦ(y)|dy .<br />

✷<br />

✬<br />

Theorem 4.2.3 (Satz von Liouville).<br />

Sei f : D ⊂ R d ↦→ R d stetig differenzierbar. Genau dann wenn divf(y) = 0 für jedesy ∈ D,<br />

ist die zuẏ = f(y) gehörige EvolutionΦ t volumenerhaltend, d.h.<br />

R. Hiptmair<br />

✩rev 35327,<br />

24. Juni<br />

2011<br />

∀V ⊂ D kompakt: ∃δ > 0: Vol(Φ t (V)) = Vol(V) ∀0 ≤ t < δ .<br />

✫<br />

✪<br />

✎ Notation: Divergenz divf(y) = d ∑<br />

j=1<br />

∂f i<br />

∂y i<br />

(y) = traceDf(y), mitf = (f 1 ,...,f d ) T<br />

4.2<br />

p. 447


Beweis. (basierend auf Lemma 4.2.2, vgl. [16, Lemma 9.1])<br />

Numerische<br />

Mathemtik<br />

SeiΦ : ˜Ω ↦→ D der Evolutionsoperator zur autonomen ODEẏ = f(y).<br />

Jacobi-Matrix (Propagationsmatrix)<br />

(1.3.34)<br />

W(t,y) = D y Φ t (y), y ∈ D, erfüllt die Variationsgleichung<br />

Ẇ(t,y) := d dt W(t,y) = Df(Φt y)W(t,y) , t ∈ J(y) , W(0,y) = I . (4.2.4)<br />

Wie im Beweis zu Thm. 4.1.10, aus Lemma 4.1.11, vgl. (4.1.12):<br />

“⇒” aus (4.2.5), dadetW(0,y) = 1<br />

d<br />

dt detW(t,y) =detW(t,y)trace(Ẇ(t,y)W−1 (t,y))<br />

(??)<br />

= detW(t,y)trace(Df(Φ t y))<br />

=detW(t,y)divf(Φ t y) .<br />

(4.2.5)<br />

Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

“⇐”: Wenndivf ≠ 0, dann gibt esδ > 0, V ⊂ D so dass|divf(y)| > δ für alle y ∈ V . Daher, für<br />

y ∈ V ,<br />

d<br />

dt<br />

detW(t,y) ≥ δdetW(t,y) oder<br />

d<br />

dt<br />

detW(t,y) ≤ −δdetW(t,y) .<br />

R.<br />

4.2<br />

p. 448


Lemma 1.3.29<br />

⇒ t ↦→ detW(t,y) wächst/fällt exponentiell. ✷<br />

Numerische<br />

Mathemtik<br />

✗<br />

✖<br />

Inkompressible Strömung<br />

<strong>Beispiel</strong> 4.2.6 (Strömungsvisualisierung).<br />

↔ divergenzfreie Geschwindigkeitsfelder<br />

✔<br />

✕<br />

Anwendung numerischer ODE-Löser in der Computergraphik:<br />

x 3<br />

1<br />

0.8<br />

0.6<br />

0.4<br />

0.2<br />

0<br />

−1<br />

−0.5<br />

Divergenzfreies Vektorfeld:<br />

⎛<br />

f(y) =<br />

⎜<br />

⎝<br />

MATLAB-function<br />

−y 2 − y 1<br />

a 2 +y3<br />

2<br />

y 1 − y 2<br />

a 2 +y3<br />

2<br />

2/aarctan(y 3/a)<br />

⎞<br />

⎟<br />

⎠ , y ∈ R3 .<br />

streamline(X,Y,Z,U,V,W,...)<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

0<br />

x 1<br />

0.5<br />

1 −1<br />

−0.5<br />

x 2<br />

0<br />

0.5<br />

Fig. 154<br />

1<br />

Stromlinien von f ˆ= Lösungen von AWPe zur<br />

autonomomen ODEẏ = f(y).<br />

4.2<br />

✸<br />

p. 449


Volumenerhaltende numerische ODE-Löser (“Integratoren”) ?<br />

Numerische<br />

Mathemtik<br />

✬<br />

✩<br />

Lemma 4.2.7 (Variationsgleichung und Runge-Kutta-Einschrittverfahren).<br />

Für Runge-Kutta-Einschrittverfahren (→ Def. 2.3.5) kommutiert das folgende Diagramm<br />

Variationsgleichung, siehe Sect. 1.3.3.4.<br />

W:= ∂y<br />

∂y<br />

ẏ = f(y), y(0) = y 0<br />

0 −−−−−→<br />

⏐<br />

RK-ESV↓<br />

ẏ = f(y), y(0) = y 0 ,<br />

Ẇ = Df(y)W, W(0) = I<br />

⏐<br />

⏐<br />

↓RK-ESV<br />

✫<br />

(y k ) N k=1<br />

W k := ∂y k<br />

∂y 0<br />

−−−−−−→ (y k ,W k ) N k=1<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

✪2011<br />

Beweis: (nur für explizites Euler-Verfahren (1.4.2), vgl. [16, Lemma 4.1])<br />

Rekursion des expliziten Euler-Verfahrens fürẏ = f(y)<br />

y k+1 = y k +hf(y k )<br />

d<br />

dy 0<br />

=⇒ dy k+1<br />

dy 0<br />

= dy k<br />

dy 0<br />

+hDf(y k ) dy k<br />

dy 0<br />

.<br />

4.2<br />

p. 450


Explizites Euler-Verfahren für (erweiterte) VariationsgleichungẆ = Df(y)W:<br />

Numerische<br />

Mathemtik<br />

W k+1 = W k +hDf(y k )W k .<br />

dy k<br />

dy 0<br />

undW k erfüllen die gleiche Rekursion.<br />

✷<br />

Der Beweis im allgemeinen Fall stützt sich auf implizites Differenzieren der Runge-Kutta-<br />

Inkrementgleichungen, siehe Def. 2.3.5.<br />

Bemerkung 4.2.8 (Volumenerhaltende Integratoren fürd = 2).<br />

Für RK-ESV im Falld = 2:<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

Erhalt quadratischer Invarianten<br />

=⇒ Volumenerhaltung<br />

( )<br />

w11 w<br />

Für d = 2: detW = w 11 w 22 − w 12 w 21 ist quadratische Funktion (W = 12<br />

ˆ=<br />

w 21 w 22<br />

Propagationsmatrix/Wronsk-Matrix, siehe (1.3.33)). Ist die Evolution zu ẏ = f(y) volumenerhaltend,<br />

4.2<br />

p. 451


so gilt detW(t) ≡ 1, also is detW eine quadratische Invariante der Variationsgleichung und wird<br />

vom RK-ESV erhalten.<br />

Numerische<br />

Mathemtik<br />

Nach Lemma 4.2.7 gilt dann<br />

∀h > 0: det<br />

(<br />

D y0 Ψ h) = 1 .<br />

Nach Lemma 4.2.2 ist die diskrete Evolution daher volumenerhaltend.<br />

△<br />

d > 2: (Beweis von) Thm. 4.1.10 ➢ Allgemeine Runge-Kutta-Einschrittverfahren kommen nicht<br />

in Betracht !<br />

(Notwendig: Integratoren mit “eingebauter Zusatzinformation” überf)<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

Idee: ➊ Additive Zerlegung vonf in wesentlich zweidimensionale Vektorfelder<br />

➋ Splittingverfahren (→ Sect. 2.5) basierend auf RK-ESV, die<br />

quadratische Invarianten erhalten, siehe Sect. 4.1.<br />

4.2<br />

p. 452


Zu ➊: f(y) =<br />

d−1 ∑<br />

i=1<br />

g i,i+1 (y) ,<br />

Zu ➋: y k+1 =(Ψ h d−1 ◦···◦Ψh 1 )y k ,<br />

g i,i+1 (y) = (0 ··· 0 ∗ ∗ 0 ··· 0) T<br />

↑ ↑<br />

i i+1<br />

, divg i,i+1 = 0 .<br />

Numerische<br />

Mathemtik<br />

wobeiΨ h i<br />

ˆ= diskrete Evolution des RK-Basisverfahrens für<br />

ẏ = g i,i+1 (y).<br />

Verallgemeinertes Lie-Trotter-Splitting (2.5.2)<br />

Existenz der Vektorfelderg i,i+1 ?<br />

✬<br />

Theorem 4.2.9 (Zerlegung in divergenzfreie Vektorfelder).<br />

Jedes stetige divergenzfreief : R d ↦→ R d lässt sich darstellen als Summe vond−1 divergenzfreien<br />

Vektorfelderng i,i+1 : R d ↦→ R d der Form<br />

R. Hiptmair<br />

✩<br />

rev 35327,<br />

24. Juni<br />

2011<br />

g i,i+1 (y) = (0 ··· 0 p i (y) q i (y) 0 ··· 0) T , i = 1,...,d−1 ,<br />

↑ ↑<br />

i i+1<br />

mit Funktionenp i ,q i : R d ↦→ R.<br />

✫<br />

✪<br />

4.2<br />

p. 453


⎛ ⎞<br />

f 1 (y)<br />

f 2 (y)<br />

f 3 (y)<br />

f(y) =<br />

f 4 (y)<br />

⎜ .<br />

⎟<br />

⎝f d−1 (y) ⎠<br />

f d (y)<br />

=<br />

⎛ ⎞<br />

p 1 (y)<br />

q 1 (y)<br />

0<br />

0<br />

⎜ ⎟<br />

⎝<br />

0. ⎠<br />

0<br />

+<br />

⎛ ⎞<br />

0<br />

p 2 (y)<br />

q 2 (y)<br />

0<br />

⎜ ⎟<br />

⎝<br />

0. ⎠<br />

0<br />

+<br />

⎛<br />

0<br />

0<br />

p 3 (y)<br />

q 3 (y)<br />

⎜ ⎟<br />

⎝ ⎠<br />

0.<br />

0<br />

⎞<br />

+···+<br />

⎛ ⎞<br />

0.<br />

0<br />

0<br />

⎜p d−2 (y)<br />

⎟<br />

⎝q d−2 (y) ⎠<br />

0<br />

+<br />

⎛ ⎞<br />

0.<br />

0<br />

0<br />

⎜ 0<br />

⎟<br />

⎝p d−1 (y) ⎠<br />

q d−1 (y)<br />

.<br />

Numerische<br />

Mathemtik<br />

Beweis. (vgl. [16, Theorem 9.3])<br />

Konstruktiv fürf = (f 1 ,...,f d ) T mit beliebigena i ∈ R<br />

p i (y) = f i (y)+r i (y) , q i (y) = −r i+1 (y) ,<br />

∫ y i ( ∂f1<br />

r i (y) = +···+ ∂f )<br />

i−1<br />

(y<br />

∂y 1 ∂y 1 ,...,y i−1 ,τ,y i+1 ,...,y d ) dτ , 2 ≤ i ≤ d−1 ,<br />

i−1<br />

a i<br />

⇒<br />

r 1 (y) ≡ 0 ,<br />

∂p i<br />

= ∂f i<br />

+ ∂f 1<br />

+···+ ∂f i−1<br />

,<br />

∂y i ∂y i ∂y 1 ∂y i−1<br />

∂q i<br />

= − ∂f 1<br />

−···− ∂f i<br />

= − ∂p i<br />

.<br />

∂y i+1 ∂y 1 ∂y i ∂y i<br />

1 ≤ i ≤ d−1 .<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

4.2<br />

p. 454


Also sind die Teilfelder alle divergenzfrei. Weiter, wegendivf = 0,<br />

⎛ ⎞<br />

d−1 ∑<br />

∫ y d<br />

⎝ ⎠<br />

i=1<br />

g i,i+1 (y)<br />

d<br />

= q d−1 (y) = −r d (y) = −<br />

∂f 1<br />

+ ··· + ∂f d−1<br />

=<br />

∂y 1 ∂y d−1<br />

a d<br />

∫ y d<br />

∂f d<br />

= f<br />

∂y d (y) .<br />

d<br />

a d<br />

Numerische<br />

Mathemtik<br />

Beachte: Konstruktion derg i,i+1 benötigt (symbolische) Ableitungen derf i .<br />

Bemerkung 4.2.10 (Volumenerhaltendes Splittingverfahren 2. Ordnung).<br />

Einfachstes volumenerhaltendes Splittingverfahren 2. Ordnung:<br />

Basis-RK-ESV:<br />

➥ Ψ h i volumenerhaltend, siehe Bem. 4.2.8 !<br />

Verallgemeinertes Strang-Splitting (2.5.3)<br />

implizite Mittelpunktsregel (1.4.19),Ψ h i ˆ= diskrete Evolutionen zuẏ = g i,i+1 (y)<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

Ψ h := Ψ h /2<br />

1<br />

◦Ψ h /2<br />

2<br />

◦···◦Ψ h /2<br />

d−2 ◦Ψh d−1 ◦Ψh /2<br />

d−2 ◦···◦Ψh /2<br />

1<br />

.<br />

symmetrisches Einschrittverfahren→Def. 2.1.27<br />

Thm. 2.1.29<br />

⇒ Konsistenzordnung≥ 2<br />

△<br />

4.3<br />

p. 455


4.3 Verallgemeinerte Reversibilität<br />

Numerische<br />

Mathemtik<br />

Sect. 2.1.5: reversible (symmetrische) diskrete Evolutionen/Einschrittverfahren → Def. 2.1.27<br />

(für autonome ODE)<br />

Ψ −h ◦Ψ h = Id fürh > 0 hinreichend klein<br />

D<br />

Ψ h Ψ −h Fig. 155<br />

Reversibilität<br />

⇕<br />

Symmetrie bzgl. Zeitumkehr<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

t<br />

Erinnerung an Thm. 2.1.29:<br />

Reversible ESV haben gerade Konsistenzordnung<br />

Wir haben bereits reversible Einschrittverfahren kennengelernt: implizite Mittelpunktsregel (1.4.19)<br />

aus Abschnitt 1.4.3, das einfachste Gauss-Kollokationsverfahren, vgl. (2.2.19).<br />

4.3<br />

p. 456


✬<br />

✩<br />

Theorem 4.3.1 (Reversible Runge-Kutta-Einschrittverfahren).<br />

Numerische<br />

Mathemtik<br />

Ein s-stufiges RK-ESV (→ Def. 2.3.5) mit Butcher-Tableau c A bT , siehe (2.3.6), ist reversibel<br />

(symmetrisch,→Def. 2.1.27), falls<br />

a s+1−i,s+1−j +a ij = b j ∀1 ≤ i,j ≤ s .<br />

✫<br />

✪<br />

Beweis (siehe [16, Sect. V.2, Thm. 2.3])<br />

zu zeigen:<br />

y 0<br />

Ψ h<br />

−−→ y 1<br />

Ψ −h<br />

−−−→ y 0 .<br />

Technik: Teste Invarianz der Verfahrensgleichungen bei Vertauschung<br />

Verfahrensgleichungen<br />

y 0 ↔ y 1 , h ↔ −h in den<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

⎧<br />

s∑<br />

k ⎪⎨ i = f(y 0 +h a ij k j ) ,<br />

j=1<br />

s∑<br />

⎪⎩<br />

y 1 = y 0 +h b i k i .<br />

i=1<br />

⇒<br />

⎧<br />

s∑<br />

k ⎪⎨ i = f(y 1 −h a ij k j ) ,<br />

j=1<br />

s∑<br />

⎪⎩<br />

y 0 =y 1 −h b i k i .<br />

i=1<br />

(4.3.2)<br />

4.3<br />

p. 457


⇒<br />

⎧<br />

s∑<br />

k ⎪⎨ i = f(y 0 +h (b j −a ij )k j ) ,<br />

j=1<br />

s∑<br />

⎪⎩<br />

y 1 = y 0 +h b i k i .<br />

i=1<br />

(4.3.3)<br />

Numerische<br />

Mathemtik<br />

2a ij = b j ⇒ Gleichheit nach Vertauschung y 0 ↔ y 1 , h ↔ −h, doch leider liefert das kein<br />

sinnvolles RK-ESV (Ausnahme: implizite Mittelpunktsregel (1.4.19) mits = 1,a 11 =<br />

2 1 ,b 1 = 1)<br />

! Beachte: a s+1−i,s+1−j +a ij = b j ⇒ b s+1−i = b i<br />

➣<br />

Umindiziereni ← s+1−i,j ← s+1−j unter den Annahmeb s+1−i = b i<br />

⎧<br />

s∑<br />

k ⎪⎨ i = f(y 0 +h (b j −a s+1−i,s+1−j )k j ) ,<br />

(4.3.3) ⇒<br />

⎪⎩<br />

y 1 = y 0 +h<br />

j=1<br />

s∑<br />

b i k i .<br />

i=1<br />

= Ausgangs-RK-ESV, fallsb j −a s+1−i,s+1−j = a ij ✷<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

4.3<br />

p. 458


✬<br />

✩<br />

Theorem 4.3.4 (Reversible Gauss-Kollokations-ESV).<br />

✫<br />

Gauss-Kollokations-ESV sind reversibel (→ Def. 2.1.27).<br />

✪<br />

Numerische<br />

Mathemtik<br />

Da Gauss-Kollokationsverfahren zur Klasse der Runge-Kutta-Einschrittverfahren gehören, genügt es,<br />

die Voraussetzungen von Thm. 4.3.1 zu verifizieren. Dazu verwende die expliziten Formeln (2.2.3) für<br />

die Runge-Kutte-Koeffizientena ij undb i ,1 ≤ i,j ≤ s.<br />

a ij =<br />

∫ ci<br />

0<br />

L j (τ)dτ , b i =<br />

∫ 1<br />

0<br />

L i (τ)dτ ,<br />

wobei die c i die auf [0,1] normalisierten Kollokationspunkte (= Gausspunkte) sind, und die L j die<br />

dazugehörigen Lagrange-Polynome, siehe (2.2.2).<br />

Lage der Gaussknoten für die s-Punkt Gaussquadraturformel auf [0,1] is symmetrisch um 1 2 , siehe<br />

Fig. 59:<br />

c i = c s+1−s ⇒ L i (τ) = L s+1−i (1−τ) , 1 ≤ i ≤ s . (4.3.5)<br />

a s+1−i,s+1−j +a ij =<br />

∫ cs+1−i<br />

0<br />

=−<br />

∫ 1−cs+1−i<br />

1<br />

L s+1−j (τ)dτ +<br />

∫ c i<br />

0<br />

L j (τ)dτ<br />

L s+1−j (1−τ)dτ +<br />

∫ c i<br />

L j (τ)dτ<br />

R. Hiptmair<br />

rev 35327,<br />

24. Juni<br />

2011<br />

4.3<br />

p. 459


Numerische<br />

Mathemtik<br />

Nachtrag zu Sect. 3.3:<br />

✬<br />

✩<br />

Theorem 4.3.6 (Stabilitätsgebiet und Reversibilität).<br />

Für reversible und A-stabile (→ Def. 3.2.16) Runge-Kutta-Einschrittverfahren giltS Ψ = C − .<br />

✫<br />

✪<br />

Neues Konzept:<br />

R-Reversibilität = “verallgemeinerte Zeitumkehrsymmetrie”<br />

<strong>Beispiel</strong> 4.3.7 (Reversibilität bei mechanischen Systemen).<br />

Hamiltonsche Differentialgleichung (→ Def. 1.2.20) mit Hamilton-Funktion<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

H :<br />

{ R n ×R n ↦→ R<br />

(p,q) ↦→ 1 2 pT M −1 p+U(q) ,<br />

⇒ H(p,q) = H(−p,q) ,<br />

mit s.p.d. MassenmatrixM ∈ R d,d .<br />

ṗ(t) = − ∂H<br />

∂H<br />

(p(t),q(t)) = −gradU(q) ,˙q(t) =<br />

∂q ∂p (p(t),q(t)) = M−1 p . (4.3.8)<br />

4.3<br />

p. 460


Kommutierendes Diagramm<br />

Umkehr der Geschwindigkeiten:<br />

p<br />

R<br />

p ← −p<br />

(p 0 ,q 0 )<br />

⏐<br />

↓<br />

(−p 0 ,q 0 )<br />

Φ t<br />

(Zeitumkehrsymmetrie)<br />

Evolution (4.3.8)<br />

−−−−−−−−−→<br />

von0bisT<br />

Evolution (4.3.8)<br />

←−−−−−−−−−<br />

vonT bis 0<br />

(p(T),q(T))<br />

⏐<br />

↓<br />

Umkehr der Geschwindigkeiten:<br />

(−p(T),q(T))<br />

p ← −p<br />

Φ t Geschwindigkeiten<br />

⇔ EvolutionΦ t zu (1.2.21) erfüllt<br />

R<br />

R◦Φ t = Φ −t ◦R (4.3.9)<br />

mit Abbildung<br />

q<br />

( ( ) p −p<br />

R = .<br />

q)<br />

q<br />

(4.3.10)<br />

(4.3.9) ˆ= „Rückwärtsevolution” nach Umkehr der<br />

Numerische<br />

Mathemtik<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

✸<br />

Abstraktion:<br />

Betrachte autonome AWPe ẏ = f(y), y(0) = y 0 ,<br />

f : D ↦→ R d lokal Lipschitz-stetig (→ Def. 1.3.2)<br />

4.3<br />

p. 461


Annahme: Für alley 0 ∈ D existiert die Lösung für alle Zeiten, vgl. Def. 1.3.1<br />

Numerische<br />

Mathemtik<br />

Definition 4.3.11 (R-reversible Abbildung).<br />

Es sei<br />

R : D ↦→ D ⊂ R d eine bijektive lineare Abbildung.<br />

Eine weitere bijektive AbbildungΦ : D ↦→ D heisstR-reversibel, falls<br />

R◦Φ = Φ −1 ◦R .<br />

✬<br />

Lemma 4.3.12 (R-reversible Evolutionen).<br />

Die EvolutionΦ t zuẏ = f(y) istR-reversibel für allet ∈ R, falls<br />

f ◦R = −R◦f aufD . (4.3.13)<br />

✫<br />

✩<br />

✪<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Beweis. (siehe [16, Sect. V.1]) Zu zeigen ist, wegenΦ t ◦Φ −t = Id (Gruppeneigenschaft (1.3.8))<br />

R◦Φ t = (Φ t ) −1 ◦R = Φ −t ◦R . (4.3.14)<br />

4.3<br />

p. 462


Idee:<br />

beide Seiten von (4.3.14) sind Lösungen des gleichen Anfangswertproblems, mity ∈ D<br />

d<br />

dt ((R◦Φt )(y)) = Rf(Φ t (y)) = −f((R◦Φ t )(y)) , (4.3.15)<br />

d<br />

dt ((Φ−t ◦R)(y)) = −f((Φ −t ◦R)(y)) . (4.3.16)<br />

t ↦→ (R◦Φ t )(y) undt ↦→ (Φ −t ◦R)(y) sind beides Lösungen des Anfangswertproblems<br />

Numerische<br />

Mathemtik<br />

ż = −f(z) , z(0) = Ry .<br />

Daher folgt (4.3.14) aus dem Eindeutigkeitssatz Thm. 1.3.4.<br />

✷<br />

<strong>Beispiel</strong> 4.3.17 (Fortsetzung: Reversibilität bei mechanischen Systemen). Bsp. 4.3.7<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Für Hamiltonsche Evolution (4.3.8) mity = (p,q) T ,d = 2n,Raus (4.3.10)<br />

( ) ( ) ( )<br />

−gradU(Rq (y)) −gradU(q) −gradU(q)<br />

(f ◦R)(y) =<br />

M −1 =<br />

R p (y) −M −1 = −R<br />

p M −1 p<br />

ˆ= Voraussetzung von Lemma 4.3.12.<br />

= −R(f(y)) .<br />

4.3<br />

p. 463


Alternative Perspektive: Hamiltonsche Dgl. (1.2.24) ẏ = J −1 gradH(y),J=<br />

( ) 0 I<br />

:<br />

−I 0<br />

Numerische<br />

Mathemtik<br />

H(Ry) = H(y) ⇒ RgradH(Ry) = gradH(y) . (4.3.18)<br />

FürRaus (4.3.9): J◦R = −R◦J, R 2 = Id<br />

(4.3.18)<br />

⇒ −R(J −1 gradH(y)) = J −1 R(gradH(y)) = J −1 RRgradH(Ry) = J −1 gradH(Ry) .<br />

ˆ= (4.3.13) fürf(y) = J −1 gradH(y).<br />

✸<br />

✬<br />

Theorem 4.3.19 (R-reversible Runge-Kutta-Evolutionen).<br />

Die rechte Seitef der autonomen ODEẏ = f(y) erfülle (4.3.13).<br />

Dann ist die von einem Runge-Kutta-Einschrittverfahren (→ Def. 2.3.5) erzeugte<br />

diskrete Evolution genau dann R-reversibel, wenn das RK-ESV reversibel/symmetrisch<br />

(→ Def. 2.1.27) ist.<br />

✫<br />

✩<br />

✪<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

4.3<br />

p. 464


Beweis. (siehe [16, Sect. V.1, Thm. 1.5])<br />

➀ Mit Notationen von Lemma 4.3.12 undΨ h als diskrete Evolution des RK-ESV zur ODEẏ = f(y)<br />

wird gezeigt (vgl. Beweis der Affin-Kovarianz von RK-ESV, Bem. 2.3.13)<br />

Numerische<br />

Mathemtik<br />

f ◦R = −R◦f ⇒ R◦Ψ h = Ψ −h ◦R . (4.3.20)<br />

Gemäss Def. 2.3.5, wegen Linearität vonR<br />

⎧<br />

s∑<br />

⎪⎨<br />

k i = f(y+h<br />

⎪⎩<br />

Ψ h y = y+h<br />

j=1<br />

s∑<br />

b i k i ,<br />

i=1<br />

a ij k j ) ,<br />

(4.3.13)<br />

=⇒<br />

Transformierte Inkremente ˜k i := −Rk i erfüllen<br />

⎧<br />

⎪⎨<br />

Rk i = −f(Ry+h<br />

⎪⎩<br />

RΨ h y = Ry+h<br />

s∑<br />

a ij Rk j ) ,<br />

j=1<br />

s∑<br />

b i Rk i .<br />

i=1<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

s∑<br />

˜k i = f(Ry−h a ij˜k j ) , i = 1,...,s .<br />

j=1<br />

˜k i ˆ= Inkremente des RK-ESV zur Schrittweite−h, AnfangswertRy ↔Ψ −h Ry<br />

RΨ h y = Ry−h<br />

s∑<br />

b i˜k i = Ψ −h Ry ⇒ (4.3.20) .<br />

i=1<br />

4.3<br />

p. 465


➁ direkte Verifikation von Def. 4.3.11<br />

RK-ESV reversibel/symmetrisch<br />

⇕<br />

(4.3.20)<br />

⇒ R◦Ψ h = Ψ −h ◦R = (Ψ h ) −1 ◦R . ✷<br />

Ψ −h = (Ψ h ) −1<br />

Numerische<br />

Mathemtik<br />

4.4 Symplektizität<br />

4.4.1 Symplektische Evolutionen Hamiltonscher Differentialgleichungen<br />

Erinnerung (Sect. 1.2.4): Hamiltonsche Differentialgleichung → Def. 1.2.20<br />

ṗ(t) = − ∂H ∂H<br />

(p(t),q(t)) , ˙q(t) =<br />

∂q ∂p (p(t),q(t)) ,<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

(1.2.21)<br />

4.4<br />

p. 466


mit (glatter) Hamilton-FunktionH : R n ×M ↦→ R, KonfigurationsraumM ⊂ R n .<br />

y = ( p)<br />

q<br />

=⇒ (1.2.21) ⇔ ẏ = J −1·gradH(y) ( ) 0 In<br />

, J = ∈ R<br />

−I n 0<br />

2n,2n . (1.2.24)<br />

Lemma 1.2.23 (Energieerhaltung): H ist Invariante von (1.2.21)<br />

Numerische<br />

Mathemtik<br />

<strong>Beispiel</strong> 4.4.1 (Energieerhaltung bei numerischer Integration). ↔ Bsp. 1.4.24<br />

Mathematisches Pendel Bsp. 1.2.17, AWP für (1.2.19) auf[0,1000],p(0) = 0,q(0) = 7π/6.<br />

Vergleich von klassischem Runge-Kutta-Verfahren (2.3.11) (Ordnung 4) mit 1-stufigem<br />

Gauss-Kollokations-ESV (implizite Mittelpunktsregel 2.2.19), äquidistantes Gitter,h = 1 2 :<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

4.4<br />

p. 467


q<br />

9<br />

8<br />

7<br />

6<br />

5<br />

4<br />

(p(t),q(t))<br />

RK4 Methode<br />

Impl. Mittelpunktsregel<br />

3<br />

−2 −1.5 −1 −0.5 0<br />

p<br />

0.5 1 1.5 2<br />

Fig. 156<br />

Trajektorien „exakter” /diskreter Evolutionen<br />

Gesamtenergie<br />

0.95<br />

0.9<br />

0.85<br />

0.8<br />

0.75<br />

0.7<br />

0.65<br />

0.6<br />

RK4−Methode<br />

Impl. Mittelpunktsregel<br />

0.55<br />

0 200 400<br />

t<br />

600 800 1000<br />

Fig. 157<br />

Energieerhaltung diskreter Evolutionen<br />

Numerische<br />

Mathemtik<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

➣ Keine Energiedrift bei impliziter Mittelpunktsregel<br />

✸<br />

4.4<br />

p. 468


?<br />

Eine rätselhafte Beobachtung:<br />

★<br />

Besonderheit mancher(∗) numerischer Integratoren:<br />

✧<br />

Approximative Langzeit-Energieerhaltung (keine Energiedrift)<br />

(∗) Implizite Mittelpunktsregel (1.4.19)→Bsp. 4.4.1, 1.4.24,<br />

Störmer-Verlet-Verfahren (2.5.13)→Bsp. 1.4.32<br />

✥<br />

✦<br />

Numerische<br />

Mathemtik<br />

Bemerkung 4.4.2 (Volumenerhaltung bei zweidimensionalen Hamiltonschen ODEs).<br />

Für EvolutionΦ t : R n ×M ↦→ R n ×M zu einer Hamiltonschen Differentialgleichung gilt:<br />

n = 1 ➣<br />

div y J −1 gradH(y)<br />

} {{ }<br />

rotH(y)<br />

= 0<br />

Thm. 4.2.3<br />

➣<br />

Φ t volumenerhaltend (flächenerhaltend).<br />

<strong>Beispiel</strong> 4.4.3 (Flächenerhaltung bei Evolution für Pendelgleichung). → Bsp. 1.2.17<br />

△<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

p↔Winkelgeschwindigkeit,<br />

ṗ = −sinq ,<br />

˙q = p<br />

q ↔ Winkelvariableα<br />

Hamilton-FunktionH(p,q) = 1 2 p2 −cosq (Gesamtenergie) (4.4.4)<br />

4.4<br />

p. 469


11<br />

10<br />

9<br />

t=0<br />

t=0.5<br />

t=1<br />

t=2<br />

t=3<br />

t=5<br />

Numerische<br />

Mathemtik<br />

Volumenerhaltung im Zustandsraum (Phasenraum):<br />

Evolution eines quadratischen Volumens<br />

✄<br />

q = α<br />

8<br />

7<br />

6<br />

5<br />

4<br />

−1.5 −1 −0.5 0 0.5 1 1.5 2 2.5<br />

p<br />

Fig. 158<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

4.4<br />

p. 470


11<br />

10<br />

9<br />

t=0<br />

t=0.5<br />

t=1<br />

t=2<br />

t=3<br />

t=5<br />

11<br />

10<br />

9<br />

t=0<br />

t=0.5<br />

t=1<br />

t=2<br />

t=3<br />

t=5<br />

Numerische<br />

Mathemtik<br />

8<br />

8<br />

q<br />

q<br />

7<br />

7<br />

6<br />

6<br />

5<br />

5<br />

4<br />

−1.5 −1 −0.5 0 0.5 1 1.5 2 2.5<br />

p<br />

4<br />

−1.5 −1 −0.5 0 0.5 1 1.5 2 2.5<br />

p<br />

Evolution eines quadratischen Volumens<br />

(Explizites Eulerverfahren)<br />

Evolution eines quadratischen Volumens<br />

(Implizite Mittelpunktsregel)<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Bem. 4.2.8: Fürd = 2 ist die implizite Mittelpunktsregel volumenerhaltend (wie alle<br />

Gauss-Kollokationsverfahren nach Lemma 4.1.6)<br />

✸<br />

4.4<br />

p. 471


Verallgemeinerung auf höhere Dimensionen: Symplektische Evolutionen (≠ Volumenerhaltung)<br />

Numerische<br />

Mathemtik<br />

Push-Forward: Wirkung einer (glatten) Abbildung<br />

auf infinitesimale Strecke = Vektor<br />

FürC 1 -AbbildungΦ : D ⊂ R d ↦→ R d :<br />

(Φ ∗ v)(y) = DΦ(y)v y ∈ D, v ∈ R d .<br />

✁ Transport eines Vektors im „Strömungsfeld”<br />

t ↦→ Φ t zuẏ = f(y)<br />

Fig. 159<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Definition 4.4.5 (Symplektisches Produkt).<br />

ω(v,w) := v T Jw , v,w ∈ R 2n mit J =<br />

( ) 0 In<br />

−I n 0<br />

.<br />

4.4<br />

p. 472


Bemerkung 4.4.6 (Konstante 2-Formen).<br />

Numerische<br />

Mathemtik<br />

Symplektisches Produkt ˆ= Prototyp einer nichtdegenerierten, alternierenden Bilinearform:<br />

Definition 4.4.7 (Alternierende, nichtdegenerierte Bilinearform).<br />

Eine Bilinearformβ : R d ×R d ↦→ R heisst<br />

• alternierend :⇔ β(x,y) = −β(y,x) ∀x,y ∈ R d ,<br />

• nichtdegeneriert :⇔ β(x,y) = 0 ∀y ∈ R d ⇒ x = 0<br />

β : R d ×R d ↦→ R alternierende Bilinearform ⇒ ∃L ∈ Rd,d : L T = −L<br />

β(x,y) = x T Ly ∀x,y ∈ R d<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

✬<br />

Lemma 4.4.8 (Normalform schiefsymmetrischer Matrizen).<br />

Zu jedem regulärenL ∈ R 2n,2n mitL T = −L gibt es ein reguläresU ∈ R d,d , so dass<br />

( )<br />

U T 0 In<br />

LU = J =<br />

(Kongruenztransformation).<br />

−I n 0<br />

✫<br />

✩<br />

✪<br />

4.4<br />

p. 473


Beweis. L = −L T<br />

⇒ unitär diagonalisierbar (normale Matrix !), rein imaginäre Eigenwerte, die<br />

in konjugiert komplexen Paaren zu konjugiert komplexen Eigenvektoren auftreten:<br />

)<br />

∃Q ∈ C 2n : Q −1 = Q H und<br />

Q H LQ = i<br />

mitD = diag(µ 1 ,...,µ n ) ∈ R n ,µ i > 0. Dann setze<br />

U = √ 1<br />

(<br />

D<br />

Q<br />

− 1/2<br />

D − )<br />

1/2<br />

2 −iD −1/2 iD − 1/2<br />

( D 0<br />

0 −D<br />

,<br />

. ✷<br />

Numerische<br />

Mathemtik<br />

Beachte: Die MatrixUist reell !<br />

Es gibt eine reelle Koordinatentransformation, dieβ inω (→ Def. 4.4.5) überführt.<br />

Bemerkung 4.4.9 (Symplektisches Flussintegral).<br />

△<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

4.4<br />

p. 474


Numerische<br />

Mathemtik<br />

y<br />

✁ ω(x,y) ˆ= Fluss “durch” orientiertes Parallelogramm,<br />

aufgespannt von{p,p+x,p+y,p+<br />

x+y} (gewichtete Fläche)<br />

p<br />

x<br />

Fig. 160<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

“Riemann-Summation”<br />

✄<br />

➣ Fluss durch beschränkte orientierte differenzierbare<br />

Fläche (= Mannigfaltigkeit der Dimension<br />

2)<br />

Fig. 161<br />

4.4<br />

p. 475


Istψ : U ↦→ R d eine Parametrisierung (Karte) der 2-MannigfaltigkeitΣ, so gilt, vgl. Push-Forward,<br />

∫ ∫ ( ) dψ T ( ) dψ<br />

Fluss = ω = J du . (4.4.10)<br />

du 1 du 2<br />

Σ<br />

U<br />

Numerische<br />

Mathemtik<br />

△<br />

✬<br />

Theorem 4.4.11 (Symplektischer Fluss Hamiltonscher Systeme).<br />

Sei Φ t die Evolution zu einer Hamiltonschen Differentialgleichung (1.2.21) mit C 2 -Hamilton-<br />

FunktionH : R n ×M ↦→ R. Dann gilt<br />

✩<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

∀y ∈ D: ∃δ > 0: ω ( (Φ t ∗v)(y),(Φ t ∗w)(y) ) = ω(v,w) ∀v,w ∈ R 2n , 0 ≤ t < δ .<br />

✫<br />

✪<br />

4.4<br />

p. 476


Numerische<br />

Mathemtik<br />

✁ Veranschaulichung Push-Forward von<br />

zwei Vektoren und alternierende (Flächen)Bilinearform.<br />

Fig. 162<br />

Beweis.<br />

(→ Beweis von [16, Thm. 2.4, Ch. VI])<br />

Φ t ˆ= Evolutionsoperator zur Hamiltonschen ODE<br />

ẏ = J −1 gradH(y)<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Behauptung ⇐⇒ (Φ t ∗(v)y) T J(Φ t ∗(w)y) = v T Jw ∀v,w ∈ R d , ∀y ∈ D ,<br />

( ) d T ( ) d<br />

⇐⇒<br />

dy Φt (y) J<br />

dy Φt (y) = J ∀y ∈ D .<br />

PropagationsmatrixW(t;y) := d<br />

dy Φt y löst Variationsgleichung (1.3.34)<br />

Ẇ(t;y) = D(J −1 gradH(y))W(t;y) = J −1 ∇ 2 H(y)W(t;y) , y ∈ D .<br />

4.4<br />

p. 477


✎ Notation: ∇ 2 H ˆ= (symmetrische) Hesse-Matrix der Hamilton-FunktionH.<br />

Numerische<br />

Mathemtik<br />

Mit Produktregel, daJ T = −J,J −T = −J −1 = J:<br />

d<br />

dt<br />

(<br />

W(t;y) T )<br />

JW(t;y)<br />

= Ẇ(t;y)T JW(t;y)+W(t;y) T JẆ(t;y)<br />

= W(t;y) T ∇ 2 H(y)J −T J<br />

} {{ }<br />

=−I<br />

DaW(0;y) = I ⇒ W(t;y) T JW(t;y) = J ∀t<br />

W(t;y)+W(t;y) T JJ<br />

} {{ −1<br />

}<br />

∇ 2 H(y)W(t;y) = 0 .<br />

=I<br />

✷<br />

Definition 4.4.12 (Symplektische Abbildung).<br />

EineC 1 -AbbildungΦ : D ⊂ R 2n ↦→ R 2n heisst symplektisch, falls<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

DΦ(y) T JDΦ(y) = J ⇔ ω ( )<br />

DΦ(y)v,DΦ(y)w<br />

= ω(v,w) ∀v,w ∈ R<br />

2n , ∀y ∈ D .<br />

} {{ } } {{ }<br />

(Φ ∗ v)(y) (Φ ∗ w)(y)<br />

★<br />

✧<br />

Thm. 4.4.11: Die Evolution zu einer Hamiltonschen Differentialgleichung<br />

ist symplektisch zu jedem Zeitpunkt.<br />

✥<br />

✦<br />

4.4<br />

p. 478


Das Konzept der Symplektizität ist eng verbunden mit der differentialgeometrischen Betrachtung Hamiltonscher<br />

Evolutionen, siehe [2, Part III].<br />

Numerische<br />

Mathemtik<br />

✬<br />

✩<br />

Korollar 4.4.13 (Komposition symplektischer Abbildungen).<br />

Die Komposition symplektischer Abbildungen ist symplektisch.<br />

✫<br />

✪<br />

Bemerkung 4.4.14 (Vektorräume von Vektorfeldern und Eigenschaften von Evolutionen).<br />

Def. 1.3.7: Vektorfeldf : D ⊂ R d ↦→ R d ➣ EvolutionΦ t zur ODEẏ = f(y)<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

(1.2.8): gradI ·f = 0 ⇔ Φ t “I-isoflächenerhaltend” für allet<br />

Thm. 4.2.3: divf = 0 ⇔ Φ t volumenerhaltend (→ Def. 4.2.1)∀t<br />

Lemma 4.3.12: f ◦R = −R◦f ⇔ Φ t R-reversibel (→ Def. 4.3.11)∀t<br />

Thm. 4.4.11: f = J −1 gradH ⇒ Φ t symplektisch (→ Def. 4.4.12)∀t<br />

✗<br />

✖<br />

VektorraumV von VektorfeldernD ↦→ R d<br />

Gruppe G von Diffeomorphismen<br />

✔<br />

✕<br />

4.4<br />

p. 479


Einschrittverfahren fürẏ = f(y) strukturerhaltend<br />

(mit diskreter EvolutionΨ h )<br />

:⇔ f ∈ V ⇒ Ψ h ∈ G<br />

Numerische<br />

Mathemtik<br />

△<br />

✬<br />

✩<br />

Theorem 4.4.15 (Symplektische Evolutionen und Hamiltonsche Differentialgleichungen).<br />

Sei Φ t der Evolutionsoperator zu einer autonomen ODE ẏ = f(y), f : D ⊂ R 2n ↦→ R 2n stetig<br />

differenzierbar, ZustandsraumD sternförmig. Dann gilt<br />

Φ t symplektisch (→ Def. 4.4.12)∀t ⇔ ∃H : D ↦→ R: f(y) = J −1 gradH(y) .<br />

✫<br />

✪<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Definition 4.4.16 (Sternförmiges Gebiet).<br />

D ⊂ R d heisst sternförmig, wenn esz ∈ D gibt, so dass<br />

für alle Punktex ∈ D.<br />

{tz+(1−t)x, 0 ≤ t ≤ 1} ⊂ D<br />

4.4<br />

p. 480


Numerische<br />

Mathemtik<br />

Hilfsmittel beim Beweis:<br />

✬<br />

✩<br />

Lemma 4.4.17 (Integrabilitätslemma).<br />

Es seiD ⊂ R d sternförmig undf : D ↦→ R d stetig differenzierbar. Dann gilt<br />

Df = Df T ⇔ ∃F : D ↦→ R: f(y) = gradF(y) ∀y ∈ D .<br />

✫<br />

✪<br />

Beweis. O.B.d.A: D sternförmig bzgl.0 ⇒ Wohldefiniert ist die Funktion<br />

⇒ gradF(y) = DF(y) T =<br />

Vorsicht:<br />

0<br />

0<br />

strikte Unterscheidung von Zeilen- und Spaltenvektoren wichtig; Gradient ist ein Spaltenvektor!<br />

F(y) :=<br />

∫ 1<br />

∫ 1<br />

0<br />

f(τy)·ydτ y ∈ D .<br />

τDf(τy) T ·y+f(τy)dτ =<br />

∫ 1<br />

d<br />

dτ<br />

(f(τy)τ)(τ)dτ = f(y) .<br />

✷<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

4.4<br />

p. 481


Beweis (von Thm. 4.4.15)<br />

Numerische<br />

Mathemtik<br />

“⇐”: Siehe Thm. 4.4.11<br />

“⇒”: PropagationsmatrixW(t;y) := ( d<br />

dy Φt )(y) löst Variationsgleichung (1.3.34)<br />

Ẇ(t;y) = Df(Φ t y)W(t;y) , W(0;y) = I , y ∈ D , t ∈ J(y) .<br />

t fixiert, hinreichend klein: y ↦→ Φ t y ist symplektische Abbildung (→ Def. 4.4.12)<br />

W(t;y) T JW(t;y) = J =⇒ t frei d (<br />

W(t;y) T )<br />

JW(t;y) = 0 .<br />

dt<br />

Mit Produktregel:<br />

0 = d dt<br />

(<br />

W(t;y) T )<br />

JW(t;y)<br />

= Ẇ(t;y)T JW(t;y)+W(t;y) T JẆ(t;y)<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

= (Df(Φ t y)) T JW(t;y)+W(t;y) T J(Df(Φ t y)) ∀y ∈ D, |t| klein.<br />

Setzet = 0, benutzeJ −T = −J −1 = J<br />

⇒ JDf(y) = (JDf(y)) T ∀y ∈ D<br />

Wegen JDf(y) = D(Jf)(y) Anwendung der Integrabilitätslemmas 4.4.17. ✷<br />

4.4<br />

p. 482


4.4.2 Symplektische Integratoren<br />

Numerische<br />

Mathemtik<br />

Warum interessiert Numeriker diese „exotische” Eigenschaft „Symplektizität” ?<br />

Thm. 4.4.15:<br />

f = J −1 gradH<br />

(“Bewegungsgleichung”)<br />

⇔ Φ t symplektisch (→ Def. 4.4.12)∀t<br />

Intuition: diskrete EvolutionΨ h symplektisch ↔ “Diskrete Bewegungsgleichung<br />

Symplektizität kann von diskreten Evolutionen geerbt werden !<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Definition 4.4.18 (Symplektisches Einschrittverfahren).<br />

Ein Einschrittverfahren (→ Def. 2.1.2) heisst symplektisch, wenn es, angewendet auf eine<br />

Hamitonsche Differentialgleichung (→ Def. 1.2.20) ẏ = J −1 gradH(y) eine konsistente<br />

diskrete EvolutionΨ h erzeugt, so dassΨ h : K ⊂ D ↦→ R d für jedes KompaktumK ⊂ D und<br />

festes hinreichend kleinesh > 0 eine symplektische Abbildung (→ Def. 4.4.12) ist.<br />

4.4<br />

p. 483


Bemerkung 4.4.19 (Einfache symplektische Integratoren).<br />

Die diskreten EvolutionenΨ h : D ⊂ R 2n ↦→ R 2n zur Hamiltonsche ODE (1.2.21)<br />

(ẏ = J −1 gradH(y),H : D ⊂ R d ↦→ R) erzeugt durch<br />

Numerische<br />

Mathemtik<br />

implizite Mittelpunkteregel (1.4.19)<br />

symplektisches Eulerverfahren (2.5.11)<br />

Störmer-Verlet-Verfahren (2.5.13) (→ Bem. 1.4.33, Bsp. 2.5.10) für separierte Hamilton-Funktion<br />

der Form H(y) = T(p)+U(q),y = ( p<br />

q<br />

)<br />

,<br />

sind symplektisch (für hinreichend kleine Schrittweiteh ∈ R).<br />

Nachweise der Symplektizität:<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

für implizite Mittelpunkteregel (1.4.19):<br />

Ψ h y 0 := y 1 = y 0 +hJ −1 gradH( 1 2 (y 0 +y 1 )) . (4.4.20)<br />

Implizites Differenzieren (Annahme:H “hinreichend glatt”):<br />

DΨ h (y 0 ) = I+hJ −1 ∇ 2 H( 1 2 (y 0 +y 1 )) 1 2 (I+DΦh (y 0 )) ,<br />

⇒ DΨ h (<br />

(y 0 ) = I− 1 2 hJ−1 ∇ 2 ) −1 (<br />

H(...) I+ 1 2 hJ−1 ∇ 2 )<br />

H(...)<br />

.<br />

4.4<br />

p. 484


Verwende nun<br />

M = M T ⇒ (I−JM) T (I+JM) −T J(I+VJM) −1 (I−JM) = J . (4.4.21)<br />

Numerische<br />

Mathemtik<br />

Störmer-Verlet-Verfahren (2.5.13) fürH(p,q) = T(p)+U(q):<br />

⎧<br />

⎪⎨ p 1/2 = p 0 −<br />

2 1hgradU(q 0) ,<br />

q 1 = q 0 +hgradT(p 1/2 ) ,<br />

⎪⎩<br />

p 1 = p 1/2 − 1 2 hgradU(q 1) .<br />

(4.4.22)<br />

Strang-Splittingverfahren (Bem. 1.4.33): diskrete EvolutionΨ h zu (4.4.22) erfüllt<br />

wobeiΦ t T ,Φt U<br />

Ψ h = Φ h /2<br />

U ◦Φh T ◦Φh /2<br />

U ,<br />

R. Hiptmair<br />

exakte Evolutionsoperatoren zu Hamiltonschen ODE<br />

rev 35327,<br />

25. April<br />

{ṗ 2011<br />

= 0 ,<br />

→ Hamilton-FunktionH(p,q) = T(p) ,<br />

˙q = gradT(p)<br />

→ Hamilton-FunktionH(p,q) = U(q) .<br />

4.4<br />

implizte Mittelpunktsregel/Störmer-Verlet-Verfahren = symplektische Integratoren<br />

△<br />

Φ t T ↔<br />

Φ t U ↔ {ṗ = −gradU(q) ,<br />

˙q = 0 .<br />

Korollar 4.4.13 ⇒ Ψ h is symplektische Abbildung (→ Def. 4.4.12).<br />

Terminologie:<br />

p. 485


✬<br />

✩<br />

Theorem 4.4.23 (Symplektische Runge-Kutta-Einschrittverfahren).<br />

Alle Runge-Kutta-Einschrittverfahren (→ Def. 2.3.5), die quadratische Invarianten erhalten, sind<br />

symplektisch.<br />

✫<br />

✪<br />

Numerische<br />

Mathemtik<br />

Beweis. Φ t ˆ= Evolutionsoperator zu Hamiltonschen Dgl. ẏ = f(y) := J −1 gradH(y) ist eine<br />

symplektische Abbildung für (alle zulässigen)t<br />

Def. 4.4.12<br />

⇒ I(Y) := Y T JY ist quadratisches erstes Integral der Variationsgleichung<br />

Ẇ(t;y) = Df(Φ t y)W(t;y) .<br />

Ψ h ˆ= diskrete Evolution des EK-ESV fürẏ = f(y)<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

̂Ψ h ˆ= diskrete Evolution des EK-ESV für<br />

{ ẏ = f(y) ,<br />

Ẇ = Df(y)W :<br />

Lemma 4.2.7<br />

⇒<br />

dΨ h<br />

dy (y 0) = W 1 =<br />

(<br />

( ))<br />

̂Ψ h y0<br />

I<br />

W<br />

( y1<br />

W 1<br />

) = ̂Ψ h ( y0<br />

I<br />

)<br />

.<br />

.<br />

4.4<br />

p. 486


Nach Voraussetzung erhält ̂Ψ h quadratische erste Integrale,<br />

( )<br />

dΨ<br />

h T ( )<br />

dΨ<br />

h<br />

J<br />

dy (y 0)<br />

dy (y 0)<br />

= W T 1 JW 1 = J ∀y 0 ∈ D . ✷<br />

Numerische<br />

Mathemtik<br />

✗<br />

✖<br />

Thm. 4.1.4 ⇒ Alle Gauss-Kollokations-Einschrittverfahren sind symplektisch.<br />

<strong>Beispiel</strong> 4.4.24 (Symplektisches Euler-Verfahren). siehe Bsp. 2.5.10<br />

✔<br />

✕<br />

Annahme: Separierte Hamilton-Funktion der Form H(p,q) = T(p)+U(q),T,U : D ⊂ R n ↦→<br />

R glatt<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

H(p,q) = T(p)+U(q) ↔ Splitting der rechten Seite von (1.2.21), vgl. Bsp. 2.5.10<br />

f(y) = J −1 gradH(y) =<br />

( ) −gradU(q)<br />

0<br />

+<br />

( )<br />

0<br />

gradT(p)<br />

=: f 1 (y)+f 2 (y) (4.4.25)<br />

➣ Lie-Trotter-Splitting-Einschrittverfahren (2.5.2)<br />

p k+1 = p k −hgradU(q k )<br />

q k+1 = q k +hgradT(p k+1 ),<br />

bzw.<br />

p k+1 = p k −hgradU(q k+1 )<br />

q k+1 = q k +hgradT(p k ) .<br />

(4.4.26)<br />

4.4<br />

p. 487


(4.4.26) = explizite symplektische diskrete Evolutionen (Thm. 2.5.5: Konsistenzordnung 1)<br />

Numerische<br />

Mathemtik<br />

Beachte: In (4.4.26) (links): Inkrement benutztq k ,p k+1<br />

In (4.4.26) (rechts): Inkrement benutztq k+1 ,p k<br />

☞ Verallgemeinerung von (4.4.26) auf ẏ = J −1 gradH(y) in der Form,y := ( p<br />

q<br />

)<br />

,<br />

ṗ(t) = − ∂H ∂H<br />

(p(t),q(t)) , ˙q(t) = (p(t),q(t)) : (1.2.21)<br />

∂q ∂p<br />

y k+1 = y k +hJ −1 gradH(p k ,q k+1 ) bzw. y k+1 = y k +hJ −1 gradH(p k+1 ,q k ) .<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Für allgemeine Hamilton-FunktionH = H(p,q) :<br />

Symplektische Euler-Verfahren<br />

p k+1 = p k −h ∂H<br />

∂q (p k+1,q k )<br />

q k+1 = q k +h ∂H<br />

∂p H(p k+1,q k ),<br />

bzw.<br />

p k+1 = p k −h ∂H<br />

∂q (p k,q k+1 )<br />

q k+1 = q k +h ∂H<br />

∂p H(p k,q k+1 ) .<br />

☞ kein Splittingverfahren mehr, trotzdem symplektisch [16, Thm. 3.3] !<br />

(4.4.27)<br />

✸<br />

4.4<br />

p. 488


Bemerkung 4.4.28 (Partitionierte Runge-Kutta-Einschrittverfahren).<br />

Mit lokal Lipschitz-stetigenf u : D u ×D v ↦→ R n ,f v : D u ×D v ↦→ R n ,D u ,D v ⊂ R n<br />

Numerische<br />

Mathemtik<br />

ODE:<br />

“Symplektisches Euler-Verfahren” (4.4.27) für (4.4.29):<br />

˙u = f u (u,v) ,<br />

˙v = f v (u,v) .<br />

(4.4.29)<br />

Ansatz:<br />

⎧<br />

⎪⎨<br />

u 1 = u 0 +hf u (u 1 ,v 0 ) ,<br />

v 1 = v 0 +hf v (u 1 ,v 0 ) .<br />

➣ Konsistenzordnung 1. (4.4.30)<br />

s-stufige partitionierte Runge-Kutta-Einschrittverfahren (für autonome ODE)<br />

k u i<br />

= f u (u 0 +h s ∑<br />

j=1<br />

a u ij ku j ,v 0+h s ∑<br />

j=1<br />

a v ij kv j ) ,<br />

⎪⎩ k v ∑<br />

i<br />

= f v (u 0 +h s a u ij ku j ,v ∑<br />

0+h s i = 1,...,s ,<br />

a v ij kv j ) j=1 j=1<br />

⎧<br />

⎪⎨ u 1 = u 0 + s (4.4.31)<br />

∑<br />

b u i ku i ,<br />

i=1<br />

∑<br />

⎪⎩ v 1 = v 0 + s b v i kv i .<br />

i=1<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

4.4<br />

p. 489


in Stufenform, vgl. Bem. 2.3.7:<br />

⎧<br />

⎪⎨<br />

⎪⎩<br />

Darstellung:<br />

g u i<br />

= u 0 +h s ∑<br />

j=1<br />

g v i<br />

= v 0 +h s ∑<br />

j=1<br />

a u ij f u(g u j ,gv j ) ,<br />

Zwei Butcher-Tableaus:<br />

a v ij f v(g u j ,gv j ) , ,<br />

⎧<br />

⎪⎨<br />

⎪⎩<br />

u 1 = u 0 + s ∑<br />

i=1<br />

v 1 = v 0 + s ∑<br />

i=1<br />

b u i f u(g u i ,gv i ) ,<br />

b v i f v(g u i ,gv i ) . (4.4.32)<br />

c u A u<br />

b u,T & cv A v<br />

b v,T<br />

Numerische<br />

Mathemtik<br />

Symplektisches Euler-Verfahren<br />

Störmer-Verlet-Verfahren<br />

0 0<br />

1<br />

& 1 1 1<br />

1/2 1/2 0<br />

1/2 1/2 0<br />

1/2 1/2<br />

&<br />

0 0 0<br />

1 1/2 1/2<br />

1/2 1/2<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

In Analogie zur Theorie der konventionellen RK-ESV aus Def. 2.3.5:<br />

• Bedingungsgleichungen an Koeffizienten für gewünschte Konsistenzordnungen, vgl. Sect. 2.3.2<br />

[16, Sect. II.2]<br />

4.4<br />

p. 490


• Algebraische Bedingungen für Erhaltung quadratischer Invarianten [16, Sect. IV.2.2], vgl.<br />

Lemma 4.1.6, und Symmetrie, vgl. Thm. 4.3.1 [16, Sect. V.2.2],<br />

Numerische<br />

Mathemtik<br />

• Koeffizientenbedingungen für Symplektizität, vgl. Thm. 4.4.23 [16, Sect. VI.4].<br />

△<br />

<strong>Beispiel</strong> 4.4.33 (Symplektisches Euler-Verfahren für Pendelgleichung).<br />

AWP für Pendelgleichung wie in Bsp. 4.4.3.<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

4.4<br />

p. 491


11<br />

10<br />

9<br />

t=0<br />

t=0.5<br />

t=1<br />

t=2<br />

t=3<br />

t=5<br />

11<br />

10<br />

9<br />

t=0<br />

t=0.5<br />

t=1<br />

t=2<br />

t=3<br />

t=5<br />

Numerische<br />

Mathemtik<br />

8<br />

8<br />

q<br />

q<br />

7<br />

7<br />

6<br />

6<br />

5<br />

5<br />

4<br />

−1.5 −1 −0.5 0 0.5 1 1.5 2 2.5<br />

Evolution eines quadratischen Volumens<br />

(Verfahren (4.4.27), links)<br />

p<br />

Fig. 164<br />

4<br />

−1.5 −1 −0.5 0 0.5 1 1.5 2 2.5<br />

Evolution eines quadratischen Volumens<br />

(Verfahren (4.4.27), rechts)<br />

p<br />

Fig. 165<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

4.4<br />

p. 492


1.5<br />

Numerische<br />

Mathemtik<br />

Energieerhaltung des symplektischen partitionierten<br />

Eulerverfahrens (4.4.27) (links) (p(0) =<br />

Gesamtenergie<br />

1<br />

0.5<br />

0,q(0) = 7π 6 ) 0<br />

0 500 1000 1500 2000 2500 3000 3500 4000 4500 5000<br />

t<br />

Fig. 166<br />

<strong>Beispiel</strong> 4.4.34 (Langzeit-Energieerhaltung bei symplektischer Integration). → Bsp. 4.4.1, 4.4.33,<br />

1.4.32<br />

✸<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Hamiltonsche Differentialgleichung (4.4.4) für mathematisches Pendel → 1.2.17 (p ↔ Winkelgeschwindigkeit,<br />

q ↔ Winkelvariableα)<br />

ṗ = −sinq ,<br />

˙q = p<br />

Hamilton-FunktionH(p,q) = 1 2 p2 −cosq (Gesamtenergie) (4.4.4)<br />

Anfangswerte: p(0) = 0,q(0) = 7/6π, EndzeitpunktT = 5000<br />

4.4<br />

p. 493


Symplektische ESV:<br />

Symplektisches partitioniertes Euler-Verfahren (4.4.27) (links)<br />

Störmer-Verlet-Verfahren (4.4.22), siehe Bem. 4.4.19<br />

Implizite Mittelpunktsregel (4.4.20), siehe Bem. 4.4.19<br />

2-stufiges Gauss-Kollokations-Einschrittverfahren, siehe Sect. 2.2.1<br />

(uniforme Zeitschrittweiteh > 0)<br />

Numerische<br />

Mathemtik<br />

10 0 h<br />

Stärke der Energieschwankungen<br />

10 −1<br />

E var (h) = max |E h (ih)−E exact | .<br />

i=0,...,T/h<br />

energy variation<br />

10 −2<br />

10 −3<br />

Sympl. Euler E var (h) = O(h) ,<br />

Störmer-Verlet E var (h) = O(h 2 R. Hiptmair<br />

10 −4<br />

) ,<br />

rev 35327,<br />

Implizite MPR E var (h) = O(h 2 25. April<br />

10<br />

) ,<br />

−5<br />

2011<br />

Gauss-Koll (s = 2) E var (h) = O(h 4 ) .<br />

10 −6 Gauss coll.(s=2)<br />

implicit midpoint<br />

Vermutung: E var (h) = O(h p Stoermer−Verlet<br />

sympl. Euler<br />

)<br />

10 −7<br />

O(h 4 )<br />

O(h<br />

(p ˆ= 2 )<br />

O(h)<br />

Konvergenzordnung des ESV)<br />

10 −8<br />

10 −2 10 −1 10<br />

Fig. 167 0<br />

✸<br />

<strong>Beispiel</strong> 4.4.35 (Federpendel).<br />

4.4<br />

Reibungsfreies Federpendel: Hamilton-Funktion H(p,q) =<br />

2 1‖p‖2 +<br />

2 1(‖q‖−1)2 +q 2<br />

p. 494


(q ˆ= Position, p ˆ= Impuls)<br />

ṗ = −(‖q‖−1) q<br />

( )<br />

0<br />

‖q‖ − 1<br />

, ˙q = p . (4.4.36)<br />

Numerische<br />

Mathemtik<br />

00000000000000000000000000000<br />

11111111111111111111111111111<br />

00000000000000000000000000000<br />

11111111111111111111111111111<br />

00000000000000000000000000000<br />

11111111111111111111111111111<br />

00000000000000000000000000000<br />

11111111111111111111111111111<br />

00000000000000000000000000000<br />

11111111111111111111111111111<br />

0<br />

−0.5<br />

−1<br />

Spring pendulum trajectory<br />

−1.5<br />

q 2<br />

−2<br />

Trajektorien bei Langzeitevolution<br />

(Chaotisches mechanisches System)<br />

Fig. 168<br />

✄<br />

−2.5<br />

−3<br />

−3.5<br />

−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1<br />

q 1<br />

Fig. 169<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

ESV: Störmer-Verlet-Verfahren (4.4.22) (Konsistenzordnung 2), siehe Bem. 4.4.19,<br />

Explizite Trapezregel (2.3.3) (Konsistenzordnung 2).<br />

4.4<br />

p. 495


1<br />

0.5<br />

Stoermer−Verlet, h = 0.200000<br />

1<br />

0.5<br />

Explicit trapezoidal rule, h = 0.200000<br />

Numerische<br />

Mathemtik<br />

0<br />

0<br />

−0.5<br />

−0.5<br />

−1<br />

−1<br />

q 2<br />

q 2<br />

−1.5<br />

−1.5<br />

−2<br />

−2<br />

−2.5<br />

−2.5<br />

−3<br />

0 < t < 50<br />

1000 < t < 1050<br />

−3.5<br />

−1.5 −1 −0.5 0 0.5 1 1.5<br />

q 1<br />

Fig. 170<br />

Animation<br />

✄<br />

Störmer-Verlet ESV<br />

−3<br />

0 < t < 50<br />

1000 < t < 1050<br />

−3.5<br />

−1.5 −1 −0.5 0 0.5 1 1.5<br />

q 1<br />

Fig. 171<br />

Explizite Trapezregel<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Symplektischer Integrator: Positionen im “zulässigen Bereich” auch bei Langzeitintegration<br />

Explizite Trapezregel: Trajektorien verlassen bei Langzeitintegration den “zulässigen Bereich” (Energiedrift<br />

!)<br />

4.4<br />

p. 496


✸<br />

Numerische<br />

Mathemtik<br />

<strong>Beispiel</strong> 4.4.37 (Molekulardynamik). → [8, Sect. 1.2]<br />

Zustandsraum fürn ∈ N Atome ind ∈ N Dimensionen: D = R 2dn<br />

(Positionenq = [q 1 ;...;q n ] T ∈ R dn , Impulsep = [p 1 ,...,p n ] T ∈ R dn )<br />

Gesamtenergie (Hamilton-Funktion):<br />

H(p,q) = 1 2 ‖p‖2 2 +V(q) .<br />

3<br />

2.5<br />

2<br />

Lenard−Jones potential<br />

equilibrium distance<br />

Lenard-Jones-Potential:<br />

n∑ ∑<br />

V(q) =<br />

j=1 i≠j<br />

∥<br />

V( ∥q i −q j∥ ∥ ∥2 ) ,<br />

✄<br />

H(q)<br />

1.5<br />

1<br />

0.5<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

V(ξ) = ξ −12 −ξ −6 . (4.4.38)<br />

0<br />

−0.5<br />

0 0.5 1 1.5 2 2.5 3<br />

|q|<br />

Fig. 172<br />

4.4<br />

p. 497


➥ Hamiltonsche Differentialgleichung (→ Def. 1.2.20):<br />

ṗ j = − ∑ V ′ ∥<br />

( ∥q j −q i∥ ∥ q j −q<br />

∥2 ) ∥<br />

i<br />

∥q<br />

i≠j j −q i∥ ∥<br />

, ˙q j = p j , j = 1,...,n .<br />

2<br />

Numerische<br />

Mathemtik<br />

Störmer-Verlet-Verfahren (4.4.22):<br />

q h (t+ 1 2 h) = q h(t)+ h 2 p h(t) ,<br />

p j h (t+h) = pj h (t)−h∑ V ′ ∥<br />

( ∥q j ∥<br />

h (t+ 1 2 h)−qi h (t+ 2 1h) ∥∥2 q j<br />

)<br />

h (t+ 1 2 h)−qi h (t+ 1 2 h)<br />

∥<br />

i≠j ∥q j ∥<br />

h (t+ 1 2 h)−qi h (t+ 1 2 h) ∥∥2<br />

,<br />

q h (t+h) = q h (t+ 1 2 h)+ h 2 p h(t+h) .<br />

Simulation mit d = 2, n = 3, q 1 (0) = 1 2<br />

EndzeitpunktT = 100<br />

√<br />

2<br />

( −1)<br />

, q 2 (0) = 1 2√<br />

2<br />

( 11<br />

)<br />

, q 3 (0) = 1 2<br />

√<br />

2<br />

( −1<br />

1<br />

)<br />

, p(0) = 0,<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

4.4<br />

p. 498


100<br />

Trajektorien der Atome, Verlet, 10000 timesteps<br />

0.6<br />

0.4<br />

Energieanteile, Verlet, 10000 timesteps<br />

kinetische Energie<br />

potentielle Energie<br />

Gesamtenergie<br />

Numerische<br />

Mathemtik<br />

80<br />

0.2<br />

60<br />

0<br />

t<br />

E<br />

40<br />

−0.2<br />

20<br />

−0.4<br />

0<br />

−1.5 −1 −0.5 0 0.5 1 −2<br />

0<br />

2<br />

−0.6<br />

x −0.8<br />

2 0 10 20 30 40 50 60 70 80 90 100<br />

x 1 t<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

4.4<br />

p. 499


100<br />

Trajektorien der Atome, Verlet, 2000 timesteps<br />

0.6<br />

0.4<br />

Energieanteile, Verlet, 2000 timesteps<br />

kinetische Energie<br />

potentielle Energie<br />

Gesamtenergie<br />

Numerische<br />

Mathemtik<br />

80<br />

0.2<br />

60<br />

0<br />

t<br />

E<br />

40<br />

−0.2<br />

20<br />

−0.4<br />

0<br />

−2 −1.5 −1 −0.5 0 0.5 1 1.5 −2<br />

0<br />

2<br />

−0.6<br />

x −0.8<br />

2 0 10 20 30 40 50 60 70 80 90 100<br />

x 1 t<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Beobachtungen:<br />

Völlig unterschiedliche Trajektorien bei Langzeitsimulation mit unterschiedlichen Zeitschrittweitenh.<br />

Qualitativ richtige Trajektorien in jedem Fall.<br />

4.4<br />

p. 500


Energie<br />

10 3 Verlet auf [0,10]: Schwankung der Gesamtenergie<br />

10 2<br />

10 1<br />

10 0<br />

10 −1<br />

10 −2<br />

10 −3<br />

Variation<br />

Drift<br />

Abstand<br />

T = 10,d = 2,n = 3,q 1 (0) =<br />

2<br />

1 √ ( 2 −1<br />

1<br />

2√<br />

2<br />

( 11<br />

) ,q 3 (0) = 1 2<br />

Variation =<br />

N−1 ∑<br />

i=1<br />

√<br />

2<br />

( −1<br />

1<br />

) ,p(0) = 0.<br />

−1)<br />

,q 2 (0) =<br />

|E tot ((i+1)h)−E tot (ih)| ,<br />

Drift = |E tot (T)−E tot (0)| ,<br />

∥<br />

Abstand = max{ ∥q j ∥<br />

h (T) ∥∥2<br />

, j = 1,2,3} .<br />

Numerische<br />

Mathemtik<br />

10 −4<br />

0 20 40 60 80 100 120 140 160<br />

Anzahl(Zeitschritte)<br />

Fig. 173<br />

<strong>Beispiel</strong> 4.4.39 (Vielteilchen-Molekulardynamik). → [26, Sect. 4.5.1]<br />

✸<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

4.4<br />

p. 501


2D konservatives Vielteilchensystem mit<br />

Lennard-Jones-Potential→ Bsp. 4.4.37<br />

9<br />

8<br />

Initial position of atoms, 0K<br />

Numerische<br />

Mathemtik<br />

(Anfangsimpulse= 0↔0K)<br />

Anfangspositionen<br />

✄<br />

7<br />

6<br />

5<br />

Beobachtet für explizite Trapezregel (2.3.3),<br />

Störmer-Verlet (4.4.22)<br />

q 2<br />

4<br />

3<br />

Approximation der GesamtenergieH(p,q)<br />

Mittlere kinetische Energie (“Temperatur”)<br />

Animation<br />

✄<br />

2<br />

1<br />

0<br />

0 1 2 3 4 5 6 7 8 9<br />

q 1<br />

Fig. 174<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

4.4<br />

p. 502


−906<br />

−908<br />

Stoermer−Verlet: 10 x 10 Lenard−Jones atoms<br />

h = 0.010000<br />

h = 0.005000<br />

h = 0.002500<br />

h = 0.001250<br />

−500<br />

Trapezoidal rule, 10 x 10 Lenard−Jones atoms<br />

h = 0.010000<br />

h = 0.005000<br />

h = 0.002500<br />

h = 0.001250<br />

Numerische<br />

Mathemtik<br />

−910<br />

−600<br />

−912<br />

total energy<br />

−914<br />

−916<br />

−918<br />

total energy<br />

−700<br />

−800<br />

−920<br />

−900<br />

−922<br />

−1000<br />

−924<br />

−926<br />

0 10 20 30 40 50 60 70 80 90 100<br />

t<br />

Fig. 175<br />

−1100<br />

0 10 20 30 40 50 60 70 80 90 100<br />

t<br />

Fig. 176<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

4.4<br />

p. 503


1.4<br />

1.2<br />

Stoermer−Verlet: 10 x 10 Lenard−Jones atoms<br />

3<br />

2.5<br />

Trapezoidal rule, 10 x 10 Lenard−Jones atoms<br />

h = 0.010000<br />

h = 0.005000<br />

h = 0.002500<br />

h = 0.001250<br />

Numerische<br />

Mathemtik<br />

1<br />

2<br />

temperature<br />

0.8<br />

0.6<br />

temperature<br />

1.5<br />

1<br />

0.4<br />

0.2<br />

h = 0.010000<br />

h = 0.005000<br />

h = 0.002500<br />

h = 0.001250<br />

0<br />

0 10 20 30 40 50 60 70 80 90 100<br />

t<br />

Fig. 177<br />

0.5<br />

0<br />

0 10 20 30 40 50 60 70 80 90 100<br />

t<br />

Fig. 178<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Symplektischer Integrator: Qualitativ korrektes Verhalten der Temperatur<br />

✸<br />

<strong>Beispiel</strong> 4.4.40 (Projektion auf Energiemannigfaltigkeit). → Bsp. 4.4.35<br />

4.4<br />

p. 504


Idee: Korrektur der Energiedrift (bei nichtsymplektischen Integratoren) durch Projektion auf Energiemannigfaltigkeit<br />

Numerische<br />

Mathemtik<br />

{(p,q) ∈ R n ×R n : H(p,q) = H(p 0 ,q 0 )} . (4.4.41)<br />

Konkret: Orthogonalprojektion (p,q) ↦→ P(p,q) := (p ∗ ,q ∗ ): mit y = ( p<br />

q<br />

)<br />

, bestime λ ∈ R, y ∗ =<br />

( p<br />

∗<br />

q ∗ ) ∈ R<br />

2n so, dass<br />

H(y ∗ ) = H 0 , y ∗ = y+λgradH(y ∗ ) . (4.4.42)<br />

Projiziertes ESV Ψ h : Orthogonalprojektion nach jedem Schritt: y k+1 = PΨ h y k<br />

Beachte: (4.4.42) nichtlineares Gleichungssystem der Dimension2n+1, teuer ! R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

4.4<br />

p. 505


5<br />

Stoermer−Verlet<br />

Explicit TR<br />

Projected TR<br />

spring pendulum integration, h=0.200000<br />

1<br />

0.5<br />

Projected explicit trapezoidal rule, h = 0.200000<br />

Numerische<br />

Mathemtik<br />

4<br />

0<br />

3<br />

−0.5<br />

total energy<br />

2<br />

1<br />

q 2<br />

−1<br />

−1.5<br />

−2<br />

−2.5<br />

0<br />

−1<br />

0 200 400 600 800 1000 1200<br />

t<br />

Fig. 179<br />

−3<br />

0 < t < 50<br />

1000 < t < 1050<br />

−3.5<br />

−1.5 −1 −0.5 0 0.5 1 1.5<br />

q 1<br />

Fig. 180<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Warnung: Projektion kein Allheilmittel, siehe [16, Ch. IV, Ex. 4.3]<br />

✸<br />

4.4<br />

p. 506


4.4.3 Rückwärtsanalyse<br />

Numerische<br />

Mathemtik<br />

Sect. 1.3.3.5: Berechnung individueller Trajektorien sinnlos für schlecht konditionierte/chaotische<br />

Evolutionen.<br />

Ziel:<br />

Berechnung typischer/wahrscheinlicher Trajektorien<br />

Bemerkung 4.4.43 (Rückwärtsanalyse (engl. backward error analysis): Philosophische Grundlage).<br />

“Naturgesetze” (engl. first principles) Parameter/Datenp 1 ,...,p m (unsicher !)<br />

Mathematisches Modelly = M(p 1 ,...,p m )<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Diskretisiertes Modely h = M h (p 1 ,...,p m )<br />

✬<br />

✩<br />

Ziel:<br />

Genaue, mit den Naturgesetzen verträgliche Lösungy h<br />

✫<br />

∃˜p i : ‖p i − ˜p i ‖ ≪ 1: y h = M(˜p 1 ,...,˜p m )<br />

✪<br />

△<br />

4.4<br />

p. 507


Konkrete Anwendung dieser Philosophie auf numerische Integratoren (Einschrittverfahren), siehe [26,<br />

Sect. 5.1]:<br />

Numerische<br />

Mathemtik<br />

Ψ h ˆ= diskrete Evolution eines ESV für ẏ = f(y) ➣ y k+1 = Ψ h (y k )<br />

Findeh-abhängiges Vektorfeld˜f h :↦→ R d so, dass<br />

Wunsch:<br />

˙ỹ =˜f h (ỹ) , ỹ(0) = y 0 ⇒ y k = ỹ(hk) . (4.4.44)<br />

Modifizierte Differentialgleichung<br />

˜f h ,f gehören zur gleichen Klasse von Vektorfeldern, vgl. Bem. 4.4.14<br />

Kleine Störung: ˜f h ≈ f für “kleine” Schrittweitenh > 0<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Ψ h strukturerhaltend & “qualitativ genau”:<br />

(y k ) akzeptabel<br />

Rückwärtsanalyse von auf der Grundlage modifizierter Differentialgleichung<br />

erfordert uniforme Zeitschrittweite<br />

4.4<br />

p. 508


<strong>Beispiel</strong> 4.4.45 (Modifizierte Gleichung für RK-ESV und lineare ODE).<br />

lineare ODE (→ Sect. 1.3.2):<br />

ẏ = Ay,A ∈ R d,d<br />

Numerische<br />

Mathemtik<br />

Runge-Kutta-Einschrittverfahren (→ Def. 2.3.5) mit StabilitätsfunktionS(z)<br />

Modifizierte ODE: ˜f h (y) = Ãy , Ã = 1 h<br />

log(S(hA)) , (4.4.46)<br />

für “hinreichend kleines”h > 0.<br />

Hier:log ˆ= “Matrixlogarithmus”:<br />

log(X) = ∞ ∑<br />

k=1<br />

(−1) k−1<br />

k<br />

(X−I) k für‖X−I‖ < 1<br />

Beweis von (4.4.46) ( elementar unter Annahme, dass A diagonalisierbar:<br />

T −1 AT = D = diag(µ 1 ,...,µ d )):<br />

Bem. 3.1.13, (3.1.16) ⇒ Für RK-ESV y 1 = S(hA)y 0<br />

∃T ∈ R d,d regulär:<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

(4.4.44)<br />

=⇒ exp(Ãh) = S(hA) mit σ(hA)∩]−∞,0] = ∅ für kleinesh > 0 . ✸<br />

4.4<br />

p. 509


? Modifizierte Gleichung im allgemeinen Fall<br />

Numerische<br />

Mathemtik<br />

Definition 4.4.47 (Modifizierte Gleichung der Ordnungq).<br />

Sei Ψ h die diskrete Evolution eines Einschrittverfahrens der Konsistenzordnungp für die ODE<br />

ẏ = f(y) mit lokal Lipschitz-stetigemf : D ⊂ R d ↦→ R d .<br />

Dann ist ˙ỹ = ˜f h (ỹ) mit h-abhängigem, lokal Lipschitz-stetigen˜f h : D ↦→ R d eine modifizierte<br />

Gleichung der Ordnungq,q > p, wenn<br />

∥ ∥<br />

∥˜Φ h hy−Ψ h y∥ ≤ C(y)hq+1 ∀y ∈ D für h → 0 ,<br />

wobei ˜Φ t h der Evolutionsoperator zu ˙ỹ =˜f h (ỹ) undC : D ↦→ R lokal gleichmässig beschränkt.<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Def. 4.4.47 ˆ= “Das ESV ist konsistent von der Ordnungq mit ˙ỹ =˜f h (ỹ).” → Def. 2.1.13<br />

4.4<br />

p. 510


<strong>Beispiel</strong> 4.4.48 (Modifizierte Gleichung der Ordnung 2 zu explizitem Euler-Verfahren).<br />

Numerische<br />

Mathemtik<br />

Explizites Eulerverfahren (1.4.2) fürẏ = f(y): y 1 = y 1 (h) = Ψ h y 0 = y 0 +hf(y 0 )<br />

Vergleich mit Taylorentwicklung (um0) (2.3.25) der exakten Lösungy(t):<br />

y(h) = y 0 +f(y 0 )h+ 1 2 Df(y 0)f(y 0 )h 2 +O(h 3 ) fürh → 0 . (4.4.49)<br />

“störender Term ☞ zu “verschieben” in˜f h<br />

Modifizierte Gleichung der Ordnung 2:<br />

˙ỹ =˜f h (ỹ) := f(ỹ)− 1 2 hDf(ỹ)f(ỹ)<br />

denn aus (4.4.49), fürh → 0<br />

f glatt<br />

⇒ ˜Φ h hy 0 −y 1 (h) = O(h 3 ) ,<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

ỹ(h) = y 0 +˜f h (y 0 )h+ 1 2 D˜f h (y 0 )˜f h (y 0 )h 2 +O(h 3 )<br />

= y 0 +hf(y 0 )− 1 2 h21 2 Df(y 0)f(y 0 )+ 1 2 Df(y 0)f(y 0 )h 2 +O(h 3 )<br />

= y 0 +hf(y 0 )+O(h 3 ) = Ψ h y 0 +O(h 3 ) .<br />

✸<br />

4.4<br />

p. 511


Durchwegs “stillschweigende Annahme”: f “hinreichend glatt” ⇒ Φ t ,Ψ h “hinreichend glatt”<br />

Numerische<br />

Mathemtik<br />

✎ Notationen: Φ t ˆ= Evolutionsoperator zur ODEẏ = f(y),<br />

t ↦→ y(t) ˆ= Lösungstrajektorien vonẏ = f(y) zum Anfangswerty 0 ∈ D.<br />

Ziel: Formalisierung der ad-hoc-Konstruktion einer modifizierten Gleichung der Ordnung p + 1 aus<br />

Bsp. 4.4.48<br />

Idee: Rekursive Konstruktion von˜f h :<br />

Annahme: diskrete EvolutionΨ h konsistent von der Ordnungpmitẏ = f h (y)<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Ansatz:<br />

˜f h = f h (y)+h p<br />

∆f(y) (4.4.50)<br />

Modifikatorfunktion<br />

Ziel:<br />

˜Φ h hy−Ψ h y = O(h p+2 ) fürh → 0 (4.4.51)<br />

Konkrete Annahme, vgl. (2.4.13):<br />

∃ lokale gleichmässig beschränktesd : D ↦→ R d mit<br />

4.4<br />

p. 512


τ(y 0 ,h) := Φ h h y 0 −Ψ h y 0 = d(y 0 )h p+1 +O(h p+2 ) für h → 0 , ∀y 0 ∈ D . (4.4.52)<br />

Numerische<br />

Mathemtik<br />

Konsistenzfehler→Def. 2.1.11,<br />

(Φ t h ˆ= Evolutionsoperator zuẏ = f h(y))<br />

(4.4.51): Bestimme∆f so, dass Lsg. von ˙ỹ =˜f h (ỹ),ỹ(0) = y 0<br />

˜Φ h hy−Ψ h y = ỹ(h)−y 1 = O(h p+2 ) fürh → 0 . (4.4.53)<br />

Taylorentwicklung umh = 0, vgl. (2.3.25), benutze Dgl. und Kettenregel: Fürh → 0<br />

ỹ(h) = y 0 +<br />

p+1<br />

∑<br />

k=1<br />

h j<br />

j!ỹ(j) (0)+O(h p+2 ) = y 0 +<br />

= y 0 +h˜f h (y 0 )+ 1 2 h2 D˜f h (y 0 )˜f h (y 0 )<br />

p+1<br />

∑<br />

k=1<br />

h j<br />

j!<br />

d j−1<br />

dt j−1˜f h (ỹ(t))<br />

|t=0<br />

+O(h p+2 )<br />

+ 1 6 h3( D 2˜f h (y 0 )(˜f h (y 0 ),˜f h (y 0 ))+D˜f h (y 0 )D˜f h (y 0 )˜f h (y 0 ) ) +···+O(h p+2 )<br />

= y 0 +hf h (y 0 )+h p+1 ∆f(y 0 )+ 1 2 h2 Df h (y 0 )f h (y 0 )<br />

+ 1 6 h3( D 2 f h (y 0 )(f h (y 0 ),f h (y 0 ))+Df h (y 0 )Df h (y 0 )f h (y 0 ) ) +···+O(h p+2 ) ,<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

da “O(h p )-Modifikation” in (4.4.50), z.B.<br />

h 2 D˜f h (y 0 )˜f h (y 0 ) = h 2( Df h (y 0 )+h p D∆f(y 0 ) ) (f h (y 0 )+h p ∆f(y 0 ))<br />

= h 2 Df h (y 0 )f h (y 0 )+O(h p+2 ) .<br />

4.4<br />

p. 513


➣ Beobachtung: Taylorentwicklung vont ↦→ Φ t h Vy 0 umt = 0 ist enthalten !<br />

Numerische<br />

Mathemtik<br />

ỹ(h) = Φ h h y 0 +h p+1 ∆f(y 0 )+O(h p+2 )<br />

(4.4.52)<br />

= Ψ h y 0 +h p+1 d(y 0 )+h p+1 ∆f(y 0 )+O(h p+2 ) .<br />

(4.4.53) erfüllt durch ∆f(y) := −d(y) ! (4.4.54)<br />

Versuch:<br />

Reihenansatz für Vektorfeld der modifizierten Gleichung:<br />

˜f h (y) = f(y)+h p ∆f p (y)+h p+1 ∆f p+1 (y)+h p+2 ∆f p+2 (y)+... . (4.4.55)<br />

➣ Modifikatorfunktionen ∆f l ,l ∈ N, aus rekursiver Konstruktionsvorschrift<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

(4.4.54) ⇒ ∆f l (y) = − lim<br />

h→0 ˜Φ h h,l−1y−Ψ h y<br />

h l+1 , (4.4.56)<br />

mit<br />

˜Φ t h,l ˆ= Evolutionsoperator zur ODE<br />

˙ỹ =˜f h,l (ỹ) := f(y)+h p ∆f p (y)+h p+1 ∆f p+1 (y)+h p+2 ∆f p+2 (y)+...+h l ∆f l (y) . (4.4.57)<br />

4.4<br />

p. 514


Bemerkung 4.4.58 (Berechnung der Modifikatorfunktionen∆f j durch Computeralgebra).<br />

Numerische<br />

Mathemtik<br />

MAPLE-Code: Berechnung der∆f j<br />

fcn := y ->f(y):<br />

N :=q:<br />

fcoe [1] := fcn(y):<br />

for n from 2 by 1 to N do<br />

modeq := sum(h^j*fcoe [j+1], j=0..n-2):<br />

diffy [0] := y:<br />

for i from 1 by 1 to n do<br />

diffy [i] := diff(diffy[i-1],y)*modeq:<br />

od:<br />

ytilde := sum(h^k*diffy[k]/k!, k=0..n):<br />

res := ytilde-y-h*fcn(y):<br />

tay := convert(series(res,h=0,n+1),polynom):<br />

fcoe [n] := -coeff(tay,h,n):<br />

od:<br />

simplify(sum(h^j*fcoe[j+1],j=0..N-1));<br />

ESV:<br />

Explizites Euler-Verfahren<br />

✁ MAPLE-code [13]:<br />

Berechnung der<br />

Modifikatorfunktionen∆f l<br />

für skalare ODEẏ = f(y).<br />

Ausgabe der Reihe (4.4.55)<br />

bis zumq. Term.<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

<strong>Beispiel</strong> 4.4.59 (Modifikatoren für einfache ESV).<br />

Skalare Differentialgleichung: ẏ = y 2 → Bsp. 1.3.11<br />

△<br />

4.4<br />

p. 515


Explizites Euler-Verfahren (1.4.2): y 1 = y 0 +hf(y 0 )<br />

˜f(y) = y 2 −h y 3 +h 2 3/2y 4 −h 3 8/3y 5 +h 431 }{{} } {{ } } {{ } 6 y6 −h 5157<br />

}{{}<br />

15 y7<br />

} {{ }<br />

−∆f 1 ∆f 2 −∆f 3<br />

∆f 4<br />

−∆f 5<br />

+h 6649<br />

30 y8 −h 7 9427<br />

} {{ }<br />

210 y9 +h 8 19423<br />

} {{ }<br />

210 y10 −h 9 6576<br />

} {{ }<br />

35 h9 y 11 +O(h 10 ) .<br />

} {{ }<br />

∆f 6 −∆f 7 ∆f 8 −∆f 9<br />

Implizites Euler-Verfahren (1.4.13): y 1 = y 0 +hf(y 1 )<br />

res := ytilde-y-h*fcn(ytilde))<br />

(In MAPLE code:<br />

˜f(y) = y 2 +hy 3 +3/2h 2 y 4 +8/3h 3 y 5 + 31 6 h4 y 6 + 157<br />

15 h5 y 7 + 649<br />

30 h6 y 8<br />

+ 9427<br />

210 h7 y 9 + 19423<br />

210 h8 y 10 + 6576<br />

35 h9 y 11 +O(h 10 )<br />

Implizite Mittelpunktsrregel (1.4.19): y 1 = y 0 +hf( 1 2 (y 0+y 1 ))<br />

res := ytilde-y-h*fcn(0.5*(y+ytilde))<br />

(In MAPLE code:<br />

Numerische<br />

Mathemtik<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

˜f(y) = y 2 + 1 4 h2 y 4 + 1 8 h4 y 6 +0.057291667h 6 y 8 +0.02343750000h 8 y 10 +O(h 10 ) .<br />

☞ Nur gerade Potenzen vonh, vgl. Beweis zu Thm. 2.1.29, Thm. 2.4.22<br />

✸<br />

4.4<br />

p. 516


Problem:<br />

Potenzreihe (inh)<br />

∞∑<br />

k=1<br />

∀h > 0 (↔ Konvergenzradius= 0)<br />

h k ∆f k (y) möglicherweise divergent<br />

Numerische<br />

Mathemtik<br />

Interpretation von (4.4.55) als asymptotische Entwicklung von˜f h , siehe Def. 2.4.7<br />

<strong>Beispiel</strong> 4.4.60 (Bedeutung der modifizierten Gleichungen niedriger Ordnung).<br />

Anfangswertproblem für logistische Differentialgleichung, siehe Bsp. 1.2.1<br />

ẏ = λy(1−y) , y(0) = 0.01 .<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

∆f 1 (y) = λ 2( −1/2y +3/2y 2 −y 3) , ∆f 2 (y) = λ 3( − 11<br />

6 y2 +3y 3 −3/2y 4 +1/3y ) .<br />

∆f 1 (y) = λ 2( 1/2y −3/2y 2 +y 3) , ∆f 2 (y) = λ 3( − 11<br />

6 y2 +3y 3 −3/2y 4 +1/3y ) 4.4<br />

ESV: Explizites Euler-Verfahren (1.4.2), vgl. Bsp. 1.4.9, Modifikatorfunktionen aus (4.4.55)<br />

ESV: Implizites Euler-Verfahren (1.4.13), vgl. Bsp. 1.4.15, Modifikatorfunktionen aus (4.4.55)<br />

p. 517


Explicit Euler h=0.050000, logistic ODE, λ=10.000000<br />

Implicit Euler h=0.050000, logistic ODE, λ=10.000000<br />

1<br />

Expl. Euler<br />

y(t)<br />

y 1<br />

(t)<br />

y 2<br />

(t)<br />

1<br />

Impl. Euler<br />

y(t)<br />

y 1<br />

(t)<br />

y 2<br />

(t)<br />

Numerische<br />

Mathemtik<br />

0.8<br />

0.8<br />

0.6<br />

0.6<br />

y<br />

y<br />

0.4<br />

0.4<br />

0.2<br />

0.2<br />

0<br />

0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1<br />

t<br />

Fig. 181<br />

0<br />

0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1<br />

t<br />

Fig. 182<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Die Euler-Verfahren füry = f(y) liefern eine bessere Approximation für die Lösungen von<br />

ẏ = ˜f 1,h (y) = f(y)+h∆f 1 (y) und ẏ = ˜f 1,h (y) = f(y)+h∆f 1 (y)+h 2 ∆f 2 (y) .<br />

Betrachte abgeschnittene modifizierte Gleichung !<br />

✸<br />

4.4<br />

p. 518


✬<br />

✩<br />

Lemma 4.4.61 (“Abgeschnittene” modifizierte Gleichung).<br />

Mit Modifikatorfunktionen ∆f i gemäss (4.4.56) für die ODE ẏ = f(y) und das ESV mit<br />

diskreter EvolutionΨ h (der Konsistenzordnungp) wie oben definiert, ist<br />

Numerische<br />

Mathemtik<br />

˙ỹ =˜f h,l (ỹ) := f(ỹ)+h p ∆f p (ỹ)+h p+1 ∆f p+1 (ỹ)+···+h l ∆f l (ỹ) ,<br />

eine modifizierte Gleichung der Ordnungl+1,l > p (→ Def. 4.4.47)<br />

✫<br />

✪<br />

Beweis. Der Beweis ergibt sich aus der rekursiven Konstruktion der ∆f l , siehe (4.4.52), (4.4.53),<br />

(4.4.54).<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

4.4.4 Modifizierte Gleichungen: Fehleranalyse<br />

4.4<br />

p. 519


Im Sinne der Rückwärtsanalyse (→ Bem. 4.4.43) des Lanzeitverhaltens von Einschrittverfahren ist<br />

zu untersuchen:<br />

Numerische<br />

Mathemtik<br />

• Gibt es eine (strukturerhaltende) modifizierte Gleichung, der Lösung für lange Zeiten nahe bei<br />

der numerische Lösung (Gitterfunktion(y k ) k ) bleibt.<br />

• Wenn ja, ist die rechte Seite dieser modifizierten Gleichung nahe bei der rechten Seite der Ausgangsgleichung.<br />

Strategie: Was wollen wir ?<br />

☞ Lemma 4.4.61:<br />

y k+1 = Ψ h y k , d.h.<br />

Familie modifizierter Gleichungen ˙ỹ =˜f h,l (ỹ), „konsistent mit dem ESV”<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Konsistenzfehler τ(y,h) := Ψ h y− ˜Φ h h,ly → 0 für h → 0 .<br />

4.4<br />

p. 520


Idee: Erinnerung an Beweis des Konvergenzsatzes für ESV, Thm. 2.1.19<br />

(vgl. auch Beweis von Thm. 2.1.26 und das „diskrete Gronwall-Lemma” Lemma<br />

2.1.20)<br />

‖y k −ỹ(kh)‖ ≤ 1 h<br />

∥<br />

max ∥τ(y j ,h) ∥ exp(Lhk)−1<br />

j=0,...,k−1 L<br />

. (4.4.62)<br />

Numerische<br />

Mathemtik<br />

(L > 0: Lipschitz-Konstante der Inkrementfunktion des ESV, ỹ ˆ= Lösung der modifizierten<br />

Gleichung)<br />

Exponentielles Wachstum der Konstanten in (4.4.62) fürhk → ∞ !<br />

( ∥ ∥τ(y j ,h) ∥ ∥ = O(h l+2 ) liefert keine sinnvollen Abschätzungen bei Langeitintegration)<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

4.4<br />

p. 521


JEDOCH:<br />

γ = 1, L = 1<br />

Numerische<br />

Mathemtik<br />

Wenn Konsistenzfehler „exponentiell klein”<br />

100<br />

‖τ‖ ≤ Chexp(−γ/h) , γ > 0 . (4.4.63)<br />

log of bound<br />

0<br />

−100<br />

−200<br />

−300<br />

−400<br />

−500<br />

‖y k −ỹ(kh)‖<br />

−600<br />

10 2<br />

≤ Cexp(−γ/h+hkL) . (4.4.64)<br />

10 1<br />

final time T = hk<br />

10 0<br />

10 −3 10 −2 10 −1 10 0<br />

h<br />

R. Hiptmair<br />

Verhalten der Schranke aus (4.4.64)<br />

rev 35327,<br />

25. April<br />

2011<br />

4.4<br />

p. 522


γ = 1, L = 1<br />

10 2 Contours for 0.1, 0.01, 0.001<br />

Schranke≥ 0.1<br />

10 2<br />

γ = 1, L = 1, C = 1<br />

bound < 0.1<br />

bound < 0.01<br />

bound < 0.001<br />

Numerische<br />

Mathemtik<br />

final time T = hk<br />

10 1<br />

maximal final time T<br />

10 1<br />

10 0<br />

Schranke≤ 0.001<br />

10 0<br />

10 −2 10 −1<br />

h<br />

Fig. 183<br />

10 3 h<br />

10 −1<br />

10 −3 10 −2 10 −1 10 0<br />

Fig. 184<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Aus (4.4.64) lesen wir ab:<br />

h <<br />

Schrittweiteh„klein”<br />

γ<br />

TL−log(τ/C)<br />

⇒ ‖y k −ỹ(kh)‖ ≤ τ für 0 ≤ kh ≤ T .<br />

⇒ Numerische Lösungy k bleibt lange in der Nähe der Trajektoriet ↦→ ỹ(t)<br />

(Präzisere Diskussion in Bem. 4.4.85)<br />

4.4<br />

p. 523


Wir sind frei in der Wahl der Abschneideindexl!<br />

Numerische<br />

Mathemtik<br />

Frage: Was ist die beste abgeschnittene modifizierte Gleichung ?<br />

Zur Beantwortung brauchen wir Konzepte/Hilfsmittel aus der Funktionentheorie !<br />

Analytizitätsvoraussetzung<br />

für jedes Kompaktum K ⊂ D gibt es ein R = R(K) > 0, so dass f(y) in jedem y ∈ K in<br />

jeder Komponente vonyeine Potenzreihenentwicklung mit Konvergenzradius> R besitzt.<br />

⇔<br />

f ist holomorph inD<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Erklärung: Potenzreihenentwicklung umy = (y 1 ,...,y d ) T in derj. Komponente<br />

f(y 1 ,...,y j−1 ,y,y j+1 ,...,y d ) =<br />

∞∑<br />

a k (y)(y −y j ) k für |y −y j | < R .<br />

k=0<br />

4.4<br />

p. 524


<strong>Beispiel</strong> 4.4.65 (Analytizitätsvoraussetzung für Hamiltonsche Differentialgleichungen).<br />

Numerische<br />

Mathemtik<br />

f(y) = J −1 gradH(y) holomorph inD<br />

⇔ H(y) holomorph inD<br />

(mit jeweils gleicher unterer SchrankeRfür Konvergenzradius auf Kompakta)<br />

Mathematisches Pendel, Bsp. 4.4.3:<br />

➣ D = R 2 ,R = ∞ (ganze Funktion !)<br />

Federpendel, Bsp. 4.4.35:<br />

H(p,q) = 1 2 p2 −cosq<br />

H(p,q) = 1 2 ‖p‖2 + 1 2 (‖q‖−1)2<br />

➣ D = R 4 ,R = dist(K,{q = 0}) (H nicht holomorph inq = 0)<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Beachte: H(p,q) jeweils analytisch in Umgebungen physikalisch sinnvoller Trajektorien !<br />

✸<br />

✎ Notation: ˜Φ t h,l ˆ= Evolutionsoperator zu ˙ỹ =˜f h,l (ỹ), vgl. Lemma 4.4.61<br />

4.4<br />

p. 525


✬<br />

✩<br />

Theorem 4.4.66 (Konsistenzfehlerabschätzung für abgeschnittene modifizierte Gleichungen).<br />

Sei Ψ h die diskrete Evolution eines zu ẏ = f(y) konsistenten (partitionierten) Runge-Kutta-<br />

Einschrittverfahrens. Unter der Analytizitätsvoraussetzung gibt es für jedes KompaktumK ⊂ D<br />

KonstantenC 1 ,C 2 > 0 und einh 0 ∈]0,∞] so, dass<br />

∥ Ψh y− ˜Φ h h,ly∥ ≤ C 1h(C 2 (l+1)h) l+1 ∀y ∈ K, ∀l ∈ N , ∀|h| ≤ h 0 . (4.4.67)<br />

✫<br />

✪<br />

Numerische<br />

Mathemtik<br />

Hilfsmittel bei Beweis: Differentialgleichung in C → Thm. 2.2.85<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

✬<br />

✩<br />

Lemma 4.4.68. Ist f holomorph in einer Umgebung von B ρ (0), |f(z)| ≤ M für allez ∈ B ρ (0)<br />

undf(0) = ··· = f (p) (0) = 0,p ∈ N 0 , dann gilt<br />

|f(z)| ≤ M|z| p+1 ρ −(p+1) ∀z ∈ B ρ (0) .<br />

✫<br />

✪<br />

4.4<br />

p. 526


Beweis. AufB ρ (0):<br />

konvergente Potenzreihenentwicklung<br />

f(z) = z p+1 ∑ ∞ a j z j<br />

j=0<br />

} {{ }<br />

=:g(z)<br />

, |g(z)| ≤ M für|z| = ρ .<br />

ρp+1 g holomorph aufB ρ (0) ⇒|g| nimmt Maximum auf Rand|z| = ρ an (Maximumprinzip).<br />

✷<br />

Numerische<br />

Mathemtik<br />

Blosse Beschränktheit auf einer Nullumgebung einer holomorphen Funktion f mit |f(z)| =<br />

O(|z| p+1 ) genügt bereits, um das Abfallverhalten fürz → 0 genau zu charakterisieren!<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Beweis von Thm. 4.4.66 ☞ für skalaren Falld = 1,ẏ = f(y),D =]a,b[⊂ R Intervall,<br />

☞ für explizites Euler-Verfahren (1.4.2): Ψ h y = y +hf(y)<br />

(Beweis nach S. Reich 1999, siehe [29, Thm. 2])<br />

Annahme:<br />

f holomorph in Umgebung von<br />

D<br />

R<br />

4.4<br />

p. 527


Ziel, vgl. (4.4.67):<br />

Abschätzung des Konsistenzfehlers ˜Φ h h,l (y)−Ψh (y) für modifizierte<br />

Gleichungen der Ordnungl+1 (→ Def. 4.4.47)<br />

⇕←(4.4.54)<br />

Abschätzung der Modifikatorfunktionen∆f l !<br />

Numerische<br />

Mathemtik<br />

Schritt I: Abschätzung für Modifikatorfunktion∆f 1 (auch zur Demonstration der Technik)<br />

! Interpretation vonẏ = f(y) als Differentialgleichung in C → Thm. 2.2.85 :<br />

f holomorph ⇒ Lösungent ↦→ y(t) analytisch (in Umgebung von0) ⇒ fortsetzbar nach C<br />

⇒ EvolutionΦ t : B R (D) ↦→ C holomorph (für hinreichend kleines|t|)<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Im Folgenden: betrachte komplexe “Zeitschrittweiten”h ∈ C, 0 < α < 1 fest gewählt.<br />

Aus der Abschätzung für Wegintegrale im Komplexen<br />

∫<br />

M := max |f(z)| ⇒<br />

z∈B R (D) |Φh h<br />

z −z| =<br />

∣ 0<br />

f(Φ τ )dτ<br />

∣ ≤ M|h| ,<br />

⇒ |Ψ h z −z| = |hf(z)| ≤ M|h| .<br />

∀z ∈ B αR (D)<br />

|h| klein.<br />

(4.4.69)<br />

4.4<br />

p. 528


Schranke für|h|:<br />

Numerische<br />

Mathemtik<br />

Wennz ∈ B αR (D) &|h| ≤ (1−α) R M ,0 ≤ α < 1<br />

dann bleibt die Trajektorie ξ ↦→ Φ ξh z, 0 ≤ ξ ≤ 1,<br />

inB R (D) !<br />

z<br />

D<br />

αR<br />

Φ h z Fig. 186<br />

⇒<br />

|h| ≤ h 1 := (1−α)R ⇒ |Φh y −y| ≤ (1−α)R ,<br />

M |Ψ h ∀y ∈ B αR (D)<br />

y −y| ≤ (1−α)R .<br />

(<br />

|h| ≤ (1−α)R<br />

)<br />

⇒ |Φ h y −Ψ h y| ≤ 2(1−α)R ∀y ∈ B<br />

M<br />

αR (D)<br />

Anwendung von Lemma 4.4.68 aufg(h) = Φ h y −Ψ h y:<br />

g holomorph inB (1−α)R/M (0)<br />

g beschränkt durch2(1−α)R aufB (1−α)R/M (0)<br />

) −2<br />

(<br />

⇒ |Φ h y −Ψ h y| ≤ 2(1−α)R|h| 2 (1−α)R<br />

M<br />

( )<br />

≤ 2M|h| 2 M<br />

∀y ∈ B<br />

(1−α)R αR (D) ,<br />

. (4.4.70)<br />

(4.4.71)<br />

dag(h) = O(h 2 ) (Euler-Verfahren Konsistenzordnung 1), so dassg(0) = g ′ (0) = 0.<br />

(4.4.56)<br />

⇒ |∆f 1 (y)| =<br />

∣ lim Φ h y −Ψ h ∣<br />

y ∣∣∣∣ ( )<br />

(4.4.71) M<br />

h→0 h 2 ≤ 2M ∀y ∈ B<br />

(1−α)R αR (D) . (4.4.72)<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

4.4<br />

p. 529


Wir haben nun gesehen, wie man unter der Analytizitätsannahme an die rechte Seite f eine Abschätzung<br />

für die erste Modifikatorfunktion erhalten kann. Benötigt wird eine Schranke für f in einer<br />

kompakten UmgebungB R (D) ⊂ C.<br />

Numerische<br />

Mathemtik<br />

Die rekursive Konstruktion der Modifikatorfunktionen gemäss (4.4.56) legt nun folgendes Vorgehen<br />

nahe:<br />

➀ Unter Verwendung von Abschätzungen für die Modifikatorfunktionen ∆f j , 1 ≤ j ≤ l, leite eine<br />

Abschätzung für die rechte Seite ˜f h,l der modifizierten Gleichung (4.4.57) aus Lemma 4.4.61 her.<br />

Ebenso wie alle Modifikatorfunktionen wird auch ˜f h,l analytisch in einer Umgebung vonD sein.<br />

➁ Benutze die Schranke für ˜f h,l , um mit gleichen Techniken wie oben für∆f 1 die nächste Modifikatorfunktion∆f<br />

l+1 abzuschätzen.<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

➂ Mache weiter mit ➀<br />

Rekursive Abschätzung<br />

←→ Induktionsbeweis<br />

Herausforderung: Formulierung einer geeigneten Induktionsannahme, vgl. (4.4.72).<br />

4.4<br />

p. 530


Numerische<br />

Mathemtik<br />

Schritt II. Induktionsbeweis: Induktionsannahme: Es gibtl-unabhängigeb > 0,c > 0, so dass<br />

( ) clM l<br />

∀l ∈ N: max |∆f l(y)| ≤ bM ∀y ∈ B<br />

y∈B αR (D) (1−α)R αR (D) , ∀0 ≤ α < 1 . (4.4.73)<br />

Die Konstantenb,c werden dann später geeignet festgelegt.<br />

Induktionsbeginn “l = 0” ⇔ (4.4.72)<br />

Induktionsschritt “l ⇒ l+1”: (0 < α < 1 fixiert!)<br />

|˜f h,l (y)|≤|f(y)|+|h||∆f 1 (y)|+|h| 2 |∆f 2 (y)|+···+|h| l |∆f l (y)|<br />

2M<br />

l∑<br />

( )<br />

≤M +|h|<br />

(1−α)R +bM |h| j jcM j<br />

∀y ∈ B<br />

, αR (D) ,<br />

(1−α)R ∀0 < α < 1 .<br />

j=2<br />

aus (4.4.72) nach Induktionsannahme (4.4.73)<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

? Nötig: Schranke für|˜f h,l (y)| in einer Umgebung vonB αR (D)<br />

4.4<br />

p. 531


Idee: „∀α” in (4.4.73) ➣ nutze Freiheit in der Wahl vonα!<br />

⇒<br />

α ∗ := α+δ(1−α) ∈]δ,1[ ⇒ 1−α ∗ = (1−α)(1−δ) , α ∗ > α .<br />

max |˜f 2M<br />

l∑<br />

( )<br />

h,l (y)| ≤ M +|h|<br />

y∈B α ∗ R (D) (1−α)(1−δ)R +bM jcM|h| j<br />

.<br />

(1−α)(1−δ)R<br />

j=2<br />

Numerische<br />

Mathemtik<br />

Versuch: Vereinfachung durch Beschränkung von|h|: |h| ≤ h l := (1−α)R<br />

(l+1)cM<br />

⇒<br />

(<br />

max |˜f h,l (y)| ≤ M 1+<br />

y∈B α ∗ R (D)<br />

2<br />

l∑<br />

c(l+1)(1−δ) +b<br />

Erinnerung an unser Ziel (4.4.73) für „l ← l+1”. Wegen<br />

müssen wir also zeigen:<br />

|˜Φ h h,l y −Ψh y| ≤ |h| l+2 bM<br />

j=2<br />

(<br />

)<br />

j j)<br />

. (4.4.74)<br />

(l+1)(1−δ)<br />

∆f l+1 (y) = − lim<br />

h→0 ˜Φ h h,l y −Ψh y<br />

h l+2 , (4.4.56)<br />

( c(l+1)M<br />

) l+1|h| l+2 bMh<br />

(1−α)R l h −(l+2)<br />

l<br />

∀y ∈ B αR (D) (4.4.75)<br />

} {{ }<br />

=h −1<br />

l<br />

!<br />

Beachte: (4.4.75) ⇒ Behauptung des Theorems mitC 1 = bM,C 2 = cM<br />

(1−α)R !<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

4.4<br />

p. 532


Beachte: per constructionem, Lemma 4.4.61: ˜Φ h h,l y −Ψh y = O(h l+2 ) fürh → 0<br />

Numerische<br />

Mathemtik<br />

Lemma 4.4.68 ⇒ Da h ↦→ ˜Φ h h,l y −Ψh y analytisch, genügt es zu zeigen<br />

|˜Φ h h,l y −Ψh y| ≤ h l bM ∀h ∈ B hl (0) , ∀y ∈ B αR (D) . (4.4.76)<br />

Dann Dreiecksungleichung wie in (4.4.70) & Abschätzung analog zu (4.4.69):<br />

|˜Φ h h,ly −y| ≤ |h| max |˜f h,l (y)| ∀y ∈ B αR (D), |h| „hinreichend klein”. (4.4.77)<br />

y∈B α ∗ R (D)<br />

Was brauchen wir ?<br />

(|Ψ h y −y| ≤ M|h| wie oben)<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

max<br />

y∈B α ∗ R (D) |˜f h,l (y)| ≤ (b−1)M,<br />

h l · max |˜f h,l (y)| ≤ δ(1 − α)R, damit die Trajektorie z ↦→ ˜Φ z<br />

y∈B<br />

h,l y in B α ∗ R(D) bleibt, wenn<br />

α ∗ R<br />

|z| ≤ h l (Beachte: B αR (D) ⊂ B α ∗ R(D)).<br />

Dazu müssen wir die Parameter in (4.4.74) geeignet wählen!<br />

4.4<br />

p. 533


Wir sind „frei” in der Wahl vonδ ∈]0,1[ ! ➣ δ := b−1<br />

c<br />

·<br />

1<br />

l+1<br />

⇒ h l (b−1)M = δ(1−α)R<br />

Numerische<br />

Mathemtik<br />

(4.4.74)<br />

⇒<br />

max |˜f h,l (y)| ≤ M<br />

y∈B α ∗ R (D)<br />

(<br />

2<br />

l∑<br />

( )<br />

1+<br />

c(l+1)−b+1 +b jc j)<br />

c(l+1)−b+1<br />

j=2<br />

} {{ }<br />

=:Γ(b,c,l)<br />

.<br />

Frage: Gibt esb,c > 0 (b−1 < 2c) so, dass max<br />

l∈N<br />

Γ(b,c,l) ≤ b−1 ?<br />

Für Beweis von Thm. 4.4.66:<br />

Γ(b,c,l) := 1+<br />

Verhalten von<br />

2<br />

l∑<br />

c(l+1)−b+1 +b<br />

j=2<br />

(<br />

)<br />

jc j<br />

:<br />

c(l+1)−b+1<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

4.4<br />

p. 534


1<br />

22<br />

20<br />

b=20, c=300<br />

b=20, c=100<br />

b=10,c=10<br />

400<br />

350<br />

300<br />

0<br />

Γ(b,c,l) < b−1<br />

−1<br />

Numerische<br />

Mathemtik<br />

Γ(b,c,ell)<br />

18<br />

16<br />

14<br />

12<br />

10<br />

0 10 20 30 40 50 60 70 80 90 100<br />

l<br />

Fig. 187<br />

c<br />

250<br />

200<br />

150<br />

100<br />

50<br />

1<br />

2 2 2 2<br />

1<br />

5 10 15 20 25 30<br />

b<br />

0<br />

1<br />

0<br />

Fig. 188<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Linker Plot: l ↦→ Γ(b,c,l) ➣ eindeutiges Maximum für kleinesl<br />

Rechter Plot:<br />

Konturen von(b,c) ↦→ max l Γ(b,c,l)−b+1<br />

Aus den Plots lesen wir ab: mögliche Wahl c = 300,b = 20 ∀l.<br />

4.4<br />

p. 535


Dann weiter wie zuvor skizziert, siehe (4.4.76), (4.4.77):<br />

⇒ |˜Φ h h,ly −y| ≤ M(b−1)|h| ,<br />

⇒ |˜Φ h h,l y −Ψh y| ≤ bM|h|<br />

für |h| ≤ h l , ∀y ∈ B αR (D) , (4.4.78)<br />

Numerische<br />

Mathemtik<br />

Beachte: ˜Φ h h,l y − Ψh y = O(h l+2 ) nach Konstruktion der Modifikatorfunktionen und holomorph in<br />

Umgebung von0. Mit Formel fürh l , o.B.d.A.0 < h l < 1,<br />

Lemma 4.4.68<br />

⇒<br />

|˜Φ h h,l y −Ψh y| ≤ bM<br />

( ) |h| l+2 ( )<br />

≤ bM|h| l+2 c(l+1)M l+1<br />

. (4.4.79)<br />

h l (1−α)R<br />

Mit (4.4.56) folgt die Induktionsbehauptung fürl+1.<br />

Behauptung des Theorems mitC 1 = bM,C 2 = cM R<br />

(Fallα = 0) folgt ebenfalls aus (4.4.79) ✷<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

4.4<br />

p. 536


Verhalten der Schranke aus Thm. 4.4.66<br />

✄<br />

Mögliche Divergenz der asymptotischen Entwicklung<br />

(4.4.55) manifestiert sich in C 1 h(C 2 (l +<br />

1)h) l+1 → ∞ fürl → ∞.<br />

Optimaler Abbruchindex:<br />

l opt ≈<br />

[ ] 1<br />

C 2 eh<br />

. (4.4.80)<br />

10 0 l<br />

10 −2<br />

Numerische<br />

Mathemtik<br />

((l+1)C 2<br />

h) (l+1)<br />

10 −4<br />

10 −6<br />

10 −8<br />

10 −10<br />

10 −12<br />

10 −14<br />

10 −16<br />

10 −18<br />

10 −20<br />

C 2<br />

h = 0.1<br />

C 2<br />

h = 0.05<br />

C 2<br />

h = 0.01<br />

10 0 10 1 10 2<br />

Fig. 189<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

4.4<br />

p. 537


10 0 1/C 2<br />

h<br />

10 −2<br />

40<br />

35<br />

Numerische<br />

Mathemtik<br />

10 −4<br />

30<br />

optimal consistency error bound<br />

10 −6<br />

10 −8<br />

10 −10<br />

optimal truncation index<br />

25<br />

20<br />

15<br />

10 −12<br />

10<br />

10 −14<br />

5<br />

10 −16<br />

10 20 30 40 50 60 70 80 90 100<br />

Fig. 190<br />

0<br />

10 20 30 40 50 60 70 80 90 100<br />

1/C 2<br />

h<br />

Fig. 191<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

✎ Notation: [x] ˆ= ganzzahliger Anteil vonx > 0<br />

(4.4.80) ergibt sich aus Kurvendiskussion vonx ↦→ (ax) x ,x > 0.<br />

4.4<br />

p. 538


∥ Ψh y− ˜Φ h h,l opt<br />

y<br />

∥ ≤ C 1hexp(−l opt ) ≤ C 1 hexp(−γ/h) , γ := 1<br />

C 2 e > 0 . (4.4.81)<br />

Schranke exponentiell klein fürh → 0, vgl. (4.4.63)<br />

Numerische<br />

Mathemtik<br />

Beachte: (4.4.81) ↔ Konsistenzfehlerabschätzung (2.1.18)<br />

Nun leiten wir eine Abschätzung für die Abweichung der numerischen Lösung von der Lösungstrajektorie<br />

der optimal abgeschnittenen modifizierten Gleichung ˙ỹ =˜f h,lopt (ỹ) her, vgl. (4.4.62).<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Betrachte: AWP ẏ = f(y)y(0) = y 0 ∈ D auf[0,T], EndzeitpunktT ∈ J(y 0 )<br />

4.4<br />

p. 539


✎ Notationen: ỹ ˆ= Lösung des AWP ˙ỹ =˜f h,lopt (ỹ),ỹ(0) = y 0<br />

(<br />

y h k<br />

)k := ((Ψ h ) k y 0<br />

)<br />

(l opt aus (4.4.80) mitC 2 aus Thm. 4.4.66 bzgl.K)<br />

k , k ∈ {0,...,[ T/h]}: Gitterfunktion erzeugt durch das<br />

Einschrittverfahren mit Schrittweiteh > 0 (numerische Näherungslösung)<br />

Numerische<br />

Mathemtik<br />

✬<br />

Lemma 4.4.82 (Konvergenz der optimal abgeschnittenen modifizierten Gleichung).<br />

Es gebe eine kompakte UmgebungK ⊂ D vony 0 , so dassy h k<br />

wennhhinreichend klein.<br />

Es gelten die Voraussetzungen von Thm. 4.4.66 (Analytizitätsannahme).<br />

∈ K für allek ∈ N,<br />

Die diskrete Evolution zum ESV besitze die DarstellungΨ h y = y+hψ(y,h) mit einer<br />

aufK gleichmässig Lipschitz-stetigen Inkrementfunktionψ, d.h., vgl. 2.1.24,<br />

✩<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

∃L > 0: ‖ψ(z,h)−ψ(w,h)‖ ≤ L‖z−w‖ ∀z,w ∈ K, |h| hinreichend klein.<br />

Dann gibt esh 0 > 0 und vonh 0 unabhängige KonstantenC > 0,γ > 0 so, dass<br />

∥<br />

∥ỹ(hk)−yk<br />

h ∥ ≤ C(exp(hkL)−1)exp(−γ/h) ∀k ∈ {0,...,[T/h]} , ∀0 < h < h 0 .<br />

✫<br />

✪<br />

4.4<br />

p. 540


Beweis.<br />

Siehe (4.4.62) und die dortigen Bemerkungen:<br />

Numerische<br />

Mathemtik<br />

Der Beweis von Thm. 2.1.19 kann fast unverändert übertragen werden, nachdem (2.1.23) durch<br />

(4.4.81) ersetzt worden ist. Siehe auch Sect. 2.1.4 für die Beweistechnik. ✷<br />

T < γ<br />

Lh ⇒<br />

“exponentiell kleiner” Fehler des Einschrittverfahrens<br />

bzgl. der optimal abgeschnittenen modifizierten Gleichung<br />

Nächster Punkt: Entsteht die optimal abgeschnittene modifizierte Gleichung wirklich durch eine „kleine”<br />

Störung der ursprünglichen ODE?<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

4.4<br />

p. 541


✬<br />

✩<br />

Lemma 4.4.83 (Störungsabschätzung für optimal abgeschnittene modifizierten Gleichung).<br />

Neben den Voraussetzungen von Thm. 4.4.66 (Analytizitätsannahme) gibt es für jedes Kompaktum<br />

K ⊂ D eine von (hinreichend kleinem) h > 0 unabhängige Konstante C > 0 so, dass<br />

Numerische<br />

Mathemtik<br />

∥<br />

∥˜f h,l (y)−f(y) ∥ ≤ Ch p ∀y ∈ K , ∀l ∈ N .<br />

✫<br />

✪<br />

Beweis. Ergänzung zum Beweis von Thm. 4.4.66, siehe die dort gemachten Annahmen und verwendeten<br />

Notationen. Ausführungen für das explizite Euler-Verfahren, d.h.p = 1.<br />

Aus der Definition von ˜f h,l , → Lemma 4.4.61,<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

l∑<br />

˜f h,l (y)−f(y) = h j ∆f j (y) .<br />

j=1<br />

Idee: Verwende Abschätzung der Modifiktorfunktionen∆f j aus dem Beweis von Thm. 4.4.66<br />

Konkret: aus (4.4.73) mitα = 0<br />

⎛<br />

|˜f h,l (y)−f(y)| ≤ |h| ⎝ 2M l∑<br />

(<br />

R +bM |h|<br />

j−1 jcM<br />

R<br />

) j<br />

⎞<br />

⎠ .<br />

4.4<br />

p. 542


|h| ≤<br />

R<br />

( 2M<br />

(l+1)2cM ⇒ |˜f h,l (y)−f(y)| ≤ |h|<br />

R + 2bcM2<br />

R<br />

) j<br />

l∑<br />

(<br />

2 −j j +1<br />

)<br />

j<br />

l+1<br />

j=2<br />

} {{ }<br />

beschränkt<br />

.<br />

Numerische<br />

Mathemtik<br />

0.8<br />

0.7<br />

0.6<br />

Summe<br />

l ↦→<br />

l∑<br />

2 −j j<br />

j=2<br />

✄<br />

( ) j +1 j<br />

(4.4.84)<br />

l+1<br />

Summe (4.4.84)<br />

0.5<br />

0.4<br />

0.3<br />

0.2<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

0.1<br />

0<br />

0 10 20 30 40 50 60 70 80 90 100<br />

l<br />

Fig. 192<br />

4.4<br />

p. 543


Also: |˜f h,l (y)−f(y)| ≤ Ch für kleinesh,∀y ∈ K, mitC > 0 unabhängig vonl. ✷<br />

Numerische<br />

Mathemtik<br />

Das Vektorfeld der optimal abgeschnittenen modifizierten Gleichung ist “O(h p )-nah” zuf<br />

Bemerkung 4.4.85 (Schrittweitenbedingungen für „Langzeitintegration”).<br />

Betrachte AWP<br />

ẏ = f(y),y(0) = y 0 , auf[0,T] ⊂ J(y 0 ),f holomorph.<br />

ESVy 1 = Ψ h y 0 der Konsistenzordnungp ∈ N.<br />

Schrittweitenbedingung für genaue numerische Lösung (‖y(hk)−y k ‖ klein) auf[0,T]<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Thm. 2.1.19 ⇒ h p exp(LT) ≪ 1 ⇒ h = O(exp(−T/p)) .<br />

Schrittweitenbedingung für akzeptable(∗) numerische Lösung (‖ỹ(hk)−y k ‖ klein) auf[0,T]<br />

Lemmas 4.4.82, 4.4.83<br />

⇒ h < γ<br />

LT ⇒ h = O(T−1 ) .<br />

4.4<br />

p. 544


(∗) „generisch akzeptabel” bzgl. allgemeiner additiver Störungen vonf. (Schärfer: strukturerhaltend<br />

akzeptabel, siehe Anfang von Sect. 4.4.3)<br />

△<br />

Numerische<br />

Mathemtik<br />

4.4.5 Strukturerhaltende modifizierte Gleichungen<br />

Gemäss Bem. 4.4.43 müssen wir zu zeigen, dass die Vektorfelder ˜f h,l der abgeschnittenen modifizierten<br />

Gleichungen strukturelle Eigenschaften (f ∈ V von Bem. 4.4.14) von f erben. Fokus ist auf<br />

Hamiltonschen Differentialgleichungen (→ Def. 1.2.20)↔Symplektizität (→ Def. 4.4.12)<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

<strong>Beispiel</strong> 4.4.86 (Modifizierte Gleichung für symplektisches Euler-Verfahren). → [26, Sect. 5.1.2]<br />

Separierte Hamilton-Funktion mit PotentialU : R n ↦→ R, vgl. (1.2.28)<br />

H(p,q) := 1 2 ‖p‖2 +U(q) , p,q ∈ R n .<br />

Hamiltonsche Differentialgleichung:<br />

ṗ = −gradU(q) , ˙q = p . (4.4.87)<br />

4.4<br />

p. 545


➀ Explizites Euler-Verfahren für (4.4.87), Schrittweiteh > 0 (Konsistenzordnung 1):<br />

p 1 = p 0 −hgradU(q 0 ) , q 1 = q 0 +hp 0 .<br />

Numerische<br />

Mathemtik<br />

Taylorentwicklung & (4.4.87) & (4.4.54) ➣ erste Modifikatorfunktion<br />

p(h) = p 0 +hṗ(0)+ 1 2 h2¨p(0)+O(h 3 )<br />

= p 0 −hgradU(q 0 )− 1 2 h2 ∇ 2 U(q 0 )p 0 +O(h 3 ) ,<br />

q(h) = q 0 h˙q(0)+ 1 2 h2¨q(0)+O(h 3 )<br />

Ausdruck für den Konsistenzfehler:<br />

= q 0 +hp 0 − 1 2 h2 gradU(q 0 )+O(h 3 ) .<br />

( ) p(h)−p1<br />

τ(y 0 ,h) =<br />

q(h)−q 1<br />

(<br />

−<br />

=<br />

1 2 h2 ∇ 2 )<br />

U(q 0 )p 0<br />

− 1 +O(h 3 ) .<br />

2 h2 gradU(q 0 )<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

(4.4.56)<br />

⇒ ∆f 1 (p,q) = 1 2<br />

(<br />

∇ 2 )<br />

U(q)p<br />

≠ J −1 grad<br />

gradU(q)<br />

˜H(y) .<br />

4.4<br />

p. 546


➁ Symplektisches Euler-Verfahren (4.4.26), Schrittweiteh > 0 (Konsistenzordnung 1):<br />

p 1 = p 0 −hgradU(q 1 ) , q 1 = q 0 +hp 0 .<br />

Numerische<br />

Mathemtik<br />

Taylorentwicklung & (4.4.87) & (4.4.54) ➣ Modifikatorfunktion<br />

Im Unterschied zu oben, unter Verwendung von (4.4.26):<br />

q(h) = q 0 +hp 0 − 1 2 h2 gradU(q 0 )+O(h 3 )<br />

= q 0 +hp 1 + 1 2 h2 gradU(q 0 )+O(h 3 )<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

∆f 1 (p,q) = 1 2<br />

(<br />

∇ 2 )<br />

U(q)p<br />

−gradU(q)<br />

=<br />

⎛<br />

⎞<br />

∂q (p,q) ⎠ , ˜H 1 (p,q) = − 1<br />

∂p (p,q) 2 p·gradU(q) .<br />

⎝ −∂ ˜H 1<br />

∂ ˜H 1<br />

⇒ Modifizierte Gleichung zweiter Ordnung ist Hamiltonsche Differentialgleichung !<br />

4.4<br />

p. 547


Konkret: mathematisches Pendel → Bsp. 1.2.17<br />

3<br />

2<br />

Explicit Euler, h = 0.000000, trajektories for modified equation<br />

Numerische<br />

Mathemtik<br />

n = 1 , H(p,q) = 1 2 p2 −cosq .<br />

“exakte” Trajektorien<br />

✄<br />

p = velocity<br />

1<br />

0<br />

Trajektorien zu modifizierten Gleichungen 2. Ord-<br />

−1<br />

nung<br />

−2<br />

−3<br />

−6 −4 −2 0 2 4 6<br />

q = α<br />

Fig. 193<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

4.4<br />

p. 548


3<br />

Explicit Euler, h = 0.500000, trajektories for modified equation<br />

3<br />

Symplectic Euler, h = 0.500000, trajektories for modified equation<br />

Numerische<br />

Mathemtik<br />

2<br />

2<br />

1<br />

1<br />

p = velocity<br />

0<br />

p = velocity<br />

0<br />

−1<br />

−1<br />

−2<br />

−2<br />

−3<br />

−6 −4 −2 0 2 4 6<br />

q = α<br />

Fig. 194<br />

−3<br />

−6 −4 −2 0 2 4 6<br />

q = α<br />

Fig. 195<br />

R. Hiptmair<br />

Expl. Euler,h = 0.5<br />

Synplekt. Euler,h = 0.5<br />

✸<br />

rev 35327,<br />

25. April<br />

2011<br />

4.4<br />

p. 549


✬<br />

✩<br />

Theorem 4.4.88 (Symplektizität der Modifikatorfunktionen).<br />

Sei Ψ h die diskrete Evolution eines symplektischen Einschrittverfahrens (→ Def. 4.4.18) für<br />

die Hamiltonsche Differentialgleichung ẏ = J −1 · gradH(y) mit glatter Hamilton-Funktion<br />

H : D ⊂ R 2n ↦→ R,D sternförmig.<br />

Dann sind die abgeschnittenen modifizierten Gleichungen ˙ỹ =˜f h,l (ỹ) aus Lemma 4.4.61 ebenfalls<br />

Hamiltonsch für allel ∈ N und alle (hinreichend kleinen)h > 0.<br />

✫<br />

✪<br />

Numerische<br />

Mathemtik<br />

Beweis. (von Thm. 4.4.88)<br />

Idee: Induktion nachl<br />

Induktionsbeginn: Fürl ≤ p: ˜f h,l (y) = f(y) = J −1·gradH(y) ✔<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

“l → l+1”: ˜Φ t ˆ= Evolutionsoperator zu ˙ỹ =˜f h,l (ỹ) = J −1 grad ˜H l (y) (Induktionsannahme !)<br />

⇒ Für festest: ˜Φ t : D ↦→ R 2n is symplektisch (→ Def. 4.4.12)<br />

Nach (4.4.52) & (4.4.54), Lemma 4.4.61 fürh → 0<br />

˜Φ h y 0 −Ψ h y 0 = −∆f l+1 (y 0 )h l+2 +O(h l+3 ) ∀y 0 . (4.4.89)<br />

4.4<br />

p. 550


(D y˜Φ h )(y 0 )−(D y Ψ h )(y 0 ) = −(D y ∆f l+1 )(y)h l+2 +O(h l+3 ) . (4.4.90)<br />

Numerische<br />

Mathemtik<br />

˜Φ h ,Ψ h = symplektische Abbildungen (→ Def. 4.4.12, Argumenty 0 weggelassen)<br />

⇒<br />

(D y˜Φ h ) T JD y˜Φ h<br />

} {{ }<br />

=J<br />

= (D y Ψ h ) T JD y Ψ h<br />

} {{ }<br />

=J<br />

+h l+2( (D y Ψ h ) T JD y ∆f l+1 +(D y ∆f l+1 ) T JD y Ψ h) +O(h l+3 ) .<br />

⇒ 0 = (D y Ψ h ) T JD y ∆f l+1 +(D y ∆f l+1 ) T JD y Ψ h +O(h) .<br />

Für konsistentes ESV, siehe Lemma 2.1.9: D y Ψ h = I+O(h) fürh → 0.<br />

h→0<br />

⇒ 0 = JD y ∆f l+1 +(D y ∆f l+1 ) T J ⇒ D y (J∆f l+1 ) = (D y (J∆f l+1 )) T .<br />

Anwendung von Lemma 4.4.17 (Integrabilitätslemma) aufJ∆f l+1 .<br />

✷<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Symplektische Integratoren liefern strukturerhaltende akzeptable(∗) diskrete Evolutionen für<br />

(glatte) konservative mechanische Systeme.<br />

(∗): (exponentiell genaue) Lösung einer Evolution mit “leicht gestörter” (nämlichO(h p ), siehe Lemma<br />

4.4.83) Hamilton-Funktion ➢ Rückwärtsanalyse → Sect. 4.4.3<br />

4.4<br />

p. 551


Erklärung der “Langzeitenergieerhaltung” symplektischer Integratoren durch Rückwärtsanalyse:<br />

☞ Lösung des ESV (Konsistenzordnung p) ist “exponentiell genaue” (→ Lemma 4.4.82) Approximation<br />

der Lösung einer (optimal abgeschnittenen) modifizierten Gleichung<br />

Diese ist eine Hamiltonsche Differentialgleichung (→ Def. 1.2.20) mit einer (bzgl. H) um<br />

O(h p ) gestörten Hamilton-Funktion ˜H(y) (→ Thm. 4.4.83).<br />

Numerische<br />

Mathemtik<br />

Details:<br />

Annahmen:<br />

symplektisches ESV der Konsistenzordnungp<br />

Schrittweite h < h ∗ ⇒ numerischen Lösungen (y k ) k ⊂ K ⊂ D, K kompakte<br />

TeilmengeK ⊂ D des Zustandsraums.<br />

K ist sternförmig (darauf kann verzichtet werden [16, Sect. XI.3.2])<br />

f erfüllt Analytizitätsannahme bzgl.K<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

✎ Notation: (t,y) ↦→ ˜Φ t hy ˆ= Evolutionsoperator zur (optimal abgeschnittenen)<br />

Abschätzung (4.4.81)<br />

modifizierten Gleichung ˙ỹ =˜f h,lopt (ỹ).<br />

⇒<br />

∥ Ψh y− ˜Φ h hy∥ ≤ Chexp(− γ/h) ∀y ∈ K, ∀h < h ∗ .<br />

4.4<br />

p. 552


Thm. 4.4.88 ⇒ ˜f h,lopt (y) = J −1 grad ˜H h (y) mit ˜H h : K ↦→ R holomorph .<br />

Numerische<br />

Mathemtik<br />

˜H h : K ↦→ R holomorph<br />

K kompakt<br />

⇒ ∃L > 0: |˜H h (y)− ˜H h (z)| ≤ L‖y−z‖ ∀y,z ∈ K .<br />

„Teleskopsummenargument”:<br />

ist Invariante einer Hamiltonschen ODE, siehe Lemma 1.2.23)<br />

da ˜H h (˜Φ t hy) = ˜H h (y) für allet ∈ J(y), y ∈ K (Hamilton-Funktion<br />

|˜H h (y k )− ˜H h (y 0 )| ≤<br />

≤<br />

Thm. 4.4.88<br />

k−1 ∑<br />

j=0<br />

k−1 ∑<br />

j=0<br />

|˜H h (y j+1 )− ˜H h (y j )| =<br />

∥ L<br />

∥ Ψh y j − ˜Φ h ∥∥∥<br />

hy j ≤ CL<br />

k−1 ∑<br />

j=0<br />

k−1 ∑<br />

j=0<br />

|˜H h (Ψ h y j )− ˜H h (˜Φ h hy j )|<br />

hexp(−γ/h) ≤ CLhkexp(−γ/h) .<br />

⇒ ∃C > 0: max<br />

y∈K |˜H h (y)−H(y)| ≤ Ch p ∀h < h ∗ .<br />

⇒ |H(y k )−H(y 0 )| ≤ C(Lhkexp(−γ/h)+h p ) ∀h < h ∗ .<br />

LT h p exp(−γ/h) ➣ „Energiefehler” der numerischen Lösung von der GrösseO(h p )<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

für „exponentiell lange Zeit”<br />

☞ Dies ist die Erklärung für die Vermutung aus Bsp. (4.4.34) !<br />

4.4<br />

p. 553


✬<br />

✩<br />

Theorem 4.4.91 (Langzeitenergieerhaltung bei symplektischer Integration).<br />

Für die Hamiltonsche ODE ẏ = J −1 gradH(y) (→ Def. 1.2.20) und ein dazu von Ordnung<br />

p konsistentes symplektisches Einschrittverfahren (→ Def. 4.4.18) seien die Voraussetzungen<br />

von Thm. 4.4.66 erfüllt.<br />

Für hinreichend kleine (uniforme !) Schrittweiten h gelte (Ψ h ) k y ∈ K für alle k ∈ N 0 und<br />

y ∈ K 0 , wobeiK,K 0 ⊂ D kompakt. Dann gibt esC > 0 mit<br />

Numerische<br />

Mathemtik<br />

|H((Ψ h ) k y 0 )−H(y 0 )| ≤ C(hkexp(−γ/h)+h p ) ∀h hinreichend klein, ∀y 0 ∈ K 0 .<br />

✫<br />

✪<br />

T exp(O(h −1 )) =⇒ H(y k )−H(y 0 ) = O(h p )<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Sect. 4.4.3": Methode der Rückwärtsanalyse erfordert uniforme Zeitschrittweite.<br />

Eine bloss theoretische Einschänkung ?<br />

<strong>Beispiel</strong> 4.4.92 (Symplektische Integratoren und variable Schrittweite). Fortsetzung Bsp. 4.4.33<br />

4.4<br />

p. 554


Symplektisches Eulerverfahren (4.4.26) für (4.4.4) auf [0,T], T = 5000. Erratische variable Schrittweiteh<br />

i = 0.5(1+0.5(rand()−0.5)),i = 1,...,10000,p(0) = 0,q(0) = 7π/6<br />

Numerische<br />

Mathemtik<br />

600<br />

250<br />

500<br />

200<br />

400<br />

Gesamtenergie<br />

300<br />

200<br />

Gesamtenergie<br />

150<br />

100<br />

100<br />

0<br />

−100<br />

0 500 1000 1500 2000 2500 3000 3500 4000 4500 5000<br />

t<br />

50<br />

0<br />

0 500 1000 1500 2000 2500 3000 3500 4000 4500 5000<br />

t<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Energiedrift bei variabler Schrittweite (Verfahren<br />

(4.4.26), links)<br />

Energiedrift bei variabler Schrittweite (Verfahren<br />

(4.4.26), rechts)<br />

✸<br />

4.5<br />

p. 555


4.5 Methoden für oszillatorische Differentialgleichungen [23]<br />

Numerische<br />

Mathemtik<br />

☞<br />

Prototyp: ÿ = −ω 2 y , y(0) = y 0 , ẏ(0) = v 0<br />

y(t) = αcos(ωt)+βsin(ωt) , α,β ∈ R<br />

Verallgemeinerung (skalar): ÿ = −ω 2 y +g(y) , y(0) = y 0 , ẏ(0) = v 0 , (4.5.1)<br />

mit Lipschitz-stetiger Störungg : R ↦→ R.<br />

Verallgemeinerung (vektoriell) ÿ = −Ay+g(y) , y(0) = y 0 , ẏ(0) = v 0 , (4.5.2)<br />

Bemerkung 4.5.3.<br />

(4.5.1)<br />

A ∈ R d,d symmetrisch positiv definit,<br />

v:=ẏ<br />

⇐⇒<br />

)<br />

d y<br />

dt(<br />

v<br />

Lösung von (4.5.4) durch Variation der Konstanten:<br />

=<br />

( ) 0 1 y<br />

−ω 0)( 2 v<br />

+<br />

g : R d ↦→ R d<br />

( ) 0<br />

g(y)<br />

. (4.5.4)<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

( ) y(t)<br />

v(t)<br />

=<br />

(<br />

costω ω −1 )( )<br />

sintω y0<br />

+<br />

−ωsintω costω v 0<br />

∫t<br />

0<br />

(<br />

ω −1 )<br />

sin(t−s)ω<br />

cos(t−s)ω<br />

g(y(s))ds (4.5.5)<br />

△<br />

4.5<br />

p. 556


Bemerkung 4.5.6.y(t) löst (4.5.1) &G ′ = g ➡<br />

1 2 |ẏ|2 + 1 2 ω2 y(t)−G(y(t)) ≡ const.<br />

„Energie” für ODE (4.5.1)<br />

<strong>Beispiel</strong> 4.5.7 (Standardintegratoren für oszillatorische Differentialgleichung).<br />

Adaptives explizites RK-ESV (Sect. 2.6 für (4.5.1):<br />

y0=[1;0];f=@(t,x) [0,1;-omega^2,0]*x + 20*[0;sin(x(1))];<br />

options=odeset(’reltol’,1.0e-2,’abstol’,1.0e-5);<br />

[t,y]=ode45(f,[0,1],y0,options); („Energie” ˆ= Invariante aus Bem. 4.5.6)<br />

△<br />

Numerische<br />

Mathemtik<br />

#(Zeitschritte)<br />

800<br />

700<br />

600<br />

500<br />

400<br />

300<br />

200<br />

100<br />

0<br />

0 50 100 150 200 250<br />

ω Fig. 196<br />

Relativer Energiefehler fuer t=1<br />

0.45<br />

0.4<br />

0.35<br />

0.3<br />

0.25<br />

0.2<br />

0.15<br />

0.1<br />

0.05<br />

0<br />

0 50 100 150 200 250<br />

ω Fig. 197<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

4.5<br />

p. 557


ω ↑ ⇒ Oszillationen iny(t) ↑ ⇒ Anzahl Zeitschritte↑<br />

✸<br />

Numerische<br />

Mathemtik<br />

Ziel: Effiziente numerische Integration von (4.5.1)/(4.5.2) auch fürω ≫ 1 bzw.λ max (A) ≫ 1<br />

Idee: ( wie bei exponentiellen Integratoren, siehe Sect. 3.7)<br />

g ≡ const. ,<br />

(4.5.8)<br />

Verwende analytische Lösungsdarstellung (4.5.5) zur numerischen Integration:<br />

y(t±h) = cos(hω)y(t)± sinhω<br />

ω<br />

±h ∫<br />

ẏ(t)+<br />

0<br />

sin(±h−s)ω<br />

ω<br />

·g(y(t+s))ds (4.5.8)<br />

y(t+h)−2cos(hω)y(t)+y(t−h) = h 2 (<br />

sin(<br />

1<br />

2<br />

hω)<br />

1<br />

2 hω ) 2<br />

g . (4.5.9)<br />

➣ Gautschis Zweischrittverfahren (y h (t+h) aus y h (t),y h (t−h)) für (4.5.1)<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

y h (t+h)−2cos(hω)y h (t)+y h (t−h) = h 2 (<br />

sin(<br />

1<br />

2<br />

hω)<br />

1<br />

2 hω ) 2<br />

g(y h (t)) . (4.5.10)<br />

4.5<br />

p. 558


Notwendig: Startschritt aus (4.5.5)<br />

Ableitungsnäherung:<br />

y h (h) = cos(hω)y 0 + sinhω<br />

( )<br />

ω v 0+ 1 sin(<br />

1 2<br />

2 h2 2<br />

hω)<br />

1<br />

2 hω g(y 0 ) . (4.5.11)<br />

Aus (4.5.8) fürg ≡ const:<br />

y(t+h)−y(t−h) = 2h sinhω<br />

hω ẏ(t) ⇒ v h(t) = hω<br />

sinhω · yh(t+h)−y h (t−h)<br />

2h<br />

.<br />

(4.5.12)<br />

Numerische<br />

Mathemtik<br />

Bemerkung 4.5.13. Gautschi-Verfahren (4.5.10), (4.5.11) für vektorielles Problem (4.5.2) ?<br />

Ersetze cos(hω) ↦→ coshA ,<br />

( )<br />

sin(<br />

1 2<br />

2<br />

hω)<br />

1<br />

2 hω ↦→ 4(hA) −2 sin 2 (<br />

2 1hA) . △<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

<strong>Beispiel</strong> 4.5.14 (Gautschis Zweischrittverfahren).<br />

Anfangswertproblem vom Typ (4.5.1) auf[0,1]:<br />

ÿ = −ω 2 y +siny , y(0) = 1 , ẏ(0) = 0 .<br />

4.5<br />

p. 559


1.5<br />

1<br />

Gautschi−Verfahren: h = 0.1000, ω = 25<br />

y(t)<br />

v(t)/ω<br />

y h<br />

(t)<br />

v h<br />

(t)/ω<br />

1<br />

0.8<br />

0.6<br />

Gautschi−Verfahren: h = 0.0333, ω = 25<br />

y(t)<br />

v(t)/ω<br />

y h<br />

(t)<br />

v h<br />

(t)/ω<br />

Numerische<br />

Mathemtik<br />

0.5<br />

0.4<br />

0.2<br />

y<br />

0<br />

y<br />

0<br />

−0.2<br />

−0.5<br />

−0.4<br />

−1<br />

−0.6<br />

−0.8<br />

−1.5<br />

0 0.2 0.4 0.6 0.8 1<br />

t<br />

Fig. 198<br />

ω = 25:y h folgt (oszillatorischer Lösung), auch wennh ≈ 2π ω<br />

−1<br />

0 0.2 0.4 0.6 0.8 1<br />

t<br />

Fig. 199<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Relativer Fehler in „Energie” (→ Bem. 4.5.6) fürt = 1:<br />

4.5<br />

p. 560


0.25<br />

Gautschi−Verfahren: h = 0.1000, ω = 25<br />

Gautschi−Verfahren: h = 0.0333, ω = 25<br />

6 x 10−3 t<br />

Numerische<br />

Mathemtik<br />

5<br />

0.2<br />

4<br />

energy<br />

0.15<br />

0.1<br />

energy<br />

3<br />

2<br />

0.05<br />

1<br />

0<br />

0 0.2 0.4 0.6 0.8 1<br />

t<br />

Fig. 200<br />

Zeitschritt h = 0.1<br />

0<br />

0 0.2 0.4 0.6 0.8 1<br />

Fig. 201<br />

Zeitschritt h = 0.033<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

4.5<br />

p. 561


10 1 Gautschi−Verfahren: Konvergenz, ω = 25<br />

Numerische<br />

Mathemtik<br />

10 0<br />

10 −1<br />

Beobachtung:<br />

Fehler fuer t=1<br />

10 −2<br />

10 −3<br />

10 −4<br />

10 −5<br />

10 −6<br />

|y h<br />

(1)−y(1)|<br />

|v h<br />

(1)−v(1)|<br />

Energiefehler<br />

O(h 2 )<br />

10 −3 10 −2 10 −1<br />

h<br />

Fig. 202<br />

Ziel erreicht ?<br />

Alle Fehler≈ O(h 2 )<br />

⇕<br />

Konvergenzordnung 2<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Fehler für fixeshin Abhängigkeit vonω:<br />

4.5<br />

p. 562


7<br />

6<br />

Gautschi−Verfahren: Konvergenz, h = 0.0500<br />

|y h<br />

(1)−y(1)|<br />

|v h<br />

(1)−v(1)|/ω<br />

10 4 Gautschi−Verfahren: Energiedrift, h = 0.0500<br />

10 2<br />

Energiefehler fuer t=1<br />

Numerische<br />

Mathemtik<br />

5<br />

10 0<br />

Fehler fuer t=1<br />

4<br />

3<br />

Fehler fuer t=1<br />

10 −2<br />

10 −4<br />

2<br />

10 −6<br />

1<br />

10 −8<br />

0<br />

0 50 100 150 200<br />

ω<br />

10 −10<br />

0 50 100 150 200<br />

ω<br />

h = 0.05: Was pasiert fürω ≈ 61,ω ≈ 123,ω ≈ 185 ? Instabilität ?<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

4.5<br />

p. 563


15<br />

Gautschi−Verfahren: Konvergenz, h = 0.0200<br />

|y h<br />

(1)−y(1)|<br />

|v h<br />

(1)−v(1)|/ω<br />

10 4 Gautschi−Verfahren: Energiedrift, h = 0.0200<br />

Energiefehler fuer t=1<br />

Numerische<br />

Mathemtik<br />

10 2<br />

Fehler fuer t=1<br />

10<br />

5<br />

Fehler fuer t=1<br />

10 0<br />

10 −2<br />

10 −4<br />

0<br />

0 50 100 150 200<br />

ω<br />

➣<br />

10 −6<br />

0 50 100 150 200<br />

ω<br />

h-Abhängigkeit kritischer Frequenzen<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

4.5<br />

p. 564


Numerische<br />

Mathemtik<br />

h-Abhängigkeit kritischer Frequenzen<br />

Logarithmus log 10 des relativen Energiefehlers<br />

zum Endzeitpunktt = 0<br />

Beobachtung:<br />

✄<br />

hω-Abhängigkeit kritischer Frequenzen<br />

Fig. 203<br />

✸<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Modellproblem:<br />

ÿ = −ω 2 y +αy , α ≪ ω 2 . (4.5.15)<br />

➤ Gautschi-Verfahren (4.5.10), Schrittweiteh: ➢ Dreitermrekursion<br />

y h (t+h)−<br />

{2cos(hω)+h 2 αsinc 2 ( 1 }<br />

2 hω) y h (t)+y h (t−h) = 0 . (4.5.16)<br />

4.5<br />

p. 565


1<br />

0.8<br />

Numerische<br />

Mathemtik<br />

sinc(x)<br />

0.6<br />

0.4<br />

0.2<br />

0<br />

−0.2<br />

−0.4<br />

−0.6<br />

Die sinc-Funktion:<br />

sinc(x) := sinx<br />

x<br />

➤ Analytisch auf R<br />

➤ |sinc(x)| ≤ 1 mit globalem Maximum inx = 0<br />

−0.8<br />

−1<br />

0 5 10 15 20<br />

x<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Analyse von (4.5.16):<br />

Ansatzy h (kh) = ξ k ↔ Charakteristische (quadratische) Gleichung<br />

∃ Lösungeny h (kh) von (4.5.16):<br />

lim y h(hk) = ±∞ ⇔<br />

k→∞<br />

∣<br />

∣2cos(hω)+h 2 αsinc 2 ( 1 2 hω) ∣ ∣∣ > 2<br />

Abhilfe [23]:<br />

(coshω ≈ 1 ⇔ hω ≈ 2πl, l ∈ Z) ⇒ y h (hk) → ±∞ auch fürh ≪ 1 .<br />

„Filterung”: Dämpfung vonα, fallshω ≈ 2πl:<br />

4.5<br />

p. 566


In (4.5.10), (4.5.11) ersetze: g(y h (t)) ↦→ g(ψ(hω)y h (t)), ψ(ξ) := sinc 2 ξ(1+ 1 2 (1−cosξ))<br />

Numerische<br />

Mathemtik<br />

➤<br />

Modifiziertes Gautschi-Verfahren:<br />

y h (t+h)−2cos(hω)y h (t)+y h (t−h) = h 2 (<br />

sin(<br />

1<br />

2<br />

hω)<br />

1<br />

2 hω ) 2<br />

g(ψ(hω)y h (t)) . (4.5.17)<br />

10 1 Filterndes Gautschi−Verfahren: Konvergenz, ω = 25<br />

<strong>Beispiel</strong><br />

4.5.18 (Modifiziertes Gautschi-Verfahren).<br />

AWP aus Bsp. 4.5.10, Integration gemäss (4.5.17),<br />

Filterfunktionψ(ξ) := sinc 2 ξ(1+ 1 2 (1−cosξ))<br />

Fehler fuer t=1<br />

10 0<br />

10 −1<br />

10 −2<br />

10 −3<br />

R. Hiptmair<br />

rev 35327,<br />

25. April<br />

2011<br />

Konvergenzordnung 2<br />

✄<br />

10 −4<br />

10 −5<br />

10 −6<br />

|y (1)−y(1)| h<br />

|v h<br />

(1)−v(1)|<br />

Energiefehler<br />

O(h 2 )<br />

10 −3 10 −2 10 −1<br />

h<br />

4.5<br />

p. 567


0.14<br />

0.12<br />

Filterndes Gautschi−Verfahren: Konvergenz, h = 0.0500<br />

|y h<br />

(1)−y(1)|<br />

|v h<br />

(1)−v(1)|/ω<br />

10 −1 Filterndes Gautschi−Verfahren: Energiedrift, h = 0.0500<br />

Energiefehler fuer t=1<br />

Numerische<br />

Mathemtik<br />

0.1<br />

10 −2<br />

Fehler fuer t=1<br />

0.08<br />

0.06<br />

0.04<br />

Fehler fuer t=1<br />

10 −3<br />

0.02<br />

0<br />

0 50 100 150 200<br />

ω<br />

10 −4<br />

0 50 100 150 200<br />

ω<br />

R. Hiptmair<br />

rev 35327,<br />

22. Januar<br />

2008<br />

4.5<br />

p. 568


hω-Abhängigkeit der Energiedrift<br />

Beobachtung:<br />

(4.5.17): Keine Instabilität<br />

✄<br />

Numerische<br />

Mathemtik<br />

Im Vergleich zu (4.5.10) (→<br />

Bsp. 4.5.14) deutlich reduzierte<br />

Energiedrift (Skala!)<br />

R. Hiptmair<br />

rev 35327,<br />

22. Januar<br />

2008<br />

4.5<br />

p. 569


Numerische<br />

Mathemtik<br />

Verzeichnisse<br />

R. Hiptmair<br />

rev 35327,<br />

22. Januar<br />

2008<br />

4.5<br />

p. 570


Numerische<br />

Mathemtik<br />

Index<br />

R-reversible Abbildung, 462<br />

R-reversible Evolution, 462<br />

a posteriori<br />

Fehlerschätzung, 292<br />

A-Stabilität, 358<br />

absolute Toleranz, 295<br />

adjungierte Matrix, 443<br />

Affin-Kovarianz<br />

Runge-Kutta, 230<br />

Aitken-Neville-Schema, 254<br />

akzeptable Lösung, 551<br />

akzeptables Resultat, 508<br />

algebraische Konvergenz, 78, 79, 122<br />

algebraische Nebenbedingung<br />

bei DAE, 405<br />

algebraische Stabilität, 362<br />

alternierende Bilinearform, 473<br />

analytisch, 195<br />

analytische Funktion, 192, 524<br />

Analytizitätsvoraussetzung, 524<br />

Anfangswertproblem<br />

Lösung, 21<br />

linear, 52<br />

steifes, 375<br />

Asymptotische (absolute) Kondition, 58<br />

asymptotische Entwicklung, 256, 260, 517<br />

Asymptotische Stabilität<br />

eines Fixpunkts, 340<br />

attraktiver Fixpunkt, 24, 322<br />

autonome Differentialgleichung, 18<br />

Autonomisierung, 18<br />

Autonomisierungsinvarianz, 232<br />

AWP<br />

Kondition, 60<br />

B-Stabilität, 362<br />

Bahnebene, 41<br />

Banachscher Fixpunktsatz, 150<br />

Basisverfahren<br />

für Extrapolation, 266<br />

Bewegungsgleichungen<br />

Hamiltonsche Form, 38<br />

Molekulardnamik, 498<br />

R. Hiptmair<br />

rev 35327,<br />

22. Januar<br />

2008<br />

4.5<br />

p. 571


Newtonsche, 37<br />

bimolekulare Reaktion, 29<br />

Blow-up, 44, 51, 310<br />

Bootstrapping, 222<br />

Butcher-Bäum, 244<br />

Butcher-Matrix, 368<br />

Butcher-Schema, 224<br />

Cauchy-Hadamard<br />

Formel von, 205<br />

DAE, 404, 405<br />

separiert, 406<br />

vom Index 1, 408<br />

Deskriptorform<br />

mechanischer Bewegungsgleichungen, 419<br />

von Bewegungsgleichungen, 420<br />

Determinante<br />

Ableitung, 443<br />

diagonal-implizite ESV, 391<br />

DIFEX, 278<br />

Differentialgleichung<br />

Hamiltonsche, 39<br />

linear, 53<br />

logistische, 186, 209, 250<br />

Variation der Konstanten, 54<br />

Differentialgleichungen<br />

Skalare, 50<br />

differentiell-algebraische Gleichung (DAE), 404<br />

differentiell-algebraisches Anfangswertproblem (DAE), 405,<br />

406<br />

differentielle Konditionsanalyse, 58<br />

Differenzenverfahren, 75, 87, 100<br />

DIRK-Einschrittverfahren, 391<br />

diskrete Evolution<br />

Konsistenz, 125<br />

Konsistenzfehler, 125<br />

Konsistenzordnung, 127<br />

reversibel, 140<br />

diskretes dynamisches System, 347<br />

Diskretisierungsfehler, 121<br />

Diskretisierungsparameter, 252<br />

dissipatives Vektorfeld, 356<br />

Divergenz<br />

eines Vektorfeldes, 447<br />

Doppelpendel, 70<br />

Drehimpuls, 41<br />

Dreitermrekursion, 565<br />

dynamisches System<br />

diskret, 347<br />

Eingebettete Runge-Kutta-Verfahren, 310<br />

eingebettete Runge-Kutta-Verfahren, 311<br />

Einschrittfehler, 139<br />

Einschrittverfahre<br />

implizit, 121<br />

Einschrittverfahren, 105, 119<br />

diagonal-implizit, 391<br />

explizit, 121<br />

Konvergenz, 130<br />

Notation, 120<br />

reversibel, 274<br />

Schrittweitensteuerung, 287<br />

symplektisch, 483<br />

Numerische<br />

Mathemtik<br />

R. Hiptmair<br />

rev 35327,<br />

22. Januar<br />

2008<br />

4.5<br />

p. 572


elementare Differentiale, 243<br />

Energie<br />

für oszillatorische Differentialgleichung, 557<br />

Energiedrift, 104, 113, 468, 555, 569<br />

Energieerhaltung, 39, 467<br />

Pendel, 38<br />

Energiemannigflatigkeit, 505<br />

Erstes Integral<br />

Bedingung, 29<br />

erstes Integral, 29, 434<br />

linear, 435<br />

polynomial, 435<br />

quadratisch, 102, 435<br />

erweiterter Zustandsraum<br />

einer ODE, 12<br />

erzeugende Funktion, 199<br />

ESV<br />

Radau, Ordnung 3, 371<br />

Radau, Ordnung 5, 371<br />

Euler<br />

Implizit, 371<br />

Euler-Verfahren, 267<br />

explizites, Stabilitätsfunktion, 330<br />

implizit, 85<br />

semi-implizit, 387<br />

Euler-Verfahrens<br />

Konvergenz, 75<br />

Eulersches Polygonzugverfahren, 73<br />

Eulerverfahren<br />

explizit, 73, 161<br />

implizit, 161<br />

implizites, Stabilitätsfunktion, 330<br />

Evolution<br />

R-reversibel, 462<br />

diskrete, 146<br />

Evolutionsoperator, 49<br />

explizite Mittelpunktsregel, 245<br />

explizite Trapezregel, 245<br />

explizites Einschrittverfahren, 121<br />

explizites Eulerverfahren, 73, 161<br />

exponentiell klein, 522<br />

exponentielle Konvergenz, 79, 187<br />

exponentielle Runge-Kutta-Verfahren, 401<br />

Extrapolation, 252<br />

Extrapolations-Einschrittverfahren, 266<br />

Extrapolationstableau, 254<br />

Extrapolationsverfahren<br />

global, 264<br />

lokal, 265<br />

Faltung, 55<br />

Federpendel, 494<br />

Fehlerfortpflanzung, 139<br />

Fehlerfunktion, 138<br />

Fixpunkt<br />

asymptotisch stabil, 340<br />

asymptotische Stabilität, 345<br />

attraktiv, 24, 84, 322, 340<br />

einer ODE, 339<br />

repulsiv, 24<br />

Gauss-Kollokations-Einschrittverfahren, 162, 185, 245, 356,<br />

374, 486<br />

Numerische<br />

Mathemtik<br />

R. Hiptmair<br />

rev 35327,<br />

22. Januar<br />

2008<br />

4.5<br />

p. 573


Gauss-Radau-Quadratur, 369<br />

Gaussquadratur, 161<br />

Gautschi-Verfahren, 558<br />

Filterung, 567<br />

modizifiertes, 567<br />

Gautschis Zweischrittverfahren, 558<br />

gewöhnliche Differentialgleichung, 12<br />

autonome, 18<br />

erster Ordnung, 12<br />

Gewichte<br />

einer Quadraturformel, 160<br />

Gitterfunktion, 121<br />

Glattheit<br />

hinreichende, 130<br />

globale Lösung<br />

eines AWP, 48<br />

globale Lipschitzbedingung, 61<br />

Gradientenfluss, 353<br />

Grenzzyklus, 381<br />

Gronwalls Lemma, 62<br />

Hamilton-Funktion, 39, 466<br />

Molekulardnamik, 497<br />

separiert, 484<br />

Hamiltonsche Bewegungsgleichugen<br />

mit Nebenbedingunge, 422<br />

Hamiltonsche Differentialgleichung, 39, 466<br />

Herzschlagmodell, 32<br />

hinreichende Glattheit, 130<br />

holomorph, 192, 195<br />

holomorphe Funktion, 524<br />

homogene lineare Differentialgleichung, 54<br />

implizite Mittelpunktsregel, 99, 128, 161, 484<br />

implizites Einschrittverfahren, 121<br />

implizites Euler-Verfahren, 85<br />

implizites, Euler-Verfahren, 245<br />

Impuls, 41<br />

Index<br />

einer DAE, 408, 421<br />

inkompressible Strömung, 446<br />

Inkremente<br />

Kollokation, 147<br />

Runge-Kutta, 224<br />

Inkrementfunktion, 125<br />

Inkrementgleichungen, 147<br />

linearisiert, 388<br />

Instabilität<br />

Gautschi-Verfahren, 563<br />

Integrabilitätslemma, 481<br />

intervallweise Kondition, 60<br />

Invariante, 29<br />

invariante Mannigfaltigkeit, 382<br />

Jordan-Block, 342<br />

Jordan-Normalform, 342<br />

Joukowski-Transformation, 201<br />

Keplerproblem, 40<br />

Keplersches Gesetz<br />

erstes, 42<br />

zweites, 42<br />

kinetische Energie, 38<br />

klassisches Runge-Kutta-Verfahren, 245<br />

Knoten<br />

Numerische<br />

Mathemtik<br />

R. Hiptmair<br />

rev 35327,<br />

22. Januar<br />

2008<br />

4.5<br />

p. 574


einer Quadraturformel, 160<br />

Knotenanalyse<br />

von Schaltkreisen, 380, 402<br />

Kollaps, 44, 51, 309<br />

Kollokation<br />

Inkremente, 147<br />

Kollokations<br />

RK-ESV, 369<br />

Kollokationsbedingung, 144<br />

Kollokationspunkt, 144<br />

Kollokationsverfahren, 144<br />

Inkrementfunktion, 147<br />

Konsistenz, 180<br />

Kompaktheitsargument, 135<br />

Kondition, 57<br />

analyse<br />

differentielle, 63<br />

asymptotisch, 58<br />

intervallweise, 60<br />

punktweise, 60<br />

Kongruenztransformation, 473<br />

Konsistenz, 125<br />

Runge-Kutta-Verfahren, 239<br />

Konsistenzfehler, 125, 131, 138<br />

Konsistenzordnung, 127<br />

Splittingverfahren, 280<br />

Kontraktion, 150<br />

Konvergenz, 122<br />

algebraisch, 78<br />

exponentiell, 187<br />

Kollokationsverfahren, 185<br />

von Einschrittverfahren, 130<br />

Konvergenzordnung, 122<br />

Konvergenzradius, 205<br />

kovariante Transformation, 53<br />

Kovergenz<br />

global, 122<br />

Kraftfeld<br />

konservativ, 40<br />

Kreuzprodukt (Vektorprodukt), 436<br />

Kuttas 3/8-Regel, 245<br />

L-Stabilität, 367<br />

Lösung<br />

eines Anfangswertproblems, 21<br />

Lagrange-Multiplikator, 420, 422<br />

Lagrange-Polynom, 145<br />

Laurent-Entwicklung, 193<br />

Legendre-Polynom, 197<br />

Legendre-Polynome, 162<br />

Rekursionsformel, 197<br />

Lenard-Jones-Potential, 497<br />

Lie-Trotter-Splitting, 279<br />

linear-implizites Runge-Kutta-Verfahren, 393<br />

lineare Differentialgleichung, 52, 53<br />

linearer Operator<br />

stetig, 164<br />

linearisierte Störungstheorie, 58<br />

Linearisierung<br />

um Fixpunkt, 322<br />

Liouville<br />

Satz von, 447<br />

Lipschitz-Stetigkeit<br />

Numerische<br />

Mathemtik<br />

R. Hiptmair<br />

rev 35327,<br />

22. Januar<br />

2008<br />

4.5<br />

p. 575


lokale, 46<br />

Logistische Differentialgleichung, 186, 209, 250, 279<br />

logistische Differentialgleichung, 23, 268<br />

Lotka-Volterra Differentialgleichung, 26<br />

Makroschritt<br />

bei Extrapolationsverfahren, 265<br />

MAPLE, 128<br />

mathematisches Pendel, 37<br />

symplektische Integration, 467<br />

Matrix<br />

Propagations-, 64<br />

Wronski, 64<br />

Matrixexponentialfunktion, 54, 397<br />

Matrixfunktionen, 337<br />

maximale Fortsetzbarkeit, 44<br />

maximales Existenzintervall, 45<br />

Mikroschritt<br />

bei Extrapolationsverfahren, 266<br />

Minimalkoordinaten, 420<br />

Mittelpunktsregel, 223<br />

explizit, 223, 227<br />

implizit, 99, 161<br />

implizit, Stabilitätsfunktion, 330<br />

Modellprobelanalyse<br />

implizites Euler-Verfahren, 88<br />

Modellproblem<br />

für gestörte oszillatorische Differentialgleichungen, 565<br />

Modellproblemanalyse, 322<br />

explizites Eulerverfahren, 84<br />

modifizierte Differentialgleichung, 508<br />

für lineare AWP, 509<br />

modifizierte Gleichung<br />

abgeschnittene, 519<br />

der Ordnung q, 510<br />

Molekulardnamik, 497<br />

Molekulardynamik, 501<br />

mplizite Trapezregel, 245<br />

multivariates Polynom, 435<br />

Newton-Verfahren<br />

vereinfacht, 392<br />

Newtonsche Bewegungsgleichungen, 37<br />

nichtdegenerierte Bilinearform, 473<br />

Nichtexpansivität, 353<br />

nichtlineare Stabilität, 140<br />

Normalform<br />

bei schiefsymmetrischen Matrizen, 473<br />

numerische Quadratur, 160<br />

numerischer Integrator, 116<br />

ODE, 12<br />

skalar, 15<br />

Operatornorm, 164<br />

ordinary differential equation (ODE), 12<br />

Ordnung<br />

einer Quadraturformel, 181<br />

Ordnungsschranken<br />

für Runge-Kutta-Verfahen, 245<br />

Ordnungssteuerung<br />

bei Extrapolationsverfahren, 271<br />

Oregonator, 31<br />

oszillatorische Differentialgleichungen, 556<br />

parasitäre Kapazität, 409<br />

Numerische<br />

Mathemtik<br />

R. Hiptmair<br />

rev 35327,<br />

22. Januar<br />

2008<br />

4.5<br />

p. 576


partikuläre Lösung, 54<br />

partitionierte Runge-Kutta-Einschrittverfahren, 489<br />

Peano<br />

Satz von, 47<br />

Pendel, 37, 419<br />

Pendelgleichung, 469<br />

Phasenraum<br />

einer ODE, 12<br />

Picard-Lindelöf<br />

Satz von, 47<br />

Pol<br />

einer Funktion, 193<br />

Polygonzugverfahen, 72<br />

Polynom<br />

multivariat, 435<br />

polynomiale Invariante, 435<br />

Polynominterpolation<br />

Fehlerabschätzung, 174<br />

potentielle Energie, 38<br />

Problem<br />

in der Numerik, 57<br />

Projektions-Einschrittverfahren, 165<br />

Projektionsoperator, 164<br />

Propagationsmatrix, 64<br />

Punkt<br />

stationär, 28<br />

punktweise Kondition, 60<br />

Push-Forward, 472<br />

Quadraturformel, 160<br />

Mittelpunktsregel, 223<br />

Ordnung, 181<br />

Trapezregel, 223<br />

Räuber-Beute-Modell, 26<br />

Rückwärtsanalyse, 551<br />

von Integrationsverfahren, 507<br />

Radau-ESV, Ordnung 3, 371<br />

Radau-ESV, Ordnung 5, 371<br />

Radau-Verfahren, 417<br />

Rationale Approximation<br />

der Exponentialfunktion, 329<br />

Reaktionskinetik, 29<br />

rechte Seite<br />

einer ODE, 12<br />

Regel<br />

Kuttas 3/8, 230<br />

Mittelpunkt, explizit, 223<br />

Trapez, explizit, 223, 228<br />

relative Toleranz, 295<br />

repulsiver Fixpunkt, 24<br />

Residuensatz, 192<br />

Residuum<br />

einer komplexwertigen Funktion, 193<br />

Reversibilität, 140, 274, 460<br />

reversible Einschrittverfahren<br />

Konsistenzordnung, 142<br />

Riccati-Differentialgleichung, 14, 74<br />

Richtungsfeld, 14<br />

RK4, 229<br />

Stabilitätsfunktion, 331<br />

Rodrigues-Formel, 197<br />

Romberg-Quadratur, 252<br />

ROW-Methoden, 393<br />

Numerische<br />

Mathemtik<br />

R. Hiptmair<br />

rev 35327,<br />

22. Januar<br />

2008<br />

4.5<br />

p. 577


Runge-Kutta<br />

3/8-Regel, 230<br />

Affin-Kovarianz, 230<br />

Autonomisierung, 232<br />

eingebettet, 311<br />

Einschritt-Verfahren, 224<br />

Inkremente, 224<br />

klassisch, 229<br />

Runge-Kutta-Einschrittverfahren<br />

R-reversibel, 464<br />

steif-genaue, 367<br />

symmetrisch, 457<br />

Runge-Kutta-Verfahen<br />

Autonomisierungsinvarianz, 232<br />

Ordnungsschranken, 245<br />

Runge-Kutta-Verfahren, 222, 224<br />

eingebettet, 310<br />

exponentiell, 401<br />

Konsistenz, 239<br />

Konstruktion, 223<br />

Konvergenzordnung, 245<br />

linear-implizit, 393<br />

Stabilitätsfunktion, 327<br />

Satz<br />

Peano & Picard-Lindelöf, 47<br />

Satz über implizite Funktionen, 149<br />

Satz von Liouville, 447<br />

Schaltkreis<br />

Knotenanalyse, 380, 402<br />

Schrittweitenbeschränkung, 153, 349<br />

für explizite RK-ESV, 334<br />

Schrittweitenkorrektur, 300<br />

Schrittweitensteuerung, 377<br />

für ESV, 287<br />

Schrittweitenvorschlag, 300<br />

Schur-Zerlegung, 336<br />

semi-implizites Euler-Verfahren, 387<br />

Sensitivitä, 57<br />

Separation der Variablen, 24<br />

sinc-Funktion, 566<br />

Singuläre Störungstechnik, 409<br />

Skalare Differentialgleichungen , 50<br />

Skalare ODE, 15<br />

Spektralradius<br />

einer Matrix, 347<br />

Spektrum<br />

einer Matrix, 342<br />

Splitting<br />

Lie-Trotter, 279<br />

Strang, 279<br />

Splittingverfahren, 278, 487<br />

inexakt, 285<br />

inexakte, 285<br />

ssymmetrische Runge-Kutta-Einschrittverfahren, 457<br />

Störmer-Verlet-Verfahren, 104, 484<br />

Molekulardnamik, 498<br />

Stabilit<br />

nichtlineare, 140<br />

Stabilität, 139<br />

-sfunktion, 371<br />

-sgebiet, 350<br />

B-, 362<br />

Numerische<br />

Mathemtik<br />

R. Hiptmair<br />

rev 35327,<br />

22. Januar<br />

2008<br />

4.5<br />

p. 578


L-, 367<br />

Stabilitätsfunktion, 330<br />

Interpretation, 327<br />

von Runge-Kutta-Verfahren, 327<br />

Stabilitätsgebiet, 326<br />

Startschritt, 106, 559<br />

steif-genau, 367, 413<br />

Steifheit, 375<br />

sternförmig, 481<br />

stetiger linearer Operator, 164<br />

Strang-Splitting, 279<br />

Stromlinien, 449<br />

strukturerhaltende Integratoren, 508<br />

Stufen<br />

eines RK-ESV, 225<br />

symplektische Abbildung, 478<br />

symplektische Evolution, 472<br />

symplektischer Fluss, 474<br />

symplektischer Integrator, 485<br />

symplektisches Einschrittverfahren, 483<br />

symplektisches Euler-Verfahren, 484, 487<br />

symplektisches Produkt, 472<br />

Taylorentwicklung, 240<br />

Toleranz<br />

absolute, 295<br />

bei Schrittweitensteuerung, 292<br />

realtiv, 295<br />

Relativ, 295<br />

Trajektorie, 26<br />

Transformation<br />

kovariant, 53<br />

Trapezregel, 223<br />

explizit, 223, 228<br />

explizit, Stabilitätsfunktion, 330<br />

Varationsgleichung, 65<br />

Variation der Konstanten, 54, 396, 556<br />

Variationsgleichung, 450<br />

Vektorfeld, 18<br />

Vektorprodukt, 42<br />

Verfahren<br />

ESV, Runge-Kutta, 224<br />

Euler, implizit, 161<br />

Runge-Kutta, 222, 224<br />

Runge-Kutta, klassisch, 229<br />

Runge-Kutta, Konstruktion, 223<br />

versteckte Nebenbedingungen, 421<br />

bei DAEs, 423<br />

volumenerhaltende Abbildung, 447<br />

Volumenerhaltung, 447<br />

bei Hamiltonschen ODEs, 469<br />

wohlgestellt, 61<br />

Problem, 57<br />

Wronski-Matrix, 64<br />

Zeeman-Modell, 32<br />

Zeitgitter, 119<br />

Zeitschrittweite, 119<br />

Zeitskalierungsinvarianz, 325<br />

Zeitumkehrsymmetrie (bei mechanischen Systemen), 461<br />

Zustandsraum<br />

einer ODE, 12<br />

Molekulardnamik, 497<br />

Numerische<br />

Mathemtik<br />

R. Hiptmair<br />

rev 35327,<br />

22. Januar<br />

2008<br />

4.5<br />

p. 579


Zwangskraft, 420<br />

Zweischrittverfahren, 105<br />

Gautschis, 558<br />

Numerische<br />

Mathemtik<br />

R. Hiptmair<br />

rev 35327,<br />

22. Januar<br />

2008<br />

4.5<br />

p. 580


Numerische<br />

Mathemtik<br />

<strong>Beispiel</strong>e und Bemerkungen<br />

[Lösung der Schaltkreis-DAEs mit MATLAB, 418<br />

[Steife Probleme in der chemischen Reaktionskinetik, 377<br />

‘Gronwall-Schranke” für Kondition, 63<br />

“Butcher barriers” für explizite RK-ESV, 246<br />

“Versagen” adaptive Zeitschrittsteuerung, 306<br />

A-Stabilität ⇏ Diskrete Nichtexpansivität, 361<br />

Adaptive explizite RK-ESV für steifes Problem, 376<br />

Adaptive RK-ESV zur Teilchenbahnberechnung, 314<br />

Adaptives semi-implizites RK-ESV für steifes Problem, 384<br />

Affin-Kovarianz der Runge-Kutta-Verfahren, 230<br />

Allgemeine Variation-der-Konstanten-Formel, 55<br />

Analytizitätsgebiet für logistischen Dgl., 209<br />

Analytizitätsvoraussetzung für Hamiltonsche Differentialgleichungen,<br />

525<br />

Anfangswerte für Dgl. höherer Ordnung, 22<br />

Attraktive und repulsive Fixpunkte einer skalaren ODE,<br />

341<br />

Attraktiver Grenzzyklus, 381<br />

Autonome skalare Differentialgleichungen, 50<br />

Autonomisierung, 18<br />

Autonomisierungsinvarianz von Runge-Kutta-Verfahren, 232<br />

AWP-Löser in MATLAB, 25<br />

B-Stabilität, 362<br />

Bedeutung der modifizierten Gleichungen niedriger Ordnung,<br />

517<br />

Bedeutung linearer AWPe, 56<br />

Bedingungsgleichungen für Linear-implizite Runge-Kutta-<br />

Verfahren 2. Ordnung, 393<br />

Berechnung der Modifikatoren ∆f j durch Computeralgebra,<br />

515<br />

Bimolekulare Reaktion, 29<br />

Butcher-Bäume, 244<br />

DAE: Transformation auf separierte Form, 407<br />

Definitionsintervalle von Lösungen von AWPe, 48<br />

Dense output, 234<br />

DIFEX, 278<br />

Doppelpendel, 70<br />

Effizienzgewinn durch Adaptivität, 298<br />

Einfache A-stabile RK-ESV, 350<br />

R. Hiptmair<br />

rev 35327,<br />

22. Januar<br />

2008<br />

4.5<br />

p. 581


Einfache reversible Einschrittverfahren, 141<br />

Einfache symplektische Integratoren, 484<br />

Eingebettete RK-ESV, 310<br />

Eingebettete Runge-Kutta-Verfahren, 311<br />

Einschrittformulierung des Störmer-Verlet-Verfahrens, 113<br />

Energieerhaltung bei numerischer Integration, 467<br />

Energieerhaltung bei semi-impliziter Mittelpunktsregel, 394<br />

Euler-Extrapolationsverfahren mit Ordnungssteuerung, 272<br />

Euler-Verfahren für Pendelgleichung, 89<br />

Eulerverfahren für längenerhaltende Evolution, 98<br />

Explizite Runge-Kutta-Schritte für Ricatti-Differentialgleichung,<br />

226<br />

Explizites Euler-Verfahren für logistische Dgl, 82<br />

Explizites Eulerverfahren als Differenzenverfahren, 75<br />

Exponentielles Euler-Verfahren, 398<br />

Exponentielles Euler-Verfahren für steifes AWP, 399<br />

Extrapolationsverfahren als Runge-Kutta-Verfahren, 270<br />

Extrapolierte implizite Mittelpunktsregel, 274<br />

Extrapoliertes Euler-Verfahren, 267<br />

Federpendel, 494<br />

Fehler bei Polynominterpolation in Gauss-Knoten, 208<br />

Fixpunktform von Projektions-Einschrittverfahren, 166<br />

Funktionenkalkül für Matrizen, 337<br />

Gauss-Kollokations-ESV bei stark attraktiven Fixpunkten,<br />

363<br />

Gauss-Kollokationsverfahren, 360<br />

Gautschis Zweischrittverfahren, 559<br />

Glattheitsannahmen an rechte Seite, 118<br />

Globaleh 2 -Extrapolation für implizite Mittelpunktsregel, 276<br />

Gradientenfluss, 353<br />

Hamiltonsche Bewegungsgleichugen mit Nebenbedingungen,<br />

422<br />

Implementierung steif-genauer RK-ESV für DAE, 430<br />

Implizite Mittelpunktregel für Kreisbewegung, 101<br />

Implizite Mittelpunktsregel als Differenzenverfahren, 100<br />

Implizite Mittelpunktsregel für logistische Dgl., 101<br />

Implizite Mittelpunktsregel für Pendelgleichung, 103<br />

Implizite RK-ESV bei schnellen Transienten, 365<br />

Implizite RK-ESV mit linearisierten Inkrementgleichungen,<br />

389<br />

Implizites Euler-Verfahren für Pendelgleichung in Deskriptorform,<br />

426<br />

Implizites Eulerverfahren als Differenzenverfahren, 87<br />

Implizites Eulerverfahren für logistische Differentialgleichung,<br />

87<br />

Ineffizienz expliziter Runge-Kutta-Verfahren, 320<br />

Inexakte Splittingverfahren, 285<br />

Interpolationsfehler bei Polynominterpolation in Gauss-Knoten,<br />

188<br />

Interpretation der Stabilitätsfunktion, 327<br />

Invertierbarkeit der Koeffizientenmatrix von RK-ESV, 368<br />

Knotenanalyse eines Schaltkreises, 402<br />

Kollokationsverfahren als Projektionsverfahren, 163<br />

Kollokationsverfahren und numerische Quadratur, 160<br />

Kondition skalarer linearer Anfangswertprobleme, 60<br />

Konsistenzordnung einfacher Einschrittverfahren, 128<br />

Konstante 2-Formen, 473<br />

Konstruktion einfacher Runge-Kutta-Verfahren, 223<br />

Konvergenz des expliziten Euler-Verfahrens, 75<br />

Konvergenz einfacher Splittingverfahren, 279<br />

Numerische<br />

Mathemtik<br />

R. Hiptmair<br />

rev 35327,<br />

22. Januar<br />

2008<br />

4.5<br />

p. 582


Konvergenz expliziter Runge-Kutta-Verfahen, 237<br />

Konvergenz kombinierter Verfahren, 250<br />

Konvergenz von einfachen Kollokations-Einschrittverfahren,<br />

157<br />

Konvergenz von Gauss-Kollokations-Einschrittverfahren, 177<br />

Konvergenz von Kollokationsverfahren, 185<br />

Lösbarkeit der Inkrementgleichungen für Gauss-Kollokations-<br />

ESV, 359<br />

Lösung der Inkrementgleichungen, 234<br />

Lösungsfunktion aus Extrapolationsverfahren, 162<br />

Langzeit-Energieerhaltung bei symplektischer Integration,<br />

493<br />

Linearisierung der Inkrementgleichungen, 386<br />

Lorenz system, 66<br />

Magnetnadel<br />

Präzession , 436<br />

Massenpunkt im Zentralfeld, 40<br />

Mathematisches Pendel, 37<br />

MATLAB-Integratoren für Index-1-DAEs, 417<br />

MATLAB-Integratoren für Pendelgleichung in Deskriptorform,<br />

424<br />

Modifikatoren für einfache ESV, 515<br />

Modifizierte Gleichung der Ordnung 2 zu explizitem Euler-<br />

Verfahren, 511<br />

Modifizierte Gleichung für RK-ESV und lineare AWPe, 509<br />

Modifizierte Gleichung für symplektisches Euler-Verfahren,<br />

545<br />

Modifiziertes Gautschi-Verfahren, 567<br />

Molekulardnamik, 497<br />

Notation fuer Einschrittverfahren, 120<br />

Numerische Integration bei Blow-up, 287<br />

Numerische Integratoren als approximative Evolutionsoperatoren,<br />

50<br />

Numerische Quadratur, 160<br />

Oregonator-Reaktion, 31<br />

Partitionierte Runge-Kutta-Einschrittverfahren, 489<br />

Pendelgleichung in Deskriptorform, 419<br />

Philosophische Grundlage der Rückwärtsanalyse, 507<br />

Präzession<br />

Magnetnadel, 436<br />

Projektion auf Energiemannigfaltigkeit, 504<br />

Qualität der Fehlerschätzung, 293<br />

Räuber-Beute-Modelle, 26<br />

Radau-ESV bei stark attraktiven Fixpunkten, 372<br />

Reskalierung des Modellproblems, 324<br />

Resourcenbegrenztes Wachstum, 23<br />

Reversibilität bei mechanischen Systemen, 460, 463<br />

Richtungsfeld und Lösungskurven, 14<br />

RK-Bedingungsgleichungen für Konsistenzordnung p =<br />

3, 239<br />

RK-ESV für autonome homogene lineare ODE, 334<br />

RK-ESV und Elimination der DAE-Nebenbedingungen, 414<br />

Romberg-Quadratur, 253<br />

Schaltkreis<br />

steife -gleichunge Zeitbereich, 379<br />

Schrittweitenbedingungen für ‘Langzeitintegration”, 544<br />

Schrittweitenbeschränkung aus Lemma 2.2.7, 153<br />

Schrittweitensteuerung für Bewegungsgleichungen, 317<br />

Numerische<br />

Mathemtik<br />

R. Hiptmair<br />

rev 35327,<br />

22. Januar<br />

2008<br />

4.5<br />

p. 583


Schrittweitensteuerung für explizite Trapezregel/Euler-Verfahren, Verfahren<br />

303<br />

Schrittweitensteuerung und Blow-up, 310<br />

Schrittweitensteuerung und Instabilität, 308<br />

Schrittweitensteuerung und Kollaps, 309<br />

Singulär gestörte Schaltkreisgleichungen, 409<br />

Skalierungsinvarianz der Extrapolation, 254<br />

Splittingverfahren für mechanische Systeme, 283<br />

Störmel-Verlet-Verfahren für Pendelgleichung, 107<br />

Störmer-Verlet-Verfahren als Differenzenverfahren, 106<br />

Störmer-Verlet-Verfahren als Polygonzugmethode, 114<br />

Stabilitätsfunktionen einiger RK-ESV, 330<br />

Stabilitätsgebiet des exponentiellen Euler-Verfahren, 398<br />

Standardintegratoren für oszillatorische Differentialgleichung,<br />

557<br />

Steife Schaltkreisgleichungen im Zeitbereich, 379<br />

Steuerung von ˜Ψ durch Ψ, 301<br />

Strömungsvisualisierung, 449<br />

Strang-Splitting erzeugt reversible ESV, 283<br />

Stufenform der Inkrementgleichungen, 225<br />

Symplektische Integratoren und variable Schrittweite, 554<br />

Symplektisches Euler-Verfahr, 487<br />

Symplektisches Euler-Verfahren für Pendelgleichung, 491<br />

Symplektisches Flussintegral, 474<br />

Symplektizität der Pendelgleichung, 469<br />

ESV adaptiv, explizit, steifes Problem, 376<br />

Verhalten von Stabilitätsfunktionen, 331<br />

Vielteilchen-Molekulardynamik, 501<br />

Volumenerhaltende Integratoren für d = 2, 451<br />

Volumenerhaltendes Splittingverfahren 2. Ordnung, 455<br />

Volumenerhaltung bei zweidimensionalen Hamiltonschen<br />

ODEs, 469<br />

Warum Einschrittverfahren hoher Ordnung?, 246<br />

Zeemans Herzschlagmodell, 32<br />

Zeitlich ungleichmässiges Verhalten von Lösungen, 289<br />

Numerische<br />

Mathemtik<br />

R. Hiptmair<br />

rev 35327,<br />

22. Januar<br />

2008<br />

Translationsinvarianz von Lösungen autonomer Dgl., 18<br />

Umformulierung der Inkrementgleichungen, 147<br />

Vektorräume von Vektorfeldern und Eigenschaften von Evolutionen,<br />

479<br />

4.5<br />

p. 584


Numerische<br />

Mathemtik<br />

Definitionen<br />

R-reversible Abbildung, 462<br />

(Abgeschnittene) asymptotische Entwicklung, 256<br />

A-Stabilität, 350<br />

algebraische Stabilität, 362<br />

Alternierende, nichtdegenerierte Bilinearform, 473<br />

Arten der Konvergenz, 79<br />

Asymptotische Stabilität eines Fixpunkts, 340<br />

DAE vom Index 1, 408<br />

Diskretisierungsfehler, 121<br />

Dissipatives Vektorfeld, 356<br />

Einschrittverfahren, 119<br />

Erstes Integral, 29<br />

Evolutionsoperator, 49<br />

explizite und implizite Einschrittverfahren, 121<br />

Exponentielle Runge-Kutta-Verfahren, 401<br />

Fixpunkt, 339<br />

Hamiltonsche Differentialgleichung, 39<br />

Konsistenz einer diskreten Evolution, 125<br />

Konsistenzfehler einer diskreten Evolution, 125<br />

Konsistenzordnung einer diskreten Evolution, 127<br />

Konvergenz und Konvergenzordnung, 122<br />

L-Stabilität, 367<br />

Lösung einer gewöhnlichen Differentialgleichung, 14<br />

Lösung eines Anfangswertproblems, 21<br />

Lokale Lipschitz-Stetigkei, 46<br />

Maximale Fortsetzbarkeit einer Lösung, 44<br />

Modifizierte Gleichung der Ordnung q, 510<br />

Nichtexpansivität, 353<br />

Nichtlineare Stabilität, 140<br />

Polynomiale Invarianten, 435<br />

Projektionsoperator, 164<br />

Residuum einer komplexwertigen Funktion, 193<br />

Reversible diskrete Evolutionen, 141<br />

Runge-Kutta-Verfahren, 224<br />

Stabilitätsgebiet eines Einschrittverfahrens, 326<br />

Sternförmiges Gebiet, 480<br />

R. Hiptmair<br />

rev 35327,<br />

22. Januar<br />

2008<br />

4.5<br />

p. 585


Stetiger linearer Operator, 164<br />

Symplektische Abbildung, 478<br />

symplektisches Einschrittverfahren, 483<br />

Symplektisches Produkt, 472<br />

Numerische<br />

Mathemtik<br />

Volumenerhaltung, 446<br />

R. Hiptmair<br />

rev 35327,<br />

22. Januar<br />

2008<br />

4.5<br />

p. 586


Numerische<br />

Mathemtik<br />

MATLAB-Codes<br />

odeset, 314<br />

ode45, 376<br />

odeset, 376<br />

ode15s, 384<br />

ode23s, 384<br />

ode23, 313<br />

ode45, 280, 313<br />

odeset, 280, 313, 384<br />

Adaptives RK-ESV für steifes Problem, 376<br />

Aitken-Neville-Extrapolation, 255<br />

ode15s, 418<br />

ode23s, 437<br />

ode23t, 418<br />

ode45, 437<br />

R. Hiptmair<br />

rev 35327,<br />

22. Januar<br />

2008<br />

4.5<br />

p. 587


Numerische<br />

Mathemtik<br />

Notationen<br />

C l (J,D) ˆ= l-mal stetig differenzierbare Funktionen J ↦→<br />

D, 14<br />

D y f ˆ= Ableitung von f nach y (Jacobi-Matrix), 46<br />

J(t 0 ,y 0 ) :=]t − ,t + [ ˆ= maximales Existenzintervall, 45<br />

O(g(h)) ˆ= “Landau-O”, 78<br />

P n ˆ= Legendre-Polynom vom Gradn ∈ N 0 , 197<br />

[x] ˆ= ganzzahliger Anteil vonx > 0, 538<br />

divf ˆ= Divergenz eines Vektorfeldes, 447<br />

‖y‖ M<br />

:= (y T My) 1 /2<br />

induzierte Vektornorm, 353<br />

P s ˆ= Raum der univariaten Polynome vom Grad≤ s, 145<br />

Ψ s,t y ˆ= Diskrete Evolution, 119<br />

J ˆ= Matrix zum symplektischen Produkt, 472<br />

a×b ˆ= Vektorprodukt, 436<br />

y,z,... Fettdruck für Spaltenvektoren, 13<br />

C − := {z ∈ C: Rez < 0}, 342<br />

1 = (1,...,1) T , 327<br />

(n) ˆ=n. Ableitung nach der Zeitt, 19<br />

∇ 2 f ˆ= Hesse-Matrix, 478<br />

adj(X) adjungierte Matrix, 443<br />

⊗ ˆ= Kronecker-Produkt von Matrizen, 389<br />

ρ(A): Spektralradius einer Matrix, 347<br />

f ˆ= rechte Seite einer ODE, 12<br />

σ(A): Spektrum einer Matrix, 342<br />

˙ ˆ= Ableitung nach der Zeitt, 13<br />

y α für Multiindex α, 435<br />

Im(M) := {Mx:x ∈ R d }, Bild der MatrixM, 405<br />

TOL Toleranz, 292<br />

Euklidische Vektornorm ‖·‖, 40<br />

Hamilton-Funktion H, 39<br />

Konsistenzfehler τ(t,y,h), 125<br />

Landau-o, 126<br />

Landau-Symbol O(h p ), 122<br />

Push-Forward Φ ∗ , 472<br />

symplektisches Produkt ω(v,w), 472<br />

Vektorprodukt ×, 42<br />

R. Hiptmair<br />

rev 35327,<br />

22. Januar<br />

2008<br />

4.5<br />

p. 588


Numerische<br />

Mathemtik<br />

Appendix<br />

MATLAB-Files zu <strong>Beispiel</strong>en<br />

R. Hiptmair<br />

rev 35327,<br />

28. Mai<br />

2009<br />

• <strong>Beispiel</strong> 1.2.5<br />

• <strong>Beispiel</strong> 1.2.12<br />

• <strong>Beispiel</strong> 1.2.15<br />

• <strong>Beispiel</strong> 1.3.36<br />

• <strong>Beispiel</strong> 1.4.4<br />

• <strong>Beispiel</strong> 1.4.9<br />

↔ File/Directoryex:LV<br />

↔ File/Directoryex:Oregonator<br />

↔ File/Directoryex:heartbeat<br />

↔ File/Directoryex:Lorenz<br />

↔ File/Directoryex:expleulcvg<br />

↔ File/Directoryex:eeullog<br />

4.5<br />

p. 589


• <strong>Beispiel</strong> 1.4.15<br />

• <strong>Beispiel</strong> 1.4.17<br />

• <strong>Beispiel</strong> 1.4.18<br />

• <strong>Beispiel</strong> 1.4.21<br />

↔ File/Directoryex:ieullog<br />

↔ File/Directoryex:pendeul<br />

↔ File/Directoryex:eulspin<br />

↔ File/Directoryex:logimid<br />

Numerische<br />

Mathemtik<br />

• <strong>Beispiel</strong> 1.4.22<br />

↔ File/Directoryex:imidspin<br />

>> eulspin([1;0],10,40,’midspin40’)<br />

>> eulspin([1;0],10,160,’mispin160’)<br />

• <strong>Beispiel</strong> 1.4.24<br />

↔ File/Directoryex:pendimid<br />

>> pendmidp([pi/4;0],5,50,’pendimid50’);<br />

>> pendmidp([pi/4;0],5,100,’pendimid100’);<br />

>> pendmidp([pi/4;0],5,200,’pendimid200’);<br />

• <strong>Beispiel</strong> 1.4.32<br />

↔ File/Directoryex:svpend<br />

R. Hiptmair<br />

rev 35327,<br />

28. Mai<br />

2009<br />

• <strong>Beispiel</strong> 2.2.57<br />

• <strong>Beispiel</strong> 2.2.49<br />

• <strong>Beispiel</strong> 2.4.2<br />

• <strong>Beispiel</strong> 2.3.22<br />

• <strong>Beispiel</strong> 2.4.17<br />

• <strong>Beispiel</strong> 2.4.19<br />

↔ File/Directoryex:cvgkoll<br />

↔ File/Directoryex:GaussCollcvg<br />

↔ File/Directoryex:kombesv<br />

↔ File/Directoryex:rkexplcvg<br />

↔ File/Directoryex:eulexpol<br />

↔ File/Directoryex:eulex<br />

4.5<br />

p. 590


• <strong>Beispiel</strong> 2.5.4<br />

• <strong>Beispiel</strong> 2.5.14<br />

• <strong>Beispiel</strong> 2.6.4<br />

• <strong>Beispiel</strong> 2.6.15<br />

• <strong>Beispiel</strong> 2.6.16<br />

• <strong>Beispiel</strong> 3.0.1<br />

• <strong>Beispiel</strong> 3.3.14<br />

• <strong>Beispiel</strong> 3.4.1<br />

• <strong>Beispiel</strong> 3.5.2<br />

• <strong>Beispiel</strong> 3.5.5<br />

• <strong>Beispiel</strong> 3.5.7<br />

↔ File/Directoryex:splitcvg<br />

↔ File/Directoryex:splitinex<br />

↔ File/Directoryex:qualest<br />

↔ File/Directoryex:adesv<br />

↔ File/Directoryex:adaptsat<br />

↔ File/Directoryex:logeximpl<br />

↔ File/Directoryex:GaussCollLog<br />

↔ File/Directoryex:iesvstiff<br />

↔ File/Directoryex:ode45stiff<br />

↔ File/Directoryex:odecircuit<br />

↔ File/Directoryex:odes<br />

Numerische<br />

Mathemtik<br />

R. Hiptmair<br />

rev 35327,<br />

28. Mai<br />

2009<br />

• <strong>Beispiel</strong> 3.6.1 ↔ File/Directoryex:silog<br />

logsieul(0.1,round(5*1.5.^(0:18)),’silog’);<br />

• <strong>Beispiel</strong> 3.6.3 ↔ File/Directoryex:siradlog<br />

siradlog(0.1,round(5*1.5.^(0:18)),’siradlog’)<br />

• <strong>Beispiel</strong> 3.6.12<br />

• <strong>Beispiel</strong> 3.7.5<br />

↔ File/Directoryex:pendimipEnSmp<br />

↔ File/Directoryex:eeul<br />

4.5<br />

p. 591


• <strong>Beispiel</strong> 3.7.6<br />

• <strong>Beispiel</strong> 3.8.15<br />

• <strong>Beispiel</strong> 3.8.28<br />

• <strong>Beispiel</strong> 3.8.29<br />

• <strong>Beispiel</strong> 4.1.3<br />

• <strong>Beispiel</strong> 4.4.1<br />

• <strong>Beispiel</strong> 4.4.33<br />

• <strong>Beispiel</strong> 4.4.37<br />

• <strong>Beispiel</strong> 4.4.35<br />

• <strong>Beispiel</strong> 4.4.39<br />

↔ File/Directoryex:eeulstiff<br />

↔ File/Directoryex:daecircml<br />

↔ File/Directoryex:daependmatlab<br />

↔ File/Directoryex:daependieul<br />

↔ File/Directoryex:magneedle<br />

↔ File/Directoryex:enpres<br />

↔ File/Directoryex:pendsympeul<br />

↔ File/Directoryex:md<br />

↔ File/Directoryex:springpend<br />

↔ File/Directoryex:moldyn<br />

Numerische<br />

Mathemtik<br />

R. Hiptmair<br />

rev 35327,<br />

28. Mai<br />

2009<br />

4.5<br />

p. 592


Numerische<br />

Mathemtik<br />

Literaturverzeichnis<br />

[1] H. AMANN, Gewöhnliche Differentialgleichungen, Walter de Gruyter, Berlin, 1st ed., 1983.<br />

[2] V. ARNOLD, Mathematical Methods of Classical Mechanics, Springer, New York, 2nd ed., 1989.<br />

[3] C. BLATTER, Analysis I, vorlesungsskriptum, <strong>ETH</strong> Zürich, Zürich, Switzerland, 2003.<br />

http://www.math.ethz.ch/~blatter/.<br />

R. Hiptmair<br />

rev 35327,<br />

28. Mai<br />

2009<br />

[4] M. CHAWLA AND M. JAIN, Error estimates for gauss quadrature formulas for analytic functions,<br />

Math. Comp., 22 (1968), pp. 82–90.<br />

[5] P. DAVIS, Interpolation and Approximation, Dover, New York, 1975.<br />

[6] M. DEAKIN, Applied catastrophe theory in the social and biological sciences, Bulletin of Mathematical<br />

Biology, 42 (1980), pp. 647–679.<br />

[7] P. DEUFLHARD, Numerik von anfangswertaufgaben für gewöhnliche differentialgleichungen,<br />

Tech. Rep. TR 89-2, ZIB Berlin, Berlin, Germany, 1989.<br />

4.5<br />

p. 593


[8] P. DEUFLHARD AND F. BORNEMANN, Numerische Mathematik II, DeGruyter, Berlin, 2 ed., 2002.<br />

[9] P. DEUFLHARD AND A. HOHMANN, Numerische Mathematik I, DeGruyter, Berlin, 3 ed., 2002.<br />

Numerische<br />

Mathemtik<br />

[10] G. FISCHER, Lineare Algebra, Vieweg–Verlag, Braunschweig, 9th ed., 1986.<br />

[11] C. GRAY, An analysis of the Belousov-Zhabotinski reaction, Rose-Hulman Undergraduate Math<br />

Journal, 3 (2002). http://www.rose-hulman.edu/mathjournal/archives/2002/vol3-n1/paper1/v3n1-<br />

1pd.pdf.<br />

[12] W. HACKBUSCH, Iterative Lösung großer linearer Gleichungssysteme, B.G. Teubner–Verlag,<br />

Stuttgart, 1991.<br />

[13] E. HAIRER AND C. LUBICH, Asymptotic expansions and backward analysis for numerical integrators,<br />

in Dynamics of algorithms, vol. 118 of IMA Vol. Math. Appl., Springer, New York, 2000,<br />

pp. 91–106.<br />

[14] E. HAIRER, C. LUBICH, AND G. WANNER, Geometric Numerical Integration, vol. 31 of Springer<br />

Series in Computational Mathematics, Springer, Berlin, Germany, 2002. Table of contents.<br />

R. Hiptmair<br />

rev 35327,<br />

28. Mai<br />

2009<br />

[15] , Geometric numerical integration illustrated by the Störmer-Verlet method, Acta Numerica, 12<br />

(2003), pp. 399–450.<br />

[16] , Geometric numerical integration, vol. 31 of Springer Series in Computational Mathematics,<br />

Springer, Heidelberg, 2 ed., 2006.<br />

[17] E. HAIRER, S. NORSETT, AND G. WANNER, Solving Ordinary Differential Equations I. Nonstiff<br />

Problems, Springer-Verlag, Berlin, Heidelberg, New York, 2 ed., 1993.<br />

4.5<br />

p. 594


[18] E. HAIRER AND G. WANNER, Solving Ordinary Differential Equations II. Stiff and Differential-<br />

Algebraic Problems, Springer-Verlag, Berlin, Heidelberg, New York, 1991.<br />

Numerische<br />

Mathemtik<br />

[19] M. HERRMANN, Numerik gewöhnlicher Differentialgleichungen, Oldenbourg, München, 2004.<br />

[20] N. HIGHAM, The scaling and squaring method for the matrix exponential revisited, SIAM J. Matrix<br />

Anal. Appl., 26 (2005), pp. 1179–1193.<br />

[21] M. HIRSCH, S. SMALE, AND R. DEVANEY, Differential Equations, Dynamical Systems, and an<br />

Introduction to Chaos, vol. 60 of Pure and Applied Mathematics, Elsevier Academic Press, Amsterdam,<br />

2 ed., 2004.<br />

[22] M. HOCHBRUCK AND C. LUBICH, On Krylov subspace approximations to the matrix exponential<br />

operator, SIAM J. Numer. Anal., 34 (1997), pp. 1911–1925.<br />

[23] , A Gautschi-type method for oscillatory second-order differential equations, Numer. Math., 83<br />

(1999), pp. 403–426.<br />

R. Hiptmair<br />

rev 35327,<br />

28. Mai<br />

2009<br />

[24] M. HOCHBRUCK, C. LUBICH, AND H.SELHOFER, Exponential integrators for large systems of<br />

differential equations, SIAM J. Sci. Comp., 19 (1998), pp. 1552–1574.<br />

[25] M. HOCHBRUCK AND A. OSTERMANN, Exponential integrators, Acta Numerica, 19 (2010),<br />

pp. 209–286.<br />

[26] B. LEIMKUHLER AND S. REICH, Simulating Hamiltonian Dynamics, vol. 14 of Cambridge Monographs<br />

on Applied and Computational Mathematics, Cambridge University Press, Cambridge,<br />

UK, 2004.<br />

4.5<br />

p. 595


[27] E. LORENZ, Deterministic non-periodic flow, J. Atmospheric Sciences, 20 (1963), pp. 130–141.<br />

[28] B. MINCHEV AND W. WRIGHT, A review of exponential integrators for first order semi-linear problems,<br />

Preprint 2/2005, NORGES TEKNISK-NATURVITENSKAPELIGE UNIVERSITET, Trondheim,<br />

Norway, 2005.<br />

Numerische<br />

Mathemtik<br />

[29] S. REICH, Backward error analysis for numerical integrators, SIAM J. Numer. Anal., 36 (1999),<br />

pp. 1549–1570.<br />

[30] R. REMMERT, Funktionentheorie I, no. 5 in Grundwissen Mathematik, Springer, Berlin, 1984.<br />

[31] L. SHAMPINE, M. REICHELT, AND J. KIERZENKA, The MATLAB ODE suite, SIAM J. Sci. Comp.,<br />

18 (1997), pp. 1–22.<br />

[32] W. WALTER, Gewöhnliche Differentialgleichungen. Eine Einführung, vol. 110 of Heidelberger Taschenbücher,<br />

Springer, Heidelberg, 3 ed., 1986.<br />

R. Hiptmair<br />

rev 35327,<br />

28. Mai<br />

2009<br />

4.5<br />

p. 596

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!