Beispiel - SAM - ETH Zürich
Beispiel - SAM - ETH Zürich
Beispiel - SAM - ETH Zürich
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
Vorlesung 401-2654-00L, Numerische Mathematik, FS 2008<br />
Numerische<br />
Mathemtik<br />
Numerische Mathematik<br />
(Numerik der ODEs)<br />
Prof. Ralf Hiptmair, Dr. Vasile Gradinaru<br />
Seminar for Applied Mathematics, <strong>ETH</strong> Zürich<br />
R. Hiptmair<br />
rev 35327,<br />
13. Mai<br />
2011<br />
Entwurf Februar 2011, Subversion rev 35327<br />
http://www.sam.math.ethz.ch/~hiptmair/tmp/NUMODE11.pdf<br />
0.0<br />
p. 1
Numerische<br />
Mathemtik<br />
Inhaltsverzeichnis<br />
0.1 Danksagung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10<br />
1 Einleitung 11<br />
1.1 Anfangswertprobleme (AWP) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12<br />
1.2 <strong>Beispiel</strong>e und Grundbegriffe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22<br />
1.2.1 Ökologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23<br />
R. Hiptmair<br />
rev 35327,<br />
13. Mai<br />
2011<br />
1.2.2 Chemische Reaktionskinetik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29<br />
1.2.3 Physiologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32<br />
1.2.4 Mechanik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37<br />
1.3 Theorie [8, Sect. 2], [1, Ch. II] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43<br />
1.3.1 Existenz und Eindeutigkeit von Lösungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44<br />
1.3.2 Lineare AWPe [3, Sekt. 8.2] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52<br />
1.3.3 Sensitivität [8, Sect. 3.1] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57<br />
0.0<br />
p. 2
1.3.3.1 Grundbegriffe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57<br />
1.3.3.2 Unser Problem: das Anfangswertproblem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59<br />
Numerische<br />
Mathemtik<br />
1.3.3.3 Wohlgestelltheit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61<br />
1.3.3.4 Asymptotische Kondition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63<br />
1.3.3.5 Schlecht konditionierte AWPe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66<br />
1.4 Polygonzugverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72<br />
1.4.1 Das explizite Eulerverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73<br />
1.4.2 Das implizite Euler-Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85<br />
1.4.3 Implizite Mittelpunktsregel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99<br />
1.4.4 Störmer-Verlet-Verfahren [15] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104<br />
2 Einschrittverfahren 117<br />
2.1 Grundlagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117<br />
2.1.1 Abstrakte Einschrittverfahren [8, Sect. 4.1] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118<br />
R. Hiptmair<br />
rev 35327,<br />
13. Mai<br />
2011<br />
2.1.2 Konsistenz [8, Sect. 4.1.1] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124<br />
2.1.3 Konvergenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130<br />
2.1.4 Das Äquivalenzprinzip (Dahlquist, Lax) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137<br />
2.1.5 Reversibilität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140<br />
2.2 Kollokationsverfahren[8, Sect. 6.3], [16, Sect. II.1.2] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144<br />
2.2.1 Konstruktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144<br />
2.2.2 Abstrakte Projektionsverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163<br />
2.2.3 Konvergenz von Kollokationsverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172<br />
0.0<br />
p. 3
2.2.3.1 Konsistenzordnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172<br />
2.2.3.2 Spektrale Konvergenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185<br />
2.3 Runge-Kutta-Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222<br />
2.3.1 Konstruktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222<br />
2.3.2 Konvergenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 237<br />
2.4 Extrapolationsverfahren [8, Sect. 4.3] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 249<br />
2.4.1 Der Kombinationstrick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 249<br />
2.4.2 Extrapolationsidee . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252<br />
2.4.3 Extrapolation von Einschrittverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 259<br />
2.4.4 Lokale Extrapolations-Einschrittverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 265<br />
2.4.5 Ordnungssteuerung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 271<br />
2.4.6 Extrapolation reversibler Einschrittverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 274<br />
2.5 Splittingverfahren [16, Sect. 2.5] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 278<br />
2.6 Schrittweitensteuerung [8, Kap. 5], [19, Sect. 2.8] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 287<br />
3 Stabilität [8, Kap. 6] 320<br />
3.1 Modellproblemanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 322<br />
3.2 Vererbung asymptotischer Stabilität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 339<br />
3.2.1 Attraktive Fixpunkte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 339<br />
3.2.2 Attraktive Fixpunkte von Einschrittverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 345<br />
3.3 Nichtexpansivität [8, Abschn. 6.3.3] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 352<br />
3.4 Gleichmässige Stabilität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 363<br />
3.5 Steifheit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 375<br />
3.6 Linear-implizite Runge-Kutta-Verfahren [8, Sect. 6.4] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 386<br />
3.7 Exponentielle Integratoren [24, 28, 25] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 396<br />
3.8 Differentiell-Algebraische Anfangswertprobleme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 402<br />
3.8.1 Grundbegriffe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 402<br />
3.8.2 Runge-Kutta-Verfahren für Index-1-DAEs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 408<br />
3.8.3 DAEs mit höherem Index . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 419<br />
Numerische<br />
Mathemtik<br />
R. Hiptmair<br />
rev 35327,<br />
13. Mai<br />
2011<br />
0.0<br />
p. 4
4 Strukturerhaltende numerische Integration 433<br />
4.1 Polynomiale Invarianten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 434<br />
Numerische<br />
Mathemtik<br />
4.2 Volumenerhaltung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 446<br />
4.3 Verallgemeinerte Reversibilität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 456<br />
4.4 Symplektizität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 466<br />
4.4.1 Symplektische Evolutionen Hamiltonscher Differentialgleichungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 466<br />
4.4.2 Symplektische Integratoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 483<br />
4.4.3 Rückwärtsanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 507<br />
4.4.4 Modifizierte Gleichungen: Fehleranalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 519<br />
4.4.5 Strukturerhaltende modifizierte Gleichungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 545<br />
4.5 Methoden für oszillatorische Differentialgleichungen [23] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 556<br />
Verzeichnisse 570<br />
R. Hiptmair<br />
rev 35327,<br />
13. Mai<br />
2011<br />
Stichwortverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 570<br />
Verzeichnis der <strong>Beispiel</strong>e und Bemerkungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 581<br />
Verzeichnis der Definitionen und Konzepte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 585<br />
Verzeichnis der MATLAB-CODE-Fragmente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 587<br />
Symbolverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 588<br />
0.0<br />
p. 5
Allgemeine Informationen<br />
Numerische<br />
Mathemtik<br />
Dozent: Prof. Ralf Hiptmair, <strong>SAM</strong>, D-MATH, Büro: HG G 58.2 Tel.: 044 632 3404,<br />
hiptmair@sam.math.ethz.ch<br />
Assistent: Cedric Effenberger, <strong>SAM</strong>, D-MATH Büro: HG G 55, Tel.: 044 632 0392,<br />
ece@sam.math.ethz.ch<br />
Tutoren: Dr. Jingzhi Li, <strong>SAM</strong>, D-MATH Büro: HG G 55 Tel.: 044 632 0392,<br />
jingzhi.li@math.ethz.ch<br />
Jan Ernest<br />
jernest@student.ethz.ch<br />
Website:<br />
http://www.math.ethz.ch/education/bachelor/lectures/fs2011/math/nm2<br />
Prüfung: schriftliche Prüfung am Rechner (teilweise MATLAB-basierte Programmieraufgaben),<br />
keine (mitgebrachten) Hilfsmittel<br />
Vorlesungsunterlagen werden als PDF-Datei zur Verfügung gestellt<br />
R. Hiptmair<br />
rev 35327,<br />
13. Mai<br />
2011<br />
Übungen:<br />
Einschreibung:http://www.math.ethz.ch/~grsam/NumMath2_MATH_FS11/i/<br />
• wöchentliches Übungsblatt zum Download (Bearbeitungszeit: 1 Woche)<br />
0.0<br />
p. 6
• MATLAB-basierte Programmieraufgaben<br />
• Abgabe: Dienstag bis 8:00 Uhr in den Fächern im Vorraum zum HG G 53<br />
Numerische<br />
Mathemtik<br />
• Abgabe der Codes via Webupload:http://www.math.ethz.ch/~grsam/submit/<br />
• Pflicht: 2× Vorlösen im Semester (mit Voranmeldung)<br />
• Korrektur nur auf Anfrage (jeder Teilnehmer erhält 5 Korrekturvouchers)<br />
• Selbstkorrektur mit stichprobenartigen Kontrollen<br />
• bei Betrug: Aberkennung der Punkte, +10% zur Testatbedingung<br />
• Testatbedingung:<br />
50% der Übungen rechtzeitig abgegeben und akzeptiert<br />
Sprechstunde der Assistenten:<br />
• Dr. Jingzhi Li, montags 08:15 – 09:00 Uhr, HG G 53 (Vorraum)<br />
• Jan Ernest, montags 08:15 – 09:00 Uhr, HG G 53 (Vorraum)<br />
R. Hiptmair<br />
rev 35327,<br />
13. Mai<br />
2011<br />
☞ Literatur:<br />
P. DEUFLHARD AND F. BORNEMANN, Numerische Mathematik II, DeGruyter, Berlin, 2 ed., 2002.<br />
Kapitel 4: http://www.sam.math.ethz.ch/~hiptmair/tmp/Literatur1.pdf<br />
Kapitel 6: http://www.sam.math.ethz.ch/~hiptmair/tmp/Literatur2.pdf<br />
(Von Springer auch in Englisch erhältlich→Link)<br />
0.0<br />
p. 7
Enzyklopädische Präsentation klassischer numerischer Integratoren:<br />
Numerische<br />
Mathemtik<br />
E. HAIRER, S. NORSETT, AND G. WANNER, Solving Ordinary Differential Equations I. Nonstiff Problems,<br />
Springer, Heidelberg, 2nd ed., 1993.<br />
E. HAIRER AND G. WANNER, Solving Ordinary Differential Equations II. Stiff and Differential-Algebraic<br />
Problems, Springer, Heidelberg, 1991.<br />
Umfassende Darstellung “strukturerhaltender” Integratoren:<br />
E. HAIRER, C. LUBICH, AND G. WANNER, Geometric numerical integration, vol. 31 of Springer Series<br />
in Computational Mathematics, Springer, Heidelberg, 2002.<br />
R. Hiptmair<br />
rev 35327,<br />
20. Februar<br />
2011<br />
Gute Einführung in die Numerik Hamiltonscher Differentialgleichungen:<br />
B. LEIMKUHLER AND S. REICH, Simulating Hamiltonian Dynamics, vol. 14 of Cambridge Monographs<br />
on Applied and Computational Mathematics, Cambridge University Press, Cambridge, UK, 2004.<br />
0.0<br />
p. 8
Hinweise auf Fehler in den Vorlesungsunterlagen<br />
Numerische<br />
Mathemtik<br />
Bitte melden Sie Fehler in den Vorlesungsunterlagen via folgende Wikiseite!<br />
http://elbanet.ethz.ch/wikifarm/rhiptmair/index.php?n=Main.NumOde<br />
(Passwort: NUMODE, bitte das EDIT-Menu wählen, um Text einzugeben.)<br />
Bitte versehen Sie eine Fehlermeldung mit folgenden Angaben:<br />
• Abschnitt, in dem der Fehler auftritt.<br />
• Genau Ortsangabe (a.B. nach Gleichung (4), in Bsp. 2.4.5, vor Satz 2.3.3, etc. ). Bitte vermeiden<br />
Sie die Angabe von Seitennummern.<br />
R. Hiptmair<br />
rev 35327,<br />
17. August<br />
2008<br />
• Kurze Fehlerbeschreibung<br />
Alternative: E-mail an C. Effenbergerece@sam.math.ethz.ch, Subject: NUMODE Error<br />
0.1<br />
p. 9
0.1 Danksagung<br />
Numerische<br />
Mathemtik<br />
Dank geht an Frau Evgenia Ageeva für die Aufarbeitung der MATLAB-Codes zu numerischen <strong>Beispiel</strong>en.<br />
R. Hiptmair<br />
rev 35327,<br />
17. August<br />
2008<br />
0.1<br />
p. 10
Numerische<br />
Mathemtik<br />
1 Einleitung<br />
Vertrautheit mit Grundbegriffen der Theorie der Anfangswertprobleme für gewöhnliche Differentialgleichungen<br />
wird für diesen Kurs vorausgesetzt. Diese Grundbegriffe werden in den Vorlesungen<br />
Analysis I & II im Basisjahr des Bachelorstudiums Mathematik vermittelt und sind in [3, Kap. 8 &<br />
Sekt. 11.6]. Zur Wiederholung wird ein Studium dieser Abschnitte empfohlen.<br />
Das erste Kapitel der Vorlesung frischt die theoretischen Grundlagen für Anfangswertprobleme für<br />
gewöhnliche Differentialgleichungen nochmals auf und stellt wichtige <strong>Beispiel</strong>e vor. Das Verhalten<br />
von einfachen numerischen Verfahren wird anhand dieser <strong>Beispiel</strong>e diskutiert.<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
1.1<br />
p. 11
1.1 Anfangswertprobleme (AWP)<br />
Numerische<br />
Mathemtik<br />
Eine gewöhnliche Differentialgleichung erster Ordnung (engl. first-order ordinary differential equation<br />
(ODE)):<br />
In dieser Vorlesung verwendete Terminologie, siehe [8]:<br />
ẏ = f(t,y) (1.1.1)<br />
f : I ×D ↦→ R d ˆ= rechte Seite (d ∈ N)<br />
I ⊂ R ˆ= (Zeit)intervall<br />
↔ “Zeitvariable”t<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
offene TeilmengeD ⊂ R d ˆ= Zustandsraum/Phasenraum (engl. state space/phase space)<br />
↔ “Zustandsvariable”y (Beschreibt “Zustand” eines Systems durchdreelle Zahlen)<br />
Ω := I ×D ˆ= erweiterter Zustandsraum<br />
(enthält Tupel(t,y))<br />
1.1<br />
p. 12
✎ Notation (Newton): Punkt ˙ ˆ= (totale) Ableitung nach der Zeitt<br />
✎ Notation: Fettdruck für Spaltenvektoren (Komponenten selektiert durch Subscript-Indices,<br />
z.B.y = (y 1 ,...,y d ) T ∈ R d )<br />
Numerische<br />
Mathemtik<br />
Fürd = 1 handelt es sich bei (1.1.1) um eine skalare gewöhnliche Differentialgleichung.<br />
Fürd > 1 heisst (1.1.1) auch System gewöhnlicher Differentialgleichungen:<br />
R. Hiptmair<br />
⎛<br />
d<br />
y ⎞ ⎛<br />
1 f ⎞<br />
1(t,y 1 ,...,y d )<br />
rev 35327,<br />
25. April<br />
(1.1.1) ⇐⇒ ⎝ . ⎠ = ⎝ . ⎠ .<br />
2011<br />
dt<br />
y d f d (t,y 1 ,...,y d )<br />
Grundannahme: stetige rechte Seitef : I ×D ↦→ R d 1.1<br />
p. 13
Definition 1.1.2 (Lösung einer gewöhnlichen Differentialgleichung).<br />
Eine Funktion y ∈ C 1 (J,D), J ⊂ I Intervall positiver Länge, heisst Lösung der gewöhnlichen<br />
Differentialgleichung (1.1.1), falls<br />
Numerische<br />
Mathemtik<br />
ẏ(t) = f(t,y(t)) für alle t ∈ J .<br />
<strong>Beispiel</strong> 1.1.3 (Richtungsfeld und Lösungskurven).<br />
Riccati-Differentialgleichung<br />
skalare ODE<br />
ẏ = y 2 +t 2 ➤<br />
d = 1, I,D = R + .<br />
(1.1.4)<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
1.1<br />
p. 14
1.5<br />
1.5<br />
Numerische<br />
Mathemtik<br />
1<br />
1<br />
y<br />
y<br />
0.5<br />
0.5<br />
0<br />
0 0.5 1 1.5<br />
t<br />
Fig. 1<br />
Richtungsfeld, [3, Fig. 8.1.4]<br />
0<br />
0 0.5 1 1.5<br />
t<br />
Fig. 2<br />
Lösungskurven<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Lösungskurven tangential zum Richtungsfeld in jedem Punkt des erweiterten Zustandsraumes.<br />
Alternative Interpretation des Richtungsfeldes als Geschwindigkeitsfeld einer Flüssigkeit: die Lösungskurven<br />
sind die Trajektorien von Partikeln, die in der Flüsssigkeit treiben.<br />
Listing 1.1: Erzeugen der Grafiken zu <strong>Beispiel</strong> 1.1.3<br />
1 % MATLAB function plotting the vector field and the solution curves for the<br />
1.1<br />
p. 15
2 % Ricatti differential equation for Example 1.1.3<br />
3 f u n c t i o n Ricatti<br />
4<br />
5 % define the right hand side of the differential equation as function handle<br />
6 fn = @(t,x) x.^2+t^2;<br />
7<br />
8 % plot solution curves<br />
9 f i g u r e(’Name’,’Ricatti’); hold on;<br />
0 % run ode45 and plot resuts for different starting values on y-axis<br />
1 f o r v = 0.05:0.1:1.4<br />
2 [t,y] = ode45(fn,[0 1.5],v);<br />
3 p l o t(t,y,’r-’);<br />
4 end<br />
5 % run ode45 and plot resuts for different starting values on x-axis<br />
6 f o r v = [0.4 0.7 1.0 1.2 1.4]<br />
7 [t,y] = ode45(fn,[v 1.5],0);<br />
8 p l o t(t,y,’r-’);<br />
9 end<br />
0 % set axes, labels, ...<br />
1 set(gca,’fontsize’,14); axis([0 1.5 0 1.5]);<br />
2 x l a b e l(’{\bf t}’); y l a b e l(’{\bf y}’);<br />
3 % Create EPS output file<br />
4 p r i n t -depsc2 ’riccatti1.eps’<br />
Numerische<br />
Mathemtik<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
1.1<br />
p. 16
5<br />
6 % plot tangent field<br />
7 f i g u r e(’Name’,’LV field’); hold on;<br />
8 % set up the sampling grid<br />
9 N = 8; [X,Y] = meshgrid(0:1.5/N:1.5,0:1.5/N:1.5);<br />
0 U = zeros( s i z e(X)); V = zeros( s i z e(Y));<br />
1 % get velocity vectors<br />
2 f o r i=0:N-1<br />
3 f o r j=0:N-1<br />
4 x = [1;fn(X(i+1,j+1),Y(i+1,j+1))];<br />
5 x = 0.3*x/norm(x);<br />
6 U(i+1,j+1) = x(1); V(i+1,j+1) = x(2);<br />
7 end<br />
8 end<br />
9<br />
0 % plot velocity vectors<br />
1 quiver(X,Y,U,V,’b-’);<br />
2 % set axes, labels, ...<br />
3 set(gca,’fontsize’,14); axis([0 1.5 0 1.5]);<br />
4 x l a b e l(’{\bf t}’); y l a b e l(’{\bf y}’);<br />
5 % Create EPS output file<br />
6 p r i n t -depsc2 ’riccatti2.eps’<br />
Numerische<br />
Mathemtik<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
1.1<br />
p. 17
✸<br />
Numerische<br />
Mathemtik<br />
Spezialfall: f(t,y) = f(y) ➡ autonome Differentialgleichung (hierI = R)<br />
ẏ = f(y) . (1.1.5)<br />
Hier: f : D ⊂ R d ↦→ R d is ein (stetiges) Vektorfeld (“Geschwindigkeitsfeld”, siehe Bsp. 1.1.3).<br />
Bemerkung 1.1.6 (Translationsinvarianz von Lösungen autonomer Dgl.).<br />
t ↦→ y(t) Lösung von (1.1.5) ⇒ t ↦→ y(t+τ) Lösung von (1.1.5) ∀τ ∈ R<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Bemerkung 1.1.7 (Autonomisierung).<br />
)<br />
z(t) :=<br />
( y(t)<br />
t<br />
=<br />
( z<br />
′<br />
z d+1<br />
)<br />
: (1.1.1) ↔ ż = g(z) , g(z) :=<br />
(<br />
f(zd+1 ,z ′ )<br />
)<br />
1<br />
△<br />
. (1.1.8)<br />
△<br />
1.1<br />
p. 18
Verallgemeinerung: Eine gewöhnliche Differentialgleichung n-ter Ordnung,n ∈ N:<br />
Numerische<br />
Mathemtik<br />
y (n) = f(t,y,ẏ,...,y (n−1) ) . (1.1.9)<br />
✎ Notation: Superscript<br />
(n) ˆ=n. Ableitung nach der Zeitt<br />
➤ Umwandlung in ODE (System !) erster Ordnung (d ← n·d):<br />
⎛ ⎞ ⎛ ⎞<br />
y(t) z y<br />
z(t) :=<br />
(1) 1<br />
(t)<br />
⎜ ⎟<br />
⎝ . ⎠ = ⎜z 2<br />
⎟<br />
⎝ . ⎠ ∈ Rdn : (1.1.9) ↔ ż = g(z) , g(t,z) :=<br />
y (n−1) (t) z n<br />
⎛ ⎞<br />
z 2<br />
z 3<br />
⎜ .<br />
⎟ .<br />
⎝ z n<br />
⎠<br />
f(t,z 1 ,...,z n )<br />
(1.1.10)<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Theorie<br />
Numerik<br />
für ODEs 1. Ordnung<br />
➥<br />
Theorie<br />
Numerik<br />
für ODEsn. Ordnung !<br />
Vorsicht: (1.1.10) weist spezielle Struktur auf, die ein generisches Verfahren für ODEs 1. Ordnung<br />
vielleicht nicht zur Verbesserung der Genauigkeit/Verringerung des Rechenaufwandes auszunutzen<br />
vermag (→ Diskussion in späteren Kapiteln).<br />
1.1<br />
p. 19
Bemerkung 1.1.11. Die Transformation (1.1.10) ist nur eine von (unendlich) vielen Möglichkeiten der<br />
Transformation von (1.1.9) in eine ODE 1. Ordnung.<br />
△<br />
Numerische<br />
Mathemtik<br />
Analysis: symbolisches Rechnen (Trennung der Variablen, Variation der Konstanten) liefert allgemeine<br />
Lösung einer ODE als parameterabhängige Funktionenschar, z.B. für eine skalare autonome ODE<br />
erhält man formal (mit Kettenregel) das unbestimmte Integral<br />
ẏ = f(y) ⇒ d dt G(y) = 1 ⇒ G(y) = t+C ⇒ y(t) = G−1 (t+C) , (1.1.12)<br />
wobeif(y) ≠ 0 anzunehmen ist.<br />
mit G(η) =<br />
∫ η<br />
η 0<br />
1<br />
f(ξ) dξ ,<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Allerdings ist eine symbolische Darstellung vonG, geschweige denn vonG −1 meist nicht verfügbar.<br />
1.1<br />
p. 20
Daher sind Darstellungsformeln wie (1.1.12) nur von beschränktem Nutzen und wir sind angewiesen<br />
auf numerische Lösung. Eine solche kann aber nur eine Approximation einer konkreten Funktion<br />
sein, so dass die numerischen Betrachtungen sich auf Probleme konzentrieren, für die Existenz und<br />
Eindeutigkeit von Lösungen gewährleistet ist. Das ist nur der Fall, wenn die gewöhnliche Differentialgleichung<br />
noch durch Anfangswerte komplettiert wird.<br />
Numerische<br />
Mathemtik<br />
ODE + Anfangsbedigungen = Anfangswertproblem (AWP)<br />
ẏ = f(t,y) , y(t 0 ) = y 0 für ein (t 0 ,y 0 ) ∈ Ω . (1.1.13)<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Definition 1.1.14 (Lösung eines Anfangswertproblems).<br />
Eine Lösung y : J ↦→ D, t 0 ∈ J, von (1.1.1), die y(t 0 ) = y 0 erfüllt, heisst Lösung des<br />
Anfangswertproblems (1.1.13).<br />
Bemerkung 1.1.15.<br />
Wenn ODE autonom<br />
Bem. 1.1.6<br />
➣ O.B.d.A. setze t 0 = 0 in (1.1.13)<br />
△<br />
1.1<br />
p. 21
Bemerkung 1.1.16 (Anfangswerte für Dgl. höherer Ordnung).<br />
Numerische<br />
Mathemtik<br />
Anfangswertproblem für gewöhnliche Differentialgleichungn-ter Ordnung (1.1.9):<br />
y (n) = f(t,y) , y(t 0 ) = y 0 , ẏ(t 0 ) = y 1 ,...,y (n−1) (t 0 ) = y n−1 .<br />
➡<br />
n unabhängige Anfangswerte sind vorzugeben.<br />
△<br />
1.2 <strong>Beispiel</strong>e und Grundbegriffe<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Modellierung:<br />
Anfangswertprobleme (1.1.13) beschreiben deterministische Evolutionen<br />
1.2<br />
p. 22
1.2.1 Ökologie<br />
Numerische<br />
Mathemtik<br />
<strong>Beispiel</strong> 1.2.1 (Resourcenbegrenztes Wachstum). [1, Sect. 1.1]<br />
Autonome logistische Differentialgleichung: (d = 1,D = R + ,I = R)<br />
ẏ = (α−βy)y (1.2.2)<br />
y ˆ= Populationsdichte,[y] = 1 m 2<br />
Wachstumsrateα−βy mit Wachstumskoeffizientenα,β > 0,[α] = 1 m2<br />
s<br />
,[β] =<br />
s<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Allgemein für ODE (1.1.1):<br />
y ∗ ∈ D,f(t,y ∗ ) = 0 ∀t ➣ y ∗ ist Fixpunkt/stationärer Punkt für die ODE → Sect. 3.2.<br />
1.2<br />
p. 23
1.5<br />
1<br />
Attraktiver Fixpunkty = α/β<br />
Repulsiver Fixpunkty = 0<br />
Numerische<br />
Mathemtik<br />
y<br />
0.5<br />
Separation der Variablen (1.1.12)<br />
➥ Lösung des AWP für (1.2.2)<br />
mity(0) = y 0 > 0<br />
0<br />
0 0.5 1 1.5<br />
t<br />
Fig. 3<br />
y(t) =<br />
für allet ∈ R<br />
αy 0<br />
βy 0 +(α−βy 0 )exp(−αt) , (1.2.3)<br />
R. Hiptmair<br />
Richtungsfeld und Lösungskurven (α,β = 5)<br />
rev 35327,<br />
25. April<br />
2011<br />
Numerische Integration der logistischen Differentialgleichung<br />
in MATLAB mittels Funktionode45():<br />
MATLAB-CODE: ODE-Integration<br />
fn = @(t,y) 5*y*(1-y);<br />
[t,y] = ode45(fn,[0 1.5],y0); Funktions-Handle zur Übergabe der rechten Seite<br />
plot(t,y,’r-’);<br />
Zeitintervall[t 0 ,T]<br />
Anfangswerty 0<br />
1.2<br />
Rückgabewerte: t ˆ= (Spalten)vektor von Zeitpunkten,y ˆ= (Spalten)vektor von Lösungswerten<br />
✸ p. 24
Bemerkung 1.2.4 (AWP-Löser in MATLAB). → [31]<br />
Numerische<br />
Mathemtik<br />
Aufrufsyntax:<br />
[t,y] = solver(odefun,tspan,y0);<br />
Funktionsargumente:<br />
solver : ∈ { ode23, ode45, ode113, ode15s, ode23s, ode23t,<br />
ode23tb }<br />
odefun : Funktions-Handle vom Typ@(t,y) ↔ rechte Seitef(t,y)<br />
tspan : 2-Vektor(t 0 ,T) T : Anfangs- und Endzeitpunkt für numerische Integration<br />
y0 : Anfangswerty 0 ∈ R d<br />
Rückgabewerte: t : (Spalten)vektor von Zeitpunktent 0 < t 1 < t 2 < ··· < t N = T<br />
y : (N +1)×dLösungsmatrix,i. Zeile∼y(t i )<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Warum bietet MATLAB so viele verschiedene Löser für AWPe an?<br />
Die Antwort auf diese Frage und die Auswahl des “richtigen” Lösers wird eines der Kernthemen der<br />
Vorlesung sein.<br />
1.2<br />
p. 25
△<br />
Numerische<br />
Mathemtik<br />
<strong>Beispiel</strong> 1.2.5 (Räuber-Beute-Modelle). [1, Sect. 1.1] & [16, Sect. 1.1.1]<br />
Autonome Lotka-Volterra-Dgl.: (d = 2)<br />
˙u = (α−βv)u<br />
˙v = (δu−γ)v , I = R, D = (R+ ) 2 , α,β,γ,δ > 0 . (1.2.6)<br />
Populationsdichten:<br />
u→Beute,<br />
v → Räuber<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
v<br />
Vektorfeldf für Lotka-Volterra-Dgl.<br />
✄<br />
α/β<br />
Lösungskurven sind Trajektorien von Partikeln, die<br />
vom Geschwindigkeitsfeldf mitgetragen werden.<br />
γ/δ<br />
u<br />
Fig. 4<br />
1.2<br />
p. 26
(1.2.6) ⇒ 0 =(δ − γ u )˙u−(α v −β)˙v = d dt<br />
Falls(u(t),v(t)) Lösung von (1.2.6)<br />
(δu−γlogu−αlogv +βv)<br />
} {{ }<br />
=:I(u,v)<br />
⇒ I(u(t),v(t)) ≡ const<br />
= 0 .<br />
Numerische<br />
Mathemtik<br />
Lösungen von (1.2.6) sind Niveaulinien vonI<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
1.2<br />
p. 27
6<br />
u = y 1<br />
v = y 2<br />
6<br />
Numerische<br />
Mathemtik<br />
5<br />
5<br />
4<br />
4<br />
y<br />
3<br />
v = y 2<br />
3<br />
2<br />
2<br />
1<br />
1<br />
0<br />
1 2 3 4 5 6 7 8 9 10<br />
t<br />
Zeitabhängige Lösung,y 0 := ( u(0)<br />
v(0)<br />
) =<br />
( 42<br />
)<br />
0<br />
0 0.5 1 1.5 2 2.5 3 3.5 4<br />
u = y 1<br />
Lösungskurven von (1.2.6)↔Niveaulinien vonI<br />
Fixpunkt<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Geschlossene Lösungskurven<br />
↔ (1.2.6) hat ausschliesslich periodische Lösungen<br />
(füru(0),v(0) > 0)<br />
✸<br />
1.2<br />
p. 28
Definition 1.2.7 (Erstes Integral).<br />
Ein Funktional I : D ↦→ R heisst erstes Integral/Invariante (engl. invariant) der ODE (1.1.1),<br />
wenn<br />
Numerische<br />
Mathemtik<br />
I(y(t)) ≡ const<br />
für jede Lösungy = y(t) von (1.1.1).<br />
Notwendige und hinreichende Bedingung für differenzierbares erstes Integral<br />
I erstes Integral von (1.1.1)<br />
⇔ gradI(y) ·f(t,y) = 0 ∀(t,y) ∈ Ω . (1.2.8)<br />
Euklidisches Skalarprodukt<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
1.2.2 Chemische Reaktionskinetik [8, Sect. 1.3]<br />
<strong>Beispiel</strong> 1.2.9 (Bimolekulare Reaktion).<br />
1.2<br />
p. 29
A<br />
C<br />
Reaktion:<br />
A+B<br />
k 2<br />
←−<br />
−→<br />
k1<br />
C+D . (1.2.10)<br />
Numerische<br />
Mathemtik<br />
B<br />
D<br />
Fig. 5<br />
mit Reaktionskonstanten k 1 (‘Hinreaktion”), k 2<br />
(“Rückreaktion”),[k 1 ] = [k 2 ] = cm3<br />
mols .<br />
Faustregel:<br />
Geschwindigkeit einer bimolekularen Reaktion proportional zum Produkt der Konzentrationen<br />
der Reaktionspartner:<br />
für (1.2.10): ċ A = ċ B = −ċ C = −ċ D = −k 1 c A c B +k 2 c C c D . (1.2.11)<br />
c A ,c B ,c C ,c D ˆ= (zeitabhängige) Konzentrationen der Reaktanden,[c X ] = mol<br />
cm 3 ➥<br />
c X (t) > 0;∀t<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
(1.2.11) = autonome gewöhnliche Dgl. (1.1.5) mit<br />
⎛ ⎞<br />
c A (t)<br />
y(t) = ⎜c B (t)<br />
⎟<br />
⎝c C (t) ⎠ , f(t,y) = (−k 1y 1 y 2 +k 2 y 3 y 4 )<br />
c D (t)<br />
Massenerhaltung:<br />
⎛ ⎞<br />
1<br />
⎜ 1<br />
⎟<br />
⎝−1⎠ .<br />
−1<br />
d<br />
dt (c A(t)+c B (t)+c C (t)+c D (t)) = 0<br />
✸<br />
1.2<br />
p. 30
<strong>Beispiel</strong> 1.2.12 (Oregonator-Reaktion).<br />
Spezialfall einer zeitlich oszillierenden Zhabotinski-Belousov-Reaktion [11]:<br />
Numerische<br />
Mathemtik<br />
BrO − 3 +Br− ↦→ HBrO 2<br />
HBrO 2 +Br − ↦→ Org<br />
BrO − 3 +HBrO 2 ↦→ 2HBrO 2 +Ce(IV)<br />
(1.2.13)<br />
2HBrO 2 ↦→ Org<br />
Ce(IV) ↦→ Br −<br />
y 1 := c(BrO − 3 ): ẏ 1 = −k 1 y 1 y 2 −k 3 y 1 y 3 ,<br />
y 2 := c(Br − ): ẏ 2 = −k 1 y 1 y 2 −k 2 y 2 y 3 +k 5 y 5 ,<br />
y 3 := c(HBrO 2 ): ẏ 3 = k 1 y 1 y 2 −k 2 y 2 y 3 +k 3 y 1 y 3 −2k 4 y 2 3 ,<br />
y 4 := c(Org): ẏ 4 = k 2 y 2 y 3 +k 4 y 2 3 ,<br />
y 5 := c(Ce(IV)): ẏ 5 = k 3 y 1 y 3 −k 5 y 5 ,<br />
mit (dimensionslosen) Reaktionskonstanten:<br />
k 1 = 1.34 , k 2 = 1.6·10 9 , k 3 = 8.0·10 3 , k 4 = 4.0·10 7 , k 5 = 1.0 .<br />
Periodische chemische Reaktion ➽ Video 1, Video 2<br />
(1.2.14)<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
MATLAB-Simulation mit Anfangswerten y 1 (0) = 0.06, y 2 (0) = 0.33 · 10 −6 , y 3 (0) = 0.501 · 10 −10 ,<br />
y 4 (0) = 0.03,y 5 (0) = 0.24·10 −7 :<br />
1.2<br />
p. 31
10 −3 Concentration of Br −<br />
Concentration of HBrO 2<br />
Numerische<br />
Mathemtik<br />
10 −5 t<br />
10 −4<br />
10 −6<br />
10 −5<br />
10 −7<br />
10 −6<br />
c(t)<br />
10 −7<br />
c(t)<br />
10 −8<br />
10 −8<br />
10 −9<br />
10 −9<br />
10 −10<br />
0 20 40 60 80 100 120 140 160 180 200<br />
t<br />
Fig. 6<br />
10 −10<br />
10 −11<br />
0 20 40 60 80 100 120 140 160 180 200<br />
Fig. 7 ✸<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
1.2.3 Physiologie<br />
<strong>Beispiel</strong> 1.2.15 (Zeemans Herzschlagmodell). → [6, p. 655]<br />
1.2<br />
p. 32
Grössen:<br />
l = l(t) ˆ= Länge der Herzmuskelfaser<br />
p = p(t) ˆ= elektrochemisches Potential<br />
Numerische<br />
Mathemtik<br />
Dimensionsloses phänomenologisches Modell:<br />
˙l = −(l 3 −αl+p) ,<br />
ṗ = βl ,<br />
(1.2.16)<br />
mit Parametern:<br />
α ˆ= Vorspannung der Muskelfaser<br />
β ˆ= (phänomenologischer) Rückkopplungsparameter<br />
Vektorfelder und numerische Lösungen für verschiedene Parameter:<br />
2.5<br />
2<br />
1.5<br />
1<br />
Phase flow for Zeeman model (α = 3,β=1.000000e−01)<br />
3<br />
2<br />
1<br />
Heartbeat according to Zeeman model (α = 3,β=1.000000e−01)<br />
l(t)<br />
p(t)<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
0.5<br />
p<br />
0<br />
l/p<br />
0<br />
−0.5<br />
−1<br />
−1<br />
−1.5<br />
−2<br />
−2<br />
−2.5<br />
−2.5 −2 −1.5 −1 −0.5 0 0.5 1 1.5 2 2.5<br />
l<br />
Fig. 8<br />
−3<br />
0 10 20 30 40 50 60 70 80 90 100<br />
time t<br />
Fig. 9<br />
1.2<br />
p. 33
2.5<br />
2<br />
Phase flow for Zeeman model (α = 5.000000e−01,β=1.000000e−01)<br />
3<br />
Heartbeat according to Zeeman model (α = 5.000000e−01,β=1.000000e−01)<br />
l(t)<br />
p(t)<br />
Numerische<br />
Mathemtik<br />
1.5<br />
2<br />
1<br />
1<br />
0.5<br />
p<br />
0<br />
l/p<br />
0<br />
−0.5<br />
−1<br />
−1<br />
−1.5<br />
−2<br />
−2<br />
−2.5<br />
−2.5 −2 −1.5 −1 −0.5 0 0.5 1 1.5 2 2.5<br />
l<br />
Fig. 10<br />
Beobachtung: α ≪ 1 ➤ “Kammerflimmern”<br />
−3<br />
0 10 20 30 40 50 60 70 80 90 100<br />
time t<br />
Fig. 11<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Listing 1.2: Erzeugen der Grafiken zu <strong>Beispiel</strong> 1.2.15<br />
1 f u n c t i o n heartbeat<br />
2 % MATLAB function for creating plots for Example 1.2.15<br />
3 beat(3,’normalbeat’); beat(0.5,’crazybeat’);<br />
4 r e t u r n<br />
1.2<br />
p. 34
5<br />
6 f u n c t i o n beat(alpha,filename)<br />
7 % MATLAB function for numerical simulation of the Zeeman model<br />
8 % (1.2.16) of heartbeat<br />
9<br />
0 i f (nargin < 2), filename = ’Heartbeat’; end<br />
1 i f (nargin < 1), alpha = 2; end<br />
2<br />
3 % Model equations (right hand side)<br />
4<br />
5 beta = 0.1; % feedback parameter<br />
6 l0 = 0; % length of relaxed muscle fibre<br />
7<br />
8 % Function handle to right hand side vector field<br />
9 f_l = @(l,p) -(l.^3-alpha*l+p);<br />
0 f_p = @(l,p) beta*(l-l0);<br />
1 odefun = @(t,y) [f_l(y(1),y(2)); f_p(y(1),y(2))];<br />
2<br />
3 % Create plot of vector field<br />
4 f i g u r e(’name’,’heartbeat field’); hold on;<br />
5 [L,P] = meshgrid((-2.5:0.25:2.5),(-2.5:0.5:2.5));<br />
6 quiver(L,P,f_l(L,P),f_p(L,P),1.5,’m-’);<br />
7 axis([-2.5 2.5 -2.5 2.5]);<br />
Numerische<br />
Mathemtik<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
1.2<br />
p. 35
8 x l a b e l(’{\bf l}’,’fontsize’,14);<br />
9 y l a b e l(’{\bf p}’,’fontsize’,14);<br />
0 t i t l e( s p r i n t f(’Phase flow for Zeeman model (\\alpha =<br />
%d,\\beta=%d)’,...<br />
1 alpha,beta));<br />
Numerische<br />
Mathemtik<br />
2<br />
3 % Compute evolution of l (length) and p (potential), see Rem. 1.2.4<br />
4 tspan = [0 100]; % Duration of simulation<br />
5 [t,y] = ode45(odefun,tspan,[1;0],odeset(’abstol’,1E-12));<br />
6<br />
7 % Plot trajectory of solution<br />
8 p l o t(1,0,’k*’,’markersize’,10);<br />
9 p l o t(y(:,1),y(:,2),’b-’);<br />
0 hold off;<br />
1 p r i n t(’-depsc2’, s p r i n t f(’%s1.eps’,filename));<br />
2<br />
3 % Plot time-dependent solution<br />
4 f i g u r e(’name’,’heartbeat’);<br />
5 p l o t(t,y(:,1),’r-’,t,y(:,2),’b-’);<br />
6 t i t l e( s p r i n t f(’heartbeat according to Zeeman model (\\alpha =<br />
%d,\\beta=%d)’,alpha,beta));<br />
7 x l a b e l(’{\bf time t}’,’fontsize’,14);<br />
8 y l a b e l(’{\bf l/p}’,’fontsize’,14);<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
1.2<br />
p. 36
9 axis([tspan -3 3]); legend(’l(t)’,’p(t)’);<br />
0<br />
1 p r i n t(’-depsc2’, s p r i n t f(’%s2.eps’,filename));<br />
Numerische<br />
Mathemtik<br />
✸<br />
1.2.4 Mechanik<br />
<strong>Beispiel</strong> 1.2.17 (Mathematisches Pendel).<br />
Zustandsraum D = Konfigurationsraum für Minimalkoordinaten<br />
(= Auslenkungswinkel)<br />
➣<br />
d = 1, D = T (Kreislinie = “1D Torus”)<br />
Auslenkungswinkelα ∈ [−π,π[)<br />
Newtonsche Bewegungsgleichungen:<br />
[1, I.3. Bsp. (3.4c)]<br />
l<br />
α<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
ml ¨α(t) = −mgsinα(t) . (1.2.18)<br />
autonome ODE 2. Ordnung, siehe (1.1.9)<br />
mg<br />
Fig. 12<br />
1.2<br />
p. 37
Formale Umwandlung in gewöhnliche Differentialgleichungen 1. Ordnung:<br />
( ) ( α<br />
p<br />
Winkelgeschwindigkeit<br />
p := ˙α ⇒ d dt<br />
=<br />
)<br />
p<br />
− g l sinα<br />
. (1.2.19)<br />
Numerische<br />
Mathemtik<br />
Energieerhaltung: E(t) = 1 2 ml2 p(t) 2 −mglcosα(t) ⇒ E(t) ≡ const. (1. Integral→Def. 1.2.7) .<br />
kinetische EnergieT(t)<br />
potentielle EnergieU(t)<br />
4<br />
Phase field for pendulum: l=1, g=1<br />
3<br />
3<br />
2<br />
p = velocity<br />
2<br />
1<br />
0<br />
−1<br />
p = velocity<br />
1<br />
0<br />
−1<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
−2<br />
−3<br />
−2<br />
−4<br />
−4 −3 −2 −1 0 1 2 3 4<br />
q = α<br />
Vektorfeld für (1.2.19)<br />
Fig. 13<br />
−3<br />
−3 −2 −1 0 1 2 3<br />
q = α<br />
Isolinien der Energie↔Lösungskurven<br />
Fig. 14<br />
✸<br />
1.2<br />
p. 38
Definition 1.2.20 (Hamiltonsche Differentialgleichung). → [16, Sect. VI.1.2]<br />
Es sei n ∈ N, M ⊂ R n offen, H : R n ×M ↦→ R, H = H(p,q), stetig differenzierbar. Dann<br />
heisst die gewöhnliche Differentialgleichung erster Ordnung<br />
Numerische<br />
Mathemtik<br />
ṗ(t) = − ∂H ∂H<br />
(p(t),q(t)) , ˙q(t) = (p(t),q(t)) , (1.2.21)<br />
∂q ∂p<br />
ein autonomes Hamiltonsches System mit Hamilton-Funktion (engl. Hamiltonian)H.<br />
Bemerkung 1.2.22. Bewegungsgleichungen der klassischen Mechanik führen auf autonome Hamiltonsches<br />
Systeme, siehe [1, Sect. I.3] für eine Einführung, [2] für eine umfassende Darstellung.<br />
△<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
✬<br />
✩<br />
Lemma 1.2.23 (“Energieerhaltungssatz”).<br />
Die Hamilton-FunktionH is ein erstes Integral des autonomen Hamiltonschen Systems.<br />
✫<br />
✪<br />
1.2<br />
p. 39
Hamiltonsches System in der Form (1.1.1):<br />
( p<br />
y = ⇒ (1.2.21) ⇔ ẏ = J<br />
q)<br />
−1·gradH(y) , J :=<br />
✎ Notation: I n ˆ=n×n Einheitsmatrix<br />
( ) 0 In<br />
−I n 0<br />
∈ R 2n,2n . (1.2.24)<br />
Numerische<br />
Mathemtik<br />
Zusammen mit (1.2.8) folgt sofort Lemma 1.2.23, denn J ist schiefsymmetrisch (J T = −J) und für<br />
jede schiefsymmetrische MatrixA ∈ R n,n giltx·Ax = 0 ∀x ∈ R n .<br />
<strong>Beispiel</strong> 1.2.25 (Massenpunkt im Zentralfeld).<br />
Newtonsche Bewegungsgleichungen eines Körpers (Ortskoordinate r = r(t)) mit Masse m > 0 im<br />
Kraftfeld f : R n ↦→ R n ,n ∈ N:<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Spezialfall:<br />
radialsymmetrisches konservatives Kraftfeld<br />
m¨r(t) = f(r(t)) . (1.2.26)<br />
f(x) = −gradU(x) , x ∈ R n , U(x) = G(‖x‖) . (1.2.27)<br />
√<br />
✎ Notation: ‖x‖ := x 2 1 +···+x2 n ˆ= Euklidische Norm eines Vektors<br />
Speziell G(r) = − G 0<br />
r<br />
:<br />
Keplerproblem: [16, Sect. I.2], [8, Sect. 1.1]<br />
1.2<br />
p. 40
←→ Hamiltonsches System (→ Def. 1.2.20) mit KonfigurationsraumM := R n \{0},q := r, und<br />
Hamilton-Funktion (Energie) H(p,q) := 1<br />
2m ‖p‖2 +G(‖q‖) (1.2.28)<br />
p := mṙ ˆ= Impuls, kinetische Energie potentielle Energie<br />
Numerische<br />
Mathemtik<br />
ṗ = −G ′ (‖q‖) q<br />
‖q‖ , ˙q = m−1 p . (1.2.29)<br />
✬<br />
Lemma 1.2.30 (Bahnebene).<br />
Jede Lösung ( p<br />
q<br />
) : J ⊂ R ↦→ R<br />
2n von (1.2.29) erfüllt<br />
✩<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
p(t),q(t) ∈ Span{p(t 0 ),q(t 0 )} ∀t 0 ,t ∈ J .<br />
✫<br />
✪<br />
✬<br />
Lemma 1.2.32 (Drehimpulserhaltung).<br />
Für n = 3 ist der Drehimpuls Drehimpuls (bzgl. 0) M := p×q(engl. angular momentum) ein<br />
erstes Integral (→ Def. 1.2.7) von (1.2.29).<br />
✫<br />
✩<br />
✪<br />
1.2<br />
p. 41
✎ Notation: × ˆ= Vektorprodukt im R 3 :<br />
a×b =<br />
⎛<br />
a ⎞<br />
2b 3 −a 3 b 2<br />
⎝a 3 b 1 −a 1 b 3<br />
⎠ .<br />
a 1 b 2 −a 2 b 1<br />
Numerische<br />
Mathemtik<br />
✬<br />
✩<br />
Theorem 1.2.33 (2. Keplersches Gesetz).<br />
Löst t ↦→ q(t) die Differentialgleichung<br />
(1.2.29), so überstreicht der Vektor q(t) in<br />
gleichen Zeitspannen gleiche Flächen in der<br />
Bahnebene.<br />
✫<br />
✪<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
1. Keplersches Gesetz (für Gravitationspotential):<br />
FürG(r) = − G 0<br />
r sind die Lösungskurven von (1.2.26) Ellipsen mit Brennpunkt0.<br />
Ausblick: Zur Simulation der Planetenbewegung in unserem Sonnensystem müsste man (1.2.29)<br />
über einen langen Zeitraum integrieren. Leider ist eine solche Langzeitintegration nicht unproblematisch.<br />
Zwar erhalten sowohl das implizite Euler- als auch das Störmer-Verlet-Verfahren den Dre-<br />
1.2<br />
p. 42
himpuls exakt, jedoch nicht die Energie des Systems (Hamilton-Funktion) [16, Table I.2.1]. Diese<br />
Problematik wird in Abschnitt 4.4 eingehend behandelt.<br />
Numerische<br />
Mathemtik<br />
✸<br />
1.3 Theorie [8, Sect. 2], [1, Ch. II]<br />
Zu gegebener rechter Seite f : Ω := I ×D ↦→ R d , d ∈ N, I ⊂ R offenes Intervall,D ⊂ R d offene<br />
Menge, betrachte das Anfangswertproblem<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
ẏ = f(t,y) , y(t 0 ) = y 0 für gegebenes (t 0 ,y 0 ) ∈ Ω . (1.1.13)<br />
1.3<br />
p. 43
1.3.1 Existenz und Eindeutigkeit von Lösungen<br />
Numerische<br />
Mathemtik<br />
Zwei wichtige Begriffe:<br />
Definition 1.3.1 (Maximale Fortsetzbarkeit einer Lösung).<br />
Eine Lösung y ∈ C 1 ([t 0 ,t + [,D) (→ Def. 1.1.2) des AWP (1.1.13) heisst maximal (in die Zukunft)<br />
fortgesetzt, wenn genau einer der drei folgenden Fälle zutrifft<br />
(i) t + = ∞ (Lösung existiert für alle Zeiten)<br />
(ii) t + < ∞ ,<br />
(„Blow-up”)<br />
lim ‖ỹ(t)‖ = ∞<br />
t→t +<br />
(iii) t + < ∞ ,<br />
lim dist((t,ỹ(t)),∂Ω) = 0 .<br />
t→t +<br />
(„Kollaps”))<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
(Analog: Maximal fortgesetzt in die Vergangenheit auf]t − ,t 0 ])<br />
Erinnerung:<br />
Ω := I ×D ist der erweiterte Zustandsraum<br />
➣ Kollaps↔Lösung läuft zum Rand des erweiterten Zustandsraumes!<br />
1.3<br />
p. 44
y<br />
(i)<br />
Numerische<br />
Mathemtik<br />
(iii)<br />
: „Blow-Up”<br />
(ii)<br />
: „Kollaps”<br />
:J(t 0 ,y 0 ) = R<br />
t<br />
Notation: J(t 0 ,y 0 ) =]t − ,t + [ = maximales Existenzintervall für Lösung von AWP (1.1.13).<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
1.3<br />
p. 45
Definition 1.3.2 (Lokale Lipschitz-Stetigkeit).<br />
f : Ω ↦→ R d heisst lokal Lipschitz-stetig<br />
Numerische<br />
Mathemtik<br />
⇔:<br />
∀(t,y) ∈ Ω: ∃δ > 0, L > 0:<br />
‖f(τ,z)−f(τ,w)‖ ≤ L‖z−w‖<br />
∀z,w ∈ D: ‖z−y‖ < δ, ‖w−y‖ < δ, ∀τ ∈ I: |t−τ| < δ .<br />
Lokale Lipschitz-Stetigkeit impliziert globale Lipschitz-Stetigkeit auf jeder kompakten Teilmenge K<br />
vonΩ:<br />
∃L = L(K) > 0: ‖f(τ,z)−f(τ,w)‖ ≤ L‖z−w‖ ∀(τ,z),(τ,w) ∈ K .<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
✎ Notation: D y f ˆ= Ableitung vonf nach Zustandsvariablen (= Jacobimatrix∈ R d,d !)<br />
1.3<br />
p. 46
Ein einfaches Kriterium für lokale Lipschitz-Stetigkeit (Beweis über Mittelwertsatz):<br />
Numerische<br />
Mathemtik<br />
✬<br />
✩<br />
Lemma 1.3.3 (Kriterium für lokale Lipschitz-Stetigkeit).<br />
Sindf undD y f stetig aufΩ, so istf lokal Lipschitz-stetig (→ Def. 1.3.2).<br />
✫<br />
✪<br />
✬<br />
Theorem 1.3.4 (Satz von Peano & Picard-Lindelöf).<br />
✫<br />
[1, Satz II(7.6)]<br />
Falls f : ˆΩ ↦→ R d lokal Lipschitz-stetig in der Variablen y (→ Def. 1.3.2), so hat das AWP<br />
(1.1.13) für beliebige Anfangsbedingungen (t 0 ,y 0 ) ∈ Ω eine eindeutige maximal fortgesetzte<br />
(→ Def. 1.3.1) Lösungy : J(t 0 ,y 0 ) ↦→ D.<br />
✩<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
✪<br />
Beweisidee:<br />
(→ [32, I.§6], [3, Sekt. 11.6]) Integration von (1.1.13) liefert<br />
∫ t<br />
y(t) = y 0 +<br />
t 0<br />
f(s,y(s)) ds, t ≥ t 0 . (1.3.5)<br />
1.3<br />
p. 47
Definiere Raum<br />
F = {y ∈ C([t 0 ,t 1 [), y(t 0 ) = y 0 }<br />
Numerische<br />
Mathemtik<br />
für eint 1 > t 0 und den Operator<br />
T : F → F, T : y ↦→ z(t) = y 0 +<br />
∫ t<br />
t 0<br />
f(s,y(s)) ds.<br />
Damit kann (1.3.5) auf dem Intervall [t 0 ,t 1 ] als Fixpunktgleichung T(y) = y in F geschrieben werden.<br />
Aus der lokalen Lipschitz-Stetigkeit folgt für genügend kleinest 1 > t 0 , dassT eine Kontraktion<br />
ist. Mit dem Banachschen Fixpunktsatz folgt die Behauptung für das Zeitintervall (t 0 ,t 1 ). Das maximale<br />
Existenzintervall erhält man über Fortsetzung.<br />
Bemerkung 1.3.6 (Definitionsintervalle von Lösungen von AWPen).<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
„Die Lösung eines Anfangswertproblems sucht sich Ihren Definitionsbereich selbst”<br />
!<br />
DefinitionsbereichJ(t 0 ,y 0 ) hängt (meist) von(t 0 ,y 0 ) ab !<br />
Terminologie: FallsJ(t 0 ,y 0 ) = I ➥ Lösungy : I ↦→ R d ist global.<br />
△<br />
1.3<br />
p. 48
Definition 1.3.7 (Evolutionsoperator).<br />
Die zweiparametrige Familie Φ s,t von Abbildungen Φ s,t : D ↦→ D heisst Evolutionsoperator<br />
zur Dgl.ẏ = f(t,y), wenn<br />
Numerische<br />
Mathemtik<br />
t ∈ J(s,z) ↦→ Φ s,t z Lösung des AWP<br />
ẏ = f(t,y) ,<br />
y(s) = z ,<br />
für alle (s,z) ∈ Ω .<br />
Definitionsbereich: Φ :<br />
{<br />
˜Ω ↦→ D<br />
(t,s,y) ↦→ Φ s,t y<br />
, ˜Ω := ⋃<br />
(s,y)∈Ω<br />
J(s,y)×{(s,y)}<br />
Satz 1.3.4 ⇒ Φ t,t = Id , Φ s,t y = (Φ r,t ◦Φ s,r )y , t,r ∈ J(s,y), (s,y) ∈ Ω . (1.3.8)<br />
Konvention: Für autonome Differentialgleichungen (1.1.5) (→ Bem. 1.1.15): Φ t := Φ 0,t<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
➣ FallsJ(0,y) = R ∀y ∈ D aus (1.3.8):<br />
Gruppe von Abbildungen vonD: Φ s ◦Φ t = Φ s+t , Φ −t ◦Φ t = Id ∀t ∈ R . (1.3.9)<br />
1.3<br />
p. 49
Bemerkung 1.3.10 (Numerische Integratoren als approximative Evolutionsoperatoren).<br />
Numerische<br />
Mathemtik<br />
MATLAB-Lösung eines , vgl. Bem. 1.2.4<br />
[t,y] = solver(odefun,[t0 T],y0)<br />
Φ s,t y<br />
☞<br />
Numerische Lösungsverfahren für Anfangswertprobleme für eine gewöhnliche Differentialgleichung<br />
realisieren Approximationen von Evolutionsoperatoren→Def. 2.1.2.<br />
△<br />
<strong>Beispiel</strong> 1.3.11 (Autonome skalare Differentialgleichungen). ✄ d = 1<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
•f(t,y) = −λy, λ ∈ R Lösung des AWP y(t) = y 0 e −λt ,t ∈ R<br />
existiert für alle Zeiten, d.h.]t − ,t + [= R für jedesy 0 : globale Lösung.<br />
Zugehöriger Evolutionsoperator:<br />
Φ t : R ↦→ R , Φ t (y 0 ) = e −λt y 0 .<br />
•f(t,y) = λy 2 ,λ ∈ R:<br />
ẏ = λy 2 ,y(0) = y 0 ∈ R<br />
1.3<br />
p. 50
Lösung:<br />
⎧<br />
⎨<br />
y(t) =<br />
1<br />
y0 −1<br />
⎩<br />
−λt , fallsy 0 ≠ 0 , (Blow-up)<br />
0 , fallsy 0 = 0 .<br />
λ,y 0 > 0 ⇒ J(0,y 0 ) =]−∞,1/λy 0 [ .<br />
,<br />
y(t)<br />
10<br />
8<br />
6<br />
4<br />
2<br />
0<br />
−2<br />
y 0<br />
= −0.5<br />
y 0<br />
= −1<br />
y 0<br />
= 1<br />
y 0<br />
= 0.5<br />
Numerische<br />
Mathemtik<br />
−4<br />
Lösungskurven fürλ = 1<br />
✄<br />
−6<br />
−8<br />
•f(t,y) = − 1 √ y<br />
,D = R + , Anfangswerty(0) = 1<br />
−10<br />
−3 −2 −1 0 1 2 3<br />
t<br />
Fig. 15<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
➣ y(t) = (1−3t/2) 2 /3 ,t − = −∞,t + = 2/3<br />
(Lösung läuft zum Randy = 0 des erweiterten Zustandraums: Kollaps)<br />
•f(t,y) = sin(1/y)−2,D = R + , Anfangswerty(0) = 1 [8, Bsp. 2.14]<br />
Lösungy(t) erfülltẏ ≤ −1 ➥ y(t) ≤ 1−t ➥ Kollaps fürt ∗ < 1.<br />
1.3<br />
p. 51
1<br />
0.9<br />
0.8<br />
0.014<br />
0.012<br />
Numerische<br />
Mathemtik<br />
0.7<br />
0.01<br />
0.6<br />
0.008<br />
y(t)<br />
0.5<br />
y(t)<br />
0.4<br />
0.006<br />
0.3<br />
0.004<br />
0.2<br />
0.1<br />
0.002<br />
0<br />
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8<br />
t<br />
Fig. 16<br />
0<br />
0.76 0.761 0.762 0.763 0.764 0.765 0.766 0.767 0.768 0.769<br />
t<br />
Fig. 17<br />
✸<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
1.3.2 Lineare AWPe [3, Sekt. 8.2]<br />
1.3<br />
p. 52
Vorbereitung:<br />
Basiswechsel im Zustandsraum (kovariante Transformation):<br />
ŷ = S −1 y , S ∈ R d,d reguläre Matrix (zeitunabhängig).<br />
Numerische<br />
Mathemtik<br />
y löst<br />
{ẏ = f(t,y) ,<br />
y(t 0 ) = y 0<br />
⇔ ŷ := S −1 y löst<br />
{<br />
˙ŷ =̂f(t,ŷ) ,<br />
ŷ(t 0 ) = S −1 y 0<br />
mit̂f(t,ŷ) = S −1 f(t,Sŷ) .<br />
(1.3.12)<br />
Betrachte Lineare Differentialgleichung mit konstanten Koeffizienten im R d :<br />
D = R d ,Ω = I ×R d<br />
Koeffizientenmatrix A ∈ R d,d<br />
ẏ = Ay+g(t) . (1.3.13)<br />
„Quellterm”: stetige Funktiong : I ↦→ R d<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Annahme:<br />
A diagonalisierbar,∃S ∈ R d,d regulär:S −1 AS = diag(λ 1 ,...,λ d ),λ i ∈ C<br />
•g ≡ 0: ẏ = Ay (autonome homogene lineare Dgl., allgemeinere Diskussion [8, Sect. 3.2.2])<br />
ŷ := S −1 y löst<br />
˙ŷ 1 = λ 1 ŷ 1 ,<br />
. ⇒ ŷ i (t) = (S −1 y 0 ) i e λit , t ∈ R .<br />
˙ŷ d = λ d ŷ d<br />
1.3<br />
p. 53
⎛<br />
y(t) = S⎜<br />
⎝<br />
e λ 1t<br />
...<br />
...<br />
⎞<br />
⎟<br />
⎠ S−1<br />
e λ dt<br />
} {{ }<br />
Matrixexponentialfunktion exp(At)<br />
y 0 .<br />
Numerische<br />
Mathemtik<br />
Allgemeine Definition der Matrixexponentialfunktion durch<br />
“Matrixexponentialreihe”: exp(M) =<br />
∞∑<br />
k=0<br />
1<br />
k! Mk . (1.3.14)<br />
Wichtige Eigenschaft:<br />
Matrixexponentialfunktion kommutiert mit Ähnlichkeitstransformationen<br />
M = S −1 AS ⇒ exp(M) = S −1 exp(A)S ∀A,M,S ∈ C d,d , S regulär. (1.3.15)<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
• Inhomogener Fall<br />
ẏ(t) = Ay(t)+g(t) partikuläre Lösung durch „Variation der Konstanten”:<br />
1.3<br />
p. 54
Ansatz:<br />
y(t) = exp(At)z(t) mitz ∈ C 1 (R,R d ) → [1, Thm I(5.14)]<br />
ẏ(t) = Aexp(At)z(t)+exp(At)ż(t) = Ay(t)+g(t) = Aexp(At)z(t)+g(t)<br />
ż(t) = exp(−At)g(t) ⇒ z(t) = y 0 +<br />
∫ t<br />
t 0<br />
exp(−Aτ)g(τ)dτ<br />
y(t) = exp(A(t−t 0 ))y 0 + ∫ t<br />
t0<br />
exp(A(t−τ))g(τ)dτ =: Φ t 0,t y 0 .<br />
Numerische<br />
Mathemtik<br />
Lsg. des homogenen Problems<br />
Faltung mit Inhomogenität<br />
Allgemeinere Betrachtungen<br />
→ [1, Kap. III]:<br />
Bemerkung 1.3.16 (Allgemeine Variation-der-Konstanten-Formel). → [1, Thm. (11.13)]<br />
A : J ⊂ R ↦→ R d,d stetige Matrixfunktion,J ⊂ R Intervall<br />
g : J ↦→ R d stetig<br />
(s,t) ↦→ E(s,t) ∈ R d,d beschreibt Evolutionsoperator, definiert durch<br />
∂E<br />
(s,t) = A(t)E(s,t) ∀(s,t) ∈ J ×J , E(s,s) = I .<br />
∂t (1.3.17)<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
1.3<br />
p. 55
Dann ist die (eindeutige→ Thm. 1.3.4) Lösung des nicht-autonomen linearen Anfangswertproblems<br />
ẏ = A(t)y+g(t) , y(t 0 ) = y 0 ,<br />
Numerische<br />
Mathemtik<br />
gegeben durch<br />
∫t<br />
y(t) = E(t,t 0 )y 0 + E(t,s)g(s)ds , t ∈ J . (1.3.18)<br />
t 0<br />
△<br />
Bemerkung 1.3.19 (Bedeutung linearer AWPe).<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Linearisierung um einen stationären Punkt f(y ∗ ) = 0:<br />
fallsf ∈ C 2 .<br />
y ≈ y ∗ : f(y) = D y f(y ∗ )(y−y ∗ )+O(|y−y ∗ | 2 ) ,<br />
➣<br />
Lösungen von ẏ = f(y) verhalten sich in der Umgebung von y ∗ (qualitativ) wie Lösungen der<br />
linearen ODEẏ = D y f(y ∗ )y.<br />
△<br />
1.3<br />
p. 56
1.3.3 Sensitivität [8, Sect. 3.1]<br />
Numerische<br />
Mathemtik<br />
1.3.3.1 Grundbegriffe<br />
Erinnerung<br />
(→ Vorlesung „Numerische Methoden”):<br />
Problem = AbbildungΠ : X ↦→ Y von DatenraumX in den ErgebnisraumY<br />
(beide versehen mit Metrikend X ,d Y )<br />
✗<br />
✖<br />
Problem ist wohlgestellt (engl. well-posed), wennΠstetig.<br />
✔R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
✕<br />
Kondition/Sensitivität eines Problems:<br />
Mass für Einfluss von Störungen in den Daten auf das Ergebnis<br />
d<br />
Absolute Kondition: κ abs := sup Y (Π(x),Π(x ′ ))<br />
x,x ′ ∈X,x≠x ′ d X (x,x ′ )<br />
Sprachgebrauch: Problem ist „gut konditioniert”, wenn „κ abs ≈ 1”<br />
. (1.3.20)<br />
1.3<br />
p. 57
Numerische<br />
Mathemtik<br />
• Wohlgestelltheit und Gutkonditioniertheit eines Problems hängen entscheidend von den<br />
gewählten Metriken ab. Diese sind bei praktischen Problemen dadurch bestimmt, “woran der<br />
Anwender interessiert ist”.<br />
• Als Folge von unvermeidlichen Eingabefehlern, macht nur die numerische Lösung von<br />
wohlgestellten Problemen Sinn.<br />
• Absolute Konditionszahl ist die globale Lipschitz-Konstante der Problemabbildung (bzgl. der gewählten<br />
Metriken).<br />
Asymptotische (absolute) Kondition<br />
κ ∞ abs<br />
:= lim<br />
δ→0<br />
sup<br />
0
wobei‖·‖ ˆ= Matrixnorm induziert durch Vektornormen auf R m , R n .<br />
Numerische<br />
Mathemtik<br />
1.3.3.2 Unser Problem: das Anfangswertproblem<br />
Anwendung (der abstrakten Konzepte) auf Anfangswertproblem (1.1.13):<br />
Szenario ➊:<br />
Eingabedatumy 0 ➥<br />
DatenraumR d , Metrik: Euklidische Vektornorm<br />
Ausgabey(T) zu EndzeitpunktT > t 0 ➥<br />
Szenario ➋:<br />
ErgebnisraumR d , Metrik: Euklidische Vektornorm<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Eingabedatumy 0 ➥<br />
DatenraumR d , Metrik: Euklidische Vektornorm<br />
Ausgabe: Lösungsfunktiont ∈ J ⊂ I ↦→ y(T)<br />
➥ ErgebnisraumC 0 (J,R d ), Metrik: Maximumnorm‖·‖ L ∞ (J)<br />
Szenario ➌:<br />
1.3<br />
p. 59
Eingabedaten: Anfangswerty 0 und rechte Seitef<br />
➥ DatenraumR d ×C 1 (I×R d ,R d ), Metrik: Euklidische Vektornorm & Maximumnorm<br />
Numerische<br />
Mathemtik<br />
Ausgabe: Lösungsfunktiont ∈ J ⊂ I ↦→ y(T)<br />
➥ ErgebnisraumC 0 (J,R d ), Metrik: Maximumnorm‖·‖ L ∞ (J)<br />
Terminologie: Szenario ➊ : κ abs ,κ ∞ abs<br />
∼ punktweise Kondition,<br />
Szenario ➋ : κ abs ,κ ∞ abs<br />
∼ intervallweise Kondition<br />
<strong>Beispiel</strong> 1.3.22 (Kondition skalarer linearer Anfangswertprobleme).<br />
(Untersuchung für Szenarios ➊ and ➋)<br />
ẏ = λy , λ ∈ R , y(0) = y 0 ∈ R , (1.3.23)<br />
⇒ y(t) = y 0 exp(λt) , t ∈ R . (1.3.24)<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Punktweise Kondition: für EndzeitpunktT :<br />
κ abs = exp(λT)<br />
{<br />
≫ 1 fürλ > 0 ,<br />
≪ 1 fürλ < 0 .<br />
(1.3.25)<br />
1.3<br />
p. 60
Intervallweise Kondition:<br />
in[0,T]:<br />
κ abs = max{1,exp(λT)}<br />
{<br />
≫ 1 fürλ > 0 ,<br />
1 fürλ < 0 .<br />
(1.3.26)<br />
Numerische<br />
Mathemtik<br />
✸<br />
1.3.3.3 Wohlgestelltheit<br />
✬<br />
Annahme:<br />
Rechte Seitef : I ×D ↦→ R d von (1.1.13) erfüllt globale Lipschitzbedingung<br />
(vgl. lokale Lipschitzbedingung aus Def. 1.3.2)<br />
R. Hiptmair<br />
✩rev 35327,<br />
25. April<br />
2011<br />
∀t ∈ I: ∃L(t) > 0: ‖f(t,x)−f(t,y)‖ ≤ L(t)‖x−y‖ ∀x,y ∈ D ⊂ R d , (1.3.27)<br />
für geeignete Vektornorm‖·‖ auf R d .<br />
✫<br />
✪<br />
1.3<br />
p. 61
✬<br />
✩<br />
Theorem 1.3.28 (Lipschitz-stetige Abhängigkeit vom Anfangswert).<br />
Es seien y,ỹ Lösungen des AWP (1.1.13) zu Anfangswerten y 0 ∈ D bzw. ỹ 0 ∈ D. Unter der<br />
Annahme (1.3.27) mit stetigemL(t) gilt<br />
✫<br />
(∫ t<br />
)<br />
‖y(t)−ỹ(t)‖ ≤ ‖y 0 −ỹ 0 ‖·exp L(τ)dτ<br />
t 0<br />
∀t ∈ I .<br />
✪<br />
Numerische<br />
Mathemtik<br />
Hilfsmittel beim Beweis:<br />
✬<br />
Lemma 1.3.29 (Gronwalls Lemma). → [1, Sect. II.6], [8, Lemma 3.9]<br />
SeiJ ⊂ R Intervall,t 0 ∈ J,u,a,β ∈ C 0 (J,R + ),amonoton wachsend. Dann gilt<br />
∫ t<br />
∫ t<br />
u(t) ≤ a(|t−t 0 |)+ β(τ)u(τ)dτ ⇒ u(t) ≤ a(|t−t 0 |)exp<br />
∣ β(τ)dτ<br />
∣ .<br />
t 0 t 0<br />
✫<br />
✩<br />
✪<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
➤ AWP (1.1.13) is wohlgestellt unter Annahme (1.3.27) !<br />
➤ Schranke für absolute punktweise Kondition (für EndzeitpunktT )<br />
( ∫ ) T<br />
κ abs ≤ exp . (1.3.31)<br />
t 0<br />
L(τ)dτ<br />
1.3<br />
p. 62
Bemerkung 1.3.32 („Gronwall-Schranke” für Kondition).<br />
Numerische<br />
Mathemtik<br />
Schranke aus (1.3.31) oft extrem pessimistisch !<br />
<strong>Beispiel</strong> (siehe Bsp. 1.3.22):<br />
für skalares lineares AWP mit λ < 0, punktweise Kondition, EndzeitpunktT<br />
> 0 (1.3.23)<br />
(1.3.31) ➣ κ abs ≤ e |λ|T T→∞<br />
↦−→ ∞ ←→ κ abs = e λT T→∞<br />
↦−→ 0 .<br />
△<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
1.3.3.4 Asymptotische Kondition<br />
Szenario ➊:<br />
Wie wirken sich kleine Störungen im Anfangswert y 0 in (1.1.13) auf die Lösungy(t)<br />
aus ?<br />
Asymptotische absolute Konditionszahl durch differentielle Konditionsanalyse, siehe (1.3.21):<br />
1.3<br />
p. 63
Erforderlich: „Differenzieren der Lösung eins Anfagswertproblems nach dem Anfangswerty 0 ”<br />
(Dabei wird die Zeittals fester „Parameter” behandelt.)<br />
Numerische<br />
Mathemtik<br />
➣ Zu betrachten ist, mit EvolutionΦ s,t y = Φ(s,t,y)<br />
dy(t)<br />
dy 0<br />
∣ ∣∣∣t<br />
fest<br />
←→ ∂Φ<br />
∂y (t 0,t,y 0 ) .<br />
Formales Vorgehen unter der Annahme der Vertauschbarkeit partieller Ableitungen:<br />
(Annahme:<br />
d<br />
dy<br />
d<br />
dt Φt0,t y = f(t,Φ t0,t y) für festesy .<br />
(<br />
d ∂<br />
y)<br />
dy ∂t Φt0,t = d<br />
dy f(t,Φt0,t y)<br />
( )<br />
∂ ∂Φ<br />
∂t ∂y (t 0,t,y) = d<br />
dy f(t,Φt0,t y) = ∂f<br />
∂y (t,Φt0,t y) d<br />
dy Φt0,t y .<br />
f nachystetig differenzierbar)<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Die Propagationsmatrix (Wronski-Matrix),<br />
W(t;t 0 ,z) := d<br />
dy Φt 0,t y|y=z<br />
∈ R d,d , (1.3.33)<br />
1.3<br />
p. 64
zum AWP (1.1.13) erfüllt Anfangswertproblem für<br />
Variationsgleichung<br />
d<br />
dt W(t;t 0,y 0 ) = ∂f<br />
∂y (t,Φt0,t y 0 )W(t;t 0 ,y 0 ) , (1.3.34)<br />
W(t 0 ;t 0 ,y 0 ) = I .<br />
Numerische<br />
Mathemtik<br />
Beachte:<br />
Variationsgleichung = lineare Differentialgleichung auf ZustandsraumD = R d,d<br />
☞ Matrix-Differentialgleichung der Form<br />
wobei<br />
∂f<br />
∂y<br />
Ẇ = A(t)W mit<br />
A(t) = ∂f<br />
∂y (t,y(t)) ,<br />
ˆ= Jacobi-Matrix, abhängig von(t,y),<br />
y(t) ˆ= Lösung des AWP ẏ = f(t,y),y(t 0 ) = y 0<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
➣<br />
Um die Variationsgleichung zu lösen muss auch das zugehörige Anfangswertproblem gelöst<br />
werden!<br />
✗<br />
✖<br />
y 0 ← y 0 +δy 0 ➣ δy(t) ≈ W(t;t 0 ,y 0 )δy 0 für „kleineδy 0 ”<br />
Intervallweise asymptotische Kondition des AWP (1.1.13) auf[t 0 ,T] (bzgl. Norm‖·‖ aufR d ):<br />
✔<br />
✕<br />
1.3<br />
p. 65
κ ∞ abs := max{‖W(t;t 0,y 0 )‖: t 0 ≤ t ≤ T} . (1.3.35)<br />
Numerische<br />
Mathemtik<br />
1.3.3.5 Schlecht konditionierte AWPe<br />
<strong>Beispiel</strong> 1.3.36 (Lorenz-System). → [27, 21]<br />
Autonome Differentialgleichung, D = R 3 ,<br />
σ,ρ,β ∈ R + :<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
ẋ =σ(y −x) ,<br />
ẏ =x(ρ−z)−y ,<br />
ż =xy −βz .<br />
(1.3.37)<br />
1.3<br />
p. 66
Listing 1.3: Numerische Integration des Lorenz-Systems<br />
1 f u n c t i o n lorenzplot(rho,sigma,beta)<br />
2<br />
3 % MATLAB script for plotting 3D trajectories of the Lorenz system for<br />
Ex. 1.3.36<br />
4 % Arguments: parameters of the Lorenz system (1.3.37): ρ, σ, β.<br />
5<br />
6 % Default paramters<br />
7 i f (nargin < 3), rho=28; sigma = 10; beta = 8/3; end<br />
8<br />
9 % function handle for right hand side of the Lorez system (1.3.37)<br />
0 f = @(t,y) ([sigma*(y(2)-y(1));rho*y(1) - y(2) -<br />
y(1)*y(3);y(1)*y(2) - beta*y(3)]);<br />
1<br />
2 y0 = [8 9 9.5]; ystart = y0; % initial conditions<br />
3 ts = [0 20]; % Time for simulation<br />
4<br />
5 % Numerical integration of Lorenz system using MATLAB standard integrator,<br />
6 % see Rem. 1.2.4<br />
7 opts = odeset(’reltol’,1E-10,’abstol’,1E-10,’stats’,’on’);<br />
8 [t,y] = ode45(f,ts,y0,opts);<br />
9 y0(3) = y0(3) + 1.0E-5; % Slight perturbation of initial value<br />
0 [tt,yt] = ode45(f,ts,y0,opts);<br />
1<br />
Numerische<br />
Mathemtik<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
1.3<br />
p. 67
2 % 3D plot of trajectories<br />
3 f i g u r e(’name’,’Lorenz’); hold on;<br />
4 p l o t 3(y(:,1),y(:,2),y(:,3),’r-’);<br />
5 p l o t 3(yt(:,1),yt(:,2),yt(:,3),’b-’);<br />
6 x l a b e l(’{\bf x}’,’fontsize’,14);<br />
7 y l a b e l(’{\bf y}’,’fontsize’,14);<br />
8 z l a b e l(’{\bf z}’,’fontsize’,14);<br />
9 t i t l e( s p r i n t f(’\\sigma = %d, \\rho = %d, \\beta =<br />
%d’,sigma,rho,beta));<br />
0 view(45,15); g r i d on;<br />
1 p r i n t -depsc2 ’lorenz.eps’;<br />
Numerische<br />
Mathemtik<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
1.3<br />
p. 68
σ = 10, ρ = 28, β = 2.666667e+00<br />
— : Anfangswerty 0 := (8,9,9.5) T<br />
— : Anfangswerty 0 := (8,9,9.5+10 −5 ) T<br />
Numerische<br />
Mathemtik<br />
45<br />
Aus der Theorie der<br />
40<br />
35<br />
reellen dynamischen Systeme [21]:<br />
30<br />
Lorenz-System ist chaotisches System<br />
z<br />
25<br />
20<br />
15<br />
10<br />
Anfängliche exponetielle Divergenz der<br />
beschränkten Trajektorien<br />
(Schranke (1.3.31) gilt für kleineT !)<br />
5<br />
−20<br />
−10<br />
0<br />
x<br />
10<br />
20 −30<br />
−20<br />
−10<br />
y<br />
0<br />
10<br />
20<br />
30<br />
Fig. 18<br />
Winzige Störungen der Anfangswerte<br />
➤ völlig verschiedene Zustände nach „exponentiell<br />
kurzer Zeit”.<br />
✸<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Ziel numerischer Simulation chaotischer dynamischer Systeme:<br />
Indentifikation des „typischen” Verhaltens von Trajektorien<br />
★<br />
✥<br />
Essentiell:<br />
✧<br />
Korrekte Behandlung von Erhaltungsgrössen, z.B. Gesamtenergie<br />
(→ Erste Integrale, Def. 1.2.7)<br />
✦<br />
1.3<br />
p. 69
<strong>Beispiel</strong> 1.3.38 (Doppelpendel).<br />
l 1<br />
✁ (Mathematisches) Doppelpendel mit fester Aufhängung und masselosen<br />
Stäben.<br />
Minimalkoordinaten: Auslenkungswinkelθ 1 ,θ 2<br />
KonfigurationsraumD = [0,2π[ 2 (Torus)<br />
Numerische<br />
Mathemtik<br />
θ 1<br />
θ 2<br />
m 1<br />
Hamilton-Funktion (→ Def. 1.2.20) = Summe kinetischer und potentieller<br />
Energie:<br />
l 2<br />
m 2<br />
Fig. 19<br />
H(p 1 ,p 2 ,θ 1 ,θ 2 ) =<br />
l 2 2 m 2p 2 1 +l2 1 (m 1 +m 2 )p 2 2 −2m 2l 1 l 2 p 1 p 2 cos(θ 1 −θ 2 )<br />
2l 2 1 l2 2 m 2(m 1 +sin 2 (θ 1 −θ 2 )m 2 )<br />
−m 2 gl 2 cosθ 2 −(m 1 +m 2 )gl 1 cosθ 1 .<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Beobachtung (in Experiment und Simulation):<br />
Extrem sensitive Abhängigkeit der Pendelbewegung von Anfangsbedingungen<br />
1.3<br />
p. 70
m 1<br />
= 2, m 2<br />
= 1, l 1<br />
= 1, l 2<br />
= 1.732051e+00<br />
3<br />
m 1<br />
= 2, m 2<br />
= 1, l 1<br />
= 1, l 2<br />
= 1.732051e+00<br />
3<br />
Numerische<br />
Mathemtik<br />
2<br />
2<br />
1<br />
1<br />
0<br />
0<br />
−1<br />
−1<br />
−2<br />
−2<br />
−3<br />
Fig. 20<br />
−4 −3 −2 −1 0 1 2 3 4<br />
θ 1 (0) = − π 2 ,θ 2(0) = π,p 1 (0) = p 2 (0) = 0<br />
−3<br />
Fig. 21<br />
−4 −3 −2 −1 0 1 2 3 4<br />
θ 1 (0) = − π 2 ,θ 2(0) = π +10 −2 ,<br />
p 1 (0) = p 2 (0) = 0<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
[Simulation, MATLAB,ode45, Zeit[0,20], Schrittweite10 −3 ]<br />
✸<br />
1.4<br />
p. 71
1.4 Polygonzugverfahren<br />
Numerische<br />
Mathemtik<br />
Gegeben:<br />
Rechte Seitef : Ω ↦→ R d , lokal Lipschitz-stetig (→ Def. 1.3.2) auf<br />
erweitertem ZustandsraumΩ := I ×D ⊂ R d+1<br />
Anfangsbedingungeny 0 ∈ D zum Anfangszeitpunktt 0<br />
Thm. 1.3.4 (Peano & Picard-Lindelöf) ➤ Existenz & Eindeutigkeit von Lösungen (→ Def. 1.1.14)<br />
des AWP<br />
ẏ = f(t,y) , y(t 0 ) = y 0 . (1.4.1)<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Ziel: ☞ Approximation vony(T) für EndzeitpunktT ∈ J(t 0 ,y 0 ) ✄ y h (T).<br />
☞ Approximation der Funktiont ↦→ y(t),t ∈ [t 0 ,T],T ∈ J(t 0 ,y 0 ) ✄ t ↦→ y h (t).<br />
1.4<br />
p. 72
1.4.1 Das explizite Euler-Verfahren (Euler 1768)<br />
Numerische<br />
Mathemtik<br />
Idee: ➊ „Vorantasten” in der Zeit: (1.4.1) = Komposition von AWPe zu gegebenen<br />
kleinen Zeitintervallen[t k−1 ,t k ],k = 1,...,N,t N := T<br />
➋<br />
Approximation der zeitlokalen Lösungskurven durch Tangente im aktuellen<br />
Anfangszeitpunkt.<br />
y<br />
y h (t 1 )<br />
y(t)<br />
t<br />
t 0 t 1<br />
y 0<br />
Fig. 22<br />
Explizites Euler-Verfahren<br />
(Eulersches Polygonzugverfahren)<br />
✁ Erster Schritt des expliziten Euler-Verfahrens<br />
(d = 1):<br />
Steigung der Tangente= f(t 0 ,y 0 )<br />
y h (t 1 ) ist Startwert für nächsten Schritt !<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
In Formeln: durch explizites Eulerverfahren erzeugte Näherungen füry(t k ) erfüllen die Rekursion<br />
y k+1 := y h (t k+1 ) = y h (t k )+h k f(t k ,y h (t k )) , k = 0,...,N −1 , (1.4.2)<br />
mit lokaler (Zeit)schrittweite h k := t k+1 −t k .<br />
1.4<br />
p. 73
Numerische<br />
Mathemtik<br />
✎ Alternative Notation: y k := y h (t k )<br />
Veranschaulichung: Explizites Eulerverfahren<br />
2.4<br />
2.2<br />
exact solution<br />
explicit Euler<br />
Anfangswertproblem<br />
für<br />
Riccati-Differentialgleichung, siehe Bsp. 1.1.3<br />
y 0 =<br />
2 1 ,t 0 = 0,T = 1,<br />
gleichgrosse Zeitschritteh = 0.2<br />
ẏ = y 2 +t 2 . (1.1.4)<br />
↦→ ˆ= Richtungsfeld der Riccati-Dgl.<br />
✄<br />
y<br />
2<br />
1.8<br />
1.6<br />
1.4<br />
1.2<br />
1<br />
0.8<br />
0.6<br />
0.4<br />
0 0.2 0.4 0.6 0.8 1 1.2 1.4<br />
t<br />
Fig. 23<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
1.4<br />
p. 74
Bemerkung 1.4.3 (Explizites Eulerverfahren als Differenzenverfahren).<br />
Numerische<br />
Mathemtik<br />
(1.4.2) aus Approximation von Ableitung d dt<br />
{t 0 ,t 1 ,...,t N }:<br />
durch Vorwärtsdifferenzenquotienten auf Zeitgitter G :=<br />
ẏ = f(t,y) ←→ y h(t k+1 )−y h (t k )<br />
h k<br />
= f(t k ,y h (t k )) , k = 0,...,N −1 .<br />
△<br />
Frage: Wie genau ist die Näherungslösung ?<br />
<strong>Beispiel</strong> 1.4.4 (Konvergenz(-geschwindigkeit) des expliziten Euler-Verfahrens).<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Listing 1.4: Erzeugen von Fehlerkurven für explizites Eulerverfahren<br />
1 f u n c t i o n err = eulerConvergence(odefun,tspan,y0v,N)<br />
2 % MATLAB function computing the error (at final time) of the explicit Euler<br />
method (1.4.2)<br />
3 % Arguments:<br />
4 % odefun = @(t,y): handle to function returning a vector<br />
1.4<br />
p. 75
5 % tspan = [t0 T]: initial and final time<br />
6 % y0v ˆ= array of initial values<br />
7 % N ˆ= vector containing numbers of steps. For each the error is returned<br />
8<br />
9 err = []; l = 1; % Initialize error array<br />
0<br />
1 f o r y0 = y0v<br />
2 % Compute ’exact’ solution<br />
3 [t,y] =<br />
ode45(odefun,tspan,y0,odeset(’reltol’,1E-11,’abstol’,1E-11));<br />
4<br />
5 % Compute Euler solutions<br />
6 erri = [];<br />
7 f o r n=N<br />
8 h = (tspan(2)-tspan(1))/n; % uniform timestep size<br />
9 t_eul = tspan(1); % initial time<br />
0 y_eul = y0; % intialize iteration<br />
1 f o r k=1:n<br />
2 y_eul = y_eul + h*odefun(t_eul,y_eul); % see (1.4.2)<br />
3 t_eul = t_eul + h; % increment time<br />
4 end<br />
5 erri = [erri,norm(y(end,:)-y_eul)]; % record error<br />
6 end<br />
Numerische<br />
Mathemtik<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
1.4<br />
p. 76
7 err = [err;erri]; % assemble matrix of error values<br />
8 leg{l} = s p r i n t f(’y0 = %3.2f’,y0);<br />
9 l = l+1;<br />
0 end<br />
1<br />
2 % Plot error curves in log-log scale to discern alegebraic convergence →<br />
Def. 1.4.5<br />
3 f i g u r e(’name’,’erreul’);<br />
4 ts = (tspan(2)-tspan(1))./N;<br />
5 loglog(ts,err,’-+’); hold on;<br />
6 loglog(ts,10*ts,’k-’);<br />
7 x l a b e l(’{\bf timestep h}’,’fontsize’,14);<br />
8 y l a b e l(’{\bf error (Euclidean norm)}’,’fontsize’,14);<br />
9 leg{l} = ’O(h)’; legend(leg,’location’,’southeast’);<br />
Numerische<br />
Mathemtik<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
1.4<br />
p. 77
AWP für Riccati-Dgl. (1.1.4) auf[0,1]<br />
Explizites Euler-Verfahren (1.4.2) mit<br />
uniformem Zeitschritth = 1/n,<br />
n ∈ {5,10,20,40,80,160,320,640}.<br />
Fehler err h := |y(1)−y h (1)|<br />
error (Euclidean norm)<br />
10 −1<br />
10 −2<br />
Beobachtung:<br />
Algebraische Konvergenz<br />
err h = O(h)<br />
10 1 timestep h<br />
10 0<br />
Numerische<br />
Mathemtik<br />
10 −3<br />
y0 = 0.10<br />
y0 = 0.20<br />
y0 = 0.40<br />
y0 = 0.80<br />
O(h)<br />
10 −3 10 −2 10 −1 10 0<br />
Fig. 24<br />
✸<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
✎ Notation “Landau-O”:<br />
e(h) = O(g(h)) fürh → 0 :⇔ ∃h 0 > 0, C > 0: |e(h)| ≤ Cg(h) ∀0 ≤ h ≤ h 0 .<br />
1.4<br />
p. 78
Definition 1.4.5 (Arten der Konvergenz).<br />
Seierr h der Diskretisierungsfehler eines Verfahrens zum Diskretisierungsparameter/Schrittweiteh,h<br />
> 0.<br />
Numerische<br />
Mathemtik<br />
err h = O(h α ) :⇔ Algebraische Konvergenz der Ordnungα > 0<br />
err h = O(exp(−βh −γ )), :⇔ exponentielle Konvergenz, fallsβ,γ > 0<br />
Fehlerplots bei algebraischer Konvergenz (h i = (3/2) −i ,i = 1,...,10)<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
1.4<br />
p. 79
0.9<br />
0.8<br />
α = 1/2<br />
α = 1<br />
α = 2<br />
Error plots for algebraic convergence (linear scale)<br />
10 0 Error plots for algebraic convergence (log scale<br />
Numerische<br />
Mathemtik<br />
0.7<br />
10 −1<br />
0.6<br />
error<br />
0.5<br />
0.4<br />
error<br />
10 −2<br />
0.3<br />
0.2<br />
10 −3<br />
0.1<br />
0<br />
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7<br />
h<br />
lineare Skalen<br />
Fig. 25<br />
10 −4<br />
10 −2 10 −1 10 0<br />
logarithmische Skalen<br />
h<br />
α = 1/2<br />
α = 1<br />
α = 2<br />
Fig. 26<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Fehlerplots bei exponentieller Konvergenz (h i = (3/2) −i ,i = 1,...,10)<br />
1.4<br />
p. 80
0.7<br />
0.6<br />
β = 0.5, γ = 0.5<br />
β = 1.0, γ = 0.5<br />
β = 2.0, γ = 0.5<br />
β = 1.0, γ = 1.0<br />
β = 1.0, γ = 1/3<br />
Error plots for exponential convergence (linear scale)<br />
10 0 Error plots for exponential convergence (log scale)<br />
10 −1<br />
10 −2<br />
Numerische<br />
Mathemtik<br />
0.5<br />
10 −3<br />
error<br />
0.4<br />
error<br />
10 −4<br />
10 −5<br />
0.3<br />
10 −6<br />
0.2<br />
10 −7<br />
0.1<br />
0<br />
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7<br />
h<br />
lineare Skalen<br />
Fig. 27<br />
10 −8<br />
10 −9<br />
10 −10<br />
10 −2 10 −1 10 0<br />
logarithmische Skalen<br />
h<br />
β = 0.5, γ = 0.5<br />
β = 1.0, γ = 0.5<br />
β = 2.0, γ = 0.5<br />
β = 1.0, γ = 1.0<br />
β = 1.0, γ = 1/3<br />
Fig. 28<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
1.4<br />
p. 81
10 0 Error plots for exponential convergence (h −γ lin−log scale)<br />
10 −1<br />
10 −2<br />
β = 0.5, γ = 0.5<br />
β = 1.0, γ = 0.5<br />
β = 2.0, γ = 0.5<br />
β = 1.0, γ = 1.0<br />
β = 1.0, γ = 1/3<br />
Numerische<br />
Mathemtik<br />
error<br />
10 −3<br />
10 −4<br />
10 −5<br />
10 −6<br />
10 −7<br />
✁ (h −γ<br />
i<br />
,ǫ i ) (h i ˆ= Schrittweiten,ǫ i ˆ= zugehörige<br />
Diskretisierungsfehler ) liegen auf Geraden mit<br />
Steigung−β<br />
10 −8<br />
10 −9<br />
10 −10<br />
0 5 10 15 20 25 30<br />
h −γ<br />
Fig. 29<br />
<strong>Beispiel</strong> 1.4.9 (Explizites Euler-Verfahren für logistische Dgl.).<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Anfangswertproblem für logistische Differentialgleichung, siehe Bsp. 1.2.1<br />
ẏ = λy(1−y) , y(0) = 0.01 .<br />
Explizites Euler-Verfahren (1.4.2) mit uniformem Zeitschritth = 1/n,<br />
n ∈ {5,10,20,40,80,160,320,640}.<br />
Fehler zum EndzeitpunktT = 1<br />
1.4<br />
p. 82
10 0<br />
λ = 1.000000<br />
λ = 3.000000<br />
λ = 6.000000<br />
λ = 9.000000<br />
10 120<br />
10 100<br />
λ = 10.000000<br />
λ = 30.000000<br />
λ = 60.000000<br />
λ = 90.000000<br />
Numerische<br />
Mathemtik<br />
error (Euclidean norm)<br />
10 1 timestep h<br />
10 −1<br />
10 −2<br />
10 −3<br />
error (Euclidean norm)<br />
10 140 timestep h<br />
10 80<br />
10 60<br />
10 40<br />
10 20<br />
10 −4<br />
10 0<br />
10 −5<br />
10 −3 10 −2 10 −1 10 0<br />
λ klein:O(h)-Konvergenz (asymptotisch)<br />
Fig. 30<br />
10 −20<br />
10 −3 10 −2 10 −1 10 0<br />
λ gross: Explosion vony k für grosse<br />
Zeitschrittweitenh<br />
Fig. 31<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
1.4<br />
p. 83
1.4<br />
1.2<br />
1<br />
0.8<br />
✁ λ = 90, — ˆ= exakte Lösung, — ˆ= Eulerpolygon<br />
Numerische<br />
Mathemtik<br />
y<br />
0.6<br />
0.4<br />
0.2<br />
0<br />
−0.2<br />
y k schiessen über den stark attraktiven<br />
Fixpunkty = 1 hinaus.<br />
➥ Beobachtung: exponentiell anwachsende<br />
Oszillationen dery k<br />
−0.4<br />
exact solution<br />
explicit Euler<br />
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1<br />
t<br />
Fig. 32<br />
✸<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Einsicht durch Modellproblemanalyse: einfachste Dgl. mit stark attraktivem Fixpunkty = 0<br />
Homogene lineare skalare Dgl., Sect. 1.3.2 : ẏ = f(y) := λy , λ < 0 . (1.4.10)<br />
ẏ = λy , y(0) = y 0 ⇒ y(t) = y 0 exp(λt) → 0 für t → ∞ . (1.4.11)<br />
1.4<br />
p. 84
Rekursion des expliziten Eulerverfahrens für (1.4.10) (uniforme Zeitschrittweiteh > 0)<br />
Numerische<br />
Mathemtik<br />
(1.4.2) forf(y) = λy: y k+1 = y k (1+λh) . (1.4.12)<br />
y k = y 0 (1+λh) k ⇒ |y k | →<br />
{<br />
0 , wennλh > −2 (qualitativ richtig) ,<br />
∞ , wennλh < −2 (qualitativ falsch) .<br />
1.4.2 Das implizite Euler-Verfahren<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Wie vermeidet man das Überschiessen des expliziten Eulerverfahrens bei stark attraktiven Fixpunkten<br />
und grossen Zeitschrittweiten ?<br />
1.4<br />
p. 85
y<br />
y h (t 1 ) y(t)<br />
t<br />
t 0 t 1<br />
y 0<br />
Fig. 33<br />
Idee: Approximiere Lösung durch (t 0 ,y 0 ) auf<br />
[t 0 ,t 1 ] durch<br />
• Strecke duch(t 0 ,y 0 )<br />
• mit Steigungf(t 1 ,y 1 )<br />
✁ — ˆ= Lösungkurve durch(t 0 ,y 0 ),<br />
— ˆ= Lösungkurve durch(t 1 ,y 1 ),<br />
— ˆ= Tangente an — in(t 1 ,y 1 ).<br />
Numerische<br />
Mathemtik<br />
Anwendung auf kleine Zeitintervalle [t 0 ,t 1 ],[t 1 ,t 2 ],...,[t N−1 ,t N ] ➤ implizites Euler-Verfahren<br />
durch implizites Eulerverfahren erzeugte Näherung füry(t k ) erfüllt<br />
y k+1 := y h (t k+1 ) = y h (t k )+h k f(t k+1 ,y k+1 ) , k = 0,...,N −1 , (1.4.13)<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
mit lokaler (Zeit)schrittweite h k := t k+1 −t k .<br />
Beachte: (1.4.13) erfordert Auflösen einer (evtl. nichtlinearen) Gleichung nachy k+1 !<br />
(➤ Terminologie „implizit”)<br />
1.4<br />
p. 86
Bemerkung 1.4.14 (Implizites Eulerverfahren als Differenzenverfahren).<br />
Numerische<br />
Mathemtik<br />
(1.4.13) aus Approximation der Zeitableitung d dt<br />
G := {t 0 ,t 1 ,...,t N }:<br />
durch Rückwärtsdifferenzenquotienten auf Zeitgitter<br />
ẏ = f(t,y) ←→ y h(t k+1 )−y h (t k )<br />
h k<br />
= f(t k+1 ,y h (t k+1 )) , k = 0,...,N −1 .<br />
△<br />
<strong>Beispiel</strong> 1.4.15 (Implizites Eulerverfahren für logistische Differentialgleichung). → Bps. 1.4.9<br />
Wiederholung der numerischen Experimente aus <strong>Beispiel</strong> 1.4.9 für implizites Eulerverfahren (1.4.13):<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
1.4<br />
p. 87
10 0<br />
λ = 1.000000<br />
λ = 3.000000<br />
λ = 6.000000<br />
λ = 9.000000<br />
O(h)<br />
10 0<br />
10 −2<br />
λ = 10.000000<br />
λ = 30.000000<br />
λ = 60.000000<br />
λ = 90.000000<br />
O(h)<br />
Numerische<br />
Mathemtik<br />
error (Euclidean norm)<br />
10 1 timestep h<br />
10 −1<br />
10 −2<br />
10 −3<br />
error (Euclidean norm)<br />
10 2 timestep h<br />
10 −4<br />
10 −6<br />
10 −8<br />
10 −10<br />
10 −12<br />
10 −4<br />
10 −14<br />
10 −5<br />
10 −3 10 −2 10 −1 10 0<br />
λ klein:O(h)-Konvergenz (asymptotisch)<br />
Fig. 34<br />
Modellproblemanalyse (wie in Abschnitt 1.4.1):<br />
(1.4.13) forf(y) = λy: y k+1 = y k<br />
1<br />
1−λh .<br />
10 −16<br />
10 −3 10 −2 10 −1 10 0<br />
Fig. 35<br />
λ gross: stabil für alle Zeitschrittweitenh!<br />
R. Hiptmair<br />
✸<br />
rev 35327,<br />
25. April<br />
2011<br />
(1.4.16)<br />
1.4<br />
p. 88
( ) 1 k<br />
y k = y 0 ⇒ |y<br />
1−λh k | →<br />
⎧<br />
⎪⎨ 0 , wennλh < 0 (qualitativ richtig) ,<br />
∞ , wenn0 < λh < 1 (qualitativ richtig) ,<br />
⎪⎩<br />
∞ , wennλh > 1 (Oszillationen, qualitativ falsch) .<br />
Numerische<br />
Mathemtik<br />
<strong>Beispiel</strong> 1.4.17 (Euler-Verfahren für Pendelgleichung).<br />
Mathematisches Pendel→Bsp. 1.2.17: Hamiltonsche Form (1.2.19) der Bewegungsgleichungen<br />
( ) ( α<br />
p<br />
Winkelgeschwindigkeit<br />
p := ˙α ⇒ d dt<br />
=<br />
)<br />
p<br />
− g l sinα<br />
, g = 9.8,l = 1 . (1.2.19)<br />
Approximative numerische Lösung mit explizitem/implizitem Eulerverfahren (1.4.2)/(1.4.13),<br />
Konstante Zeitschrittweiteh = T/N,T = 5 Endzeitpunkt,N ∈ {50,100,200},<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Startwert: α(0) = π/4,p(0) = 0.<br />
Listing 1.5: Simulation des mathematischen Pendels mit einfachen Polygonzugverfahren<br />
1 f u n c t i o n pendeul(y0,T,N,filename)<br />
2 % MATLAB function applying explicit and implicit Euler methods and implicit<br />
1.4<br />
p. 89
3 % midpoint rule of Sect. 1.4.3 to mathematical pendulum equation in<br />
4 % minimal coordinates and Hamiltonian form for Ex. 1.4.17<br />
5 % Arguments: y0 ˆ= initial position, T ˆ= final time N ˆ=<br />
6 % number of equidistant timesteps<br />
7<br />
8 g = 9.8; % constant of gravity<br />
9 l = 1; % length of pendulum<br />
0<br />
1 % Compute ’exact’ solution by means of high-order single step method with tight<br />
2 % error control<br />
3 odefun = @(t,y) [y(2);-g/l*sin(y(1))];<br />
4 [t,s] =<br />
ode45(odefun,[0,T],y0,odeset(’abstol’,1E-10,’reltol’,1E-10));<br />
5<br />
6 h = T/N; % timestep<br />
7<br />
8 % Explicit Euler (1.4.2)<br />
9 y_expl = y0; y = y0;<br />
0 f o r k=1:N<br />
1 y = y + h*[y(2);-g/l*sin(y(1))];<br />
2 y_expl = [y_expl,y];<br />
3 end<br />
4<br />
Numerische<br />
Mathemtik<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
1.4<br />
p. 90
5 % Implicit Euler<br />
6 y_imp = y0; y = y0;<br />
7 f o r k=1:N<br />
8 % Implicit Euler equation for next angle<br />
9 F = @(x) x+h*h*g/l*sin(x) - y(1) - h*y(2);<br />
0 [y(1),Fval] = fsolve(F,y(1)+h*y(2)); % solve non-linear system of<br />
equations<br />
1 f p r i n t f(’Impl Euler step %d: residual %f\n’,k,Fval);<br />
2 y(2) = y(2) - h*g/l*sin(y(1));<br />
3 y_imp = [y_imp,y];<br />
4 end<br />
5<br />
6 % Implicit midpoint rule<br />
7 y_mid = y0; y = y0;<br />
8 rhs = @(y) [y(2);-g/l*sin(y(1))];<br />
9<br />
0 f o r k=1:N<br />
1 % Implicit equation (1.4.19) for implicit midpoint rule<br />
2 F = @(x) (x - h*rhs(y+0.5*x));<br />
3 [dy,Fval] = fsolve(F,h*rhs(y)); y = y+dy;<br />
4 f p r i n t f(’Impl midp step %d: residual %f\n’,k,norm(Fval));<br />
5 y_mid = [y_mid,y];<br />
6 end<br />
7<br />
Numerische<br />
Mathemtik<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
1.4<br />
p. 91
8 tg = h*(0:N);<br />
9<br />
0 % Plotting of trajectories in phase space<br />
1 f i g u r e(’name’,’pendeul’);<br />
2 ph = p l o t(s(:,1),s(:,2),’g--’,...<br />
3 y_expl(1,:),y_expl(2,:),’r-+’,...<br />
4 y_imp(1,:),y_imp(2,:),’b-+’,...<br />
5 y_mid(1,:),y_mid(2,:),’m-*’); hold on;<br />
6 set(ph(1),’linewidth’,2);<br />
7 ax = axis;<br />
8 p l o t([ax(1) ax(2)],[0 0],’k-’);<br />
9 p l o t([0 0],[ax(3) ax(4)],’k-’);<br />
0 x l a b e l(’{\bf \alpha}’,’fontsize’,14);<br />
1 y l a b e l(’{\bf p}’,’fontsize’,14);<br />
2 legend(’exact solution’,’explicit Euler’,’implicit Euler’,...<br />
3 ’implicit midpoint’,’location’,’southwest’);<br />
4 t i t l e( s p r i n t f(’%d timesteps on [0,%f]’,N,T));<br />
5<br />
6 i f (nargin > 3)<br />
7 p r i n t(’-depsc2’, s p r i n t f(’%s.eps’,filename));<br />
8 end<br />
9<br />
0 % Tracking energies for explicit Euler<br />
Numerische<br />
Mathemtik<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
1.4<br />
p. 92
1 y = y_expl;<br />
2<br />
3 E_kin = 0.5*(y(2,:).^2);<br />
4 E_pot = -g/l*cos(y(1,:));<br />
5 E_pot = E_pot - min(E_pot) + min(E_kin);<br />
6 E_tot = E_kin + E_pot;<br />
7<br />
8 % Plot of evolution of energies<br />
9 f i g u r e(’name’,’Pendulum: energy’);<br />
0 p l o t(tg,E_kin,’b-’,...<br />
1 tg,E_pot,’c-’,...<br />
2 tg,E_tot,’r-’);<br />
3 x l a b e l(’{\bf time t}’,’fontsize’,14);<br />
4 y l a b e l(’{\bf energy}’,’fontsize’,14);<br />
5 legend(’kinetic energy’,’potential energy’,’total energy’);<br />
6 t i t l e(’Energies for {\bf explicit} Euler discrete evolution’);<br />
7<br />
8 i f (nargin > 3),<br />
p r i n t(’-depsc2’, s p r i n t f(’%s_EnExpl.eps’,filename)); end<br />
9<br />
0 % Tracking energies for implicit Euler<br />
1 y = y_imp;<br />
2 E_kin = 0.5*(y(2,:).^2);<br />
Numerische<br />
Mathemtik<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
1.4<br />
p. 93
3 E_pot = -g/l*cos(y(1,:));<br />
4 E_pot = E_pot - min(E_pot) + min(E_kin);<br />
5 E_tot = E_kin + E_pot;<br />
6<br />
7 f i g u r e(’name’,’Pendulum: energy’);<br />
8 p l o t(tg,E_kin,’b-’,...<br />
9 tg,E_pot,’c-’,...<br />
0 tg,E_tot,’r-’);<br />
1 x l a b e l(’{\bf time t}’,’fontsize’,14);<br />
2 y l a b e l(’{\bf energy}’,’fontsize’,14);<br />
3 legend(’kinetic energy’,’potential energy’,’total energy’);<br />
4 t i t l e(’Energies for {\bf implicit} Euler discrete evolution’);<br />
5<br />
6 i f (nargin > 3)<br />
7 p r i n t(’-depsc2’, s p r i n t f(’%s_EnImpl.eps’,filename));<br />
8 end<br />
9<br />
0 % Tracking energies for implicit midpoint rule<br />
1 y = y_mid;<br />
2<br />
3 E_kin = 0.5*(y(2,:).^2);<br />
4 E_pot = -g/l*cos(y(1,:));<br />
5 E_pot = E_pot - min(E_pot) + min(E_kin);<br />
Numerische<br />
Mathemtik<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
1.4<br />
p. 94
6 E_tot = E_kin + E_pot;<br />
7<br />
8 f i g u r e(’name’,’Pendulum: energy’);<br />
9 p l o t(tg,E_kin,’b-’,...<br />
0 tg,E_pot,’c-’,...<br />
1 tg,E_tot,’r-’);<br />
2 x l a b e l(’{\bf time t}’,’fontsize’,14);<br />
3 y l a b e l(’{\bf energy}’,’fontsize’,14);<br />
4 legend(’kinetic energy’,’potential energy’,’total<br />
energy’,’location’,’southwest’);<br />
5 t i t l e(’Energies for {\bf implicit midpoint} discrete evolution’);<br />
6<br />
7 i f (nargin > 3)<br />
8 p r i n t(’-depsc2’, s p r i n t f(’%s_EnImid.eps’,filename));<br />
9 end<br />
Numerische<br />
Mathemtik<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
1.4<br />
p. 95
6<br />
4<br />
exact solution<br />
explicit Euler<br />
implicit Euler<br />
50 timesteps on [0,5.000000]<br />
6<br />
4<br />
100 timesteps on [0,5.000000]<br />
4<br />
3<br />
200 timesteps on [0,5.000000]<br />
Numerische<br />
Mathemtik<br />
2<br />
2<br />
2<br />
1<br />
0<br />
p<br />
p<br />
0<br />
p<br />
0<br />
−2<br />
−4<br />
−2<br />
−1<br />
−2<br />
−6<br />
−8<br />
−10 −8 −6 −4 −2 0 2 4<br />
α<br />
−4<br />
exact solution<br />
explicit Euler<br />
implicit Euler<br />
−6<br />
−4<br />
−2 −1.5 −1 −0.5 0 0.5 1 1.5 2 2.5 −1.5 −1 −0.5 0 0.5 1 1.5<br />
Fig. 36 Fig. 37 Fig. 38<br />
α<br />
−3<br />
exact solution<br />
explicit Euler<br />
implicit Euler<br />
α<br />
Verhalten der approximativen Energien: kinetische Enegie :E kin (t) = 1 2 p(t)2<br />
potentielle Energie :E pot (t) = − g l cosα(t)<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
1.4<br />
p. 96
9<br />
8<br />
Energies for explicit Euler discrete evolution<br />
kinetic energy<br />
potential energy<br />
total energy<br />
3<br />
Energies for implicit Euler discrete evolution<br />
kinetic energy<br />
potential energy<br />
total energy<br />
Numerische<br />
Mathemtik<br />
2.5<br />
7<br />
6<br />
2<br />
energy<br />
5<br />
4<br />
energy<br />
1.5<br />
3<br />
1<br />
2<br />
0.5<br />
1<br />
0<br />
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5<br />
time t<br />
Fig. 39<br />
0<br />
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5<br />
time t<br />
Fig. 40<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
☞ Expliziter Euler: Anwachsen der Gesamtenergie des Pendels<br />
☞ Impliziter Euler: Pendel kommt zur Ruhe („numerische Reibung”)<br />
✸<br />
1.4<br />
p. 97
<strong>Beispiel</strong> 1.4.18 (Eulerverfahren für längenerhaltende Evolution).<br />
Anfagswertproblem für ,D = R 2 :<br />
( )<br />
y2<br />
ẏ = , y(0) = y<br />
−y 0 ➤ y(t) =<br />
1<br />
( ) cost sint<br />
y<br />
−sint cost 0 .<br />
I(y) = ‖y‖<br />
Erstes Integral (→ Def. 1.2.7):<br />
(Bewegung mit konstanter Geschwindigkeit auf Kreisbahn)<br />
Numerische<br />
Mathemtik<br />
2<br />
1.5<br />
exact solution<br />
explicit Euler<br />
implicit Euler<br />
40 timesteps on [0,10.000000]<br />
1.5<br />
exact solution<br />
explicit Euler<br />
implicit Euler<br />
160 timesteps on [0,10.000000]<br />
1<br />
1<br />
0.5<br />
0.5<br />
R. Hiptmair<br />
y 2<br />
0<br />
−0.5<br />
y 2<br />
0<br />
rev 35327,<br />
25. April<br />
2011<br />
−1<br />
−1.5<br />
−0.5<br />
−2<br />
−1<br />
−2.5<br />
−3<br />
−4 −3 −2 −1 0 1 2 3<br />
y 1<br />
Fig. 41<br />
−1.5<br />
−1.5 −1 −0.5 0 0.5 1 1.5<br />
y 1<br />
Fig. 42<br />
☞ Expliziter Euler: Numerische Lösung wird „aus der Kurve getragen”<br />
☞ Impliziter Euler: Numerische Lösung „stürzt ins Zentrum”<br />
1.4<br />
p. 98
✸<br />
Numerische<br />
Mathemtik<br />
1.4.3 Implizite Mittelpunktsregel<br />
Wie vermeidet man die Energiedrift für explizites/implizites Euler-Verfahren angewandt auf konservative<br />
Systeme ?<br />
R. Hiptmair<br />
y<br />
y ∗ y h (t 1 )<br />
y 0<br />
f(t ∗ ,y ∗ )<br />
t<br />
t 0 t ∗ t 1<br />
Fig. 43<br />
Idee: Approximiere Lösung durch (t 0 ,y 0 ) auf<br />
[t 0 ,t 1 ] durch<br />
• lineares Polynom durch(t 0 ,y 0 )<br />
• mit Steigungf(t ∗ ,y ∗ ),<br />
t ∗ := 1 2 (t 0+t 1 ),y ∗ = 1 2 (y 0+y 1 )<br />
✁ — ˆ= Lösungkurve durch(t 0 ,y 0 ),<br />
— ˆ= Lösungkurve durch(t ∗ ,y ∗ ),<br />
— ˆ= Tangente an — in(t ∗ ,y ∗ ).<br />
rev 35327,<br />
25. April<br />
2011<br />
1.4<br />
p. 99
Anwendung auf kleine Zeitintervalle [t 0 ,t 1 ],[t 1 ,t 2 ],...,[t N−1 ,t N ] ➤ implizite Mittelpunktsregel<br />
Numerische<br />
Mathemtik<br />
durch implizite Mittelpunktsregel erzeugte Näherungy k+1 füry(t k ) erfüllt<br />
y k+1 := y h (t k+1 ) = y k +h k f( 1 2 (t k +t k+1 ), 1 2 (y k +y k+1 )) , k = 0,...,N −1 , (1.4.19)<br />
mit lokaler (Zeit)schrittweite h k := t k+1 −t k .<br />
Beachte: (1.4.19) erfordert Auflösen einer (evtl. nichtlinearen) Gleichung nachy k+1 !<br />
(➤ Terminologie „implizit”)<br />
Bemerkung 1.4.20 (Implizite Mittelpunktsregel als Differenzenverfahren).<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
(1.4.19) aus Approximation der Zeitableitung d dt<br />
G := {t 0 ,t 1 ,...,t N }:<br />
durch zentralen Differenzenquotienten auf Zeitgitter<br />
ẏ = f(t,y) ←→ y h(t k+1 )−y h (t k )<br />
h k<br />
= f( 1 2 (t k +t k+1 ), 1 2 (y h(t k )+y(t k+1 )), k = 0,...,N −1 .<br />
△<br />
1.4<br />
p. 100
<strong>Beispiel</strong> 1.4.21 (Implizite Mittelpunktsregel für logistische Dgl.).<br />
Numerische<br />
Mathemtik<br />
Wiederholung der numerischen Experimente aus <strong>Beispiel</strong> 1.4.9 für implizite Mittelpunktsregel (1.4.19):<br />
10 −1<br />
10 −2<br />
10 −2<br />
10 −4<br />
error (Euclidean norm)<br />
10 0 timestep h<br />
10 −3<br />
10 −4<br />
10 −5<br />
10 −6<br />
10 −7<br />
10 −8<br />
10 −9<br />
λ = 1.000000<br />
λ = 2.000000<br />
λ = 5.000000<br />
λ = 10.000000<br />
O(h 2 )<br />
10 −3 10 −2 10 −1 10 0<br />
Fig. 44<br />
error (Euclidean norm)<br />
10 0 timestep h<br />
10 −6<br />
10 −8<br />
10 −10<br />
10 −12<br />
10 −14<br />
10 −16<br />
λ = 10.000000<br />
λ = 20.000000<br />
λ = 50.000000<br />
λ = 90.000000<br />
O(h 2 )<br />
10 −3 10 −2 10 −1 10 0<br />
Fig. 45<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
λ klein:O(h 2 )-Konvergenz (asymptotisch)<br />
λ gross: stabil für alle Zeitschrittweitenh!<br />
✸<br />
<strong>Beispiel</strong> 1.4.22 (Implizite Mittelpunktregel für Kreisbewegung).<br />
1.4<br />
p. 101
2<br />
1.5<br />
1<br />
exact solution<br />
explicit Euler<br />
implicit Euler<br />
implicit midpoint<br />
40 timesteps on [0,10.000000]<br />
1.5<br />
1<br />
exact solution<br />
explicit Euler<br />
implicit Euler<br />
implicit midpoint<br />
160 timesteps on [0,10.000000]<br />
Numerische<br />
Mathemtik<br />
0.5<br />
0.5<br />
0<br />
y 2<br />
−0.5<br />
y 2<br />
0<br />
−1<br />
−1.5<br />
−0.5<br />
−2<br />
−1<br />
−2.5<br />
−3<br />
−4 −3 −2 −1 0 1 2 3<br />
y 1<br />
Fig. 46<br />
☞ Implizite Mittelpunktsregel: Perfekte Längenerhaltung !<br />
−1.5<br />
−1.5 −1 −0.5 0 0.5 1 1.5<br />
y 1<br />
Fig. 47<br />
✸<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
✬<br />
✩<br />
Lemma 1.4.23 (Erhaltung quadratischer erster Integrale durch implizite Mittelpunktsregel).<br />
Falls I : D ⊂ R d ↦→ R, I(y) := 1 2 yT Ay, A ∈ R d,d , erstes Integral (→ Def. 1.2.7) der<br />
autonomen Dgl.ẏ = f(y) mit global differenzierbarer rechter Seitef : D ↦→ R d , dann gilt<br />
✫<br />
I(y k ) = I(y 0 ) ∀k ∈ Z für y k gemäss (1.4.19)<br />
✪<br />
1.4<br />
p. 102
<strong>Beispiel</strong> 1.4.24 (Implizite Mittelpunktsregel für Pendelgleichung).<br />
Numerische<br />
Mathemtik<br />
Anfangswertproblem und numerische Experimente wie in Bsp. 1.4.17<br />
6<br />
4<br />
exact solution<br />
explicit Euler<br />
implicit Euler<br />
implicit midpoint<br />
50 timesteps on [0,5.000000]<br />
6<br />
4<br />
100 timesteps on [0,5.000000]<br />
4<br />
3<br />
200 timesteps on [0,5.000000]<br />
2<br />
2<br />
2<br />
1<br />
0<br />
p<br />
p<br />
0<br />
p<br />
0<br />
−2<br />
−4<br />
−2<br />
−1<br />
−2<br />
−6<br />
−8<br />
−10 −8 −6 −4 −2 0 2 4<br />
α<br />
−4<br />
exact solution<br />
explicit Euler<br />
implicit Euler<br />
implicit midpoint<br />
−6<br />
−4<br />
−2 −1.5 −1 −0.5 0 0.5 1 1.5 2 2.5 −1.5 −1 −0.5 0 0.5 1 1.5<br />
Fig. 48 Fig. 49 Fig. 50<br />
α<br />
−3<br />
exact solution<br />
explicit Euler<br />
implicit Euler<br />
implicit midpoint<br />
α<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
1.4<br />
p. 103
3<br />
Energies for implicit midpoint discrete evolution<br />
Numerische<br />
Mathemtik<br />
2.5<br />
energy<br />
2<br />
1.5<br />
1<br />
✁ Verhalten der Energien bei numerischer<br />
Integration mit impliziter Mittelpunktsregel<br />
(1.4.19),N = 50.<br />
Keine (sichtbare) Energiedrift im Vergleich zu<br />
Euler-Verfahren (trotz grosser Zeitschritte)<br />
0.5<br />
kinetic energy<br />
potential energy<br />
total energy<br />
0<br />
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5<br />
time t<br />
Fig. 51<br />
✸<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
1.4.4 Störmer-Verlet-Verfahren [15]<br />
?<br />
Übertragung der Idee der Euler-Verfahren (→ Sect. 1.4.1, 1.4.2) auf Differentialgleichungen 2.<br />
Ordnung<br />
ÿ = f(t,y) . (1.4.25)<br />
1.4<br />
p. 104
Gegebeny k−1 ≈ y(t k−1 ),y k ≈ y(t k ) approximierey(t) auf[t k−1 ,t k+1 ] durch<br />
• Parabelp(t) durch(t k−1 ,y k−1 ),(t k ,y k )(∗),<br />
Numerische<br />
Mathemtik<br />
• mit<br />
(∗) ➜<br />
¨p(t k ) = f(y k )(∗).<br />
Parabel eindeutig bestimmt.<br />
y k+1 := p(t k+1 ) ≈ y(t k+1 )<br />
Störmer-Verlet-Verfahren für (1.4.25) (ZeitgitterG := {t 0 ,t 1 ,...,t N }):<br />
y k+1 = − h k<br />
h k−1<br />
y k−1 +<br />
Für uniforme Zeitschrittweiteh:<br />
(<br />
1+ h )<br />
k<br />
y<br />
h k +<br />
2 1(h2 k +h kh k−1 )f(t k ,y k ) , k = 1,...,N −1 .<br />
k−1<br />
(1.4.26)<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
y k+1 = −y k−1 +2y k +h 2 f(t k ,y k ) , k = 1,...,N −1 . (1.4.27)<br />
Beachte: (1.4.26) erfordert nicht das Lösen einer Gleichung (➤ explizites Verfahren)<br />
Terminologie: y k+1 = y k+1 (y k ,y k−1 ) ➤ (1.4.26) ist ein Zweischrittverfahren<br />
(Explizites/implizites Euler-Verfahren, Mittelpunktsregel = Einschrittverfahren)<br />
1.4<br />
p. 105
Bemerkung 1.4.28 (Störmer-Verlet-Verfahren als Differenzenverfahren).<br />
Numerische<br />
Mathemtik<br />
(1.4.27) aus Approximation der zweiten Zeitableitung durch zweiten zentralen Differenzenquotienten<br />
auf ZeitgitterG := {t 0 ,t 1 ,...,t N }: für uniforme Zeitschrittweiteh > 0<br />
ÿ = f(y) ←→<br />
y h (t k+1 )−y h (t k )<br />
h<br />
− y h(t k )−y h (t k−1 )<br />
h<br />
h<br />
= y h(t k+1 )−2y h (t k )+y h (t k−1 )<br />
h 2 = f(y h (t k )) .<br />
△<br />
Bemerkung 1.4.29 (Startschritt für Störmer-Verlet-Verfahren).<br />
Anfangswerte für (1.4.25), siehe Bem. 1.1.16: y(0) = y 0 ,ẏ(0) = v 0<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Benutze virtuellen Zeitpunkt t −1 := t 0 −h 0<br />
Wende (1.4.27) an auf[t −1 ,t 1 ]:<br />
Zentraler Differenzenquotient auf[t −1 ,t 1 ]:<br />
y 1 = −y −1 +2y 0 +h 2 0 f(t 0,y 0 ) . (1.4.30)<br />
y 1 −y −1<br />
2h 0<br />
= v 0 . (1.4.31)<br />
1.4<br />
p. 106
Berechney 1 aus (1.4.30) & (1.4.31)<br />
<strong>Beispiel</strong> 1.4.32 (Störmer-Verlet-Verfahren für Pendelgleichung).<br />
△<br />
Numerische<br />
Mathemtik<br />
Listing 1.6: Störmer-Verlet-Verfahren für Pendelgleichung<br />
1 f u n c t i o n sverletpend(y0,v0,T,N,filename)<br />
2 % MATLAB function for Stoermer-Verlet simulation of movement of mathematical<br />
3 % pendulum, Example 1.4.32<br />
4 %<br />
5 % y0,v0: initial values for angle and its temporal derivative<br />
6 % T : final time<br />
7 % N : number of timesteps<br />
8<br />
9 g = 9.8; l = 1;<br />
0<br />
1 % right hand side for (1.4.25) (Newton’s equations of motion)<br />
2 f = @(y) -g/l*sin(y);<br />
3<br />
4 h = T/N; % uniform timestep<br />
5 y_old = y0; y_new = h*v0+y0+ 0.5*h*h*f(y0); % initial step, see<br />
Rem. 1.4.29<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
1.4<br />
p. 107
6<br />
7 % Stoermer-Verlet iteration<br />
8 y_sv = y0; y_sv = [y_sv,y_new]; y_p = v0;<br />
9 f o r k=2:N+1<br />
0 y = -y_old + 2*y_new + h*h*f(y_new);<br />
1 y_p = [y_p,(y-y_old)/(2*h)];<br />
2 y_old = y_new; y_new = y;<br />
3 y_sv = [y_sv,y];<br />
4 end<br />
5 y_sv = y_sv(1:end-1);<br />
6<br />
7 % right hand side (Hamiltonian form) for computation of reference solution<br />
8 % with high-order single step method with tight tolerances<br />
9 odefun = @(t,y) [y(2);-g/l*sin(y(1))];<br />
0 [t,y] = ode45(odefun,[0,T],[y0;v0],...<br />
1 odeset(’abstol’,1E-11,’reltol’,1E-11,’stats’,’on’));<br />
2<br />
3 % Plot of angle vs. time<br />
4 f i g u r e(’name’,’Pendulum alpha’);<br />
5 p l o t(t,y(:,1),’g-’,h*(0:N),y_sv,’r-+’);<br />
6 x l a b e l(’{\bf time t}’,’fontsize’,14);<br />
7 y l a b e l(’{\bf angle \alpha}’,’fontsize’,14);<br />
8 t i t l e( s p r i n t f(’Pendulum g = %f, l =<br />
Numerische<br />
Mathemtik<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
1.4<br />
p. 108
%f,\\alpha(0)=%f,p(0)=%f’,g,l,y0,v0));<br />
9 i f (nargin > 3),<br />
p r i n t(’-depsc2’, s p r i n t f(’%s_alpha.eps’,filename)); end<br />
0<br />
1 % Plot of velocity vs. time<br />
2 tg = h*(0:N);<br />
3 f i g u r e(’name’,’Pendulum velocity’);<br />
4 p l o t(t,y(:,2),’g-’,tg,y_p,’r-+’);<br />
5 x l a b e l(’{\bf time t}’,’fontsize’,14);<br />
6 y l a b e l(’{\bf velocity p}’,’fontsize’,14);<br />
7 t i t l e( s p r i n t f(’Pendulum g = %f, l =<br />
%f,\\alpha(0)=%f,p(0)=%f’,g,l,y0,v0));<br />
8 i f (nargin > 3), p r i n t(’-depsc2’, s p r i n t f(’%s_p.eps’,filename));<br />
end<br />
9<br />
0 % PLot of trajectory in phase space<br />
1 f i g u r e(’name’,’Pendulum trajectory’);<br />
2 ph = p l o t(y(:,1),y(:,2),’g--’,y_sv,y_p,’r-+’);<br />
3 set(ph(1),’linewidth’,2);<br />
4 x l a b e l(’{\bf angle \alpha}’,’fontsize’,14);<br />
5 y l a b e l(’{\bf velocity p}’,’fontsize’,14);<br />
6 t i t l e( s p r i n t f(’Pendulum g = %f, l =<br />
%f,\\alpha(0)=%f,p(0)=%f’,g,l,y0,v0));<br />
Numerische<br />
Mathemtik<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
1.4<br />
p. 109
7<br />
8 i f (nargin > 3),<br />
p r i n t(’-depsc2’, s p r i n t f(’%s_orbit.eps’,filename)); end<br />
9<br />
0 % Tracking of energies<br />
1 E_kin = 0.5*(y_p.^2);<br />
2 E_pot = -g/l*cos(y_sv);<br />
3 E_pot = E_pot - min(E_pot) + min(E_kin);<br />
4 E_tot = E_kin + E_pot;<br />
5<br />
6 f i g u r e(’name’,’Pendulum: energy’);<br />
7 p l o t(tg,E_kin,’b-’,tg,E_pot,’c-’,tg,E_tot,’r-’);<br />
8 x l a b e l(’{\bf time t}’,’fontsize’,14);<br />
9 y l a b e l(’{\bf energy}’,’fontsize’,14);<br />
0 legend(’kinetic energy’,’potential energy’,’total<br />
energy’,’location’,’southeast’);<br />
1 t i t l e(’Energies for {\bf Stoermer-Verlet} discrete evolution’);<br />
2 i f (nargin > 3),<br />
p r i n t(’-depsc2’, s p r i n t f(’%s_EnSV.eps’,filename)); end<br />
Numerische<br />
Mathemtik<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
1.4<br />
p. 110
(1.4.27) angewandt auf (1.2.18)<br />
5<br />
4<br />
Pendulum g = 9.800000, l = 1.000000,α(0)=1.570796,p(0)=0.000000<br />
Numerische<br />
Mathemtik<br />
Startschritt gemäss Bem. 1.4.29<br />
3<br />
Uniforme Zeitschrittweitee h := T/N, N ∈ N<br />
Zeitschritte<br />
Referenzlösung durch MATLAB-Funktion<br />
velocity p<br />
2<br />
1<br />
0<br />
−1<br />
ode45() (extrem kleine Toleranzen)<br />
−2<br />
α 0 = π/2,p 0 = 0,T = 5, vgl. Bsp. 1.4.17<br />
−3<br />
Anzahl Zeitschritte: N = 40<br />
−4<br />
−5<br />
−2 −1.5 −1 −0.5 0 0.5 1 1.5 2<br />
angle α<br />
Fig. 52<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
1.4<br />
p. 111
2<br />
1.5<br />
Pendulum g = 9.800000, l = 1.000000,α(0)=1.570796,p(0)=0.000000<br />
5<br />
4<br />
Pendulum g = 9.800000, l = 1.000000,α(0)=1.570796,p(0)=0.000000<br />
Numerische<br />
Mathemtik<br />
3<br />
1<br />
2<br />
angle α<br />
0.5<br />
0<br />
−0.5<br />
velocity p<br />
1<br />
0<br />
−1<br />
−2<br />
−1<br />
−3<br />
−1.5<br />
−4<br />
−2<br />
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5<br />
time t<br />
Fig. 53<br />
−5<br />
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5<br />
time t<br />
Fig. 54<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
1.4<br />
p. 112
10<br />
9<br />
Energies for Stoermer−Verlet discrete evolution<br />
Numerische<br />
Mathemtik<br />
8<br />
7<br />
6<br />
energy<br />
5<br />
4<br />
3<br />
☞ Keine Energiedrift trotz grosser Zeitschrittweite<br />
Perfekt periodische Orbits !<br />
2<br />
1<br />
kinetic energy<br />
potential energy<br />
total energy<br />
0<br />
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5<br />
time t<br />
Fig. 55<br />
Kontrast: Bsp. 1.4.17<br />
Bemerkung 1.4.33 (Einschrittformulierung des Störmer-Verlet-Verfahrens).<br />
✸<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Für uniforme Zeitschrittweite, vgl. (1.4.27), analog zur Umwandlung einer Dgl. 2. Ordnung→Dgl. 1.<br />
1.4<br />
p. 113
Ordnung, siehe (1.1.10): mitv k+<br />
1<br />
2<br />
:= y k+1−y k<br />
h<br />
ÿ = f(y)<br />
↕<br />
←→<br />
ẏ = v ,<br />
˙v = f(y) .<br />
↕<br />
Numerische<br />
Mathemtik<br />
y k+1 −2y k +y k−1 = h 2 k f(y k) ←→<br />
Zweischrittverfahren<br />
v k+<br />
1 = v k + h<br />
2<br />
2 f(y k) ,<br />
y k+1 = y k +hv k+<br />
1 ,<br />
2<br />
v k+1 = v k+<br />
1 + h<br />
2<br />
2 f(y k+1) .<br />
Einschrittverfahren<br />
Startschritt (→ Bem. 1.4.29) ist implizit in der Einschrittformulierung enthalten.<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
△<br />
Bemerkung 1.4.34 (Störmer-Verlet-Verfahren als Polygonzugmethode).<br />
1.4<br />
p. 114
y/v<br />
v k+ 1/2<br />
Numerische<br />
Mathemtik<br />
Perspektive: Störmer-Verlet-Verfahren<br />
als Einschrittverfahren<br />
(siehe Bem. 1.4.33)<br />
v k+<br />
1 = v<br />
2<br />
k−<br />
1 +hf(y k ) ,<br />
2<br />
y k+1 = y k +hv k+<br />
1 .<br />
2<br />
v k− 1/2<br />
v k− 3/2<br />
y k<br />
f<br />
f<br />
y k−2<br />
y k−1<br />
y k+1<br />
t k−2 t k−1 t k t k+1<br />
t<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
△<br />
1.4<br />
p. 115
Erinnerung (Bem. 1.2.4) an die Frage<br />
für ODEs?”<br />
„Warum viele verschiedene numerischer Lösungsverfahren<br />
Numerische<br />
Mathemtik<br />
Antwort:<br />
Jeder numerische Integrator hat spezielle Eigenschaften<br />
➥<br />
besonders geeignet/ungeeignet für bestimmte Klassen von AWPe<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
1.4<br />
p. 116
Numerische<br />
Mathemtik<br />
2 Einschrittverfahren<br />
2.1 Grundlagen<br />
Gegeben: f : Ω ↦→ R d lokal Lipschitz-stetig (→ Def. 1.3.2) auf erweitertem Zustandsraum Ω ⊂<br />
R×D<br />
➣ Definiert ODE ẏ = f(t,y) (→ Sect. 1.1)<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Zugehöriger Evolutionsoperator: Φ s,t : D ↦→ D (→ Def. 1.3.7)<br />
Gegeben: Anfangsdaten(t 0 ,y 0 ) ∈ Ω ➣ Konkretes Anfangswertproblem (1.1.13)<br />
Ziel: ☞ Approximation vony(T) für EndzeitpunktT ∈ J(t 0 ,y 0 ).<br />
☞<br />
Approximation der Funktiont ↦→ y(t),t ∈ [t 0 ,T],T ∈ J(t 0 ,y 0 ) ✄ y h (t).<br />
2.1<br />
p. 117
Bemerkung 2.1.1 (Glattheitsannahmen an rechte Seitef).<br />
Numerische<br />
Mathemtik<br />
Für die Konvergenztheorie von Einschrittverfahren:<br />
Annahme: f „hinreichend” glatt ⇒ t ↦→ y(t) „hinreichend” glatt<br />
Beweise werden zunächst für beliebig glattesf konzipiert.<br />
Im Nachhinein werden minimale Glattheitsanforderungen an f für die jeweiligen Aussagen spezifiziert.<br />
(Dies wird im diesem Kurs in der Regel übersprungen werden)<br />
△<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
2.1.1 Abstrakte Einschrittverfahren [8, Sect. 4.1]<br />
2.1<br />
p. 118
Numerische<br />
Mathemtik<br />
Baustein: Verfahrensfunktion (diskrete Evolution) Ψ : ˜Ω h ⊂ I ×I ×D ↦→ R d<br />
✎ Notation: Ψ s,t y := Ψ(s,t;y)<br />
Baustein: Zeitgitter G := {t 0 ,t 1 ,...,t N = T} ,t 0 < t 1 < ··· < t N .<br />
(Terminologie: t k ˆ= Gitterpunkte, lokale (Zeit)schrittweiteh k := t k+1 −t k )<br />
✎ Notation: globale Zeitschrittweiteh = h G = max<br />
0≤i
Bemerkung 2.1.4 (Notation fuer Einschrittverfahren).<br />
Numerische<br />
Mathemtik<br />
Oft spezifiziert man Einschrittverfahren durch Angabe des ersten Schritts<br />
y 1 = Ausdruck iny 0 undf .<br />
Dieser Gepflogenheit wird sich auch diese Vorlesung manchmal anschliessen.<br />
△<br />
Einschrittverfahren<br />
function [T,Y] = esv(Psi,tspan,y0)<br />
t = tspan(1); y = y0; Y = y; T = t;<br />
while (t < tspan(2))<br />
h = Aktuelle Zeitschrittweite<br />
y = Psi(t,t+h,y); t = t+h;<br />
Y = [Y,y]; T = [T,t];<br />
end<br />
Funktionshandle<br />
Psi = @(t0,t1,y) ...<br />
Beachte: Die aktuelle Zeitschrittweite<br />
wird jeweils aus den Genauigkeitsanforderungen<br />
und y k berechnet(→<br />
Sect. 2.6).<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
2.1<br />
p. 120
Definition 2.1.5 (Explizite und implizite Einschrittverfahren).<br />
Ein Einschrittverfahren zur approximativen Lösung eines AWP heisst explizit, falls die zugrundeliegende<br />
diskrete Evolution durch endlich vielef-Auswertungen zu realisieren ist.<br />
Numerische<br />
Mathemtik<br />
Die diskrete Evolution eines impliziten Einschrittverfahrens erfordert die Lösung eines Gleichungssystems.<br />
ESV + Anfangswert + Zeitgitter erzeugt Gitterfunktion y G : G ↦→ R d ,y G (t k ) = y k<br />
Bei „geschickter Wahl” vonΨ:<br />
y k ≈ y(t k ) (y ˆ= exakte Lösung)<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Definition 2.1.6 (Diskretisierungsfehler).<br />
Für gegebenesT ∈ J(t 0 ,y 0 ), seiy : [t 0 ,T] ↦→ R d Lösung des AWP (1.1.13)<br />
y G eine Näherungslösung auf dem GitterG = {t 0 < t 1 < ··· < t N = T}.<br />
Diskretisierungsfehler<br />
ǫ G := max<br />
0≤k≤N ‖y(t k)−y k ‖ .<br />
2.1<br />
p. 121
Hier ist ‖·‖ irgendeine Vektornorm auf dem Zustandsraum D ⊂ R d . Wegen der Äquivalenz aller<br />
Normen auf eindlichdimensionalen Vektorräumen, gelten alle im folgenden abgeleiteten Aussagen<br />
für beliebige Normen.<br />
Numerische<br />
Mathemtik<br />
Definition 2.1.7 (Konvergenz und Konvergenzordnung). → [8, Def. 4.6]<br />
Das ESV (2.1.3) zum AWP (1.1.13) konvergiert, falls<br />
∀ǫ > 0: ∃δ > 0: ∀ZeitgitterG ⊂ [0,T]: h G ≤ δ ⇒<br />
(Kurz: ǫ G → 0, fallsh G → 0)<br />
ESV wohldefiniert,<br />
ǫ G ≤ ǫ .<br />
Das ESV heisst (algebraisch→Def. 1.4.5) konvergent von der Ordnungp ∈ N, falls<br />
∃h 0 > 0, C > 0:<br />
ESV wohldefiniert,<br />
ǫ G ≤ Ch p G<br />
∀ZeitgitterG, h G ≤ h 0 .<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
(Kurzschreibweise mit Landau-Symbol ǫ G = O(h p ))<br />
Erweiterung: Konvergenz für alle(t 0 ,y 0 ) ∈ Ω ➣ globale Konvergenz<br />
2.1<br />
p. 122
Beachte: Konvergenz gemäss Def. 2.1.7 ist ein asymptotischer Begriff (h G → 0)<br />
Numerische<br />
Mathemtik<br />
Die Aussage, dass ein Verfahren mit einer gewissen Ordnung konvergiert, sagt uns in der<br />
Regel nichts über die tatsächliche Grösse (einer Norm) des Fehlers. Solche stärkeren<br />
Aussagen gelingen der numerischen Analysis von Einschrittverfahren in der Regel nicht.<br />
Was nützt denn dann das Wissen über Konvergenz der Ordnungpüberhaupt ?<br />
Wenn wir annehmen, dass die Aussage scharf ist, also ǫ G ≈ Ch p G<br />
, dann können wir schliessen, um<br />
welchen Faktor wir die globale Zeitschrittweite verringern müssen, um den Fehler um einen vorgegebenen<br />
Faktor zu reduzieren.<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
2.1<br />
p. 123
2.1.2 Konsistenz [8, Sect. 4.1.1]<br />
Numerische<br />
Mathemtik<br />
Kontinuierliche Evolution (→ Def. 1.3.7)<br />
Φ s,t<br />
←→<br />
Diskrete Evolution<br />
Ψ s,t<br />
erfüllt für alle(t,y) ∈ Ω<br />
(i)Φ t,t y = y<br />
(ii) d ds Φt,t+s y<br />
∣ = f(t,y)<br />
s=0<br />
(iii)Φ r,s Φ t,r y = Φ t,s y ∀r,s ∈ J(t,y)<br />
Unter der Annahme, dasst ↦→ Ψ s,t y differenzierbar:<br />
d<br />
dt<br />
✗<br />
✖<br />
(<br />
Ψ s,t )<br />
y<br />
= lim<br />
τ→0<br />
Ψ s,t+τ y−Ψ s,t y<br />
τ<br />
sollte erfüllen:<br />
(i)Ψ t,t y = y klar!<br />
d<br />
ds Ψt,t+s y<br />
∣ = f(t,y) unbedingt!<br />
s=0<br />
(ii)<br />
(iii)Ψ r,s Ψ t,r y = Ψ t,s y ∀r,s ∈ J(t,y) utopisch!<br />
FallsΨ(i)–(iii) erfüllt, dann giltΨ = Φ !<br />
(iii)<br />
= lim<br />
τ→0<br />
Ψ t,t+τ (Ψ s,t y)−Ψ t,t (Ψ s,t y)<br />
τ<br />
✔<br />
✕<br />
(ii)<br />
= f(t,Ψ s,t y) .<br />
t ↦→ Ψ s,t löst das gleiche Anfangswertproblem für ẏ = f(t,y) wie t ↦→ Φ s,t y. Mit Satz von Picard-<br />
Lindelöf (→ Thm. 1.3.4) folgtΨ = Φ.<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
2.1<br />
p. 124
Definition 2.1.8 (Konsistenz einer diskreten Evolution).<br />
Diskrete EvolutionΨist konsistent mit der ODEẏ = f(t,y), falls für alle(t,y) ∈ Ω<br />
Ψ t,t d<br />
y = y und<br />
ds Ψt,t+s y<br />
∣ = f(t,y) .<br />
s=0<br />
Numerische<br />
Mathemtik<br />
✬<br />
Lemma 2.1.9 (Darstellung konsistenter diskreter Evolutionen). → [8, Lemma 4.4]<br />
Sei(t,y) ∈ Ω unds ↦→ Ψ t,t+s y stetig differenzierbar in Umgebung von0.<br />
Ψ is genau dann konsistent mitẏ = f(t,y) (→ Def. 2.1.8), wenn eine auf dieser Nullumgebung<br />
stetige Inkrementfunktionh ↦→ ψ(t,y,h) existiert mit<br />
✫<br />
Ψ t,t+h y = y+hψ(t,y,h) , ψ(t,y,0) = f(t,y) . (2.1.10)<br />
✩<br />
✪<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Definition 2.1.11 (Konsistenzfehler einer diskreten Evolution). → [8, Def. 4.3]<br />
Konsistenzfehler:<br />
τ(t,y,h) := Φ t,t+h y−Ψ t,t+h y (h hinreichend klein);.<br />
2.1<br />
p. 125
✬<br />
✩<br />
Lemma 2.1.12 (Konsistenz und Konsistenzfehler).<br />
Sei(t,y) ∈ Ω,s ↦→ Ψ t,t+s y stetig differenzierbar in einer Umgebung von0.Ψist genau dann<br />
konsistent mitẏ = f(t,y) (→ Def. 2.1.8), wenn für den Konsistenzfehler gilt<br />
Numerische<br />
Mathemtik<br />
‖τ(t,y,h)‖ = o(h) fürh → 0 lokal gleichmässig in(t,y) ∈ Ω .<br />
✫<br />
✪<br />
✎ Notation: „Landau-o”: g(h) = o(h) :⇔ g(h)<br />
h → 0 fürh → 0<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
2.1<br />
p. 126
Interpretation:<br />
D<br />
Ψ t,t+h y<br />
τ(t,y,h)<br />
Numerische<br />
Mathemtik<br />
✓<br />
✒<br />
Konsistenzfehler = Einschrittfehler<br />
✏<br />
✑<br />
Φ t,t+h y<br />
— ˆ= exakte Lösung durch(y,y)<br />
— ˆ= Näherungslösung aus diskreter Evolution<br />
y<br />
t<br />
t+h<br />
t<br />
Definition 2.1.13 (Konsistenzordnung einer diskreten Evolution). [8, Def. 4.7]<br />
Eine diskrete Evolution hat Konsistenzordnungp ∈ N, falls für den Konsistenzfehler lokal gleichmässig<br />
inΩgilt<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
‖τ(t,y,h)‖ = O(h p+1 ) fürh → 0 . (2.1.14)<br />
2.1<br />
p. 127
Dass (2.1.14) lokal gleichmässig gilt bedeutet<br />
∀(t,y) ∈ Ω: ∃h 0 ,δ,C > 0: τ(˜t,ỹ,h) ≤ Ch p+1 ∀˜t,ỹ,h: |˜t−t| ≤ δ,‖ỹ−y‖ ≤ δ ,<br />
0 ≤ h ≤ h 0 .<br />
Numerische<br />
Mathemtik<br />
Wegen der Äquivalenz aller Normen auf dem endlichdimensionalen Raum R d ist die Wahl der Norm<br />
in den Definitionen 2.1.11 und 2.1.13 belanglos.<br />
Technik zur Bestimmung der Konsistenzordnung:<br />
Taylor-Entwicklung<br />
<strong>Beispiel</strong> 2.1.15 (Konsistenzordnung einfacher Einschrittverfahren).<br />
Implizite Mittelpunktsregel (1.4.19): y 1 = y 0 +hf( 1 2 (t 0+t 1 ), 1 2 (y 0 +y 1 ))<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Beachte: Keine explizite Formel fürΨ! (“implicit” method)<br />
Für die „faulen” Leute: Computeralgebra (MAPLE) !<br />
2.1<br />
p. 128
D(y) := x -> f(y(x));<br />
D(y) := x ↦→ f (y(x))<br />
y0 := y(0);<br />
y0 := y(0)<br />
solve(y0+h*f((y0+y1)/2)=y1,{y1});<br />
{y1 = RootOf (−y(0)−hf (1/2y(0)+1/2 _Z) + _Z)}<br />
assign(%);<br />
taylor(y1-y(h),h=0,4);<br />
(( (<br />
series −1/6 D (2)) (f)(y(0))(f (y(0))) 2 −1/6 (D(f)(y(0))) 2 f (y(0))<br />
((<br />
+1/8f (y(0)) D (2)) (f)(y(0))f (y(0))+2 (D(f)(y(0))) 2)) h 3 +O<br />
Implizite Mittelpunktsregel hat Konsistenzordnung 2 !<br />
(<br />
h 4) )<br />
,h,4<br />
✸<br />
Numerische<br />
Mathemtik<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Bestimmung der formalen Konsistenzordnung eines ESV immer unter der Annahme<br />
hinreichender(∗) Glattheit der exakten Lösung !<br />
2.1<br />
p. 129
(∗):<br />
„hinreichend” ˆ= so glatt, wie für Taylorentwicklung erforderlich<br />
Numerische<br />
Mathemtik<br />
Falls exakte Lösung nicht hinreichend glatt ☞ eingeschränkte Bedeutung der Konsistenzordnung<br />
für das tatsächliche Verhalten eines Verfahrens.<br />
In dieser Vorlesung:<br />
(Oft) stillschweigende Annahme „hinreichender Glattheit” !<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
2.1.3 Konvergenz<br />
Betrachte wird Anfangswertproblem<br />
ẏ = f(t,y) , y(t 0 ) = y 0 für ein (t 0 ,y 0 ) ∈ Ω := I ×D . 1.1.13<br />
2.1<br />
p. 130
Annahme: rechte Seitef : Ω ↦→ R d lokal Lipschitz-stetig (→ Def. 1.3.2)<br />
Numerische<br />
Mathemtik<br />
Thm. 1.3.4 ➣ Existenz & Eindeutigkeit von Lösungt ↦→ y(t)<br />
Betrachte Einschrittverfahren (→ Def. 2.1.2) mit Verfahrensfunktion<br />
Ψ : Ω h ⊂ I × I × D ↦→ R d<br />
Ψ t,t+h y := y+hψ(t,y,h) . (2.1.17)<br />
Inkrementfunktion<br />
Annahme:<br />
Lokale Abschätzung für Konsistenzfehler(→ Def. 2.1.11): für einp ∈ N<br />
∥<br />
∀(t,y) ∈ Ω: ∃C c > 0,δ > 0: ∥Φ t,t+h y−Ψ t,t+h y∥ ≤ C c h p+1 ∀|h| hinreichend klein ,<br />
∀ty: |t−t| < δ, ‖y−y‖ < δ .<br />
(2.1.18)<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Beachte: Konsistenzordnungp für diskrete EvolutionΨbzgl.ẏ = f(t,y) ⇒ (2.1.18)<br />
2.1<br />
p. 131
y G = (y k ) N k=0 : Gitterfunktion erzeugt durch ESV Ψ auf Zeitgitter (T > t 0 ˆ= Endzeitpunkt) )<br />
G := {t 0 < t 1 < ··· < t N = T} ⊂ J(t 0 ,y 0 ) ,<br />
Numerische<br />
Mathemtik<br />
vgl. Def. 2.1.2.<br />
✬<br />
✩<br />
Theorem 2.1.19 (Kovergenztheorem für Einschrittverfahren). [8, Thm. 4.10]<br />
Es gelte Annahme (2.1.18) und die Darstellung (2.1.17). Ist die Inkrementfunktion ψ lokal<br />
Lipschitz-stetig (→ Def. 1.3.2) in der Zustandsvariableny, dann<br />
(i) liefert die Verfahrensfunktion Ψ für alle Zeitgitter G mit hinreichend kleinem h G eine<br />
Gitterfunktiony G zum Anfangswerty 0 ,<br />
(ii) konvergiert diese Familie {y G } G von Gitterfunktionen von der Ordnung p gegen t ↦→ y(t),<br />
✫<br />
siehe Def. 2.1.7<br />
✪<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Hilfsmittel beim Beweis:<br />
2.1<br />
p. 132
✬<br />
✩<br />
Lemma 2.1.20 (Diskretes Gronwall-Lemma, siehe Lemma 1.3.29).<br />
Erfüllt die Folge(ξ k ) k∈N0 ,ξ k ≥ 0, die Differenzenungleichung<br />
so gilt<br />
✫<br />
ξ k+1 ≤ Ch p+1<br />
k<br />
+(1+Lh k )ξ k , k ∈ N 0 , L,C,h k ≥ 0 , (2.1.21)<br />
ξ N ≤ C ( )1<br />
max<br />
k=0,...,N−1 hp k L<br />
⎛<br />
⎝exp ( L<br />
N−1 ∑<br />
k=0<br />
⎞<br />
)<br />
h k −1 ⎠+exp ( N−1 ∑<br />
L<br />
k=0<br />
h k<br />
)·ξ0 , N ∈ N 0 .<br />
✪<br />
Numerische<br />
Mathemtik<br />
Beweis. (durch Induktion nachN)<br />
Mit der Konvention, dass leere Summen verschwinden, gilt die Behauptung fürN = 0 (Induktionsbeginn)<br />
Induktionsschluss:<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
(2.1.21)<br />
ξ N+1 ≤ Ch p+1<br />
N +(1+Lh N)ξ N<br />
∗<br />
≤ Ch p+1<br />
N +(1+Lh N)<br />
⎛<br />
⎝C ( N−1<br />
max<br />
k=0 hp k<br />
)1<br />
L<br />
⎛<br />
⎝exp ( L<br />
N−1 ∑<br />
k=0<br />
⎞<br />
)<br />
h k −1 ⎠+exp ( N−1 ∑<br />
L<br />
k=0<br />
h k<br />
)<br />
ξ0<br />
⎞<br />
⎠<br />
2.1<br />
p. 133
≤ C ( N max<br />
k=0 hp k<br />
⎛<br />
)<br />
⎝h N + 1 (<br />
exp ( L<br />
L<br />
N∑ ) ) ⎞<br />
h k −1−LhN ⎠+exp ( L<br />
k=0<br />
Das ist die Behauptung des Lemmas fürN +1.<br />
N∑ )<br />
h k ξ0<br />
k=0<br />
Numerische<br />
Mathemtik<br />
∗: Benutzt die Induktionsannahme, d.h., die Behauptung des Lemmas fürξ N .<br />
Benutzt die elementare Abschätzung1+x ≤ exp(x),x ∈ R (Konvexität der Exponentialfunktion).<br />
Beweis von Thm. 2.1.19; Verallgeminerung des Beweises der algebraischen Konvergenz des expliziten<br />
Eulerverfahrens aus Abschnitt 1.4.1. Das vorbereitende Studium jenes Beweises wird empfohlen.<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
➀ Kompakte Umgebung der Lösungstrajektoriet ↦→ y(t) zum Anfangswerty 0 :<br />
K δ := {(t,y) ∈ I ×R d : t 0 ≤ t ≤ T, ‖y−y(t)‖ ≤ δ} , δ > 0 .<br />
Für hinreichend kleinesδ > 0:<br />
K δ ⊂ Ω<br />
Infolge der lokalen Lipschitz-Bedingung anψ und der lokalen Konsistenzfehlerabschätzung (2.1.18)<br />
2.1<br />
p. 134
➁ Annahme A1:(y k ) N k=0 existiert undy k ∈ K δ ⊂ Ω für einδ > 0. Diese Annahme wird a posteriori<br />
(durch Induktion nachN) für hinreichend kleinesh G besätigt.<br />
Numerische<br />
Mathemtik<br />
➂ Beachtey k+1 = Ψ t k,t k+1 y k ➣ Rekursion für Fehler e k := y(t k )−y k<br />
(<br />
e k+1 = y(t k+1 )−Ψ t )<br />
k,t k+1 y(t k ) +<br />
(Ψ t k,t k+1 y(t k )−Ψ t )<br />
k,t k+1 y k<br />
} {{ } } {{ }<br />
Einschrittfehler<br />
propagierter Fehler<br />
(2.1.17)<br />
= τ(t k ,y(t k ),h k )+e k +h k (ψ(t k ,y(t k ),h k )−ψ(t k ,y k ,h k )) ,<br />
wobei die Def. 2.1.11 des Konsistenzfehlersτ benutzt worden ist.<br />
➃ Kompaktheitsargumente:<br />
(2.1.22)<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Konsequenz der lokalen Konsistenzfehlerabschätzung (2.1.18): für|h| hinreichend klein<br />
∥ ∥<br />
∃C > 0:<br />
∥Φ t,t+h y−Ψ t,t+h y∥ ≤ C c h p+1 ∀(t,y),(t+h,y) ∈ K δ . (2.1.23)<br />
Konsequenz der lokalen Lipschitz-Stetigkeit (→ Def. 1.3.2) der Inkrementfunktion ψ: für |h|<br />
hinreichend klein<br />
∃L > 0: ‖ψ(t,z,h)−ψ(t,w,h)‖ ≤ L‖z−w‖ ∀(t,z),(t,w) ∈ K δ . (2.1.24)<br />
2.1<br />
p. 135
➄ (2.1.22) &△-Ungleichung<br />
⇒ Rekursion für Fehlernorm:<br />
‖e k+1 ‖ ≤ ‖e k ‖+‖τ(t k ,y(t k ),h k )‖+h k ‖ψ(t k ,y(t k ),h k )−ψ(t k ,y k ,h k )‖<br />
(2.1.24)<br />
≤ ‖e k ‖+‖τ(t k ,y(t k ),h k )‖+h k L‖y(t k )−y k ‖<br />
(2.1.23)<br />
≤ Ch p+1<br />
k<br />
+(1+Lh k )‖e k ‖ .<br />
Anwendung des diskreten Gronwall-Lemmas mitξ k := ‖e k ‖,ξ 0 = 0:<br />
Lemma 2.1.20 ⇒ ‖e k ‖ ≤ Ch p exp(L(T −t 0 ))−1<br />
G<br />
.<br />
L<br />
➅ Die Abschätzung zeigt, dass y k −y(t k ) → 0 für h G → 0. Damit kann durch Induktion bewiesen<br />
werden<br />
∀δ > 0: ∃h ∗ = h ∗ (δ) > 0: h G < h ∗ ⇒ (t k ,y k ) ∈ K δ ∀k .<br />
Damit ist Annahme A1 gerechtfertigt.<br />
✷<br />
Numerische<br />
Mathemtik<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Beachte: Der Beweis benutzt nur den Konsistenzfehler entlang der Lösungstrajektorieτ(t,y(t),h).<br />
Man kann also die Voraussetzung der Konsistenzordung p (→ Def. 2.1.13) schwächer<br />
formulieren als<br />
‖τ(t,y(t),h)‖ ≤ C c h p+1 ∀t ∈ [t 0 ,T] , fürh hinreichend klein.<br />
2.1<br />
p. 136
Merkregel:<br />
(Nur) für Einschrittverfahren:<br />
Numerische<br />
Mathemtik<br />
✓<br />
✒<br />
Konsistenzordnungp =⇒ Konvergenzordnungp<br />
✏<br />
✑<br />
Aus dem diskreten Gronwall-Lemma ergibt sich, dass die Konstante in der asymptotischen Fehlerabschätzung<br />
von Thm. 2.1.19 exponentiell von T − t 0 abhängt. Dies macht die Abschätzung des<br />
Theorems u.U. wertlos für Langzeitintegration, vgl. Lemma 4.4.82.<br />
2.1.4 Das Äquivalenzprinzip (Dahlquist, Lax)<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
2.1<br />
p. 137
Ziel: Abstraktion des Beweises von Thm. 2.1.19<br />
Numerische<br />
Mathemtik<br />
Betrachte: Äquidistante Zeitgitter G = {t k } N k=0 ,t k := t 0 +hk,h := (T −t 0 )/N,N ∈ N<br />
diskrete EvolutionΨ<br />
Gitterfunktiony G = (y k ) N k=0<br />
←→<br />
(kontinuierliche) EvolutionΦ<br />
Lösungt ↦→ y(t)<br />
(Annahme:<br />
G ⊂ J(t 0 ,y 0 ),y G wohldefiniert)<br />
D<br />
y(t)<br />
Konsistenzfehler, vgl. Def. 2.1.11:<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Ψ<br />
y k+1 y k+2<br />
Ψ<br />
y k<br />
Ψ<br />
y k−1<br />
t k−1 t k t k+1 t k+2<br />
t<br />
τ(t,y,h) := (Φ t,t+h y−Ψ t,t+h y) .<br />
Fehlerfunktion: e k := y(t k )−y k .<br />
✁ — ˆ=t ↦→ y(t)<br />
• ˆ=y(t k )<br />
• ˆ=y k<br />
−→ ˆ=Ψ t k,t k+1<br />
2.1<br />
p. 138
Fehlerrekursion<br />
e k = y(t k )−y k<br />
= y(t k )−Ψ t k−1,t k (y(t k−1 )−e k−1 )<br />
= Ψ t k−1,t k (y(t k−1 ))−Ψ t k−1,t k (y(t k−1 )−e k−1 )<br />
} {{ }<br />
fortgepflanzter Fehler<br />
+ y(t k )−Ψ t k−1,t k (y(t k−1 ))<br />
} {{ }<br />
Einschrittfehler = Konsistenzfehler<br />
e k−1<br />
y k−1<br />
y k<br />
e k<br />
Ψ t k−1,t k<br />
(y(t k−1 )<br />
y(t k )<br />
y(t k−1 )<br />
Fig. 56<br />
t k−1 t k<br />
Numerische<br />
Mathemtik<br />
Alternative Fehlerrekursion<br />
e k = y(t k )−y k = Φ t k−1,t k y(t k−1 )−Ψ t k−1,t k (y k−1 )<br />
= Φ t k−1,t k (y k−1 +e k−1 )−Φ t k−1,t k (y k−1 )<br />
} {{ }<br />
fortgepflanzter Fehler<br />
+Φ t k−1,t k (y k−1 )−Ψ t k−1,t k (y k−1 )<br />
} {{ }<br />
Einschrittfehler = Konsistenzfehler<br />
1. Fehlerrekursion: Abschätzung des Konsistenzfehlers in einer Umgebung der exakten Lösung ausreichend<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
2. Fehlerrekursion: Konsistenzfehler abzuschätzen in einer Umgebung der Lösung des ESV<br />
Konzept: Stabilität einer diskreten Evolution ←→ Kontrolle der Fehlerfortpflanzung<br />
2.1<br />
p. 139
Definition 2.1.25 (Nichtlineare Stabilität).<br />
Eine diskrete EvolutionΨist (nichtlinear) stabil<br />
∥<br />
:⇔ ∃c > 0:<br />
∥Ψ t,t+h y−Ψ t,t+h z∥ ≤ (1+ch)‖y−z‖<br />
Numerische<br />
Mathemtik<br />
lokal gleichmässig in(t,y) für hinreichend kleine‖y−z‖,h > 0.<br />
Für ESV (2.1.17): Lokale Lipschitz-Stetigkeit vonψ ➣ nichtlineare Stabilität<br />
✬<br />
Theorem 2.1.26 ( Konsistenz & (nichtlineare) Stabilität ⇒ Konvergenz ).<br />
FallsΨkonsistent mitΦ(von Ordnungp) und (nichtlinear) stabil, so konvergiert das Einschrittverfahren<br />
global (von Ordnungp).<br />
✫<br />
✩<br />
R. Hiptmair<br />
✪<br />
rev 35327,<br />
25. April<br />
2011<br />
2.1.5 Reversibilität<br />
2.1<br />
p. 140
Wir haben gesehen: Eine approximative diskrete Evolution Ψ (→ Sect. 2.1.1) kann im Allgemeinen<br />
nicht erfüllen:Ψ r,s Ψ t,r = Ψ t,s<br />
Numerische<br />
Mathemtik<br />
Jedoch: fürs = t ist diese Forderung realisierbar !<br />
Definition 2.1.27 (Reversible diskrete Evolutionen). → [8, Def. 4.40]<br />
Eine diskrete Evolution Ψ : ˜Ω h ⊂ I ×I ×D ↦→ R d (und das zugehörige Einschrittverfahren)<br />
heisst reversibel, falls<br />
Ψ t,s Ψ s,t y = y ∀(t,y) ∈ Ω , ∀|t−s| hinreichend klein .<br />
R. Hiptmair<br />
<strong>Beispiel</strong> 2.1.28 (Einfache reversible Einschrittverfahren).<br />
rev 35327,<br />
25. April<br />
2011<br />
implizite Mittelpunktsregel (1.4.19)<br />
Ψ t,t+h y = y+hf(t+<br />
2 1h, 1 2 (y+Ψt,t+h y))<br />
⇓<br />
y = Ψ t,t+h y−hf(t+h− 1 2 h, 2 1(y+Ψt,t+h y) .<br />
Unter der Annahme der Eindeutigen Auflösbarkeit der Definitionsgleichung (1.4.19) nachy k+1 :<br />
⇒ y = Ψ t+h,t Ψ t,t+h y .<br />
2.1<br />
p. 141
Störmer-Verlet-Verfahren (→ Sect. 1.4.4) in Einschrittformulierung von Bem. 1.4.33<br />
Numerische<br />
Mathemtik<br />
v k+<br />
1<br />
2<br />
= v k + h 2 f(y k) ,<br />
y k+1 = y k +hv k+<br />
1<br />
2<br />
,<br />
v k+1 = v k+<br />
1<br />
2<br />
+ h 2 f(y k+1) .<br />
⇒<br />
v k+<br />
1<br />
2<br />
= v k+1 − h 2 f(y k+1) ,<br />
y k = y k+1 −hv k+<br />
1<br />
2<br />
,<br />
v k = v k+<br />
1<br />
2<br />
− h 2 f(y k) .<br />
Man erkennt Reversibilität an der Verfahrensvorschrift, wenn der Austausch y k ↔ y k+1 und h ↔<br />
−h Gleichungen liefert, die mit der ursprünglichen Verfahrensvorschrift identisch sind.<br />
✸<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
✬<br />
Theorem 2.1.29 (Konsistenzordnung reversibler ESV). → [8, Satz 4.42]<br />
Die maximale Konsistenzordnung (→ Def. 2.1.13) eines reversiblen Einschrittverfahrens (→<br />
Def. 2.1.27) ist gerade.<br />
✫<br />
✩<br />
✪<br />
2.1<br />
p. 142
Der Beweis verwendet folgendes Hilfsresultat ([8, Lemma 4.38]):<br />
✬<br />
✩<br />
Numerische<br />
Mathemtik<br />
Lemma 2.1.30 (Störungslemma für diskrete Evolutionen).<br />
Seif zweimal stetig differenzierbar undΨeine zur ODEẏ = f(t,y) konsistente (→ Def. 2.1.8)<br />
diskrete Evolution, stetig differenzierbar in h und y. Dann gilt für (t,y) ∈ Ω und hinreichend<br />
kleinez ∈ R d<br />
Ψ t,t+h (y+z) = Ψ t,t+h y+z+h ∂f<br />
∂y (t,y)z+r(h,z) , ‖r(h,z)‖ ≤ C(h2 ‖z‖+h‖z‖ 2 ) ,<br />
mitC > 0 unabhängig vonhundz.<br />
✫<br />
✪<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
☞<br />
Thm. 2.1.29 erklärt in Bsp. 1.4.21 beoachtete O(h 2 )-Kovergenz der impliziten Mittelpunktsregel.<br />
2.2<br />
p. 143
2.2 Kollokationsverfahren[8, Sect. 6.3], [16, Sect. II.1.2]<br />
Numerische<br />
Mathemtik<br />
2.2.1 Konstruktion<br />
Zunächst: Fokus auf ersten (↔ allgemeinem) Schritt<br />
(dies genügt bei Einschrittverfahren→Def. 2.1.2)<br />
✗<br />
R. Hiptmair<br />
rev 35327,<br />
Idee: ➊ Approximierey(t),t ∈ [t 0 ,t 1 ], ins+1-dimensionalem AnsatzraumV von 25. April<br />
Funktionen[t 0 ,t 1 ] ↦→ R d 2011<br />
✄ y h .<br />
➋ Festlegung vony h ∈ V durch Kollokationsbedingungen<br />
y h (t 0 ) = y 0 , ẏ h (τ j ) = f(τ j ,y h (τ j )) , j = 1,...,s , (2.2.1)<br />
für Kollokationspunktet 0 ≤ τ 1 < ... < τ s ≤ t 1 .<br />
✔<br />
2.2<br />
„Standardoption”: Polynomialer Ansatzraum V = P s<br />
✖<br />
✕<br />
p. 144
✎ Notation: P s ˆ= Raum der univariaten Polynome vom Grad≤ s,s ∈ N 0<br />
Bekannt: dimP s = s+1<br />
Numerische<br />
Mathemtik<br />
➣<br />
Ein Polynomp ∈ P s ist durchs+1 Interpolationsbedingungen für Werte/Ableitungen eindeutig<br />
festgelegt.<br />
➣ Kollokationsbedingungen (2.2.1) legen Polynomgrads nahe (im Sinne von Existenz/Eindeutigkeit<br />
vony h )<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Herleitung: Formel für y h (t 1 ) (h := t 1 −t 0 ,τ j := t 0 +c j h,0 ≤ c 1 < c 2 < ... < c s ≤ 1)<br />
Hilfsmittel:{L j } s j=1 ⊂ P s−1 ˆ= Lagrange-Polynome zu Sützstellenc i ,i = 1,...,s, in[0,1]:<br />
L i (τ) =<br />
s∏<br />
j=1,j≠i<br />
τ −c j<br />
c i −c j<br />
, i = 1,...,s ⇒ L j (c i ) = δ ij , i,j = 1,...,s . (2.2.2)<br />
2.2<br />
p. 145
Numerische<br />
Mathemtik<br />
s∑<br />
(2.2.1) ⇒ ẏ h (t 0 +τh) = k j L j (τ) , k j := f(t 0 +c j h,y h (t 0 +c j h)) .<br />
j=1<br />
⇒ y h (t 0 +τh) = y 0 +h<br />
s∑<br />
∫ τ<br />
k j L j (ζ)dζ .<br />
j=1<br />
0<br />
Definierende Gleichungen des Kollokations-Einschrittverfahrens<br />
(zu Kollokationspunkten0 ≤ c 1 < c 2 < ··· < c s ≤ 1):<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
s∑<br />
y h (t 1 ) = y 0 +h b i k i ,<br />
i=1<br />
k i = f(t 0 +c i h,y 0 +h<br />
s∑<br />
a ij k j ) .<br />
j=1<br />
mit<br />
a ij =<br />
b i =<br />
∫ ci<br />
∫<br />
0<br />
1<br />
0<br />
L j (τ)dτ ,<br />
L i (τ)dτ .<br />
(2.2.3)<br />
Diskrete Evolution Ψ t 0,t 1 : Ω ↦→ Ω , Ψ t 0,t 1 y 0 := y 1 := y h (t 1 )<br />
2.2<br />
p. 146
➤ (2.2.3) ˆ= (Nichtlineares) Gleichungssystem für Inkremente k i (≈ ẏ(t 0 +c i h))<br />
Numerische<br />
Mathemtik<br />
✄ (Generische) Kollokationsverfahren = implizites Einschrittverfahren (→ Def. 2.1.2)<br />
Kollokations-Einschrittverfahren in der Form von Lemma 2.1.9:<br />
Ψ t 0,t 0 +h y0 = y 0 +hψ(t 0 ,y 0 ,h) mit Inkrementfunktion ψ(t 0 ,y 0 ,h) =<br />
s∑<br />
b i k i . (2.2.4)<br />
i=1<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Bemerkung 2.2.5 (Umformulierung der Inkrementgleichungen (2.2.3)).<br />
Äquivalente Form der Inkrementgleichungen (2.2.3):<br />
s∑<br />
Ersetze Inkrementek i durch g i := y 0 +h a ij k j , i = 1,...,s ⇔ k i = f(t 0 +c i h,g i ).<br />
j=1<br />
2.2<br />
p. 147
(2.2.3) ⇔<br />
s∑<br />
g i = y 0 +h a ij f(t 0 +c i h,g j )<br />
y 1 = y 0 +h<br />
j=1<br />
s∑<br />
b i f(t 0 +c i h,g i ) .<br />
i=1<br />
(2.2.6)<br />
Numerische<br />
Mathemtik<br />
△<br />
✬<br />
Lemma 2.2.7 (Lösbarkeit der Inkrementgleichungen).<br />
Ist f lokal Lipschitz-stetig (→ Def. 1.3.2) auf dem erweiterten Zustandsraum Ω, so gibt es zu<br />
jedem(t 0 ,y 0 ) ∈ Ω einh 0 > 0 so, dass (2.2.3) für jedesh < h 0 eindeutig nach den Inkrementen<br />
k i auflösbar ist, und diese sind stetige Funktionen inh.<br />
Ist f ∈ C m (Ω,R d ), m ∈ N, dann sind auch die Inkremente m-fach stetig differenzierbare<br />
Funktionen vony 0 ,t 0 ,h.<br />
✫<br />
✩<br />
✪<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
2.2<br />
p. 148
„Beweis” (von Lemma 2.2.7, unter stärkeren Glattheitsvoraussetzungen, hier nur ausgeführt für<br />
autonomen Fallẏ = f(y))<br />
Numerische<br />
Mathemtik<br />
Annahme:<br />
f ist stetig differenzierbar aufΩ<br />
⎛<br />
∑<br />
f(y 0 +h s<br />
s∑<br />
k i = f(y 0 +h a ij k j ) ⇔ G(h,k) = 0 , G(h,k) := k−<br />
.<br />
⎜<br />
j=1<br />
⎝ ∑<br />
f(y 0 +h s<br />
j=1<br />
j=1<br />
⎞<br />
a 1j k j )<br />
⎟<br />
a sj k j )<br />
⎠<br />
,<br />
mit k = (k 1 ,...,k s ) T ∈ R s·d .<br />
Idee: Anwendung des Satzes über implizite Funktionen aufG : R×D ↦→ D<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
✬<br />
Theorem 2.2.8 (Satz über implizite Funktionen).<br />
→ Analysis-Vorlesung<br />
SeienI ⊂ R q ,U ⊂ R n offen undG = G(ξ,y) : I ×U ↦→ R n sei stetig differenzierbar. Für ein<br />
(ξ 0 ,y 0 ) ∈ I ×U gelteG(ξ,y) = 0.<br />
Ist die Jacobi-Matrix ∂G<br />
∂y (ξ 0,y 0 ) invertierbar, dann gibt es eine Umgebung V ⊂ I von ξ 0 und<br />
eine eindeutige stetig differenzierbare Funktionξ ↦→ z(ξ) so, dass<br />
✩<br />
2.2<br />
p. 149
k 0 := (f(y 0 ),...,f(y 0 )) T erfüllt G(0,k 0 ) = 0<br />
Numerische<br />
Mathemtik<br />
Ableitung (ˆ= Jacobi-Matrix) vonGin(0,k 0 ) (aus Kettenregel)<br />
D k G(0,k 0 ) = I<br />
ist die Einheitsmatrix und damit offensichtlich invertierbar.<br />
✷<br />
Ein alternativer, technisch aufwändigerer, Beweis erfordert blosse lokale Lipschitz-Stetigkeit von f<br />
und gibt zusätzliche Schrittweitenschranke für die Existenz einer Lösung der Inkrementgleichungen:<br />
Hilfsmittel bei alternativem Beweis (→ Analysis-Vorlesung):<br />
✬<br />
✩<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Theorem 2.2.9 (Banachscher Fixpunktsatz, parameterabhängige Version).<br />
V ⊂ R d abgeschlossen,U ⊂ R n offen,F : U ×V ↦→ V sei totalm-mal stetig differenzierbar,<br />
m ∈ N 0 , und besitze die gleichmässige Kontraktionseigenschaft<br />
∃0 ≤ q < 1: ‖F(u,z)−F(u,w)‖ ≤ q‖z−w‖ ∀z,w ∈ V, ∀u ∈ U .<br />
Dann gibt es einem-mal stetig differenzierbare FunktionG : U ↦→ V so dass<br />
2.2<br />
p. 150
✎ Übliche Notation für Koeffizientenmatrix A := ( a ij<br />
) s<br />
i,j=1 ∈ Rs,s<br />
Numerische<br />
Mathemtik<br />
✎ Zeilensummennorm ‖A‖ ∞ := max<br />
i=1,...,s<br />
s∑<br />
j=1<br />
Beweis. (von Lemma 2.2.7 für autonomen Fallẏ = f(y))<br />
|a ij | (ˆ= Matrixnorm zur Maximumnorm)<br />
Vorbereitung: Wie im Beweis von Thm. 2.1.19 betrachten wir f wieder auf einer kompakten Umgebung<br />
K δ der L¨soungskurve t ↦→ y(t) im erweiterten Phasenraum Ω. Daher (zunächst) ohne<br />
Beschränkung der Allgemeinheit die Annahme:<br />
f global Lipschitz-stetig, vgl. Def. 1.3.2:<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
∃L > 0: ‖f(z)−f(w)‖ ≤ L‖z−w‖ ∀z,w ∈ D . (2.2.10)<br />
Wir nehmen auch an, dass sich einer-Umgebung vony 0 inD befindet:<br />
∃r > 0: ‖z−y 0 ‖ ≤ r ⇒ z ∈ D .<br />
Idee: Anwendung des Banachschen Fixpunktsatzes Thm. 2.2.9 auf die (äquivalenten) Inkrementgleichungen<br />
(2.2.6) für dieg i : mit g := (g 1 ,...,g s ) ∈ R s·d<br />
2.2<br />
p. 151
Auf R s·d verwende Norm<br />
⎛<br />
∑<br />
y 0 +h s (2.2.6) ⇔ g = F(h,g) , F(h,g) :=<br />
.<br />
⎜<br />
⎝ ∑<br />
y 0 +h s<br />
‖g‖ := max<br />
i=1,...,s ‖g i‖.<br />
j=1<br />
j=1<br />
⎞<br />
a 1j f(g j )<br />
⎟<br />
a sj f(g j )<br />
⎠<br />
. (2.2.11)<br />
Numerische<br />
Mathemtik<br />
Zu zeigen: für hinreichend kleineshbleiben alleg i in der abgeschlossenenr-Umgebung vony 0 : mit<br />
y 0 = (y 0 ,...,y 0 )<br />
‖F(h,g)−y 0 ‖ = max<br />
i=1,...,s |h| ∥ ∥∥∥∥∥ s∑<br />
j=1<br />
⇒<br />
Zu zeigen:<br />
{<br />
|h| <<br />
(2.2.10)<br />
a ij f(g j )<br />
∥ ≤ |h|‖A‖ ∞ max<br />
j=1,...,s<br />
∥<br />
∥f(y 0 )+f(g j )−f(y 0 ) ∥ ∥<br />
≤ |h|‖A‖ ∞ (‖f(y 0 )‖+L‖g−y 0 ‖) .<br />
}<br />
r<br />
⇒ ‖F(h,g)−y<br />
‖A‖ ∞ (‖f(y 0 )‖+Lr) 0 ‖ ≤ r , if ‖g−y 0 ‖ ≤ r<br />
g ↦→ F(h,g) isth-gleichmässige Kontraktion<br />
s∑<br />
‖F(h,g)−F(h,p)‖ ≤ |h|· max<br />
i=1,...,s<br />
a ij (f(g j )−f(p j ))<br />
∥ ∥<br />
j=1<br />
.<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
2.2<br />
p. 152
∥<br />
≤ |h|·‖A‖ ∞ max ∥f(g j )−f(p j ) ∥ j=1,...,s<br />
≤ |h|L·‖A‖ ∞ ‖g−p‖ ,<br />
Numerische<br />
Mathemtik<br />
wobei im letzten Schritt die globale Lipschitz-Bedingung fürf benutzt wurde.<br />
|h| <<br />
Wähle h 0 =<br />
1<br />
L‖A‖ ∞<br />
⇒ g ↦→ F(h,g) isth-gleichmässige Kontraktion.<br />
r<br />
‖A‖ ∞ (‖f(y 0 )‖+Lr)<br />
Damit erfüllt F mit U =]−h 0 ,h 0 [ und V = {g: ‖g−y 0 ‖ ≤ r} die Voraussetzungen des Banachschen<br />
Fixpunktsatzes Thm. 2.2.9.<br />
⇒<br />
{<br />
f ∈ C m (D) ⇒ ∃g :]−h 0 ,h 0 [↦→ R d·s }<br />
: F(h,g(h)) = g(h)<br />
Wegen der Äquivalenz (2.2.11) is damit der Beweis abgeschlossen.<br />
.<br />
✷<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Bemerkung 2.2.12 (Schrittweitenbeschränkung aus Lemma 2.2.7).<br />
Aus dem Beweis von Lemma 2.2.7 mit Hilfe des Fixpunktarguments, Thm 2.2.9: Lösbarkeit der Inkre-<br />
2.2<br />
p. 153
mentgleichungen nur garantiert, wenn<br />
|h| ≤<br />
1<br />
L‖A‖ ∞<br />
,<br />
wobeiL > 0 eine (lokale) Lipschitz-Konstante (→ Def. 1.3.2) für den Quelltermf ist.<br />
Numerische<br />
Mathemtik<br />
Dies ist eine Schrittweitenbeschränkung analog der Schrittweitenbeschränkung für das explizite<br />
Euler-Verfahren in der Nähe stark attraktiver Fixpunkte, vgl. Bsp. 1.4.9.<br />
△<br />
Es bleibt noch die Verifikation einer Voraussetzung von Thm. 2.1.19:<br />
✬<br />
✩<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Lemma 2.2.13 (Lipschitz-Stetigkeit der Inkrementfuntion).<br />
Unter den Voraussetzungen von Lemma 2.2.7 existiert zu jedem (t 0 ,y 0 ) ∈ Ω ein h 0 > 0 so,<br />
dassψ aus (2.2.4) lokal Lipschitz-stetig im Zustandsargument ist.<br />
✫<br />
✪<br />
2.2<br />
p. 154
Beweis auf der Grundlage des Satzes über implizite Funktionen, Thm. 2.2.8, unter Annahme von<br />
hinreichender Glattheit vonf:<br />
Wie im ersten Beweis zu Lemma 2.2.7 Umformulierung der Inkrementgleichungen als parameterabhängiges<br />
Nullstellenproblem:<br />
⎛<br />
∑<br />
f(y 0 +h s<br />
s∑<br />
k i = f(y 0 +h a ij k j ) ⇔ G(h,y 0 ,k) = 0 , G(h,y 0 ,k) := k−<br />
.<br />
⎜<br />
⎝ ∑<br />
f(y 0 +h s<br />
j=1<br />
Wir haben<br />
G ist stetig differenzierbar in allen Argumenten, fallf hinreichend glatt.<br />
G(0,y 0 ,k) = 0 für k = (f(y 0 ),...,f(y 0 )) ∈ R s·d<br />
j=1<br />
j=1<br />
⎞<br />
a 1j k j )<br />
,<br />
⎟<br />
a sj k j )<br />
⎠<br />
Numerische<br />
Mathemtik<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
D k G(0,y 0 ,k) = I für beliebigesk ∈ R s·d ,y 0 ∈ D.<br />
Nach dem Satz über implizite Funktionen gibt es also eine lokal stetig differenzierbare Lösungskurve<br />
k = k(y,h), definiert in einer Umgebung von(0,y 0 ). Daher folgt die Behauptung aus einem Analogon<br />
von Lemma 1.3.3.<br />
✷<br />
2.2<br />
p. 155
Beweis von Lemma 2.2.13 mit Fixpunktargument, ohne Glattheitsanforderungen an f (für<br />
autonome ODE):<br />
Numerische<br />
Mathemtik<br />
Ohne Beschränkung der Allgemeinheit wird f als global Lipschitz-stetig angenommen, vgl. Beweis<br />
zu Lemma 2.2.7:<br />
∃L > 0: ‖f(z)−f(w)‖ ≤ L‖z−w‖ ∀z,w ∈ D . (2.2.14)<br />
Mitg i aus den äquivalenten Inkrementgleichungen (2.2.6):<br />
Inkrementfunktion:<br />
s∑<br />
s∑<br />
ψ(t,y,h) = y+h b i f(g j ) , g i = y+h a ij f(g j ) . (2.2.15)<br />
j=1<br />
j=1<br />
Wähle y,z ∈ D und definiere (für hinreichend kleines h, siehe Lemma 2.2.7) g y i ,gz i<br />
∈ R d als<br />
Lösungen von<br />
g y s∑<br />
i = y+ a ij f(g y j ) ,<br />
j=1<br />
, i = 1,...,s .<br />
s∑<br />
gi z = z+ a ij f(gj z ) .<br />
j=1<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
2.2<br />
p. 156
Mit g y := (g y 1 ,...,gy s), g z := (g z 1 ,...,gs s):<br />
‖g y −g z ‖ ≤ ‖y−z‖+h max<br />
i=1,...,s<br />
(2.2.14)<br />
s∑ (∥ ∥ ∥ ) ∥∥f(g y ∥∥− ∥∥f(g<br />
|a ij |<br />
j ) z j ) ∥<br />
j=1<br />
≤ ‖y−z‖+hL·‖A‖ ∞ ‖g y −g z ‖ .<br />
h‖A‖ ∞ L < 1 ⇒ ‖g y −g z 1<br />
‖ ≤<br />
1−h‖A‖ ∞ L ‖y−z‖ .<br />
vgl. die Schrittweitenschranke aus Bem. 2.2.12<br />
Numerische<br />
Mathemtik<br />
Aus dieser Abschätzung und wieder mit (2.2.14) folgt (fallsh‖A‖ ∞ L < 1)<br />
‖ψ(t,y,h)−ψ(t,z,h)‖ ≤ h<br />
s∑<br />
|b i | ∥ ∥f(g y i )−f(gz i )∥ ∥ ≤<br />
i=1<br />
Day,zbeliebig, folgt die Behauptung.<br />
L<br />
s∑<br />
1−Lh‖A‖ ∞<br />
i=1<br />
|b i |·‖y−z‖ .<br />
(2.2.16)<br />
✷<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
<strong>Beispiel</strong> 2.2.17 (Konvergenz von einfachen Kollokations-Einschrittverfahren).<br />
Skalare logistische Differentialgleichung (1.2.2),λ = 10,y(0) = 0.01,T = 1<br />
Kollokations-Einschrittverfahren (2.2.3) fürs = 1,...,4, uniforme Zeitschrittweiteh<br />
2.2<br />
p. 157
Äquidistante Kollokationspunkte:<br />
s = 1 : c = ( 1 2 ) ,<br />
s = 2 : c = ( 1 3 , 2 3 )T ,<br />
s = 3 : c = ( 1 4 , 1 2 , 3 4 )T ;,<br />
s = 4 : c = ( 1 5 , 2 5 , 3 5 , 4 5 )T .<br />
Numerische Konvergenzraten :<br />
(berechnet durch lineare Regression)<br />
max k<br />
|y h<br />
(t k<br />
)−y(t) k<br />
)|<br />
10 0<br />
10 −2<br />
10 −4<br />
10 −6<br />
h<br />
s = 1 : p = 1.96<br />
10 −8<br />
s=1<br />
s=2<br />
s = 2 : p = 2.03<br />
s=3<br />
s = 3 : p = 4.00<br />
s=4<br />
10 −10<br />
10<br />
s = 4 : p = 4.04 −2 10 −1 10 0<br />
Fig. 57<br />
Numerische<br />
Mathemtik<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
2.2<br />
p. 158
Verschobene äquidistante Kollokationspunkte:<br />
s = 1 : c = (0) ,<br />
s = 2 : c = (0, 1 2 )T ,<br />
s = 3 : c = (0, 1 3 , 2 3 )T ;,<br />
s = 4 : c = (0, 1 4 , 1 2 , 3 4 )T .<br />
Numerische Konvergenzraten :<br />
(berechnet durch lineare Regression)<br />
max k<br />
|y h<br />
(t k<br />
)−y(t) k<br />
)|<br />
10 0<br />
10 −2<br />
10 −4<br />
10 −6<br />
h<br />
s = 1 : p = 0.95<br />
10 −8<br />
s=1<br />
s = 2 : p = 1.77<br />
s=2<br />
s=3<br />
s = 3 : p = 2.95<br />
s=4<br />
10 −10<br />
s = 4 : p = 3.92<br />
10 −2 10 −1 10 0<br />
Beobachtung bei symmetrisch gelegenen äquidistanten Kollokationspunkten:<br />
Algebraische Konvergenz der Ordnung<br />
Erklärung → Sect. 2.2.3 & Thm. 2.1.29<br />
{<br />
p = s+1 , fallssungerade ,<br />
p = s<br />
, fallssgerade.<br />
Fig. 58<br />
Numerische<br />
Mathemtik<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
✸<br />
2.2<br />
p. 159
Bemerkung 2.2.18 (Kollokationsverfahren und numerische Quadratur).<br />
f(t,y) = f(t) &y 0 = 0 ➤<br />
Numerische Quadratur (→ Vorlesung „Numerische Methoden”)<br />
Numerische<br />
Mathemtik<br />
➞<br />
y(t 1 ) =<br />
∫ t 1<br />
t 0<br />
f(t)dt ≈ h ∑ s<br />
i=1 b jf(t 0 +c j h) = Quadraturformel<br />
c 1 ,...,c s ↔ Knoten (engl. nodes) einer Quadraturformel (z.B. Gauss-Punkte auf[0,1]<br />
b 1 ,...,b s ↔ Gewichte (engl. weights) einer Quadraturformel<br />
△<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Aus Zusammenhang zwischen Kollokationsverfahren und numerische Quadratur<br />
✗<br />
➣ Wahl der Kollokationspunktec i als Knoten bewährter Quadraturformeln auf[0,1]<br />
✖<br />
Die folgenden <strong>Beispiel</strong>e zeigen, dass sich sinnvolle Verfahren ergeben:<br />
✔<br />
✕<br />
2.2<br />
p. 160
• Falls = 1 &<br />
c 1 = 1/2 (↔ einfachste Gauss-Legendre-Quadraturformel)<br />
L 1 ≡ 1 ⇒ a 11 = 1/2 , b 1 = 1 .<br />
k 1 = f(t 0 + 1/2h,y 0 + 1/2hk 1 ) , y h (t 1 ) = y 0 +hk 1 . (2.2.19)<br />
Numerische<br />
Mathemtik<br />
(2.2.19) = Implizite Mittelpunktsregel (1.4.19)<br />
• Falls = 1 &<br />
c 1 = 0 (↔ linksseitige Ein-Punkt-Quadraturformel)<br />
L 1 ≡ 1 ⇒ a 11 = 0 , b 1 = 1 .<br />
k 1 = f(t 0 ,y 0 ) , y h (t 1 ) = y 0 +hk 1 = y 0 +hf(t 0 ,y 0 ) .<br />
(2.2.1) = Explizites Eulerverfahren (1.4.2) (kein Lösen einer Gleichung erforderlich !)<br />
• Falls = 1 &<br />
c 1 = 1 (↔ rechtsseitige Ein-Punkt-Quadraturformel)<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
L 1 ≡ 1 ⇒ a 11 = 1 , b 1 = 1 .<br />
k 1 = f(t 1 ,y 0 +hk 1 ) , y h (t 1 ) = y 0 +hk 1 = y 0 +hf(t 1 ,y h (t 1 )) .<br />
(2.2.1) = Implizites Eulerverfahren<br />
Erinnerung: „Optimale Quadraturverfahren”: Gaussquadratur<br />
(→ Vorlesung „Numerische Methoden”[9, Sect. 9.3])<br />
2.2<br />
p. 161
△<br />
Numerische<br />
Mathemtik<br />
2.2.2 Abstrakte Projektionsverfahren<br />
Ziel dieses Abschnitts ist es, die Kollokationsverfahren in eine grössere Klasse von Einschrittverfahren<br />
einzuordnen, die eine elegante abstrakte Konvergenztheorie zulässt.<br />
R. Hiptmair<br />
Bemerkung 2.2.21 (Kollokationsverfahren als Projektionsverfahren).<br />
rev 35327,<br />
25. April<br />
P s : C 0 2011<br />
([t 0 ,t 1 ]) ↦→ P s−1 ˆ= Polynominterpolationsoperator zu Knotenτ 1 ≤ ··· ≤ τ s<br />
(vgl. Sect. 2.2.1, „Kollokationspunkte”)<br />
Damit lassen sich die Kollokationsbedingungen kompakt umformulieren:<br />
(<br />
)<br />
⇒ (2.2.1) ⇔ ẏ h = P s f(·,y h (·)) , y h (t 0 ) = y 0 .<br />
Beachte: Projektoreigenschaft P 2 2.2<br />
s = P s<br />
p. 163
△<br />
Numerische<br />
Mathemtik<br />
Bekannt aus der linearen Algebra:<br />
Definition 2.2.22 (Projektionsoperator).<br />
Seien X ein Vektorraum. Eine lineare Abbildung P : X ↦→ X ist ein Projektionsoperator, falls<br />
P 2 = P.<br />
Bekannt aus der Analysis:<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Definition 2.2.23 (Stetiger linearer Operator).<br />
SeienX,Y normierte Vektorräume. Ein linearer OperatorT : X ↦→ Y heisst stetig/beschränkt,<br />
falls<br />
‖Tx‖<br />
‖T‖ := sup Y<br />
< ∞ .<br />
x∈X\{0} ‖x‖ X<br />
‖T‖ heisst die Norm des stetigen OperatorsT.<br />
2.2<br />
p. 164
Betrachte: ODE ẏ = f(t,y), f : I ×D ↦→ R d lokale Lipschitz-stetig, siehe Sect. 1.1<br />
Zugehörige AWPe ẏ = f(t,y), y(t 0 ) = y 0 , auf[t 0 ,T] ∈ J(t 0 ,y 0 )<br />
Numerische<br />
Mathemtik<br />
Verallgemeinerung<br />
von Kollokations-ESV<br />
: Projektions-Einschrittverfahren<br />
Ψ t,t+h zu ODE<br />
diskrete Evolution des ESV<br />
ẏ = f(t,y)<br />
✬<br />
Ψ t,t+h y 0 definiert durch<br />
endlichdimensionalen Ansatzraum<br />
✩<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
V ⊂ (C 1 ([t,t+h])) d ➥ W := { d v:v ∈ V}<br />
dt<br />
stetigen Projektionsoperator<br />
P : (C 0 ([t,t+h])) d ↦→ W<br />
✫<br />
Ψ t,t+h ẏ h = P(f(·,y h (·))) ,<br />
y 0 := y h (t+h) mit y h ∈ V ∧<br />
y h (t) = y 0 ∈ D .<br />
interpretiert als Funktion∈ (C 0 ([t,t+h])) d<br />
(2.2.24)<br />
✪<br />
2.2<br />
p. 165
Bemerkung 2.2.25 (Fixpunktform von Projektions-Einschrittverfahren).<br />
Numerische<br />
Mathemtik<br />
Verallgemeinerung: (2.2.24) −→ Fixpunktgleichung,<br />
∫ τ<br />
(2.2.24) ⇒ y h (τ) = y 0 +<br />
t<br />
P(f(·,y h (·)))(ξ)dξ , t ≤ τ ≤ t+h . (2.2.26)<br />
! geringere Glattheitsanforderungen anV: (2.2.26) sinnvoll füry h ∈ (C 0 ([t,t+h])) d .<br />
△<br />
✬<br />
Lemma 2.2.27 (Wohldefiniertheit der diskreten Evolution für Projektions-Einschrittverfahren).<br />
Erfülltf eine lokale Lipschitz-Bedingung (→ Def. 1.3.2), dann istΨ t,t+h y 0 für hinreichend kleineshwohldefiniert.<br />
✫<br />
R. Hiptmair<br />
✩<br />
rev 35327,<br />
25. April<br />
2011<br />
✪<br />
✎ Notation: Maximumnorm ‖y(·)‖ ∞,I := max<br />
τ∈I ‖y(τ)‖,<br />
speziell im Folgenden: ‖y(·)‖ ∞ := max ‖y(τ)‖<br />
t≤τ≤t+h<br />
2.2<br />
p. 166
Beweis.<br />
(Analog zum Beweis von Lemma 2.2.7, Kontraktionsargument)<br />
Wir müssen die eindeutige Lösbarkeit der Definitionsgleichung (2.2.24) für die Funktiony h zeigen.<br />
Numerische<br />
Mathemtik<br />
Technik: Banachscher Fixpunktsatz Thm. 2.2.9 angwandt auf Fixpunktgleichung (2.2.26), vgl. Beweis<br />
von Thm. 1.3.4.<br />
y h (τ) = F(y h ) , F(y h )(τ) := y 0 +<br />
∫ τ<br />
t<br />
P(f(·,y h (·)))(ξ)dξ , t ≤ τ ≤ t+h . (2.2.28)<br />
Beachte: Abbildungseigenschaft F : (C 0 ([t,t+h])) d ↦→ (C 0 ([t,t+h])) d<br />
Erinnerung an Analysis: ➣ (C 0 ([t,t+h]),‖·‖ ∞ ) ist Banachraum !<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Lokale Lipschitz-Bedingung & Kompaktheitsargument, vgl. Beweis von Thm. 2.1.19<br />
∃L > 0: ‖f(τ,z)−f(τ,w)‖ ≤ L‖z−w‖ ∀t ≤ τ ≤ t+h , ∀z,w ∈ K ⊂ D , (2.2.29)<br />
2.2<br />
p. 167
mit KompaktumK ⊂ D, für das (rückblickend) angenommen werden kann, dassy h (τ) ∈ K für alle<br />
t ≤ τ ≤ t+h. Dann für alley,z ∈ (C 0 ([t,t+h])) d ,y(τ),z(τ) ∈ K ∀t ≤ τ ≤ t+h,<br />
Numerische<br />
Mathemtik<br />
‖F(y(·))−F(z(·))‖ ∞ ≤ h‖P(f(·.,y(·))−f(·,z(·)))‖ ∞<br />
(2.2.29)<br />
≤ h‖P‖L‖y(·)−z(·)‖ .<br />
|h| < 1<br />
‖P‖L<br />
⇒ F ist Kontraktion.<br />
Für hinreichend kleines|h| bleibtF(y(·)) in einer Umgebung der konstanten Funktiony 0 , wenny(·)<br />
daraus gewählt wird.<br />
Damit sind die Voraussetzungen des Fixpunktsatzes Thm. 2.2.9 erfüllt.<br />
✎ Notation: τ ↦→ y(τ) ˆ= Lösung des AWP ẏ = f(t,y),y(t) = y 0 ∈ D,<br />
τ ↦→ y h (τ) ˆ= Lösung von (2.2.24) (zu Anfangswerty 0 )<br />
✷<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
2.2<br />
p. 168
✬<br />
✩<br />
Theorem 2.2.30 (Einschritt-Fehlerabschätzung für Projektions-Einschrittverfahren).<br />
Erfülltf eine lokale Lipschitz-Bedingung (→ Def. 1.3.2), dann gibt esh 0 > 0, so dass<br />
Numerische<br />
Mathemtik<br />
∃C > 0: ‖y−y h ‖ ∞ ≤ Ch‖(Id−P)(f(·,y(·)))‖ ∞ ∀|h| ≤ h 0 .<br />
✫<br />
Projektionsfehler !<br />
✪<br />
Thm. 2.2.30<br />
⇒ Konsistenzfehlerabschätzung für Projektions-Einschrittverfahren:<br />
∥ ∥<br />
‖τ(t,y,h)‖ :=<br />
∥Φ t,t+h y−Ψ t,t+h y∥ ≤ Ch‖(Id−P)(f(·,y(·)))‖ ∞ ,<br />
mitC > 0 unabhängig von<br />
y ∈ K,K ˆ= kompakte Umgebung der Lösungstrajektoriet ↦→ y(t),t 0 ≤ t ≤ T ,<br />
hinreichend kleiner Zeitschrittweiteh > 0.<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Verallgemeinerung von Lemma 2.2.13:<br />
2.2<br />
p. 169
✬<br />
✩<br />
Lemma 2.2.31 (Lipschitz-Stetigkeit der Inkrementfunktion von Projektions-Einschrittverfahren).<br />
Erfüllt f eine lokale Lipschitz-Bedingung (→ Def. 1.3.2), dann existiert zu jedem (t,y) ∈ Ω ein<br />
h 0 so, dass, für|h| < h 0 ,<br />
Numerische<br />
Mathemtik<br />
Ψ t,t+h y = y+hψ(t,y,h) ,<br />
mit einer in der Zustandsvariariableny lokal Lipschitz-stetigen (→ Def. 1.3.2) Inkrementfunktion<br />
ψ (→ Lemma 2.1.9).<br />
✫<br />
✪<br />
Beweis. Unter Berufung auf Kompaktheitsargumente, vgl. Beweis von Thm. 2.1.19, o.B.d.A. Annahme<br />
einer globalen Lipschitz-Bedingung<br />
∃L > 0: ‖f(τ,z)−f(τ,w)‖ ≤ L‖z−w‖ ∀z,w ∈ D, t ≤ τ ≤ t+h .<br />
Wie im Beweis von Lemma 2.2.27: sind y h ,z h ∈ (C 0 ([t,t + h])) d Lösungen von (2.2.26) zu „Anfangswerten”y<br />
0 ,z 0 ∈ D, dann<br />
|h| <<br />
1<br />
hL‖P‖ ⇒ ‖y h −z h ‖ ∞ ≤<br />
Garantiert Existenz von Lösungen von (2.2.26)<br />
∫ t+h<br />
1<br />
1−hL‖P‖ ‖y 0−z 0 ‖ . (2.2.32)<br />
(2.2.26) ⇒ Ψ t,t+h y 0 = y 0 + P(f(·,y h (·)))(ξ)dξ =: y 0 +hψ(t,y 0 ,h) .<br />
t<br />
} {{ }<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
2.2<br />
p. 170
|ψ(t,y 0 ,h)−ψ(t,z 0 ,h)| ≤ 1 h<br />
∫ h<br />
0<br />
P(f(·,y h (·))−f(·,z h (·)))(ξ)dξ<br />
(2.2.32)<br />
≤ ‖P‖L‖y h −z h ‖ ∞ ≤<br />
‖P‖L<br />
1−hL‖P‖ ‖y 0 −z 0 ‖ . ✷<br />
Numerische<br />
Mathemtik<br />
(y k ) N k=0<br />
ˆ= Gitterfunktion, erzeugt durch Projektions-Einschrittverfahren fürẏ = f(t,y) auf Zeitgitter<br />
{t 0 < t 1 < ··· < t N = T} ⊂ J(t 0 ,y 0 ): y k+1 = Ψ t k,t k+1 y k<br />
Mit Lemma 2.2.31 & Beweis von Thm. 2.1.19 (diskretes Gronwall-Lemma 2.1.20):<br />
Globale Fehlerabschätzung für Projektions-Einschrittverfahren (auf Zeitgitter)<br />
‖y k −y(t k )‖ ≤ C max<br />
j=1,...,N ‖(Id−P)(f(·,y(·)))‖ ∞,[t j−1 ,t j ]<br />
fürk = 1,...,N,h j hinreichend klein,C > 0 unabhängig vonh j ,k.<br />
exp(L(h 1 +···+h k ))−1<br />
L<br />
,<br />
(2.2.33)<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
2.2<br />
p. 171
2.2.3 Konvergenz von Kollokationsverfahren<br />
Numerische<br />
Mathemtik<br />
2.2.3.1 Konsistenzordnung<br />
Frage: Konsistenz(ordnung) (→ Konvergenz, Sect. 2.1.3) von Kollokationsverfahren ?<br />
Bem. 2.2.21 ➣ Konsequenz von Lemma 2.2.31:<br />
✬<br />
Lemma 2.2.34 (Konsistenz von Kollokationsverfahren).<br />
Unter den Voraussetzungen von Lemma 2.2.7 ist jedes Kollokations-Einschrittverfahren konsistent<br />
(→ Def. 2.1.8).<br />
✫<br />
R. Hiptmair<br />
rev 35327,<br />
✩25. April<br />
2011<br />
✪<br />
2.2<br />
p. 172
Erinnerung:<br />
Verfahrensgleichungen eines Kollokations-Einschrittverfahrens shadowfullframeblack<br />
s∑<br />
y h (t 1 ) = y 0 +h b i k i ,<br />
i=1<br />
k i = f(t 0 +c i h,y 0 +h<br />
a ij =<br />
mit s∑<br />
a ij k j ) . b i =<br />
j=1<br />
∫ ci<br />
0<br />
∫ 1<br />
0<br />
L j (τ)dτ ,<br />
L i (τ)dτ .<br />
(2.2.3)<br />
Numerische<br />
Mathemtik<br />
✎ Notation: t ∈ [t 0 ,t 0 +h] ↦→ y h (t) ˆ= durch Kollokationsverfahren erzeugte Näherungslösung,<br />
Polynom vom Grads, siehe (2.2.1)<br />
✬<br />
✫<br />
➣ (Einschritt-)Fehlerfunktion e(t) := y(t)−y h (t), t 0 ≤ t ≤ t 1<br />
Lemma 2.2.36 ((Suboptimale) Konsistenzordnung von Kollokationsverfahren).<br />
Für hinreichend glatte rechte Seite f ist das Kollokations-Einschrittverfahren (2.2.3) zu ẏ =<br />
f(t,y) konsistent von der Ordnungs(→ Def. 2.1.13).<br />
R. Hiptmair<br />
rev 35327,<br />
✩25. April<br />
2011<br />
✪<br />
2.2<br />
p. 173
Hilfsmittel beim Beweis: Restgliedabschätzung für Polynominterpolation (→ Vorlesung “Numerische<br />
Methoden”)<br />
Numerische<br />
Mathemtik<br />
✬<br />
✩<br />
Lemma 2.2.37 (Fehlerabschätzung für Polynominterpolation). → [9, Satz 7.16]<br />
Sei f ∈ C n+1 ([x 0 ,x n ]), x 0 < x 1 < ... < x n , und p ∈ P n das Interpolationspolynom von f<br />
zu den Sützstellenx i (d.h.p(x i ) = f(x i )), dann gilt<br />
|f (k) (x)−p (k) (x)| ≤ |x n−x 0 | n+1−k<br />
(n+1−k)!<br />
max<br />
x 0
Zusammen mit Thm. 2.2.30 gibt dies eine Schranke O(h s+1 ) für den Einschrittfehler (= Konsistenzfehler).<br />
✷<br />
Numerische<br />
Mathemtik<br />
“Direkter” Beweis von Lemma 2.2.36. (für autonome Dgl.ẏ = f(y),t 0 = 0)<br />
t ↦→ y(t) ˆ= exakte Lösung für AWPẏ = f(y),y(0) = y 0<br />
t ↦→ y h (t), 0 ≤ t ≤ h, polynomiale approximative Lösung aus einem Schritt des Kollokationsverfahrens,y<br />
h (0) = y 0 .<br />
(Annahme: h hinreichend klein, siehe Lemma 2.2.7,h ∈ J(y 0 ))<br />
Wiederum vereinfachende Annahme:<br />
f global Lipschitz-stetig<br />
∃L > 0: ‖f(z)−f(w)‖ ≤ L‖z−w‖ ∀z,w ∈ D . (2.2.39)<br />
Zur Konsistenzuntersuchung betrachte die Einschrittfehlerfunktion<br />
Aus den Kollokationsbedingungen (2.2.1):<br />
s∑<br />
e(t) := y(t)−y h (t) ➣ τ(y 0 ,h) = e(h) . (2.2.40)<br />
ẏ h (t) =<br />
i=1<br />
f(y h (c i h))·L i (τ) , τ := t h .<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
(2.2.41)<br />
2.2<br />
p. 175
Aus der Lösungseigenschaft vont ↦→ y(t)<br />
ẏ(t) = f(y(t)) =<br />
s∑<br />
f(y(c i h))·L i (τ)+r(t) , τ := t h . (2.2.42)<br />
i=1<br />
Interpolationspolynom∈ P s−1 zur Funktiont ↦→ f(y(t)) und Knotenc i h auf[0,h]<br />
r ˆ= Restglied für Polynominterpolation, siehe Lemma 2.2.37, erfüllt<br />
∥<br />
∥r (k) 1<br />
∥<br />
(t) ∥ ≤ max ∥y (s+1) (t) ∥ h s−k ≤ Ch s−k , k = 0,...,s . (2.2.43)<br />
(s−k)! 0
mit vonhunabhängigen KonstantenC 1 ,C 2 > 0 (, die von den Kollokationspunktenc i undyabhängen.)<br />
Numerische<br />
Mathemtik<br />
C 1 Lh 0 < 1 ⇒ ‖τ(y,h)‖ ≤ ‖e‖ ∞ ≤<br />
C 2<br />
1−C 1 h 0 L hs+1 ∀|h| ≤ h 0 . (2.2.47)<br />
☞ Wir folgern: Das Kollokationsverfahren hat mindestens Konsistenzordnungs. ✷<br />
Aus (2.2.44) und (2.2.43) lässt sich sogar folgern, fürk = 0,...,s,<br />
∥<br />
max ∥e (k) (t) ∥ ≤ C 1 (k)Lh‖e‖ ∞ +C 2 (k)h s+1−k<br />
0≤t≤h<br />
∥<br />
⇒ max ∥e (k) (t) ∥ ≤ C(k)h s+1−k , (2.2.48)<br />
0≤t≤h<br />
mit vonhunabhängigen KonstantenC 1 (k),C 2 (k),C(k) > 0.<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
<strong>Beispiel</strong> 2.2.49 (Konvergenz von Gauss-Kollokations-Einschrittverfahren). → Bsp. 2.2.17<br />
Skalare logistische Differentialgleichung (1.2.2),λ = 10,y(0) = 0.01,T = 1<br />
Gauss-Kollokations-Einschrittverfahren (2.2.3) fürs = 1,...,4, uniforme Zeitschrittweiteh<br />
2.2<br />
p. 177
10 0 h<br />
1<br />
Numerische<br />
Mathemtik<br />
y<br />
0.8<br />
0.6<br />
0.4<br />
max k<br />
|y h<br />
(t k<br />
)−y(t) k<br />
)|<br />
10 −5<br />
10 −10<br />
y(t)<br />
0.2<br />
s=1<br />
s=2<br />
s=3<br />
s=4<br />
0<br />
0 0.2 0.4 0.6 0.8 1<br />
t<br />
Fig. 60<br />
y h (j/10): Gauss-Kollokationsverfahren<br />
Numerische Konvergenzraten :<br />
(berechnet durch lineare Regression)<br />
Student Version of MATLAB<br />
10 −15<br />
s = 1 : p = 1.96<br />
s = 2 : p = 4.01<br />
s = 3 : p = 6.00<br />
s = 4 : p = 8.02<br />
s=1<br />
s=2<br />
s=3<br />
s=4<br />
10 −2 10 −1 10 0<br />
Fig. 61<br />
Konvergenz des Fehlersmax k |y k −y(t k )|<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Beobachtung: Konvergenzraten sind doppelt so hoch wie die untere Schranke aus Lemma 2.2.36!<br />
2.2<br />
p. 178
9<br />
8<br />
Gauss points<br />
centered equidistant nodes<br />
shifted equidistant nodes<br />
logistic ODE, collocation RK methods<br />
Numerische<br />
Mathemtik<br />
7<br />
Vergleich der (empirischen) Konvergenzraten<br />
✄<br />
convergence rate<br />
6<br />
5<br />
4<br />
3<br />
2<br />
1<br />
0<br />
1 2 3 4<br />
s<br />
Fig. 62<br />
✸<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Betrachte: Kollokationsverfahren zu ẏ = f(t,y) mit (relativen) Kollokationspunkten c i ∈ [0,1],<br />
i = 1,...,s,s ∈ N ➣ Koeffizientenb i ,a ij in (2.2.3).<br />
Zugeordnete Quadraturformel, Bem. 2.2.18:<br />
Q(f) = h ∑ s<br />
i=1 b jf(t 0 +c j h) . (2.2.50)<br />
2.2<br />
p. 179
Bsp. 2.2.49 legt die Vermutung nahe, dass die Konsistenzordnung eines Kollokationsverfahrens mit<br />
der Ordnung der gemäss (2.2.50) zugeordneten Quadraturformel übereinstimmt.<br />
Numerische<br />
Mathemtik<br />
✬<br />
✩<br />
Theorem 2.2.51 (Konsistenzordnung von Kollokationsverfahren).<br />
Die Konsistenzordnung (→ Def. 2.1.13) eines Kollokations-Einschrittverfahrens stimmt mit der<br />
Ordnung der zugeordneten Quadraturformel überein.<br />
✫<br />
✪<br />
Hilfsmittel beim Bweis: Fehlerabschätzung für numerische Quadratur (→ Vorlesung “Numerische<br />
Methoden”)<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
s-Punkt-Quadraturformel auf[a,b]:<br />
Q(f) := (b−a)<br />
s∑<br />
b i f(a+c i (b−a)) ≈<br />
∫b<br />
f(x)dx .<br />
i=1<br />
a<br />
(2.2.52)<br />
Annahme: innere Knoten 0 ≤ c i ≤ 1,i = 1,...,s<br />
2.2<br />
p. 180
✬<br />
→ Quadraturformel von der Ordnungn+1<br />
Numerische<br />
✩Mathemtik<br />
Lemma 2.2.53 (Quadraturfehlerabschätzung).<br />
Ist eine Quadraturformel (2.2.52) exakt für Polynome von Grad≤ n, so gilt<br />
f ∈ C n+1 ∫ b<br />
([a,b]) ⇒<br />
∣ Q(f)− f(x)dx<br />
a ∣ ≤ C(b−a)n+2 (n+1)!<br />
mitC = 1+ ∑ s<br />
i=1 |b i |.<br />
max<br />
a
Wegenẏ(t) = f(y(t)) folgt für die Einschrittfehlerfunktione(t) = y(t)−y h (t)<br />
ė(t) = f(y(t))−f(y h (t))−δ(t) , 0 ≤ t ≤ h .<br />
Numerische<br />
Mathemtik<br />
Hilfsmittel: Taylorformel<br />
ϕ(1)−ϕ(0) = ϕ ′ (0)+<br />
∫ 1<br />
0<br />
(1−τ)ϕ ′′ (τ)dτ ,<br />
fürϕ(ξ) := f(y(t)+ξ(y h (t)−y(t))) mit der Kettenregel:<br />
ϕ ′ (ξ) = Df(y(t)+ξ(y h (t)−y(t)))·(y h (t)−y(t)) ,<br />
ϕ ′′ (ξ) = D 2 f(y(t)+ξ(y h (t)−y(t)))(y h (t)−y(t),y h (t)−y(t)) .<br />
Einsetzen in die Formel für die Einschrittfehlerfunktion:<br />
∫ 1<br />
ė(t) = ϕ(0)−ϕ(1)−δ(t) = Df(y(t))e(t)− (1−τ)D 2 f(y(t)+τe(t))(e(t),e(t)) −δ(t) .<br />
0<br />
} {{ }<br />
=:ρ(t)<br />
Dabei gilt die offensichtliche Abschätzung:<br />
‖ρ(t)‖ ≤ max<br />
y∈K<br />
∥<br />
∥D 2 f(y)<br />
∥<br />
∥·‖e(t)‖<br />
2<br />
Lemma 2.2.36<br />
≤ Ch 2s+2 , (2.2.55)<br />
wobeiK = {z ∈ D: ‖z−y(t)‖ ≤ R} mit vontunabhängigemR > 0 undC > 0 unabhängig von<br />
h.<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
2.2<br />
p. 182
➣<br />
Einschrittfehlerfunktion löst das Anfangswertproblem<br />
ė = Df(y(t))e−ρ(t)−δ(t) , e(0) = 0 . (2.2.56)<br />
Numerische<br />
Mathemtik<br />
Betrachtet man ρ(t),δ(t) als blosse Funktionen von t, dann ist (2.2.56) eine nichtautonome lineare<br />
Differentialgleichung.<br />
➣ Lösung durch allgemeine Variation-der-Konstanten-Formel (1.3.18):<br />
∫ t<br />
e(t) = −<br />
0<br />
W(t;y 0 )W(τ;y 0 ) −1 (ρ(τ)+δ(τ))dτ , 0 ≤ t ≤ h .<br />
mit der Propagationsmatrixt ↦→ W(t;y 0 ), vgl. (1.3.33), Sect. 1.3.3.4. Sie löst das Anfangswertproblem<br />
für die Variationsgleichung (1.3.34)<br />
Ẇ(t;y 0 ) = Df(y(t))W(t;y 0 ) , W(0;y 0 ) = I .<br />
Die Propagationsmatrix ist natürlich unabhängig vonh, also<br />
∥<br />
∃C > 0 unabhängig vonh: ∥W(t;y 0 )W(τ;y 0 ) −1∥ ∥ ≤ C ∀0 ≤ t,τ ≤ h .<br />
∫<br />
(2.2.55)<br />
t<br />
⇒<br />
∥ W(t;y 0 )W(τ;y 0 ) −1 ρ(τ)dτ<br />
∥ ≤ Ch2s+3 ,<br />
mitC > 0 unabhängig vonh.<br />
Beachte: (2.2.40) ➣ Konsistenzfehler bestimmt durche(h) !<br />
0<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
2.2<br />
p. 183
Geniale Idee: Abschätzung von ∫ h<br />
0 W(t;y 0 )W(τ;y 0 ) −1 δ(τ)dτ als Quadraturfehler !<br />
Wegenδ(c i h) = 0 (Kollokationsbedingung (2.2.1) !):<br />
s∑<br />
b i W(t;y 0 )W(c i h;y 0 ) −1 δ(c i τ)<br />
} {{ }<br />
i=1<br />
=0<br />
} {{ }<br />
Quadraturformel auf[0,h] fürτ↦→W(t;y 0 )W(τ;y 0 ) −1 δ(τ)<br />
➣ Mit der Quadraturfehlerabschätzung aus Lemma 2.2.53<br />
∫h<br />
s∑<br />
W(t;y 0 )W(τ;y 0 ) −1 δ(τ)dτ −<br />
∥0<br />
i=1<br />
mit<br />
C 3 := 1 p!<br />
max<br />
0≤τ≤h<br />
= 0 ∀0 ≤ t ≤ h .<br />
b i W(t;y 0 )W(c i h;y 0 ) −1 δ(c i τ)<br />
≤ C 3 h p+1 ,<br />
∥<br />
d p {<br />
∥dτ p τ ↦→ W(h;y 0 )W(τ;y 0 ) −1 δ(τ)} ∥ ∥∥ .<br />
δ(t) := ẏ h (t)−f(y h (t)) hängt natürlich im Gegensatz zuW(t;y) vonhab, doch dank der Schranken<br />
aus (2.2.48) sind alle Ableitungen von y h gleichmässig in h beschränkt !. Also lässt sich auch<br />
C 3 unabhängig vonhbeschränken.<br />
∫h<br />
∥0<br />
W(h;y 0 )W(τ;y 0 ) −1 δ(τ)dτ<br />
≤ Ch p+1 .<br />
∥<br />
Numerische<br />
Mathemtik<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
2.2<br />
p. 184
Zusammen mit der Abschätzung für den ρ-Term ergibt sich die Behauptung des Theorems, vgl.<br />
Def. 2.1.13<br />
✷<br />
Numerische<br />
Mathemtik<br />
s-stufige implizite Gauss-Kollokations-Einschrittverfahren haben Ordnung2s<br />
2.2.3.2 Spektrale Konvergenz<br />
Erinnerung: Polynominterpolation: „Grad→ ∞ ⇒ Fehler→ 0”<br />
(für geeignete Knoten, z.B. Tschebyscheff-Knoten [9, Sect. 7.1.4])<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Bei Gauss-Kollokations-Einschrittverfahren:<br />
Konvergenz fürs → ∞ ?<br />
<strong>Beispiel</strong> 2.2.57 (Konvergenz von globalen Gauss-Kollokationsverfahren).<br />
2.2<br />
p. 185
Dieses <strong>Beispiel</strong> studiert den Einschrittfehler von Kollokationsverfahren in Abhängigkeit von der<br />
Anzahl der Kollokationspunkte ↔ Polynomgrad s. Bisher haben wir nur die Strategie betrachtet,<br />
durch Verfeinerung des Zeitgitters eine genauere Lösung zu erhalten.<br />
Numerische<br />
Mathemtik<br />
Logistische Differentialgleichung (→ Bsp. 1.2.1)<br />
ẏ = λy(1−y) , y 0 ∈]0,1[ ⇒ y(t) =<br />
1<br />
1+(y0 −1 , t ∈ R . (2.2.58)<br />
−1)e−λt Numerische Experimente mit Gauss-Kollokationsverfahren auf[0,1],y 0 = 0.01,λ = 10:<br />
(Lösung der Gleichungen für Inkrementek i : MATLABfsolve, Toleranz10 −9 )<br />
Hier:<br />
Kollokationsverfahren als globales Integrationsverfahren<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
2.2<br />
p. 186
1.6<br />
1.4<br />
1.2<br />
1<br />
y(t)<br />
s=1<br />
s=2<br />
s=3<br />
s=4<br />
s=5<br />
s=6<br />
10 −1<br />
10 −2<br />
Numerische<br />
Mathemtik<br />
y<br />
0.8<br />
0.6<br />
|y h<br />
(1)−y(1)|<br />
10 0 Polynomgrad = Stufenzahl s<br />
10 −3<br />
0.4<br />
10 −4<br />
0.2<br />
0<br />
10 −5<br />
−0.2<br />
0 0.2 0.4 0.6 0.8 1<br />
t<br />
Näherungslösungeny h (t)<br />
10 −6<br />
1 2 3 4 5 6 7 8 9 10<br />
✄ Exponentielle Konvergenz ins(Warum ?)<br />
✸<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Naheliegend: Konvergenzanalyse auf der Grundlage von Thm. 2.2.30<br />
☞ Benötigt: Spektrale Interpolationsfehlerabschätzungen für Polynominterpolation in Gauss-<br />
Knoten, siehe Abb. 59 (spektral: Fehlerabschätzungen in Abhängigkeit vom Polynomgrad, ein neuer<br />
Aspekt im Vergleich zur Vorlesung “numerische Methoden”).<br />
2.2<br />
p. 187
Polynominterpolationsfehlerabschätzungen für analytische Funktionen<br />
Numerische<br />
Mathemtik<br />
<strong>Beispiel</strong> 2.2.59 (Interpolationsfehler bei Polynominterpolation in Gauss-Knoten).<br />
Interpoland: Lösung der logistischen Dgl. (1.2.2)<br />
auf[−1,1], vgl. Bsp. 1.2.1:<br />
Fehler:<br />
y(t) =<br />
1<br />
1+exp(− 1 2 λt) .<br />
err := max<br />
−1≤t≤1 |y(t)−p n(t)| ,<br />
p n (t) ˆ= Interpolationspolynom vony(t), Gradn−<br />
1, zunGauss-Knoten.<br />
Näherungsweise Auswertung von err durch Abtasten<br />
auf sehr feinem Gitter<br />
Interpolation error (max norm)<br />
@(t) 1./(1+exp(−0.5*lambda*t)) on [−1,1]<br />
10 0<br />
10 −1<br />
10 −2<br />
10 −3<br />
10 −4<br />
10 −5<br />
10 −6<br />
10 −7<br />
λ = 2<br />
λ = 4<br />
10 −8 λ = 7<br />
λ = 11<br />
λ = 16<br />
10 −9<br />
No. of Gauss nodes<br />
1 2 3 4 5 6 7 8 9 10<br />
Fig. 63<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
2.2<br />
p. 188
Listing 2.1: Berechung approximativer Maximumnorm des Fehlers bei Polynominterpolation<br />
1 f u n c t i o n errinf = polyintperr(fun,nodes,span)<br />
2 % Error of polynomial interpolation in maximum norm<br />
3 % fun : handle to function to be interpolated<br />
4 % nodes : interpolation nodes<br />
5 % span : evaluation interval (default [-1,1])<br />
6<br />
7 i f (nargin < 3), span = [-1,1]; end<br />
8 n = length(nodes);<br />
9<br />
0 fval = zeros(1,n);<br />
1 f o r j=1:n, fval(j) = fun(nodes(j)); end<br />
2<br />
3 p = p o l y f i t(nodes,fval,n-1); % built-in polynomial interpolation<br />
4<br />
5 % Compute maximum norm by sampling on fine mesh<br />
6 N = 1000*n;<br />
7 t = span(1) + (0:N)*(span(2)-span(1))/N;<br />
8 pval = polyval(p,t);<br />
9 fval = zeros(1,N+1);<br />
0 f o r j=1:N+1, fval(j) = fun(t(j)); end<br />
1 errinf = max(abs(pval-fval));<br />
Listing 2.2: Berechung approximativer Maximumnorm des Interpolationsfehlers in Gausspunkten<br />
Numerische<br />
Mathemtik<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
2.2<br />
p. 189
1 f u n c t i o n errinf = gaussintperr(fun,n)<br />
2 % Error of polynomial interpolation in Gauss points in maximum norm<br />
3 % fun : handle to function to be interpolated<br />
4 % n : number of interpolation nodes<br />
5<br />
6 path(path,’../SupportScripts’);<br />
7 [nodes,weights] = GaussQuad(n);<br />
8 errinf = polyintperr(fun,nodes’);<br />
Listing 2.3: Erzeugen der Plots für Bsp. 2.2.59<br />
1 f u n c t i o n plotgaussintperr<br />
2 % Error of Gaussian interpolation for solution of logistic differentialequation<br />
3<br />
4 rec = []; % Array for recording errors<br />
5 k = 1;<br />
6 f o r lambda=[2,4,7,11,16]<br />
7 sol = @(t) 1./(1+exp(-0.5*lambda*t));<br />
8 errs = [];<br />
9 f o r n=1:10, errs = [errs,gaussintperr(sol,n)]; end<br />
0 rec = [rec;errs];<br />
1 leg{k} = s p r i n t f(’\\lambda = %d’,lambda);<br />
2 k = k+1;<br />
3 end<br />
4<br />
Numerische<br />
Mathemtik<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
2.2<br />
p. 190
5 f i g u r e(’name’,’Gaussian interpolation error’);<br />
6 semilogy(1:10,rec(1,:),’r*-’,...<br />
7 1:10,rec(2,:),’c*-’,...<br />
8 1:10,rec(3,:),’b*-’,...<br />
9 1:10,rec(4,:),’k*-’,...<br />
0 1:10,rec(5,:),’m*-’);<br />
1 x l a b e l(’{\bf No. of Gauss nodes}’,’fontsize’,14);<br />
2 y l a b e l(’{\bf Interpolation error (max norm)}’,’fontsize’,14);<br />
3 t i t l e(’@(t) 1./(1+exp(-0.5*lambda*t)) on [-1,1]’);<br />
4 legend(leg,’location’,’southwest’);<br />
5<br />
6 p r i n t -depsc2 ’gaussintperr.eps’;<br />
Numerische<br />
Mathemtik<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Beobachtung: exponentielle Konvergenz (→ Def. 1.4.5) des Interpolationsfehlers, schneller bei kleineremλ.<br />
✸<br />
2.2<br />
p. 191
Interpolationsfehleranalyse mit Hilfsmitteln der Funktionentheorie:<br />
Numerische<br />
Mathemtik<br />
Bekannt sein sollte aus der Funktionentheorie:<br />
Konzept einer<br />
holomorphen Funktion,<br />
Cauchy Integralsatz , und<br />
Laurent-Entwicklung.<br />
Erinnerung, siehe etwa [30, Ch. 13]:<br />
✬<br />
Theorem 2.2.60 (Residuensatz).<br />
Sei D ⊂ C eine offene Menge,Γ ⊂ D ein einfach geschlossener Integrationsweg undΠ ⊂ D<br />
eine endliche Menge.<br />
Für jede inD\Πholomorphe (analytische) Funktionf : D\Π ↦→ C gilt<br />
∫<br />
1<br />
=<br />
2πi γf(z)dz ∑ res p f ,<br />
p∈Π<br />
wobeires p f das Residuum vonf im Punktpist.<br />
✫<br />
R. Hiptmair<br />
✩<br />
rev 35327,<br />
25. April<br />
2011<br />
✪<br />
2.2<br />
p. 192
Π wird oft als die Menge der Pole vonf bezeichnet.<br />
Numerische<br />
Mathemtik<br />
Definition 2.2.61 (Residuum einer komplexwertigen Funktion).<br />
Ist f holomorph in einer punktierten Umgebung von p ∈ C, so ist das Residuum res p f von f<br />
im Punktpder Koeffizienta −1 der Laurent-Entwicklung vonf inp.<br />
Beweisskizze. (von Thm. 2.2.60)<br />
Hat f in einer punktierten Umgebung von p ∈ C<br />
Im<br />
die konvergente Laurent-Enwicklung<br />
f(z) =<br />
∞∑<br />
k=−∞<br />
a k (z −p) k<br />
so gilt für einen (hinreichend kleinen) Kreisγ ump<br />
1<br />
2πi<br />
∫<br />
γ<br />
f(z)dz = a −1 .<br />
p 1<br />
D<br />
p 2 p 3<br />
p 4<br />
Γ<br />
Re<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Dann zerlege ∫ Γ wie in der Skizze angedeutet und<br />
verwende den Cauchy-Integralsatz.<br />
Fig. 64<br />
2.2<br />
p. 193
✬<br />
Lemma 2.2.62 (Residuenformel für einfachen Pol).<br />
Istf holomorph in einer punktierten Umgebung vonp ∈ C und(z −p)f(z) holomorph inp, so<br />
gilt<br />
✩<br />
Numerische<br />
Mathemtik<br />
res p f = lim z→p<br />
(z −p)f(z) . (2.2.63)<br />
✫<br />
✪<br />
Daraus folgt sofort:<br />
✬<br />
Lemma 2.2.64 (Residuenformel für Quotienten).<br />
Sindg,h holomorph in einer Umgebung vonp ∈ C undh(p) = 0,h ′ (p) ≠ 0, so gilt<br />
✫<br />
res p<br />
g<br />
h = g(p)<br />
h ′ (p) .<br />
✩<br />
✪<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Betrachte:<br />
Polynominterpolation vonf ∈ C 0 ([a,b]) in Knotenτ 1 < τ 2 < ... < τ s ,s ∈ N<br />
2.2<br />
p. 194
a<br />
Im<br />
D<br />
Γ<br />
τ 1 τ 2 τ 3 τ 4<br />
b<br />
R<br />
✬<br />
Annahme 2.2.65 (Analytizität des Interpolanden).<br />
f holomorph (analytisch) in eine komplexen<br />
UmgebungD ⊂ C von[a,b] fortsetzbar.<br />
✫<br />
✩<br />
Numerische<br />
Mathemtik<br />
✪<br />
Fig. 65<br />
✁ Analytizitätsgebiet (gelb)<br />
Wir betrachten folgende Funktion mit PolmengeΠ = {t,τ 1 ,...,τ s }<br />
g t (z) :=<br />
f(z)<br />
(z −t)P(z) , t ∈ [a,b]\{τ 1,...,τ s } , P(z) := α(z −τ 1 )·····(z −τ s ), α ∈ R .<br />
➣ g t ist holomorph aufD\{t,τ 1 ,...,τ s } (t ist Parameter!). )<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Anwendung des Residuensatzes Thm. 2.2.60 aufg t mit einfach geschlossenem IntegrationswegΓ<br />
⊂ D, der[a,b] umschliesst, siehe die magenta Kurve in Abb. 65:<br />
1<br />
2πi<br />
∫<br />
Γ<br />
g t (z)dz = res t g t +<br />
s∑<br />
Lemma 2.2.64f(t)<br />
s∑<br />
res τj g t =<br />
P(t) + f(τ j )<br />
(τ j −t)P ′ (τ j )<br />
j=1<br />
j=1<br />
Möglich, daP ausschliesslich einfache Nullstellen hat !<br />
2.2<br />
p. 195
f(t) = −<br />
s∑<br />
f(τ j )<br />
j=1<br />
P(t)<br />
(τ j −t)P ′ (τ j )<br />
} {{ }<br />
−Lagrange-Polynom !<br />
} {{ }<br />
Interpoationspolynom !<br />
+ P(t) ∫<br />
2πi<br />
g t (z)dz<br />
Γ<br />
} {{ }<br />
Interpolationsfehler !<br />
. (2.2.66)<br />
Numerische<br />
Mathemtik<br />
➣ Nun abzuschätzen: rechte Seite von<br />
|f(t)−Interpolationspolynom(t)| ≤<br />
P(t)<br />
∣ 2πi<br />
∫<br />
Γ<br />
f(z)<br />
(z −t)P(z) dz ∣ ∣∣∣<br />
, a ≤ t ≤ b . (2.2.67)<br />
Bausteine der Abschätzung:<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
• Obere Schranke für|P(t)|,a ≤ t ≤ b<br />
• Untere Schranke für|P(z)|,z ∈ Γ für einen geschickt gewählten IntegrationswegΓ ⊂ D<br />
Offensichtlich hängt die Schranke in (2.2.67) nicht vonαab.<br />
2.2<br />
p. 196
Abschätzungen für Legendre-Polynome<br />
Numerische<br />
Mathemtik<br />
Erinnerung: Für{τ j } s j=1<br />
ˆ= Gauss-Knoten in[−1,1] ➤ P(t) ˆ=s. Legendre-Polynom (Grads)<br />
✎ Notation: P n ˆ= Legendre-Polynom vom Gradn ∈ N 0<br />
Rekursionsformel: (n+1)P n+1 (t)−(2n+1)tP n (t)+nP n−1 (t) = 0 , (2.2.68)<br />
Rodrigues-Formel: P n (t) = 1 d n<br />
2 n n! dt n(t2 −1) n . (2.2.69)<br />
(Start der Rekursion mit P 0 ≡ 1,P 1 (t) = t)<br />
Legendre-Polynome auf[−1,1]<br />
✄<br />
1<br />
Legendre polynomials on [−1,1]<br />
R. Hiptmair<br />
P 0 (x) = 1 ,<br />
P 1 (x) = x ,<br />
0.8<br />
0.6<br />
0.4<br />
rev 35327,<br />
25. April<br />
2011<br />
P 2 (x) = 1/2(3x 2 −1) ,<br />
0.2<br />
P 3 (x) = 1/2(5x 3 −3x) ,<br />
P 4 (x) = 1/8(35x 4 −30x 2 +3) ,<br />
P 5 (x) = 1/8(63x 5 −70x 3 +15x) ,<br />
P 6 (x) = 1/(16)(231x 6 −315x 4 +105x 2 −5) .<br />
P n<br />
(t)<br />
0<br />
−0.2<br />
−0.4<br />
−0.6<br />
−0.8<br />
−1<br />
−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1<br />
t<br />
n = 0<br />
n = 1<br />
n = 2<br />
n = 3<br />
n = 4<br />
n = 5<br />
n = 6<br />
n = 7<br />
Fig. 66<br />
2.2<br />
p. 197
Vermutung: |P n (t)| ≤ 1 für alle−1 ≤ t ≤ 1<br />
Numerische<br />
Mathemtik<br />
Im(z)<br />
2<br />
1.5<br />
1<br />
0.5<br />
0<br />
−0.5<br />
−1<br />
−1.5<br />
2<br />
2<br />
1.5<br />
1<br />
1<br />
1.5<br />
0<br />
0.5<br />
2<br />
Modulus of Legendre polynomials, log 10<br />
|P 4<br />
|<br />
0<br />
2<br />
1.5<br />
−0.5<br />
−1<br />
1<br />
0.5<br />
1<br />
1.5<br />
−2<br />
−2 −1.5 −1 −0.5 0 0.5 1 1.5 2<br />
Re(z)<br />
−1<br />
0<br />
−0.5<br />
Niveaus von|P 4 (z)|<br />
0.5<br />
2<br />
0<br />
2<br />
1.5<br />
1<br />
0.5<br />
1<br />
1.5<br />
2<br />
1.5<br />
2<br />
Fig. 67<br />
Im(z)<br />
2<br />
1.5<br />
1<br />
0.5<br />
0<br />
−0.5<br />
−1<br />
−1.5<br />
3<br />
3<br />
2<br />
1<br />
1<br />
0<br />
2<br />
Modulus of Legendre polynomials, log 10<br />
|P 6<br />
|<br />
0<br />
3<br />
3<br />
2<br />
−1<br />
1<br />
−2<br />
−2 −1.5 −1 −0.5 0 0.5 1 1.5 2<br />
Re(z)<br />
Niveaus von|P 6 (z)|<br />
−1<br />
1<br />
2<br />
0<br />
0<br />
3<br />
3<br />
2<br />
1<br />
2<br />
3<br />
3<br />
Fig. 68<br />
Im(z)<br />
2<br />
1.5<br />
1<br />
0.5<br />
0<br />
−0.5<br />
−1<br />
−1.5<br />
3<br />
3<br />
4<br />
4<br />
2<br />
0<br />
Modulus of Legendre polynomials, log 10<br />
|P 8<br />
|<br />
0<br />
1<br />
3<br />
2<br />
1<br />
3<br />
4<br />
2<br />
4<br />
−2<br />
−2 −1.5 −1 −0.5 0 0.5 1 1.5 2<br />
Re(z)<br />
Niveaus von|P 8 (z)|<br />
0<br />
0<br />
1<br />
3<br />
1<br />
2<br />
3<br />
4<br />
2<br />
4<br />
3<br />
4<br />
4<br />
Fig. 69<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Beobachtung/Vermutung:<br />
Niveaulinien von|P n (z)| sind näherungsweise Ellipsen mit Brennpunkten−1,1.<br />
Exponentielles Anwachsen von|P n (z)| auf sich ausweitenden Ellipsen mit Brennpunkten{−1,1}.<br />
2.2<br />
p. 198
Numerische<br />
Mathemtik<br />
Hilfmittel für Abschätzung der Legendre-Polynome nach oben und nach unten:<br />
Erzeugende Funktion der Legendre-Polynome<br />
Durch gliedweise Differentiation:<br />
formale Reihe: F w (z) =<br />
∞∑<br />
P n (w)z n , z,w ∈ C . (2.2.70)<br />
n=0<br />
dF ∞ w<br />
dz (z) = ∑<br />
(n+1)P n+1 (w)z n ,<br />
n=0<br />
d<br />
dz (zF w(z)) =<br />
∞∑<br />
(n+1)P n (w)z n , z d dz (zF w(z)) =<br />
n=0<br />
∞∑<br />
nP n−1 (w)<br />
R. Hiptmair<br />
Aus der Rekursionsformel (2.2.68) folgt daher<br />
rev 35327,<br />
dF w<br />
dz (z)−(2z d dz (zF w(z))−zF w (z))+z d 25. April<br />
2011<br />
dz (zF w(z)) = 0 ,<br />
dF w<br />
dz (z) = w−z<br />
z 2 −2wz +1 F w(z) . (2.2.71)<br />
Nach Ersetzungz ← t: ODE fürt ↦→ F w (t).<br />
Zugehöriges Anfangswertproblem mitF w (0) = P 0 (w) = 1 hat eindeutige Lösung<br />
(<br />
F w (z) = z 2 ) −1/2 2.2<br />
−2wz +1 .<br />
n=0<br />
p. 199
Dabei wurde im Sinne der komplexen Fortsetzung wieder ersetzt t ← z. Also gilt für festes w ∈ C<br />
und|z| hinreichend klein<br />
Erzeugende Funktion der Legendre-Polynome<br />
(<br />
z 2 ) −1/2 ∑ ∞<br />
−2wz +1 = P n (w)z n . (2.2.72)<br />
n=0<br />
Numerische<br />
Mathemtik<br />
Faktorisierung vonF w (z): mit<br />
w := 1 2 (ζ +ζ−1 ) , ζ ∈ C\{0} ⇒ z 2 −2wz +1 = (1−zζ)(1−z/ζ) . (2.2.73)<br />
Aus Taylorreihe für(1−z) −1/2 :<br />
(→ Analysis)<br />
(1−z) −1/2 =<br />
∞∑<br />
n=0<br />
a n z n , a n = (2n)! 1·2·····2n<br />
(n!) 2 =<br />
22n (2·4·····2n) 2 > 0 .<br />
Aus dem Multiplikationssatz für Potenzreihen mit Transformation (2.2.73)<br />
⎛<br />
∞∑ n∑<br />
⎝<br />
(<br />
z 2 −2wz +1) −1/2<br />
= (1−zζ) −1/2 (1−z/ζ) −1/2 =<br />
n=0<br />
j=0<br />
⎞<br />
a j a n−j ζ n−2j ⎠z n .<br />
} {{ }<br />
=P n (w)<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
2.2<br />
p. 200
✬<br />
✩<br />
Lemma 2.2.74 (Obere Schranke für Legendre-Polynome).<br />
✫<br />
Es gilt |P n (t)| ≤ 1 für alle−1 ≤ t ≤ 1.<br />
✪<br />
Numerische<br />
Mathemtik<br />
Beweis. Wir verwenden die Darstellung des n. Legendre-Polynoms aus der Reihenentwicklung der<br />
erzeugenden Funktion: mit der Joukowski-TransformationT(ζ) = 1 2 (ζ +ζ−1 ) haben wir<br />
Beachte:<br />
P n (T(ζ)) =<br />
1<br />
2 (eiϕ +e −iϕ ) = cosϕ =: t<br />
n∑<br />
a j a n−j ζ n−2j , |ζ| ≥ 1 . (2.2.75)<br />
j=0<br />
⇒ Für T(ζ) :=<br />
2 1(ζ +ζ−1 ) gilt: T({|z| = 1}) = [−1,1] .<br />
⇒ |P n (t)| (2.2.75)<br />
n∑<br />
a j >0 n∑<br />
=<br />
a j a n−j exp(i(n−2j)ϕ)<br />
≤ a j a n−j = P n (1) = 1 ,<br />
∣<br />
∣<br />
j=0<br />
für einϕ ∈ [0,2π] so, dassT(exp(iϕ)) = t ∈ [−1,1].<br />
j=0<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
2.2<br />
p. 201
Wir betrachten nun die Joukowski-TransformationT(z) = 1 2 (z+z−1 ) in Ihrer Wirkung auf Kreise um<br />
0 etwas näher<br />
➣<br />
T(ρe iϕ ) = 1 2<br />
(<br />
ρe iϕ +ρ −1 e −iϕ) = 1 2 (ρ+ρ−1 ) cos(ϕ)+i·<br />
} {{ }<br />
grosse Halbachse<br />
1<br />
2 (ρ−ρ−1 ) sin(ϕ) .<br />
} {{ }<br />
kleine Halbachse<br />
T bildet einen Kreis mit Radius ρ > 1 auf eine Ellipse mit Brennpunkten {−1,1}, kleiner<br />
Halbachse 1 2 (ρ−ρ−1 ) und grosser Halbachse 1 2 (ρ+ρ−1 ) ab.<br />
Numerische<br />
Mathemtik<br />
Im<br />
1.5<br />
1<br />
0.5<br />
0<br />
ρ=1<br />
ρ=1.2<br />
ρ=1.4<br />
ρ=1.6<br />
ρ=1.8<br />
ρ=2<br />
TransformationT<br />
Im<br />
0.8<br />
0.6<br />
0.4<br />
0.2<br />
0<br />
ρ=1<br />
ρ=1.2<br />
ρ=1.4<br />
ρ=1.6<br />
ρ=1.8<br />
ρ=2<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
−0.5<br />
−1<br />
z→ 1 2 (z+1/z)<br />
−−−−−−−−→<br />
−0.2<br />
−0.4<br />
−0.6<br />
−1.5<br />
−0.8<br />
−2 −1 0 1 2<br />
Re<br />
Kreise{z ∈ C : |z| = ρ}<br />
−1 −0.5 0 0.5 1<br />
Re<br />
EllipsenE ρ gemäss (2.2.76)<br />
Fig. 70<br />
2.2<br />
p. 202
Abildungen 67-69: Niveaulinien von |P n (z)| sind näherungsweise Ellipsen mit Brennpunkten<br />
{−1,1}.<br />
Numerische<br />
Mathemtik<br />
Idee: Benutze elliptische Integrationswege, siehe Abb. 70<br />
E ρ := T({z ∈ C, |z| = ρ}) , ρ > 1 , (2.2.76)<br />
mit Joukowski-Transformation T(z) := 1 2 (z +1/z) . (2.2.77) R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
2.2<br />
p. 203
ρ n /10<br />
10 5<br />
10 4<br />
10 3<br />
10 2<br />
10 1<br />
10 6 n<br />
ρ = 1.10<br />
ρ = 1.20<br />
ρ = 1.30<br />
ρ = 1.40<br />
ρ = 1.50<br />
ρ = 1.60<br />
ρ = 1.70<br />
ρ = 1.80<br />
ρ = 1.90<br />
ρ = 2.00<br />
ρ = 2.10<br />
ρ = 2.20<br />
ρ = 2.30<br />
ρ = 2.40<br />
ρ = 2.50<br />
ρ<br />
min|P n<br />
(z)| on ellipse E<br />
10 5<br />
10 4<br />
10 3<br />
10 2<br />
10 1<br />
ρ<br />
ρ<br />
ρ<br />
10 6 n<br />
= 1.10<br />
= 1.20<br />
= 1.30<br />
= 1.40<br />
= 1.50<br />
= 1.60<br />
= 1.70<br />
= 1.80<br />
= 1.90<br />
= 2.00<br />
= 2.10<br />
= 2.20<br />
= 2.30<br />
= 2.40<br />
= 2.50<br />
ρ<br />
Numerische<br />
Mathemtik<br />
10 0<br />
10 0<br />
10 −1<br />
0 2 4 6 8 10 12 14 16<br />
Fig. 71<br />
0.1·ρ n als Funktion vonnfür verschiedeneρ > 1<br />
10 −1<br />
0 2 4 6 8 10 12 14 16<br />
Approximation von min<br />
z∈E ρ<br />
|P n (z)|<br />
Fig. 72<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
2.2<br />
p. 204
atio min|P n<br />
(z)|/(nρ n )<br />
3.5<br />
3<br />
2.5<br />
2<br />
1.5<br />
1<br />
ρ = 1.10<br />
ρ = 1.20<br />
ρ = 1.30<br />
ρ = 1.40<br />
ρ = 1.50<br />
ρ = 1.60<br />
ρ = 1.70<br />
ρ = 1.80<br />
ρ = 1.90<br />
ρ = 2.00<br />
ρ = 2.10<br />
ρ = 2.20<br />
ρ = 2.30<br />
ρ = 2.40<br />
ρ = 2.50<br />
Vermutung:<br />
Für grossen:<br />
min<br />
z∈E ρ<br />
|P n (z)| ∼ nρ n . (2.2.78)<br />
Numerische<br />
Mathemtik<br />
0.5<br />
0<br />
−2 0 2 4 6 8 10 12 14 16<br />
n<br />
Fig. 73<br />
Nach bestem Wissen des Autors gibt es keinen Beweis von (2.2.78). In [5, Sect. 12.4], [4] wird die<br />
schwächere Behauptung<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
gezeigt.<br />
∀ǫ > 0: ∃N = N(ǫ): min<br />
z∈E ρ<br />
|P n (z)| ≥ (ρ−ǫ) n ∀n > N(ǫ)<br />
Hier nur Heuristik:<br />
2.2<br />
p. 205
Erinnerung: Formel von Cauchy-Hadamard für den Konvergenzradius einer Potenzreihe [30,<br />
Sect. 4.1.3]<br />
1<br />
R :=<br />
limsup |a n| 1/n ⇒ ∑ ∞ a n z n konvergiert für|z| < R . (2.2.79)<br />
n→∞<br />
n=0<br />
Numerische<br />
Mathemtik<br />
Idee: (2.2.79) liefert asymptotische untere Schranke für|a n |, wennRbekannt !<br />
(Voraussetzung istlimsup<br />
|a n| 1/n = lim<br />
n→∞ n→∞ |a n| 1/n , gegeben z.B. bei Monotonie<br />
von(a n ) n .)<br />
Aus dem Entwicklungssatz von Cauchy schliesst man, siehe [30, Sect. 8.1.5]:<br />
✬<br />
Lemma 2.2.80 (Konvergenzradius von Potenzreihenentwicklungen).<br />
Sei D ⊂ C offen,f : D ↦→ C holomorph und0 ∈ D. Dann hat die Taylorreihe vonf um0den<br />
KonvergenzradiusR = dist(0,∂D).<br />
✫<br />
R. Hiptmair<br />
rev 35327,<br />
✩25. April<br />
2011<br />
✪<br />
Zu untersuchen mit Hilfe von Lemma 2.2.80: Konvergenzradius der Taylorreihe um 0 der erzeugenden<br />
Funktion (2.2.72), also f(z) = (z 2 − 2wz + 1) −1/2 , der Legendre-Polynome aus<br />
(2.2.72).<br />
2.2<br />
p. 206
Uns interessiert:<br />
min<br />
z∈E ρ<br />
|P n (z)| ➥<br />
Gesucht: Konvergenzradius fürw ∈ E ρ<br />
Numerische<br />
Mathemtik<br />
Lemma 2.2.80 ⇒ R = min{dist(0,ζ),dist(0,ζ −1 )} ,<br />
dennζ,ζ −1 sind die beiden Nullstellen vonz ↦→ z 2 −2wz +1 fürw = 1 2 (ζ +ζ−1 ), vgl. (2.2.73).<br />
ζ = ρexp(iϕ) , ρ > 1 ⇒ R = ρ −1 .<br />
Annahme. Existenz des Limes: limsup<br />
n→∞ |P n(w)| 1/n = lim<br />
n→∞ |P n(w)| 1/n<br />
Damit aus (2.2.72):<br />
∀ǫ > 0: ∃N = N(ǫ) ∈ N:<br />
(<br />
|P n (w)| 1/n > ρ−ǫ ⇔ |P n (w)| > (ρ−ǫ) n) ∀n > N(ǫ) .<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
2.2<br />
p. 207
✬<br />
✩<br />
Theorem 2.2.81 (Fehlerabschätzung für Interpolation in Gauss-Knoten).<br />
Es sei f : [−1,1] ↦→ C nach D ⊂ C analytisch fortsetzbar und E ρ ⊂ D für ein ρ > 1. Unter<br />
der Annahme (2.2.78) finden wirN = N(ρ) ∈ N undC = C(ρ) > 0, so dass<br />
s∑<br />
max<br />
−1≤t≤1<br />
∣ f(t)− f(τ j )L j (t)<br />
∣ ≤ Cρ−s max |f(z)| length(E ρ)<br />
∀s > N(ρ) .<br />
s z∈E ρ 2π<br />
✫<br />
j=1<br />
✪<br />
Numerische<br />
Mathemtik<br />
Aussage von Theorem 2.2.81: bzgl. der Maximumnorm exponentielle Konvergenz (→ Def. 1.4.5)<br />
des Interpolationspolynoms in den Gausspunkten einer in einer “geeigneten” Umgebung von [−1,1]<br />
analytischen Funktion.<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
<strong>Beispiel</strong> 2.2.82 (Fehler bei Polynominterpolation in Gauss-Knoten). → Fortsetzung Bsp. 2.2.59<br />
f(z) =<br />
1<br />
√<br />
1+exp(− 1 2 λz) ⇒ f analytisch inE ρ für ρ < π λ + ( π λ )2 +1 .<br />
2.2<br />
p. 208
Pole vonf:<br />
±(2k +1) 2πi<br />
λ , k ∈ Z .<br />
⇒ ρ−ρ −1 < 2π λ .<br />
2πi<br />
λ<br />
−1 1<br />
Im<br />
E ρ<br />
− 2πi<br />
λ Fig. 74<br />
Re<br />
Numerische<br />
Mathemtik<br />
Dieses <strong>Beispiel</strong> demonstriert die allgemeine Strategie zum Auffinden zulässiger Analytizitätsellipsen<br />
für “einfache” Funktionen: Man bestimmt die Pole der zu untersuchenden Funktion in C und dadurch<br />
das Gebiet, auf dem die Funktion holomorph ist.<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
✸<br />
1<br />
ẏ = λy(1−y) , y 0 > 0[ ⇒ y(t) =<br />
1+(y0 −1 −1)e −λt , t ∈ R . (2.2.84) 2.2<br />
<strong>Beispiel</strong> 2.2.83 (Analytizitätsgebiet für Lösung der logistischen Dgl.).<br />
Logistische Differentialgleichung (→ Bsp. 1.2.1)<br />
p. 209
Wenden wir ein Gauss-Kollokations-Einschrittverfahren, so reicht es<br />
∥<br />
‖(Id−P)f(·,y(·))‖ ∞,[0,1] =<br />
(·+1<br />
∥ (Id−P)f ,y(·+1 )∥ ∥∥∥∞,[−1,1]<br />
2 2 )<br />
Numerische<br />
Mathemtik<br />
zu untersuchen, siehe Thm. 2.2.30, wobei P den Operator der Polynominterpolation in den Gausspunkten<br />
bezeichnet.<br />
Füry 0 > 1: ein Pol in−1− 2 λ ln(−a) mit1/a = 1/y 0 −1.<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
2.2<br />
p. 210
Im<br />
1.5<br />
1<br />
0.5<br />
0<br />
y 0 = 1.1,λ = 5.5:<br />
pole<br />
ρ=3.4444<br />
ρ=3.095<br />
ρ=2.7456<br />
ρ=2.3961<br />
ρ=2.0467<br />
ρ=1.6972<br />
ρ=1.3478<br />
Numerische<br />
Mathemtik<br />
−0.5<br />
−1<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
−1.5<br />
−2 −1.5 −1 −0.5 0 0.5 1 1.5<br />
Re<br />
2.2<br />
p. 211
Im<br />
0.8<br />
0.6<br />
0.4<br />
0.2<br />
0<br />
y 0 = 10,λ = 5.5:<br />
pole<br />
ρ=1.3078<br />
ρ=1.2479<br />
ρ=1.188<br />
ρ=1.1281<br />
ρ=1.0683<br />
ρ=1.0084<br />
Numerische<br />
Mathemtik<br />
−0.2<br />
−0.4<br />
R. Hiptmair<br />
−0.6<br />
rev 35327,<br />
25. April<br />
2011<br />
−0.8<br />
−1 −0.5 0 0.5 1<br />
Re<br />
Maximum auf Ellipsen:<br />
2.2<br />
p. 212
10 5<br />
10 4<br />
y0=1.1 λ=1<br />
y0=1.1 λ=3.25<br />
y0=1.1 λ=5.5<br />
y0=1.1 λ=7.75<br />
y0=1.1 λ=10<br />
10 4<br />
y0=10 λ=1<br />
y0=10 λ=3.25<br />
y0=10 λ=5.5<br />
y0=10 λ=7.75<br />
y0=10 λ=10<br />
Numerische<br />
Mathemtik<br />
max on ellipse ρ<br />
10 6 ρ<br />
10 3<br />
10 2<br />
max on ellipse ρ<br />
10 5 ρ<br />
10 3<br />
10 2<br />
10 1<br />
10 0<br />
10 1<br />
10 −1<br />
0 2 4 6 8 10 12<br />
10 0<br />
1 1.2 1.4 1.6 1.8 2<br />
Fehler im Endzeitpunkt für globalen Schritt des Gauss-Kollokations-Einschrittverfahrens:<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
2.2<br />
p. 213
λ = 5.5:<br />
Fehler zum Zeitpunkt T=1, λ=5.5<br />
Numerische<br />
Mathemtik<br />
10 2 Polynomgrad = Stufenzahl s<br />
10 0<br />
10 −2<br />
y0=1.1 ρ=0.31378<br />
y0=2.88 ρ=0.29625<br />
y0=4.66 ρ=0.37181<br />
y0=6.44 ρ=0.41602<br />
y0=8.22 ρ=0.45792<br />
y0=10 ρ=0.4467<br />
|y h<br />
(1)−y(1)|<br />
10 −4<br />
10 −6<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
10 −8<br />
10 −10<br />
0 5 10 15<br />
2.2<br />
p. 214
λ = 10:<br />
Fehler zum Zeitpunkt T=1, λ=10<br />
Numerische<br />
Mathemtik<br />
10 2 Polynomgrad = Stufenzahl s<br />
10 0<br />
10 −2<br />
y0=1.1 ρ=0.20099<br />
y0=2.88 ρ=0.33691<br />
y0=4.66 ρ=0.43734<br />
y0=6.44 ρ=0.82362<br />
y0=8.22 ρ=0.53696<br />
y0=10 ρ=0.8109<br />
|y h<br />
(1)−y(1)|<br />
10 −4<br />
10 −6<br />
10 −8<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
10 −10<br />
10 −12<br />
0 5 10 15<br />
2.2<br />
p. 215
Füry 0 < 1: Pole in−1− 2 λ ln(a)− 2 λ (2k +1)πi mit1/a = 1/y 0 −1.<br />
Numerische<br />
Mathemtik<br />
y 0 = 0.80111,λ = 10:<br />
1<br />
pole z 0<br />
pole z 1<br />
Im<br />
0.5<br />
0<br />
−0.5<br />
−1<br />
−1 −0.5 0 0.5 1<br />
Re<br />
ρ=0.38348 rate=0.38348<br />
ρ=0.45087 rate=0.45087<br />
ρ=0.51826 rate=0.51826<br />
ρ=0.58565 rate=0.58565<br />
ρ=0.65304 rate=0.65304<br />
ρ=0.72043 rate=0.72043<br />
ρ=0.78783 rate=0.78783<br />
ρ=0.85522 rate=0.85522<br />
ρ=0.92261 rate=0.92261<br />
ρ=0.99 rate=0.99<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
2.2<br />
p. 216
y 0 = 0.10889,λ = 10:<br />
pole z 0<br />
Numerische<br />
Mathemtik<br />
Im<br />
0.5<br />
0<br />
−0.5<br />
−1 −0.5 0 0.5 1<br />
Re<br />
pole z 1<br />
ρ=1.9307 rate=0.51796<br />
ρ=1.8284 rate=0.54693<br />
ρ=1.7261 rate=0.57935<br />
ρ=1.6238 rate=0.61585<br />
ρ=1.5215 rate=0.65725<br />
ρ=1.4192 rate=0.70463<br />
ρ=1.3169 rate=0.75936<br />
ρ=1.2146 rate=0.82332<br />
ρ=1.1123 rate=0.89904<br />
ρ=1.01 rate=0.9901<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Maximum auf Ellipsen:<br />
2.2<br />
p. 217
400<br />
350<br />
300<br />
y0=0.80111 λ=1<br />
y0=0.80111 λ=3.25<br />
y0=0.80111 λ=5.5<br />
y0=0.80111 λ=7.75<br />
y0=0.80111 λ=10<br />
450<br />
400<br />
350<br />
y0=0.10889 λ=1<br />
y0=0.10889 λ=3.25<br />
y0=0.10889 λ=5.5<br />
y0=0.10889 λ=7.75<br />
y0=0.10889 λ=10<br />
Numerische<br />
Mathemtik<br />
max on ellipse ρ<br />
250<br />
200<br />
150<br />
100<br />
50<br />
max on ellipse ρ<br />
300<br />
250<br />
200<br />
150<br />
100<br />
50<br />
0<br />
0 5 10 15<br />
ρ<br />
0<br />
0 5 10 15<br />
ρ<br />
Fehler im Endzeitpunkt für globalen Schritt des Gauss-Kollokations-Einschrittverfahrens:<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
2.2<br />
p. 218
λ = 5.5:<br />
Fehler zum Zeitpunkt T=1, λ=5.5<br />
Numerische<br />
Mathemtik<br />
10 0 Polynomgrad = Stufenzahl s<br />
10 −2<br />
10 −4<br />
y0=0.01 ρ=0.17504<br />
y0=0.188 ρ=0.28951<br />
y0=0.366 ρ=0.23427<br />
y0=0.544 ρ=0.24882<br />
y0=0.722 ρ=0.21761<br />
y0=0.9 ρ=0.2343<br />
|y h<br />
(1)−y(1)|<br />
10 −6<br />
10 −8<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
10 −10<br />
10 −12<br />
0 5 10 15<br />
2.2<br />
p. 219
λ = 10:<br />
Fehler zum Zeitpunkt T=1, λ=10<br />
Numerische<br />
Mathemtik<br />
10 0 Polynomgrad = Stufenzahl s<br />
10 −2<br />
10 −4<br />
y0=0.01 ρ=0.23988<br />
y0=0.188 ρ=0.21673<br />
y0=0.366 ρ=0.21077<br />
y0=0.544 ρ=0.21413<br />
y0=0.722 ρ=0.20035<br />
y0=0.9 ρ=0.23234<br />
|y h<br />
(1)−y(1)|<br />
10 −6<br />
10 −8<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
10 −10<br />
10 −12<br />
0 5 10 15<br />
✸<br />
2.2<br />
p. 220
In <strong>Beispiel</strong> 2.2.83 konnten wir uns für die Bestimmung des Analytizitätsgebiets auf die explizit<br />
gegebene Lösung des AWP stützen, um die exponentielle Konvergenz des globalen Gauss-<br />
Kollokationsverfahrens zu bestätigen.<br />
Numerische<br />
Mathemtik<br />
Im Allgemeinen fehlt diese Information. Dennoch sind Aussagen über das Analytizitätsgebiet der<br />
Lösungen von AWP für Differentialgleichungen in C mit lokal holomorpher rechter Seite möglich:<br />
✬<br />
Theorem 2.2.85 (Existenz- und Eindeutigkeitssatz für Dgl. in C). → [32, Kap. I, §8]<br />
Ist f : D ⊂ C ↦→ C in einer Umgebung B ρ (z 0 ) := {z ∈ C : |z − z 0 | < ρ} ⊂ D von<br />
z 0 ∈ D holomorph und|f(z)| ≤ M für allez ∈ B ρ (z 0 ), dann existiert genau eine aufB ρ/M (0)<br />
holomorphe Lösungy des Anfangswertproblems<br />
✩<br />
✎<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
y ′ (z) = f(y(z)) ∀z ∈ B ρ/M (0) , y(0) = z 0 .<br />
✫<br />
Notation:<br />
′ ˆ= komplexe Differentiation<br />
✪<br />
Wenn f(z) ∈ R für z ∈ R und y 0 ∈ R dann stimmt die vom Theorem postulierte lokal holomorphe<br />
Lösung des komplexen AWP für reelle Argumente natürlich mit der Lösung gemäss Theorem 1.3.4<br />
überein.<br />
2.3<br />
p. 221
2.3 Runge-Kutta-Verfahren<br />
Numerische<br />
Mathemtik<br />
Nachteil der Kollokationseinschrittverfahren: Alle (mit Ausnahme des expliziten Euler-Verfahrens) sind<br />
implizit (→ Def. 2.1.5)<br />
Gibt es explizite Einschrittverfahren höhererOrdnung? Wenn ja, wie findet man diese?<br />
2.3.1 Konstruktion<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
AWP:<br />
ẏ(t) = f(t,y(t)) ,<br />
y(t 0 ) = y 0<br />
⇒ y(t 1 ) = y 0 +<br />
∫ t1<br />
Approximation durch Quadraturformel (auf[0,1]) mitsKnotenc 1 ,...,c s :<br />
t 0<br />
f(τ,y(t 0 +τ))dτ<br />
y(t 1 ) ≈ y 1 ( = y h (t 1 )) = y 0 +h<br />
Wie bekommt man diese Werte ?<br />
s∑<br />
b i f(t 0 +c i h, y(t 0 +c i h) ) , h := t 1 −t 0 .<br />
i=1<br />
✄ Bootstrapping<br />
2.3<br />
p. 222
<strong>Beispiel</strong> 2.3.1 (Konstruktion einfacher Runge-Kutta-Verfahren).<br />
Numerische<br />
Mathemtik<br />
Quadraturformel→Trapezregel:<br />
auf Intervall[a,b]<br />
Q(f) = 1 2 (b−a)(f(a)+f(b)) ↔ s = 2: c 1 = 0,c 2 = 1 , b 1 = b 2 = 1 2 , (2.3.2)<br />
undy h (T) aus explizitem Eulerschritt (1.4.2)<br />
k 1 = f(t 0 ,y 0 ) , k 2 = f(t 0 +h,y 0 +hk 1 ) , y 1 = y 0 + h 2 (k 1+k 2 ) . (2.3.3)<br />
(2.3.3) = explizite Trapezregel<br />
Quadraturformel → einfachste Gauss-Quadraturformel (Mittelpunktsregel) & y h ( 1 2 (t 1 + t 0 )) aus<br />
explizitem Eulerschritt (1.4.2)<br />
k 1 = f(t 0 ,y 0 ) , k 2 = f(t 0 + h 2 ,y 0 + h 2 k 1) , y 1 = y 0 +hk 2 . (2.3.4)<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
(2.3.4) = explizite Mittelpunktsregel<br />
✸<br />
Diskrete Evolutionen der Form (2.2.3)<br />
2.3<br />
p. 223
Definition 2.3.5 (Runge-Kutta-Verfahren).<br />
Fürb i ,a ij ∈ R,c i := ∑ s<br />
j=1 a ij ,i,j = 1,...,s,s ∈ N, definiert<br />
Numerische<br />
Mathemtik<br />
k i := f(t 0 +c i h,y 0 +h<br />
s∑<br />
a ij k j ) , i = 1,...,s , Ψ t 0,t 0 +h y 0 := y 0 +h<br />
j=1<br />
s∑<br />
b i k i ,<br />
ein s-stufiges Runge-Kutta-Einschrittverfahren (RK-ESV) für AWP (1.1.13) mit Inkrementen<br />
k i ∈ R d .<br />
i=1<br />
➣ Verallgemeinerung der Kollokationsverfahren→Sect. 2.2<br />
(doch keine konkrete Konstruktionsvorschrift !)<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Fallsa ij = 0 füri ≤ j Explizites Runge-Kutta-Verfahren→Def. 2.1.5<br />
Kurznotation für Runge-Kutta-Verfahren:<br />
Butcher-Schema<br />
✄<br />
c A<br />
b T :=<br />
c 1 a 11 ··· a 1s<br />
.<br />
.<br />
c s a s1 ··· a ss<br />
b 1 ··· b s<br />
. (2.3.6)<br />
.<br />
2.3<br />
p. 224
A echte untere Dreiecksmatrix<br />
A untere Dreiecksmatrix<br />
➤ explizites Runge-Kutta-Verfahren<br />
➤ diagonal-implizites Runge-Kutta-Verfahren (DIRK)<br />
Numerische<br />
Mathemtik<br />
Bemerkung 2.3.7 (Stufenform der Inkrementgleichungen).<br />
Fürs-stufiges Runge-Kutta-Einschrittverfahren (RK-ESV),→Def. 2.3.5, definiere (Annahme: eindeutige<br />
Lösbarkeit der Inkrementgleichungen)<br />
s∑<br />
Stufen (engl. stages:) g i = y 0 +h a ij k j , i = 1,...,s ⇒ k i = f(t 0 +c i h,g i ) .<br />
j=1<br />
(2.3.8)<br />
Stufengleichungen<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
s∑<br />
g i = y 0 +h a ij f(t 0 +c j h,g j ) , i = 1,...,s . (2.3.9)<br />
j=1<br />
△<br />
2.3<br />
p. 225
Interpretation: Runge-Kutta-Verfahren ↔ Polygonzugapproximation der Lösungskurve<br />
→ Sect. 1.4<br />
Numerische<br />
Mathemtik<br />
Anzahlb i ≠ 0 ˆ= Anzahl der Teilstrecken im Polygonzug<br />
b i ,i = 1,...,s−1 ˆ= relative Länge desi. Teilintervalls<br />
k i ˆ= „Steigung” deri. Teilstrecke<br />
c i ˆ= relativer Zeitpunkt (in[t k ,t k+1 ]) für Auswertung deri. Abschnittsteigung<br />
<strong>Beispiel</strong> 2.3.10 (Explizite Runge-Kutta-Polygonzugapproximation für Ricatti-Differentialgleichung).<br />
→ Bsp 1.1.3<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Anfangswertproblem: ẏ = t 2 +y 2 ,y(0) = 0.2.<br />
Geometrische Interpretation von expliziten RK-ESV als Polygonzugverfahren → Verallgemeinerung<br />
des expliziten Euler-Verfahrens, siehe Sect. 1.4.1, Fig. ??.<br />
2.3<br />
p. 226
grün<br />
Explizite Mittelpunktsregel:<br />
0 0 0<br />
1<br />
2<br />
1<br />
2<br />
0<br />
0 1<br />
Lösungskurven<br />
1<br />
0.8<br />
0.6<br />
yy(T)<br />
0.4<br />
Numerische<br />
Mathemtik<br />
magenta Abschnittsteigungenk i<br />
∗<br />
rot:<br />
Punktef-Auswertung<br />
Polygonzug<br />
0.2<br />
0<br />
y 0<br />
k 1<br />
k 2<br />
R. Hiptmair<br />
0 0.2 0.4 0.6 0.8 1<br />
t<br />
rev 35327,<br />
25. April<br />
2011<br />
2.3<br />
p. 227
1<br />
Numerische<br />
Mathemtik<br />
grün:<br />
Explizite Trapezregel<br />
0 0 0<br />
1 1 0<br />
1<br />
2 1 2<br />
Lösungskurven<br />
y<br />
0.8<br />
0.6<br />
0.4<br />
y(T)<br />
magenta: Abschnittsteigungenk i<br />
∗: Punktef-Auswertung<br />
rot: Polygonzug<br />
0.2<br />
0<br />
y 0<br />
k 1<br />
k 2<br />
R. Hiptmair<br />
0 0.2 0.4 0.6 0.8 1<br />
t<br />
rev 35327,<br />
25. April<br />
2011<br />
2.3<br />
p. 228
Klassisches Runge-Kutta-Verfahren<br />
grün<br />
(RK4)<br />
0 0 0 0 0<br />
1<br />
2<br />
1<br />
2<br />
0 0 0<br />
1<br />
2<br />
0 1 2 0 0<br />
1 0 0 1 0<br />
1<br />
6 2 6 2 6 1 6<br />
Lösungskurven<br />
magenta Abschnittsteigungenk i<br />
∗<br />
Punktef-Auswertung<br />
(2.3.11)<br />
y<br />
1<br />
0.8<br />
0.6<br />
0.4<br />
0.2<br />
0<br />
rot: Polygonzug<br />
0 0.2 0.4 0.6 0.8 1<br />
t<br />
y(T)<br />
Numerische<br />
Mathemtik<br />
k 4<br />
k 3<br />
y 0<br />
k 1<br />
k 2<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
2.3<br />
p. 229
Kuttas 3/8-Regel<br />
1<br />
Numerische<br />
Mathemtik<br />
grün<br />
0 0 0 0 0<br />
1 1<br />
3 3<br />
0 0 0<br />
2<br />
3 −1 3<br />
1 0 0<br />
1 1 −1 1 0<br />
1<br />
8<br />
3<br />
8<br />
3<br />
8 1 8<br />
Lösungskurven<br />
magenta Abschnittsteigungenk i<br />
(2.3.12)<br />
y<br />
0.8<br />
0.6<br />
0.4<br />
0.2<br />
y 0<br />
y(T)<br />
∗<br />
rot:<br />
Punktef-Auswertung<br />
Polygonzug<br />
0<br />
k 1<br />
k 2<br />
k 3<br />
k 4<br />
✸<br />
0 0.2 0.4 0.6 0.8 1<br />
t<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Bemerkung 2.3.13 (Affin-Kovarianz der Runge-Kutta-Verfahren).<br />
2.3<br />
p. 230
Wie reagiert ein Runge-Kutta -ESV auf einen Basiswechsel im Zustandsraum (→ Sect. 1.3.2,<br />
(1.3.12))?<br />
Numerische<br />
Mathemtik<br />
FürS ∈ R d,d regulär,ŷ := S −1 y Ψ, ̂Ψ aus RK-Verfahren (→ Def. 2.3.5)<br />
Ψ s,t<br />
h<br />
= Diskrete Evolution zu ẏ = f(t,y) ,<br />
̂Ψ s,t<br />
h = Diskrete Evolution zu ˙ŷ = ̂f(t,ŷ) → (1.3.12)<br />
ŜΨ s,t<br />
h S −1 y = Ψ s,t<br />
h y .<br />
(2.3.14)<br />
Dazu zeigt man, dass die Inkremente k i und transformierten Inkremente Ŝk i S −1 eines Runge-<br />
Kutta-ESV angewandt auf die ODEs ẏ = f(t,y), bzw. ˙ŷ = ̂f(t,ŷ) = S −1 f(t,Sŷ) die gleichen<br />
Gleichungen erfüllen. Wegen deren eindeutiger Lösbarkeit für hinreichend kleines h > 0 folgt k i =<br />
Ŝk i S −1 ,i = 1,...,s.<br />
Die obige Aussage lässt sich auch durch ein kommutierendes Diagramm ausdrücken<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
ẏ = f(t,y)<br />
⏐<br />
↓<br />
RK-ESV<br />
Basistransformation ŷ:=S −1 y<br />
−−−−−−−−−−−−−−−−−−→ ˙ŷ =̂f(t,ŷ)<br />
⏐<br />
⏐<br />
↓RK-ESV<br />
(y k ) k<br />
Basistransformation ŷ k :=S −1 y k<br />
−−−−−−−−−−−−−−−−−−−→ (ŷ k ) k .<br />
☞ Affin-Kovarianz drückt die Erhaltung einer einfachen algebraischen Struktur der Lösungsmenge<br />
eines AWP aus.<br />
2.3<br />
p. 231
Bemerkung 2.3.15 (Autonomisierungsinvarianz von Runge-Kutta-Verfahren).<br />
Eine weitere Transformation einer ODE: Autonomisierung → Bem. 1.1.7<br />
△<br />
Numerische<br />
Mathemtik<br />
Auch hier stellt sich die Frage, wann “RK-ESV mit Autonomisierung kommutieren”, vgl. Bem. 2.3.13.<br />
( ( )<br />
y y<br />
s)<br />
s)<br />
Autonomisierung:<br />
ẏ = f(t,y) ,<br />
y(t 0 ) = y 0<br />
⇒ ż :=<br />
▼<br />
˙<br />
=<br />
( ) f(s,y)<br />
1<br />
Evolutionen: Φ t,t+h ↔ ̂Φ h ,<br />
Diskrete Evl.: Ψ t,t+h<br />
h<br />
↔ ̂Ψ h h .<br />
Wunsch:<br />
(<br />
Φ t,t+h )<br />
y<br />
t+h<br />
▼<br />
=: g<br />
= ̂Φ h( )<br />
y<br />
(Ψ t,t+h<br />
) (<br />
h<br />
y<br />
=<br />
t t+h<br />
̂Ψ h y<br />
h t)<br />
,<br />
(<br />
y(0)<br />
s(0)<br />
(2.3.16) kann wieder durch durch ein kommutierendes Diagramm ausgedrückt werden:<br />
=<br />
(<br />
y0<br />
t 0<br />
)<br />
. (2.3.16)<br />
.<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
ẏ = f(t,y)<br />
⏐<br />
↓<br />
RK-ESV<br />
Autonomisierung<br />
−−−−−−−−−−→ ż = g(z)<br />
⏐<br />
⏐<br />
↓RK-ESV<br />
(y k ) k<br />
ŷ k :=( y k tk<br />
)<br />
−−−−−−→ (ŷ k ) k .<br />
2.3<br />
p. 232
Nun wollen wir Bedingungsgleichungen für die Koeffizienten a ij und b i des RK-ESV (→ Def. 2.3.5)<br />
herleiten, so dass (2.3.16) gilt.<br />
̂Ψ h h<br />
( y<br />
t)<br />
( ∑ y+h si=1<br />
)<br />
b<br />
= îk i<br />
t+h ∑ s<br />
i=1 b îκ i<br />
,<br />
) (̂k i<br />
̂κ i<br />
=<br />
(<br />
f(t+h ∑ s<br />
j=1 a iĵκ j ,y+h ∑ )<br />
s<br />
j=1 a iĵk j )<br />
1<br />
.<br />
Numerische<br />
Mathemtik<br />
c i = ∑ s<br />
j=1 a ij<br />
&<br />
∑ si=1<br />
b i = 1 ̂k i = k i . (2.3.17)<br />
= Hinreichende + notwendige Bedingungen für Autonomisierungsinvarianz eines RK-Verfahrens<br />
Darumc i = ∑ s<br />
j=1 a ij in Def. 2.3.5 !<br />
✄ Analyse von autonomisierungsinvarianten RK-Verfahren kann sich auf autonome Probleme beschränken.<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
△<br />
2.3<br />
p. 233
Bemerkung 2.3.18 (“Dense output”).<br />
[17, Sect. II.5]<br />
Numerische<br />
Mathemtik<br />
Runge-Kutta-Einschrittverfahren (→ Def. 2.3.5) liefern Gitterfunktionen G ↦→ R d als Näherung von<br />
t ↦→ y(t) in diskreten Zeitpunkten.<br />
Was, wenn Näherungen füry(t) zu anderen Zeitpunkten/überall auf[0,T] gebraucht werden ?<br />
Ziel:<br />
Stückweise polynomiale Definition vont ↦→ y h (t)<br />
Interpolationseigenschaft y h (t k ) = y k ,k = 0,...,N<br />
y h|[tk ,t berechenbar k+1<br />
ausy k ,y k+1 und Inkrementen imk. Schritt<br />
mit Polynomenp 0 ,p 1 ,q i : R ↦→ R.<br />
y h (t k +ξh k ) = p 0 (ξ)y k +p 1 (ξ)y k+1 +<br />
s∑<br />
q(ξ)k i , 0 ≤ ξ ≤ 1 ,<br />
i=1<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Wunsch: Für RK-ESV der Ordnungp ➣<br />
max ‖y(t)−y h(t)‖ = O(h p )<br />
0≤t≤T<br />
△<br />
Bemerkung 2.3.19 (Lösung der Inkrementgleichungen). → [8, Sect. 6.2.2]<br />
2.3<br />
p. 234
Inkrementgleichungen für implizites RW-ESV (→ Def. 2.3.5) = (i.a. nichtlineares) Gleichungssystem<br />
mits·d Unbekannten<br />
Numerische<br />
Mathemtik<br />
Im autonomen Fall (vgl. Beweis von Lemma 2.2.7)<br />
k i := f(y 0 +h<br />
s∑<br />
a ij k j )<br />
j=1<br />
k i =f(y 0 +g i )<br />
⇐⇒<br />
g i = h<br />
s∑<br />
a ij f(y 0 +g j ) , i = 1,...,s . (2.3.20)<br />
Die Grössen g i + y 0 heissen auch Stufen (engl. stages) des Runge-Kutta-Verfahrens, siehe<br />
Bem. 2.3.7. Daher heisst die Formulierung der Inkrementgleichungen mit Hilfe der g i wie in (2.3.20)<br />
auch deren Stufenform.<br />
j=1<br />
➣ iterative Lösung mit vereinfachtem Newton-Verfahren („eingefrorene” Jacobi-Matrix)<br />
! Effizienz: Minimiere Anzahl vonf,Df-Auswertungen<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Mit g = (g 1 ,...,g s ) T ∈ R s·d definiere<br />
⎛<br />
h s ⎞<br />
∑<br />
a 1j f(y 0 +g j )<br />
j=1<br />
F(g) := g−<br />
.<br />
⎜<br />
⎝ ∑<br />
h s ⎟<br />
a sj f(y 0 +g j )<br />
⎠<br />
j=1<br />
⇒ {(2.3.20) ⇔ F(g) = 0} . (2.3.21)<br />
2.3<br />
p. 235
h „klein” ➣ Natürliche Anfangsnaḧerung für vereinfachte Newton-Iteration: g (0) = 0<br />
Numerische<br />
Mathemtik<br />
DF(g (0) ) =<br />
Vereinfachte Newton-Iteration<br />
⎛<br />
⎞<br />
I−ha 11 Df(y 0 ) −ha 12 Df(y 0 ) ··· −ha 1s Df(y 0 )<br />
⎜ −ha 21 Df(y 0 ) I−ha 22 Df(y 0 ) .<br />
⎟<br />
⎝ . ... . ⎠ .<br />
−ha s1 Df(y 0 ) ··· −ha s,s−1 Df(y 0 ) I−ha ss Df(y 0 )<br />
g (0) = 0 , g (k+1) = g (k) −DF(0) −1 F(g (k) ) , k = 0,1,2,... .<br />
Wiedergewinnung der Inkremente k i aus g i : betrachte l. Komponente, l = 1,...,d. Mit g i =<br />
(g i,1 ,...,g i,d ) T ∈ R d s∑ ) d ( ) d<br />
g i,l = h a ij k j,l ⇐⇒<br />
(g i,l<br />
l=1 = hA k i,l<br />
l=1 .<br />
j=1<br />
A regulär ➣ k i durch Lösen vonslinearen Gleichungssystemen mit KoeffizientenmatrixA.<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Natürlich kann das vereinfachte Newton-Verfahren auch auf die Standardform der Inkrementgleichungen<br />
aus Def. 2.3.5 angewandt werden.<br />
2.3<br />
p. 236
△<br />
Numerische<br />
Mathemtik<br />
2.3.2 Konvergenz<br />
<strong>Beispiel</strong> 2.3.22 (Konvergenz expliziter Runge-Kutta-Verfahen).<br />
Skalare logistische Differentialgleichung (1.2.2),λ = 10,y(0) = 0.01,T = 1<br />
Explizite Runge-Kutta-Einschrittverfahren, uniforme Zeitschrittweiteh<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
2.3<br />
p. 237
1<br />
0.9<br />
0.8<br />
0.7<br />
y(t)<br />
Explicit Euler<br />
Explicit trapezoidal rule<br />
Explicit midpoint rule<br />
RK4 method<br />
10 0 h<br />
10 −2<br />
Numerische<br />
Mathemtik<br />
y<br />
0.6<br />
0.5<br />
0.4<br />
0.3<br />
|y h<br />
(1)−y(1)|<br />
10 −4<br />
10 −6<br />
0.2<br />
0.1<br />
0<br />
0 0.2 0.4 0.6 0.8 1<br />
t<br />
Fig. 75<br />
y h (j/10),j = 1,...,10 für explizite RK-Verfahren<br />
10 −8<br />
s=1, Explicit Euler<br />
s=2, Explicit trapezoidal rule<br />
s=2, Explicit midpoint rule<br />
s=4, RK4 method<br />
10 −2 10 −1 10 0<br />
Konvergenz des Fehlersy h (1)−y(1)<br />
✸<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Viele unserer Resultate über Kollokationsverfahren (→ Sect. 2.2) bleiben gültig für die allgemeinere<br />
Klasses der Runge-Kutta-Einschrittverfahren (mit im wesentlichen den gleichen Beweisen):<br />
✗<br />
✖<br />
Lemmas 2.2.7, 2.2.13 bleiben gültig für Runge-Kutta-Einschrittverfahren aus Def. 2.3.5<br />
✔<br />
✕<br />
2.3<br />
p. 238
✬<br />
✩<br />
Lemma 2.3.23 (Konsistenz von Runge-Kutta-Einschrittverfahren).<br />
Unter den Voraussetzungen von Lemma 2.2.7 ist ein Runge-Kutta-Einschrittverfahren (→<br />
Def. 2.3.5) konsistent (→ Def. 2.1.8) genau dann, wenn ∑ s<br />
i=1 b i = 1.<br />
✫<br />
✪<br />
Numerische<br />
Mathemtik<br />
Frage: Wann ist ein Runge-Kutta-Verfahren konsistent (⇒ konvergent, Thm. 2.1.19)<br />
von der Ordnungp?<br />
⇕<br />
(Konsistenz-)Bedingungsgleichungen für Koeffizientena ij ,b i<br />
Hilfsmittel zum Aufstellen<br />
der Bedingungsgleichungen<br />
: Taylor-Entwicklung (des Konsistenzfehlersτ(t,y,h)→Dff. 2.1.11)<br />
Annahme:<br />
f “hinreichend glatt”<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
<strong>Beispiel</strong> 2.3.24 (RK-Bedingungsgleichungen für Konsistenzordnung).p = 3] [8, Sect. 4.2.2]<br />
2.3<br />
p. 239
Konsistenzfehler:<br />
τ(t,y,h) := (Φ t,t+h −Ψ t,t+h )y (h hinreichend klein);.<br />
Numerische<br />
Mathemtik<br />
Fokus: autonome Differentialgleichung ẏ = f(y),f “hinreichend glatt”<br />
Fixiere Anfangswerty 0 ∈ D, O.B.d.A. t 0 = 0 (vgl. Bem. 1.1.15)<br />
➊ Taylorentwicklung der kontinuierlichen Evolution inhumh = 0:<br />
mit<br />
ẏ(0) = f(y 0 ) ,<br />
Φ h y 0 = y(h) = y 0 +ẏ(0)h+ 1 2ÿ(0)h2 + 1 6 y(3) (0)h 3 +O(h 4 ) , (2.3.25)<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
ÿ(0) = Df(y 0 )ẏ(0) = Df(y 0 )f(y 0 ) ,<br />
y (3) (0) = D 2 f(y 0 )(ẏ(0),ẏ(0))+Df(y 0 )ÿ(0) = D 2 f(y 0 )(f(y 0 ),f(y 0 ))+Df(y 0 )Df(y 0 )f(y 0 ) .<br />
Für analoge Überlegungen siehe auch Bsp. 2.1.15.<br />
2.3<br />
p. 240
Φ h y 0 = y 0 +hf(y 0 )+ 1 2 h2 Df(y 0 )f(y 0 )+<br />
1<br />
6<br />
h 3 (Df(y 0 )Df(y 0 )f(y 0 )+D 2 f(y 0 )(f(y 0 ),f(y 0 )))+O(h 4 ) .<br />
(2.3.26)<br />
Numerische<br />
Mathemtik<br />
➋ Taylorentwicklung der diskreten Evolution inhumh = 0<br />
⇕<br />
Taylorentwicklung der Inkrementek i inhumh = 0<br />
k i = f(y 0 +h<br />
s∑<br />
a ij k j ) =<br />
j=1<br />
⎛<br />
= f(y 0 )+hDf(y 0 ) ⎝<br />
s∑<br />
j=1<br />
⎞ ⎛<br />
a ij k j<br />
⎠+ 1 2 h2 D 2 f(y 0 ) ⎝<br />
s∑<br />
a ij k j ,<br />
j=1<br />
Einsetzen „kürzerer Taylorentwicklungen” anstelle der Inkremente<br />
s∑<br />
j=1<br />
a ij k j<br />
⎞<br />
⎠+O(h 3 )<br />
(2.3.27)<br />
Inkremente werden mithmultipliziert !<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
2.3<br />
p. 241
k i =f(y 0 )+hDf(y 0 )<br />
⎛<br />
1<br />
2<br />
h 2 D 2 f(y 0 ) ⎝<br />
=f(y 0 )+h<br />
s∑<br />
j=1<br />
a ij<br />
⎛<br />
⎝f ( y 0 +hDf(y 0 )<br />
s∑<br />
a ij (f(y 0 )+O(h)),<br />
j=1<br />
·∑s<br />
j=1 a ij<br />
} {{ }<br />
=c i , siehe Bem. 2.3.15<br />
⎞<br />
s∑<br />
a il k l +O(h 2 ) ) ⎠+<br />
l=1<br />
⎞<br />
s∑<br />
a ij (f(y 0 )+O(h)) ⎠+O(h 3 )<br />
j=1<br />
Df(y 0 )f(y 0 )+<br />
h 2( ∑ s )<br />
a il c l Df(y0 )Df(y 0 )f(y 0 )+h 21 2 c2 i D2 f(y 0 )(f(y 0 ),f(y 0 ))+O(h 3 ) .<br />
l=1<br />
Numerische<br />
Mathemtik<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
2.3<br />
p. 242
Beachte: Ψ h y 0 = y 0 +h<br />
➌<br />
Ψ h y 0 = y 0 +<br />
⎛<br />
⎛<br />
⎝h<br />
s∑<br />
b i k i ➤<br />
i=1<br />
s∑<br />
i=1<br />
⎝h 3 ∑ s s∑<br />
b i<br />
i=1<br />
b i<br />
⎞<br />
⎠f(y 0 )+<br />
j=1<br />
Entwicklung bisO(h 3 ) ausreichend<br />
⎛<br />
⎝h 2 s ∑<br />
i=1<br />
b i c i<br />
⎞<br />
⎠Df(y 0 )f(y 0 )+<br />
a ij c j<br />
⎞<br />
⎠Df(y 0 )Df(y 0 )f(y 0 )+<br />
⎛ ⎞<br />
⎝1<br />
2<br />
h 3 ∑ s b i c 2 i<br />
⎠D 2 f(f(y 0 ),f(y 0 ))+O(h 4 ) .<br />
i=1<br />
Gleichsetzen der Koeffizienten der linear unabhängigen elementaren Differentiale<br />
in (2.3.28) und (2.3.26)<br />
1,f(y 0 ),Df(y 0 )f(y 0 ),Df(y 0 )Df(y 0 )f(y 0 ),D 2 f(y 0 )(f(y 0 ),f(y 0 ))<br />
(2.3.28)<br />
Numerische<br />
Mathemtik<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Hinreichende & notwendige Bedingungsgleichungen für Konsistenzordnung p = 3 eines<br />
(autonomisierungsinvarianten→ Rem. 2.3.15) RK-Verfahrens:<br />
s∑<br />
b i = 1 , (2.3.29)<br />
i=1<br />
2.3<br />
p. 243
s∑<br />
b i c i = 1 2 , (2.3.30)<br />
i=1<br />
s∑<br />
b i c 2 i = 1 3 ,<br />
i=1<br />
s∑ s∑<br />
b i a ij c j = 1 (2.3.31)<br />
6 .<br />
i=1 j=1<br />
☞ (2.3.29) hinreichend & notwendig für Konsistenzordnungp = 1, siehe Lemma 2.3.23<br />
Numerische<br />
Mathemtik<br />
☞ (2.3.29) + (2.3.30) hinreichend & notwendig für Konsistenzordnungp = 2<br />
✸<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Bemerkung 2.3.32 (Butcher-Bäume).<br />
Allgemeiner kombinatorischer Algorithmus zum Aufstellen der RK-Bedingungsgleichungen: Butcher-<br />
Bäume [8, Sect. 4.2.3], [16, Ch. III]<br />
△<br />
2.3<br />
p. 244
➞<br />
Konstruktion von RK-Verfahren vorgegebener Konvergenzordnung durch Lösen der (nichtlinearen)<br />
Bedingungsgleichungen (vom Typ (2.3.29)-(2.3.31)):<br />
p 1 2 3 4 5 6 7 8 9 10 20<br />
♯B.G. 1 2 4 8 17 37 85 200 486 1205 20247374<br />
Numerische<br />
Mathemtik<br />
Einige Konvergenzordnungen von Runge-Kutta-Verfahren:<br />
Explizite Verfahren<br />
Expliztes Eulerverfahren (2.2.1) p = 1<br />
Explizite Trapezregel (2.3.3) p = 2<br />
Explizite Mittelpunktsregel (2.3.4) p = 2<br />
Klassisches Runge-Kutta-V. (2.3.11) p = 4<br />
Kuttas3/8-Regel (2.3.12) p = 4<br />
Implizite Verfahren<br />
Implizites Eulerverfahren (2.2.1) p = 1<br />
Implizite Mittelpunktsregel (2.2.19) p = 2<br />
Gauss-Kollokationsverfahren p = 2s<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Viele weitere RK-Verfahren ✄ [17, 18]<br />
Ordnungsschranken:<br />
Für explizite Runge-Kutta-Verfahren p ≤ s<br />
Für allgemeine Runge-Kutta-Verfahren p ≤ 2s<br />
➣ Gauss-Kollokationsverfahren realisieren maximale Ordnung<br />
2.3<br />
p. 245
Numerische<br />
Mathemtik<br />
Bemerkung 2.3.33 (“Butcher barriers” für explizite RK-ESV).<br />
Ordnungp 1 2 3 4 5 6 7 8 ≥ 9<br />
Minimale Stufenzahls 1 2 3 4 6 7 9 11 ≥ p+3<br />
Eine allgemeine Formel für die minimale Stufenzahl konnte bisher nicht hergeleitet werden.<br />
△<br />
Bemerkung 2.3.34 (Warum Einschrittverfahren hoher Ordnung?).<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Die allgemeine Konvergenztheorie von Einschrittverfahren aus Abschnitt 2.1.3 liefert uns bei hinreichender<br />
Glattheit der Lösung eines Anfangswertproblems die asymptotische Fehlerabschätzung<br />
err(G) := max<br />
k=1,...,N ‖y k −y(t k )‖ ≤ Ch p G für h G hinreichend klein, (2.3.35)<br />
siehe Thm. 2.1.19, wobei die Konstante C > 0 nicht von der maximalen Zeitschrittweite h G > 0<br />
abhängt, aber in der Regel nicht bekannt ist.<br />
2.3<br />
p. 246
Daher können wir aus (2.3.35) in der Regel keine Aussage über den Integrationsfehler auf einem<br />
konkreten Zeitgitter machen (→ Diskussion am Ende von Abschnitt 2.1.1) und auch nicht die Zeitschrittweite<br />
vorhersagen, die erforderlich ist, um eine gewünschte Genauigkeit zu erreichen.<br />
Numerische<br />
Mathemtik<br />
Wie bereits bemerkt erlaubt die Abschätzung (2.3.35) unter der Annahme, dass sie scharf ist, nur die<br />
Vorhersage<br />
welche Reduktion des Integrationsfehlers bei Verringerung der Zeitschrittweite zu erwarten ist.<br />
Annahme:<br />
Abschätzung (2.3.35) ist scharf<br />
Dann lässt sich vorhersagen, welcher Gewinn an Genauigkeit durch zusätzlichen Rechenaufwand für<br />
die numerische Integration eines AWP zu erzielen ist.<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Konvention: Rechenaufwand ∼ Gesamtzahl derf-Auswertungen<br />
➣ Fürs-stufiges Runge-Kutta-Einschrittverfahren (→ Def. 2.3.5):<br />
Rechenaufwand ∼ s·Anzahl(Schritte) ∼ Csh −1 mit einer KonstantenC > 0<br />
für uniformes Zeitgitter, Zeitschrittweiteh > 0<br />
2.3<br />
p. 247
Ziel: vorgegebene Reduktion des Fehlers: für0 < ρ < 1<br />
err(G neu )<br />
err(G alt )<br />
!<br />
= ρ<br />
(2.3.35)<br />
=⇒ hp neu<br />
h p alt<br />
!<br />
= ρ ⇔ h neu = ρ 1 /p h alt .<br />
Numerische<br />
Mathemtik<br />
Faustregel für ein RK-ESV der (Konsistenz- = Konvergenz-)Ordnungp ∈ N (uniformer Zeitschritt)<br />
✛<br />
✘<br />
Erhöhung des Rechenaufwands um Faktorρ − 1/p<br />
Erwarte Fehlerreduktion im Faktorρ<br />
✚<br />
✙<br />
☞<br />
Je höher die Ordnung, desto weniger relativer Zusatzaufwand ist für eine Reduktion des Fehler<br />
um einen vorgegebenen Faktor erforderlich.<br />
△<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
2.4<br />
p. 248
2.4 Extrapolationsverfahren [8, Sect. 4.3]<br />
Numerische<br />
Mathemtik<br />
2.4.1 Der Kombinationstrick<br />
Einschrittverfahren für Anfangswertproblem<br />
ẏ = f(t,y) , y(t 0 ) = y 0 , (t 0 ,y 0 ) ∈ Ω , ((1.1.13))<br />
betrachtet auf[t 0 ,T], liefert Gitterfunktiony G = (y k ) N k=1 als Lösung:y k ≈ y(t k ),t N = T .<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Bei äquidistanter Zeitschrittweiteh > 0, schreiben wir auchy h (t k ) := y k , alsoy h (T) = y N .<br />
Sect. 2.1.3: Einschrittverfahren fürẏ = f(y), konvergent von Ordnungp<br />
∃C > 0: ‖y h (T)−y(T)‖ ≤ Ch p fürh → 0, N = T/h ∈ N .<br />
2.4<br />
p. 249
(Annahme: Äquidistante Zeitschritte der Längeh > 0)<br />
Spekulation: ∃c ∈ R d : y h (T)−y(T) = ch p +O(h p+1 ) fürh → 0 . (2.4.1)<br />
Numerische<br />
Mathemtik<br />
y h (T)−y(T) = ch p +O(h p+1 )<br />
y h /2 (T)−y(T) = c2−p h p +O(h p+1 )<br />
(I)<br />
(II)<br />
(I)-2 p·(II): y h (T)−2 p y h /2 (T)−(1−2p )y(T) = O(h p+1 ) ,<br />
⇒<br />
y h (T)−2 p y h /2 (T)<br />
1−2 p −y(T) = O(h p+1 ) .<br />
kombiniertes Verfahren, konvergent von Ordnungp+1!<br />
<strong>Beispiel</strong> 2.4.2 (Konvergenz kombinierter Verfahren).<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
AWP für logistische Differentialgleichung (2.2.84): (→ Bsp. 1.2.1)<br />
ẏ = λy(1−y) , y 0 = 0.01 ⇒ y(t) =<br />
1<br />
1+99·e −λt , t ∈ R .<br />
Basisverfahren: Explizites Euler-Verfahren (1.4.2),p = 1<br />
Explizite Trapezregel (2.3.3),p = 2<br />
2.4<br />
p. 250
Logistic ODE on [0;1], y(0) = 0.01, λ = 10<br />
Logistic ODE on [0;1], y(0) = 0.01, λ = 10<br />
10 −3<br />
expl. trapezoidal rule combined<br />
simple expl. trapezoidal rule<br />
O(h 3 )<br />
Numerische<br />
Mathemtik<br />
10 −3<br />
10 −4<br />
|y h<br />
(1)−y(1)|<br />
10 −4<br />
10 −5<br />
|y h<br />
(1)−y(1)|<br />
10 −5<br />
10 −6<br />
10 −7<br />
10 −8<br />
10 −6<br />
10 −7<br />
10 −2 h<br />
Euler combined<br />
simple Euler<br />
O(h 2 )<br />
10 −3 10 −2 10 −1<br />
Euler-Verfahren<br />
Fig. 76<br />
10 −9<br />
10 −10<br />
10 −2 h<br />
10 −3 10 −2 10 −1<br />
Explizite Trapezregel<br />
Fig. 77<br />
✸<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Beachte: Falls h ↦→ y h (T) glatt, Verfahren konvergent von Ordnung p, dann ist (2.4.1) naheliegend:<br />
Taylorentwicklung !<br />
Dies wird in Abschnitt 2.4.3 vertieft.<br />
2.4<br />
p. 251
2.4.2 Extrapolationsidee<br />
Numerische<br />
Mathemtik<br />
Erinnerung (→ Vorlesung „Numerische Methoden”): Romberg-Quadratur (→ [9, Sect. 9.4])<br />
Abstrakter Rahmen:<br />
Problem: Π : X ↦→ R d , gesuchtΠ(x 0 ) für festesx 0 ∈ X,X ˆ= Datenraum<br />
{<br />
Familie numerischer Näherungsverfahen Π h : X ↦→ R d} h ➤ NäherungenΠ h(x o ) ≈ Π(x 0 )<br />
Π h abhängig von skalarem Diskretisierungsparameterh > 0 (z.B. Zeitschrittweite)<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
BerechneΠ h (x 0 ) fürh ∈ {h 1 ,...,h k } („Schrittweitenfolge”,h i > h i+1 )<br />
Berechne Interpolationspolynomp ∈ (P k−1 ) d mit<br />
p(h i ) = Π hi (x 0 ), i = 1,...,k .<br />
Bessere (?) Näherung<br />
Π(x 0 ) ≈ p(0)<br />
2.4<br />
p. 252
<strong>Beispiel</strong> 2.4.3 (Romberg-Quadratur).<br />
Numerische<br />
Mathemtik<br />
Interpretation des abstrakten Rahmens für die Romberg-Quadratur: X = C 0 ([a,b]), a,b ∈ R,<br />
a < b<br />
Π(f) :=<br />
∫b<br />
a<br />
f(x)dx , Π h := h N−1<br />
2 f(a)+h ∑<br />
Π h ˆ= Trapezregel zur numerischen Quadratur<br />
j=1<br />
f(a+j b−a<br />
N )+ h 2 f(b) , h := 1 N ,<br />
Diskretisierungsparameter h =<br />
N 1 , N ∈ N (“Maschenweite” der Trapezregel):<br />
Werte annehmen !<br />
R d<br />
kann nur diskrete<br />
✸<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Visualisierung:<br />
Idee von Extrapolationsverfahren<br />
✄<br />
h ↦→ Π h (x 0 )<br />
Π h1 (x 0 )<br />
Π h2 (x 0 )<br />
exakter Wert<br />
Π(x 0 )<br />
Π h3 (x 0 )<br />
h<br />
2.4<br />
p. 253
Bemerkung 2.4.4 (Skalierungsinvarianz der Extrapolation).<br />
Numerische<br />
Mathemtik<br />
p(t) ∈ P k−1 ˆ= Interpolationspolynom zu(t 1 ,y 1 ),...,(t k ,y k )<br />
˜p(t) ∈ P k−1 ˆ= Interpolationspolynom zu(ξt 1 ,y 1 ),...,(ξt k ,y k ) für einξ ∈ R<br />
p(0) = ˜p(0)<br />
(Wenn p(t) = ∑ s<br />
j=0 a j t j , dann haben alle Polynome p ξ (t) = ∑ s<br />
j=0 a j (ξt) j offensichtlich den gleichen<br />
Wert fürt = 0.)<br />
Es genügt, die Verhältnisse η i := h 1<br />
h i<br />
zu spezifizieren !<br />
△<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Algorithmus: Aitken-Neville-Schema [9, Sect. 9.4] → Vorlesung „Numerische Methoden”<br />
2.4<br />
p. 254
Rekursive Berechnung der Werte von Interpolationspolynomen<br />
fürh = 0,p = 1:<br />
T i1 := Π hi (x 0 ) , i = 1,...,k , (2.4.5)<br />
T il := T i,l−1 + T i,l−1−T i−1,l−1<br />
h i−l+1<br />
h i<br />
−1<br />
Extrapolationstableau<br />
, 2 ≤ l ≤ k .<br />
(2.4.6)<br />
✄<br />
T 11<br />
ց<br />
T 21 → T 22<br />
. ...<br />
T k−1,1 → ··· → T k−1,k−1<br />
ց ց ց<br />
T k1 → ··· → T k,k−1 → T kk<br />
Numerische<br />
Mathemtik<br />
MATLAB-CODE : Aitken-Neville-Extrapolation<br />
function T = anexpol(y,h)<br />
k = length(h);<br />
T(1) = y(1);<br />
for i=2:k<br />
T(i) = y(i);<br />
for l=i-1:-1:1<br />
T(l)=T(l+1)+(T(l+1)-T(l))/...<br />
end<br />
end<br />
(h(l)/h(i)-1);<br />
η l : η i<br />
T(1) T(2) T(3) ··· T(k)<br />
T 11 = y 1<br />
↓<br />
T 22 ← T 21 = y 2<br />
↓ ↓<br />
T 33 ← T 32 ← T 31 = y 3<br />
↓ ↓ ↓<br />
.<br />
.<br />
↓ ↓ ↓<br />
T kk ← T k,k−1 ← ··· ← T k,1<br />
Ausgabe:<br />
unterste Tableauzeile absteigend<br />
.<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
2.4<br />
p. 255
☞<br />
Extrapolation „funktioniert”, wenn<br />
• lim<br />
h→0<br />
Π h (x 0 ) = Π(x 0 ) ˆ= Konvergenz,<br />
•h ↦→ Π h (x 0 ) „sich für kleinehwie ein Polynom verhält.”<br />
Numerische<br />
Mathemtik<br />
Definition 2.4.7 ((Abgeschnittene) asymptotische Entwicklung).<br />
h ↦→ Π h (x 0 ) (x 0 ∈ X fest) besitzt eine (abgeschnittene) asymptotische Entwicklung in h bis<br />
zur Ordnung k, falls es Konstanten (∗) α 0 , α 1 ,...,α k ∈ R d und eine für hinreichend kleine h<br />
gleichmässig beschränkte Funktionh ↦→ R k (h) gibt, so dass<br />
Π h (x 0 ) = α 0 +α 1 h+α 2 h 2 +···+α k h k +R k (h)h k+1 für kleineh > 0 .<br />
(∗)α i Konstanten ˆ=α i unabhängig vonh!<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Klar: Hinreichend & notwendig für Konvergenz: α 0 = Π(x 0 )<br />
2.4<br />
p. 256
✬<br />
✩<br />
Theorem 2.4.8 (Konvergenz extrapolierter Werte).<br />
Π h (x 0 ) besitze asymptotische Entwicklung in h bis zur Ordnung k gemäss Def. 2.4.7. Dann<br />
erfüllen die Werte aus dem Extrapolationstableau, siehe (2.4.5), (2.4.6), für hinreichend kleine<br />
h j > 0<br />
Numerische<br />
Mathemtik<br />
∥<br />
∥T i,l −α 0<br />
∥ ∥∥ ≤ ‖αl ‖h i−l+1·····h i +C ·<br />
wobeiC > 0 nur von den Verhältnissenh i : h j abhängt.<br />
i∑<br />
j=i−l+1<br />
∥<br />
∥R k (h j ) ∥ ∥h l+1<br />
j<br />
, 1 ≤ i,l ≤ k ,<br />
✫<br />
✪<br />
Beweis: Jedes T i,k aus dem Extrapolationstableau lässt sich als “Endwert” T kk eines Teiltableaus<br />
interpretieren ➥ Es genügt, den Beweis füri = l = k zu führen<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Voraussetzung: Existenz einer (abgeschnittenen) asymptotischen Entwicklung → Def. 2.4.7<br />
T i,1 = Π hi (x 0 ) = α 0 +α 1 h i +α 2 h 2 i +···+α kh k i +R k(h)h k+1<br />
i für kleinesh i > 0 .<br />
Extrapolationspolynom zu (h i ,T i,1 ), i = 1,...,k: q ∈ P k−1 , dargestellt durch<br />
Lagrange-Polynome, siehe (2.2.2)<br />
q(t) =<br />
k∑<br />
T i,1 L i (t) , L i ∈ P k−1 , L i (h j ) = δ ij , i,j = 1,...,k .<br />
i=1<br />
2.4<br />
p. 257
k∑<br />
i=1<br />
L i (0)h j i = ⎧<br />
⎪⎨<br />
⎪ ⎩<br />
1 fürj = 0 ,<br />
0 für1 ≤ j ≤ k −1 ,<br />
(−1) k−1 h 1·····h k fürj = k .<br />
(2.4.9)<br />
Numerische<br />
Mathemtik<br />
Nachweis von (2.4.9): für0 ≤ j ≤ k−1 stimmtr j (t) := ∑ k<br />
i=1 h j i L i(t) ∈ P k−1 mitt ↦→ t j überein.<br />
Fürj = k hatt k −r k (t) ∈ P k die Nullstellenh i ,i = 1,...,k und führenden Koeffizienten1:<br />
t k −r k (t) = (t−h 1 )·····(t−h k ) .<br />
Damit folgt (2.4.9).<br />
T k,k = q(0) =<br />
=<br />
k∑<br />
L i (0)T i,1 =<br />
i=1<br />
k∑ k∑<br />
α j h j i L i(0)+<br />
j=0<br />
i=1<br />
k∑<br />
L i (0)<br />
i=1<br />
k∑<br />
i=1<br />
⎛<br />
⎝<br />
k∑<br />
j=0<br />
L i (0)R k (h i )h k+1<br />
i<br />
(2.4.9)<br />
= α 0 +α k ·(−1) k−1 h 1·····h k +<br />
k∑<br />
i=1<br />
α j h j i +R k(h i )h k+1<br />
i<br />
L i (0)R k (h i )h k+1<br />
i<br />
.<br />
Also gilt die Behauptung mit C := max |L i(0)|. Beachte, dass L i (0) nur von den Verhältnissen<br />
i=1,...,l<br />
h i : h j abhängt, siehe Bem. 2.4.4.<br />
✷<br />
⎞<br />
⎠<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
2.4<br />
p. 258
2.4.3 Extrapolation von Einschrittverfahren<br />
Numerische<br />
Mathemtik<br />
Anfangswertproblem (1.1.13): ẏ = f(t,y), y(t 0 ) = y 0 ➣ Lösungt ↦→ y(t)<br />
Das Anfangswertproblem wird betrachtet auf festem Zeitintervall<br />
[t 0 ,T]<br />
Annahme: f „hinreichend” glatt ⇔ y(t) „hinreichend” glatt<br />
Gegeben: Konsistentes Einschrittverfahren ↔ diskrete Evolution (→ Lemma 2.1.9)<br />
Ψ t,t+h y = y+hψ(t,y,h) , ψ(t,y,0) = f(t,y) , (t,y) ∈ Ω, h klein . (2.4.10)<br />
Annahmen: Inkrementfunktionψ stetig differenzierbar in(t,y)<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
ESV hat Konsistenzordnung = Konvergenzordnungp ∈ N (→ Thm. 2.1.19)<br />
Gegeben: EndzeitpunktT ∈ J(t 0 ,y 0 ) ➥ uniforme Zeitschrittweiteh = (T−t 0 )/N,N ∈ N<br />
Einschrittverfahren ➡ Gitterfunktion{y k } N k=0 , y N ≈ y(T)<br />
2.4<br />
p. 259
✬<br />
✩<br />
Theorem 2.4.11 (Asymptotische Entwicklung des Diskretisierungsfehlers von ESV).<br />
Es existieren ein K ∈ N (abhängig von der Glattheit von f) und glatte Funktionen e i :<br />
J(t 0 ,y 0 ) ↦→ R d , i = p,p+1,...,p+K, mit e i (0) = 0 und (für hinreichend kleine h) gleichmässig<br />
beschränkte Funktionen(T,h) ↦→ r k+p+1 (T,h),0 ≤ k ≤ K, so dass<br />
Dabei gilt<br />
✫<br />
y N −y(T) =<br />
k∑<br />
e l+p (T)h l+p +r k+p+1 (T,h)h k+p+1 für kleinesh .<br />
l=0<br />
∥<br />
∥r k+p+1 (T,h) ∥ = O(T −t 0 ) fürT −t 0 → 0 gleichmässig inh < T ,<br />
‖e(T)‖ = O(T −t 0 ) fürT −t 0 → 0.<br />
Beweis. Annahme: f,y(t) „hinreichend” glatt<br />
Numerische<br />
Mathemtik<br />
✪<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Weiter nehmen wir globale Lipschitz-Stretigkeit der Inkrementfunktionψ des ESV aus (2.4.10) an:<br />
∃L > 0: ‖ψ(t,z,h)−ψ(t,w,h)‖ ≤ L‖z−w‖ gleichmässig int 0 ≤ t ≤ T, h . (2.4.12)<br />
(Kompaktheitsargumente, vgl. Beweis von Thm. 2.1.19, machen Verzicht auf diese Annahme möglich.)<br />
Konsequenz der Konsistenzordnung p (→ Def. 2.1.13) und Glattheit von f: für Konsistenzfehler (→<br />
2.4<br />
p. 260
Def. 2.1.11) entlang der Lösungstrajektorie (nur dort wird die Konsistenzfehlerabschätzung im Beweis<br />
von Thm. 2.1.19 gebraucht !) gilt<br />
Numerische<br />
Mathemtik<br />
τ(t,y(t),h) := y(t+h)−Ψ t,t+h y(t) = d(t)h p+1 +O(h p+2 ) fürh → 0 , (2.4.13)<br />
mit stetiger Funktiond : [t 0 ,T] ↦→ R d . Dies ergibt sich mit Taylorentwicklung, siehe Bsp. 2.3.24:<br />
RK-ESV: d hängt nur von Ableitungen vonf ab ➢ d “hinreichend glatt”<br />
Idee: Betrachte ESV mit modifizierter Inkrementfunktion<br />
̂ψ(t,u,h) := ψ(t,u+e(t)h p ,h)−(e(t+h)−e(t))h p−1 , (2.4.14)<br />
mit “hinreichend glatter” Funktione : [t 0 ,T] ↦→ R d .<br />
Beachte: Auch ̂ψ erfüllt (2.4.12) mit dem gleichenL > 0.<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Warum betrachten wir dieses modifizierte ESV ?<br />
y j /ŷ j , j = 0,...,N ˆ= Gitterfunktionen erzeugt durch ursprüngliches/modifiziertes ESV mit Zeitschrittweiteh<br />
:= (T−t 0)<br />
N . Setzeŷ 0 = y 0<br />
ŷ j = y j −e(t j )h p , t j := t 0 +jh , j = 0,...,N . (2.4.15)<br />
2.4<br />
p. 261
Beweis von (2.4.15) durch Induktion:<br />
ŷ j+1 = ŷ j +ĥψ(t j ,ŷ j ,h)<br />
(2.4.14)<br />
= ŷ j +hψ(t j ,ŷ j +e(t j )h p ,h)−h p (e(t j+1 )−e(t j ))<br />
(∗)<br />
= y j +hψ(t j ,y j ,h)<br />
} {{ }<br />
=y j+1<br />
−e(t j+1 )h p .<br />
Numerische<br />
Mathemtik<br />
(∗)←Induktionsannahme.<br />
R. Hiptmair<br />
Annahme: Das modifizierte Einschrittverfahren ist konsistent mitẏ = f(t,y) zur Ordnungp+1<br />
rev 35327,<br />
25. April<br />
2011<br />
Thm. 2.1.19<br />
⇒ ŷ N −y(T) = r p+1 (T,h)h p+1 ,<br />
∥<br />
∥r p+1 (T,h) ∥ ∥ ≤ C exp(L(T −t 0))−1<br />
L<br />
} {{ }<br />
=O(T−t 0 ) für T−t 0 →0<br />
,<br />
mit C > 0 unabhängig von h,T . L ˆ= gemeinsame Lipschitz-Konstante von ψ, ̂ψ (bzgl. y) aus<br />
(2.4.12)<br />
(2.4.15)<br />
⇒ y N −y(T) = e(T)h p +r p+1 (T,h)h p+1 .<br />
2.4<br />
p. 262
Damit haben wir das erste Glied der asymptotischen Entwicklung des Theorems erhalten.<br />
Numerische<br />
Mathemtik<br />
Induktive Anwendung des Arguments ➢ Modifizierte ESVen ̂Ψ 1 := ̂Ψ, ̂Ψ 2 ,..., ̂Ψ k+1 konsistent<br />
zu ẏ = f(t,y) mit Ordnungen p + 1,p + 2,...,p + k + 1 erzeugen Näherungslösungen ŷ 1 j :=<br />
ŷ j ,ŷj 2,...,ŷk+1<br />
j<br />
,j = 1,...,N.<br />
Mitŷ 0 k = y k (Teleskopsumme)<br />
ŷ l+1<br />
j<br />
= ŷj l −e l(t j )h p+l , l = 0,...,k .<br />
k∑<br />
y N −y(T) = ŷN l −ŷl+1 N +r p+k+1(T,h)h p+k+1<br />
=<br />
l=0<br />
k∑<br />
e l (T)h p+l +r p+k+1 (T,h)h p+k+1 .<br />
l=0<br />
Daraus folgt die Behauptung des Theorems.<br />
?<br />
Existenz vone(t) so dass das modifizierte ESV Konsistenzordnungp+1 besitzt.<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
☞<br />
Betrachte den Konsistenzfehler des modifizierten Verfahrens & Taylorentwicklung(en)<br />
y(t+h)− ̂Ψ t,t+h y(t) = y(t+h)−y(t)−ĥψ(t,y(t),h)<br />
2.4<br />
p. 263
= y(t+h)−y(t)−hψ(t,y(t)+e(t)h p ,h)+(e(t+h)−e(t))h p<br />
(<br />
= y(t+h)−y(t)−h ψ(t,y(t),h)+ ∂ψ<br />
)<br />
∂y (t,y(t),h)e(t)hp +O(h 2p ) +ė(t)h p+1 +O(h p+2 )<br />
( )<br />
(2.4.13)<br />
= d(t)h p+1 +O(h p+2 ∂ψ<br />
)−<br />
∂y (t,y(t),0)+ ∂2 ψ<br />
∂y∂h (t,y(t),0)h e(t)h p+1<br />
+ė(t)h p+1 +O(h p+2 )<br />
= (d(t)− ∂f<br />
∂y (t,y(t))e(t)+ė(t))hp+1 +O(h p+2 ) .<br />
Löstefolgendes AWP für eine inhomogene linear Variationsgleichung<br />
ė(t) = ∂f (t,y(t))e(t)−d(t) , e(0) = 0 ⇒ e glatt , (2.4.16)<br />
∂y<br />
✷<br />
dann ist die Annahme über das modifizierte ESV erfüllt.<br />
Numerische<br />
Mathemtik<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Logisch:<br />
K hängt von der Glattheit vonf ab.<br />
2.4<br />
p. 264
Idee: Ordnungserhöhung durch Extrapolation (→ Sect. 2.4.2)<br />
WähleN 1 < N 2 < ··· < N k+1 ,N i ∈ N<br />
Numerische<br />
Mathemtik<br />
ESV (Schrittweiteh i = (T−t 0 )/N i ) lieferty Ni ,i = 1,...,k +1<br />
Polynomextrapolation(∗) aus(h i ,y hi ,N i<br />
)<br />
➥ Näherungỹ mit‖ỹ−y(T)‖ = O(h p+k<br />
1<br />
) (vgl. Thm. 2.4.8)<br />
(∗): Thm. 2.4.11 ➤ Extrapolation basierend auf Polynom der Form<br />
p(t) = α 0 +α p h p +α p+1 h p+1 +···+α p+k−1 h p+k−1 !<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
Thm. 2.4.11 erfordert „hinreichend kleines”h<br />
2011<br />
Nicht nury(T) von Interesse, sondern (genäherte) Lösungt ↦→ y(t)<br />
Anwendung der Extrapolationsidee auf Intervallen eines Zeitgitters G := {t 0 < t 1 < ··· < 2.4<br />
t N = T} ↔ Makroschritte: auf[t j ,t j+1 ], MakroschrittweiteH j := t j+1 −t j<br />
p. 265<br />
2.4.4 Lokale Extrapolations-Einschrittverfahren
Fixiere Sequenz(n l ) k+1<br />
l=1 ,n l ∈ N, z.B.(1,2,3,4,5,6,...) ↔ Anzahl Mikroschritte<br />
n l Schritte des ESV mit Startwerty j , Schrittweiteh = t j+1−t j<br />
n<br />
➥ y l l j+1<br />
,l = 1,...,k +1<br />
(ESV = Basisverfahren, Ordnungp)<br />
Numerische<br />
Mathemtik<br />
Polynomextrapolation(∗) aus(n −1<br />
l<br />
,y l j+1 ) ➥ y j+1 vgl. Bem. 2.4.4<br />
Extrapolations-Einschrittverfahren der Ordnungp+k<br />
MATLAB-CODE : Einzelschritt, lokales Extrapolations-ESV, skalare ODE<br />
function y = expesvstep(esvstep,y,t,h,n)<br />
for i=1:length(n)<br />
yt(i) = y;<br />
ht = h/n(i); tt = t;<br />
for j=1:n(i)<br />
yt(i) = esvstep(yt(i),tt,ht);<br />
tt = tt + ht;<br />
end<br />
T = anexpol(yt,1./n,p);<br />
return(T(1));<br />
esvstep(y,t,h) ˆ= ein Schritt<br />
des Basisverfahrens, Schrittweite<br />
h, ausgehend vom Zustand(t,y):<br />
esvstep(y,t,h) := Ψ t,t+h y<br />
n ˆ= Vektor(n l ) k+1<br />
l=1<br />
anexpol ˆ= verallgemeinerte<br />
Version für Extrapolationspolynom<br />
p(t) = α 0 + α p h p + α p+1 h p+1 +<br />
···+α p+k−1 h p+k−1<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
2.4<br />
p. 266
Ablauf: Lokales Extrapolations-Einschrittverfahren (n 1 = 1,n 2 = 2,n 3 = 3)<br />
D<br />
Numerische<br />
Mathemtik<br />
H j H j+1 H j+2<br />
Fig. 78<br />
• ˆ=y j<br />
•↔n 1 = 1<br />
•↔n 1 = 2<br />
•↔n 1 = 3<br />
ˆ= Extrapolation<br />
t j−1 t j t j+1<br />
t<br />
<strong>Beispiel</strong> 2.4.17 (Extrapoliertes Euler-Verfahren).<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
2.4<br />
p. 267
AWP für logistische Dgl. (→ Bsp. 1.2.1)<br />
ẏ = 5y(1−y) , y(0) = 0.02 .<br />
10 −2<br />
Numerische<br />
Mathemtik<br />
10 0 macro step h<br />
Endzeit: T = 1 Basis-ESV: explizites Euler-<br />
Verfahen (1.4.2)<br />
Extrapolation: verschiedenek,n l ,l = 1,...,k+1,<br />
uniforme Makroschrittweiteh<br />
Fehler<br />
max<br />
j<br />
|y(t j )−y j | .<br />
10<br />
Algebraische Konvergenz der Ordnungk+1 ✄ −10<br />
10 −3 10 −2 10 −1<br />
error<br />
10 −4<br />
10 −6<br />
10 −8<br />
(1,2)<br />
(1,2,3)<br />
(1,2,4)<br />
(1,4,16)<br />
O(h 2 )<br />
O(h 3 )<br />
O(h 4 )<br />
✸<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Theoretische Analyse ↔ Verifikation der Voraussetzungen von Thm. 2.1.19<br />
Überlegungen für Spezialfallp = 1 ↔ Euler-Verfahren, vgl. Bsp. 2.4.17<br />
Notationen:<br />
t ↦→ y(t) ˆ= exakte Lösung durch(t,y) ∈ Ω<br />
2.4<br />
p. 268
H > 0 ˆ= Schrittweite des Makroschritts<br />
n 1 ,...,n k+1 ˆ= Anzahl von Mikroschritten in[t,t+H]<br />
y N ˆ= Resultat der Anwendung von N Schritten des Basis-Einschrittverfahrens auf [t,t+H] mit<br />
uniformer Schrittweiteh := H/N und Startwerty<br />
ŷ ˆ= durch Extrapolation ausy n1 ,y n2 ,...,y nk+1 gewonnener Näherungswert füry(t+H)<br />
Numerische<br />
Mathemtik<br />
Konsistenzfehler (→ Def. 2.1.11): τ(t,y,H) = y(t+H)−ŷ .<br />
Zu zeigen ist: Konsistenzordnungk +1 ↔ ‖τ(t,y,H)‖ = O(H k+2 )<br />
➀ Lokale Anwendung von Thm. 2.4.11 mitt 0 = t,T = t+H: für hinreichend grossesK ∈ N<br />
K∑<br />
⇒ y N −y(t+H) = e l (t+H)h l +r K (t+H,h)h K+1 , h = H/N ,<br />
wobei ☞<br />
☞<br />
l=1<br />
‖r K (t+H,h)‖ ≤ CH<br />
‖e(t+H)‖ ≤ CH<br />
mitC > 0 unabhängig vontund (hinreichend kleinem)h.<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
➁ Damit aus Thm. 2.4.8<br />
‖ŷ−y(t+H)‖ ≤ ‖e k+1 (t+H)‖h 1·····h k+1 +C<br />
k∑<br />
j=1<br />
∥ r j (t+H,h j ) ∥∥ h k+2<br />
j<br />
,<br />
2.4<br />
p. 269
wobeiC > 0 nur von den Verhältnissenn j : n l abhängt.<br />
⇒ ‖ŷ−y(t+H)‖ ≤ CH k+2 ,<br />
Numerische<br />
Mathemtik<br />
mitC > 0 unabhängig vonH.<br />
Bemerkung 2.4.18 (Extrapolationsverfahren als Runge-Kutta-Verafhren).<br />
Basisverfahren: Explizites Euler-Verfahren (1.4.2), Ordnungp = 1<br />
➜ Polynomextrapolation zur Sequenz (1,2,3,4,...,k) liefert explizites (→ Def. 2.1.5)<br />
Runge-Kutta-Verfahren (→ Def. 2.3.5) der Ordnungk mits = k(k −1)/2+1 Stufen.<br />
△<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
2.4<br />
p. 270
2.4.5 Ordnungssteuerung<br />
Numerische<br />
Mathemtik<br />
Für Extrapolations-Einschrittverfahren:<br />
k = k(j) einfach zu realisieren<br />
Idee: [(lokale) Ordnungssteuerung]<br />
✗<br />
✖<br />
„Erhöhe lokale Ordnung, bis es sich nicht mehr lohnt(∗)”<br />
✔<br />
✕<br />
(∗) Heuristisches Beurteilungskriterium (basierend auf Aitken-Neville-Extrapolationstableau (2.4.6)):<br />
∥<br />
∥T k,k−1 −T k,k<br />
∥ ∥∥ ≤ TOL·∥ ∥∥Tk,k<br />
∥ ∥∥ für ToleranzTOL > 0 .<br />
Zweitbeste Näherung<br />
beste Näherung<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
2.4<br />
p. 271
MATLAB-CODE : Adaptives Euler-Extrapolationsverfahren<br />
function [y,k] = eulexstep(f,y,H,TOL)<br />
kmax = 1000;<br />
T{1} = y + H*f(y);<br />
for i=2:kmax<br />
T{i} = y; h = H/i;<br />
for k=1:i, T{i} = T{i} + h*f(T{i}); end<br />
for l=i-1:-1:1<br />
T{l} = T{l+1} + (T{l+1}-T{l})/(i/l-1);<br />
end<br />
if (norm(T{1}-T{2}) < TOL*norm(T{1}))<br />
y = T{1}; k = i; return;<br />
end<br />
Beachte:<br />
Adaptives<br />
Euler-Extrapolationsverfahren:<br />
(für autonomes AWP)<br />
Makroschritt der LängeH<br />
Argumente:<br />
f<br />
: Funktionshandlef=@(y)<br />
auf rechte Seite<br />
y : Anfangswert zut = 0<br />
TOL : Toleranz<br />
Rückgabewerte:<br />
y : Näherung zut = H<br />
Einfache Erweiterung des Extrapolationstableaus um eine weitere Zeile<br />
<strong>Beispiel</strong> 2.4.19 (Euler-Extrapolationsverfahren mit Ordnungssteuerung).<br />
k : Verwendete Extrapolationstiefe<br />
Numerische<br />
Mathemtik<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Bewegung eines geladenen Teilchens im Feld eines geraden Drahtes = Linienladung (konservatives<br />
Zentralfeld, Zentrum ( 0<br />
0<br />
)<br />
, PotentialU(x) := −2log‖x‖): → Bsp. 1.2.25<br />
ÿ = − 2y<br />
‖y‖ 2 ⇒<br />
( ˙ y<br />
v)<br />
=<br />
( ) v<br />
− 2y<br />
‖y‖ 2<br />
, y(0) =<br />
( )<br />
−1<br />
, v(0) =<br />
0<br />
( )<br />
0.1<br />
−0.1<br />
.<br />
2.4<br />
p. 272
Anfangswert: y(0) = (−1,0,0.1,−0.1), Endzeitpunkt: T = 4<br />
Numerische<br />
Mathemtik<br />
y 2<br />
0.8<br />
0.6<br />
0.4<br />
0.2<br />
0<br />
−0.2<br />
−0.4<br />
4<br />
3<br />
2<br />
1<br />
0<br />
−1<br />
y (t) 1<br />
y (t) 2<br />
v 1<br />
(t)<br />
v (t) 2<br />
−0.6<br />
−2<br />
−0.8<br />
Exakte Bahn<br />
−1<br />
−1 −0.5 0 0.5 1<br />
y 1<br />
−3<br />
−4<br />
0 0.5 1 1.5 2 2.5 3 3.5 4<br />
t<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Beobachtung:<br />
„Peaks” in der Lösungskomponentev(t) (= zeitlokale Charakteristika)<br />
Ordnungsadaptives Euler-Extrapolationsverfahren (TOL = 0.01), uniforme MakrozeitschrittweiteH =<br />
0.02<br />
2.4<br />
p. 273
0.6<br />
0.4<br />
5<br />
y (t ) (Naeherung)<br />
1 k<br />
y (t ) (Naeherung)<br />
2 k<br />
v 1<br />
(t k<br />
) (Naeherung)<br />
20<br />
Numerische<br />
Mathemtik<br />
v 2<br />
(t k<br />
) (Naeherung)<br />
0.2<br />
y 2<br />
(t)<br />
0<br />
−0.2<br />
−0.4<br />
−0.6<br />
−0.8<br />
−1<br />
−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8<br />
y 1<br />
(t)<br />
Fig. 79<br />
y i<br />
(t)<br />
0<br />
10<br />
−5<br />
0 0.5 1 1.5 2 2.5 3 3.5 4 0<br />
t<br />
Local extrapolation depth<br />
Fig. 80<br />
✄ Automatische Erhöhung der Ordnung an „kritischen Stellen”<br />
✸<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
2.4.6 Extrapolation reversibler Einschrittverfahren<br />
<strong>Beispiel</strong> 2.4.20 (Extrapolierte implizite Mittelpunktsregel).<br />
2.4<br />
p. 274
Anfangswertproblem aus Bsp. 1.4.9 (logistische Dgl., siehe Bsp. 1.2.1), λ = 10, y 0 = 0.01, aus<br />
[0,1] (T = 1)<br />
Numerische<br />
Mathemtik<br />
Einschrittverfahren: implizite Mittelpunktsregel (1.4.19)<br />
Globale Extrapolation (→ Abschnitt 2.4.3) von y h (T) aus Lösungen erhalten durch uniforme<br />
Schrittweiten h/n i<br />
Beachte: Extrapolation auf der Grundlage des Standard-Tableaus (2.4.5)<br />
Implicit MPR (extr.), logistic ODE, λ = 10.000000, y0 = 0.010000, T = 1.000000<br />
10 −2<br />
|y N<br />
−y(T)|<br />
10 −4<br />
10 −6<br />
10 −8<br />
10 −10<br />
10 −12<br />
10 −14<br />
10 0 h<br />
No extrapolation<br />
n=(1,2)<br />
n=(1,2,3)<br />
n=(1,2,3,4)<br />
n=(1,2,3,4,5)<br />
O(h 2 )<br />
O(h 4 )<br />
O(h 6 )<br />
10 −2 10 −1 10 0<br />
Fig. 81<br />
✁ Ordnungserhöhung nur in jedem zweite Extrapolationsschritt<br />
Ordnungserhöhung um jeweils zwei<br />
✸<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
2.4<br />
p. 275
Beobachtung aus Bsp. 2.4.20 einfach zu erklären, falls<br />
y h (T) = y(T)+α 1 h 2 +α 2 h 4 +α 6 h 6 +··· .<br />
Numerische<br />
Mathemtik<br />
<strong>Beispiel</strong> 2.4.21 (Globaleh 2 -Extrapolation für implizite Mittelpunktsregel).<br />
(Fast) wie Bsp. 2.4.20<br />
NEU:<br />
y N aus Extrapolation inh 2<br />
Implicit MPR (h 2 extr.), logistic ODE, λ = 10.0, y0 = 0.01, T = 1.0<br />
10 −2<br />
10 −4<br />
10 −6<br />
10 −8<br />
10 −10<br />
10 −12<br />
10 −14<br />
10 0 h<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
|y N<br />
−y(T)|<br />
✁ Ordnungserhöhung um zwei in jedem Extrapolationsschritt<br />
!<br />
No extrapolation<br />
n=(1,2)<br />
n=(1,2,3)<br />
O(h 2 )<br />
O(h 4 )<br />
O(h 6 )<br />
10 −2 10 −1 10 0<br />
Fig. 82<br />
✸<br />
2.4<br />
p. 276
✬<br />
✩<br />
Theorem 2.4.22 (Asymptotische Entwicklung des Diskretisierungsfehlers inh 2 ).<br />
Bezeichne y h (t), t ∈ äquidistantes Zeitgitter mit Schrittweite h > 0 auf [t 0 ,T], die durch ein<br />
reversibles Einschrittverfahren (→ Def. 2.1.27) erzeugte Näherungslösung eines Anfangswertproblemsẏ<br />
= f(t,y),y(t 0 ) = y 0 , mit exakter Lösungt ↦→ y(t).<br />
Dann existieren ein K ∈ N (abhängig von der Glattheit von f) und glatte Funktionen e i :<br />
J(t 0 ,y 0 ) ↦→ R d , i = 1,...,K, mit e i (0) = 0 und (für hinreichend kleine h) gleichmässig<br />
beschränkte Funktionen(T,h) ↦→ r k (T,h),0 ≤ k ≤ K, so dass<br />
✫<br />
y h (T)−y(T) =<br />
k∑<br />
e l (T)h 2l +r k (T,h)h 2k+2 für kleinesh .<br />
l=1<br />
Dabei gilt ‖r k (T,h)‖ = O(T −t 0 ) fürT −t 0 → 0 gleichmässig inh < T .<br />
Numerische<br />
Mathemtik<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
✪<br />
2011<br />
Beweis. Siehe [8, Satz 4.42] ✷<br />
2.4<br />
p. 277
Bemerkung 2.4.23 (DIFEX).<br />
Numerische<br />
Mathemtik<br />
Praktische Extrapolationsverfahren stützen sich auf explizite Verfahren, deren Fehler eine asymptotische<br />
Entwicklung inh 2 besitzt (eine spezielle Trapezregel)<br />
➣ DIFEX-Algorithmus [8, Sect. 4.3.3]<br />
△<br />
2.5 Splittingverfahren [16, Sect. 2.5]<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Autonomes AWP mit additiv zerlegter rechter Seite:<br />
ẏ = f(y)+g(y) , y(0) = y 0 , (2.5.1)<br />
mitf : D ⊂ R d ↦→ R d ,g : D ⊂ R d ↦→ R d “hinreichend glatt”, lokal Lipschitz-stetig (→ Def. 1.3.2)<br />
(Kontinuierliche) Evolutionen:<br />
Φ t f ↔ Dgl. ẏ = f(y) ,<br />
Φ t g ↔ Dgl. ẏ = g(y) .<br />
2.5<br />
p. 278
Annahme:<br />
Φ t f ,Φt g<br />
(analytisch) bekannt<br />
Numerische<br />
Mathemtik<br />
Idee: Konstruiere Einschrittverfahren mit diskreten Evolutionen<br />
Lie-Trotter-Splitting: Ψ h = Φ h g ◦Φ h f , (2.5.2)<br />
Strang-Splitting: Ψ h = Φ h /2<br />
f<br />
◦Φ h g ◦Φ h /2<br />
f<br />
. (2.5.3)<br />
(2.5.2) ↔<br />
y 1<br />
Ψ h<br />
Φ h g<br />
y 0<br />
Φ h f<br />
Fig. 83<br />
(2.5.3) ↔<br />
<strong>Beispiel</strong> 2.5.4 (Konvergenz einfacher Splittingverfahren).<br />
√<br />
ẏ = λy(1−y) + 1−y<br />
} {{ }<br />
2<br />
} {{ }<br />
=:f(y) =:g(y)<br />
Φ h /2<br />
f y 1<br />
Ψ h Φ h g<br />
y 0<br />
, y(0) = 0 .<br />
Φ h /2<br />
f<br />
Fig. 84<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
2.5<br />
p. 279
Φ t f y = 1<br />
1+(y −1 −1)e−λt, t > 0,y ∈]0,1] (Logistische Differentialgleichung (2.2.84))<br />
{<br />
Φ t sin(t+arcsin(y)) , fallst+arcsin(y) <<br />
π<br />
gy =<br />
2<br />
,<br />
t > 0,y ∈ [0,1] .<br />
1 , sonst,<br />
Numerische<br />
Mathemtik<br />
Numerisches Experiment:<br />
T = 1, λ = 1, Vergleich von Splittingverfahren<br />
10 −3<br />
(konstante Schrittweite) mit hochgenauer numeri-<br />
|y(T)−y h<br />
(T)|<br />
10 −4<br />
10 −5<br />
10 −6<br />
10 −2 Zeitschrittweite h<br />
Lie−Trotter−Splitting<br />
Strang−Splitting<br />
O(h)<br />
O(h 2 )<br />
10 −2 10 −1<br />
Fig. 85<br />
scher Lösung erhalten durch<br />
f=@(t,x) λ*x*(1-x)+sqrt(1-x^2);<br />
options=odeset(’reltol’,1.0e-10,...<br />
’abstol’,1.0e-12);<br />
[t,yex]=ode45(f,[0,1],y0,options);<br />
✁ Fehlerverhalten zum EndzeitpunktT = 1<br />
✸<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
✬<br />
Theorem 2.5.5 (Konsistenzordnung einfacher Splittingverfahren). Die ESV (2.5.2) und (2.5.3)<br />
haben die Konsistenzordnungen (→ Def. 2.1.13) 1 bzw. 2.<br />
✫<br />
✩<br />
✪<br />
2.5<br />
p. 280
Beweis.<br />
Für den Konsistenzfehler (→ Def. 2.1.11) haben wir nach Def. 2.1.13 zu zeigen (wir betrachten<br />
autonome ODEs!)<br />
∥<br />
‖τ(t,y,h)‖ = ∥Φ h y−Ψ h y∥ =<br />
Der Beweis wird hier für das Strang-Splitting geführt.<br />
{<br />
O(h 2 ) fürΨ aus (2.5.2) ,<br />
O(h 3 ) fürΨ aus (2.5.3) .<br />
Numerische<br />
Mathemtik<br />
Übliche Annahme:<br />
f,ghinreichend glatt.<br />
Technik:<br />
Taylorentwicklung<br />
Taylorentwicklung der exakten Evolution nachh, vgl. (2.3.25):<br />
Φ h y =y+ẏ(0)h+ 1 2ÿ(0)h2 +O(h 3 )<br />
=y+h(f(y)+g(y))+ 1 2 h2 (Df(y)+Dg(y))(f(y)+g(y))+O(h 3 ) .<br />
(2.5.6)<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Taylorentwicklung der partiellen EvolutionenΦ h f ,Φh g<br />
nachh, vgl. (2.3.25)<br />
Φ h f y = y+hf(y)+ 1 2 h2 Df(y)f(y)+O(h 3 ) , (2.5.7)<br />
Φ h gy = y+hg(y)+ 1 2 h2 Dg(y)g(y)+O(h 3 ) . (2.5.8)<br />
Sukzessives Einsetzen von Taylorentwicklungen, wobei multiplikative Faktoren h k ein frühzeitiges<br />
Abbrechen der eingesetzen Taylorentwickung ermöglichen, vgl. die Taylorentwicklung der Runge-<br />
2.5<br />
p. 281
Kutta-Inkremente in Bsp. 2.3.24, (2.3.27).<br />
Ψ h y =Φ h /2<br />
f (Φh g(Φ h /2<br />
f y))<br />
➊<br />
=Φ h /2<br />
f (Φh g(y+h/2f(y)+ 1 8 h2 Df(y)f(y)+O(h 3 )))<br />
➋<br />
=Φ h (<br />
/2<br />
f<br />
y+h/2f(y)+<br />
8 1h2 Df(y)f(y)+O(h 3 )+hg(y+h/2f(y)+O(h 2 ))<br />
+<br />
2 1h2 Dg(y+O(h))g(y+O(h))+O(h 3 )<br />
)<br />
(<br />
➌<br />
=Φ h /2<br />
f<br />
y+h/2f(y)+hg(y)+<br />
8 1h2 Df(y)f(y)+ 1 2 h2 Dg(y)f(y)+<br />
1<br />
2<br />
h 2 Dg(y)g(y)+O(h 3 )<br />
)<br />
➍<br />
=y+ h 2 f(y)+hg(y)+ 1 8 h2 Df(y)f(y)+ 1 2 h2 Dg(y)f(y)+ 1 2 h2 Dg(y)g(y)+O(h 3 )+<br />
h/2f(y+ h 2 f(y)+hg(y))+O(h2 ))+ 1 8 h2 Df(y+O(h))f(y+O(h))<br />
➎<br />
=y+ h 2 f(y)+hg(y)+ 1 8 h2 Df(y)f(y)+ 1 2 h2 Dg(y)f(y)+ 1 2 h2 Dg(y)g(y)<br />
+ 1 2 hf(y)+ 1 4 h2 Df(y)f(y)+ 1 2 h2 Df(y)g(y)+ 1 8 h2 Df(y)f(y)+O(h 3 )<br />
=y+h(f(y)+g(y))+ 1 2 h2( Df(y)f(y)+Dg(y)f(y)+Df(y)g(y)+Dg(y)g(y) )<br />
+O(h 3 ) .<br />
Numerische<br />
Mathemtik<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
➊ Wende (2.5.7) aufΦ h /2<br />
f y an.<br />
2.5<br />
p. 282
➋ Benutze (2.5.8) mit y ← y + h/2f(y) + 1 8 h2 Df(y)f(y) + O(h 3 ), um (Φ h g(y + h/2f(y) +<br />
1<br />
8<br />
h 2 Df(y)f(y)+O(h 3 )) zu entwickeln. Vernachlässige TermeO(h 3 ).<br />
Numerische<br />
Mathemtik<br />
➌ Taylorentwicklung (inh) vongundDg umy.<br />
➍ Benutze (2.5.7) mit y ← y + h/2f(y) + hg(y) + 1 8 h2 Df(y)f(y) + 1 2 h2 Dg(y)f(y) +<br />
1<br />
2<br />
h 2 Dg(y)g(y)+O(h 3 ) und vernachlässige Terme inO(h 3 ).<br />
➎ Taylorentwicklung (inh) vonf undDf umy.<br />
Vergleich mit (2.5.6) liefert die Behauptung für das Strang-Splitting.<br />
✷<br />
Bemerkung 2.5.9 ( reversible Strang-Splitting-Einschrittverfahren).<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
△<br />
<strong>Beispiel</strong> 2.5.10 (Splittingverfahren für mechanische Systeme).<br />
Newtonsche Bewegungsgleichung<br />
¨r = a(r)<br />
(<br />
(1.1.10) r<br />
⇐⇒ ẏ :=<br />
v) ˙<br />
=<br />
( ) v<br />
a(r)<br />
=: F(y) .<br />
2.5<br />
p. 283
( ) 0<br />
Splitting: F(y) = +<br />
a(r)<br />
} {{ }<br />
=:f(y)<br />
( v<br />
0)<br />
}{{}<br />
=:g(y)<br />
.<br />
Numerische<br />
Mathemtik<br />
Φ t f<br />
(<br />
r0<br />
v 0<br />
)<br />
=<br />
( )<br />
r 0<br />
v 0 +ta(r 0 )<br />
, Φ t g<br />
(<br />
r0<br />
v 0<br />
)<br />
Lie-Trotter-Splitting (2.5.2): ➢ Symplektisches Eulerverfahren<br />
) )<br />
Ψ h ( r<br />
v<br />
Strang-Splitting (2.5.3):<br />
Ψ h ( r<br />
v<br />
)<br />
=<br />
=<br />
(<br />
Φ h g ◦Φ h f<br />
) ( r<br />
v<br />
(<br />
Φ h /2<br />
g ◦Φ h ) ( )<br />
f ◦Φh /2 r<br />
g<br />
v<br />
=<br />
=<br />
( r+h(v+ha(r))<br />
v+ha(r)<br />
( )<br />
r0 +tv<br />
= 0<br />
v 0<br />
)<br />
(<br />
r+hv+ 1 2 h2 a(r+<br />
2 1 )<br />
hv)<br />
v+ha(r+ 1 2 hv)<br />
.<br />
. (2.5.11)<br />
. (2.5.12)<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
= Einschrittformulierung des Störmer-Verlet-Verfahrens (1.4.27), siehe Bem. 1.4.33 !<br />
r k+<br />
1<br />
2<br />
= r k + 1 2 hv k ,<br />
(2.5.12) ←→<br />
v k+1 = v k +ha(r k+<br />
1<br />
2<br />
) ,<br />
r k+1 = r k+<br />
1<br />
2<br />
+ 1 2 hv k+1 .<br />
(2.5.13)<br />
2.5<br />
p. 284
✸<br />
Numerische<br />
Mathemtik<br />
Einwand: Splittingverfahren sind nur in Spezialfällen zu gebrauchen, denn die exakten Evolutionen<br />
Φ f undΦ g werden oft nicht analytisch auswertbar sein.<br />
Idee: Ersetze<br />
Exakte Evolutionen<br />
−→ diskrete Evolutionen<br />
Φ h g , Φh f<br />
−→ Ψ h g , Ψh f<br />
<strong>Beispiel</strong> 2.5.14 (Inexakte Splittingverfahren). Forsetzung Bsp. 2.5.4<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
AWP von Bsp. 2.5.4, Inexakte Splittingverfahren auf der Grundlage verschiedener inexakter Basisverfahren:<br />
2.5<br />
p. 285
10 −2 Zeitschrittweite h<br />
|y(T)−y h<br />
(T)|<br />
☞<br />
10 −3<br />
10 −4<br />
10 −5<br />
10 −6<br />
10 −2 10 −1<br />
LTS−Eul<br />
SS−Eul<br />
SS−EuEI<br />
LTS−EMP<br />
SS−EMP<br />
LTS-Eul Explizites Eulerverfahren (2.2.1) →<br />
Ψ h h,g ,Ψh h,f<br />
+ Lie-Trotter-Splitting (2.5.2)<br />
SS-Eul Explizites Eulerverfahren (2.2.1) →<br />
Ψ h h,g ,Ψh h,f<br />
+ Strang-Splitting (2.5.3)<br />
SS-EuEI Strang-Splitting (2.5.3): Explizites Eulerverfahren<br />
(2.2.1) ◦ exakte Evolution Φ h g<br />
◦ implizites Eulerverfahren (2.2.1)<br />
LTS-EMP Explizite Mittelpunktsregel (2.3.4) →<br />
SS-EMP<br />
Ψ h h,g ,Ψh h,f<br />
+ Lie-Trotter-Splitting (2.5.2)<br />
Explizite Mittelpunktsregel (2.3.4) →<br />
Ψ h h,g ,Ψh h,f<br />
+ Strang-Splitting (2.5.3)<br />
Ordnung der Splittingverfahren wird durch Konsistenzordnung vonΦ h f ,Φh g begrenzt.<br />
Numerische<br />
Mathemtik<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Ausnahme: SS-EuEI: reversibles Verfahren ➢ Konsistenzordnung≥ 2 nach Thm. 2.1.29<br />
✸<br />
2.6<br />
p. 286
2.6 Schrittweitensteuerung [8, Kap. 5], [19, Sect. 2.8]<br />
Numerische<br />
Mathemtik<br />
<strong>Beispiel</strong> 2.6.1 (Numerische Integration bei Blow-up).<br />
Skalares autonomes AWP → Bsp. 1.3.11<br />
ẏ = y 2 , y(0) = y 0 > 0 .<br />
y(t) = y 0<br />
1−y 0 t , t < 1/y 0 .<br />
y(t)<br />
100<br />
90<br />
80<br />
70<br />
60<br />
50<br />
y 0<br />
= 1<br />
y 0<br />
= 0.5<br />
y 0<br />
= 2<br />
Die Lösung existiert nur für endliche Zeit und<br />
erleidet dann einen Blow-up, siehe Def. 1.3.1:<br />
lim<br />
t→1/y 0<br />
y(t) = ∞ : J(y 0 ) =]−∞,1/y 0 ]!<br />
40<br />
30<br />
20<br />
10<br />
0<br />
−1 −0.5 0 0.5 1 1.5 2 2.5<br />
t<br />
Fig. 86<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Herausforderung: Wie sollte das Zeitgitter {t 0 < t 1 < ··· < t N−1 < t N } für ein ESV gewählt<br />
werden, wennJ(y 0 ) nicht a priori bekannt ist und nicht klar ist, ob sich ein Blow-up ereignen wird?<br />
2.6<br />
p. 287
Gedankenexperiment: wie wird sich wohl ein Runge-Kutta-Einschrittverfahren (→ Def. 2.3.5) bei Verwendung<br />
uniformer (äquidistanter) Zeitschritte verhalten, wenn es auf das obige AWP angewendet<br />
wird.<br />
Numerische<br />
Mathemtik<br />
100<br />
90<br />
80<br />
y 0<br />
= 1<br />
y 0<br />
= 0.5<br />
y 0<br />
= 2<br />
solution by ode45<br />
y k<br />
70<br />
60<br />
50<br />
40<br />
1 fun = @(t,y) y.^2;<br />
2 [t1,y1] = ode45(fun,[0 2],1);<br />
3 [t2,y2] = ode45(fun,[0 2],0.5);<br />
4 [t3,y3] = ode45(fun,[0 2],2);<br />
R. Hiptmair<br />
30<br />
20<br />
rev 35327,<br />
25. April<br />
2011<br />
10<br />
0<br />
−1 −0.5 0 0.5 1 1.5 2 2.5<br />
t<br />
Fig. 87<br />
MATLAB Warnungsmeldungen:<br />
Warning: Failure at t=9.999694e-01. Unable to meet integration<br />
tolerances without reducing the step size below the smallest<br />
value allowed (1.776357e-15) at time t.<br />
> In ode45 at 371<br />
2.6<br />
p. 288
In simpleblowup at 22<br />
Warning: Failure at t=1.999970e+00. Unable to meet integration<br />
tolerances without reducing the step size below the smallest<br />
value allowed (3.552714e-15) at time t.<br />
> In ode45 at 371<br />
In simpleblowup at 23<br />
Warning: Failure at t=4.999660e-01. Unable to meet integration<br />
tolerances without reducing the step size below the smallest<br />
value allowed (8.881784e-16) at time t.<br />
> In ode45 at 371<br />
In simpleblowup at 24<br />
Numerische<br />
Mathemtik<br />
We stellen fest, dass es ode45 gelingt, die Schrittweite immer weiter zu reduzieren, wenn es sich<br />
dem Pol der Lösung nähert.<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
✸<br />
Bemerkung 2.6.2 (Zeitlich ungleichmässiges Verhalten von Lösungen).<br />
2.6<br />
p. 289
Concentration of HBrO 2<br />
Fig. 89<br />
4<br />
3<br />
2<br />
y (t) 1<br />
y (t) 2<br />
v 1<br />
(t)<br />
v 2<br />
(t)<br />
10 −6<br />
Numerische<br />
Mathemtik<br />
10 −5 t<br />
1<br />
10 −7<br />
0<br />
−1<br />
c(t)<br />
10 −8<br />
−2<br />
10 −9<br />
−3<br />
−4<br />
0 0.5 1 1.5 2 2.5 3 3.5 4<br />
t<br />
Fig. 88<br />
Keplerproblem von Bsp. 2.4.19<br />
10 −10<br />
10 −11<br />
0 20 40 60 80 100 120 140 160 180 200<br />
Oregonator-Reaktion von Bsp. 1.2.12<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Häufig:<br />
Lösungen von AWPs zeigen stark ungleichmässiges Verhalten in der Zeit.<br />
2.6<br />
p. 290
Eine Möglichkeit, Einschrittverfahren an das zeitlokale Verhalten der Lösung anzupassen haben wir<br />
bereits kennengelernt:<br />
Numerische<br />
Mathemtik<br />
→ Ordnungssteuerung bei Extrapolationsverfahren, Sect. 2.4.5<br />
Doch im Fall eines Blow-up nützt uns das gar nichts!<br />
△<br />
Grundlegende Fragestellung<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Wie wählt man ein geeignetes ZeitgitterG = {t 0 < t 1 < ··· < t N = T}<br />
für ein gegebenes Einschrittverfahren und Anfangswertproblem?<br />
Was heisst geeignet?<br />
2.6<br />
p. 291
Effizienz<br />
✬<br />
Ziel: N so klein wie möglich<br />
&<br />
Genauigkeit<br />
max ‖y(t k)−y k ‖
Trotzdem scheint zeitlokale Schrittweitensteuerung das einzige praktikable Verfahren zu sein,<br />
Numerische<br />
Mathemtik<br />
☞ weil man nicht während der Rechnung viele Zeitschritte zurückgehen will, was viel Rechenzeit<br />
kosten kann,<br />
☞ weil sie einfach zu implementieren ist und mit wenig zusätzlichem Rechenaufwand auskommt,<br />
☞ weil man prinzipiell keine Methode finden wird, die eine garantierte Genauigkeit liefert.<br />
Idee:<br />
Schätzung des Konsistenzfehlers<br />
Vergleich zweier diskreter EvolutionenΨ t,t+h , ˜Ψ t,t+h verschiedener Ordnung<br />
(→ Def. 2.1.13) für eine aktuelle Zeitschrittweite h:<br />
Falls Ordnung(˜Ψ) > Ordnung(Ψ)<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
⇒ Φ t,t+h y(t k )−Ψ t,t+h y(t k )<br />
} {{ }<br />
Konsistenzfehler<br />
≈ EST k := ˜Ψ t,t+h y(t k )−Ψ t,t+h y(t k ) . (2.6.3)<br />
Heuristik für konkretesh<br />
<strong>Beispiel</strong> 2.6.4 (Qualität der Fehlerschätzung).<br />
2.6<br />
Skalares AWP: ẏ = cos 2 (ay), Lösung y(t) = 1/aarctan(at) auf[−1,1],a = 10<br />
p. 293
Ψ↔Explizites Euler-Verfahren (1.4.2), Ordnungp = 1<br />
˜Ψ↔Explizite Trapezregel (2.3.3), Ordnungp = 2<br />
Numerische<br />
Mathemtik<br />
0.15<br />
0.1<br />
f(y) = cos 2 (10*y)<br />
0.14<br />
0.12<br />
Euler: error<br />
Euler: est. error<br />
TRP: error<br />
TRP: est. error<br />
f(y) = cos 2 (10*y)<br />
0.05<br />
0.1<br />
0<br />
0.08<br />
y,y h<br />
y,y h<br />
−0.05<br />
0.06<br />
−0.1<br />
0.04<br />
−0.15<br />
Expl. Euler solution<br />
Expl. trapezoidal rule<br />
Exact solution<br />
−0.2<br />
−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1<br />
t<br />
Fig. 90<br />
0.02<br />
0<br />
−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1<br />
t<br />
Fig. 91<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Beobachtung: ☞ Grosse Unterschiede zwischen geschätztem und wahrem Fehler möglich<br />
☞ Jedoch: Fehlerschätzung für ˜Ψ durchΨsinnvoll, da “richtig in der Tendenz”<br />
✸<br />
2.6<br />
p. 294
Vergleich<br />
EST k ↔ TOL<br />
EST k ↔ TOL‖y k ‖<br />
➣<br />
Absolute Toleranz<br />
Verwerfen/Akzeptieren des aktuellen Schritts<br />
Relative Toleranz<br />
Numerische<br />
Mathemtik<br />
Führt zu einem sehr einfachen Algorithmus:<br />
EST k < TOL: Ausführen des aktuellen Schritts (Schrittweiteh)<br />
Nächster Schritt mit Schrittweiteαh, mit einemα > 1(∗)<br />
EST k > TOL: Wiederholung des aktuellen Schritts mit Schrittweite< h, z.B. 1 2 h<br />
Begründung für(∗): Wenn die aktuelle Schrittweite bereits einen hinreichend kleinen Einschrittfehler<br />
sicherstellt, dann ist es unter Umständen möglich, auch mit einer etwas grösseren Schrittweite einen<br />
Einschrittfehler zu erhalten, der immer noch genügend klein ist. Dadurch kann die Gesamtzahl der<br />
Zeitschritte reduziert werden, was die Effizienz des Verfahrens erhöht. Das Risiko eines Genauigkeitsverlusts<br />
wird durch die Fehlerschätzung im nächsten Schritt in Grenzen gehalten.<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Listing 2.4: Einfache zeitlokale Schrittweitensteuerung für Einschrittverfahren (autonome ODE)<br />
1 f u n c t i o n [t,y] =<br />
odeintadapt(Psilow,Psihigh,T,y0,h0,reltol,abstol,hmin)<br />
2 t = 0; y = y0; h = h0; %<br />
2.6<br />
p. 295
3 while ((t(end) < T) (h > hmin)) %<br />
4 yh = Psihigh(h,y0); % ESV hoher Ordnung<br />
5 yH = Psilow(h,y0); % ESV niedriger Ordnung<br />
6 est = norm(yH-yh); %<br />
Numerische<br />
Mathemtik<br />
7<br />
8 i f (est < max(reltol*norm(y0),abstol)) %<br />
9 y0 = yh; y = [y,y0]; h = 1.1*h; % Schritt akzeptiert<br />
10 h = min(h,T-t(end)); t=[t,t+h]; %<br />
11 else, h = h/2; end % Schritt verworfen<br />
12 end<br />
R. Hiptmair<br />
Kommentare zu Code 2.4:<br />
rev 35327,<br />
25. April<br />
2011<br />
• Argumente vonodeintadapt:<br />
–Psilow,Psihigh: Funktionshandles auf diskrete Evolutionen (für autonome ODE)<br />
unterschiedlicher Ordnungen, Typ@(y,h), Zustandsvektor als erstes Argument, Schrittweite<br />
als zweites,<br />
–T: EndzeitpunktT > 0,<br />
2.6<br />
p. 296
–y0: Anfangszustandy 0 ,<br />
–h0: Schrittweiteh 0 für den ersten Zeitschritt<br />
Numerische<br />
Mathemtik<br />
–reltol,abstol: Relative and absolute Toleranzen, siehe oben,<br />
–hmin: minimale Zeitschrittweite, Verfahren bricht ab, fallsh k < h min , was für das Erkennen<br />
von Blow-ups und Kollaps wichtig ist.<br />
• Zeile 3: Überprüfe, ob der Endzeitpunkt erreicht ist oder das Verfahren steckengeblieben ist<br />
(h k < h min ).<br />
• Zeile 4, 5: Propagiere den aktuellen Zustand mit Hilfe beider Einschrittverfahren.<br />
• Zeile 6: Berechne die Norm des geschätzten Fehlers, siehe (2.6.3).<br />
• Zeile 8: Vergleich, um zu entscheiden, ob der aktuelle Schritt akzeptiert oder verworfen werden<br />
sollte.<br />
• Zeile 9, 10: Schritt akzeptiert: Aktualisiere den Zustand und schlage 1.1 mal die aktuelle<br />
Schrittweite für den nächsten Schritt vor.<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
• Zeile 11 Schritt verworfen: Versuche es nochmal mit der halben Zeitschrittweite.<br />
• Rückgabewerte<br />
–t: Zeitgittert 0 < t 1 < t 2 < ... < t N < T , wobeit N < T auf vorzeitigen Abbruch hinweist<br />
(Kollaps, Blow-up),<br />
–y: Folge von Zuständen(y k ) N k=0 .<br />
2.6<br />
p. 297
!<br />
Gemäss unserer Heuristik, siehe (2.6.3), scheint es, dassEST k den Einschrittfehler des Einschrittverfahrens<br />
niedrigerer Ordnung Ψ misst, und dass wir y k+1 = Ψ h ky k , setzen sollten,<br />
wenn der Zeitschritt akzeptiert wird.<br />
Numerische<br />
Mathemtik<br />
Jedoch wäre es ungeschickt, nicht den vermutlich besseren Werty k+1 = ˜Ψ hk y k zu nehmen, zumal<br />
er ohne Zusatzaufwnd verfügbar ist. Jede Implementierung zeitlokaler Schrittweitensteuerung folgt<br />
dieser Idee, also auch Code 2.4, und dieses Vorgehen kann durch steuerungstheoretische Argumente<br />
begründet werden [8, Sect. 5.2], siehe auch die folgende Bem. 2.6.7.<br />
<strong>Beispiel</strong> 2.6.5 (Effizienzgewinn durch Adaptivität). → Ex. 2.6.4<br />
AWP für ODE ẏ = cos(αy) 2 ,α > 0,<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Analytische Lösungy(t) = arctan(α(t−c))/α füry(0) ∈]−π/2,π/2[<br />
Integrationsintervall[0,2], Anfangswert y(0) = 0<br />
2.6<br />
p. 298
Einfache adaptive Strategie aus Code 2.4 mit der lokalen Fehlerschätzung aus Bsp. 2.6.4.<br />
Numerische<br />
Mathemtik<br />
Nun untersuchen wir die Abhängigkeit des Diskretisierungsfehlers vom Rechenaufwand, der proportional<br />
zu der Anzahl der Zeitschritte ist.<br />
0.05<br />
0.045<br />
Solving d t<br />
y = a cos(y) 2 with a = 40.000000 by simple adaptive timestepping<br />
Error vs. no. of timesteps for d t<br />
y = a cos(y) 2 with a = 40.000000<br />
uniform timestep<br />
adaptive timestep<br />
0.04<br />
10 0<br />
0.035<br />
10 −1<br />
y<br />
0.03<br />
0.025<br />
0.02<br />
0.015<br />
max k<br />
|y(t k<br />
)−y k<br />
|<br />
10 −2<br />
10 −3<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
rtol = 0.400000<br />
0.01<br />
rtol = 0.200000<br />
rtol = 0.100000<br />
rtol = 0.050000<br />
0.005<br />
rtol = 0.025000<br />
rtol = 0.012500<br />
rtol = 0.006250<br />
0<br />
0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2<br />
t<br />
Fig. 92<br />
10 1 no. N of timesteps<br />
10 −4<br />
10 −5<br />
10 1 10 2 10 3<br />
Fig. 93<br />
Lösungen(y k ) k für verschiedenertol<br />
Fehler als Funktion des Rechenaufwandes<br />
2.6<br />
p. 299
☞ Adaptive Zeitschrittweitensteuerung erzielt bei vergleichbarem Rechenaufwand wesentlich<br />
bessere Genauigkeit als das gleiche Einschrittverfahren mit uniformer Zeitschrittweite.<br />
Numerische<br />
Mathemtik<br />
✸<br />
Nachteil von Code 2.4: Pauschale Vergrösserung/Verringerung der Schrittweite in Zeilen 9, 11 “verschwendet”<br />
Information enthalten inEST k : TOL.<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Wir wollen mehr ! WennEST k > TOL : Schrittweitenkorrektur t k+1 = ?<br />
WennEST k < TOL : Schrittweitenvorschlag t k+2 = ?<br />
2.6<br />
p. 300
Schrittweitenkorrektur bezieht sich auf verworfenen zu wiederholenden aktuellen Schritt<br />
Schrittweitenvorschlag wird benutzt für den nächsten Schritt<br />
(vgl. Code 2.4)<br />
Numerische<br />
Mathemtik<br />
Falls Ordnung(Ψ) = p, Ordnung(˜Ψ) > p,p ∈ N,<br />
Ziel: Effizienz<br />
Ψ t,t+h y(t k )−Φ t,t+h y(t k ) = ch p+1 +O(h p+2 ) ,<br />
˜Ψ t,t+h h≪1<br />
y(t k )−Φ t,t+h y(t k ) = O(h p+2 ⇒ EST k ≈ ch p+1 ! = TOL .<br />
)<br />
Heuristik!<br />
„Optimale Schrittweite”:<br />
(Schrittweitenvorschlag)<br />
h ∗ = h p+1 √ TOL<br />
EST k<br />
. (2.6.6)<br />
Korrigierte Schrittweite<br />
Schrittweitenvorschlag<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Bemerkung 2.6.7 (Steuerung von ˜Ψ durchΨ). Code 2.4<br />
Bisherige Überlegung: „Schätzung des Fehlers” von ˜Ψ ➣ Steuerung von ˜Ψ<br />
2.6<br />
p. 301
Effizient ?<br />
Genaueres (teureres) Verfahren ˜Ψ wird nur zur Steuerung des ungenaueren Verfahrens<br />
verwendet.<br />
Numerische<br />
Mathemtik<br />
Mit gleichem Aufwand: Integration des AWP mit ˜Ψ gesteuert durchΨ!<br />
So wird es in der Praxis auch gemacht !<br />
Erinnerung an Bsp. 2.6.4:<br />
Euler-Verfahren (Ordnungp = 1) lieferte gute Fehlerschätzung für explizite<br />
Trapezregel (Ordnungp = 2)<br />
Noch eine Heuristik:<br />
EST k > TOL ist ein Hinweis darauf, dass eines der beiden Verfahren Ψ, ˜Ψ Probleme mit der<br />
(lokalen) Approximation der Lösung hat. Eine Verringerung vonh k ist daher angezeigt.<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Mathematische Rechtfertigung: Steuerungstheorie → [8, Sect. 5.2]<br />
△<br />
2.6<br />
p. 302
MATLAB-Implementierung:<br />
Ψ,˜Ψ ˆ= diskrete Evolutionen, Konsistenzordnungp/p+1<br />
t 0 ˆ= Anfangszeitpunkt,T ˆ= Endzeitpunkt<br />
y 0 ˆ= Anfangswert (Spaltenvektor)<br />
reltol,abstol ˆ= absolute/relative Toleranzen<br />
h 0 ,h min ˆ= Schrittweite für 1. Schritt/minimale Schrittweite<br />
Numerische<br />
Mathemtik<br />
ESV mit Schrittweitensteuerung<br />
function [t,y] = ssctrl(Ψ,˜Ψ,t0,T,y0,h0,reltol,abstol,hmin)<br />
t = t0; y = y0; h = h0;<br />
while ((t(end) < T) && (h > hmin))<br />
yh = ˜Ψ(t(end),y(:,end),h);<br />
yH = Ψ(t(end),y(:,end),h);<br />
est = norm(yH-yh);<br />
tol = max(reltol*norm(y(:,end)),abstol);<br />
h = h*max(0.5,min(2,(tol/est)^(1/(p+1))));<br />
if (est < tol)<br />
y = [y,yh]; h = min(h,T-t(end)); t = [t,t(end)+h];<br />
end<br />
end<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
<strong>Beispiel</strong> 2.6.8 (Schrittweitensteuerung für explizite Trapezregel/Euler-Verfahren).<br />
2.6<br />
p. 303
Anfangswertproblem für skalare logistische Dgl, siehe Bsp. 1.2.1<br />
ẏ = λy(1−y) , λ = 20 ➣ y(t) =<br />
y 0<br />
y 0 +(1−y 0 )exp(−λt) .<br />
Numerische<br />
Mathemtik<br />
1.4<br />
Logistic ODE, lambda = 20.000000, y 0<br />
= 0.005000<br />
Einschrittverfahren aus Bsp. 2.6.4, Schrittweitenanpassung<br />
gemäss (2.6.6)<br />
➊ Integration mit explizitem Euler-Verfahren<br />
(1.4.2), Fehlerschätzung (2.6.3) mit<br />
expliziter Trapezregel (2.3.3)<br />
y(t)/y k<br />
1.2<br />
1<br />
0.8<br />
0.6<br />
➋ Integration mit expliziter Trapezregel (2.3.3),<br />
Schrittweitensteuerung mit expliziten Euler-<br />
Verfahren gemäss Bem. 2.6.7<br />
0<br />
Absolute/relative Toleranz =0.005,y 0 = 0.1/λ 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1<br />
0.4<br />
0.2<br />
t<br />
trapezoidal rule<br />
Euler method<br />
exact solution<br />
Fig. 94<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Trapezregel/Euler: 63/62 Schritte, 12 verworfen<br />
2.6<br />
p. 304
10 0 reltol<br />
Adaptive trapezoidal rule<br />
Adaptive Euler method<br />
600<br />
Adaptive trapezoidal rule<br />
Adaptive Euler method<br />
Numerische<br />
Mathemtik<br />
10 −1<br />
500<br />
error<br />
10 −2<br />
10 −3<br />
No. of timesteps<br />
400<br />
300<br />
200<br />
10 −4<br />
100<br />
10 −5<br />
10 −5 10 −4 10 −3 10 −2 10 −1 10 0<br />
Fig. 95<br />
0<br />
10 −5 10 −4 10 −3 10 −2 10 −1 10 0<br />
reltol<br />
Fig. 96<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
In diesem <strong>Beispiel</strong> liefert die Fortführung der Rechnung mit der Näherung aus dem Verfahren höherer<br />
Ordnung ˜Ψ ganz klar die bessere Genauigkeit.<br />
Beobachtung: Fehler max<br />
j<br />
|y(t j )−y j | ist in diesem <strong>Beispiel</strong> gut mit ToleranzTOL korreliert.<br />
✸<br />
2.6<br />
p. 305
<strong>Beispiel</strong> 2.6.9 (“Versagen” adaptive Zeitschrittsteuerung). → Ex. 2.6.5<br />
Numerische<br />
Mathemtik<br />
Gleiche ODE und einfache adaptive Schrittweitensteuerung wie in Bsp. 2.6.5. Ebenfalls gleiche Auswertungen.<br />
Nun: Anfangswert y(0) = −0.0386, vgl. Bsp. 2.6.4.<br />
0.05<br />
0.04<br />
Solving d t<br />
y = a cos(y) 2 with a = 40.000000 by simple adaptive timestepping<br />
Error vs. no. of timesteps for d t<br />
y = a cos(y) 2 with a = 40.000000<br />
uniform timestep<br />
adaptive timestep<br />
10 0 no. N of timesteps<br />
0.03<br />
0.02<br />
10 −1<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
y<br />
0.01<br />
0<br />
−0.01<br />
max k<br />
|y(t k<br />
)−y k<br />
|<br />
−0.02<br />
rtol = 0.400000<br />
−0.03<br />
rtol = 0.200000<br />
rtol = 0.100000<br />
rtol = 0.050000<br />
−0.04<br />
rtol = 0.025000<br />
rtol = 0.012500<br />
rtol = 0.006250<br />
−0.05<br />
0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2<br />
Lösungen(y k ) k für verschiedenertol<br />
t<br />
Fig. 97<br />
10 −2<br />
10 −3<br />
10 1 10 2 10 3<br />
Fig. 98<br />
Fehler als Funktion des Rechenaufwandes<br />
2.6<br />
p. 306
Numerische<br />
Mathemtik<br />
☞ Grösserer Fehler bei adaptiver Schrittweitensteuerung im Vergleich zu uniformer Schrittweite<br />
Erklärung: die Lage der steilen Flanke der Lösung hängt sensitiv vom Anfangswert ab. Daher werden<br />
kleine Einschrittfehler in den ersten Zeitschritten zu grossen Fehlern zur Zeitt ≈ 1 führen. Die lokale<br />
Schrittweitensteuerung hält diese kleinen Einschrittfehler für harmlos und kann daher nichts gegen<br />
die durch sie hervorgerufenen beträchtlichen Diskretisierungsfehler zur späteren Zeiten ausrichten.<br />
Allgemeiner Kontext: Im Falle von schlecht konditionierten Anfangswertproblemen (d.h., die Lösung<br />
hängt sensitiv vom Anfangswert ab, vgl. Sect. 1.3.3.5, “chaotische Systeme”) kann selbst ein winziger<br />
Einschrittfehler, der nur im ersten Schritt passiert, zu einer von der exkaten Lösung völlig abweichenden<br />
diskreten Lösung führen. Für solche Probleme ist allerdings der auf dem Konzept des<br />
Diskretisierungsfehlers aufbauende Genauigkeitsbegriff nicht mehr angemessen, siehe die Diskussion<br />
in Sect. 1.3.3.5.<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
✸<br />
2.6<br />
p. 307
<strong>Beispiel</strong> 2.6.10 (Schrittweitensteuerung und Instabilität).<br />
Anfangswertproblem für skalare logistische Dgl, siehe Bsp. 2.6.8, nunλ = 100<br />
Numerische<br />
Mathemtik<br />
explizites Euler-Verfahren (1.4.2), explizite Trapezregel (2.3.3) mit Schrittweitensteuerung wie<br />
Bsp. 2.6.8<br />
Absolute/relative Toleranz =0.05, Anfangszeitschritt (für adaptive ESV) h = 0.05<br />
3<br />
Logistic ODE, lambda = 100.000000, y 0<br />
= 0.001000, stepsize = 0.050000<br />
1.4<br />
Logistic ODE, lambda = 100.000000, y 0<br />
= 0.001000<br />
2.5<br />
1.2<br />
y(t)/y k<br />
2<br />
1.5<br />
1<br />
0.5<br />
y(t)/y k<br />
1<br />
0.8<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
0<br />
0.6<br />
−0.5<br />
0.4<br />
−1<br />
trapezoidal rule<br />
Euler method<br />
−1.5<br />
exact solution<br />
TR blowup<br />
Euler blorwup<br />
−2<br />
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1<br />
t<br />
Fig. 99<br />
Trapez/Euler: uniforme Zeitschrittweiteh = 0.05<br />
0.2<br />
trapezoidal rule<br />
Euler method<br />
exact solution<br />
0<br />
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1<br />
t<br />
Fig. 100<br />
Trapez/Euler: 119/114 Schritte, 28/42 verworfen<br />
2.6<br />
p. 308
Schrittweitensteuerung verhindert Instabilität, vgl. Bsp. 1.4.9 !<br />
<strong>Beispiel</strong> 2.6.11 (Schrittweitensteuerung und Kollaps).<br />
✸<br />
Numerische<br />
Mathemtik<br />
1<br />
d t<br />
y = −1/<br />
Skalares Anfangswerproblem mit Kollaps, vgl.<br />
Bsp. 1.3.11<br />
ẏ = − 1 √ y<br />
, y(0) = 1<br />
⇒ y(t) = (1−3t/2) 2 /3 .<br />
Schrittweitensteuerung wie Bsp. 2.6.8 , absolute/relative<br />
Toleranz =0.005<br />
y(t)/y k<br />
0.9<br />
0.8<br />
0.7<br />
0.6<br />
0.5<br />
0.4<br />
0.3<br />
0.2<br />
0.1 adaptive trapezoidal rule<br />
adaptive Euler method<br />
exact solution<br />
0<br />
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7<br />
t<br />
Fig. 101<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Schrittweitensteuerung ➣ Verfahren “erkennt” Kollaps der Lösung<br />
✸<br />
2.6<br />
p. 309
<strong>Beispiel</strong> 2.6.12 (Schrittweitensteuerung und Blow-up).<br />
Numerische<br />
Mathemtik<br />
d t<br />
y = y 2 , y 0<br />
= 1.000000<br />
Skalares Anfangswerproblem mit Blow-up, vgl.<br />
Bsp. 1.3.11<br />
100<br />
90<br />
80<br />
70<br />
adaptive trapezoidal rule<br />
adaptive Euler method<br />
exact solution<br />
ẏ = y 2 , y(0) = 1<br />
⇒ y(t) = 1<br />
1−t .<br />
Schrittweitensteuerung wie Bsp. 2.6.8, absolute/relative<br />
Toleranz =0.05<br />
y(t)/y k<br />
60<br />
50<br />
40<br />
30<br />
20<br />
10<br />
R. Hiptmair<br />
0<br />
0 0.2 0.4 0.6 0.8 1 1.2<br />
t<br />
Fig. 102<br />
rev 35327,<br />
25. April<br />
2011<br />
Schrittweitensteuerung ➣ Verfahren “erkennt” Blow-up der Lösung<br />
✸<br />
Bemerkung 2.6.13 (Eingebettete RK-ESV).<br />
2.6<br />
p. 310
Algorithmische Realisierung (ESV):<br />
Eingebettete Runge-Kutta-Verfahren<br />
Gleiche Inkremente k i , verschiedene Gewichte b i<br />
(→ Def 2.3.5) realisieren RK-EvolutionenΨ h , ˜Ψ h<br />
der Ordnungenpundp+1.<br />
c A<br />
b T :=<br />
b<br />
̂ T<br />
c 1 a 11 ··· a 1s<br />
.<br />
.<br />
c s a s1 ··· a ss .<br />
b 1 ··· b s<br />
̂b 1 ··· ̂b s<br />
Eingebettetes RK-ESV: Butcher-Schema<br />
.<br />
Numerische<br />
Mathemtik<br />
Ψ h y = y+h<br />
s∑<br />
b i k i , ˜Ψ h y = y+h<br />
i=1<br />
s∑ ̂b i k i .<br />
i=1<br />
Motivation: Effizienz (Inkrementek i nur einmal zu berechnen, siehe Def. 2.3.5)<br />
Gebräuchlich: p = 4,p = 7<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
△<br />
<strong>Beispiel</strong> 2.6.14 (Eingebettete Runge-Kutta-Verfahren).<br />
→ [17, Sect. II.4]<br />
2.6<br />
p. 311
0<br />
1<br />
3<br />
1<br />
3<br />
1<br />
2<br />
1<br />
3<br />
1 1<br />
6 6<br />
1<br />
8 0 3<br />
8<br />
1<br />
1<br />
2<br />
0 − 3 2 2<br />
y 1<br />
1<br />
6<br />
0 0 2 3 1 6<br />
ŷ 1<br />
1<br />
10<br />
0<br />
3<br />
10<br />
2<br />
5<br />
1<br />
5<br />
Eingebettes RK-Verfahren der Ordnung 3(„4”)<br />
von Merson<br />
0<br />
1<br />
2<br />
1<br />
2<br />
1<br />
2<br />
0<br />
1<br />
2<br />
1 0 0 1<br />
3<br />
4<br />
5<br />
32<br />
7<br />
32 32 13 − 32<br />
1<br />
y 1<br />
1<br />
6<br />
1<br />
3<br />
1<br />
3<br />
1<br />
6<br />
ŷ 1 − 1 7 7 13<br />
2 3 3 6<br />
− 16<br />
3<br />
Eingebettes RK-Verfahren der Ordnung 3(4) von<br />
Zonneveld<br />
Numerische<br />
Mathemtik<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
2.6<br />
p. 312
0<br />
Numerische<br />
Mathemtik<br />
1<br />
5<br />
3<br />
10<br />
4<br />
5<br />
1<br />
5<br />
3 9<br />
40 40<br />
44<br />
45<br />
− 56<br />
15<br />
8 19372<br />
9 6561 −25360 2187<br />
1<br />
9017<br />
3168<br />
− 355<br />
33<br />
1<br />
35<br />
384<br />
0<br />
500<br />
1113<br />
y 1<br />
35<br />
384<br />
0<br />
500<br />
1113<br />
ŷ 1<br />
5179<br />
57600<br />
0<br />
7571<br />
16695<br />
32<br />
9<br />
64448<br />
6561 −212 729<br />
46732 49<br />
5247 176<br />
−18656<br />
5103<br />
125<br />
192<br />
−6784<br />
2187<br />
125<br />
192<br />
−6784<br />
2187<br />
393<br />
640<br />
−339200<br />
92097<br />
11<br />
84<br />
0<br />
11<br />
84<br />
0<br />
187 1<br />
2100 40<br />
DOPRI5: Eingebettes RK-<br />
Verfahren der Ordnung 4(5)<br />
von Dormand & Prince<br />
(MATLABode45)<br />
✸<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Adaptive Integratoren für Anfangswertprobleme in MATLAB:<br />
options = odeset(’abstol’,atol,’reltol’,rtol,’stats’,’on’);<br />
[t,y] = ode45/ode23(@(t,x) f(t,x),tspan,y0,options);<br />
(f = function handle,tspan ˆ= [t 0 ,T],y0 ˆ= y 0 ,t ˆ=t k ,y ˆ=y k )<br />
2.6<br />
p. 313
<strong>Beispiel</strong> 2.6.15 (Adaptive RK-ESV zur Teilchenbahnberechnung). → Bsp. 2.4.19<br />
Numerische<br />
Mathemtik<br />
Bewegung eines geladenen Teilchens im Feld eines geraden Drahtes = Linienladung (konservatives<br />
Zentralfeld, Zentrum ( 0<br />
0<br />
)<br />
, PotentialU(x) := −2log‖x‖): → Bsp. 1.2.25<br />
ÿ = − 2y<br />
‖y‖ 2 ⇒<br />
( ˙ y<br />
v)<br />
=<br />
( ) v<br />
− 2y<br />
‖y‖ 2<br />
, y(0) =<br />
Anfangswert: y(0) = (−1,0,0.1,−0.1), Endzeitpunkt: T = 4<br />
( )<br />
−1<br />
, v(0) =<br />
0<br />
( )<br />
0.1<br />
−0.1<br />
.<br />
Adaptiver Integrator:<br />
ode45(@(t,x) satf,[0 4],[-1;0;0.1;-0.1,],options):<br />
➊ options = odeset(’reltol’,0.001,’abstol’,1e-5);<br />
➋ options = odeset(’reltol’,0.01,’abstol’,1e-3);<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
2.6<br />
p. 314
4<br />
3<br />
abstol = 0.000010, reltol = 0.001000<br />
y 1<br />
(t) (exakt)<br />
y (t) (exakt)<br />
2<br />
v 1<br />
(t) (exakt)<br />
5<br />
abstol = 0.000010, reltol = 0.001000<br />
y (t ) (Naeherung)<br />
1 k<br />
y 2<br />
(t k<br />
) (Naeherung)<br />
v (t ) (Naeherung)<br />
1 k<br />
0.2<br />
Numerische<br />
Mathemtik<br />
2<br />
v 2<br />
(t) (exakt)<br />
v 2<br />
(t k<br />
) (Naeherung)<br />
1<br />
0<br />
−1<br />
−2<br />
−3<br />
−4<br />
0 0.5 1 1.5 2 2.5 3 3.5 4<br />
t<br />
y i<br />
(t)<br />
0<br />
−5<br />
0 0.5 1 1.5 2 2.5 3 3.5 4<br />
t<br />
0 0.5 1 1.5 2 2.5 3 3.5 4 0 0.1<br />
Zeitschrittweite<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
2.6<br />
p. 315
4<br />
3<br />
abstol = 0.001000, reltol = 0.010000<br />
y 1<br />
(t) (exakt)<br />
y (t) (exakt)<br />
2<br />
v 1<br />
(t) (exakt)<br />
5<br />
abstol = 0.001000, reltol = 0.010000<br />
y (t ) (Naeherung)<br />
1 k<br />
y 2<br />
(t k<br />
) (Naeherung)<br />
v (t ) (Naeherung)<br />
1 k<br />
0.2<br />
Numerische<br />
Mathemtik<br />
2<br />
v 2<br />
(t) (exakt)<br />
v 2<br />
(t k<br />
) (Naeherung)<br />
1<br />
0<br />
−1<br />
−2<br />
−3<br />
−4<br />
0 0.5 1 1.5 2 2.5 3 3.5 4<br />
t<br />
y i<br />
(t)<br />
0<br />
−5<br />
0 0.5 1 1.5 2 2.5 3 3.5 4<br />
t<br />
0 0.5 1 1.5 2 2.5 3 3.5 4 0 0.1<br />
Zeitschrittweite<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
2.6<br />
p. 316
0.8<br />
0.6<br />
0.8<br />
0.6<br />
Numerische<br />
Mathemtik<br />
0.4<br />
0.4<br />
0.2<br />
0.2<br />
0<br />
0<br />
y 2<br />
−0.2<br />
y 2<br />
−0.2<br />
−0.4<br />
−0.4<br />
−0.6<br />
−0.6<br />
−0.8<br />
Exakte Bahn<br />
Naeherung<br />
−1<br />
−1 −0.5 0 0.5 1<br />
y 1<br />
−0.8<br />
Exakte Bahn<br />
Naeherung<br />
−1<br />
−1 −0.5 0 0.5 1<br />
y 1<br />
reltol=0.001, abstol=1e-5<br />
reltol=0.01, abstol=1e-3<br />
☞ Qualitativ falsche Lösung bei geringfügig erniedrigter Toleranz !<br />
<strong>Beispiel</strong> 2.6.16 (Schrittweitensteuerung für Bewegungsgleichungen). → Bsp. 2.4.19<br />
✸<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
2.6<br />
p. 317
AWP aus Bsp. 2.4.19<br />
ode45 mit verschiedenen absoluten/relativen Toleranzen<br />
Im Gegensatz zu Bsp. 2.6.8:<br />
!<br />
Toleranzen sagen nichts über globalen Fehler<br />
Erklärung: wie in Bsp. 2.6.9 liegt ein schlecht konditioniertes<br />
AWP vor, was den Einfluss von Einschrittfehlern<br />
auf den Diskretisierungsfehler unkalkulierbar<br />
macht.<br />
Fehler |y h<br />
(4)−y(4)|<br />
10 1<br />
10 0<br />
10 −1<br />
10 −2<br />
10 −3<br />
rtol = atol^(1/2)<br />
rtol=atol^(2/3)<br />
rtol=10*atol<br />
10 −4<br />
10 −6 10 −5 10 −4 10 −3 10 −2 10 −1<br />
10 2 (Absolute) Toleranz<br />
Numerische<br />
Mathemtik<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
2.6<br />
p. 318
10 0<br />
RK4 äquidistant<br />
ode45 adaptiv<br />
Effizienz von Schrittweitensteuerung:<br />
Vergleich:<br />
Numerische<br />
Mathemtik<br />
Fehler |y h<br />
(4)−y(4)|<br />
10 2 Anzahl f−Auswertungen<br />
10 −2<br />
10 −4<br />
10 −6<br />
10 −8<br />
10 −10<br />
10 1 10 2 10 3 10 4 10 5 10 6<br />
• Klassisches Runge-Kutta-Verfahren (2.3.11)<br />
• Eingebettetes Runge-Kutta-Verfahren mit<br />
Schrittweitensteuerung: ode45<br />
Aufwandsmass: ♯f-Auswertungen<br />
Adaptivität zahlt sich aus !<br />
✸<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
2.6<br />
p. 319
Numerische<br />
Mathemtik<br />
3 Stabilität [8, Kap. 6]<br />
<strong>Beispiel</strong> 3.0.1 (Ineffizienz expliziter Runge-Kutta-Verfahren). → Bsp. 1.4.9, 1.4.15<br />
Logistische Differentialgleichung ẏ = f(y), f(y) = λy(1 − y) → (2.2.84), λ = 50, Anfangswert<br />
y 0 = 0.1, Zeitintervall[0,1]:<br />
• Integratoren: Implizites Euler-Verfahren (1.4.13), klassisches Runge-Kutta-Verfahren (2.3.11)<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
• uniforme Zeitschrittweiteh = 1/N,N ∈ N<br />
• Fehlermass:<br />
err = max k |y k −y(t k )|,k = 1,...,N<br />
3.0<br />
p. 320
1.2<br />
1<br />
10 1<br />
10 0<br />
10 −1<br />
10 −2<br />
timestep h<br />
Numerische<br />
Mathemtik<br />
y<br />
0.8<br />
0.6<br />
0.4<br />
∞−error<br />
10 −3<br />
10 −4<br />
10 −5<br />
10 −6<br />
0.2<br />
y(t)<br />
Implicit Euler<br />
RK4<br />
0<br />
0 0.2 0.4 0.6 0.8 1<br />
t<br />
Fig. 103<br />
(Approximative) Lösungen fürN = 30<br />
10 −7<br />
10 −8<br />
implicit Euler<br />
RK4<br />
blow−up<br />
10 −4 10 −3 10 −2 10 −1 10 0<br />
Fig. 104<br />
Fehler gegen Schrittweite (doppeltlogarithmisch)<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
Beobachtung:<br />
RK4 asymptotisch genauer als implizites Euler-Verfahren<br />
RK4 präasymptotisch (fürh > 0.02) unbrauchbar (Instabilität)<br />
✸<br />
3.0<br />
p. 321
Überlegung: Linearisierung um Fixpunkt, siehe Bem. 1.3.19<br />
Numerische<br />
Mathemtik<br />
3.1 Modellproblemanalyse<br />
Überlegung zu Bsp. 3.0.1: In der Umgebung eines Fixpunktes verhalten sich die Lösungen einer<br />
(vorläufig skalaren) ODE wie die ihrer Linearisierung.<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
➣ Relevanz der (um einen Fixpunkt) linearisierten ODE: Numerischer Integrator ist nur dann für die<br />
Lösung der ODE in der Nähe des Fixpunktes geeignet, wenn er sich zumindest für die linearisierte<br />
ODE bewährt.<br />
Lineare autonome skalare ODE sind einfach:<br />
ẏ = λy (bis auf Translation)<br />
3.1<br />
p. 322
In diesem Abschnitt untersuchen wir das Verhalten numerischer Integratoren für solche einfachen<br />
ODEs<br />
Numerische<br />
Mathemtik<br />
Nichts Neues! Erinnerung an Abschnitt 1.4.1: Einsichten in das Verhalten des expliziten<br />
Euler-Verfahrens (1.4.2) durch Modellproblemanalyse, d.h., analytische Untersuchung der<br />
diskreten Evolution für die skalare lineare ODEẏ = λy,λ ∈ C.<br />
Autonomes skalares lineares AWP: ẏ = λy, y(0) = 1, Reλ < 0 auf[0,∞[ (3.1.1)<br />
y(t) = e λt → 0 fürt → ∞ (sog. Asymptotische Stabilität vony = 0) .<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
Beachte: komplexesλ ∈ C im Modellproblem zugelassen ➢ komplexer ZustandsraumC<br />
(Grund: „Diagonalisierungstechnik” für lineare, autonome AWP, Sect. 1.3.2, vgl.<br />
Bem. 3.1.13)<br />
Frage:<br />
Wann „erbt” Lösung {y k } ∞ k=0 , y k+1 = Ψ h λ y k (Ψh λ<br />
ˆ= diskrete Evolution) aus RK-ESV auf<br />
(unendlichem) äquidistantem Gitter (Maschenweiteh) asymptotische Stabilität ?<br />
3.1<br />
p. 323
Dies ist eine Frage nach Strukturerhaltung: Übereinstimmung von qualitativen Eigenschaften der kontinuierlichen<br />
und diskreten Evolution.<br />
Numerische<br />
Mathemtik<br />
Bemerkung 3.1.2 (Reskalierung des Modellproblems).<br />
Beachte: Anwendung eines linearen Operators auf R ↔ Multiplikation mit reeller Zahl<br />
L(R,R) ∼ = R<br />
✎ Notation: L(R,R) ˆ= Raum linearer Operatoren aufR<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
Da AWP (3.1.1) autonom & skalar ➢ Φ h λ ∈ L(R,R)<br />
➢<br />
Anwendung vonΦ h λ<br />
auf Zustandy ∈ C∼Multiplikation<br />
➢<br />
(h,λ) ↦→ Φ h λ<br />
beschreibbar durch FunktionR×C ↦→ C<br />
Welche Funktion ist das?<br />
Φ h λ (y) = eλh y ∀y ∈ R ⇒ Funktion (h,λ) ↦→ e λh .<br />
3.1<br />
p. 324
Φ h λ = Φλh 1 ⇒ Funktion hängt nur von Produktλh ab. (3.1.3)<br />
Numerische<br />
Mathemtik<br />
Auch für die diskrete Evolution eines Runge-Kutta-Einschrittverfahrens giltΨ h λ ∈ L(R,R)<br />
(h,λ) ↦→ Ψ h λ<br />
ebenfalls beschreibbar durch FunktionR×C ↦→ C<br />
Naheliegende Frage:<br />
Gilt die Zeitskalierungsinvarianz (3.1.3) auch fürΨ h λ<br />
, d.h. gilt<br />
Ψ h λ = Ψλh 1 ∀λ ∈ C, h hinreichend klein ?<br />
Die Zeitskalierungsinvarianz (3.1.3) ist für Runge-Kutta-Einschrittverfahren (→ Def. 2.3.5) erfüllt, wie<br />
durch einfaches Nachrechnen bestätigt werden kann! (h undλgehen in die Inkrementgleichung des<br />
RK-ESV für (3.1.1) nur in Form des Produktshλ ein, siehe Beweis zu Thm. 3.1.6.)<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
Ψ h λ = Ψλh 1 hängt nur vonz := λh ab: S(z) :=<br />
Ψ h λ<br />
Stabilitätsfunktion<br />
interpretiert als Zahl<br />
△<br />
3.1<br />
p. 325
Was sagt uns diese Stabilitätsfunktion über die qualitative Asymptotik der diskreten Lösung ?<br />
Diskrete Lösung: y k = S(z) k y 0 , k ∈ N 0 , z := λh .<br />
Numerische<br />
Mathemtik<br />
➥<br />
|S(z)| < 1 ⇔ lim<br />
k→∞ y k = 0 ∀y 0 ∈ R<br />
⇔ y = 0 asymptotisch stabil (→ Def. 3.2.2) für diskrete Evolution Ψ h λ .<br />
Definition 3.1.4 (Stabilitätsgebiet eines Einschrittverfahrens). [8, Sect. 6.1.2]<br />
Das Stabilitätsgebiet eines ESV für das AWP (3.1.1) auf der Grundlage der diskreten Evolution<br />
Ψ h λ y =: S(z)y,y ∈ C,z := λh,S : D S ⊂ C ↦→ C, ist<br />
S Ψ := {z ∈ D S : |S(z)| < 1} ⊂ C .<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
☞<br />
Für von RK-ESV zu AWP (3.1.1) erzeugte Gitterfunktion {y k } k∈N auf äquidistantem Zeitgitter<br />
mit Maschenweiteh > 0 gilt<br />
y 0 ≠ 0: lim<br />
k→∞ y k = 0 ⇔ lim<br />
k→∞ S(hλ)k = 0 ⇔ hλ ∈ S Ψ . (3.1.5)<br />
3.1<br />
p. 326
Numerische<br />
Mathemtik<br />
✬<br />
✩<br />
Theorem 3.1.6 (Stabilitätsfunktion von Runge-Kutta-Verfahren).<br />
Die diskrete Evolution Ψ h λ<br />
zu einem s-stufigen Runge-Kutta-Einschrittverfahren (→ Def. 2.3.5)<br />
mit Butcher-Schema c A bT (siehe (2.3.6)) für die ODE ẏ = λy ist ein Multiplikationsoperator<br />
der Form<br />
✫<br />
Ψ h λ = 1+zbT (I−zA) −1 1<br />
} {{ }<br />
Stabilitätsfunktion S(z)<br />
= det(I−zA+z1bT )<br />
det(I−zA)<br />
, z := λh , 1 = (1,...,1) T ∈ R s .<br />
✪<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
Bemerkung 3.1.7 (Interpretation der Stabilitätsfunktion).<br />
Ψ h λ y = S(z)y = (1+λhbT (I−λhA) −1 1)y<br />
Φ h λ = eλh<br />
Diskrete Evolution<br />
(Kontinuierliche) Evolution<br />
➣<br />
S(z) ≈ exp(z): Stabilitätsfunktion = Approximation der Exponentialfunktion (um0).<br />
△<br />
3.1<br />
p. 327
✬<br />
✩<br />
Korollar 3.1.8.<br />
✫<br />
Explizite Runge-Kutta-Verfahren ➤ S(z) ∈ P s ,<br />
Allgemeine Runge-Kutta-Verfahren<br />
➤ S(z) = P(z)<br />
Q(z) ,P,Q ∈ P s.<br />
✪<br />
Numerische<br />
Mathemtik<br />
Beweis. Aus der Determinantenformel von Thm. 3.1.6:<br />
Explizite Runge-Kutta-Verfahren ⇒ A echte untere Dreiecksmatrix ⇒ det(I−zA) = 1<br />
Allgemein istz ↦→ det(I−zM),M ∈ R s,s , ein Polynom vom Grads, wie aus der kombinatorischen<br />
Definition der Determinante folgt.<br />
✷<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
Korollar (3.1.8) ➣ Kein RK-ESV kann ẏ = λy bei vorgegebener Schrittweite h für alle λ ∈ R<br />
ohne Fehler lösen, denn die Exponentialfunktion (→ Bem. 3.1.7) lässt sich natürlich durch keine<br />
rationale Funktion modellieren.<br />
Korollar (3.1.8) ➣ Ordnungsschranken für explizite/implizite RK-ESV, siehe Sect. 2.3.2<br />
3.1<br />
p. 328
✬<br />
✩<br />
Lemma 3.1.9 (Rationale Approximation der Exponentialfunktion).<br />
IstS(z) = P(z)<br />
Q(z) ,P,Q ∈ P s,s ∈ N, so gilt<br />
Numerische<br />
Mathemtik<br />
S(z)−exp(z) = O(|z| m ) fürz → 0 ⇒ m ≤ 2s+1 .<br />
✫<br />
✪<br />
Beweis: (→ [8, Lemma 6.4], doch der dortige Beweis ist falsch!)<br />
Indirekte Beweisführung, Annahme S(z)−exp(z) = O(|z| 2s+2 ) fürz → 0:<br />
Ansatz:<br />
P(z) = p 0 +p 1 z +···+p s z s ,<br />
Q(z) = q 0 +q 1 z +···+q s z s , q 0 = 1, da O.B.d.AQ(0) = 1 .<br />
Q(z)exp(z)−P(z) = α 2s+2 z 2s+2 +α 2s+3 z 2s+3 +... (global konvergente Potenzreihe) .<br />
Einsetzen der Exponentialreihe und Multiplikation, dann Koeffizientenvergleich ➢ lineares Gleichungssystem<br />
s∑<br />
j=0<br />
q j<br />
1<br />
(i−j)! = 0 , i = s+1,...,2s+1 .<br />
s∑<br />
j=0<br />
q j<br />
1<br />
(i−j)! −p i = 0 , i = 0,...,s .<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
3.1<br />
p. 329
Dieses hat nur die triviale Lösung, was auf einen Widerspruch zuq 0 = 1 führt.<br />
<strong>Beispiel</strong> 3.1.10 (Stabilitätsfunktionen einiger RK-ESV).<br />
✷<br />
Numerische<br />
Mathemtik<br />
• Explizites Euler-Verfahren (1.4.2):<br />
0 0<br />
1<br />
➣ S(z) = 1+z .<br />
• Implizites Eulerverfahren (1.4.13):<br />
1 1<br />
1<br />
➣ S(z) = 1<br />
1−z .<br />
R. Hiptmair<br />
• Explizite Trapezregel (2.3.3):<br />
0 0 0<br />
1 1 0<br />
1<br />
2 1 2<br />
➣ S(z) = 1+z + 1 2 z2 .<br />
rev 35327,<br />
24. Juni<br />
2011<br />
• Implizite Mittelpunktsregel (2.2.19): 1<br />
2<br />
1<br />
21 ➣ S(z) = 1+ 1 2 z<br />
1− 1 2 z .<br />
3.1<br />
p. 330
• RK4-Verfahren (2.3.11):<br />
0 0 0 0 0<br />
1<br />
2<br />
1<br />
2<br />
0 0 0<br />
1<br />
2<br />
0 1 2 0 0<br />
1 0 0 1 0<br />
1<br />
6 2 6 2 6 1 6<br />
➣ S(z) = 1+z + 1 2 z2 + 1 6 z3 + 1<br />
24 z4 .<br />
Numerische<br />
Mathemtik<br />
✸<br />
<strong>Beispiel</strong> 3.1.11 (Verhalten von Stabilitätsfunktionen).<br />
Verhalten von Stabilitätsfunktionen<br />
(für reelles Argumentz):<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
Bem. 3.1.7 ➣ wir erwarten, dass sich die Stabilitätsfunktionen in z = 0 an exp(z) “anschmiegen”,<br />
d.h., beiden Funktionen stimmen im Werte und einigen niedrigsten Ableitungen überein. Die<br />
Mindestzahl der übereinstimmenden Ableitungen ist gegeben durch die Konsistenzordnung des Einschrittverfahrens.<br />
3.1<br />
p. 331
60<br />
50<br />
40<br />
30<br />
exp(z)<br />
Explicit Euler<br />
Classical RK4<br />
Implicit Euler<br />
Gauss−coll.−RK−ESV s=1<br />
Gauss−coll.−RK−ESV s=2<br />
Gauss−coll.−RK−ESV s=3<br />
Gauss−coll.−RK−ESV s=4<br />
4<br />
3.5<br />
3<br />
2.5<br />
exp(z)<br />
Explicit Euler<br />
Classical RK4<br />
Implicit Euler<br />
Gauss−coll.−RK−ESV s=1<br />
Gauss−coll.−RK−ESV s=2<br />
Gauss−coll.−RK−ESV s=3<br />
Gauss−coll.−RK−ESV s=4<br />
Numerische<br />
Mathemtik<br />
Re(S(z))<br />
20<br />
Re(S(z))<br />
2<br />
10<br />
1.5<br />
0<br />
1<br />
−10<br />
0.5<br />
−20<br />
−5 0 5<br />
z<br />
Fig. 105<br />
0<br />
−1 −0.5 0 0.5 1<br />
z<br />
Fig. 106<br />
✸<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
<strong>Beispiel</strong>e: StabilitätsgebieteS expliziter RK-ESV:<br />
3.1<br />
p. 332
2.5<br />
3<br />
3<br />
2<br />
1.5<br />
2<br />
2<br />
Numerische<br />
Mathemtik<br />
1<br />
1<br />
1<br />
0.5<br />
Im<br />
0<br />
Im<br />
0<br />
Im<br />
0<br />
−0.5<br />
−1<br />
−1<br />
−1<br />
−1.5<br />
−2<br />
−2<br />
−2<br />
−2.5<br />
−3 −2 −1 0 1<br />
Fig.<br />
2<br />
1073<br />
Re<br />
S Ψ : expliziter Euler (2.2.1)<br />
✗<br />
✖<br />
−3<br />
Fig. 108<br />
−3 −2 −1 0 1 2 3<br />
Re<br />
S Ψ : explizite Trapezregel<br />
Mittelpunktsregel<br />
−3<br />
S Ψ :<br />
Das Stabilitätsgebiet expliziter RK-Verfahren ist beschränkt !<br />
Fig. 109<br />
−3 −2 −1 0 1 2 3<br />
Re<br />
RK4-Verfahren (2.3.11)<br />
Kuttas 3/8-Regel (2.3.12)<br />
✔<br />
✕<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
3.1<br />
p. 333
3<br />
2<br />
*<br />
λ<br />
Stabilitätsbedingte Schrittweitenbeschrän-<br />
Numerische<br />
Mathemtik<br />
kung für explizite RK-ESV angewandt auf<br />
1<br />
λh ∋<br />
(3.1.1):<br />
Im<br />
0<br />
h < sup{t > 0: tλ ∈ S Ψ } . (3.1.12)<br />
−1<br />
−2<br />
Für eine detailliertere Betrachtung siehe [8, Lemma<br />
6.6]<br />
−3<br />
−3 −2 −1 0 1 2 3<br />
Re<br />
Bemerkung 3.1.13 (RK-ESV für autonome homogene lineare ODE). siehe Sect. 1.3.2<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
Was ist die Diskrete Evolution eines RK-ESV angewandt auf<br />
homogene, autonome, lineare ODE ẏ = Ay, A ∈ C d,d ?<br />
3.1<br />
p. 334
➀ Annahme: A diagonalisierbar ⇔ ∃S ∈ C d,d regulär: S −1 AS = D := diag(λ 1 ,...,λ d )<br />
Numerische<br />
Mathemtik<br />
Folgerung aus Affin-Kovarianz von RK-ESV (→ Bem. 2.3.13):<br />
Ist ̂Ψ die diskrete Evolution zu d dtŷ = Dŷ (entkoppelte skalare lineare ODE !), dann, mitŷ := S−1 y,<br />
Ψ h y (2.3.14)<br />
= ŜΨ h S −1 y = S<br />
⎛<br />
P(hλ 1)<br />
= S⎝ . ..<br />
⎛<br />
̂Ψ h ⎞ ⎛<br />
λ ŷ<br />
⎜ 1 1<br />
⎟<br />
S(hλ 1)<br />
⎝ . ⎠ = S⎝ . ..<br />
̂Ψ h λ ŷ<br />
d<br />
d<br />
⎞ ⎛ ⎛<br />
⎠S −1 ⎝S<br />
Q(hλ 1)<br />
⎝ . ..<br />
P(hλ d )<br />
⎞<br />
⎠ŷ<br />
S(hλ d )<br />
⎞ ⎞<br />
⎠S −1 ⎠<br />
Q(hλ d )<br />
= SP(hD)S −1( SQ(hD)S −1) −1<br />
y = P(hA)Q(hA) −1 y = S(hA)y .<br />
−1<br />
y<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
wobeiS(z) = P(z)/Q(z) ˆ= Stabilitätsfunktion (→ Thm. 3.1.6) des RK-ESV.<br />
➁<br />
Allgemeine MatrixA ∈ C d,d mit Eigenwerten (mit Vielfachheit gezählt)λ 1 ,...,λ d ∈ C<br />
3.1<br />
p. 335
Hilfsmittel:<br />
Schur-Zerlegung<br />
Numerische<br />
Mathemtik<br />
✬<br />
✩<br />
Lemma 3.1.14 (Schur-Zerlegung). Zu jeder Matrix A ∈ C d,d existiert eine unitäre Matrix U ∈<br />
C d,d und eine obere DreiecksmatrixT ∈ C d,d so, dass<br />
A = UTU H .<br />
✫<br />
✪<br />
Aus der Schur-Zerlegung für Matrizen folgt, dass die diagonalisierbaren Matrizen inC d,d dicht liegen<br />
(bzgl. der von der Euklidischen Norm induzierten Matrixnorm): addiere zu T eine DiagonalmatrixD<br />
mit beliebig kleinen Diagonaleinträgen so, dass T + D paarweise verschiedene Diagonaleinträge<br />
hat. Dann ist U(T + D)U H diagonalisierbar, denn auch diese Matrix hat parrweise verschiedene<br />
Eigenwerte.<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
➣ Ist σ(hA) ⊂ D S , dann gibt es also eine Folge diagonalisierbarer Matrizen A n → A, n ∈ N,<br />
σ(hA n ) ⊂ D S , für die offensichtlich infolge der Stetigkeit der Matrixmultiplikation gilt<br />
P(hA n ) → P(hA) , Q(hA n ) → Q(hA) .<br />
3.1<br />
p. 336
Wegen der Stetigkeit der Matrixinversion A ↦→ A −1 auf GL(d) := {M ∈ C d,d : M regulär} folgt<br />
damit<br />
Numerische<br />
Mathemtik<br />
S(hA n ) = P(hA n )Q(hA n ) −1 → P(hA)Q(hA) −1 = S(hA) . (3.1.15)<br />
Ist nunΨ h n die diskrete Evolution zuẏ = A ny, so gilt<br />
Ψ h y = lim<br />
n→∞ Ψh ny = ➀ lim<br />
n→∞ S(hA n)y (3.1.15)<br />
= S(hA) .<br />
Ψ h y =<br />
Stabilitätsfunktion<br />
S(hA)y ∀y ∈ C d . (3.1.16)<br />
△<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
Bemerkung 3.1.17 (Funktionenkalkül für Matrizen).<br />
FürA ∈ R d,d :<br />
3.1<br />
p. 337
Klar ist p(A) =<br />
s∑<br />
c j A j ∑<br />
für Polynomp ∈ P s ,p(z) = s<br />
j=1<br />
Für rationale Funktion<br />
s∑<br />
falls<br />
s∑<br />
j=1<br />
R(z) =<br />
j=1<br />
s∑<br />
j=1<br />
p j z j<br />
q j A j invertierbar.<br />
Istf(z) = ∞ ∑<br />
i=0<br />
q j z j R(A) =<br />
⎛<br />
⎝<br />
s∑<br />
j=1<br />
j=1<br />
q j A j ⎞<br />
⎠−1 ⎛ ⎝<br />
c j z j .<br />
s∑<br />
j=1<br />
a j z j eine Potenzreihe mit Konvergenzradiusρ > 0, so ist<br />
f(A) :=<br />
∞∑<br />
a j A j wohldefiniert für ‖A‖ < ρ .<br />
p j A j ⎞<br />
⎠ , (3.1.18)<br />
i=0<br />
So lassen sich transzendente Funktionen von Matrizen, wie etwa die Matrixexponentialfunktion<br />
(1.3.14) definieren.<br />
Numerische<br />
Mathemtik<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
Für alle oben eingeführten Matrixfunktionen gilt, vgl. 1.3.15,<br />
A = S −1 BS ⇒ f(A) = S −1 f(B)S ∀A,B ∈ C d,d , S ∈ C d,d regulär . (3.1.19)<br />
3.1<br />
p. 338
Für das Spektrum gilt<br />
σ(f(A)) = f(σ(A)) := {f(λ): λ ∈ σ(A)} . (3.1.20)<br />
Numerische<br />
Mathemtik<br />
△<br />
3.2 Vererbung asymptotischer Stabilität<br />
3.2.1 Attraktive Fixpunkte<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
Betrachte: Autonomes AWP ẏ = f(y), f ∈ C 1 (D,R d ),D ⊂ R d offen.<br />
Definition 3.2.1 (Fixpunkt).<br />
y ∗ ist Fixpunkt (stationärer Punkt) vonẏ = f(y), falls f(y ∗ ) = 0.<br />
3.2<br />
p. 339
Die Begriffsbildung ist klar:<br />
eine Fixpunkt repräsentiert einen Zustand, der sich während der Evolution<br />
nicht ändert:<br />
y(0) = y ∗ ⇒ y(t) = y ∗ ∀t ∈ R .<br />
Numerische<br />
Mathemtik<br />
Definition 3.2.2 (Asymptotische Stabilität eines Fixpunkts). → [8, Def. 3.19]<br />
Fixpunkty ∗ ∈ D asymptotisch stabil (attraktiv)<br />
:⇔ ∃δ > 0: ‖y 0 −y ∗ ‖ < δ ⇒ R + 0 ⊂ J(y 0) ∧ lim<br />
t→∞ y(t) = y∗ ,<br />
wobeiy(t) Lösung des AWP ẏ = f(y),y(0) = y 0 .<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
Erinnerung an Def. 1.3.1:<br />
J(y 0 ) ˆ= maximales Existenzintervall der Lösung einer autonomen Differentialgleichung<br />
zum Anfangswerty 0 .<br />
“Asymptotische Stabilität” in Worten: Ein Fixpunktzustand y ∗ ist asymptotisch stabil/attraktiv, wenn<br />
alle Lösungskurven, die hinreiched nahe bei ihm starten gegeny ∗ konvergieren.<br />
3.2<br />
p. 340
Das folgende <strong>Beispiel</strong> vermittelt eine bildliche Vorstellung:<br />
Numerische<br />
Mathemtik<br />
<strong>Beispiel</strong> 3.2.3 (Attraktive und repulsive Fixpunkte einer skalaren ODE).<br />
2<br />
d t<br />
y = −y(1−y)(1+y)<br />
Lösungskurven der ODE<br />
ẏ = −y(1−y)(1+y)<br />
y ∗ = 0 ist asymptotisch stabiler (attraktiver) Fixpunkt,<br />
y ∗ = ±1 sind instabile (repulsive) Fixpunkte<br />
(→ Bsp. 1.2.1)<br />
✄<br />
y(t)<br />
1.5<br />
1<br />
0.5<br />
0<br />
−0.5<br />
−1<br />
−1.5<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
−2<br />
0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2<br />
t<br />
Fig. 110 ✸<br />
3.2<br />
p. 341
✬<br />
✩<br />
Theorem 3.2.4 (Hinreichende Bedingung für asymptotische Stabilität).<br />
Fixpunkty ∗ ∈ D ist asymptotisch stabil, falls<br />
Numerische<br />
Mathemtik<br />
σ(Df(y ∗ )) ⊂ C − := {z ∈ C: Rez < 0} .<br />
✫<br />
✪<br />
✎ Notation: σ(A) := {λ : λ ist Eigenwert vonA} ˆ= Spektrum einer Matrix<br />
Hilfsmittel: Matrixexponentialfunktion (1.3.14), Jordan-Normalform vonA ∈ C d,d :<br />
∃S ∈ C d,d regulär: S −1 AS = diag(J 1 ,...,J m ) ,<br />
mit Jordan-Blöcken der Form (λ ∈ σ(A))<br />
⎛ ⎞<br />
λ 1 0 ... ... 0<br />
0 λ 1 0 .<br />
J k =<br />
⎜<br />
... ...<br />
⎟ = λI+N k ∈ C d k,d k , d k ∈ {1,...,d} .<br />
⎝ λ 1⎠ λ<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
3.2<br />
p. 342
N k ∈ C d k,d k sind nilpotente Matrizen: N<br />
d k = 0<br />
Numerische<br />
Mathemtik<br />
Wegen (1.3.15) genügt esexp(J) für einen generischen Jordan-BlockJ ∈ C n,n zu betrachten.<br />
Verwende: A,B ∈ R n,n : AB = BA ⇒ exp(A+B) = exp(A)·exp(B) . (3.2.5)<br />
exp(tJ) = exp(tλI+λN k ) = exp(tλI)exp(tN k ) = e λt exp(tN k ) .<br />
Beachte:<br />
exp(tN) ist ein Polynom in t, wenn N nilpotent (Exponentialreihe bricht nach endlich<br />
vielen Gliedern ab). Also finden wir<br />
exp(At) = Sexp(Dt)P(t)S −1 , D = diag(λ 1 ,...,λ d ) ,<br />
mit einem Matrixpolynom P vom Grad < d, λ 1 ,...,λ d ˆ= Eigenwerte von A (mit Vielfachheit gezählt).<br />
‖exp(At)‖ ≤ ‖S‖<br />
∥<br />
∥S −1∥ ∥ ∥‖exp(Dt)‖·‖Matrixpolynom int‖ ,<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
wobeiDdie Diagonalmatrix der Eigenwerte vonAist. Wegen<br />
∀λ ∈ R: ∀β > λ: ∀p ∈ P n : ∃C = C(λ,β,p): e λt p(t) ≤ Ce βt ∀t ∈ R .<br />
schliessen wir:<br />
‖exp(At)‖ ≤ Ce βt für jedesβ > max{Reσ(A)}.<br />
Beweis. (von Thm.3.2.4) → [8, Satz 3.30], O.B.d.A. y ∗ = 0<br />
3.2<br />
p. 343
Linearisierung, siehe Bem. 1.3.19:<br />
f(y) = Df(0)y+r(y) , ‖r(y)‖ = o(‖y‖) füry → 0 .<br />
y(t) ˆ= Lösung des AWP zu Anfangswert y 0 , t ∈ J(y 0 ). Variation-der-Konstanten-Formel, siehe<br />
Sect. 1.3.2:<br />
∫ t<br />
y(t) = exp(Df(0)t)y 0 +<br />
0<br />
Mit Hilfe der Jordan-Normalform, siehe oben:<br />
exp(Df(0)(t−τ))r(y(τ))dτ . (3.2.6)<br />
Numerische<br />
Mathemtik<br />
∀β ∈]max{Reλ : λ ∈ σ(Df(0))} ,0[: ∃C = C(β) > 0: ‖exp(Df(0)t)‖ ≤ Ce βt ∀t ∈ R .<br />
} {{ }<br />
0. Dazu gibt esǫ > 0:<br />
‖r(y)‖ ≤ |β|<br />
2C<br />
Annahme: ‖y(t)‖ < ǫ für0 < t < δ. Damit für0 ≤ t < δ aus (3.2.6)<br />
Benutze:<br />
‖y(t)‖ ≤ Ce βt ‖y 0 ‖+ |β|<br />
2<br />
∫ t<br />
e |β|t ‖y(t)‖ ≤ C‖y 0 ‖+ |β|<br />
2<br />
0<br />
e β(t−τ) ‖y(τ)‖ dτ ,<br />
Gronwalls Lemma (Lemma 1.3.29) füru(t) := e |β|t ‖y(t)‖<br />
‖y(t)‖ ≤ C‖y 0 ‖exp(− |β|<br />
‖y‖, wenn‖y‖ < ǫ<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
∫ t<br />
e |β|τ ‖y(τ)‖ dτ<br />
0<br />
2 t) ∀0 ≤ t < δ . (3.2.7) 3.2<br />
p. 344
Nun sieht man, dass die Annahme‖y(t)‖ < ǫ erfüllt ist, wenn‖y 0 ‖ <<br />
ǫ<br />
max{C,1} .<br />
Numerische<br />
Mathemtik<br />
Unter dieser Bedingung gilt (3.2.7) für allet ≥ 0 und auch R + 0 ⊂ J(y 0) mit Thm. 1.3.4.<br />
✷<br />
✬<br />
Asymptotische Stabilität eines Fixpunktes y ∗ folgt aus der asymptotischen Stabilität des Fixpunktesy<br />
∗ der umy ∗ linearisierten ODE<br />
✩<br />
ẏ = Df(y ∗ )(y−y ∗ ) . (3.2.8)<br />
✫<br />
✪<br />
Dies bestätigt die die Modellproblemanalyse von Sect. 3.1 motivierende Intuition, dass das Verhalten<br />
von Lösungen einer ODE in einer Umgebung eines Fixpunktes durch das Verhalten der Lösungen<br />
der um den Fixpunkt linearisierten ODE qualitativ richtig beschrieben wird.<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
3.2.2 Attraktive Fixpunkte von Einschrittverfahren<br />
3.2<br />
p. 345
Wir betrachten weiterhin ein autonomes AWP ẏ = f(y), f ∈ C 1 (D,R d ),D ⊂ R d offen.<br />
Numerische<br />
Mathemtik<br />
Ferner seiy ∗ ein Fixpunkt (→ Def. 3.2.1): f(y ∗ ) = 0.<br />
Betrachte: (Konsistentes) RK-ESV für autonome ODE ẏ = f(y) (→ Def. 2.3.5)<br />
Hinreichend:<br />
s∑<br />
k i := f(y+h a ij k j ) , i = 1,...,s , Ψ h y := y+h<br />
s∑<br />
i=1<br />
j=1<br />
b i = 1, Lemma 2.3.23<br />
s∑<br />
b i k i . (3.2.9)<br />
i=1<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
Annahme: h hinreichend klein für Wohldefiniertheit des ESV füry„nahe bei”y ∗ ,→Lemma. 2.2.7.<br />
Ψ h y ∗ = y ∗ ∀h hinreichend klein . (3.2.10)<br />
3.2<br />
p. 346
Numerische<br />
Mathemtik<br />
Betrachte eine mit Hilfe der AbbildungΠ : D ⊂ R d ↦→ R d rekursiv definierte Folge y k+1 = Π(y k ).<br />
(Man sagt auch, dass Π ein diskretes dynamisches System definiert. Offensichtlich stellen alle Einschrittverfahren<br />
diskrete dynamische Systeme dar.)<br />
Klar:y ∗ ∈ D heisst Fixpunkt des diskreten dynamischen Systems, fallsΠ(y ∗ ) = y ∗ .<br />
Auch klar: Definition der asymptotischen Stabilität eines Fixpunkts eines diskreten dynamischen Systems<br />
analog zu Def. 3.2.2<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
✬<br />
✩<br />
Theorem 3.2.12 (Asymptotische Stabilität von Fixpunkten diskreter dynamischer Systeme).<br />
SeiΠ : D ⊂ R d ↦→ R d stetig differenzierbar undΠ(y ∗ ) = y ∗ für einy ∗ ∈ D. Dann gilt<br />
ρ(DΠ(y ∗ )) < 1 ⇒ y ∗ ist asymptotisch stabiler Fixpunkt von y k+1 := Π(y k ) .<br />
✫<br />
✎ Notation: ρ(A) := max{|λ| : λ ∈ σ(A)} ˆ= Spektralradius einer Matrix<br />
✪<br />
3.2<br />
p. 347
✬<br />
Numerische<br />
Mathemtik<br />
✩<br />
Lemma 3.2.13 (Den Spektralradius approximierende Matrixnorm). → [12, Sect. 2.9.3]<br />
Zu jeder Matrix A ∈ C d,d und jedem ǫ > 0 gibt es eine Vektornorm‖·‖ A,ǫ auf R d so, dass für<br />
die induzierte Matrixnorm gilt<br />
ρ(A) ≤ ‖A‖ A,ǫ ≤ ρ(A)+ǫ .<br />
✫<br />
✪<br />
Der Beweis stützt sich auf die Schur-Normalform vonA.<br />
☞ Für diskrete EvolutionΨ h : Untersuche die Jacobi-Matrix D y (Ψ h y) füry = y ∗ !<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
Für RK-ESV: D y (Ψ h )(y ∗ ) = S(hDf(y ∗ )) . (3.2.14)<br />
Erinnerung:<br />
im Sinne von Bem. 3.1.17.<br />
S ist die (rationale) Stabilitätsfunktion (→ Thm. 3.1.6) des RK-ESV, in (3.2.14) benutzt<br />
3.2<br />
p. 348
✬<br />
✩<br />
{ f(y ∗ ) = 0 ⇔ Φ h y ∗ = y ∗} ⇒ Ψ h y ∗ = y ∗<br />
Numerische<br />
Mathemtik<br />
⇓<br />
y(h) ≈ (y 0 −y ∗ )exp(Df(y ∗ )h)+y ∗ ↔ Ψ h y ≈ (y 0 −y ∗ )S(hDf(y ∗ ))+y ∗<br />
✫<br />
✪<br />
✬<br />
✩<br />
Theorem 3.2.15 (Vererbung asymptotischer Stabilität).<br />
Ein Fixpunkt y ∗ ∈ D der diskreten Evolution eines RK-ESV mit Stabilitätsgebiet S Ψ ist asymptotisch<br />
stabil (→ Def. 3.2.2), wenn<br />
✫<br />
hσ(Df(y ∗ )) ⊂ S Ψ .<br />
✪<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
★<br />
✥<br />
Explizite RK-ESV : Schrittweitenbeschränkung für Vererbung<br />
von Stabilität eines Fixpunktes (→ (3.1.12))<br />
✧<br />
✦<br />
3.2<br />
p. 349
Für welche Verfahren entfällt Schrittweitenbeschränkung ?<br />
Numerische<br />
Mathemtik<br />
Definition 3.2.16 (A-stabiles Einschrittverfahren). → [8, Sect. 6.1.3]<br />
ESV A-stabil :⇔ C − := {z ∈ C: Rez < 0} ⊂ S Ψ (S Ψ = Stabilitätsgebiet,<br />
→ Def. 3.1.4)<br />
Aus Thm. 3.2.15: für A-stabile ESV (mit diskreter EvolutionΨ h )<br />
Autonome Dgl. ẏ = f(y) ,<br />
Fixpunkt f(y ∗ ) = 0<br />
<strong>Beispiel</strong> 3.2.17 (Einfache A-stabile RK-ESV).<br />
∧<br />
σ(Df(y ∗ )) ⊂ C −<br />
(ˆ= asymp. Stabilität vony ∗ )<br />
⇒<br />
dann<br />
Falls ‖y 0 −y ∗ ‖ < δ,<br />
lim<br />
k→∞<br />
(<br />
Ψ h) k<br />
y0 = y ∗ .<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
3.2<br />
p. 350
3<br />
Numerische<br />
Mathemtik<br />
2<br />
Im<br />
1<br />
0<br />
−1<br />
Implizites Eulerverfahren (1.4.13)<br />
Stabilitätsfunktion (→ Thm. 3.1.6)<br />
S(z) = 1<br />
1−z .<br />
−2<br />
−3<br />
−3 −2 −1 0 1 2 3<br />
Re<br />
Fig. 111<br />
✁ StabilitätsgebietS Ψ (→ Def. 3.1.4)<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
3.2<br />
p. 351
3<br />
2<br />
implizite Mittelpunktsregel (1.4.19)<br />
Numerische<br />
Mathemtik<br />
Im<br />
1<br />
0<br />
Stabilitätsfunktion (→ Thm. 3.1.6)<br />
S(z) = 1+ 1 2 z<br />
1− 1 2 z .<br />
−1<br />
✁ StabilitätsgebietS Ψ (→ Def. 3.1.4)<br />
−2<br />
−3<br />
−3 −2 −1 0 1 2 3<br />
Re<br />
Fig. 112<br />
Dies ist das “ideale Stabilitätsgebiet”!<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
✸<br />
3.3 Nichtexpansivität [8, Abschn. 6.3.3]<br />
Betrachte: Autonomes AWP ẏ = f(y), f ∈ C 1 (D,R d ),D ⊂ R d offen.<br />
3.3<br />
p. 352
Wir fixierenM ∈ R d,d s.p.d. ➣ Norm‖y‖ M := (y T My) 1 /2 auf R d .<br />
Numerische<br />
Mathemtik<br />
Definition 3.3.1 (Nichtexpansivität).<br />
Eine Evolution Φ t zu einer autonomen Dgl. bzw. eine diskrete Evolution Ψ h zu einem zugehörigen<br />
Einschrittverfahren heisst nichtexpansiv, falls<br />
∥ ∥<br />
und für allet ∈ J(y)∩J(ỹ)∩R + 0<br />
∥Φ t y−Φ t ỹ∥ ≤ ‖y−ỹ‖ M M ,<br />
∥<br />
∥Ψ h y−Ψ h ∀y,ỹ ∈ D ,<br />
ỹ∥ ≤ ‖y−ỹ‖ M M<br />
und alle „hinreichend kleinen”h > 0.<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
<strong>Beispiel</strong> 3.3.2 (Gradientenfluss ➞ „Kriechvorgänge”).<br />
Gegeben:<br />
C 1 -PotentialV : R d ↦→ R konvex<br />
3.3<br />
p. 353
Erinnerung: Eine AbbildungV : R d ↦→ R heisst konvex, falls<br />
Numerische<br />
Mathemtik<br />
V(ξx+(1−ξ)y) ≤ ξV(x)+(1−ξ)V(y) ∀0 ≤ ξ ≤ 1 . (3.3.3)<br />
Erinnerung: EineC 1 -Funktionϕ : R ↦→ R is genau dann konvex, wennϕ ′ monoton steigt.<br />
Offensichtliche Konsequenz aus (3.3.3): Ist V : R d ↦→ R konvex, so gilt das für jeden “Schnitt”<br />
τ ↦→ V(y+τ(x−y)),x,y ∈ R d .<br />
d<br />
dτ<br />
C 1 -PotentialV : R d ↦→ R konvex<br />
⇕<br />
ϕ monoton steigend fürϕ(τ) := V(y+τ(x−y)) ∀x,y ∈ Rd<br />
⇕<br />
(gradV(x)−gradV(y)) T (x−y) ≥ 0 ∀x,y ∈ R d .<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
3.3<br />
p. 354
Numerische<br />
Mathemtik<br />
40<br />
Gradientenfluss-AWP:<br />
30<br />
20<br />
2<br />
ẏ(t) = −gradV(y(t)) ,<br />
y(0) = y 0 ∈ R d .<br />
(3.3.4)<br />
10<br />
1<br />
0<br />
2<br />
1.5<br />
1<br />
0.5<br />
0<br />
−0.5<br />
−1<br />
−1.5<br />
−2<br />
−2<br />
x 2<br />
Fig. 113<br />
−1<br />
0<br />
x 1<br />
Die Evolution zu (3.3.4) ist nichtexpansiv bzgl. der Euklidischen Norm:<br />
∥<br />
χ(t) := ∥Φ t y−Φ t ỹ∥ 2 ⇒ ˙χ(t) = −2(gradV(Φ t y)−gradV(Φ t ỹ)) T (Φ t y−Φ t ỹ)<br />
2 } {{ }<br />
≥0<br />
➣ Nichtexpansivität (→ Def. 3.3.1) mitM = I.<br />
≤ 0 .<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
✸<br />
3.3<br />
p. 355
Nichtexpansivität einer Evolution:<br />
äquivalente Charakterisierung<br />
Numerische<br />
Mathemtik<br />
Definition 3.3.5 (Dissipatives Vektorfeld).<br />
f : D ⊂ R d ↦→ R d dissipativ :⇔ M(f(y)−f(ỹ))·(y−ỹ) ≤ 0 ∀y,ỹ ∈ D .<br />
Dies ist eine Verallgemeinerung der Eigenschaft „monoton fallend” von skalarwertigen Funkionen.<br />
✬<br />
Lemma 3.3.6 (Bedingung für Nichtexpansivität einer Evolution).<br />
✫<br />
Rechte Seitef dissipativ<br />
⇔ Nichtexpansivität der Evolution<br />
zur autonomen ODEẏ = f(y)<br />
✩<br />
R. Hiptmair<br />
✪<br />
rev 35327,<br />
24. Juni<br />
2011<br />
✬<br />
Theorem 3.3.7 (Gauss-Kollokations-RK-ESV nichtexpansiv).<br />
Die diskreten Evolutionen zu Gauss-Kollokations-RK-ESV (→ Sect. 2.2.3) erben die Nichtexpansivität<br />
der (exakten) Evolution.<br />
✫<br />
✩<br />
✪<br />
3.3<br />
p. 356
Beweis von Thm. 3.3.7. Betrachte Gauss-Kollokations-ESV mitsKnoten:<br />
Numerische<br />
Mathemtik<br />
y h (t),ŷ h (t) ∈ P s ˆ= Kollokationspolynome zu Anfangswerteny 0 bzw.ỹ 0 , siehe Sect. 2.2.1<br />
Ψ h y 0 = y h (h) , Ψ h ỹ 0 = ỹ h (h) .<br />
d(τ) := ‖y h (τh)−ỹ h (τh)‖ 2 M<br />
ist Polynom inτ vom Grad ≤ 2s .<br />
Nichtexpansivität vonΨ h is äquivalent zu<br />
∥<br />
∥Ψ h y 0 −Ψ h ỹ 0<br />
∥ ∥∥ 2<br />
M = d(1) = d(0)+ ∫ 1<br />
d ′ (τ)dτ<br />
0<br />
} {{ }<br />
Ziel<br />
!<br />
≤0<br />
∫ 1<br />
= ‖y 0 −ỹ 0 ‖ 2 M + d ′ (τ)dτ . (3.3.8)<br />
0<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
Gauss-Quadratur (mitsKnoten) ist exakt für Polynome∈ P 2s−1<br />
∫ 1<br />
0<br />
Ableitung aus der Kettenregel:<br />
d ′ (τ)dτ =<br />
s∑<br />
b j d ′ (c j ) . (3.3.9)<br />
j=1<br />
d ′ (τ) = 2hM(y h (τh)−ỹ h (τh))·(ẏ h (τh)− ˙ỹ h (τh)) . (3.3.10)<br />
3.3<br />
p. 357
Aus Kollokationsbedingungen (2.2.1):<br />
ẏ h (c j h) = f(y h (c j h)) , ˙ỹh (c j h) = f(ỹ h (c j h)) , j = 1,...,s .<br />
Numerische<br />
Mathemtik<br />
(3.3.10)<br />
d ′ (c j ) = 2hM(y h (c j h)−ỹ h (c j h))·(f(y h (c j h))−f(ỹ h (c j h))) ≤ 0 , (3.3.11)<br />
daf dissipativ ⇔ Nichtexpansivität vonΦ t , vgl Lemma 3.3.6.<br />
(3.3.8), (3.3.9), (3.3.11) ⇒ Behauptung, da Gewichteb j der Gauss-Quadraturformeln positiv !. ✷<br />
✬<br />
Lemma 3.3.12 (Diskrete Nichtexpansivität ⇒ A-Stabilität).<br />
Nichtexpansivität (→ Def. 3.3.1) erbende RK-ESV (→ Def. 2.3.5) sind A-stabil (→ Def. 3.2.16).<br />
✫<br />
✩<br />
R. Hiptmair<br />
✪<br />
rev 35327,<br />
24. Juni<br />
2011<br />
Beweis. Skalare komplexe Dlg. ↔ reelle Dlg. inD = R 2 : für beliebigesλ = α+iβ ∈ C<br />
(˙u˙v) ( )( (<br />
ẏ = λy y=u+iv α −β u u<br />
⇔ = ↔ ẏ = f(y) mit y := .<br />
β α v)<br />
v)<br />
} {{ }<br />
=:A<br />
3.3<br />
p. 358
Reλ < 0 ⇒ α < 0 ⇒ x T Ax = α‖x‖ 2 ≤ 0 ∀x ∈ R 2<br />
⇒ rechte Seite f(y) = Ay ist dissipativ (→ Def. 3.3.5)<br />
⇒ Evolution nichtexpansiv, siehe Lemma 3.3.6.<br />
Numerische<br />
Mathemtik<br />
(“Vererbung”)<br />
⇒<br />
Diskrete EvolutionΨ h nichtexpansiv<br />
∥<br />
∥Ψ h y∥ = |S(hλ)||y| ≤ ‖y‖ 2 2 = |y| ⇒ |S(z)| ≤ 1 ∀z ∈ C − .<br />
∗<br />
⇒ |S(z)| < 1 ∀z ∈ C − .<br />
⇒ C − ⊂ S Ψ (Stabilitätsgebiet→Def. 3.1.4) . ✷<br />
∗: S(z) is a meromorphic function so that |S(z)| can attain its maximal value on C − only on the<br />
boundary∂C = iR.<br />
✓<br />
✒<br />
Alle Gaus-Kollokations-ESV sind A-stabil<br />
✏<br />
✑<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
Bemerkung 3.3.13 (Lösbarkeit der Inkrementgleichungen für Gauss-Kollokations-ESV).<br />
Die Inkrementgleichungen eines Gauss-Kollokations-RK-ESV für eine nichtexpansive<br />
autonome ODE sind für jedesh > 0 eindeutig lösbar →[18, Sect. IV.14].<br />
3.3<br />
p. 359
0.9<br />
0.9<br />
1 1 1<br />
△<br />
Numerische<br />
Mathemtik<br />
Stabilitätsgebiete von Gauss-Kollokations-Einschrittverfahren:<br />
Im<br />
5<br />
4<br />
3<br />
2<br />
1<br />
0<br />
−1<br />
−2<br />
−3<br />
−4<br />
0.4<br />
0.4<br />
0.7<br />
0.7<br />
0.4<br />
0.4<br />
0.9<br />
0.7<br />
0.7<br />
0.9<br />
−5<br />
−6 −4 −2 0 2<br />
Fig.<br />
4<br />
1146<br />
Re<br />
1 1 1<br />
1.1<br />
1.1<br />
1.1<br />
1.5<br />
1.5<br />
1.5<br />
1.5<br />
Im<br />
20<br />
15<br />
10<br />
5<br />
0<br />
−5<br />
−10<br />
−15<br />
−20<br />
0.7<br />
0.4<br />
0.7<br />
0.4<br />
0.9<br />
0.7<br />
0.4<br />
0.7<br />
0.9<br />
1.1<br />
−20 −10 0 10 20<br />
Re<br />
1.5<br />
1.1<br />
1.1<br />
1.5<br />
1.5<br />
1.5<br />
Fig. 115<br />
Im<br />
50<br />
40<br />
30<br />
20<br />
10<br />
0<br />
−10<br />
−20<br />
−30<br />
−40<br />
0.4<br />
0.4<br />
0.7<br />
0.7<br />
0.4<br />
0.4<br />
0.9<br />
0.7<br />
0.7<br />
0.9<br />
−50<br />
−60 −40 −20 0 20<br />
Fig.<br />
40<br />
116<br />
60<br />
Re<br />
1 1 1<br />
1.1<br />
1.5<br />
0.9<br />
1.1<br />
1.1<br />
1.5<br />
1.5<br />
1.5<br />
1.5<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
Implizite Mittelpunktsregel<br />
s = 2 (Ordnung 4)<br />
s = 4 (Ordnung 8)<br />
Vermutung (Beweis später):<br />
Niveaulinien von|S(z)| für Gauss-Kollokations-Einschrittverfahren<br />
S Ψ = C −<br />
<strong>Beispiel</strong> 3.3.14 (Gauss-Kollokationsverfahren für logistische Differentialgleichung). → Bsp. 3.0.1,<br />
1.4.21<br />
3.3<br />
p. 360
Logistische Differentialgleichung<br />
ẏ = f(y),<br />
f(y) = λy(1 − y) → (2.2.84), λ = 50, Anfangswerty<br />
0 = 10 −4 , Zeitintervall[0,1].<br />
Kollokations-Einschrittverfahren (→ Abschnitt<br />
2.2) auf äquidistantem Gitter,<br />
h = 1<br />
20 . 0.2<br />
0<br />
0 0.2 0.4 0.6 0.8 1<br />
y<br />
1<br />
0.8<br />
0.6<br />
0.4<br />
t<br />
y(t)<br />
s=1<br />
s=2<br />
s=3<br />
s=4<br />
Fig. 117<br />
✸<br />
Numerische<br />
Mathemtik<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
Bemerkung 3.3.15 (A-Stabilität ⇏ Diskrete Nichtexpansivität ).<br />
Gegenbeispiel:<br />
implizite Trapezregel, Einschrittverfahren fürẏ = f(t,y) definiert durch<br />
y 1 = y 0 + 1 2 h(f(t,y 0)+f(t+h,y 1 )) ↔ Butcher-Schema<br />
0 0 0<br />
1 1/2 1/2<br />
1/2 1/2<br />
3.3<br />
p. 361
{<br />
−y<br />
3<br />
füry < 0 ,<br />
angewandt auf skalare autonome ODE ẏ =<br />
−y 2 füry ≥ 0 .<br />
→ Übungsaufgabe<br />
△<br />
Numerische<br />
Mathemtik<br />
Bemerkung 3.3.16 (B-Stabiliät).<br />
Einschrittverfahren, die die Nichtexpansivität der Evolution zu einer ODE erben, heissen auch B-stabil<br />
[18, Sect. IV.12].<br />
△<br />
Ein algebraisches Kriterium für B-Stabilität:<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
Definition 3.3.17 (Algebraische Stabilität).<br />
Ein Runge-Kutta-Einschrittverfahren (→ Def. 2.3.5) mit Butcher-Schema c A bT , siehe (2.3.6),<br />
ist algebraisch stabil, falls<br />
(i)b i ≥ 0,i = 1,...,s,<br />
(ii) und die Matrix<br />
ist.<br />
M := diag(b 1 ,...,b s )A−A T diag(b 1 ,...,b s )−bb T positiv semi-definit<br />
3.3<br />
p. 362
✬<br />
Theorem 3.3.18 (Kriterium für B-Stabilität).<br />
Algebraische Stabilität<br />
✫<br />
⇒ B-Stabilität<br />
✩<br />
Numerische<br />
Mathemtik<br />
✪<br />
3.4 Gleichmässige Stabilität<br />
<strong>Beispiel</strong> 3.4.1 (Gauss-Kollokations-ESV bei stark attraktiven Fixpunkten). → Bsp. 3.5.2<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
3.4<br />
p. 363
ODE mit stark attraktivem Fixpunkty = 1:<br />
1.4<br />
1.2<br />
Äquidistantes Gitter, h=0.016667<br />
y(t)<br />
Gauss−Koll., s= 1<br />
Gauss−Koll., s= 2<br />
Numerische<br />
Mathemtik<br />
ẏ = λy 2 (1−y) ,<br />
λ = 500 , y(0) = 1<br />
100 .<br />
y<br />
1<br />
0.8<br />
Qualitatives Verhalten von<br />
0.6<br />
Gauss-Kollokations-ESV (→ Abschnitt 2.2)<br />
auf äquidistantem Gitter<br />
✄<br />
0.4<br />
0.2<br />
0<br />
0 0.2 0.4 0.6 0.8 1<br />
t<br />
Fig. 118<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
➣<br />
Falsche Oszillationen bei Gauss-Kollokations-ESV niedriger Ordnung<br />
Erklärung: Für Gauss-Kollokations-ESV gilt S(z) ≈ ±1 für |z| → ∞, so dass der Fixpunkt der diskreten<br />
Evolution zwar anziehend bleibt, aber die diskrete Lösung (im Gegensatz zur kontinuierlichen)<br />
nur noch langsam (und oszillatorisch für ungeradess) gegen ihn konvergiert.<br />
Weitere Demonstration → Bsp. 3.4.2<br />
3.4<br />
p. 364
✸<br />
Numerische<br />
Mathemtik<br />
<strong>Beispiel</strong> 3.4.2 (Implizite RK-ESV bei schnellen Transienten). → Bsp. 3.5.5<br />
AWP: ẏ = −λy +βsin(2πt) , λ = 10 6 , β = 10 6 , y(0) = 1 .<br />
RK-ESV, äquidistantes Gitter auf[0,1],h = 1<br />
40 :<br />
Re(S(z))<br />
1<br />
0.8<br />
0.6<br />
0.4<br />
0.2<br />
0<br />
−0.2<br />
exp(z)<br />
Impliziter Euler<br />
Gauss−Koll.−RK−ESV s=1<br />
Gauss−Koll.−RK−ESV s=2<br />
Gauss−Koll.−RK−ESV s=3<br />
Gauss−Koll.−RK−ESV s=4<br />
y<br />
4<br />
3<br />
2<br />
1<br />
0<br />
y(t)<br />
Impliziter Euler<br />
Kollokations RK−ESV s=1<br />
Kollokations RK−ESV s=2<br />
Kollokations RK−ESV s=3<br />
Kollokations RK−ESV s=4<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
−0.4<br />
−0.6<br />
−1<br />
−0.8<br />
−2<br />
−1<br />
−1000 −800 −600 −400 −200 0<br />
z<br />
Fig. 119<br />
Stabilitätsfunktionen fürRez ≪ 1<br />
−3<br />
0 0.2 0.4 0.6 0.8 1<br />
t<br />
Fig. 120<br />
Diskrete Evolutionen (Zeitverlauf)<br />
3.4<br />
p. 365
➣ Ungenügende Dämpfung der Anfangsstörung bei Kollokations-RK-ESV !<br />
(Oszillationen für ungeradess ➞ vgl. Stabilitätsfunktionen, lim<br />
Rez→−∞ S(z) = (−1)s )<br />
Numerische<br />
Mathemtik<br />
➣ Implizites Euler-Verfahren (1.4.13): sofortige Relaxation der diskreten Lösung !<br />
Klar, denn<br />
lim S(z) =<br />
Rez→−∞<br />
lim<br />
Rez→−∞<br />
1<br />
1−z<br />
= 0 für implizites Euler-Verfahren.<br />
✸<br />
Sect. 3.1:<br />
StabilitätsfunktionS(z) ←→ exp(z)<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
Utopie (für RK-ESV): S(−∞) = 0 , S(∞) = ∞<br />
(von keiner rationalen Funktion erfüllbar !)<br />
Bescheidener Wunsch (bei stark attrativen Fixpunkten, schnellen Relaxationen): S(−∞) = 0<br />
3.4<br />
p. 366
Definition 3.4.3 (L-Stabilität).<br />
Numerische<br />
Mathemtik<br />
ESV L-stabil :⇔ {z ∈ C: Rez < 0} ⊂ S Ψ & lim<br />
Rez→−∞ |S(z)| = 0<br />
Kurz: L-stabil :⇔ A-stabil & „S(−∞) = 0”<br />
Wie findet man L-stabile RK-ESV ?<br />
Existenz ist zu fordern<br />
Fallsb T = a T j,·<br />
Thm. 3.1.6 ⇒ S(−∞) = 1−b T A −1 1 . (3.4.4)<br />
(Zeile von A) ∧ A regulär ⇒ S(−∞) = 0 . (3.4.5)<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
charakterisiert steif-genaue (engl. stiffly accurate) RK-ESV [8, Lemma 6.32]<br />
3.4<br />
p. 367
Bemerkung 3.4.6 (Invertierbarkeit der Koeffizientenmatrix von RK-ESV).<br />
Numerische<br />
Mathemtik<br />
Für jedes s-stufige Kollokationsverfahren (→ Sect. 2.2.1) mit c s > 0 (.d.h, für jedes Kollokationsverfahren<br />
mit Ausnahme des expliziten Eulerverfahrens (1.4.2)) ist die Koeffizientenmatrix (Butcher-<br />
Matrix) A nichtsingulär<br />
Beweis. Es seix ∈ R s mit Ax = 0<br />
(2.2.3)<br />
⇒<br />
s∑<br />
a ij x j =<br />
j=1<br />
s∑<br />
j=1<br />
mit den Lagrange-PolynomenL i ∈ P s−1 aus (2.2.2).<br />
q :=<br />
s∑<br />
x j L j erfüllt:<br />
j=1<br />
∫ c i<br />
0<br />
∫ c i<br />
x j L j (τ)dτ = 0 , i = 1,...,s ,<br />
c i−1<br />
q(τ)dτ = 0 , i = 1,...,s (c 0 := 0) .<br />
⇒ q ∈ P s−1 hatsNullstellen in[0,c s ] ⇒ q = 0 ⇒ x = 0.<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
✷<br />
△<br />
3.4<br />
p. 368
Butcher-Schema (2.3.6) für konsistente<br />
(→ Lemma 2.3.23), L-stabile RK-ESV,<br />
siehe Def. 3.4.3<br />
✄<br />
c A<br />
b T :=<br />
c 1 a 11 ··· a 1s<br />
.<br />
.<br />
c s−1 a s−1,1 ··· a s−1,s .<br />
1 b 1 ··· b s<br />
b 1 ··· b s<br />
.<br />
Numerische<br />
Mathemtik<br />
Idee: Wählec s = 1 im Kollokations-RK-ESV (2.2.3)<br />
Wählec 1 ,...,c s−1 als Knoten einer Quadraturformel maximaler Ordnung.<br />
(➞ Gauss-Radau-Quadratur, Ordnung2s−1)<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
3.4<br />
p. 369
order of quadrature rule<br />
23<br />
21<br />
19<br />
17<br />
15<br />
13<br />
11<br />
9<br />
7<br />
5<br />
Nodes for Gauss−Radau quadrature rules<br />
size of weight<br />
0.8<br />
0.7<br />
0.6<br />
0.5<br />
0.4<br />
0.3<br />
0.2<br />
Weights for Gauss−Radau quadrature rules<br />
order = 3<br />
order = 5<br />
order = 7<br />
order = 9<br />
order = 11<br />
order = 13<br />
order = 15<br />
order = 17<br />
order = 19<br />
order = 21<br />
order = 23<br />
Numerische<br />
Mathemtik<br />
3<br />
0.1<br />
1<br />
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1<br />
node position x<br />
Knoten: Radau-Quadraturformeln<br />
Fig. 121<br />
0<br />
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1<br />
node position x<br />
Gewichte: Radau-Quadraturformeln<br />
Fig. 122<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
Implizites-stufige L-stabile Radau-ESV, Konvergenzordnung2s−1<br />
(→ Thm. 2.2.51, [8, Sect. 6.3.2])<br />
3.4<br />
p. 370
1 1<br />
1<br />
1 5<br />
3 12 − 12<br />
1<br />
1 3 1<br />
4 4<br />
3 1<br />
4 4<br />
4− √ 6<br />
10<br />
4+ √ 6<br />
10<br />
1<br />
88−7 √ 6<br />
360<br />
296+169 √ 6<br />
1800<br />
16− √ 6<br />
36<br />
16− √ 6<br />
36<br />
296−169 √ 6<br />
1800<br />
88+7 √ 6<br />
360<br />
16+ √ 6<br />
36<br />
16+ √ 6<br />
36<br />
Implizites Euler-ESV Radau-ESV, Ordnung 3 Radau-ESV, Ordnung 5<br />
−2+3 √ 6<br />
225<br />
−2−3 √ 6<br />
225<br />
1<br />
9<br />
1<br />
9<br />
Numerische<br />
Mathemtik<br />
Stabilitätsfunktion s-stufiger Radau-Kollokations-<br />
RK-ESVs:<br />
S(z) = P(z)<br />
Q(z) , P ∈ P s−1, Q ∈ P s .<br />
Re(S(z))<br />
100<br />
90<br />
80<br />
70<br />
60<br />
50<br />
40<br />
30<br />
exp(z)<br />
RADAU, s=2<br />
RADAU, s=3<br />
RADAU, s=4<br />
RADAU, s=5<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
Vorsicht: Auch „S(∞) = 0”<br />
20<br />
10<br />
0<br />
−2 −1 0 1 2 3 4 5 6<br />
z<br />
Niveaus der Stabilitätsfunktionen vons-stufigen Radau-Kollokations-RK-ESVs:<br />
3.4<br />
p. 371
1.5<br />
1.5<br />
0.7<br />
0.4<br />
10<br />
20<br />
30<br />
8<br />
6<br />
4<br />
2<br />
0.4<br />
0.9<br />
0.7<br />
1.1<br />
1.5<br />
1<br />
0.4<br />
0.7<br />
15<br />
10<br />
5<br />
0.4<br />
0.9<br />
1<br />
1.1<br />
0.7<br />
1.5<br />
0.4<br />
0.9<br />
1.1<br />
1<br />
0.7<br />
0.4<br />
20<br />
10<br />
0.4<br />
1<br />
1.1<br />
1.5<br />
0.4<br />
0.7<br />
0.9<br />
1<br />
1.1<br />
1.5<br />
0.4<br />
0.7<br />
Numerische<br />
Mathemtik<br />
Im<br />
0<br />
−2<br />
−4<br />
−6<br />
−8<br />
0.4<br />
1<br />
0.7<br />
1.1<br />
0.9<br />
1<br />
1.5<br />
0.4<br />
1.1<br />
0.7<br />
0.9<br />
0.4<br />
Im<br />
0<br />
−5<br />
−10<br />
−15<br />
0.7<br />
0.4<br />
1<br />
1.1<br />
0.9<br />
0.7<br />
1.5<br />
0.4<br />
1.1<br />
1<br />
0.9<br />
0.4<br />
Im<br />
0.1<br />
0<br />
−10<br />
−20<br />
0.4<br />
0.9<br />
1.1<br />
1.5<br />
1<br />
0.4<br />
0.9<br />
0.7<br />
1.5<br />
1.1<br />
1<br />
0.9<br />
0.7<br />
0.4<br />
−10<br />
−2 0 2 4 6 8 10<br />
Re<br />
s = 2<br />
−20<br />
0 5 10 15 20<br />
Re<br />
s = 3<br />
<strong>Beispiel</strong> 3.4.7 (Radau-ESV bei stark attraktiven Fixpunkten). → Bsp. 3.4.1<br />
−30<br />
0 5 10 15 20 25 30<br />
Re<br />
s = 4<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
3.4<br />
p. 372
AWP für ODE mit stark attraktivem Fixpunkty = 1,<br />
1.4<br />
1.2<br />
Äquidistantes Gitter, h=0.016667<br />
y(t)<br />
RADAU, s= 1<br />
RADAU, s= 2<br />
Numerische<br />
Mathemtik<br />
Bsp. 3.4.1<br />
1<br />
ẏ = λy 2 (1−y) ,<br />
λ = 500 , y(0) = 1<br />
100 .<br />
y<br />
0.8<br />
0.6<br />
Qualitatives Verhalten von Radau-ESV auf äquidistantem<br />
Gitter<br />
✄<br />
0.4<br />
0.2<br />
0<br />
0 0.2 0.4 0.6 0.8 1<br />
t<br />
Fig. 123<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
➣<br />
Diskrete Evolution strebt schnell dem stabilen Zustand zu<br />
✸<br />
Wie für Gauss-Kollokations-RK-ESV, siehe Thm. 3.3.7:<br />
3.4<br />
p. 373
✬<br />
✩<br />
Theorem 3.4.8 (Radau-ESV nichtexpansiv).<br />
Die diskreten Evolutionen zu Radau-ESV erben die Nichtexpansivität der (exakten) Evolution.<br />
✫<br />
✪<br />
Numerische<br />
Mathemtik<br />
Beweis. Erweiterung des Beweises zu Thm. 3.3.7. Mit den dortigen Notationen und Fehlerdarstellungsformel<br />
für Gauss-Radau-Quadraturformeln<br />
∫ 1<br />
0<br />
d ′ (τ)dτ =<br />
s∑<br />
b j d ′ (c j )−R mit R = c(s)d (2s) (ξ) , 0 ≤ ξ ≤ 1 ,<br />
j=1<br />
wobeic(s) > 0. Formeln (3.3.10) und (3.3.11) bleiben gültig, so dass die Behauptung von Thm. 3.4.8<br />
gezeigt ist, sobaldR ≥ 0 sichergestellt ist:<br />
d(τ) =<br />
2s ∑<br />
j=0<br />
d(τ) ≥ 0 ⇒<br />
δ j τ j ⇒ d (2s) (τ) = (2s)!δ 2s ,<br />
lim d(τ) ≥ 0 ⇒ δ 2s ≥ 0 .<br />
|τ|→∞<br />
Beachte: Auch die Gewichte von Gauss-Radau-Quadraturformeln sind positiv, siehe Fig. 122.<br />
Radau-ESV sind A-stabil (→ Def. 3.2.16)<br />
✷<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
3.5<br />
p. 374
3.5 Steifheit<br />
Numerische<br />
Mathemtik<br />
Das Folgende ist keine Definition, sondern ein durch die Beobachtungen von Anwendern numerischer<br />
Integratoren motivierter Begriff. Es ist nicht möglich, diesen Begriff in einer strengen mathematischen<br />
Definition zu erfasssen. Dennoch ist er zentral für die Auswahl geeigneter numerischer Integratoren<br />
und Teilnehmer der Vorlesung sollten schliesslich ein “Gerfühl” dafür haben, wann ein Anfangswertproblem<br />
“steif” ist. Dieses wird in diesem Abschnitt anhand von <strong>Beispiel</strong>en geschult.<br />
Aus [25, Sect. 1]:<br />
The usual definition of stiffness applies which states that a differential equation is stiff whenever<br />
the implicit Euler method works (tremendously) better than the explicit Euler method.<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
Konzept 3.5.1 (Steifes Anfangswertproblem).<br />
Ein AWP heisst steif (engl. stiff), falls für explizite RK-ESV (→ Def. 2.1.5) Stabilität eine wesentlich<br />
kleinere Schrittweite verlangt als die Genauigkeitsanforderungen.<br />
3.5<br />
p. 375
<strong>Beispiel</strong> 3.5.2 (Adaptive explizite RK-ESV für steifes Problem). → Sect. 2.6<br />
ẏ(t) = λy 2 (1−y) , λ = 500 , y(0) = 1<br />
100 .<br />
MATLAB-CODE : Adaptives ESV für steifes Problem<br />
fun = @(t,x) 500*x^2*(1-x); tspan = [0 1]; y0 = 0.01;<br />
options = odeset(’reltol’,0.1,’abstol’,0.001,’stats’,’on’);<br />
[t,y] = ode45(fun,tspan,y0,options);<br />
plot(t,y,’r+’);<br />
Numerische<br />
Mathemtik<br />
1.4<br />
1.2<br />
y(t)<br />
ode45<br />
1.5<br />
0.03<br />
y<br />
1<br />
0.8<br />
0.6<br />
0.4<br />
0.2<br />
0<br />
0 0.2 0.4 0.6 0.8 1<br />
t<br />
Fig. 124<br />
y(t)<br />
1<br />
0.5<br />
0<br />
0 0.2 0.4 0.6 0.8 1<br />
t<br />
0.02<br />
0 0.2 0.4 0.6 0.8 1 0 0.01<br />
Zeitschrittweite<br />
Fig. 125<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
➣ Schrittweitensteuerung realisiert Schrittweitenbeschränkung ! → Bsp. 2.6.10<br />
(186 successful steps, 55 failed attempts, 1447 function evaluations)<br />
3.5<br />
p. 376
y = 1 stark attraktiver Fixpunkt ➣<br />
Extreme Schrittweitenbeschränkung für<br />
expliziten Integratorode45<br />
Numerische<br />
Mathemtik<br />
Beachte: die Schrittweitensteuerung erkennt Stabilitätsprobleme und reduziert die Schrittweite entsprechend<br />
! → Bsp. 2.6.10<br />
✸<br />
R. Hiptmair<br />
Welche Anfangswertprobleme sind steif ?<br />
rev 35327,<br />
24. Juni<br />
ODE-Modelle für Systeme mit schnell relaxierenden Komponenten<br />
2011<br />
☞<br />
(mit stark unterschiedlichen Zeitkonstanten)<br />
<strong>Beispiel</strong> 3.5.3 (Steife Probleme in der chemischen Reaktionskinetik). → Sect. 1.2.2<br />
k 2 k<br />
Reaktion: A+B<br />
←− 4<br />
−→ C , A+C<br />
←−<br />
−→ D (3.5.4)<br />
k1 k3<br />
3.5<br />
Stark unterschiedliche Reaktionsgeschwindigkeiten: k 1 ,k 2 ≫ k 3 ,k 4<br />
p. 377
Fallsc A (0) > c B (0) ➢<br />
2. Reaktion kontrolliert Langzeitdynamik<br />
Numerische<br />
Mathemtik<br />
Numerisches Experiment, MATLAB,t 0 = 0,T = 1,k 1 = 10 4 ,k 2 = 10 3 ,k 3 = 10,k 4 = 1<br />
MATLAB-CODE : Explizite Integration steifer chemischer Reaktionsgleichungen<br />
fun = @(t,y) ([-k1*y(1)*y(2) + k2*y(3) - k3*y(1)*y(3) + k4*y(4);<br />
-k1*y(1)*y(2) + k2*y(3);<br />
k1*y(1)*y(2) - k2*y(3) - k3*y(1)*y(3) + k4*y(4);<br />
k3*y(1)*y(3) - k4*y(4)]);<br />
tspan = [0 1];<br />
y0 = [1;1;10;0];<br />
options = odeset(’reltol’,0.1,’abstol’,0.001,’stats’,’on’);<br />
[t,y] = ode45(fun,[0 1],y0,options);<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
3.5<br />
p. 378
12<br />
10<br />
Chemical reaction: concentrations<br />
c (t) A<br />
c C<br />
(t)<br />
c A,k<br />
, ode45<br />
10<br />
9<br />
Chemical reaction: stepsize<br />
x 10 −5<br />
7<br />
6<br />
Numerische<br />
Mathemtik<br />
8<br />
c C,k<br />
, ode45<br />
8<br />
5<br />
concentrations<br />
6<br />
4<br />
c C<br />
(t)<br />
7<br />
6<br />
4<br />
3<br />
timestep<br />
2<br />
5<br />
2<br />
0<br />
−2<br />
0 0.2 0.4 0.6 0.8 1<br />
t<br />
Fig. 126<br />
<strong>Beispiel</strong> 3.5.5 (Steife Schaltkreisgleichungen im Zeitbereich).<br />
4<br />
3<br />
0 0.2 0.4 0.6 0.8 1<br />
t<br />
0 0.2 0.4 0.6 0.8 1 0 1<br />
Fig. 127<br />
✸<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
3.5<br />
p. 379
Schaltkreisanalyse im Zeitbereich:<br />
Bauelementgleichungen (i ˆ= Strom, u ˆ= Spannung):<br />
R<br />
u(t)<br />
Numerische<br />
Mathemtik<br />
• Widerstand:i(t) = R −1 u(t)<br />
• Kondensator:i(t) = C ˙u(t)<br />
C<br />
Dgl. aus Knotenanalyse:<br />
C ˙u(t) = −R −1 u(t)+I(t) .<br />
I(t)<br />
Konkret:<br />
C = 1pF ,R = 1kΩ,I(t) = sin(2π1Hzt)mA,u(0) = 0V<br />
Skalierte (dimensionslose) Dgl.: ˙u(t) = −10 9 u(t)+10 9 sin(2πt) ⇒ u(t) ≈ sin(2πt) .<br />
ˆ= ODE aus Bsp. 3.4.2<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
Im Fall der nichtautonomen Dgl. ẏ = −λy + g(t), λ ≫ 1, sind wird mit einem “zeitlich variierenden”<br />
stark attraktiven Fixpunkt y ∗ (t) = λ −1 g(t) konfrontiert. Auch dieser führt zu Steifheit gemäss<br />
Konzept 3.5.1.<br />
✸<br />
3.5<br />
p. 380
Abschnitt 3.4 ➣ Wir wissen was zu tun ist !<br />
Numerische<br />
Mathemtik<br />
Steife AWP<br />
➤<br />
(Geeignete) implizite RK-ESV (→ Def. 2.1.5) sind zu verwenden !<br />
d.h. L-stabil (→ Def. 3.4.3)<br />
<strong>Beispiel</strong> 3.5.6 (Attraktiver Grenzzyklus). vgl. Bsp. 1.2.15<br />
2<br />
ẏ = f(y)<br />
( ) 0 −1<br />
f(y) := y+λ(1−‖y‖<br />
1 0<br />
2 )y ,<br />
Autonome Dgl.<br />
auf ZustandsraumD = R 2 \{0}.<br />
Lösungstrajektorien (λ = 10)✄<br />
1.5<br />
1<br />
0.5<br />
0<br />
−0.5<br />
−1<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
−1.5<br />
Fig. 128<br />
−2<br />
−2 −1.5 −1 −0.5 0 0.5 1 1.5 2<br />
3.5<br />
p. 381
☞ Falls‖y 0 ‖ = 1 ⇒‖y(t)‖ = 1 ∀t<br />
☞ “Grenzzyklus auf Einheitskreis”:‖y(t)‖ → 1 fürt → ∞.<br />
Numerische<br />
Mathemtik<br />
In diesem <strong>Beispiel</strong> liegt kein asymptotisch stabiler Fixpunkt vor, sondern eine asymptotisch stabile<br />
invariante Mannigfaltigkeit, also eine echte Teilmenge M ⊂ D des Zustandsraums, für die gilt<br />
Φ t M ⊂ M für alle zulässigent(“Fixmenge”) und<br />
∃UmgebungU vonM: : y(0) ∈ U ⇒ lim<br />
t→∞ dist(y(t),M) = 0 .<br />
MATLAB-CODE Integration von Evolution mit Grenzzyklus<br />
fun = @(t,y) ([-y(2);y(1)] + lambda*(1-y(1)^2-y(2)^2)*y);<br />
tspan = [0,2*pi]; y0 = [1,0];<br />
opts = odeset(’stats’,’on’,’reltol’,1E-4,’abstol’,1E-4);<br />
[t45,y45] = ode45(fun,tspan,y0,opts);<br />
[t23,y23] = ode23s(fun,tspan,y0,opts);<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
3.5<br />
p. 382
1.5<br />
ode45 for attractive limit cycle<br />
x 10 −4<br />
8<br />
2<br />
ode23s for attractive limit cycle<br />
0.02<br />
Numerische<br />
Mathemtik<br />
1<br />
7<br />
1<br />
0.015<br />
0.5<br />
6<br />
y i<br />
(t)<br />
0<br />
5<br />
timestep<br />
y i<br />
(t)<br />
0<br />
0.01<br />
timestep<br />
−0.5<br />
4<br />
−1<br />
3<br />
−1.5<br />
0 1 2 3 4 5 6 7 2<br />
y 1,k<br />
y 2,k<br />
Fig. 129<br />
ode45: 3794 Schritte (λ = 1000)<br />
t<br />
−1<br />
0.005<br />
−2<br />
0 1 2 3 4 5 6 7 0<br />
y 1,k<br />
y 2,k<br />
Fig. 130<br />
t<br />
ode23s: 432 Schritte (λ = 1000)<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
3.5<br />
p. 383
1<br />
ode45 for rigid motion<br />
0.2<br />
Numerische<br />
Mathemtik<br />
y i<br />
(t)<br />
0<br />
0.1<br />
y 1,k<br />
−1<br />
0 1 2 3 4 5 6 7 0<br />
t<br />
timestep<br />
ode45 erzielt gute Genauigkeit trotz (relativ)<br />
✁ λ = 0 ˆ= Drehbewegung, siehe Bsp. 1.4.18<br />
grosser Schrittweite.<br />
Nichtsteifes Problem!<br />
y 2,k<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
Adaptive MATLAB-Integratoren für steife Probleme: (Schrittweitensteuerung wie in Abschnitt 2.6)<br />
opts = odeset(’abstol’,atol,’reltol’,rtol,’Jacobian’,@J)<br />
[t,y] = ode15s/ode23s(odefun,tspan,y0,opts);<br />
<strong>Beispiel</strong> 3.5.7 (Adaptives semi-implizites RK-ESV für steifes Problem). → Bsp. 3.5.2, 3.4.1<br />
ẏ(t) = λy 2 (1−y) , λ = 500 , y(0) =<br />
100 1 .<br />
✸<br />
3.5<br />
p. 384
MATLAB-CODE : Semi-Implizites ESV für steifes Problem<br />
lambda = 500; tspan = [0 1]; y0 = 0.01;<br />
fun = @(t,x) lambda*x^2*(1-x);<br />
Jac = @(t,x) lambda*(2*x*(1-x)-x^2);<br />
o = odeset(’reltol’,0.1,’abstol’,0.001,’stats’,’on’,’Jacobian’,Jac);<br />
[t,y] = ode23s(fun,[0 1],y0,o);<br />
Numerische<br />
Mathemtik<br />
Statistik:<br />
20 successful steps 4 failed attempts 70 function<br />
evaluations<br />
1.4<br />
1.2<br />
y(t)<br />
ode23s<br />
2<br />
0.1<br />
y<br />
1<br />
0.8<br />
0.6<br />
0.4<br />
0.2<br />
0<br />
0 0.2 0.4 0.6 0.8 1<br />
t<br />
Fig. 131<br />
y(t)<br />
1<br />
0<br />
0 0.2 0.4 0.6 0.8 1<br />
t<br />
0 0.2 0.4 0.6 0.8 1 0 0.05<br />
Zeitschrittweite<br />
Fig. 132<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
➤ Effizientes Verfahren (vgl. Bsp. 3.5.2): Keine Schrittweitenbeschränkung füry ≈ 1<br />
✸<br />
3.6<br />
p. 385
3.6 Linear-implizite Runge-Kutta-Verfahren [8, Sect. 6.4]<br />
Numerische<br />
Mathemtik<br />
Inkrementgleichungen (2.2.3) fürs-stufige implizite RK-ESV<br />
=<br />
Nichtlineares Gleichungssystem der Dimensions·d<br />
<strong>Beispiel</strong> 3.6.1 (Linearisierung der Inkrementgleichungen).<br />
Anfangswertproblem für logistische Differentialgleichung, siehe Bsp. 1.2.1<br />
ẏ = λy(1−y) , y(0) = 0.1 , λ = 5 .<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
3.6<br />
p. 386
Implizites Euler-Verfahren (1.4.13) mit uniformem<br />
Zeitschritth = 1/n,<br />
n ∈ {5,8,11,17,25,38,57,85,128,192,288,<br />
,432,649,973,1460,2189,3284,4926,7389}.<br />
10 −1<br />
Logistic ODE, y 0<br />
= 0.100000, λ = 5.000000<br />
10 0 h<br />
Numerische<br />
Mathemtik<br />
& näherungsweise Berechnung vony k+1<br />
durch 1 Newton-Schritt mit Startwerty k<br />
error<br />
10 −2<br />
10 −3<br />
Fehlermass<br />
= semi-implizites Euler-Verfahren<br />
err = max<br />
j=1,...,n |y j −y(t j )|<br />
10 −4<br />
10 −5<br />
implicit Euler<br />
semi−implicit Euler<br />
O(h)<br />
10 −4 10 −3 10 −2 10 −1 10 0<br />
Fig. 133<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
3.6<br />
p. 387
Logistic ODE, y 0<br />
= 0.100000, λ = 5.000000<br />
Numerische<br />
Mathemtik<br />
10 0 h<br />
Implizite Mittelpunktsregel (1.4.19) mit uniformem<br />
Zeitschritth = 1/n (wie oben)<br />
10 −2<br />
& näherungsweise Berechnung von y k+1<br />
durch 1 Newton-Schritt mit Startwerty k<br />
Fehlermass<br />
err = max<br />
j=1,...,n |y j −y(t j )|<br />
error<br />
10 −4<br />
10 −6<br />
10 −8<br />
10 −10<br />
implicit midpoint rule<br />
semi−implicit m.p.r.<br />
O(h 2 )<br />
10 −4 10 −3 10 −2 10 −1 10 0<br />
Fig. 134 ✸<br />
?Idee: Implizite RK-ESV mit linearisierten Inkrementgleichungen (2.2.3)<br />
⎛<br />
s∑<br />
k i = f(y 0 )+hDf(y 0 ) ⎝<br />
j=1<br />
a ij k j<br />
⎞<br />
⎠ , i = 1,...,s . (3.6.2)<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
3.6<br />
p. 388
(3.6.2) ˆ= LGS der Dimension s · d: (s ˆ= Anzahl der Stufen, A ∈ R s,s ˆ= Koeffizientenmatrix aus<br />
Butcher-Schema (2.3.6))<br />
mit Kronecker-Produkt:<br />
MATLAB-Kommando<br />
✗<br />
✖<br />
(I s·d −hA⊗Df(y 0 ))<br />
⎛<br />
k ⎞<br />
1<br />
⎝ . ⎠ =<br />
k s<br />
⎛<br />
⎞<br />
1<br />
⎝.<br />
⎠⊗f(y 0 ) ,<br />
1<br />
fürA ∈ R m,n ,B ∈ R k,l<br />
⎛ ⎞<br />
a 11 B ··· a 1n B<br />
A⊗B := ⎝ . . ⎠ ∈ R m·k,n·l .<br />
a m,1 B ··· a m,n B<br />
kron(A,B).<br />
Linearisierung folgenlos bei linearen ODE ➢ Stabilitätsfunktion (→ Def. 3.1.6) unverändert<br />
<strong>Beispiel</strong> 3.6.3 (Implizite RK-ESV mit linearisierten Inkrementgleichungen).<br />
rev 35327,<br />
✔24. Juni<br />
2011<br />
✕<br />
Numerische<br />
Mathemtik<br />
R. Hiptmair<br />
Anfangswertproblem für logistische Differentialgleichung, siehe Bsp. 1.2.1<br />
ẏ = λy(1−y) , y(0) = 0.1 , λ = 5 .<br />
3.6<br />
p. 389
2-stufiges Radau-ESV, Butcher Schema<br />
1 5<br />
3 12 − 12<br />
1<br />
1 3 1<br />
4 4<br />
, (3.6.4)<br />
3 1<br />
4 4<br />
Ordnung 3, siehe Sect. 3.4.<br />
Inkremente aus linearisierten Gleichungen<br />
(3.6.2)<br />
Fehlermass<br />
err = max<br />
j=1,...,n |y j −y(t j )|<br />
error<br />
Logistic ODE, y 0<br />
= 0.100000, λ = 5.000000<br />
10 −2<br />
10 −4<br />
10 −6<br />
10 −8<br />
10 −10<br />
RADAU (s=2)<br />
10 −12<br />
semi−implicit RADAU<br />
O(h 3 )<br />
O(h 2 )<br />
10 −14<br />
10 −4 10 −3 10 −2 h<br />
10 −1 10 0<br />
Fig. 135<br />
10 0<br />
Numerische<br />
Mathemtik<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
Ordnungsverlust durch Linearisierung !<br />
Die einfach Linearisierung (3.6.2) führt bei impliziten RK-ESV zu einem erheblichen Verlust an Genauigkeit<br />
und ist daher keine Option.<br />
✸<br />
3.6<br />
p. 390
Idee: „Rettung” der Ordnung durch bessere Startnäherung für (einen) Newtonschritt ?<br />
Wir betrachten:<br />
diagonal-implizite RK-ESV (DIRK)<br />
⇕<br />
A untere Dreiecksmatrix<br />
(A regulär⇔a jj ≠ 0)<br />
c A<br />
b T :=<br />
c 1 a 11 0 ··· 0<br />
c 2 a 21 a 22 0 0<br />
.<br />
.<br />
.<br />
. ... ... .<br />
. ... ... .<br />
. ... 0<br />
.<br />
c s a s1 ··· a ss<br />
b 1 ··· ··· b s<br />
(3.6.5)<br />
Numerische<br />
Mathemtik<br />
Gestaffeltes (nichtlineares) Gleichungssystem für Inkremente<br />
(autonomer Fall)<br />
Allgemeine Inkrementgleichungen fürs-stufiges DIRK-Verfahren:<br />
k i = f(y 0 +h<br />
i∑<br />
a ij k j ) , y 1 = y 0 +h<br />
j=1<br />
s∑<br />
b i k i .<br />
i. Inkrementgleichung: Umformulierung als Problem der Nullstellensuche von<br />
F(k) := k−f(y 0 +z+ha ii k) = 0 , z = h<br />
i=1<br />
i−1 ∑<br />
j=1<br />
a ij k j .<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
3.6<br />
p. 391
Ein Newton-Schritt mit Startwertk (0)<br />
i<br />
:<br />
DF(k) = I−Df(y 0 +z+a ii k)ha ii .<br />
k (1)<br />
i<br />
= k (0)<br />
i<br />
−(I−Df(y 0 +z+ha ii k)ha ii ) −1·<br />
(<br />
k (0)<br />
i<br />
−f(y 0 +z+ha ii k (0) )<br />
i<br />
)<br />
Numerische<br />
Mathemtik<br />
Vereinfachung, vgl. Bem. 2.3.19: Benutze Jacobi-Matrix an der Stelley 0<br />
Newton-Verfahren:<br />
Allgemeiner Ansatz für Startnäherung:<br />
Ansatz Startnäherung (fürk i ): k (0)<br />
i<br />
=<br />
i−1<br />
i−1 ∑<br />
j=1<br />
∑<br />
(I−ha ii J)k i =f(y 0 +h (a ij +d ij )k j )−hJ<br />
j=1<br />
i−1<br />
d ij<br />
a ii<br />
k j . (3.6.6)<br />
i−1 ∑<br />
j=1<br />
d ij k j , (3.6.7)<br />
J :=Df ( ∑ )<br />
y 0 +h (a ij +d ij )k j . (3.6.8)<br />
j=1<br />
Vereinfachtes Newton-Verfahen („eingefrorene” Jacobi-Matrix)<br />
Wie bei Standard-RK-ESV (→ Def. 2.3.5): y 1 = y 0 +h<br />
s∑<br />
b i k i . (3.6.9)<br />
i=1<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
3.6<br />
p. 392
Nächster Schritt:<br />
Bestimme Koeffizientena ij ,d ij in (3.6.7) (undb i ), so dass sie Ordnungsbedingungsgleichungen<br />
genügen<br />
(analog zur Konstruktion von Runge-Kutta-Verfahren in Sect. 2.3)<br />
Numerische<br />
Mathemtik<br />
Linear-implizite Runge-Kutta-Verfahren (Rosenbrock-Wanner(ROW)-Methoden)<br />
<strong>Beispiel</strong> 3.6.10 (Bedingungsgleichungen für Linear-implizite Runge-Kutta-Verfahren 2. Ordnung).<br />
Aus der Neumannschen Reihe für Matrizen: fürh > 0 “hinreichend klein”<br />
∞∑<br />
(I−ha ii J) −1 = (ha ii J) k = I+ha ii J+O(h 2 ) . (3.6.11)<br />
k=0<br />
Einsetzen in (3.6.7) + Taylor-Entwicklung vonf umy 0 + rekursives Einsetzen, vgl. Bsp. 2.3.24:<br />
(<br />
k i = I+ha ii J+O(h 2 )) ⎛ ⎞<br />
∑i−1<br />
⎝f(y 0 )+hJ (a ij +d ij )k j +O(h 2 ∑i−1<br />
)−hJ d ij k j<br />
⎠<br />
= f(y 0 )+ha ii Jf(y 0 )+hJf(y 0 ) (i−1 ∑<br />
j=1<br />
j=1<br />
a ij<br />
) +O(h 2 ) .<br />
j=1<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
3.6<br />
p. 393
(3.6.9)<br />
⇒<br />
y 1 = y 0 +h ( ∑ s )<br />
b i f(y0 )+h 2( s∑<br />
i=1<br />
i=1<br />
∑i−1<br />
b i<br />
j−1<br />
a ij<br />
)Jf(y 0 )+O(h 3 ) .<br />
Dabei wurde benutzt: J = Df(y 0 ). Dann Vergleich mit Taylorentwicklung (2.3.26) ➣ Bedingungsgleichungen<br />
(2.3.29), (2.3.30) (gleich wie für Standard-Rk-ESV !).<br />
✸<br />
Numerische<br />
Mathemtik<br />
<strong>Beispiel</strong> 3.6.12 (Energieerhaltung bei semi-impliziter Mittelpunktsregel).<br />
3<br />
300 timesteps on [0,50.000000]<br />
Hamiltonsche ODE (1.2.19) für mathematisches<br />
Pendel für 0 ≤ t ≤ T := 50, Anfangswerteα(0)<br />
= π/4,p(0) = 0<br />
Implizite Mittelpunktsregel (1.4.19)/semiimplizite<br />
Mittelpunktsregel (→ Bsp. 3.6.1) auf<br />
uniformem Zeitgitterh = T/300,<br />
Beobachtet: Zeitverhalten der Energien →<br />
Bsp. 1.4.17<br />
p<br />
2<br />
1<br />
0<br />
−1<br />
−2<br />
exact solution<br />
implicit midpoint<br />
semi−implicit m.r.<br />
−3<br />
−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1<br />
α<br />
Fig. 136<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
3.6<br />
p. 394
3<br />
Energies for implicit midpoint discrete evolution<br />
4.5<br />
4<br />
Energies for semi−implicit midpoint discrete evolution<br />
Numerische<br />
Mathemtik<br />
2.5<br />
3.5<br />
2<br />
3<br />
energy<br />
1.5<br />
energy<br />
2.5<br />
2<br />
1<br />
1.5<br />
1<br />
0.5<br />
kinetic energy<br />
potential energy<br />
total energy<br />
0<br />
0 5 10 15 20 25 30 35 40 45 50<br />
time t<br />
Fig. 137<br />
0.5 kinetic energy<br />
potential energy<br />
total energy<br />
0<br />
0 5 10 15 20 25 30 35 40 45 50<br />
time t<br />
Fig. 138<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
✗<br />
✖<br />
Energiedrift bei semi-impliziter Mittelpunktsregel<br />
✔<br />
✕<br />
✸<br />
3.7<br />
p. 395
3.7 Exponentielle Integratoren [24, 28, 25]<br />
Numerische<br />
Mathemtik<br />
Betrachte: Autonomes AWP ẏ = f(y),f : D ⊂ R d ↦→ R d stetig differenzierbar<br />
Idee:<br />
„Absubtrahieren” der Lösung der umy 0 linearisierten ODE<br />
ẏ = Jy+g(y) , g(y) := f(y)−Jy , (3.7.1)<br />
mit J := Df(y 0 )<br />
Variation der Konstanten (→ Sect. 1.3.2) angewandt auf (3.7.1)<br />
∫ h<br />
y(h) = exp(Jh)y 0 +<br />
0<br />
exp(J(h−τ))g(y(τ))dτ . (3.7.2)<br />
Faltungsintegral<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
exp ˆ= Matrixexponentialfunktion, definiert durch, vgl. (1.3.14),<br />
“Matrixexponentialreihe”: exp(M) =<br />
∞∑<br />
k=0<br />
1<br />
k! Mk .<br />
! Auswertung der Matrixexponentialreihe ist kein stabiler numerischer Algorithmus (Auslöschung !)<br />
3.7<br />
p. 396
Alternativen:<br />
Numerische<br />
Mathemtik<br />
☞ Pade-Approximation vont ↦→ e t (nach Skalieren der Matrix, „scaling and squaring”)<br />
☞ Schur-Zerlegung (siehe MATLAB-Kommando schur) M = Q T (D + U)Q mit Diagonalmatrix<br />
D, echter oberer Dreiecksmatrix U, orthogonaler Matrix Q. Anschliessend Auswertung der<br />
abgeschnittenen Matrixexponentialreihe fürD+U & (1.3.15)<br />
MATLAB-Funktionexpm, Algorithmus→[20]<br />
Numerische Quadratur des Faltungsintegrals ➢ Diskretisierung von (3.7.2) ➢ ESV<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
Einfachste Wahl:<br />
∫ h<br />
0<br />
exp(J(h−τ))g(y(τ))dτ ≈<br />
∫ h<br />
0<br />
mit<br />
exp(J(h−τ))dτ ·g(y 0 ) = hϕ(Jh)·g(y 0 )<br />
ϕ(z) = exp(z)−1<br />
z<br />
.<br />
3.7<br />
p. 397
exponentielles Euler-Verfahren (auf Zeitgitter{t k },h k := t k+1 −t k )<br />
y k+1 = y k +h k ϕ(h k J)f(y k ) , k = 0,...,N , J := Df(y k ) . (3.7.3)<br />
Numerische<br />
Mathemtik<br />
Bemerkung 3.7.4 (Stabilitätsgebiet des exponentiellen Euler-Verfahrens).<br />
Erinnerung: Analyse des linearen Modellproblems, Sect. 3.1 ➣ StabilitätsgebietS Ψ ⊂ C→<br />
Def. 3.1.4<br />
Beachte: exponentielles Euler-Verfahren ist exakt für AWP zur ODE ẏ = Ay + g mit konstantem<br />
A ∈ R d,d ,g ∈ R d .<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
(Ideale !) Stabilitätsfunktion: S(z) = exp(z) ➤ (ideales) StabilitätsgebietS Ψ = C − △<br />
<strong>Beispiel</strong> 3.7.5 (Exponentielles Euler-Verfahren).<br />
3.7<br />
p. 398
error<br />
Logistic ODE, y 0<br />
= 0.100000, λ = 5.000000<br />
h<br />
10 −1<br />
10 −2<br />
10 −3<br />
10 −4<br />
10 −5<br />
exponential Euler<br />
10 −6<br />
explicit Euler<br />
O(h)<br />
O(h 2 )<br />
10 −7<br />
10 −4 10 −3 10 −2 10 −1<br />
Fig. 139<br />
10 0<br />
• Anfangswertproblem für<br />
logistische Differentialgleichung,λ = 5,T = 1,<br />
siehe Bsp. 1.2.1<br />
• Exponentielles Euler-Verfahren (3.7.3) mit<br />
uniformen Zeitschrittweitenh<br />
• Fehlermass<br />
err = max<br />
j=1,...,n |y j −y(t j )|<br />
Algebraische Konvergenz der Ordnung 2 !<br />
✸<br />
Numerische<br />
Mathemtik<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
<strong>Beispiel</strong> 3.7.6 (Exponentielles Euler-Verfahren für steifes AWP).<br />
3.7<br />
p. 399
• Steifes AWP → Bsp. 3.5.2, 3.4.1, 3.5.7:<br />
1.4<br />
1.2<br />
exponential Euler, h=0.012500<br />
Numerische<br />
Mathemtik<br />
ẏ(t) = λy 2 (1−y) ,<br />
λ = 500 , y(0) = 1<br />
100 .<br />
1<br />
0.8<br />
y<br />
• Exponentielles Euler-Verfahren (3.7.3) mit uniformen<br />
Zeitschrittweitenh = 1 80<br />
Qualitativ richtiges Verhalten<br />
0.6<br />
0.4<br />
0.2<br />
exact solution y(t)<br />
exponential Euler<br />
0<br />
0 0.2 0.4 0.6 0.8 1<br />
t<br />
Fig. 140 ✸<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
Verallgemeinerung: Exponentielle Runge-Kutta-Verfahren: mit J := Df(y k )<br />
Semi-implizites Euler-Verfahren<br />
Exponentielles Euler-Verfahren<br />
y k+1 = y k +(I−hJ) −1 hf(y k ) y k+1 = y k +ϕ(hJ)hf(y k )<br />
☞ Ersetze: (I−γhJ) −1 → ϕ(γhJ) in linear-impliziten RK-ESV (3.6.7)<br />
3.7<br />
p. 400
Definition 3.7.7 (Exponentielle Runge-Kutta-Verfahren).<br />
Fürb i ,a ij ,d ij ∈ R,i,j = 1,...,s,s ∈ N, definiert<br />
Numerische<br />
Mathemtik<br />
k i :=ϕ(a ii hJ) ( f(u i )+hJ<br />
i−1<br />
i−1 ∑<br />
j=1<br />
d ij k j<br />
) , i = 1,...,s ,<br />
∑<br />
u i :=y 0 +h (a ij +d ij )k j , i = 1,...,s ,<br />
Ψ h y 0 :=y 0 +h<br />
j=1<br />
s∑<br />
b i k i .<br />
i=1<br />
eins-stufiges exponentielles Runge-Kutta-Einschrittverfahren für die autonome ODEẏ = f(y).<br />
R. Hiptmair<br />
rev 35327,<br />
Dabei istJ := Df(y 0 ).<br />
24. Juni<br />
2011<br />
Wie in Sect. 2.3: Gewünschte Konsistenzordnung<br />
➢ Bestimmungsgleichungen [24]<br />
➢ Koeffizientenb i ,a ij ,c ij ,d ij<br />
Zusatzbedingung: Exakte Integration von linearen Dgl. ẏ = Ay+g,A ∈ R d,d ,g ∈ R d<br />
3.7<br />
p. 401
Bemerkung 3.7.8. Herausforderung:<br />
effiziente/genaue Berechnung vonexp(c i hJ)<br />
Numerische<br />
Mathemtik<br />
Krylov-Unterraummethoden für grosse, dünnbesetzteJ→[22]<br />
△<br />
3.8 Differentiell-Algebraische Anfangswertprobleme<br />
3.8.1 Grundbegriffe<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
<strong>Beispiel</strong> 3.8.1 (Knotenanalyse eines Schaltkreises). → Bsp. 3.5.5<br />
3.8<br />
p. 402
R 1<br />
C<br />
R 2<br />
Knotengleichungen (Kirchoffsche Regel):<br />
➊: 0 = I D +I R1 −I C ,<br />
➋: 0 = I C −I R2 .<br />
Numerische<br />
Mathemtik<br />
u 0 (t)<br />
Diode<br />
➊<br />
➋<br />
Bauelementgleichungen:<br />
I D =I D (u 1 ) = I 0 (exp(K(u 0 −u 1 ))−1) ,<br />
I C =C(˙u 1 − ˙u 2 ) ,<br />
I R1 =R −1<br />
1 (u 0−u 1 ) ,<br />
I R2 =R −1<br />
2 u 2 .<br />
Vorgegeben:<br />
Zeitabhängige Eingangsspannungu 0 = u 0 (t)<br />
➊ ➣ 0 = I D (u 1 )+R1 −1 0−u 1 )−C(˙u 1 − ˙u 2 ) ,<br />
➋ ➣ 0 = C(˙u 1 − ˙u 2 )−R2 −1 2−u 0 ) .<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
( ) C −C<br />
)(˙u1<br />
−C C ˙u2<br />
=<br />
(<br />
I D (u 1 )+R −1<br />
)<br />
1 (u 0−u 1 )<br />
−R −1<br />
2 u 2<br />
Singuläre Matrix ! ➥ (3.8.2) ist Differentiell-Algebraische Gleichung (DAE)<br />
(3.8.2)<br />
3.8<br />
p. 403
Numerische<br />
Mathemtik<br />
Beachte:<br />
( 1 0<br />
1 1<br />
)( C −C<br />
−C C<br />
)( ) 1 1<br />
0 1<br />
=<br />
( ) C 0<br />
0 0<br />
.<br />
Transformation von (3.8.2): y 1 := u 1 −u 2 ,y 2 := u 2<br />
( )( ) ( ) (<br />
C 0 1 −1<br />
)(˙u1 C 0<br />
=<br />
)(ẏ1 I<br />
= D (u 1 )+R −1 )<br />
1 (u 0−u 1 )<br />
0 0 0 1 ˙u2 0 0 ẏ2 I D (u 1 )+R1 −1 (u 0−u 1 )−R2 −1 u 2<br />
(<br />
I<br />
= D (y 1 +y 2 )+R1 −1 )<br />
(u 0−y 1 −y 2 )<br />
I D (y 1 +y 2 )+R1 −1 (u 0 −y 1 −y 2 )−R2 −1 y 2<br />
Algebraische Nebenbedingung<br />
c(y 1 ,y 2 ) := I D (y 1 +y 2 )+R −1<br />
1 (u 0−y 1 −y 2 )−R −1<br />
2 y 2 = 0 .<br />
Beachte: ∀y 1 : y 2 ↦→ c(y 1 ,y 2 ) monoton fallend, lim<br />
y 2 →∞ c(y 1,y 2 ) = −∞,<br />
lim<br />
y 2 →−∞ c(y 1,y 2 ) = ∞<br />
⇒ Nebenbedingung ist auflösbar nachy 2 = u 2 :∃FunktionG : R ↦→ R so, dassy 2 = G(y 1 )<br />
.<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
Einsetzen ODE füry 1 !<br />
Cy˙<br />
1 = I D (y 1 +G(y 1 ))+R1 −1 (u 0−y 1 −G(y 1 )) .<br />
3.8<br />
p. 404
➣ Existenz & Eindeutigkeit von Lösungen, siehe Sect. 1.3.1.<br />
Numerische<br />
Mathemtik<br />
✸<br />
Gegeben: Rechte Seitef : D ⊂ R d ↦→ R d ,<br />
singuläre MatrixM ∈ R d,d<br />
☞<br />
Autonomes (lineares) differentiell-algebraisches Anfangswertproblem (DAE):<br />
Mẏ = f(y) , y(0) = y 0 . (3.8.3)<br />
Beachte: (3.8.3) impliziert algebraische Nebenbedingung f(y(t)) ∈ Im(M)<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
(Konsistente Anfangswerte erforderlich: f(y 0 ) ∈ Im(M) !)<br />
✎ Notation: Im(M) := {Mx:x ∈ R d } ˆ= Bild der MatrixM<br />
3.8<br />
p. 405
In Bsp. 3.8.1: Transformationen ➣ Reduktion auf spezielle Form:<br />
Numerische<br />
Mathemtik<br />
Erweiterung von Def. 1.1.2 ➣ Lösungsbegriff für (3.8.3)<br />
(Diffizil: Allgemeine Existenz & Eindeutigkeit von Lösungen, siehe [8, Sect. 2.6])<br />
Gegeben: „Rechte Seiten” d : D 1×D 2 ⊂ R p ×R q ↦→ R p ,<br />
c : D 1 ×D 2 ⊂ R p ×R q ↦→ R q (hinreichend glatt),p,q ∈ N,<br />
☞<br />
Anfangswerte u 0 ∈ D 1 ,v 0 ∈ D 2 .<br />
Separiertes differentiell-algebraisches Anfangswertproblem (DAE):<br />
Algebraische Nebenbedingung (engl. constraint)<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
˙u = d(u,v) ,<br />
0 = c(u,v)<br />
,<br />
u(0) = u 0 ,<br />
v(0) = v 0<br />
, c(u 0 ,v 0 ) = 0 . (3.8.4)<br />
Konsistente Anfangswerte erforderlich !<br />
3.8<br />
p. 406
Bemerkung 3.8.5 (DAE: Transformation auf separierte Form).<br />
Numerische<br />
Mathemtik<br />
Die Form (3.8.3) einer DAE ist immer in (3.8.4) transformierbar:<br />
Anwendung auf (3.8.3):<br />
rank(M) = r ⇒ ∃T,S ∈ R d,d regulär: TMS =<br />
Mẏ = f(y) ⇒ TMSS −1 ẏ = Tf(y)<br />
z:=S −1 y<br />
⇒<br />
( ) I 0<br />
0 0<br />
, I ∈ R r,r .<br />
( ) I 0<br />
ż = Tf(Sz) .<br />
0 0<br />
Also definieren die erstenr Gleichungen des transformierten Systems die Differentialgleichung, während<br />
die restlichend−r die Rolle der algebraischen Nebenbedingungen spielen.<br />
△<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
✬<br />
✩<br />
Annahme 3.8.6. Partielle Ableitung (Jacobi-Matrix)D v c(u,v) der Nebenbedingungen ist regulär<br />
entlang von Lösungskurvent ↦→ (u(t),v(t)) T .<br />
✫<br />
✪<br />
Lokale Auflösbarkeit: v = G(u): (3.8.4) ⇒ ˙u = d(u,G(u)) ˆ= (1.1.13).<br />
3.8<br />
p. 407
Definition 3.8.7 (DAE vom Index 1).<br />
Annahme (3.8.6) erfüllt ➣ DAE-AWP (3.8.4) hat (Differenzierbarkeits)index 1<br />
Numerische<br />
Mathemtik<br />
Bemerkung 3.8.8. Allgemeine Diskussion des Indexbegriffes (Index > 1, Störungsindex, etc.) bei<br />
DAE: [18, Kap. VII]<br />
△<br />
3.8.2 Runge-Kutta-Verfahren für Index-1-DAEs<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
Betrachte: differentiell-algebraisches Anfangswertproblem (3.8.4) unter Annahme 3.8.6<br />
3.8<br />
p. 408
Idee:<br />
➀ Betrachte AWPs für Dgl.<br />
➁ Formuliere RK-ESV für<br />
Singuläre Störungstechnik (engl.ǫ-embedding)<br />
➂ Macht Verfahren noch Sinnǫ = 0 ?<br />
˙u = d(u,v)<br />
ǫ˙v = c(u,v) , ǫ > 0.<br />
˙u = d(u,v)<br />
˙v = 1 , ǫ > 0.<br />
ǫc(u,v) Wenn ja→<br />
Numerische<br />
Mathemtik<br />
<strong>Beispiel</strong> 3.8.9 (Singulär gestörte Schaltkreisgleichungen).<br />
Schaltkreis aus Bsp. 3.8.1 mit parasitärer Kapazi-<br />
R 1<br />
R 2<br />
tät (durchflossen vom StromI p )<br />
Knotengleichungen (Kirchoffsche Regel):<br />
➊: 0 = I D +I R1 +I p −I C ,<br />
➊<br />
C<br />
➋<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
➋: 0 = I C −I R2 .<br />
Zusätzliche Bauelementgleichung:<br />
u 0 (t)<br />
Diode<br />
C p<br />
Fig. 141<br />
I p =C p (˙u 0 − ˙u 1 ) .<br />
3.8<br />
p. 409
( ) C+Cp −C<br />
)(˙u1<br />
−C C ˙u2<br />
=<br />
(<br />
I D (u 1 )+R1 −1 )<br />
(u 0−u 1 )+C p˙u 0<br />
−R2 −1 u 2<br />
(3.8.10)<br />
Numerische<br />
Mathemtik<br />
Reguläre Matrix fürC p > 0<br />
3<br />
Constraint manifold<br />
2.5<br />
2<br />
u 2<br />
1.5<br />
1<br />
0.5<br />
0<br />
✁ Richtungsfeld der singulär gestörten Schaltkreisgleichung<br />
füru 0 (t) ≡ 0<br />
(Skalierte Grössen R = 1, C = 1, I 0 = 10 −4 ,<br />
K = 10,C p = 10 −3 )<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
−0.5<br />
−1<br />
−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1<br />
u 1<br />
Fig. 142<br />
3.8<br />
p. 410
Aus dem Richtungsfeld liest man ab: schnelle Relaxation in Richtung auf die Mannigfaltigkeit beschrieben<br />
durch die algebraische Nebenbedingung der DAE (3.8.2)<br />
Numerische<br />
Mathemtik<br />
u 2 = R 2 (I D (u 1 )+R −1<br />
1 )(u 0−u 1 ) .<br />
☞ Steifheit des singulär gestörten Problems, siehe Bsp. 3.5.6.<br />
Quantitative Analyse: Betrachte den Fallu 0 (t) ≡ 0 ➣ Stationärer Punkt:u 1 = 0,u 2 = 0<br />
Jacobi-Matrix im stationären Punkt<br />
➣<br />
Df(0) = C −1 p<br />
C p → 0 ⇒ λ min (Df(0)) → −∞<br />
( )(<br />
1 1<br />
1 1+ C p<br />
C<br />
−I 0 K −R −1<br />
1<br />
0<br />
0 −R −1<br />
2<br />
)<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
✗<br />
✖<br />
DAEs = „∞-steife Anfangswertprobleme”<br />
✔<br />
✕<br />
✸<br />
3.8<br />
p. 411
Formale Rechnung: Singuläre Störungstechnik für Runge-Kutta-Einschrittverfahren mit<br />
Butcher-Schema c A b T<br />
Numerische<br />
Mathemtik<br />
Def. 2.3.5: s-stufiger Runge-Kutta-Schritt fürẏ = f(y), Stufenform, siehe Bem. 2.3.7:<br />
∑<br />
k i = f(y 0 +h s a ij k j )<br />
j=1 k i =f(g i )<br />
∑<br />
y 1 = y 0 +h s ⇔<br />
b i k i<br />
i=1<br />
g i = y 0 +h s ∑<br />
j=1<br />
y 1 = y 0 +h s ∑<br />
i=1<br />
a ij f(g j )<br />
b i f(g i )<br />
, i = 1,...,s .<br />
{ ˙u = d(u,v)<br />
˙v = 1 ǫ c(u,v)<br />
ǫ → 0 ⇒<br />
⎧⎪ ⎨<br />
⎪ ⎩<br />
g u i<br />
= u 0 +h s ∑<br />
⎧<br />
⎪⎨<br />
⎪⎩<br />
j=1<br />
ǫg v i<br />
= ǫv 0 +h s ∑<br />
u 1 = u 0 +h s ∑<br />
i=1<br />
j=1<br />
v 1 = v 0 + 1 ǫ h s ∑<br />
i=1<br />
a ij d(g u j ,gv j )<br />
a ij c(g u j ,gv j ) , i = 1,...,s<br />
b i d(g u i ,gv i )<br />
b i c(g u i ,gv i )<br />
s∑<br />
a ij c(gj u ,gv j ) = 0, i = 1,...,s ⇒ c(gu j ,gv j ) = 0 s<br />
j=1<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
3.8<br />
p. 412
Numerische<br />
Mathemtik<br />
➀ Falls Nebenbedingung nachv auflösbar (→ Index 1, Def. 3.8.7)<br />
Dies kann den Schrittv 0 ↦→ v 1 ersetzen.<br />
c(u 1 ,v 1 ) = 0 ⇒ v 1 = G(u 1 ) .<br />
➁<br />
Im allgemeinen Fall, formal, mit A −1 = (ǎ ij ) s i,j=1<br />
⇒ v 1 = v 0 +<br />
s∑ s∑<br />
b i<br />
i=1<br />
1<br />
s∑<br />
ǫ hc(gu i ,gv i ) =<br />
j=1<br />
j=1<br />
ǎ ij (g v j −v 0)<br />
ǎ ij (gj v −v 0) = (1−b T A −1 1) v<br />
} {{ } 0 +<br />
= S(−∞)<br />
Aus Formel (3.4.4) für StabilitätsfunktionS<br />
s∑ ( ∑ s )<br />
b i ǎ ij g<br />
v<br />
j .<br />
j=1<br />
i=1<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
Beachte: c(u 1 ,v 1 ) = 0 ist hier nicht garantiert !<br />
Spezialfall:<br />
(3.4.5) für L-Stabilität<br />
Wenn RK-ESV steif-genau, also b T = aT·,s (Zeile von A), vgl. hinreichende Bedingung<br />
3.8<br />
p. 413
⇒ v 1 = g v s ⇒ c(u 1 ,v 1 ) = 0<br />
Numerische<br />
Mathemtik<br />
Bemerkung 3.8.11 (RK-ESV und Elimination der DAE-Nebenbedingungen).<br />
Index-1 DAE (→ Def. 3.8.7) ↔ ODE ˙u = d(u,G(u))<br />
steif-genaues RK-ESV gemäss (3.4.5) für diese ODE:<br />
☞<br />
g u i = u 0+h<br />
⎧<br />
⎪⎨<br />
⎪⎩<br />
s∑<br />
a ij d(gj u ,G(gu j )) , i = 1,...,s , u 1 = gs<br />
u<br />
j=1<br />
g u i = u 0+h<br />
⇕<br />
s∑<br />
a ij d(gj u ,gv j )<br />
j=1<br />
, i = 1,...,s , u 1 = gs u .<br />
0 = c(gi u ,gv i )<br />
Ein “kommutierendes Diagramm”<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
Steif-genaues RK-ESV für<br />
˙u = d(u,v)<br />
0 = c(u,v)<br />
= Steif-genaues RK-ESV für ˙u = d(u,G(u))<br />
3.8<br />
p. 414
△<br />
Numerische<br />
Mathemtik<br />
Welche Runge-Kutta-Einschrittverfahren (→ Sect. 2.3)<br />
eignen sich für die singuläre Störungstechnik ?<br />
Notwendig (für Lösbarkeit der Imkrementgleichungen, Def. 2.3.5):<br />
implizites Verfahren<br />
DAE „∞-steif” ➣ Notwendig: A-Stabilität→Def. 3.2.16,<br />
Wünschenswert: L-stabilität→Def. 3.4.3<br />
Wiederum: Einsichten durch Modellproblemanalyse, vgl. Sect. 3.1:<br />
Modellproblem:<br />
˙u = vf(u) ,<br />
0 = 1−v<br />
˙u = vf(u) ,<br />
ǫ˙v = 1−v<br />
Singulär gestörte Dgl.<br />
0 < ǫ ≪ 1 .<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
Heuristik: ESV tauglich für Modellproblem ↔<br />
ESV tauglich für singulär gestörtes Problem∀ǫ<br />
≈ 0<br />
ESV muss für AWP<br />
liefern !<br />
˙v = ǫ −1 (1−v), v(0) = 1, 0 < ǫ ≪ 1, Folge{v k } ∞ k=0<br />
mit lim<br />
k→∞ v k = 1<br />
3.8<br />
p. 415
Erwünscht: S(−∞) = 0 für Stabilitätsfunktion (→ Thm. 3.1.6)S(z) des ESV.<br />
Numerische<br />
Mathemtik<br />
✬<br />
✩<br />
Theorem 3.8.12 (Konvergenz impliziter RK-ESV für Index-1-DAEs). → [18, Thm. 1.1,<br />
Sect. VI.1]<br />
Es seien d, c hinreichend glatt, das Anfangswertproblem (3.8.4) eindeutig lösbar<br />
und Annahme 3.8.6 erfüllt (→ Index-1-DAE, siehe Def. 3.8.7). Das s-stufige<br />
Runge-Kutte-Einschrittverfahren mit Butcher-Tableau c A bT , siehe (2.3.6), sei steif-genau, d.h.<br />
A ist regulär undb i = a s,i ,i = 1,...,s, und sei konsistent von der Ordnungp.<br />
Dann ist das Verfahren angewandt auf (3.8.4) für hinreichend kleine Zeitschrittweite h wohldefiniert<br />
und es gilt<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
‖u k −u(t k )‖ = O(h p ) , ‖v k −v(t k )‖ = O(h p ) ,<br />
auf jedem endlichen Integrationszeitintervall[0,T].<br />
✫<br />
✪<br />
3.8<br />
p. 416
Beweisskizze: Auflösen von (3.8.4) nach der algebraischen Variablenv und Einsetzen ➣ ODE<br />
Anwendung des RK-ESV auf die resultierende ODE liefert genau die gleiche diskrete Evolution fuer<br />
u wie das Verfahren für die DAE (“kommutierendes Diagramm”), vgl. Bem. 3.8.11.<br />
Numerische<br />
Mathemtik<br />
Numerische Integration von Index-1-DAEs mit Radau-ESV → Sect. 3.4<br />
Bemerkung 3.8.13. Radau-ESV auch geeignet für Index-1-DAEs (!) in der Form (3.8.3)Mẏ = f(y)<br />
△<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
Bemerkung 3.8.14 (MATLAB-Integratoren für Index-1-DAEs).<br />
3.8<br />
p. 417
MATLAB-CODE : Lösung einer Index-1-DAE<br />
f = @(t,y) [ ... ];<br />
J = @(t,y) [ ... ];<br />
M = @(t,y) [ ... ];<br />
opts = odeset(’Mass’,M,’Jacobian’,J);<br />
[t,y] = ode15s(f,tspan,y0,opts);<br />
MATLAB-Code zur Lösung allgemeiner<br />
DAEs<br />
M(t,y)ẏ = f(t,y) .<br />
Funktionf<br />
Jacobi-MatrixD y f<br />
Matrix(funktion)M(t,y)<br />
Numerische<br />
Mathemtik<br />
Alternativer Integrator: ode23t (gleicher Aufruf)<br />
(Beachte: Alle MATLAB DAE-Integratoren benutzen adaptive Schrittweitensteuerung, vgl. Sect. 2.6)<br />
△<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
<strong>Beispiel</strong> 3.8.15 (Lösung der Schaltkreis-DAEs mit MATLAB).<br />
DAE (3.8.2) mitC = 1,R 2 = 1,R 1 = 1000,K = 10,I 0 = 10 −4<br />
MATLAB-Integratoren ode23t, ode15s, default Toleranzen<br />
3.8<br />
p. 418
1<br />
0.8<br />
ode15s: Circuit DAE<br />
1<br />
0.8<br />
ode23t: Circuit DAE<br />
Numerische<br />
Mathemtik<br />
0.6<br />
0.6<br />
0.4<br />
0.4<br />
0.2<br />
0.2<br />
voltages<br />
0<br />
voltages<br />
0<br />
−0.2<br />
−0.2<br />
−0.4<br />
−0.4<br />
−0.6<br />
u 0<br />
(t)<br />
−0.6<br />
u 0<br />
(t)<br />
u 1<br />
(t)<br />
u 1<br />
(t)<br />
−0.8<br />
u 2<br />
(t)<br />
−0.8<br />
u 2<br />
(t)<br />
t i<br />
−1<br />
0 2 4 6 8 10 12 14 16<br />
time t<br />
Fig. 143<br />
t i<br />
−1<br />
0 2 4 6 8 10 12 14 16<br />
time t<br />
Fig. 144 ✸<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
3.8.3 DAEs mit höherem Index<br />
<strong>Beispiel</strong> 3.8.16 (Pendelgleichung in Deskriptorform). → Bsp. 1.2.17<br />
3.8<br />
p. 419
x 2<br />
0<br />
x 1<br />
Mathematisches Pendel (Aufhängung in0)<br />
Zwangskraft (Zug des Stabs) hält Pendelmasse<br />
Numerische<br />
Mathemtik<br />
ZwangskraftF z<br />
auf der Kreisbahn<br />
(<br />
0<br />
1)<br />
F z (x)−mg<br />
⊥ x . (3.8.17)<br />
g<br />
Zwangskraft in Richtung des Stabes:<br />
mg<br />
F z (x) = −λmx . (3.8.18)<br />
Fig. 145<br />
(x = (x 1 ,x 2 ) T ˆ= Position der Masse)<br />
Bewegungsgleichungen in Deskriptorform: (↔ Minimalkoordinaten in Bsp. 1.2.17)<br />
(<br />
0<br />
1)<br />
ẍ = −λx−g , x 2 1 +x2 2 = l2 . (3.8.19)<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
Lagrange-Multiplikator ➣ Zwangskraft Zwangsbedingung<br />
3.8<br />
p. 420
(3.8.19) ˆ= 2. Ordnung ➣ Umwandlung in separierte DAE (3.8.4) 1. Ordnung:<br />
⎛ ⎞ ⎛ ⎞<br />
ẋ 1 p 1<br />
(3.8.19) ➢ m ⎜ ẋ2<br />
⎟<br />
⎝ ṗ1 ⎠ = ⎜ p 2<br />
⎟<br />
⎝ −λx 1<br />
⎠ , x2 1 +x2 2 = l2 . (3.8.20)<br />
ṗ2 −λx 2 −g<br />
(3.8.20) ist DAE vom Index> 1 !<br />
Numerische<br />
Mathemtik<br />
Differenzieren der Zwangsbedingung x 1 p 1 +x 2 p 2 = 0 , (3.8.21)<br />
Nochmaliges Differenzieren (p 2 1 +p2 2 )−λ(x2 1 +x2 2 )−gx 2 = 0 . (3.8.22)<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
• (3.8.21), (3.8.22) ˆ= versteckte Nebenbedingungen (von den Anfangswerten zu erfüllen !)<br />
• Erst nach zweimaligem Differenzieren der Nebenbedingung können wir die daraus resultierende<br />
Nebenbedingung (3.8.22) nachλauflösen ➥ (3.8.20) hat Index 3<br />
✸<br />
3.8<br />
p. 421
Bemerkung 3.8.23 (Hamiltonsche Bewegungsgleichungen mit Nebenbedingungen).<br />
Betrachte:<br />
Mechanisches System mit Hamilton-Funktion (→ Def. 1.2.20)H = H(p,q)<br />
(q ∈ R n ˆ= Konfigurationsvariable,p ∈ R n ˆ= Impulsvariable, siehe Sect. 1.2.4)<br />
Numerische<br />
Mathemtik<br />
Zwangsbedingungen für Konfigurationen:<br />
c(q(t)) = 0 ∀t ≥ 0,c : R n ↦→ R m ,m < n<br />
Hamiltonsche Bewegungsgleichungen mit Zwangsbedingungen<br />
˙q = ∂H<br />
∂p (p,q)<br />
ṗ = − ∂H<br />
∂q (p,q)−Dc(q)T λ<br />
0 = c(q) .<br />
Lagrange-Multiplikatorλ : R ↦→ R m<br />
(3.8.24)<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
Fallsm = 1 ➣<br />
c(q) = 0 beschreibtn−1-dimensionale Mannigfaltigkeit im R n<br />
gradc(q) ˆ= Normalenvektor auf diese Mannigfaltigkeit<br />
λgradc(q) ˆ= Zwangskraft orthogonal zur Mannigfaltigkeit, vgl. (3.8.17)<br />
3.8<br />
p. 422
Häufiger Spezialfall:<br />
mitM ˆ= s.p.d. Massenmatrix,U ˆ= Potential,<br />
Numerische<br />
Mathemtik<br />
H(p,q) = 1 2 pT M −1 p+U(q) (3.8.25)<br />
kinetische Energie<br />
potentielle Energie<br />
(3.8.24) in diesem Spezialfall:<br />
˙q = M −1 p , ˙q = −gradU(q)−Dc(q) T λ , c(q) = 0 .<br />
Nun: Differentiation der Zwangsbedingung c(q) = 0 nach der Zeit + Anwenden der Produktregel &<br />
Kettenregel + Einsetzen der Differentialgleichungen aus (3.8.24).<br />
➢ Versteckte Nebenbedingungen ↔ (3.8.21), (3.8.22)<br />
0 =Dc(q) ∂H (p,q) ,<br />
∂p<br />
(3.8.26)<br />
0 =D 2 c(q)( ∂H<br />
∂p (p,q),∂H ∂p (p,q))+Dc(q) ∂2 H<br />
∂p∂q (p,q)∂H ∂p (p,q) (3.8.27)<br />
−Dc(q) ∂2 H<br />
∂ 2 p (p,q)(∂H ∂q (p,q)+Dc(q)T λ) .<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
3.8<br />
p. 423
FürH der Form (3.8.25):<br />
∂ 2 H<br />
∂p 2 = M−1 (invertierbare Matrix)<br />
Numerische<br />
Mathemtik<br />
➣ (3.8.27) nach λ auflösbar, wenn Dc(q) T injektiv ⇔ Dc(q) hat vollen Rang (entlang der<br />
Lösungstrajektorie): Zwangsbedingungen unabhängig.<br />
<strong>Beispiel</strong> 3.8.28 (MATLAB-Integratoren für Pendelgleichung in Deskriptorform).<br />
△<br />
MATLABode15s/ode23t angewandt auf (3.8.20):<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
??? Error using ==> funfun/private/daeic12 at 77<br />
This DAE appears to be of index greater than 1.<br />
Error in ==> ode15s at 394<br />
[y,yp,f0,dfdy,nFE,nPD,Jfac] = daeic12(odeFcn,odeArgs,...)<br />
3.8<br />
p. 424
Idee: „Überliste MATLAB”, probiere Nebenbedingung (3.8.22)<br />
⎛ ⎞ ⎛<br />
⎞<br />
1 0 0 0 0<br />
y 3<br />
0 1 0 0 0<br />
Mẏ = f(y): M =<br />
⎜0 0 1 0 0<br />
⎟ , f(y) = y 4<br />
⎜ −y 5 y 1<br />
⎟ .<br />
⎝0 0 0 1 0⎠ ⎝ −y 5 y 2 −g ⎠<br />
0 0 0 0 0 −y 5 (y1 2 +y2 2 )−gy 2+(y3 2 +y2 4 )<br />
l = 1,g = 9.8, Zeitspanne[0,50], Löser:ode15s mit default-Toleranzen<br />
Numerische<br />
Mathemtik<br />
Konsistente Anfangswertex 1 (0) = −x 2 (0) = 1 2√<br />
2,p1 (0) = p 2 (0) = 0 (→λ(0))<br />
0.8<br />
1.5<br />
x 1<br />
0.6<br />
x 2<br />
R. Hiptmair<br />
0.4<br />
1<br />
rev 35327,<br />
24. Juni<br />
2011<br />
0.2<br />
0.5<br />
position<br />
0<br />
−0.2<br />
0<br />
constraint (length)<br />
v \dot x<br />
energy (scaled)<br />
−0.4<br />
−0.6<br />
−0.5<br />
−0.8<br />
−1<br />
0 5 10 15 20 25 30 35 40 45 50<br />
time t<br />
−1<br />
Fig. 146 0 5 10 15 20 25 30 35 40 45 50<br />
time t<br />
Fig. 147<br />
3.8<br />
p. 425
✸<br />
Numerische<br />
Mathemtik<br />
<strong>Beispiel</strong> 3.8.29 (Implizites Euler-Verfahren für Pendelgleichung in Deskriptorform).<br />
AWP für Pendel-DAE (3.8.20) wie in Bsp. 3.8.28, EndzeitpunktT = 5<br />
Implizites Eulerverfahren (1-stufiges Radau-ESV)<br />
Formale Anwendung eines Rückwärtsdifferenzenquotienten (→ Bem. 1.4.14) auf die Hamiltonsche<br />
Bewegunggleichung mit Zwangsbedingungen (3.8.24): berechne (q 1 ,p 1 ,λ 1 ) aus (q 0 ,p 0 ,λ 0 ) gemäss<br />
q 1 = q 0 +h ∂H<br />
∂p (p 1,q 1 )<br />
p 1 = p 0 −h ∂H<br />
∂q (p 1,q 1 )−hDc(q 1 ) T λ 1<br />
0 = c(q 1 ) .<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
3.8<br />
p. 426
Konkret für Pendelgleichung in Deskriptorform (3.8.20),q ↔ x,H(p,q) = 1 2 ‖p‖2 +gx 2 :<br />
Numerische<br />
Mathemtik<br />
x 1 = x 0 +hp 1 ,<br />
(<br />
p 1 = p 0 −h λx 1 +<br />
0 = ‖x 1 ‖ 2 2 −l2 .<br />
(<br />
0<br />
g))<br />
,<br />
10 1 timestep h<br />
maximal errors<br />
10 0<br />
10 −1<br />
10 −2<br />
10 −3<br />
10 −4 10 −3 10 −2 10 −1<br />
x 1<br />
x 2<br />
v 1<br />
v 2<br />
λ<br />
O(h)<br />
Fig. 148<br />
✁ Fehler in Lösungskomponenten<br />
(diskrete Maximumnorm) für<br />
100,200,400,1600,3200,6400,12800 implizite<br />
Euler-Schritte<br />
(„Exakte Lösung berechnet mit<br />
impliziter Mittelpunktsregel angewandt auf Minimalkoordinatenform,<br />
siehe Bsp. 1.4.24)<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
3.8<br />
p. 427
Man beobachtet algebraische Konvergenz erster Ordnung in allen Lösungskomponenten !<br />
Numerische<br />
Mathemtik<br />
✸<br />
Sect. 3.8.2:<br />
Singuläre Störungstechnik für Runge-Kutte-Einschrittverfahren<br />
Anwendung auf autonome DAE (Index> 1!)<br />
ẏ = f(y,λ) ,<br />
0 = c(y) .<br />
(3.8.30)<br />
(f : D × R q ↦→ R d , D ⊂ R d , c : D ↦→ R q , Annahme: Konsistente Anfangswerte<br />
y 0 ,λ 0 zur Zeitt = 0)<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
Zu (3.8.30) gehörendes singulär gestörtes Problem<br />
fürǫ → 0.<br />
ẏ = f(y,λ) ,<br />
ǫ˙λ = c(y) ,<br />
3.8<br />
p. 428
Sect. 3.8.2 ➣ Betrachte steif-genaue RK-ESV<br />
Numerische<br />
Mathemtik<br />
Formale Rechnung: Singuläre Störungstechnik für Runge-Kutta-Einschrittverfahren mit<br />
Butcher-Schema c A b T ,b i = a s,i ,i = 1,...,s :<br />
{ ẏ = f(y,λ)<br />
˙λ = 1 ǫ c(y)<br />
ǫ → 0 ⇒<br />
⎧⎪ ⎨<br />
⎪ ⎩<br />
g i = y 0 +h s ∑<br />
⎧<br />
⎪⎨<br />
⎪⎩<br />
j=1<br />
ǫg λ i<br />
= ǫλ 0 +h s ∑<br />
y 1 := y 0 +h s ∑<br />
j=1<br />
v 1 := v 0 + 1 ǫ h s ∑<br />
a ij f(g j ,g λ j )<br />
a ij c(g j )<br />
, i = 1,...,s<br />
R. Hiptmair<br />
a s,i f(g i ,gi λ) = g rev 35327,<br />
24. Juni<br />
s<br />
2011<br />
i=1<br />
a s,i c(g i ) = gs<br />
λ<br />
i=1<br />
⇒ KoeffizientenmatrixA := (a ij ) s i,j=1 regulär<br />
s∑<br />
a ij c(g j ) = 0, i = 1,...,s ⇒ c(g j ) = 0<br />
j=1<br />
RK-ESV steif-genau<br />
3.8<br />
p. 429
➣ Stufengleichungen (→ Bem. 2.3.7) für steif-genaues RK-ESV für (3.8.30)<br />
⎧<br />
⎪⎨ ∑<br />
g i = y 0 +h s a ij f(g j ,gj λ)<br />
j=1 , i = 1,...,s , y 1 = g s . (3.8.31)<br />
⎪⎩ 0 = c(g i )<br />
Numerische<br />
Mathemtik<br />
Beachte:<br />
(3.8.31) ˆ= implizite Gleichung für Stufen g i ,g λ i<br />
λ 0 wird nicht benötigt!<br />
(s(d+q) Unbekannte)<br />
Bemerkung 3.8.32 (Implementierung steif-genauer RK-ESV für DAE).<br />
Formal: Stufengleichungen eines RK-ESV für allgemeine autonome DAE Mẏ = f(y), M ∈ R d,d<br />
singulär<br />
s∑<br />
Mg i = My 0 +h a ij f(g j ) , i = 1,...,s .<br />
j=1<br />
⇕<br />
⎛<br />
M(g 1 −y 0 )−h s ⎞<br />
∑<br />
a 1j f(g j )<br />
j=1<br />
F(g) = 0 , F(g) =<br />
.<br />
⎜<br />
⎝ ∑<br />
M(g s −y 0 )−h s ⎟<br />
asj f(g j )<br />
⎠<br />
, g =<br />
⎛<br />
g ⎞<br />
1<br />
⎝ . ⎠ . (3.8.33)<br />
g s<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
3.8<br />
p. 430
(steif-genau !)<br />
y 1 = g s<br />
Numerische<br />
Mathemtik<br />
MATLAB-CODE : steif-genaues RK-ESV für DAE<br />
function y1 = rksadaestep(rhs,M,y0,h,A)<br />
d = length(y0);<br />
s = size(A,1);<br />
F = @(gv) stagefn(gv,y,h,fun,A,M);<br />
[dgv,r,flg] = fsolve(F,zeros(s*d,1));<br />
if (flg
△<br />
Numerische<br />
Mathemtik<br />
Konvergenztheorie für (3.8.31) im Fall von DAEs mit Index 2:<br />
[18, Sect. VII.4]<br />
Fürs-stufig Radau-ESV:<br />
y h (t) konvergiert mit Ordnung2s−1,λ h (t) mit Ordnungs.<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
3.8<br />
p. 432
4<br />
Strukturerhaltende numerische<br />
Integration<br />
Numerische<br />
Mathemtik<br />
Struktur = essentielle qualitative Eigenschaften einer Evolution (☞ Sect. 1.3.3.5)<br />
• Erste Integrale/Invarianten (→ Def. 1.2.7), z.B. Gesamtenergie, Drehmoment, siehe Sect. 1.2.4<br />
• Anziehende und abstossende Fixpunkte, siehe 3.2<br />
• Nichtexpansivität, siehe 3.3<br />
• NEU: spezielle Abbildungseigenschaften des Flusses zu einer autonomen Dgl.:<br />
☞ Volumenerhaltung, Symplektizität, etc.<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
Ziel:<br />
„Vererbung” von Struktur an diskrete EvolutionΨ h<br />
Wichtig für Langzeitintegration zur Berechnung einer „qualitativ richtigen Lösung”<br />
Perspektive:<br />
Rückwärtsanalyse<br />
Numerische Lösung ist exakte Lösung zu einem „strukturell gleichen Problem” mit<br />
4.0<br />
p. 433
Beachte: In diesem Kapitel beschränken wir uns auf autonome Differentialgleichungen.<br />
Numerische<br />
Mathemtik<br />
4.1 Polynomiale Invarianten<br />
Erinnerung an Def. 1.2.7 & (1.2.8): Konzept und Eigenschaften von Invarianten/ersten Integralen<br />
<strong>Beispiel</strong>e: Massenerhaltung → Sect. 1.2.2, Energieerhaltung → Lemma 1.2.23, Längenerhaltung<br />
Bsp. 1.4.18<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
Betrachte:<br />
AWP für autonome ODEẏ = f(y) auf ZustandsraumD ⊂ R d<br />
t ↦→ y(t) ˆ= Lösung zum Anfangswerty 0 ∈ D<br />
Erinnerung: erstes IntegralI : D ↦→ R erfülltI(y(t)) = const für jede Lösungy(t) (→ Def. 1.2.7)<br />
4.1<br />
p. 434
(1.2.8): I ist erstes Integral vonẏ = f(y) ⇔ gradI(y)·f(y) = 0 für alley ∈ D.<br />
Numerische<br />
Mathemtik<br />
lineares erstes Integral : I(y) = b T y+c mitb ∈ R d ,c ∈ R<br />
quadratisches erstes Integral : I(y) = 1 2 yT My+b T y+c mitM ∈ R d,d ,b ∈ R d ,c ∈ R<br />
Definition 4.1.1 (Polynomiale Invarianten).<br />
Ein erstes IntegralI(y) ist polynomial vom Gradn,n ∈ N, wenn<br />
∑<br />
I(y) = β α y α , β α ∈ R (Multivariates Polynom) .<br />
α∈N d 0 ,|α|≤n<br />
✎ Multiindexnotation: α = (α 1 ,...,α d ) ∈ N d 0 ,|α| = ∑ i α i,y α := y α 1<br />
1 ·······yα d<br />
d<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
✬<br />
✩<br />
Theorem 4.1.2 (Erhaltung linearer Invarianten).<br />
Alle Runge-Kutta-Einschrittverfahren (→ Def. 2.3.5) erhalten lineare erste Integrale.<br />
✫<br />
✪<br />
4.1<br />
p. 435
Beweis.<br />
(für den autonomen Fall)<br />
Lineare Invariante I(y) = b T y+c,b ∈ R d ,c ∈ R ➣ gradI(y) = b ∀y ∈ D<br />
Numerische<br />
Mathemtik<br />
(1.2.8) ⇒ b·f(y) = 0 ,<br />
s∑<br />
⇒ b·f(y 0 +h a ij k j ) = b·k i = 0 , i = 1,...,s (für Inkremente) ,<br />
j=1<br />
⇒ I(y 1 ) = b·y 1 +c = b·(y<br />
0 +<br />
s∑ )<br />
b i k i +c = b·y0 +c = I(y 0 ) .<br />
i=1<br />
✷<br />
<strong>Beispiel</strong> 4.1.3 (Präzession einer Magnetnadel).<br />
y : R ↦→ R 3 = Trajektorie der Spitze einer Magnetnadel (im äusseren Feldh, fixiert in0)<br />
➣ Bewegungsgleichung<br />
⎛<br />
y ⎞<br />
2h 3 −y 3 h 2<br />
ẏ = y×h , Kreuzprodukt y×h = ⎝y 3 h 1 −y 1 h 3<br />
⎠ ⊥y<br />
y 1 h 2 −y 2 h 1<br />
Quadratische Invarianten:<br />
Anfangswert:y 0 = ( 1 2√<br />
2,0,1,<br />
1<br />
2<br />
√<br />
2)<br />
T<br />
∥<br />
∥y (m) (t) ∥ = const , m ∈ N 0<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
4.1<br />
p. 436
MATLAB-CODE : Berechnung des Präzession einer Magnetnadel<br />
h = [-1;-1;-1]; tspan = [0 10000]; y0 = [0.5*sqrt(2);0;0.5*sqrt(2)];<br />
fun = @(t,x) cross(x,h);<br />
Jac = @(t,x) [0 h(3) -h(2); -h(3) 0 h(1); h(2) -h(1) 0];<br />
options = odeset(’reltol’,0.001,’abstol’,1e-4,’stats’,’on’);<br />
[t45,y45] = ode45(fun,tspan,y0,options);<br />
options = odeset(’reltol’,0.001,’abstol’,1e-4,’stats’,’on’,’Jacobian’,Jac);<br />
[t23,y23] = ode23s(fun,tspan,y0,options);<br />
Numerische<br />
Mathemtik<br />
ode45: 24537 successful steps, 7432 failed attempts, 191815 function evaluations<br />
ode23s: 93447 successful steps, 4632 failed attempts, 289607 function evaluations<br />
1.1<br />
1.05<br />
ode45<br />
oed23s<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
1<br />
1<br />
y 3<br />
0.5<br />
0<br />
y(t)<br />
ode45<br />
ode23s<br />
Laenge |y(t)|<br />
0.95<br />
0.9<br />
−0.5<br />
1<br />
0.5<br />
0<br />
y 1<br />
−0.5<br />
1<br />
0.5<br />
y 2<br />
0<br />
−0.5<br />
Fig. 149<br />
0.85<br />
0.8<br />
0.75<br />
0 2000 4000 6000 8000 10000<br />
t<br />
Fig. 150<br />
4.1<br />
p. 437
➣ Keine Erhaltung von‖y(t)‖ über lange Zeiten (↔ viele Schwingungsperioden des Pendels)<br />
Numerische<br />
Mathemtik<br />
Einschrittverfahren auf äquidistanten Zeitgittern (qualitatives Verhalten):<br />
1.05<br />
1<br />
0.95<br />
1<br />
0.9<br />
0.5<br />
0<br />
y(t)<br />
RK4 method<br />
Gauss−Koll., s=2<br />
RADAU, s=3<br />
|y(t)|<br />
0.85<br />
0.8<br />
0.75<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
−0.5<br />
1<br />
0.5<br />
0<br />
y 3<br />
−0.5<br />
1<br />
0.5<br />
0<br />
−0.5<br />
Fig. 151<br />
0.7<br />
0.65<br />
RK4 method<br />
0.6 Gauss−Koll., s=2<br />
RADAU, s=3<br />
0.55<br />
0 200 400<br />
t<br />
600 800 1000<br />
Fig. 152<br />
4.1<br />
p. 438
1.6<br />
1.4<br />
△<br />
Numerische<br />
Mathemtik<br />
|y(t)xh|<br />
1.2<br />
1<br />
0.8<br />
0.6<br />
✬<br />
0.4 RK4 method<br />
Gauss−Koll., s=2<br />
RADAU, s=3<br />
0.2<br />
0 200 400<br />
t<br />
600 800 1000<br />
Fig. 153<br />
✁ Erhaltung aller quadratischer Invarianten nur<br />
durch das Gauss-Kollokationsverfahren.<br />
Erinnerung an Lemma 1.4.23: Erhalt<br />
quadratischer erster Integrale durch die implizite<br />
Mittelpunktsregel, das einfachste<br />
Gauss-Kollokationsverfahren.<br />
✸<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
✩<br />
Theorem 4.1.4 (Erhaltung quadratischer Invarianten).<br />
Gauss-Kollokations-ESV (→ Sect. 2.2.3) erhalten quadratische erste Integrale.<br />
✫<br />
✪<br />
Beweis. (für autonome ODEẏ = f(y), vgl. Beweis von Thm. 3.3.7)<br />
4.1<br />
p. 439
y h (t) ∈ P s ˆ= Gauss-Kollokationspolynom zum Anfangswerty 0 (t 0 = 0):<br />
Numerische<br />
Mathemtik<br />
ẏ h (c i h) = f(y h (c i h)) , h ˆ= Schrittweite, vgl. (2.2.1) . (4.1.5)<br />
Quadratische Invariante:<br />
I(y) = 1 2 yT My+b T y+c mitM = M T ∈ R d,d ,b ∈ R d ,c ∈ R<br />
d(τ) := I(y h (τh)) ist Polynom vom Grad ≤ 2s .<br />
Das-Punkt Gauss-Quadraturformel exakt für Polynome vom Grad≤ 2s−1 undd ′ ∈ P 2s−1<br />
d(1) = d(0)+<br />
∫ 1<br />
Aus Kollokationsbedingungen (4.1.5) und (1.2.8)<br />
0<br />
d ′ (τ)dτ = d(0)+<br />
s∑<br />
b i d ′ (c i )<br />
i=1<br />
} {{ }<br />
d ′ (τ) = hgradI(y h (τh))·ẏ h (τh) ⇒ d ′ (c i ) = hgradI(y h (c i h))·f(y h (c i h))<br />
} {{ }<br />
=0<br />
Dad(0) = I(y 0 ),d(1) = I(y 1 ) folgt die Behauptung.<br />
Ziel<br />
!<br />
=0<br />
.<br />
= 0 .<br />
✷<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
4.1<br />
p. 440
✬<br />
✩<br />
Lemma 4.1.6 (Erhaltung quadratischer Invarianten durch RK-ESV).<br />
Erfüllen die Koeffizienten eines s-stufigen (konsistenten) Runge-Kutta-Einschrittverfahrens (→<br />
Def. 2.3.5)<br />
Numerische<br />
Mathemtik<br />
b i a ij +b j a ji = b i b j für alle i,j = 1,...,s , (4.1.7)<br />
dann erhält dessen diskrete Evolution quadratische erste Integrale.<br />
✫<br />
✪<br />
Beweis: (für vereinfachte quadratische InvarianteI(y) := 1 2 yT My,M ∈ R d,d ,M = M T )<br />
(1.2.8) ➢ gradI(y) = My ⇒ y T Mf(y) = 0 ∀y ∈ D . (4.1.8)<br />
Ein Schritt des RK-ESV mit Inkrementenk i , vgl. Def. 2.3.5:<br />
s∑<br />
y 1 = y 0 +h b i k i ,<br />
i=1<br />
s∑<br />
y1 T My 1−y0 T My 0 = 2h b i y0 T Mk i +h 2 ∑ s<br />
i=1 i=1 j=1<br />
Benutze Stufenform, vgl. Bem. 2.2.5:<br />
s∑<br />
b i b j k T i Mk j . (4.1.9)<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
4.1<br />
p. 441
g i = y 0 +h s ∑<br />
j=1<br />
a ij f(g j ) ➣ k i = f(g i ),i = 1,...,s, y 0 = g i −h s ∑<br />
j=1<br />
a ij f(g j ).<br />
Numerische<br />
Mathemtik<br />
Einsetzen in (4.1.9), da aus (4.1.8) folgt g i Mf(g i ) = 0:<br />
y T 1 My 1−y T 0 My 0 = 2h<br />
s∑<br />
i=1<br />
b i<br />
⎛<br />
⎝g i −h<br />
⎞<br />
s∑<br />
a ij f(g j ) ⎠<br />
j=1<br />
= −2h 2 ∑ s s∑<br />
b i a ij f(g j ) T Mf(g i )+h 2 ∑ s<br />
i=1<br />
j=1<br />
T<br />
Mf(g i )+h 2 s ∑<br />
i=1<br />
= h 2 s ∑<br />
i=1<br />
i=1<br />
s∑<br />
b i b j f(g i ) T Mf(g j )<br />
j=1<br />
s∑<br />
b i b j f(g i ) T Mf(g j )<br />
j=1<br />
s∑<br />
(−2b i a ij +b i b j )f(g i ) T Mf(g j ) .<br />
j=1<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
M = M T ➣ Indexvertauschung in der Doppelsumme ➣ Behauptung. ✷<br />
4.1<br />
p. 442
✬<br />
✩<br />
Theorem 4.1.10 (Nichterhaltung allgemeiner polynomialer Invarianten).<br />
Fürn ≥ 3 gibt es kein konsistentes Runge-Kutta-Einschrittverfahren (→ Def. 2.3.5) das für alle<br />
autonomen Differentialgleichungenẏ = f(y) alle ihre polynomialen Invarianten (→ Def. 4.1.1)<br />
vom Gradnerhält.<br />
✫<br />
✪<br />
Numerische<br />
Mathemtik<br />
Hilfssatz für den Beweis:<br />
✬<br />
Lemma 4.1.11 (Ableitung der Determinantenfunktion).<br />
Für die Determinantenfunktiondet : R d,d ↦→ R gilt<br />
(Ddet(X))(H) = trace(adj(X)H) , X,H ∈ R d,d .<br />
✫<br />
✩<br />
✪<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
✎ Notation: Spur einer MatrixA = (a ij ) d i,j=1 ∈ Rd,d : trace(A) =<br />
d∑<br />
a jj<br />
j=1<br />
✎ Notation: adjungierte Matrix (adj(X)) ij = (−1) i+j det(ˇX ij ), X ∈ R d,d , 1 ≤ i,j ≤ d, ˇX ij<br />
ˆ= Matrix, die ausXdurch Streichen deri. Zeile undj. Spalte ensteht (Minor).<br />
4.1<br />
p. 443
☞ Bekannt aus der linearen Algebra [10, Lemma 4.3.4]: A·adj(A) = det(A)·I<br />
Numerische<br />
Mathemtik<br />
Beweis. Als Polynom in den Matrixelementen istA ↦→ detA eineC ∞ -Funktion:<br />
detA := ∑<br />
sgn(σ)<br />
σ∈Π d<br />
det(I+ǫH) = ∑<br />
sgn(σ)<br />
σ∈Π d<br />
d∏<br />
a i,σ(i) .<br />
i=1<br />
d∏<br />
(δ i,σ(i) +ǫh i,σ(i) )<br />
i=1<br />
d∏<br />
d∑<br />
= (1+ǫh ii )+O(ǫ 2 ) = 1+ǫ h ii +O(ǫ 2 ) . ,<br />
i=1<br />
i=1<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
für H = (h ij ) d i,j=1 , denn jede Permutation ≠ Id erzeugt ein Produkt der Grösse O(ǫ2 ). Daher für<br />
reguläresX ∈ R d,d :<br />
det(X+ǫH)−det(X) = ǫtrace(det(X)X −1 H)+O(ǫ 2 ) .<br />
} {{ }<br />
adj(X)<br />
Da die regulären Matrizen in R d,d dicht liegen,X ↦→ adjX stetig→<br />
✷<br />
4.1<br />
p. 444
Beweis von Thm. 4.1.10 (Widerspruchsbeweis)<br />
Numerische<br />
Mathemtik<br />
t ↦→ Y(t) löse lineare Matrix-Differentialgleichung Ẏ = AY, A ∈ R d<br />
Mit Lemma 4.1.11 folgt fürI(Y) = detY<br />
D Y I(Y)H = detY·trace(Y −1 H) ⇒ d dt detY(t) = Ytrace(ẎY−1 ) = Ytrace(A) .<br />
(4.1.12)<br />
⇒ ★<br />
Falls trace(A) = 0 ist I(Y) := detY eine polynomiale Invariante vom Grad d der<br />
Matrix-DifferentialgleichungẎ = AY.<br />
✧<br />
✥<br />
✦<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
Annahme: RK-ESV erhält Polynomiale Invarianten vom Grad d > 2. Wende das Verfahren an auf<br />
Ẏ = AY,trace(A) = 0,A ∈ R d,d . Nach Bem. 3.1.13, (3.1.16)<br />
Y 1 = S(hA)Y 0 mit StabilitätsfunktionS(z) , h > 0 .<br />
detY 1 = detY 0 ∀Y 0 ⇒ detS(hA) = 1<br />
Wähle spezielle (diagonale !) Matrix mittrace(A) = 0 und Zeitschrittweiteh = 1<br />
A = diag(µ,ν,−(µ+ν),0,...,0) ∈ R d,d , µ,ν ∈ R .<br />
4.1<br />
p. 445
S(A) = diag(S(µ),S(ν),S(−(µ+ν)),0,...,0)<br />
AusdetS(A) = 1 folgt, dassS die FunktionalgleichungS(µ)S(ν)S(−(µ+ν)) = 1 erfüllt.<br />
Numerische<br />
Mathemtik<br />
⇒ S(0) = 1 ⇒ S(−µ) = S(µ) −1 ⇒ S(µ)S(ν) = S(µ+ν) ∀µ,ν ∈ R .<br />
z ↦→ S(z) erfüllt die Funktionalgleichung der Exponentialfunktion, ist stetig in Umgebung von 0 ⇒<br />
S(z) = exp(z).<br />
Andererseits mussS(z) eine rationale Funktion sein, siehe Thm. 3.1.6, ein Widerspruch ✷<br />
4.2 Volumenerhaltung<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
Physik: inkompressible Strömung ↔ volumenerhaltender Fluss<br />
Definition 4.2.1 (Volumenerhaltung).<br />
Eine AbbildungΦ : D ⊂ R d ↦→ R d heisst volumenerhaltend<br />
∀V ⊂ D messbar: Vol(Φ(V)) = Vol(V) .<br />
4.2<br />
p. 446
✬<br />
✩<br />
Lemma 4.2.2 (Volumenerhaltende Abbildungen).<br />
Eine stetig differenzierbare Abbildung Φ : D ⊂ R d ↦→ R d ist genau dann volumenerhaltend,<br />
wenn|detDΦ(y)| = 1 für alley ∈ D.<br />
✫<br />
✪<br />
Numerische<br />
Mathemtik<br />
Beweis. Nach dem Transformationssatz für Integrale:<br />
∫ ∫<br />
Vol(Φ(V)) = 1dx =<br />
Φ(V) V<br />
|detDΦ(y)|dy .<br />
✷<br />
✬<br />
Theorem 4.2.3 (Satz von Liouville).<br />
Sei f : D ⊂ R d ↦→ R d stetig differenzierbar. Genau dann wenn divf(y) = 0 für jedesy ∈ D,<br />
ist die zuẏ = f(y) gehörige EvolutionΦ t volumenerhaltend, d.h.<br />
R. Hiptmair<br />
✩rev 35327,<br />
24. Juni<br />
2011<br />
∀V ⊂ D kompakt: ∃δ > 0: Vol(Φ t (V)) = Vol(V) ∀0 ≤ t < δ .<br />
✫<br />
✪<br />
✎ Notation: Divergenz divf(y) = d ∑<br />
j=1<br />
∂f i<br />
∂y i<br />
(y) = traceDf(y), mitf = (f 1 ,...,f d ) T<br />
4.2<br />
p. 447
Beweis. (basierend auf Lemma 4.2.2, vgl. [16, Lemma 9.1])<br />
Numerische<br />
Mathemtik<br />
SeiΦ : ˜Ω ↦→ D der Evolutionsoperator zur autonomen ODEẏ = f(y).<br />
Jacobi-Matrix (Propagationsmatrix)<br />
(1.3.34)<br />
W(t,y) = D y Φ t (y), y ∈ D, erfüllt die Variationsgleichung<br />
Ẇ(t,y) := d dt W(t,y) = Df(Φt y)W(t,y) , t ∈ J(y) , W(0,y) = I . (4.2.4)<br />
Wie im Beweis zu Thm. 4.1.10, aus Lemma 4.1.11, vgl. (4.1.12):<br />
“⇒” aus (4.2.5), dadetW(0,y) = 1<br />
d<br />
dt detW(t,y) =detW(t,y)trace(Ẇ(t,y)W−1 (t,y))<br />
(??)<br />
= detW(t,y)trace(Df(Φ t y))<br />
=detW(t,y)divf(Φ t y) .<br />
(4.2.5)<br />
Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
“⇐”: Wenndivf ≠ 0, dann gibt esδ > 0, V ⊂ D so dass|divf(y)| > δ für alle y ∈ V . Daher, für<br />
y ∈ V ,<br />
d<br />
dt<br />
detW(t,y) ≥ δdetW(t,y) oder<br />
d<br />
dt<br />
detW(t,y) ≤ −δdetW(t,y) .<br />
R.<br />
4.2<br />
p. 448
Lemma 1.3.29<br />
⇒ t ↦→ detW(t,y) wächst/fällt exponentiell. ✷<br />
Numerische<br />
Mathemtik<br />
✗<br />
✖<br />
Inkompressible Strömung<br />
<strong>Beispiel</strong> 4.2.6 (Strömungsvisualisierung).<br />
↔ divergenzfreie Geschwindigkeitsfelder<br />
✔<br />
✕<br />
Anwendung numerischer ODE-Löser in der Computergraphik:<br />
x 3<br />
1<br />
0.8<br />
0.6<br />
0.4<br />
0.2<br />
0<br />
−1<br />
−0.5<br />
Divergenzfreies Vektorfeld:<br />
⎛<br />
f(y) =<br />
⎜<br />
⎝<br />
MATLAB-function<br />
−y 2 − y 1<br />
a 2 +y3<br />
2<br />
y 1 − y 2<br />
a 2 +y3<br />
2<br />
2/aarctan(y 3/a)<br />
⎞<br />
⎟<br />
⎠ , y ∈ R3 .<br />
streamline(X,Y,Z,U,V,W,...)<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
0<br />
x 1<br />
0.5<br />
1 −1<br />
−0.5<br />
x 2<br />
0<br />
0.5<br />
Fig. 154<br />
1<br />
Stromlinien von f ˆ= Lösungen von AWPe zur<br />
autonomomen ODEẏ = f(y).<br />
4.2<br />
✸<br />
p. 449
Volumenerhaltende numerische ODE-Löser (“Integratoren”) ?<br />
Numerische<br />
Mathemtik<br />
✬<br />
✩<br />
Lemma 4.2.7 (Variationsgleichung und Runge-Kutta-Einschrittverfahren).<br />
Für Runge-Kutta-Einschrittverfahren (→ Def. 2.3.5) kommutiert das folgende Diagramm<br />
Variationsgleichung, siehe Sect. 1.3.3.4.<br />
W:= ∂y<br />
∂y<br />
ẏ = f(y), y(0) = y 0<br />
0 −−−−−→<br />
⏐<br />
RK-ESV↓<br />
ẏ = f(y), y(0) = y 0 ,<br />
Ẇ = Df(y)W, W(0) = I<br />
⏐<br />
⏐<br />
↓RK-ESV<br />
✫<br />
(y k ) N k=1<br />
W k := ∂y k<br />
∂y 0<br />
−−−−−−→ (y k ,W k ) N k=1<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
✪2011<br />
Beweis: (nur für explizites Euler-Verfahren (1.4.2), vgl. [16, Lemma 4.1])<br />
Rekursion des expliziten Euler-Verfahrens fürẏ = f(y)<br />
y k+1 = y k +hf(y k )<br />
d<br />
dy 0<br />
=⇒ dy k+1<br />
dy 0<br />
= dy k<br />
dy 0<br />
+hDf(y k ) dy k<br />
dy 0<br />
.<br />
4.2<br />
p. 450
Explizites Euler-Verfahren für (erweiterte) VariationsgleichungẆ = Df(y)W:<br />
Numerische<br />
Mathemtik<br />
W k+1 = W k +hDf(y k )W k .<br />
dy k<br />
dy 0<br />
undW k erfüllen die gleiche Rekursion.<br />
✷<br />
Der Beweis im allgemeinen Fall stützt sich auf implizites Differenzieren der Runge-Kutta-<br />
Inkrementgleichungen, siehe Def. 2.3.5.<br />
Bemerkung 4.2.8 (Volumenerhaltende Integratoren fürd = 2).<br />
Für RK-ESV im Falld = 2:<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
Erhalt quadratischer Invarianten<br />
=⇒ Volumenerhaltung<br />
( )<br />
w11 w<br />
Für d = 2: detW = w 11 w 22 − w 12 w 21 ist quadratische Funktion (W = 12<br />
ˆ=<br />
w 21 w 22<br />
Propagationsmatrix/Wronsk-Matrix, siehe (1.3.33)). Ist die Evolution zu ẏ = f(y) volumenerhaltend,<br />
4.2<br />
p. 451
so gilt detW(t) ≡ 1, also is detW eine quadratische Invariante der Variationsgleichung und wird<br />
vom RK-ESV erhalten.<br />
Numerische<br />
Mathemtik<br />
Nach Lemma 4.2.7 gilt dann<br />
∀h > 0: det<br />
(<br />
D y0 Ψ h) = 1 .<br />
Nach Lemma 4.2.2 ist die diskrete Evolution daher volumenerhaltend.<br />
△<br />
d > 2: (Beweis von) Thm. 4.1.10 ➢ Allgemeine Runge-Kutta-Einschrittverfahren kommen nicht<br />
in Betracht !<br />
(Notwendig: Integratoren mit “eingebauter Zusatzinformation” überf)<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
Idee: ➊ Additive Zerlegung vonf in wesentlich zweidimensionale Vektorfelder<br />
➋ Splittingverfahren (→ Sect. 2.5) basierend auf RK-ESV, die<br />
quadratische Invarianten erhalten, siehe Sect. 4.1.<br />
4.2<br />
p. 452
Zu ➊: f(y) =<br />
d−1 ∑<br />
i=1<br />
g i,i+1 (y) ,<br />
Zu ➋: y k+1 =(Ψ h d−1 ◦···◦Ψh 1 )y k ,<br />
g i,i+1 (y) = (0 ··· 0 ∗ ∗ 0 ··· 0) T<br />
↑ ↑<br />
i i+1<br />
, divg i,i+1 = 0 .<br />
Numerische<br />
Mathemtik<br />
wobeiΨ h i<br />
ˆ= diskrete Evolution des RK-Basisverfahrens für<br />
ẏ = g i,i+1 (y).<br />
Verallgemeinertes Lie-Trotter-Splitting (2.5.2)<br />
Existenz der Vektorfelderg i,i+1 ?<br />
✬<br />
Theorem 4.2.9 (Zerlegung in divergenzfreie Vektorfelder).<br />
Jedes stetige divergenzfreief : R d ↦→ R d lässt sich darstellen als Summe vond−1 divergenzfreien<br />
Vektorfelderng i,i+1 : R d ↦→ R d der Form<br />
R. Hiptmair<br />
✩<br />
rev 35327,<br />
24. Juni<br />
2011<br />
g i,i+1 (y) = (0 ··· 0 p i (y) q i (y) 0 ··· 0) T , i = 1,...,d−1 ,<br />
↑ ↑<br />
i i+1<br />
mit Funktionenp i ,q i : R d ↦→ R.<br />
✫<br />
✪<br />
4.2<br />
p. 453
⎛ ⎞<br />
f 1 (y)<br />
f 2 (y)<br />
f 3 (y)<br />
f(y) =<br />
f 4 (y)<br />
⎜ .<br />
⎟<br />
⎝f d−1 (y) ⎠<br />
f d (y)<br />
=<br />
⎛ ⎞<br />
p 1 (y)<br />
q 1 (y)<br />
0<br />
0<br />
⎜ ⎟<br />
⎝<br />
0. ⎠<br />
0<br />
+<br />
⎛ ⎞<br />
0<br />
p 2 (y)<br />
q 2 (y)<br />
0<br />
⎜ ⎟<br />
⎝<br />
0. ⎠<br />
0<br />
+<br />
⎛<br />
0<br />
0<br />
p 3 (y)<br />
q 3 (y)<br />
⎜ ⎟<br />
⎝ ⎠<br />
0.<br />
0<br />
⎞<br />
+···+<br />
⎛ ⎞<br />
0.<br />
0<br />
0<br />
⎜p d−2 (y)<br />
⎟<br />
⎝q d−2 (y) ⎠<br />
0<br />
+<br />
⎛ ⎞<br />
0.<br />
0<br />
0<br />
⎜ 0<br />
⎟<br />
⎝p d−1 (y) ⎠<br />
q d−1 (y)<br />
.<br />
Numerische<br />
Mathemtik<br />
Beweis. (vgl. [16, Theorem 9.3])<br />
Konstruktiv fürf = (f 1 ,...,f d ) T mit beliebigena i ∈ R<br />
p i (y) = f i (y)+r i (y) , q i (y) = −r i+1 (y) ,<br />
∫ y i ( ∂f1<br />
r i (y) = +···+ ∂f )<br />
i−1<br />
(y<br />
∂y 1 ∂y 1 ,...,y i−1 ,τ,y i+1 ,...,y d ) dτ , 2 ≤ i ≤ d−1 ,<br />
i−1<br />
a i<br />
⇒<br />
r 1 (y) ≡ 0 ,<br />
∂p i<br />
= ∂f i<br />
+ ∂f 1<br />
+···+ ∂f i−1<br />
,<br />
∂y i ∂y i ∂y 1 ∂y i−1<br />
∂q i<br />
= − ∂f 1<br />
−···− ∂f i<br />
= − ∂p i<br />
.<br />
∂y i+1 ∂y 1 ∂y i ∂y i<br />
1 ≤ i ≤ d−1 .<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
4.2<br />
p. 454
Also sind die Teilfelder alle divergenzfrei. Weiter, wegendivf = 0,<br />
⎛ ⎞<br />
d−1 ∑<br />
∫ y d<br />
⎝ ⎠<br />
i=1<br />
g i,i+1 (y)<br />
d<br />
= q d−1 (y) = −r d (y) = −<br />
∂f 1<br />
+ ··· + ∂f d−1<br />
=<br />
∂y 1 ∂y d−1<br />
a d<br />
∫ y d<br />
∂f d<br />
= f<br />
∂y d (y) .<br />
d<br />
a d<br />
Numerische<br />
Mathemtik<br />
Beachte: Konstruktion derg i,i+1 benötigt (symbolische) Ableitungen derf i .<br />
Bemerkung 4.2.10 (Volumenerhaltendes Splittingverfahren 2. Ordnung).<br />
Einfachstes volumenerhaltendes Splittingverfahren 2. Ordnung:<br />
Basis-RK-ESV:<br />
➥ Ψ h i volumenerhaltend, siehe Bem. 4.2.8 !<br />
Verallgemeinertes Strang-Splitting (2.5.3)<br />
implizite Mittelpunktsregel (1.4.19),Ψ h i ˆ= diskrete Evolutionen zuẏ = g i,i+1 (y)<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
Ψ h := Ψ h /2<br />
1<br />
◦Ψ h /2<br />
2<br />
◦···◦Ψ h /2<br />
d−2 ◦Ψh d−1 ◦Ψh /2<br />
d−2 ◦···◦Ψh /2<br />
1<br />
.<br />
symmetrisches Einschrittverfahren→Def. 2.1.27<br />
Thm. 2.1.29<br />
⇒ Konsistenzordnung≥ 2<br />
△<br />
4.3<br />
p. 455
4.3 Verallgemeinerte Reversibilität<br />
Numerische<br />
Mathemtik<br />
Sect. 2.1.5: reversible (symmetrische) diskrete Evolutionen/Einschrittverfahren → Def. 2.1.27<br />
(für autonome ODE)<br />
Ψ −h ◦Ψ h = Id fürh > 0 hinreichend klein<br />
D<br />
Ψ h Ψ −h Fig. 155<br />
Reversibilität<br />
⇕<br />
Symmetrie bzgl. Zeitumkehr<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
t<br />
Erinnerung an Thm. 2.1.29:<br />
Reversible ESV haben gerade Konsistenzordnung<br />
Wir haben bereits reversible Einschrittverfahren kennengelernt: implizite Mittelpunktsregel (1.4.19)<br />
aus Abschnitt 1.4.3, das einfachste Gauss-Kollokationsverfahren, vgl. (2.2.19).<br />
4.3<br />
p. 456
✬<br />
✩<br />
Theorem 4.3.1 (Reversible Runge-Kutta-Einschrittverfahren).<br />
Numerische<br />
Mathemtik<br />
Ein s-stufiges RK-ESV (→ Def. 2.3.5) mit Butcher-Tableau c A bT , siehe (2.3.6), ist reversibel<br />
(symmetrisch,→Def. 2.1.27), falls<br />
a s+1−i,s+1−j +a ij = b j ∀1 ≤ i,j ≤ s .<br />
✫<br />
✪<br />
Beweis (siehe [16, Sect. V.2, Thm. 2.3])<br />
zu zeigen:<br />
y 0<br />
Ψ h<br />
−−→ y 1<br />
Ψ −h<br />
−−−→ y 0 .<br />
Technik: Teste Invarianz der Verfahrensgleichungen bei Vertauschung<br />
Verfahrensgleichungen<br />
y 0 ↔ y 1 , h ↔ −h in den<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
⎧<br />
s∑<br />
k ⎪⎨ i = f(y 0 +h a ij k j ) ,<br />
j=1<br />
s∑<br />
⎪⎩<br />
y 1 = y 0 +h b i k i .<br />
i=1<br />
⇒<br />
⎧<br />
s∑<br />
k ⎪⎨ i = f(y 1 −h a ij k j ) ,<br />
j=1<br />
s∑<br />
⎪⎩<br />
y 0 =y 1 −h b i k i .<br />
i=1<br />
(4.3.2)<br />
4.3<br />
p. 457
⇒<br />
⎧<br />
s∑<br />
k ⎪⎨ i = f(y 0 +h (b j −a ij )k j ) ,<br />
j=1<br />
s∑<br />
⎪⎩<br />
y 1 = y 0 +h b i k i .<br />
i=1<br />
(4.3.3)<br />
Numerische<br />
Mathemtik<br />
2a ij = b j ⇒ Gleichheit nach Vertauschung y 0 ↔ y 1 , h ↔ −h, doch leider liefert das kein<br />
sinnvolles RK-ESV (Ausnahme: implizite Mittelpunktsregel (1.4.19) mits = 1,a 11 =<br />
2 1 ,b 1 = 1)<br />
! Beachte: a s+1−i,s+1−j +a ij = b j ⇒ b s+1−i = b i<br />
➣<br />
Umindiziereni ← s+1−i,j ← s+1−j unter den Annahmeb s+1−i = b i<br />
⎧<br />
s∑<br />
k ⎪⎨ i = f(y 0 +h (b j −a s+1−i,s+1−j )k j ) ,<br />
(4.3.3) ⇒<br />
⎪⎩<br />
y 1 = y 0 +h<br />
j=1<br />
s∑<br />
b i k i .<br />
i=1<br />
= Ausgangs-RK-ESV, fallsb j −a s+1−i,s+1−j = a ij ✷<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
4.3<br />
p. 458
✬<br />
✩<br />
Theorem 4.3.4 (Reversible Gauss-Kollokations-ESV).<br />
✫<br />
Gauss-Kollokations-ESV sind reversibel (→ Def. 2.1.27).<br />
✪<br />
Numerische<br />
Mathemtik<br />
Da Gauss-Kollokationsverfahren zur Klasse der Runge-Kutta-Einschrittverfahren gehören, genügt es,<br />
die Voraussetzungen von Thm. 4.3.1 zu verifizieren. Dazu verwende die expliziten Formeln (2.2.3) für<br />
die Runge-Kutte-Koeffizientena ij undb i ,1 ≤ i,j ≤ s.<br />
a ij =<br />
∫ ci<br />
0<br />
L j (τ)dτ , b i =<br />
∫ 1<br />
0<br />
L i (τ)dτ ,<br />
wobei die c i die auf [0,1] normalisierten Kollokationspunkte (= Gausspunkte) sind, und die L j die<br />
dazugehörigen Lagrange-Polynome, siehe (2.2.2).<br />
Lage der Gaussknoten für die s-Punkt Gaussquadraturformel auf [0,1] is symmetrisch um 1 2 , siehe<br />
Fig. 59:<br />
c i = c s+1−s ⇒ L i (τ) = L s+1−i (1−τ) , 1 ≤ i ≤ s . (4.3.5)<br />
a s+1−i,s+1−j +a ij =<br />
∫ cs+1−i<br />
0<br />
=−<br />
∫ 1−cs+1−i<br />
1<br />
L s+1−j (τ)dτ +<br />
∫ c i<br />
0<br />
L j (τ)dτ<br />
L s+1−j (1−τ)dτ +<br />
∫ c i<br />
L j (τ)dτ<br />
R. Hiptmair<br />
rev 35327,<br />
24. Juni<br />
2011<br />
4.3<br />
p. 459
Numerische<br />
Mathemtik<br />
Nachtrag zu Sect. 3.3:<br />
✬<br />
✩<br />
Theorem 4.3.6 (Stabilitätsgebiet und Reversibilität).<br />
Für reversible und A-stabile (→ Def. 3.2.16) Runge-Kutta-Einschrittverfahren giltS Ψ = C − .<br />
✫<br />
✪<br />
Neues Konzept:<br />
R-Reversibilität = “verallgemeinerte Zeitumkehrsymmetrie”<br />
<strong>Beispiel</strong> 4.3.7 (Reversibilität bei mechanischen Systemen).<br />
Hamiltonsche Differentialgleichung (→ Def. 1.2.20) mit Hamilton-Funktion<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
H :<br />
{ R n ×R n ↦→ R<br />
(p,q) ↦→ 1 2 pT M −1 p+U(q) ,<br />
⇒ H(p,q) = H(−p,q) ,<br />
mit s.p.d. MassenmatrixM ∈ R d,d .<br />
ṗ(t) = − ∂H<br />
∂H<br />
(p(t),q(t)) = −gradU(q) ,˙q(t) =<br />
∂q ∂p (p(t),q(t)) = M−1 p . (4.3.8)<br />
4.3<br />
p. 460
Kommutierendes Diagramm<br />
Umkehr der Geschwindigkeiten:<br />
p<br />
R<br />
p ← −p<br />
(p 0 ,q 0 )<br />
⏐<br />
↓<br />
(−p 0 ,q 0 )<br />
Φ t<br />
(Zeitumkehrsymmetrie)<br />
Evolution (4.3.8)<br />
−−−−−−−−−→<br />
von0bisT<br />
Evolution (4.3.8)<br />
←−−−−−−−−−<br />
vonT bis 0<br />
(p(T),q(T))<br />
⏐<br />
↓<br />
Umkehr der Geschwindigkeiten:<br />
(−p(T),q(T))<br />
p ← −p<br />
Φ t Geschwindigkeiten<br />
⇔ EvolutionΦ t zu (1.2.21) erfüllt<br />
R<br />
R◦Φ t = Φ −t ◦R (4.3.9)<br />
mit Abbildung<br />
q<br />
( ( ) p −p<br />
R = .<br />
q)<br />
q<br />
(4.3.10)<br />
(4.3.9) ˆ= „Rückwärtsevolution” nach Umkehr der<br />
Numerische<br />
Mathemtik<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
✸<br />
Abstraktion:<br />
Betrachte autonome AWPe ẏ = f(y), y(0) = y 0 ,<br />
f : D ↦→ R d lokal Lipschitz-stetig (→ Def. 1.3.2)<br />
4.3<br />
p. 461
Annahme: Für alley 0 ∈ D existiert die Lösung für alle Zeiten, vgl. Def. 1.3.1<br />
Numerische<br />
Mathemtik<br />
Definition 4.3.11 (R-reversible Abbildung).<br />
Es sei<br />
R : D ↦→ D ⊂ R d eine bijektive lineare Abbildung.<br />
Eine weitere bijektive AbbildungΦ : D ↦→ D heisstR-reversibel, falls<br />
R◦Φ = Φ −1 ◦R .<br />
✬<br />
Lemma 4.3.12 (R-reversible Evolutionen).<br />
Die EvolutionΦ t zuẏ = f(y) istR-reversibel für allet ∈ R, falls<br />
f ◦R = −R◦f aufD . (4.3.13)<br />
✫<br />
✩<br />
✪<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Beweis. (siehe [16, Sect. V.1]) Zu zeigen ist, wegenΦ t ◦Φ −t = Id (Gruppeneigenschaft (1.3.8))<br />
R◦Φ t = (Φ t ) −1 ◦R = Φ −t ◦R . (4.3.14)<br />
4.3<br />
p. 462
Idee:<br />
beide Seiten von (4.3.14) sind Lösungen des gleichen Anfangswertproblems, mity ∈ D<br />
d<br />
dt ((R◦Φt )(y)) = Rf(Φ t (y)) = −f((R◦Φ t )(y)) , (4.3.15)<br />
d<br />
dt ((Φ−t ◦R)(y)) = −f((Φ −t ◦R)(y)) . (4.3.16)<br />
t ↦→ (R◦Φ t )(y) undt ↦→ (Φ −t ◦R)(y) sind beides Lösungen des Anfangswertproblems<br />
Numerische<br />
Mathemtik<br />
ż = −f(z) , z(0) = Ry .<br />
Daher folgt (4.3.14) aus dem Eindeutigkeitssatz Thm. 1.3.4.<br />
✷<br />
<strong>Beispiel</strong> 4.3.17 (Fortsetzung: Reversibilität bei mechanischen Systemen). Bsp. 4.3.7<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Für Hamiltonsche Evolution (4.3.8) mity = (p,q) T ,d = 2n,Raus (4.3.10)<br />
( ) ( ) ( )<br />
−gradU(Rq (y)) −gradU(q) −gradU(q)<br />
(f ◦R)(y) =<br />
M −1 =<br />
R p (y) −M −1 = −R<br />
p M −1 p<br />
ˆ= Voraussetzung von Lemma 4.3.12.<br />
= −R(f(y)) .<br />
4.3<br />
p. 463
Alternative Perspektive: Hamiltonsche Dgl. (1.2.24) ẏ = J −1 gradH(y),J=<br />
( ) 0 I<br />
:<br />
−I 0<br />
Numerische<br />
Mathemtik<br />
H(Ry) = H(y) ⇒ RgradH(Ry) = gradH(y) . (4.3.18)<br />
FürRaus (4.3.9): J◦R = −R◦J, R 2 = Id<br />
(4.3.18)<br />
⇒ −R(J −1 gradH(y)) = J −1 R(gradH(y)) = J −1 RRgradH(Ry) = J −1 gradH(Ry) .<br />
ˆ= (4.3.13) fürf(y) = J −1 gradH(y).<br />
✸<br />
✬<br />
Theorem 4.3.19 (R-reversible Runge-Kutta-Evolutionen).<br />
Die rechte Seitef der autonomen ODEẏ = f(y) erfülle (4.3.13).<br />
Dann ist die von einem Runge-Kutta-Einschrittverfahren (→ Def. 2.3.5) erzeugte<br />
diskrete Evolution genau dann R-reversibel, wenn das RK-ESV reversibel/symmetrisch<br />
(→ Def. 2.1.27) ist.<br />
✫<br />
✩<br />
✪<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
4.3<br />
p. 464
Beweis. (siehe [16, Sect. V.1, Thm. 1.5])<br />
➀ Mit Notationen von Lemma 4.3.12 undΨ h als diskrete Evolution des RK-ESV zur ODEẏ = f(y)<br />
wird gezeigt (vgl. Beweis der Affin-Kovarianz von RK-ESV, Bem. 2.3.13)<br />
Numerische<br />
Mathemtik<br />
f ◦R = −R◦f ⇒ R◦Ψ h = Ψ −h ◦R . (4.3.20)<br />
Gemäss Def. 2.3.5, wegen Linearität vonR<br />
⎧<br />
s∑<br />
⎪⎨<br />
k i = f(y+h<br />
⎪⎩<br />
Ψ h y = y+h<br />
j=1<br />
s∑<br />
b i k i ,<br />
i=1<br />
a ij k j ) ,<br />
(4.3.13)<br />
=⇒<br />
Transformierte Inkremente ˜k i := −Rk i erfüllen<br />
⎧<br />
⎪⎨<br />
Rk i = −f(Ry+h<br />
⎪⎩<br />
RΨ h y = Ry+h<br />
s∑<br />
a ij Rk j ) ,<br />
j=1<br />
s∑<br />
b i Rk i .<br />
i=1<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
s∑<br />
˜k i = f(Ry−h a ij˜k j ) , i = 1,...,s .<br />
j=1<br />
˜k i ˆ= Inkremente des RK-ESV zur Schrittweite−h, AnfangswertRy ↔Ψ −h Ry<br />
RΨ h y = Ry−h<br />
s∑<br />
b i˜k i = Ψ −h Ry ⇒ (4.3.20) .<br />
i=1<br />
4.3<br />
p. 465
➁ direkte Verifikation von Def. 4.3.11<br />
RK-ESV reversibel/symmetrisch<br />
⇕<br />
(4.3.20)<br />
⇒ R◦Ψ h = Ψ −h ◦R = (Ψ h ) −1 ◦R . ✷<br />
Ψ −h = (Ψ h ) −1<br />
Numerische<br />
Mathemtik<br />
4.4 Symplektizität<br />
4.4.1 Symplektische Evolutionen Hamiltonscher Differentialgleichungen<br />
Erinnerung (Sect. 1.2.4): Hamiltonsche Differentialgleichung → Def. 1.2.20<br />
ṗ(t) = − ∂H ∂H<br />
(p(t),q(t)) , ˙q(t) =<br />
∂q ∂p (p(t),q(t)) ,<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
(1.2.21)<br />
4.4<br />
p. 466
mit (glatter) Hamilton-FunktionH : R n ×M ↦→ R, KonfigurationsraumM ⊂ R n .<br />
y = ( p)<br />
q<br />
=⇒ (1.2.21) ⇔ ẏ = J −1·gradH(y) ( ) 0 In<br />
, J = ∈ R<br />
−I n 0<br />
2n,2n . (1.2.24)<br />
Lemma 1.2.23 (Energieerhaltung): H ist Invariante von (1.2.21)<br />
Numerische<br />
Mathemtik<br />
<strong>Beispiel</strong> 4.4.1 (Energieerhaltung bei numerischer Integration). ↔ Bsp. 1.4.24<br />
Mathematisches Pendel Bsp. 1.2.17, AWP für (1.2.19) auf[0,1000],p(0) = 0,q(0) = 7π/6.<br />
Vergleich von klassischem Runge-Kutta-Verfahren (2.3.11) (Ordnung 4) mit 1-stufigem<br />
Gauss-Kollokations-ESV (implizite Mittelpunktsregel 2.2.19), äquidistantes Gitter,h = 1 2 :<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
4.4<br />
p. 467
q<br />
9<br />
8<br />
7<br />
6<br />
5<br />
4<br />
(p(t),q(t))<br />
RK4 Methode<br />
Impl. Mittelpunktsregel<br />
3<br />
−2 −1.5 −1 −0.5 0<br />
p<br />
0.5 1 1.5 2<br />
Fig. 156<br />
Trajektorien „exakter” /diskreter Evolutionen<br />
Gesamtenergie<br />
0.95<br />
0.9<br />
0.85<br />
0.8<br />
0.75<br />
0.7<br />
0.65<br />
0.6<br />
RK4−Methode<br />
Impl. Mittelpunktsregel<br />
0.55<br />
0 200 400<br />
t<br />
600 800 1000<br />
Fig. 157<br />
Energieerhaltung diskreter Evolutionen<br />
Numerische<br />
Mathemtik<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
➣ Keine Energiedrift bei impliziter Mittelpunktsregel<br />
✸<br />
4.4<br />
p. 468
?<br />
Eine rätselhafte Beobachtung:<br />
★<br />
Besonderheit mancher(∗) numerischer Integratoren:<br />
✧<br />
Approximative Langzeit-Energieerhaltung (keine Energiedrift)<br />
(∗) Implizite Mittelpunktsregel (1.4.19)→Bsp. 4.4.1, 1.4.24,<br />
Störmer-Verlet-Verfahren (2.5.13)→Bsp. 1.4.32<br />
✥<br />
✦<br />
Numerische<br />
Mathemtik<br />
Bemerkung 4.4.2 (Volumenerhaltung bei zweidimensionalen Hamiltonschen ODEs).<br />
Für EvolutionΦ t : R n ×M ↦→ R n ×M zu einer Hamiltonschen Differentialgleichung gilt:<br />
n = 1 ➣<br />
div y J −1 gradH(y)<br />
} {{ }<br />
rotH(y)<br />
= 0<br />
Thm. 4.2.3<br />
➣<br />
Φ t volumenerhaltend (flächenerhaltend).<br />
<strong>Beispiel</strong> 4.4.3 (Flächenerhaltung bei Evolution für Pendelgleichung). → Bsp. 1.2.17<br />
△<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
p↔Winkelgeschwindigkeit,<br />
ṗ = −sinq ,<br />
˙q = p<br />
q ↔ Winkelvariableα<br />
Hamilton-FunktionH(p,q) = 1 2 p2 −cosq (Gesamtenergie) (4.4.4)<br />
4.4<br />
p. 469
11<br />
10<br />
9<br />
t=0<br />
t=0.5<br />
t=1<br />
t=2<br />
t=3<br />
t=5<br />
Numerische<br />
Mathemtik<br />
Volumenerhaltung im Zustandsraum (Phasenraum):<br />
Evolution eines quadratischen Volumens<br />
✄<br />
q = α<br />
8<br />
7<br />
6<br />
5<br />
4<br />
−1.5 −1 −0.5 0 0.5 1 1.5 2 2.5<br />
p<br />
Fig. 158<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
4.4<br />
p. 470
11<br />
10<br />
9<br />
t=0<br />
t=0.5<br />
t=1<br />
t=2<br />
t=3<br />
t=5<br />
11<br />
10<br />
9<br />
t=0<br />
t=0.5<br />
t=1<br />
t=2<br />
t=3<br />
t=5<br />
Numerische<br />
Mathemtik<br />
8<br />
8<br />
q<br />
q<br />
7<br />
7<br />
6<br />
6<br />
5<br />
5<br />
4<br />
−1.5 −1 −0.5 0 0.5 1 1.5 2 2.5<br />
p<br />
4<br />
−1.5 −1 −0.5 0 0.5 1 1.5 2 2.5<br />
p<br />
Evolution eines quadratischen Volumens<br />
(Explizites Eulerverfahren)<br />
Evolution eines quadratischen Volumens<br />
(Implizite Mittelpunktsregel)<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Bem. 4.2.8: Fürd = 2 ist die implizite Mittelpunktsregel volumenerhaltend (wie alle<br />
Gauss-Kollokationsverfahren nach Lemma 4.1.6)<br />
✸<br />
4.4<br />
p. 471
Verallgemeinerung auf höhere Dimensionen: Symplektische Evolutionen (≠ Volumenerhaltung)<br />
Numerische<br />
Mathemtik<br />
Push-Forward: Wirkung einer (glatten) Abbildung<br />
auf infinitesimale Strecke = Vektor<br />
FürC 1 -AbbildungΦ : D ⊂ R d ↦→ R d :<br />
(Φ ∗ v)(y) = DΦ(y)v y ∈ D, v ∈ R d .<br />
✁ Transport eines Vektors im „Strömungsfeld”<br />
t ↦→ Φ t zuẏ = f(y)<br />
Fig. 159<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Definition 4.4.5 (Symplektisches Produkt).<br />
ω(v,w) := v T Jw , v,w ∈ R 2n mit J =<br />
( ) 0 In<br />
−I n 0<br />
.<br />
4.4<br />
p. 472
Bemerkung 4.4.6 (Konstante 2-Formen).<br />
Numerische<br />
Mathemtik<br />
Symplektisches Produkt ˆ= Prototyp einer nichtdegenerierten, alternierenden Bilinearform:<br />
Definition 4.4.7 (Alternierende, nichtdegenerierte Bilinearform).<br />
Eine Bilinearformβ : R d ×R d ↦→ R heisst<br />
• alternierend :⇔ β(x,y) = −β(y,x) ∀x,y ∈ R d ,<br />
• nichtdegeneriert :⇔ β(x,y) = 0 ∀y ∈ R d ⇒ x = 0<br />
β : R d ×R d ↦→ R alternierende Bilinearform ⇒ ∃L ∈ Rd,d : L T = −L<br />
β(x,y) = x T Ly ∀x,y ∈ R d<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
✬<br />
Lemma 4.4.8 (Normalform schiefsymmetrischer Matrizen).<br />
Zu jedem regulärenL ∈ R 2n,2n mitL T = −L gibt es ein reguläresU ∈ R d,d , so dass<br />
( )<br />
U T 0 In<br />
LU = J =<br />
(Kongruenztransformation).<br />
−I n 0<br />
✫<br />
✩<br />
✪<br />
4.4<br />
p. 473
Beweis. L = −L T<br />
⇒ unitär diagonalisierbar (normale Matrix !), rein imaginäre Eigenwerte, die<br />
in konjugiert komplexen Paaren zu konjugiert komplexen Eigenvektoren auftreten:<br />
)<br />
∃Q ∈ C 2n : Q −1 = Q H und<br />
Q H LQ = i<br />
mitD = diag(µ 1 ,...,µ n ) ∈ R n ,µ i > 0. Dann setze<br />
U = √ 1<br />
(<br />
D<br />
Q<br />
− 1/2<br />
D − )<br />
1/2<br />
2 −iD −1/2 iD − 1/2<br />
( D 0<br />
0 −D<br />
,<br />
. ✷<br />
Numerische<br />
Mathemtik<br />
Beachte: Die MatrixUist reell !<br />
Es gibt eine reelle Koordinatentransformation, dieβ inω (→ Def. 4.4.5) überführt.<br />
Bemerkung 4.4.9 (Symplektisches Flussintegral).<br />
△<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
4.4<br />
p. 474
Numerische<br />
Mathemtik<br />
y<br />
✁ ω(x,y) ˆ= Fluss “durch” orientiertes Parallelogramm,<br />
aufgespannt von{p,p+x,p+y,p+<br />
x+y} (gewichtete Fläche)<br />
p<br />
x<br />
Fig. 160<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
“Riemann-Summation”<br />
✄<br />
➣ Fluss durch beschränkte orientierte differenzierbare<br />
Fläche (= Mannigfaltigkeit der Dimension<br />
2)<br />
Fig. 161<br />
4.4<br />
p. 475
Istψ : U ↦→ R d eine Parametrisierung (Karte) der 2-MannigfaltigkeitΣ, so gilt, vgl. Push-Forward,<br />
∫ ∫ ( ) dψ T ( ) dψ<br />
Fluss = ω = J du . (4.4.10)<br />
du 1 du 2<br />
Σ<br />
U<br />
Numerische<br />
Mathemtik<br />
△<br />
✬<br />
Theorem 4.4.11 (Symplektischer Fluss Hamiltonscher Systeme).<br />
Sei Φ t die Evolution zu einer Hamiltonschen Differentialgleichung (1.2.21) mit C 2 -Hamilton-<br />
FunktionH : R n ×M ↦→ R. Dann gilt<br />
✩<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
∀y ∈ D: ∃δ > 0: ω ( (Φ t ∗v)(y),(Φ t ∗w)(y) ) = ω(v,w) ∀v,w ∈ R 2n , 0 ≤ t < δ .<br />
✫<br />
✪<br />
4.4<br />
p. 476
Numerische<br />
Mathemtik<br />
✁ Veranschaulichung Push-Forward von<br />
zwei Vektoren und alternierende (Flächen)Bilinearform.<br />
Fig. 162<br />
Beweis.<br />
(→ Beweis von [16, Thm. 2.4, Ch. VI])<br />
Φ t ˆ= Evolutionsoperator zur Hamiltonschen ODE<br />
ẏ = J −1 gradH(y)<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Behauptung ⇐⇒ (Φ t ∗(v)y) T J(Φ t ∗(w)y) = v T Jw ∀v,w ∈ R d , ∀y ∈ D ,<br />
( ) d T ( ) d<br />
⇐⇒<br />
dy Φt (y) J<br />
dy Φt (y) = J ∀y ∈ D .<br />
PropagationsmatrixW(t;y) := d<br />
dy Φt y löst Variationsgleichung (1.3.34)<br />
Ẇ(t;y) = D(J −1 gradH(y))W(t;y) = J −1 ∇ 2 H(y)W(t;y) , y ∈ D .<br />
4.4<br />
p. 477
✎ Notation: ∇ 2 H ˆ= (symmetrische) Hesse-Matrix der Hamilton-FunktionH.<br />
Numerische<br />
Mathemtik<br />
Mit Produktregel, daJ T = −J,J −T = −J −1 = J:<br />
d<br />
dt<br />
(<br />
W(t;y) T )<br />
JW(t;y)<br />
= Ẇ(t;y)T JW(t;y)+W(t;y) T JẆ(t;y)<br />
= W(t;y) T ∇ 2 H(y)J −T J<br />
} {{ }<br />
=−I<br />
DaW(0;y) = I ⇒ W(t;y) T JW(t;y) = J ∀t<br />
W(t;y)+W(t;y) T JJ<br />
} {{ −1<br />
}<br />
∇ 2 H(y)W(t;y) = 0 .<br />
=I<br />
✷<br />
Definition 4.4.12 (Symplektische Abbildung).<br />
EineC 1 -AbbildungΦ : D ⊂ R 2n ↦→ R 2n heisst symplektisch, falls<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
DΦ(y) T JDΦ(y) = J ⇔ ω ( )<br />
DΦ(y)v,DΦ(y)w<br />
= ω(v,w) ∀v,w ∈ R<br />
2n , ∀y ∈ D .<br />
} {{ } } {{ }<br />
(Φ ∗ v)(y) (Φ ∗ w)(y)<br />
★<br />
✧<br />
Thm. 4.4.11: Die Evolution zu einer Hamiltonschen Differentialgleichung<br />
ist symplektisch zu jedem Zeitpunkt.<br />
✥<br />
✦<br />
4.4<br />
p. 478
Das Konzept der Symplektizität ist eng verbunden mit der differentialgeometrischen Betrachtung Hamiltonscher<br />
Evolutionen, siehe [2, Part III].<br />
Numerische<br />
Mathemtik<br />
✬<br />
✩<br />
Korollar 4.4.13 (Komposition symplektischer Abbildungen).<br />
Die Komposition symplektischer Abbildungen ist symplektisch.<br />
✫<br />
✪<br />
Bemerkung 4.4.14 (Vektorräume von Vektorfeldern und Eigenschaften von Evolutionen).<br />
Def. 1.3.7: Vektorfeldf : D ⊂ R d ↦→ R d ➣ EvolutionΦ t zur ODEẏ = f(y)<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
(1.2.8): gradI ·f = 0 ⇔ Φ t “I-isoflächenerhaltend” für allet<br />
Thm. 4.2.3: divf = 0 ⇔ Φ t volumenerhaltend (→ Def. 4.2.1)∀t<br />
Lemma 4.3.12: f ◦R = −R◦f ⇔ Φ t R-reversibel (→ Def. 4.3.11)∀t<br />
Thm. 4.4.11: f = J −1 gradH ⇒ Φ t symplektisch (→ Def. 4.4.12)∀t<br />
✗<br />
✖<br />
VektorraumV von VektorfeldernD ↦→ R d<br />
Gruppe G von Diffeomorphismen<br />
✔<br />
✕<br />
4.4<br />
p. 479
Einschrittverfahren fürẏ = f(y) strukturerhaltend<br />
(mit diskreter EvolutionΨ h )<br />
:⇔ f ∈ V ⇒ Ψ h ∈ G<br />
Numerische<br />
Mathemtik<br />
△<br />
✬<br />
✩<br />
Theorem 4.4.15 (Symplektische Evolutionen und Hamiltonsche Differentialgleichungen).<br />
Sei Φ t der Evolutionsoperator zu einer autonomen ODE ẏ = f(y), f : D ⊂ R 2n ↦→ R 2n stetig<br />
differenzierbar, ZustandsraumD sternförmig. Dann gilt<br />
Φ t symplektisch (→ Def. 4.4.12)∀t ⇔ ∃H : D ↦→ R: f(y) = J −1 gradH(y) .<br />
✫<br />
✪<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Definition 4.4.16 (Sternförmiges Gebiet).<br />
D ⊂ R d heisst sternförmig, wenn esz ∈ D gibt, so dass<br />
für alle Punktex ∈ D.<br />
{tz+(1−t)x, 0 ≤ t ≤ 1} ⊂ D<br />
4.4<br />
p. 480
Numerische<br />
Mathemtik<br />
Hilfsmittel beim Beweis:<br />
✬<br />
✩<br />
Lemma 4.4.17 (Integrabilitätslemma).<br />
Es seiD ⊂ R d sternförmig undf : D ↦→ R d stetig differenzierbar. Dann gilt<br />
Df = Df T ⇔ ∃F : D ↦→ R: f(y) = gradF(y) ∀y ∈ D .<br />
✫<br />
✪<br />
Beweis. O.B.d.A: D sternförmig bzgl.0 ⇒ Wohldefiniert ist die Funktion<br />
⇒ gradF(y) = DF(y) T =<br />
Vorsicht:<br />
0<br />
0<br />
strikte Unterscheidung von Zeilen- und Spaltenvektoren wichtig; Gradient ist ein Spaltenvektor!<br />
F(y) :=<br />
∫ 1<br />
∫ 1<br />
0<br />
f(τy)·ydτ y ∈ D .<br />
τDf(τy) T ·y+f(τy)dτ =<br />
∫ 1<br />
d<br />
dτ<br />
(f(τy)τ)(τ)dτ = f(y) .<br />
✷<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
4.4<br />
p. 481
Beweis (von Thm. 4.4.15)<br />
Numerische<br />
Mathemtik<br />
“⇐”: Siehe Thm. 4.4.11<br />
“⇒”: PropagationsmatrixW(t;y) := ( d<br />
dy Φt )(y) löst Variationsgleichung (1.3.34)<br />
Ẇ(t;y) = Df(Φ t y)W(t;y) , W(0;y) = I , y ∈ D , t ∈ J(y) .<br />
t fixiert, hinreichend klein: y ↦→ Φ t y ist symplektische Abbildung (→ Def. 4.4.12)<br />
W(t;y) T JW(t;y) = J =⇒ t frei d (<br />
W(t;y) T )<br />
JW(t;y) = 0 .<br />
dt<br />
Mit Produktregel:<br />
0 = d dt<br />
(<br />
W(t;y) T )<br />
JW(t;y)<br />
= Ẇ(t;y)T JW(t;y)+W(t;y) T JẆ(t;y)<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
= (Df(Φ t y)) T JW(t;y)+W(t;y) T J(Df(Φ t y)) ∀y ∈ D, |t| klein.<br />
Setzet = 0, benutzeJ −T = −J −1 = J<br />
⇒ JDf(y) = (JDf(y)) T ∀y ∈ D<br />
Wegen JDf(y) = D(Jf)(y) Anwendung der Integrabilitätslemmas 4.4.17. ✷<br />
4.4<br />
p. 482
4.4.2 Symplektische Integratoren<br />
Numerische<br />
Mathemtik<br />
Warum interessiert Numeriker diese „exotische” Eigenschaft „Symplektizität” ?<br />
Thm. 4.4.15:<br />
f = J −1 gradH<br />
(“Bewegungsgleichung”)<br />
⇔ Φ t symplektisch (→ Def. 4.4.12)∀t<br />
Intuition: diskrete EvolutionΨ h symplektisch ↔ “Diskrete Bewegungsgleichung<br />
Symplektizität kann von diskreten Evolutionen geerbt werden !<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Definition 4.4.18 (Symplektisches Einschrittverfahren).<br />
Ein Einschrittverfahren (→ Def. 2.1.2) heisst symplektisch, wenn es, angewendet auf eine<br />
Hamitonsche Differentialgleichung (→ Def. 1.2.20) ẏ = J −1 gradH(y) eine konsistente<br />
diskrete EvolutionΨ h erzeugt, so dassΨ h : K ⊂ D ↦→ R d für jedes KompaktumK ⊂ D und<br />
festes hinreichend kleinesh > 0 eine symplektische Abbildung (→ Def. 4.4.12) ist.<br />
4.4<br />
p. 483
Bemerkung 4.4.19 (Einfache symplektische Integratoren).<br />
Die diskreten EvolutionenΨ h : D ⊂ R 2n ↦→ R 2n zur Hamiltonsche ODE (1.2.21)<br />
(ẏ = J −1 gradH(y),H : D ⊂ R d ↦→ R) erzeugt durch<br />
Numerische<br />
Mathemtik<br />
implizite Mittelpunkteregel (1.4.19)<br />
symplektisches Eulerverfahren (2.5.11)<br />
Störmer-Verlet-Verfahren (2.5.13) (→ Bem. 1.4.33, Bsp. 2.5.10) für separierte Hamilton-Funktion<br />
der Form H(y) = T(p)+U(q),y = ( p<br />
q<br />
)<br />
,<br />
sind symplektisch (für hinreichend kleine Schrittweiteh ∈ R).<br />
Nachweise der Symplektizität:<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
für implizite Mittelpunkteregel (1.4.19):<br />
Ψ h y 0 := y 1 = y 0 +hJ −1 gradH( 1 2 (y 0 +y 1 )) . (4.4.20)<br />
Implizites Differenzieren (Annahme:H “hinreichend glatt”):<br />
DΨ h (y 0 ) = I+hJ −1 ∇ 2 H( 1 2 (y 0 +y 1 )) 1 2 (I+DΦh (y 0 )) ,<br />
⇒ DΨ h (<br />
(y 0 ) = I− 1 2 hJ−1 ∇ 2 ) −1 (<br />
H(...) I+ 1 2 hJ−1 ∇ 2 )<br />
H(...)<br />
.<br />
4.4<br />
p. 484
Verwende nun<br />
M = M T ⇒ (I−JM) T (I+JM) −T J(I+VJM) −1 (I−JM) = J . (4.4.21)<br />
Numerische<br />
Mathemtik<br />
Störmer-Verlet-Verfahren (2.5.13) fürH(p,q) = T(p)+U(q):<br />
⎧<br />
⎪⎨ p 1/2 = p 0 −<br />
2 1hgradU(q 0) ,<br />
q 1 = q 0 +hgradT(p 1/2 ) ,<br />
⎪⎩<br />
p 1 = p 1/2 − 1 2 hgradU(q 1) .<br />
(4.4.22)<br />
Strang-Splittingverfahren (Bem. 1.4.33): diskrete EvolutionΨ h zu (4.4.22) erfüllt<br />
wobeiΦ t T ,Φt U<br />
Ψ h = Φ h /2<br />
U ◦Φh T ◦Φh /2<br />
U ,<br />
R. Hiptmair<br />
exakte Evolutionsoperatoren zu Hamiltonschen ODE<br />
rev 35327,<br />
25. April<br />
{ṗ 2011<br />
= 0 ,<br />
→ Hamilton-FunktionH(p,q) = T(p) ,<br />
˙q = gradT(p)<br />
→ Hamilton-FunktionH(p,q) = U(q) .<br />
4.4<br />
implizte Mittelpunktsregel/Störmer-Verlet-Verfahren = symplektische Integratoren<br />
△<br />
Φ t T ↔<br />
Φ t U ↔ {ṗ = −gradU(q) ,<br />
˙q = 0 .<br />
Korollar 4.4.13 ⇒ Ψ h is symplektische Abbildung (→ Def. 4.4.12).<br />
Terminologie:<br />
p. 485
✬<br />
✩<br />
Theorem 4.4.23 (Symplektische Runge-Kutta-Einschrittverfahren).<br />
Alle Runge-Kutta-Einschrittverfahren (→ Def. 2.3.5), die quadratische Invarianten erhalten, sind<br />
symplektisch.<br />
✫<br />
✪<br />
Numerische<br />
Mathemtik<br />
Beweis. Φ t ˆ= Evolutionsoperator zu Hamiltonschen Dgl. ẏ = f(y) := J −1 gradH(y) ist eine<br />
symplektische Abbildung für (alle zulässigen)t<br />
Def. 4.4.12<br />
⇒ I(Y) := Y T JY ist quadratisches erstes Integral der Variationsgleichung<br />
Ẇ(t;y) = Df(Φ t y)W(t;y) .<br />
Ψ h ˆ= diskrete Evolution des EK-ESV fürẏ = f(y)<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
̂Ψ h ˆ= diskrete Evolution des EK-ESV für<br />
{ ẏ = f(y) ,<br />
Ẇ = Df(y)W :<br />
Lemma 4.2.7<br />
⇒<br />
dΨ h<br />
dy (y 0) = W 1 =<br />
(<br />
( ))<br />
̂Ψ h y0<br />
I<br />
W<br />
( y1<br />
W 1<br />
) = ̂Ψ h ( y0<br />
I<br />
)<br />
.<br />
.<br />
4.4<br />
p. 486
Nach Voraussetzung erhält ̂Ψ h quadratische erste Integrale,<br />
( )<br />
dΨ<br />
h T ( )<br />
dΨ<br />
h<br />
J<br />
dy (y 0)<br />
dy (y 0)<br />
= W T 1 JW 1 = J ∀y 0 ∈ D . ✷<br />
Numerische<br />
Mathemtik<br />
✗<br />
✖<br />
Thm. 4.1.4 ⇒ Alle Gauss-Kollokations-Einschrittverfahren sind symplektisch.<br />
<strong>Beispiel</strong> 4.4.24 (Symplektisches Euler-Verfahren). siehe Bsp. 2.5.10<br />
✔<br />
✕<br />
Annahme: Separierte Hamilton-Funktion der Form H(p,q) = T(p)+U(q),T,U : D ⊂ R n ↦→<br />
R glatt<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
H(p,q) = T(p)+U(q) ↔ Splitting der rechten Seite von (1.2.21), vgl. Bsp. 2.5.10<br />
f(y) = J −1 gradH(y) =<br />
( ) −gradU(q)<br />
0<br />
+<br />
( )<br />
0<br />
gradT(p)<br />
=: f 1 (y)+f 2 (y) (4.4.25)<br />
➣ Lie-Trotter-Splitting-Einschrittverfahren (2.5.2)<br />
p k+1 = p k −hgradU(q k )<br />
q k+1 = q k +hgradT(p k+1 ),<br />
bzw.<br />
p k+1 = p k −hgradU(q k+1 )<br />
q k+1 = q k +hgradT(p k ) .<br />
(4.4.26)<br />
4.4<br />
p. 487
(4.4.26) = explizite symplektische diskrete Evolutionen (Thm. 2.5.5: Konsistenzordnung 1)<br />
Numerische<br />
Mathemtik<br />
Beachte: In (4.4.26) (links): Inkrement benutztq k ,p k+1<br />
In (4.4.26) (rechts): Inkrement benutztq k+1 ,p k<br />
☞ Verallgemeinerung von (4.4.26) auf ẏ = J −1 gradH(y) in der Form,y := ( p<br />
q<br />
)<br />
,<br />
ṗ(t) = − ∂H ∂H<br />
(p(t),q(t)) , ˙q(t) = (p(t),q(t)) : (1.2.21)<br />
∂q ∂p<br />
y k+1 = y k +hJ −1 gradH(p k ,q k+1 ) bzw. y k+1 = y k +hJ −1 gradH(p k+1 ,q k ) .<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Für allgemeine Hamilton-FunktionH = H(p,q) :<br />
Symplektische Euler-Verfahren<br />
p k+1 = p k −h ∂H<br />
∂q (p k+1,q k )<br />
q k+1 = q k +h ∂H<br />
∂p H(p k+1,q k ),<br />
bzw.<br />
p k+1 = p k −h ∂H<br />
∂q (p k,q k+1 )<br />
q k+1 = q k +h ∂H<br />
∂p H(p k,q k+1 ) .<br />
☞ kein Splittingverfahren mehr, trotzdem symplektisch [16, Thm. 3.3] !<br />
(4.4.27)<br />
✸<br />
4.4<br />
p. 488
Bemerkung 4.4.28 (Partitionierte Runge-Kutta-Einschrittverfahren).<br />
Mit lokal Lipschitz-stetigenf u : D u ×D v ↦→ R n ,f v : D u ×D v ↦→ R n ,D u ,D v ⊂ R n<br />
Numerische<br />
Mathemtik<br />
ODE:<br />
“Symplektisches Euler-Verfahren” (4.4.27) für (4.4.29):<br />
˙u = f u (u,v) ,<br />
˙v = f v (u,v) .<br />
(4.4.29)<br />
Ansatz:<br />
⎧<br />
⎪⎨<br />
u 1 = u 0 +hf u (u 1 ,v 0 ) ,<br />
v 1 = v 0 +hf v (u 1 ,v 0 ) .<br />
➣ Konsistenzordnung 1. (4.4.30)<br />
s-stufige partitionierte Runge-Kutta-Einschrittverfahren (für autonome ODE)<br />
k u i<br />
= f u (u 0 +h s ∑<br />
j=1<br />
a u ij ku j ,v 0+h s ∑<br />
j=1<br />
a v ij kv j ) ,<br />
⎪⎩ k v ∑<br />
i<br />
= f v (u 0 +h s a u ij ku j ,v ∑<br />
0+h s i = 1,...,s ,<br />
a v ij kv j ) j=1 j=1<br />
⎧<br />
⎪⎨ u 1 = u 0 + s (4.4.31)<br />
∑<br />
b u i ku i ,<br />
i=1<br />
∑<br />
⎪⎩ v 1 = v 0 + s b v i kv i .<br />
i=1<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
4.4<br />
p. 489
in Stufenform, vgl. Bem. 2.3.7:<br />
⎧<br />
⎪⎨<br />
⎪⎩<br />
Darstellung:<br />
g u i<br />
= u 0 +h s ∑<br />
j=1<br />
g v i<br />
= v 0 +h s ∑<br />
j=1<br />
a u ij f u(g u j ,gv j ) ,<br />
Zwei Butcher-Tableaus:<br />
a v ij f v(g u j ,gv j ) , ,<br />
⎧<br />
⎪⎨<br />
⎪⎩<br />
u 1 = u 0 + s ∑<br />
i=1<br />
v 1 = v 0 + s ∑<br />
i=1<br />
b u i f u(g u i ,gv i ) ,<br />
b v i f v(g u i ,gv i ) . (4.4.32)<br />
c u A u<br />
b u,T & cv A v<br />
b v,T<br />
Numerische<br />
Mathemtik<br />
Symplektisches Euler-Verfahren<br />
Störmer-Verlet-Verfahren<br />
0 0<br />
1<br />
& 1 1 1<br />
1/2 1/2 0<br />
1/2 1/2 0<br />
1/2 1/2<br />
&<br />
0 0 0<br />
1 1/2 1/2<br />
1/2 1/2<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
In Analogie zur Theorie der konventionellen RK-ESV aus Def. 2.3.5:<br />
• Bedingungsgleichungen an Koeffizienten für gewünschte Konsistenzordnungen, vgl. Sect. 2.3.2<br />
[16, Sect. II.2]<br />
4.4<br />
p. 490
• Algebraische Bedingungen für Erhaltung quadratischer Invarianten [16, Sect. IV.2.2], vgl.<br />
Lemma 4.1.6, und Symmetrie, vgl. Thm. 4.3.1 [16, Sect. V.2.2],<br />
Numerische<br />
Mathemtik<br />
• Koeffizientenbedingungen für Symplektizität, vgl. Thm. 4.4.23 [16, Sect. VI.4].<br />
△<br />
<strong>Beispiel</strong> 4.4.33 (Symplektisches Euler-Verfahren für Pendelgleichung).<br />
AWP für Pendelgleichung wie in Bsp. 4.4.3.<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
4.4<br />
p. 491
11<br />
10<br />
9<br />
t=0<br />
t=0.5<br />
t=1<br />
t=2<br />
t=3<br />
t=5<br />
11<br />
10<br />
9<br />
t=0<br />
t=0.5<br />
t=1<br />
t=2<br />
t=3<br />
t=5<br />
Numerische<br />
Mathemtik<br />
8<br />
8<br />
q<br />
q<br />
7<br />
7<br />
6<br />
6<br />
5<br />
5<br />
4<br />
−1.5 −1 −0.5 0 0.5 1 1.5 2 2.5<br />
Evolution eines quadratischen Volumens<br />
(Verfahren (4.4.27), links)<br />
p<br />
Fig. 164<br />
4<br />
−1.5 −1 −0.5 0 0.5 1 1.5 2 2.5<br />
Evolution eines quadratischen Volumens<br />
(Verfahren (4.4.27), rechts)<br />
p<br />
Fig. 165<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
4.4<br />
p. 492
1.5<br />
Numerische<br />
Mathemtik<br />
Energieerhaltung des symplektischen partitionierten<br />
Eulerverfahrens (4.4.27) (links) (p(0) =<br />
Gesamtenergie<br />
1<br />
0.5<br />
0,q(0) = 7π 6 ) 0<br />
0 500 1000 1500 2000 2500 3000 3500 4000 4500 5000<br />
t<br />
Fig. 166<br />
<strong>Beispiel</strong> 4.4.34 (Langzeit-Energieerhaltung bei symplektischer Integration). → Bsp. 4.4.1, 4.4.33,<br />
1.4.32<br />
✸<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Hamiltonsche Differentialgleichung (4.4.4) für mathematisches Pendel → 1.2.17 (p ↔ Winkelgeschwindigkeit,<br />
q ↔ Winkelvariableα)<br />
ṗ = −sinq ,<br />
˙q = p<br />
Hamilton-FunktionH(p,q) = 1 2 p2 −cosq (Gesamtenergie) (4.4.4)<br />
Anfangswerte: p(0) = 0,q(0) = 7/6π, EndzeitpunktT = 5000<br />
4.4<br />
p. 493
Symplektische ESV:<br />
Symplektisches partitioniertes Euler-Verfahren (4.4.27) (links)<br />
Störmer-Verlet-Verfahren (4.4.22), siehe Bem. 4.4.19<br />
Implizite Mittelpunktsregel (4.4.20), siehe Bem. 4.4.19<br />
2-stufiges Gauss-Kollokations-Einschrittverfahren, siehe Sect. 2.2.1<br />
(uniforme Zeitschrittweiteh > 0)<br />
Numerische<br />
Mathemtik<br />
10 0 h<br />
Stärke der Energieschwankungen<br />
10 −1<br />
E var (h) = max |E h (ih)−E exact | .<br />
i=0,...,T/h<br />
energy variation<br />
10 −2<br />
10 −3<br />
Sympl. Euler E var (h) = O(h) ,<br />
Störmer-Verlet E var (h) = O(h 2 R. Hiptmair<br />
10 −4<br />
) ,<br />
rev 35327,<br />
Implizite MPR E var (h) = O(h 2 25. April<br />
10<br />
) ,<br />
−5<br />
2011<br />
Gauss-Koll (s = 2) E var (h) = O(h 4 ) .<br />
10 −6 Gauss coll.(s=2)<br />
implicit midpoint<br />
Vermutung: E var (h) = O(h p Stoermer−Verlet<br />
sympl. Euler<br />
)<br />
10 −7<br />
O(h 4 )<br />
O(h<br />
(p ˆ= 2 )<br />
O(h)<br />
Konvergenzordnung des ESV)<br />
10 −8<br />
10 −2 10 −1 10<br />
Fig. 167 0<br />
✸<br />
<strong>Beispiel</strong> 4.4.35 (Federpendel).<br />
4.4<br />
Reibungsfreies Federpendel: Hamilton-Funktion H(p,q) =<br />
2 1‖p‖2 +<br />
2 1(‖q‖−1)2 +q 2<br />
p. 494
(q ˆ= Position, p ˆ= Impuls)<br />
ṗ = −(‖q‖−1) q<br />
( )<br />
0<br />
‖q‖ − 1<br />
, ˙q = p . (4.4.36)<br />
Numerische<br />
Mathemtik<br />
00000000000000000000000000000<br />
11111111111111111111111111111<br />
00000000000000000000000000000<br />
11111111111111111111111111111<br />
00000000000000000000000000000<br />
11111111111111111111111111111<br />
00000000000000000000000000000<br />
11111111111111111111111111111<br />
00000000000000000000000000000<br />
11111111111111111111111111111<br />
0<br />
−0.5<br />
−1<br />
Spring pendulum trajectory<br />
−1.5<br />
q 2<br />
−2<br />
Trajektorien bei Langzeitevolution<br />
(Chaotisches mechanisches System)<br />
Fig. 168<br />
✄<br />
−2.5<br />
−3<br />
−3.5<br />
−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1<br />
q 1<br />
Fig. 169<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
ESV: Störmer-Verlet-Verfahren (4.4.22) (Konsistenzordnung 2), siehe Bem. 4.4.19,<br />
Explizite Trapezregel (2.3.3) (Konsistenzordnung 2).<br />
4.4<br />
p. 495
1<br />
0.5<br />
Stoermer−Verlet, h = 0.200000<br />
1<br />
0.5<br />
Explicit trapezoidal rule, h = 0.200000<br />
Numerische<br />
Mathemtik<br />
0<br />
0<br />
−0.5<br />
−0.5<br />
−1<br />
−1<br />
q 2<br />
q 2<br />
−1.5<br />
−1.5<br />
−2<br />
−2<br />
−2.5<br />
−2.5<br />
−3<br />
0 < t < 50<br />
1000 < t < 1050<br />
−3.5<br />
−1.5 −1 −0.5 0 0.5 1 1.5<br />
q 1<br />
Fig. 170<br />
Animation<br />
✄<br />
Störmer-Verlet ESV<br />
−3<br />
0 < t < 50<br />
1000 < t < 1050<br />
−3.5<br />
−1.5 −1 −0.5 0 0.5 1 1.5<br />
q 1<br />
Fig. 171<br />
Explizite Trapezregel<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Symplektischer Integrator: Positionen im “zulässigen Bereich” auch bei Langzeitintegration<br />
Explizite Trapezregel: Trajektorien verlassen bei Langzeitintegration den “zulässigen Bereich” (Energiedrift<br />
!)<br />
4.4<br />
p. 496
✸<br />
Numerische<br />
Mathemtik<br />
<strong>Beispiel</strong> 4.4.37 (Molekulardynamik). → [8, Sect. 1.2]<br />
Zustandsraum fürn ∈ N Atome ind ∈ N Dimensionen: D = R 2dn<br />
(Positionenq = [q 1 ;...;q n ] T ∈ R dn , Impulsep = [p 1 ,...,p n ] T ∈ R dn )<br />
Gesamtenergie (Hamilton-Funktion):<br />
H(p,q) = 1 2 ‖p‖2 2 +V(q) .<br />
3<br />
2.5<br />
2<br />
Lenard−Jones potential<br />
equilibrium distance<br />
Lenard-Jones-Potential:<br />
n∑ ∑<br />
V(q) =<br />
j=1 i≠j<br />
∥<br />
V( ∥q i −q j∥ ∥ ∥2 ) ,<br />
✄<br />
H(q)<br />
1.5<br />
1<br />
0.5<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
V(ξ) = ξ −12 −ξ −6 . (4.4.38)<br />
0<br />
−0.5<br />
0 0.5 1 1.5 2 2.5 3<br />
|q|<br />
Fig. 172<br />
4.4<br />
p. 497
➥ Hamiltonsche Differentialgleichung (→ Def. 1.2.20):<br />
ṗ j = − ∑ V ′ ∥<br />
( ∥q j −q i∥ ∥ q j −q<br />
∥2 ) ∥<br />
i<br />
∥q<br />
i≠j j −q i∥ ∥<br />
, ˙q j = p j , j = 1,...,n .<br />
2<br />
Numerische<br />
Mathemtik<br />
Störmer-Verlet-Verfahren (4.4.22):<br />
q h (t+ 1 2 h) = q h(t)+ h 2 p h(t) ,<br />
p j h (t+h) = pj h (t)−h∑ V ′ ∥<br />
( ∥q j ∥<br />
h (t+ 1 2 h)−qi h (t+ 2 1h) ∥∥2 q j<br />
)<br />
h (t+ 1 2 h)−qi h (t+ 1 2 h)<br />
∥<br />
i≠j ∥q j ∥<br />
h (t+ 1 2 h)−qi h (t+ 1 2 h) ∥∥2<br />
,<br />
q h (t+h) = q h (t+ 1 2 h)+ h 2 p h(t+h) .<br />
Simulation mit d = 2, n = 3, q 1 (0) = 1 2<br />
EndzeitpunktT = 100<br />
√<br />
2<br />
( −1)<br />
, q 2 (0) = 1 2√<br />
2<br />
( 11<br />
)<br />
, q 3 (0) = 1 2<br />
√<br />
2<br />
( −1<br />
1<br />
)<br />
, p(0) = 0,<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
4.4<br />
p. 498
100<br />
Trajektorien der Atome, Verlet, 10000 timesteps<br />
0.6<br />
0.4<br />
Energieanteile, Verlet, 10000 timesteps<br />
kinetische Energie<br />
potentielle Energie<br />
Gesamtenergie<br />
Numerische<br />
Mathemtik<br />
80<br />
0.2<br />
60<br />
0<br />
t<br />
E<br />
40<br />
−0.2<br />
20<br />
−0.4<br />
0<br />
−1.5 −1 −0.5 0 0.5 1 −2<br />
0<br />
2<br />
−0.6<br />
x −0.8<br />
2 0 10 20 30 40 50 60 70 80 90 100<br />
x 1 t<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
4.4<br />
p. 499
100<br />
Trajektorien der Atome, Verlet, 2000 timesteps<br />
0.6<br />
0.4<br />
Energieanteile, Verlet, 2000 timesteps<br />
kinetische Energie<br />
potentielle Energie<br />
Gesamtenergie<br />
Numerische<br />
Mathemtik<br />
80<br />
0.2<br />
60<br />
0<br />
t<br />
E<br />
40<br />
−0.2<br />
20<br />
−0.4<br />
0<br />
−2 −1.5 −1 −0.5 0 0.5 1 1.5 −2<br />
0<br />
2<br />
−0.6<br />
x −0.8<br />
2 0 10 20 30 40 50 60 70 80 90 100<br />
x 1 t<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Beobachtungen:<br />
Völlig unterschiedliche Trajektorien bei Langzeitsimulation mit unterschiedlichen Zeitschrittweitenh.<br />
Qualitativ richtige Trajektorien in jedem Fall.<br />
4.4<br />
p. 500
Energie<br />
10 3 Verlet auf [0,10]: Schwankung der Gesamtenergie<br />
10 2<br />
10 1<br />
10 0<br />
10 −1<br />
10 −2<br />
10 −3<br />
Variation<br />
Drift<br />
Abstand<br />
T = 10,d = 2,n = 3,q 1 (0) =<br />
2<br />
1 √ ( 2 −1<br />
1<br />
2√<br />
2<br />
( 11<br />
) ,q 3 (0) = 1 2<br />
Variation =<br />
N−1 ∑<br />
i=1<br />
√<br />
2<br />
( −1<br />
1<br />
) ,p(0) = 0.<br />
−1)<br />
,q 2 (0) =<br />
|E tot ((i+1)h)−E tot (ih)| ,<br />
Drift = |E tot (T)−E tot (0)| ,<br />
∥<br />
Abstand = max{ ∥q j ∥<br />
h (T) ∥∥2<br />
, j = 1,2,3} .<br />
Numerische<br />
Mathemtik<br />
10 −4<br />
0 20 40 60 80 100 120 140 160<br />
Anzahl(Zeitschritte)<br />
Fig. 173<br />
<strong>Beispiel</strong> 4.4.39 (Vielteilchen-Molekulardynamik). → [26, Sect. 4.5.1]<br />
✸<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
4.4<br />
p. 501
2D konservatives Vielteilchensystem mit<br />
Lennard-Jones-Potential→ Bsp. 4.4.37<br />
9<br />
8<br />
Initial position of atoms, 0K<br />
Numerische<br />
Mathemtik<br />
(Anfangsimpulse= 0↔0K)<br />
Anfangspositionen<br />
✄<br />
7<br />
6<br />
5<br />
Beobachtet für explizite Trapezregel (2.3.3),<br />
Störmer-Verlet (4.4.22)<br />
q 2<br />
4<br />
3<br />
Approximation der GesamtenergieH(p,q)<br />
Mittlere kinetische Energie (“Temperatur”)<br />
Animation<br />
✄<br />
2<br />
1<br />
0<br />
0 1 2 3 4 5 6 7 8 9<br />
q 1<br />
Fig. 174<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
4.4<br />
p. 502
−906<br />
−908<br />
Stoermer−Verlet: 10 x 10 Lenard−Jones atoms<br />
h = 0.010000<br />
h = 0.005000<br />
h = 0.002500<br />
h = 0.001250<br />
−500<br />
Trapezoidal rule, 10 x 10 Lenard−Jones atoms<br />
h = 0.010000<br />
h = 0.005000<br />
h = 0.002500<br />
h = 0.001250<br />
Numerische<br />
Mathemtik<br />
−910<br />
−600<br />
−912<br />
total energy<br />
−914<br />
−916<br />
−918<br />
total energy<br />
−700<br />
−800<br />
−920<br />
−900<br />
−922<br />
−1000<br />
−924<br />
−926<br />
0 10 20 30 40 50 60 70 80 90 100<br />
t<br />
Fig. 175<br />
−1100<br />
0 10 20 30 40 50 60 70 80 90 100<br />
t<br />
Fig. 176<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
4.4<br />
p. 503
1.4<br />
1.2<br />
Stoermer−Verlet: 10 x 10 Lenard−Jones atoms<br />
3<br />
2.5<br />
Trapezoidal rule, 10 x 10 Lenard−Jones atoms<br />
h = 0.010000<br />
h = 0.005000<br />
h = 0.002500<br />
h = 0.001250<br />
Numerische<br />
Mathemtik<br />
1<br />
2<br />
temperature<br />
0.8<br />
0.6<br />
temperature<br />
1.5<br />
1<br />
0.4<br />
0.2<br />
h = 0.010000<br />
h = 0.005000<br />
h = 0.002500<br />
h = 0.001250<br />
0<br />
0 10 20 30 40 50 60 70 80 90 100<br />
t<br />
Fig. 177<br />
0.5<br />
0<br />
0 10 20 30 40 50 60 70 80 90 100<br />
t<br />
Fig. 178<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Symplektischer Integrator: Qualitativ korrektes Verhalten der Temperatur<br />
✸<br />
<strong>Beispiel</strong> 4.4.40 (Projektion auf Energiemannigfaltigkeit). → Bsp. 4.4.35<br />
4.4<br />
p. 504
Idee: Korrektur der Energiedrift (bei nichtsymplektischen Integratoren) durch Projektion auf Energiemannigfaltigkeit<br />
Numerische<br />
Mathemtik<br />
{(p,q) ∈ R n ×R n : H(p,q) = H(p 0 ,q 0 )} . (4.4.41)<br />
Konkret: Orthogonalprojektion (p,q) ↦→ P(p,q) := (p ∗ ,q ∗ ): mit y = ( p<br />
q<br />
)<br />
, bestime λ ∈ R, y ∗ =<br />
( p<br />
∗<br />
q ∗ ) ∈ R<br />
2n so, dass<br />
H(y ∗ ) = H 0 , y ∗ = y+λgradH(y ∗ ) . (4.4.42)<br />
Projiziertes ESV Ψ h : Orthogonalprojektion nach jedem Schritt: y k+1 = PΨ h y k<br />
Beachte: (4.4.42) nichtlineares Gleichungssystem der Dimension2n+1, teuer ! R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
4.4<br />
p. 505
5<br />
Stoermer−Verlet<br />
Explicit TR<br />
Projected TR<br />
spring pendulum integration, h=0.200000<br />
1<br />
0.5<br />
Projected explicit trapezoidal rule, h = 0.200000<br />
Numerische<br />
Mathemtik<br />
4<br />
0<br />
3<br />
−0.5<br />
total energy<br />
2<br />
1<br />
q 2<br />
−1<br />
−1.5<br />
−2<br />
−2.5<br />
0<br />
−1<br />
0 200 400 600 800 1000 1200<br />
t<br />
Fig. 179<br />
−3<br />
0 < t < 50<br />
1000 < t < 1050<br />
−3.5<br />
−1.5 −1 −0.5 0 0.5 1 1.5<br />
q 1<br />
Fig. 180<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Warnung: Projektion kein Allheilmittel, siehe [16, Ch. IV, Ex. 4.3]<br />
✸<br />
4.4<br />
p. 506
4.4.3 Rückwärtsanalyse<br />
Numerische<br />
Mathemtik<br />
Sect. 1.3.3.5: Berechnung individueller Trajektorien sinnlos für schlecht konditionierte/chaotische<br />
Evolutionen.<br />
Ziel:<br />
Berechnung typischer/wahrscheinlicher Trajektorien<br />
Bemerkung 4.4.43 (Rückwärtsanalyse (engl. backward error analysis): Philosophische Grundlage).<br />
“Naturgesetze” (engl. first principles) Parameter/Datenp 1 ,...,p m (unsicher !)<br />
Mathematisches Modelly = M(p 1 ,...,p m )<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Diskretisiertes Modely h = M h (p 1 ,...,p m )<br />
✬<br />
✩<br />
Ziel:<br />
Genaue, mit den Naturgesetzen verträgliche Lösungy h<br />
✫<br />
∃˜p i : ‖p i − ˜p i ‖ ≪ 1: y h = M(˜p 1 ,...,˜p m )<br />
✪<br />
△<br />
4.4<br />
p. 507
Konkrete Anwendung dieser Philosophie auf numerische Integratoren (Einschrittverfahren), siehe [26,<br />
Sect. 5.1]:<br />
Numerische<br />
Mathemtik<br />
Ψ h ˆ= diskrete Evolution eines ESV für ẏ = f(y) ➣ y k+1 = Ψ h (y k )<br />
Findeh-abhängiges Vektorfeld˜f h :↦→ R d so, dass<br />
Wunsch:<br />
˙ỹ =˜f h (ỹ) , ỹ(0) = y 0 ⇒ y k = ỹ(hk) . (4.4.44)<br />
Modifizierte Differentialgleichung<br />
˜f h ,f gehören zur gleichen Klasse von Vektorfeldern, vgl. Bem. 4.4.14<br />
Kleine Störung: ˜f h ≈ f für “kleine” Schrittweitenh > 0<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Ψ h strukturerhaltend & “qualitativ genau”:<br />
(y k ) akzeptabel<br />
Rückwärtsanalyse von auf der Grundlage modifizierter Differentialgleichung<br />
erfordert uniforme Zeitschrittweite<br />
4.4<br />
p. 508
<strong>Beispiel</strong> 4.4.45 (Modifizierte Gleichung für RK-ESV und lineare ODE).<br />
lineare ODE (→ Sect. 1.3.2):<br />
ẏ = Ay,A ∈ R d,d<br />
Numerische<br />
Mathemtik<br />
Runge-Kutta-Einschrittverfahren (→ Def. 2.3.5) mit StabilitätsfunktionS(z)<br />
Modifizierte ODE: ˜f h (y) = Ãy , Ã = 1 h<br />
log(S(hA)) , (4.4.46)<br />
für “hinreichend kleines”h > 0.<br />
Hier:log ˆ= “Matrixlogarithmus”:<br />
log(X) = ∞ ∑<br />
k=1<br />
(−1) k−1<br />
k<br />
(X−I) k für‖X−I‖ < 1<br />
Beweis von (4.4.46) ( elementar unter Annahme, dass A diagonalisierbar:<br />
T −1 AT = D = diag(µ 1 ,...,µ d )):<br />
Bem. 3.1.13, (3.1.16) ⇒ Für RK-ESV y 1 = S(hA)y 0<br />
∃T ∈ R d,d regulär:<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
(4.4.44)<br />
=⇒ exp(Ãh) = S(hA) mit σ(hA)∩]−∞,0] = ∅ für kleinesh > 0 . ✸<br />
4.4<br />
p. 509
? Modifizierte Gleichung im allgemeinen Fall<br />
Numerische<br />
Mathemtik<br />
Definition 4.4.47 (Modifizierte Gleichung der Ordnungq).<br />
Sei Ψ h die diskrete Evolution eines Einschrittverfahrens der Konsistenzordnungp für die ODE<br />
ẏ = f(y) mit lokal Lipschitz-stetigemf : D ⊂ R d ↦→ R d .<br />
Dann ist ˙ỹ = ˜f h (ỹ) mit h-abhängigem, lokal Lipschitz-stetigen˜f h : D ↦→ R d eine modifizierte<br />
Gleichung der Ordnungq,q > p, wenn<br />
∥ ∥<br />
∥˜Φ h hy−Ψ h y∥ ≤ C(y)hq+1 ∀y ∈ D für h → 0 ,<br />
wobei ˜Φ t h der Evolutionsoperator zu ˙ỹ =˜f h (ỹ) undC : D ↦→ R lokal gleichmässig beschränkt.<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Def. 4.4.47 ˆ= “Das ESV ist konsistent von der Ordnungq mit ˙ỹ =˜f h (ỹ).” → Def. 2.1.13<br />
4.4<br />
p. 510
<strong>Beispiel</strong> 4.4.48 (Modifizierte Gleichung der Ordnung 2 zu explizitem Euler-Verfahren).<br />
Numerische<br />
Mathemtik<br />
Explizites Eulerverfahren (1.4.2) fürẏ = f(y): y 1 = y 1 (h) = Ψ h y 0 = y 0 +hf(y 0 )<br />
Vergleich mit Taylorentwicklung (um0) (2.3.25) der exakten Lösungy(t):<br />
y(h) = y 0 +f(y 0 )h+ 1 2 Df(y 0)f(y 0 )h 2 +O(h 3 ) fürh → 0 . (4.4.49)<br />
“störender Term ☞ zu “verschieben” in˜f h<br />
Modifizierte Gleichung der Ordnung 2:<br />
˙ỹ =˜f h (ỹ) := f(ỹ)− 1 2 hDf(ỹ)f(ỹ)<br />
denn aus (4.4.49), fürh → 0<br />
f glatt<br />
⇒ ˜Φ h hy 0 −y 1 (h) = O(h 3 ) ,<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
ỹ(h) = y 0 +˜f h (y 0 )h+ 1 2 D˜f h (y 0 )˜f h (y 0 )h 2 +O(h 3 )<br />
= y 0 +hf(y 0 )− 1 2 h21 2 Df(y 0)f(y 0 )+ 1 2 Df(y 0)f(y 0 )h 2 +O(h 3 )<br />
= y 0 +hf(y 0 )+O(h 3 ) = Ψ h y 0 +O(h 3 ) .<br />
✸<br />
4.4<br />
p. 511
Durchwegs “stillschweigende Annahme”: f “hinreichend glatt” ⇒ Φ t ,Ψ h “hinreichend glatt”<br />
Numerische<br />
Mathemtik<br />
✎ Notationen: Φ t ˆ= Evolutionsoperator zur ODEẏ = f(y),<br />
t ↦→ y(t) ˆ= Lösungstrajektorien vonẏ = f(y) zum Anfangswerty 0 ∈ D.<br />
Ziel: Formalisierung der ad-hoc-Konstruktion einer modifizierten Gleichung der Ordnung p + 1 aus<br />
Bsp. 4.4.48<br />
Idee: Rekursive Konstruktion von˜f h :<br />
Annahme: diskrete EvolutionΨ h konsistent von der Ordnungpmitẏ = f h (y)<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Ansatz:<br />
˜f h = f h (y)+h p<br />
∆f(y) (4.4.50)<br />
Modifikatorfunktion<br />
Ziel:<br />
˜Φ h hy−Ψ h y = O(h p+2 ) fürh → 0 (4.4.51)<br />
Konkrete Annahme, vgl. (2.4.13):<br />
∃ lokale gleichmässig beschränktesd : D ↦→ R d mit<br />
4.4<br />
p. 512
τ(y 0 ,h) := Φ h h y 0 −Ψ h y 0 = d(y 0 )h p+1 +O(h p+2 ) für h → 0 , ∀y 0 ∈ D . (4.4.52)<br />
Numerische<br />
Mathemtik<br />
Konsistenzfehler→Def. 2.1.11,<br />
(Φ t h ˆ= Evolutionsoperator zuẏ = f h(y))<br />
(4.4.51): Bestimme∆f so, dass Lsg. von ˙ỹ =˜f h (ỹ),ỹ(0) = y 0<br />
˜Φ h hy−Ψ h y = ỹ(h)−y 1 = O(h p+2 ) fürh → 0 . (4.4.53)<br />
Taylorentwicklung umh = 0, vgl. (2.3.25), benutze Dgl. und Kettenregel: Fürh → 0<br />
ỹ(h) = y 0 +<br />
p+1<br />
∑<br />
k=1<br />
h j<br />
j!ỹ(j) (0)+O(h p+2 ) = y 0 +<br />
= y 0 +h˜f h (y 0 )+ 1 2 h2 D˜f h (y 0 )˜f h (y 0 )<br />
p+1<br />
∑<br />
k=1<br />
h j<br />
j!<br />
d j−1<br />
dt j−1˜f h (ỹ(t))<br />
|t=0<br />
+O(h p+2 )<br />
+ 1 6 h3( D 2˜f h (y 0 )(˜f h (y 0 ),˜f h (y 0 ))+D˜f h (y 0 )D˜f h (y 0 )˜f h (y 0 ) ) +···+O(h p+2 )<br />
= y 0 +hf h (y 0 )+h p+1 ∆f(y 0 )+ 1 2 h2 Df h (y 0 )f h (y 0 )<br />
+ 1 6 h3( D 2 f h (y 0 )(f h (y 0 ),f h (y 0 ))+Df h (y 0 )Df h (y 0 )f h (y 0 ) ) +···+O(h p+2 ) ,<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
da “O(h p )-Modifikation” in (4.4.50), z.B.<br />
h 2 D˜f h (y 0 )˜f h (y 0 ) = h 2( Df h (y 0 )+h p D∆f(y 0 ) ) (f h (y 0 )+h p ∆f(y 0 ))<br />
= h 2 Df h (y 0 )f h (y 0 )+O(h p+2 ) .<br />
4.4<br />
p. 513
➣ Beobachtung: Taylorentwicklung vont ↦→ Φ t h Vy 0 umt = 0 ist enthalten !<br />
Numerische<br />
Mathemtik<br />
ỹ(h) = Φ h h y 0 +h p+1 ∆f(y 0 )+O(h p+2 )<br />
(4.4.52)<br />
= Ψ h y 0 +h p+1 d(y 0 )+h p+1 ∆f(y 0 )+O(h p+2 ) .<br />
(4.4.53) erfüllt durch ∆f(y) := −d(y) ! (4.4.54)<br />
Versuch:<br />
Reihenansatz für Vektorfeld der modifizierten Gleichung:<br />
˜f h (y) = f(y)+h p ∆f p (y)+h p+1 ∆f p+1 (y)+h p+2 ∆f p+2 (y)+... . (4.4.55)<br />
➣ Modifikatorfunktionen ∆f l ,l ∈ N, aus rekursiver Konstruktionsvorschrift<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
(4.4.54) ⇒ ∆f l (y) = − lim<br />
h→0 ˜Φ h h,l−1y−Ψ h y<br />
h l+1 , (4.4.56)<br />
mit<br />
˜Φ t h,l ˆ= Evolutionsoperator zur ODE<br />
˙ỹ =˜f h,l (ỹ) := f(y)+h p ∆f p (y)+h p+1 ∆f p+1 (y)+h p+2 ∆f p+2 (y)+...+h l ∆f l (y) . (4.4.57)<br />
4.4<br />
p. 514
Bemerkung 4.4.58 (Berechnung der Modifikatorfunktionen∆f j durch Computeralgebra).<br />
Numerische<br />
Mathemtik<br />
MAPLE-Code: Berechnung der∆f j<br />
fcn := y ->f(y):<br />
N :=q:<br />
fcoe [1] := fcn(y):<br />
for n from 2 by 1 to N do<br />
modeq := sum(h^j*fcoe [j+1], j=0..n-2):<br />
diffy [0] := y:<br />
for i from 1 by 1 to n do<br />
diffy [i] := diff(diffy[i-1],y)*modeq:<br />
od:<br />
ytilde := sum(h^k*diffy[k]/k!, k=0..n):<br />
res := ytilde-y-h*fcn(y):<br />
tay := convert(series(res,h=0,n+1),polynom):<br />
fcoe [n] := -coeff(tay,h,n):<br />
od:<br />
simplify(sum(h^j*fcoe[j+1],j=0..N-1));<br />
ESV:<br />
Explizites Euler-Verfahren<br />
✁ MAPLE-code [13]:<br />
Berechnung der<br />
Modifikatorfunktionen∆f l<br />
für skalare ODEẏ = f(y).<br />
Ausgabe der Reihe (4.4.55)<br />
bis zumq. Term.<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
<strong>Beispiel</strong> 4.4.59 (Modifikatoren für einfache ESV).<br />
Skalare Differentialgleichung: ẏ = y 2 → Bsp. 1.3.11<br />
△<br />
4.4<br />
p. 515
Explizites Euler-Verfahren (1.4.2): y 1 = y 0 +hf(y 0 )<br />
˜f(y) = y 2 −h y 3 +h 2 3/2y 4 −h 3 8/3y 5 +h 431 }{{} } {{ } } {{ } 6 y6 −h 5157<br />
}{{}<br />
15 y7<br />
} {{ }<br />
−∆f 1 ∆f 2 −∆f 3<br />
∆f 4<br />
−∆f 5<br />
+h 6649<br />
30 y8 −h 7 9427<br />
} {{ }<br />
210 y9 +h 8 19423<br />
} {{ }<br />
210 y10 −h 9 6576<br />
} {{ }<br />
35 h9 y 11 +O(h 10 ) .<br />
} {{ }<br />
∆f 6 −∆f 7 ∆f 8 −∆f 9<br />
Implizites Euler-Verfahren (1.4.13): y 1 = y 0 +hf(y 1 )<br />
res := ytilde-y-h*fcn(ytilde))<br />
(In MAPLE code:<br />
˜f(y) = y 2 +hy 3 +3/2h 2 y 4 +8/3h 3 y 5 + 31 6 h4 y 6 + 157<br />
15 h5 y 7 + 649<br />
30 h6 y 8<br />
+ 9427<br />
210 h7 y 9 + 19423<br />
210 h8 y 10 + 6576<br />
35 h9 y 11 +O(h 10 )<br />
Implizite Mittelpunktsrregel (1.4.19): y 1 = y 0 +hf( 1 2 (y 0+y 1 ))<br />
res := ytilde-y-h*fcn(0.5*(y+ytilde))<br />
(In MAPLE code:<br />
Numerische<br />
Mathemtik<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
˜f(y) = y 2 + 1 4 h2 y 4 + 1 8 h4 y 6 +0.057291667h 6 y 8 +0.02343750000h 8 y 10 +O(h 10 ) .<br />
☞ Nur gerade Potenzen vonh, vgl. Beweis zu Thm. 2.1.29, Thm. 2.4.22<br />
✸<br />
4.4<br />
p. 516
Problem:<br />
Potenzreihe (inh)<br />
∞∑<br />
k=1<br />
∀h > 0 (↔ Konvergenzradius= 0)<br />
h k ∆f k (y) möglicherweise divergent<br />
Numerische<br />
Mathemtik<br />
Interpretation von (4.4.55) als asymptotische Entwicklung von˜f h , siehe Def. 2.4.7<br />
<strong>Beispiel</strong> 4.4.60 (Bedeutung der modifizierten Gleichungen niedriger Ordnung).<br />
Anfangswertproblem für logistische Differentialgleichung, siehe Bsp. 1.2.1<br />
ẏ = λy(1−y) , y(0) = 0.01 .<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
∆f 1 (y) = λ 2( −1/2y +3/2y 2 −y 3) , ∆f 2 (y) = λ 3( − 11<br />
6 y2 +3y 3 −3/2y 4 +1/3y ) .<br />
∆f 1 (y) = λ 2( 1/2y −3/2y 2 +y 3) , ∆f 2 (y) = λ 3( − 11<br />
6 y2 +3y 3 −3/2y 4 +1/3y ) 4.4<br />
ESV: Explizites Euler-Verfahren (1.4.2), vgl. Bsp. 1.4.9, Modifikatorfunktionen aus (4.4.55)<br />
ESV: Implizites Euler-Verfahren (1.4.13), vgl. Bsp. 1.4.15, Modifikatorfunktionen aus (4.4.55)<br />
p. 517
Explicit Euler h=0.050000, logistic ODE, λ=10.000000<br />
Implicit Euler h=0.050000, logistic ODE, λ=10.000000<br />
1<br />
Expl. Euler<br />
y(t)<br />
y 1<br />
(t)<br />
y 2<br />
(t)<br />
1<br />
Impl. Euler<br />
y(t)<br />
y 1<br />
(t)<br />
y 2<br />
(t)<br />
Numerische<br />
Mathemtik<br />
0.8<br />
0.8<br />
0.6<br />
0.6<br />
y<br />
y<br />
0.4<br />
0.4<br />
0.2<br />
0.2<br />
0<br />
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1<br />
t<br />
Fig. 181<br />
0<br />
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1<br />
t<br />
Fig. 182<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Die Euler-Verfahren füry = f(y) liefern eine bessere Approximation für die Lösungen von<br />
ẏ = ˜f 1,h (y) = f(y)+h∆f 1 (y) und ẏ = ˜f 1,h (y) = f(y)+h∆f 1 (y)+h 2 ∆f 2 (y) .<br />
Betrachte abgeschnittene modifizierte Gleichung !<br />
✸<br />
4.4<br />
p. 518
✬<br />
✩<br />
Lemma 4.4.61 (“Abgeschnittene” modifizierte Gleichung).<br />
Mit Modifikatorfunktionen ∆f i gemäss (4.4.56) für die ODE ẏ = f(y) und das ESV mit<br />
diskreter EvolutionΨ h (der Konsistenzordnungp) wie oben definiert, ist<br />
Numerische<br />
Mathemtik<br />
˙ỹ =˜f h,l (ỹ) := f(ỹ)+h p ∆f p (ỹ)+h p+1 ∆f p+1 (ỹ)+···+h l ∆f l (ỹ) ,<br />
eine modifizierte Gleichung der Ordnungl+1,l > p (→ Def. 4.4.47)<br />
✫<br />
✪<br />
Beweis. Der Beweis ergibt sich aus der rekursiven Konstruktion der ∆f l , siehe (4.4.52), (4.4.53),<br />
(4.4.54).<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
4.4.4 Modifizierte Gleichungen: Fehleranalyse<br />
4.4<br />
p. 519
Im Sinne der Rückwärtsanalyse (→ Bem. 4.4.43) des Lanzeitverhaltens von Einschrittverfahren ist<br />
zu untersuchen:<br />
Numerische<br />
Mathemtik<br />
• Gibt es eine (strukturerhaltende) modifizierte Gleichung, der Lösung für lange Zeiten nahe bei<br />
der numerische Lösung (Gitterfunktion(y k ) k ) bleibt.<br />
• Wenn ja, ist die rechte Seite dieser modifizierten Gleichung nahe bei der rechten Seite der Ausgangsgleichung.<br />
Strategie: Was wollen wir ?<br />
☞ Lemma 4.4.61:<br />
y k+1 = Ψ h y k , d.h.<br />
Familie modifizierter Gleichungen ˙ỹ =˜f h,l (ỹ), „konsistent mit dem ESV”<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Konsistenzfehler τ(y,h) := Ψ h y− ˜Φ h h,ly → 0 für h → 0 .<br />
4.4<br />
p. 520
Idee: Erinnerung an Beweis des Konvergenzsatzes für ESV, Thm. 2.1.19<br />
(vgl. auch Beweis von Thm. 2.1.26 und das „diskrete Gronwall-Lemma” Lemma<br />
2.1.20)<br />
‖y k −ỹ(kh)‖ ≤ 1 h<br />
∥<br />
max ∥τ(y j ,h) ∥ exp(Lhk)−1<br />
j=0,...,k−1 L<br />
. (4.4.62)<br />
Numerische<br />
Mathemtik<br />
(L > 0: Lipschitz-Konstante der Inkrementfunktion des ESV, ỹ ˆ= Lösung der modifizierten<br />
Gleichung)<br />
Exponentielles Wachstum der Konstanten in (4.4.62) fürhk → ∞ !<br />
( ∥ ∥τ(y j ,h) ∥ ∥ = O(h l+2 ) liefert keine sinnvollen Abschätzungen bei Langeitintegration)<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
4.4<br />
p. 521
JEDOCH:<br />
γ = 1, L = 1<br />
Numerische<br />
Mathemtik<br />
Wenn Konsistenzfehler „exponentiell klein”<br />
100<br />
‖τ‖ ≤ Chexp(−γ/h) , γ > 0 . (4.4.63)<br />
log of bound<br />
0<br />
−100<br />
−200<br />
−300<br />
−400<br />
−500<br />
‖y k −ỹ(kh)‖<br />
−600<br />
10 2<br />
≤ Cexp(−γ/h+hkL) . (4.4.64)<br />
10 1<br />
final time T = hk<br />
10 0<br />
10 −3 10 −2 10 −1 10 0<br />
h<br />
R. Hiptmair<br />
Verhalten der Schranke aus (4.4.64)<br />
rev 35327,<br />
25. April<br />
2011<br />
4.4<br />
p. 522
γ = 1, L = 1<br />
10 2 Contours for 0.1, 0.01, 0.001<br />
Schranke≥ 0.1<br />
10 2<br />
γ = 1, L = 1, C = 1<br />
bound < 0.1<br />
bound < 0.01<br />
bound < 0.001<br />
Numerische<br />
Mathemtik<br />
final time T = hk<br />
10 1<br />
maximal final time T<br />
10 1<br />
10 0<br />
Schranke≤ 0.001<br />
10 0<br />
10 −2 10 −1<br />
h<br />
Fig. 183<br />
10 3 h<br />
10 −1<br />
10 −3 10 −2 10 −1 10 0<br />
Fig. 184<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Aus (4.4.64) lesen wir ab:<br />
h <<br />
Schrittweiteh„klein”<br />
γ<br />
TL−log(τ/C)<br />
⇒ ‖y k −ỹ(kh)‖ ≤ τ für 0 ≤ kh ≤ T .<br />
⇒ Numerische Lösungy k bleibt lange in der Nähe der Trajektoriet ↦→ ỹ(t)<br />
(Präzisere Diskussion in Bem. 4.4.85)<br />
4.4<br />
p. 523
Wir sind frei in der Wahl der Abschneideindexl!<br />
Numerische<br />
Mathemtik<br />
Frage: Was ist die beste abgeschnittene modifizierte Gleichung ?<br />
Zur Beantwortung brauchen wir Konzepte/Hilfsmittel aus der Funktionentheorie !<br />
Analytizitätsvoraussetzung<br />
für jedes Kompaktum K ⊂ D gibt es ein R = R(K) > 0, so dass f(y) in jedem y ∈ K in<br />
jeder Komponente vonyeine Potenzreihenentwicklung mit Konvergenzradius> R besitzt.<br />
⇔<br />
f ist holomorph inD<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Erklärung: Potenzreihenentwicklung umy = (y 1 ,...,y d ) T in derj. Komponente<br />
f(y 1 ,...,y j−1 ,y,y j+1 ,...,y d ) =<br />
∞∑<br />
a k (y)(y −y j ) k für |y −y j | < R .<br />
k=0<br />
4.4<br />
p. 524
<strong>Beispiel</strong> 4.4.65 (Analytizitätsvoraussetzung für Hamiltonsche Differentialgleichungen).<br />
Numerische<br />
Mathemtik<br />
f(y) = J −1 gradH(y) holomorph inD<br />
⇔ H(y) holomorph inD<br />
(mit jeweils gleicher unterer SchrankeRfür Konvergenzradius auf Kompakta)<br />
Mathematisches Pendel, Bsp. 4.4.3:<br />
➣ D = R 2 ,R = ∞ (ganze Funktion !)<br />
Federpendel, Bsp. 4.4.35:<br />
H(p,q) = 1 2 p2 −cosq<br />
H(p,q) = 1 2 ‖p‖2 + 1 2 (‖q‖−1)2<br />
➣ D = R 4 ,R = dist(K,{q = 0}) (H nicht holomorph inq = 0)<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Beachte: H(p,q) jeweils analytisch in Umgebungen physikalisch sinnvoller Trajektorien !<br />
✸<br />
✎ Notation: ˜Φ t h,l ˆ= Evolutionsoperator zu ˙ỹ =˜f h,l (ỹ), vgl. Lemma 4.4.61<br />
4.4<br />
p. 525
✬<br />
✩<br />
Theorem 4.4.66 (Konsistenzfehlerabschätzung für abgeschnittene modifizierte Gleichungen).<br />
Sei Ψ h die diskrete Evolution eines zu ẏ = f(y) konsistenten (partitionierten) Runge-Kutta-<br />
Einschrittverfahrens. Unter der Analytizitätsvoraussetzung gibt es für jedes KompaktumK ⊂ D<br />
KonstantenC 1 ,C 2 > 0 und einh 0 ∈]0,∞] so, dass<br />
∥ Ψh y− ˜Φ h h,ly∥ ≤ C 1h(C 2 (l+1)h) l+1 ∀y ∈ K, ∀l ∈ N , ∀|h| ≤ h 0 . (4.4.67)<br />
✫<br />
✪<br />
Numerische<br />
Mathemtik<br />
Hilfsmittel bei Beweis: Differentialgleichung in C → Thm. 2.2.85<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
✬<br />
✩<br />
Lemma 4.4.68. Ist f holomorph in einer Umgebung von B ρ (0), |f(z)| ≤ M für allez ∈ B ρ (0)<br />
undf(0) = ··· = f (p) (0) = 0,p ∈ N 0 , dann gilt<br />
|f(z)| ≤ M|z| p+1 ρ −(p+1) ∀z ∈ B ρ (0) .<br />
✫<br />
✪<br />
4.4<br />
p. 526
Beweis. AufB ρ (0):<br />
konvergente Potenzreihenentwicklung<br />
f(z) = z p+1 ∑ ∞ a j z j<br />
j=0<br />
} {{ }<br />
=:g(z)<br />
, |g(z)| ≤ M für|z| = ρ .<br />
ρp+1 g holomorph aufB ρ (0) ⇒|g| nimmt Maximum auf Rand|z| = ρ an (Maximumprinzip).<br />
✷<br />
Numerische<br />
Mathemtik<br />
Blosse Beschränktheit auf einer Nullumgebung einer holomorphen Funktion f mit |f(z)| =<br />
O(|z| p+1 ) genügt bereits, um das Abfallverhalten fürz → 0 genau zu charakterisieren!<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Beweis von Thm. 4.4.66 ☞ für skalaren Falld = 1,ẏ = f(y),D =]a,b[⊂ R Intervall,<br />
☞ für explizites Euler-Verfahren (1.4.2): Ψ h y = y +hf(y)<br />
(Beweis nach S. Reich 1999, siehe [29, Thm. 2])<br />
Annahme:<br />
f holomorph in Umgebung von<br />
D<br />
R<br />
4.4<br />
p. 527
Ziel, vgl. (4.4.67):<br />
Abschätzung des Konsistenzfehlers ˜Φ h h,l (y)−Ψh (y) für modifizierte<br />
Gleichungen der Ordnungl+1 (→ Def. 4.4.47)<br />
⇕←(4.4.54)<br />
Abschätzung der Modifikatorfunktionen∆f l !<br />
Numerische<br />
Mathemtik<br />
Schritt I: Abschätzung für Modifikatorfunktion∆f 1 (auch zur Demonstration der Technik)<br />
! Interpretation vonẏ = f(y) als Differentialgleichung in C → Thm. 2.2.85 :<br />
f holomorph ⇒ Lösungent ↦→ y(t) analytisch (in Umgebung von0) ⇒ fortsetzbar nach C<br />
⇒ EvolutionΦ t : B R (D) ↦→ C holomorph (für hinreichend kleines|t|)<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Im Folgenden: betrachte komplexe “Zeitschrittweiten”h ∈ C, 0 < α < 1 fest gewählt.<br />
Aus der Abschätzung für Wegintegrale im Komplexen<br />
∫<br />
M := max |f(z)| ⇒<br />
z∈B R (D) |Φh h<br />
z −z| =<br />
∣ 0<br />
f(Φ τ )dτ<br />
∣ ≤ M|h| ,<br />
⇒ |Ψ h z −z| = |hf(z)| ≤ M|h| .<br />
∀z ∈ B αR (D)<br />
|h| klein.<br />
(4.4.69)<br />
4.4<br />
p. 528
Schranke für|h|:<br />
Numerische<br />
Mathemtik<br />
Wennz ∈ B αR (D) &|h| ≤ (1−α) R M ,0 ≤ α < 1<br />
dann bleibt die Trajektorie ξ ↦→ Φ ξh z, 0 ≤ ξ ≤ 1,<br />
inB R (D) !<br />
z<br />
D<br />
αR<br />
Φ h z Fig. 186<br />
⇒<br />
|h| ≤ h 1 := (1−α)R ⇒ |Φh y −y| ≤ (1−α)R ,<br />
M |Ψ h ∀y ∈ B αR (D)<br />
y −y| ≤ (1−α)R .<br />
(<br />
|h| ≤ (1−α)R<br />
)<br />
⇒ |Φ h y −Ψ h y| ≤ 2(1−α)R ∀y ∈ B<br />
M<br />
αR (D)<br />
Anwendung von Lemma 4.4.68 aufg(h) = Φ h y −Ψ h y:<br />
g holomorph inB (1−α)R/M (0)<br />
g beschränkt durch2(1−α)R aufB (1−α)R/M (0)<br />
) −2<br />
(<br />
⇒ |Φ h y −Ψ h y| ≤ 2(1−α)R|h| 2 (1−α)R<br />
M<br />
( )<br />
≤ 2M|h| 2 M<br />
∀y ∈ B<br />
(1−α)R αR (D) ,<br />
. (4.4.70)<br />
(4.4.71)<br />
dag(h) = O(h 2 ) (Euler-Verfahren Konsistenzordnung 1), so dassg(0) = g ′ (0) = 0.<br />
(4.4.56)<br />
⇒ |∆f 1 (y)| =<br />
∣ lim Φ h y −Ψ h ∣<br />
y ∣∣∣∣ ( )<br />
(4.4.71) M<br />
h→0 h 2 ≤ 2M ∀y ∈ B<br />
(1−α)R αR (D) . (4.4.72)<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
4.4<br />
p. 529
Wir haben nun gesehen, wie man unter der Analytizitätsannahme an die rechte Seite f eine Abschätzung<br />
für die erste Modifikatorfunktion erhalten kann. Benötigt wird eine Schranke für f in einer<br />
kompakten UmgebungB R (D) ⊂ C.<br />
Numerische<br />
Mathemtik<br />
Die rekursive Konstruktion der Modifikatorfunktionen gemäss (4.4.56) legt nun folgendes Vorgehen<br />
nahe:<br />
➀ Unter Verwendung von Abschätzungen für die Modifikatorfunktionen ∆f j , 1 ≤ j ≤ l, leite eine<br />
Abschätzung für die rechte Seite ˜f h,l der modifizierten Gleichung (4.4.57) aus Lemma 4.4.61 her.<br />
Ebenso wie alle Modifikatorfunktionen wird auch ˜f h,l analytisch in einer Umgebung vonD sein.<br />
➁ Benutze die Schranke für ˜f h,l , um mit gleichen Techniken wie oben für∆f 1 die nächste Modifikatorfunktion∆f<br />
l+1 abzuschätzen.<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
➂ Mache weiter mit ➀<br />
Rekursive Abschätzung<br />
←→ Induktionsbeweis<br />
Herausforderung: Formulierung einer geeigneten Induktionsannahme, vgl. (4.4.72).<br />
4.4<br />
p. 530
Numerische<br />
Mathemtik<br />
Schritt II. Induktionsbeweis: Induktionsannahme: Es gibtl-unabhängigeb > 0,c > 0, so dass<br />
( ) clM l<br />
∀l ∈ N: max |∆f l(y)| ≤ bM ∀y ∈ B<br />
y∈B αR (D) (1−α)R αR (D) , ∀0 ≤ α < 1 . (4.4.73)<br />
Die Konstantenb,c werden dann später geeignet festgelegt.<br />
Induktionsbeginn “l = 0” ⇔ (4.4.72)<br />
Induktionsschritt “l ⇒ l+1”: (0 < α < 1 fixiert!)<br />
|˜f h,l (y)|≤|f(y)|+|h||∆f 1 (y)|+|h| 2 |∆f 2 (y)|+···+|h| l |∆f l (y)|<br />
2M<br />
l∑<br />
( )<br />
≤M +|h|<br />
(1−α)R +bM |h| j jcM j<br />
∀y ∈ B<br />
, αR (D) ,<br />
(1−α)R ∀0 < α < 1 .<br />
j=2<br />
aus (4.4.72) nach Induktionsannahme (4.4.73)<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
? Nötig: Schranke für|˜f h,l (y)| in einer Umgebung vonB αR (D)<br />
4.4<br />
p. 531
Idee: „∀α” in (4.4.73) ➣ nutze Freiheit in der Wahl vonα!<br />
⇒<br />
α ∗ := α+δ(1−α) ∈]δ,1[ ⇒ 1−α ∗ = (1−α)(1−δ) , α ∗ > α .<br />
max |˜f 2M<br />
l∑<br />
( )<br />
h,l (y)| ≤ M +|h|<br />
y∈B α ∗ R (D) (1−α)(1−δ)R +bM jcM|h| j<br />
.<br />
(1−α)(1−δ)R<br />
j=2<br />
Numerische<br />
Mathemtik<br />
Versuch: Vereinfachung durch Beschränkung von|h|: |h| ≤ h l := (1−α)R<br />
(l+1)cM<br />
⇒<br />
(<br />
max |˜f h,l (y)| ≤ M 1+<br />
y∈B α ∗ R (D)<br />
2<br />
l∑<br />
c(l+1)(1−δ) +b<br />
Erinnerung an unser Ziel (4.4.73) für „l ← l+1”. Wegen<br />
müssen wir also zeigen:<br />
|˜Φ h h,l y −Ψh y| ≤ |h| l+2 bM<br />
j=2<br />
(<br />
)<br />
j j)<br />
. (4.4.74)<br />
(l+1)(1−δ)<br />
∆f l+1 (y) = − lim<br />
h→0 ˜Φ h h,l y −Ψh y<br />
h l+2 , (4.4.56)<br />
( c(l+1)M<br />
) l+1|h| l+2 bMh<br />
(1−α)R l h −(l+2)<br />
l<br />
∀y ∈ B αR (D) (4.4.75)<br />
} {{ }<br />
=h −1<br />
l<br />
!<br />
Beachte: (4.4.75) ⇒ Behauptung des Theorems mitC 1 = bM,C 2 = cM<br />
(1−α)R !<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
4.4<br />
p. 532
Beachte: per constructionem, Lemma 4.4.61: ˜Φ h h,l y −Ψh y = O(h l+2 ) fürh → 0<br />
Numerische<br />
Mathemtik<br />
Lemma 4.4.68 ⇒ Da h ↦→ ˜Φ h h,l y −Ψh y analytisch, genügt es zu zeigen<br />
|˜Φ h h,l y −Ψh y| ≤ h l bM ∀h ∈ B hl (0) , ∀y ∈ B αR (D) . (4.4.76)<br />
Dann Dreiecksungleichung wie in (4.4.70) & Abschätzung analog zu (4.4.69):<br />
|˜Φ h h,ly −y| ≤ |h| max |˜f h,l (y)| ∀y ∈ B αR (D), |h| „hinreichend klein”. (4.4.77)<br />
y∈B α ∗ R (D)<br />
Was brauchen wir ?<br />
(|Ψ h y −y| ≤ M|h| wie oben)<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
max<br />
y∈B α ∗ R (D) |˜f h,l (y)| ≤ (b−1)M,<br />
h l · max |˜f h,l (y)| ≤ δ(1 − α)R, damit die Trajektorie z ↦→ ˜Φ z<br />
y∈B<br />
h,l y in B α ∗ R(D) bleibt, wenn<br />
α ∗ R<br />
|z| ≤ h l (Beachte: B αR (D) ⊂ B α ∗ R(D)).<br />
Dazu müssen wir die Parameter in (4.4.74) geeignet wählen!<br />
4.4<br />
p. 533
Wir sind „frei” in der Wahl vonδ ∈]0,1[ ! ➣ δ := b−1<br />
c<br />
·<br />
1<br />
l+1<br />
⇒ h l (b−1)M = δ(1−α)R<br />
Numerische<br />
Mathemtik<br />
(4.4.74)<br />
⇒<br />
max |˜f h,l (y)| ≤ M<br />
y∈B α ∗ R (D)<br />
(<br />
2<br />
l∑<br />
( )<br />
1+<br />
c(l+1)−b+1 +b jc j)<br />
c(l+1)−b+1<br />
j=2<br />
} {{ }<br />
=:Γ(b,c,l)<br />
.<br />
Frage: Gibt esb,c > 0 (b−1 < 2c) so, dass max<br />
l∈N<br />
Γ(b,c,l) ≤ b−1 ?<br />
Für Beweis von Thm. 4.4.66:<br />
Γ(b,c,l) := 1+<br />
Verhalten von<br />
2<br />
l∑<br />
c(l+1)−b+1 +b<br />
j=2<br />
(<br />
)<br />
jc j<br />
:<br />
c(l+1)−b+1<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
4.4<br />
p. 534
1<br />
22<br />
20<br />
b=20, c=300<br />
b=20, c=100<br />
b=10,c=10<br />
400<br />
350<br />
300<br />
0<br />
Γ(b,c,l) < b−1<br />
−1<br />
Numerische<br />
Mathemtik<br />
Γ(b,c,ell)<br />
18<br />
16<br />
14<br />
12<br />
10<br />
0 10 20 30 40 50 60 70 80 90 100<br />
l<br />
Fig. 187<br />
c<br />
250<br />
200<br />
150<br />
100<br />
50<br />
1<br />
2 2 2 2<br />
1<br />
5 10 15 20 25 30<br />
b<br />
0<br />
1<br />
0<br />
Fig. 188<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Linker Plot: l ↦→ Γ(b,c,l) ➣ eindeutiges Maximum für kleinesl<br />
Rechter Plot:<br />
Konturen von(b,c) ↦→ max l Γ(b,c,l)−b+1<br />
Aus den Plots lesen wir ab: mögliche Wahl c = 300,b = 20 ∀l.<br />
4.4<br />
p. 535
Dann weiter wie zuvor skizziert, siehe (4.4.76), (4.4.77):<br />
⇒ |˜Φ h h,ly −y| ≤ M(b−1)|h| ,<br />
⇒ |˜Φ h h,l y −Ψh y| ≤ bM|h|<br />
für |h| ≤ h l , ∀y ∈ B αR (D) , (4.4.78)<br />
Numerische<br />
Mathemtik<br />
Beachte: ˜Φ h h,l y − Ψh y = O(h l+2 ) nach Konstruktion der Modifikatorfunktionen und holomorph in<br />
Umgebung von0. Mit Formel fürh l , o.B.d.A.0 < h l < 1,<br />
Lemma 4.4.68<br />
⇒<br />
|˜Φ h h,l y −Ψh y| ≤ bM<br />
( ) |h| l+2 ( )<br />
≤ bM|h| l+2 c(l+1)M l+1<br />
. (4.4.79)<br />
h l (1−α)R<br />
Mit (4.4.56) folgt die Induktionsbehauptung fürl+1.<br />
Behauptung des Theorems mitC 1 = bM,C 2 = cM R<br />
(Fallα = 0) folgt ebenfalls aus (4.4.79) ✷<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
4.4<br />
p. 536
Verhalten der Schranke aus Thm. 4.4.66<br />
✄<br />
Mögliche Divergenz der asymptotischen Entwicklung<br />
(4.4.55) manifestiert sich in C 1 h(C 2 (l +<br />
1)h) l+1 → ∞ fürl → ∞.<br />
Optimaler Abbruchindex:<br />
l opt ≈<br />
[ ] 1<br />
C 2 eh<br />
. (4.4.80)<br />
10 0 l<br />
10 −2<br />
Numerische<br />
Mathemtik<br />
((l+1)C 2<br />
h) (l+1)<br />
10 −4<br />
10 −6<br />
10 −8<br />
10 −10<br />
10 −12<br />
10 −14<br />
10 −16<br />
10 −18<br />
10 −20<br />
C 2<br />
h = 0.1<br />
C 2<br />
h = 0.05<br />
C 2<br />
h = 0.01<br />
10 0 10 1 10 2<br />
Fig. 189<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
4.4<br />
p. 537
10 0 1/C 2<br />
h<br />
10 −2<br />
40<br />
35<br />
Numerische<br />
Mathemtik<br />
10 −4<br />
30<br />
optimal consistency error bound<br />
10 −6<br />
10 −8<br />
10 −10<br />
optimal truncation index<br />
25<br />
20<br />
15<br />
10 −12<br />
10<br />
10 −14<br />
5<br />
10 −16<br />
10 20 30 40 50 60 70 80 90 100<br />
Fig. 190<br />
0<br />
10 20 30 40 50 60 70 80 90 100<br />
1/C 2<br />
h<br />
Fig. 191<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
✎ Notation: [x] ˆ= ganzzahliger Anteil vonx > 0<br />
(4.4.80) ergibt sich aus Kurvendiskussion vonx ↦→ (ax) x ,x > 0.<br />
4.4<br />
p. 538
∥ Ψh y− ˜Φ h h,l opt<br />
y<br />
∥ ≤ C 1hexp(−l opt ) ≤ C 1 hexp(−γ/h) , γ := 1<br />
C 2 e > 0 . (4.4.81)<br />
Schranke exponentiell klein fürh → 0, vgl. (4.4.63)<br />
Numerische<br />
Mathemtik<br />
Beachte: (4.4.81) ↔ Konsistenzfehlerabschätzung (2.1.18)<br />
Nun leiten wir eine Abschätzung für die Abweichung der numerischen Lösung von der Lösungstrajektorie<br />
der optimal abgeschnittenen modifizierten Gleichung ˙ỹ =˜f h,lopt (ỹ) her, vgl. (4.4.62).<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Betrachte: AWP ẏ = f(y)y(0) = y 0 ∈ D auf[0,T], EndzeitpunktT ∈ J(y 0 )<br />
4.4<br />
p. 539
✎ Notationen: ỹ ˆ= Lösung des AWP ˙ỹ =˜f h,lopt (ỹ),ỹ(0) = y 0<br />
(<br />
y h k<br />
)k := ((Ψ h ) k y 0<br />
)<br />
(l opt aus (4.4.80) mitC 2 aus Thm. 4.4.66 bzgl.K)<br />
k , k ∈ {0,...,[ T/h]}: Gitterfunktion erzeugt durch das<br />
Einschrittverfahren mit Schrittweiteh > 0 (numerische Näherungslösung)<br />
Numerische<br />
Mathemtik<br />
✬<br />
Lemma 4.4.82 (Konvergenz der optimal abgeschnittenen modifizierten Gleichung).<br />
Es gebe eine kompakte UmgebungK ⊂ D vony 0 , so dassy h k<br />
wennhhinreichend klein.<br />
Es gelten die Voraussetzungen von Thm. 4.4.66 (Analytizitätsannahme).<br />
∈ K für allek ∈ N,<br />
Die diskrete Evolution zum ESV besitze die DarstellungΨ h y = y+hψ(y,h) mit einer<br />
aufK gleichmässig Lipschitz-stetigen Inkrementfunktionψ, d.h., vgl. 2.1.24,<br />
✩<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
∃L > 0: ‖ψ(z,h)−ψ(w,h)‖ ≤ L‖z−w‖ ∀z,w ∈ K, |h| hinreichend klein.<br />
Dann gibt esh 0 > 0 und vonh 0 unabhängige KonstantenC > 0,γ > 0 so, dass<br />
∥<br />
∥ỹ(hk)−yk<br />
h ∥ ≤ C(exp(hkL)−1)exp(−γ/h) ∀k ∈ {0,...,[T/h]} , ∀0 < h < h 0 .<br />
✫<br />
✪<br />
4.4<br />
p. 540
Beweis.<br />
Siehe (4.4.62) und die dortigen Bemerkungen:<br />
Numerische<br />
Mathemtik<br />
Der Beweis von Thm. 2.1.19 kann fast unverändert übertragen werden, nachdem (2.1.23) durch<br />
(4.4.81) ersetzt worden ist. Siehe auch Sect. 2.1.4 für die Beweistechnik. ✷<br />
T < γ<br />
Lh ⇒<br />
“exponentiell kleiner” Fehler des Einschrittverfahrens<br />
bzgl. der optimal abgeschnittenen modifizierten Gleichung<br />
Nächster Punkt: Entsteht die optimal abgeschnittene modifizierte Gleichung wirklich durch eine „kleine”<br />
Störung der ursprünglichen ODE?<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
4.4<br />
p. 541
✬<br />
✩<br />
Lemma 4.4.83 (Störungsabschätzung für optimal abgeschnittene modifizierten Gleichung).<br />
Neben den Voraussetzungen von Thm. 4.4.66 (Analytizitätsannahme) gibt es für jedes Kompaktum<br />
K ⊂ D eine von (hinreichend kleinem) h > 0 unabhängige Konstante C > 0 so, dass<br />
Numerische<br />
Mathemtik<br />
∥<br />
∥˜f h,l (y)−f(y) ∥ ≤ Ch p ∀y ∈ K , ∀l ∈ N .<br />
✫<br />
✪<br />
Beweis. Ergänzung zum Beweis von Thm. 4.4.66, siehe die dort gemachten Annahmen und verwendeten<br />
Notationen. Ausführungen für das explizite Euler-Verfahren, d.h.p = 1.<br />
Aus der Definition von ˜f h,l , → Lemma 4.4.61,<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
l∑<br />
˜f h,l (y)−f(y) = h j ∆f j (y) .<br />
j=1<br />
Idee: Verwende Abschätzung der Modifiktorfunktionen∆f j aus dem Beweis von Thm. 4.4.66<br />
Konkret: aus (4.4.73) mitα = 0<br />
⎛<br />
|˜f h,l (y)−f(y)| ≤ |h| ⎝ 2M l∑<br />
(<br />
R +bM |h|<br />
j−1 jcM<br />
R<br />
) j<br />
⎞<br />
⎠ .<br />
4.4<br />
p. 542
|h| ≤<br />
R<br />
( 2M<br />
(l+1)2cM ⇒ |˜f h,l (y)−f(y)| ≤ |h|<br />
R + 2bcM2<br />
R<br />
) j<br />
l∑<br />
(<br />
2 −j j +1<br />
)<br />
j<br />
l+1<br />
j=2<br />
} {{ }<br />
beschränkt<br />
.<br />
Numerische<br />
Mathemtik<br />
0.8<br />
0.7<br />
0.6<br />
Summe<br />
l ↦→<br />
l∑<br />
2 −j j<br />
j=2<br />
✄<br />
( ) j +1 j<br />
(4.4.84)<br />
l+1<br />
Summe (4.4.84)<br />
0.5<br />
0.4<br />
0.3<br />
0.2<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
0.1<br />
0<br />
0 10 20 30 40 50 60 70 80 90 100<br />
l<br />
Fig. 192<br />
4.4<br />
p. 543
Also: |˜f h,l (y)−f(y)| ≤ Ch für kleinesh,∀y ∈ K, mitC > 0 unabhängig vonl. ✷<br />
Numerische<br />
Mathemtik<br />
Das Vektorfeld der optimal abgeschnittenen modifizierten Gleichung ist “O(h p )-nah” zuf<br />
Bemerkung 4.4.85 (Schrittweitenbedingungen für „Langzeitintegration”).<br />
Betrachte AWP<br />
ẏ = f(y),y(0) = y 0 , auf[0,T] ⊂ J(y 0 ),f holomorph.<br />
ESVy 1 = Ψ h y 0 der Konsistenzordnungp ∈ N.<br />
Schrittweitenbedingung für genaue numerische Lösung (‖y(hk)−y k ‖ klein) auf[0,T]<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Thm. 2.1.19 ⇒ h p exp(LT) ≪ 1 ⇒ h = O(exp(−T/p)) .<br />
Schrittweitenbedingung für akzeptable(∗) numerische Lösung (‖ỹ(hk)−y k ‖ klein) auf[0,T]<br />
Lemmas 4.4.82, 4.4.83<br />
⇒ h < γ<br />
LT ⇒ h = O(T−1 ) .<br />
4.4<br />
p. 544
(∗) „generisch akzeptabel” bzgl. allgemeiner additiver Störungen vonf. (Schärfer: strukturerhaltend<br />
akzeptabel, siehe Anfang von Sect. 4.4.3)<br />
△<br />
Numerische<br />
Mathemtik<br />
4.4.5 Strukturerhaltende modifizierte Gleichungen<br />
Gemäss Bem. 4.4.43 müssen wir zu zeigen, dass die Vektorfelder ˜f h,l der abgeschnittenen modifizierten<br />
Gleichungen strukturelle Eigenschaften (f ∈ V von Bem. 4.4.14) von f erben. Fokus ist auf<br />
Hamiltonschen Differentialgleichungen (→ Def. 1.2.20)↔Symplektizität (→ Def. 4.4.12)<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
<strong>Beispiel</strong> 4.4.86 (Modifizierte Gleichung für symplektisches Euler-Verfahren). → [26, Sect. 5.1.2]<br />
Separierte Hamilton-Funktion mit PotentialU : R n ↦→ R, vgl. (1.2.28)<br />
H(p,q) := 1 2 ‖p‖2 +U(q) , p,q ∈ R n .<br />
Hamiltonsche Differentialgleichung:<br />
ṗ = −gradU(q) , ˙q = p . (4.4.87)<br />
4.4<br />
p. 545
➀ Explizites Euler-Verfahren für (4.4.87), Schrittweiteh > 0 (Konsistenzordnung 1):<br />
p 1 = p 0 −hgradU(q 0 ) , q 1 = q 0 +hp 0 .<br />
Numerische<br />
Mathemtik<br />
Taylorentwicklung & (4.4.87) & (4.4.54) ➣ erste Modifikatorfunktion<br />
p(h) = p 0 +hṗ(0)+ 1 2 h2¨p(0)+O(h 3 )<br />
= p 0 −hgradU(q 0 )− 1 2 h2 ∇ 2 U(q 0 )p 0 +O(h 3 ) ,<br />
q(h) = q 0 h˙q(0)+ 1 2 h2¨q(0)+O(h 3 )<br />
Ausdruck für den Konsistenzfehler:<br />
= q 0 +hp 0 − 1 2 h2 gradU(q 0 )+O(h 3 ) .<br />
( ) p(h)−p1<br />
τ(y 0 ,h) =<br />
q(h)−q 1<br />
(<br />
−<br />
=<br />
1 2 h2 ∇ 2 )<br />
U(q 0 )p 0<br />
− 1 +O(h 3 ) .<br />
2 h2 gradU(q 0 )<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
(4.4.56)<br />
⇒ ∆f 1 (p,q) = 1 2<br />
(<br />
∇ 2 )<br />
U(q)p<br />
≠ J −1 grad<br />
gradU(q)<br />
˜H(y) .<br />
4.4<br />
p. 546
➁ Symplektisches Euler-Verfahren (4.4.26), Schrittweiteh > 0 (Konsistenzordnung 1):<br />
p 1 = p 0 −hgradU(q 1 ) , q 1 = q 0 +hp 0 .<br />
Numerische<br />
Mathemtik<br />
Taylorentwicklung & (4.4.87) & (4.4.54) ➣ Modifikatorfunktion<br />
Im Unterschied zu oben, unter Verwendung von (4.4.26):<br />
q(h) = q 0 +hp 0 − 1 2 h2 gradU(q 0 )+O(h 3 )<br />
= q 0 +hp 1 + 1 2 h2 gradU(q 0 )+O(h 3 )<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
∆f 1 (p,q) = 1 2<br />
(<br />
∇ 2 )<br />
U(q)p<br />
−gradU(q)<br />
=<br />
⎛<br />
⎞<br />
∂q (p,q) ⎠ , ˜H 1 (p,q) = − 1<br />
∂p (p,q) 2 p·gradU(q) .<br />
⎝ −∂ ˜H 1<br />
∂ ˜H 1<br />
⇒ Modifizierte Gleichung zweiter Ordnung ist Hamiltonsche Differentialgleichung !<br />
4.4<br />
p. 547
Konkret: mathematisches Pendel → Bsp. 1.2.17<br />
3<br />
2<br />
Explicit Euler, h = 0.000000, trajektories for modified equation<br />
Numerische<br />
Mathemtik<br />
n = 1 , H(p,q) = 1 2 p2 −cosq .<br />
“exakte” Trajektorien<br />
✄<br />
p = velocity<br />
1<br />
0<br />
Trajektorien zu modifizierten Gleichungen 2. Ord-<br />
−1<br />
nung<br />
−2<br />
−3<br />
−6 −4 −2 0 2 4 6<br />
q = α<br />
Fig. 193<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
4.4<br />
p. 548
3<br />
Explicit Euler, h = 0.500000, trajektories for modified equation<br />
3<br />
Symplectic Euler, h = 0.500000, trajektories for modified equation<br />
Numerische<br />
Mathemtik<br />
2<br />
2<br />
1<br />
1<br />
p = velocity<br />
0<br />
p = velocity<br />
0<br />
−1<br />
−1<br />
−2<br />
−2<br />
−3<br />
−6 −4 −2 0 2 4 6<br />
q = α<br />
Fig. 194<br />
−3<br />
−6 −4 −2 0 2 4 6<br />
q = α<br />
Fig. 195<br />
R. Hiptmair<br />
Expl. Euler,h = 0.5<br />
Synplekt. Euler,h = 0.5<br />
✸<br />
rev 35327,<br />
25. April<br />
2011<br />
4.4<br />
p. 549
✬<br />
✩<br />
Theorem 4.4.88 (Symplektizität der Modifikatorfunktionen).<br />
Sei Ψ h die diskrete Evolution eines symplektischen Einschrittverfahrens (→ Def. 4.4.18) für<br />
die Hamiltonsche Differentialgleichung ẏ = J −1 · gradH(y) mit glatter Hamilton-Funktion<br />
H : D ⊂ R 2n ↦→ R,D sternförmig.<br />
Dann sind die abgeschnittenen modifizierten Gleichungen ˙ỹ =˜f h,l (ỹ) aus Lemma 4.4.61 ebenfalls<br />
Hamiltonsch für allel ∈ N und alle (hinreichend kleinen)h > 0.<br />
✫<br />
✪<br />
Numerische<br />
Mathemtik<br />
Beweis. (von Thm. 4.4.88)<br />
Idee: Induktion nachl<br />
Induktionsbeginn: Fürl ≤ p: ˜f h,l (y) = f(y) = J −1·gradH(y) ✔<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
“l → l+1”: ˜Φ t ˆ= Evolutionsoperator zu ˙ỹ =˜f h,l (ỹ) = J −1 grad ˜H l (y) (Induktionsannahme !)<br />
⇒ Für festest: ˜Φ t : D ↦→ R 2n is symplektisch (→ Def. 4.4.12)<br />
Nach (4.4.52) & (4.4.54), Lemma 4.4.61 fürh → 0<br />
˜Φ h y 0 −Ψ h y 0 = −∆f l+1 (y 0 )h l+2 +O(h l+3 ) ∀y 0 . (4.4.89)<br />
4.4<br />
p. 550
(D y˜Φ h )(y 0 )−(D y Ψ h )(y 0 ) = −(D y ∆f l+1 )(y)h l+2 +O(h l+3 ) . (4.4.90)<br />
Numerische<br />
Mathemtik<br />
˜Φ h ,Ψ h = symplektische Abbildungen (→ Def. 4.4.12, Argumenty 0 weggelassen)<br />
⇒<br />
(D y˜Φ h ) T JD y˜Φ h<br />
} {{ }<br />
=J<br />
= (D y Ψ h ) T JD y Ψ h<br />
} {{ }<br />
=J<br />
+h l+2( (D y Ψ h ) T JD y ∆f l+1 +(D y ∆f l+1 ) T JD y Ψ h) +O(h l+3 ) .<br />
⇒ 0 = (D y Ψ h ) T JD y ∆f l+1 +(D y ∆f l+1 ) T JD y Ψ h +O(h) .<br />
Für konsistentes ESV, siehe Lemma 2.1.9: D y Ψ h = I+O(h) fürh → 0.<br />
h→0<br />
⇒ 0 = JD y ∆f l+1 +(D y ∆f l+1 ) T J ⇒ D y (J∆f l+1 ) = (D y (J∆f l+1 )) T .<br />
Anwendung von Lemma 4.4.17 (Integrabilitätslemma) aufJ∆f l+1 .<br />
✷<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Symplektische Integratoren liefern strukturerhaltende akzeptable(∗) diskrete Evolutionen für<br />
(glatte) konservative mechanische Systeme.<br />
(∗): (exponentiell genaue) Lösung einer Evolution mit “leicht gestörter” (nämlichO(h p ), siehe Lemma<br />
4.4.83) Hamilton-Funktion ➢ Rückwärtsanalyse → Sect. 4.4.3<br />
4.4<br />
p. 551
Erklärung der “Langzeitenergieerhaltung” symplektischer Integratoren durch Rückwärtsanalyse:<br />
☞ Lösung des ESV (Konsistenzordnung p) ist “exponentiell genaue” (→ Lemma 4.4.82) Approximation<br />
der Lösung einer (optimal abgeschnittenen) modifizierten Gleichung<br />
Diese ist eine Hamiltonsche Differentialgleichung (→ Def. 1.2.20) mit einer (bzgl. H) um<br />
O(h p ) gestörten Hamilton-Funktion ˜H(y) (→ Thm. 4.4.83).<br />
Numerische<br />
Mathemtik<br />
Details:<br />
Annahmen:<br />
symplektisches ESV der Konsistenzordnungp<br />
Schrittweite h < h ∗ ⇒ numerischen Lösungen (y k ) k ⊂ K ⊂ D, K kompakte<br />
TeilmengeK ⊂ D des Zustandsraums.<br />
K ist sternförmig (darauf kann verzichtet werden [16, Sect. XI.3.2])<br />
f erfüllt Analytizitätsannahme bzgl.K<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
✎ Notation: (t,y) ↦→ ˜Φ t hy ˆ= Evolutionsoperator zur (optimal abgeschnittenen)<br />
Abschätzung (4.4.81)<br />
modifizierten Gleichung ˙ỹ =˜f h,lopt (ỹ).<br />
⇒<br />
∥ Ψh y− ˜Φ h hy∥ ≤ Chexp(− γ/h) ∀y ∈ K, ∀h < h ∗ .<br />
4.4<br />
p. 552
Thm. 4.4.88 ⇒ ˜f h,lopt (y) = J −1 grad ˜H h (y) mit ˜H h : K ↦→ R holomorph .<br />
Numerische<br />
Mathemtik<br />
˜H h : K ↦→ R holomorph<br />
K kompakt<br />
⇒ ∃L > 0: |˜H h (y)− ˜H h (z)| ≤ L‖y−z‖ ∀y,z ∈ K .<br />
„Teleskopsummenargument”:<br />
ist Invariante einer Hamiltonschen ODE, siehe Lemma 1.2.23)<br />
da ˜H h (˜Φ t hy) = ˜H h (y) für allet ∈ J(y), y ∈ K (Hamilton-Funktion<br />
|˜H h (y k )− ˜H h (y 0 )| ≤<br />
≤<br />
Thm. 4.4.88<br />
k−1 ∑<br />
j=0<br />
k−1 ∑<br />
j=0<br />
|˜H h (y j+1 )− ˜H h (y j )| =<br />
∥ L<br />
∥ Ψh y j − ˜Φ h ∥∥∥<br />
hy j ≤ CL<br />
k−1 ∑<br />
j=0<br />
k−1 ∑<br />
j=0<br />
|˜H h (Ψ h y j )− ˜H h (˜Φ h hy j )|<br />
hexp(−γ/h) ≤ CLhkexp(−γ/h) .<br />
⇒ ∃C > 0: max<br />
y∈K |˜H h (y)−H(y)| ≤ Ch p ∀h < h ∗ .<br />
⇒ |H(y k )−H(y 0 )| ≤ C(Lhkexp(−γ/h)+h p ) ∀h < h ∗ .<br />
LT h p exp(−γ/h) ➣ „Energiefehler” der numerischen Lösung von der GrösseO(h p )<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
für „exponentiell lange Zeit”<br />
☞ Dies ist die Erklärung für die Vermutung aus Bsp. (4.4.34) !<br />
4.4<br />
p. 553
✬<br />
✩<br />
Theorem 4.4.91 (Langzeitenergieerhaltung bei symplektischer Integration).<br />
Für die Hamiltonsche ODE ẏ = J −1 gradH(y) (→ Def. 1.2.20) und ein dazu von Ordnung<br />
p konsistentes symplektisches Einschrittverfahren (→ Def. 4.4.18) seien die Voraussetzungen<br />
von Thm. 4.4.66 erfüllt.<br />
Für hinreichend kleine (uniforme !) Schrittweiten h gelte (Ψ h ) k y ∈ K für alle k ∈ N 0 und<br />
y ∈ K 0 , wobeiK,K 0 ⊂ D kompakt. Dann gibt esC > 0 mit<br />
Numerische<br />
Mathemtik<br />
|H((Ψ h ) k y 0 )−H(y 0 )| ≤ C(hkexp(−γ/h)+h p ) ∀h hinreichend klein, ∀y 0 ∈ K 0 .<br />
✫<br />
✪<br />
T exp(O(h −1 )) =⇒ H(y k )−H(y 0 ) = O(h p )<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Sect. 4.4.3": Methode der Rückwärtsanalyse erfordert uniforme Zeitschrittweite.<br />
Eine bloss theoretische Einschänkung ?<br />
<strong>Beispiel</strong> 4.4.92 (Symplektische Integratoren und variable Schrittweite). Fortsetzung Bsp. 4.4.33<br />
4.4<br />
p. 554
Symplektisches Eulerverfahren (4.4.26) für (4.4.4) auf [0,T], T = 5000. Erratische variable Schrittweiteh<br />
i = 0.5(1+0.5(rand()−0.5)),i = 1,...,10000,p(0) = 0,q(0) = 7π/6<br />
Numerische<br />
Mathemtik<br />
600<br />
250<br />
500<br />
200<br />
400<br />
Gesamtenergie<br />
300<br />
200<br />
Gesamtenergie<br />
150<br />
100<br />
100<br />
0<br />
−100<br />
0 500 1000 1500 2000 2500 3000 3500 4000 4500 5000<br />
t<br />
50<br />
0<br />
0 500 1000 1500 2000 2500 3000 3500 4000 4500 5000<br />
t<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Energiedrift bei variabler Schrittweite (Verfahren<br />
(4.4.26), links)<br />
Energiedrift bei variabler Schrittweite (Verfahren<br />
(4.4.26), rechts)<br />
✸<br />
4.5<br />
p. 555
4.5 Methoden für oszillatorische Differentialgleichungen [23]<br />
Numerische<br />
Mathemtik<br />
☞<br />
Prototyp: ÿ = −ω 2 y , y(0) = y 0 , ẏ(0) = v 0<br />
y(t) = αcos(ωt)+βsin(ωt) , α,β ∈ R<br />
Verallgemeinerung (skalar): ÿ = −ω 2 y +g(y) , y(0) = y 0 , ẏ(0) = v 0 , (4.5.1)<br />
mit Lipschitz-stetiger Störungg : R ↦→ R.<br />
Verallgemeinerung (vektoriell) ÿ = −Ay+g(y) , y(0) = y 0 , ẏ(0) = v 0 , (4.5.2)<br />
Bemerkung 4.5.3.<br />
(4.5.1)<br />
A ∈ R d,d symmetrisch positiv definit,<br />
v:=ẏ<br />
⇐⇒<br />
)<br />
d y<br />
dt(<br />
v<br />
Lösung von (4.5.4) durch Variation der Konstanten:<br />
=<br />
( ) 0 1 y<br />
−ω 0)( 2 v<br />
+<br />
g : R d ↦→ R d<br />
( ) 0<br />
g(y)<br />
. (4.5.4)<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
( ) y(t)<br />
v(t)<br />
=<br />
(<br />
costω ω −1 )( )<br />
sintω y0<br />
+<br />
−ωsintω costω v 0<br />
∫t<br />
0<br />
(<br />
ω −1 )<br />
sin(t−s)ω<br />
cos(t−s)ω<br />
g(y(s))ds (4.5.5)<br />
△<br />
4.5<br />
p. 556
Bemerkung 4.5.6.y(t) löst (4.5.1) &G ′ = g ➡<br />
1 2 |ẏ|2 + 1 2 ω2 y(t)−G(y(t)) ≡ const.<br />
„Energie” für ODE (4.5.1)<br />
<strong>Beispiel</strong> 4.5.7 (Standardintegratoren für oszillatorische Differentialgleichung).<br />
Adaptives explizites RK-ESV (Sect. 2.6 für (4.5.1):<br />
y0=[1;0];f=@(t,x) [0,1;-omega^2,0]*x + 20*[0;sin(x(1))];<br />
options=odeset(’reltol’,1.0e-2,’abstol’,1.0e-5);<br />
[t,y]=ode45(f,[0,1],y0,options); („Energie” ˆ= Invariante aus Bem. 4.5.6)<br />
△<br />
Numerische<br />
Mathemtik<br />
#(Zeitschritte)<br />
800<br />
700<br />
600<br />
500<br />
400<br />
300<br />
200<br />
100<br />
0<br />
0 50 100 150 200 250<br />
ω Fig. 196<br />
Relativer Energiefehler fuer t=1<br />
0.45<br />
0.4<br />
0.35<br />
0.3<br />
0.25<br />
0.2<br />
0.15<br />
0.1<br />
0.05<br />
0<br />
0 50 100 150 200 250<br />
ω Fig. 197<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
4.5<br />
p. 557
ω ↑ ⇒ Oszillationen iny(t) ↑ ⇒ Anzahl Zeitschritte↑<br />
✸<br />
Numerische<br />
Mathemtik<br />
Ziel: Effiziente numerische Integration von (4.5.1)/(4.5.2) auch fürω ≫ 1 bzw.λ max (A) ≫ 1<br />
Idee: ( wie bei exponentiellen Integratoren, siehe Sect. 3.7)<br />
g ≡ const. ,<br />
(4.5.8)<br />
Verwende analytische Lösungsdarstellung (4.5.5) zur numerischen Integration:<br />
y(t±h) = cos(hω)y(t)± sinhω<br />
ω<br />
±h ∫<br />
ẏ(t)+<br />
0<br />
sin(±h−s)ω<br />
ω<br />
·g(y(t+s))ds (4.5.8)<br />
y(t+h)−2cos(hω)y(t)+y(t−h) = h 2 (<br />
sin(<br />
1<br />
2<br />
hω)<br />
1<br />
2 hω ) 2<br />
g . (4.5.9)<br />
➣ Gautschis Zweischrittverfahren (y h (t+h) aus y h (t),y h (t−h)) für (4.5.1)<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
y h (t+h)−2cos(hω)y h (t)+y h (t−h) = h 2 (<br />
sin(<br />
1<br />
2<br />
hω)<br />
1<br />
2 hω ) 2<br />
g(y h (t)) . (4.5.10)<br />
4.5<br />
p. 558
Notwendig: Startschritt aus (4.5.5)<br />
Ableitungsnäherung:<br />
y h (h) = cos(hω)y 0 + sinhω<br />
( )<br />
ω v 0+ 1 sin(<br />
1 2<br />
2 h2 2<br />
hω)<br />
1<br />
2 hω g(y 0 ) . (4.5.11)<br />
Aus (4.5.8) fürg ≡ const:<br />
y(t+h)−y(t−h) = 2h sinhω<br />
hω ẏ(t) ⇒ v h(t) = hω<br />
sinhω · yh(t+h)−y h (t−h)<br />
2h<br />
.<br />
(4.5.12)<br />
Numerische<br />
Mathemtik<br />
Bemerkung 4.5.13. Gautschi-Verfahren (4.5.10), (4.5.11) für vektorielles Problem (4.5.2) ?<br />
Ersetze cos(hω) ↦→ coshA ,<br />
( )<br />
sin(<br />
1 2<br />
2<br />
hω)<br />
1<br />
2 hω ↦→ 4(hA) −2 sin 2 (<br />
2 1hA) . △<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
<strong>Beispiel</strong> 4.5.14 (Gautschis Zweischrittverfahren).<br />
Anfangswertproblem vom Typ (4.5.1) auf[0,1]:<br />
ÿ = −ω 2 y +siny , y(0) = 1 , ẏ(0) = 0 .<br />
4.5<br />
p. 559
1.5<br />
1<br />
Gautschi−Verfahren: h = 0.1000, ω = 25<br />
y(t)<br />
v(t)/ω<br />
y h<br />
(t)<br />
v h<br />
(t)/ω<br />
1<br />
0.8<br />
0.6<br />
Gautschi−Verfahren: h = 0.0333, ω = 25<br />
y(t)<br />
v(t)/ω<br />
y h<br />
(t)<br />
v h<br />
(t)/ω<br />
Numerische<br />
Mathemtik<br />
0.5<br />
0.4<br />
0.2<br />
y<br />
0<br />
y<br />
0<br />
−0.2<br />
−0.5<br />
−0.4<br />
−1<br />
−0.6<br />
−0.8<br />
−1.5<br />
0 0.2 0.4 0.6 0.8 1<br />
t<br />
Fig. 198<br />
ω = 25:y h folgt (oszillatorischer Lösung), auch wennh ≈ 2π ω<br />
−1<br />
0 0.2 0.4 0.6 0.8 1<br />
t<br />
Fig. 199<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Relativer Fehler in „Energie” (→ Bem. 4.5.6) fürt = 1:<br />
4.5<br />
p. 560
0.25<br />
Gautschi−Verfahren: h = 0.1000, ω = 25<br />
Gautschi−Verfahren: h = 0.0333, ω = 25<br />
6 x 10−3 t<br />
Numerische<br />
Mathemtik<br />
5<br />
0.2<br />
4<br />
energy<br />
0.15<br />
0.1<br />
energy<br />
3<br />
2<br />
0.05<br />
1<br />
0<br />
0 0.2 0.4 0.6 0.8 1<br />
t<br />
Fig. 200<br />
Zeitschritt h = 0.1<br />
0<br />
0 0.2 0.4 0.6 0.8 1<br />
Fig. 201<br />
Zeitschritt h = 0.033<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
4.5<br />
p. 561
10 1 Gautschi−Verfahren: Konvergenz, ω = 25<br />
Numerische<br />
Mathemtik<br />
10 0<br />
10 −1<br />
Beobachtung:<br />
Fehler fuer t=1<br />
10 −2<br />
10 −3<br />
10 −4<br />
10 −5<br />
10 −6<br />
|y h<br />
(1)−y(1)|<br />
|v h<br />
(1)−v(1)|<br />
Energiefehler<br />
O(h 2 )<br />
10 −3 10 −2 10 −1<br />
h<br />
Fig. 202<br />
Ziel erreicht ?<br />
Alle Fehler≈ O(h 2 )<br />
⇕<br />
Konvergenzordnung 2<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Fehler für fixeshin Abhängigkeit vonω:<br />
4.5<br />
p. 562
7<br />
6<br />
Gautschi−Verfahren: Konvergenz, h = 0.0500<br />
|y h<br />
(1)−y(1)|<br />
|v h<br />
(1)−v(1)|/ω<br />
10 4 Gautschi−Verfahren: Energiedrift, h = 0.0500<br />
10 2<br />
Energiefehler fuer t=1<br />
Numerische<br />
Mathemtik<br />
5<br />
10 0<br />
Fehler fuer t=1<br />
4<br />
3<br />
Fehler fuer t=1<br />
10 −2<br />
10 −4<br />
2<br />
10 −6<br />
1<br />
10 −8<br />
0<br />
0 50 100 150 200<br />
ω<br />
10 −10<br />
0 50 100 150 200<br />
ω<br />
h = 0.05: Was pasiert fürω ≈ 61,ω ≈ 123,ω ≈ 185 ? Instabilität ?<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
4.5<br />
p. 563
15<br />
Gautschi−Verfahren: Konvergenz, h = 0.0200<br />
|y h<br />
(1)−y(1)|<br />
|v h<br />
(1)−v(1)|/ω<br />
10 4 Gautschi−Verfahren: Energiedrift, h = 0.0200<br />
Energiefehler fuer t=1<br />
Numerische<br />
Mathemtik<br />
10 2<br />
Fehler fuer t=1<br />
10<br />
5<br />
Fehler fuer t=1<br />
10 0<br />
10 −2<br />
10 −4<br />
0<br />
0 50 100 150 200<br />
ω<br />
➣<br />
10 −6<br />
0 50 100 150 200<br />
ω<br />
h-Abhängigkeit kritischer Frequenzen<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
4.5<br />
p. 564
Numerische<br />
Mathemtik<br />
h-Abhängigkeit kritischer Frequenzen<br />
Logarithmus log 10 des relativen Energiefehlers<br />
zum Endzeitpunktt = 0<br />
Beobachtung:<br />
✄<br />
hω-Abhängigkeit kritischer Frequenzen<br />
Fig. 203<br />
✸<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Modellproblem:<br />
ÿ = −ω 2 y +αy , α ≪ ω 2 . (4.5.15)<br />
➤ Gautschi-Verfahren (4.5.10), Schrittweiteh: ➢ Dreitermrekursion<br />
y h (t+h)−<br />
{2cos(hω)+h 2 αsinc 2 ( 1 }<br />
2 hω) y h (t)+y h (t−h) = 0 . (4.5.16)<br />
4.5<br />
p. 565
1<br />
0.8<br />
Numerische<br />
Mathemtik<br />
sinc(x)<br />
0.6<br />
0.4<br />
0.2<br />
0<br />
−0.2<br />
−0.4<br />
−0.6<br />
Die sinc-Funktion:<br />
sinc(x) := sinx<br />
x<br />
➤ Analytisch auf R<br />
➤ |sinc(x)| ≤ 1 mit globalem Maximum inx = 0<br />
−0.8<br />
−1<br />
0 5 10 15 20<br />
x<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Analyse von (4.5.16):<br />
Ansatzy h (kh) = ξ k ↔ Charakteristische (quadratische) Gleichung<br />
∃ Lösungeny h (kh) von (4.5.16):<br />
lim y h(hk) = ±∞ ⇔<br />
k→∞<br />
∣<br />
∣2cos(hω)+h 2 αsinc 2 ( 1 2 hω) ∣ ∣∣ > 2<br />
Abhilfe [23]:<br />
(coshω ≈ 1 ⇔ hω ≈ 2πl, l ∈ Z) ⇒ y h (hk) → ±∞ auch fürh ≪ 1 .<br />
„Filterung”: Dämpfung vonα, fallshω ≈ 2πl:<br />
4.5<br />
p. 566
In (4.5.10), (4.5.11) ersetze: g(y h (t)) ↦→ g(ψ(hω)y h (t)), ψ(ξ) := sinc 2 ξ(1+ 1 2 (1−cosξ))<br />
Numerische<br />
Mathemtik<br />
➤<br />
Modifiziertes Gautschi-Verfahren:<br />
y h (t+h)−2cos(hω)y h (t)+y h (t−h) = h 2 (<br />
sin(<br />
1<br />
2<br />
hω)<br />
1<br />
2 hω ) 2<br />
g(ψ(hω)y h (t)) . (4.5.17)<br />
10 1 Filterndes Gautschi−Verfahren: Konvergenz, ω = 25<br />
<strong>Beispiel</strong><br />
4.5.18 (Modifiziertes Gautschi-Verfahren).<br />
AWP aus Bsp. 4.5.10, Integration gemäss (4.5.17),<br />
Filterfunktionψ(ξ) := sinc 2 ξ(1+ 1 2 (1−cosξ))<br />
Fehler fuer t=1<br />
10 0<br />
10 −1<br />
10 −2<br />
10 −3<br />
R. Hiptmair<br />
rev 35327,<br />
25. April<br />
2011<br />
Konvergenzordnung 2<br />
✄<br />
10 −4<br />
10 −5<br />
10 −6<br />
|y (1)−y(1)| h<br />
|v h<br />
(1)−v(1)|<br />
Energiefehler<br />
O(h 2 )<br />
10 −3 10 −2 10 −1<br />
h<br />
4.5<br />
p. 567
0.14<br />
0.12<br />
Filterndes Gautschi−Verfahren: Konvergenz, h = 0.0500<br />
|y h<br />
(1)−y(1)|<br />
|v h<br />
(1)−v(1)|/ω<br />
10 −1 Filterndes Gautschi−Verfahren: Energiedrift, h = 0.0500<br />
Energiefehler fuer t=1<br />
Numerische<br />
Mathemtik<br />
0.1<br />
10 −2<br />
Fehler fuer t=1<br />
0.08<br />
0.06<br />
0.04<br />
Fehler fuer t=1<br />
10 −3<br />
0.02<br />
0<br />
0 50 100 150 200<br />
ω<br />
10 −4<br />
0 50 100 150 200<br />
ω<br />
R. Hiptmair<br />
rev 35327,<br />
22. Januar<br />
2008<br />
4.5<br />
p. 568
hω-Abhängigkeit der Energiedrift<br />
Beobachtung:<br />
(4.5.17): Keine Instabilität<br />
✄<br />
Numerische<br />
Mathemtik<br />
Im Vergleich zu (4.5.10) (→<br />
Bsp. 4.5.14) deutlich reduzierte<br />
Energiedrift (Skala!)<br />
R. Hiptmair<br />
rev 35327,<br />
22. Januar<br />
2008<br />
4.5<br />
p. 569
Numerische<br />
Mathemtik<br />
Verzeichnisse<br />
R. Hiptmair<br />
rev 35327,<br />
22. Januar<br />
2008<br />
4.5<br />
p. 570
Numerische<br />
Mathemtik<br />
Index<br />
R-reversible Abbildung, 462<br />
R-reversible Evolution, 462<br />
a posteriori<br />
Fehlerschätzung, 292<br />
A-Stabilität, 358<br />
absolute Toleranz, 295<br />
adjungierte Matrix, 443<br />
Affin-Kovarianz<br />
Runge-Kutta, 230<br />
Aitken-Neville-Schema, 254<br />
akzeptable Lösung, 551<br />
akzeptables Resultat, 508<br />
algebraische Konvergenz, 78, 79, 122<br />
algebraische Nebenbedingung<br />
bei DAE, 405<br />
algebraische Stabilität, 362<br />
alternierende Bilinearform, 473<br />
analytisch, 195<br />
analytische Funktion, 192, 524<br />
Analytizitätsvoraussetzung, 524<br />
Anfangswertproblem<br />
Lösung, 21<br />
linear, 52<br />
steifes, 375<br />
Asymptotische (absolute) Kondition, 58<br />
asymptotische Entwicklung, 256, 260, 517<br />
Asymptotische Stabilität<br />
eines Fixpunkts, 340<br />
attraktiver Fixpunkt, 24, 322<br />
autonome Differentialgleichung, 18<br />
Autonomisierung, 18<br />
Autonomisierungsinvarianz, 232<br />
AWP<br />
Kondition, 60<br />
B-Stabilität, 362<br />
Bahnebene, 41<br />
Banachscher Fixpunktsatz, 150<br />
Basisverfahren<br />
für Extrapolation, 266<br />
Bewegungsgleichungen<br />
Hamiltonsche Form, 38<br />
Molekulardnamik, 498<br />
R. Hiptmair<br />
rev 35327,<br />
22. Januar<br />
2008<br />
4.5<br />
p. 571
Newtonsche, 37<br />
bimolekulare Reaktion, 29<br />
Blow-up, 44, 51, 310<br />
Bootstrapping, 222<br />
Butcher-Bäum, 244<br />
Butcher-Matrix, 368<br />
Butcher-Schema, 224<br />
Cauchy-Hadamard<br />
Formel von, 205<br />
DAE, 404, 405<br />
separiert, 406<br />
vom Index 1, 408<br />
Deskriptorform<br />
mechanischer Bewegungsgleichungen, 419<br />
von Bewegungsgleichungen, 420<br />
Determinante<br />
Ableitung, 443<br />
diagonal-implizite ESV, 391<br />
DIFEX, 278<br />
Differentialgleichung<br />
Hamiltonsche, 39<br />
linear, 53<br />
logistische, 186, 209, 250<br />
Variation der Konstanten, 54<br />
Differentialgleichungen<br />
Skalare, 50<br />
differentiell-algebraische Gleichung (DAE), 404<br />
differentiell-algebraisches Anfangswertproblem (DAE), 405,<br />
406<br />
differentielle Konditionsanalyse, 58<br />
Differenzenverfahren, 75, 87, 100<br />
DIRK-Einschrittverfahren, 391<br />
diskrete Evolution<br />
Konsistenz, 125<br />
Konsistenzfehler, 125<br />
Konsistenzordnung, 127<br />
reversibel, 140<br />
diskretes dynamisches System, 347<br />
Diskretisierungsfehler, 121<br />
Diskretisierungsparameter, 252<br />
dissipatives Vektorfeld, 356<br />
Divergenz<br />
eines Vektorfeldes, 447<br />
Doppelpendel, 70<br />
Drehimpuls, 41<br />
Dreitermrekursion, 565<br />
dynamisches System<br />
diskret, 347<br />
Eingebettete Runge-Kutta-Verfahren, 310<br />
eingebettete Runge-Kutta-Verfahren, 311<br />
Einschrittfehler, 139<br />
Einschrittverfahre<br />
implizit, 121<br />
Einschrittverfahren, 105, 119<br />
diagonal-implizit, 391<br />
explizit, 121<br />
Konvergenz, 130<br />
Notation, 120<br />
reversibel, 274<br />
Schrittweitensteuerung, 287<br />
symplektisch, 483<br />
Numerische<br />
Mathemtik<br />
R. Hiptmair<br />
rev 35327,<br />
22. Januar<br />
2008<br />
4.5<br />
p. 572
elementare Differentiale, 243<br />
Energie<br />
für oszillatorische Differentialgleichung, 557<br />
Energiedrift, 104, 113, 468, 555, 569<br />
Energieerhaltung, 39, 467<br />
Pendel, 38<br />
Energiemannigflatigkeit, 505<br />
Erstes Integral<br />
Bedingung, 29<br />
erstes Integral, 29, 434<br />
linear, 435<br />
polynomial, 435<br />
quadratisch, 102, 435<br />
erweiterter Zustandsraum<br />
einer ODE, 12<br />
erzeugende Funktion, 199<br />
ESV<br />
Radau, Ordnung 3, 371<br />
Radau, Ordnung 5, 371<br />
Euler<br />
Implizit, 371<br />
Euler-Verfahren, 267<br />
explizites, Stabilitätsfunktion, 330<br />
implizit, 85<br />
semi-implizit, 387<br />
Euler-Verfahrens<br />
Konvergenz, 75<br />
Eulersches Polygonzugverfahren, 73<br />
Eulerverfahren<br />
explizit, 73, 161<br />
implizit, 161<br />
implizites, Stabilitätsfunktion, 330<br />
Evolution<br />
R-reversibel, 462<br />
diskrete, 146<br />
Evolutionsoperator, 49<br />
explizite Mittelpunktsregel, 245<br />
explizite Trapezregel, 245<br />
explizites Einschrittverfahren, 121<br />
explizites Eulerverfahren, 73, 161<br />
exponentiell klein, 522<br />
exponentielle Konvergenz, 79, 187<br />
exponentielle Runge-Kutta-Verfahren, 401<br />
Extrapolation, 252<br />
Extrapolations-Einschrittverfahren, 266<br />
Extrapolationstableau, 254<br />
Extrapolationsverfahren<br />
global, 264<br />
lokal, 265<br />
Faltung, 55<br />
Federpendel, 494<br />
Fehlerfortpflanzung, 139<br />
Fehlerfunktion, 138<br />
Fixpunkt<br />
asymptotisch stabil, 340<br />
asymptotische Stabilität, 345<br />
attraktiv, 24, 84, 322, 340<br />
einer ODE, 339<br />
repulsiv, 24<br />
Gauss-Kollokations-Einschrittverfahren, 162, 185, 245, 356,<br />
374, 486<br />
Numerische<br />
Mathemtik<br />
R. Hiptmair<br />
rev 35327,<br />
22. Januar<br />
2008<br />
4.5<br />
p. 573
Gauss-Radau-Quadratur, 369<br />
Gaussquadratur, 161<br />
Gautschi-Verfahren, 558<br />
Filterung, 567<br />
modizifiertes, 567<br />
Gautschis Zweischrittverfahren, 558<br />
gewöhnliche Differentialgleichung, 12<br />
autonome, 18<br />
erster Ordnung, 12<br />
Gewichte<br />
einer Quadraturformel, 160<br />
Gitterfunktion, 121<br />
Glattheit<br />
hinreichende, 130<br />
globale Lösung<br />
eines AWP, 48<br />
globale Lipschitzbedingung, 61<br />
Gradientenfluss, 353<br />
Grenzzyklus, 381<br />
Gronwalls Lemma, 62<br />
Hamilton-Funktion, 39, 466<br />
Molekulardnamik, 497<br />
separiert, 484<br />
Hamiltonsche Bewegungsgleichugen<br />
mit Nebenbedingunge, 422<br />
Hamiltonsche Differentialgleichung, 39, 466<br />
Herzschlagmodell, 32<br />
hinreichende Glattheit, 130<br />
holomorph, 192, 195<br />
holomorphe Funktion, 524<br />
homogene lineare Differentialgleichung, 54<br />
implizite Mittelpunktsregel, 99, 128, 161, 484<br />
implizites Einschrittverfahren, 121<br />
implizites Euler-Verfahren, 85<br />
implizites, Euler-Verfahren, 245<br />
Impuls, 41<br />
Index<br />
einer DAE, 408, 421<br />
inkompressible Strömung, 446<br />
Inkremente<br />
Kollokation, 147<br />
Runge-Kutta, 224<br />
Inkrementfunktion, 125<br />
Inkrementgleichungen, 147<br />
linearisiert, 388<br />
Instabilität<br />
Gautschi-Verfahren, 563<br />
Integrabilitätslemma, 481<br />
intervallweise Kondition, 60<br />
Invariante, 29<br />
invariante Mannigfaltigkeit, 382<br />
Jordan-Block, 342<br />
Jordan-Normalform, 342<br />
Joukowski-Transformation, 201<br />
Keplerproblem, 40<br />
Keplersches Gesetz<br />
erstes, 42<br />
zweites, 42<br />
kinetische Energie, 38<br />
klassisches Runge-Kutta-Verfahren, 245<br />
Knoten<br />
Numerische<br />
Mathemtik<br />
R. Hiptmair<br />
rev 35327,<br />
22. Januar<br />
2008<br />
4.5<br />
p. 574
einer Quadraturformel, 160<br />
Knotenanalyse<br />
von Schaltkreisen, 380, 402<br />
Kollaps, 44, 51, 309<br />
Kollokation<br />
Inkremente, 147<br />
Kollokations<br />
RK-ESV, 369<br />
Kollokationsbedingung, 144<br />
Kollokationspunkt, 144<br />
Kollokationsverfahren, 144<br />
Inkrementfunktion, 147<br />
Konsistenz, 180<br />
Kompaktheitsargument, 135<br />
Kondition, 57<br />
analyse<br />
differentielle, 63<br />
asymptotisch, 58<br />
intervallweise, 60<br />
punktweise, 60<br />
Kongruenztransformation, 473<br />
Konsistenz, 125<br />
Runge-Kutta-Verfahren, 239<br />
Konsistenzfehler, 125, 131, 138<br />
Konsistenzordnung, 127<br />
Splittingverfahren, 280<br />
Kontraktion, 150<br />
Konvergenz, 122<br />
algebraisch, 78<br />
exponentiell, 187<br />
Kollokationsverfahren, 185<br />
von Einschrittverfahren, 130<br />
Konvergenzordnung, 122<br />
Konvergenzradius, 205<br />
kovariante Transformation, 53<br />
Kovergenz<br />
global, 122<br />
Kraftfeld<br />
konservativ, 40<br />
Kreuzprodukt (Vektorprodukt), 436<br />
Kuttas 3/8-Regel, 245<br />
L-Stabilität, 367<br />
Lösung<br />
eines Anfangswertproblems, 21<br />
Lagrange-Multiplikator, 420, 422<br />
Lagrange-Polynom, 145<br />
Laurent-Entwicklung, 193<br />
Legendre-Polynom, 197<br />
Legendre-Polynome, 162<br />
Rekursionsformel, 197<br />
Lenard-Jones-Potential, 497<br />
Lie-Trotter-Splitting, 279<br />
linear-implizites Runge-Kutta-Verfahren, 393<br />
lineare Differentialgleichung, 52, 53<br />
linearer Operator<br />
stetig, 164<br />
linearisierte Störungstheorie, 58<br />
Linearisierung<br />
um Fixpunkt, 322<br />
Liouville<br />
Satz von, 447<br />
Lipschitz-Stetigkeit<br />
Numerische<br />
Mathemtik<br />
R. Hiptmair<br />
rev 35327,<br />
22. Januar<br />
2008<br />
4.5<br />
p. 575
lokale, 46<br />
Logistische Differentialgleichung, 186, 209, 250, 279<br />
logistische Differentialgleichung, 23, 268<br />
Lotka-Volterra Differentialgleichung, 26<br />
Makroschritt<br />
bei Extrapolationsverfahren, 265<br />
MAPLE, 128<br />
mathematisches Pendel, 37<br />
symplektische Integration, 467<br />
Matrix<br />
Propagations-, 64<br />
Wronski, 64<br />
Matrixexponentialfunktion, 54, 397<br />
Matrixfunktionen, 337<br />
maximale Fortsetzbarkeit, 44<br />
maximales Existenzintervall, 45<br />
Mikroschritt<br />
bei Extrapolationsverfahren, 266<br />
Minimalkoordinaten, 420<br />
Mittelpunktsregel, 223<br />
explizit, 223, 227<br />
implizit, 99, 161<br />
implizit, Stabilitätsfunktion, 330<br />
Modellprobelanalyse<br />
implizites Euler-Verfahren, 88<br />
Modellproblem<br />
für gestörte oszillatorische Differentialgleichungen, 565<br />
Modellproblemanalyse, 322<br />
explizites Eulerverfahren, 84<br />
modifizierte Differentialgleichung, 508<br />
für lineare AWP, 509<br />
modifizierte Gleichung<br />
abgeschnittene, 519<br />
der Ordnung q, 510<br />
Molekulardnamik, 497<br />
Molekulardynamik, 501<br />
mplizite Trapezregel, 245<br />
multivariates Polynom, 435<br />
Newton-Verfahren<br />
vereinfacht, 392<br />
Newtonsche Bewegungsgleichungen, 37<br />
nichtdegenerierte Bilinearform, 473<br />
Nichtexpansivität, 353<br />
nichtlineare Stabilität, 140<br />
Normalform<br />
bei schiefsymmetrischen Matrizen, 473<br />
numerische Quadratur, 160<br />
numerischer Integrator, 116<br />
ODE, 12<br />
skalar, 15<br />
Operatornorm, 164<br />
ordinary differential equation (ODE), 12<br />
Ordnung<br />
einer Quadraturformel, 181<br />
Ordnungsschranken<br />
für Runge-Kutta-Verfahen, 245<br />
Ordnungssteuerung<br />
bei Extrapolationsverfahren, 271<br />
Oregonator, 31<br />
oszillatorische Differentialgleichungen, 556<br />
parasitäre Kapazität, 409<br />
Numerische<br />
Mathemtik<br />
R. Hiptmair<br />
rev 35327,<br />
22. Januar<br />
2008<br />
4.5<br />
p. 576
partikuläre Lösung, 54<br />
partitionierte Runge-Kutta-Einschrittverfahren, 489<br />
Peano<br />
Satz von, 47<br />
Pendel, 37, 419<br />
Pendelgleichung, 469<br />
Phasenraum<br />
einer ODE, 12<br />
Picard-Lindelöf<br />
Satz von, 47<br />
Pol<br />
einer Funktion, 193<br />
Polygonzugverfahen, 72<br />
Polynom<br />
multivariat, 435<br />
polynomiale Invariante, 435<br />
Polynominterpolation<br />
Fehlerabschätzung, 174<br />
potentielle Energie, 38<br />
Problem<br />
in der Numerik, 57<br />
Projektions-Einschrittverfahren, 165<br />
Projektionsoperator, 164<br />
Propagationsmatrix, 64<br />
Punkt<br />
stationär, 28<br />
punktweise Kondition, 60<br />
Push-Forward, 472<br />
Quadraturformel, 160<br />
Mittelpunktsregel, 223<br />
Ordnung, 181<br />
Trapezregel, 223<br />
Räuber-Beute-Modell, 26<br />
Rückwärtsanalyse, 551<br />
von Integrationsverfahren, 507<br />
Radau-ESV, Ordnung 3, 371<br />
Radau-ESV, Ordnung 5, 371<br />
Radau-Verfahren, 417<br />
Rationale Approximation<br />
der Exponentialfunktion, 329<br />
Reaktionskinetik, 29<br />
rechte Seite<br />
einer ODE, 12<br />
Regel<br />
Kuttas 3/8, 230<br />
Mittelpunkt, explizit, 223<br />
Trapez, explizit, 223, 228<br />
relative Toleranz, 295<br />
repulsiver Fixpunkt, 24<br />
Residuensatz, 192<br />
Residuum<br />
einer komplexwertigen Funktion, 193<br />
Reversibilität, 140, 274, 460<br />
reversible Einschrittverfahren<br />
Konsistenzordnung, 142<br />
Riccati-Differentialgleichung, 14, 74<br />
Richtungsfeld, 14<br />
RK4, 229<br />
Stabilitätsfunktion, 331<br />
Rodrigues-Formel, 197<br />
Romberg-Quadratur, 252<br />
ROW-Methoden, 393<br />
Numerische<br />
Mathemtik<br />
R. Hiptmair<br />
rev 35327,<br />
22. Januar<br />
2008<br />
4.5<br />
p. 577
Runge-Kutta<br />
3/8-Regel, 230<br />
Affin-Kovarianz, 230<br />
Autonomisierung, 232<br />
eingebettet, 311<br />
Einschritt-Verfahren, 224<br />
Inkremente, 224<br />
klassisch, 229<br />
Runge-Kutta-Einschrittverfahren<br />
R-reversibel, 464<br />
steif-genaue, 367<br />
symmetrisch, 457<br />
Runge-Kutta-Verfahen<br />
Autonomisierungsinvarianz, 232<br />
Ordnungsschranken, 245<br />
Runge-Kutta-Verfahren, 222, 224<br />
eingebettet, 310<br />
exponentiell, 401<br />
Konsistenz, 239<br />
Konstruktion, 223<br />
Konvergenzordnung, 245<br />
linear-implizit, 393<br />
Stabilitätsfunktion, 327<br />
Satz<br />
Peano & Picard-Lindelöf, 47<br />
Satz über implizite Funktionen, 149<br />
Satz von Liouville, 447<br />
Schaltkreis<br />
Knotenanalyse, 380, 402<br />
Schrittweitenbeschränkung, 153, 349<br />
für explizite RK-ESV, 334<br />
Schrittweitenkorrektur, 300<br />
Schrittweitensteuerung, 377<br />
für ESV, 287<br />
Schrittweitenvorschlag, 300<br />
Schur-Zerlegung, 336<br />
semi-implizites Euler-Verfahren, 387<br />
Sensitivitä, 57<br />
Separation der Variablen, 24<br />
sinc-Funktion, 566<br />
Singuläre Störungstechnik, 409<br />
Skalare Differentialgleichungen , 50<br />
Skalare ODE, 15<br />
Spektralradius<br />
einer Matrix, 347<br />
Spektrum<br />
einer Matrix, 342<br />
Splitting<br />
Lie-Trotter, 279<br />
Strang, 279<br />
Splittingverfahren, 278, 487<br />
inexakt, 285<br />
inexakte, 285<br />
ssymmetrische Runge-Kutta-Einschrittverfahren, 457<br />
Störmer-Verlet-Verfahren, 104, 484<br />
Molekulardnamik, 498<br />
Stabilit<br />
nichtlineare, 140<br />
Stabilität, 139<br />
-sfunktion, 371<br />
-sgebiet, 350<br />
B-, 362<br />
Numerische<br />
Mathemtik<br />
R. Hiptmair<br />
rev 35327,<br />
22. Januar<br />
2008<br />
4.5<br />
p. 578
L-, 367<br />
Stabilitätsfunktion, 330<br />
Interpretation, 327<br />
von Runge-Kutta-Verfahren, 327<br />
Stabilitätsgebiet, 326<br />
Startschritt, 106, 559<br />
steif-genau, 367, 413<br />
Steifheit, 375<br />
sternförmig, 481<br />
stetiger linearer Operator, 164<br />
Strang-Splitting, 279<br />
Stromlinien, 449<br />
strukturerhaltende Integratoren, 508<br />
Stufen<br />
eines RK-ESV, 225<br />
symplektische Abbildung, 478<br />
symplektische Evolution, 472<br />
symplektischer Fluss, 474<br />
symplektischer Integrator, 485<br />
symplektisches Einschrittverfahren, 483<br />
symplektisches Euler-Verfahren, 484, 487<br />
symplektisches Produkt, 472<br />
Taylorentwicklung, 240<br />
Toleranz<br />
absolute, 295<br />
bei Schrittweitensteuerung, 292<br />
realtiv, 295<br />
Relativ, 295<br />
Trajektorie, 26<br />
Transformation<br />
kovariant, 53<br />
Trapezregel, 223<br />
explizit, 223, 228<br />
explizit, Stabilitätsfunktion, 330<br />
Varationsgleichung, 65<br />
Variation der Konstanten, 54, 396, 556<br />
Variationsgleichung, 450<br />
Vektorfeld, 18<br />
Vektorprodukt, 42<br />
Verfahren<br />
ESV, Runge-Kutta, 224<br />
Euler, implizit, 161<br />
Runge-Kutta, 222, 224<br />
Runge-Kutta, klassisch, 229<br />
Runge-Kutta, Konstruktion, 223<br />
versteckte Nebenbedingungen, 421<br />
bei DAEs, 423<br />
volumenerhaltende Abbildung, 447<br />
Volumenerhaltung, 447<br />
bei Hamiltonschen ODEs, 469<br />
wohlgestellt, 61<br />
Problem, 57<br />
Wronski-Matrix, 64<br />
Zeeman-Modell, 32<br />
Zeitgitter, 119<br />
Zeitschrittweite, 119<br />
Zeitskalierungsinvarianz, 325<br />
Zeitumkehrsymmetrie (bei mechanischen Systemen), 461<br />
Zustandsraum<br />
einer ODE, 12<br />
Molekulardnamik, 497<br />
Numerische<br />
Mathemtik<br />
R. Hiptmair<br />
rev 35327,<br />
22. Januar<br />
2008<br />
4.5<br />
p. 579
Zwangskraft, 420<br />
Zweischrittverfahren, 105<br />
Gautschis, 558<br />
Numerische<br />
Mathemtik<br />
R. Hiptmair<br />
rev 35327,<br />
22. Januar<br />
2008<br />
4.5<br />
p. 580
Numerische<br />
Mathemtik<br />
<strong>Beispiel</strong>e und Bemerkungen<br />
[Lösung der Schaltkreis-DAEs mit MATLAB, 418<br />
[Steife Probleme in der chemischen Reaktionskinetik, 377<br />
‘Gronwall-Schranke” für Kondition, 63<br />
“Butcher barriers” für explizite RK-ESV, 246<br />
“Versagen” adaptive Zeitschrittsteuerung, 306<br />
A-Stabilität ⇏ Diskrete Nichtexpansivität, 361<br />
Adaptive explizite RK-ESV für steifes Problem, 376<br />
Adaptive RK-ESV zur Teilchenbahnberechnung, 314<br />
Adaptives semi-implizites RK-ESV für steifes Problem, 384<br />
Affin-Kovarianz der Runge-Kutta-Verfahren, 230<br />
Allgemeine Variation-der-Konstanten-Formel, 55<br />
Analytizitätsgebiet für logistischen Dgl., 209<br />
Analytizitätsvoraussetzung für Hamiltonsche Differentialgleichungen,<br />
525<br />
Anfangswerte für Dgl. höherer Ordnung, 22<br />
Attraktive und repulsive Fixpunkte einer skalaren ODE,<br />
341<br />
Attraktiver Grenzzyklus, 381<br />
Autonome skalare Differentialgleichungen, 50<br />
Autonomisierung, 18<br />
Autonomisierungsinvarianz von Runge-Kutta-Verfahren, 232<br />
AWP-Löser in MATLAB, 25<br />
B-Stabilität, 362<br />
Bedeutung der modifizierten Gleichungen niedriger Ordnung,<br />
517<br />
Bedeutung linearer AWPe, 56<br />
Bedingungsgleichungen für Linear-implizite Runge-Kutta-<br />
Verfahren 2. Ordnung, 393<br />
Berechnung der Modifikatoren ∆f j durch Computeralgebra,<br />
515<br />
Bimolekulare Reaktion, 29<br />
Butcher-Bäume, 244<br />
DAE: Transformation auf separierte Form, 407<br />
Definitionsintervalle von Lösungen von AWPe, 48<br />
Dense output, 234<br />
DIFEX, 278<br />
Doppelpendel, 70<br />
Effizienzgewinn durch Adaptivität, 298<br />
Einfache A-stabile RK-ESV, 350<br />
R. Hiptmair<br />
rev 35327,<br />
22. Januar<br />
2008<br />
4.5<br />
p. 581
Einfache reversible Einschrittverfahren, 141<br />
Einfache symplektische Integratoren, 484<br />
Eingebettete RK-ESV, 310<br />
Eingebettete Runge-Kutta-Verfahren, 311<br />
Einschrittformulierung des Störmer-Verlet-Verfahrens, 113<br />
Energieerhaltung bei numerischer Integration, 467<br />
Energieerhaltung bei semi-impliziter Mittelpunktsregel, 394<br />
Euler-Extrapolationsverfahren mit Ordnungssteuerung, 272<br />
Euler-Verfahren für Pendelgleichung, 89<br />
Eulerverfahren für längenerhaltende Evolution, 98<br />
Explizite Runge-Kutta-Schritte für Ricatti-Differentialgleichung,<br />
226<br />
Explizites Euler-Verfahren für logistische Dgl, 82<br />
Explizites Eulerverfahren als Differenzenverfahren, 75<br />
Exponentielles Euler-Verfahren, 398<br />
Exponentielles Euler-Verfahren für steifes AWP, 399<br />
Extrapolationsverfahren als Runge-Kutta-Verfahren, 270<br />
Extrapolierte implizite Mittelpunktsregel, 274<br />
Extrapoliertes Euler-Verfahren, 267<br />
Federpendel, 494<br />
Fehler bei Polynominterpolation in Gauss-Knoten, 208<br />
Fixpunktform von Projektions-Einschrittverfahren, 166<br />
Funktionenkalkül für Matrizen, 337<br />
Gauss-Kollokations-ESV bei stark attraktiven Fixpunkten,<br />
363<br />
Gauss-Kollokationsverfahren, 360<br />
Gautschis Zweischrittverfahren, 559<br />
Glattheitsannahmen an rechte Seite, 118<br />
Globaleh 2 -Extrapolation für implizite Mittelpunktsregel, 276<br />
Gradientenfluss, 353<br />
Hamiltonsche Bewegungsgleichugen mit Nebenbedingungen,<br />
422<br />
Implementierung steif-genauer RK-ESV für DAE, 430<br />
Implizite Mittelpunktregel für Kreisbewegung, 101<br />
Implizite Mittelpunktsregel als Differenzenverfahren, 100<br />
Implizite Mittelpunktsregel für logistische Dgl., 101<br />
Implizite Mittelpunktsregel für Pendelgleichung, 103<br />
Implizite RK-ESV bei schnellen Transienten, 365<br />
Implizite RK-ESV mit linearisierten Inkrementgleichungen,<br />
389<br />
Implizites Euler-Verfahren für Pendelgleichung in Deskriptorform,<br />
426<br />
Implizites Eulerverfahren als Differenzenverfahren, 87<br />
Implizites Eulerverfahren für logistische Differentialgleichung,<br />
87<br />
Ineffizienz expliziter Runge-Kutta-Verfahren, 320<br />
Inexakte Splittingverfahren, 285<br />
Interpolationsfehler bei Polynominterpolation in Gauss-Knoten,<br />
188<br />
Interpretation der Stabilitätsfunktion, 327<br />
Invertierbarkeit der Koeffizientenmatrix von RK-ESV, 368<br />
Knotenanalyse eines Schaltkreises, 402<br />
Kollokationsverfahren als Projektionsverfahren, 163<br />
Kollokationsverfahren und numerische Quadratur, 160<br />
Kondition skalarer linearer Anfangswertprobleme, 60<br />
Konsistenzordnung einfacher Einschrittverfahren, 128<br />
Konstante 2-Formen, 473<br />
Konstruktion einfacher Runge-Kutta-Verfahren, 223<br />
Konvergenz des expliziten Euler-Verfahrens, 75<br />
Konvergenz einfacher Splittingverfahren, 279<br />
Numerische<br />
Mathemtik<br />
R. Hiptmair<br />
rev 35327,<br />
22. Januar<br />
2008<br />
4.5<br />
p. 582
Konvergenz expliziter Runge-Kutta-Verfahen, 237<br />
Konvergenz kombinierter Verfahren, 250<br />
Konvergenz von einfachen Kollokations-Einschrittverfahren,<br />
157<br />
Konvergenz von Gauss-Kollokations-Einschrittverfahren, 177<br />
Konvergenz von Kollokationsverfahren, 185<br />
Lösbarkeit der Inkrementgleichungen für Gauss-Kollokations-<br />
ESV, 359<br />
Lösung der Inkrementgleichungen, 234<br />
Lösungsfunktion aus Extrapolationsverfahren, 162<br />
Langzeit-Energieerhaltung bei symplektischer Integration,<br />
493<br />
Linearisierung der Inkrementgleichungen, 386<br />
Lorenz system, 66<br />
Magnetnadel<br />
Präzession , 436<br />
Massenpunkt im Zentralfeld, 40<br />
Mathematisches Pendel, 37<br />
MATLAB-Integratoren für Index-1-DAEs, 417<br />
MATLAB-Integratoren für Pendelgleichung in Deskriptorform,<br />
424<br />
Modifikatoren für einfache ESV, 515<br />
Modifizierte Gleichung der Ordnung 2 zu explizitem Euler-<br />
Verfahren, 511<br />
Modifizierte Gleichung für RK-ESV und lineare AWPe, 509<br />
Modifizierte Gleichung für symplektisches Euler-Verfahren,<br />
545<br />
Modifiziertes Gautschi-Verfahren, 567<br />
Molekulardnamik, 497<br />
Notation fuer Einschrittverfahren, 120<br />
Numerische Integration bei Blow-up, 287<br />
Numerische Integratoren als approximative Evolutionsoperatoren,<br />
50<br />
Numerische Quadratur, 160<br />
Oregonator-Reaktion, 31<br />
Partitionierte Runge-Kutta-Einschrittverfahren, 489<br />
Pendelgleichung in Deskriptorform, 419<br />
Philosophische Grundlage der Rückwärtsanalyse, 507<br />
Präzession<br />
Magnetnadel, 436<br />
Projektion auf Energiemannigfaltigkeit, 504<br />
Qualität der Fehlerschätzung, 293<br />
Räuber-Beute-Modelle, 26<br />
Radau-ESV bei stark attraktiven Fixpunkten, 372<br />
Reskalierung des Modellproblems, 324<br />
Resourcenbegrenztes Wachstum, 23<br />
Reversibilität bei mechanischen Systemen, 460, 463<br />
Richtungsfeld und Lösungskurven, 14<br />
RK-Bedingungsgleichungen für Konsistenzordnung p =<br />
3, 239<br />
RK-ESV für autonome homogene lineare ODE, 334<br />
RK-ESV und Elimination der DAE-Nebenbedingungen, 414<br />
Romberg-Quadratur, 253<br />
Schaltkreis<br />
steife -gleichunge Zeitbereich, 379<br />
Schrittweitenbedingungen für ‘Langzeitintegration”, 544<br />
Schrittweitenbeschränkung aus Lemma 2.2.7, 153<br />
Schrittweitensteuerung für Bewegungsgleichungen, 317<br />
Numerische<br />
Mathemtik<br />
R. Hiptmair<br />
rev 35327,<br />
22. Januar<br />
2008<br />
4.5<br />
p. 583
Schrittweitensteuerung für explizite Trapezregel/Euler-Verfahren, Verfahren<br />
303<br />
Schrittweitensteuerung und Blow-up, 310<br />
Schrittweitensteuerung und Instabilität, 308<br />
Schrittweitensteuerung und Kollaps, 309<br />
Singulär gestörte Schaltkreisgleichungen, 409<br />
Skalierungsinvarianz der Extrapolation, 254<br />
Splittingverfahren für mechanische Systeme, 283<br />
Störmel-Verlet-Verfahren für Pendelgleichung, 107<br />
Störmer-Verlet-Verfahren als Differenzenverfahren, 106<br />
Störmer-Verlet-Verfahren als Polygonzugmethode, 114<br />
Stabilitätsfunktionen einiger RK-ESV, 330<br />
Stabilitätsgebiet des exponentiellen Euler-Verfahren, 398<br />
Standardintegratoren für oszillatorische Differentialgleichung,<br />
557<br />
Steife Schaltkreisgleichungen im Zeitbereich, 379<br />
Steuerung von ˜Ψ durch Ψ, 301<br />
Strömungsvisualisierung, 449<br />
Strang-Splitting erzeugt reversible ESV, 283<br />
Stufenform der Inkrementgleichungen, 225<br />
Symplektische Integratoren und variable Schrittweite, 554<br />
Symplektisches Euler-Verfahr, 487<br />
Symplektisches Euler-Verfahren für Pendelgleichung, 491<br />
Symplektisches Flussintegral, 474<br />
Symplektizität der Pendelgleichung, 469<br />
ESV adaptiv, explizit, steifes Problem, 376<br />
Verhalten von Stabilitätsfunktionen, 331<br />
Vielteilchen-Molekulardynamik, 501<br />
Volumenerhaltende Integratoren für d = 2, 451<br />
Volumenerhaltendes Splittingverfahren 2. Ordnung, 455<br />
Volumenerhaltung bei zweidimensionalen Hamiltonschen<br />
ODEs, 469<br />
Warum Einschrittverfahren hoher Ordnung?, 246<br />
Zeemans Herzschlagmodell, 32<br />
Zeitlich ungleichmässiges Verhalten von Lösungen, 289<br />
Numerische<br />
Mathemtik<br />
R. Hiptmair<br />
rev 35327,<br />
22. Januar<br />
2008<br />
Translationsinvarianz von Lösungen autonomer Dgl., 18<br />
Umformulierung der Inkrementgleichungen, 147<br />
Vektorräume von Vektorfeldern und Eigenschaften von Evolutionen,<br />
479<br />
4.5<br />
p. 584
Numerische<br />
Mathemtik<br />
Definitionen<br />
R-reversible Abbildung, 462<br />
(Abgeschnittene) asymptotische Entwicklung, 256<br />
A-Stabilität, 350<br />
algebraische Stabilität, 362<br />
Alternierende, nichtdegenerierte Bilinearform, 473<br />
Arten der Konvergenz, 79<br />
Asymptotische Stabilität eines Fixpunkts, 340<br />
DAE vom Index 1, 408<br />
Diskretisierungsfehler, 121<br />
Dissipatives Vektorfeld, 356<br />
Einschrittverfahren, 119<br />
Erstes Integral, 29<br />
Evolutionsoperator, 49<br />
explizite und implizite Einschrittverfahren, 121<br />
Exponentielle Runge-Kutta-Verfahren, 401<br />
Fixpunkt, 339<br />
Hamiltonsche Differentialgleichung, 39<br />
Konsistenz einer diskreten Evolution, 125<br />
Konsistenzfehler einer diskreten Evolution, 125<br />
Konsistenzordnung einer diskreten Evolution, 127<br />
Konvergenz und Konvergenzordnung, 122<br />
L-Stabilität, 367<br />
Lösung einer gewöhnlichen Differentialgleichung, 14<br />
Lösung eines Anfangswertproblems, 21<br />
Lokale Lipschitz-Stetigkei, 46<br />
Maximale Fortsetzbarkeit einer Lösung, 44<br />
Modifizierte Gleichung der Ordnung q, 510<br />
Nichtexpansivität, 353<br />
Nichtlineare Stabilität, 140<br />
Polynomiale Invarianten, 435<br />
Projektionsoperator, 164<br />
Residuum einer komplexwertigen Funktion, 193<br />
Reversible diskrete Evolutionen, 141<br />
Runge-Kutta-Verfahren, 224<br />
Stabilitätsgebiet eines Einschrittverfahrens, 326<br />
Sternförmiges Gebiet, 480<br />
R. Hiptmair<br />
rev 35327,<br />
22. Januar<br />
2008<br />
4.5<br />
p. 585
Stetiger linearer Operator, 164<br />
Symplektische Abbildung, 478<br />
symplektisches Einschrittverfahren, 483<br />
Symplektisches Produkt, 472<br />
Numerische<br />
Mathemtik<br />
Volumenerhaltung, 446<br />
R. Hiptmair<br />
rev 35327,<br />
22. Januar<br />
2008<br />
4.5<br />
p. 586
Numerische<br />
Mathemtik<br />
MATLAB-Codes<br />
odeset, 314<br />
ode45, 376<br />
odeset, 376<br />
ode15s, 384<br />
ode23s, 384<br />
ode23, 313<br />
ode45, 280, 313<br />
odeset, 280, 313, 384<br />
Adaptives RK-ESV für steifes Problem, 376<br />
Aitken-Neville-Extrapolation, 255<br />
ode15s, 418<br />
ode23s, 437<br />
ode23t, 418<br />
ode45, 437<br />
R. Hiptmair<br />
rev 35327,<br />
22. Januar<br />
2008<br />
4.5<br />
p. 587
Numerische<br />
Mathemtik<br />
Notationen<br />
C l (J,D) ˆ= l-mal stetig differenzierbare Funktionen J ↦→<br />
D, 14<br />
D y f ˆ= Ableitung von f nach y (Jacobi-Matrix), 46<br />
J(t 0 ,y 0 ) :=]t − ,t + [ ˆ= maximales Existenzintervall, 45<br />
O(g(h)) ˆ= “Landau-O”, 78<br />
P n ˆ= Legendre-Polynom vom Gradn ∈ N 0 , 197<br />
[x] ˆ= ganzzahliger Anteil vonx > 0, 538<br />
divf ˆ= Divergenz eines Vektorfeldes, 447<br />
‖y‖ M<br />
:= (y T My) 1 /2<br />
induzierte Vektornorm, 353<br />
P s ˆ= Raum der univariaten Polynome vom Grad≤ s, 145<br />
Ψ s,t y ˆ= Diskrete Evolution, 119<br />
J ˆ= Matrix zum symplektischen Produkt, 472<br />
a×b ˆ= Vektorprodukt, 436<br />
y,z,... Fettdruck für Spaltenvektoren, 13<br />
C − := {z ∈ C: Rez < 0}, 342<br />
1 = (1,...,1) T , 327<br />
(n) ˆ=n. Ableitung nach der Zeitt, 19<br />
∇ 2 f ˆ= Hesse-Matrix, 478<br />
adj(X) adjungierte Matrix, 443<br />
⊗ ˆ= Kronecker-Produkt von Matrizen, 389<br />
ρ(A): Spektralradius einer Matrix, 347<br />
f ˆ= rechte Seite einer ODE, 12<br />
σ(A): Spektrum einer Matrix, 342<br />
˙ ˆ= Ableitung nach der Zeitt, 13<br />
y α für Multiindex α, 435<br />
Im(M) := {Mx:x ∈ R d }, Bild der MatrixM, 405<br />
TOL Toleranz, 292<br />
Euklidische Vektornorm ‖·‖, 40<br />
Hamilton-Funktion H, 39<br />
Konsistenzfehler τ(t,y,h), 125<br />
Landau-o, 126<br />
Landau-Symbol O(h p ), 122<br />
Push-Forward Φ ∗ , 472<br />
symplektisches Produkt ω(v,w), 472<br />
Vektorprodukt ×, 42<br />
R. Hiptmair<br />
rev 35327,<br />
22. Januar<br />
2008<br />
4.5<br />
p. 588
Numerische<br />
Mathemtik<br />
Appendix<br />
MATLAB-Files zu <strong>Beispiel</strong>en<br />
R. Hiptmair<br />
rev 35327,<br />
28. Mai<br />
2009<br />
• <strong>Beispiel</strong> 1.2.5<br />
• <strong>Beispiel</strong> 1.2.12<br />
• <strong>Beispiel</strong> 1.2.15<br />
• <strong>Beispiel</strong> 1.3.36<br />
• <strong>Beispiel</strong> 1.4.4<br />
• <strong>Beispiel</strong> 1.4.9<br />
↔ File/Directoryex:LV<br />
↔ File/Directoryex:Oregonator<br />
↔ File/Directoryex:heartbeat<br />
↔ File/Directoryex:Lorenz<br />
↔ File/Directoryex:expleulcvg<br />
↔ File/Directoryex:eeullog<br />
4.5<br />
p. 589
• <strong>Beispiel</strong> 1.4.15<br />
• <strong>Beispiel</strong> 1.4.17<br />
• <strong>Beispiel</strong> 1.4.18<br />
• <strong>Beispiel</strong> 1.4.21<br />
↔ File/Directoryex:ieullog<br />
↔ File/Directoryex:pendeul<br />
↔ File/Directoryex:eulspin<br />
↔ File/Directoryex:logimid<br />
Numerische<br />
Mathemtik<br />
• <strong>Beispiel</strong> 1.4.22<br />
↔ File/Directoryex:imidspin<br />
>> eulspin([1;0],10,40,’midspin40’)<br />
>> eulspin([1;0],10,160,’mispin160’)<br />
• <strong>Beispiel</strong> 1.4.24<br />
↔ File/Directoryex:pendimid<br />
>> pendmidp([pi/4;0],5,50,’pendimid50’);<br />
>> pendmidp([pi/4;0],5,100,’pendimid100’);<br />
>> pendmidp([pi/4;0],5,200,’pendimid200’);<br />
• <strong>Beispiel</strong> 1.4.32<br />
↔ File/Directoryex:svpend<br />
R. Hiptmair<br />
rev 35327,<br />
28. Mai<br />
2009<br />
• <strong>Beispiel</strong> 2.2.57<br />
• <strong>Beispiel</strong> 2.2.49<br />
• <strong>Beispiel</strong> 2.4.2<br />
• <strong>Beispiel</strong> 2.3.22<br />
• <strong>Beispiel</strong> 2.4.17<br />
• <strong>Beispiel</strong> 2.4.19<br />
↔ File/Directoryex:cvgkoll<br />
↔ File/Directoryex:GaussCollcvg<br />
↔ File/Directoryex:kombesv<br />
↔ File/Directoryex:rkexplcvg<br />
↔ File/Directoryex:eulexpol<br />
↔ File/Directoryex:eulex<br />
4.5<br />
p. 590
• <strong>Beispiel</strong> 2.5.4<br />
• <strong>Beispiel</strong> 2.5.14<br />
• <strong>Beispiel</strong> 2.6.4<br />
• <strong>Beispiel</strong> 2.6.15<br />
• <strong>Beispiel</strong> 2.6.16<br />
• <strong>Beispiel</strong> 3.0.1<br />
• <strong>Beispiel</strong> 3.3.14<br />
• <strong>Beispiel</strong> 3.4.1<br />
• <strong>Beispiel</strong> 3.5.2<br />
• <strong>Beispiel</strong> 3.5.5<br />
• <strong>Beispiel</strong> 3.5.7<br />
↔ File/Directoryex:splitcvg<br />
↔ File/Directoryex:splitinex<br />
↔ File/Directoryex:qualest<br />
↔ File/Directoryex:adesv<br />
↔ File/Directoryex:adaptsat<br />
↔ File/Directoryex:logeximpl<br />
↔ File/Directoryex:GaussCollLog<br />
↔ File/Directoryex:iesvstiff<br />
↔ File/Directoryex:ode45stiff<br />
↔ File/Directoryex:odecircuit<br />
↔ File/Directoryex:odes<br />
Numerische<br />
Mathemtik<br />
R. Hiptmair<br />
rev 35327,<br />
28. Mai<br />
2009<br />
• <strong>Beispiel</strong> 3.6.1 ↔ File/Directoryex:silog<br />
logsieul(0.1,round(5*1.5.^(0:18)),’silog’);<br />
• <strong>Beispiel</strong> 3.6.3 ↔ File/Directoryex:siradlog<br />
siradlog(0.1,round(5*1.5.^(0:18)),’siradlog’)<br />
• <strong>Beispiel</strong> 3.6.12<br />
• <strong>Beispiel</strong> 3.7.5<br />
↔ File/Directoryex:pendimipEnSmp<br />
↔ File/Directoryex:eeul<br />
4.5<br />
p. 591
• <strong>Beispiel</strong> 3.7.6<br />
• <strong>Beispiel</strong> 3.8.15<br />
• <strong>Beispiel</strong> 3.8.28<br />
• <strong>Beispiel</strong> 3.8.29<br />
• <strong>Beispiel</strong> 4.1.3<br />
• <strong>Beispiel</strong> 4.4.1<br />
• <strong>Beispiel</strong> 4.4.33<br />
• <strong>Beispiel</strong> 4.4.37<br />
• <strong>Beispiel</strong> 4.4.35<br />
• <strong>Beispiel</strong> 4.4.39<br />
↔ File/Directoryex:eeulstiff<br />
↔ File/Directoryex:daecircml<br />
↔ File/Directoryex:daependmatlab<br />
↔ File/Directoryex:daependieul<br />
↔ File/Directoryex:magneedle<br />
↔ File/Directoryex:enpres<br />
↔ File/Directoryex:pendsympeul<br />
↔ File/Directoryex:md<br />
↔ File/Directoryex:springpend<br />
↔ File/Directoryex:moldyn<br />
Numerische<br />
Mathemtik<br />
R. Hiptmair<br />
rev 35327,<br />
28. Mai<br />
2009<br />
4.5<br />
p. 592
Numerische<br />
Mathemtik<br />
Literaturverzeichnis<br />
[1] H. AMANN, Gewöhnliche Differentialgleichungen, Walter de Gruyter, Berlin, 1st ed., 1983.<br />
[2] V. ARNOLD, Mathematical Methods of Classical Mechanics, Springer, New York, 2nd ed., 1989.<br />
[3] C. BLATTER, Analysis I, vorlesungsskriptum, <strong>ETH</strong> Zürich, Zürich, Switzerland, 2003.<br />
http://www.math.ethz.ch/~blatter/.<br />
R. Hiptmair<br />
rev 35327,<br />
28. Mai<br />
2009<br />
[4] M. CHAWLA AND M. JAIN, Error estimates for gauss quadrature formulas for analytic functions,<br />
Math. Comp., 22 (1968), pp. 82–90.<br />
[5] P. DAVIS, Interpolation and Approximation, Dover, New York, 1975.<br />
[6] M. DEAKIN, Applied catastrophe theory in the social and biological sciences, Bulletin of Mathematical<br />
Biology, 42 (1980), pp. 647–679.<br />
[7] P. DEUFLHARD, Numerik von anfangswertaufgaben für gewöhnliche differentialgleichungen,<br />
Tech. Rep. TR 89-2, ZIB Berlin, Berlin, Germany, 1989.<br />
4.5<br />
p. 593
[8] P. DEUFLHARD AND F. BORNEMANN, Numerische Mathematik II, DeGruyter, Berlin, 2 ed., 2002.<br />
[9] P. DEUFLHARD AND A. HOHMANN, Numerische Mathematik I, DeGruyter, Berlin, 3 ed., 2002.<br />
Numerische<br />
Mathemtik<br />
[10] G. FISCHER, Lineare Algebra, Vieweg–Verlag, Braunschweig, 9th ed., 1986.<br />
[11] C. GRAY, An analysis of the Belousov-Zhabotinski reaction, Rose-Hulman Undergraduate Math<br />
Journal, 3 (2002). http://www.rose-hulman.edu/mathjournal/archives/2002/vol3-n1/paper1/v3n1-<br />
1pd.pdf.<br />
[12] W. HACKBUSCH, Iterative Lösung großer linearer Gleichungssysteme, B.G. Teubner–Verlag,<br />
Stuttgart, 1991.<br />
[13] E. HAIRER AND C. LUBICH, Asymptotic expansions and backward analysis for numerical integrators,<br />
in Dynamics of algorithms, vol. 118 of IMA Vol. Math. Appl., Springer, New York, 2000,<br />
pp. 91–106.<br />
[14] E. HAIRER, C. LUBICH, AND G. WANNER, Geometric Numerical Integration, vol. 31 of Springer<br />
Series in Computational Mathematics, Springer, Berlin, Germany, 2002. Table of contents.<br />
R. Hiptmair<br />
rev 35327,<br />
28. Mai<br />
2009<br />
[15] , Geometric numerical integration illustrated by the Störmer-Verlet method, Acta Numerica, 12<br />
(2003), pp. 399–450.<br />
[16] , Geometric numerical integration, vol. 31 of Springer Series in Computational Mathematics,<br />
Springer, Heidelberg, 2 ed., 2006.<br />
[17] E. HAIRER, S. NORSETT, AND G. WANNER, Solving Ordinary Differential Equations I. Nonstiff<br />
Problems, Springer-Verlag, Berlin, Heidelberg, New York, 2 ed., 1993.<br />
4.5<br />
p. 594
[18] E. HAIRER AND G. WANNER, Solving Ordinary Differential Equations II. Stiff and Differential-<br />
Algebraic Problems, Springer-Verlag, Berlin, Heidelberg, New York, 1991.<br />
Numerische<br />
Mathemtik<br />
[19] M. HERRMANN, Numerik gewöhnlicher Differentialgleichungen, Oldenbourg, München, 2004.<br />
[20] N. HIGHAM, The scaling and squaring method for the matrix exponential revisited, SIAM J. Matrix<br />
Anal. Appl., 26 (2005), pp. 1179–1193.<br />
[21] M. HIRSCH, S. SMALE, AND R. DEVANEY, Differential Equations, Dynamical Systems, and an<br />
Introduction to Chaos, vol. 60 of Pure and Applied Mathematics, Elsevier Academic Press, Amsterdam,<br />
2 ed., 2004.<br />
[22] M. HOCHBRUCK AND C. LUBICH, On Krylov subspace approximations to the matrix exponential<br />
operator, SIAM J. Numer. Anal., 34 (1997), pp. 1911–1925.<br />
[23] , A Gautschi-type method for oscillatory second-order differential equations, Numer. Math., 83<br />
(1999), pp. 403–426.<br />
R. Hiptmair<br />
rev 35327,<br />
28. Mai<br />
2009<br />
[24] M. HOCHBRUCK, C. LUBICH, AND H.SELHOFER, Exponential integrators for large systems of<br />
differential equations, SIAM J. Sci. Comp., 19 (1998), pp. 1552–1574.<br />
[25] M. HOCHBRUCK AND A. OSTERMANN, Exponential integrators, Acta Numerica, 19 (2010),<br />
pp. 209–286.<br />
[26] B. LEIMKUHLER AND S. REICH, Simulating Hamiltonian Dynamics, vol. 14 of Cambridge Monographs<br />
on Applied and Computational Mathematics, Cambridge University Press, Cambridge,<br />
UK, 2004.<br />
4.5<br />
p. 595
[27] E. LORENZ, Deterministic non-periodic flow, J. Atmospheric Sciences, 20 (1963), pp. 130–141.<br />
[28] B. MINCHEV AND W. WRIGHT, A review of exponential integrators for first order semi-linear problems,<br />
Preprint 2/2005, NORGES TEKNISK-NATURVITENSKAPELIGE UNIVERSITET, Trondheim,<br />
Norway, 2005.<br />
Numerische<br />
Mathemtik<br />
[29] S. REICH, Backward error analysis for numerical integrators, SIAM J. Numer. Anal., 36 (1999),<br />
pp. 1549–1570.<br />
[30] R. REMMERT, Funktionentheorie I, no. 5 in Grundwissen Mathematik, Springer, Berlin, 1984.<br />
[31] L. SHAMPINE, M. REICHELT, AND J. KIERZENKA, The MATLAB ODE suite, SIAM J. Sci. Comp.,<br />
18 (1997), pp. 1–22.<br />
[32] W. WALTER, Gewöhnliche Differentialgleichungen. Eine Einführung, vol. 110 of Heidelberger Taschenbücher,<br />
Springer, Heidelberg, 3 ed., 1986.<br />
R. Hiptmair<br />
rev 35327,<br />
28. Mai<br />
2009<br />
4.5<br />
p. 596