2 - SAM - ETH Zürich
2 - SAM - ETH Zürich
2 - SAM - ETH Zürich
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
Vorlesung 401-2654-00L, Numerische Mathematik, FS 2008<br />
Numerische Mathematik<br />
(Numerik der ODEs)<br />
1.3.3.1 Grundbegriffe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47<br />
1.3.3.2 Unser Problem: das Anfangswertproblem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50<br />
1.3.3.3 Wohlgestelltheit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52<br />
1.3.3.4 Asymptotische Kondition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54<br />
1.3.3.5 Schlecht konditionierte AWPe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56<br />
1.4 Polygonzugverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60<br />
1.4.1 Das explizite Eulerverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60<br />
1.4.2 Das implizite Euler-Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70<br />
Prof. Ralf Hiptmair<br />
1.4.3 Implizite Mittelpunktsregel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76<br />
1.4.4 Störmer-Verlet-Verfahren [13] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81<br />
2 Einschrittverfahren 89<br />
Seminar for Applied Mathematics, <strong>ETH</strong> Zürich<br />
2.1 Grundlagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89<br />
2.1.1 Abstrakte Einschrittverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90<br />
2.1.2 Konsistenz [5, Sect. 4.1.1] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94<br />
Entwurf Mai 2009, Subversion rev #18697<br />
http://www.sam.math.ethz.ch/˜hiptmair/tmp/NUMODE09.pdf<br />
Inhaltsverzeichnis<br />
0.1 Danksagung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9<br />
1 Einleitung 10<br />
1.1 Anfangswertprobleme (AWP) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10<br />
1.2 Beispiele und Grundbegriffe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17<br />
1.2.1 Ökologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17<br />
1.2.2 Chemische Reaktionskinetik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22<br />
1.2.3 Physiologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25<br />
1.2.4 Mechanik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27<br />
1.3 Theorie [5, Sect. 2], [1, Ch. II] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34<br />
1.3.1 Existenz und Eindeutigkeit von Lösungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34<br />
1.3.2 Lineare AWPe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43<br />
1.3.3 Sensitivität [5, Sect. 3.1] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 p. 2<br />
0.0<br />
p. 1<br />
0.0<br />
2.1.3 Konvergenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100<br />
2.1.4 Das Äquivalenzprinzip (Dahlquist, Lax) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107<br />
2.1.5 Reversibilität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110<br />
2.2 Kollokationsverfahren[5, Sect. 6.3], [11, Sect. II.1.2] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113<br />
2.2.1 Konstruktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113<br />
2.2.2 Konvergenz von Kollokationsverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129 0.0<br />
2.3 Runge-Kutta-Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141 p. 3<br />
2.3.1 Konstruktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141<br />
2.3.2 Konvergenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153<br />
2.4 Extrapolationsverfahren [5, Sect. 4.3] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161<br />
2.4.1 Der Kombinationstrick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161<br />
2.4.2 Extrapolationsidee . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165<br />
2.4.3 Extrapolation von Einschrittverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172<br />
2.4.4 Lokale Extrapolations-Einschrittverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178<br />
2.4.5 Ordnungssteuerung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184<br />
2.4.6 Extrapolation reversibler Einschrittverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187<br />
2.5 Splittingverfahren [11, Sect. 2.5] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191<br />
2.6 Schrittweitensteuerung [5, Kap. 5], [16, Sect. 2.8] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199<br />
3 Stabilität [5, Kap. 6] 219<br />
3.1 Modellproblemanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221<br />
3.2 Vererbung asymptotischer Stabilität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235<br />
3.3 Nichtexpansivität [5, Abschn. 6.3.3] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 247<br />
3.4 Gleichmässige Stabilität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 257<br />
3.5 Steifheit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 268<br />
3.6 Linear-implizite Runge-Kutta-Verfahren [5, Sect. 6.4] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 278<br />
3.7 Exponentielle Integratoren [21, 24] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 288<br />
3.8 Differentiell-Algebraische Anfangswertprobleme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 295<br />
3.8.1 Grundbegriffe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 295<br />
3.8.2 Runge-Kutta-Verfahren für Index-1-DAEs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 300 0.0<br />
3.8.3 DAEs mit höherem Index . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 310 p. 4
4 Strukturerhaltende numerische Integration 324<br />
4.1 Polynomiale Invarianten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 325<br />
4.2 Volumenerhaltung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 338<br />
Kapitel 4:<br />
Kapitel 6:<br />
http://www.sam.math.ethz.ch/˜hiptmair/tmp/Literatur1.pdf<br />
http://www.sam.math.ethz.ch/˜hiptmair/tmp/Literatur2.pdf<br />
4.3 Verallgemeinerte Reversibilität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 347<br />
4.4 Symplektizität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 356<br />
4.4.1 Symplektische Evolutionen Hamiltonscher Differentialgleichungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 356<br />
4.4.2 Symplektische Integratoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 371<br />
4.4.3 Rückwärtsanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 394<br />
4.4.4 Modifizierte Gleichungen: Fehleranalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 406<br />
4.4.5 Strukturerhaltende modifizierte Gleichungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 430<br />
4.5 Methoden für oszillatorische Differentialgleichungen [20] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 440<br />
5 Randwertprobleme 455<br />
Enzyklopädische Präsentation klassischer numerischer Integratoren:<br />
E. HAIRER, S. NORSETT, AND G. WANNER, Solving Ordinary Differential Equations I. Nonstiff Problems,<br />
Springer, Heidelberg, 2nd ed., 1993.<br />
E. HAIRER AND G. WANNER, Solving Ordinary Differential Equations II. Stiff and Differential-Algebraic<br />
Problems, Springer, Heidelberg, 1991.<br />
Umfassende Darstellung “strukturerhaltender” Integratoren:<br />
Verzeichnisse 456<br />
Stichwortverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 456<br />
Verzeichnis der Beispiele und Bemerkungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 466<br />
Verzeichnis der Definitionen und Konzepte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 470<br />
Verzeichnis der MATLAB-CODE-Fragmente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 472<br />
Symbolverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 473<br />
Allgemeine Informationen<br />
0.0<br />
p. 5<br />
E. HAIRER, C. LUBICH, AND G. WANNER, Geometric numerical integration, vol. 31 of Springer Series<br />
in Computational Mathematics, Springer, Heidelberg, 2002.<br />
Gute Einführung in die Numerik Hamiltonscher Differentialgleichungen:<br />
B. LEIMKUHLER AND S. REICH, Simulating Hamiltonian Dynamics, vol. 14 of Cambridge Monographs 0.0<br />
on Applied and Computational Mathematics, Cambridge University Press, Cambridge, UK, 2004. p. 7<br />
Reporting errors<br />
Please report errors in the electronic lecture notes via a wiki page !<br />
Dozent: Prof. Ralf Hiptmair, <strong>SAM</strong>, D-MATH, Büro: HG G 58.2 Tel.: 044 632 3404,<br />
hiptmair@sam.math.ethz.ch<br />
Assistent: Holger Heumann, <strong>SAM</strong>, D-MATH Büro: HG G 58.3, Tel.: 044 632 8587,<br />
holger.heumann@sam.math.ethz.ch<br />
http://elbanet.ethz.ch/wikifarm/rhiptmair/index.php?n=Main.NCSECourse<br />
(Password: CSE, please choose EDIT menu to enter information)<br />
Website:<br />
Please supply the following information:<br />
Prüfung:<br />
Übungen:<br />
schriftliche Prüfung am Rechner (teilweise MATLAB-basierte Programmieraufgaben),<br />
keine (mitgebrachten) Hilfsmittel<br />
Vorlesungsunterlagen werden als PDF-Datei zur Verf¨gung gestellt<br />
• wöchentliches Übungsblatt (Bearbeitungszeit 1 Woche)<br />
• MATLAB-basierte Programmieraufgaben<br />
• Testatbedingung: 75% der Übungen abgegeben und akzeptiert<br />
• (sub)section where the error has been found,<br />
• precise location (e.g, after Equation (4), Thm. 2.3.3, etc. ). Refrain from giving page numbers,<br />
• brief description of the error.<br />
Alternative: E-mail an hiptmair@sam.math.ethz.ch, Subject: NUMODE<br />
☞ Literatur:<br />
P. DEUFLHARD AND F. BORNEMANN, Numerische Mathematik II, DeGruyter, Berlin, 2 ed., 2002. p. 6<br />
0.0<br />
0.1<br />
p. 8
0.1 Danksagung<br />
Dank geht an Frau Evgenia Ageeva für die Aufarbeitung der MATLAB-Codes zu numerischen Beispielen.<br />
offene Teilmenge D ⊂ R d ˆ= Zustandsraum ↔ “Zustandsvariable” y (engl. state space)<br />
Ω := I × D ˆ= erweiterter Zustandsraum (enthält Tupel (t,y))<br />
✎ Notation (Newton): Punkt ˙ ˆ= (totale) Ableitung nach der Zeit t<br />
✎ Notation: Fettdruck für Spaltenvektoren (Komponenten selektiert durch Subscript-Indices)<br />
Für d > 1 heisst (1.1.1) auch System gewöhnlicher Differentialgleichungen:<br />
⎛<br />
(1.1.1) ⇐⇒ ⎝ y ⎞ ⎛<br />
1<br />
. ⎠ = ⎝ f ⎞<br />
1(t,y 1 , ...,y d )<br />
. ⎠ .<br />
y d f d (t, y 1 ,...,y d )<br />
0.1<br />
p. 9<br />
Grundannahme: stetige rechte Seite f : I × D ↦→ R d 1.1<br />
p. 11<br />
1 Einleitung<br />
1.1 Anfangswertprobleme (AWP)<br />
Definition 1.1.1 (Lösung einer gewöhnlichen Differentialgleichung).<br />
Eine Funktion y ∈ C 1 (J, D), J ⊂ I Intervall positiver Länge, heisst Lösung der gewöhnlichen<br />
Differentialgleichung (1.1.1), falls<br />
ẏ(t) = f(t,y(t)) für alle t ∈ J .<br />
Beispiel 1.1.1 (Richtungsfeld und Lösungskurven).<br />
Riccati-Differentialgleichung<br />
skalare ODE<br />
Eine gewöhnliche Differentialgleichung erster Ordnung<br />
ẏ = y 2 + t 2<br />
➤<br />
d = 1, I, D = R + . (1.1.2)<br />
(engl. first-order ordinary differential equation (ODE)):<br />
ẏ = f(t,y) (1.1.1)<br />
f : I × D ↦→ R d ˆ= rechte Seite (d ∈ N)<br />
I ⊂ R ˆ= (Zeit)intervall ↔ “Zeitvariable” t p. 10<br />
1.1<br />
1.1<br />
p. 12
1.5<br />
1.5<br />
Verallgemeinerung: Eine gewöhnliche Differentialgleichung n-ter Ordnung, n ∈ N:<br />
y (n) = f(t,y,ẏ,...,y (n−1) ) . (1.1.4)<br />
y<br />
1<br />
y<br />
1<br />
✎ Notation: Superscript<br />
(n) ˆ= n. Ableitung nach der Zeit t<br />
0.5<br />
0<br />
0 0.5 1 1.5<br />
t<br />
Fig. 1<br />
Richtungsfeld<br />
0.5<br />
0<br />
0 0.5 1 1.5<br />
t<br />
Fig. 2<br />
Lösungskurven<br />
Lösungskurven tangential zum Richtungsfeld in jedem Punkt des erweiterten Zustandsraumes.<br />
➤ Umwandlung in ODE (System !) erster Ordnung (d ← n · d):<br />
⎛ ⎞<br />
⎛ ⎞ ⎛ ⎞<br />
y(t)<br />
z<br />
z 2<br />
1<br />
z(t) := ⎜ y (1) (t)<br />
⎟<br />
⎝ . ⎠ = ⎜z 2<br />
⎟<br />
⎝ . ⎠ ∈ z 3<br />
Rdn : (1.1.4) ↔ ż = g(z) , g(z) :=<br />
⎜ .<br />
⎟<br />
y (n−1) ⎝ z<br />
(t) z n ⎠ .<br />
n<br />
f(t,z 1 , ...,z n )<br />
(1.1.5)<br />
Theorie<br />
Theorie<br />
für ODEs 1. Ordnung ➥ für ODEs n. Ordnung !<br />
Numerische Verfahren Numerische Verfahren<br />
✸<br />
1.1<br />
p. 13<br />
Vorsicht: (1.1.5) weist spezielle Struktur auf, die ein generisches Verfahren für ODEs 1. Ordnung<br />
vielleicht nicht zur Verbesserung der Genauigkeit/Verringerung des Rechenaufwandes auszunutzen<br />
vermag (→ Diskussion in späteren Kapiteln)<br />
1.1<br />
p. 15<br />
Spezialfall: f(t,y) = f(y) ➡ autonome Differentialgleichung (hier I = R)<br />
ẏ = f(y) . (1.1.3)<br />
Bemerkung 1.1.4. Die Transformation (1.1.5) ist nur eine von (unendlich) vielen Möglichkeiten der<br />
Transformation von (1.1.4) in eine ODE 1. Ordnung.<br />
△<br />
Hier: f : D ⊂ R d ↦→ R d is ein (stetiges) Vektorfeld (Geschwindigkeitsfeld)<br />
Bemerkung 1.1.2 (Translationsinvarianz von Lösungen autonomer Dgl.).<br />
ODE + Anfangsbedigungen = Anfangswertproblem (AWP)<br />
ẏ = f(t,y) , y(t 0 ) = y 0 für ein (t 0 ,y 0 ) ∈ Ω . (1.1.6)<br />
t ↦→ y(t) Lösung von (1.1.3) ⇒ t ↦→ y(t + τ) Lösung von (1.1.3) ∀τ ∈ R<br />
△<br />
Definition 1.1.2 (Lösung eines Anfangswertproblems).<br />
Eine Lösung y : J ↦→ D, t 0 ∈ J, von (1.1.1), die y(t 0 ) = y 0 erfüllt, heisst Lösung des<br />
Anfangswertproblems (1.1.6).<br />
Bemerkung 1.1.3 (Autonomisierung).<br />
( )<br />
y(t)<br />
z(t) := =<br />
t<br />
(<br />
z ′<br />
z d+1<br />
)<br />
: (1.1.1) ↔ ż = g(z) , g(z) :=<br />
(<br />
f(zd+1 ,z ′ )<br />
)<br />
.<br />
1<br />
Bemerkung 1.1.5.<br />
Wenn ODE autonom<br />
Bem. 1.1.2<br />
➣ O.B.d.A. setze t 0 = 0 in (1.1.6)<br />
△<br />
△<br />
Bemerkung 1.1.6 (Anfangswerte für Dgl. höherer Ordnung).<br />
1.1<br />
p. 14<br />
Anfangswertproblem für gewöhnliche Differentialgleichung n-ter Ordnung (1.1.4):<br />
y (n) = f(t,y) , y(t 0 ) = y 0 ,ẏ(t 0 ) = y 1 , . ..,y (n−1) (t 0 ) = y n−1 . p. 16<br />
1.1
➡ n unabhängige Anfangswerte sind vorzugeben.<br />
Modellierung: Anfangswertprobleme (1.1.6) beschreiben deterministische Evolutionen<br />
△<br />
MATLAB-CODE: ODE-Integration<br />
fn = @(t,y) 5*y*(1-y);<br />
[t,y] = ode45(fn,[0 1.5],y0);<br />
plot(t,y,’r-’);<br />
Numerische Integration der logistischen Differentialgleichung<br />
in MATLAB mittels Funktion ode45():<br />
Funktions-Handle zur Übergabe der rechten Seite<br />
Zeitintervall<br />
Anfangswert<br />
1.2 Beispiele und Grundbegriffe<br />
Rückgabewerte:<br />
t ˆ= Vektor von Zeitpunkten, y ˆ= Vektor von Lösungswerten<br />
✸<br />
1.2.1 Ökologie<br />
Bemerkung 1.2.2 (AWP-Löser in MATLAB). → [26]<br />
[t,y] = solver(odefun,tspan,y0);<br />
Beispiel 1.2.1 (Resourcenbegrenztes Wachstum). [1, Sect. 1.1]<br />
Autonome logistische Differentialgleichung: (d = 1, D = R + , I = R)<br />
solver : ∈ { ode23, ode45, ode113, ode15s, ode23s, ode23t,<br />
ode23tb }<br />
odefun : Funktions-Handle vom Typ @(t,y) ↔ rechte Seite f(t,y)<br />
tspan : 2-Vektor: Anfangs- und Endzeitpunkt für numerische Integration<br />
y0 : (Vektor ) mit Anfangswerten y 0<br />
ẏ = (α − βy)y (1.2.1)<br />
1.2<br />
p. 17<br />
Warum so viele verschiedene Löser ?<br />
△<br />
1.2<br />
p. 19<br />
y ˆ= Populationsdichte, [y] = 1 m 2<br />
Beispiel 1.2.3 (Räuber-Beute-Modelle). [1, Sect. 1.1] & [11, Sect. 1.1.1]<br />
Wachstumsrate α − βy mit Wachstumskoeffizienten α, β > 0, [α] = 1 m2<br />
s , [β] = s<br />
Allgemein für ODE (1.1.1):<br />
y ∗ ∈ D, f(t,y ∗ ) = 0 ∀t ➣ y ∗ ist Fixpunkt/stationärer Punkt für die ODE → Sect. 3.2.<br />
Autonome Lotka-Volterra-Dgl.: (d = 2)<br />
˙u = (α − βv)u<br />
˙v = (δu − γ)v , I = R, D = (R+ ) 2 , α, β,γ, δ > 0 . (1.2.3)<br />
1.5<br />
Populationsdichten:<br />
1<br />
Attraktiver Fixpunkt y = α/β<br />
Repulsiver Fixpunkt y = 0<br />
u → Beute,<br />
v → Räuber<br />
y<br />
0.5<br />
0<br />
0 0.5 1 1.5<br />
t<br />
Fig. 3<br />
Richtungsfeld und Lösungskurven (α, β = 5)<br />
Separation der Variablen<br />
➥ Lösung des AWP für (1.2.1)<br />
mit y(0) = y 0 > 0<br />
y(t) =<br />
für alle t ∈ R<br />
αy 0<br />
βy 0 + (α − βy 0 ) exp(−αt) , (1.2.2)<br />
1.2<br />
p. 18<br />
Vektorfeld f für Lotka-Volterra-Dgl.<br />
Lösungskurven sind Trajektorien von Partikeln, die<br />
vom Geschwindigkeitsfeld f mitgetragen werden.<br />
✄<br />
(1.2.3) ⇒ 0 =(δ − γ u ) ˙u − (α v − β) ˙v = d (δu − γ log u − α log v + βv) = 0 .<br />
dt } {{ }<br />
=:I(u,v)<br />
v<br />
α/β<br />
γ/δ<br />
u<br />
Fig. 4<br />
1.2<br />
p. 20
Falls (u(t), v(t)) Lösung von (1.2.3) ⇒ I(u(t),v(t)) ≡ const<br />
Lösungen von (1.2.3) sind Niveaulinien von I<br />
A<br />
C<br />
Reaktion:<br />
k 2<br />
A + B<br />
←−<br />
−→ C + D . (1.2.5)<br />
k1<br />
6<br />
5<br />
4<br />
u = y 1<br />
v = y 2<br />
6<br />
5<br />
4<br />
B<br />
D<br />
Fig. 5<br />
mit Reaktionskonstanten k 1 (‘Hinreaktion”), k 2<br />
(“Rückreaktion”), [k 1 ] = [k 2 ] = cm3<br />
mol s .<br />
y<br />
3<br />
v = y 2<br />
3<br />
Faustregel:<br />
Geschwindigkeit einer bimolekularen Reaktion proportional zum Produkt der Konzentrationen<br />
der Reaktionspartner:<br />
2<br />
1<br />
2<br />
1<br />
for (1.2.5): ċ A = ċ B = −ċ C = −ċ D = −k 1 c A c B + k 2 c C c D . (1.2.6)<br />
c A , c B , c C ,c D ˆ= (zeitabhängige) Konzentrationen der Reaktanden, [c X ] = mol<br />
cm 3 ➥ c X (t) > 0; ∀t<br />
0<br />
1 2 3 4 5 6 7 8 9 10<br />
t<br />
Zeitabhängige Lösung, y 0 := ( u(0)<br />
v(0)<br />
)<br />
=<br />
( 42 )<br />
0<br />
0 0.5 1 1.5 2 2.5 3 3.5 4<br />
u = y 1<br />
Lösungskurven von (1.2.3) ↔ Niveaulinien von I<br />
Fixpunkt<br />
Geschlossene Lösungskurven ↔ (1.2.3) hat ausschliesslich periodische Lösungen<br />
(für u(0),v(0) > 0)<br />
Definition 1.2.1 (Erstes Integral).<br />
Ein Funktional I : D ↦→ R heisst erstes Integral/Invariante (engl. invariant) der ODE (1.1.1),<br />
wenn<br />
für jede Lösung y = y(t) von (1.1.1).<br />
I(y(t)) ≡ const<br />
Notwendige und hinreichende Bedingung für differenzierbares erstes Integral<br />
1.2<br />
✸<br />
p. 21<br />
(1.2.6) = autonome gewöhnliche Dgl. (1.1.3) mit<br />
⎛ ⎞<br />
⎛ ⎞<br />
c A (t)<br />
1<br />
y(t) = ⎜c B (t)<br />
⎟<br />
⎝c C (t) ⎠ , f(t,y) = (−k 1y 1 y 2 + k 2 y 3 y 4 ) ⎜ 1<br />
⎟<br />
⎝−1⎠ c D (t)<br />
−1<br />
Massenerhaltung:<br />
Beispiel 1.2.5 (Oregonator-Reaktion).<br />
d<br />
dt (c A(t) + c B (t) + c C (t) + c D (t)) = 0<br />
Spezialfall einer zeitlich oszillierenden Zhabotinski-Belousov-Reaktion [8]:<br />
BrO − 3 + Br− ↦→ HBrO 2<br />
HBrO 2 + Br − ↦→ Org<br />
BrO − 3 + HBrO 2 ↦→ 2 HBrO 2 + Ce(IV)<br />
(1.2.7)<br />
2 HBrO 2 ↦→ Org<br />
Ce(IV) ↦→ Br −<br />
✸<br />
1.2<br />
p. 23<br />
I erstes Integral von (1.1.1) ⇔ grad I(y) ·f(t,y) = 0 ∀(t,y) ∈ Ω . (1.2.4)<br />
Euklidisches Skalarprodukt<br />
1.2.2 Chemische Reaktionskinetik [5, Sect. 1.3]<br />
Beispiel 1.2.4 (Bimolekulare Reaktion).<br />
1.2<br />
p. 22<br />
y 1 := c(BrO − 3 ): ẏ 1 = −k 1 y 1 y 2 − k 3 y 1 y 3 ,<br />
y 2 := c(Br − ): ẏ 2 = −k 1 y 1 y 2 − k 2 y 2 y 3 + k 5 y 5 ,<br />
y 3 := c(HBrO 2 ): ẏ 3 = k 1 y 1 y 2 − k 2 y 2 y 3 + k 3 y 1 y 3 − 2k 4 y3 2 ,<br />
y 4 := c(Org): ẏ 4 = k 2 y 2 y 3 + k 4 y3 2 ,<br />
y 5 := c(Ce(IV)): ẏ 5 = k 3 y 1 y 3 − k 5 y 5 ,<br />
mit (dimensionslosen) Reaktionskonstanten:<br />
k 1 = 1.34 , k 2 = 1.6 · 10 9 , k 3 = 8.0 · 10 3 , k 4 = 4.0 · 10 7 , k 5 = 1.0 .<br />
Periodische chemische Reaktion ➽ Video 1, Video 2<br />
(1.2.8)<br />
MATLAB-Simulation mit Anfangswerten y 1 (0) = 0.06, y 2 (0) = 0.33 · 10 −6 , y 3 (0) = 0.501 · 10 −10 , 1.2<br />
y 4 (0) = 0.03, y 5 (0) = 0.24 · 10 −7 : p. 24
10 −3 Concentration of Br −<br />
Concentration of HBrO 2<br />
2.5<br />
2<br />
Phase flow for Zeeman model (α = 5.000000e−01,β=1.000000e−01)<br />
3<br />
Heartbeat according to Zeeman model (α = 5.000000e−01,β=1.000000e−01)<br />
l(t)<br />
p(t)<br />
2<br />
10 −4<br />
10 −6<br />
1.5<br />
1<br />
1<br />
10 −5<br />
10 −7<br />
0.5<br />
p<br />
0<br />
l/p<br />
0<br />
c(t)<br />
10 −6<br />
10 −7<br />
c(t)<br />
10 −8<br />
−0.5<br />
−1<br />
−1<br />
10 −8<br />
10 −9<br />
−1.5<br />
−2<br />
−2<br />
10 −9<br />
10 −10<br />
−2.5<br />
0<br />
l<br />
2 2.5<br />
Fig. 10<br />
−2.5 −2 −1.5 −1 −0.5 0.5 1 1.5<br />
−3<br />
0 10 20 30 40 50 60 70 80 90 100<br />
time t<br />
Fig. 11<br />
10 −10<br />
0 20 40 60 80 100 120 140 160 180 200<br />
Fig. 6<br />
t<br />
10 −5 t<br />
10 −11<br />
0 20 40 60 80 100 120 140 160 180 200<br />
Fig. 7 ✸<br />
Beobachtung: α ≪ 1 ➤ “Kammerflimmern”<br />
✸<br />
1.2.3 Physiologie<br />
1.2.4 Mechanik<br />
Beispiel 1.2.6 (Zeemans Herzschlagmodell). → [3, p. 655] p. 25<br />
1.2<br />
Beispiel 1.2.7 (Mathematisches Pendel).<br />
[1, I.3. Bsp. (3.4c)]<br />
1.2<br />
p. 27<br />
Grössen:<br />
mit Parametern:<br />
l = l(t) ˆ= Länge der Herzmuskelfaser<br />
p = p(t) ˆ= elektrochemisches Potential<br />
Phänomenologisches Modell:<br />
˙l = −(l 3 − αl + p) ,<br />
ṗ = βl ,<br />
α ˆ= Vorspannung der Muskelfaser<br />
β ˆ= (phänomenologischer) Rückkopplungsparameter<br />
Vektorfelder und numerische Lösungen für verschiedene Parameter:<br />
(1.2.9)<br />
Zustandsraum D = Konfigurationsraum für Minimalkoordinaten<br />
(= Auslenkungswinkel)<br />
➣<br />
d = 1, D = T (Kreislinie = “1D Torus”)<br />
Auslenkungswinkel α ∈ [−π,π[)<br />
Newtonsche Bewegungsgleichungen:<br />
ml ¨α(t) = −mg sinα(t) . (1.2.10)<br />
autonome ODE 2. Ordnung, siehe (1.1.4)<br />
l<br />
α<br />
mg<br />
Fig. 12<br />
2.5<br />
2<br />
1.5<br />
Phase flow for Zeeman model (α = 3,β=1.000000e−01)<br />
3<br />
2<br />
Heartbeat according to Zeeman model (α = 3,β=1.000000e−01)<br />
l(t)<br />
p(t)<br />
Formale Umwandlung in gewöhnliche Differentialgleichungen 1. Ordnung:<br />
Winkelgeschwindigkeit p := ˙α ⇒ d ( ) ( )<br />
α p<br />
=<br />
dt p − g l sin α . (1.2.11)<br />
1<br />
0.5<br />
1<br />
Energieerhaltung: E(t) = 1 2 ml2 p(t) 2 − mgl cosα(t) ⇒ E(t) ≡ const. (1. Integral → Def. 1.2.1) .<br />
p<br />
0<br />
−0.5<br />
l/p<br />
0<br />
kinetische Energie T(t)<br />
potentielle Energie U(t)<br />
−1<br />
−1<br />
−1.5<br />
−2<br />
−2<br />
−2.5<br />
−2.5 −2 −1.5 −1 −0.5 0<br />
l<br />
0.5 1 1.5 2 2.5<br />
Fig. 8<br />
−3<br />
0 10 20 30 40 50 60 70 80 90 100<br />
time t<br />
Fig. 9<br />
1.2<br />
p. 26<br />
1.2<br />
p. 28
4<br />
3<br />
Phase field for pendulum: l=1, g=1<br />
3<br />
2<br />
✬<br />
Lemma 1.2.3 (“Energieerhaltungssatz”).<br />
Die Hamilton-Funktion H is ein erstes Integral des autonomen Hamiltonschen Systems.<br />
✩<br />
p = velocity<br />
2<br />
1<br />
0<br />
−1<br />
−2<br />
−3<br />
−4<br />
−4 −3 −2 −1 0<br />
q = α<br />
1 2 3 4<br />
Fig. 13<br />
Vektorfeld für (1.2.11)<br />
p = velocity<br />
1<br />
0<br />
−1<br />
−2<br />
−3<br />
−3 −2 −1 0 1 2 3<br />
q = α<br />
Fig. 14<br />
Isolinien der Energie ↔ Lösungskurven<br />
✸<br />
✫<br />
Hamiltonsches System in der Form (1.1.1):<br />
(<br />
p<br />
y = ⇒ (1.2.12) ⇔ ẏ = J<br />
q)<br />
−1 · gradH(y) , J :=<br />
✎ Notation: I n ˆ= n × n Einheitsmatrix<br />
( )<br />
0 In<br />
∈ R<br />
−I n 0<br />
2n,2n . (1.2.13)<br />
Zusammen mit (1.2.4) folgt sofort Lemma 1.2.3, denn J ist schiefsymmetrisch (J T = −J) und für<br />
jede schiefsymmetrische Matrix A ∈ R n,n gilt x · Ax = 0 ∀x ∈ R n .<br />
Beispiel 1.2.9 (Massenpunkt im Zentralfeld).<br />
✪<br />
Newtonsche Bewegungsgleichungen eines Körpers (Ortskoordinate r = r(t)) mit Masse m > 0 im<br />
Kraftfeld f : R n ↦→ R n , n ∈ N:<br />
m ¨r(t) = f(r(t)) . (1.2.14)<br />
Definition 1.2.2 (Hamiltonsche Differentialgleichung).<br />
→ [11, Sect. VI.1.2]<br />
Es sei n ∈ N, M ⊂ R n offen, H : R n × M ↦→ R, H = H(p,q), stetig differenzierbar. Dann<br />
heisst die gewöhnliche Differentialgleichung erster Ordnung<br />
ṗ(t) = − ∂H<br />
∂q (p(t),q(t)) ,<br />
∂H<br />
˙q(t) = (p(t),q(t)) , (1.2.12)<br />
∂p<br />
ein autonomes Hamiltonsches System mit Hamilton-Funktion (engl. Hamiltonian) H.<br />
1.2<br />
p. 29<br />
Spezialfall:<br />
radialsymmetrisches konservatives Kraftfeld<br />
f(x) = −grad U(x) , x ∈ R n , U(x) = G(‖x‖) . (1.2.15) p. 31<br />
√<br />
✎ Notation: ‖x‖ := x 2 1 + · · · + x2 n ˆ= Euklidische Norm eines Vektors<br />
Speziell G(r) = G 0<br />
r<br />
:<br />
Keplerproblem: [11, Sect. I.2], [5, Sect. 1.1]<br />
Bewegung im Gravitationsfeld einer Zentralmasse<br />
(Sonne – Planet)<br />
1.2<br />
Für Pendelgleichung (1.2.11): n = 1, M =]0, 2π[, q ↔ α,<br />
H(p,q) = 2 1p2 − g l cos q (Gesamtenergie !)<br />
Terminologie: q ˆ= Ortsvariable, Konfigurationsvariable,<br />
p ˆ= Impulsvariable (engl. momentum variable),<br />
M ˆ= Konfigurationsraum.<br />
Bemerkung 1.2.8. Bewegungsgleichungen der klassischen Mechanik führen auf autonome Hamiltonsches<br />
Systeme, siehe [1, Sect. I.3] für eine Einführung, [2] für eine umfassende Darstellung.<br />
△<br />
←→<br />
Hamiltonsches System (→ Def. 1.2.2) mit Konfigurationsraum M := R n \ {0}, q := r, und<br />
Hamilton-Funktion (Energie) H(p,q) := 1<br />
2m ‖p‖2 + G(‖q‖) (1.2.16)<br />
p := mṙ ˆ= Impuls, kinetische Energie potentielle Energie<br />
ṗ = −G ′ (‖q‖) q<br />
‖q‖ , ˙q = m−1 p . (1.2.17)<br />
✬<br />
Lemma 1.2.4 (Bahnebene).<br />
Jede Lösung ( p<br />
q<br />
)<br />
: J ⊂ R ↦→ R 2n von (1.2.17) erfüllt<br />
p(t),q(t) ∈ Span {p(t 0 ),q(t 0 )} ∀t 0 ,t ∈ J .<br />
✩<br />
1.2<br />
p. 30<br />
✫<br />
✪<br />
1.2<br />
p. 32
✬<br />
Lemma 1.2.5 (Drehmomenterhaltung).<br />
Für n = 3 ist das Drehmoment (bzgl. 0) M := p × q (engl. angular momentum) ein erstes<br />
Integral (→ Def. 1.2.1) von (1.2.17).<br />
✫<br />
✎ Notation: × ˆ= Vektorprodukt im R 3 :<br />
⎛<br />
a × b = ⎝ a ⎞<br />
2b 3 − a 3 b 2<br />
a 3 b 1 − a 1 b 3 ⎠ .<br />
a 1 b 2 − a 2 b 1<br />
✬<br />
Theorem 1.2.6 (2. Keplersches Gesetz). Löst<br />
t ↦→ q(t) die Differentialgleichung (1.2.17),<br />
so überstreicht der Vektor q(t) in gleichen<br />
Zeitspannen gleiche Flächen in der Bahnebene.<br />
✫<br />
✩<br />
✪<br />
✩<br />
✪<br />
Definition 1.3.1 (Maximale Fortsetzbarkeit einer Lösung).<br />
Eine Lösung y ∈ C 1 ([t 0 , t 1 [,D) (→ Def. 1.1.1) des AWP (1.1.6) heisst maximal (in die Zukunft)<br />
fortsetzbar<br />
⇔: Es gibt eine Lösung ỹ ∈ C 1 ([t 0 ,t + [,D) des AWP (1.1.6) mit t + ≥ t 1 , y(t) = ỹ(t)<br />
∀t 0 ≤ t < t 1 , wobei genau einer der drei folgenden Fälle zutrifft:<br />
(i) t + = ∞ (Lösung existiert für alle Zeiten)<br />
(ii) t + < ∞ ,<br />
lim ‖ỹ(t)‖ = ∞<br />
t→t +<br />
( Blow-up”) ”<br />
(iii) t + < ∞ ,<br />
lim dist((t,ỹ(t)),∂Ω) = 0 .<br />
t→t +<br />
( Kollaps”)) ”<br />
(Analog: Maximale Fortsetzbarkeit in die Vergangenheit auf ]t − , t 0 ])<br />
1. Keplersches Gesetz (für Gravitationspotential):<br />
Für G(r) = G 0 r sind die Lösungskurven von (1.2.14) Ellipsen mit Brennpunkt 0.<br />
1.3 Theorie [5, Sect. 2], [1, Ch. II]<br />
✸<br />
1.3<br />
p. 33<br />
y<br />
(i)<br />
1.3<br />
p. 35<br />
Zu gegebener rechter Seite f : Ω := I × D ↦→ R d , d ∈ N, I ⊂ R offenes Intervall, D ⊂ R d offene<br />
Menge, betrachte das Anfangswertproblem<br />
(iii)<br />
: ”<br />
Blow-Up”<br />
ẏ = f(t,y) , y(t 0 ) = y 0 für gegebenes (t 0 ,y 0 ) ∈ Ω . (1.1.6)<br />
(ii)<br />
: ”<br />
Kollaps”<br />
: J(t 0 , y 0 ) = R<br />
t<br />
1.3.1 Existenz und Eindeutigkeit von Lösungen<br />
Zwei wichtige Begriffe:<br />
Notation: J(t 0 ,y 0 ) =]t − ,t + [ = maximales Existenzintervall für Lösung von AWP (1.1.6).<br />
1.3<br />
p. 34<br />
1.3<br />
p. 36
Definition 1.3.2 (Lokale Lipschitz-Stetigkeit).<br />
f : Ω ↦→ R d heisst lokal Lipschitz-stetig<br />
⇔:<br />
∀(t,y) ∈ Ω: ∃δ > 0, L > 0:<br />
‖f(τ,z) − f(τ,w)‖ ≤ L ‖z − w‖<br />
∀z,w ∈ D: ‖z − y‖ < δ, ‖w − y‖ < δ, ∀τ ∈ I: |t − τ| < δ .<br />
Damit kann (1.3.1) auf dem Intervall [t 0 , t 1 ] als Fixpunktgleichung T(y) = y in F geschrieben werden.<br />
Aus der lokalen Lipschitz-Stetigkeit folgt für genügend kleines t 1 > t 0 , dass T eine Kontraktion<br />
ist. Mit dem Banachschen Fixpunktsatz folgt die Behauptung für das Zeitintervall (t 0 , t 1 ). Das maximale<br />
Existenzintervall erhält man über Fortsetzung.<br />
Bemerkung 1.3.1 (Definitionsintervalle von Lösungen von AWPen).<br />
Lokale Lipschitz-Stetigkeit impliziert globale Lipschitz-Stetigkeit auf jeder kompakten Teilmenge K<br />
von Ω:<br />
∃L = L(K) > 0: ‖f(τ,z) − f(τ,w)‖ ≤ L ‖z − w‖ ∀(τ,z), (τ,w) ∈ K .<br />
Die Lösung eines Anfangswertproblems sucht sich Ihren Definitionsbereich selbst”<br />
”<br />
!<br />
Definitionsbereich J(t 0 ,y 0 ) hängt (meist) von (t 0 ,y 0 ) ab !<br />
Terminologie: Falls J(t 0 ,y 0 ) = I ➥ Lösung y : I ↦→ R d ist global.<br />
△<br />
✎ Notation: D y f ˆ= Ableitung von f nach Zustandsvariablen (= Jacobimatrix ∈ R d,d !)<br />
Ein einfaches Kriterium für lokale Lipschitz-Stetigkeit (Beweis über Mittelwertsatz):<br />
✬<br />
✩<br />
1.3<br />
p. 37<br />
1.3<br />
p. 39<br />
Lemma 1.3.3 (Kriterium für lokale Lipschitz-Stetigkeit).<br />
Sind f und D y f stetig auf Ω, so ist f lokal Lipschitz-stetig (→ Def. 1.3.2).<br />
✫<br />
✪<br />
✬<br />
✩<br />
Theorem 1.3.4 (Satz von Peano & Picard-Lindelöf). [1, Satz II(7.6)]<br />
Falls f : ˆΩ ↦→ R d lokal Lipschitz-stetig in der Variablen y, so hat das AWP (1.1.6) ∀(t 0 ,y 0 ) ∈ ˆΩ<br />
eine eindeutige maximal fortsetzbare Lösung y : J(t 0 ,y 0 ) ↦→ D.<br />
✫<br />
✪<br />
Beweisidee: (→ [27, I.§6]) Integration von (1.1.6) liefert<br />
y(t) = y 0 +<br />
∫ t<br />
f(s,y(s)) ds,<br />
t 0<br />
t ≥ t 0 . (1.3.1)<br />
Definiere Raum<br />
F = {y ∈ C([t 0 , t 1 [), y(t 0 ) = y 0 }<br />
für ein t 1 > t 0 und den Operator<br />
∫ t<br />
T : F → F, T : y ↦→ z(t) = y 0 + f(s,y(s)) ds.<br />
1.3<br />
t 0<br />
p. 38<br />
Definition 1.3.5 (Evolutionsoperator).<br />
Die zweiparametrige Familie Φ s,t von Abbildungen Φ s,t : D ↦→ D heisst Evolutionsoperator<br />
zur Dgl. ẏ = f(t,y), wenn<br />
t ∈ J(s,z) ↦→ Φ s,t z Lösung des AWP<br />
{<br />
˜Ω ↦→ D<br />
Definitionsbereich: Φ :<br />
(t,s,y) ↦→ Φ s,t y<br />
ẏ = f(t,y) ,<br />
y(s) = z ,<br />
, ˜Ω :=<br />
⋃<br />
(s,y)∈Ω<br />
für alle (s,z) ∈ Ω .<br />
J(s,y) × {(s,y)}<br />
Satz 1.3.4 ⇒ Φ t,t = Id , Φ s,t y = (Φ r,t ◦ Φ s,r )y , t,r ∈ J(s,y), (s,y) ∈ Ω . (1.3.2)<br />
Konvention: Für autonome Differentialgleichungen (1.1.3) (→ Bem. 1.1.5): Φ t := Φ 0,t<br />
➣ Falls J(0,y) = R ∀y ∈ D aus (1.3.2):<br />
Gruppe von Abbildungen von D: Φ s ◦ Φ t = Φ s+t , Φ −t ◦ Φ t = Id ∀t ∈ R . (1.3.3)<br />
1.3<br />
p. 40
Bemerkung 1.3.2 (Numerische Integratoren als approximative Evolutionsoperatoren).<br />
MATLAB-Lösung eines , vgl. Bem. 1.2.2<br />
[t,y] = solver(odefun,[t0 T,y0])<br />
1<br />
0.9<br />
0.8<br />
0.7<br />
0.6<br />
0.014<br />
0.012<br />
0.01<br />
0.008<br />
y(t)<br />
0.5<br />
y(t)<br />
Φ s,t y<br />
0.4<br />
0.3<br />
0.006<br />
0.004<br />
☞<br />
Numerische Lösungsverfahren für Anfangswertprobleme für eine gewöhnliche Differentialgleichung<br />
realisieren Approximationen von Evolutionsoperatoren → Def. 2.1.1.<br />
△<br />
0.2<br />
0.1<br />
0<br />
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8<br />
t<br />
Fig. 16<br />
0.002<br />
0<br />
t<br />
0.768 0.769<br />
Fig. 17<br />
0.76 0.761 0.762 0.763 0.764 0.765 0.766 0.767<br />
Beispiel 1.3.3 (Autonome skalare Differentialgleichungen). ✄ d = 1<br />
✸<br />
• f(t,y) = −λy, λ ∈ R Lösung des AWP y(t) = y 0 e −λt , t ∈ R<br />
existiert für alle Zeiten, d.h. ]t − ,t + [= R für jedes y 0 : globale Lösung.<br />
Zugehöriger Evolutionsoperator:<br />
Φ t : R ↦→ R , Φ t (y 0 ) = e −λt y 0 .<br />
1.3.2 Lineare AWPe<br />
• f(t,y) = λy 2 , λ ∈ R: ẏ = λy 2 , y(0) = y 0 ∈ R p. 41<br />
1.3<br />
Vorbereitung:<br />
Basiswechsel im Zustandsraum (kovariante Transformation):<br />
ŷ = S −1 y , S ∈ R d,d reguläre Matrix (zeitunabhängig). p. 43<br />
1.3<br />
Lösung:<br />
⎧<br />
⎨ 1<br />
y(t) = y0 −1<br />
⎩<br />
−λt , falls y 0 ≠ 0 , (Blow-up)<br />
,<br />
0 , falls y 0 = 0 .<br />
λ, y 0 > 0 ⇒ J(0, y 0 ) =] − ∞, 1/λy 0 [ .<br />
Lösungskurven für λ = 1<br />
✄<br />
y(t)<br />
10<br />
8<br />
6<br />
4<br />
2<br />
0<br />
−2<br />
−4<br />
−6<br />
−8<br />
y 0<br />
= −0.5<br />
y 0<br />
= −1<br />
y 0<br />
= 1<br />
y 0<br />
= 0.5<br />
−10<br />
−3 −2 −1 0<br />
t<br />
1 2 3<br />
Fig. 15<br />
y löst<br />
{<br />
ẏ = f(t,y) ,<br />
y(t 0 ) = y 0<br />
⇔ ŷ := S −1 y löst<br />
{ ˙ŷ = ̂f(t,ŷ) ,<br />
ŷ(t 0 ) = S −1 y 0<br />
mit ̂f(t,ŷ) = S −1 f(t,Sŷ) .<br />
Betrachte Lineare Differentialgleichung mit konstanten Koeffizienten im R d :<br />
(1.3.4)<br />
D = R d , Ω = I × R d<br />
Koeffizientenmatrix A ∈ R d,d<br />
ẏ = Ay + g(t) . (1.3.5)<br />
” Quellterm”: stetige Funktion g : I ↦→ Rd<br />
Annahme:<br />
A diagonalisierbar, ∃S ∈ R d,d regulär: S −1 AS = diag(λ 1 ,...,λ d ), λ i ∈ C<br />
• f(t,y) = − 1 √ y<br />
, D = R + , Anfangswert y(0) = 1<br />
➣ y(t) = (1 − 3t/2) 2/3 , t − = −∞, t + = 2/3<br />
(Lösung läuft zum Rand y = 0 des erweiterten Zustandraums: Kollaps)<br />
• f(t,y) = sin(1/y) − 2, D = R + , Anfangswert y(0) = 1 [5, Bsp. 2.14]<br />
Lösung y(t) erfüllt ẏ ≤ −1 ➥ y(t) ≤ 1 − t ➥ Kollaps für t ∗ < 1.<br />
1.3<br />
p. 42<br />
• g ≡ 0: ẏ = Ay (autonome homogene lineare Dgl., allgemeinere Diskussion [5, Sect. 3.2.2])<br />
ŷ := S −1 y löst<br />
˙ŷ 1 = λ 1 ŷ 1 ,<br />
. ⇒ ŷ i (t) = (S −1 y 0 ) i e λit , t ∈ R .<br />
˙ŷ d = λ d ŷ<br />
⎛ d<br />
e λ ⎞<br />
1t<br />
y(t) = S⎜<br />
...<br />
⎟<br />
⎝ . .. ⎠ S−1 y 0 .<br />
e λ dt<br />
} {{ }<br />
Matrixexponentialfunktion exp(At)<br />
1.3<br />
p. 44
Allgemeine Definition der Matrixexponentialfunktion durch<br />
Wichtige Eigenschaft:<br />
∞∑ 1<br />
“Matrixexponentialreihe”: exp(M) =<br />
k! Mk . (1.3.6)<br />
k=0<br />
Matrixexponentialfunktion kommutiert mit Ähnlichkeitstransformationen<br />
M = S −1 AS ⇒ exp(M) = S −1 exp(A)S ∀A,M,S ∈ C d,d , S regulär. (1.3.7)<br />
• Inhomogener Fall<br />
Ansatz:<br />
ẏ(t) = Ay(t) + g(t) partikuläre Lösung durch ”<br />
Variation der Konstanten”:<br />
y(t) = exp(At)z(t) mit z ∈ C 1 (R, R d ) → [1, Thm I(5.14)]<br />
ẏ(t) = A exp(At)z(t) + exp(At)ż(t) = Ay(t) + g(t) = A exp(At)z(t) + g(t)<br />
∫ t<br />
ż(t) = exp(−At)g(t) ⇒ z(t) = y 0 + exp(−Aτ)g(τ) dτ<br />
t 0<br />
y(t) = exp(At)y 0 + ∫ t<br />
t0<br />
exp(A(t − τ))g(τ) dτ<br />
Lsg. des homogenen Problems<br />
Faltung mit Inhomogenität<br />
Bemerkung 1.3.5 (Bedeutung linearer AWPe).<br />
Linearisierung um einen stationären Punkt f(y ∗ ) = 0:<br />
y ≈ y ∗ : f(y) = D y f(y ∗ )(y − y ∗ ) + O(|y − y ∗ | 2 ) ,<br />
falls f ∈ C 2 .<br />
➣ Lösungen von ẏ = f(y) verhalten sich in der Umgebung von y ∗ (qualitativ) wie Lösungen der<br />
linearen ODE ẏ = D y f(y ∗ )y.<br />
△<br />
1.3.3 Sensitivität [5, Sect. 3.1]<br />
1.3.3.1 Grundbegriffe<br />
1.3<br />
p. 45<br />
Erinnerung<br />
(→ Vorlesung ”<br />
Numerische Methoden”):<br />
1.3<br />
p. 47<br />
Allgemeinere Betrachtungen<br />
→ [1, Kap. III]:<br />
Bemerkung 1.3.4 (Allgemeine Variation-der-Konstanten-Formel). → [1, Thm. (11.13)]<br />
Problem = Abbildung Π : X ↦→ Y von Datenraum X in den Ergebnisraum Y<br />
(beide versehen mit Metriken d X , d Y )<br />
A : J ⊂ R ↦→ R d,d stetige Matrixfunktion, J ⊂ R Intervall<br />
g : J ↦→ R d stetig<br />
✗<br />
✖<br />
Problem ist wohlgestellt (engl. well-posed), wenn Π stetig.<br />
✔<br />
✕<br />
(s, t) ↦→ E(s, t) ∈ R d,d beschreibt Evolutionsoperator, definiert durch<br />
∂E<br />
(s, t) = A(t)E(s, t) ∀(s, t) ∈ J × J , E(s, s) = I . (1.3.8)<br />
∂t<br />
Dann ist die (eindeutige → Thm. 1.3.4) Lösung des nicht-autonomen linearen Anfangswertproblems<br />
gegeben durch<br />
ẏ = A(t)y + g(t) , y(t 0 ) = y 0 ,<br />
Kondition/Sensitivität eines Problems:<br />
Mass für Einfluss von Störungen in den Daten auf das Ergebnis<br />
d<br />
Absolute Kondition: κ abs := sup Y (Π(x), Π(x ′ ))<br />
x,x ′ ∈X,x≠x ′ d X (x,x ′ . (1.3.10)<br />
)<br />
Sprachgebrauch: Problem ist ”<br />
gut konditioniert”, wenn ”<br />
κ abs ≈ 1”<br />
∫t<br />
y(t) = E(t, t 0 )y 0 +<br />
t 0<br />
E(t, s)g(s) ds , t ∈ J . (1.3.9)<br />
△<br />
1.3<br />
p. 46<br />
• Wohlgestelltheit und Gutkonditioniertheit eines Problems hängen entscheidend von den<br />
gewählten Metriken ab. Diese sind bei praktischen Problemen dadurch bestimmt, “woran der<br />
Anwender interessiert ist”.<br />
1.3<br />
p. 48
• Als Folge von unvermeidlichen Eingabefehlern, macht nur die numerische Lösung von<br />
➡<br />
wohlgestellten Problemen Sinn.<br />
• Absolute Konditionszahl ist die globale Lipschitz-Konstante der Problemabbildung (bzgl. der<br />
gewählten Metriken).<br />
Asymptotische (absolute) Kondition (linearisierte Störungstheorie):<br />
κ ∞ d<br />
abs := lim sup Y (Π(x), Π(x ′ ))<br />
δ→0 0 0 ,<br />
1 für λ < 0 .<br />
(1.3.14)<br />
(1.3.15)<br />
1.3.3.2 Unser Problem: das Anfangswertproblem<br />
1.3<br />
p. 49<br />
1.3.3.3 Wohlgestelltheit<br />
✸<br />
1.3<br />
p. 51<br />
Anwendung (der abstrakten Konzepte) auf Anfangswertproblem (1.1.6):<br />
Szenario ➊:<br />
✬<br />
Annahme:<br />
Rechte Seite f : I × D ↦→ R d von (1.1.6) erfüllt globale Lipschitzbedingung<br />
(vgl. lokale Lipschitzbedingung aus Def. 1.3.2)<br />
✩<br />
Eingabedatum y 0 ➥ Datenraum R d , Metrik: Euklidische Vektornorm<br />
Ausgabe y(T) zu Endzeitpunkt T > t 0 ➥ Ergebnisraum R d , Metrik: Euklidische Vektornorm<br />
Szenario ➋:<br />
Eingabedatum y 0 ➥ Datenraum R d , Metrik: Euklidische Vektornorm<br />
Ausgabe: Lösungsfunktion t ∈ J ⊂ I ↦→ y(T)<br />
➥ Ergebnisraum C 0 (J, R d ), Metrik: Maximumnorm ‖·‖ L ∞ (J)<br />
Szenario ➌:<br />
∀t ∈ I: ∃L(t) > 0: ‖f(t,x) − f(t,y)‖ ≤ L(t) ‖x − y‖ ∀x,y ∈ D ⊂ R d , (1.3.16)<br />
für geeignete Vektornorm ‖·‖ auf R d .<br />
✫<br />
✬<br />
Theorem 1.3.6 (Lipschitz-stetige Abhängigkeit vom Anfangswert).<br />
Es seien y,ỹ Lösungen des AWP (1.1.6) zu Anfangswerten y 0 ∈ D bzw. ỹ 0 ∈ D. Unter der<br />
Annahme (1.3.16) mit stetigem L(t) gilt<br />
(∫ t )<br />
‖y(t) − ỹ(t)‖ ≤ ‖y 0 − ỹ 0 ‖ · exp L(τ) dτ ∀t ∈ I .<br />
t 0<br />
✫<br />
Hilfsmittel beim Beweis:<br />
✪<br />
✩<br />
✪<br />
Eingabedaten: Anfangswert y 0 und rechte Seite f<br />
➥ Datenraum R d ×C 1 (I ×R d , R d ), Metrik: Euklidische Vektornorm & Maximumnorm<br />
1.3<br />
p. 50<br />
1.3<br />
p. 52
✬<br />
Lemma 1.3.7 (Gronwalls Lemma). → [1, Sect. II.6], [5, Lemma 3.9]<br />
Sei J ⊂ R Intervall, t 0 ∈ J, u,a,β ∈ C 0 (J, R + ), a monoton wachsend. Dann gilt<br />
∫ t<br />
∫ t<br />
u(t) ≤ a(|t − t 0 |) + β(τ)u(τ) dτ ⇒ u(t) ≤ a(|t − t 0 |) exp<br />
∣ β(τ) dτ<br />
∣ .<br />
t 0 t 0<br />
✫<br />
➤ AWP (1.1.6) is wohlgestellt unter Annahme (1.3.16) !<br />
➤ Schranke für absolute punktweise Kondition (für Endzeitpunkt T )<br />
( ∫ ) T<br />
κ abs ≤ exp L(τ) dτ . (1.3.18)<br />
t 0<br />
Bemerkung 1.3.7 ( ”<br />
Gronwall-Schranke” für Kondition).<br />
Schranke aus (1.3.18) oft extrem pessimistisch !<br />
für skalares lineares AWP mit λ < 0, punktweise Kondition, Endzeit-<br />
Beispiel (siehe Bsp. 1.3.6):<br />
punkt T > 0 (1.3.12)<br />
(1.3.18) ➣ κ abs ≤ e |λ|T T →∞<br />
↦−→ ∞ ←→ κ abs = e λT T →∞<br />
↦−→ 0 .<br />
1.3.3.4 Asymptotische Kondition<br />
✩<br />
✪<br />
1.3<br />
△ p. 53<br />
(Annahme:<br />
( )<br />
∂ ∂Φ<br />
∂t ∂y (t 0, t,y) = d<br />
dy f(t,Φt0,t y) = ∂f<br />
∂y (t,Φt0,t y) d<br />
dy Φt0,t y .<br />
f nach y stetig differenzierbar)<br />
Die Propagationsmatrix (Wronski-Matrix),<br />
zum AWP (1.1.6) erfüllt Anfangswertproblem für<br />
Beachte:<br />
✗<br />
✖<br />
Variationsgleichung<br />
W(t; t 0 ,z) := d<br />
dy Φt0,t ∈ R y|y=z<br />
d,d , (1.3.19)<br />
d<br />
dt W(t; t 0,y 0 ) = ∂f<br />
∂y (t,Φt0,t y 0 )W(t;t 0 ,y 0 ) , (1.3.20)<br />
W(t 0 ;t 0 ,y 0 ) = I .<br />
Variationsgleichung = lineare Differentialgleichung mit D = R d,d<br />
(☞ Matrix-Differentialgleichung)<br />
y 0 ← y 0 + δy 0 ➣ δy(t) ≈ W(t;t 0 ,y 0 )δy 0 für ”<br />
kleine δy 0 ”<br />
Intervallweise asymptotische Kondition des AWP (1.1.6) auf [t 0 , T] (bzgl. Norm ‖·‖ auf R d ):<br />
1.3.3.5 Schlecht konditionierte AWPe<br />
κ ∞ abs := max{‖W(t;t 0,y 0 )‖ : t 0 ≤ t ≤ T } . (1.3.21)<br />
✔<br />
✕<br />
1.3<br />
p. 55<br />
Szenario ➊:<br />
Wie wirken sich kleine Störungen im Anfangswert y 0 in (1.1.6) auf die Lösung y(t)<br />
aus ?<br />
Beispiel 1.3.8 (Lorenz-System). → [23, 18]<br />
Asymptotische absolute Konditionszahl durch differentielle Konditionsanalyse, siehe (1.3.11):<br />
Erforderlich: ”<br />
Differenzieren der Lösung eins Anfagswertproblems nach dem Anfangswert y 0 ”<br />
(Dabei wird die Zeit t als fester ”<br />
Parameter” behandelt.)<br />
➣ Zu betrachten ist, mit Evolution Φ s,t y = Φ(s, t,y)<br />
dy(t)<br />
dy 0<br />
∣ ∣∣∣t<br />
fest<br />
←→ ∂Φ<br />
∂y (t 0,t,y 0 ) .<br />
Autonome Differentialgleichung, D = R 3 ,<br />
σ,ρ, β ∈ R + :<br />
ẋ =σ(y − x) ,<br />
ẏ =x(ρ − z) − y ,<br />
ż =xy − βz .<br />
(1.3.22)<br />
d<br />
dy<br />
d<br />
dt Φt 0,t y = f(t,Φ<br />
t 0 ,t y) für festes y .<br />
(<br />
d ∂<br />
y)<br />
dy ∂t Φt0,t = d<br />
dy f(t,Φt0,t y)<br />
1.3<br />
p. 54<br />
1.3<br />
p. 56
−20<br />
σ = 10, ρ = 28, β = 2.666667e+00<br />
— : Anfangswert y 0 := (8, 9, 9.5) T<br />
— : Anfangswert y 0 := (8, 9, 9.5+10 −5 ) T<br />
3<br />
m 1<br />
= 2, m 2<br />
= 1, l 1<br />
= 1, l 2<br />
= 1.732051e+00<br />
3<br />
m 1<br />
= 2, m 2<br />
= 1, l 1<br />
= 1, l 2<br />
= 1.732051e+00<br />
45<br />
40<br />
35<br />
30<br />
Aus der Theorie der<br />
reellen dynamischen Systeme [18]:<br />
Lorenz-System ist chaotisches System<br />
2<br />
1<br />
2<br />
1<br />
z<br />
25<br />
20<br />
15<br />
10<br />
Anfängliche exponetielle Divergenz der<br />
beschränkten Trajektorien<br />
(Schranke (1.3.18) gilt für kleine T !)<br />
0<br />
−1<br />
0<br />
−1<br />
5<br />
−10<br />
0<br />
10<br />
x<br />
20 −30<br />
−20<br />
0<br />
−10<br />
y<br />
10<br />
20<br />
30<br />
Fig. 18<br />
Winzige Störungen der Anfangswerte<br />
➤ völlig verschiedene Zustände nach exponentiell<br />
kurzer Zeit”.<br />
”<br />
✸<br />
−2<br />
−3<br />
Fig. 20<br />
−4 −3 −2 −1 0 1 2 3 4<br />
θ 1 (0) = − π 2 , θ 2(0) = π, p 1 (0) = p 2 (0) = 0<br />
−2<br />
−3<br />
Fig. 21<br />
−4 −3 −2 −1 0 1 2 3 4<br />
θ 1 (0) = − π 2 , θ 2(0) = π + 10 −2 ,<br />
p 1 (0) = p 2 (0) = 0<br />
Ziel numerischer Simulation chaotischer dynamischer Systeme:<br />
Indentifikation des ”<br />
typischen” Verhaltens von Trajektorien<br />
[Simulation, MATLAB, ode45, Zeit [0, 20], Schrittweite 10 −3 ]<br />
✸<br />
★<br />
✥<br />
Essentiell:<br />
✧<br />
Beispiel 1.3.9 (Doppelpendel).<br />
Korrekte Behandlung von Erhaltungsgrössen, z.B. Gesamtenergie<br />
(→ Erste Integrale, Def. 1.2.1)<br />
✦<br />
1.3<br />
p. 57<br />
1.4 Polygonzugverfahren<br />
1.4<br />
p. 59<br />
l 2<br />
l 1<br />
θ 1<br />
θ 2<br />
m 1<br />
m 2<br />
Fig. 19<br />
✁<br />
(Mathematisches) Doppelpendel mit fester Aufhängung und masselosen<br />
Stäben.<br />
Minimalkoordinaten: Auslenkungswinkel θ 1 , θ 2<br />
Konfigurationsraum D = [0, 2π[ 2 (Torus)<br />
Hamilton-Funktion (→ Def. 1.2.2) = Summe kinetischer und potentieller<br />
Energie:<br />
H(p 1 ,p 2 ,θ 1 ,θ 2 ) =<br />
l 2 2 m 2p 2 1 + l2 1 (m 1 + m 2 )p 2 2 − 2m 2l 1 l 2 p 1 p 2 cos(θ 1 − θ 2 )<br />
2l 2 1 l2 2 m 2(m 1 + sin 2 (θ 1 − θ 2 )m 2 )<br />
− m 2 gl 2 cos θ 2 − (m 1 + m 2 )gl 1 cosθ 1 .<br />
Gegeben:<br />
Rechte Seite f : Ω ↦→ R d , lokal Lipschitz-stetig (→ Def. 1.3.2) auf<br />
erweitertem Zustandsraum Ω := I × D ⊂ R d+1<br />
Anfangsbedingungen y 0 ∈ D zum Anfangszeitpunkt t 0<br />
Thm. 1.3.4 (Peano & Picard-Lindelöf) ➤ Existenz & Eindeutigkeit von Lösungen (→ Def. 1.1.2)<br />
des AWP<br />
ẏ = f(t,y) , y(t 0 ) = y 0 . (1.4.1)<br />
Ziel: ☞ Approximation von y(T) für Endzeitpunkt T ∈ J(t 0 ,y 0 ) ✄ y h (T).<br />
☞ Approximation der Funktion t ↦→ y(t), t ∈ [t 0 , T], T ∈ J(t 0 ,y 0 ) ✄ t ↦→ y h (t).<br />
Beobachtung (in Experiment und Simulation):<br />
Extrem sensitive Abhängigkeit der Pendelbewegung von Anfangsbedingungen<br />
1.3<br />
p. 58<br />
1.4.1 Das explizite Euler-Verfahren (Euler 1768)<br />
Idee: ➊ ”<br />
Vorantasten” in der Zeit: (1.4.1) = Komposition von AWPe zu gegebenen<br />
kleinen Zeitintervallen [t k−1 , t k ], k = 1, ...,N, t N := T<br />
➋<br />
Approximation der zeitlokalen Lösungskurven durch Tangente im aktuellen<br />
1.4<br />
Anfangszeitpunkt. p.<br />
60
y<br />
y h (t 1 )<br />
y(t)<br />
y 0<br />
✁<br />
t<br />
t 0 t 1 Fig. 22<br />
Explizites Euler-Verfahren<br />
(Eulersches Polygonzugverfahren)<br />
Erster Schritt des expliziten Euler-Verfahrens<br />
(d = 1):<br />
Steigung der Tangente = f(t 0 ,y 0 )<br />
y h (t 1 ) ist Startwert für nächsten Schritt !<br />
In Formeln: durch explizites Eulerverfahren erzeugte Näherungen für y(t k ) erfüllen die Rekursion<br />
y k+1 := y h (t k+1 ) = y h (t k ) + h k f(t k ,y h (t k )) , k = 0,...,N − 1 , (1.4.2)<br />
mit lokaler (Zeit)schrittweite h k := t k+1 − t k .<br />
Beispiel 1.4.2 (Konvergenz(-geschwindigkeit) des expliziten Euler-Verfahrens).<br />
AWP für Riccati-Dgl. (1.1.2) auf [0, 1]<br />
Explizites Euler-Verfahren (1.4.2) mit<br />
uniformem Zeitschritt h = 1/n,<br />
n ∈ {5, 10, 20, 40, 80, 160, 320, 640}.<br />
Beobachtung:<br />
Fehler err h := |y(1) − y h (1)|<br />
Algebraische Konvergenz<br />
err h = O(h)<br />
error (Euclidean norm)<br />
10 0<br />
10 −1<br />
10 −2<br />
y0 = 0.10<br />
y0 = 0.20<br />
y0 = 0.40<br />
y0 = 0.80<br />
O(h)<br />
10 −3<br />
10 −3 10 −2 10 −1 10 0<br />
10 1 timestep h<br />
Fig. 24 ✸<br />
✎ Notation “Landau-O”:<br />
✎ Alternative Notation: y k := y h (t k )<br />
e(h) = O(g(h)) für h → 0 :⇔ ∃h 0 > 0, C > 0: |e(h)| ≤ Cg(h) ∀0 ≤ h ≤ h 0 .<br />
1.4<br />
p. 61<br />
1.4<br />
p. 63<br />
Veranschaulichung: Explizites Eulerverfahren<br />
Anfangswertproblem<br />
für<br />
Riccati-Differentialgleichung, siehe Bsp. 1.1.1<br />
y 0 = 2 1 , t 0 = 0, T = 1,<br />
gleichgrosse Zeitschritte h = 0.2<br />
ẏ = y 2 + t 2 . (1.1.2)<br />
↦→ ˆ= Richtungsfeld der Riccati-Dgl.<br />
✄<br />
y<br />
2.4<br />
2.2<br />
2<br />
1.8<br />
1.6<br />
1.4<br />
1.2<br />
1<br />
0.8<br />
0.6<br />
exact solution<br />
explicit Euler<br />
Bemerkung 1.4.1 (Explizites Eulerverfahren als Differenzenverfahren).<br />
0.4<br />
0 0.2 0.4 0.6 0.8 1 1.2 1.4<br />
t<br />
Fig. 23<br />
Definition 1.4.1 (Arten der Konvergenz).<br />
Sei err h der Diskretisierungsfehler eines Verfahrens zum Diskretisierungsparameter/Schrittweite<br />
h, h > 0.<br />
err h = O(h α ) :⇔ Algebraische Konvergenz der Ordnung α > 0<br />
err h = O(exp(−βh −γ )), :⇔ exponentielle Konvergenz, falls β,γ > 0<br />
Fehlerplots bei algebraischer Konvergenz (h i = (3/2) −i , i = 1, ...,10)<br />
(1.4.2) aus Approximation von Ableitung<br />
dt d durch Vorwärtsdifferenzenquotienten auf Zeitgitter G :=<br />
{t 0 , t 1 ,...,t N }:<br />
ẏ = f(t,y) ←→ y h(t k+1 ) − y h (t k )<br />
h k<br />
= f(t k ,y h (t k )) , k = 0,...,N − 1 .<br />
Frage: Wie genau ist die Näherungslösung ?<br />
△<br />
1.4<br />
p. 62<br />
1.4<br />
p. 64
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7<br />
0.9<br />
0.8<br />
0.7<br />
α = 1/2<br />
α = 1<br />
α = 2<br />
Error plots for algebraic convergence (linear scale)<br />
10 0 Error plots for algebraic convergence (log scale<br />
10 −1<br />
Error plots for exponential convergence (h −γ lin−log scale)<br />
10 0 β = 0.5, γ = 0.5<br />
10 −1<br />
β = 1.0, γ = 0.5<br />
β = 2.0, γ = 0.5<br />
β = 1.0, γ = 1.0<br />
10 −2<br />
β = 1.0, γ = 1/3<br />
error<br />
0.6<br />
0.5<br />
0.4<br />
0.3<br />
0.2<br />
error<br />
10 −2<br />
10 −3<br />
error<br />
10 −3<br />
10 −4<br />
10 −5<br />
10 −6<br />
10 −7<br />
10 −8<br />
✁ (h −γ<br />
i , ǫ i ) (h i ˆ= Schrittweiten, ǫ i ˆ= zugehörige<br />
Diskretisierungsfehler ) liegen auf Geraden mit<br />
Steigung −β<br />
0.1<br />
0<br />
h<br />
lineare Skalen<br />
Fig. 25<br />
α = 1/2<br />
α = 1<br />
α = 2<br />
10 −4<br />
10 −2 10 −1 10 0<br />
h<br />
Fig. 26<br />
logarithmische Skalen<br />
10 −9<br />
10 −10<br />
0 5 10 15 20 25 30<br />
h −γ<br />
Fig. 29<br />
Beispiel 1.4.3 (Explizites Euler-Verfahren für logistische Dgl.).<br />
Fehlerplots bei exponentieller Konvergenz (h i = (3/2) −i , i = 1, ...,10)<br />
Anfangswertproblem für logistische Differentialgleichung, siehe Bsp. 1.2.1<br />
1.4<br />
p. 65<br />
ẏ = λy(1 − y) , y(0) = 0.01 .<br />
Explizites Euler-Verfahren (1.4.2) mit uniformem Zeitschritt h = 1/n,<br />
n ∈ {5, 10, 20, 40, 80, 160, 320, 640}.<br />
Fehler zum Endzeitpunkt T = 1<br />
1.4<br />
p. 67<br />
0.7<br />
0.6<br />
Error plots for exponential convergence (linear scale)<br />
β = 0.5, γ = 0.5<br />
β = 1.0, γ = 0.5<br />
β = 2.0, γ = 0.5<br />
β = 1.0, γ = 1.0<br />
β = 1.0, γ = 1/3<br />
10 0 Error plots for exponential convergence (log scale)<br />
10 −1<br />
10 −2<br />
10 0<br />
λ = 1.000000<br />
λ = 3.000000<br />
λ = 6.000000<br />
λ = 9.000000<br />
10 120<br />
10 100<br />
λ = 10.000000<br />
λ = 30.000000<br />
λ = 60.000000<br />
λ = 90.000000<br />
error<br />
0.5<br />
0.4<br />
0.3<br />
0.2<br />
error<br />
10 −3<br />
10 −4<br />
10 −5<br />
10 −6<br />
10 −7<br />
error (Euclidean norm)<br />
10 1 timestep h<br />
10 −1<br />
10 −2<br />
10 −3<br />
error (Euclidean norm)<br />
10 140 timestep h<br />
10 80<br />
10 60<br />
10 40<br />
10 20<br />
0.1<br />
0<br />
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7<br />
h<br />
Fig. 27<br />
lineare Skalen<br />
10 −8<br />
β = 0.5, γ = 0.5<br />
β = 1.0, γ = 0.5<br />
β = 2.0, γ = 0.5<br />
10 −9<br />
β = 1.0, γ = 1.0<br />
β = 1.0, γ = 1/3<br />
10 −10<br />
h<br />
Fig. 28<br />
10 −2 10 −1 10 0<br />
logarithmische Skalen<br />
10 −4<br />
10 −5<br />
10 −3 10 −2 10 −1 10 0<br />
λ klein: O(h)-Konvergenz (asymptotisch)<br />
Fig. 30<br />
10 0<br />
10 −20<br />
10 −3 10 −2 10 −1 10 0<br />
λ gross: Explosion von y k für grosse<br />
Zeitschrittweiten h<br />
Fig. 31<br />
1.4<br />
p. 66<br />
1.4<br />
p. 68
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1<br />
1.4<br />
Anwendung auf kleine Zeitintervalle [t 0 ,t 1 ], [t 1 ,t 2 ], ..., [t N−1 , t N ] ➤ implizites Euler-Verfahren<br />
y<br />
1.2<br />
1<br />
0.8<br />
0.6<br />
0.4<br />
0.2<br />
0<br />
−0.2<br />
−0.4<br />
exact solution<br />
explicit Euler<br />
✁ λ = 90, — ˆ= exakte Lösung, — ˆ= Eulerpolygon<br />
y k schiessen über den stark attraktiven<br />
Fixpunkt y = 1 hinaus.<br />
➥ Beobachtung: exponentiell anwachsende<br />
Oszillationen der y k<br />
durch implizites Eulerverfahren erzeugte Näherung für y(t k ) erfüllt<br />
y k+1 := y h (t k+1 ) = y h (t k ) + h k f(t k+1 ,y k+1 ) , k = 0,...,N − 1 , (1.4.9)<br />
mit lokaler (Zeit)schrittweite h k := t k+1 − t k .<br />
Beachte: (1.4.9) erfordert Auflösen einer (evtl. nichtlinearen) Gleichung nach y k+1 !<br />
(➤ Terminologie ”<br />
implizit”)<br />
Bemerkung 1.4.4 (Implizites Eulerverfahren als Differenzenverfahren).<br />
t<br />
Fig. 32<br />
✸<br />
(1.4.9) aus Approximation der Zeitableitung<br />
dt d durch Rückwärtsdifferenzenquotienten auf Zeitgitter<br />
G := {t 0 , t 1 ,...,t N }:<br />
Einsicht durch Modellproblemanalyse: einfachste Dgl. mit stark attraktivem Fixpunkt y = 0<br />
Homogene lineare skalare Dgl., Sect. 1.3.2 : ẏ = f(y) := λy , λ < 0 . (1.4.6)<br />
ẏ = λy , y(0) = y 0 ⇒ y(t) = y 0 exp(λt) → 0 für t → ∞ . (1.4.7)<br />
ẏ = f(t,y) ←→ y h(t k+1 ) − y h (t k )<br />
h k<br />
= f(t k+1 ,y h (t k+1 )) , k = 0,...,N − 1 .<br />
△<br />
Rekursion des expliziten Eulerverfahrens für (1.4.6) (uniforme Zeitschrittweite h > 0)<br />
Beispiel 1.4.5 (Implizites Eulerverfahren für logistische Differentialgleichung). → Bps. 1.4.3<br />
(1.4.2) for f(y) = λy: y k+1 = y k (1 + λh) . (1.4.8)<br />
1.4<br />
p. 69<br />
Wiederholung der numerischen Experimente aus Beispiel 1.4.3 für implizites Eulerverfahren (1.4.9):<br />
1.4<br />
p. 71<br />
y k = y 0 (1 + λh) k ⇒ |y k | →<br />
{<br />
0 , wenn λh > −2 (qualitativ richtig) ,<br />
∞ , wenn λh < −2 (qualitativ falsch) .<br />
10 0<br />
λ = 1.000000<br />
λ = 3.000000<br />
λ = 6.000000<br />
λ = 9.000000<br />
O(h)<br />
10 0<br />
10 −2<br />
λ = 10.000000<br />
λ = 30.000000<br />
λ = 60.000000<br />
λ = 90.000000<br />
O(h)<br />
1.4.2 Das implizite Euler-Verfahren<br />
error (Euclidean norm)<br />
10 −1<br />
10 −2<br />
10 −3<br />
error (Euclidean norm)<br />
10 −4<br />
10 −6<br />
10 −8<br />
10 −10<br />
10 −12<br />
10 −4<br />
10 −14<br />
Wie vermeidet man das Überschiessen des expliziten Eulerverfahrens bei stark attraktiven Fixpunkten<br />
und grossen Zeitschrittweiten ?<br />
y<br />
y h (t 1 ) y(t)<br />
y 0<br />
t<br />
t 0 t 1 Fig. 33<br />
Idee: Approximiere Lösung durch (t 0 , y 0 ) auf<br />
[t 0 ,t 1 ] durch<br />
• Strecke duch (t 0 , y 0 )<br />
• mit Steigung f(t 1 , y 1 )<br />
✁ — ˆ= Lösungkurve durch (t 0 , y 0 ),<br />
— ˆ= Lösungkurve durch (t 1 , y 1 ),<br />
— ˆ= Tangente an — in (t 1 ,y 1 ).<br />
1.4<br />
p. 70<br />
10 1 timestep h<br />
10 −5<br />
10 −3 10 −2 10 −1 10 0<br />
λ klein: O(h)-Konvergenz (asymptotisch)<br />
Fig. 34<br />
Modellproblemanalyse (wie in Abschnitt 1.4.1):<br />
( ) 1 k<br />
y k = y 0 ⇒ |y<br />
1 − λh k | →<br />
10 2 timestep h<br />
10 −16<br />
10 −3 10 −2 10 −1 10 0<br />
Fig. 35<br />
λ gross: stabil für alle Zeitschrittweiten h !<br />
(1.4.9) for f(y) = λy: y k+1 = y k<br />
1<br />
1 − λh . (1.4.10)<br />
⎧<br />
⎪⎨ 0 , wenn λh < 0 (qualitativ richtig) ,<br />
∞ , wenn 0 < λh < 1 (qualitativ richtig) ,<br />
⎪⎩<br />
∞ , wenn λh > 1 (Oszillationen, qualitativ falsch) .<br />
✸<br />
1.4<br />
p. 72
p<br />
p<br />
p<br />
Beispiel 1.4.6 (Euler-Verfahren für Pendelgleichung).<br />
Mathematisches Pendel → Bsp. 1.2.7: Hamiltonsche Form (1.2.11) der Bewegungsgleichungen<br />
Winkelgeschwindigkeit p := ˙α ⇒ d ( ) ( )<br />
α p<br />
=<br />
dt p − g l sin α , g = 9.8, l = 1 . (1.2.11)<br />
Approximative numerische Lösung mit explizitem/implizitem Eulerverfahren (1.4.2)/(1.4.9),<br />
Konstante Zeitschrittweite h = T/N, T = 5 Endzeitpunkt, N ∈ {50, 100, 200},<br />
2<br />
1.5<br />
1<br />
0.5<br />
0<br />
Erstes Integral (→ Def. 1.2.1):<br />
I(y) = ‖y‖<br />
(Bewegung mit konstanter Geschwindigkeit auf Kreisbahn)<br />
40 timesteps on [0,10.000000]<br />
160 timesteps on [0,10.000000]<br />
1.5<br />
exact solution<br />
exact solution<br />
explicit Euler<br />
explicit Euler<br />
implicit Euler<br />
implicit Euler<br />
1<br />
0.5<br />
Startwert: α(0) = π/4, p(0) = 0.<br />
y 2<br />
−0.5<br />
−1<br />
y 2<br />
0<br />
−1.5<br />
−0.5<br />
6<br />
4<br />
exact solution<br />
explicit Euler<br />
implicit Euler<br />
50 timesteps on [0,5.000000]<br />
6<br />
4<br />
100 timesteps on [0,5.000000]<br />
4<br />
3<br />
200 timesteps on [0,5.000000]<br />
−2<br />
−2.5<br />
−1<br />
2<br />
2<br />
0<br />
2<br />
0<br />
1<br />
0<br />
−3<br />
−4 −3 −2 −1 0 1 2<br />
y 1<br />
3<br />
Fig. 41<br />
−1.5<br />
−1.5 −1 −0.5 0<br />
y 1<br />
0.5 1 1.5<br />
Fig. 42<br />
−2<br />
−4<br />
−6<br />
−8<br />
−10 −8 −6 −4 −2 0 2 4<br />
α<br />
−2<br />
−4<br />
exact solution<br />
explicit Euler<br />
implicit Euler<br />
Fig. 36<br />
−6<br />
−2 −1.5 −1 −0.5 0 0.5 1 1.5 2 2.5<br />
Fig. 37<br />
−4<br />
−1.5 −1 −0.5 0 0.5 1 1.5<br />
Fig. 38<br />
α<br />
−1<br />
−2<br />
−3<br />
exact solution<br />
explicit Euler<br />
implicit Euler<br />
α<br />
☞ Expliziter Euler: Numerische Lösung wird aus der Kurve getragen”<br />
”<br />
☞ Impliziter Euler: Numerische Lösung stürzt ins Zentrum”<br />
”<br />
✸<br />
Verhalten der approximativen Energien: kinetische Enegie : E kin (t) = 1 2 p(t)2<br />
1.4<br />
potentielle Energie : E pot (t) = − g l cosα(t) p. 73<br />
9<br />
8<br />
Energies for explicit Euler discrete evolution<br />
kinetic energy<br />
potential energy<br />
total energy<br />
3<br />
Energies for implicit Euler discrete evolution<br />
kinetic energy<br />
potential energy<br />
total energy<br />
1.4.3 Implizite Mittelpunktsregel<br />
1.4<br />
p. 75<br />
7<br />
6<br />
2.5<br />
2<br />
Wie vermeidet man die Energiedrift für explizites/implizites Euler-Verfahren angewandt auf konservative<br />
Systeme ?<br />
energy<br />
5<br />
4<br />
3<br />
2<br />
1<br />
0<br />
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5<br />
time t<br />
Fig. 39<br />
☞ Expliziter Euler: Anwachsen der Gesamtenergie des Pendels<br />
☞ Impliziter Euler: Pendel kommt zur Ruhe ( numerische Reibung”)<br />
”<br />
Beispiel 1.4.7 (Eulerverfahren für längenerhaltende Evolution).<br />
Anfagswertproblem für , D = R 2 :<br />
( )<br />
y2<br />
ẏ =<br />
−y 1<br />
, y(0) = y 0 ➤ y(t) =<br />
energy<br />
1.5<br />
1<br />
0.5<br />
0<br />
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5<br />
time t<br />
Fig. 40<br />
( )<br />
cost sint<br />
y<br />
− sin t cost 0 .<br />
✸<br />
1.4<br />
p. 74<br />
y<br />
y ∗ y h (t 1 )<br />
y 0<br />
t 0 t 1<br />
t ∗ f(t ∗ ,y ∗ )<br />
t<br />
Fig. 43<br />
Idee: Approximiere Lösung durch (t 0 ,y 0 ) auf<br />
[t 0 ,t 1 ] durch<br />
• lineares Polynom durch (t 0 ,y 0 )<br />
• mit Steigung f(t ∗ ,y ∗ ),<br />
t ∗ := 1 2 (t 0 + t 1 ), y ∗ = 1 2 (y 0 + y 1 )<br />
✁ — ˆ= Lösungkurve durch (t 0 , y 0 ),<br />
— ˆ= Lösungkurve durch (t ∗ , y ∗ ),<br />
— ˆ= Tangente an — in (t ∗ ,y ∗ ).<br />
Anwendung auf kleine Zeitintervalle [t 0 ,t 1 ], [t 1 , t 2 ], . .., [t N−1 , t N ] ➤ implizite Mittelpunktsregel<br />
durch implizite Mittelpunktsregel erzegte Näherung y k+1 für y(t k ) erfüllt<br />
y k+1 := y h (t k+1 ) = y k + h k f( 1 2 (t k + t k+1 ), 1 2 (y k + y k+1 )) , k = 0, ...,N − 1 , (1.4.11)<br />
mit lokaler (Zeit)schrittweite h k := t k+1 − t k . p. 76<br />
1.4
p<br />
p<br />
p<br />
Beachte: (1.4.11) erfordert Auflösen einer (evtl. nichtlinearen) Gleichung nach y k+1 !<br />
(➤ Terminologie ”<br />
implizit”)<br />
Bemerkung 1.4.8 (Implizite Mittelpunktsregel als Differenzenverfahren).<br />
2<br />
1.5<br />
1<br />
exact solution<br />
explicit Euler<br />
implicit Euler<br />
implicit midpoint<br />
40 timesteps on [0,10.000000]<br />
1.5<br />
1<br />
exact solution<br />
explicit Euler<br />
implicit Euler<br />
implicit midpoint<br />
160 timesteps on [0,10.000000]<br />
(1.4.11) aus Approximation der Zeitableitung<br />
dt d durch zentralen Differenzenquotienten auf Zeitgitter<br />
G := {t 0 , t 1 ,...,t N }:<br />
ẏ = f(t,y) ←→ y h(t k+1 ) − y h (t k )<br />
h k<br />
= f( 1 2 (t k + t k+1 ), 1 2 (y h(t k ) + y(t k+1 )), k = 0, ...,N − 1 .<br />
Beispiel 1.4.9 (Implizite Mittelpunktsregel für logistische Dgl.).<br />
△<br />
y 2<br />
0.5<br />
0<br />
−0.5<br />
−1<br />
−1.5<br />
−2<br />
−2.5<br />
−3<br />
−4 −3 −2 −1 0 1 2<br />
y 1<br />
3<br />
Fig. 46<br />
y 2<br />
0.5<br />
0<br />
−0.5<br />
−1<br />
−1.5<br />
−1.5 −1 −0.5 0<br />
y 1<br />
0.5 1 1.5<br />
Fig. 47<br />
Wiederholung der numerischen Experimente aus Beispiel 1.4.3 für implizite Mittelpunktsregel (1.4.11):<br />
☞ Implizite Mittelpunktsregel: Perfekte Längenerhaltung !<br />
✸<br />
✬<br />
Lemma 1.4.2 (Erhaltung quadratischer erster Integrale durch implizite Mittelpunktsregel).<br />
Falls I : D ⊂ R d ↦→ R, I(y) := 2 1yT Ay, A ∈ R d,d , erstes Integral (→ Def. 1.2.1) der<br />
autonomen Dgl. ẏ = f(y) mit global differenzierbarer rechter Seite f : D ↦→ R d , dann gilt<br />
✩<br />
1.4<br />
p. 77<br />
✫<br />
I(y k ) = I(y 0 ) ∀k ∈ Z für y k gemäss (1.4.11)<br />
Beispiel 1.4.11 (Implizite Mittelpunktsregel für Pendelgleichung).<br />
✪<br />
1.4<br />
p. 79<br />
10 −1<br />
10 −2<br />
error (Euclidean norm)<br />
10 −3<br />
10 −4<br />
10 −5<br />
10 −6<br />
10 −6<br />
10 −8<br />
10 −10<br />
10 −7<br />
10 −8<br />
λ = 1.000000<br />
λ = 2.000000<br />
λ = 5.000000<br />
λ = 10.000000<br />
10 −12<br />
10 −14<br />
10 0 timestep h<br />
10 −2<br />
10 −4<br />
error (Euclidean norm)<br />
λ = 10.000000<br />
λ = 20.000000<br />
λ = 50.000000<br />
λ = 90.000000<br />
O(h 2 )<br />
10 −9<br />
10 −3 10 −2 10 −1 10 0<br />
Fig. 44<br />
λ klein: O(h 2 )-Konvergenz (asymptotisch)<br />
10 0 timestep h<br />
Anfangswertproblem und numerische Experimente wie in Bsp. 1.4.6<br />
6<br />
4<br />
2<br />
0<br />
exact solution<br />
explicit Euler<br />
implicit Euler<br />
implicit midpoint<br />
50 timesteps on [0,5.000000]<br />
6<br />
4<br />
2<br />
100 timesteps on [0,5.000000]<br />
4<br />
3<br />
2<br />
1<br />
200 timesteps on [0,5.000000]<br />
−2<br />
−4<br />
0<br />
−2<br />
0<br />
−1<br />
−2<br />
O(h 2 )<br />
10 −16<br />
10 −3 10 −2 10 −1 10 0<br />
Fig. 45<br />
λ gross: stabil für alle Zeitschrittweiten h ! ✸<br />
−6<br />
−8<br />
−10 −8 −6 −4 −2 0 2 4<br />
α<br />
−4<br />
exact solution<br />
explicit Euler<br />
implicit Euler<br />
implicit midpoint<br />
Fig. 48<br />
−6<br />
−2 −1.5 −1 −0.5 0 0.5 1 1.5 2 2.5<br />
Fig. 49<br />
−4<br />
−1.5 −1 −0.5 0 0.5 1 1.5<br />
Fig. 50<br />
α<br />
−3<br />
exact solution<br />
explicit Euler<br />
implicit Euler<br />
implicit midpoint<br />
α<br />
Beispiel 1.4.10 (Implizite Mittelpunktregel für Kreisbewegung).<br />
1.4<br />
p. 78<br />
1.4<br />
p. 80
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5<br />
3<br />
Energies for implicit midpoint discrete evolution<br />
Bemerkung 1.4.12 (Störmer-Verlet-Verfahren als Differenzenverfahren).<br />
energy<br />
2.5<br />
2<br />
1.5<br />
1<br />
0.5<br />
kinetic energy<br />
potential energy<br />
total energy<br />
0<br />
time t<br />
Fig. 51<br />
✁ Verhalten der Energien bei numerischer<br />
Integration mit impliziter Mittelpunktsregel<br />
(1.4.11), N = 50.<br />
Keine (sichtbare) Energiedrift im Vergleich zu<br />
Euler-Verfahren (trotz grosser Zeitschritte)<br />
✸<br />
(1.4.14) aus Approximation der zweiten Zeitableitung durch zweiten zentralen Differenzenquotienten<br />
auf Zeitgitter G := {t 0 ,t 1 , ...,t N }: für uniforme Zeitschrittweite h > 0<br />
ÿ = f(y) ←→<br />
y h (t k+1 )−y h (t k )<br />
h − y h(t k )−y h (t k−1 )<br />
h = y h(t k+1 ) − 2y h (t k ) + y h (t k−1 )<br />
h<br />
h 2 = f(y h (t k )) .<br />
Bemerkung 1.4.13 (Startschritt für Störmer-Verlet-Verfahren).<br />
Anfangswerte für (1.4.12), siehe Bem. 1.1.6: y(0) = y 0 , ẏ(0) = v 0<br />
△<br />
1.4.4 Störmer-Verlet-Verfahren [13]<br />
Benutze virtuellen Zeitpunkt t −1 := t 0 − h 0<br />
Wende (1.4.14) an auf [t −1 , t 1 ]:<br />
?<br />
Übertragung der Idee der Euler-Verfahren (→ Sect. 1.4.1, 1.4.2) auf Differentialgleichungen 2.<br />
Ordnung<br />
ÿ = f(t,y) . (1.4.12)<br />
1.4<br />
p. 81<br />
Zentraler Differenzenquotient auf [t −1 , t 1 ]:<br />
y 1 = −y −1 + 2y 0 + h 2 0 f(t 0,y 0 ) . (1.4.15)<br />
y 1 − y −1<br />
2h 0<br />
= v 0 . (1.4.16)<br />
1.4<br />
p. 83<br />
Gegeben y k−1 ≈ y(t k−1 ), y k ≈ y(t k ) approximiere y(t) auf [t k−1 ,t k+1 ] durch<br />
• Parabel p(t) durch (t k−1 ,y k−1 ), (t k ,y k ) (∗),<br />
• mit<br />
¨p(t k ) = f(y k ) (∗).<br />
Berechne y 1 aus (1.4.15) & (1.4.16)<br />
Beispiel 1.4.14 (Störmer-Verlet-Verfahren für Pendelgleichung).<br />
△<br />
(∗) ➜<br />
Parabel eindeutig bestimmt.<br />
y k+1 := p(t k+1 ) ≈ y(t k+1 )<br />
(1.4.14) angewandt auf (1.2.10)<br />
Startschritt gemäss Bem. 1.4.13<br />
5<br />
4<br />
3<br />
Pendulum g = 9.800000, l = 1.000000,α(0)=1.570796,p(0)=0.000000<br />
Störmer-Verlet-Verfahren für (1.4.12) (Zeitgitter G := {t 0 ,t 1 , ...,t N }):<br />
y k+1 = − h (<br />
k<br />
y<br />
h k−1 + 1 + h )<br />
k<br />
y<br />
k−1 h k + 1 2 (h2 k + h kh k−1 )f(t k ,y k ) , k = 1,...,N − 1 .<br />
k−1<br />
Für uniforme Zeitschrittweite h:<br />
(1.4.13)<br />
Uniforme Zeitschrittweitee h := T/N, N ∈ N<br />
Zeitschritte<br />
Referenzlösung durch MATLAB-Funktion<br />
ode45() (extrem kleine Toleranzen)<br />
α 0 = π/2, p 0 = 0, T = 5, vgl. Bsp. 1.4.6<br />
velocity p<br />
2<br />
1<br />
0<br />
−1<br />
−2<br />
−3<br />
y k+1 = −y k−1 + 2y k + h 2 f(t k ,y k ) , k = 1, ...,N − 1 . (1.4.14)<br />
Beachte: (1.4.13) erfordert nicht das Lösen einer Gleichung (➤ explizites Verfahren)<br />
Anzahl Zeitschritte: N = 40<br />
−4<br />
−5<br />
−2 −1.5 −1 −0.5 0.5 1 0<br />
angle α<br />
1.5 2<br />
Fig. 52<br />
Terminologie: y k+1 = y k+1 (y k ,y k−1 ) ➤ (1.4.13) ist ein Zweischrittverfahren<br />
(Explizites/implizites Euler-Verfahren, Mittelpunktsregel = Einschrittverfahren)<br />
1.4<br />
p. 82<br />
1.4<br />
p. 84
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5<br />
2<br />
Pendulum g = 9.800000, l = 1.000000,α(0)=1.570796,p(0)=0.000000<br />
5<br />
Pendulum g = 9.800000, l = 1.000000,α(0)=1.570796,p(0)=0.000000<br />
Ordnung, siehe (1.1.5): mit v k+ 1<br />
2<br />
:= y k+1−y k<br />
h<br />
angle α<br />
1.5<br />
1<br />
0.5<br />
0<br />
−0.5<br />
−1<br />
velocity p<br />
4<br />
3<br />
2<br />
1<br />
0<br />
−1<br />
−2<br />
−3<br />
ÿ = f(y)<br />
↕<br />
y k+1 − 2y k + y k−1 = h 2 k f(y k)<br />
←→<br />
←→<br />
ẏ = v ,<br />
˙v = f(y) .<br />
↕<br />
v k+ 1 = v k + h<br />
2<br />
2 f(y k) ,<br />
y k+1 = y k + hv k+ 1 ,<br />
2<br />
v k+1 = v k+ 1 + h<br />
2<br />
2 f(y k+1) .<br />
−1.5<br />
−2<br />
time t<br />
Fig. 53<br />
−4<br />
−5<br />
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5<br />
time t<br />
Fig. 54<br />
Zweischrittverfahren<br />
Einschrittverfahren<br />
Startschritt (→ Bem. 1.4.13) ist implizit in der Einschrittformulierung enthalten.<br />
△<br />
Bemerkung 1.4.16 (Störmer-Verlet-Verfahren als Polygonzugmethode).<br />
10<br />
Energies for Stoermer−Verlet discrete evolution<br />
1.4<br />
p. 85<br />
y/v<br />
1.4<br />
p. 87<br />
9<br />
8<br />
energy<br />
7<br />
6<br />
5<br />
4<br />
3<br />
2<br />
1<br />
kinetic energy<br />
potential energy<br />
total energy<br />
0<br />
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5<br />
time t<br />
Fig. 55<br />
☞ Keine Energiedrift trotz grosser Zeitschrittweite<br />
Perfekt periodische Orbits !<br />
Kontrast: Bsp. 1.4.6<br />
✸<br />
Perspektive: Störmer-Verlet-Verfahren<br />
als Einschrittverfahren<br />
(siehe Bem. 1.4.15)<br />
v k+ 1 = v<br />
2 k− 1 + hf(y k ) ,<br />
2<br />
y k+1 = y k + hv k+ 1 .<br />
2<br />
v k−3/2<br />
v k−1/2<br />
v k+1/2<br />
△<br />
y k<br />
f<br />
f<br />
y k−2<br />
y k−1<br />
y k+1<br />
Bemerkung 1.4.15 (Einschrittformulierung des Störmer-Verlet-Verfahrens).<br />
t k−2 t k−1 t k t k+1<br />
t<br />
Für uniforme Zeitschrittweite, vgl. (1.4.14), analog zur Umwandlung einer Dgl. 2. Ordnung → Dgl. 1.<br />
Erinnerung (Bem. 1.2.2) an die Frage<br />
für ODEs?”<br />
”<br />
Warum viele verschiedene numerischer Lösungsverfahren<br />
1.4<br />
p. 86<br />
Antwort:<br />
Jeder numerische Integrator hat spezielle Eigenschaften<br />
1.4<br />
➥ besonders geeignet/ungeeignet für bestimmte Klassen von AWPe p. 88
2 Einschrittverfahren<br />
Baustein: Zeitgitter G := {t 0 , t 1 , . ..,t N = T } , t 0 < t 1 < · · · < t N .<br />
(Terminologie: t k ˆ= Gitterpunkte, lokale (Zeit)schrittweite h k := t k+1 − t k )<br />
✎ Notation: globale Zeitschrittweite h = h G = max<br />
0≤i
Definition 2.1.3 (Diskretisierungsfehler).<br />
Für gegebenes T ∈ J(t 0 ,y 0 ), sei y : [t 0 , T] ↦→ R d Lösung des AWP (1.1.6)<br />
y G eine Näherungslösung auf dem Gitter G = {t 0 < t 1 < · · · < t N = T }.<br />
Diskretisierungsfehler<br />
Definition 2.1.4 (Konvergenz und Konvergenzordnung).<br />
Das ESV (2.1.1) zum AWP (1.1.6) konvergiert, falls<br />
∀ǫ > 0: ∃δ > 0: ∀Zeitgitter G: h G ≤ δ ⇒<br />
(Kurz: ǫ G → 0, falls h G → 0)<br />
ǫ G := max<br />
0≤k≤N ‖y(t k) − y k ‖ .<br />
ESV wohldefiniert,<br />
ǫ G ≤ ǫ .<br />
Das ESV heisst (algebraisch) konvergent von der Ordnung p ∈ N, falls<br />
✗<br />
✖<br />
d<br />
(<br />
Ψ s,t y<br />
dt<br />
)<br />
Falls Ψ (i)–(iii) erfüllt, dann gilt Ψ = Φ !<br />
Ψ s,t+τ y − Ψ s,t y (iii) Ψ t,t+τ (Ψ s,t y) − Ψ t,t (Ψ s,t y) (ii)<br />
= lim<br />
= lim<br />
= f(t,Ψ s,t y) .<br />
τ→0 τ τ→0 τ<br />
t ↦→ Ψ s,t löst das gleiche Anfangswertproblem für ẏ = f(t,y) wie t ↦→ Φ s,t y. Mit Satz von Picard-<br />
Lindelöf Thm. 1.3.4 folgt Ψ = Φ.<br />
Definition 2.1.5 (Konsistenz einer diskreten Evolution).<br />
Diskrete Evolution Ψ ist konsistent mit der ODE ẏ = f(t,y), falls für alle (t,y) ∈ Ω<br />
Ψ t,t d<br />
y = y und<br />
ds Ψt,t+s y<br />
∣ = f(t,y) .<br />
s=0<br />
✔<br />
✕<br />
ESV wohldefiniert,<br />
∃h 0 > 0, C > 0:<br />
ǫ G ≤ Ch p G<br />
(Kurzschreibweise mit Landau-Symbol ǫ G = O(h p ))<br />
∀Zeitgitter G, h G ≤ h 0 .<br />
2.1<br />
Erweiterung: Kovergenz für alle (t 0 ,y 0 ) ∈ Ω ➣ globale Konvergenz p. 93<br />
Beachte: Kovergenz ist ein asymptotischer Begriff (h G → 0)<br />
2.1.2 Konsistenz [5, Sect. 4.1.1]<br />
✬<br />
Lemma 2.1.6 (Darstellung konsistenter diskreter Evolutionen).<br />
(t,y) ∈ Ω, s ↦→ Ψ t,t+s y stetig differenzierbar in Umgebung von 0. Ψ is genau dann konsistent<br />
mit ẏ = f(t,y) (→ Def. 2.1.5), wenn eine auf dieser Nullumgebung stetige Inkrementfunktion<br />
h ↦→ ψ(t,y, h) existiert mit<br />
Ψ t,t+h y = y + hψ(t,y,h) , ψ(t,y, 0) = f(t,y) . (2.1.2)<br />
✩<br />
2.1<br />
p. 95<br />
Kontinuierliche Evolution (→ Def. 1.3.5) ←→<br />
Diskrete Evolution<br />
Φ s,t<br />
Ψ s,t<br />
erfüllt für alle (t,y) ∈ Ω<br />
sollte erfüllen:<br />
(i) Φ t,t y = y<br />
(i) Ψ t,t y = y klar!<br />
(ii) d ds Φt,t+s y<br />
d<br />
∣ = f(t,y)<br />
(ii)<br />
s=0 ds Ψt,t+s y<br />
∣ = f(t,y) unbedingt!<br />
s=0<br />
(iii) Φ r,s Φ t,r y = Φ t,s y ∀r,s ∈ J(t,y) (iii) Ψ r,s Ψ t,r y = Ψ t,s y ∀r, s ∈ J(t,y) utopisch!<br />
Unter der Annahme, dass t ↦→ Ψ s,t y differenzierbar:<br />
✫<br />
Definition 2.1.7 (Konsistenzfehler einer diskreten Evolution).<br />
Konsistenzfehler: τ(t,y,h) := Φ t,t+h y − Ψ t,t+h y (h hinreichend klein); .<br />
✬<br />
Lemma 2.1.8 (Konsistenz und Konsistenzfehler).<br />
Sei (t,y) ∈ Ω, s ↦→ Ψ t,t+s y stetig differenzierbar in Umgebung von 0. Ψ is genau dann<br />
konsistent mit ẏ = f(t,y) (→ Def. 2.1.5), wenn für den Konsistenzfehler gilt<br />
‖τ(t,y, h)‖ = o(h) für h → 0 lokal gleichmässig in (t,y) ∈ Ω .<br />
✪<br />
✩<br />
2.1<br />
p. 94<br />
✫<br />
✎<br />
Notation:<br />
✪<br />
2.1<br />
g(h)<br />
Landau-o”: g(h) = o(h) :⇔<br />
” h → 0 für h → 0 p. 96
Interpretation:<br />
✓<br />
✏<br />
Konsistenzfehler = Einschrittfehler<br />
✒<br />
✑<br />
— ˆ= exakte Lösung durch (y,y)<br />
— ˆ= Näherungslösung aus diskreter Evolution<br />
D<br />
t<br />
y<br />
Ψ t,t+h y<br />
τ(t,y, h)<br />
Φ t,t+h y<br />
t + h<br />
D(y) := x -> f(y(x));<br />
D (y) := x ↦→ f (y (x))<br />
y0 := y(0);<br />
y0 := y (0)<br />
solve(y0+h*f((y0+y1)/2)=y1,{y1});<br />
{y1 = RootOf (−y (0) − hf (1/2y (0) + 1/2 Z) + Z)}<br />
assign(%);<br />
taylor(y1-y(h),h=0,4);<br />
(( (<br />
series −1/6 D (2)) (f) (y (0)) (f (y (0))) 2 − 1/6 (D (f) (y (0))) 2 f (y (0))<br />
((<br />
+ 1/8 f (y (0)) D (2)) (f) (y (0)) f (y (0)) + 2 (D (f) (y (0))) 2) ) (<br />
h 3 + O h 4) )<br />
,h, 4<br />
Definition 2.1.9 (Konsistenzordnung einer diskreten Evolution).<br />
Eine diskrete Evolution hat Konsistenzordnung p ∈ N, falls für den Konsistenzfehler lokal<br />
gleichmässig in Ω gilt<br />
‖τ(t,y, h)‖ = O(h p+1 ) für h → 0 . (2.1.3)<br />
Implizite Mittelpunktsregel hat Konsistenzordnung 2 !<br />
Bestimmung der formalen Konsistenzordnung eines ESV immer unter der Annahme<br />
hinreichender (∗) Glattheit der exakten Lösung !<br />
✸<br />
Dass (2.1.3) lokal gleichmässig gilt bedeutet<br />
∀(t,y) ∈ Ω: ∃h 0 , δ,C > 0: τ(˜t,ỹ,h) ≤ Ch p+1 ∀˜t,ỹ,h: |˜t − t| ≤ δ, ‖ỹ − y‖ ≤ δ ,<br />
0 ≤ h ≤ h 0 .<br />
2.1<br />
p. 97<br />
(∗):<br />
” hinreichend” ˆ= so glatt, wie für Taylorentwicklung erforderlich p. 99<br />
2.1<br />
Wegen der Äquivalenz aller Normen auf dem endlichdimensionalen Raum R d ist die Wahl der Norm<br />
in den Definitionen 2.1.7 und 2.1.9 belanglos.<br />
Falls exakte Lösung nicht hinreichend glatt ☞ eingeschränkte Bedeutung der Konsistenzordnung<br />
für das tatsächliche Verhalten eines Verfahrens.<br />
Technik zur Bestimmung der Konsistenzordnung:<br />
Taylor-Entwicklung<br />
In dieser Vorlesung:<br />
Beispiel 2.1.3 (Konsistenzordnung einfacher Einschrittverfahren).<br />
(Oft) stillschweigende Annahme ”<br />
hinreichender Glattheit” !<br />
Implizite Mittelpunktsregel (1.4.11): y 1 = y 0 + hf( 1 2 (t 0 + t 1 ), 1 2 (y 0 + y 1 ))<br />
Beachte: Keine explizite Formel für Ψ ! (“implicit” method)<br />
Für die ”<br />
faulen” Leute: Computeralgebra (MAPLE) !<br />
2.1.3 Konvergenz<br />
2.1<br />
p. 98<br />
Betrachte wird Anfangswertproblem<br />
ẏ = f(t,y) , y(t 0 ) = y 0 für ein (t 0 ,y 0 ) ∈ Ω := I × D . 1.1.6<br />
Annahme: rechte Seite f : Ω ↦→ R d lokal Lipschitz-stetig (→ Def. 1.3.2)<br />
Thm. 1.3.4 ➣ Existenz & Eindeutigkeit von Lösung t ↦→ y(t)<br />
2.1<br />
p. 100
Betrachte Einschrittverfahren (→ Def. 2.1.1) mit Verfahrensfunktion<br />
Ψ : Ω h ⊂ I × I × D ↦→ R d<br />
Beweis. (durch Induktion nach N)<br />
Ψ t,t+h y := y + hψ(t,y,h) . (2.1.5)<br />
Inkrementfunktion<br />
Annahme: Lokale Abschätzung für Konsistenzfehler(→ Def. 2.1.7): für ein p ∈ N<br />
∥<br />
∀(t,y) ∈ Ω: ∃C c > 0,δ > 0: ∥Φ t,t+h y − Ψ t,t+h y∥ ≤ C c h p+1 ∀|h| hinreichend klein ,<br />
∀ty: |t − t| < δ, ‖y − y‖ < δ .<br />
Beachte: Konsistenzordnung p für diskrete Evolution Ψ bzgl. ẏ = f(t,y) ⇒ (2.1.6)<br />
(2.1.6)<br />
y G = (y k ) N k=0 : Gitterfunktion erzeugt durch ESV Ψ auf Zeitgitter (T > t 0 ˆ= Endzeitpunkt) )<br />
vgl. Def. 2.1.1.<br />
G := {t 0 < t 1 < · · · < t N = T } ⊂ J(t 0 ,y 0 ) ,<br />
Mit der Konvention, dass leere Summen verschwinden, gilt die Behauptung für N = 0 (Induktionsbeginn)<br />
Induktionsschluss:<br />
ξ N+1<br />
(2.1.7)<br />
≤ Ch p+1<br />
N + (1 + lh N)ξ<br />
⎛ N<br />
⎛<br />
⎞<br />
⎞<br />
∗<br />
≤ Ch p+1<br />
N + (1 + Lh N) ⎝C ( N−1 ) 1<br />
max<br />
k=0 hp k<br />
⎝exp ( N−1 ∑ )<br />
L h<br />
L<br />
k − 1 ⎠ + exp ( N−1 ∑ )<br />
L h k ξ0 ⎠<br />
k=0<br />
k=0<br />
⎛<br />
<br />
≤ C ( N )<br />
max<br />
k=0 hp k<br />
⎝h N + 1 (<br />
exp ( N∑ ) ) ⎞<br />
L h<br />
L k − 1 − LhN ⎠ + exp ( N∑ )<br />
L h k ξ0<br />
k=0<br />
k=0<br />
Das ist die Behauptung des Lemmas für N + 1.<br />
∗: Benutzt die Induktionsannahme, d.h., die Behauptung des Lemmas für ξ N .<br />
Benutzt die elementare Abschätzung 1+x ≤ exp(x), x ∈ R (Konvexität der Exponentialfunktion).<br />
✬<br />
Theorem 2.1.10 (Kovergenztheorem für Einschrittverfahren).<br />
Es gelte Annahme (2.1.6) und die Darstellung (2.1.5). Ist die Inkrementfunktion ψ lokal<br />
Lipschitz-stetig (→ Def. 1.3.2) in der Zustandsvariablen y, dann<br />
(i) liefert die Verfahrensfunktion Ψ für alle Zeitgitter G mit hinreichend kleinem h G eine<br />
Gitterfunktion y G zum Anfangswert y 0 ,<br />
(ii) konvergiert diese Familie {y G } G von Gitterfunktionen von der Ordnung p gegen t ↦→ y(t),<br />
siehe Def. 2.1.4<br />
✫<br />
Hilfsmittel beim Beweis:<br />
✩<br />
✪<br />
2.1<br />
p. 101<br />
Beweis von Thm. 2.1.10.<br />
➀ Kompakte Umgebung der Lösungstrajektorie t ↦→ y(t) zum Anfangswert y 0 :<br />
Für hinreichend kleines δ > 0:<br />
K δ := {(t,y) ∈ I × R d : t 0 ≤ t ≤ T, ‖y − y(t)‖ ≤ δ} , δ > 0 .<br />
K δ ⊂ Ω<br />
Infolge der lokalen Lipschitz-Bedingung an ψ und der lokalen Konsistenzfehlerabschätzung (2.1.6)<br />
➁ Annahme A1: (y k ) N k=0 existiert und y k ∈ K δ ⊂ Ω für ein δ > 0. Diese Annahme wird a posteriori<br />
(durch Induktion nach N) für hinreichend kleines h G besätigt.<br />
2.1<br />
p. 103<br />
✬<br />
Lemma 2.1.11 (Diskretes Gronwall-Lemma, siehe Lemma 1.3.7).<br />
Erfüllt die Folge (ξ k ) k∈N0 , ξ k ≥ 0, die Differenzenungleichung<br />
✫<br />
ξ k+1 ≤ Ch p+1<br />
k + (1 + Lh k )ξ k , k ∈ N 0 , L,C,h k ≥ 0 , (2.1.7)<br />
so gilt<br />
⎛<br />
⎞<br />
ξ N ≤ C ( ) 1<br />
max<br />
k=0,...,N−1 hp k<br />
⎝exp ( N−1 ∑ )<br />
L h<br />
L<br />
k − 1 ⎠ + exp ( N−1 ∑ )<br />
L h k · ξ0 , N ∈ N 0 .<br />
k=0<br />
k=0<br />
✩<br />
✪<br />
2.1<br />
p. 102<br />
➂ Beachte y k+1 = Ψ t k,t k+1 y k ➣ Rekursion für Fehler e k := y(t k ) − y k<br />
(<br />
)<br />
)<br />
e k+1 = y(t k+1 ) − Ψ t k,t k+1y(tk ) +<br />
(Ψ t k,t k+1y(tk ) − Ψ t k,t k+1yk<br />
} {{ } } {{ }<br />
Einschrittfehler<br />
propagierter Fehler<br />
(2.1.5)<br />
= τ(t k ,y(t k ), h k ) + e k + h k (ψ(t k ,y(t k ), h k ) − ψ(t k ,y k , h k )) ,<br />
wobei die Def. 2.1.7 des Konsistenzfehlers τ benutzt worden ist.<br />
➃ Kompaktheitsargumente:<br />
(2.1.8)<br />
2.1<br />
p. 104
Konsequenz der lokalen Konsistenzfehlerabschätzung (2.1.6): für |h| hinreichend klein<br />
∥<br />
∃C > 0: ∥Φ t,t+h y − Ψ t,t+h y∥ ≤ C c h p+1 ∀(t,y), (t + h,y) ∈ K δ . (2.1.9)<br />
Konsequenz der lokalen Lipschitz-Stetigkeit (→ Def. 1.3.2) der Inkrementfunktion ψ: für |h|<br />
hinreichend klein<br />
∃L > 0: ‖ψ(t,z, h) − ψ(t,w,h)‖ ≤ L ‖z − w‖ ∀(t,z), (t,w) ∈ K δ . (2.1.10)<br />
2.1.4 Das Äquivalenzprinzip (Dahlquist, Lax)<br />
Ziel: Abstraktion des Beweises von Thm. 2.1.10<br />
Betrachte: Äquidistante Zeitgitter G = {t k } N k=0 , t k := t 0 + hk, h := (T − t 0 )/N, N ∈ N<br />
➄ (2.1.8) & △-Ungleichung ⇒ Rekursion für Fehlernorm:<br />
‖e k+1 ‖ ≤ ‖e k ‖ + ‖τ(t k ,y(t k ), h k )‖ + h k ‖ψ(t k ,y(t k ),h k ) − ψ(t k ,y k , h k )‖<br />
(2.1.10)<br />
≤ ‖e k ‖ + ‖τ(t k ,y(t k ), h k )‖ + h k L ‖y(t k ) − y k ‖<br />
(2.1.9)<br />
≤ Ch p+1<br />
k + (1 + Lh k ) ‖e k ‖ .<br />
(Annahme:<br />
diskrete Evolution Ψ<br />
Gitterfunktion y G = (y k ) N k=0<br />
G ⊂ J(t 0 ,y 0 ), y G wohldefiniert)<br />
←→<br />
(kontinuierliche) Evolution Φ<br />
Lösung t ↦→ y(t)<br />
Anwendung des diskreten Gronwall-Lemmas mit ξ k := ‖e k ‖, ξ 0 = 0:<br />
Lemma 2.1.11 ⇒ ‖e k ‖ ≤ Ch p exp(L(T − t 0 )) − 1<br />
G<br />
.<br />
L<br />
➅ Die Abschätzung zeigt, dass y k − y(t k ) → 0 für h G → 0. Damit kann durch Induktion bewiesen<br />
werden<br />
∀δ > 0: ∃h ∗ = h ∗ (δ) > 0: h G < h ∗ ⇒ (t k ,y k ) ∈ K δ ∀k .<br />
Damit ist Annahme A1 gerechtfertigt.<br />
Beachte: Der Beweis benutzt nur den Konsistenzfehler entlang der Lösungstrajektorie τ(t,y(t), h).<br />
Man kann also die Voraussetzung der Konsistenzordung p (→ Def. 2.1.9) schwächer formulieren<br />
als<br />
‖τ(t,y(t),h)‖ ≤ C c h p+1<br />
∀t ∈ [t 0 ,T] , für h hinreichend klein.<br />
✷<br />
2.1<br />
p. 105<br />
D<br />
y(t)<br />
y k+1 Ψ y k+2<br />
Ψ<br />
y k<br />
Ψ<br />
y k−1<br />
t k−1 t k t k+1 t k+2<br />
t<br />
Konsistenzfehler, vgl. Def. 2.1.7:<br />
τ(t,y,h) := (Φ t,t+h y − Ψ t,t+h y) .<br />
Fehlerfunktion: e k := y(t k ) − y k .<br />
✁ — ˆ= t ↦→ y(t)<br />
• ˆ= y(t k )<br />
• ˆ= y k<br />
−→ ˆ= Ψ t k,t k+1<br />
2.1<br />
p. 107<br />
Merkregel: (Nur) für Einschrittverfahren:<br />
✗<br />
✖<br />
Konsistenzordnung p =⇒ Konvergenzordnung p<br />
Aus dem diskreten Gronwall-Lemma ergibt sich, dass die Konstante in der asymptotischen Fehlerabschätzung<br />
von Thm. 2.1.10 exponentiell von T − t 0 abhängt. Dies macht die Abschätzung des<br />
Theorems u.U. wertlos für Langzeitintegration, vgl. Lemma 4.4.17.<br />
✔<br />
✕<br />
Fehlerrekursion<br />
e k = y(t k ) − y k<br />
= y(t k ) − Ψ t k−1,t k(y(tk−1 ) + e k−1 )<br />
= Ψ t k−1,t k(y(tk−1 )) − Ψ t k−1,t k(y(tk−1 ) + e k−1 )<br />
} {{ }<br />
fortgepflanzter Fehler<br />
+ y(t k ) − Ψ t k−1,t k(y(tk−1 ))<br />
} {{ }<br />
Einschrittfehler = Konsistenzfehler<br />
e k−1<br />
y k−1<br />
y k<br />
e k<br />
Ψ t k−1,t k<br />
(y(t k−1 )<br />
y(t k )<br />
y(t k−1 )<br />
Fig. 56<br />
t k−1 t k<br />
2.1<br />
p. 106<br />
Konzept: Stabilität einer diskreten Evolution ←→ Kontrolle der Fehlerfortpflanzung<br />
2.1<br />
p. 108
Definition 2.1.12 (Nichtlineare Stabilität).<br />
Eine diskrete Evolution Ψ ist (nichtlinear) stabil<br />
∥<br />
:⇔ ∃c > 0: ∥Ψ t,t+h y − Ψ t,t+h z∥ ≤ (1 + ch) ‖y − z‖<br />
lokal gleichmässig in (t,y) für hinreichend kleine ‖y − z‖, h > 0.<br />
Für ESV (2.1.5): Lokale Lipschitz-Stetigkeit von ψ ➣ nichtlineare Stabilität<br />
Unter der Annahme der Eindeutigen Auflösbarkeit der Definitionsgleichung (1.4.11) nach y k+1 :<br />
⇒ y = Ψ t+h,t Ψ t,t+h y .<br />
Störmer-Verlet-Verfahren (→ Sect. 1.4.4) in Einschrittformulierung von Bem. 1.4.15<br />
v k+ 1 = v k + h<br />
2<br />
2 f(y k) ,<br />
y k+1 = y k + hv k+ 1 ,<br />
2<br />
v k+1 = v k+ 1 + h<br />
2<br />
2 f(y k+1) .<br />
⇒<br />
v k+ 1 = v k+1 − h<br />
2<br />
2 f(y k+1) ,<br />
y k = y k+1 − hv k+ 1 ,<br />
2<br />
v k = v k+ 1 − h<br />
2<br />
2 f(y k) .<br />
✬<br />
Theorem 2.1.13 ( Konsistenz & (nichtlineare) Stabilität ⇒ Konvergenz ).<br />
Falls Ψ konsistent mit Φ (von Ordnung p) und (nichtlinear) stabil, so konvergiert das Einschrittverfahren<br />
global (von Ordnung p).<br />
✫<br />
✩<br />
✪<br />
Man erkennt Reversibilität an der Verfahrensvorschrift, wenn der Austausch y k ↔ y k+1 und h ↔<br />
−h Gleichungen liefert, die mit der ursprünglichen Verfahrensvorschrift identisch sind.<br />
✸<br />
✬<br />
✩<br />
2.1.5 Reversibilität<br />
2.1<br />
p. 109<br />
Theorem 2.1.15 (Konsistenzordnung reversibler ESV).<br />
Die maximale Konsistenzordnung (→ Def. 2.1.9) eines reversiblen Einschrittverfahrens (→<br />
Def. 2.1.14) ist gerade.<br />
✫<br />
Der Beweis verwendet folgendes Hilfsresultat ([5, Lemma 4.38]):<br />
✪<br />
2.1<br />
p. 111<br />
✬<br />
✩<br />
Wir haben gesehen: Eine approximative diskrete Evolution Ψ (→ Sect. 2.1.1) kann im Allgemeinen<br />
nicht erfüllen: Ψ r,s Ψ t,r = Ψ t,s<br />
Jedoch: für s = t ist diese Forderung realisierbar !<br />
Definition 2.1.14 (Reversible diskrete Evolutionen).<br />
Eine diskrete Evolution Ψ : ˜Ω h ⊂ I × I × D ↦→ R d (und das zugehörige Einschrittverfahren)<br />
heisst reversibel, falls<br />
Lemma 2.1.16 (Störungslemma für diskrete Evolutionen).<br />
Sei f zweimal stetig differenzierbar und Ψ eine zur ODE ẏ = f(t,y) konsistente (→ Def. 2.1.5)<br />
diskrete Evolution, stetig differenzierbar in h und y. Dann gilt für (t,y) ∈ Ω und hinreichend<br />
kleine z ∈ R d<br />
Ψ t,t+h (y + z) = Ψ t,t+h y + z + h ∂f<br />
∂y (t,y)z + r(h,z) , ‖r(h,z)‖ ≤ C(h2 ‖z‖ + h ‖z‖ 2 ) ,<br />
mit C > 0 unabhängig von h und z.<br />
✫<br />
✪<br />
Ψ t,s Ψ s,t y = y ∀(t,y) ∈ Ω , ∀ |t − s| hinreichend klein .<br />
☞<br />
Thm. 2.1.15 erklärt in Bsp. 1.4.9 beoachtete O(h 2 )-Kovergenz der impliziten Mittelpunktsregel.<br />
Beispiel 2.1.4 (Einfache reversible Einschrittverfahren).<br />
implizite Mittelpunktsregel (1.4.11)<br />
Ψ t,t+h y = y + hf(t + 2 1h, 2 1(y + Ψt,t+h y))<br />
⇓<br />
2.1<br />
y = Ψ t,t+h y − hf(t + h − 2 1h, 2 1(y + Ψt,t+h y) . p. 110<br />
2.2<br />
p. 112
2.2 Kollokationsverfahren[5, Sect. 6.3], [11, Sect. II.1.2]<br />
2.2.1 Konstruktion<br />
Zunächst: Fokus auf ersten (↔ allgemeinem) Schritt<br />
(dies genügt bei Einschrittverfahren → Def. 2.1.1)<br />
s∑<br />
(2.2.1) ⇒ ẏ h (t 0 + τh) = k j L j (τ) , k j := f(t 0 + c j h,y h (t 0 + c j h)) .<br />
j=1<br />
s∑<br />
∫ τ<br />
⇒ y h (t 0 + τh) = y 0 + h k j L j (ζ) dζ .<br />
j=1<br />
0<br />
✗<br />
✖<br />
Idee: ➊ Approximiere y(t), t ∈ [t 0 ,t 1 ], in s + 1-dimensionalem Ansatzraum V von<br />
Funktionen [t 0 ,t 1 ] ↦→ R d ✄ y h .<br />
➋ Festlegung von y h ∈ V durch Kollokationsbedingungen<br />
y h (t 0 ) = y 0 , ẏ h (τ j ) = f(τ j ,y h (τ j )) , j = 1, . ..,s , (2.2.1)<br />
für Kollokationspunkte t 0 ≤ τ 1 < . .. < τ s ≤ t 1 .<br />
” Standardoption”: Polynomialer Ansatzraum V = P s<br />
✔<br />
✕<br />
Definierende Gleichungen des Kollokations-Einschrittverfahrens<br />
(zu Kollokationspunkten 0 ≤ c 1 < c 2 < · · · < c s ≤ 1):<br />
s∑<br />
y h (t 1 ) = y 0 + h b i k i ,<br />
i=1<br />
mit<br />
s∑<br />
k i = f(t 0 + c i h,y 0 + h a ij k j ) .<br />
j=1<br />
∫ ci<br />
a ij = L j (τ) dτ ,<br />
∫<br />
0<br />
1<br />
b i = L i (τ) dτ .<br />
0<br />
(2.2.3)<br />
2.2<br />
p. 113<br />
Diskrete Evolution Ψ t 0,t 1 : Ω ↦→ Ω , Ψ<br />
t 0 ,t 1y0 := y 1 := y h (t 1 )<br />
2.2<br />
p. 115<br />
✎ Notation: P s ˆ= Raum der univariaten Polynome vom Grad ≤ s, s ∈ N 0<br />
Bekannt: dim P s = s + 1<br />
➤ (2.2.3) ˆ= (Nichtlineares) Gleichungssystem für Inkremente k i (≈ ẏ(t 0 + c i h))<br />
✄ (Generische) Kollokationsverfahren = implizites Einschrittverfahren (→ Def. 2.1.1)<br />
➣<br />
Ein Polynom p ∈ P s ist durch s+1 Interpolationsbedingungen für Werte/Ableitungen eindeutig<br />
festgelegt.<br />
Kollokations-Einschrittverfahren in der Form von Lemma 2.1.6:<br />
s∑<br />
Ψ t 0,t 0 +h y 0 = y 0 + hψ(t 0 ,y 0 ,h) mit Inkrementfunktion ψ(t 0 ,y 0 , h) = b i k i . (2.2.4)<br />
i=1<br />
➣<br />
von y h )<br />
Kollokationsbedingungen (2.2.1) legen Polynomgrad s nahe (im Sinne von Existenz/Eindeutigkeit<br />
Bemerkung 2.2.1 (Umformulierung der Inkrementgleichungen (2.2.3)).<br />
Äquivalente Form der Inkrementgleichungen (2.2.3):<br />
Herleitung: Formel für y h (t 1 ) (h := t 1 − t 0 , τ j := t 0 + c j h, 0 ≤ c 1 < c 2 < ... < c s ≤ 1)<br />
Ersetze Inkremente k i durch<br />
s∑<br />
g i := y 0 + h a ij k j , i = 1,...,s ⇔ k i = f(t 0 + c i h,g i ).<br />
j=1<br />
Hilfsmittel: {L j } s j=1 ⊂ P s−1 ˆ= Lagrange-Polynome zu Sützstellen c i , i = 1, . ..,s, in [0, 1]:<br />
s∏ τ − c j<br />
L i (τ) = , i = 1, ...,s ⇒ L<br />
c<br />
j=1,j≠i i − c j (c i ) = δ ij , i,j = 1, ...,s . (2.2.2)<br />
j<br />
2.2<br />
p. 114<br />
(2.2.3) ⇔<br />
s∑<br />
g i = y 0 + h a ij f(t 0 + c i h,g j )<br />
j=1<br />
s∑<br />
y 1 = y 0 + h b i f(t 0 + c i h,g i ) .<br />
i=1<br />
(2.2.5)<br />
2.2<br />
p. 116
△<br />
ist als Störung der Einheitsmatrix inverstierbar für hinreichend kleines h.<br />
✷<br />
✬<br />
Lemma 2.2.1 (Lösbarkeit der Inkrementgleichungen).<br />
Ist f lokal Lipschitz-stetig (→ Def. 1.3.2) auf dem erweiterten Zustandsraum Ω, so gibt es zu<br />
jedem (t 0 ,y 0 ) ∈ Ω ein h 0 > 0 so, dass (2.2.3) für jedes h < h 0 eindeutig nach den Inkrementen<br />
k i auflösbar ist, und diese sind stetige Funktionen in h.<br />
Ist f ∈ C m (Ω, R d ), m ∈ N, dann sind auch die Inkremente m-fach stetig differenzierbare<br />
Funktionen von y 0 , t 0 ,h.<br />
✫<br />
Beweis” (von Lemma 2.2.1, unter stärkeren Voraussetzungen, für autonomen Fall ẏ = f(y))<br />
”<br />
Annahme:<br />
k i = f(y 0 + h<br />
s∑<br />
a ij k j ) ⇔<br />
j=1<br />
f ist stetig differenzierbar auf Ω<br />
⎛<br />
f(y 0 + h s ⎞<br />
∑<br />
a 1j k j )<br />
j=1<br />
G(h, k) = 0 , G(h, k) := k −<br />
.<br />
,<br />
⎜<br />
⎝ ∑<br />
f(y 0 + h s ⎟<br />
a sj k j )<br />
⎠<br />
j=1<br />
✩<br />
✪<br />
2.2<br />
p. 117<br />
Ein alternativer Beweis gibt zusätzliche Schrittweitenschranke für die Existenz einer Lösung der Inkrementgleichungen:<br />
Hilfsmittel bei alternativem Beweis (→ Analysis-Vorlesung):<br />
✬<br />
Theorem 2.2.3 (Banachscher Fixpunktsatz, parameterabhängige Version).<br />
V ⊂ R d abgeschlossen, U ⊂ R n offen, F : U × V ↦→ V sei total m-mal stetig differenzierbar,<br />
m ∈ N 0 , und besitze die gleichmaässige Kontraktionseigenschaft<br />
✫<br />
∃0 ≤ q < 1: ‖F(u,z) − F(u,w)‖ ≤ q ‖z − w‖ ∀z,w ∈ V , ∀u ∈ U .<br />
Dann gibt es eine m-mal stetig differenzierbare Funktion G : U ↦→ V so dass<br />
F(u, G(u)) = G(u) ∀u ∈ U .<br />
✎ Übliche Notation für Koeffizientenmatrix A := ( ) s<br />
a ij i,j=1 ∈ Rs,s 2.2<br />
p. 119<br />
✩<br />
✪<br />
mit k = (k 1 , ...,k s ) T ∈ R s·d .<br />
Idee: Anwendung des Satzes über implizite Funktionen auf G : R × D ↦→ D<br />
✬<br />
Theorem 2.2.2 (Satz über implizite Funktionen).<br />
→ Analysis-Vorlesung<br />
Seien I ⊂ R q , U ⊂ R n offen und G = G(ξ,y) : I × U ↦→ R n sei stetig differenzierbar. Für<br />
ein (ξ 0 ,y 0 ) ∈ I × U gelte G(ξ,y) = 0.<br />
✩<br />
s∑<br />
✎ Zeilensummennorm ‖A‖ ∞ := max |a ij | (ˆ= Matrixnorm zur Maximumnorm)<br />
i=1,...,s j=1<br />
Beweis. (von Lemma 2.2.1 für autonomen Fall ẏ = f(y))<br />
Vorbereitung: Wie im Beweis von Thm. 2.1.10 betrachten wir f wieder auf einer kompakten Umgebung<br />
K δ der L¨soungskurve t ↦→ y(t) im erweiterten Phasenraum Ω. Daher (zunächst) ohne<br />
Beschränkung der Allgemeinheit die Annahme:<br />
f global Lipschitz-stetig, vgl. Def. 1.3.2:<br />
Ist die Jacobi-Matrix ∂G<br />
∂y (ξ 0, y 0 ) invertierbar, dann gibt es eine Umgebung V ⊂ I von ξ 0 und<br />
eine eindeutige stetig differenzierbare Funktion ξ ↦→ z(ξ) so, dass<br />
✫<br />
G(ξ, z(ξ)) = 0 ∀ξ ∈ V .<br />
k 0 := (f(y 0 ),...,f(y 0 )) T erfüllt G(0, k 0 ) = 0<br />
✪<br />
∃L > 0: ‖f(z) − f(w)‖ ≤ L ‖z − w‖ ∀z,w ∈ D . (2.2.6)<br />
Wir nehmen auch an, dass sich eine r-Umgebung von y 0 in D befindet:<br />
∃r > 0: ‖z − y 0 ‖ ≤ r ⇒ z ∈ D .<br />
Idee: Anwendung des Banachschen Fixpunktsatzes Thm. 2.2.3 auf die (äquivalenten) Inkrementgleichungen<br />
(2.2.5) für die g i : mit g := (g 1 ,...,g s ) ∈ R s·d<br />
Ableitung (ˆ= Jacobi-Matrix) von G in (0,k 0 ) (aus Kettenregel)<br />
⎛<br />
D k G(0,k 0 ) = I − h ⎝ a ⎞<br />
11D y f(y 0 ) · a 1s D y f(y 0 )<br />
.<br />
. ⎠ ,<br />
a s1 D y f(y 0 ) · a ss D y f(y 0 )<br />
2.2<br />
p. 118<br />
⎛<br />
y 0 + h s ⎞<br />
∑<br />
a 1j f(g j )<br />
j=1<br />
(2.2.5) ⇔ g = F(h, g) , F(h, g) :=<br />
.<br />
. (2.2.7)<br />
⎜<br />
⎝ ∑<br />
y + h s ⎟<br />
a f(g )<br />
⎠<br />
2.2<br />
p. 120
Auf R s·d verwende Norm<br />
‖g‖ := max<br />
i=1,...,s ‖g i‖.<br />
Dies ist eine Schrittweitenbeschränkung analog der Schrittweitenbeschränkung für das explizite<br />
Euler-Verfahren in der Nähe stark attraktiver Fixpunkte, vgl. Bsp. 1.4.3.<br />
△<br />
Zu zeigen: für hinreichend kleines h bleiben alle g i in der abgeschlossenen r-Umgebung von y 0 : mit<br />
y 0 = (y 0 ,...,y 0 )<br />
∥ ∥∥∥∥∥ s∑<br />
‖F(h, g) − y 0 ‖ = max |h| a ij f(g j )<br />
i=1,...,s j=1 ∥ ≤ |h| ‖A‖ ∞ max<br />
∥<br />
∥f(y 0 ) + f(g j ) − f(y 0 ) ∥ j=1,...,s<br />
⇒<br />
Zu zeigen:<br />
(2.2.6)<br />
≤ |h| ‖A‖ ∞ (‖f(y 0 )‖ + L ‖g − y 0 ‖) .<br />
{<br />
}<br />
r<br />
|h| <<br />
⇒ ‖F(h, g) − y<br />
‖A‖ ∞ (‖f(y 0 )‖ + Lr)<br />
0 ‖ ≤ r , if ‖g − y 0 ‖ ≤ r .<br />
g ↦→ F(h, g) ist h-gleichmässige Kontraktion<br />
s∑<br />
‖F(h, g) − F(h, p)‖ ≤ |h| · max<br />
i=1,...,s<br />
a ij (f(g j ) − f(p j ))<br />
∥j=1<br />
∥<br />
∥<br />
≤ |h| · ‖A‖ ∞ max ∥f(g j ) − f(p j ) ∥ j=1,...,s<br />
≤ |h|L · ‖A‖ ∞ ‖g − p‖ ,<br />
2.2<br />
p. 121<br />
Verifikation einer Voraussetzung von Thm. 2.1.10:<br />
✬<br />
Lemma 2.2.4 (Lipschitz-Stetigkeit der Inkrementfuntion).<br />
Unter den Voraussetzungen von Lemma 2.2.1 existiert zu jedem (t 0 ,y 0 ) ∈ Ω ein h 0 > 0 so,<br />
dass ψ aus (2.2.4) lokal Lipschitz-stetig im Zustandsargument ist.<br />
✫<br />
Beweis. (für autonome ODE)<br />
Ohne Beschränkung der Allgemeinheit wird f als global Lipschitz-stetig angenommen, vgl. Beweis<br />
zu Lemma 2.2.1:<br />
∃L > 0: ‖f(z) − f(w)‖ ≤ L ‖z − w‖ ∀z,w ∈ D . (2.2.8)<br />
Mit g i aus den äquivalenten Inkrementgleichungen (2.2.5):<br />
s∑<br />
s∑<br />
ψ(t,y,h) = y + h b i f(g j ) , g i = y + h a ij f(g j ) . (2.2.9)<br />
j=1<br />
j=1<br />
✩<br />
✪<br />
2.2<br />
p. 123<br />
wobei im letzten Schritt die globale Lipschitz-Bedingung für f benutzt wurde.<br />
|h| <<br />
1<br />
L ‖A‖ ∞<br />
⇒ g ↦→ F(h, g) ist h-gleichmässige Kontraktion.<br />
Wähle h 0 =<br />
r<br />
‖A‖ ∞ (‖f(y 0 )‖ + Lr)<br />
Damit erfüllt F mit U =] − h 0 , h 0 [ und V = {g: ‖g − y 0 ‖ ≤ r} die Voraussetzungen des Banachschen<br />
Fixpunktsatzes Thm. 2.2.3.<br />
{<br />
⇒ f ∈ C m (D) ⇒<br />
}<br />
∃g :] − h 0 ,h 0 [↦→ R d·s : F(h, g(h)) = g(h) .<br />
Wegen der Äquivalenz (2.2.7) is damit der Beweis abgeschlossen.<br />
Bemerkung 2.2.2 (Schrittweitenbeschränkung aus Lemma 2.2.1).<br />
Beweis von Lemma 2.2.1: Lösbarkeit der Inkrementgleichungen nur garantiert, wenn<br />
|h| ≤<br />
1<br />
L ‖A‖ ∞<br />
,<br />
wobei L > 0 eine (lokale) Lipschitz-Konstante (→ Def. 1.3.2) für den Quellterm f ist.<br />
✷<br />
2.2<br />
p. 122<br />
Wähle y,z ∈ D und definiere (für hinreichend kleines h, siehe Lemma 2.2.1) g y i ,gz i ∈ R d als<br />
Lösungen von<br />
Mit g y := (g y 1 ,...,gy s), g z := (g z 1 , ...,gs s):<br />
s∑<br />
g y i = y + a ij f(g y j ) ,<br />
j=1<br />
s∑<br />
gi z = z + a ij f(gj z ) .<br />
j=1<br />
s∑ (∥ ∥ ∥ )<br />
‖g y − g z ∥∥f(g y ∥∥ ∥∥f(g<br />
‖ ≤ ‖y − z‖ + h max |a ij |<br />
i=1,...,s<br />
j ) −<br />
z j ) ∥<br />
j=1<br />
h ‖A‖ ∞ L < 1 ⇒<br />
(2.2.8)<br />
vgl. die Schrittweitenschranke aus Bem. 2.2.2<br />
≤ ‖y − z‖ + hL · ‖A‖ ∞ ‖g y − g z ‖ .<br />
‖g y − g z 1<br />
‖ ≤<br />
‖y − z‖ .<br />
1 − h ‖A‖ ∞ L<br />
Aus dieser Abschätzung und wieder mit (2.2.8) folgt (falls h ‖A‖ ∞ L < 1)<br />
s∑<br />
‖ψ(t,y,h) − ψ(t,z, h)‖ ≤ h |b i | ∥ ∥f(g y i ) − f(gz i )∥ ∥<br />
L<br />
s∑<br />
≤<br />
|b<br />
1 − Lh ‖A‖ i | · ‖y − z‖ .<br />
i=1<br />
∞ i=1<br />
(2.2.10)<br />
2.2<br />
p. 124
Da y, z beliebig, folgt die Behauptung.<br />
Bemerkung 2.2.3 (Kollokationsverfahren und numerische Quadratur).<br />
f(t,y) = f(t) & y 0 = 0 ➤ Numerische Quadratur (→ Vorlesung Numerische Methoden”)<br />
”<br />
t 1<br />
∫<br />
y(t 1 ) = f(t) dt ≈ h ∑ s<br />
i=1 b jf(t 0 + c j h) = Quadraturformel<br />
t 0<br />
➞ c 1 ,...,c s ↔ Knoten (engl. nodes) einer Quadraturformel (z.B. Gauss-Punkte auf [0, 1]<br />
b 1 ,...,b s ↔ Gewichte (engl. weights) einer Quadraturformel<br />
✷<br />
△<br />
☞ Die n Knoten der n. Gaussschen Quadraturformel<br />
auf [−1, 1], n ∈ N, sind die Nullstellen<br />
des Legendre-Polynoms vom Grad<br />
n. ✄<br />
☞ Die n. Gaussschen Quadraturformel hat<br />
Ordnung 2n.<br />
☞ Die Gewichte der n. Gaussschen Quadraturformel<br />
sind positiv.<br />
Anzahl n der Quadraturknoten<br />
Gauss-Kollokations-Einschrittverfahren<br />
20<br />
18<br />
16<br />
14<br />
12<br />
10<br />
8<br />
6<br />
4<br />
Gauss−Legendre−Punkte in [−1,1]<br />
2<br />
−1 −0.5 0 0.5 1<br />
t<br />
Fig. 57<br />
Aus Zusammenhang zwischen Kollokationsverfahren und numerische Quadratur<br />
✗<br />
✔<br />
➣ Wahl der Kollokationspunkte c i als Knoten bewährter Quadraturformeln<br />
✖<br />
✕<br />
Die folgenden Beispiele zeigen, dass sich sinnvolle Verfahren ergeben:<br />
• Fall s = 1 & c 1 = 1/2 (↔ einfachste Gauss-Legendre-Quadraturformel)<br />
L 1 ≡ 1 ⇒ a 11 = 1/2 , b 1 = 1 .<br />
k 1 = f(t 0 + 1/2h,y 0 + 1/2hk 1 ) , y h (t 1 ) = y 0 + hk 1 . (2.2.11)<br />
(2.2.11) = Implizite Mittelpunktsregel (1.4.11)<br />
2.2<br />
p. 125<br />
Beispiel 2.2.4 (Konvergenz von globalen Gauss-Kollokationsverfahren).<br />
Dieses Beispiel studiert den Einschrittfehler von Kollokationsverfahren in Abhängigkeit von der<br />
Anzahl der Kollokationspunkte ↔ Polynomgrad s<br />
Logistische Differentialgleichung (→ Bsp. 1.2.1)<br />
ẏ = λy(1 − y) , y 0 ∈]0, 1[ ⇒ y(t) =<br />
1<br />
1 + (y0 −1 , t ∈ R . (2.2.12)<br />
− 1)e−λt Numerische Experimente mit Gauss-Kollokationsverfahren auf [0, 1], y 0 = 0.01, λ = 10:<br />
(Lösung der Gleichungen für Inkremente k i : MATLAB fsolve, Toleranz 10 −9 )<br />
2.2<br />
p. 127<br />
• Fall s = 1 & c 1 = 0 (↔ linksseitige Ein-Punkt-Quadraturformel)<br />
Hier:<br />
Kollokationsverfahren als globales Integrationsverfahren<br />
L 1 ≡ 1 ⇒ a 11 = 0 , b 1 = 1 .<br />
k 1 = f(t 0 ,y 0 ) , y h (t 1 ) = y 0 + hk 1 = y 0 + hf(t 0 ,y 0 ) .<br />
(2.2.1) = Explizites Eulerverfahren (1.4.2) (kein Lösen einer Gleichung erforderlich !)<br />
1.6<br />
1.4<br />
1.2<br />
1<br />
y(t)<br />
s=1<br />
s=2<br />
s=3<br />
s=4<br />
s=5<br />
s=6<br />
10 0 Polynomgrad = Stufenzahl s<br />
10 −1<br />
10 −2<br />
• Fall s = 1 & c 1 = 1 (↔ rechtsseitige Ein-Punkt-Quadraturformel)<br />
L 1 ≡ 1 ⇒ a 11 = 1 , b 1 = 1 .<br />
k 1 = f(t 1 ,y 0 + hk 1 ) , y h (t 1 ) = y 0 + hk 1 = y 0 + hf(t 1 ,y h (t 1 )) .<br />
(2.2.1) = Implizites Eulerverfahren<br />
Erinnerung:<br />
Optimale Quadraturverfahren”: Gaussquadratur<br />
2.2<br />
”<br />
(→ Vorlesung Numerische Methoden”[6, Sect. 9.3]) p. 126<br />
”<br />
y<br />
0.8<br />
0.6<br />
0.4<br />
0.2<br />
0<br />
−0.2<br />
0 0.2 0.4 0.6 0.8 1<br />
t<br />
Näherungslösungen y h (t)<br />
|y h<br />
(1)−y(1)|<br />
10 −3<br />
10 −4<br />
10 −5<br />
10 −6<br />
1 2 3 4 5 6 7 8 9 10<br />
✄ Exponentielle Konvergenz in s (Warum ?)<br />
2.2<br />
✸ p. 128
Lemma 2.2.1 ➣ Lösbarkeit der Inkrementgleichungen (2.2.3) nur gesichert für ”<br />
kleines h !<br />
Idee: (wie in Sect. 1.4)<br />
➀ Wähle Zeitgitter G := {t 0 < t 1 < t 2 < · · · < t n = T }<br />
➁ Kollokations-Einschrittverfahren (→ Def. 2.1.1) auf der Grundlage von<br />
Ψ t k,t k−1 := diskrete Evolution durch Kollokation des AWP auf [tk−1 , t k ],<br />
→ Formel (2.2.3).<br />
Bemerkung 2.2.5 (Lösungsfunktion aus Kollokationsverfahren).<br />
Hilfsmittel beim Beweis: Restgliedabschätzung für Polynominterpolation (→ Vorlesung “Numerische<br />
Methoden”)<br />
✬<br />
Lemma 2.2.7 (Fehlerabschätzung für Polynominterpolation). → [6, Satz 7.16]<br />
Sei f ∈ C n+1 ([x 0 , x n ]), x 0 < x 1 < . .. < x n , und p ∈ P n das Interpolationspolynom von f<br />
zu den Sützstellen x i (d.h. p(x i ) = f(x i )), dann gilt<br />
|f (k) (x) − p (k) (x)| ≤ |x n − x 0 | n+1−k<br />
(n + 1 − k)!<br />
max |f (n+1) (ξ)| ∀x 0 ≤ x ≤ x n , k = 0,...,n + 1 .<br />
x 0 0:<br />
∥ ∥∥e<br />
max<br />
(k) (t) ∥ ≤ Ch s+1−k ∀|h| ≤ h 0 .<br />
t 0 ≤t≤t 1<br />
✩<br />
✪<br />
✩<br />
✪<br />
2.2<br />
p. 130<br />
∃L > 0: ‖f(z) − f(w)‖ ≤ L ‖z − w‖ ∀z,w ∈ D . (2.2.14)<br />
Zur Konsistenzuntersuchung betrachte die Einschrittfehlerfunktion<br />
Aus den Kollokationsbedingungen (2.2.1):<br />
e(t) := y(t) − y h (t) ➣ τ(y 0 , h) = e(h) . (2.2.15)<br />
ẏ h (t) =<br />
s∑<br />
f(y h (c i h)) · L i (τ) , τ := t h . (2.2.16)<br />
i=1<br />
Aus der Lösungseigenschaft von t ↦→ y(t)<br />
ẏ(t) = f(y(t)) =<br />
s∑<br />
f(y(c i h)) · L i (τ) + r(t) , τ := t h . (2.2.17)<br />
i=1<br />
Interpolationspolynom ∈ P s−1 zur Funktion t ↦→ f(y(t)) und Knoten c i h auf [0,h]<br />
r ˆ= Restglied für Polynominterpolation, siehe Lemma 2.2.7, erfüllt<br />
∥<br />
∥r (k) 1<br />
∥<br />
(t) ∥ ≤ max ∥y (s+1) (t) ∥ h s−k ≤ Ch s−k , k = 0,...,s . (2.2.18)<br />
(s − k)! 0
Konvention: All Konstanten C unabhängig von (hinreichend kleinem) h, dürfen abhängen von y(t),<br />
f, Paramtern des Kollokationsverfahrens, etc.<br />
Aus (2.2.16) & (2.2.17) & Integration ➣ Ausdruck für Einschrittfehlerfunktion<br />
Numerische Konvergenzraten :<br />
(berechnet durch lineare Regression)<br />
s = 1 : p = 1.96<br />
s = 2 : p = 4.01<br />
s = 3 : p = 6.00<br />
s = 4 : p = 8.02<br />
wobei<br />
s∑<br />
∫ τ ∫ t<br />
e(t) = h ∆f(c i h) · L i (σ) dσ + r(σ) dσ , 0 ≤ τ ≤ 1 , (2.2.19)<br />
i=1<br />
0<br />
0<br />
∆f(t) = f(y(t)) − f(y h (t)).<br />
(2.2.14) ⇒ ‖∆f(t)‖ ≤ L ‖e(t)‖ . (2.2.20)<br />
(2.2.19) & (2.2.18)<br />
=⇒ ‖e‖ ∞ := max<br />
0≤t≤h ‖e(t)‖ ≤ C 1Lh ‖e‖ ∞ + C 2 h s+1 , (2.2.21)<br />
mit von h unabhängigen Konstanten C 1 ,C 2 > 0 (, die von den Kollokationspunkten c i und y<br />
abhängen.)<br />
C<br />
C 1 Lh 0 < 1 ⇒ ‖τ(y, h)‖ ≤ ‖e‖ ∞ ≤ 2<br />
1 − C 1 h 0 L hs+1 ∀|h| ≤ h 0 . (2.2.22)<br />
☞ Zwischenergebnis: Das Kollokationsverfahren hat mindestens Konsistenzordnung s.<br />
Betrachte: Kollokationsverfahren zu ẏ = f(t,y) mit (relativen) Kollokationspunkten c i ∈ [0, 1],<br />
i = 1, ...,s, s ∈ N ➣ Koeffizienten b i , a ij in (2.2.3).<br />
✬<br />
Zugeordnete Quadraturformel, Bem. 2.2.3:<br />
Q(f) = h ∑ s<br />
Theorem 2.2.8 (Konsistenzordnung von Kollokationsverfahren).<br />
✸<br />
i=1 b jf(t 0 + c j h) . (2.2.24)<br />
Ein Kollokations-Einschrittverfahren hat die gleiche Konsistenzordnung (→ Def. 2.1.9) wie die<br />
zugeordnete Quadraturformel.<br />
✩<br />
Aus (2.2.19) und (2.2.18) lässt sich sogar folgern, für k = 0,...,s,<br />
∥<br />
max ∥e (k) (t) ∥ ≤ C 1 (k)Lh + C 2 (k)h s+1−k ∥<br />
⇒ max ∥e (k) (t) ∥ ≤ C(k)h s+1−k (2.2.23)<br />
0≤t≤h<br />
0≤t≤h<br />
2.2<br />
p. 133<br />
✫<br />
✪<br />
2.2<br />
p. 135<br />
mit von h unabhängigen Konstanten C 1 (k),C 2 (k),C(k) > 0.<br />
Beispiel 2.2.6 (Konvergenz von Gauss-Kollokations-Einschrittverfahren).<br />
Skalare logistische Differentialgleichung (1.2.1), λ = 10, y(0) = 0.01, T = 1<br />
Gauss-Kollokations-Einschrittverfahren (2.2.3) für s = 1,...,4, uniforme Zeitschrittweite h<br />
✷<br />
Hilfsmittel beim Bweis: Fehlerabschätzung für numerische Quadratur (→ Vorlesung “Numerische<br />
Methoden”)<br />
s-Punkt-Quadraturformel auf [a,b]: Q(f) := (b − a)<br />
Annahme: innere Knoten 0 ≤ c i ≤ 1, i = 1, . ..,s<br />
s∑<br />
i=1<br />
∫b<br />
b i f(a + c i (b − a)) ≈<br />
a<br />
f(x) dx .<br />
(2.2.25)<br />
✬<br />
✩<br />
y<br />
1<br />
0.8<br />
0.6<br />
0.4<br />
y(t)<br />
0.2<br />
s=1<br />
s=2<br />
s=3<br />
s=4<br />
0<br />
0 0.2 0.4 0.6 0.8 1<br />
t<br />
Fig. 58<br />
y h (j/10): Gauss-Kollokationsverfahren<br />
max k<br />
|y h<br />
(t k<br />
)−y(t) k<br />
)|<br />
10 −5<br />
10 −10<br />
s=1<br />
s=2<br />
s=3<br />
s=4<br />
10 −15<br />
10 −2 10 −1 h<br />
10 0<br />
Fig. 59<br />
10 0<br />
Konvergenz des Fehlers max k |y k − y(t k )| p. 134<br />
2.2<br />
Lemma 2.2.9 (Quadraturfehlerabschätzung).<br />
Ist eine Quadraturformel (2.2.25) exakt für Polynome von Grad ≤ n, so gilt<br />
∫ f ∈ C n+1 b<br />
([a,b]) ⇒<br />
∣ Q(f) − − a)n+2<br />
f(x) dx<br />
≤ C(b max<br />
a ∣ (n + 1)! a
Beweis von Thm. 2.2.8 (für autonome Dgl.)<br />
Idee: Interpretiere t ↦→ y h (t) als Lösung eines gestörten Anfangswertproblems !<br />
ẏ h (t) = f(y h (t)) + ẏ h (t) − f(y h (t)) , 0 ≤ t ≤ h . (2.2.26)<br />
} {{ }<br />
:=δ(t)<br />
Wegen ẏ(t) = f(y(t)) folgt für die Einschrittfehlerfunktion<br />
Die Propagationsmatrix ist natürlich unabhängig von h, also<br />
∥<br />
∃C > 0 unabhängig von h: ∥W(t;y 0 )W(τ;y 0 ) −1∥ ∥ ≤ C ∀0 ≤ t, τ ≤ h .<br />
∫<br />
(2.2.27)<br />
t<br />
⇒<br />
∥ W(t;y 0 )W(τ;y 0 ) −1 ρ(τ) dτ<br />
∥ ≤ Ch2s+3 ,<br />
0<br />
mit C > 0 unabhängig von h.<br />
ė(t) = f(y(t)) − f(y h (t)) − δ(t) , 0 ≤ t ≤ h .<br />
Beachte: (2.2.15) ➣ Konsistenzfehler bestimmt durch e(h) !<br />
Hilfsmittel: Taylorformel<br />
∫ 1<br />
ϕ(1) − ϕ(0) = ϕ ′ (0) + (1 − τ)ϕ ′′ (τ) dτ ,<br />
0<br />
für ϕ(ξ) := f(y(t) + ξ(y h (t) − y(t))) mit der Kettenregel:<br />
ϕ ′ (ξ) = Df(y(t) + ξ(y h (t) − y(t))) · (y h (t) − y(t)) ,<br />
ϕ ′′ (ξ) = D 2 f(y(t) + ξ(y h (t) − y(t))) (y h (t) − y(t),y h (t) − y(t)) .<br />
Einsetzen in die Formel für die Einschrittfehlerfunktion:<br />
∫ 1<br />
ė(t) = ϕ(0) − ϕ(1) − δ(t) = Df(y(t))e(t) − (1 − τ)D 2 f(y(t) + τe(t))(e(t),e(t)) −δ(t) .<br />
} 0 {{ }<br />
=:ρ(t)<br />
2.2<br />
p. 137<br />
Geniale Idee:<br />
Abschätzung von ∫ h<br />
0 W(t;y 0 )W(τ;y 0 ) −1 δ(τ) dτ als Quadraturfehler !<br />
Wegen δ(c i h) = 0 (Kollokationsbedingung (2.2.1) !):<br />
s∑<br />
b i W(t;y 0 )W(c i h;y 0 ) −1 δ(c i τ) = 0 ∀0 ≤ t ≤ h .<br />
} {{ }<br />
i=1<br />
} {{ =0 }<br />
Quadraturformel auf [0, h] für τ↦→W(t;y 0 )W(τ;y 0 ) −1 δ(τ)<br />
➣ Mit der Quadraturfehlerabschätzung aus Lemma 2.2.9<br />
∫h<br />
s∑<br />
W(t;y 0 )W(τ;y 0 ) −1 δ(τ) dτ − b i W(t;y 0 )W(c i h;y 0 ) −1 δ(c i τ)<br />
≤ C 3 h p+1 ,<br />
∥0<br />
i=1<br />
∥<br />
2.2<br />
p. 139<br />
Dabei gilt die offensichtliche Abschätzung:<br />
∥<br />
‖ρ(t)‖ ≤ max ∥D 2 Lemma 2.2.6<br />
2<br />
f(y) ∥ · ‖e(t)‖ ≤ Ch 2s+2 , (2.2.27)<br />
y∈K<br />
wobei K = {z ∈ D: ‖z − y(t)‖ ≤ R} mit von t unabhängigem R > 0 und C > 0 unabhängig von<br />
h.<br />
➣<br />
Einschrittfehlerfunktion löst das Anfangswertproblem<br />
ė = Df(y(t))e − ρ(t) − δ(t) , e(0) = 0 . (2.2.28)<br />
Betrachtet man ρ(t),δ(t) als blosse Funktionen von t, dann ist (2.2.28) eine nichtautonome lineare<br />
Differentialgleichung.<br />
➣ Lösung durch allgemeine Variation-der-Konstanten-Formel (1.3.9):<br />
mit<br />
C 3 := 1 max<br />
d p {<br />
p! 0≤τ≤h∥dτ p τ ↦→ W(h;y 0 )W(τ;y 0 ) δ(τ)} ∥ −1 ∥∥ .<br />
δ(t) := ẏ h (t)−f(y h (t)) hängt natürlich im Gegensatz zu W(t;y) von h ab, dch dank der Schranken<br />
aus Lemma 2.2.6 sind alle Ableitungen von y h gleichmässig in h beschränkt !. Also lässt sich auch<br />
C 3 unabhängig von h beschränken.<br />
∫h<br />
W(h;y 0 )W(τ;y 0 ) −1 δ(τ) dτ<br />
≤ Ch p+1 .<br />
∥0<br />
∥<br />
Zusammen mit der Abschätzung für den ρ-Term ergibt sich die Behauptung des Theorems, vgl.<br />
Def. 2.1.9<br />
✷<br />
∫ t<br />
e(t) = − W(t;y 0 )W(τ;y 0 ) −1 (ρ(τ) + δ(τ)) dτ , 0 ≤ t ≤ h .<br />
0<br />
mit der Propagationsmatrix t ↦→ W(t;y 0 ), vgl. (1.3.19), Sect. 1.3.3.4. Sie löst das Anfangswertproblem<br />
für die Variationsgleichung (1.3.20)<br />
s-stufige implizite Gauss-Kollokations-Einschrittverfahren haben Ordnung 2s<br />
Ẇ(t;y 0 ) = Df(y(t))W(t;y 0 ) , W(0;y 0 ) = I .<br />
2.2<br />
p. 138<br />
2.3<br />
p. 140
2.3 Runge-Kutta-Verfahren<br />
Nachteil der Kollokationseinschrittverfahren: Alle (mit Ausnahme des expliziten Euler-Verfahrens) sind<br />
implizit (→ Def. 2.1.2)<br />
Gibt es explizite Einschrittverfahren höhererOrdnung? Wenn ja, wie findet man diese?<br />
Definition 2.3.1 (Runge-Kutta-Verfahren).<br />
Für b i ,a ij ∈ R, c i := ∑ s<br />
j=1 a ij , i,j = 1,...,s, s ∈ N, definiert<br />
s∑<br />
s∑<br />
k i := f(t 0 + c i h,y 0 + h a ij k j ) , i = 1,...,s , Ψ t 0,t 0 +h y 0 := y 0 + h b i k i .<br />
j=1<br />
ein s-stufiges Runge-Kutta-Einschrittverfahren (RK-ESV) für AWP (1.1.6) mit Inkrementen k i ∈<br />
R d .<br />
i=1<br />
2.3.1 Konstruktion<br />
➣ Verallgemeinerung der Kollokationsverfahren → Sect. 2.2<br />
(doch keine konkrete Konstruktionsvorschrift !)<br />
AWP:<br />
∫<br />
ẏ(t) = f(t,y(t)) ,<br />
t1<br />
⇒ y(t 1 ) = y 0 + f(τ,y(t 0 + τ)) dτ<br />
y(t 0 ) = y 0 t 0<br />
Approximation durch Quadraturformel (auf [0, 1]) mit s Knoten c 1 , ...,c s :<br />
y(t 1 ) ≈ y 1 ( = y h (t 1 )) = y 0 + h<br />
Wie bekommt man diese Werte ?<br />
s∑<br />
b i f(t 0 + c i h, y(t 0 + c i h) ) , h := t 1 − t 0 .<br />
i=1<br />
Beispiel 2.3.1 (Konstruktion einfacher Runge-Kutta-Verfahren).<br />
Quadraturformel → Trapezregel:<br />
auf Intervall [a,b]<br />
✄ Bootstrapping<br />
Q(f) = 1 2 (b − a)(f(a) + f(b)) ↔ s = 2: c 1 = 0, c 2 = 1 , b 1 = b 2 = 1 2 , (2.3.1)<br />
und y h (T) aus explizitem Eulerschritt (1.4.2)<br />
k 1 = f(t 0 ,y 0 ) , k 2 = f(t 0 + h,y 0 + hk 1 ) , y 1 = y 0 + h 2 (k 1 + k 2 ) . (2.3.2)<br />
(2.3.2) = explizite Trapezregel<br />
Quadraturformel → einfachste Gauss-Quadraturformel (Mittelpunktsregel) & y h ( 1 2 (t 1 + t 0 )) aus<br />
explizitem Eulerschritt (1.4.2)<br />
k 1 = f(t 0 ,y 0 ) , k 2 = f(t 0 + h 2 ,y 0 + h 2 k 1) , y 1 = y 0 + hk 2 . (2.3.3)<br />
2.3<br />
p. 141<br />
Falls a ij = 0 für i ≤ j Explizites Runge-Kutta-Verfahren → Def. 2.1.2<br />
Kurznotation für Runge-Kutta-Verfahren:<br />
Butcher-Schema<br />
✄<br />
c A<br />
b T :=<br />
c 1 a 11 · · · a 1s<br />
. . .<br />
. (2.3.4)<br />
c s a s1 · · · a ss<br />
b 1 · · · b s<br />
A echte untere Dreiecksmatrix ➤ explizites Runge-Kutta-Verfahren<br />
2.3<br />
A untere Dreiecksmatrix ➤ diagonal-implizites Runge-Kutta-Verfahren (DIRK) p. 143<br />
Bemerkung 2.3.2 (Stufenform der Inkrementgleichungen).<br />
Für s-stufiges Runge-Kutta-Einschrittverfahren (RK-ESV), → Def. 2.3.1, definiere (Annahme: eindeutige<br />
Lösbarkeit der Inkrementgleichungen)<br />
Stufen (engl. stages:)<br />
Stufengleichungen<br />
g i = y 0 + h<br />
g i = y 0 + h<br />
s∑<br />
a ij k j , i = 1, ...,s ⇒ k i = f(t 0 + c i h,g i ) .<br />
j=1<br />
(2.3.5)<br />
s∑<br />
a ij f(t 0 + c j h,g j ) , i = 1, ...,s . (2.3.6)<br />
j=1<br />
△<br />
(2.3.3) = explizite Mittelpunktsregel<br />
Diskrete Evolutionen der Form (2.2.3)<br />
✸<br />
2.3<br />
p. 142<br />
Interpretation: Runge-Kutta-Verfahren ↔ Polygonzugapproximation der Lösungskurve<br />
→ Sect. 1.4<br />
Anzahl b i ≠ 0 ˆ= Anzahl der Teilstrecken im Polygonzug<br />
b i , i = 1, ...,s − 1 ˆ= relative Länge des i. Teilintervalls<br />
k i ˆ= Steigung” der i. Teilstrecke<br />
2.3<br />
p. 144
Beispiel 2.3.3 (Explizite Runge-Kutta-Polygonzugapproximation für Ricatti-Differentialgleichung).<br />
→ Bsp 1.1.1<br />
Anfangswertproblem: ẏ = t 2 + y 2 , y(0) = 0.2.<br />
Geometrische Interpretation von expliziten RK-ESV als Polygonzugverfahren → Verallgemeinerung<br />
des expliziten Euler-Verfahrens, siehe Sect. 1.4.1, Fig. ??.<br />
grün<br />
Explizite Mittelpunktsregel:<br />
0 0 0<br />
1<br />
2<br />
1<br />
2 0<br />
0 1<br />
Lösungskurven<br />
1<br />
0.8<br />
0.6<br />
yy(T)<br />
0.4<br />
Klassisches Runge-Kutta-Verfahren<br />
grün<br />
(RK4)<br />
0 0 0 0 0<br />
1<br />
2 1 2 0 0 0<br />
1<br />
2 0 1 2 0 0<br />
1 0 0 1 0<br />
1<br />
6 6 2 2 6 6<br />
1<br />
Lösungskurven<br />
magenta Abschnittsteigungen k i<br />
∗<br />
Punkte f-Auswertung<br />
(2.3.7)<br />
y<br />
1<br />
0.8<br />
0.6<br />
0.4<br />
0.2<br />
0<br />
y 0<br />
k 1<br />
k 2<br />
rot: Polygonzug<br />
0 0.2 0.4 0.6 0.8 1<br />
t<br />
y(T)<br />
0 0.2 0.4 0.6 0.8 1<br />
t<br />
2.3<br />
k 4<br />
k 3<br />
2.3<br />
p. 147<br />
magenta Abschnittsteigungen k i<br />
∗ Punkte f-Auswertung<br />
0.2<br />
y 0<br />
k 1<br />
k 2<br />
p. 145<br />
rot:<br />
Polygonzug<br />
0<br />
grün:<br />
Explizite Trapezregel<br />
0 0 0<br />
1 1 0<br />
1<br />
2 1 2<br />
Lösungskurven<br />
magenta: Abschnittsteigungen k i<br />
∗: Punkte f-Auswertung<br />
rot:<br />
Polygonzug<br />
y<br />
1<br />
0.8<br />
0.6<br />
0.4<br />
0.2<br />
0<br />
y(T)<br />
y 0<br />
0 0.2 0.4 0.6 0.8 1<br />
t<br />
k 1<br />
k 2<br />
p. 146<br />
grün<br />
Kuttas 3/8-Regel<br />
0 0 0 0 0<br />
1 1<br />
3 3 0 0 0<br />
2<br />
3 −1 3 1 0 0<br />
1 1 −1 1 0<br />
1 3 3<br />
8 8 8 1 8<br />
Lösungskurven<br />
magenta Abschnittsteigungen k i<br />
∗<br />
rot:<br />
Punkte f-Auswertung<br />
Polygonzug<br />
(2.3.8)<br />
y<br />
1<br />
0.8<br />
0.6<br />
0.4<br />
0.2<br />
0<br />
y(T)<br />
k 4<br />
k 3<br />
y 0<br />
k 1 k 2<br />
0 0.2 0.4 0.6 0.8 1<br />
t<br />
✸<br />
Bemerkung 2.3.4 (Affin-Kovarianz der Runge-Kutta-Verfahren).<br />
2.3<br />
2.3<br />
p. 148
Für S ∈ R d,d regulär, ŷ := S −1 y (→ Sect. 1.3.2, (1.3.4)), Ψ, ̂Ψ aus RK-Verfahren (→ Def. 2.3.1)<br />
Ψ s,t<br />
h = Diskrete Evolution zu ẏ = f(t,y) ,<br />
̂Ψ s,t<br />
ŜΨ s,t<br />
h S −1 y = Ψ s,t<br />
h<br />
h = Diskrete Evolution zu ˙ŷ = ̂f(t,ŷ) y . (2.3.9)<br />
→ (1.3.4)<br />
Bemerkung 2.3.5 (Autonomisierungsinvarianz von Runge-Kutta-Verfahren).<br />
Warum c i = ∑ s<br />
j=1 a ij in Def. 2.3.1 ?<br />
Autonomisierung:<br />
→ Bem. 1.1.3<br />
ẏ = f(t,y) ,<br />
y(t 0 ) = y 0<br />
▼<br />
⇒<br />
( y ˙<br />
=<br />
s)<br />
(<br />
f(s,y)<br />
1<br />
▼<br />
)<br />
=: ̂f<br />
Evolutionen: Φ t+h,t ↔ ̂Φt+h,t ,<br />
Diskrete Evl.: Ψ t+h,t<br />
h ↔ ̂Ψt+h,t h .<br />
Wunsch:<br />
(<br />
Φ t+h,t )<br />
y<br />
) ( )<br />
=<br />
t + h<br />
y<br />
t+h,t Ψ h y<br />
t t + h<br />
( (<br />
̂Ψ t+h,t<br />
∑ y<br />
h = y + h si=1<br />
)<br />
b îki<br />
t)<br />
t + h ∑ s ,<br />
i=1 b îκ i<br />
(( y<br />
,<br />
s))<br />
=<br />
△<br />
( ) ( ) y(0) y0<br />
= .<br />
s(0) t 0<br />
(<br />
t+h,t y ̂Ψ h . (2.3.10)<br />
t)<br />
) ( ∑ (̂ki f(t + h sj=1<br />
a<br />
=<br />
iĵκ j ,y + h ∑ )<br />
s<br />
j=1 a iĵkj )<br />
.<br />
̂κ i 1<br />
2.3<br />
p. 149<br />
Ziel:<br />
Stückweise polynomiale Definition von t ↦→ y h (t)<br />
Interpolationseigenschaft y h (t k ) = y k , k = 0, ...,N<br />
y h|[tk ,t berechenbar aus k+1<br />
y k , y k+1 und Inkrementen im k. Schritt<br />
mit Polynomen p 0 ,p 1 , q i : R ↦→ R.<br />
y h (t k + ξh k ) = p 0 (ξ)y k + p 1 (ξ)y k+1 +<br />
Wunsch: Für RK-ESV der Ordnung p ➣<br />
s∑<br />
q(ξ)k i , 0 ≤ ξ ≤ 1 ,<br />
i=1<br />
max ‖y(t) − y h(t)‖ = O(h p )<br />
0≤t≤T<br />
Bemerkung 2.3.7 (Lösung der Inkrementgleichungen). → [5, Sect. 6.2.2]<br />
Inkrementgleichungen für implizites RW-ESV (→ Def. 2.3.1) = (i.a. nichtlineares) Gleichungssystem<br />
mit s · d Unbekannten<br />
Im autonomen Fall (vgl. Beweis von Lemma 2.2.1)<br />
k i := f(y 0 + h<br />
s∑<br />
a ij k j )<br />
j=1<br />
k i =f(y 0 +g i )<br />
⇐⇒<br />
g i = h<br />
s∑<br />
a ij f(y 0 + g j ) , i = 1, ...,s . (2.3.12)<br />
j=1<br />
△<br />
2.3<br />
p. 151<br />
c i = ∑ s<br />
j=1 a ij ➣ ̂k i = k i &<br />
∑ si=1<br />
b i = 1 . (2.3.11)<br />
Die Grössen g i + y 0 heissen auch Stufen (engl. stages) des Runge-Kutta-Verfahrens, siehe<br />
Bem. 2.3.2<br />
= Hinreichende + notwendige Bedingungen für Autonomisierungsinvarianz eines RK-Verfahrens<br />
✄<br />
Analyse von autonomisierungsinvarianten RK-Verfahren kann sich auf autonome Probleme beschränken.<br />
Bemerkung 2.3.6 (“Dense output”).<br />
[14, Sect. II.5]<br />
Runge-Kutta-Einschrittverfahren (→ Def. 2.3.1) liefern Gitterfunktionen G ↦→ R d als Näherung von<br />
t ↦→ y(t) in diskreten Zeitpunkten.<br />
Was, wenn Näherungen für y(t) zu anderen Zeitpunkten/überall auf [0,T] gebraucht werden ?<br />
△<br />
2.3<br />
p. 150<br />
➣ iterative Lösung mit vereinfachtem Newton-Verfahren ( ”<br />
eingefrorene” Jacobi-Matrix)<br />
! Effizienz: Minimiere Anzahl von f, Df-Auswertungen<br />
Mit g = (g 1 , ...,g s ) T ∈ R s·d definiere<br />
⎛<br />
h s ⎞<br />
∑<br />
a 1j f(y 0 + g j )<br />
j=1<br />
F(g) := g −<br />
.<br />
⎜<br />
⎝ ∑<br />
h s ⎟<br />
a sj f(y 0 + g j )<br />
⎠<br />
j=1<br />
⇒ {(2.3.12) ⇔ F(g) = 0} . (2.3.13)<br />
h ”<br />
klein” ➣ Natürliche Anfangsnaḧerung für vereinfachte Newton-Iteration: g (0) = 0<br />
⎛<br />
⎞<br />
I − ha 11 Df(y 0 ) −ha 12 Df(y 0 ) · · · −ha 1s Df(y 0 )<br />
DF(g (0) ) = ⎜ −ha 21 Df(y 0 ) I − ha 22 Df(y 0 ) .<br />
⎟<br />
⎝ . . .. . ⎠ . 2.3<br />
−ha s1 Df(y 0 ) · · · −ha s,s−1 Df(y 0 ) I − ha ss Df(y 0 )<br />
p. 152
Vereinfachte Newton-Iteration<br />
g (0) = 0 , g (k+1) = g (k) − DF(0) −1 F(g (k) ) , k = 0, 1, 2,... .<br />
Wiedergewinnung der Inkremente k i aus g i : betrachte l. Komponente, l = 1,...,d. Mit g i =<br />
(g i,1 ,...,g i,d ) T ∈ R d s∑<br />
g i,l = h a ij k j,l ⇐⇒ ( ) d<br />
g i,l l=1 = hA( ) d<br />
k i,l l=1 .<br />
j=1<br />
A regulär ➣ k i durch Lösen von s linearen Gleichungssystemen mit Koeffizientenmatrix A.<br />
✬<br />
Lemma 2.3.2 (Konsistenz von Runge-Kutta-Einschrittverfahren).<br />
Unter den Voraussetzungen von Lemma 2.2.1 ist ein Runge-Kutta-Einschrittverfahren (→<br />
Def. 2.3.1) konsistent (→ Def. 2.1.5) genau dann, wenn ∑ s<br />
i=1 b i = 1.<br />
✫<br />
Frage: Wann ist ein Runge-Kutta-Verfahren konsistent (⇒ konvergent, Thm. 2.1.10)<br />
von der Ordnung p ?<br />
⇕<br />
(Konsistenz-)Bedingungsgleichungen für Koeffizienten a ij , b i<br />
✩<br />
✪<br />
△<br />
Hilfsmittel zum Aufstellen<br />
der Bedingungsgleichungen<br />
: Taylor-Entwicklung (des Konsistenzfehlers τ(t,y, h) → Dff. 2.1.7)<br />
Annahme:<br />
f “hinreichend glatt”<br />
Beispiel 2.3.9 (RK-Bedingungsgleichungen für Konsistenzordnung p = 3). [5, Sect. 4.2.2]<br />
2.3.2 Konvergenz<br />
Beispiel 2.3.8 (Konvergenz expliziter Runge-Kutta-Verfahen).<br />
2.3<br />
Skalare logistische Differentialgleichung (1.2.1), λ = 10, y(0) = 0.01, T = 1 p. 153<br />
Explizite Runge-Kutta-Einschrittverfahren, uniforme Zeitschrittweite h<br />
Konsistenzfehler: τ(t,y, h) := (Φ t,t+h − Ψ t,t+h )y (h hinreichend klein); .<br />
Fokus: autonome Differentialgleichung ẏ = f(y), f “hinreichend glatt”<br />
Fixiere Anfangswert y 0 ∈ D, O.B.d.A. t 0 = 0 (vgl. Bem. 1.1.5)<br />
➊ Taylorentwicklung der kontinuierlichen Evolution in h um h = 0:<br />
2.3<br />
p. 155<br />
y<br />
1<br />
0.9<br />
0.8<br />
0.7<br />
0.6<br />
0.5<br />
0.4<br />
0.3<br />
0.2<br />
0.1<br />
y(t)<br />
Explicit Euler<br />
Explicit trapezoidal rule<br />
Explicit midpoint rule<br />
RK4 method<br />
0<br />
0 0.2 0.4 0.6 0.8 1<br />
t<br />
y h (j/10), j = 1, ...,10 für explizite RK-Verfahren<br />
|y h<br />
(1)−y(1)|<br />
10 0<br />
10 −2<br />
10 −4<br />
10 −6<br />
s=1, Explicit Euler<br />
s=2, Explicit trapezoidal rule<br />
10 −8<br />
s=2, Explicit midpoint rule<br />
s=4, RK4 method<br />
10 −2 10 −1 10 0<br />
h<br />
Konvergenz des Fehlers y h (1) − y(1)<br />
✸<br />
Φ h y 0 = y(h) = y 0 + ẏ(0)h + 2ÿ(0)h2 1 + 1 6 y(3) (0)h 3 + O(h 4 ) , (2.3.14)<br />
mit<br />
ẏ(0) = f(y 0 ) ,<br />
ÿ(0) = Df(y 0 )ẏ(0) = Df(y 0 )f(y 0 ) ,<br />
y (3) (0) = D 2 f(y 0 )(ẏ(0),ẏ(0)) + Df(y 0 )ÿ(0) = D 2 f(y 0 )(f(y 0 ),f(y 0 )) + Df(y 0 )Df(y 0 )f(y 0 ) .<br />
Viele unserer Resultate über Kollokationsverfahren (→ Sect. 2.2) bleiben gültig für die allgemeinere<br />
Klasses der Runge-Kutta-Einschrittverfahren (mit im wesentlichen den gleichen Beweisen):<br />
✗<br />
✖<br />
Lemmas 2.2.1, 2.2.4 bleiben gültig für Runge-Kutta-Einschrittverfahren aus Def. 2.3.1<br />
✔<br />
✕<br />
2.3<br />
p. 154<br />
Φ h y 0 = y 0 + hf(y 0 ) + 1 2 h2 Df(y 0 )f(y 0 )+<br />
1<br />
6 h 3 (Df(y 0 )Df(y 0 )f(y 0 ) + D 2 f(y 0 )(f(y 0 ),f(y 0 ))) + O(h 4 ) .<br />
➋ Taylorentwicklung der diskreten Evolution in h um h = 0<br />
⇕<br />
Taylorentwicklung der Inkremente k i in h um h = 0<br />
(2.3.15)<br />
2.3<br />
p. 156
s∑<br />
k i = f(y 0 + h a ij k j ) =<br />
j=1<br />
⎛ ⎞ ⎛<br />
⎞<br />
s∑<br />
s∑ s∑<br />
= f(y 0 ) + h Df(y 0 ) ⎝ a ij k j<br />
⎠ + 1 2 h2 D 2 f(y 0 ) ⎝ a ij k j , a ij k j<br />
⎠ + O(h 3 )<br />
j=1<br />
j=1<br />
Einsetzen ”<br />
kürzerer Taylorentwicklungen” anstelle der Inkremente<br />
Beachte:<br />
➌<br />
k i =f(y 0 ) + hDf(y 0 )<br />
s∑<br />
a ij<br />
⎛<br />
⎝f ( y 0 + hDf(y 0 )<br />
j=1<br />
(2.3.16)<br />
Inkremente werden mit h multipliziert !<br />
⎞<br />
s∑<br />
a il k l + O(h 2 ) ) ⎠ +<br />
j=1<br />
l=1<br />
⎛<br />
⎞<br />
s∑<br />
s∑<br />
1<br />
2 h2 D 2 f(y 0 ) ⎝ a ij (f(y 0 ) + O(h)), a ij (f(y 0 ) + O(h)) ⎠ + O(h 3 )<br />
j=1<br />
j=1<br />
=f(y 0 ) + h · ∑s<br />
j=1 a ij Df(y 0 )f(y 0 )+<br />
} {{ }<br />
=c i , siehe Bem. 2.3.5<br />
h 2( ∑ s )<br />
a il c l Df(y0 )Df(y 0 )f(y 0 ) + h 21 2 c2 i D2 f(y 0 )(f(y 0 ),f(y 0 )) + O(h 3 ) .<br />
l=1<br />
Ψ h y 0 = y 0 + h<br />
Ψ h y 0 = y 0 +<br />
(<br />
h<br />
s∑<br />
b i k i ➤ Entwicklung bis O(h 3 ) ausreichend<br />
i=1<br />
) (<br />
s∑<br />
s∑<br />
b i f(y 0 ) + h 2 b i c i<br />
)Df(y 0 )f(y 0 )+<br />
⎛ i=1 ⎞ i=1<br />
s∑ s∑<br />
⎝h 2 b i a ij c j<br />
⎠Df(y 0 )Df(y 0 )f(y 0 )+<br />
i=1 j=1<br />
( )<br />
s∑<br />
1<br />
2 h 2 b i c 2 i D 2 f(f(y 0 ),f(y 0 )) + O(h 4 ) .<br />
i=1<br />
(2.3.17)<br />
Gleichsetzen der Koeffizienten der linear unabhängigen (→ Übung) elementaren Differentiale<br />
1,f(y 0 ), Df(y 0 )f(y 0 ), Df(y 0 )Df(y 0 )f(y 0 ),D 2 f(y 0 )(f(y 0 ),f(y 0 ))<br />
2.3<br />
p. 157<br />
s∑<br />
b i c i = 1 2 , (2.3.19)<br />
i=1<br />
s∑<br />
b i c 2 i = 1 3 ,<br />
i=1<br />
s∑ s∑<br />
b i a ij c j = 1 (2.3.20)<br />
6 .<br />
i=1<br />
☞ (2.3.18) hinreichend & notwendig für Konsistenzordnung p = 1, siehe Lemma 2.3.2<br />
☞ (2.3.18) + (2.3.19) hinreichend & notwendig für Konsistenzordnung p = 2<br />
Bemerkung 2.3.10 (Butcher-Bäume).<br />
j=1<br />
Allgemeiner kombinatorischer Algorithmus zum Aufstellen der RK-Bedingungsgleichungen: Butcher-<br />
Bäume [5, Sect. 4.2.3], [11, Ch. III]<br />
➞<br />
Konstruktion von RK-Verfahren vorgegebener Konvergenzordnung durch Lösen der (nichtlinearen)<br />
Bedingungsgleichungen (vom Typ (2.3.18)-(2.3.20)):<br />
p 1 2 3 4 5 6 7 8 9 10 20<br />
♯B.G. 1 2 4 8 17 37 85 200 486 1205 20247374<br />
Einige Konvergenzordnungen von Runge-Kutta-Verfahren:<br />
Explizite Verfahren<br />
Expliztes Eulerverfahren (2.2.1) p = 1<br />
Explizite Trapezregel (2.3.2) p = 2<br />
Explizite Mittelpunktsregel (2.3.3) p = 2<br />
Klassisches Runge-Kutta-V. (2.3.7) p = 4<br />
Kuttas 3/8-Regel (2.3.8) p = 4<br />
Implizite Verfahren<br />
Implizites Eulerverfahren (2.2.1) p = 1<br />
Implizite Mittelpunktsregel (2.2.11) p = 2<br />
Gauss-Kollokationsverfahren p = 2s<br />
✸<br />
△<br />
2.3<br />
p. 159<br />
in (2.3.17) und (2.3.15)<br />
Viele weitere RK-Verfahren ✄ [14, 15]<br />
Hinreichende & notwendige Bedingungsgleichungen für Konsistenzordnung p = 3 eines<br />
(autonomisierungsinvarianten) RK-Verfahrens:<br />
s∑<br />
b i = 1 , (2.3.18)<br />
i=1<br />
2.3<br />
p. 158<br />
Ordnungsschranken:<br />
Für explizite Runge-Kutta-Verfahren p ≤ s<br />
Für allgemeine Runge-Kutta-Verfahren p ≤ 2s<br />
2.3<br />
➣ Gauss-Kollokationsverfahren realisieren maximale Ordnung p. 160
Bemerkung 2.3.11 (“Butcher barriers” für explizite RK-ESV).<br />
y h (T) − y(T) = ch p + O(h p+1 )<br />
y h/2 (T) − y(T) = c2 −p h p + O(h p+1 )<br />
(I)<br />
(II)<br />
Ordnung p 1 2 3 4 5 6 7 8 ≥ 9<br />
Minimale Stufenzahl s 1 2 3 4 6 7 9 11 ≥ p + 3<br />
Eine allgemeine Formel für die minimale Stufenzahl konnte bisher nicht hergeleitet werden.<br />
△<br />
(I)-2 p·(II): y h (T) − 2 p y h/2 (T) − (1 − 2 p )y(T) = O(h p+1 ) ,<br />
⇒<br />
y h (T) − 2 p y h/2 (T)<br />
1 − 2 p − y(T) = O(h p+1 ) .<br />
kombiniertes Verfahren, konvergent von Ordnung p + 1 !<br />
Beispiel 2.4.1 (Konvergenz kombinierter Verfahren).<br />
2.4 Extrapolationsverfahren [5, Sect. 4.3]<br />
AWP für logistische Differentialgleichung (2.2.12): (→ Bsp. 1.2.1)<br />
ẏ = λy(1 − y) , y 0 = 0.01 ⇒ y(t) =<br />
1<br />
1 + 99 · e −λt , t ∈ R .<br />
2.4.1 Der Kombinationstrick<br />
Basisverfahren: Explizites Euler-Verfahren (1.4.2), p = 1<br />
Explizite Trapezregel (2.3.2), p = 2<br />
2.4<br />
p. 161<br />
2.4<br />
p. 163<br />
Einschrittverfahren für Anfangswertproblem<br />
Logistic ODE on [0;1], y(0) = 0.01, λ = 10<br />
Logistic ODE on [0;1], y(0) = 0.01, λ = 10<br />
expl. trapezoidal rule combined<br />
simple expl. trapezoidal rule<br />
ẏ = f(t,y) , y(t 0 ) = y 0 , (t 0 ,y 0 ) ∈ Ω , ((1.1.6))<br />
betrachtet auf [t 0 ,T], liefert Gitterfunktion y G = (y k ) N k=1 als Lösung: y k ≈ y(t k ), t N = T .<br />
Bei äquidistanter Zeitschrittweite h > 0, schreiben wir auch y h (t k ) := y k , also y h (T) = y N .<br />
|y h<br />
(1)−y(1)|<br />
10 −3<br />
10 −4<br />
10 −5<br />
|y h<br />
(1)−y(1)|<br />
10 −3<br />
10 −4<br />
10 −5<br />
10 −6<br />
10 −7<br />
O(h 3 )<br />
10 −6<br />
Sect. 2.1.3: Einschrittverfahren für ẏ = f(y), konvergent von Ordnung p<br />
∃C > 0: ‖y h (T) − y(T)‖ ≤ Ch p für h → 0, N = T/h ∈ N .<br />
(Annahme: Äquidistante Zeitschritte der Länge h > 0)<br />
10 −7<br />
10 −2 h<br />
10 −8<br />
Euler combined<br />
simple Euler<br />
O(h 2 )<br />
10 −3 10 −2 10 −1<br />
Euler-Verfahren<br />
Fig. 60<br />
10 −9<br />
10 −10<br />
10 −2 h<br />
10 −3 10 −2 10 −1<br />
Fig. 61<br />
Explizite Trapezregel ✸<br />
Spekulation: ∃c ∈ R d : y h (T) − y(T) = ch p + O(h p+1 ) für h → 0 . (2.4.1)<br />
Beachte: Falls h ↦→ y h (T) glatt, Verfahren konvergent von Ordnung p, dann ist (2.4.1) naheliegend:<br />
Taylorentwicklung !<br />
Dies wird in Abschnitt 2.4.3 vertieft.<br />
2.4<br />
p. 162<br />
2.4<br />
p. 164
2.4.2 Extrapolationsidee<br />
Erinnerung (→ Vorlesung ”<br />
Numerische Methoden”): Romberg-Quadratur (→ [6, Sect. 9.4])<br />
Abstrakter Rahmen:<br />
Visualisierung:<br />
Idee von Extrapolationsverfahren<br />
✄<br />
exakter Wert<br />
Π(x 0 )<br />
R d<br />
Π h3 (x 0 )<br />
h ↦→ Π h (x 0 )<br />
Π h1 (x 0 )<br />
Π h2 (x 0 )<br />
h<br />
Problem: Π : X ↦→ R d , gesucht Π(x 0 ) für festes x 0 ∈ X, X ˆ= Datenraum<br />
{<br />
Familie numerischer Näherungsverfahen Π h : X ↦→ R d} h ➤ Näherungen Π h(x o ) ≈ Π(x 0 )<br />
Bemerkung 2.4.3 (Skalierungsinvarianz der Extrapolation).<br />
Π h abhängig von skalarem Diskretisierungsparameter h > 0 (z.B. Zeitschrittweite)<br />
Berechne Π h (x 0 ) für h ∈ {h 1 , . ..,h k } ( ”<br />
Schrittweitenfolge”, h i > h i+1 )<br />
Berechne Interpolationspolynom p ∈ (P k−1 ) d mit<br />
p(h i ) = Π hi (x 0 ), i = 1,...,k .<br />
Bessere (?) Näherung<br />
Beispiel 2.4.2 (Romberg-Quadratur).<br />
Π(x 0 ) ≈ p(0)<br />
Interpretation des abstrakten Rahmens für die Romberg-Quadratur: X = C 0 ([a,b]), a,b ∈ R,<br />
a < b<br />
Π h ˆ=<br />
∫b<br />
Π(f) :=<br />
a<br />
N−1<br />
f(x) dx , Π h := h 2 f(a) + h ∑<br />
Trapezregel zur numerischen Quadratur<br />
j=1<br />
f(a + j b−a<br />
N ) + h 2 f(b) , h := 1 N ,<br />
Diskretisierungsparameter h = N 1 , N ∈ N (“Maschenweite” der Trapezregel):<br />
Werte annehmen !<br />
kann nur diskrete<br />
✸<br />
2.4<br />
p. 165<br />
2.4<br />
p. 166<br />
p(t) ∈ P k−1 ˆ= Interpolationspolynom zu (t 1 ,y 1 ), ...,(t k ,y k )<br />
˜p(t) ∈ P k−1 ˆ= Interpolationspolynom zu (ξt 1 ,y 1 ), ...,(ξt k ,y k ) für ein ξ ∈ R<br />
p(0) = ˜p(0)<br />
(Wenn p(t) = ∑ s<br />
j=0 a j t j , dann haben alle Polynome p ξ (t) = ∑ s<br />
j=0 a j (ξt) j offensichtlich den<br />
gleichen Wert für t = 0.)<br />
Es genügt, die Verhältnisse η i := h 1<br />
h i<br />
zu spezifizieren !<br />
Algorithmus: Aitken-Neville-Schema [6, Sect. 9.4] → Vorlesung ”<br />
Numerische Methoden”<br />
Rekursive Berechnung der Werte von Interpolationspolynomen<br />
für h = 0, p = 1:<br />
T i1 := Π hi (x 0 ) , i = 1, ...,k , (2.4.2)<br />
T il := T i,l−1 + T i,l−1 − T i−1,l−1<br />
h i−l+1<br />
h i<br />
− 1<br />
Extrapolationstableau<br />
, 2 ≤ l ≤ k .<br />
(2.4.3)<br />
MATLAB-CODE : Aitken-Neville-Extrapolation<br />
function T = anexpol(y,h)<br />
k = length(h);<br />
T(1) = y(1);<br />
for i=2:k<br />
T(i) = y(i);<br />
for l=i-1:-1:1<br />
T(l)=T(l+1)+(T(l+1)-T(l))/...<br />
end<br />
end<br />
(h(l)/h(i)-1);<br />
η l : η i<br />
✄<br />
T 11<br />
ց<br />
T 21<br />
.<br />
→ T 22<br />
. ..<br />
T k−1,1 → · · · → T k−1,k−1<br />
ց ց ց<br />
T k1 → · · · → T k,k−1 → T kk<br />
△<br />
2.4<br />
p. 167<br />
T(1) T(2) T(3) · · · T(k)<br />
T 11 = y 1<br />
↓<br />
T 22 ← T 21 = y 2<br />
↓ ↓<br />
T 33 ← T 32 ← T 31 = y 3<br />
↓ ↓ ↓<br />
.<br />
.<br />
.<br />
↓ ↓ ↓<br />
T kk ← T k,k−1 ← · · · ← T k,1 2.4<br />
Ausgabe: unterste Tableauzeile absteigend p. 168
☞<br />
Extrapolation ”<br />
funktioniert”, wenn<br />
• lim Π h (x 0 ) = Π(x 0 ) ˆ= Konvergenz,<br />
h→0<br />
• h ↦→ Π h (x 0 ) sich für kleine h wie ein Polynom verhält.”<br />
”<br />
k∑<br />
i=1<br />
L i (0)h j i = ⎧<br />
⎪⎨<br />
⎪ ⎩<br />
1 für j = 0 ,<br />
0 für 1 ≤ j ≤ k − 1 ,<br />
(−1) k−1 h 1 · · · · · h k für j = k .<br />
(2.4.4)<br />
Definition 2.4.1 ((Abgeschnittene) asymptotische Entwicklung).<br />
h ↦→ Π h (x 0 ) (x 0 ∈ X fest) besitzt eine (abgeschnittene) asymptotische Entwicklung in h bis<br />
zur Ordnung k, falls es Konstanten (∗) α 0 , α 1 ,...,α k ∈ R d und eine für hinreichend kleine h<br />
gleichmässig beschränkte Funktion h ↦→ R k (h) gibt, so dass<br />
Π h (x 0 ) = α 0 + α 1 h + α 2 h 2 + · · · + α k h k + R k (h)h k+1 für kleine h > 0 .<br />
(∗) α i Konstanten ˆ= α i unabhängig von h !<br />
Klar: Hinreichend & notwendig für Konvergenz: α 0 = Π(x 0 )<br />
✬<br />
Theorem 2.4.2 (Konvergenz extrapolierter Werte).<br />
Π h (x 0 ) besitze asymptotische Entwicklung in h bis zur Ordnung k gemäss Def. 2.4.1. Dann<br />
erfüllen die Werte aus dem Extrapolationstableau, siehe (2.4.2), (2.4.3), für hinreichend kleine<br />
h j > 0<br />
✫<br />
∥<br />
∥T i,l − α 0<br />
∥ ∥ ≤ ‖α l ‖ h i−l+1 · · · · · h i + C ·<br />
wobei C > 0 nur von den Verhältnissen h i : h j abhängt.<br />
i∑<br />
j=i−l+1<br />
∥<br />
∥R k (h j ) ∥ ∥h l+1<br />
j , 1 ≤ i,l ≤ k ,<br />
Beweis: Jedes T i,k aus dem Extrapolationstableau lässt sich als “Endwert” T kk eines Teiltableaus<br />
interpretieren ➥ Es genügt, den Beweis für i = l = k zu führen<br />
Voraussetzung: Existenz einer (abgeschnittenen) asymptotischen Entwicklung → Def. 2.4.1<br />
T i,1 = Π hi (x 0 ) = α 0 + α 1 h i + α 2 h 2 i + · · · + α kh k i + R k(h)h k+1<br />
i für kleines h i > 0 .<br />
Extrapolationspolynom zu (h i ,T i,1 ), i = 1,...,k: q ∈ P k−1 , dargestellt durch<br />
Lagrange-Polynome, siehe (2.2.2)<br />
✩<br />
✪<br />
2.4<br />
p. 169<br />
Nachweis von (2.4.4): für 0 ≤ j ≤ k−1 stimmt r j (t) := ∑ k<br />
i=1 h j i L i(t) ∈ P k−1 mit t ↦→ t j überein.<br />
Für j = k hat t k − r k (t) ∈ P k die Nullstellen h i , i = 1, ...,k und führenden Koeffizienten 1:<br />
t k − r k (t) = (t − h 1 ) · · · · · (t − h k ) .<br />
Damit folgt (2.4.4).<br />
⎛<br />
⎞<br />
k∑<br />
k∑ k∑<br />
T k,k = q(0) = L i (0)T i,1 = L i (0) ⎝ α j h j i + R k(h i )h k+1 ⎠<br />
i<br />
i=1 i=1 j=0<br />
k∑ k∑ k∑<br />
= α j h j i L i(0) + L i (0)R k (h i )h k+1<br />
i<br />
j=0 i=1 i=1<br />
(2.4.4)<br />
k∑<br />
= α 0 + α k · (−1) k−1 h 1 · · · · · h k + L i (0)R k (h i )h k+1<br />
i .<br />
i=1<br />
Also gilt die Behauptung mit C := max |L i(0)|. Beachte, dass L i (0) nur von den Verhältnissen<br />
i=1,...,l<br />
2.4<br />
h i : h j abhängt, siehe Bem. 2.4.3. ✷ p. 171<br />
2.4.3 Extrapolation von Einschrittverfahren<br />
Anfangswertproblem (1.1.6): ẏ = f(t,y), y(t 0 ) = y 0 ➣ Lösung t ↦→ y(t)<br />
Das Anfangswertproblem wird betrachtet auf festem Zeitintervall [t 0 , T]<br />
Annahme: f ”<br />
hinreichend” glatt ⇔ y(t) ”<br />
hinreichend” glatt<br />
Gegeben: Konsistentes Einschrittverfahren ↔ diskrete Evolution (→ Lemma 2.1.6)<br />
Annahmen:<br />
Ψ t,t+h y = y + hψ(t,y,h) , ψ(t,y, 0) = f(t,y) , (t,y) ∈ Ω, h klein . (2.4.5)<br />
Inkrementfunktion ψ stetig differenzierbar in (t,y)<br />
ESV hat Konsistenzordnung = Konvergenzordnung p ∈ N (→ Thm. 2.1.10)<br />
Gegeben: Endzeitpunkt T ∈ J(t 0 ,y 0 ) ➥ uniforme Zeitschrittweite h = (T −t 0 )/N, N ∈ N<br />
k∑<br />
q(t) = T i,1 L i (t) , L i ∈ P k−1 , L i (h j ) = δ ij , i,j = 1, ...,k .<br />
i=1<br />
2.4<br />
p. 170<br />
Einschrittverfahren ➡ Gitterfunktion {y k } N k=0 , y N ≈ y(T)<br />
2.4<br />
p. 172
✬<br />
Theorem 2.4.3 (Asymptotische Entwicklung des Diskretisierungsfehlers von ESV).<br />
Es existieren ein K ∈ N (abhängig von der Glattheit von f) und glatte Funktionen e i :<br />
J(t 0 ,y 0 ) ↦→ R d , i = p,p + 1,...,p + K, mit e i (0) = 0 und (für hinreichend kleine h)<br />
gleichmässig beschränkte Funktionen (T,h) ↦→ r k+p+1 (T,h), 0 ≤ k ≤ K, so dass<br />
Dabei gilt<br />
✫<br />
y N − y(T) =<br />
k∑<br />
e l+p (T)h l+p + r k+p+1 (T,h)h k+p+1 für kleines h .<br />
l=0<br />
∥<br />
∥r k+p+1 (T,h) ∥ ∥ = O(T − t 0 ) für T − t 0 → 0 gleichmässig in h < T ,<br />
‖e(T)‖ = O(T − t 0 ) für T − t 0 → 0.<br />
Beweis. Annahme: f, y(t) ”<br />
hinreichend” glatt<br />
Weiter nehmen wir globale Lipschitz-Stretigkeit der Inkrementfunktion ψ des ESV aus (2.4.5) an:<br />
∃L > 0: ‖ψ(t,z, h) − ψ(t,w,h)‖ ≤ L ‖z − w‖ gleichmässig in t 0 ≤ t ≤ T, h . (2.4.6)<br />
✩<br />
✪<br />
Beweis von (2.4.9) durch Induktion:<br />
(∗) ← Induktionsannahme.<br />
ŷ j+1 = ŷ j + ĥψ(t j ,ŷ j ,h)<br />
(2.4.8)<br />
= ŷ j + hψ(t j ,ŷ j + e(t j )h p ,h) − h p (e(t j+1 ) − e(t j ))<br />
(∗)<br />
= y j + hψ(t j ,y j ,h) −e(t<br />
} {{ } j+1 )h p .<br />
=y j+1<br />
Annahme: Das modifizierte Einschrittverfahren ist konsistent mit ẏ = f(t,y) zur Ordnung p + 1<br />
Thm. 2.1.10<br />
⇒ ŷ N − y(T) = r p+1 (T, h)h p+1 ,<br />
∥<br />
∥r p+1 (T, h) ∥ ≤ C exp(L(T − t 0)) − 1<br />
,<br />
} {{ L }<br />
=O(T −t 0 ) für T −t 0 →0<br />
(Kompaktheitsargumente, vgl. Beweis von Thm. 2.1.10, machen Verzicht auf diese Annahme<br />
möglich.)<br />
Konsequenz der Konsistenzordnung p (→ Def. 2.1.9) und Glattheit von f: für Konsistenzfehler (→<br />
Def. 2.1.7) entlang der Lösungstrajektorie (nur dort wird die Konsistenzfehlerabschätzung im Beweis<br />
2.4<br />
p. 173<br />
mit C > 0 unabhängig von h, T . L ˆ= gemeinsame Lipschitz-Konstante von ψ, ̂ψ (bzgl. y) aus (2.4.6)<br />
(2.4.9)<br />
⇒ y N − y(T) = e(T)h p + r p+1 (T, h)h p+1 .<br />
Damit haben wir das erste Glied der asymptotischen Entwicklung des Theorems erhalten.<br />
2.4<br />
p. 175<br />
von Thm. 2.1.10 gebraucht !) gilt<br />
τ(t,y(t), h) := y(t + h) − Ψ t,t+h y(t) = d(t)h p+1 + O(h p+2 ) für h → 0 , (2.4.7)<br />
mit stetiger Funktion d : [t 0 , T] ↦→ R d . Dies ergibt sich mit Taylorentwicklung, siehe Bsp. 2.3.9:<br />
RK-ESV: d hängt nur von Ableitungen von f ab ➢ d “hinreichend glatt”<br />
Idee: Betrachte ESV mit modifizierter Inkrementfunktion<br />
̂ψ(t,u, h) := ψ(t,u + e(t)h p ,h) − (e(t + h) − e(t))h p−1 , (2.4.8)<br />
mit “hinreichend glatter” Funktion e : [t 0 , T] ↦→ R d .<br />
Beachte: Auch ̂ψ erfüllt (2.4.6) mit dem gleichen L > 0.<br />
Warum betrachten wir dieses modifizierte ESV ?<br />
y j /ŷ j , j = 0, ...,N ˆ= Gitterfunktionen erzeugt durch ursprüngliches/modifiziertes ESV mit Zeitschrittweite<br />
h := (T −t 0)<br />
N . Setze ŷ 0 = y 0<br />
ŷ j = y j − e(t j )h p , t j := t 0 + jh , j = 0, ...,N . (2.4.9)<br />
2.4<br />
p. 174<br />
Induktive Anwendung des Arguments ➢ Modifizierte ESVen ̂Ψ 1 := ̂Ψ, ̂Ψ 2 , ..., ̂Ψ k+1 konsistent<br />
zu ẏ = f(t,y) mit Ordnungen p + 1,p + 2,...,p + k + 1 erzeugen Näherungslösungen ŷ 1 j :=<br />
ŷ j ,ŷj 2, ...,ŷk+1 j<br />
, j = 1, . ..,N.<br />
Mit ŷ 0 k = y k (Teleskopsumme)<br />
ŷj l+1 = ŷj l − e l(t j )h p+l , l = 0, ...,k .<br />
k∑<br />
y N − y(T) = ŷN l − ŷl+1 N + r p+k+1(T,h)h p+k+1<br />
l=0<br />
k∑<br />
= e l (T)h p+l + r p+k+1 (T,h)h p+k+1 .<br />
l=0<br />
Daraus folgt die Behauptung des Theorems.<br />
?<br />
Existenz von e(t) so dass das modifizierte ESV Konsistenzordnung p + 1 besitzt.<br />
☞<br />
Betrachte den Konsistenzfehler des modifizierten Verfahrens & Taylorentwicklung(en)<br />
y(t + h) − ̂Ψ t,t+h y(t) = y(t + h) − y(t) − ĥψ(t,y(t),h)<br />
= y(t + h) − y(t) − hψ(t,y(t) + e(t)h p ,h) + (e(t + h) − e(t))h p<br />
(<br />
= y(t + h) − y(t) − h ψ(t,y(t),h) + ∂ψ<br />
)<br />
∂y (t,y(t), h)e(t)hp + O(h 2p ) + ė(t)h p+1 + O(h p+2 )<br />
( )<br />
2.4<br />
p. 176
Löst e folgendes AWP für eine inhomogene linear Variationsgleichung<br />
ė(t) = ∂f (t,y(t))e(t) − d(t) , e(0) = 0 ⇒<br />
∂y<br />
e glatt , (2.4.10)<br />
dann ist die Annahme über das modifizierte ESV erfüllt.<br />
✷<br />
Logisch:<br />
K hängt von der Glattheit von f ab.<br />
Idee: Ordnungserhöhung durch Extrapolation (→ Sect. 2.4.2)<br />
MATLAB-CODE : Einzelschritt, lokales Extrapolations-ESV, skalare ODE<br />
function y = expesvstep(esvstep,y,t,h,n)<br />
for i=1:length(n)<br />
yt(i) = y;<br />
ht = h/n(i); tt = t;<br />
for j=1:n(i)<br />
yt(i) = esvstep(yt(i),tt,ht);<br />
tt = tt + ht;<br />
end<br />
T = anexpol(yt,1./n,p);<br />
return(T(1));<br />
esvstep(y,t,h) ˆ= ein Schritt<br />
des Basisverfahrens, Schrittweite<br />
h, ausgehend vom Zustand (t,y):<br />
esvstep(y,t,h) := Ψ t,t+h y<br />
n ˆ= Vektor (n l ) k+1<br />
l=1<br />
anexpol ˆ= verallgemeinerte<br />
Version für Extrapolationspolynom<br />
p(t) = α 0 + α p h p + α p+1 h p+1 +<br />
· · · + α p+k−1 h p+k−1<br />
Wähle N 1 < N 2 < · · · < N k+1 , N i ∈ N<br />
ESV (Schrittweite h i = (T −t 0 )/N i ) liefert y Ni , i = 1,...,k + 1<br />
Ablauf: Lokales Extrapolations-Einschrittverfahren (n 1 = 1,n 2 = 2, n 3 = 3)<br />
Polynomextrapolation (∗) aus (h i ,y hi ,N i<br />
)<br />
➥ Näherung ỹ mit ‖ỹ − y(T)‖ = O(h p+k<br />
1 ) (vgl. Thm. 2.4.2)<br />
(∗): Thm. 2.4.3 ➤ Extrapolation basierend auf Polynom der Form<br />
p(t) = α 0 + α p h p + α p+1 h p+1 + · · · + α p+k−1 h p+k−1 !<br />
Thm. 2.4.3 erfordert ”<br />
hinreichend kleines” h<br />
2.4<br />
p. 177<br />
D<br />
2.4<br />
p. 179<br />
Nicht nur y(T) von Interesse, sondern (genäherte) Lösung t ↦→ y(t)<br />
• ˆ= y j<br />
2.4.4 Lokale Extrapolations-Einschrittverfahren<br />
• ↔ n 1 = 1<br />
• ↔ n 1 = 2<br />
• ↔ n 1 = 3<br />
ˆ= Extrapolation<br />
H j H j+1 H j+2<br />
Fig. 62<br />
Anwendung der Extrapolationsidee auf Intervallen eines Zeitgitters G := {t 0 < t 1 < · · · <<br />
t N = T } ↔ Makroschritte: auf [t j , t j+1 ], Makroschrittweite H j := t j+1 − t j<br />
Fixiere Sequenz (n l ) k+1<br />
l=1 , n l ∈ N, z.B. (1, 2, 3, 4, 5, 6,...) ↔ Anzahl Mikroschritte<br />
n l Schritte des ESV mit Startwert y j , Schrittweite h = t j+1−t j<br />
n l<br />
➥ yj+1 l , l = 1, ...,k + 1<br />
(ESV = Basisverfahren, Ordnung p)<br />
Polynomextrapolation (∗) aus (n −1<br />
l ,y l j+1 ) ➥ y j+1 vgl. Bem. 2.4.3<br />
t j−1 t j t j+1<br />
Beispiel 2.4.4 (Extrapoliertes Euler-Verfahren).<br />
t<br />
Extrapolations-Einschrittverfahren der Ordnung p + k<br />
2.4<br />
p. 178<br />
2.4<br />
p. 180
AWP für logistische Dgl. (→ Bsp. 1.2.1)<br />
ẏ = 5y(1 − y) , y(0) = 0.02 .<br />
Endzeit: T = 1 Basis-ESV: explizites Euler-<br />
Verfahen (1.4.2)<br />
Extrapolation: verschiedene k,n l , l = 1, ...,k+1,<br />
uniforme Makroschrittweite h<br />
Fehler<br />
max |y(t j ) − y j | .<br />
j<br />
10 0<br />
10 −2<br />
10 −4<br />
10 −6<br />
10 −8<br />
macro step h<br />
10<br />
Algebraische Konvergenz der Ordnung k + 1 ✄ −10<br />
10 −3 10 −2 10 −1<br />
error<br />
(1,2)<br />
(1,2,3)<br />
(1,2,4)<br />
(1,4,16)<br />
O(h 2 )<br />
O(h 3 )<br />
O(h 4 )<br />
✸<br />
wobei C > 0 nur von den Verhältnissen n j : n l abhängt.<br />
⇒ ‖ŷ − y(t + H)‖ ≤ CH k+2 ,<br />
mit C > 0 unabhängig von H.<br />
Bemerkung 2.4.5 (Extrapolationsverfahren als Runge-Kutta-Verafhren).<br />
Basisverfahren: Explizites Euler-Verfahren (1.4.2), Ordnung p = 1<br />
➜ Polynomextrapolation zur Sequenz (1, 2, 3, 4, ...,k) liefert explizites (→ Def. 2.1.2)<br />
Runge-Kutta-Verfahren (→ Def. 2.3.1) der Ordnung k mit s = k(k − 1)/2 + 1 Stufen.<br />
△<br />
Theoretische Analyse ↔ Verifikation der Voraussetzungen von Thm. 2.1.10<br />
Überlegungen für Spezialfall p = 1 ↔ Euler-Verfahren, vgl. Bsp. 2.4.4<br />
Notationen:<br />
t ↦→ y(t) ˆ= exakte Lösung durch (t,y) ∈ Ω<br />
H > 0 ˆ= Schrittweite des Makroschritts<br />
n 1 , ...,n k+1 ˆ= Anzahl von Mikroschritten in [t, t + H]<br />
2.4<br />
p. 181<br />
2.4.5 Ordnungssteuerung<br />
2.4<br />
p. 183<br />
y N ˆ= Resultat der Anwendung von N Schritten des Basis-Einschrittverfahrens auf [t,t + H] mit<br />
uniformer Schrittweite h := H/N und Startwert y<br />
Für Extrapolations-Einschrittverfahren:<br />
k = k(j) einfach zu realisieren<br />
ŷ ˆ= durch Extrapolation aus y n1 ,y n2 ,...,y nk+1 gewonnener Näherungswert für y(t + H)<br />
Idee: [(lokale) Ordnungssteuerung]<br />
✗<br />
✔<br />
Konsistenzfehler (→ Def. 2.1.7): τ(t,y,H) = y(t + H) − ŷ .<br />
Zu zeigen ist: Konsistenzordnung k + 1 ↔ ‖τ(t,y, H)‖ = O(H k+2 )<br />
✖<br />
Erhöhe lokale Ordnung, bis es sich nicht mehr lohnt (∗)”<br />
”<br />
(∗) Heuristisches Beurteilungskriterium (basierend auf Aitken-Neville-Extrapolationstableau (2.4.3)):<br />
✕<br />
➀<br />
Lokale Anwendung von Thm. 2.4.3 mit t 0 = t, T = t + H: für hinreichend grosses K ∈ N<br />
⇒ y N − y(t + H) =<br />
l=1<br />
wobei ☞ ‖r K (t + H,h)‖ ≤ CH<br />
☞ ‖e(t + H)‖ ≤ CH<br />
mit C > 0 unabhängig von t und (hinreichend kleinem) h.<br />
K∑<br />
e l (t + H)h l + r K (t + H,h)h K+1 , h = H/N ,<br />
∥<br />
∥T k,k−1 − T k,k<br />
∥ ∥ ≤ TOL · ∥∥T k,k<br />
∥ ∥ für ToleranzTOL > 0 .<br />
Zweitbeste Näherung<br />
beste Näherung<br />
➁ Damit aus Thm. 2.4.2<br />
k∑ ∥<br />
‖ŷ − y(t + H)‖ ≤ ‖e k+1 (t + H)‖ h 1 · · · · · h k+1 + C ∥r j (t + H, h j ) ∥ ∥h k+2<br />
j ,<br />
j=1<br />
2.4<br />
p. 182<br />
2.4<br />
p. 184
MATLAB-CODE : Adaptives Euler-Extrapolationsverfahren<br />
function [y,k] = eulexstep(f,y,H,TOL)<br />
kmax = 1000;<br />
T{1} = y + H*f(y);<br />
for i=2:kmax<br />
T{i} = y; h = H/i;<br />
for k=1:i, T{i} = T{i} + h*f(T{i}); end<br />
for l=i-1:-1:1<br />
T{l} = T{l+1} + (T{l+1}-T{l})/(i/l-1);<br />
end<br />
if (norm(T{1}-T{2}) < TOL*norm(T{1}))<br />
y = T{1}; k = i; return;<br />
end<br />
Adaptives<br />
Euler-Extrapolationsverfahren:<br />
(für autonomes AWP)<br />
Makroschritt der LängeH<br />
Argumente:<br />
f<br />
: Funktionshandle f=@(y)<br />
auf rechte Seite<br />
y : Anfangswert zu t = 0<br />
TOL : Toleranz<br />
Rückgabewerte:<br />
y : Näherung zu t = H<br />
k : Verwendete Extrapolationstiefe<br />
y 2<br />
(t)<br />
0.6<br />
0.4<br />
0.2<br />
0<br />
−0.2<br />
−0.4<br />
−0.6<br />
−0.8<br />
−1<br />
−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8<br />
y (t) 1<br />
Fig. 63<br />
y i<br />
(t)<br />
5<br />
0<br />
−5<br />
20<br />
y (t ) (Naeherung)<br />
1 k<br />
y (t ) (Naeherung)<br />
2 k<br />
v (t ) (Naeherung)<br />
1 k<br />
v (t ) (Naeherung)<br />
2 k<br />
0 0.5 1 1.5 2 2.5 3 3.5<br />
10<br />
4 0<br />
t<br />
Local extrapolation depth<br />
Fig. 64<br />
Beachte:<br />
Einfache Erweiterung des Extrapolationstableaus um eine weitere Zeile<br />
✄ Automatische Erhöhung der Ordnung an ”<br />
kritischen Stellen”<br />
✸<br />
Beispiel 2.4.6 (Euler-Extrapolationsverfahren mit Ordnungssteuerung).<br />
Bewegung eines geladenen ( Teilchens im Feld eines geraden Drahtes = Linienladung (konservatives<br />
0) Zentralfeld, Zentrum 0 , Potential U(x) := −2 log ‖x‖): → Bsp. 1.2.9<br />
ÿ = − 2y ( ( )<br />
y ˙ v<br />
( ) ( )<br />
−1 0.1<br />
‖y‖ 2 ⇒ =<br />
v)<br />
− 2y , y(0) = , v(0) = .<br />
‖y‖ 2 0<br />
−0.1<br />
Anfangswert: y(0) = (−1, 0, 0.1, −0.1), Endzeitpunkt: T = 4<br />
2.4<br />
p. 185<br />
2.4.6 Extrapolation reversibler Einschrittverfahren<br />
Beispiel 2.4.7 (Extrapolierte implizite Mittelpunktsregel).<br />
Anfangswertproblem aus Bsp. 1.4.3 (logistische Dgl., siehe Bsp. 1.2.1), λ = 10, y 0 = 0.01, aus<br />
[0, 1] (T = 1)<br />
2.4<br />
p. 187<br />
y 2<br />
0.8<br />
0.6<br />
0.4<br />
0.2<br />
0<br />
−0.2<br />
4<br />
3<br />
2<br />
1<br />
0<br />
y 1<br />
(t)<br />
y 2<br />
(t)<br />
v 1<br />
(t)<br />
v 2<br />
(t)<br />
Einschrittverfahren: implizite Mittelpunktsregel (1.4.11)<br />
Globale Extrapolation (→ Abschnitt 2.4.3) von y h (T) aus Lösungen erhalten durch uniforme<br />
Schrittweiten h/n i<br />
Beachte: Extrapolation auf der Grundlage des Standard-Tableaus (2.4.2)<br />
Implicit MPR (extr.), logistic ODE, λ = 10.000000, y0 = 0.010000, T = 1.000000<br />
−0.4<br />
−1<br />
−0.6<br />
−2<br />
10 −2<br />
−0.8<br />
Exakte Bahn<br />
−1<br />
−1 −0.5 0 0.5 1<br />
y 1<br />
Beobachtung:<br />
−3<br />
−4<br />
0 0.5 1 1.5 2 2.5 3 3.5 4<br />
t<br />
Peaks” in der Lösungskomponente v(t) (= zeitlokale Charakteristika)<br />
”<br />
Ordnungsadaptives Euler-Extrapolationsverfahren (TOL = 0.01), uniforme Makrozeitschrittweite H =<br />
0.02<br />
|y N<br />
−y(T)|<br />
10 −4<br />
10 −6<br />
10 −8<br />
10 −10<br />
10 −12<br />
10 −14<br />
10 0 h<br />
No extrapolation<br />
n=(1,2)<br />
n=(1,2,3)<br />
n=(1,2,3,4)<br />
n=(1,2,3,4,5)<br />
O(h 2 )<br />
O(h 4 )<br />
O(h 6 )<br />
10 −2 10 −1 10 0<br />
Fig. 65<br />
✁ Ordnungserhöhung nur in jedem zweite Extrapolationsschritt<br />
Ordnungserhöhung um jeweils zwei<br />
✸<br />
2.4<br />
p. 186<br />
2.4<br />
p. 188
Beobachtung aus Bsp. 2.4.7 einfach zu erklären, falls<br />
y h (T) = y(T) + α 1 h 2 + α 2 h 4 + α 6 h 6 + · · · .<br />
➣ DIFEX-Algorithmus [5, Sect. 4.3.3]<br />
△<br />
Beispiel 2.4.8 (Globale h 2 -Extrapolation für implizite Mittelpunktsregel).<br />
(Fast) wie Bsp. 2.4.7<br />
NEU:<br />
y N aus Extrapolation in h 2<br />
2.5 Splittingverfahren [11, Sect. 2.5]<br />
Implicit MPR (h 2 extr.), logistic ODE, λ = 10.0, y0 = 0.01, T = 1.0<br />
Autonomes AWP mit additiv zerlegter rechter Seite:<br />
10 −2<br />
10 −4<br />
ẏ = f(y) + g(y) , y(0) = y 0 , (2.5.1)<br />
mit f : D ⊂ R d ↦→ R d , g : D ⊂ R d ↦→ R d “hinreichend glatt”, lokal Lipschitz-stetig (→ Def. 1.3.2)<br />
|y N<br />
−y(T)|<br />
10 0 h<br />
10 −6<br />
10 −8<br />
✁ Ordnungserhöhung um zwei in jedem Extrapolationsschritt<br />
!<br />
(Kontinuierliche) Evolutionen:<br />
Φ t f ↔ Dgl. ẏ = f(y) ,<br />
Φ t g ↔ Dgl. ẏ = g(y) .<br />
10 −10<br />
✬<br />
✫<br />
10 −12<br />
10 −14<br />
No extrapolation<br />
n=(1,2)<br />
n=(1,2,3)<br />
O(h 2 )<br />
O(h 4 )<br />
O(h 6 )<br />
10 −2 10 −1 10 0<br />
Fig. 66<br />
Theorem 2.4.4 (Asymptotische Entwicklung des Diskretisierungsfehlers in h 2 ).<br />
Bezeichne y h (t), t ∈ äquidistantes Zeitgitter mit Schrittweite h > 0 auf [t 0 , T], die durch ein<br />
reversibles Einschrittverfahren (→ Def. 2.1.14) erzeugte Näherungslösung eines Anfangswertproblems<br />
ẏ = f(t,y), y(t 0 ) = y 0 , mit exakter Lösung t ↦→ y(t).<br />
Dann existieren ein K ∈ N (abhängig von der Glattheit von f) und glatte Funktionen e i :<br />
J(t 0 ,y 0 ) ↦→ R d , i = 1,...,K, mit e i (0) = 0 und (für hinreichend kleine h) gleichmässig<br />
beschränkte Funktionen (T,h) ↦→ r k (T, h), 0 ≤ k ≤ K, so dass<br />
y h (T) − y(T) =<br />
k∑<br />
e l (T)h 2l + r k (T,h)h 2k+2 für kleines h .<br />
l=1<br />
Dabei gilt ‖r k (T, h)‖ = O(T − t 0 ) für T − t 0 → 0 gleichmässig in h < T .<br />
Beweis. Siehe [5, Satz 4.42] ✷<br />
Bemerkung 2.4.9 (DIFEX).<br />
✸<br />
✩<br />
✪<br />
2.4<br />
p. 189<br />
2.5<br />
Annahme: Φ t f , Φt g (analytisch) bekannt p. 191<br />
(2.5.2) ↔<br />
Idee: Konstruiere Einschrittverfahren mit diskreten Evolutionen<br />
y 1<br />
Ψ h<br />
Φ h g<br />
y 0<br />
Φ h f<br />
Lie-Trotter-Splitting: Ψ h = Φ h g ◦ Φ h f , (2.5.2)<br />
Strang-Splitting: Ψ h = Φ h/2<br />
f ◦ Φ h g ◦ Φ h/2<br />
f . (2.5.3)<br />
Fig. 67<br />
(2.5.3) ↔<br />
Beispiel 2.5.1 (Konvergenz einfacher Splittingverfahren).<br />
√<br />
1 − y 2<br />
ẏ = λy(1 − y) +<br />
} {{ }<br />
=:f(y)<br />
} {{ }<br />
=:g(y)<br />
Φ h/2<br />
f y 1<br />
Ψ h Φ h g<br />
y 0<br />
, y(0) = 0 .<br />
Φ h/2<br />
f<br />
Fig. 68<br />
Praktische Extrapolationsverfahren stützen sich auf explizite Verfahren, deren Fehler eine asymptotische<br />
Entwicklung in h 2 besitzt (eine spezielle Trapezregel)<br />
2.4<br />
p. 190<br />
Φ t f y = 1<br />
1 + (y −1 − 1)e −λt , t > 0,y ∈]0, 1] (Logistische Differentialgleichung (2.2.12)) 2.5<br />
p. 192
|y(T)−y h<br />
(T)|<br />
Φ t gy =<br />
{<br />
sin(t + arcsin(y)) , falls t + arcsin(y) < π 2 ,<br />
1 , sonst,<br />
10 −2<br />
10 −3<br />
10 −4<br />
10 −5<br />
Lie−Trotter−Splitting<br />
Strang−Splitting<br />
O(h)<br />
10 −6<br />
O(h 2 )<br />
10 −2 10 −1<br />
Zeitschrittweite h<br />
Fig. 69<br />
✬<br />
✫<br />
t > 0,y ∈ [0, 1] .<br />
Numerisches Experiment:<br />
T = 1, λ = 1, Vergleich von Splittingverfahren<br />
(konstante Schrittweite) mit hochgenauer numerischer<br />
Lösung erhalten durch<br />
f=@(t,x) λ*x*(1-x)+sqrt(1-xˆ2);<br />
options=odeset(’reltol’,1.0e-10,...<br />
’abstol’,1.0e-12);<br />
[t,yex]=ode45(f,[0,1],y0,options);<br />
✁ Fehlerverhalten zum Endzeitpunkt T = 1<br />
Theorem 2.5.1 (Konsistenzordnung einfacher Splittingverfahren). Die ESV (2.5.2) und (2.5.3)<br />
haben die Konsistenzordnungen (→ Def. 2.1.9) 1 bzw. 2.<br />
Beweis. Annahme: f, g hinreichend glatt.<br />
Taylorentwicklung der Evolution nach h, vgl. (2.3.14):<br />
Φ h y =y + ẏ(0)h + 1 2ÿ(0)h2 + O(h 3 )<br />
=y + h(f(y) + g(y)) + 1 2 h2 (Df(y) + Dg(y))(f(y) + g(y)) + O(h 3 ) .<br />
Taylorentwicklung der partiellen Evolutionen Φ h f , Φh g nach h, vgl. (2.3.14)<br />
Φ h f y = y + hf(y) + 1 2 h2 Df(y)f(y) + O(h 3 ) ,<br />
Φ h gy = y + hg(y) + 1 2 h2 Dg(y)g(y) + O(h 3 ) .<br />
Ψ h y =Φ h/2<br />
f (Φh g(Φ h/2<br />
f y)) = Φh/2<br />
f (Φh g(y + h/2f(y) + 8 1h2 Df(y)f(y) + O(h 3 )))<br />
(<br />
=Φ h/2<br />
f y + h/2f(y) + 1 8 h2 Df(y)f(y) + O(h 3 ) + hg(y + h/2f(y) + O(h 2 ))<br />
)<br />
+ 1 2 h2 Dg(y + O(h))g(y + O(h)) + O(h 3 )<br />
(<br />
=Φ h/2<br />
f y + h/2f(y) + hg(y) + 1 8 h2 Df(y)f(y) + 1 2 h2 Dg(y)f(y)+<br />
)<br />
1<br />
2 h2 Dg(y)g(y) + O(h 3 )<br />
=y + h 2 f(y) + hg(y) + 1 8 h2 Df(y)f(y) + 1 2 h2 Dg(y)f(y) + 1 2 h2 Dg(y)g(y) + O(h 3 )+<br />
✸<br />
(2.5.4)<br />
✩<br />
✪<br />
2.5<br />
p. 193<br />
2.5<br />
p. 194<br />
h/2f(y + h 2 f(y) + hg(y)) + O(h2 )) + 1 8 h2 Df(y + O(h))f(y + O(h))<br />
=y + h 2 f(y) + hg(y) + 1 8 h2 Df(y)f(y) + 1 2 h2 Dg(y)f(y) + 1 2 h2 Dg(y)g(y)<br />
+ 1 2 hf(y) + 1 4 h2 Df(y)f(y) + 1 2 h2 Df(y)g(y) + 1 8 h2 Df(y)f(y) + O(h 3 )<br />
=y + h(f(y) + g(y)) + 1 2 h2( Df(y)f(y) + Dg(y)f(y) + Df(y)g(y) + Dg(y)g(y) )<br />
+ O(h 3 ) .<br />
Vergleich mit (2.5.4) liefert die Behauptung für das Strang-Splitting.<br />
Bemerkung 2.5.2 ( reversible Strang-Splitting-Einschrittverfahren).<br />
Diskrete Evolution Ψ h aus (2.5.3) erfüllt<br />
Ψ −h = Φ −h/2<br />
f<br />
(<br />
◦ Φ −h g ◦ Φ −h/2<br />
f =<br />
Φ h/2<br />
f<br />
Ψ ist reversibel (→ Def. 2.1.14)<br />
) −1 ( ) −1 (<br />
◦ Φ h g ◦<br />
)<br />
Φ h/2 −1<br />
f<br />
=<br />
(<br />
Φ h/2<br />
f ◦ Φ h g ◦ Φ h/2<br />
f<br />
Thm. 2.1.15 ⇒ gerade Konsistenzordnung von Strang-Splitting-Einschrittverfahren<br />
Beispiel 2.5.3 (Splittingverfahren für mechanische Systeme).<br />
Newtonsche Bewegungsgleichung<br />
¨r = a(r)<br />
(1.1.5)<br />
⇐⇒ ẏ :=<br />
(<br />
r<br />
˙<br />
v)<br />
( ) (<br />
0 v<br />
Splitting: F(y) = + .<br />
a(r) 0)<br />
} {{ } }{{}<br />
=:f(y) =:g(y)<br />
( ) ( )<br />
Φ t r0 r<br />
f = 0<br />
v 0 v 0 + ta(r 0 )<br />
)<br />
✷<br />
(<br />
= Ψ h) −1<br />
.<br />
( )<br />
v<br />
= =: F(y) .<br />
a(r)<br />
( ) ( )<br />
, Φ t r0 r0 + tv<br />
g = 0 .<br />
v 0 v 0<br />
Lie-Trotter-Splitting (2.5.2): ➢ Symplektisches Eulerverfahren<br />
( ) ( ) ( ) ( )<br />
Ψ h r<br />
= Φ<br />
v<br />
h g ◦ Φ h r r + h(v + ha(r))<br />
f =<br />
. (2.5.5)<br />
v v + ha(r)<br />
Strang-Splitting (2.5.3):<br />
( ) (<br />
Ψ h r<br />
= Φ h/2<br />
v g<br />
◦ Φ h f ◦ Φh/2 g<br />
) ( )<br />
r<br />
v<br />
(<br />
r + hv + 1<br />
=<br />
2 h 2 a(r + 1 2 hv)<br />
)<br />
v + ha(r + 2 1hv) . (2.5.6)<br />
△<br />
2.5<br />
p. 195<br />
2.5<br />
p. 196
= Einschrittformulierung des Störmer-Verlet-Verfahrens (1.4.14), siehe Bem. 1.4.15 !<br />
(2.5.6) ←→<br />
r k+ 1 = r k + 1<br />
2<br />
2 hv k ,<br />
v k+1 = v k + ha(r k+ 1) ,<br />
2<br />
r k+1 = r k+ 1 + 1<br />
2<br />
2 hv k+1 .<br />
(2.5.7)<br />
✸<br />
2.6 Schrittweitensteuerung [5, Kap. 5], [16, Sect. 2.8]<br />
Erinnerung an das Keplerproblem von Bsp. 2.4.6, Oregonator-Reaktion von Bsp. 1.2.5:<br />
Häufig: Lösungen von AWPs zeigen stark ungleichmässiges Verhalten in der Zeit.<br />
Idee:<br />
Ersetze<br />
Exakte Evolutionen −→ diskrete Evolutionen<br />
Φ h g , Φh f −→ Ψ h g , Ψh f<br />
Beispiel 2.5.4 (Inexakte Splittingverfahren). Forsetzung Bsp. 2.5.1<br />
AWP von Bsp. 2.5.1, Inexakte Splittingverfahren auf der Grundlage verschiedener inexakter Basisverfahren:<br />
Effizienz<br />
✬<br />
Ziel: ♯G möglichst klein<br />
✫<br />
Adaptive Wahl des Rechengitters für ESV durch zeitlokale Fehlerschätzung<br />
(→ Ordnungssteuerung bei Extrapolationsverfahren, Sect. 2.4.5)<br />
&<br />
Genauigkeit<br />
max ‖y(t k) − y k ‖ Ordnung(Ψ)<br />
⇒ Φ t,t+h y(t k ) − Ψ t,t+h y(t k ) ≈ EST<br />
} {{ } k := ˜Ψ t,t+h y(t k ) − Ψ t,t+h y(t k ) . (2.6.1)<br />
Konsistenzfehler<br />
Heuristik für konkretes h<br />
Beispiel 2.6.1 (Qualität der Fehlerschätzung).<br />
Skalares AWP: ẏ = cos 2 (ay), Lösung y(t) = 1/a arctan(at) auf [−1, 1], a = 10<br />
☞<br />
Ordnung der Splittingverfahren wird durch Konsistenzordnung von Φ h f , Φh g begrenzt.<br />
Ausnahme: SS-EuEI: reversibles Verfahren ➢ Konsistenzordnung ≥ 2 nach Thm. 2.1.15<br />
✸<br />
Ψ ↔ Explizites Euler-Verfahren (1.4.2), Ordnung p = 1<br />
˜Ψ ↔ Explizite Trapezregel (2.3.2), Ordnung p = 2<br />
2.6<br />
p. 198<br />
2.6<br />
p. 200
−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1<br />
0.15<br />
0.1<br />
f(y) = cos 2 (10*y)<br />
0.14<br />
0.12<br />
Euler: error<br />
Euler: est. error<br />
TRP: error<br />
TRP: est. error<br />
f(y) = cos 2 (10*y)<br />
0.05<br />
0.1<br />
y,y h<br />
0<br />
−0.05<br />
y,y h<br />
0.08<br />
0.06<br />
Optimale Schrittweite”:<br />
”<br />
(Schrittweitenvorschlag)<br />
h ∗ = h p+1 √ TOL<br />
EST k<br />
. (2.6.2)<br />
Korrigierte Schrittweite<br />
Schrittweitenvorschlag<br />
−0.1<br />
0.04<br />
−0.15<br />
−0.2<br />
t<br />
Expl. Euler solution<br />
Expl. trapezoidal rule<br />
Exact solution<br />
Fig. 70<br />
0.02<br />
0<br />
−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1<br />
t<br />
Beobachtung: ☞ Grosse Unterschiede zwischen geschätztem und wahrem Fehler möglich<br />
☞ Fehlerschätzung für ˜Ψ durch Ψ macht Sinn !<br />
Fig. 71<br />
Bemerkung 2.6.2 (Steuerung von ˜Ψ durch Ψ).<br />
Bisherige Überlegung:<br />
” Schätzung des Fehlers” von ˜Ψ ➣ Steuerung von ˜Ψ<br />
✸<br />
Vergleich<br />
EST k ↔ TOL<br />
EST k ↔ TOL ‖y k ‖<br />
➣<br />
Absolute Toleranz<br />
Verwerfen/Akzeptieren des aktuellen Schritts<br />
2.6<br />
Relative Toleranz p. 201<br />
2.6<br />
p. 203<br />
Führt zu einem sehr einfachen Algorithmus:<br />
EST k < TOL: Ausführen des aktuellen Schritts (Schrittweite h)<br />
Nächster Schritt mit Schrittweite ≥ h, z.B. 2h<br />
EST k > TOL: Wiederholung des aktuellen Schritts mit Schrittweite < h, z.B. 1 2 h<br />
Jedoch: Vergrösserung/Verringerung der Schrittweite “verschwendet” Information enthalten in EST k :<br />
TOL.<br />
Wir wollen mehr ! WennEST k > TOL : Schrittweitenkorrektur t k+1 = ?<br />
WennEST k < TOL : Schrittweitenvorschlag t k+2 = ?<br />
Falls Ordnung(Ψ) = p, Ordnung(˜Ψ) > p, p ∈ N,<br />
Ψ t,t+h y(t k ) − Φ t,t+h y(t k ) = ch p+1 + O(h p+2 ) ,<br />
˜Ψ t,t+h y(t k ) − Φ t,t+h y(t k ) = O(h p+2 )<br />
Ziel: Effizienz<br />
h≪1<br />
⇒ EST k ≈ ch p+1 ! = TOL .<br />
Effizient ?<br />
Genaueres (teureres) Verfahren ˜Ψ wird nur zur Steuerung des ungenaueren Verfahrens<br />
verwendet.<br />
Erinnerung an Bsp. 2.6.1:<br />
Mit gleichem Aufwand: Integration des AWP mit ˜Ψ gesteuert durch Ψ !<br />
Euler-Verfahren (Ordnung p = 1) lieferte gute Fehlerschätzung für explizite<br />
Trapezregel (Ordnung p = 2)<br />
So wird es in der Praxis auch gemacht !<br />
Noch eine Heuristik:<br />
EST k > TOL ist ein Hinweis darauf, dass eines der beiden Verfahren Ψ, ˜Ψ Probleme mit der<br />
(lokalen) Approximation der Lösung hat. Eine Verringerung von h k ist daher angezeigt.<br />
Mathematische Rechtfertigung: Steuerungstheorie → [5, Sect. 5.2]<br />
△<br />
Herleitung einer “optimalen” Schrittweite h ∗ mitEST k = TOL (in führender Potenz von h):<br />
{<br />
EST k ≈ ch p+1 ⇒ c ≈ EST }<br />
k<br />
h p+1 mit Forderung c(h ∗ ) p+1 !<br />
= TOL<br />
2.6<br />
p. 202<br />
2.6<br />
p. 204
MATLAB-Implementierung: Ψ,˜Ψ ˆ= diskrete Evolutionen, Konsistenzordnung p/p + 1<br />
t 0 ˆ= Anfangszeitpunkt, T ˆ= Endzeitpunkt<br />
y 0 ˆ= Anfangswert (Spaltenvektor)<br />
reltol, abstol ˆ= absolute/relative Toleranzen<br />
h 0 ,h min ˆ= Schrittweite für 1. Schritt/minimale Schrittweite<br />
ESV mit Schrittweitensteuerung<br />
function [t,y] = ssctrl(Ψ,˜Ψ,t0,T,y0,h0,reltol,abstol,hmin)<br />
t = t0; y = y0; h = h0;<br />
while ((t(end) < T) && (h > hmin))<br />
yh = ˜Ψ(t(end),y(:,end),h);<br />
yH = Ψ(t(end),y(:,end),h);<br />
est = norm(yH-yh);<br />
tol = min(reltol*norm(y(:,end)),abstol);<br />
h = h*max(0.5,min(2,(tol/est)ˆ(1/(p+1))));<br />
if (est < tol)<br />
y = [y,yh]; t = [t,t(end) + min(T-t(end),h)];<br />
end<br />
end<br />
error<br />
reltol<br />
Adaptive trapezoidal rule<br />
Adaptive Euler method<br />
10 −1<br />
10 −2<br />
10 −3<br />
10 −4<br />
10 −5<br />
10 −5 10 −4 10 −3 10 −2 10 −1 10 0<br />
Fig. 73<br />
10 0<br />
☞ Fehler max |y(t j ) − y j | korreliert nur grob mit Toleranz TOL !<br />
j<br />
No. of timesteps<br />
600<br />
500<br />
400<br />
300<br />
200<br />
100<br />
Adaptive trapezoidal rule<br />
Adaptive Euler method<br />
0<br />
10 −5 10 −4 10 −3 10 −2 10 −1 0<br />
reltol<br />
10<br />
Fig. 74<br />
Diese Beobachtung wird verständlich, wenn man sich in Erinnerung ruft, dass die Schrittweitensteuerung<br />
sich ausschliesslich auf den Einschrittfehler stützt und den fortgepflanzten Fehler ignoriert, siehe<br />
Abschnitt 2.1.4.<br />
Beispiel 2.6.3 (Schrittweitensteuerung für explizite Trapezregel/Euler-Verfahren).<br />
2.6<br />
p. 205<br />
2.6<br />
✸ p. 207<br />
Anfangswertproblem für skalare logistische Dgl, siehe Bsp. 1.2.1<br />
Beispiel 2.6.4 (Schrittweitensteuerung und Instabilität).<br />
ẏ = λy(1 − y) , λ = 20 ➣ y(t) =<br />
y 0<br />
y 0 + (1 − y 0 ) exp(−λt) .<br />
Anfangswertproblem für skalare logistische Dgl, siehe Bsp. 2.6.3, nun λ = 100<br />
Einschrittverfahren aus Bsp. 2.6.1, Schrittweitenanpassung<br />
gemäss (2.6.2)<br />
Integration mit explizitem Euler-Verfahren<br />
(1.4.2),<br />
Fehlerschätzung (2.6.1) mit<br />
expliziter Trapezregel (2.3.2)<br />
Integration mit expliziter Trapezregel (2.3.2),<br />
Schrittweitensteuerung mit expliziten Euler-<br />
Verfahren gemäss Bem. 2.6.2<br />
Absolute/relative Toleranz = 0.005, y 0 = 0.1/λ<br />
y(t)/y k<br />
1.4<br />
1.2<br />
1<br />
0.8<br />
0.6<br />
0.4<br />
0.2<br />
Logistic ODE, lambda = 20.000000, y 0<br />
= 0.005000<br />
trapezoidal rule<br />
Euler method<br />
exact solution<br />
0<br />
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1<br />
t<br />
Fig. 72<br />
Trapezregel/Euler: 63/62 Schritte, 12 verworfen<br />
explizites Euler-Verfahren (1.4.2), explizite Trapezregel (2.3.2) mit Schrittweitensteuerung wie<br />
Bsp. 2.6.3<br />
Absolute/relative Toleranz = 0.05, Anfangszeitschritt (für adaptive ESV) h = 0.05<br />
y(t)/y k<br />
Logistic ODE, lambda = 100.000000, y = 0.001000, stepsize = 0.050000<br />
0<br />
3<br />
2.5<br />
2<br />
1.5<br />
1<br />
0.5<br />
0<br />
−0.5<br />
y(t)/y k<br />
Logistic ODE, lambda = 100.000000, y = 0.001000<br />
0<br />
1.4<br />
1.2<br />
1<br />
0.8<br />
0.6<br />
0.4<br />
2.6<br />
p. 206<br />
−1<br />
−1.5<br />
trapezoidal rule<br />
Euler method<br />
exact solution<br />
TR blowup<br />
Euler blorwup<br />
−2<br />
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1<br />
t<br />
Fig. 75<br />
Trapez/Euler: uniforme Zeitschrittweite h = 0.05<br />
0.2<br />
trapezoidal rule<br />
Euler method<br />
exact solution<br />
0<br />
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1<br />
t<br />
Fig. 76<br />
Trapez/Euler: 119/114 Schritte, 28/42 verworfen<br />
2.6<br />
p. 208
Schrittweitensteuerung verhindert Instabilität, vgl. Bsp. 1.4.3 !<br />
Beispiel 2.6.5 (Schrittweitensteuerung und Kollaps).<br />
Skalares Anfangswerproblem mit Kollaps, vgl.<br />
Bsp. 1.3.3<br />
ẏ = − 1 √ y<br />
, y(0) = 1<br />
⇒ y(t) = (1 − 3t/2) 2/3 .<br />
Absolute/relative Toleranz = 0.005<br />
y(t)/y k<br />
1<br />
0.9<br />
0.8<br />
0.7<br />
0.6<br />
0.5<br />
0.4<br />
0.3<br />
0.2<br />
d t<br />
y = −1/<br />
✸<br />
Algorithmische Realisierung (ESV):<br />
Eingebettete Runge-Kutta-Verfahren<br />
Gleiche Inkremente k i , verschiedene Gewichte b i<br />
(→ Def 2.3.1) realisieren RK-Evolutionen Ψ h , ˜Ψ h<br />
der Ordnungen p und p + 1.<br />
c A<br />
b T :=<br />
b<br />
̂ T<br />
c 1 a 11 · · · a 1s<br />
. . .<br />
c s a s1 · · · a ss .<br />
b 1 · · · b s<br />
̂b1 · · · ̂bs<br />
Eingebettetes RK-ESV: Butcher-Schema<br />
s∑<br />
s∑<br />
Ψ h y = y + h b i k i , ˜Ψh y = y + h ̂bi k i .<br />
i=1<br />
Motivation: Effizienz (Inkremente k i nur einmal zu berechnen, siehe Def. 2.3.1)<br />
Gebräuchlich: p = 4, p = 7<br />
i=1<br />
0.1<br />
adaptive trapezoidal rule<br />
adaptive Euler method<br />
exact solution<br />
0<br />
t<br />
0.7<br />
Fig. 77<br />
0 0.1 0.2 0.3 0.4 0.5 0.6<br />
△<br />
Schrittweitensteuerung ➣ Verfahren “erkennt” Kollaps der Lösung<br />
2.6<br />
✸ p. 209<br />
Beispiel 2.6.8 (Eingebettete Runge-Kutta-Verfahren).<br />
→ [14, Sect. II.4]<br />
2.6<br />
p. 211<br />
Beispiel 2.6.6 (Schrittweitensteuerung und Blow-up).<br />
Skalares Anfangswerproblem mit Blow-up, vgl.<br />
Bsp. 1.3.3<br />
ẏ = y 2 , y(0) = 1<br />
⇒ y(t) = 1<br />
1 − t .<br />
Absolute/relative Toleranz = 0.05<br />
y(t)/y k<br />
100<br />
90<br />
80<br />
70<br />
60<br />
50<br />
40<br />
30<br />
20<br />
10<br />
adaptive trapezoidal rule<br />
adaptive Euler method<br />
exact solution<br />
d t<br />
y = y 2 , y 0<br />
= 1.000000<br />
0<br />
1<br />
3<br />
1<br />
3<br />
1<br />
3<br />
1<br />
6<br />
1<br />
6<br />
1<br />
2<br />
1<br />
8 0 3<br />
8<br />
1 1<br />
2 0 − 3 2 2<br />
y 1<br />
1<br />
6 0 0 2 3 1 6<br />
ŷ 1<br />
1<br />
10 0 3<br />
10<br />
2<br />
5<br />
1<br />
5<br />
Eingebettes RK-Verfahren der Ordnung 3( ”<br />
4”)<br />
von Merson<br />
0<br />
1<br />
2<br />
1<br />
2<br />
1<br />
2 0 1<br />
2<br />
1 0 0 1<br />
3<br />
4<br />
5<br />
32<br />
7<br />
32 32 13 − 32<br />
1<br />
y 1<br />
1<br />
6<br />
1<br />
3<br />
1<br />
3<br />
1<br />
6<br />
ŷ 1 −2<br />
1 7 7 13<br />
3 3 6 − 16<br />
3<br />
Eingebettes RK-Verfahren der Ordnung 3(4) von<br />
Zonneveld<br />
0<br />
0 0.2 0.4 0.6<br />
t<br />
0.8 1 1.2<br />
Fig. 78<br />
Schrittweitensteuerung ➣ Verfahren “erkennt” Blow-up der Lösung<br />
Bemerkung 2.6.7 (Eingebettete RK-ESV).<br />
✸<br />
2.6<br />
p. 210<br />
2.6<br />
p. 212
0<br />
1<br />
5<br />
3<br />
10<br />
4<br />
5<br />
8<br />
9<br />
1<br />
5<br />
3 9<br />
40 40<br />
44<br />
45 − 56<br />
15<br />
19372<br />
6561 −25360 2187<br />
1 9017<br />
3168 − 355<br />
33<br />
1 35<br />
384 0 500<br />
1113<br />
y 1<br />
35<br />
384 0 500<br />
1113<br />
ŷ 1<br />
5179<br />
57600 0 7571<br />
16695<br />
32<br />
9<br />
64448<br />
6561 −212 729<br />
46732<br />
5247<br />
49<br />
176 −18656<br />
5103<br />
125<br />
192 −6784<br />
2187<br />
125<br />
192 −6784<br />
2187<br />
393<br />
640 −339200<br />
92097<br />
11<br />
84 0<br />
11<br />
84 0<br />
187<br />
2100<br />
1<br />
40<br />
DOPRI5: Eingebettes RK-<br />
Verfahren der Ordnung 4(5)<br />
von Dormand & Prince<br />
(MATLAB ode45)<br />
✸<br />
4<br />
3<br />
2<br />
1<br />
0<br />
−1<br />
−2<br />
−3<br />
abstol = 0.001000, reltol = 0.010000<br />
y 1<br />
(t) (exakt)<br />
y 2<br />
(t) (exakt)<br />
v 1<br />
(t) (exakt)<br />
v 2<br />
(t) (exakt)<br />
−4<br />
0 0.5 1 1.5 2 2.5 3 3.5 4<br />
t<br />
y i<br />
(t)<br />
5<br />
0<br />
abstol = 0.001000, reltol = 0.010000<br />
0.2<br />
y 1<br />
(t k<br />
) (Naeherung)<br />
y 2<br />
(t k<br />
) (Naeherung)<br />
v 1<br />
(t k<br />
) (Naeherung)<br />
v 2<br />
(t k<br />
) (Naeherung)<br />
−5<br />
0 0.5 1 1.5 2 2.5 3 3.5 4<br />
t<br />
0 0.5 1 1.5 2 2.5 3 3.5 4 0 0.1<br />
Zeitschrittweite<br />
Adaptive Integratoren für Anfangswertprobleme in MATLAB:<br />
options = odeset(’abstol’,atol,’reltol’,rtol,’stats’,’on’);<br />
[t,y] = ode45/ode23(@(t,x) f(t,x),tspan,y0,options);<br />
(f = function handle, tspan ˆ= [t 0 , T], y0 ˆ= y 0 , t ˆ= t k , y ˆ= y k )<br />
2.6<br />
p. 213<br />
2.6<br />
p. 215<br />
Beispiel 2.6.9 (Adaptive RK-ESV zur Teilchenbahnberechnung). → Bsp. 2.4.6<br />
0.8<br />
0.8<br />
0.6<br />
0.6<br />
Adaptiver Integrator:<br />
ode45(@(t,x) satf,[0 4],[-1;0;0.1;-0.1,],options):<br />
0.4<br />
0.4<br />
➊ options = odeset(’reltol’,0.001,’abstol’,1e-5);<br />
➋ options = odeset(’reltol’,0.01,’abstol’,1e-3);<br />
y 2<br />
0.2<br />
0<br />
−0.2<br />
y 2<br />
0.2<br />
0<br />
−0.2<br />
4<br />
3<br />
2<br />
1<br />
0<br />
−1<br />
−2<br />
−3<br />
abstol = 0.000010, reltol = 0.001000<br />
y 1<br />
(t) (exakt)<br />
y 2<br />
(t) (exakt)<br />
v 1<br />
(t) (exakt)<br />
v 2<br />
(t) (exakt)<br />
−4<br />
0 0.5 1 1.5 2 2.5 3 3.5 4<br />
t<br />
y i<br />
(t)<br />
5<br />
0<br />
abstol = 0.000010, reltol = 0.001000<br />
0.2<br />
y 1<br />
(t k<br />
) (Naeherung)<br />
y 2<br />
(t k<br />
) (Naeherung)<br />
v 1<br />
(t k<br />
) (Naeherung)<br />
v 2<br />
(t k<br />
) (Naeherung)<br />
−5<br />
0 0.5 1 1.5 2 2.5 3 3.5 4<br />
t<br />
0 0.5 1 1.5 2 2.5 3 3.5 4 0 0.1<br />
Zeitschrittweite<br />
−0.4<br />
−0.6<br />
−0.8<br />
Exakte Bahn<br />
Naeherung<br />
−1<br />
−1 −0.5 0 0.5 1<br />
y 1<br />
reltol=0.001, abstol=1e-5<br />
☞ Qualitativ falsche Lösung bei geringfügig erniedrigter Toleranz !<br />
−0.4<br />
−0.6<br />
−0.8<br />
Exakte Bahn<br />
Naeherung<br />
−1<br />
−1 −0.5 0 0.5 1<br />
y 1<br />
reltol=0.01, abstol=1e-3<br />
Beispiel 2.6.10 (Schrittweitensteuerung für Bewegungsgleichungen). → Bsp. 2.4.6<br />
✸<br />
2.6<br />
p. 214<br />
2.6<br />
p. 216
10 2 (Absolute) Toleranz<br />
AWP aus Bsp. 2.4.6<br />
ode45 mit verschiedenen absoluten/relativen Toleranzen<br />
Wie schon in Bsp. 2.6.3:<br />
10 −2<br />
! Toleranzen sagen nichts über globalen Fehler 10 −3<br />
rtol = atol^(1/2)<br />
rtol=atol^(2/3)<br />
rtol=10*atol<br />
10 −4<br />
10 −6 10 −5 10 −4 10 −3 10 −2 10 −1<br />
Fehler |y h<br />
(4)−y(4)|<br />
10 1<br />
10 0<br />
10 −1<br />
3 Stabilität [5, Kap. 6]<br />
Beispiel 3.0.11 (Ineffizienz expliziter Runge-Kutta-Verfahren). → Bsp. 1.4.3, 1.4.5<br />
Logistische Differentialgleichung ẏ = f(y), f(y) = λy(1 − y) → (2.2.12), λ = 50, Anfangswert<br />
y 0 = 0.1, Zeitintervall [0, 1]:<br />
• Integratoren: Implizites Euler-Verfahren (1.4.9), klassisches Runge-Kutta-Verfahren (2.3.7)<br />
• uniforme Zeitschrittweite h = 1/N, N ∈ N<br />
• Fehlermass: err = max k |y k − y(t k )|, k = 1, ...,N<br />
2.6<br />
p. 217<br />
3.0<br />
p. 219<br />
Fehler |y h<br />
(4)−y(4)|<br />
RK4 äquidistant<br />
ode45 adaptiv<br />
10 0<br />
10 −2<br />
10 −4<br />
10 −6<br />
10 −8<br />
10 −10<br />
10 1 10 2 10 3 10 4 10 5 10 6<br />
10 2 Anzahl f−Auswertungen<br />
Effizienz von Schrittweitensteuerung:<br />
Vergleich:<br />
• Klassisches Runge-Kutta-Verfahren (2.3.7)<br />
• Eingebettetes Runge-Kutta-Verfahren mit<br />
Schrittweitensteuerung: ode45<br />
Aufwandsmass: ♯f-Auswertungen<br />
Adaptivität zahlt sich aus !<br />
✸<br />
y<br />
1.2<br />
1<br />
0.8<br />
0.6<br />
0.4<br />
0.2<br />
y(t)<br />
Implicit Euler<br />
RK4<br />
0<br />
0 0.2 0.4 0.6 0.8 1<br />
t<br />
Fig. 79<br />
(Approximative) Lösungen für N = 30<br />
∞−error<br />
10 0<br />
10 −1<br />
10 −2<br />
10 −3<br />
10 −4<br />
10 −5<br />
10 −6<br />
10 −7<br />
implicit Euler<br />
RK4<br />
blow−up<br />
10 −8<br />
10 −4 10 −3 10 −2 10 −1 10 0<br />
timestep h<br />
Fig. 80<br />
10 1<br />
Fehler gegen Schrittweite (doppeltlogarithmisch)<br />
Beobachtung:<br />
RK4 asymptotisch genauer als implizites Euler-Verfahren<br />
RK4 präasymptotisch (für h > 0.02) unbrauchbar<br />
2.6<br />
p. 218<br />
Überlegung: Linearisierung um Fixpunkt, siehe Bem. 1.3.5<br />
3.0<br />
(für Logistische Differentialgleichung ẏ = λy(1 − y), λ > 0) p. 220<br />
✸
y = 1 ⇒ f(y) = 0: für λ ≫ 1 ist 1 stark attraktiver Fixpunkt/stationärer Punkt der Evolution zur<br />
Dgl. (→ Bsp. 1.2.1, 1.4.3):<br />
df<br />
(1) = −λ ⇒ für y ≈ 1 : Dgl. ≈ ẏ = −λ(y − 1) .<br />
dy<br />
Zeitskalierung s := λt: ỹ(s) := y(s/λ) erfüllt<br />
d<br />
dsỹ = ỹ<br />
Annahme: Zeitskalierungsinvarianz der diskreten Evolution ↔ kommutierendes Diagramm<br />
s:=λt<br />
y(t)<br />
−−−→ ỹ(s)<br />
⏐<br />
⏐<br />
ESV↓<br />
↓ESV<br />
(3.1.2)<br />
y h (t) := Ψ t s:=λt<br />
λ −−−→ ỹ h (s) = ˜Ψ s 1 .<br />
Beachte: Erfüllt für Runge-Kutta-Einschrittverfahren (→ Def. 2.3.1) !<br />
3.1 Modellproblemanalyse<br />
Ψ h λ = Ψλh 1 hängt nur von z := λh ab: S(z) := Ψ h λ<br />
Überlegung zu Bsp. 3.0.11: Relevanz der (um einen Fixpunkt) linearisierten ODE<br />
Abschnitt 1.4.1: Einsichten in das Verhalten des expliziten Euler-Verfahrens (1.4.2) durch Modellproblemanalyse,<br />
d.h., analytische Untersuchung der diskreten Evolution für die skalare lineare ODE<br />
ẏ = λy, λ ∈ C.<br />
Diskrete Lösung: y k = S(z) k y 0 , k ∈ N 0 , z := λh .<br />
Stabilitätsfunktion<br />
➥ |S(z)| < 1 ⇔ y = 0 asymptotisch stabil für diskrete EvolutionΨ h λ . △<br />
3.1<br />
p. 221<br />
3.1<br />
p. 223<br />
Autonomes skalares lineares AWP: ẏ = λy , y(0) = 1, Re λ < 0 auf [0, ∞[ (3.1.1)<br />
y(t) = e λt → 0 für t → ∞ (Asymptotische Stabilität von y = 0) .<br />
Definition 3.1.1 (Stabilitätsgebiet eines Einschrittverfahrens).<br />
Das Stabilitätsgebiet eines ESV für das AWP (3.1.1) auf der Grundlage der diskreten Evolution<br />
Ψ h λ y =: S(z)y, y ∈ C, z := λh, S : D S ⊂ C ↦→ C, ist<br />
S Ψ := {z ∈ D S : |S(z)| < 1} ⊂ C .<br />
Beachte: λ ∈ C zugelassen ➢ komplexer Zustandsraum C<br />
(Grund: Diagonalisierungstechnik” für lineare, autonome AWP, Sect. 1.3.2, vgl.<br />
”<br />
Bem. 3.1.5)<br />
☞<br />
Für von RK-ESV zu AWP (3.1.1) erzeugte Gitterfunktion {y k } k∈N auf äquidistantem Zeitgitter<br />
mit Maschenweite h > 0 gilt<br />
Frage: Wann erbt” Lösung {y ” k } ∞ k=0 , y k+1 = Ψ h λ y k (Ψh λ ˆ= diskrete Evolution) aus RK-ESV auf<br />
(unendlichem) äquidistantem Gitter (Maschenweite h) asymptotische Stabilität ?<br />
Frage der Strukturerhaltung: Übereinstimmung von qualitativen Eigenschaften der kontinuierlichen<br />
und diskreten Evolution.<br />
✬<br />
lim y k = 0 ⇔<br />
k→∞<br />
Theorem 3.1.2 (Stabilitätsfunktion von Runge-Kutta-Verfahren).<br />
lim<br />
k→∞ S(hλ)k = 0 ⇔ hλ ∈ S Ψ . (3.1.3)<br />
Ist Ψ h λ<br />
diskrete Evolution zu einem s-stufigen Runge-Kutta-Einschrittverfahren (→ Def. 2.3.1)<br />
✩<br />
Bemerkung 3.1.1 (Reskalierung des Modellproblems).<br />
Da AWP (3.1.1) autonom & skalar ➢ h ↦→ Ψ h λ ist Funktion R ↦→ C. p. 222<br />
3.1<br />
mit Butcher-Schema c A bT (siehe (2.3.4)) für das AWP (3.1.1), dann<br />
Ψ h λ = 1 + zbT (I − zA) −1 1<br />
} {{ }<br />
Stabilitätsfunktion S(z)<br />
✫<br />
= det(I − zA + z1bT )<br />
det(I − zA)<br />
, z := λh , 1 = (1, ...,1) T ∈ R s .<br />
✪<br />
3.1<br />
p. 224
Beweis: Aus den Formeln (→ Def. 2.3.1) für die Inkremente mit f(y) = λy: Diskrete Evolution von<br />
c A<br />
s-stufigem Runge-Kutta-Verfahren (→ Def. 2.3.1)<br />
b T :<br />
k i = λ(y 0 + h<br />
j=1<br />
s∑<br />
y 1 = y 0 + h b i k i<br />
i=1<br />
s∑<br />
a ij k j ) ,<br />
⇒<br />
( )( ) ( )<br />
I − zA 0 k 1<br />
−zb T = y<br />
1 y 0 ,<br />
1 1<br />
wobei k ∈ R s ˆ= Vektor (k 1 , ...,k s ) T /λ der Inkremente, y 1 := Ψ h λ y 0.<br />
Daraus ergibt sich die erste Darstellung von S(z), die zweite folgt aus der Cramerschen Regel.<br />
Falls det(I − zA) = 0:<br />
garantieren.<br />
Schrittweite nicht klein genug, um Lösbarkeit der Inkrementgleichungen zu<br />
Bemerkung 3.1.2 (Interpretation der Stabilitätsfunktion).<br />
Ψ h λ y = S(z)y = (1 + λhbT (I − λhA) −1 1)y<br />
Φ h λ = eλh<br />
Diskrete Evolution (Kontinuierliche) Evolution p. 225<br />
➣ S(z) ≈ exp(z): Stabilitätsfunktion = Approximation der Exponentialfunktion (um 0).<br />
△<br />
3.1<br />
✬<br />
Lemma 3.1.4 (Rationale Approximation der Exponentialfunktion).<br />
Ist S(z) = P(z)<br />
Q(z) , P,Q ∈ P s, s ∈ N, so gilt<br />
✫<br />
S(z) − exp(z) = O(|z| m ) für z → 0 ⇒ m ≤ 2s + 1 .<br />
Beweis: Indirekte Beweisführung, Annahme S(z) − exp(z) = O(|z| 2s+2 ) für z → 0:<br />
Ansatz:<br />
P(z) = p 0 + p 1 z + · · · + p s z s ,<br />
Q(z) = q 0 + q 1 z + · · · + q s z s , q 0 = 1, da O.B.d.A Q(0) = 1 .<br />
Q(z) exp(z) − P(z) = α 2s+2 z 2s+2 + α 2s+3 z 2s+3 + ... (global konvergente Potenzreihe) .<br />
Einsetzen der Exponentialreihe und Multiplikation, dann Koeffizientenvergleich ➢ lineares Gleichungssystem<br />
s∑<br />
j=0<br />
s∑<br />
j=0<br />
Dieses hat nur die triviale Lösung.<br />
q j<br />
1<br />
(i − j)! = 0 , i = s + 1,...,2s + 1 .<br />
q j<br />
1<br />
(i − j)! − p i = 0 , i = 0,...,s .<br />
Beispiel 3.1.3 (Stabilitätsfunktionen einiger RK-ESV).<br />
• Explizites Euler-Verfahren (1.4.2):<br />
0 0<br />
1<br />
➣ S(z) = 1 + z .<br />
✩<br />
✪<br />
✷<br />
3.1<br />
p. 227<br />
✬<br />
✩<br />
Korollar 3.1.3.<br />
Explizite Runge-Kutta-Verfahren ➤ S(z) ∈ P s ,<br />
Allgemeine Runge-Kutta-Verfahren ➤ S(z) = P(z)<br />
Q(z) , P,Q ∈ P s.<br />
✫<br />
Beweis. Aus der Determinantenformel von Thm. 3.1.2:<br />
✪<br />
• Implizites Eulerverfahren (1.4.9):<br />
• Explizite Trapezregel (2.3.2):<br />
1 1<br />
1<br />
0 0 0<br />
1 1 0<br />
1<br />
2 1 2<br />
➣ S(z) = 1<br />
1 − z .<br />
➣ S(z) = 1 + z + 1 2 z2 .<br />
Explizite Runge-Kutta-Verfahren ⇒ A echte untere Dreiecksmatrix ⇒ det(I − zA) = 1<br />
Allgemein ist z ↦→ det(I − zM), M ∈ R s,s , ein Polynom vom Grad s, wie aus der kombinatorischen<br />
Definition der Determinante folgt.<br />
✷<br />
Korollar (3.1.3) ➣ Ordnungsschranken für explizite/implizite RK-ESV, siehe Sect. 2.3.2<br />
3.1<br />
p. 226<br />
• Implizite Mittelpunktsregel (2.2.11): 1<br />
2<br />
1 21 ➣ S(z) = 1 + 1 2 z<br />
1 − 1 2 z .<br />
• RK4-Verfahren (2.3.7):<br />
0 0 0 0 0<br />
1<br />
2 1 2 0 0 0<br />
1<br />
2 0 1 2 0 0<br />
1 0 0 1 0<br />
1<br />
6 2 6 6 2 6<br />
1<br />
➣ S(z) = 1 + z + 1 2 z2 + 1 6 z3 + 1<br />
24 z4 .<br />
3.1<br />
p. 228
Beispiel 3.1.4 (Verhalten von Stabilitätsfunktionen).<br />
✸<br />
3<br />
2<br />
λ<br />
*<br />
Im<br />
1<br />
0<br />
−1<br />
−2<br />
λh ∋<br />
Verhalten von Stabilitätsfunktionen (für reelles Argument z):<br />
Bem. 3.1.2 ➣ wir erwarten, dass sich die Stabilitätsfunktionen in z = 0 an exp(z) “anschmiegen”,<br />
d.h., beiden Funktionen stimmen im Werte und einigen niedrigsten Ableitungen überein. Die<br />
Mindestzahl der übereinstimmenden Ableitungen ist gegeben durch die Konsistenzordnung des Einschrittverfahrens.<br />
Stabilitätsbedingte Schrittweitenbeschränkung<br />
für explizite RK-ESV angewandt<br />
auf (3.1.1):<br />
h < sup{t > 0: tλ ∈ S Ψ } . (3.1.4)<br />
Re(S(z))<br />
60<br />
50<br />
40<br />
30<br />
20<br />
10<br />
exp(z)<br />
Explicit Euler<br />
Classical RK4<br />
Implicit Euler<br />
Gauss−coll.−RK−ESV s=1<br />
Gauss−coll.−RK−ESV s=2<br />
Gauss−coll.−RK−ESV s=3<br />
Gauss−coll.−RK−ESV s=4<br />
Re(S(z))<br />
4<br />
3.5<br />
3<br />
2.5<br />
2<br />
1.5<br />
exp(z)<br />
Explicit Euler<br />
Classical RK4<br />
Implicit Euler<br />
Gauss−coll.−RK−ESV s=1<br />
Gauss−coll.−RK−ESV s=2<br />
Gauss−coll.−RK−ESV s=3<br />
Gauss−coll.−RK−ESV s=4<br />
−3<br />
−3 −2 −1 0 1 2 3<br />
Re<br />
Bemerkung 3.1.5 (RK-ESV für autonome homogene lineare ODE). siehe Sect. 1.3.2<br />
Was ist die Diskrete Evolution eines RK-ESV angewandt auf<br />
homogene, autonome, lineare ODE ẏ = Ay, A ∈ C d,d ?<br />
0<br />
−10<br />
−20<br />
−5 0 5<br />
z<br />
Fig. 81<br />
1<br />
0.5<br />
0<br />
−1 −0.5 0 0.5 1<br />
z<br />
3.1<br />
Fig. 82 p. 229<br />
➀ Annahme: A diagonalisierbar ⇔ ∃S ∈ C d,d regulär: S −1 AS = D := diag(λ 1 , ...,λ d )<br />
Folgerung aus Affin-Kovarianz von RK-ESV (→ Bem. 2.3.4):<br />
3.1<br />
p. 231<br />
✸<br />
Ist ̂Ψ die diskrete Evolution zu d dtŷ = Dŷ (entkoppelte skalare lineare ODE !), dann, mit ŷ := S−1 y,<br />
Beispiele: Stabilitätsgebiete S expliziter RK-ESV:<br />
Im<br />
2.5<br />
2<br />
1.5<br />
1<br />
0.5<br />
0<br />
−0.5<br />
−1<br />
−1.5<br />
−2<br />
Im<br />
3<br />
2<br />
1<br />
0<br />
−1<br />
−2<br />
Im<br />
3<br />
2<br />
1<br />
0<br />
−1<br />
−2<br />
⎛<br />
Ψ h ⎞ ⎛<br />
Ψ h y = ŜΨ h S −1 λ ŷ<br />
⎜ 1 1<br />
⎟<br />
y = S⎝<br />
. ⎠ = S ⎝ S(hλ ⎞<br />
1)<br />
. . . ⎠ŷ<br />
Ψ h λ ŷ<br />
d d S(hλ d )<br />
⎛<br />
= S⎝ P(hλ ⎞ ⎛ ⎛<br />
1)<br />
. . . ⎠S −1 ⎝S⎝ Q(hλ ⎞ ⎞−1<br />
1)<br />
. .. ⎠S −1 ⎠ y<br />
(<br />
P(hλ d )<br />
Q(hλ d )<br />
= SP(hD)S −1 SQ(hD)S −1) −1<br />
y = P(hA)Q(hA) −1 y = S(hA)y .<br />
−2.5<br />
Fig. 83<br />
−3 −2 −1 0 1 2 3<br />
Re<br />
S Ψ : expliziter Euler (2.2.1)<br />
✗<br />
✖<br />
−3<br />
Fig. 84<br />
−3 −2 −1 0 1 2 3<br />
Re<br />
S Ψ : explizite Trapezregel<br />
Mittelpunktsregel<br />
−3<br />
S Ψ :<br />
Das Stabilitätsgebiet expliziter RK-Verfahren ist beschränkt !<br />
−3 −2 −1 0 1 2 3<br />
Re<br />
Fig. 85<br />
RK4-Verfahren (2.3.7)<br />
Kuttas 3/8-Regel (2.3.8)<br />
✔<br />
✕<br />
wobei S(z) = P(z)/Q(z) ˆ= Stabilitätsfunktion (→ Thm. 3.1.2) des RK-ESV.<br />
➁ Allgemeine Matrix A ∈ C d,d mit Eigenwerten (mit Vielfachheit gezählt) λ 1 , ...,λ d ∈ C<br />
Aus der Schur-Zerlegung für Matrizen folgt, dass die diagonalisierbaren Matrizen in C d,d dicht liegen<br />
(bzgl. der von der Euklidischen Norm induzierten Matrixnorm). Ist σ(hA) ⊂ D S , dann gibt es eine<br />
Folge diagonalisierbarer Matrizen A n → A, n ∈ N, σ(hA n ) ⊂ D S , für die offensichtlich gilt<br />
3.1<br />
p. 230<br />
P(hA n ) → P(hA) , Q(hA n ) → Q(hA) .<br />
3.1<br />
p. 232
Wegen der Stetigkeit der Matrixinversion A ↦→ A −1 auf GL(d) := {M ∈ C d,d : M regulär} folgt<br />
damit<br />
S(hA n ) = P(hA n )Q(hA n ) −1 → P(hA)Q(hA) −1 = S(hA) . (3.1.5)<br />
Ist nun Ψ h n die diskrete Evolution zu ẏ = A ny, so gilt<br />
Ψ h y = lim<br />
n→∞ Ψh ny = ➀ lim<br />
n→∞ S(hA n)y (3.1.5)<br />
= S(hA) .<br />
Für alle oben eingeführten Matrixfunktionen gilt, vgl. 1.3.7,<br />
A = S −1 BS ⇒ f(A) = S −1 f(B)S ∀A,B ∈ C d,d , S ∈ C d,d regulär . (3.1.7)<br />
Für das Spektrum gilt<br />
σ(f(A)) = f(σ(A)) := {f(λ): λ ∈ σ(A)} . (3.1.8)<br />
△<br />
Ψ h y = S(hA)y ∀y ∈ C d . (3.1.6)<br />
3.2 Vererbung asymptotischer Stabilität<br />
Bemerkung 3.1.6 (Funktionenkalkül für Matrizen).<br />
△<br />
Betrachte: Autonomes AWP ẏ = f(y), f ∈ C 1 (D, R d ), D ⊂ R d offen.<br />
Für A ∈ R d,d :<br />
3.1<br />
p. 233<br />
Definition 3.2.1 (Fixpunkt).<br />
y ∗ ist Fixpunkt (stationärer Punkt) von ẏ = f(y), falls f(y ∗ ) = 0.<br />
3.2<br />
p. 235<br />
Klar ist p(A) =<br />
s∑<br />
c j A j<br />
j=1<br />
Für rationale Funktion<br />
s∑<br />
falls q j A j invertierbar.<br />
j=1<br />
∑<br />
für Polynom p ∈ P s , p(z) = s c j z j .<br />
j=1<br />
s∑<br />
p j z j<br />
⎛ ⎞<br />
j=1<br />
s∑<br />
R(z) =<br />
R(A) = ⎝ q s∑<br />
j A ⎠−1 ⎛<br />
j ⎝<br />
q j z j j=1<br />
j=1<br />
∑<br />
Ist f(z) = ∞ a j z j eine Potenzreihe mit Konvergenzradius ρ > 0, so ist<br />
i=0<br />
f(A) :=<br />
s∑<br />
j=1<br />
∞∑<br />
a j A j wohldefiniert für ‖A‖ < ρ .<br />
i=0<br />
p j A j ⎞<br />
⎠ ,<br />
So lassen sich transzendente Funktionen von Matrizen, wie etwa die Matrixexponentialfunktion<br />
(1.3.6) definieren.<br />
3.1<br />
p. 234<br />
Definition 3.2.2 (Asymptotische Stabilität eines Fixpunkts).<br />
Fixpunkt y ∗ ∈ D asymptotisch stabil (attraktiv)<br />
:⇔ ∃δ > 0: ‖y 0 − y ∗ ‖ < δ ⇒ R + 0 ⊂ J(y 0) ∧ lim<br />
t→∞ y(t) = y∗ ,<br />
wobei y(t) Lösung des AWP ẏ = f(y), y(0) = y 0 .<br />
L¨soungskurven der ODE<br />
ẏ = −y(1 − y)(1 + y)<br />
y ∗ = 0 ist asymptotisch stabiler (attraktiver) Fixpunkt,<br />
y ∗ = ±1 sind instabile (repulsive) Fixpunkte<br />
(→ Bsp. 1.2.1)<br />
✄<br />
y(t)<br />
2<br />
1.5<br />
1<br />
0.5<br />
−0.5<br />
−1<br />
−1.5<br />
−2<br />
d t<br />
y = −y(1−y)(1+y)<br />
y ∗ y ∗ Fig. 86<br />
0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2<br />
t<br />
3.2<br />
p. 236
✬<br />
Theorem 3.2.3 (Hinreichende Bedingung für asymptotische Stabilität).<br />
Fixpunkt y ∗ ∈ D ist asymptotisch stabil, falls<br />
σ(Df(y ∗ )) ⊂ C − := {z ∈ C: Re z < 0} .<br />
✫<br />
✩<br />
✪<br />
Mit Hilfe der Jordan-Normalform, siehe oben:<br />
∀β ∈] max{Reλ : λ ∈ σ(Df(0))} , 0[: ∃C = C(β) > 0:<br />
} {{ }<br />
‖exp(Df(0)t)‖ ≤ Ce βt ∀t ∈ R .<br />
0. Dazu gibt es ǫ > 0:<br />
‖r(y)‖ ≤ − β<br />
2C ‖y‖, wenn ‖y‖ < ǫ<br />
✎ Notation: σ(A) := {λ : λ ist Eigenwert von A} ˆ= Spektrum einer Matrix<br />
Hilfsmittel: Matrixexponentialfunktion (1.3.6), Jordan-Normalform von A ∈ C d,d :<br />
∃S ∈ C d,d regulär: S −1 AS = diag(J 1 , ...,J m ) ,<br />
mit Jordan-Blöcken der Form (λ ∈ σ(A))<br />
⎛<br />
⎞<br />
λ 1 0 . .. ... 0<br />
0 λ 1 0 .<br />
J k =<br />
.<br />
⎜<br />
.. . ..<br />
⎟<br />
⎝ λ 1⎠ = λI + N k ∈ C d k,d k, dk ∈ {1, ...,d} .<br />
λ<br />
Annahme: ‖y(t)‖ < ǫ für 0 < t < δ. Damit für 0 ≤ t < δ aus (3.2.1)<br />
∫ t<br />
‖y(t)‖ ≤ Ce βt ‖y 0 ‖ − β 2 e β(t−τ) ‖y(τ)‖ dτ ,<br />
0<br />
∫ t<br />
e |β|t ‖y(t)‖ ≤ C ‖y 0 ‖ + |β|<br />
2 e |β|τ ‖y(τ)‖ dτ<br />
0<br />
Benutze:<br />
Gronwalls Lemma (Lemma 1.3.7) für u(t) := e |β|t ‖y(t)‖<br />
‖y(t)‖ ≤ C ‖y 0 ‖ exp(− |β|<br />
2<br />
Nun sieht man, dass die Annahme ‖y(t)‖ < ǫ erfüllt ist, wenn ‖y 0 ‖ <<br />
t) ∀0 ≤ t < δ . (3.2.2)<br />
ǫ<br />
max{C, 1} .<br />
Unter dieser Bedingung gilt (3.2.2) für alle t ≥ 0 und auch R + 0 ⊂ J(y 0) mit Thm. 1.3.4.<br />
✷<br />
N k ∈ C d k,d k sind nilpotente Matrizen: N<br />
d k = 0 3.2<br />
p. 237<br />
Wegen (1.3.7) genügt es exp(J) für einen generischen Jordan-Block J ∈ C n,n zu betrachten:<br />
∞∑<br />
∞∑ k∑<br />
(<br />
exp(J) = (λI + N) k k<br />
= N<br />
l)<br />
l λ k−l =<br />
Also finden wir<br />
k=0<br />
k=0 l=0<br />
n−1 ∑<br />
l=0<br />
N l<br />
l!<br />
∞∑ λ k−l n−1<br />
(k − l)! = ∑<br />
eλ<br />
k=l<br />
l=0<br />
exp(At) = S exp(Dt)P(t)S −1 , D = diag(λ 1 , ...,λ d ) ,<br />
mit einem Matrixpolynom P vom Grad < d, λ 1 ,...,λ d ˆ= Eigenwerte von A (mit Vielfachheit<br />
gezählt).<br />
Beweis. (von Thm.3.2.3) → [5, Satz 3.30], O.B.d.A. y ∗ = 0<br />
N l<br />
l!<br />
.<br />
✬<br />
✩<br />
Asymptotische Stabilität eines Fixpunktes y ∗ folgt aus der asymptotischen Stabilität des Fixpunktes<br />
y ∗ der um y ∗ linearisierten ODE<br />
ẏ = Df(y ∗ )(y − y ∗ ) . (3.2.3)<br />
✫<br />
✪<br />
Betrachte: (Konsistentes) RK-ESV für autonome ODE ẏ = f(y) (→ Def. 2.3.1)<br />
s∑<br />
s∑<br />
k i := f(y + h a ij k j ) , i = 1, ...,s , Ψ h y := y + h b i k i . (3.2.4)<br />
j=1<br />
i=1<br />
s∑<br />
Hinreichend: b i = 1, Lemma 2.3.2<br />
i=1<br />
3.2<br />
p. 239<br />
Linearisierung, siehe Bem. 1.3.5:<br />
f(y) = Df(0)y + r(y) , ‖r(y)‖ = o(‖y‖) für y → 0 .<br />
y(t) ˆ= Lösung des AWP zu Anfangswert y 0 , t ∈ J(y 0 ). Variation-der-Konstanten-Formel, siehe<br />
Sect. 1.3.2:<br />
∫ t<br />
y(t) = exp(Df(0)t)y 0 + exp(Df(0)(t − τ))r(y(τ)) dτ . (3.2.1)<br />
0<br />
3.2<br />
p. 238<br />
Annahme: h hinreichend klein für Wohldefiniertheit des ESV für y ”<br />
nahe bei” y ∗ , → Lemma. 2.2.1.<br />
Ψ h y ∗ = y ∗ . (3.2.5)<br />
3.2<br />
p. 240
✬<br />
Theorem 3.2.4 (Asymptotische Stabilität von Fixpunkten diskreter dynamischer Systeme).<br />
Sei Π : D ⊂ R d ↦→ R d stetig differenzierbar und Π(y ∗ ) = y ∗ für ein y ∗ ∈ D. Dann gilt<br />
ρ(DΠ(y ∗ )) < 1 ⇒ y ∗ ist asymptotisch stabiler Fixpunkt von y k+1 := Π(y k ) .<br />
✫<br />
✎ Notation: ρ(A) := max{|λ| : λ ∈ σ(A)} ˆ= Spektralradius einer Matrix<br />
✩<br />
✪<br />
Schreibe: K i := D y k i (y ∗ ) ∈ R d,d<br />
s∑<br />
s∑<br />
K i = Df(y ∗ ) · (I + h a ij K j ) , D y (Ψ h (y))(y ∗ ) = I + h b i K i .<br />
i=1<br />
i=1<br />
ˆ= 1. Schritt des RK-ESV für Matrix-AWP Ẏ = Df(y ∗ )Y, Y(0) = I ˆ= Variationsgleichung (1.3.20)<br />
zur konstanten Lösung y(t) = y ∗ . Dann Anwendung von (3.1.6) aus Bem. 3.1.5<br />
✬<br />
✩<br />
Lemma 3.2.5 (Den Spektralradius approximierende Matrixnorm). → [9, Sect. 2.9.3]<br />
Zu jeder Matrix A ∈ C d,d und jedem ǫ > 0 gibt es eine Vektornorm ‖·‖ A,ǫ auf R d so, dass für<br />
die induzierte Matrixnorm gilt<br />
Für RK-ESV: D y (Ψ h (y))(y ∗ ) = S(hDf(y ∗ )) . (3.2.7)<br />
ρ(A) ≤ ‖A‖ A,ǫ ≤ ρ(A) + ǫ .<br />
✬<br />
✩<br />
✫<br />
✪<br />
f(y ∗ ) = 0 ⇒ Ψ h y ∗ = y ∗<br />
Der Beweis stützt sich auf die Schur-Normalform von A<br />
⇓<br />
y(h) ≈ (y 0 − y ∗ )exp(Df(y ∗ )h) + y ∗ ↔ Ψ h y ≈ (y 0 − y ∗ )S(hDf(y ∗ )) + y ∗ p. 243<br />
Beweis von Thm. 3.2.4. Nach Lemma 3.2.5 gibt es eine Norm auf R d so, dass ‖DΠ(y ∗ )z‖ ≤ 1 2 (1 +<br />
ρ(DΠ(y ∗ ))) ‖z‖ ∀z ∈ R d . Also nach Definition der Induzierten Matrixnorm<br />
y k+1 − y ∗ = Π(y k ) − Π(y ∗ ) = DΠ(y ∗ )(y k − y ∗ ) + g(y k − y ∗ ), ‖g(y k − y ∗ )‖ = o(‖y k − y ∗ ‖) . p. 241<br />
3.2<br />
✫<br />
✪<br />
3.2<br />
✬<br />
✩<br />
Wähle δ > 0 so, dass ‖g(y k − y ∗ )‖ ≤ 3 1(1 − ρ(DΠ(y∗ ))) ‖y k − y ∗ ‖, wenn ‖y k − y ∗ ‖ ≤ δ.<br />
( )<br />
‖y k+1 − y ∗ ‖ ≤ 12 (1 + ρ(DΠ(y ∗ ))) + 1 3 (1 − ρ(DΠ(y∗ ))) ‖y k − y ∗ ‖<br />
≤ ( 6 5 + 1 6 ρ(DΠ(y∗ ))) ‖y<br />
} {{ } k − y ∗ ‖ .<br />
< 1<br />
✷<br />
Theorem 3.2.6 (Vererbung asymptotischer Stabilität).<br />
Ein asymptotisch stabiler Fixpunkt y ∗ ∈ D von ẏ = f(y) (→ Def. 3.2.2), ist auch ein solcher<br />
der zugehörigen diskreten Evolution eines RK-ESV mit Stabilitätsgebiet S Ψ , wenn<br />
hσ(Df(y ∗ )) ⊂ S Ψ .<br />
✫<br />
✪<br />
Beweis. Aus (3.2.7) und (3.1.8):<br />
☞ Für diskrete Evolution Ψ h : Untersuche die Jacobi-Matrix D y (Ψ h y) für y = y ∗ !<br />
D y (Ψ h y) für Runge-Kutta-Einschrittverfahren durch implizites Differenzieren der Inkrementgleichungen<br />
(3.2.4):<br />
s∑<br />
s∑<br />
D y k i = Df(y + h a ij k j ) · (I + h a ij D y k j ) ,<br />
Beachte: für y = y ∗ ➢ k i = 0<br />
i=1<br />
D y (Ψ h y) = I + h<br />
i=1<br />
s∑<br />
b i D y k i .<br />
i=1<br />
ρ(D y Φ h (y)) = max{|S(hλ)| : λ ∈ σ(Df(y ∗ ))}<br />
wenn hσ(Df(y ∗ )) ⊂ S Ψ . Dann wende Thm. 3.2.4 an.<br />
★<br />
✧<br />
= max{|S(z)| : z ∈ hσ(Df(y ∗ ))} < 1 ,<br />
Explizite RK-ESV : Schrittweitenbeschränkung für Vererbung<br />
von Stabilität eines Fixpunktes (→ (3.1.4))<br />
✥<br />
✦<br />
✷<br />
D y k i (y ∗ ) = Df(y ∗ ) · (I + h<br />
s∑<br />
a ij D y k j (y ∗ )) .<br />
i=1<br />
3.2<br />
p. 242<br />
Für welche Verfahren entfällt Schrittweitenbeschränkung ?<br />
3.2<br />
p. 244
Definition 3.2.7 (A-stabiles Einschrittverfahren).<br />
ESV A-stabil :⇔ C − := {z ∈ C: Re z < 0} ⊂ S Ψ (S Ψ = Stabilitätsgebiet,<br />
Def. 3.1.1)<br />
Aus Thm. 3.2.6: für A-stabile ESV (mit diskreter Evolution Ψ h )<br />
Autonome Dgl. ẏ = f(y) ,<br />
Fixpunkt f(y ∗ ) = 0<br />
Beispiel 3.2.1 (Einfache A-stabile RK-ESV).<br />
∧<br />
σ(Df(y ∗ )) ⊂ C −<br />
(ˆ= asymp. Stabilität von y ∗ )<br />
⇒<br />
Falls ‖y 0 − y ∗ ‖ < δ,<br />
(<br />
dann lim Ψ h) k<br />
y0 = y ∗ .<br />
k→∞<br />
Im<br />
3<br />
2<br />
1<br />
0<br />
−1<br />
−2<br />
−3<br />
−3 −2 −1 0 1 2 3<br />
Re<br />
Fig. 88<br />
implizite Mittelpunktsregel (1.4.11)<br />
Stabilitätsfunktion (→ Thm. 3.1.2)<br />
S(z) = 1 + 1 2 z<br />
1 − 1 2 z .<br />
✁ Stabilitätsgebiet S Ψ (→ Def. 3.1.1)<br />
✸<br />
3<br />
3.2<br />
p. 245<br />
3.3 Nichtexpansivität [5, Abschn. 6.3.3]<br />
3.3<br />
Betrachte: Autonomes AWP ẏ = f(y), f ∈ C 1 (D, R d ), D ⊂ R d offen. p. 247<br />
Sei M ∈ R d,d s.p.d. ➣ Norm ‖y‖ M := (y T My) 1/2 auf R d .<br />
Im<br />
2<br />
1<br />
0<br />
−1<br />
−2<br />
Implizites Eulerverfahren (1.4.9)<br />
Stabilitätsfunktion (→ Thm. 3.1.2)<br />
S(z) = 1<br />
1 − z .<br />
✁ Stabilitätsgebiet S Ψ (→ Def. 3.1.1)<br />
Definition 3.3.1 (Nichtexpansivität).<br />
Eine Evolution Φ t zu einer autonomen Dgl. bzw. eine diskrete Evolution Ψ h zu einem zugehörigen<br />
Einschrittverfahren heisst nichtexpansiv, falls<br />
∥<br />
∥Φ t y − Φ t ỹ∥ ≤ ‖y − ỹ‖ M M ,<br />
∥<br />
∥Ψ h y − Ψ h ∀y,ỹ ∈ D ,<br />
ỹ∥ ≤ ‖y − ỹ‖ M M<br />
und für alle t ∈ J(y) ∩ J(ỹ) ∩ R + 0 und alle hinreichend kleinen” h > 0.<br />
”<br />
−3<br />
−3 −2 −1 0 1 2 3<br />
Re<br />
Fig. 87<br />
Beispiel 3.3.1 (Gradientenfluss ➞ ”<br />
Kriechvorgänge”).<br />
C 1 -Potential V : R d ↦→ R konvex (V (ξx + (1 − ξ)y) ≤ ξV (x) + (1 − ξ)V (y), 0 ≤ ξ ≤ 1)<br />
⇒ (gradV (x) − gradV (y)) T (x − y) ≥ 0 ∀x,y ∈ R d .<br />
3.2<br />
p. 246<br />
Dies folgt aus der Monotonie der Ableitung von τ ↦→ V (y + τ(x − y))<br />
3.3<br />
p. 248
✬<br />
✩<br />
40<br />
30<br />
20<br />
10<br />
0<br />
2<br />
1.5<br />
1<br />
0.5<br />
∥<br />
χ(t) := ∥Φ t y − Φ t ỹ∥ 2 2<br />
0<br />
−0.5<br />
−1<br />
−1.5<br />
x<br />
−2<br />
−2<br />
1<br />
x 2 Fig. 89<br />
➣ Nichtexpansivität mit M = I.<br />
Nichtexpansivität einer Evolution:<br />
−1<br />
0<br />
1<br />
2<br />
Gradientenfluss-AWP:<br />
ẏ(t) = −gradV (y(t)) ,<br />
y(0) = y 0 ∈ R d .<br />
(3.3.1)<br />
⇒ ˙χ(t) = −2 (grad V (Φ t y) − gradV (Φ t ỹ)) T (Φ t y − Φ t ỹ) ≤ 0 .<br />
} {{ }<br />
≥0<br />
äquivalente Charakterisierung<br />
✸<br />
3.3<br />
p. 249<br />
Theorem 3.3.4 (Gauss-Kollokations-RK-ESV nichtexpansiv).<br />
Die diskreten Evolutionen zu Gauss-Kollokations-RK-ESV (→ Sect. 2.2.2) erben die Nichtexpansivität<br />
der (exakten) Evolution.<br />
✫<br />
Beweis von Thm. 3.3.4. Betrachte Gauss-Kollokations-ESV mit s Knoten:<br />
y h (t),ŷ h (t) ∈ P s ˆ= Kollokationspolynome zu Anfangswerten y 0 bzw. ỹ 0 , siehe Sect. 2.2.1<br />
Ψ h y 0 = y h (h) , Ψ h ỹ 0 = ỹ h (h) .<br />
d(τ) := ‖y h (τh) − ỹ h (τh)‖ 2 M ist Polynom in τ vom Grad ≤ 2s .<br />
Nichtexpansivität von Ψ h is äquivalent zu<br />
∥ ∫<br />
∥<br />
∥Ψ h y 0 − Ψ h ∥∥ 2<br />
1<br />
∫ 1<br />
ỹ 0 = d(1) = d(0) + d ′ (τ) dτ = ‖y 0 − ỹ 0 ‖ 2<br />
M<br />
M + d ′ (τ) dτ . (3.3.2)<br />
} 0 {{ }<br />
0<br />
!<br />
Ziel ≤ 0<br />
Gauss-Quadratur (mit s Knoten) ist exakt für Polynome ∈ P 2s−1<br />
∫ 1 s∑<br />
d ′ (τ) dτ = b j d ′ (c j ) . (3.3.3)<br />
0<br />
j=1<br />
✪<br />
3.3<br />
p. 251<br />
Definition 3.3.2 (Dissipatives Vektorfeld).<br />
f : D ⊂ R d ↦→ R d dissipativ :⇔ M(f(y) − f(ỹ)) · (y − ỹ) ≤ 0 ∀y,ỹ ∈ D .<br />
Dies ist eine Verallgemeinerung der Eigenschaft ”<br />
monoton fallend” von skalarwertigen Funkionen.<br />
Ableitung aus der Kettenregel:<br />
d ′ (τ) = 2hM(y h (τh) − ỹ h (τh)) · (ẏ h (τh) − ˙ỹ h (τh)) . (3.3.4)<br />
Aus Kollokationsbedingungen (2.2.1):<br />
ẏ h (c j h) = f(y h (c j h)) , ˙ỹh (c j h) = f(ỹ h (c j h)) , j = 1, ...,s .<br />
✬<br />
Lemma 3.3.3 (Bedingung für Nichtexpansivität einer Evolution).<br />
✫<br />
Beweis.<br />
Rechte Seite f dissipativ<br />
⇔ Nichtexpansivität der Evolution<br />
zur autonomen ODE ẏ = f(y)<br />
✩<br />
✪<br />
(3.3.4)<br />
d ′ (c j ) = 2hM(y h (c j h) − ỹ h (c j h)) · (f(y h (c j h)) − f(ỹ h (c j h))) ≤ 0 , (3.3.5)<br />
da f dissipativ ⇔ Nichtexpansivität von Φ t , vgl Lemma 3.3.3.<br />
(3.3.2), (3.3.3), (3.3.5) ⇒ Behauptung, da Gewichte b j der Gauss-Quadraturformeln positiv !. ✷<br />
Nichtexpansivität ⇔ ψ(t) := ‖y(t) − ỹ(t)‖ 2 M monoton fallend<br />
⇔<br />
dψ<br />
dt (t) = M(y(t) − ỹ(t)) · (ẏ(t) − ˙ỹ(t)) ≤ 0<br />
⇔ M(y(t) − ỹ(t)) · (f(y(t)) − f(ỹ(t))) ≤ 0 .<br />
✬<br />
Lemma 3.3.5 (Diskrete Nichtexpansivität ⇒ A-Stabilität).<br />
Nichtexpansivität (→ Def. 3.3.1) erbende RK-ESV (→ Def. 2.3.1) sind A-stabil (→ Def. 3.2.7).<br />
✫<br />
✩<br />
✪<br />
3.3<br />
p. 250<br />
3.3<br />
p. 252
0.4<br />
0.9<br />
0.9<br />
1 1 1<br />
Beweis. Skalare komplexe Dlg. ↔ reelle Dlg. in D = R 2 : für beliebiges λ = α + iβ ∈ C<br />
( ( ) ( (<br />
˙u˙v)<br />
ẏ = λy y=u+iv α −β u u<br />
⇔ =<br />
↔ ẏ = f(y) mit y := .<br />
β α v)<br />
v)<br />
} {{ }<br />
=:A<br />
Re λ < 0 ⇒ α < 0 ⇒ x T Ax = α ‖x‖ 2 ≤ 0 ∀x ∈ R 2<br />
⇒ rechte Seite f(y) = Ay ist dissipativ (→ Def. 3.3.2)<br />
⇒ Evolution nichtexpansiv, siehe Lemma 3.3.3.<br />
(“Vererbung”)<br />
⇒<br />
Diskrete Evolution Ψ h nichtexpansiv<br />
∥<br />
∥Ψ h y∥ = |S(hλ)||y| ≤ ‖y‖ 2 2 = |y| ⇒ |S(z)| ≤ 1 ∀z ∈ C − .<br />
Logistische Differentialgleichung ẏ = f(y),<br />
f(y) = λy(1 − y) → (2.2.12), λ = 50, Anfangswert<br />
y 0 = 10 −4 , Zeitintervall [0, 1].<br />
Kollokations-Einschrittverfahren (→ Abschnitt<br />
2.2) auf äquidistantem Gitter,<br />
h = 20 1 . y(t)<br />
0.2<br />
s=1<br />
s=2<br />
s=3<br />
s=4<br />
0<br />
0 0.2 0.4 0.6 0.8 1<br />
y<br />
1<br />
0.8<br />
0.6<br />
0.4<br />
t<br />
Fig. 93<br />
✸<br />
⇒ C − ⊂ S Ψ (Stabilitätsgebiet → Def. 3.1.1) . ✷<br />
Bemerkung 3.3.4 (A-Stabilität ⇏ Diskrete Nichtexpansivität ).<br />
Gegenbeispiel:<br />
implizite Trapezregel, Einschrittverfahren für ẏ = f(t,y) definiert durch<br />
✓<br />
✒<br />
Alle Gaus-Kollokations-ESV sind A-stabil<br />
Bemerkung 3.3.2 (Lösbarkeit der Inkrementgleichungen für Gauss-Kollokations-ESV).<br />
✏<br />
✑<br />
3.3<br />
p. 253<br />
y 1 = y 0 + 1 2 h(f(t,y 0) + f(t + h,y 1 )) ↔<br />
angewandt auf skalare autonome ODE ẏ =<br />
{<br />
−y 3 für y < 0 ,<br />
−y 2 für y ≥ 0 .<br />
Butcher-Schema<br />
0 0 0<br />
1 1/2 1/2<br />
1/2 1/2<br />
→ Übungsaufgabe<br />
3.3<br />
p. 255<br />
Die Inkrementgleichungen eines Gauss-Kollokations-RK-ESV für eine nichtexpansive<br />
autonome ODE sind für jedes h > 0 eindeutig lösbar →[15, Sect. IV.14].<br />
△<br />
△<br />
Bemerkung 3.3.5 (B-Stabiliät).<br />
Stabilitätsgebiete von Gauss-Kollokations-Einschrittverfahren:<br />
Im<br />
5<br />
4<br />
3<br />
2<br />
1<br />
0<br />
−1<br />
−2<br />
−3<br />
−4<br />
−5<br />
0.4<br />
0.7<br />
0.7<br />
0.4<br />
0.4<br />
0.7<br />
0.7<br />
0.9<br />
0.9<br />
1 1 1<br />
1.1<br />
−6 −4 −2 0 2 4 6<br />
Re<br />
1.1<br />
1.1<br />
1.5<br />
1.5<br />
1.5<br />
1.5<br />
Fig. 90<br />
Implizite Mittelpunktsregel<br />
Vermutung (Beweis später):<br />
Im<br />
20<br />
15<br />
10<br />
5<br />
0<br />
−5<br />
−10<br />
−15<br />
−20<br />
0.7<br />
0.4<br />
0.7<br />
0.4<br />
0.9<br />
0.7<br />
0.4<br />
0.7<br />
0.9<br />
1.1<br />
−20 −10 0 10 20<br />
Re<br />
s = 2 (Ordnung 4)<br />
1.5<br />
1.1<br />
1.1<br />
1.5<br />
1.5<br />
1.5<br />
Fig. 91<br />
Im<br />
50<br />
40<br />
30<br />
20<br />
10<br />
0<br />
−10<br />
−20<br />
−30<br />
−40<br />
0.4<br />
0.4<br />
0.7<br />
0.7<br />
0.4<br />
0.4<br />
0.9<br />
0.7<br />
0.9<br />
0.7<br />
−50<br />
−60 −40 −20 0 20 40<br />
Fig. 9260<br />
Re<br />
s = 4 (Ordnung 8)<br />
Niveaulinien von |S(z)| für Gauss-Kollokations-Einschrittverfahren<br />
S Ψ = C −<br />
Beispiel 3.3.3 (Gauss-Kollokationsverfahren für logistische Differentialgleichung). → Bsp. 3.0.11, 3.3<br />
1.4.9 p. 254<br />
1 1 1<br />
0.9 1.5 1.1<br />
1.1<br />
1.1<br />
1.5<br />
1.5<br />
1.5<br />
1.5<br />
Einschrittverfahren, die die Nichtexpansivität der Evolution zu einer ODE erben, heissen auch B-stabil<br />
[15, Sect. IV.12].<br />
Ein algebraisches Kriterium für B-Stabilität:<br />
Definition 3.3.6 (Algebraische Stabilität).<br />
Ein Runge-Kutta-Einschrittverfahren (→ Def. 2.3.1) mit Butcher-Schema c A bT , siehe (2.3.4),<br />
ist algebraisch stabil, falls<br />
(i) b i ≥ 0, i = 1, ...,s,<br />
(ii) und die Matrix M := diag(b 1 ,...,b s )A −A T diag(b 1 , ...,b s ) −bb T positiv semi-definit<br />
ist.<br />
△<br />
3.3<br />
p. 256
✬<br />
Theorem 3.3.7 (Kriterium für B-Stabilität).<br />
Algebraische Stabilität ⇒ B-Stabilität<br />
✫<br />
✩<br />
✪<br />
Beispiel 3.4.2 (Implizite RK-ESV bei schnellen Transienten). → Bsp. 3.5.3<br />
AWP: ẏ = −λy + β sin(2πt) , λ = 10 6 , β = 10 6 , y(0) = 1 .<br />
RK-ESV, äquidistantes Gitter auf [0, 1], h = 1<br />
40 :<br />
3.4 Gleichmässige Stabilität<br />
Re(S(z))<br />
1<br />
0.8<br />
0.6<br />
0.4<br />
0.2<br />
0<br />
−0.2<br />
exp(z)<br />
Impliziter Euler<br />
Gauss−Koll.−RK−ESV s=1<br />
Gauss−Koll.−RK−ESV s=2<br />
Gauss−Koll.−RK−ESV s=3<br />
Gauss−Koll.−RK−ESV s=4<br />
y<br />
4<br />
3<br />
2<br />
1<br />
0<br />
y(t)<br />
Impliziter Euler<br />
Kollokations RK−ESV s=1<br />
Kollokations RK−ESV s=2<br />
Kollokations RK−ESV s=3<br />
Kollokations RK−ESV s=4<br />
Beispiel 3.4.1 (Gauss-Kollokations-ESV bei stark attraktiven Fixpunkten). → Bsp. 3.5.1<br />
−0.4<br />
−0.6<br />
−1<br />
−0.8<br />
−2<br />
−1<br />
−1000 −800 −600 −400 −200 0<br />
z<br />
Fig. 95<br />
Stabilitätsfunktionen für Re z ≪ 1<br />
−3<br />
0 0.2 0.4 0.6 0.8 1<br />
t<br />
Fig. 96<br />
Diskrete Evolutionen (Zeitverlauf)<br />
3.4<br />
p. 257<br />
➣ Ungenügende Dämpfung der Anfangsstörung bei Kollokations-RK-ESV !<br />
(Oszillationen für ungerades s ➞ vgl. Stabilitätsfunktionen, lim<br />
Rez→−∞ S(z) = (−1)s )<br />
3.4<br />
p. 259<br />
ODE mit stark attraktivem Fixpunkt y = 1:<br />
ẏ = λy 2 (1 − y) ,<br />
λ = 500 , y(0) = 1<br />
100 .<br />
Qualitatives Verhalten von<br />
Gauss-Kollokations-ESV (→ Abschnitt 2.2)<br />
auf äquidistantem Gitter<br />
✄<br />
y<br />
1.4<br />
1.2<br />
1<br />
0.8<br />
0.6<br />
0.4<br />
0.2<br />
Äquidistantes Gitter, h=0.016667<br />
y(t)<br />
Gauss−Koll., s= 1<br />
Gauss−Koll., s= 2<br />
➣ Explizites Euler-Verfahren (1.4.2): sofortige Relaxation der diskreten Lösung !<br />
Klar, denn<br />
lim S(z) = 0 für explizites Euler-Verfahren.<br />
Rez→−∞<br />
✸<br />
Sect. 3.1: Stabilitätsfunktion S(z) ←→ exp(z)<br />
➣<br />
Falsche Oszillationen bei Gauss-Kollokations-ESV niedriger Ordnung<br />
0<br />
0 0.2 0.4 0.6 0.8 1<br />
t<br />
Fig. 94<br />
Erklärung: Für Gauss-Kollokations-ESV gilt S(z) ≈ ±1 für |z| → ∞, so dass der Fixpunkt der diskreten<br />
Evolution zwar anziehend bleibt, aber die diskrete Lösung (im Gegensatz zur kontinuierlichen)<br />
nur noch langsam (und oszillatorisch für ungerades s) gegen ihn konvergiert.<br />
Weitere Demonstration → Bsp. 3.4.2<br />
Utopie (für RK-ESV): S(−∞) = 0 , S(∞) = ∞<br />
(von keiner rationalen Funktion erfüllbar !)<br />
Bescheidener Wunsch (bei stark attrativen Fixpunkten, schnellen Relaxationen): S(−∞) = 0<br />
Definition 3.4.1 (L-Stabilität).<br />
ESV L-stabil :⇔ {z ∈ C: Re z < 0} ⊂ S Ψ & lim<br />
Rez→−∞ |S(z)| = 0<br />
✸<br />
3.4<br />
p. 258<br />
Kurz: L-stabil :⇔ A-stabil & ”<br />
S(−∞) = 0” p. 260<br />
3.4
Wie findet man L-stabile RK-ESV ?<br />
Existenz ist zu fordern<br />
Thm. 3.1.2 ⇒ S(−∞) = 1 − b T A −1 1 . (3.4.1)<br />
Falls b T = a<br />
T·,j (Zeile von A) ⇒ S(−∞) = 0 . (3.4.2)<br />
charakterisiert steif-genaue (engl. stiffly accurate) RK-ESV<br />
Bemerkung 3.4.3 (Invertierbarkeit der Koeffizientenmatrix von RK-ESV).<br />
Für jedes Kollokationsverfahren (→ Sect. 2.2.1) ist die Koeffizientenmatrix (Butcher-Matrix) A nichtsingulär<br />
Beweis. Es sei x ∈ R s mit Ax = 0<br />
(2.2.3)<br />
⇒<br />
s∑<br />
a ij x j =<br />
j=1<br />
s∑ ∫ i<br />
x j L j (τ) dτ = 0 , i = 1,...,s ,<br />
0c<br />
j=1<br />
mit den Lagrange-Polynomen L i ∈ P s−1 aus (2.2.2).<br />
s∑<br />
q := x j L j<br />
j=1<br />
erfüllt:<br />
∫ c i<br />
c i−1<br />
q(τ) dτ = 0 , i = 1, ...,s (c 0 := 0) .<br />
⇒ q ∈ P s−1 hat s Nullstellen in [0, 1] ⇒ q = 0 ⇒ x = 0. ✷ △<br />
3.4<br />
p. 261<br />
order of quadrature rule<br />
23<br />
21<br />
19<br />
17<br />
15<br />
13<br />
11<br />
9<br />
7<br />
5<br />
3<br />
1<br />
Nodes for Gauss−Radau quadrature rules<br />
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1<br />
node position x<br />
Knoten: Radau-Quadraturformeln<br />
Fig. 97<br />
size of weight<br />
0.8<br />
0.7<br />
0.6<br />
0.5<br />
0.4<br />
0.3<br />
0.2<br />
0.1<br />
Weights for Gauss−Radau quadrature rules<br />
order = 3<br />
order = 5<br />
order = 7<br />
order = 9<br />
order = 11<br />
order = 13<br />
order = 15<br />
order = 17<br />
order = 19<br />
order = 21<br />
order = 23<br />
0<br />
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1<br />
node position x<br />
Gewichte: Radau-Quadraturformeln<br />
Implizite s-stufige L-stabile Radau-ESV, Konvergenzordnung 2s − 1 (→ Thm. 2.2.8)<br />
4− √ 6 88−7 √ 6 296−169 √ 6 −2+3 √ 6<br />
1 5<br />
1 1<br />
3 12 −12<br />
1<br />
10 360 1800 225<br />
1<br />
1 3 4+ √ 6 296+169 √ 6 88+7 √ 6 −2−3 √ 6<br />
1<br />
10 1800 360 225<br />
4 4<br />
16− √ 6 16+ √ 6<br />
3 1<br />
1<br />
1<br />
4 4<br />
36 36 9<br />
16− √ 6 16+ √ 6 1<br />
36 36 9 3.4<br />
Implizites Euler-ESV Radau-ESV, Ordnung 3 Radau-ESV, Ordnung 5 p. 263<br />
Fig. 98<br />
Butcher-Schema (2.3.4) für konsistente<br />
(→ Lemma 2.3.2), L-stabile RK-ESV,<br />
siehe Def. 3.4.1<br />
✄<br />
c A<br />
b T :=<br />
Idee: Wähle c s = 1 im Kollokations-RK-ESV (2.2.3)<br />
c 1 a 11 · · · a 1s<br />
. .<br />
.<br />
c s−1 a s−1,1 · · · a s−1,s .<br />
b 1 · · · b s<br />
1 b 1 · · · b s<br />
Wähle c 1 ,...,c s−1 als Knoten einer Quadraturformel maximaler Ordnung.<br />
(➞ Gauss-Radau-Quadratur, Ordnung 2s − 1)<br />
Stabilitätsfunktion s-stufiger Radau-Kollokations-<br />
RK-ESVs:<br />
S(z) = P(z)<br />
Q(z) , P ∈ P s−1, Q ∈ P s .<br />
Vorsicht: Auch ”<br />
S(∞) = 0”<br />
Re(S(z))<br />
100<br />
90<br />
80<br />
70<br />
60<br />
50<br />
40<br />
30<br />
20<br />
10<br />
0<br />
exp(z)<br />
RADAU, s=2<br />
RADAU, s=3<br />
RADAU, s=4<br />
RADAU, s=5<br />
−2 −1 0 1 2 3 4 5 6<br />
z<br />
Niveaus der Stabilitätsfunktionen von s-stufigen Radau-Kollokations-RK-ESVs:<br />
3.4<br />
p. 262<br />
3.4<br />
p. 264
1<br />
1.5<br />
−2 0 2 4 6 8 10<br />
0.7<br />
1.5<br />
1<br />
0.4<br />
Im<br />
10<br />
8<br />
6<br />
4<br />
2<br />
0<br />
−2<br />
−4<br />
−6<br />
−8<br />
−10<br />
0.4<br />
0.4<br />
0.7<br />
1.1<br />
0.9<br />
0.7<br />
0.9<br />
1.1<br />
1<br />
1.5<br />
Re<br />
1<br />
1.5<br />
0.4<br />
0.4<br />
1.1<br />
0.7<br />
0.9<br />
0.7<br />
0.4<br />
0.4<br />
Im<br />
20<br />
15<br />
10<br />
5<br />
0<br />
−5<br />
−10<br />
0.4<br />
0.9<br />
0.4<br />
1<br />
1.1<br />
1<br />
1.1<br />
−20<br />
−15<br />
−20<br />
−30<br />
0 5 10 15 20<br />
Re<br />
s = 2<br />
s = 3<br />
s = 4<br />
Beispiel 3.4.4 (Radau-ESV bei stark attraktiven Fixpunkten). → Bsp. 3.4.1<br />
0.9<br />
0.7<br />
1.5<br />
0.4<br />
0.7<br />
1.5<br />
0.9<br />
1.1<br />
0.4<br />
1<br />
1.1<br />
1<br />
0.9<br />
0.7<br />
0.4<br />
0.4<br />
Im<br />
30<br />
20<br />
10<br />
0.1<br />
0<br />
−10<br />
0.4<br />
0.9<br />
0.7<br />
1.1<br />
1.5<br />
1.1<br />
0.4<br />
1.5<br />
1<br />
0.7<br />
0.4<br />
0.9<br />
0.9<br />
0.7<br />
1<br />
1.1<br />
1.5<br />
0 5 10 15 20 25 30<br />
Re<br />
1.5<br />
1.1<br />
0.4<br />
1<br />
0.7<br />
0.9<br />
0.4<br />
0.7<br />
✬<br />
Theorem 3.4.2 (Radau-ESV nichtexpansiv).<br />
Die diskreten Evolutionen zu Radau-ESV erben die Nichtexpansivität der (exakten) Evolution.<br />
✫<br />
Beweis. Erweiterung des Beweises zu Thm. 3.3.4. Mit den dortigen Notationen und Fehlerdarstellungsformel<br />
für Gauss-Radau-Quadraturformeln<br />
∫ 1 s∑<br />
d ′ (τ) dτ = b j d ′ (c j ) − R mit R = c(s)d (2s) (ξ) , 0 ≤ ξ ≤ 1 ,<br />
0<br />
j=1<br />
wobei c(s) > 0. Formeln (3.3.4) und (3.3.5) bleiben gültig, so dass die Behauptung von Thm. 3.4.2<br />
gezeigt ist, sobald R ≥ 0 sichergestellt ist:<br />
∑2s<br />
d(τ) = δ j τ j ⇒ d (2s) (τ) = (2s)!δ 2s ,<br />
j=0<br />
d(τ) ≥ 0 ⇒<br />
lim d(τ) ≥ 0 ⇒ δ 2s ≥ 0 .<br />
|τ|→∞<br />
Beachte: Auch die Gewichte von Gauss-Radau-Quadraturformeln sind positiv, siehe Fig. 98.<br />
✷<br />
✩<br />
✪<br />
AWP für ODE mit stark attraktivem Fixpunkt y = 1,<br />
Bsp. 3.4.1<br />
ẏ = λy 2 (1 − y) ,<br />
λ = 500 , y(0) = 1<br />
100 .<br />
y<br />
1.4<br />
1.2<br />
1<br />
0.8<br />
0.6<br />
Äquidistantes Gitter, h=0.016667<br />
y(t)<br />
RADAU, s= 1<br />
RADAU, s= 2<br />
3.4<br />
p. 265<br />
3.5 Steifheit<br />
Konzept 3.5.1 (Steifes Anfangswertproblem).<br />
Radau-ESV sind A-stabil (→ Def. 3.2.7)<br />
Ein AWP heisst steif (engl. stiff), falls für explizite RK-ESV (→ Def. 2.1.2) Stabilität eine wesentlich<br />
kleinere Schrittweite verlangt als die Genauigkeitsanforderungen.<br />
3.5<br />
p. 267<br />
Qualitatives Verhalten von Radau-ESV auf<br />
äquidistantem Gitter<br />
✄<br />
➣<br />
Diskrete Evolution strebt schnell dem stabilen Zustand zu<br />
0.4<br />
0.2<br />
0<br />
0 0.2 0.4 0.6 0.8 1<br />
t<br />
Fig. 99<br />
Beispiel 3.5.1 (Adaptive explizite RK-ESV für steifes Problem). → Sect. 2.6<br />
ẏ(t) = λy 2 (1 − y) , λ = 500 , y(0) = 1<br />
100 .<br />
MATLAB-CODE : Adaptives ESV für steifes Problem<br />
fun = @(t,x) 500*xˆ2*(1-x); tspan = [0 1]; y0 = 0.01;<br />
options = odeset(’reltol’,0.1,’abstol’,0.001,’stats’,’on’);<br />
[t,y] = ode45(fun,tspan,y0,options);<br />
plot(t,y,’r+’);<br />
✸<br />
Wie für Gauss-Kollokations-RK-ESV, siehe Thm. 3.3.4:<br />
3.4<br />
p. 266<br />
3.5<br />
p. 268
y<br />
1.4<br />
1.2<br />
1<br />
0.8<br />
0.6<br />
0.4<br />
0.2<br />
y(t)<br />
ode45<br />
0<br />
0 0.2 0.4 0.6 0.8 1<br />
t<br />
Fig. 100<br />
y(t)<br />
1.5<br />
1<br />
0.5<br />
0.03<br />
0.02<br />
0<br />
0 0.2 0.4 0.6 0.8 1<br />
t<br />
Fig. 101<br />
0 0.2 0.4 0.6 0.8 1 0 0.01<br />
➣ Schrittweitensteuerung realisiert Schrittweitenbeschränkung ! → Bsp. 2.6.4<br />
(186 successful steps, 55 failed attempts, 1447 function evaluations)<br />
y = 1 stark attraktiver Fixpunkt ➣<br />
Extreme Schrittweitenbeschränkung für<br />
expliziten Integrator ode45<br />
Beachte: die Schrittweitensteuerung erkennt Stabilitätsprobleme und reduziert die Schrittweite entsprechend<br />
! → Bsp. 2.6.4<br />
Zeitschrittweite<br />
✸<br />
3.5<br />
p. 269<br />
fun = @(t,y) ([-k1*y(1)*y(2) + k2*y(3) - k3*y(1)*y(3) + k4*y(4);<br />
-k1*y(1)*y(2) + k2*y(3);<br />
k1*y(1)*y(2) - k2*y(3) - k3*y(1)*y(3) + k4*y(4);<br />
k3*y(1)*y(3) - k4*y(4)]);<br />
tspan = [0 1];<br />
y0 = [1;1;10;0];<br />
options = odeset(’reltol’,0.1,’abstol’,0.001,’stats’,’on’);<br />
[t,y] = ode45(fun,[0 1],y0,options);<br />
concentrations<br />
12<br />
10<br />
8<br />
6<br />
4<br />
2<br />
0<br />
Chemical reaction: concentrations<br />
c A<br />
(t)<br />
c C<br />
(t)<br />
c A,k<br />
, ode45<br />
c C,k<br />
, ode45<br />
−2<br />
0 0.2 0.4 0.6 0.8 1<br />
t<br />
Fig. 102<br />
Beispiel 3.5.3 (Steife Schaltkreisgleichungen im Zeitbereich).<br />
c C<br />
(t)<br />
10<br />
9<br />
8<br />
7<br />
6<br />
5<br />
4<br />
Chemical reaction: stepsize<br />
3<br />
0 0.2 0.4 0.6 0.8 1<br />
t<br />
0 0.2 0.4 0.6 0.8 1 0 1<br />
x 10 −5<br />
7<br />
6<br />
5<br />
4<br />
3<br />
2<br />
timestep<br />
Fig. 103 p. 271<br />
✸<br />
3.5<br />
Welche Anfangswertprobleme sind steif ?<br />
☞<br />
ODE-Modelle für Systeme mit schnell relaxierenden Komponenten<br />
(mit stark unterschiedlichen Zeitkonstanten)<br />
Schaltkreisanalyse im Zeitbereich:<br />
Bauelementgleichungen (i ˆ= Strom, u ˆ= Spannung):<br />
R<br />
u(t)<br />
Beispiel 3.5.2 (Steife Probleme in der chemischen Reaktionskinetik). → Sect. 1.2.2<br />
Reaktion:<br />
k 2<br />
k 4<br />
A + B<br />
←−<br />
−→ C , , A + C<br />
←−<br />
−→ D (3.5.1)<br />
k1 k3<br />
Stark unterschiedliche Reaktionsgeschwindigkeiten: k 1 , k 2 ≫ k 3 , k 4<br />
• Widerstand: i(t) = R −1 u(t)<br />
• Kondensator: i(t) = C ˙u(t)<br />
Dgl. aus Knotenanalyse:<br />
C ˙u(t) = −R −1 u(t) + I(t) .<br />
C<br />
I(t)<br />
Falls c A (0) > c B (0) ➢<br />
2. Reaktion kontrolliert Langzeitdynamik<br />
Konkret: C = 1pF , R = 1kΩ, I(t) = sin(2π 1Hz t)mA, u(0) = 0V<br />
Skalierte (dimensionslose) Dgl. : ˙u(t) = −10 9 u(t) + 10 9 sin(2πt) ⇒ u(t) ≈ sin(2πt) .<br />
Numerisches Experiment, MATLAB, t 0 = 0, T = 1, k 1 = 10 4 , k 2 = 10 3 , k 3 = 10, k 4 = 1<br />
ˆ= ODE aus Bsp. 3.4.2<br />
MATLAB-CODE : Explizite Integration steifer chemischer Reaktionsgleichungen<br />
3.5<br />
p. 270<br />
Im Fall der nichtautonomen Dgl. ẏ = −λy + g(t), λ ≫ 1, sind wird mit einem “zeitlich variierenden”<br />
stark attraktiven Fixpunkt y ∗ (t) = λ −1 g(t) konfrontiert. Auch dieser führt zu Steifheit gemäss<br />
Konzept 3.5.1.<br />
3.5<br />
p. 272
✸<br />
Abschnitt 3.4 ➣ Wir wissen was zu tun ist !<br />
1.5<br />
ode45 for attractive limit cycle<br />
x 10 −4<br />
8<br />
2<br />
ode23s for attractive limit cycle<br />
0.02<br />
1<br />
7<br />
1<br />
0.015<br />
Steife AWP<br />
➤<br />
(Geeignete) implizite RK-ESV (→ Def. 2.1.2) sind zu verwenden !<br />
0.5<br />
6<br />
d.h. L-stabil (→ Def. 3.4.1)<br />
y i<br />
(t)<br />
0<br />
5<br />
timestep<br />
y i<br />
(t)<br />
0<br />
0.01<br />
timestep<br />
−0.5<br />
4<br />
Beispiel 3.5.4 (Attraktiver Grenzzyklus). vgl. Bsp. 1.2.6<br />
−1<br />
y 1,k<br />
y 2,k<br />
Fig. 105<br />
−1.5<br />
0 1 2 3 4 5 6 7<br />
t<br />
0 1 2 3 4 5 6 7 2 3<br />
ode45: 3794 Schritte (λ = 1000)<br />
−1<br />
y 1,k<br />
y 2,k<br />
Fig. 106<br />
−2<br />
0 1 2 3 4 5 6 7<br />
t<br />
0 1 2 3 4 5 6 7 0 0.005<br />
ode23s: 432 Schritte (λ = 1000)<br />
3.5<br />
p. 273<br />
3.5<br />
p. 275<br />
2<br />
1<br />
ode45 for rigid motion<br />
0.2<br />
1.5<br />
Autonome Dgl. ẏ = f(y)<br />
( )<br />
0 −1<br />
f(y) := y + λ(1 − ‖y‖<br />
1 0<br />
2 )y ,<br />
auf Zustandsraum D = R 2 \ {0}.<br />
Lösungstrajektorien (λ = 10) ✄<br />
1<br />
0.5<br />
0<br />
−0.5<br />
−1<br />
−1.5<br />
Fig. 104<br />
−2<br />
−2 −1.5 −1 −0.5 0 0.5 1 1.5 2<br />
y i<br />
(t)<br />
0<br />
y 1,k<br />
−1<br />
0 1 2 3 4 5 6 7<br />
t<br />
0 1 2 3 4 5 6 7 0 0.1<br />
timestep<br />
✁ λ = 0 ˆ= Drehbewegung, siehe Bsp. 1.4.7<br />
ode45 erzielt gute Genauigkeit trotz (relativ)<br />
grosser Schrittweite.<br />
Nichtsteifes Problem!<br />
y 2,k<br />
✸<br />
☞ Falls ‖y 0 ‖ = 1 ⇒ ‖y(t)‖ = 1 ∀t<br />
☞ “Grenzzyklus auf Einheitskreis”: ‖y(t)‖ → 1 für t → ∞.<br />
Adaptive MATLAB-Integratoren für steife Probleme: (Schrittweitensteuerung wie in Abschnitt 2.6)<br />
MATLAB-CODE Integration von Evolution mit Grenzzyklus<br />
fun = @(t,y) ([-y(2);y(1)] + lambda*(1-y(1)ˆ2-y(2)ˆ2)*y);<br />
tspan = [0,2*pi]; y0 = [1,0];<br />
opts = odeset(’stats’,’on’,’reltol’,1E-4,’abstol’,1E-4);<br />
[t45,y45] = ode45(fun,tspan,y0,opts);<br />
3.5<br />
[t23,y23] = ode23s(fun,tspan,y0,opts); p. 274<br />
opts = odeset(’abstol’,atol,’reltol’,rtol,’Jacobian’,@J)<br />
[t,y] = ode15s/ode23s(odefun,tspan,y0,opts);<br />
Beispiel 3.5.5 (Adaptives semi-implizites RK-ESV für steifes Problem). → Bsp. 3.5.1, 3.4.1<br />
ẏ(t) = λy 2 (1 − y) , λ = 500 , y(0) = 100 1 . 3.5<br />
p. 276
MATLAB-CODE : Semi-Implizites ESV für steifes Problem<br />
lambda = 500; tspan = [0 1]; y0 = 0.01;<br />
fun = @(t,x) lambda*xˆ2*(1-x);<br />
Jac = @(t,x) lambda*(2*x*(1-x)-xˆ2);<br />
o = odeset(’reltol’,0.1,’abstol’,0.001,’stats’,’on’,’Jacobian’,Jac);<br />
[t,y] = ode23s(fun,[0 1],y0,o);<br />
Implizites Euler-Verfahren (1.4.9) mit uniformem<br />
Zeitschritt h = 1/n,<br />
n ∈ {5, 8, 11, 17, 25, 38, 57, 85, 128, 192, 288,<br />
, 432, 649, 973, 1460, 2189, 3284, 4926, 7389}.<br />
10 −1<br />
Logistic ODE, y 0<br />
= 0.100000, λ = 5.000000<br />
Statistik:<br />
20 successful steps 4 failed attempts 70 function<br />
evaluations<br />
& näherungsweise Berechnung von y k+1<br />
durch 1 Newton-Schritt mit Startwert y k<br />
error<br />
10 −2<br />
10 −3<br />
1.4<br />
1.2<br />
1<br />
y(t)<br />
ode23s<br />
2<br />
0.1<br />
= semi-implizites Euler-Verfahren<br />
Fehlermass err = max<br />
j=1,...,n |y j − y(t j )|<br />
10 0 h<br />
10 −4<br />
implicit Euler<br />
semi−implicit Euler<br />
O(h)<br />
10 −5<br />
10 −4 10 −3 10 −2 10 −1 10 0<br />
Fig. 109<br />
y<br />
0.8<br />
0.6<br />
0.4<br />
0.2<br />
0<br />
0 0.2 0.4 0.6 0.8 1<br />
t<br />
Fig. 107<br />
y(t)<br />
1<br />
0<br />
0 0.2 0.4 0.6 0.8 1<br />
t<br />
Fig. 108<br />
0 0.2 0.4 0.6 0.8 1 0 0.05<br />
Zeitschrittweite<br />
➤ Effizientes Verfahren (vgl. Bsp. 3.5.1): Keine Schrittweitenbeschränkung für y ≈ 1<br />
3.6 Linear-implizite Runge-Kutta-Verfahren [5, Sect. 6.4]<br />
✸<br />
3.6<br />
p. 277<br />
Logistic ODE, y 0<br />
= 0.100000, λ = 5.000000<br />
10 0 h<br />
3.6<br />
p. 279<br />
Inkrementgleichungen (2.2.3) für s-stufige implizite RK-ESV<br />
=<br />
Nichtlineares Gleichungssystem der Dimension s · d<br />
Beispiel 3.6.1 (Linearisierung der Inkrementgleichungen).<br />
Anfangswertproblem für logistische Differentialgleichung, siehe Bsp. 1.2.1<br />
ẏ = λy(1 − y) , y(0) = 0.1 , λ = 5 .<br />
Implizite Mittelpunktsregel (1.4.11) mit uniformem<br />
Zeitschritt h = 1/n (wie oben)<br />
& näherungsweise Berechnung von y k+1<br />
durch 1 Newton-Schritt mit Startwert y k<br />
Fehlermass err = max<br />
j=1,...,n |y j − y(t j )|<br />
error<br />
10 −2<br />
10 −4<br />
10 −6<br />
10 −8<br />
implicit midpoint rule<br />
semi−implicit m.p.r.<br />
O(h 2 )<br />
10 −10<br />
10 −4 10 −3 10 −2 10 −1 10 0<br />
Fig. 110 ✸<br />
?Idee: Implizite RK-ESV mit linearisierten Inkrementgleichungen (2.2.3)<br />
⎛ ⎞<br />
s∑<br />
k i = f(y 0 ) + hDf(y 0 ) ⎝ a ij k j<br />
⎠ , i = 1,...,s . (3.6.1)<br />
j=1<br />
(3.6.1) ˆ= LGS der Dimension s · d: (s ˆ= Anzahl der Stufen, A ∈ R s,s ˆ= Koeffizientenmatrix aus<br />
3.6<br />
p. 278<br />
3.6<br />
p. 280
Butcher-Schema (2.3.4))<br />
⎛<br />
(I s·d − hA ⊗ Df(y 0 )) ⎝ k ⎞ ⎛<br />
1<br />
. ⎠ = ⎝ 1 ⎞<br />
. ⎠ ⊗ f(y 0 ) ,<br />
k s 1<br />
mit Kronecker-Produkt: für A ∈ R m,n , B ∈ R k,l<br />
⎛<br />
A ⊗ B := ⎝ a ⎞<br />
11B · · · a 1n B<br />
.<br />
. ⎠ ∈ R m·k,n·l .<br />
a m,1 B · · · a m,n B<br />
MATLAB-Kommando kron(A,B).<br />
Betrachte:<br />
diagonal-implizite RK-ESV (DIRK)<br />
⇕<br />
A untere Dreiecksmatrix<br />
(A regulär ⇔ a jj ≠ 0)<br />
c A<br />
b T :=<br />
Gestaffeltes (nichtlineares) Gleichungssystem für Inkremente<br />
c 1 a 11 0 · · · 0<br />
c 2 a 21 a 22 0 0<br />
. . . .. ... .<br />
. . ... ... . .<br />
. . ... 0<br />
c s a s1 · · · a ss<br />
b 1 · · · · · · b s<br />
(autonomer Fall)<br />
(3.6.3)<br />
✗<br />
✖<br />
Linearisierung folgenlos bei linearen ODE ➢ Stabilitätsfunktion (→ Def. 3.1.2) unverändert<br />
Beispiel 3.6.2 (Implizite RK-ESV mit linearisierten Inkrementgleichungen).<br />
Anfangswertproblem für logistische Differentialgleichung, siehe Bsp. 1.2.1<br />
✔<br />
✕<br />
Allgemeine Inkrementgleichungen für s-stufiges DIRK-Verfahren:<br />
k i = f(y 0 + h<br />
i∑<br />
s∑<br />
a ij k j ) , y 1 = y 0 + h b i k i .<br />
j=1<br />
i. Inkrementgleichung: Umformulierung als Problem der Nullstellensuche von<br />
i=1<br />
ẏ = λy(1 − y) , y(0) = 0.1 , λ = 5 .<br />
3.6<br />
p. 281<br />
∑i−1<br />
F(k) := k − f(y 0 + z + a ii k) = 0 , z = h a ij k j .<br />
j=1<br />
3.6<br />
p. 283<br />
2-stufiges Radau-ESV, Butcher Schema<br />
1 5<br />
3 12 − 12<br />
1<br />
1 3 1<br />
4 4<br />
3 1<br />
4 4<br />
, (3.6.2)<br />
Ordnung 3, siehe Sect. 3.4.<br />
Inkremente aus linearisierten Gleichungen<br />
(3.6.1)<br />
Fehlermass err = max<br />
j=1,...,n |y j − y(t j )|<br />
error<br />
Logistic ODE, y 0<br />
= 0.100000, λ = 5.000000<br />
10 −2<br />
10 −4<br />
10 −6<br />
10 −8<br />
10 −10<br />
RADAU (s=2)<br />
10 −12<br />
semi−implicit RADAU<br />
O(h 3 )<br />
O(h 2 )<br />
10 −14<br />
10 −4 10 −3 10 −2 h<br />
10 −1 10 0<br />
Fig. 111<br />
10 0<br />
Ein Newton-Schritt mit Startwert k (0)<br />
i<br />
:<br />
DF(k) = I − Df(y 0 + z + a ii k)ha ii .<br />
k (1)<br />
i = k (0)<br />
i − (I − Df(y 0 + z + a ii k)ha ii ) −1 ·<br />
Vereinfachung, vgl. Bem. 2.3.7: Benutze Jacobi-Matrix an der Stelle y 0<br />
Newton-Verfahren:<br />
Allgemeiner Ansatz für Startnäherung:<br />
(<br />
k (0)<br />
i − f(y 0 + z + a ii k (0) )<br />
i )<br />
Ansatz Startnäherung (für k i ): k (0) ∑i−1<br />
d ij<br />
i = k<br />
a j . (3.6.4)<br />
j=1 ii<br />
Ordnungsverlust durch Linearisierung !<br />
✸<br />
∑i−1<br />
∑i−1<br />
(I − ha ii J)k i =f(y 0 + h (a ij + d ij )k j ) − hJ d ij k j , (3.6.5)<br />
)<br />
(a ij + d ij )k j . (3.6.6)<br />
j=1<br />
j=1<br />
J :=Df ( ∑i−1<br />
y 0 + h<br />
j=1<br />
3.6<br />
p. 284<br />
” Rettung” der Ordnung durch bessere Startnäherung für (einen) Newtonschritt ? 3.6<br />
p. 282
Vereinfachtes Newton-Verfahen ( eingefrorene” Jacobi-Matrix)<br />
”<br />
s∑<br />
Wie bei Standard-RK-ESV (→ Def. 2.3.1): y 1 = y 0 + h b i k i . (3.6.7)<br />
i=1<br />
Nächster Schritt: Bestimme Koeffizienten a ij , d ij in (3.6.5) (und b i ), so dass sie Ordnungsbedingungsgleichungen<br />
genügen<br />
(analog zur Konstruktion von Runge-Kutta-Verfahren in Sect. 2.3)<br />
Linear-implizite Runge-Kutta-Verfahren (Rosenbrock-Wanner(ROW)-Methoden)<br />
Beispiel 3.6.3 (Bedingungsgleichungen für Linear-implizite Runge-Kutta-Verfahren 2. Ordnung).<br />
Hamiltonsche ODE (1.2.11) für mathematisches<br />
Pendel für 0 ≤ t ≤ T := 50, Anfangswerte<br />
α(0) = π/4, p(0) = 0<br />
Implizite Mittelpunktsregel (1.4.11)/semiimplizite<br />
Mittelpunktsregel (→ Bsp. 3.6.1) auf<br />
uniformem Zeitgitter h = T/300,<br />
Beobachtet: Zeitverhalten der Energien →<br />
Bsp. 1.4.6<br />
p<br />
3<br />
2<br />
1<br />
0<br />
−1<br />
−2<br />
exact solution<br />
implicit midpoint<br />
semi−implicit m.r.<br />
300 timesteps on [0,50.000000]<br />
−3<br />
−1 −0.8 −0.6 −0.4 −0.2 0.2 0.4 0.6 0<br />
α<br />
0.8 1<br />
Fig. 112<br />
Aus der Neumannschen Reihe für Matrizen: für h > 0 “hinreichend klein”<br />
∞∑<br />
(I − ha ii J) −1 = (ha ii J) k = I + ha ii J + O(h 2 ) . (3.6.8)<br />
k=0<br />
Einsetzen in (3.6.5) + Taylor-Entwicklung von f um y 0 + rekursives Einsetzen, vgl. Bsp. 2.3.9:<br />
(<br />
k i = I + ha ii J + O(h )) ⎛ ⎞<br />
2 ∑i−1<br />
⎝f(y 0 ) + hJ (a ij + d ij )k j + O(h 2 ∑i−1<br />
) − hJ d ij k j<br />
⎠<br />
j=1<br />
j=1<br />
3.6<br />
p. 285<br />
3.6<br />
p. 287<br />
= f(y 0 ) + ha ii Jf(y 0 ) + hJf(y 0 ) (i−1 ∑ )<br />
a ij + O(h 2 ) .<br />
j=1<br />
3<br />
2.5<br />
Energies for implicit midpoint discrete evolution<br />
4.5<br />
4<br />
3.5<br />
Energies for semi−implicit midpoint discrete evolution<br />
(3.6.7)<br />
⇒<br />
y 1 = y 0 + h ( ∑ s )<br />
b i f(y0 ) + h 2( s∑ ∑i−1<br />
b i a ij<br />
)Jf(y 0 ) + O(h 3 ) .<br />
i=1<br />
i=1<br />
j−1<br />
Dabei wurde benutzt: J = Df(y 0 ). Dann Vergleich mit Taylorentwicklung (2.3.15) ➣ Bedingungsgleichungen<br />
(2.3.18), (2.3.19) (gleich wie für Standard-Rk-ESV !).<br />
Beispiel 3.6.4 (Energieerhaltung bei semi-impliziter Mittelpunktsregel).<br />
✸<br />
energy<br />
2<br />
1.5<br />
1<br />
0.5<br />
kinetic energy<br />
potential energy<br />
total energy<br />
0<br />
0 5 10 15 20 25 30 35 40 45 50<br />
time t<br />
Fig. 113<br />
energy<br />
3<br />
2.5<br />
2<br />
1.5<br />
1<br />
0.5<br />
kinetic energy<br />
potential energy<br />
total energy<br />
0<br />
0 5 10 15 20 25 30 35 40 45 50<br />
time t<br />
Fig. 114<br />
✗<br />
✖<br />
Energiedrift bei semi-impliziter Mittelpunktsregel<br />
✔<br />
✕<br />
✸<br />
3.7 Exponentielle Integratoren [21, 24]<br />
3.6<br />
p. 286<br />
Betrachte: Autonomes AWP ẏ = f(y), f : D ⊂ R d ↦→ R d stetig differenzierbar p. 288<br />
3.7
Idee:<br />
” Absubtrahieren” der Lösung der um y 0 linearisierten ODE<br />
ẏ = Jy + g(y) , g(y) := f(y) − Jy , (3.7.1)<br />
mit J := Df(y 0 )<br />
Bemerkung 3.7.1 (Stabilitätsgebiet des exponentiellen Euler-Verfahrens).<br />
Erinnerung: Analyse des linearen Modellproblems, Sect. 3.1 ➣ Stabilitätsgebiet S Ψ ⊂ C →<br />
Def. 3.1.1<br />
Variation der Konstanten (→ Sect. 1.3.2) angewandt auf (3.7.1)<br />
∫ h<br />
y(h) = exp(Jh)y 0 + exp(J(h − τ))g(y(τ)) dτ . (3.7.2)<br />
0<br />
Beachte: exponentielles Euler-Verfahren ist exakt für AWP zur ODE ẏ = Ay + g mit konstantem<br />
A ∈ R d,d , g ∈ R d .<br />
(Ideale !) Stabilitätsfunktion: S(z) = exp(z) ➤ (ideales) Stabilitätsgebiet S Ψ = C − △<br />
exp ˆ= Matrixexponentialfunktion, definiert durch<br />
∞∑ 1<br />
“Matrixexponentialreihe”: exp(M) =<br />
k! Mk .<br />
k=0<br />
! Auswertung der Matrixexponentialreihe ist kein stabiler numerischer Algorithmus (Auslöschung !)<br />
Beispiel 3.7.2 (Exponentielles Euler-Verfahren).<br />
Alternativen:<br />
☞ Pade-Approximation von t ↦→ e t (nach Skalieren der Matrix, ”<br />
scaling and squaring”)<br />
3.7<br />
p. 289<br />
3.7<br />
p. 291<br />
Logistic ODE, y 0<br />
= 0.100000, λ = 5.000000<br />
☞ Schur-Zerlegung (siehe MATLAB-Kommando schur)<br />
M = Q T (D + U)Q mit Diagonalmatrix<br />
D, echter oberer Dreiecksmatrix U, orthogonaler Matrix Q. Anschliessend Auswertung der<br />
abgeschnittenen Matrixexponentialreihe für D + U & (1.3.7)<br />
MATLAB-Funktion expm, Algorithmus → [17]<br />
error<br />
10 −1<br />
10 −2<br />
10 −3<br />
10 −4<br />
• Anfangswertproblem für<br />
logistische Differentialgleichung, λ = 5, T = 1,<br />
siehe Bsp. 1.2.1<br />
• Exponentielles Euler-Verfahren (3.7.3) mit<br />
uniformen Zeitschrittweiten h<br />
10 0 h<br />
Numerische Quadratur des Faltungsintegrals ➢ Diskretisierung von (3.7.2) ➢ ESV<br />
10 −5<br />
exponential Euler<br />
10 −6<br />
explicit Euler<br />
O(h)<br />
O(h 2 )<br />
10 −7<br />
10 −4 10 −3 10 −2 10 −1<br />
Fig. 115<br />
• Fehlermass err = max<br />
j=1,...,n |y j − y(t j )|<br />
Algebraische Konvergenz der Ordnung 2 !<br />
Einfachste Wahl:<br />
∫ h<br />
∫ h<br />
exp(J(h − τ))g(y(τ)) dτ ≈ exp(J(h − τ)) dτ · g(y 0 ) = hϕ(Jh) · g(y 0 )<br />
0<br />
0<br />
mit ϕ(z) = exp(z) − 1<br />
z<br />
exponentielles Euler-Verfahren (auf Zeitgitter {t k }, h k := t k+1 − t k )<br />
.<br />
Konsistenzordnung 2 (→ DEf. 2.1.9) wird bestätigt durch Taylorentwicklung (→ Bsp. 2.1.3) unter<br />
Verwendung von ϕ(z) = 1 + 1 2 z + O(|z|2 ) und (??).<br />
✸<br />
y k+1 = y k + h k ϕ(h k J)f(y k ) , k = 0, ...,N , J := Df(y k ) . (3.7.3)<br />
3.7<br />
p. 290<br />
Beispiel 3.7.3 (Exponentielles Euler-Verfahren für steifes AWP).<br />
3.7<br />
p. 292
• Steifes AWP → Bsp. 3.5.1, 3.4.1, 3.5.5:<br />
ẏ(t) = λy 2 (1 − y) ,<br />
λ = 500 , y(0) = 1<br />
100 .<br />
1.4<br />
1.2<br />
1<br />
0.8<br />
exponential Euler, h=0.012500<br />
Bemerkung 3.7.4. Herausforderung:<br />
effiziente/genaue Berechnung von exp(c i hJ)<br />
Krylov-Unterraummethoden für grosse, dünnbesetzte J → [19]<br />
△<br />
y<br />
• Exponentielles Euler-Verfahren (3.7.3) mit uniformen<br />
Zeitschrittweiten h = 1 80<br />
Qualitativ richtiges Verhalten<br />
0.6<br />
0.4<br />
0.2<br />
exact solution y(t)<br />
exponential Euler<br />
0<br />
0 0.2 0.4 0.6 0.8 1<br />
t<br />
Fig. 116 ✸<br />
3.8 Differentiell-Algebraische Anfangswertprobleme<br />
Verallgemeinerung: Exponentielle Runge-Kutta-Verfahren: mit J := Df(y k )<br />
Semi-implizites Euler-Verfahren Exponentielles Euler-Verfahren<br />
y k+1 = y k + (I − hJ) −1 hf(y k ) y k+1 = y k + ϕ(hJ)hf(y k )<br />
3.8.1 Grundbegriffe<br />
Beispiel 3.8.1 (Knotenanalyse eines Schaltkreises). → Bsp. 3.5.3<br />
☞ Ersetze: (I − γhJ) −1 → ϕ(γhJ) in linear-impliziten RK-ESV (3.6.5)<br />
Definition 3.7.1 (Exponentielle Runge-Kutta-Verfahren).<br />
Für b i ,a ij , d ij ∈ R, i,j = 1,...,s, s ∈ N, definiert<br />
k i :=ϕ(a ii hJ) ( ∑i−1<br />
)<br />
f(u i ) + hJ d ij k j , i = 1, ...,s ,<br />
j=1<br />
∑i−1<br />
u i :=y 0 + h (a ij + d ij )k j , i = 1,...,s ,<br />
j=1<br />
s∑<br />
Ψ h y 0 :=y 0 + h b i k i .<br />
i=1<br />
ein s-stufiges exponentielles Runge-Kutta-Einschrittverfahren für die autonome ODE ẏ = f(y).<br />
Dabei ist J := Df(y 0 ).<br />
Wie in Sect. 2.3:<br />
Gewünschte Konsistenzordnung<br />
➢ Bestimmungsgleichungen [21]<br />
➢ Koeffizienten b i , a ij ,c ij , c i<br />
3.7<br />
p. 293<br />
ẏ = Ay + g, A ∈ R d,d , g ∈ R d 3.7<br />
Zusatzbedingung: Exakte Integration von linearen Dgl.<br />
p. 294<br />
u 0 (t)<br />
Vorgegeben:<br />
Knotengleichungen (Kirchoffsche Regel):<br />
R 1<br />
➊: 0 = I D + I R1 − I C ,<br />
C<br />
➋: 0 = I C − I R2 .<br />
➊ ➋ Bauelementgleichungen:<br />
Diode<br />
I<br />
R D = I D (u 1 ) = I 0 (exp(K(u 0 − u 1 )) − 1) ,<br />
2<br />
I C = C( ˙u 1 − ˙u 2 ) ,<br />
I R1 = R1 −1 (u 0 − u 1 ) ,<br />
I R2 = R2 −1 u 2 .<br />
Zeitabhängige Eingangsspannung u 0 = u 0 (t)<br />
➊ ➣ 0 = I D (u 1 ) + R1 −1 0 − u 1 ) − C( ˙u 1 − ˙u 2 ) ,<br />
➋ ➣ 0 = C( ˙u 1 − ˙u 2 ) − R2 −1 2 − u 0 ) .<br />
( )( ) (<br />
C −C ˙u1 ID (u<br />
= 1 ) + R1 −1 (u )<br />
0 − u 1 )<br />
−C C ˙u2 −R2 −1 u 2<br />
(3.8.1)<br />
3.8<br />
p. 295<br />
Singuläre Matrix ! ➥ (3.8.1) ist Differentiell-Algebraische Gleichung (DAE) p. 296<br />
3.8
Beachte:<br />
(<br />
1 0<br />
1 1<br />
)(<br />
C −C<br />
−C C<br />
) ( )<br />
1 1<br />
=<br />
0 1<br />
( )<br />
C 0<br />
.<br />
0 0<br />
Transformation von (3.8.1): y 1 := u 1 − u 2 , y 2 := u 2<br />
( )( )( ) ( ) (<br />
C 0 1 −1 ˙u1 C 0<br />
=<br />
)(ẏ1 I<br />
= D (u 1 ) + R1 −1 (u )<br />
0 − u 1 )<br />
0 0 0 1 ˙u2 0 0 ẏ2 I D (u 1 ) + R1 −1 (u 0 − u 1 ) − R2 −1 u 2<br />
(<br />
I<br />
= D (y 1 + y 2 ) + R1 −1 (u )<br />
0 − y 1 − y 2 )<br />
I D (y 1 + y 2 ) + R1 −1 (u 0 − y 1 − y 2 ) − R2 −1 y .<br />
2<br />
Algebraische Nebenbedingung<br />
c(y 1 ,y 2 ) := I D (y 1 + y 2 ) + R1 −1 (u 0 − y 1 − y 2 ) − R2 −1 y 2 = 0 .<br />
Beachte: ∀y 1 : y 2 ↦→ c(y 1 , y 2 ) monoton fallend, lim<br />
y 2 →∞ c(y 1, y 2 ) = −∞, lim<br />
y 2 →−∞ c(y 1, y 2 ) = ∞<br />
⇒ Nebenbedingung ist auflösbar nach y 2 = u 2 : ∃ Funktion G : R ↦→ R so, dass y 1 = G(y 1 )<br />
Einsetzen ODE für y 1 !<br />
Gegeben: ”<br />
Rechte Seiten” d : D 1 × D 2 ⊂ R p × R q ↦→ R p ,<br />
c : D 1 × D 2 ⊂ R p × R q ↦→ R q hinreichend glatt, p,q ∈ N, u 0 ∈ D 1 , v 0 ∈ D 2<br />
☞<br />
Separiertes differentiell-algebraisches Anfangswertproblem (DAE):<br />
˙u = d(u,v) ,<br />
0 = c(u,v)<br />
Bemerkung 3.8.2 (DAE: Transformation auf separierte Form).<br />
Die Form (3.8.1) einer DAE ist immer in (3.8.2) transformierbar:<br />
,<br />
rank(M) = r ⇒ ∃T,S ∈ R d,d regulär: TMS =<br />
Algebraische Nebenbedingung (engl. constraint)<br />
u(0) = u 0 ,<br />
v(0) = v 0<br />
, c(u 0 ,v 0 ) = 0 . (3.8.2)<br />
Konsistente Anfangswerte erforderlich !<br />
( )<br />
I 0<br />
, I ∈ R<br />
0 0<br />
r,r .<br />
△<br />
Cy˙<br />
1 = I D (y 1 + G(y 1 )) + R1 −1 (u 0 − y 1 − G(y 1 )) .<br />
➣ Existenz & Eindeutigkeit von Lösungen, siehe Sect. 1.3.1.<br />
✸<br />
3.8<br />
p. 297<br />
✬<br />
Annahme 3.8.1. Partielle Ableitung (Jacobi-Matrix) D v c(u,v) der Nebenbedingungen ist regulär<br />
entlang von Lösungskurven t ↦→ (u(t),v(t)) T .<br />
✩<br />
3.8<br />
p. 299<br />
Gegeben: Rechte Seite f : D ⊂ R d ↦→ R d ,<br />
singuläre Matrix M ∈ R d,d<br />
☞<br />
Autonomes (lineares) differentiell-algebraisches Anfangswertproblem (DAE):<br />
✫<br />
Lokale Auflösbarkeit: v = G(u): (3.8.2) ⇒ ˙u = d(u,G(u)) ˆ= (1.1.6).<br />
✪<br />
Mẏ = f(y) , y(0) = y 0 .<br />
Beachte: (3.8.1) impliziert algebraische Nebenbedingung f(y(t)) ∈ Im(M)<br />
(Konsistente Anfangswerte erforderlich: f(y 0 ) ∈ Im(M) !)<br />
✎ Notation: Im(M) := {Mx:x ∈ R d } ˆ= Bild der Matrix M<br />
Definition 3.8.2 (DAE vom Index 1).<br />
Annahme (3.8.1) erfüllt ➣ DAE-AWP (3.8.2) hat (Differenzierbarkeits)index 1<br />
Bemerkung 3.8.3. Allgemeine Diskussion des Indexbegriffes (Index > 1, Störungsindex, etc.) bei<br />
DAE: [15, Kap. VII]<br />
△<br />
In Bsp. 3.8.1: Transformationen ➣ Reduktion auf spezielle Form:<br />
Erweiterung von Def. 1.1.1 ➣ Lösungsbegriff für (3.8.1)<br />
(Diffizil: Allgemeine Existenz & Eindeutigkeit von Lösungen, siehe [5, Sect. 2.6])<br />
3.8<br />
p. 298<br />
3.8.2 Runge-Kutta-Verfahren für Index-1-DAEs<br />
Betrachte: differentiell-algebraisches Anfangswertproblem (3.8.2) unter Annahme 3.8.1 p. 300<br />
3.8
Idee:<br />
➀ Betrachte AWPs für Dgl.<br />
Singuläre Störungstechnik (engl. ǫ-embedding)<br />
˙u = d(u,v)<br />
ǫ ˙v = c(u,v) , ǫ > 0.<br />
˙u = g(u,v)<br />
➁ Formuliere RK-ESV für<br />
˙v = 1 , ǫ > 0.<br />
ǫc(u,v) ➂ Macht Verfahren noch Sinn ǫ = 0 ? Wenn ja →<br />
Beispiel 3.8.4 (Singulär gestörte Schaltkreisgleichungen).<br />
Schaltkreis aus Bsp. 3.8.1 mit parasitärer Kapazität<br />
(durchflossen vom Strom I p )<br />
Knotengleichungen (Kirchoffsche Regel):<br />
➊: 0 = I D + I R1 + I p − I C ,<br />
➋: 0 = I C − I R2 .<br />
Zusätzliche Bauelementgleichung:<br />
u 0 (t)<br />
R 1<br />
C<br />
➊ ➋<br />
R 2<br />
Diode<br />
C p<br />
Fig. 117<br />
☞ Steifheit des singulär gestörten Problems, siehe Bsp. 3.5.4.<br />
Quantitative Analyse: Betrachte den Fall u 0 (t) ≡ 0 ➣ Stationärer Punkt: u 1 = 0, u 2 = 0<br />
Jacobi-Matrix im stationären Punkt<br />
Df(0) = C −1 p<br />
➣ C p → 0 ⇒ λ min (Df(0)) → −∞<br />
✗<br />
✖<br />
( ) (−I0 1 1 K − R −1<br />
1 1 + C p<br />
C<br />
1 0<br />
0 −R −1<br />
2<br />
DAEs = ”<br />
∞-steife Anfangswertprobleme”<br />
)<br />
✔<br />
✕<br />
✸<br />
u 2<br />
3<br />
2.5<br />
2<br />
1.5<br />
1<br />
0.5<br />
0<br />
−0.5<br />
I p = C p ( ˙u 0 − ˙u 1 ) .<br />
(<br />
C+Cp −C<br />
−C C<br />
−1<br />
−1 −0.8 −0.6 −0.4 −0.2 0.2 0.4 0.6 0<br />
u 1<br />
0.8 1<br />
Fig. 118<br />
) ( ) (<br />
˙u1 ID (u<br />
= 1 ) + R −1<br />
˙u2<br />
Reguläre Matrix für C p > 0<br />
Constraint manifold<br />
✁<br />
1 (u 0 − u 1 ) + C p ˙u 0<br />
−R −1<br />
2 u 2<br />
)<br />
(3.8.3)<br />
Richtungsfeld der singulär gestörten Schaltkreisgleichung<br />
für u 0 (t) ≡ 0<br />
(Skalierte Grössen R = 1, C = 1, I 0 = 10 −4 ,<br />
K = 10, C p = 10 −3 )<br />
Aus dem Richtungsfeld liest man ab: schnelle Relaxation in Richtung auf die Mannigfaltigkeit beschrieben<br />
durch die algebraische Nebenbedingung der DAE (3.8.1)<br />
u 2 = R 2 (I D (u 1 ) + R −1<br />
1 )(u 0 − u 1 ) .<br />
3.8<br />
p. 301<br />
3.8<br />
p. 302<br />
Formale Rechnung: Singuläre Störungstechnik für Runge-Kutta-Einschrittverfahren mit<br />
Butcher-Schema c A b T : 3.8<br />
p. 303<br />
Def. 2.3.1: s-stufiger Runge-Kutta-Schritt für ẏ = f(y), Stufenform, siehe Bem. 2.3.2:<br />
∑<br />
k i = f(y 0 + h s a ij k j )<br />
j=1 k i =f(g i )<br />
∑<br />
y 1 = y 0 + h s ⇔<br />
b i k i<br />
i=1<br />
{ ˙u = d(u,v)<br />
˙v = 1 ǫ c(u,v)<br />
ǫ → 0 ⇒<br />
∑<br />
g i = y 0 + h s a ij f(g j )<br />
j=1<br />
∑<br />
y 1 = y 0 + h s , i = 1, ...,s .<br />
b i f(g i )<br />
i=1<br />
⎧⎪ ⎨ g u ∑<br />
i = u 0 + h s a ij d(gj u,gv j )<br />
j=1<br />
⎪ ⎩ ǫgi v ∑<br />
= ǫv 0 + h s , i = 1, ...,s<br />
a ij c(gj u,gv j )<br />
j=1<br />
⎧<br />
∑<br />
⎪⎨ u 1 = u 0 + h s b i d(gi u,gv i )<br />
i=1<br />
⎪⎩ v 1 = v 0 + 1 ǫ h ∑ s b i c(gi u,gv i )<br />
i=1<br />
s∑<br />
a ij c(gj u ,gv j ) = 0, i = 1,...,s ⇒ c(gu j ,gv j ) = 0<br />
j=1<br />
Annahme: Koeffizientenmatrix A := (a ij ) s i,j=1 regulär 3.8<br />
p. 304
➀ Falls Nebenbedingung nach v auflösbar (→ Index 1, Def. 3.8.2)<br />
Dies kann den Schritt v 0 ↦→ v 1 ersetzen.<br />
➁<br />
c(u 1 ,v 1 ) = 0 ⇒ v 1 = G(u 1 ) .<br />
Im allgemeinen Fall, formal, mit A −1 = (ǎ ij ) s i,j=1<br />
1<br />
s∑<br />
ǫ hc(gu i ,gv i ) = ǎ ij (gj v − v 0)<br />
j=1<br />
s∑ s∑<br />
s∑<br />
⇒ v 1 = v 0 + b i ǎ ij (gj v − v 0) = (1 − b T A −1 ( ∑ s )<br />
1) v<br />
} {{ } 0 + b i ǎ ij g<br />
v<br />
j .<br />
i=1 j=1<br />
= S(−∞) j=1 i=1<br />
Beachte: c(u 1 ,v 1 ) ist hier nicht garantiert !<br />
Aus Formel (3.4.1) für Stabilitätsfunktion S<br />
Notwendig (für Lösbarkeit der Imkrementgleichungen, Def. 2.3.1):<br />
DAE ”<br />
∞-steif” ➣ Notwendig: A-Stabilität → Def. 3.2.7,<br />
Wünschenswert: L-stabilität → Def. 3.4.1<br />
Wiederum: Einsichten durch Modellproblemanalyse, vgl. Sect. 3.1:<br />
Modellproblem:<br />
˙u = vf(u) ,<br />
0 = 1 − v<br />
Heuristik: ESV tauglich für Modellproblem ↔<br />
implizites Verfahren<br />
˙u = vf(u) ,<br />
0 < ǫ ≪ 1 .<br />
ǫ ˙v = 1 − v<br />
Singulär gestörte Dgl.<br />
ESV tauglich für singulär gestörtes Problem<br />
∀ǫ ≈ 0<br />
ESV muss für AWP ˙v = ǫ −1 (1 − v), v(0) = 1, 0 < ǫ ≪ 1, Folge {v k } ∞ k=0<br />
mit lim v k = 1<br />
k→∞<br />
liefern !<br />
Erwünscht: S(−∞) = 0 für Stabilitätsfunktion (→ Thm. 3.1.2) S(z) des ESV.<br />
Spezialfall: Wenn RK-ESV steif-genau, also b T = aT·,s (Zeile von A), vgl. hinreichende Bedingung<br />
(3.4.2) für L-Stabilität<br />
⇒ v 1 = gs v ⇒ c(u 1 ,v 1 ) = 0<br />
3.8<br />
p. 305<br />
✬<br />
✩<br />
3.8<br />
p. 307<br />
Bemerkung 3.8.5 (RK-ESV und Elimination der DAE-Nebenbedingungen).<br />
Index-1 DAE (→ Def. 3.8.2) ↔ ODE ˙u = d(u,G(u))<br />
steif-genaues RK-ESV gemäss (3.4.2) für diese ODE:<br />
☞<br />
s∑<br />
gi u = u 0 + h a ij d(gj u ,G(gu j )) , i = 1,...,s , u 1 = gs<br />
u<br />
j=1<br />
⇕<br />
⎧<br />
s∑<br />
⎪⎨ gi u = u 0 + h a ij d(gj u ,gv j )<br />
j=1<br />
, i = 1,...,s , u 1 = gs u .<br />
⎪⎩<br />
0 = c(gi u ,gv i )<br />
Ein “kommutierendes Diagramm”<br />
Steif-genaues RK-ESV für<br />
˙u = d(u,v)<br />
0 = c(u,v)<br />
= Steif-genaues RK-ESV für ˙u = d(u,G(u))<br />
△<br />
Theorem 3.8.3 (Konvergenz impliziter RK-ESV für Index-1-DAEs). → [15, Thm. 1.1,<br />
Sect. VI.1]<br />
Es seien d, c hinreichend glatt, das Anfangswertproblem (3.8.2) eindeutig lösbar<br />
und Annahme 3.8.1 erfüllt (→ Index-1-DAE, siehe Def. 3.8.2). Das s-stufige<br />
Runge-Kutte-Einschrittverfahren mit Butcher-Tableau c A bT , siehe (2.3.4), sei steif-genau, d.h.<br />
A ist regulär und b i = a s,i , i = 1, ...,s, und sei konsistent von der Ordnung p.<br />
Dann ist das Verfahren angewandt auf (3.8.2) für hinreichend kleine Zeitschrittweite h wohldefiniert<br />
und es gilt<br />
✫<br />
‖u k − u(t k )‖ = O(h p ) , ‖v k − v(t k )‖ = O(h p ) ,<br />
auf jedem endlichen Integrationszeitintervall [0, T].<br />
Beweisskizze: Auflösen von (3.8.2) nach der algebraischen Variablen v und Einsetzen ➣ ODE<br />
Anwendung des RK-ESV auf die resultierende ODE liefert genau die gleiche diskrete Evolution fuer<br />
u wie das Verfahren für die DAE (“kommutierendes Diagramm”), vgl. Bem. 3.8.5.<br />
✪<br />
Welche Runge-Kutta-Einschrittverfahren (→ Sect. 2.3)<br />
3.8<br />
eignen sich für die singuläre Störungstechnik ? p. 306<br />
Numerische Integration von Index-1-DAEs mit Radau-ESV → Sect. 3.4<br />
3.8<br />
p. 308
Bemerkung 3.8.6. Radau-ESV auch geeignet für Index-1-DAEs (!) in der Form (3.8.1) Mẏ = f(y)<br />
△<br />
Bemerkung 3.8.7 (MATLAB-Integratoren für Index-1-DAEs).<br />
MATLAB-CODE : Lösung einer Index-1-DAE<br />
f = @(t,y) [ ... ];<br />
J = @(t,y) [ ... ];<br />
M = @(t,y) [ ... ];<br />
opts = odeset(’Mass’,M,’Jacobian’,J);<br />
[t,y] = ode15s(f,tspan,y0,opts);<br />
MATLAB-Code zur Lösung allgemeiner<br />
DAEs<br />
Funktion f<br />
Jacobi-Matrix D y f<br />
M(t,y)ẏ = f(t,y) .<br />
x 2<br />
0<br />
Zwangskraft F z<br />
g<br />
Mathematisches Pendel (Aufhängung in 0)<br />
x 1<br />
Zwangskraft (Zug des Stabs) hält Pendelmasse<br />
mg<br />
F z (x) = −λx . (3.8.5)<br />
(x = (x 1 ,x 2 ) T ˆ= Position der Masse)<br />
Fig. 121<br />
auf der Kreisbahn<br />
( 0<br />
F z (x) − mg ⊥ x . (3.8.4)<br />
1)<br />
Zwangskraft in Richtung des Stabes:<br />
Alternativer Integrator: ode23t (gleicher Aufruf)<br />
Matrix(funktion) M(t,y)<br />
Bewegungsgleichungen in Deskriptorform: (↔ Minimalkoordinaten in Bsp. 1.2.7)<br />
( 0<br />
mẍ = −λx − mg , x<br />
1)<br />
2 1 + x2 2 = l2 . (3.8.6)<br />
(Beachte: Alle MATLAB DAE-Integratoren benutzen adaptive Schrittweitensteuerung, vgl. Sect. 2.6)<br />
△<br />
Lagrange-Multiplikator ➣ Zwangskraft Zwangsbedingung<br />
Beispiel 3.8.8 (Lösung der Schaltkreis-DAEs mit MATLAB).<br />
DAE (3.8.1) mit C = 1, R 2 = 1, R 1 = 1000, K = 10, I 0 = 10−4 p. 309<br />
MATLAB-Integratoren ode23t, ode15s, default Toleranzen<br />
voltages<br />
1<br />
0.8<br />
0.6<br />
0.4<br />
0.2<br />
0<br />
−0.2<br />
−0.4<br />
−0.6<br />
−0.8<br />
ode15s: Circuit DAE<br />
u 0<br />
(t)<br />
u 1<br />
(t)<br />
u 2<br />
(t)<br />
voltages<br />
1<br />
0.8<br />
0.6<br />
0.4<br />
0.2<br />
0<br />
−0.2<br />
−0.4<br />
−0.6<br />
−0.8<br />
ode23t: Circuit DAE<br />
u 0<br />
(t)<br />
u 1<br />
(t)<br />
u 2<br />
(t)<br />
3.8<br />
(3.8.6) ˆ= 2. Ordnung ➣ Umwandlung in separierte DAE (3.8.2) 1. Ordnung:<br />
⎛ ⎞ ⎛ ⎞<br />
ẋ 1 p 1<br />
(3.8.6) ➢ m ⎜ ẋ2<br />
⎟<br />
⎝ ṗ1 ⎠ = ⎜ p 2<br />
⎟<br />
⎝ −λx 1 ⎠ , x2 1 + x2 2 = l2 . (3.8.7)<br />
ṗ2 −λx 2 − g<br />
(3.8.7) ist DAE vom Index > 1 !<br />
Differenzieren der Zwangsbedingung x 1 p 1 + x 2 p 2 = 0 , (3.8.8)<br />
Nochmaliges Differenzieren (p 2 1 + p2 2 ) − λ(x2 1 + x2 2 ) − gx 2 = 0 . (3.8.9)<br />
3.8<br />
p. 311<br />
−1<br />
0 2 4 6 8 10 12 14 16<br />
time t<br />
Fig. 119<br />
t i<br />
−1<br />
0 2 4 6 8 10 12 14 16<br />
time t<br />
t i<br />
Fig. 120 ✸<br />
• (3.8.8), (3.8.9) ˆ= versteckte Nebenbedingungen (von den Anfangswerten zu erfüllen !)<br />
3.8.3 DAEs mit höherem Index<br />
• Erst nach zweimaligem Differenzieren der Nebenbedingung können wir die daraus resultierende<br />
Nebenbedingung (3.8.9) nach λ auflösen ➥ (3.8.7) hat Index 3<br />
Beispiel 3.8.9 (Pendelgleichung in Deskriptorform). → Bsp. 1.2.7<br />
3.8<br />
p. 310<br />
✸<br />
3.8<br />
p. 312
Bemerkung 3.8.10 (Hamiltonsche Bewegungsgleichungen mit Nebenbedingungen).<br />
△<br />
Betrachte:<br />
Mechanisches System mit Hamilton-Funktion (→ Def. 1.2.2) H = H(p,q)<br />
(q ∈ R n ˆ= Konfigurationsvariable, p ∈ R n ˆ= Impulsvariable, siehe Sect. 1.2.4)<br />
Zwangsbedingungen für Konfigurationen:<br />
c(q(t)) = 0 ∀t ≥ 0, c : R n ↦→ R m , m < n<br />
Beispiel 3.8.11 (MATLAB-Integratoren für Pendelgleichung in Deskriptorform).<br />
MATLAB ode15s/ode23t angewandt auf (3.8.7):<br />
Hamiltonsche Bewegungsgleichungen mit Zwangsbedingungen<br />
Falls m = 1 ➣<br />
˙q = ∂H<br />
∂p (p,q)<br />
ṗ = − ∂H<br />
∂q (p,q) − Dc(q)T λ<br />
0 = c(q) .<br />
Lagrange-Multiplikator λ : R ↦→ R m<br />
c(q) = 0 beschreibt n − 1-dimensionale Mannigfaltigkeit im R n<br />
grad c(q) ˆ= Normalenvektor auf diese Mannigfaltigkeit<br />
λgrad c(q) ˆ= Zwangskraft orthogonal zur Mannigfaltigkeit, vgl. (3.8.4)<br />
(3.8.10)<br />
3.8<br />
p. 313<br />
??? Error using ==> funfun/private/daeic12 at 77<br />
This DAE appears to be of index greater than 1.<br />
Error in ==> ode15s at 394<br />
[y,yp,f0,dfdy,nFE,nPD,Jfac] = daeic12(odeFcn,odeArgs,...)<br />
Idee:<br />
MATLAB”, probiere Nebenbedingung (3.8.9)<br />
ӆberliste<br />
⎛ ⎞ ⎛<br />
⎞<br />
1 0 0 0 0<br />
y 3<br />
0 1 0 0 0<br />
Mẏ = f(y): M =<br />
⎜0 0 1 0 0<br />
⎟<br />
⎝0 0 0 1 0⎠ , f(y) = y 4<br />
⎜<br />
−y 5 y 1<br />
⎟<br />
⎝ −y 5 y 2 − g ⎠ .<br />
0 0 0 0 0<br />
−y 5 (y1 2 + y2 2 ) − gy 2 + (y3 2 + y2 4 )<br />
l = 1, g = 9.8, Zeitspanne [0, 50], Löser: ode15s mit default-Toleranzen<br />
Konsistente Anfangswerte x 1 (0) = −x 2 (0) = 1 2√<br />
2, p1 (0) = p 2 (0) = 0 (→ λ(0)) p. 315<br />
3.8<br />
Häufiger Spezialfall:<br />
mit M ˆ= s.p.d. Massenmatrix, U ˆ= Potential,<br />
0.8<br />
0.6<br />
x 1<br />
x 2<br />
1.5<br />
H(p,q) = 1 2 pT M −1 p + U(q) (3.8.11)<br />
0.4<br />
1<br />
kinetische Energie<br />
potentielle Energie<br />
0.2<br />
0.5<br />
(3.8.10) ⇒ ˙q = M −1 p , ˙q = −grad U(q) − Dc(q) T λ , c(q) = 0 .<br />
position<br />
0<br />
−0.2<br />
constraint (length)<br />
v \dot x<br />
energy (scaled)<br />
0<br />
−0.4<br />
−0.6<br />
−0.5<br />
➢ Versteckte Nebenbedingungen ↔ (3.8.8), (3.8.9)<br />
−0.8<br />
0 =Dc(q) ∂H (p,q) , (3.8.12)<br />
∂p<br />
0 = ∂ (<br />
Dc(q) ∂H ) ( )<br />
∂H<br />
∂q ∂p (p,q) ∂p (p,q) − H ∂H<br />
Dc(q)∂2 ∂q 2 ∂q (p,q) + Dc(q)T λ . (3.8.13)<br />
−1<br />
0 5 10 15 20 25 30 35 40 45 50<br />
time t<br />
−1<br />
Fig. 122 0 5 10 15 20 25 30 35 40 45 50<br />
time t<br />
Fig. 123<br />
✸<br />
Beispiel 3.8.12 (Implizites Euler-Verfahren für Pendelgleichung in Deskriptorform).<br />
Für H der Form (3.8.11):<br />
∂ 2 H<br />
∂q 2 = M−1<br />
(invertierbare Matrix)<br />
AWP für Pendel-DAE (3.8.7) wie in Bsp. 3.8.11, Endzeitpunkt T = 5<br />
➣ (3.8.13) nach λ auflösbar, wenn Dc(q) T injektiv ⇔ Dc(q) hat vollen Rang (entlang der<br />
Lösungstrajektorie): Zwangsbedingungen unabhängig.<br />
3.8<br />
p. 314<br />
Implizites Eulerverfahren (1-stufiges Radau-ESV)<br />
3.8<br />
p. 316
Formale Anwendung eines Rückwärtsdifferenzenquotienten (→ Bem. 1.4.4) auf die Hamiltonsche<br />
Bewegunggleichung mit Zwangsbedingungen (3.8.10): berechne (q 1 ,p 1 ,λ 1 ) aus (q 0 ,p 0 ,λ 0 )<br />
gemäss<br />
q 1 = q 0 + h ∂H<br />
∂p (p 1,q 1 )<br />
p 1 = p 0 − h ∂H<br />
∂q (p 1,q 1 ) − hDc(q 1 ) T λ 1<br />
0 = c(q 1 ) .<br />
Konkret für Pendelgleichung in Deskriptorform (3.8.7), q ↔ x, H(p,q) = 1 2 ‖p‖2 + gx 2 :<br />
x 1 = x 0 + hp 1 ,<br />
( ( 0<br />
p 1 = p 0 − h λx 1 + ,<br />
g))<br />
0 = ‖x 1 ‖ 2 2 − l2 .<br />
Sect. 3.8.2:<br />
Singuläre Störungstechnik für Runge-Kutte-Einschrittverfahren<br />
Anwendung auf autonome DAE (Index > 1!)<br />
ẏ = f(y,λ) ,<br />
0 = c(y) .<br />
(3.8.14)<br />
(f : D × R q ↦→ R d , D ⊂ R d , c : D ↦→ R q , Annahme: Konsistente Anfangswerte<br />
y 0 , λ 0 zur Zeit t = 0)<br />
Zu (3.8.14) gehörendes singulär gestörtes Problem<br />
für ǫ → 0.<br />
ẏ = f(y, λ) ,<br />
ǫ ˙λ = c(y) ,<br />
Sect. 3.8.2 ➣ Betrachte steif-genaue RK-ESV<br />
3.8<br />
p. 317<br />
Formale Rechnung: Singuläre Störungstechnik für Runge-Kutta-Einschrittverfahren mit<br />
3.8<br />
p. 319<br />
maximal errors<br />
timestep h<br />
10 0<br />
10 −1<br />
x 1<br />
10 −2<br />
x 2<br />
v 1<br />
v 2<br />
λ<br />
O(h)<br />
10 −3<br />
10 −4 10 −3 10 −2 10 −1<br />
Fig. 124<br />
10 1<br />
✁ Fehler in Lösungskomponenten<br />
(diskrete Maximumnorm) für<br />
100, 200, 400, 1600, 3200, 6400, 12800 implizite<br />
Euler-Schritte<br />
( ”<br />
Exakte Lösung berechnet mit<br />
impliziter Mittelpunktsregel angewandt auf Minimalkoordinatenform,<br />
siehe Bsp. 1.4.11)<br />
Man beobachtet algebraische Konvergenz erster Ordnung in allen Lösungskomponenten !<br />
Butcher-Schema c A b T , b i = a s,i , i = 1,...,s :<br />
{ ẏ = f(y,λ)<br />
˙λ = 1 ǫ c(y)<br />
ǫ → 0 ⇒<br />
∑<br />
⎧⎪ ⎨ g i = y 0 + h s a ij f(g j ,gj λ)<br />
j=1<br />
⎪ ⎩ ǫgi λ ∑<br />
= ǫλ 0 + h s , i = 1,...,s<br />
a ij c(g j )<br />
j=1<br />
⎧<br />
∑<br />
⎪⎨ y 1 := y 0 + h s a s,i f(g i ,gi λ) = g s<br />
i=1<br />
⎪⎩ v 1 := v 0 + 1 ǫ h ∑ s a s,i c(g i ,gi λ) = gλ s<br />
i=1<br />
s∑<br />
a ij c(g j ) = 0, i = 1, ...,s ⇒ c(g j ) = 0<br />
j=1<br />
3.8<br />
p. 318<br />
Koeffizientenmatrix A := (a ij ) s i,j=1 regulär 3.8<br />
RK-ESV steif-genau ⇒<br />
p. 320<br />
✸
➣ Stufengleichungen (→ Bem. 2.3.2) für steif-genaues RK-ESV für (3.8.14)<br />
⎧<br />
⎨ ∑<br />
g i = y 0 + h s a ij f(g j ,gj λ)<br />
j=1 , i = 1, ...,s , y<br />
⎩<br />
1 = g s . (3.8.15)<br />
0 = c(g i )<br />
Konvergenztheorie für (3.8.15) im Fall von DAEs mit Index 2:<br />
[15, Sect. VII.4]<br />
△<br />
Beachte:<br />
(3.8.15) ˆ= implizite Gleichung für Stufen g i ,g λ i<br />
(s(d + q) Unbekannte)<br />
Für s-stufig Radau-ESV: y h (t) konvergiert mit Ordnung 2s − 1, λ h (t) mit Ordnung s.<br />
λ 0 wird nicht benötigt!<br />
Bemerkung 3.8.13 (Implementierung steif-genauer RK-ESV für DAE).<br />
Formal: Stufengleichungen eines RK-ESV für allgemeine autonome DAE Mẏ = f(y), M ∈ R d,d<br />
singulär<br />
Mg i = My 0 + h<br />
s∑<br />
a ij f(g j ) , i = 1, ...,s .<br />
j=1<br />
⇕<br />
⎛<br />
M(g 1 − y 0 ) − h s ⎞<br />
∑<br />
a 1j f(g j )<br />
⎛<br />
j=1<br />
F(g) = 0 , F(g) =<br />
.<br />
, g = ⎝ g ⎞<br />
1<br />
. ⎠ . (3.8.16)<br />
⎜<br />
⎝<br />
∑<br />
M(g s − y 0 ) − h s ⎟<br />
a sj f(g j )<br />
⎠ g s<br />
j=1<br />
3.8<br />
p. 321<br />
3.8<br />
p. 323<br />
(steif-genau !)<br />
y 1 = g s<br />
MATLAB-CODE : steif-genaues RK-ESV für DAE<br />
function y1 = rksadaestep(rhs,M,y0,h,A)<br />
d = length(y0);<br />
s = size(A,1);<br />
F = @(gv) stagefn(gv,y,h,fun,A,M);<br />
[dgv,r,flg] = fsolve(F,zeros(s*d,1));<br />
if (flg
4.1 Polynomiale Invarianten<br />
Erinnerung an Def. 1.2.1 & (1.2.4): Konzept und Eigenschaften von Invarianten/ersten Integralen<br />
Beispiele: Massenerhaltung → Sect. 1.2.2, Energieerhaltung → Lemma 1.2.3, Längenerhaltung<br />
Bsp. 1.4.7<br />
MATLAB-CODE : Berechnung des Präzession einer Magnetnadel<br />
h = [-1;-1;-1]; tspan = [0 10000]; y0 = [0.5*sqrt(2);0;0.5*sqrt(2)];<br />
fun = @(t,x) cross(x,h);<br />
Jac = @(t,x) [0 h(3) -h(2); -h(3) 0 h(1); h(2) -h(1) 0];<br />
options = odeset(’reltol’,0.001,’abstol’,1e-4,’stats’,’on’);<br />
[t45,y45] = ode45(fun,tspan,y0,options);<br />
options = odeset(’reltol’,0.001,’abstol’,1e-4,’stats’,’on’,’Jacobian’,Jac);<br />
[t23,y23] = ode23s(fun,tspan,y0,options);<br />
Betrachte: AWP für autonome ODE ẏ = f(y) auf Zustandsraum D ⊂ R d<br />
t ↦→ y(t) ˆ= Lösung zum Anfangswert y 0 ∈ D<br />
Erinnerung: erstes Integral I : D ↦→ R erfüllt I(y(t)) = const für jede Lösung y(t) (→ Def. 1.2.1)<br />
ode45: 24537 successful steps, 7432 failed attempts, 191815 function evaluations<br />
ode23s: 93447 successful steps, 4632 failed attempts, 289607 function evaluations<br />
1.1<br />
1.05<br />
ode45<br />
oed23s<br />
(1.2.4): I ist erstes Integral von ẏ = f(y) ⇔ gradI(y) · f(y) = 0 für alle y ∈ D.<br />
lineares erstes Integral : I(y) = b T y + c mit b ∈ R d , c ∈ R<br />
quadratisches erstes Integral : I(y) = 1 2 yT Ay + b T y + c mit A ∈ R d,d , b ∈ R d , c ∈ R<br />
Definition 4.1.1 (Polynomiale Invarianten).<br />
Ein erstes Integral I(y) ist polynomial vom Grad n, n ∈ N, wenn<br />
∑<br />
I(y) = β α y α , β α ∈ R (Multivariates Polynom) .<br />
α∈N d 0 , |α|≤n<br />
4.1<br />
p. 325<br />
y 3<br />
1<br />
0.5<br />
0<br />
−0.5<br />
1<br />
0.5<br />
0<br />
y 1<br />
−0.5<br />
1<br />
0.5<br />
y(t)<br />
ode45<br />
ode23s<br />
y 2<br />
0<br />
−0.5<br />
Fig. 125<br />
➣ Keine Erhaltung von ‖y(t)‖ über lange Zeiten<br />
Einschrittverfahren auf äquidistanten Zeitgittern (qualitatives Verhalten):<br />
Laenge |y(t)|<br />
1<br />
0.95<br />
0.9<br />
0.85<br />
0.8<br />
0.75<br />
0 2000 4000 6000 8000 10000<br />
t<br />
1.05<br />
1<br />
4.1<br />
Fig. 126 p. 327<br />
✎ Multiindexnotation: α = (α 1 ,...,α d ) ∈ N d 0 , |α| = ∑ i α i, y α := y α 1<br />
1 · · · · · · · yα d<br />
d<br />
1<br />
0.95<br />
0.9<br />
Beispiel 4.1.1 (Präzession einer Magnetnadel).<br />
y : R ↦→ R 3 = Trajektorie der Spitze einer Magnetnadel (im äusseren Feld h) ➣ Bewegungsgleichung<br />
⎛<br />
ẏ = y × h , Kreuzprodukt y × h = ⎝ y ⎞<br />
2h 3 − y 3 h 2<br />
y 3 h 1 − y 1 h 3 ⎠ ⊥y<br />
y 1 h 2 − y 2 h 1 ∥<br />
Quadratische Invarianten:<br />
∥y (m) (t) ∥ = const , m ∈ N 0<br />
0.5<br />
0<br />
−0.5<br />
1<br />
0.5<br />
0<br />
y 3<br />
−0.5<br />
1<br />
y(t)<br />
RK4 method<br />
Gauss−Koll., s=2<br />
RADAU, s=3<br />
0.5<br />
0<br />
−0.5<br />
Fig. 127<br />
|y(t)|<br />
0.85<br />
0.8<br />
0.75<br />
0.7<br />
0.65<br />
RK4 method<br />
0.6 Gauss−Koll., s=2<br />
RADAU, s=3<br />
0.55<br />
0 200 400 600 800 1000<br />
t<br />
Fig. 128<br />
Anfangswert: y 0 = ( 1 2√<br />
2, 0, 1, 1<br />
2<br />
√<br />
2) T<br />
4.1<br />
p. 326<br />
4.1<br />
p. 328
|y(t)xh|<br />
1.6<br />
1.4<br />
1.2<br />
1<br />
0.8<br />
0.6<br />
△<br />
✁ Erhaltung aller quadratischer Invarianten nur<br />
durch das Gauss-Kollokationsverfahren.<br />
Aus Kollokationsbedingungen (4.1.1) und (1.2.4)<br />
d ′ (τ) = hgrad I(y h (τ)) · ẏ h (τh) ⇒<br />
Da d(0) = I(y 0 ), d(1) = I(y 1 ) folgt die Behauptung.<br />
Nachtrag zu Sect. 3.3:<br />
d ′ (c i ) = hgradI(y h (c i h)) · f(y h (c i h)) = 0 .<br />
} {{ }<br />
=0<br />
✷<br />
0.4 RK4 method<br />
Gauss−Koll., s=2<br />
RADAU, s=3<br />
0.2<br />
0 200 400 600 800 1000<br />
t<br />
Fig. 129<br />
✸<br />
✬<br />
Theorem 4.1.4 (Stabilitätsgebiet von Gauss-Kollokations-ESV).<br />
Für Gauss-Kollokations-ESV gilt:<br />
S Ψ = C −<br />
✩<br />
✬<br />
✩<br />
✫<br />
✪<br />
Theorem 4.1.2 (Erhaltung linearer Invarianten).<br />
Alle Runge-Kutta-Einschrittverfahren (→ Def. 2.3.1) erhalten lineare erste Integrale.<br />
✫<br />
✪<br />
Beweis.<br />
➊ Wende RK-ESV an auf ODE ẏ = Ay mit A T = −A (schiefsymmetrische Matrix)<br />
Beweis. Lineare Invariante I(y) = b T y + c, b ∈ R d , c ∈ R ➣ gradI(y) = b ∀y ∈ D<br />
(1.2.4) ⇒ b · f(y) = 0 ,<br />
s∑<br />
⇒ b · f(t 0 + c i h,y 0 + h a ij k j ) = b · k i = 0 , i = 1, . ..,s (für Inkremente) ,<br />
j=1<br />
4.1<br />
p. 329<br />
➢ ‖y(t)‖ 2 ist quadratische Invariante der Evolution, da y T Ay = 0 für alle y ∈ R d<br />
Beachte: A diagonalisierbar mit σ(A) ⊂ iR. Zu jedem µ ∈ R können wir A ∈ R d,d , A T = −A,<br />
so wählen, dass iµ ∈ σ(A).<br />
4.1<br />
p. 331<br />
⇒ I(y 1 ) = b · y 1 + c = b · (y s∑ )<br />
0 + b i k i = b · y0 + c = I(y 0 ) .<br />
i=1<br />
✷<br />
Für Eigenvektor y zu Eigenwert iµ: Ay = iuy ⇒ S(hA)y = S(iµ)y<br />
⇒ ‖y‖ 2 ∥<br />
= ∥Ψ h y∥ 2 = ‖S(iµh)y‖ 2 = |S(iµh)| 2 ‖y‖ 2 ⇒ |S(iµh)| = 1 ,<br />
wobei Ψ h , h > 0, die diskrete Evolution des RK-ESV fuer ẏ = Ay und S(z) die Stabilitätsfunktion.<br />
✬<br />
Theorem 4.1.3 (Erhaltung quadratischer Invarianten).<br />
✫<br />
Gauss-Kollokations-ESV (→ Sect. 2.2.2) erhalten quadratische erste Integrale.<br />
Beweis. (für autonome ODE ẏ = f(y), vgl. Beweis von Thm. 3.3.4)<br />
y h (t) ∈ P s ˆ= Gauss-Kollokationspolynom zum Anfangswert y 0 (t 0 = 0):<br />
˙ y h (c i h) = f(y h (c i h)) , h ˆ= Schrittweite, vgl. (2.2.1) . (4.1.1)<br />
Quadratische Invariante:<br />
I(y) = 1 2 yT Ay + b T y + c mit A ∈ R d,d , b ∈ R d , c ∈ R<br />
d(τ) := I(y h (τh)) ist Polynom vom Grad ≤ 2s .<br />
Da s-Punkt Gauss-Quadraturformel exakt für Polynome vom Grad ≤ 2s − 1 und d ′ ∈ P 2s−1<br />
∫ 1<br />
s∑<br />
d(1) = d(0) + d ′ (τ) dτ = d(0) + b i d ′ (c i ) .<br />
0<br />
} i=1 {{ }<br />
!<br />
Ziel =0<br />
✩<br />
✪<br />
4.1<br />
p. 330<br />
➋<br />
|S(iµ)| = 1 ∀µ ∈ R .<br />
Da S(z) rationale Funktion mit reellen Koeffizienten: S(z) = S(z).<br />
Re z = 0 ⇒ 1 = |S(z)| 2 = S(z)S(z) = S(z)S(−z) (4.1.2)<br />
(S rational) Analytische Fortsetzung ⇒ S(z)S(−z) = 1 ∀z ∈ C \ {Polstellen}.<br />
➌ Thm. 3.3.4 & Lemma 3.3.5 ⇒ Gauss-Kollokations-ESV A-stabil (→ Def. 3.2.7)<br />
⇒ S(z) hat keine Pole in C − .<br />
⇒ S als rationale Funktion analytisch in C − .<br />
(4.1.2) & A-Stabilität ⇒ S Ψ = C − . ✷<br />
4.1<br />
p. 332
✬<br />
✩<br />
✬<br />
✩<br />
Lemma 4.1.5 (Erhaltung quadratischer Invarianten durch RK-ESV).<br />
Erfüllen die Koeffizienten eines s-stufigen (konsistenten) Runge-Kutta-Einschrittverfahrens (→<br />
Def. 2.3.1)<br />
b i a ij + b j a ji = b i b j für alle i,j = 1, ...,s , (4.1.3)<br />
Lemma 4.1.7 (Ableitung der Determinantenfunktion).<br />
Für die Determinantenfunktion det : R n,n ↦→ R gilt<br />
D det(X)H = trace(adj(X)H) , X,H ∈ R d,d .<br />
✫<br />
✪<br />
dann erhält dessen diskrete Evolution quadratische erste Integrale.<br />
✫<br />
Beweis: (für vereinfachte quadratische Invariante I(y) := 1 2 yT Qy, Q ∈ R d,d , Q = Q T )<br />
✪<br />
d∑<br />
✎ Notation: Spur einer Matrix A = (a ij ) d i,j=1 ∈ Rd,d : trace(A) = a jj<br />
j=1<br />
➢ gradI(y) = Qy ⇒ y T Qf(y) = 0 ∀y ∈ D . (4.1.4)<br />
Ein Schritt des RK-ESV mit Inkrementen k i , vgl. Def. 2.3.1:<br />
✎ Notation: adjungierte Matrix (adj(X)) ij = (−1) i+j det( ˇX ij ), X ∈ R d , 1 ≤ i,j ≤ d, ˇX ij ˆ=<br />
Matrix, die aus X durch Streichen der i. Zeile und j. Spalte ensteht (Minor).<br />
Stufen:<br />
y 1 = y 0 + h<br />
i=1<br />
s∑<br />
b i k i ,<br />
i=1<br />
s∑<br />
s∑ s∑<br />
y1 T Qy 1 − y0 T Qy 0 = 2h b i y0 T Qk i + h 2 b i b j k T i Qk j . (4.1.5)<br />
i=1 j=1<br />
∑<br />
g i = y 0 + h s a ij f(g j ) ➣ k i = f(g i ), i = 1, ...,s,<br />
∑<br />
y 0 = g i − h s a ij f(g j ) .<br />
j=1<br />
j=1<br />
4.1<br />
p. 333<br />
☞ Bekannt aus der linearen Algebra [7, Lemma 4.3.4]: A · adj(A) = det(A) · I<br />
Beweis. Als Polynom in den Matrixelementen ist A ↦→ detA eine C ∞ -Funktion:<br />
detA := ∑ n∏<br />
sgn(σ) a i,σ(i) .<br />
σ∈Π n i=1<br />
4.1<br />
p. 335<br />
Einsetzen in (4.1.5), da aus (4.1.4) folgt g i Qf(g i ) = 0:<br />
y T 1 Qy 1 − y T 0 Qy 0 = 2h<br />
i=1<br />
s∑<br />
b i<br />
⎛<br />
⎝g i − h<br />
j=1<br />
⎞T<br />
s∑<br />
s∑ s∑<br />
a ij f(g j ) ⎠ Qf(g i ) + h 2 b i b j f(g i ) T Qf(g j )<br />
i=1 j=1<br />
i=1 j=1<br />
s∑ s∑<br />
s∑ s∑<br />
= −2h 2 b i a ij f(g j ) T Qf(g i ) + h 2 b i b j f(g i ) T Qf(g j )<br />
i=1 j=1<br />
s∑ s∑<br />
= h 2 (−2b i a ij + b i b j )f(g i ) T Qf(g j ) .<br />
i=1 j=1<br />
Q = Q T ➣ Indexvertauschung in der Doppelsumme ➣ Behauptung. ✷<br />
det(I + ǫH) = ∑ n∏<br />
sgn(σ) (δ i,σ(i) + ǫh i,σ(i) )<br />
σ∈Π n i=1<br />
n∏<br />
n∑<br />
= (1 + ǫh ii ) + O(ǫ 2 ) = 1 + ǫ h ii + O(ǫ 2 ) . ,<br />
i=1<br />
für H = (h ij ) d i,j=1 , denn jede Permutation ≠ Id erzeugt ein Produkt der Grösse O(ǫ2 ). Daher für<br />
reguläres X ∈ R d,d :<br />
i=1<br />
det(X + ǫH) − det(X) = ǫ trace(det(X)X<br />
} {{ −1 H) + O(ǫ<br />
}<br />
2 ) .<br />
adj(X)<br />
Da die regulären Matrizen in R d,d dicht liegen, X ↦→ adjX stetig →<br />
✷<br />
✬<br />
✩<br />
Beweis von Thm. 4.1.6 (Widerspruchsbeweis)<br />
Theorem 4.1.6 (Nichterhaltung allgemeiner polynomialer Invarianten).<br />
Für n ≥ 3 gibt es kein zu ẏ = f(y) konsistentes Runge-Kutta-Einschrittverfahren (→ Def. 2.3.1)<br />
das alle polynomialen Invarianten (→ Def. 4.1.1) der Dgl. vom Grad n erhält.<br />
t ↦→ Y(t) löse lineare Matrix-Differentialgleichung Ẏ = AY, A ∈ R d<br />
Mit Lemma 4.1.7 folgt<br />
✫<br />
Hilfssatz für den Beweis:<br />
✪<br />
4.1<br />
p. 334<br />
D Y I(Y)H = detY · trace(HY −1 ) ⇒ d dt detY(t) = Y trace(ẎY−1 ) = Y trace(A) .<br />
(4.1.6)<br />
4.1<br />
p. 336
⇒<br />
★<br />
Falls trace(A) = 0 ist I(Y) := detY eine polynomiale Invariante vom Grad d der<br />
Matrix-Differentialgleichung Ẏ = AY.<br />
✧<br />
Annahme: RK-ESV erhält Polynomiale Invarianten vom Grad d > 2. Wende das Verfahren an auf<br />
Ẏ = AY, trace(A) = 0, A ∈ R d,d . Nach Bem. 3.1.5, (3.1.6)<br />
Y 1 = S(hA)Y 0 mit Stabilitätsfunktion S(z) , h > 0 .<br />
detY 1 = detY 0 ∀Y 0 ⇒ det S(hA) = 1<br />
Wähle spezielle (diagonale !) Matrix mit trace(A) = 0 und Zeitschrittweite h = 1<br />
A = diag(µ, ν, −(µ + ν), 0,...,0) ∈ R d,d , µ, ν ∈ R .<br />
S(A) = diag(S(µ), S(ν),S(−(µ + ν)), 0, ...,0)<br />
Aus det S(A) = 1 folgt, dass S die Funktionalgleichung S(µ)S(ν)S(−(µ + nu)) = 1 erfüllt.<br />
⇒ S(0) = 1 ⇒ S(−µ) = S(µ) −1 ⇒ S(µ)S(ν) = S(µ + ν) ∀µ, ν ∈ R .<br />
z ↦→ S(z) erfüllt die Funktionalgleichung der Exponentialfunktion, ist stetig in Umgebung von 0 ⇒<br />
S(z) = exp(z).<br />
Andererseits muss S(z) eine rationale Funktion sein, siehe Thm. 3.1.2, ein Widerspruch ✷<br />
4.2 Volumenerhaltung<br />
✥<br />
✦<br />
4.2<br />
p. 337<br />
✬<br />
Theorem 4.2.3 (Satz von Liouville).<br />
Sei f : D ⊂ R d ↦→ R d stetig differenzierbar. Genau dann wenn divf(y) = 0 für jedes y ∈ D,<br />
ist die zu ẏ = f(y) gehörige Evolution Φ t volumenerhaltend, d.h.<br />
✫<br />
∀V ⊂ D kompakt: ∃δ > 0: Vol(Φ t (V )) = Vol(V ) ∀0 ≤ t < δ .<br />
∑<br />
✎ Notation: Divergenz divf(y) = d ∂f i<br />
(y) = traceDf(y), mit f = (f<br />
j=1 ∂y 1 , . ..,f d ) T<br />
i<br />
Beweis. (basierend auf Lemma 4.2.2, vgl. [11, Lemma 9.1])<br />
Sei Φ : ˜Ω ↦→ D der Evolutionsoperator zur autonomen ODE ẏ = f(y).<br />
Jacobi-Matrix (Propagationsmatrix)<br />
(1.3.20)<br />
W(t,y) = D y Φ t (y), y ∈ D, erfüllt die Variationsgleichung<br />
d<br />
dt W(t,y) = Df(Φt y)W(t,y) , t ∈ J(y) , W(0,y) = I . (4.2.1)<br />
Wie im Beweis zu Thm. 4.1.6, aus Lemma 4.1.7, vgl. (4.1.6):<br />
“⇒” aus (4.2.2), da detW(0,y) = 1<br />
d<br />
dt detW(t,y) = detW(t,y) trace(Ẇ(t,y)W−1 (t,y))<br />
= detW(t,y) trace(Df(Φ t y))<br />
= detW(t,y) divf(Φ t y) .<br />
(4.2.2)<br />
✩<br />
✪<br />
4.2<br />
p. 339<br />
Physik: inkompressible Strömung ↔ volumenerhaltender Fluss<br />
Definition 4.2.1 (Volumenerhaltung).<br />
Eine Abbildung Φ : D ⊂ R d ↦→ R d heisst volumenerhaltend<br />
∀V ⊂ D messbar: Vol(Φ(V )) = Vol(V ) .<br />
“⇐”: Wenn divf ≠ 0, dann gibt esδ > 0, V ⊂ D so dass | divf(y)| > δ für alle y ∈ V . Daher, für<br />
y ∈ V ,<br />
d<br />
d<br />
detW(t,y) ≥ δ detW(t,y) oder detW(t,y) ≤ −δ detW(t,y) .<br />
dt dt<br />
⇒ t ↦→ detW(t,y) wächst/fällt exponentiell. ✷<br />
✬<br />
Lemma 4.2.2 (Volumenerhaltende Abbildungen).<br />
Eine stetig differenzierbare Abbildung Φ : D ⊂ R d ↦→ R d ist genau dann volumenerhaltend,<br />
wenn | detDΦ(y)| = 1 für alle y ∈ D.<br />
✫<br />
✩<br />
✪<br />
✗<br />
✖<br />
Inkompressible Strömung ↔ divergenzfreie Geschwindigkeitsfelder<br />
Beispiel 4.2.1 (Strömungsvisualisierung).<br />
Anwendung numerischer ODE-Löser in der Computergraphik:<br />
✔<br />
✕<br />
Beweis. Nach dem Transformationssatz für Integrale:<br />
∫ ∫<br />
Vol(Φ(V )) = 1 dx =<br />
| det DΦ(y)| dy . ✷<br />
Φ(V )<br />
V<br />
4.2<br />
p. 338<br />
4.2<br />
p. 340
−1<br />
x 3<br />
1<br />
0.8<br />
0.6<br />
0.4<br />
0.2<br />
0<br />
−0.5<br />
0<br />
x 1<br />
0.5<br />
1 −1<br />
−0.5<br />
x 2<br />
0<br />
0.5<br />
Fig. 130<br />
1<br />
Divergenzfreies Vektorfeld:<br />
⎛<br />
−y 2 − y ⎞<br />
1<br />
a 2 +y3<br />
2<br />
f(y) = ⎜<br />
⎝ y 1 − y 2 ⎟<br />
a 2 +y3<br />
2 ⎠ , y ∈ R3 .<br />
2/a arctan(y 3/a)<br />
MATLAB-function<br />
Volumenerhaltende numerische ODE-Löser (“Integratoren”) ?<br />
streamline(X,Y,Z,U,V,W,...)<br />
Stromlinien von f ˆ= Lösungen von AWPe zur<br />
autonomomen ODE ẏ = f(y).<br />
✸<br />
Der Beweis im allgemeinen Fall stützt sich auf implzites Differenzieren der Runge-Kutta-<br />
Inkrementgleichungen, siehe Def. 2.3.1.<br />
Bemerkung 4.2.2 (Volumenerhaltende Integratoren für d = 2).<br />
Für RK-ESV im Fall d = 2:<br />
Erhalt quadratischer Invarianten =⇒ Volumenerhaltung<br />
( )<br />
w11 w<br />
Für d = 2: detW = w 11 w 22 − w 12 w 21 ist quadratische Funktion (W = 12 ˆ=<br />
w 21 w 22<br />
Propagationsmatrix/Wronsk-Matrix, siehe (1.3.19)). Ist die Evolution zu ẏ = f(y) volumenerhaltend,<br />
so gilt detW(t) ≡ 1, also is detW eine quadratische Invariante der Variationsgleichung und wird<br />
vom RK-ESV erhalten.<br />
Nach Lemma 4.2.4 gilt dann<br />
∀h > 0:<br />
(<br />
det D y0 Ψ h) = 1 .<br />
✬<br />
Lemma 4.2.4 (Variationsgleichung und Runge-Kutta-Einschrittverfahren).<br />
Für Runge-Kutta-Einschrittverfahren (→ Def. 2.3.1) kommutiert das folgende Diagramm<br />
ẏ = f(y), y(0) = y 0<br />
⏐<br />
RK-ESV↓<br />
W:= ∂y<br />
∂y 0<br />
−−−−−→<br />
Variationsgleichung, siehe Sect. 1.3.3.4.<br />
ẏ = f(y), y(0) = y 0 ,<br />
Ẇ = Df(y)W, W(0) = I<br />
⏐<br />
⏐<br />
↓RK-ESV<br />
✩<br />
4.2<br />
p. 341<br />
Nach Lemma 4.2.2 ist die diskrete Evolution daher volumenerhaltend.<br />
d > 2: (Beweis von) Thm. 4.1.6 ➢ Allgemeine Runge-Kutta-Einschrittverfahren kommen nicht in<br />
Betracht !<br />
(Notwendig: Integratoren mit “eingebauter Zusatzinformation” über f)<br />
△<br />
4.2<br />
p. 343<br />
(y k ) N k=1<br />
W k := ∂y k<br />
∂y 0<br />
−−−−−−→ (y k ,W k ) N k=1<br />
Idee: ➊ Additive Zerlegung von f in wesentlich zweidimensionale Vektorfelder<br />
✫<br />
Beweis: (nur für explizites Euler-Verfahren (1.4.2), vgl. [11, Lemma 4.1])<br />
✪<br />
➋ Splittingverfahren (→ Sect. 2.5) basierend auf RK-ESV, die<br />
quadratische Invarianten erhalten, siehe Sect. 4.1.<br />
Rekursion des expliziten Euler-Verfahrens für ẏ = f(y)<br />
y k+1 = y k + hf(y k )<br />
d<br />
dy<br />
=⇒ dy 0 k+1<br />
= dy k<br />
+ hDf(y<br />
dy 0 dy k ) dy k<br />
.<br />
0 dy 0<br />
Explizites Euler-Verfahren für (erweiterte) Variationsgleichung Ẇ = Df(y)W:<br />
d−1 ∑<br />
Zu ➊: f(y) = g i,i+1 (y) ,<br />
i=1<br />
Zu ➋: y k+1 =(Ψ h d−1 ◦ · · · ◦ Ψh 1 )y k ,<br />
g i,i+1 (y) = (0 · · · 0 ∗ ∗ 0 · · · 0) T<br />
↑ ↑ , divg i,i+1 = 0 .<br />
i i + 1<br />
W k+1 = W k + hDf(y k )W k .<br />
wobei Ψ h i ˆ= diskrete Evolution des RK-Basisverfahrens für<br />
ẏ = g i,i+1 (y).<br />
dy k<br />
dy 0<br />
und W k erfüllen die gleiche Rekursion.<br />
✷<br />
4.2<br />
p. 342<br />
Verallgemeinertes Lie-Trotter-Splitting (2.5.2)<br />
4.2<br />
p. 344
Existenz der Vektorfelder g i,i+1 ?<br />
✬<br />
Theorem 4.2.5 (Zerlegung in divergenzfreie Vektorfelder).<br />
Jedes stetige divergenzfreie f : R d ↦→ R d lässt sich darstellen als Summe von d −1 divergenzfreien<br />
Vektorfeldern g i,i+1 : R d ↦→ R d der Form<br />
g i,i+1 (y) = (0 · · · 0 p i (y) q i (y) 0 · · · 0) T , i = 1, ...,d − 1 ,<br />
↑ ↑<br />
i i + 1<br />
mit Funktionen p i , q i : R d ↦→ R.<br />
✩<br />
Einfachstes volumenerhaltendes Splittingverfahren 2. Ordnung:<br />
Basis-RK-ESV: implizite Mittelpunktsregel (1.4.11), Ψ h i ˆ= diskrete Evolutionen zu ẏ = g i,i+1 (y)<br />
➥ Ψ h i volumenerhaltend, siehe Bem. 4.2.2 !<br />
Verallgemeinertes Strang-Splitting (2.5.3)<br />
Ψ h := Ψ h/2<br />
1 ◦ Ψ h/2<br />
2 ◦ · · · ◦ Ψ h/2<br />
d−2 ◦ Ψh d−1 ◦ Ψh/2 d−2 ◦ · · · ◦ Ψh/2 1 .<br />
symmetrisches Einschrittverfahren → Def. 2.1.14<br />
Thm. 2.1.15<br />
⇒ Konsistenzordnung ≥ 2<br />
△<br />
✫<br />
⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞<br />
f 1 (y) p 1 (y) 0 0<br />
f 2 (y)<br />
q 1 (y)<br />
p 2 (y)<br />
0<br />
0.<br />
0.<br />
f 3 (y)<br />
0<br />
q 2 (y)<br />
p 3 (y)<br />
0<br />
0<br />
f(y) =<br />
f 4 (y)<br />
=<br />
0<br />
+<br />
0<br />
+<br />
q 3 (y)<br />
+ · · · +<br />
0<br />
+<br />
0<br />
.<br />
⎜<br />
.<br />
⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜<br />
p d−2 (y)<br />
⎟ ⎜<br />
0<br />
⎟<br />
⎝f d−1 (y) ⎠ ⎝<br />
0. ⎠ ⎝<br />
0. ⎠ ⎝<br />
0. ⎠ ⎝q d−2 (y) ⎠ ⎝p d−1 (y) ⎠<br />
f d (y) 0 0 0<br />
0 q d−1 (y)<br />
Beweis. (vgl. [11, Theorem 9.3])<br />
Konstruktiv für f = (f 1 , ...,f d ) T mit beliebigen a i ∈ R<br />
✪<br />
4.2<br />
p. 345<br />
4.3 Verallgemeinerte Reversibilität<br />
Sect. 2.1.5: reversible (symmetrische) diskrete Evolutionen/Einschrittverfahren → Def. 2.1.14<br />
(für autonome ODE) Ψ −h ◦ Ψ h = Id für h > 0 hinreichend klein<br />
D<br />
4.3<br />
p. 347<br />
p i (y) = f i (y) + r i (y) , q i (y) = −r i+1 (y) ,<br />
∫ y i ( ∂f1<br />
r i (y) = + · · · + ∂f )<br />
i−1<br />
(y<br />
∂y 1 ∂y 1 , ...,y i−1 ,τ, y i+1 , ...,y d ) dτ , 2 ≤ i ≤ d − 1 ,<br />
i−1<br />
a i<br />
r 1 (y) ≡ 0 ,<br />
⇒<br />
∂p i<br />
= ∂f i<br />
+ ∂f 1<br />
+ · · · + ∂f i−1<br />
,<br />
∂y i ∂y i ∂y 1 ∂y i−1<br />
1 ≤ i ≤ d − 1 .<br />
∂q i<br />
= − ∂f 1<br />
− · · · − ∂f i<br />
= − ∂p i<br />
.<br />
∂y i+1 ∂y 1 ∂y i ∂y i<br />
Also sind die Teilfelder alle divergenzfrei. Weiter, wegen divf = 0,<br />
⎛ ⎞<br />
y<br />
∑d−1<br />
d<br />
⎝ g i,i+1 (y) ⎠ = q d−1 (y) = −r d (y) = −<br />
i=1<br />
d<br />
∫<br />
a d<br />
∂f 1<br />
∂y 1<br />
+ · · · + ∂f d−1<br />
∂y d−1<br />
=<br />
y d ∫<br />
a d<br />
∂f d<br />
∂y d<br />
= f d (y) .<br />
Reversibilität<br />
⇕<br />
Symmetrie bzgl. Zeitumkehr<br />
Erinnerung an Thm. 2.1.15:<br />
✬<br />
Theorem 4.3.1 (Reversible Runge-Kutta-Einschrittverfahren).<br />
Ψ h Ψ −h t<br />
Fig. 131<br />
Reversible ESV haben gerade Konsistenzordnung<br />
Ein s-stufiges RK-ESV (→ Def. 2.3.1) mit Butcher-Tableau c A bT , siehe (2.3.4), ist reversibel<br />
(symmetrisch, → Def. 2.1.14), falls<br />
a s+1−i,s+1−j + a ij = b j ∀1 ≤ i,j ≤ s .<br />
✩<br />
Beachte: Konstruktion der g i,i+1 benötigt (symbolische) Ableitungen der f i .<br />
Bemerkung 4.2.3 (Volumenerhaltendes Splittingverfahren 2. Ordnung). p. 346<br />
4.2<br />
✫<br />
Beweis (siehe [11, Sect. V.2, Thm. 2.3])<br />
zu zeigen: y 0<br />
Ψ h<br />
−−→ y 1<br />
Ψ −h<br />
−−−→ y 0 .<br />
✪<br />
4.3<br />
p. 348
Technik: Teste Invarianz der Verfahrensgleichungen bei Vertauschung y 0 ↔ y 1 , h ↔ −h in den<br />
Verfahrensgleichungen<br />
⎧<br />
⎧<br />
s∑<br />
s∑<br />
k ⎪⎨ i = f(y 0 + h a ij k j ) , k ⎪⎨ i = f(y 1 − h a ij k j ) ,<br />
j=1<br />
j=1<br />
⇒<br />
s∑<br />
s∑<br />
⎪⎩<br />
y 1 = y 0 + h b i k i . ⎪⎩<br />
y 0 =y 1 − h b i k i .<br />
i=1⎧<br />
i=1<br />
s∑<br />
k ⎪⎨ i = f(y 0 + h (b j − a ij )k j ) ,<br />
j=1<br />
⇒<br />
(4.3.1)<br />
s∑<br />
⎪⎩<br />
y 1 = y 0 + h b i k i .<br />
i=1<br />
2a ij = b j ⇒ Gleichheit nach Vertauschung y 0 ↔ y 1 , h ↔ −h, doch leider liefert das kein<br />
sinnvolles RK-ESV (Ausnahme: implizite Mittelpunktsregel (1.4.11) mit s = 1, a 11 = 2 1 , b 1 = 1)<br />
Kommutierendes Diagramm:<br />
(p 0 ,q 0 )<br />
Umkehr der Geschwindigkeiten:<br />
p ←<br />
⏐<br />
↓<br />
−p<br />
p<br />
R<br />
(−p 0 ,q 0 )<br />
Φ t<br />
Evolution (4.3.2)<br />
−−−−−−−−−→<br />
von 0 bis T<br />
Evolution (4.3.2)<br />
←−−−−−−−−−<br />
von 0 bis T<br />
(p(T),q(T))<br />
⏐ Umkehr der Geschwindigkeiten:<br />
p ←<br />
↓<br />
−p<br />
(−p(T),q(T))<br />
⇔ Evolution Φ t zu (1.2.12) erfüllt<br />
R ◦ Φ t = Φ −t ◦ R (4.3.3)<br />
R<br />
mit Abbildung<br />
( ( )<br />
q<br />
p −p<br />
R = . (4.3.4)<br />
q)<br />
q<br />
(4.3.3) ˆ= Rückwärtsevolution” nach Umkehr der<br />
”<br />
Φ t Geschwindigkeiten<br />
✸<br />
4.3<br />
! Beachte: a s+1−i,s+1−j + a ij = b j ⇒ b s+1−i = b i<br />
p. 349<br />
➣ Umindizieren i ← s + 1 − i, j ← s + 1 − j unter den Annahme b s+1−i = b i<br />
⎧<br />
s∑<br />
k ⎪⎨ i = f(y 0 + h (b j − a s+1−i,s+1−j )k j ) ,<br />
j=1<br />
(4.3.1) ⇒<br />
s∑<br />
⎪⎩<br />
y 1 = y 0 + h b i k i .<br />
i=1<br />
= Ausgangs-RK-ESV, falls b j − a s+1−i,s+1−j = a ij ✷<br />
Abstraktion:<br />
Betrachte autonome AWPe ẏ = f(y), y(0) = y 0 ,<br />
f : D ↦→ R d lokal Lipschitz-stetig (→ Def. 1.3.2)<br />
Annahme: Für alle y 0 ∈ D existiert die Lösung für alle Zeiten, vgl. Def. 1.3.1<br />
Definition 4.3.2 (R-reversible Abbildung).<br />
Es sei R : D ↦→ D ⊂ R d eine bijektive lineare Abbildung.<br />
Eine weitere bijektive Abbildung Φ : D ↦→ D heisst R-reversibel, falls<br />
R ◦ Φ = Φ −1 ◦ R .<br />
4.3<br />
p. 351<br />
Neues Konzept:<br />
R-Reversibilität = “verallgemeinerte Zeitumkehrsymmetrie”<br />
Beispiel 4.3.1 (Reversibilität bei mechanischen Systemen).<br />
Hamiltonsche Differentialgleichung (→ Def. 1.2.2) mit Hamilton-Funktion<br />
{ R n × R n ↦→ R<br />
H :<br />
(p,q) ↦→ 1 2 pT M −1 ⇒ H(p,q) = H(−p,q) ,<br />
p + U(q) ,<br />
mit s.p.d. Massenmatrix M ∈ R d,d .<br />
ṗ(t) = − ∂H<br />
∂H<br />
(p(t),q(t)) = −gradU(q) , ˙q(t) =<br />
∂q ∂p (p(t),q(t)) = M−1 p . (4.3.2)<br />
4.3<br />
p. 350<br />
✬<br />
✩<br />
Lemma 4.3.3 (R-reversible Evolutionen).<br />
Die Evolution Φ t zu ẏ = f(y) ist R-reversibel für alle t ∈ R, falls<br />
f ◦ R = −R ◦ f auf D . (4.3.5)<br />
✫<br />
✪<br />
Beweis. (siehe [11, Sect. V.1]) Zu zeigen ist, wegen Φ t ◦ Φ −t = Id (Gruppeneigenschaft (1.3.2))<br />
R ◦ Φ t = (Φ t ) −1 ◦ R = Φ −t ◦ R . (4.3.6) 4.3<br />
p. 352
Idee:<br />
beide Seiten von (4.3.6) sind Lösungen des gleichen Anfangswertproblems, mit y ∈ D<br />
d<br />
dt ((R ◦ Φt )(y)) = Rf(Φ t (y)) = −f((R ◦ Φ t )(y)) , (4.3.7)<br />
d<br />
dt ((Φ−t ◦ R)(y)) = −f((Φ −t ◦ R)(y)) . (4.3.8)<br />
t ↦→ (R ◦ Φ t )(y) und t ↦→ (Φ −t ◦ R)(y) sind beides Lösungen des Anfangswertproblems<br />
ż = −f(z) , z(0) = Ry .<br />
Daher folgt (4.3.6) aus dem Eindeutigkeitssatz Thm. 1.3.4.<br />
Beispiel 4.3.2 (Fortsetzung: Reversibilität bei mechanischen Systemen). Bsp. 4.3.1<br />
✷<br />
Gemäss Def. 2.3.1, wegen Linearität von R<br />
⎧<br />
s∑<br />
k ⎪⎨ i = f(y + h a ij k j ) ,<br />
j=1<br />
s∑<br />
⎪⎩<br />
Ψ h y = y + h b i k i ,<br />
i=1<br />
(4.3.5)<br />
=⇒<br />
Transformierte Inkremente ˜k i := −Rk i erfüllen<br />
˜k i = f(Ry − h<br />
⎧<br />
s∑<br />
Rk ⎪⎨ i = −f(Ry + h a ij Rk j ) ,<br />
j=1<br />
s∑<br />
⎪⎩<br />
RΨ h y = Ry + h b i Rk i .<br />
i=1<br />
s∑<br />
a ij˜kj ) , i = 1, ...,s .<br />
j=1<br />
˜k i ˆ= Inkremente des RK-ESV zur Schrittweite −h, Anfangswert Ry ↔ Ψ −h RY<br />
Für Hamiltonsche Evolution (4.3.2) mit y = (p,q) T , d = 2n, R aus (4.3.4)<br />
( ) ( )<br />
−gradU(Rq (y)) −gradU(q)<br />
(f ◦ R)(y) =<br />
M −1 =<br />
R p (y) −M −1 = −R<br />
p<br />
ˆ= Voraussetzung von Lemma 4.3.3.<br />
( −gradU(q)<br />
M −1 p<br />
Alternative Perspektive: Hamiltonsche Dgl. (1.2.13) ẏ = J −1 gradH(y):<br />
)<br />
= −R(f(y)) .<br />
H(Ry) = H(y) ⇒ Rgrad H(Ry) = gradH(y) . (4.3.9)<br />
Für R aus (4.3.3): J ◦ R = −R ◦ J, R 2 = Id<br />
4.3<br />
p. 353<br />
RΨ h y = Ry − h<br />
➁ direkte Verifikation von Def. 4.3.2<br />
s∑<br />
b i˜ki = Ψ −h Ry ⇒ (4.3.10) .<br />
i=1<br />
RK-ESV reversibel/symmetrisch<br />
⇕<br />
(4.3.10)<br />
⇒ R ◦ Ψ h = Ψ −h ◦ R = (Ψ h ) −1 ◦ R . ✷<br />
Ψ −h = (Ψ h ) −1<br />
4.4 Symplektizität<br />
4.4<br />
p. 355<br />
(4.3.9)<br />
⇒ − R(J −1 gradH(y)) = J −1 R(grad H(y)) = J −1 RRgradH(Ry) = J −1 grad H(Ry) .<br />
ˆ= (4.3.5) für f(y) = J −1 grad H(y).<br />
✸<br />
4.4.1 Symplektische Evolutionen Hamiltonscher Differentialgleichungen<br />
✬<br />
Theorem 4.3.4 (R-reversible Runge-Kutta-Evolutionen).<br />
Die rechte Seite f der autonomen ODE ẏ = f(y) erfülle (4.3.5).<br />
Dann ist die von einem Runge-Kutta-Einschrittverfahren (→ Def. 2.3.1) erzeugte<br />
diskrete Evolution genau dann R-reversibel, wenn das RK-ESV reversibel/symmetrisch<br />
(→ Def. 2.1.14) ist.<br />
✫<br />
Beweis. (siehe [11, Sect. V.1, Thm. 1.5])<br />
➀<br />
Mit Notationen von Lemma 4.3.3 und Ψ h als diskrete Evolution des RK-ESV zur ODE ẏ = f(y)<br />
wird gezeigt (vgl. Beweis der Affin-Kovarianz von RK-ESV, Bem. 2.3.4)<br />
f ◦ R = −R ◦ f ⇒ R ◦ Ψ h = Ψ −h ◦ R . (4.3.10)<br />
✩<br />
✪<br />
4.3<br />
p. 354<br />
Erinnerung (Sect. 1.2.4): Hamiltonsche Differentialgleichung → Def. 1.2.2<br />
ṗ(t) = − ∂H<br />
∂q (p(t),q(t)) ,<br />
∂H<br />
˙q(t) = (p(t),q(t)) , (1.2.12)<br />
∂p<br />
mit (glatter) Hamilton-Funktion H : R n × M ↦→ R, Konfigurationsraum M ⊂ R n .<br />
y = ( p)<br />
( )<br />
q<br />
=⇒ (1.2.12) ⇔ ẏ = J −1 0 In<br />
· grad H(y) , J =<br />
∈ R<br />
−I n 0<br />
2n,2n . (1.2.13)<br />
Lemma 1.2.3 (Energieerhaltung): H ist Invariante von (1.2.12)<br />
Energieerhaltung ↔<br />
I(y) := H(y) ist Invariante/erstes Integral (→ Def. 1.2.1)<br />
von ẏ = f(y) := J −1 · gradH(y)<br />
(1.2.4) ➣ Lemma 1.2.3 aus gradH(y) · f(y) = grad H(y) T J −1 gradH(y) = 0, da J −1<br />
schiefsymmetrisch (vgl. Bemerkungen nach (1.2.13))<br />
4.4<br />
p. 356
Beispiel 4.4.1 (Energieerhaltung bei numerischer Integration). ↔ Bsp. 1.4.11<br />
Mathematisches Pendel Bsp. 1.2.7, AWP für (1.2.11) auf [0, 1000], p(0) = 0, q(0) = 7π/6.<br />
Vergleich von klassischem Runge-Kutta-Verfahren (2.3.7) (Ordnung 4) mit 1-stufigem<br />
Gauss-Kollokations-ESV (implizite Mittelpunktsregel 2.2.11), äquidistantes Gitter, h = 2 1 :<br />
9<br />
0.95<br />
0.9<br />
8<br />
Volumenerhaltung im Zustandsraum (Phasenraum):<br />
Evolution eines quadratischen Volumens ✄<br />
q = α<br />
11<br />
10<br />
9<br />
8<br />
7<br />
6<br />
t=0<br />
t=0.5<br />
t=1<br />
t=2<br />
t=3<br />
t=5<br />
q<br />
7<br />
6<br />
5<br />
Gesamtenergie<br />
0.85<br />
0.8<br />
0.75<br />
0.7<br />
0.65<br />
5<br />
4<br />
−1.5 −1 −0.5 0 1 1.5 0.5<br />
p<br />
2 2.5<br />
Fig. 134<br />
4<br />
(p(t),q(t))<br />
RK4 Methode<br />
Impl. Mittelpunktsregel<br />
3<br />
−2 −1.5 −1 −0.5 0 0.5 1 1.5 2<br />
p<br />
Fig. 132<br />
Trajektorien ”<br />
exakter” /diskreter Evolutionen<br />
0.6<br />
RK4−Methode<br />
Impl. Mittelpunktsregel<br />
0.55<br />
0 200 400 600 800 1000<br />
t<br />
Fig. 133<br />
Energieerhaltung diskreter Evolutionen<br />
➣ Keine Energiedrift bei impliziter Mittelpunktsregel p. 357<br />
4.4<br />
4.4<br />
p. 359<br />
?<br />
Eine rätselhafte Beobachtung:<br />
★<br />
Besonderheit mancher (∗) numerischer Integratoren:<br />
✧<br />
Approximative Langzeit-Energieerhaltung (keine Energiedrift)<br />
(∗) Implizite Mittelpunktsregel (1.4.11) → Bsp. 4.4.1, 1.4.11,<br />
Störmer-Verlet-Verfahren (2.5.7) → Bsp. 1.4.14<br />
✥<br />
✦<br />
✸<br />
q<br />
11<br />
10<br />
9<br />
8<br />
7<br />
6<br />
5<br />
t=0<br />
t=0.5<br />
t=1<br />
t=2<br />
t=3<br />
t=5<br />
q<br />
11<br />
10<br />
9<br />
8<br />
7<br />
6<br />
5<br />
t=0<br />
t=0.5<br />
t=1<br />
t=2<br />
t=3<br />
t=5<br />
Bemerkung 4.4.2 (Volumenerhaltung bei zweidimensionalen Hamiltonschen ODEs).<br />
4<br />
−1.5 −1 −0.5 0 0.5 1 1.5 2 2.5<br />
p<br />
4<br />
−1.5 −1 −0.5 0 0.5 1 1.5 2 2.5<br />
p<br />
Für Evolution Φ t : R n × M ↦→ R n × M zu einer Hamiltonschen Differentialgleichung gilt:<br />
n = 1 ➣<br />
div y J −1 grad H(y) = 0<br />
} {{ }<br />
rotH(y)<br />
Thm. 4.2.3<br />
➣<br />
Φ t volumenerhaltend (flächenerhaltend).<br />
Beispiel 4.4.3 (Flächenerhaltung bei Evolution für Pendelgleichung). → Bsp. 1.2.7<br />
p ↔ Winkelgeschwindigkeit,<br />
ṗ = − sinq ,<br />
˙q = p<br />
q ↔ Winkelvariable α<br />
Hamilton-Funktion H(p,q) = 1 2 p2 − cos q (Gesamtenergie) (4.4.1)<br />
△<br />
4.4<br />
p. 358<br />
Evolution eines quadratischen Volumens<br />
(Explizites Eulerverfahren)<br />
Evolution eines quadratischen Volumens<br />
(Implizite Mittelpunktsregel)<br />
Bem. 4.2.2: Für d = 2 ist die implizite Mittelpunktsregel volumenerhaltend (wie alle<br />
Gauss-Kollokationsverfahren nach Lemma 4.1.5)<br />
✸<br />
4.4<br />
Verallgemeinerung auf höhere Dimensionen: Symplektische Evolutionen (≠ Volumenerhaltung) p. 360
Push-Forward: Wirkung einer (glatten) Abbildung<br />
auf infinitesimale Strecke = Vektor<br />
Für C 1 -Abbildung Φ : D ⊂ R d ↦→ R d :<br />
(Φ ∗ v)(y) = DΦ(y)v y ∈ D, v ∈ R d .<br />
✁ Transport eines Vektors im ”<br />
Strömungsfeld”<br />
t ↦→ Φ t zu ẏ = f(y)<br />
mit D = diag(µ 1 ,...,µ n ) ∈ R n , µ i > 0. Dann setze<br />
(<br />
)<br />
U = √ 1 D<br />
Q<br />
−1/2 D −1/2<br />
2 −iD −1/2 iD −1/2 . ✷<br />
Beachte: Die Matrix U ist reell !<br />
Es gibt eine reelle Koordinatentransformation, die β in ω (→ Def. 4.4.1) überführt.<br />
△<br />
Fig. 135<br />
Bemerkung 4.4.5 (Symplektisches Flussintegral).<br />
Definition 4.4.1 (Symplektisches Produkt).<br />
ω(v,w) := v T Jw , v,w ∈ R 2n mit J =<br />
( )<br />
0 In<br />
.<br />
−I n 0<br />
Bemerkung 4.4.4 (Konstante 2-Formen).<br />
Symplektisches Produkt ˆ= Prototyp einer nichtdegenerierten, alternierenden Bilinearform:<br />
4.4<br />
p. 361<br />
4.4<br />
p. 363<br />
Definition 4.4.2 (Alternierende, nichtdegenerierte Bilinearform).<br />
Eine Bilinearform β : R d × R d ↦→ R heisst<br />
• alternierend :⇔ β(x,y) = −β(y,x) ∀x,y ∈ R d ,<br />
• nichtdegeneriert :⇔ β(x,y) = 0 ∀y = R d ⇒ x = 0<br />
y<br />
✁ ω(x,y) ˆ= Fluss “durch” orientiertes Parallelogramm,<br />
aufgespannt von {p,p+x,p+y,p+<br />
x + y} (gewichtete Fläche)<br />
β : R d × R d ↦→ R alternierende Bilinearform ⇒ ∃L ∈ Rd,d : L T = −L<br />
β(x,y) = x T Ly ∀x,y ∈ R d<br />
p<br />
x<br />
✬<br />
Lemma 4.4.3 (Normalform schiefsymmetrischer Matrizen).<br />
Zu jedem regulären L ∈ R 2n,2n mit L T = −L gibt es ein reguläres U ∈ R d,d , so dass<br />
( )<br />
U T 0 In<br />
LU = J =<br />
(Kongruenztransformation).<br />
−I n 0<br />
✩<br />
“Riemann-Summation”<br />
Fig. 136<br />
✄<br />
✫<br />
Beweis. L = −L T ⇒ unitär diagonalisierbar (normale Matrix !), rein imaginäre Eigenwerte, die<br />
in konjugiert komplexen Paaren zu konjugiert komplexen Eigenvektoren auftreten:<br />
( )<br />
∃Q ∈ C 2n : Q −1 = Q H und Q H D 0<br />
LQ = i ,<br />
0 −D<br />
✪<br />
4.4<br />
p. 362<br />
➣ Fluss durch beschränkte orientierte differenzierbare<br />
Fläche (= Mannigfaltigkeit der Dimension<br />
2)<br />
Fig. 137<br />
4.4<br />
p. 364
Ist ψ : U ↦→ R d eine Parametrisierung (Karte) der 2-Mannigfaltigkeit Σ, so gilt, vgl. Push-Forward,<br />
∫ ∫ ( ) dψ T ( ) dψ<br />
Fluss = ω = J du .<br />
Σ U du 1 du 2<br />
★<br />
✧<br />
Thm. 4.4.4: Die Evolution zu einer Hamiltonschen Differentialgleichung<br />
ist symplektisch zu jedem Zeitpunkt.<br />
Das Konzept der Symplektizität ist eng verbunden mit der differentialgeometrischen Betrachtung Hamiltonscher<br />
Evolutionen, siehe [2, Part III].<br />
✥<br />
✦<br />
△<br />
✬<br />
✩<br />
✬<br />
Theorem 4.4.4 (Symplektischer Fluss Hamiltonscher Systeme).<br />
Sei Φ t die Evolution zu einer Hamiltonschen Differentialgleichung (1.2.12) mit C 2 -Hamilton-<br />
Funktion H : R n × M ↦→ R. Dann gilt<br />
✩<br />
Korollar 4.4.6 (Komposition symplektischer Abbildungen).<br />
Die Komposition symplektischer Abbildungen ist symplektisch.<br />
✫<br />
Bemerkung 4.4.6 (Vektorräume von Vektorfeldern und Eigenschaften von Evolutionen).<br />
✪<br />
✫<br />
∀y ∈ D: ∃δ > 0: ω ( (Φ t ∗v)(y), (Φ t ∗w)(y) ) = ω(v,w) ∀v,w ∈ R 2n , 0 ≤ t < δ .<br />
✪<br />
Def. 1.3.5: Vektorfeld f : D ⊂ R d ↦→ R d ➣ Evolution Φ t zur ODE ẏ = f(y)<br />
Beweis.<br />
(→ Beweis von [11, Thm. 2.4, Ch. VI])<br />
Φ t ˆ= Evolutionsoperator zur Hamiltonschen ODE<br />
ẏ = J −1 gradH(y)<br />
Behauptung ⇐⇒ (Φ t ∗(y)v) T J(Φ t ∗(y)w) = v T Jw ∀v,w ∈ R d , ∀y ∈ D ,<br />
⇐⇒<br />
( ) d T ( ) d<br />
dy Φt (y) J<br />
dy Φt (y) = J ∀y ∈ D .<br />
Propagationsmatrix W(t;y) := d<br />
dy Φt y löst Variationsgleichung (1.3.20)<br />
Ẇ(t;y) = D(J −1 gradH(y))W(t;y) = J −1 ∇ 2 H(y)W(t;y) , y ∈ D .<br />
✎ Notation: ∇ 2 H ˆ= (symmetrische) Hesse-Matrix der Hamilton-Funktion H.<br />
4.4<br />
p. 365<br />
✗<br />
✖<br />
(1.2.4): gradI · f = 0 ⇔ Φ t “I-isoflächenerhaltend” für alle t<br />
Thm. 4.2.3: divf = 0 ⇔ Φ t volumenerhaltend (→ Def. 4.2.1) ∀t<br />
Lemma 4.3.3: f ◦ R = −R ◦ f ⇔ Φ t R-reversibel (→ Def. 4.3.2) ∀t<br />
Thm. 4.4.4: f = J −1 gradH ⇒ Φ t symplektisch (→ Def. 4.4.5) ∀t<br />
Vektorraum V von Vektorfeldern D ↦→ R d<br />
Gruppe G von Diffeomorphismen<br />
Einschrittverfahren für ẏ = f(y) strukturerhaltend :⇔ f ∈ V ⇒ Ψ h ∈ G<br />
(mit diskreter Evolution Ψ h )<br />
✔<br />
✕<br />
△<br />
4.4<br />
p. 367<br />
Mit Produktregel, da J T = −J, J −T = −J −1 = J:<br />
d<br />
(<br />
)<br />
W(t;y) T JW(t;y) =<br />
dt<br />
Ẇ(t;y)T JW(t;y) + W(t;y) T JẆ(t;y)<br />
= W(t;y)∇ 2 H(y)J} −T {{ J}<br />
W(t;y) + W(t;y) T } JJ{{ −1 } ∇ 2 H(y)W(t;y) = 0 .<br />
=−I<br />
=I<br />
Da W(0;y) = I ⇒ W(t;y) T JW(t;y) = J ∀t ✷<br />
✬<br />
Theorem 4.4.7 (Symplektische Evolutionen und Hamiltonsche Differentialgleichungen).<br />
Sei Φ t der Evolutionsoperator zu einer autonomen ODE ẏ = f(y), f : D ⊂ R 2n ↦→ R 2n stetig<br />
differenzierbar, Zustandsraum D sternförmig. Dann gilt<br />
Φ t symplektisch (→ Def. 4.4.5) ∀t ⇔ ∃H : D ↦→ R: f(y) = J −1 grad H(y) .<br />
✫<br />
✩<br />
✪<br />
Definition 4.4.5 (Symplektische Abbildung).<br />
Eine C 1 -Abbildung Φ : D ⊂ R 2n ↦→ R 2n heisst symplektisch, falls<br />
DΦ(y) T JDΦ(y) = J ⇔ ω ( )<br />
DΦ(y)v, DΦ(y)w = ω(v,w) ∀v,w ∈ R<br />
} {{ } } {{ }<br />
2n , ∀y ∈ D .<br />
(Φ ∗ v)(y) (Φ ∗ w)(y)<br />
4.4<br />
p. 366<br />
Definition 4.4.8 (Sternförmiges Gebiet).<br />
DsubsetR d heisst sternförmig, wenn es z ∈ D gibt, so dass<br />
für alle Punkte x ∈ D.<br />
{tz + (1 − t)x, 0 ≤ t ≤ 1} ⊂ D<br />
4.4<br />
p. 368
Hilfsmittel beim Beweis:<br />
4.4.2 Symplektische Integratoren<br />
✬<br />
Lemma 4.4.9 (Integrabilitätslemma).<br />
Es sei D ⊂ R d sternförmig und f : D ↦→ R d stetig differenzierbar. Dann gilt<br />
Df = Df T ⇔ ∃F : D ↦→ R: f(y) = grad F(y) ∀y ∈ D .<br />
✫<br />
✩<br />
✪<br />
Warum interessiert Numeriker diese ”<br />
exotische” Eigenschaft ”<br />
Symplektizität” ?<br />
Thm. 4.4.7:<br />
f = J −1 gradH<br />
(“Bewegungsgleichung”)<br />
⇔<br />
Φ t symplektisch (→ Def. 4.4.5) ∀t<br />
Beweis. O.B.d.A: D sternförmig bzgl. 0 ⇒ Wohldefiniert ist die Funktion<br />
∫ 1<br />
F(y) := f(τy) · y dτ y ∈ D .<br />
⇒<br />
0<br />
∫ 1<br />
∫ 1 d<br />
gradF(y) = τDf(τy) · y + f(τy) dτ = (f(τy)τ) (τ) dτ = f(y) .<br />
0<br />
0 dτ<br />
Intuition: diskrete Evolution Ψ h symplektisch ↔ “Diskrete Bewegungsgleichung<br />
Symplektizität kann von diskreten Evolutionen geerbt werden !<br />
Beweis (von Thm. 4.4.7)<br />
“⇐”: Siehe Thm. 4.4.4<br />
“⇒”: Propagationsmatrix W(t;y) := ( d<br />
dy Φt )(y) löst Variationsgleichung (1.3.20)<br />
Ẇ(t;y) = Df(Φ t y)W(t;y) , W(0;y) = I , y ∈ D , t ∈ J(y) .<br />
t fixiert, hinreichend klein: y ↦→ Φ t y ist symplektische Abbildung (→ Def. 4.4.5)<br />
W(t;y) T JW(t;y) = J =⇒ tfrei d (<br />
)<br />
W(t;y) T JW(t;y) = 0 .<br />
dt<br />
Mit Produktregel:<br />
0 = d (<br />
)<br />
W(t;y) T JW(t;y) =<br />
dt<br />
Ẇ(t;y)T JW(t;y) + W(t;y) T JẆ(t;y)<br />
= (Df(Φ t y)) T JW(t;y) + W(t;y) T J(Df(Φ t y)) ∀y ∈ D, |t| klein.<br />
Setze t = 0, benutze J −T = −J −1 = J ⇒ JDf(y) = (JDf(y)) T ∀y ∈ D<br />
Wegen JDf(y) = D(Jf)(y) Anwendung der Integrabilitätslemmas 4.4.9. ✷<br />
4.4<br />
p. 369<br />
Definition 4.4.10 (Symplektisches Einschrittverfahren).<br />
Ein Einschrittverfahren (→ Def. 2.1.1) heisst symplektisch, wenn es, angewendet auf eine<br />
Hamitonsche Differentialgleichung (→ Def. 1.2.2) ẏ = J −1 gradH(y) eine konsistente<br />
diskrete Evolution Ψ h erzeugt, so dass Φ h : K ⊂ D ↦→ R d für jedes Kompaktum K ⊂ D und<br />
festes hinreichend kleines h > 0 eine symplektische Abbildung (→ Def. 4.4.5) ist.<br />
Bemerkung 4.4.7 (Einfache symplektische Integratoren).<br />
Die diskreten Evolutionen Ψ h : D ⊂ R 2n ↦→ R 2n zur Hamiltonsche ODE (1.2.12)<br />
(ẏ = J −1 gradH(y), H : D ⊂ R d ↦→ R) erzeugt durch<br />
implizite Mittelpunkteregel (1.4.11)<br />
symplektisches Eulerverfahren (2.5.5)<br />
Störmer-Verlet-Verfahren (2.5.7) (→ Bem. 1.4.15, Bsp. 2.5.3) für separierte Hamilton-Funktion der<br />
Form H(y) = T(p) + U(q), y = ( p<br />
q<br />
)<br />
,<br />
sind symplektisch (für hinreichend kleine Schrittweite h ∈ R).<br />
Nachweise der Symplektizität:<br />
für implizite Mittelpunkteregel (1.4.11):<br />
Φ h y 0 := y 1 = y 0 + hJ −1 gradH( 1 2 (y 0 + y 1 )) . (4.4.2)<br />
Implizites Differenzieren (Annahme: H “hinreichend glatt”):<br />
4.4<br />
p. 371<br />
4.4<br />
p. 370<br />
DΦ h (y 0 ) = I + hJ −1 ∇ 2 H( 1 2 (y 0 + y 1 )) 1 2 (I + DΦh (y 0 )) ,<br />
(<br />
) −1 (<br />
)<br />
⇒ DΦ h (y 0 ) = I − 2 1hJ−1 ∇ 2 H(...) I + 2 1hJ−1 ∇ 2 H(. ..) .<br />
4.4<br />
p. 372
Verwende nun<br />
M = M T ⇒ (I + αJ −1 M) T J(I + αJ −1 M) = J . (4.4.3)<br />
Störmer-Verlet-Verfahren (2.5.7) für H(p,q) = T(p) + U(q):<br />
⎧<br />
⎪⎨ p 1/2 = p 0 − 2 1hgradU(q 0) ,<br />
q 1 = q 0 + hgradT(p 1/2 ) ,<br />
⎪⎩ p 1 = p 1/2 − 1 2 hgradU(q 1) .<br />
Strang-Splittingverfahren (Bem. 1.4.15): diskrete Evolution Ψ h zu (4.4.4) erfüllt<br />
Ψ h = Φ h/2<br />
U ◦ Φh T ◦ Φh/2 U ,<br />
wobei Φ t T , Φt U<br />
exakte Evolutionsoperatoren zu Hamiltonschen ODE<br />
{<br />
Φ t ṗ = 0 ,<br />
T ↔<br />
→ Hamilton-Funktion H(p,q) = T(p) ,<br />
˙q = grad T(p)<br />
Φ t U ↔ {<br />
ṗ = −gradU(q) ,<br />
˙q = 0 .<br />
Korollar 4.4.6 ⇒ Ψ h is symplektische Abbildung (→ Def. 4.4.5).<br />
→ Hamilton-Funktion H(p,q) = U(q) .<br />
(4.4.4)<br />
Terminologie: implizte Mittelpunktsregel/Störmer-Verlet-Verfahren = symplektische Integratoren △ p. 373<br />
✬<br />
✩<br />
4.4<br />
✗<br />
✖<br />
Thm. 4.1.3 ⇒ Alle Gauss-Kollokations-Einschrittverfahren sind symplektisch.<br />
Beispiel 4.4.8 (Symplektisches Euler-Verfahren). siehe Bsp. 2.5.3<br />
Annahme: Separierte Hamilton-Funktion der Form H(p,q) = T(p) + U(q), T, U : D ⊂<br />
R n ↦→ R glatt<br />
H(p,q) = T(p) + U(q) ↔ Splitting der rechten Seite von (1.2.12), vgl. Bsp. 2.5.3<br />
( )<br />
f(y) = J −1 −gradU(q)<br />
grad H(y) =<br />
+<br />
0<br />
➣ Lie-Trotter-Splitting-Einschrittverfahren (2.5.2)<br />
p k+1 = p k − hgradU(q k )<br />
q k+1 = q k + hgrad T(p k+1 ),<br />
bzw.<br />
(<br />
0<br />
gradT(p)<br />
✔<br />
✕<br />
)<br />
=: f 1 (y) + f 2 (y) (4.4.5)<br />
p k+1 = p k − hgradU(q k+1 )<br />
q k+1 = q k + hgrad T(p k ) .<br />
(4.4.6) = explizite symplektische diskrete Evolutionen (Thm. 2.5.1: Konsistenzordnung 1)<br />
(4.4.6)<br />
4.4<br />
p. 375<br />
Theorem 4.4.11 (Symplektische Runge-Kutta-Einschrittverfahren).<br />
Alle Runge-Kutta-Einschrittverfahren (→ Def. 2.3.1), die quadratische Invarianten erhalten, sind<br />
symplektisch.<br />
✫<br />
✪<br />
Beachte: In (4.4.6) (links): Inkrement benutzt q k , p k+1<br />
In (4.4.6) (rechts): Inkrement benutzt q k+1 , p k<br />
☞ Verallgemeinerung von (4.4.6) auf ẏ = J −1 grad H(y) in der Form, y := ( p<br />
q<br />
)<br />
,<br />
Beweis. Φ t ˆ= Evolutionsoperator zu Hamiltonschen Dgl. ẏ = f(y) := J −1 grad H(y) ist eine<br />
symplektische Abbildung für (alle zulässigen) t<br />
Def. 4.4.5 ⇒ I(Y) := Y T JY ist quadratisches erstes Integral der Variationsgleichung<br />
ṗ(t) = − ∂H<br />
∂q (p(t),q(t)) , ∂H<br />
˙q(t) = (p(t),q(t)) : (1.2.12)<br />
∂p<br />
y k+1 = y k + hJ −1 grad H(p k ,q k+1 ) bzw. y k+1 = y k + hJ −1 gradH(p k+1 ,q k ) .<br />
Ẇ(t;y) = Df(Φ t y)W(t;y) .<br />
Ψ h ˆ= diskrete Evolution des EK-ESV für ẏ = f(y)<br />
̂Ψ h ˆ= diskrete Evolution des EK-ESV für<br />
{ ẏ = f(y) ,<br />
Ẇ = Df(y)W :<br />
Lemma 4.2.4<br />
⇒<br />
dΨ h (<br />
dy (y 0) = W 1 = ̂Ψ h( ))<br />
y 0<br />
.<br />
I W<br />
( y1<br />
W 1<br />
)<br />
= ̂Ψh( y0<br />
I<br />
)<br />
.<br />
Nach Voraussetzung erhält ̂Ψ h quadratische erste Integrale,<br />
( )<br />
dΨ h T ( )<br />
dy (y dΨ h<br />
0) J<br />
dy (y 0) = W1 T JW 1 = J ∀y 0 ∈ D . ✷<br />
4.4<br />
p. 374<br />
Für allgemeine Hamilton-Funktion H = H(p,q) :<br />
p k+1 = p k − h ∂H<br />
∂q (p k+1,q k )<br />
q k+1 = q k + h ∂H<br />
∂p H(p k+1,q k ),<br />
bzw.<br />
Symplektische Euler-Verfahren<br />
p k+1 = p k − h ∂H<br />
∂q (p k,q k+1 )<br />
q k+1 = q k + h ∂H<br />
∂p H(p k,q k+1 ) .<br />
☞ kein Splittingverfahren mehr, trotzdem symplektisch [11, Thm. 3.3] !<br />
Bemerkung 4.4.9 (Partitionierte Runge-Kutta-Einschrittverfahren).<br />
(4.4.7)<br />
✸<br />
4.4<br />
p. 376
Mit lokal Lipschitz-stetigen f u : D u × D v ↦→ R n , f v : D u × D v ↦→ R n , D u ,D v ⊂ R n<br />
˙u = f u (u,v) ,<br />
ODE:<br />
(4.4.8)<br />
˙v = f v (u,v) .<br />
“Symplektisches Euler-Verfahren” (4.4.7) für (4.4.8):<br />
u 1 = u 0 + hf u (u 1 ,v 0 ) ,<br />
➣ Konsistenzordnung 1. (4.4.9)<br />
v 0 = v 0 + hf v (u 1 ,v 0 ) .<br />
Ansatz: s-stufige partitionierte Runge-Kutta-Einschrittverfahren (für autonome ODE)<br />
⎧<br />
⎪⎨ k u ∑<br />
i = f u (u 0 + h s a u ij ku j ,v ∑<br />
0 + h s a v ij kv j ) ,<br />
j=1<br />
j=1<br />
⎪⎩ k v ∑<br />
i = f v (u 0 + h s a u ij ku j ,v ∑<br />
0 + h s i = 1, ...,s ,<br />
a v ij kv j ) j=1<br />
j=1<br />
⎧<br />
⎪⎨ u 1 = u 0 + s (4.4.10)<br />
∑<br />
b u i ku i ,<br />
i=1<br />
∑<br />
⎪⎩ v 1 = v 0 + s b v i kv i . i=1<br />
Beispiel 4.4.10 (Symplektisches Euler-Verfahren für Pendelgleichung).<br />
AWP für Pendelgleichung wie in Bsp. 4.4.3.<br />
q<br />
11<br />
10<br />
9<br />
8<br />
7<br />
6<br />
5<br />
t=0<br />
t=0.5<br />
t=1<br />
t=2<br />
t=3<br />
t=5<br />
4<br />
−1.5 −1 −0.5 0 0.5 1 1.5 2 2.5<br />
p<br />
Fig. 139<br />
Evolution eines quadratischen Volumens<br />
(Verfahren (4.4.7), links)<br />
q<br />
11<br />
10<br />
9<br />
8<br />
7<br />
6<br />
5<br />
t=0<br />
t=0.5<br />
t=1<br />
t=2<br />
t=3<br />
t=5<br />
4<br />
−1.5 −1 −0.5 0 0.5 1 1.5 2 2.5<br />
p<br />
Fig. 140<br />
Evolution eines quadratischen Volumens<br />
(Verfahren (4.4.7), rechts)<br />
△<br />
4.4<br />
p. 377<br />
4.4<br />
p. 379<br />
in Stufenform, vgl. Bem. 2.3.2:<br />
⎧<br />
⎪⎨ g u ∑<br />
i = u 0 + h s a u ij f u(k u j ,kv j ) ,<br />
j=1<br />
⎪⎩ gi v ∑<br />
= v 0 + h s ,<br />
a v ij f v(k u j ,kv j ) , j=1<br />
Darstellung:<br />
Zwei Butcher-Tableaus:<br />
⎧<br />
∑<br />
⎪⎨ u 1 = u 0 + s b u i f u(k u i ,kv i ) ,<br />
i=1<br />
∑<br />
⎪⎩ u 1 = v 0 + s (4.4.11)<br />
b v i f v(k u i ,kv i ) . i=1<br />
c u<br />
A u<br />
b u,T & cv A v<br />
b v,T<br />
Energieerhaltung des symplektischen partitionierten<br />
Eulerverfahrens (4.4.7) (links) (p(0) =<br />
0, q(0) = 7π 6 ) 0<br />
0 500 1000 1500 2000 2500 3000 3500 4000 4500 5000<br />
Gesamtenergie<br />
1.5<br />
1<br />
0.5<br />
Symplektisches Euler-Verfahren<br />
0 0<br />
1<br />
& 1 1 1<br />
Störmer-Verlet-Verfahren<br />
1/2 1/2 0<br />
1/2 1/2 0<br />
1/2 1/2<br />
In Analogie zur Theorie der konventionellen RK-ESV aus Def. 2.3.1:<br />
&<br />
0 0 0<br />
1 1/2 1/2<br />
1/2 1/2<br />
• Bedingungsgleichungen an Koeffizienten für gewünschte Konsistenzordnungen, vgl. Sect. 2.3.2<br />
[11, Sect. II.2]<br />
• Algebraische Bedingungen für Erhaltung quadratischer Invarianten [11, Sect. IV.2.2], vgl.<br />
Lemma 4.1.5, und Symmetrie, vgl. Thm. 4.3.1 [11, Sect. V.2.2],<br />
• Koeffizientenbedingungen für Symplektizität, vgl. Thm. 4.4.11 [11, Sect. VI.4].<br />
4.4<br />
p. 378<br />
t<br />
Fig. 141<br />
Beispiel 4.4.11 (Langzeit-Energieerhaltung bei symplektischer Integration). → Bsp. 4.4.1, 4.4.10,<br />
1.4.14<br />
Hamiltonsche Differentialgleichung (4.4.1) für mathematisches Pendel → 1.2.7 (p ↔ Winkelgeschwindigkeit,<br />
q ↔ Winkelvariable α)<br />
ṗ = − sinq ,<br />
˙q = p<br />
Hamilton-Funktion H(p,q) = 1 2 p2 − cos q (Gesamtenergie) (4.4.1)<br />
Anfangswerte: p(0) = 0, q(0) = 7/6π, Endzeitpunkt T = 5000 p. 380<br />
✸<br />
4.4
Symplektische ESV:<br />
Symplektisches partitioniertes Euler-Verfahren (4.4.7) (links)<br />
Störmer-Verlet-Verfahren (4.4.4), siehe Bem. 4.4.7<br />
Implizite Mittelpunktsregel (4.4.2), siehe Bem. 4.4.7<br />
2-stufiges Gauss-Kollokations-Einschrittverfahren, siehe Sect. 2.2.1<br />
1<br />
0.5<br />
0<br />
−0.5<br />
Stoermer−Verlet, h = 0.200000<br />
1<br />
0.5<br />
0<br />
−0.5<br />
Explicit trapezoidal rule, h = 0.200000<br />
(uniforme Zeitschrittweite h > 0)<br />
−1<br />
−1<br />
q 2<br />
q 2<br />
−1.5<br />
−1.5<br />
Stärke der Energieschwankungen<br />
E var (h) = max |E h (ih) − E exact | .<br />
i=0,...,T/h<br />
Sympl. Euler E var (h) = O(h) ,<br />
Störmer-Verlet E var (h) = O(h 2 ) ,<br />
Implizite MPR E var (h) = O(h 2 ) ,<br />
Gauss-Koll (s = 2) E var (h) = O(h 4 ) .<br />
Vermutung: E var (h) = O(h p )<br />
(p ˆ= Konvergenzordnung des ESV)<br />
Beispiel 4.4.12 (Federpendel).<br />
energy variation<br />
10 0<br />
10 −1<br />
10 −2<br />
10 −3<br />
10 −4<br />
10 −5<br />
10 −6 Gauss coll.(s=2)<br />
implicit midpoint<br />
Stoermer−Verlet<br />
sympl. Euler<br />
10 −7<br />
O(h 4 )<br />
O(h 2 )<br />
O(h)<br />
10 −8<br />
10 −2 10 −1 10 0<br />
h<br />
Fig. 142 ✸<br />
Reibungsfreies Federpendel: Hamilton-Funktion H(p,q) = 1 2 ‖p‖2 + 2 1(‖q‖ − 1)2 + q 2<br />
p. 381<br />
(q ˆ= Position, p ˆ= Impuls)<br />
ṗ = −(‖q‖ − 1) q ( ) 0<br />
‖q‖ − , ˙q = p . (4.4.12)<br />
1<br />
0000000000000000000000000000<br />
1111111111111111111111111111<br />
0000000000000000000000000000<br />
1111111111111111111111111111<br />
0000000000000000000000000000<br />
1111111111111111111111111111<br />
0000000000000000000000000000<br />
1111111111111111111111111111<br />
0000000000000000000000000000<br />
1111111111111111111111111111<br />
0<br />
−0.5<br />
−1<br />
Spring pendulum trajectory<br />
4.4<br />
−2<br />
−2.5<br />
−3<br />
0 < t < 50<br />
1000 < t < 1050<br />
−3.5<br />
−1.5 −1 −0.5 0<br />
q 1<br />
0.5 1 1.5<br />
Fig. 145<br />
Animation<br />
✄<br />
Störmer-Verlet ESV<br />
−2<br />
−2.5<br />
−3<br />
0 < t < 50<br />
1000 < t < 1050<br />
−3.5<br />
−1.5 −1 −0.5 0<br />
q 1<br />
0.5 1 1.5<br />
Fig. 146<br />
Explizite Trapezregel<br />
Symplektischer Integrator: Positionen im “zulässigen Bereich” auch bei Langzeitintegration<br />
Explizite Trapezregel: Trajektorien verlassen bei Langzeitintegration den “zulässigen Bereich” (Energiedrift<br />
!)<br />
Beispiel 4.4.13 (Molekulardynamik). → [5, Sect. 1.2]<br />
Zustandsraum für n ∈ N Atome in d ∈ N Dimensionen:<br />
D = R 2dn<br />
(Positionen q = [q 1 ; ...;q n ] T ∈ R dn , Impulse p = [p 1 , ...,p n ] T ∈ R dn )<br />
Gesamtenergie (Hamilton-Funktion):<br />
3<br />
2.5<br />
Lenard−Jones potential<br />
equilibrium distance<br />
✸<br />
4.4<br />
p. 383<br />
Fig. 143<br />
Trajektorien bei Langzeitevolution ✄<br />
(Chaotisches mechanisches System)<br />
q 2<br />
−1.5<br />
−2<br />
−2.5<br />
−3<br />
−3.5<br />
−1 −0.8 −0.6 −0.4 −0.2 0.2 0.4 0.6 0<br />
q 1<br />
0.8 1<br />
Fig. 144<br />
H(p,q) = 1 2 ‖p‖2 2 + V (q) .<br />
Lenard-Jones-Potential:<br />
✄<br />
n∑ ∑<br />
∥<br />
V (q) = V( ∥q i − q j∥ ∥ ∥2 ) ,<br />
j=1 i≠j<br />
V(ξ) = ξ −12 − ξ −6 . (4.4.13)<br />
H(q)<br />
2<br />
1.5<br />
1<br />
0.5<br />
0<br />
ESV: Störmer-Verlet-Verfahren (4.4.4) (Konsistenzordnung 2), siehe Bem. 4.4.7,<br />
Explizite Trapezregel (2.3.2) (Konsistenzordnung 2).<br />
4.4<br />
p. 382<br />
−0.5<br />
0 0.5 1 1.5 2 2.5 3<br />
|q|<br />
Fig. 147<br />
➥ Hamiltonsche Differentialgleichung (→ Def. 1.2.2):<br />
ṗ j = − ∑ V ′ ∥<br />
( ∥q j − q i∥ ∥ q j − q ∥2 ) ∥<br />
i<br />
∥q j − q i∥ ∥<br />
, ˙q j = p j , j = 1,...,n .<br />
i≠j<br />
2<br />
4.4<br />
p. 384
t<br />
t<br />
Störmer-Verlet-Verfahren (4.4.4):<br />
q h (t + 1 2 h) = q h(t) + h 2 p h(t) ,<br />
p j h (t + h) = pj h (t) − h ∑ V ′ ∥<br />
( ∥q j ∥<br />
h (t + 2 1h) − qi h (t + 2 1h) ∥∥2 q j ) h (t + 1 2 h) − qi h (t + 1 2 h)<br />
∥<br />
i≠j<br />
∥q j ∥<br />
h (t + 2 1h) − qi h (t + 1 2 h) ∥∥2<br />
,<br />
100<br />
80<br />
60<br />
Trajektorien der Atome, Verlet, 2000 timesteps<br />
0.6<br />
0.4<br />
0.2<br />
0<br />
Energieanteile, Verlet, 2000 timesteps<br />
kinetische Energie<br />
potentielle Energie<br />
Gesamtenergie<br />
q h (t + h) = q h (t + 1 2 h) + h 2 p h(t + h) .<br />
40<br />
−0.2<br />
Simulation mit d = 2, n = 3, q 1 (0) = 2<br />
1 √ (<br />
2 −1)<br />
, q 2 (0) = 1 (<br />
2√<br />
2<br />
11 )<br />
, q 3 (0) = 2<br />
1 √ (<br />
2<br />
−1 )<br />
1 , p(0) = 0,<br />
Endzeitpunkt T = 100<br />
20<br />
0<br />
−2 −1.5 −1 −0.5 0 0.5 1 1.5 −2<br />
0<br />
2<br />
E<br />
−0.4<br />
−0.6<br />
x 1<br />
x 2<br />
−0.8 0 10 20 30 40 50<br />
t<br />
60 70 80 90 100<br />
Beobachtungen:<br />
Völlig unterschiedliche Trajektorien bei Langzeitsimulation mit unterschiedlichen Zeitschrittweiten<br />
h.<br />
Qualitativ richtige Trajektorien in jedem Fall.<br />
4.4<br />
p. 385<br />
4.4<br />
p. 387<br />
Trajektorien der Atome, Verlet, 10000 timesteps<br />
Energieanteile, Verlet, 10000 timesteps<br />
0.6<br />
kinetische Energie<br />
potentielle Energie<br />
100<br />
0.4<br />
Gesamtenergie<br />
80<br />
0.2<br />
60<br />
0<br />
−0.2<br />
40<br />
−0.4<br />
20<br />
2<br />
−0.6<br />
0<br />
0<br />
−1.5 −1 −0.5 0 0.5 1 −2<br />
x −0.8<br />
2 0 10 20 30 40 50 60 70 80 90 100<br />
x 1 t<br />
E<br />
Energie<br />
10 3 Verlet auf [0,10]: Schwankung der Gesamtenergie<br />
10 2<br />
10 1<br />
10 0<br />
10 −1<br />
10 −2<br />
10 −3<br />
Variation<br />
Drift<br />
Abstand<br />
10 −4<br />
0 20 40 60 80 100 120 140 160<br />
Anzahl(Zeitschritte)<br />
Fig. 148<br />
T = 10, d = 2, n = 3, q 1 (0) = 2<br />
1 √ (<br />
2 −1)<br />
, q 2 (0) =<br />
√ (<br />
1<br />
2 2<br />
11 )<br />
, q 3 (0) = 2√ 1 (<br />
2<br />
−1 )<br />
1 , p(0) = 0.<br />
N−1 ∑<br />
Variation = |E tot ((i + 1)h) − E tot (ih)| ,<br />
i=1<br />
Drift = |E tot (T) − E tot (0)| ,<br />
∥<br />
Abstand = max{ ∥q j ∥<br />
h (T) ∥∥2<br />
, j = 1, 2, 3} .<br />
✸<br />
Beispiel 4.4.14 (Vielteilchen-Molekulardynamik). → [22, Sect. 4.5.1]<br />
4.4<br />
p. 386<br />
4.4<br />
p. 388
2D konservatives Vielteilchensystem mit<br />
Lennard-Jones-Potential → Bsp. 4.4.13<br />
9<br />
8<br />
Initial position of atoms, 0K<br />
1.4<br />
1.2<br />
Stoermer−Verlet: 10 x 10 Lenard−Jones atoms<br />
3<br />
2.5<br />
Trapezoidal rule, 10 x 10 Lenard−Jones atoms<br />
h = 0.010000<br />
h = 0.005000<br />
h = 0.002500<br />
h = 0.001250<br />
Anfangspositionen ✄<br />
(Anfangsimpulse = 0 ↔ 0K)<br />
Beobachtet für explizite Trapezregel (2.3.2),<br />
Störmer-Verlet (4.4.4)<br />
q 2<br />
7<br />
6<br />
5<br />
4<br />
3<br />
temperature<br />
1<br />
0.8<br />
0.6<br />
0.4<br />
temperature<br />
2<br />
1.5<br />
1<br />
Approximation der Gesamtenergie H(p,q)<br />
Mittlere kinetische Energie (“Temperatur”)<br />
Animation ✄<br />
2<br />
1<br />
0<br />
0 1 2 3 4 5 6 7 8 9<br />
q 1<br />
Fig. 149<br />
0.2<br />
h = 0.010000<br />
h = 0.005000<br />
h = 0.002500<br />
h = 0.001250<br />
0<br />
0 10 20 30 40 50 60 70 80 90 100<br />
t<br />
Fig. 152<br />
Symplektischer Integrator: Qualitativ korrektes Verhalten der Temperatur<br />
0.5<br />
0<br />
0 10 20 30 40 50 60 70 80 90 100<br />
t<br />
Fig. 153<br />
✸<br />
Beispiel 4.4.15 (Projektion auf Energiemannigfaltigkeit). → Bsp. 4.4.12<br />
4.4<br />
p. 389<br />
4.4<br />
p. 391<br />
−906<br />
−908<br />
−910<br />
−912<br />
Stoermer−Verlet: 10 x 10 Lenard−Jones atoms<br />
h = 0.010000<br />
h = 0.005000<br />
h = 0.002500<br />
h = 0.001250<br />
−500<br />
−600<br />
Trapezoidal rule, 10 x 10 Lenard−Jones atoms<br />
h = 0.010000<br />
h = 0.005000<br />
h = 0.002500<br />
h = 0.001250<br />
Idee: Korrektur der Energiedrift (bei nichtsymplektischen Integratoren) durch Projektion auf Energiemannigfaltigkeit<br />
total energy<br />
−914<br />
−916<br />
−918<br />
−920<br />
total energy<br />
−700<br />
−800<br />
−900<br />
{(p,q) ∈ R n × R n : H(p,q) = H(p 0 ,q 0 )} . (4.4.14)<br />
Konkret: Orthogonalprojektion (p,q) ↦→ P(p,q) := (p ∗ ,q ∗ ): mit y = ( p<br />
q<br />
)<br />
, bestime λ ∈ R, y ∗ =<br />
( p ∗<br />
q ∗ )<br />
∈ R 2n so, dass<br />
H(y ∗ ) = H 0 , y ∗ = y + λgrad H(y ∗ ) . (4.4.15)<br />
−922<br />
−1000<br />
−924<br />
−926<br />
50<br />
t<br />
90 100<br />
Fig. 150<br />
0 10 20 30 40 60 70 80<br />
−1100<br />
50<br />
t<br />
90 100<br />
Fig. 151<br />
0 10 20 30 40 60 70 80<br />
Projiziertes ESV Ψ h : Orthogonalprojektion nach jedem Schritt: y k+1 = PΨ h y k<br />
Beachte: (4.4.15) nichtlineares Gleichungssystem der Dimension 2n + 1, teuer !<br />
4.4<br />
p. 390<br />
4.4<br />
p. 392
0 200 400 600 800 1000 1200<br />
5<br />
4<br />
Stoermer−Verlet<br />
Explicit TR<br />
Projected TR<br />
spring pendulum integration, h=0.200000<br />
1<br />
0.5<br />
Projected explicit trapezoidal rule, h = 0.200000<br />
Konkrete Anwendung dieser Philosophie auf numerische Integratoren (Einschrittverfahren), siehe [22,<br />
Sect. 5.1]:<br />
0<br />
3<br />
−0.5<br />
total energy<br />
2<br />
q 2<br />
−1<br />
−1.5<br />
Ψ h ˆ= diskrete Evolution eines ESV für ẏ = f(y) ➣ y k+1 = Ψ h (y k )<br />
Finde h-abhängiges Vektorfeld ˜f h :↦→ R d so, dass<br />
1<br />
−2<br />
−2.5<br />
˙ỹ = ˜f h (ỹ) , ỹ(0) = y 0 ⇒ y k = ỹ(hk) . (4.4.16)<br />
0<br />
−1<br />
t<br />
Fig. 154<br />
Warnung: Projektion kein Allheilmittel, siehe [11, Ch. IV, Ex. 4.3]<br />
−3<br />
0 < t < 50<br />
1000 < t < 1050<br />
−3.5<br />
−1.5 −1 −0.5 0<br />
q 1<br />
0.5 1 1.5<br />
Fig. 155<br />
Wunsch:<br />
Modifizierte Differentialgleichung<br />
˜fh , f gehören zur gleichen Klasse von Vektorfeldern, vgl. Bem. 4.4.6<br />
Kleine Störung: ˜fh ≈ f für “kleine” Schrittweiten h > 0<br />
Ψ h strukturerhaltend & “qualitativ genau”:<br />
(y k ) akzeptabel<br />
✸<br />
4.4.3 Rückwärtsanalyse<br />
4.4<br />
p. 393<br />
Rückwärtsanalyse von auf der Grundlage modifizierter Differentialgleichung<br />
erfordert uniforme Zeitschrittweite<br />
Beispiel 4.4.17 (Modifizierte Gleichung für RK-ESV und lineare ODE).<br />
4.4<br />
p. 395<br />
Sect. 1.3.3.5: Berechnung individueller Trajektorien sinnlos für schlecht konditionierte/chaotische<br />
Evolutionen.<br />
lineare ODE (→ Sect. 1.3.2):<br />
ẏ = Ay, A ∈ R d,d<br />
Runge-Kutta-Einschrittverfahren (→ Def. 2.3.1) mit Stabilitätsfunktion S(z)<br />
Ziel:<br />
Berechnung typischer/wahrscheinlicher Trajektorien<br />
Modifizierte ODE: ˜fh (y) = Ãy , Ã = 1 log(S(hA)) , (4.4.17)<br />
h<br />
für “hinreichend kleines” h > 0.<br />
Bemerkung 4.4.16 (Rückwärtsanalyse (engl. backward error analysis): Philosophische Grundlage).<br />
Hier: log ˆ= “Matrixlogarithmus”:<br />
log(X) = ∞ ∑<br />
k=1<br />
(−1) k−1<br />
k (X − I) k für ‖X − I‖ < 1<br />
“Naturgesetze” (engl. first principles) Parameter/Daten p 1 , ...,p m (unsicher !)<br />
Mathematisches Modell y = M(p 1 , ...,p m )<br />
Beweis von (4.4.17) ( elementar unter Annahme, dass A diagonalisierbar:<br />
T −1 AT = D = diag(µ 1 ,...,µ d )):<br />
∃T ∈ R d,d regulär:<br />
✬<br />
Ziel:<br />
Diskretisiertes Model y h = M h (p 1 ,...,p m )<br />
Genaue, mit den Naturgesetzen verträgliche Lösung y h<br />
✩<br />
Bem. 3.1.5, (3.1.6) ⇒ Für RK-ESV y 1 = S(hA)y 0<br />
(4.4.16)<br />
=⇒ exp(Ãh) = S(hA) mit σ(hA)∩] − ∞, 0] = ∅ für kleines h > 0 . ✸<br />
✫<br />
∃˜p i : ‖p i − ˜p i ‖ ≪ 1: y h = M(˜p 1 , ..., ˜p m )<br />
✪<br />
4.4<br />
△ p. 394<br />
4.4<br />
p. 396
? Modifizierte Gleichung im allgemeinen Fall<br />
✎ Notationen: Φ t ˆ= Evolutionsoperator zur ODE ẏ = f(y),<br />
t ↦→ y(t) ˆ= Lösungstrajektorien von ẏ = f(y) zum Anfangswert y 0 ∈ D.<br />
Definition 4.4.12 (Modifizierte Gleichung der Ordnung q).<br />
Sei Ψ h die diskrete Evolution eines Einschrittverfahrens der Konsistenzordnung p für die ODE<br />
ẏ = f(y) mit lokal Lipschitz-stetigem f : D ⊂ R d ↦→ R d .<br />
Dann ist ˙ỹ = ˜f h (ỹ) mit h-abhängigem, lokal Lipschitz-stetigen ˜f h : D ↦→ R d eine modifizierte<br />
Gleichung der Ordnung q, q > p, wenn<br />
∥<br />
∥˜Φ h hy − Ψ h y∥ ≤ C(y)h q+1 ∀y ∈ D für h → 0 ,<br />
Ziel: Formalisierung der ad-hoc-Konstruktion einer modifizierten Gleichung der Ordnung p + 1 aus<br />
Bsp. 4.4.18<br />
Idee: Rekursive Konstruktion von ˜f h :<br />
Annahme: diskrete Evolution Ψ h konsistent von der Ordnung p mit ẏ = f h (y)<br />
wobei ˜Φ t h der Evolutionsoperator zu ˙ỹ = ˜f h (ỹ) und C : D ↦→ R lokal gleichmässig beschränkt.<br />
Ansatz:<br />
˜fh = f h (y) + h p ∆f(y) (4.4.19)<br />
Modifikatorfunktion<br />
Def. 4.4.12 ˆ= “Das ESV ist konsistent von der Ordnung q mit ˙ỹ = ˜f h (ỹ).” → Def. 2.1.9<br />
Ziel:<br />
˜Φh hy − Ψ h y = O(h p+2 ) für h → 0 (4.4.20)<br />
Beispiel 4.4.18 (Modifizierte Gleichung der Ordnung 2 zu explizitem Euler-Verfahren).<br />
Explizites Eulerverfahren (1.4.2) für ẏ = f(y): y 1 = y 1 (h) = Ψ h y 0 = y 0 + hf(y 0 )<br />
4.4<br />
p. 397<br />
Konkrete Annahme, vgl. (2.4.7):<br />
∃ lokale gleichmässig beschränktes d : D ↦→ R d mit<br />
4.4<br />
p. 399<br />
Vergleich mit Taylorentwicklung (um 0) (2.3.14) der exakten Lösung y(t):<br />
y(h) = y 0 + f(y 0 )h + 1 2 Df(y 0)f(y 0 )h 2 + O(h 3 ) für h → 0 . (4.4.18)<br />
“störender Term ☞ zu “verschieben” in ˜f h<br />
τ(y 0 , h) := Φ h h y 0 − Ψ h y 0 = d(y 0 )h p+1 + O(h p+2 ) für h → 0 , ∀y 0 ∈ D . (4.4.21)<br />
Konsistenzfehler → Def. 2.1.7, (Φ t h ˆ= Evolutionsoperator zu ẏ = f h(y))<br />
(4.4.20): Bestimme ∆f so, dass Lsg. von ˙ỹ = ˜fh (ỹ), ỹ(0) = y 0<br />
˜Φ h hy − Ψ h y = ỹ(h) − y 1 = O(h p+2 ) für h → 0 . (4.4.22)<br />
Modifizierte Gleichung der Ordnung 2:<br />
˙ỹ = ˜f h (ỹ) := f(ỹ) − 1 2 hDf(ỹ)f(ỹ)<br />
denn aus (4.4.18), für h → 0<br />
f glatt<br />
⇒<br />
ỹ(h) = y 0 + ˜f h (y 0 )h + 1 2 D˜f h (y 0 )˜f h (y 0 )h 2 + O(h 3 )<br />
˜Φh hy 0 − y 1 (h) = O(h 3 ) ,<br />
= y 0 + hf(y 0 ) − 1 2 h21 2 Df(y 0)f(y 0 ) + 1 2 Df(y 0)f(y 0 )h 2 + O(h 3 )<br />
= y 0 + hf(y 0 ) + O(h 3 ) = Ψ h y 0 + O(h 3 ) .<br />
✸<br />
Taylorentwicklung um h = 0, vgl. (2.3.14), benutze Dgl. und Kettenregel: Für h → 0<br />
∑p+1<br />
h<br />
ỹ(h) = y 0 +<br />
j!ỹ(j) j<br />
(0) + O(h p+2 ∑p+1<br />
h j d j−1<br />
) = y 0 +<br />
j! dt j−1˜f h (ỹ(t)) + O(h p+2 )<br />
|t=0<br />
k=1<br />
k=1<br />
= y 0 + h˜f h (y 0 ) + 1 2 h2 D˜f h (y 0 )˜f h (y 0 )<br />
+ 1 6 h3( D 2˜fh (y 0 )(˜f h (y 0 ),˜f h (y 0 )) + D˜f h (y 0 )D˜f h (y 0 )˜f h (y 0 ) ) + · · · + O(h p+2 )<br />
= y 0 + hf h (y 0 ) + h p+1 ∆f(y 0 ) + 1 2 h2 Df h (y 0 )f h (y 0 )<br />
+ 1 6 h3( D 2 f h (y 0 )(f h (y 0 ),f h (y 0 )) + Df h (y 0 )Df h (y 0 )f h (y 0 ) ) + · · · + O(h p+2 ) ,<br />
da “O(h p )-Modifikation” in (4.4.19), z.B.<br />
Durchwegs “stillscheigende Annahme”: f “hinreichend glatt” ⇒ Φ t ,Ψ h “hinreichend glatt”<br />
4.4<br />
p. 398<br />
h 2 D˜f h (y 0 )˜f h (y 0 ) = h 2( Df h (y 0 ) + h p D∆f(y 0 ) ) (f h (y 0 ) + h p ∆f(y 0 ))<br />
= h 2 Df h (y 0 )f h (y 0 ) + O(h p+2 ) .<br />
4.4<br />
p. 400
➣ Beobachtung: Taylorentwicklung von t ↦→ Φ t h V y 0 um t = 0 ist enthalten !<br />
Versuch:<br />
ỹ(h) = Φ h h y 0 + h p+1 ∆f(y 0 ) + O(h p+2 )<br />
(4.4.21)<br />
= Ψ h y 0 + h p+1 d(y 0 ) + h p+1 ∆f(y 0 ) + O(h p+2 ) .<br />
(4.4.22) erfüllt durch ∆f(y) := −d(y) ! (4.4.23)<br />
Reihenansatz für Vektorfeld der modifizierten Gleichung:<br />
˜fh (y) = f(y) + h p ∆f p (y) + h p+1 ∆f p+1 (y) + h p+2 ∆f p+2 (y) + . .. . (4.4.24)<br />
➣ Modifikatorfunktionen ∆f l , l ∈ N, aus rekursiver Konstruktionsvorschrift<br />
˜Φh h,l−1y − Ψ h y<br />
(4.4.23) ⇒ ∆f l (y) = − lim h→0 h l+1 , (4.4.25)<br />
Explizites Euler-Verfahren (1.4.2): y 1 = y 0 + hf(y 0 )<br />
˜f(y) = y 2 − h<br />
}{{}<br />
y 3 +h 2 3/2 y 4 −h<br />
} {{ }<br />
3 8/3 y 5 +h<br />
} {{ }<br />
4 31 6 y6 −h 5 157<br />
−∆f<br />
}{{} } 15{{ y7<br />
}<br />
1 ∆f 2 −∆f 3 ∆f 4 −∆f 5<br />
+ h 6 649<br />
} 30{{ y8 −h 7 9427<br />
} 210 y9 +h 8 19423<br />
} {{ } 210 y10 −h 9 6576<br />
} {{ } 35 h9 y 11 +O(h 10 ) .<br />
} {{ }<br />
∆f 6 −∆f 7 ∆f 8 −∆f 9<br />
Implizites Euler-Verfahren (1.4.9): y 1 = y 0 + hf(y 1 )<br />
(In MAPLE code: res := ytilde-y-h*fcn(ytilde))<br />
˜f(y) = y 2 + hy 3 + 3/2 h 2 y 4 + 8/3h 3 y 5 + 31 6 h4 y 6 + 157<br />
15 h5 y 7 + 649<br />
30 h6 y 8<br />
+ 9427<br />
210 h7 y 9 + 19423<br />
210 h8 y 10 + 6576<br />
35 h9 y 11 + O(h 10 )<br />
Implizite Mittelpunktsrregel (1.4.11): y 1 = y 0 + hf( 2 1(y 0 + y 1 ))<br />
(In MAPLE code: res := ytilde-y-h*fcn(0.5*(y+ytilde))<br />
˜f(y) = y 2 + 1 4 h2 y 4 + 1 8 h4 y 6 + 0.057291667h 6 y 8 + 0.02343750000h 8 y 10 + O(h 10 ) .<br />
mit<br />
˜Φt h,l ˆ= Evolutionsoperator zur ODE<br />
˙ỹ = ˜f h,l (ỹ) := f(y) + h p ∆f p (y) + h p+1 ∆f p+1 (y) + h p+2 ∆f p+2 (y) + ... + h l ∆f l (y) . (4.4.26)<br />
4.4<br />
p. 401<br />
☞ Nur gerade Potenzen von h, vgl. Beweis zu Thm. 2.1.15, Thm. 2.4.4<br />
✸<br />
4.4<br />
p. 403<br />
Bemerkung 4.4.19 (Berechnung der Modifikatorfunktionen ∆f j durch Computeralgebra).<br />
MAPLE-Code: Berechnung der ∆f j<br />
fcn := y ->f(y) :<br />
N := q :<br />
fcoe [1] := fcn(y):<br />
for n from 2 by 1 to N do<br />
modeq := sum(hˆj*fcoe [j+1], j=0..n-2):<br />
diffy [0] := y:<br />
for i from 1 by 1 to n do<br />
diffy [i] := diff(diffy[i-1],y)*modeq:<br />
od:<br />
ytilde := sum(hˆk*diffy[k]/k!, k=0..n):<br />
res := ytilde-y-h*fcn(y):<br />
tay := convert(series(res,h=0,n+1),polynom):<br />
fcoe [n] := -coeff(tay,h,n):<br />
od:<br />
simplify(sum(hˆj*fcoe[j+1],j=0..N-1));<br />
ESV:<br />
Explizites Euler-Verfahren<br />
✁ MAPLE-code [10]:<br />
Berechnung der<br />
Modifikatorfunktionen ∆f l<br />
für skalare ODE ẏ = f(y).<br />
Ausgabe der Reihe (4.4.24)<br />
bis zum q. Term.<br />
∞∑<br />
Problem: Potenzreihe (in h) h k ∆f k (y) möglicherweise divergent<br />
k=1<br />
∀h > 0 (↔ Konvergenzradius = 0)<br />
Interpretation von (4.4.24) als asymptotische Entwicklung von ˜f h , siehe Def. 2.4.1<br />
Beispiel 4.4.21 (Bedeutung der modifizierten Gleichungen niedriger Ordnung).<br />
Anfangswertproblem für logistische Differentialgleichung, siehe Bsp. 1.2.1<br />
ẏ = λy(1 − y) , y(0) = 0.01 .<br />
ESV: Explizites Euler-Verfahren (1.4.2), vgl. Bsp. 1.4.3, Modifikatorfunktionen aus (4.4.24)<br />
∆f 1 (y) = λ 2( −1/2 y + 3/2 y 2 − y 3) , ∆f 2 (y) = λ 3( − 11<br />
6 y2 + 3 y 3 − 3/2y 4 + 1/3 y ) .<br />
△<br />
Beispiel 4.4.20 (Modifikatoren für einfache ESV).<br />
4.4<br />
Skalare Differentialgleichung: ẏ = y 2 → Bsp. 1.3.3 p. 402<br />
ESV: Implizites Euler-Verfahren (1.4.9), vgl. Bsp. 1.4.5, Modifikatorfunktionen aus (4.4.24)<br />
∆f 1 (y) = λ 2( 1/2 y − 3/2 y 2 + y 3) , ∆f 2 (y) = λ 3( − 11 6 y2 + 3 y 3 − 3/2 y 4 + 1/3 y ) 4.4<br />
p. 404
y<br />
y<br />
1<br />
Expl. Euler<br />
y(t)<br />
y 1<br />
(t)<br />
y (t) 2<br />
Explicit Euler h=0.050000, logistic ODE, λ=10.000000<br />
1<br />
Impl. Euler<br />
y(t)<br />
y 1<br />
(t)<br />
y (t) 2<br />
Implicit Euler h=0.050000, logistic ODE, λ=10.000000<br />
• Wenn ja, ist die rechte Seite dieser modifizierten Gleichung nahe bei der rechten Seite der Ausgangsgleichung.<br />
0.8<br />
0.8<br />
0.6<br />
0.6<br />
Strategie: Was wollen wir ?<br />
0.4<br />
0.2<br />
0.4<br />
0.2<br />
☞ Lemma 4.4.13: Familie modifizierter Gleichungen ˙ỹ = ˜f h,l (ỹ),<br />
y k+1 = Ψ h y k , d.h.<br />
konsistent mit dem ESV”<br />
”<br />
0<br />
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1<br />
t<br />
Fig. 156<br />
0<br />
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1<br />
t<br />
Fig. 157<br />
Konsistenzfehler τ(y,h) := Ψ h y − ˜Φ h h,ly → 0 für h → 0 .<br />
Die Euler-Verfahren für y = f(y) liefern eine bessere Approximation für die Lösungen von<br />
ẏ = ˜f 1,h (y) = f(y) + h∆f 1 (y) und ẏ = ˜f 1,h (y) = f(y) + h∆f 1 (y) + h 2 ∆f 2 (y) .<br />
Betrachte abgeschnittene modifizierte Gleichung !<br />
Idee: Erinnerung an Beweis des Konvergenzsatzes für ESV, Thm. 2.1.10<br />
(vgl. auch Beweis von Thm. 2.1.13 und das ”<br />
diskrete Gronwall-Lemma” Lemma<br />
2.1.11)<br />
‖y k − ỹ(kh)‖ ≤ 1 ∥<br />
max ∥τ(y<br />
h<br />
j , h) ∥ exp(Lhk) − 1 . (4.4.27)<br />
j=0,...,k−1<br />
L<br />
✬<br />
Lemma 4.4.13 (“Abgeschnittene” modifizierte Gleichung).<br />
Mit Modifikatorfunktionen ∆f i gemäss (4.4.25) für die ODE ẏ = f(y) und das ESV mit<br />
diskreter Evolution Ψ h (der Konsistenzordnung p) wie oben definiert, ist<br />
✸<br />
4.4<br />
p. 405<br />
✩<br />
(L > 0: Lipschitz-Konstante der Inkrementfunktion des ESV, ỹ ˆ= Lösung der modifizierten<br />
Gleichung)<br />
Exponentielles Wachstum der Konstanten in (4.4.27) für hk → ∞ !<br />
( ∥ ∥τ(y j ,h) ∥ ∥ = O(h l+2 ) liefert keine sinnvollen Abschätzungen bei Langeitintegration)<br />
4.4<br />
p. 407<br />
✫<br />
˙ỹ = ˜f h,l (ỹ) := f(ỹ) + h p ∆f p (ỹ) + h p+1 ∆f p+1 (ỹ) + · · · + h l ∆f l (ỹ) ,<br />
eine modifizierte Gleichung der Ordnung l + 1, l > p (→ Def. 4.4.12)<br />
✪<br />
JEDOCH:<br />
Wenn Konsistenzfehler ”<br />
exponentiell klein”<br />
100<br />
γ = 1, L = 1<br />
Beweis. Der Beweis ergibt sich aus der rekursiven Konstruktion der ∆f l , siehe (4.4.21), (4.4.22),<br />
(4.4.23).<br />
‖τ ‖ ≤ Ch exp(−γ/h) , γ > 0 . (4.4.28)<br />
log of bound<br />
0<br />
−100<br />
−200<br />
−300<br />
−400<br />
−500<br />
‖y k − ỹ(kh)‖<br />
−600<br />
10 2<br />
4.4.4 Modifizierte Gleichungen: Fehleranalyse<br />
≤ C exp(−γ/h + hkL) . (4.4.29)<br />
10 1<br />
final time T = hk<br />
10 0<br />
10 −3 10 −2 10 −1 10 0<br />
h<br />
Im Sinne der Rückwärtsanalyse (→ Bem. 4.4.16) des Lanzeitverhaltens von Einschrittverfahren ist<br />
zu untersuchen:<br />
Verhalten der Schranke aus (4.4.29)<br />
• Gibt es eine (strukturerhaltende) modifizierte Gleichung, der Lösung für lange Zeiten nahe bei<br />
der numerische Lösung (Gitterfunktion (y k ) k ) bleibt.<br />
4.4<br />
p. 406<br />
4.4<br />
p. 408
final time T = hk<br />
γ = 1, L = 1<br />
10 2 Contours for 0.1, 0.01, 0.001<br />
10 1<br />
Schranke ≥ 0.1<br />
maximal final time T<br />
10 2<br />
10 1<br />
γ = 1, L = 1, C = 1<br />
bound < 0.1<br />
bound < 0.01<br />
bound < 0.001<br />
f(y) = J −1 gradH(y) holomorph in D ⇔ H(y) holomorph in D<br />
(mit jeweils gleicher unterer Schranke R für Konvergenzradius auf Kompakta)<br />
Mathematisches Pendel, Bsp. 4.4.3: H(p,q) = 2 1p2 − cos q<br />
➣ D = R 2 , R = ∞ (ganze Funktion !)<br />
Federpendel, Bsp. 4.4.12: H(p,q) = 1 2 ‖p‖2 + 2 1 (‖q‖ − 1)2<br />
➣ D = R 4 , R = dist(K, {q = 0}) (H nicht holomorph in q = 0)<br />
Schranke ≤ 0.001<br />
10 0<br />
10 0<br />
10 −2 10 −1<br />
h<br />
Fig. 158<br />
10 3 h<br />
Beachte: H(p,q) jeweils analytisch in Umgebungen physikalisch sinnvoller Trajektorien !<br />
10 −1<br />
10 −3 10 −2 10 −1 10 0<br />
Fig. 159<br />
Aus (4.4.29) lesen wir ab:<br />
γ<br />
h <<br />
TL − log(τ/C)<br />
⇒ ‖y k − ỹ(kh)‖ ≤ τ für 0 ≤ kh ≤ T .<br />
Schrittweite h ”<br />
klein” ⇒ Numerische Lösungy k bleibt lange in der Nähe der Trajektorie t ↦→ ỹ(t)<br />
(Präzisere Diskussion in Bem. 4.4.23)<br />
✎ Notation: ˜Φt h,l ˆ= Evolutionsoperator zu ˙ỹ = ˜f h,l (ỹ), vgl. Lemma 4.4.13<br />
✸<br />
4.4<br />
p. 409<br />
✬<br />
✩<br />
4.4<br />
p. 411<br />
Wir sind frei in der Wahl der Abschneideindex l !<br />
Frage: Was ist die beste abgeschnittene modifizierte Gleichung ?<br />
Zur Beantwortung brauchen wir Konzepte/Hilfsmittel aus der Funktionentheorie !<br />
Theorem 4.4.14 (Konsistenzfehlerabschätzung für abgeschnittene modifizierte Gleichungen).<br />
Sei Ψ h die diskrete Evolution eines zu ẏ = f(y) konsistenten (partitionierten) Runge-Kutta-<br />
Einschrittverfahrens. Unter der Analytizitätsvoraussetzung gibt es für jedes Kompaktum K ⊂ D<br />
Konstanten C 1 ,C 2 > 0 und ein h 0 ∈]0, ∞] so, dass<br />
∥<br />
∥Ψ h y − ˜Φ h h,ly∥ ≤ C 1 h(C 2 (l + 1)h) l+1 ∀y ∈ K, ∀l ∈ N , ∀|h| ≤ h 0 . (4.4.30)<br />
Analytizitätsvoraussetzung<br />
für jedes Kompaktum K ⊂ D gibt es ein R = R(K) > 0, so dass f(y) in jedem y ∈ K in<br />
jeder Komponente von y eine Potenzreihenentwicklung mit Konvergenzradius > R besitzt.<br />
⇔ f ist holomorph in D<br />
✫<br />
Hilfsmittel bei Beweis: Differentialgleichung in C → [27, Kap. I, §8]<br />
✬<br />
Theorem 4.4.15 (Existenz- und Eindeutigkeitssatz für Dgl. in C).<br />
Ist f : D ⊂ C ↦→ C in einer Umgebung B ρ (z 0 ) := {z ∈ C : |z − z 0 | < ρ} ⊂ D von<br />
z 0 ∈ D holomorph und |f(z)| ≤ M für alle z ∈ B ρ (z 0 ), dann existiert genau eine auf B ρ/M (0)<br />
holomorphe Lösung y des Anfangswertproblems<br />
✪<br />
✩<br />
✎<br />
Erklärung: Potenzreihenentwicklung um y = (y 1 ,...,y d ) T in der j. Komponente<br />
∞∑<br />
f(y 1 , . ..,y j−1 , y,y j+1 , ...,y d ) = a k (y)(y − y j ) k für |y − y j | < R .<br />
k=0<br />
✫<br />
Notation:<br />
y ′ (z) = f(y(z)) ∀z ∈ B ρ/M (0) , y(0) = z 0 .<br />
′ ˆ= komplexe Differentiation<br />
✪<br />
Beispiel 4.4.22 (Analytizitätsvoraussetzung für Hamiltonsche Differentialgleichungen). p. 410<br />
4.4<br />
4.4<br />
p. 412
✬<br />
Lemma 4.4.16. Ist f holormph in einer Umgebung von B ρ (0), |f(z)| ≤ M für alle z ∈ B ρ (0)<br />
und f(0) = · · · = f (p) (0) = 0, p ∈ N 0 , dann gilt<br />
✫<br />
Beweis. Auf B ρ (0):<br />
|f(z)| ≤ M|z| p+1 ρ −(p+1) ∀z ∈ B ρ (0) .<br />
konvergente Potenzreihenentwicklung<br />
∞<br />
f(z) = z p+1 ∑<br />
a j z j<br />
j=0<br />
} {{ }<br />
=:g(z)<br />
, |g(z)| ≤ M für |z| = ρ .<br />
ρp+1 g holomorph auf B ρ (0) ⇒ |g| nimmt Maximum auf Rand |z| = ρ an (Maximumprinzip). ✷<br />
✩<br />
✪<br />
Im Folgenden: betrachte komplexe “Zeitschrittweiten” h ∈ C, 0 < α < 1 fest gewählt.<br />
Aus der Abschätzung für Wegintegrale im Komplexen<br />
∫ M := max |f(z)| ⇒ z∈B R (D) |Φh h<br />
z − z| =<br />
f(Φ τ ) dτ<br />
∣ 0 ∣ ≤ M|h| ,<br />
Schranke für |h|:<br />
⇒ |Ψ h z − z| = |hf(z)| ≤ M|h| .<br />
Wenn z ∈ B αR (D) & |h| ≤ (1−α) R M , 0 ≤ α < 1<br />
dann bleibt die Trajektorie ξ ↦→ Φ ξh z, 0 ≤ ξ ≤ 1,<br />
in B R (D) !<br />
∀z ∈ B αR (D)<br />
|h| klein.<br />
(4.4.31)<br />
D<br />
αR<br />
z<br />
Φ h z Fig. 161<br />
Blosse Beschränktheit auf einer Nullumgebung einer holomorphen Funktion f mit |f(z)| =<br />
O(|z| p+1 ) genügt bereits, um das Abfallverhalten für z → 0 genau zu charakterisieren!<br />
⇒<br />
(1 − α)R<br />
|h| ≤ h 1 :=<br />
M<br />
(<br />
(1 − α)R<br />
|h| ≤ ⇒<br />
M<br />
⇒ |Φh y − y| ≤ (1 − α)R ,<br />
|Ψ h ∀y ∈ B αR (D)<br />
y − y| ≤ (1 − α)R .<br />
)<br />
|Φ h y − Ψ h y| ≤ 2(1 − α)R ∀y ∈ B αR (D) . (4.4.32)<br />
Beweis von Thm. 4.4.14 ☞ für skalaren Fall d = 1, ẏ = f(y), D =]a,b[⊂ R Intervall,<br />
4.4<br />
☞ für explizites Euler-Verfahren (1.4.2): Ψ h y = y + hf(y) p. 413<br />
Anwendung von Lemma 4.4.16 auf g(h) = Φ h y − Ψ h y:<br />
g holomorph in B (1−α)R/M (0)<br />
4.4<br />
p. 415<br />
(Beweis nach S. Reich 1999, siehe [25, Thm. 2])<br />
Annahme:<br />
f holomorph in Umgebung von<br />
B R (D) := {z ∈ C: ∃x ∈ D : |z − x| ≤ R}<br />
Ziel, vgl. (4.4.30):<br />
Abschätzung des Konsistenzfehlers ˜Φ h h,l (y) − Ψh (y) für modifizierte<br />
Gleichungen der Ordnung l + 1 (→ Def. 4.4.12)<br />
⇕ ← (4.4.23)<br />
Abschätzung der Modifikatorfunktionen ∆f l !<br />
D<br />
R<br />
Fig. 160<br />
g beschränkt durch 2(1 − α)R auf B (1−α)R/M (0)<br />
⇒<br />
( )<br />
|Φ h y − Ψ h y| ≤ 2(1 − α)R|h| 2 (1 − α)R −2<br />
M<br />
( )<br />
≤ 2M|h| 2 M<br />
∀y ∈ B<br />
(1 − α)R αR (D) ,<br />
(4.4.33)<br />
da g(h) = O(h 2 ) (Euler-Verfahren Konsistenzordnung 1), so dass g(0) = g ′ (0) = 0.<br />
∣ (4.4.25)<br />
⇒ |∆f 1 (y)| =<br />
∣ lim Φ h y − Ψ h y ∣∣∣∣ ( )<br />
(4.4.33) M<br />
h→0 h 2 ≤ 2M<br />
∀y ∈ B<br />
(1 − α)R αR (D) . (4.4.34)<br />
Wir haben nun gesehen, wie man unter der Analytizitätsannahme an die rechte Seite f eine<br />
Abschätzung für die erste Modifikatorfunktion erhalten kann. Benötigt wird eine Schranke für f in<br />
einer kompakten Umgebung B R (D) ⊂ C.<br />
Schritt I: Abschätzung für Modifikatorfunktion ∆f 1<br />
(auch zur Demonstration der Technik)<br />
Die rekursive Konstruktion der Modifikatorfunktionen gemäss (4.4.25) legt nun folgendes Vorgehen<br />
nahe:<br />
! Interpretation von ẏ = f(y) als Differentialgleichung in C → Thm. 4.4.15 :<br />
f holomorph ⇒ Lösungen t ↦→ y(t) analytisch (in Umgebung von 0) ⇒ fortsetzbar nach C<br />
⇒ Evolution Φ t : B R (D) ↦→ C holomorph (für hinreichend kleines |t|)<br />
4.4<br />
p. 414<br />
➀ Unter Verwendung von Abschätzungen für die Modifikatorfunktionen ∆f j , 1 ≤ j ≤ l, leite eine<br />
Abschätzung für die rechte Seite ˜f h,l der modifizierten Gleichung (4.4.26) aus Lemma 4.4.13 her.<br />
Ebenso wie alle Modifikatorfunktionen wird auch ˜f h,l analytisch in einer Umgebung von D sein.<br />
4.4<br />
p. 416
➁ Benutze die Schranke für ˜f h,l , um mit gleichen Techniken wie oben für ∆f 1 die nächste Modifikatorfunktion<br />
∆f l+1 abzuschätzen.<br />
➂ Mache weiter mit ➀<br />
Erinnerung an unser Ziel (4.4.35) für ”<br />
l ← l + 1”. Wegen<br />
müssen wir also zeigen:<br />
∆f l+1 (y) = − lim h→0<br />
˜Φ h h,l y − Ψh y<br />
h l+2 , (4.4.25)<br />
Rekursive Abschätzung ←→ Induktionsbeweis<br />
Herausforderung: Formulierung einer geeigneten Induktionsannahme, vgl. (4.4.34).<br />
(<br />
|˜Φ h h,l y − Ψh y| ≤ |h| l+2 c(l + 1)M<br />
) l+1|h|<br />
bM<br />
bMh<br />
(1 − α)R<br />
l h −(l+2)<br />
l<br />
} {{ }<br />
∀y ∈ B αR (D) (4.4.37)<br />
=h −1<br />
l !<br />
Beachte: (4.4.37) ⇒ Behauptung des Theorems mit C 1 = bM, C 2 = cM<br />
(1−α)R !<br />
Schritt II. Induktionsbeweis: Induktionsannahme: Es gibt l-unabhängige b > 0, c > 0, so dass<br />
( ) clM l<br />
∀l ∈ N: max |∆f l(y)| ≤ bM<br />
∀y ∈ B<br />
y∈B αR (D) (1 − α)R αR (D) , ∀0 ≤ α < 1 . (4.4.35)<br />
Beachte: per constructionem, Lemma 4.4.13: ˜Φh h,l y − Ψ h y = O(h l+2 ) für h → 0<br />
Lemma 4.4.16 ⇒ Da h ↦→ ˜Φ h h,l y − Ψh y analytisch, genügt es zu zeigen<br />
Die Konstanten b,c werden dann später geeignet festgelegt.<br />
|˜Φ h h,l y − Ψh y| ≤ h l bM ∀h ∈ B hl (0) , ∀y ∈ B αR (D) . (4.4.38)<br />
Dann Dreiecksungleichung wie in (4.4.32) & Abschätzung analog zu (4.4.31):<br />
Induktionsbeginn “l = 0” ⇔ (4.4.34)<br />
4.4<br />
p. 417<br />
|˜Φ h h,ly − y| ≤ |h| max | ˜f h,l (y)| ∀y ∈ B αR (D), |h| hinreichend klein”. (4.4.39)<br />
y∈B α ∗ R (D) ”<br />
4.4<br />
p. 419<br />
Induktionsschritt “l ⇒ l + 1”: (0 < α < 1 fixiert!)<br />
Was brauchen wir ?<br />
(|Ψ h y − y| ≤ M|h| wie oben)<br />
| ˜f h,l (y)| ≤|f(y)| + |h||∆f 1 (y)| + |h| 2 |∆f 2 (y)| + · · · + |h| l |∆f l (y)|<br />
2M<br />
l∑<br />
( )<br />
≤M + |h|<br />
(1 − α)R + bM |h| j jcM j<br />
∀y ∈ B<br />
, αR (D) ,<br />
(1 − α)R ∀0 < α < 1 .<br />
j=2<br />
aus (4.4.34) nach Induktionsannahme (4.4.35)<br />
? Nötig: Schranke für | ˜f h,l (y)| in einer Umgebung von B αR (D)<br />
max<br />
y∈B α ∗ R (D) | ˜f h,l (y)| ≤ (b − 1)M,<br />
h l · max | ˜f h,l (y)| ≤ δ(1 − α)R, damit die Trajektorie z ↦→ ˜Φ z<br />
y∈B<br />
h,l y in B α ∗ R(D) bleibt, wenn<br />
α ∗ R<br />
|z| ≤ h l (Beachte: B αR (D) ⊂ B α ∗ R(D)).<br />
Idee:<br />
⇒<br />
∀α” in (4.4.35) ➣ nutze Freiheit in der Wahl von α !<br />
”<br />
α ∗ := α + δ(1 − α) ∈]δ, 1[ ⇒ 1 − α ∗ = (1 − α)(1 − δ) , α ∗ > α .<br />
max | ˜f 2M<br />
l∑<br />
(<br />
h,l (y)| ≤ M + |h|<br />
y∈B α ∗ R (D) (1 − α)(1 − δ)R + bM j=2<br />
Versuch: Vereinfachung durch Beschränkung von |h|: |h| ≤ h l :=<br />
⇒<br />
max | ˜f<br />
(<br />
h,l (y)| ≤ M 1 +<br />
y∈B α ∗ R (D)<br />
2<br />
l∑<br />
(<br />
c(l + 1)(1 − δ) + b<br />
j=2<br />
jcM|h|<br />
(1 − α)(1 − δ)R<br />
j<br />
(l + 1)(1 − δ)<br />
(1 − α)R<br />
(l + 1)cM<br />
) j<br />
.<br />
) j)<br />
. (4.4.36)<br />
4.4<br />
p. 418<br />
Dazu müssen wir die Parameter in (4.4.36) geeignet wählen!<br />
Wir sind ”<br />
frei” in der Wahl von δ ∈]0, 1[ ! ➣ δ := b − 1<br />
c<br />
(4.4.36)<br />
⇒<br />
1<br />
·<br />
l + 1<br />
⇒<br />
h l (b − 1)M = δ(1 −α)R<br />
max | ˜f<br />
(<br />
2<br />
l∑<br />
( )<br />
h,l (y)| ≤ M 1 +<br />
y∈B α ∗ R (D) c(l + 1) − b + 1 + b jc j)<br />
.<br />
c(l + 1) − b + 1<br />
j=2<br />
} {{ }<br />
=:Γ(b,c,l)<br />
Frage: Gibt es b, c > 0 (b − 1 < 2c) so, dass max l∈N ? 4.4<br />
p. 420
1<br />
1<br />
0<br />
Für Beweis von Thm. 4.4.14:<br />
Γ(b, c, ell)<br />
22<br />
20<br />
18<br />
16<br />
14<br />
12<br />
Γ(b, c,l) := 1 +<br />
Verhalten von<br />
2<br />
l∑<br />
c(l + 1) − b + 1 + b<br />
b=20, c=300<br />
b=20, c=100<br />
b=10,c=10<br />
10<br />
0 10 20 30 40 50 60 70 80 90 100<br />
l<br />
Fig. 162<br />
c<br />
400<br />
350<br />
300<br />
250<br />
200<br />
150<br />
100<br />
50<br />
j=2<br />
(<br />
)<br />
jc j<br />
:<br />
c(l + 1) − b + 1<br />
2 2 2 2<br />
1<br />
5 10 15 20 25 30<br />
b<br />
Fig. 163<br />
0<br />
Γ(b, c, l) < b − 1<br />
1<br />
−1<br />
0<br />
Verhalten der Schranke aus Thm. 4.4.14<br />
Mögliche Divergenz der asymptotischen Entwicklung<br />
(4.4.24) manifestiert sich in C 1 h(C 2 (l +<br />
1)h) l+1 → ∞ für l → ∞.<br />
Optimaler Abbruchindex:<br />
[ ] 1<br />
l opt ≈ . (4.4.42)<br />
C 2 eh<br />
✄<br />
((l+1)C 2<br />
h) (l+1)<br />
10 −2<br />
10 −4<br />
10 −6<br />
10 −8<br />
10 −10<br />
10 −12<br />
10 −14<br />
10 −16<br />
C 2<br />
h = 0.1<br />
10 −18 C h = 0.05<br />
2<br />
C 2<br />
h = 0.01<br />
10 −20<br />
10 0 10 1 10 2<br />
10 0 l<br />
Fig. 164<br />
Linker Plot: l ↦→ Γ(b, c,l) ➣ eindeutiges Maximum für kleines l<br />
Rechter Plot: Konturen von (b,c) ↦→ max l Γ(b,c,l) − b + 1<br />
4.4<br />
p. 421<br />
4.4<br />
p. 423<br />
Aus den Plots lesen wir ab: mögliche Wahl c = 300, b = 20 ∀l.<br />
10 −2<br />
40<br />
35<br />
10 0 1/C 2<br />
h<br />
Dann weiter wie zuvor skizziert, siehe (4.4.38), (4.4.39):<br />
⇒ |˜Φ h h,ly − y| ≤ M(b − 1)|h| ,<br />
⇒<br />
|˜Φ h h,l y − Ψh y| ≤ bM|h|<br />
für |h| ≤ h l , ∀y ∈ B αR (D) , (4.4.40)<br />
Beachte: ˜Φ h h,l y − Ψh y = O(h l+2 ) nach Konstruktion der Modifikatorfunktionen und holomorph in<br />
Umgebung von 0. Mit Formel für h l , o.B.d.A. 0 < h l < 1,<br />
optimal consistency error bound<br />
10 −4<br />
10 −6<br />
10 −8<br />
10 −10<br />
10 −12<br />
10 −14<br />
optimal truncation index<br />
30<br />
25<br />
20<br />
15<br />
10<br />
5<br />
Lemma 4.4.16<br />
⇒<br />
|˜Φ h h,l y − Ψh y| ≤ bM<br />
Mit (4.4.25) folgt die Induktionsbehauptung für l + 1.<br />
( ) |h| l+2 ( )<br />
≤ bM|h| l+2 c(l + 1)M l+1<br />
. (4.4.41)<br />
h l (1 − α)R<br />
10 −16<br />
10 20 30 40 50 60 70 80 90 100<br />
Fig. 165<br />
✎ Notation: [x] ˆ= ganzzahliger Anteil von x > 0<br />
0<br />
10 20 30 40 50 60 70 80 90 100<br />
1/C 2<br />
h<br />
Fig. 166<br />
4.4<br />
Behauptung des Theorems mit C 1 = bM, C 2 = cM R (Fall α = 0) folgt ebenfalls aus (4.4.41) ✷ p. 422<br />
∥<br />
∥Ψ h y − ˜Φ h h,l opt<br />
y∥ ≤ C 1 h exp(−l opt ) ≤ C 1 h exp(−γ/h) , γ := 1<br />
C 2 e > 0 . (4.4.43)<br />
4.4<br />
Schranke exponentiell klein für h → 0, vgl. (4.4.28) p. 424<br />
(4.4.42) ergibt sich aus Kurvendiskussion von x ↦→ (ax) x , x > 0.
Beachte: (4.4.43) ↔ Konsistenzfehlerabschätzung (2.1.6)<br />
T < γ<br />
Lh ⇒<br />
“exponentiell kleiner” Fehler des Einschrittverfahrens<br />
bzgl. der optimal abgeschnittenen modifizierten Gleichung<br />
Nun leiten wir eine Abschätzung für die Abweichung der numerischen Lösung von der<br />
Lösungstrajektorie der optimal abgeschnittenen modifizierten Gleichung ˙ỹ = ˜f h,lopt (ỹ) her,<br />
vgl. (4.4.27).<br />
Nächster Punkt: Entsteht die optimal abgeschnittene modifizierte Gleichung wirklich durch eine ”<br />
kleine”<br />
Störung der ursprünglichen ODE?<br />
Betrachte: AWP ẏ = f(y) y(0) = y 0 ∈ D auf [0,T], Endzeitpunkt T ∈ J(y 0 )<br />
✬<br />
Lemma 4.4.18 (Störungsabschätzung für optimal abgeschnittene modifizierten Gleichung).<br />
Neben den Voraussetzungen von Thm. 4.4.14 (Analytizitätsannahme) gibt es für jedes Kompaktum<br />
K ⊂ D eine von (hinreichend kleinem) h > 0 unabhängige Konstante C > 0 so, dass<br />
✩<br />
✎ Notationen: ỹ ˆ= Lösung des AWP ˙ỹ = ˜f h,lopt (ỹ), ỹ(0) = y 0<br />
(l opt aus (4.4.42) mit C 2 aus Thm. 4.4.14 bzgl. K)<br />
(<br />
)<br />
yk<br />
((Ψ h<br />
)k := h ) k y 0<br />
k , k ∈ {0, . ..,[ T/h]}: Gitterfunktion erzeugt durch das<br />
Einschrittverfahren mit Schrittweite h > 0 (numerische Näherungslösung)<br />
✫<br />
Beweis.<br />
∥<br />
∥˜f h,l (y) − f(y) ∥ ≤ Ch p ∀y ∈ K , ∀l ∈ N .<br />
Ergänzung zum Beweis von Thm. 4.4.14, siehe die dort gemachten Annahmen und verwendeten<br />
Notationen. Ausführungen für das explizite Euler-Verfahren, d.h. p = 1.<br />
✪<br />
✬<br />
✩<br />
4.4<br />
p. 425<br />
4.4<br />
p. 427<br />
Lemma 4.4.17 (Konvergenz der optimal abgeschnittenen modifizierten Gleichung).<br />
Es gebe eine kompakte Umgebung K ⊂ D von y 0 , so dass yk h ∈ K für alle k ∈ N,<br />
wenn h hinreichend klein.<br />
Es gelten die Voraussetzungen von Thm. 4.4.14 (Analytizitätsannahme).<br />
✫<br />
Die diskrete Evolution zum ESV besitze die Darstellung Ψ h y = y + hψ(y,h) mit einer<br />
auf K gleichmässig Lipschitz-stetigen Inkrementfunktion ψ, d.h., vgl. 2.1.10,<br />
∃L > 0: ‖ψ(z, h) − ψ(w,h)‖ ≤ L ‖z − w‖<br />
∀z,w ∈ K, |h| hinreichend klein.<br />
Dann gibt es h 0 > 0 und von h 0 unabhängige Konstanten C > 0, γ > 0 so, dass<br />
∥<br />
∥ỹ(hk) − yk<br />
h ∥ ≤ C(exp(hkL) − 1) exp(−γ/h) ∀k ∈ {0,...,[T/h]} , ∀0 < h < h 0 .<br />
Beweis.<br />
Siehe (4.4.27) und die dortigen Bemerkungen:<br />
✪<br />
Aus der Definition von ˜f h,l , → Lemma 4.4.13,<br />
˜f h,l (y) − f(y) =<br />
l∑<br />
h j ∆f j (y) .<br />
Idee: Verwende Abschätzung der Modifiktorfunktionen ∆f j aus dem Beweis von Thm. 4.4.14<br />
Konkret: aus (4.4.35) mit α = 0<br />
⎛<br />
⎞<br />
| ˜f h,l (y) − f(y)| ≤ |h| ⎝ 2M l∑<br />
( )<br />
R + bM |h| j−1 jcM j<br />
⎠ .<br />
R<br />
j=2<br />
R<br />
|h| ≤<br />
(l + 1)2cM ⇒ | ˜f<br />
( 2M<br />
h,l (y) − f(y)| ≤ |h|<br />
R + 2bcM2 l∑<br />
( )<br />
2 −j j + 1 j )<br />
j .<br />
R l + 1<br />
j=2<br />
} {{ }<br />
beschränkt<br />
j=1<br />
Der Beweis von Thm. 2.1.10 kann fast unverändert übertragen werden, nachdem (2.1.9) durch<br />
(4.4.43) ersetzt worden ist. Siehe auch Sect. 2.1.4 für die Beweistechnik. ✷<br />
4.4<br />
p. 426<br />
4.4<br />
p. 428
0.8<br />
Beispiel 4.4.24 (Modifizierte Gleichung für symplektisches Euler-Verfahren). → [22, Sect. 5.1.2]<br />
Summe<br />
l ↦→<br />
l∑<br />
2 −j j<br />
j=2<br />
✄<br />
( ) j + 1 j<br />
(4.4.44)<br />
l + 1<br />
Summe (4.4.44)<br />
0.7<br />
0.6<br />
0.5<br />
0.4<br />
0.3<br />
0.2<br />
0.1<br />
0<br />
0 10 20 30 40 50 60 70 80 90 100<br />
l<br />
Fig. 167<br />
Also: | ˜f h,l (y) − f(y)| ≤ Ch für kleines h, ∀y ∈ K, mit C > 0 unabhängig von l. ✷<br />
Das Vektorfeld der optimal abgeschnittenen modifizierten Gleichung ist “O(h p )-nah” zu f<br />
Bemerkung 4.4.23 (Schrittweitenbedingungen für ”<br />
Langzeitintegration”).<br />
Betrachte AWP<br />
ẏ = f(y), y(0) = y 0 , auf [0,T] ⊂ J(y 0 ), f holomorph.<br />
ESV y 1 = Ψ h y 0 der Konsistenzordnung p ∈ N. p. 429<br />
Schrittweitenbedingung für genaue numerische Lösung (‖y(hk) − y k ‖ klein) auf [0, T]<br />
Thm. 2.1.10 ⇒ h p exp(LT) ≪ 1 ⇒ h = O(exp(−T/p)) .<br />
Schrittweitenbedingung für akzeptable (∗) numerische Lösung (‖ỹ(hk) − y k ‖ klein) auf [0, T]<br />
Lemmas 4.4.17, 4.4.18 ⇒ h < γ<br />
LT ⇒ h = O(T −1 ) .<br />
(∗) ”<br />
generisch akzeptabel” bzgl. allgemeiner additiver Störungen von f. (Schärfer: strukturerhaltend<br />
akzeptabel, siehe Anfang von Sect. 4.4.3)<br />
△<br />
4.4<br />
Separierte Hamilton-Funktion mit Potential U : R n ↦→ R, vgl. (1.2.16)<br />
Hamiltonsche Differentialgleichung:<br />
H(p,q) := 1 2 ‖p‖2 + U(q) , p,q ∈ R n .<br />
ṗ = −grad U(q) , ˙q = p . (4.4.45)<br />
➀ Explizites Euler-Verfahren für (4.4.45), Schrittweite h > 0 (Konsistenzordnung 1):<br />
p 1 = p 0 − hgradU(q 0 ) , q 1 = q 0 + hp 0 .<br />
Taylorentwicklung & (4.4.45) & (4.4.23) ➣ erste Modifikatorfunktion<br />
p(h) = p 0 + hṗ(0) + 1 2 h2¨p(0) + O(h 3 )<br />
= p 0 − hgradU(q 0 ) − 1 2 h2 ∇ 2 U(q 0 )p 0 + O(h 3 ) ,<br />
q(h) = q 0 h ˙q(0) + 1 2 h2¨q(0) + O(h 3 )<br />
Ausdruck für den Konsistenzfehler:<br />
= q 0 + hp 0 − 1 2 h2 grad U(q 0 ) + O(h 3 ) .<br />
( )<br />
p(h) − p1<br />
τ(y 0 , h) = =<br />
q(h) − q 1<br />
(4.4.25)<br />
⇒ ∆f 1 (p,q) = 1 2<br />
(<br />
− 1<br />
2 h 2 ∇ 2 )<br />
U(q 0 )p 0<br />
−2 1 + O(h 3 ) .<br />
h2 grad U(q 0 )<br />
(<br />
∇ 2 )<br />
U(q)p<br />
≠ J −1 grad ˜H(y) .<br />
gradU(q)<br />
➁ Symplektisches Euler-Verfahren (4.4.6), Schrittweite h > 0 (Konsistenzordnung 1):<br />
p 1 = p 0 − hgradU(q 1 ) , q 1 = q 0 + hp 0 .<br />
Taylorentwicklung & (4.4.45) & (4.4.23) ➣ Modifikatorfunktion<br />
Im Unterschied zu oben, unter Verwendung von (4.4.6):<br />
q(h) = q 0 + hp 0 − 1 2 h2 grad U(q 0 ) + O(h 3 )<br />
= q 0 + hp 1 + 1 2 h2 gradU(q 0 ) + O(h 3 )<br />
4.4<br />
p. 431<br />
4.4.5 Strukturerhaltende modifizierte Gleichungen<br />
Gemäss Bem. 4.4.16 müssen wir zu zeigen, dass die Vektorfelder ˜f h,l der abgeschnittenen modifizierten<br />
Gleichungen strukturelle Eigenschaften (f ∈ V von Bem. 4.4.6) von f erben. Fokus ist auf<br />
Hamiltonschen Differentialgleichungen (→ Def. 1.2.2) ↔ Symplektizität (→ Def. 4.4.5)<br />
4.4<br />
p. 430<br />
∆f 1 (p,q) = 1 2<br />
(<br />
∇ 2 )<br />
U(q)p<br />
−grad U(q)<br />
⎛<br />
= ⎝ −∂ ˜H ⎞<br />
1<br />
∂q (p,q)<br />
∂ ˜H ⎠ , ˜H 1 (p,q) = − 1<br />
1<br />
∂p (p,q) 2 p · gradU(q) .<br />
⇒ Modifizierte Gleichung zweiter Ordnung ist Hamiltonsche Differentialgleichung !<br />
4.4<br />
p. 432
Konkret: mathematisches Pendel → Bsp. 1.2.7<br />
n = 1 , H(p,q) = 1 2 p2 − cosq .<br />
“exakte” Trajektorien ✄<br />
Trajektorien zu modifizierten Gleichungen 2. Ordnung<br />
p = velocity<br />
3<br />
2<br />
1<br />
0<br />
−1<br />
−2<br />
Explicit Euler, h = 0.000000, trajektories for modified equation<br />
✬<br />
Theorem 4.4.19 (Symplektizität der Modifikatorfunktionen).<br />
Sei Ψ h die diskrete Evolution eines symplektischen Einschrittverfahrens (→ Def. 4.4.10) für<br />
die Hamiltonsche Differentialgleichung ẏ = J −1 · grad H(y) mit glatter Hamilton-Funktion<br />
H : D ⊂ R 2n ↦→ R, D sternförmig.<br />
Dann sind die abgeschnittenen modifizierten Gleichungen ˙ỹ = ˜f h,l (ỹ) aus Lemma 4.4.13 ebenfalls<br />
Hamiltonsch für alle l ∈ N und alle (hinreichend kleinen) h > 0.<br />
✫<br />
Beweis. (von Thm. 4.4.19)<br />
Idee: Induktion nach l<br />
✩<br />
✪<br />
−3<br />
−6 −4 −2 0 2 4 6<br />
q = α<br />
Fig. 168<br />
Induktionsbeginn: Für l ≤ p: ˜fh,l (y) = f(y) = J −1 · gradH(y) ✔<br />
“l → l + 1”: ˜Φt ˆ= Evolutionsoperator zu ˙ỹ = ˜fh,l (ỹ) = J −1 grad ˜H l (y) (Induktionsannahme !)<br />
⇒ Für festes t: ˜Φt : D ↦→ R 2n is symplektisch (→ Def. 4.4.5)<br />
4.4<br />
p. 433<br />
Nach (4.4.21) & (4.4.23), Lemma 4.4.13 für h → 0<br />
˜Φ h y 0 − Ψ h y 0 = −∆f l+1 (y 0 )h l+2 + O(h l+3 ) ∀y 0 . (4.4.46)<br />
(D y˜Φh )(y0 ) − (D y Ψ h )(y 0 ) = −(D y ∆f l+1 )(y)h l+2 + O(h l+3 ) . (4.4.47)<br />
4.4<br />
p. 435<br />
3<br />
Explicit Euler, h = 0.500000, trajektories for modified equation<br />
3<br />
Symplectic Euler, h = 0.500000, trajektories for modified equation<br />
˜Φ h , Ψ h = symplektische Abbildungen (→ Def. 4.4.5, Argument y 0 weggelassen)<br />
⇒<br />
p = velocity<br />
2<br />
1<br />
0<br />
−1<br />
p = velocity<br />
2<br />
1<br />
0<br />
−1<br />
(D y ˜Φh ) T JD y ˜Φh<br />
} {{ }<br />
=J<br />
= (D y Ψ h ) T JD y Ψ h<br />
} {{ }<br />
=J<br />
+ h l+2( (D y Ψ h ) T JD y ∆f l+1 + (D y ∆f l+1 ) T JD y Ψ h) + O(h l+3 ) .<br />
⇒ 0 = (D y Ψ h ) T JD y ∆f l+1 + (D y ∆f l+1 ) T JD y Ψ h + O(h) .<br />
Für konsistentes ESV, siehe Lemma 2.1.6: D y Ψ h = I + O(h) für h → 0.<br />
−2<br />
−2<br />
h→0<br />
⇒ 0 = JD y ∆f l+1 + (D y ∆f l+1 ) T J ⇒ D y (J∆f l+1 ) = (D y (J∆f l+1 )) T .<br />
−3<br />
−6 −4 −2 0 2 4 6<br />
q = α<br />
Fig. 169<br />
−3<br />
−6 −4 −2 0 2 4 6<br />
q = α<br />
Fig. 170<br />
Anwendung von Lemma 4.4.9 (Integrabilitätslemma) auf J∆f l+1 .<br />
✷<br />
Expl. Euler, h = 0.5<br />
Synplekt. Euler, h = 0.5<br />
✸<br />
Symplektische Integratoren liefern strukturerhaltende akzeptable (∗) diskrete Evolutionen für<br />
(glatte) konservative mechanische Systeme.<br />
4.4<br />
p. 434<br />
(∗): (exponentiell genaue) Lösung einer Evolution mit “leicht gestörter” (nämlich O(h p ), siehe Lemma<br />
4.4.18) Hamilton-Funktion ➢ Rückwärtsanalyse → Sect. 4.4.3<br />
4.4<br />
p. 436
Erklärung der “Langzeitenergieerhaltung” symplektischer Integratoren durch Rückwärtsanalyse:<br />
☞ Lösung des ESV (Konsistenzordnung p) ist “exponentiell genaue” (→ Lemma 4.4.17) Approximation<br />
der Lösung einer (optimal abgeschnittenen) modifizierten Gleichung<br />
Diese ist eine Hamiltonsche Differentialgleichung (→ Def. 1.2.2) mit einer (bzgl. H) um<br />
O(h p ) gestörten Hamilton-Funktion ˜H(y) (→ Thm. 4.4.18).<br />
✬<br />
Theorem 4.4.20 (Langzeitenergieerhaltung bei symplektischer Integration).<br />
Für die Hamiltonsche ODE ẏ = J −1 gradH(y) (→ Def. 1.2.2) und ein dazu von Ordnung<br />
p konsistentes symplektisches Einschrittverfahren (→ Def. 4.4.10) seien die Voraussetzungen<br />
von Thm. 4.4.14 erfüllt.<br />
Für hinreichend kleine (uniforme !) Schrittweiten h gelte (Ψ h ) k y ∈ K für alle k ∈ N 0 und<br />
y ∈ K 0 , wobei K, K 0 ⊂ D kompakt. Dann gibt es C > 0 mit<br />
✩<br />
Details:<br />
|H((Ψ h ) k y 0 ) − H(y 0 )| ≤ C(hk exp(−γ/h) + h p ) ∀h hinreichend klein, ∀y 0 ∈ K 0 .<br />
Annahmen:<br />
symplektisches ESV der Konsistenzordnung p<br />
Schrittweite h < h ∗ ⇒ numerischen Lösungen (y k ) k ⊂ K ⊂ D, K kompakte<br />
Teilmenge K ⊂ D des Zustandsraums.<br />
K ist sternförmig (darauf kann verzichtet werden [11, Sect. XI.3.2])<br />
f erfüllt Analytizitätsannahme bzgl. K<br />
✫<br />
T exp(O(h −1 )) =⇒ H(y k ) − H(y 0 ) = O(h p )<br />
Sect. 4.4.3”: Methode der Rückwärtsanalyse erfordert uniforme Zeitschrittweite.<br />
✪<br />
✎ Notation: (t,y) ↦→ ˜Φ t hy ˆ= Evolutionsoperator zur (optimal abgeschnittenen)<br />
modifizierten Gleichung ˙ỹ = ˜f h,lopt (ỹ).<br />
∥<br />
Abschätzung (4.4.43) ⇒ ∥Ψ h y − ˜Φ h hy∥ ≤ Ch exp(−γ/h) ∀y ∈ K, ∀h < h ∗ .<br />
Thm. 4.4.19 ⇒ ˜f h,lopt (y) = J −1 grad ˜H h (y) mit ˜Hh : K ↦→ R holomorph .<br />
4.4<br />
p. 437<br />
Eine bloss theoretische Einschänkung ?<br />
Beispiel 4.4.25 (Symplektische Integratoren und variable Schrittweite). Fortsetzung Bsp. 4.4.10<br />
Symplektisches Eulerverfahren (4.4.6) für (4.4.1) auf [0,T], T = 5000. Erratische variable Schrittweite<br />
4.4<br />
h i = 0.5(1 + 0.5(rand() − 0.5)), i = 1,...,10000, p(0) = 0, q(0) = 7π/6 p.<br />
439<br />
600<br />
250<br />
˜H h : K ↦→ R holomorph<br />
K kompakt<br />
⇒ ∃L > 0: | ˜H h (y) − ˜H h (z)| ≤ L ‖y − z‖ ∀y,z ∈ K .<br />
500<br />
200<br />
” Teleskopsummenargument”: da ˜H h (˜Φ t hy) = ˜H h (y) für alle t ∈ J(y), y ∈ K (Hamilton-Funktion<br />
ist Invariante einer Hamiltonschen ODE, siehe Lemma 1.2.3)<br />
| ˜H h (y k ) − ˜H<br />
k−1 ∑<br />
h (y 0 )| ≤ | ˜H h (y j+1 ) − ˜H<br />
k−1 ∑<br />
h (y j )| = | ˜H h (Ψ h y j ) − ˜H h (˜Φ h hy j )|<br />
j=0<br />
j=0<br />
k−1 ∑<br />
∥<br />
≤ L∥Ψ h y j − ˜Φ h ∥ k−1 ∥∥<br />
∑<br />
hy j ≤ CL h exp(−γ/h) ≤ CLhk exp(−γ/h) .<br />
j=0<br />
j=0<br />
Thm. 4.4.19 ⇒ ∃C > 0: max<br />
y∈K | ˜H h (y) − H(y)| ≤ Ch p ∀h < h ∗ .<br />
⇒ |H(y k ) − H(y 0 )| ≤ C(Lhk exp(−γ/h) + h p ) ∀h < h ∗ .<br />
LT h p exp(−γ/h) ➣ ”<br />
Energiefehler” der numerischen Lösung von der Grösse O(h p )<br />
Gesamtenergie<br />
400<br />
300<br />
200<br />
100<br />
0<br />
−100<br />
0 500 1000 1500 2000 2500 3000 3500 4000 4500 5000<br />
t<br />
Energiedrift bei variabler Schrittweite (Verfahren<br />
(4.4.6), links)<br />
Gesamtenergie<br />
150<br />
100<br />
50<br />
0<br />
0 500 1000 1500 2000 2500 3000 3500 4000 4500 5000<br />
t<br />
Energiedrift bei variabler Schrittweite (Verfahren<br />
(4.4.6), rechts)<br />
✸<br />
für ”<br />
exponentiell lange Zeit”<br />
4.5 Methoden für oszillatorische Differentialgleichungen [20]<br />
☞ Dies ist die Erklärung für die Vermutung aus Bsp. (4.4.11) !<br />
4.4<br />
p. 438<br />
4.5<br />
☞ p. 440
Prototyp: ÿ = −ω 2 y , y(0) = y 0 , ẏ(0) = v 0<br />
Ziel: Effiziente numerische Integration von (4.5.1)/(4.5.2) auch für ω ≫ 1 bzw. λ max (A) ≫ 1<br />
y(t) = α cos(ωt) + β sin(ωt) , α,β ∈ R<br />
Idee: ( wie bei exponentiellen Integratoren, siehe Sect. 3.7)<br />
Verallgemeinerung (skalar): ÿ = −ω 2 y + g(y) , y(0) = y 0 , ẏ(0) = v 0 , (4.5.1)<br />
Verwende analytische Lösungsdarstellung (4.5.4) zur numerischen Integration:<br />
mit Lipschitz-stetiger Störung g : R ↦→ R.<br />
Verallgemeinerung (vektoriell) ÿ = −Ay + g(y) , y(0) = y 0 , ẏ(0) = v 0 , (4.5.2)<br />
Bemerkung 4.5.1.<br />
(4.5.1)<br />
A ∈ R d,d symmetrisch positiv definit,<br />
v:=ẏ<br />
⇐⇒<br />
Lösung von (4.5.3) durch Variation der Konstanten:<br />
( )<br />
y(t)<br />
=<br />
v(t)<br />
(<br />
cos tω ω −1 )(<br />
sin tω y0<br />
−ω sintω costω<br />
g : R d ↦→ R d<br />
( ) ( ( ) ( )<br />
d y 0 1 y 0<br />
=<br />
dt v −ω 0) 2 + . (4.5.3)<br />
v g(y)<br />
v 0<br />
)<br />
+<br />
∫t<br />
0<br />
(<br />
ω −1 )<br />
sin(t − s)ω<br />
g(y(s)) ds (4.5.4)<br />
cos(t − s)ω<br />
Bemerkung 4.5.2. y(t) löst (4.5.1) & G ′ = g ➡ 1 2 |ẏ|2 + 1 2 ω2 y(t) − G(y(t)) ≡ const.<br />
” Energie” für ODE (4.5.1) △<br />
Beispiel 4.5.3 (Standardintegratoren für oszillatorische Differentialgleichung).<br />
△<br />
4.5<br />
p. 441<br />
g ≡ const. ,<br />
(4.5.5)<br />
y(t ± h) = cos(hω)y(t) ± sinhω<br />
ω ẏ(t) +<br />
±h ∫<br />
0<br />
sin(±h−s)ω<br />
ω · g(y(t + s)) ds (4.5.5)<br />
y(t + h) − 2 cos(hω)y(t) + y(t − h) = h 2 (<br />
sin( 1<br />
2 hω)<br />
1<br />
2 hω ) 2<br />
g . (4.5.6)<br />
➣ Gautschis Zweischrittverfahren (y h (t + h) aus y h (t),y h (t − h)) für (4.5.1)<br />
y h (t + h) − 2 cos(hω)y h (t) + y h (t − h) = h 2 (<br />
sin( 1<br />
2 hω)<br />
1<br />
2 hω ) 2<br />
g(y h (t)) . (4.5.7)<br />
Notwendig: Startschritt aus (4.5.4)<br />
Ableitungsnäherung:<br />
y h (h) = cos(hω)y 0 +<br />
sin hω<br />
ω<br />
Aus (4.5.5) für g ≡ const:<br />
v 0 + 1 2 h2 (<br />
sin( 1<br />
2 hω)<br />
1<br />
2 hω ) 2<br />
g(y 0 ) . (4.5.8)<br />
4.5<br />
p. 443<br />
Adaptives explizites RK-ESV (Sect. 2.6 für (4.5.1):<br />
y0=[1;0]; f=@(t,x) [0,1;-omegaˆ2,0]*x + 20*[0;sin(x(1))];<br />
options=odeset(’reltol’,1.0e-2,’abstol’,1.0e-5);<br />
[t,y]=ode45(f,[0,1],y0,options); ( ”<br />
Energie” ˆ= Invariante aus Bem. 4.5.2)<br />
sin hω<br />
y(t + h) − y(t − h) = 2h<br />
hω ẏ(t) ⇒ v h(t) = hω<br />
sin hω · yh(t + h) − y h (t − h)<br />
.<br />
2h<br />
(4.5.9)<br />
Bemerkung 4.5.4. Gautschi-Verfahren (4.5.7), (4.5.8) für vektorielles Problem (4.5.2) ?<br />
(<br />
sin( 1<br />
2 hω)<br />
800<br />
700<br />
0.45<br />
0.4<br />
Ersetze cos(hω) ↦→ coshA ,<br />
1<br />
2 hω ) 2<br />
↦→ 4(hA) −2 sin 2 ( 1 2 hA) . △<br />
#(Zeitschritte)<br />
600<br />
500<br />
400<br />
300<br />
200<br />
100<br />
Relativer Energiefehler fuer t=1<br />
0.35<br />
0.3<br />
0.25<br />
0.2<br />
0.15<br />
0.1<br />
0.05<br />
Beispiel 4.5.5 (Gautschis Zweischrittverfahren).<br />
Anfangswertproblem vom Typ (4.5.1) auf [0, 1]:<br />
ÿ = −ω 2 y + sin y , y(0) = 1 , ẏ(0) = 0 .<br />
0<br />
0 50 100 150 200 250<br />
ω Fig. 171<br />
0<br />
0 50 100 150 200 250<br />
ω Fig. 172<br />
ω ↑ ⇒ Oszillationen in y(t) ↑ ⇒ Anzahl Zeitschritte ↑<br />
✸<br />
4.5<br />
p. 442<br />
4.5<br />
p. 444
y<br />
1.5<br />
1<br />
0.5<br />
0<br />
−0.5<br />
−1<br />
Gautschi−Verfahren: h = 0.1000, ω = 25<br />
y(t)<br />
v(t)/ω<br />
y h<br />
(t)<br />
v h<br />
(t)/ω<br />
−1.5<br />
0 0.2 0.4 0.6 0.8 1<br />
t<br />
Fig. 173<br />
y<br />
1<br />
0.8<br />
0.6<br />
0.4<br />
0.2<br />
0<br />
−0.2<br />
−0.4<br />
−0.6<br />
−0.8<br />
Gautschi−Verfahren: h = 0.0333, ω = 25<br />
y(t)<br />
v(t)/ω<br />
y h<br />
(t)<br />
v h<br />
(t)/ω<br />
−1<br />
0 0.2 0.4 0.6 0.8 1<br />
t<br />
Fig. 174<br />
Fehler fuer t=1<br />
10 1 Gautschi−Verfahren: Konvergenz, ω = 25<br />
10 0<br />
10 −1<br />
10 −2<br />
10 −3<br />
10 −4<br />
|y h<br />
(1)−y(1)|<br />
|v (1)−v(1)|<br />
10 −5<br />
h<br />
Energiefehler<br />
O(h 2 )<br />
10 −6<br />
10 −3 10 −2 10 −1<br />
h<br />
Fig. 177<br />
Beobachtung:<br />
Alle Fehler ≈ O(h 2 )<br />
⇕<br />
Konvergenzordnung 2<br />
ω = 25: y h folgt (oszillatorischer Lösung), auch wenn h ≈ 2π ω<br />
Ziel erreicht ?<br />
Relativer Fehler in ”<br />
Energie” (→ Bem. 4.5.2) für t = 1:<br />
Fehler für fixes h in Abhängigkeit von ω:<br />
4.5<br />
p. 445<br />
4.5<br />
p. 447<br />
0.25<br />
Gautschi−Verfahren: h = 0.1000, ω = 25<br />
5<br />
Gautschi−Verfahren: h = 0.0333, ω = 25<br />
7<br />
6<br />
Gautschi−Verfahren: Konvergenz, h = 0.0500<br />
|y h<br />
(1)−y(1)|<br />
|v h<br />
(1)−v(1)|/ω<br />
Gautschi−Verfahren: Energiedrift, h = 0.0500<br />
10 4 Energiefehler fuer t=1<br />
10 2<br />
0.2<br />
4<br />
5<br />
10 0<br />
energy<br />
0.15<br />
0.1<br />
energy<br />
3<br />
2<br />
Fehler fuer t=1<br />
4<br />
3<br />
2<br />
Fehler fuer t=1<br />
10 −2<br />
10 −4<br />
10 −6<br />
0.05<br />
1<br />
1<br />
10 −8<br />
0<br />
0 0.2 0.4 0.6 0.8 1<br />
t<br />
Fig. 175<br />
6 x 10−3 t<br />
0<br />
0 0.2 0.4 0.6 0.8 1<br />
Fig. 176<br />
0<br />
0 50 100 150 200<br />
ω<br />
10 −10<br />
0 50 100 150 200<br />
ω<br />
Zeitschritt h = 0.1<br />
Zeitschritt h = 0.033<br />
h = 0.05: Was pasiert für ω ≈ 61, ω ≈ 123, ω ≈ 185 ? Instabilität ?<br />
4.5<br />
p. 446<br />
4.5<br />
p. 448
15<br />
Gautschi−Verfahren: Konvergenz, h = 0.0200<br />
|y h<br />
(1)−y(1)|<br />
|v h<br />
(1)−v(1)|/ω<br />
10 4 Gautschi−Verfahren: Energiedrift, h = 0.0200<br />
Energiefehler fuer t=1<br />
1<br />
0.8<br />
Fehler fuer t=1<br />
10<br />
5<br />
Fehler fuer t=1<br />
10 2<br />
10 0<br />
10 −2<br />
10 −4<br />
sinc(x)<br />
0.6<br />
0.4<br />
0.2<br />
0<br />
−0.2<br />
−0.4<br />
−0.6<br />
Die sinc-Funktion:<br />
sinc(x) := sin x<br />
x<br />
➤ Analytisch auf R<br />
➤ | sinc(x)| ≤ 1 mit globalem Maximum in x = 0<br />
−0.8<br />
0<br />
0 50 100 150 200<br />
ω<br />
➣<br />
10 −6<br />
0 50 100 150 200<br />
ω<br />
h-Abhängigkeit kritischer Frequenzen<br />
−1<br />
0 5 10 15 20<br />
x<br />
Analyse von (4.5.11): Ansatz y h (kh) = ξ k ↔ Charakteristische (quadratische) Gleichung<br />
∃ Lösungen y h (kh) von (4.5.11):<br />
lim y h(hk) = ±∞<br />
k→∞<br />
⇔<br />
∣<br />
∣2 cos(hω) + h 2 α sinc 2 ( 1 2 hω) ∣ ∣∣ > 2<br />
4.5<br />
p. 449<br />
(coshω ≈ 1 ⇔ hω ≈ 2πl, l ∈ Z) ⇒ y h (hk) → ±∞ auch für h ≪ 1 . 4.5<br />
Abhilfe [20]:<br />
” Filterung”: Dämpfung von α, falls hω ≈ 2πl: p. 451<br />
In (4.5.7), (4.5.8) ersetze: g(y h (t)) ↦→ g(ψ(hω)y h (t)), ψ(ξ) := sinc 2 ξ(1 + 2 1 (1 − cosξ))<br />
h-Abhängigkeit kritischer Frequenzen<br />
➤<br />
Modifiziertes Gautschi-Verfahren:<br />
Logarithmus log 10 des relativen Energiefehlers<br />
zum Endzeitpunkt t =<br />
✄<br />
0<br />
y h (t + h) − 2 cos(hω)y h (t) + y h (t − h) = h 2 (<br />
sin( 1<br />
2 hω)<br />
1<br />
2 hω ) 2<br />
g(ψ(hω)y h (t)) . (4.5.12)<br />
Beobachtung:<br />
hω-Abhängigkeit kritischer Frequenzen<br />
10 1 Filterndes Gautschi−Verfahren: Konvergenz, ω = 25<br />
Fig. 178<br />
10 0<br />
✸<br />
Modellproblem:<br />
ÿ = −ω 2 y + αy , α ≪ ω 2 . (4.5.10)<br />
➤ Gautschi-Verfahren (4.5.7), Schrittweite h: ➢ Dreitermrekursion<br />
}<br />
y h (t + h) −<br />
{2 cos(hω) + h 2 α sinc 2 ( 2 1hω) y h (t) + y h (t − h) = 0 . (4.5.11)<br />
4.5<br />
p. 450<br />
Beispiel 4.5.6 (Modifiziertes Gautschi-Verfahren).<br />
AWP aus Bsp. 4.5.7, Integration gemäss (4.5.12),<br />
Filterfunktion ψ(ξ) := sinc 2 ξ(1 + 1 2 (1 − cos ξ))<br />
Konvergenzordnung 2<br />
✄<br />
Fehler fuer t=1<br />
10 −1<br />
10 −2<br />
10 −3<br />
10 −4<br />
|y h<br />
(1)−y(1)|<br />
|v (1)−v(1)|<br />
h<br />
10 −5<br />
Energiefehler<br />
O(h 2 )<br />
10 −6<br />
10 −3 10 −2 10 −1<br />
h<br />
4.5<br />
p. 452
0.14<br />
0.12<br />
0.1<br />
Filterndes Gautschi−Verfahren: Konvergenz, h = 0.0500<br />
|y h<br />
(1)−y(1)|<br />
|v h<br />
(1)−v(1)|/ω<br />
Filterndes Gautschi−Verfahren: Energiedrift, h = 0.0500<br />
10 −1 Energiefehler fuer t=1<br />
10 −2<br />
5 Randwertprobleme<br />
Fehler fuer t=1<br />
0.08<br />
0.06<br />
0.04<br />
Fehler fuer t=1<br />
10 −3<br />
0.02<br />
0<br />
0 50 100 150 200<br />
ω<br />
10 −4<br />
0 50 100 150 200<br />
ω<br />
4.5<br />
p. 453<br />
5.0<br />
p. 455<br />
hω-Abhängigkeit der Energiedrift<br />
✄<br />
Beobachtung:<br />
(4.5.12): Keine Instabilität<br />
Im Vergleich zu (4.5.7) (→<br />
Bsp. 4.5.5) deutlich reduzierte<br />
Energiedrift (Skala!)<br />
Verzeichnisse<br />
4.5<br />
p. 454<br />
5.0<br />
p. 456
Index<br />
R-reversible Abbildung, 352<br />
R-reversible Evolution, 352<br />
A-Stabilität, 252<br />
absolute Toleranz, 201<br />
adjungierte Matrix, 335<br />
Affin-Kovarianz<br />
Runge-Kutta, 148<br />
Aitken-Neville-Schema, 168<br />
akzeptable Lösung, 436<br />
akzeptables Resultat, 395<br />
algebraische Konvergenz, 63, 64, 93<br />
algebraische Nebenbedingung<br />
bei DAE, 298<br />
algebraische Stabilität, 256<br />
alternierende Bilinearform, 362<br />
analytische Funktion, 410<br />
Analytizitätsvoraussetzung, 410<br />
Anfangswertproblem<br />
Lösung, 16<br />
linear, 43<br />
steifes, 268<br />
Bootstrapping, 141<br />
Butcher-Bäum, 159<br />
Butcher-Matrix, 261<br />
Butcher-Schema, 143<br />
DAE, 297, 298<br />
separiert, 299<br />
vom Index 1, 300<br />
Deskriptorform<br />
mechanischer Bewegungsgleichungen, 310<br />
von Bewegungsgleichungen, 311<br />
Determinante<br />
Ableitung, 335<br />
diagonal-implizite ESV, 282<br />
DIFEX, 190<br />
Differentialgleichung<br />
Hamiltonsche, 30<br />
linear, 44<br />
logistische, 128, 163<br />
Variation der Konstanten, 45<br />
Differentialgleichungen<br />
Skalare, 41<br />
differentiell-algebraische Gleichung (DAE), 297<br />
differentiell-algebraisches Anfangswertproblem (DAE), 298,<br />
299<br />
differentielle Konditionsanalyse, 49<br />
Differenzenverfahren, 62, 71, 77<br />
DIRK-Einschrittverfahren, 282<br />
diskrete Evolution<br />
Konsistenz, 95<br />
Konsistenzfehler, 96<br />
Konsistenzordnung, 97<br />
Asymptotische (absolute) Kondition, 49<br />
asymptotische Entwicklung, 169, 173, 404<br />
Asymptotische Stabilität<br />
eines Fixpunkts, 236<br />
attraktiver Fixpunkt, 18, 221<br />
autonome Differentialgleichung, 13<br />
Autonomisierung, 14<br />
Autonomisierungsinvarianz, 149<br />
AWP<br />
Kondition, 51<br />
B-Stabilität, 256<br />
Bahnebene, 32<br />
Banachscher Fixpunktsatz, 119<br />
Basisverfahren<br />
für Extrapolation, 178<br />
Bewegungsgleichungen<br />
Hamiltonsche Form, 28<br />
Molekulardnamik, 384<br />
Newtonsche, 28<br />
5.0<br />
bimolekulare Reaktion, 22<br />
Blow-up, 35, 42, 210 p. 457<br />
reversibel, 110<br />
diskretes dynamisches System, 241<br />
Diskretisierungsfehler, 93<br />
Diskretisierungsparameter, 165<br />
dissipatives Vektorfeld, 250<br />
Divergenz<br />
eines Vektorfeldes, 339<br />
Drehmoment, 33<br />
Drehmomenterhaltung, 33<br />
Dreitermrekursion, 450<br />
dynamisches System<br />
diskret, 241<br />
Eingebettete Runge-Kutta-Verfahren, 210<br />
eingebettete Runge-Kutta-Verfahren, 211<br />
Einschrittfehler, 108<br />
Einschrittverfahre<br />
implizit, 92<br />
Einschrittverfahren, 82, 91<br />
diagonal-implizit, 282<br />
explizit, 92<br />
Konvergenz, 100<br />
Notation, 91<br />
reversibel, 187<br />
symplektisch, 371<br />
elementare Differentiale, 158<br />
Energie<br />
für oszillatorische Differentialgleichung, 441<br />
Energiedrift, 81, 86, 357, 440, 454<br />
Energieerhaltung, 31, 356<br />
5.0<br />
Pendel, 28<br />
Energiemannigflatigkeit, 392 p. 458<br />
Erstes Integral<br />
Bedingung, 22<br />
erstes Integral, 22, 325<br />
linear, 325<br />
polynomial, 326<br />
quadratisch, 79, 325<br />
erweiterter Zustandsraum<br />
einer ODE, 11<br />
ESV<br />
Radau, Ordnung 3, 263<br />
Radau, Ordnung 5, 263<br />
Euler<br />
Implizit, 263<br />
Euler-Verfahren, 180<br />
explizites, Stabilitätsfunktion, 228<br />
implizit, 70<br />
semi-implizit, 279<br />
Euler-Verfahrens<br />
Konvergenz, 63<br />
Eulersches Polygonzugverfahren, 61<br />
Eulerverfahren<br />
explizit, 60, 126<br />
implizit, 126<br />
implizites, Stabilitätsfunktion, 228<br />
Evolution<br />
R-reversibel, 352<br />
diskrete, 115<br />
Evolutionsoperator, 40<br />
explizite Mittelpunktsregel, 160<br />
explizite Trapezregel, 160<br />
explizites Einschrittverfahren, 92<br />
gewöhnliche Differentialgleichung, 10<br />
autonome, 13<br />
erster Ordnung, 10<br />
Gewichte<br />
einer Quadraturformel, 125<br />
Gitterfunktion, 92<br />
Glattheit<br />
hinreichende, 100<br />
globale Lösung, 39<br />
globale Lipschitzbedingung, 52<br />
Gradientenfluss, 248<br />
Grenzzyklus, 273<br />
Gronwalls Lemma, 52<br />
Hamilton-Funktion, 30, 356<br />
Molekulardnamik, 384<br />
separiert, 372<br />
Hamiltonsche Bewegungsgleichugen<br />
mit Nebenbedingunge, 313<br />
Hamiltonsche Differentialgleichung, 30, 356<br />
Herzschlagmodell, 25<br />
hinreichende Glattheit, 100<br />
holomorphe Funktion, 410<br />
homogene lineare Differentialgleichung, 44<br />
implizite Mittelpunktsregel, 76, 98, 126, 372<br />
implizites Einschrittverfahren, 92<br />
implizites Euler-Verfahren, 70<br />
implizites, Euler-Verfahren, 160<br />
Index<br />
einer DAE, 300, 312<br />
inkompressible Strömung, 338<br />
explizites Eulerverfahren, 60, 126<br />
exponentiell klein, 408<br />
exponentielle Konvergenz, 64, 128<br />
exponentielle Runge-Kutta-Verfahren, 294<br />
Extrapolation, 165<br />
Extrapolations-Einschrittverfahren, 178<br />
Extrapolationstableau, 168<br />
Extrapolationsverfahren<br />
global, 177<br />
lokal, 178<br />
Faltung, 45<br />
Federpendel, 381<br />
Fehlerfortpflanzung, 108<br />
Fehlerfunktion, 108<br />
Fehlerschätzung<br />
zeitlokal, 199<br />
Fixpunkt<br />
asymptotisch stabil, 236<br />
asymptotische Stabilität, 239<br />
attraktiv, 18, 69, 221<br />
einer ODE, 235<br />
repulsiv, 18<br />
Gauss-Kollokations-Einschrittverfahren, 127, 140, 160, 251,<br />
267, 374<br />
Gauss-Radau-Quadratur, 262<br />
Gaussquadratur, 126<br />
Gautschi-Verfahren, 443<br />
Filterung, 452<br />
5.0<br />
modizifiertes, 452<br />
Gautschis Zweischrittverfahren, 443 p. 459<br />
Inkremente<br />
Kollokation, 116<br />
Runge-Kutta, 143<br />
Inkrementfunktion, 96<br />
Inkrementgleichungen, 116<br />
linearisiert, 280<br />
Instabilität<br />
Gautschi-Verfahren, 448<br />
Integrabilitätslemma, 369<br />
intervallweise Kondition, 51<br />
Invariante, 22<br />
Jordan-Block, 237<br />
Jordan-Normalform, 237<br />
Keplerproblem, 31<br />
Keplersches Gesetz<br />
erstes, 33<br />
zweites, 33<br />
kinetische Energie, 28<br />
klassisches Runge-Kutta-Verfahren, 160<br />
Knoten<br />
einer Quadraturformel, 125<br />
Knotenanalyse<br />
von Schaltkreisen, 272, 295<br />
Kollaps, 35, 42, 209<br />
Kollokation<br />
Inkremente, 116<br />
Kollokations<br />
RK-ESV, 262<br />
5.0<br />
Kollokationsbedingung, 113<br />
Kollokationspunkt, 113 p. 460
Kollokationsverfahren, 113<br />
Inkrementfunktion, 116<br />
Konsistenz, 135<br />
Kompaktheitsargument, 104<br />
Kondition, 48<br />
analyse<br />
differentielle, 54<br />
asymptotisch, 49<br />
intervallweise, 51<br />
punktweise, 51<br />
Kongruenztransformation, 362<br />
Konsistenz, 95<br />
Runge-Kutta-Verfahren, 155<br />
Konsistenzfehler, 96, 101, 108<br />
Konsistenzordnung, 97<br />
Splittingverfahren, 193<br />
Kontraktion, 119<br />
Konvergenz, 93<br />
algebraisch, 63<br />
exponentiell, 128<br />
Kollokationsverfahren, 127<br />
von Einschrittverfahren, 100<br />
Konvergenzordnung, 93<br />
kovariante Transformation, 43<br />
Kovergenz<br />
global, 93<br />
Kraftfeld<br />
konservativ, 31<br />
Kuttas 3/8-Regel, 160<br />
L-Stabilität, 260<br />
Lösung<br />
Mittelpunktsregel, 142<br />
explizit, 142, 145<br />
implizit, 76, 126<br />
implizit, Stabilitätsfunktion, 228<br />
Modellprobelanalyse<br />
implizites Euler-Verfahren, 72<br />
Modellproblem<br />
für gestörte oszillatorische Differentialgleichungen, 450<br />
Modellproblemanalyse, 221<br />
explizites Eulerverfahren, 69<br />
modifizierte Differentialgleichung, 395<br />
für lineare AWP, 396<br />
modifizierte Gleichung<br />
abgeschnittene, 406<br />
der Ordnung q, 397<br />
Molekulardnamik, 384<br />
Molekulardynamik, 388<br />
mplizite Trapezregel, 160<br />
multivariates Polynom, 326<br />
Newton-Verfahren<br />
vereinfacht, 285<br />
nichtdegenerierte Bilinearform, 362<br />
Nichtexpansivität, 248<br />
nichtlineare Stabilität, 109<br />
Normalform<br />
bei schiefsymmetrischen Matrizen, 362<br />
numerische Quadratur, 125<br />
numerischer Integrator, 88<br />
ODE, 10<br />
skalar, 13<br />
eines Anfangswertproblems, 16<br />
Lagrange-Multiplikator, 311, 313<br />
Lagrange-Polynom, 114<br />
Legendre-Polynome, 127<br />
Lenard-Jones-Potential, 384<br />
Lie-Trotter-Splitting, 192<br />
linear-implizites Runge-Kutta-Verfahren, 285<br />
lineare Differentialgleichung, 43, 44<br />
linearisierte Störungstheorie, 49<br />
Liouville<br />
Satz von, 339<br />
Lipschitz-Stetigkeit<br />
lokale, 37<br />
Logistische Differentialgleichung, 128, 163, 192<br />
logistische Differentialgleichung, 17, 181<br />
Lotka-Volterra Differentialgleichung, 20<br />
Makroschritt<br />
bei Extrapolationsverfahren, 178<br />
MAPLE, 98<br />
mathematisches Pendel, 27<br />
symplektische Integration, 357<br />
Matrix<br />
Propagations-, 55<br />
Wronski, 55<br />
Matrixexponentialfunktion, 44, 290<br />
Matrixfunktionen, 233<br />
maximale Fortsetzbarkeit, 35<br />
maximales Existenzintervall, 36<br />
Mikroschritt<br />
5.0<br />
bei Extrapolationsverfahren, 178<br />
Minimalkoordinaten, 311 p. 461<br />
ordinary differential equation (ODE), 10<br />
Ordnung<br />
einer Quadraturformel, 136<br />
Ordnungsschranken<br />
für Runge-Kutta-Verfahen, 160<br />
Ordnungssteuerung<br />
bei Extrapolationsverfahren, 184<br />
Oregonator, 24<br />
oszillatorische Differentialgleichungen, 440<br />
parasitäre Kapazität, 301<br />
partikuläre Lösung, 45<br />
partitionierte Runge-Kutta-Einschrittverfahren, 376<br />
Peano<br />
Satz von, 38<br />
Pendel, 27, 310<br />
Pendelgleichung, 358<br />
Picard-Lindelöf<br />
Satz von, 38<br />
Polynom<br />
multivariat, 326<br />
polynomiale Invariante, 326<br />
Polynominterpolation<br />
Fehlerabschätzung, 131<br />
potentielle Energie, 28<br />
Problem<br />
in der Numerik, 47<br />
Propagationsmatrix, 55<br />
Punkt<br />
stationär, 21<br />
5.0<br />
punktweise Kondition, 51<br />
Push-Forward, 361 p. 462<br />
Quadraturformel, 125<br />
Mittelpunktsregel, 142<br />
Ordnung, 136<br />
Trapezregel, 142<br />
Räuber-Beute-Modell, 20<br />
Rückwärtsanalyse, 436<br />
von Integrationsverfahren, 394<br />
Radau-ESV, Ordnung 3, 263<br />
Radau-ESV, Ordnung 5, 263<br />
Radau-Verfahren, 308<br />
Reaktionskinetik, 22<br />
rechte Seite<br />
einer ODE, 10<br />
Regel<br />
Kuttas 3/8, 148<br />
Mittelpunkt, explizit, 142<br />
Trapez, explizit, 142, 146<br />
relative Toleranz, 201<br />
repulsiver Fixpunkt, 18<br />
Reversibilität, 110, 187, 350<br />
reversible Einschrittverfahren<br />
Konsistenzordnung, 111<br />
Riccati-Differentialgleichung, 12, 62<br />
Richtungsfeld, 12<br />
RK4, 147<br />
Stabilitätsfunktion, 228<br />
Romberg-Quadratur, 165<br />
ROW-Methoden, 285<br />
Runge-Kutta<br />
3/8-Regel, 148<br />
Affin-Kovarianz, 148<br />
Schrittweitenvorschlag, 202<br />
semi-implizites Euler-Verfahren, 279<br />
Sensitivitä, 48<br />
Separation der Variablen, 18<br />
sinc-Funktion, 451<br />
Singuläre Störungstechnik, 301<br />
Skalare Differentialgleichungen , 41<br />
Skalare ODE, 13<br />
Spektralradius<br />
einer Matrix, 241<br />
Spektrum<br />
einer Matrix, 237<br />
Splitting<br />
Lie-Trotter, 192<br />
Strang, 192<br />
Splittingverfahren, 191, 375<br />
inexakt, 197<br />
inexakte, 197<br />
ssymmetrische Runge-Kutta-Einschrittverfahren, 348<br />
Störmer-Verlet-Verfahren, 81, 372<br />
Molekulardnamik, 385<br />
Stabilit<br />
nichtlineare, 109<br />
Stabilität, 108<br />
-sfunktion, 264<br />
-sgebiet, 245<br />
B-, 256<br />
L-, 260<br />
Stabilitätsfunktion, 227<br />
Interpretation, 225<br />
von Runge-Kutta-Verfahren, 224<br />
Autonomisierung, 149<br />
eingebettet, 211<br />
Einschritt-Verfahren, 143<br />
Inkremente, 143<br />
klassisch, 147<br />
Runge-Kutta-Einschrittverfahren<br />
R-reversibel, 354<br />
steif-genaue, 261<br />
symmetrisch, 348<br />
Runge-Kutta-Verfahen<br />
Autonomisierungsinvarianz, 149<br />
Ordnungsschranken, 160<br />
Runge-Kutta-Verfahren, 141, 143<br />
eingebettet, 210<br />
exponentiell, 294<br />
Konsistenz, 155<br />
Konstruktion, 142<br />
Konvergenzordnung, 160<br />
linear-implizit, 285<br />
Stabilitätsfunktion, 224<br />
Satz<br />
Peano & Picard-Lindelöf, 38<br />
Satz über implizite Funktionen, 118<br />
Satz von Liouville, 339<br />
Schaltkreis<br />
Knotenanalyse, 272, 295<br />
Schrittweitenbeschränkung, 122, 244<br />
für explizite RK-ESV, 231<br />
Schrittweitenkorrektur, 202<br />
5.0<br />
Schrittweitensteuerung, 269<br />
für ESV, 199 p. 463<br />
Stabilitätsgebiet, 224<br />
Startschritt, 83, 443<br />
steif-genau, 261, 305<br />
Steifheit, 268<br />
sternförmig, 369<br />
Strang-Splitting, 192<br />
Stromlinien, 341<br />
strukturerhaltende Integratoren, 395<br />
Stufen<br />
eines RK-ESV, 144<br />
symplektische Abbildung, 366<br />
symplektische Evolution, 360<br />
symplektischer Fluss, 363<br />
symplektischer Integrator, 373<br />
symplektisches Einschrittverfahren, 371<br />
symplektisches Euler-Verfahren, 372, 375<br />
symplektisches Produkt, 361<br />
Taylorentwicklung, 156<br />
Toleranz, 199<br />
absolute, 201<br />
realtiv, 201<br />
Relativ, 201<br />
Trajektorie, 20<br />
Transformation<br />
kovariant, 43<br />
Trapezregel, 142<br />
explizit, 142, 146<br />
explizit, Stabilitätsfunktion, 228<br />
5.0<br />
Varationsgleichung, 55<br />
Variation der Konstanten, 45, 289, 441 p. 464
Variationsgleichung, 342<br />
Vektorfeld, 13<br />
Vektorprodukt, 33<br />
Verfahren<br />
Einschritt, Schrittweitensteuerung, 199<br />
ESV, Runge-Kutta, 143<br />
Euler, implizit, 126<br />
Runge-Kutta, 141, 143<br />
Runge-Kutta, klassisch, 147<br />
Runge-Kutta, Konstruktion, 142<br />
versteckte Nebenbedingungen, 312<br />
bei DAEs, 314<br />
volumenerhaltende Abbildung, 338<br />
Volumenerhaltung, 339<br />
bei Hamiltonschen ODEs, 358<br />
wohlgestellt, 52<br />
Problem, 48<br />
Wronski-Matrix, 55<br />
Zeeman-Modell, 25<br />
Zeitgitter, 91<br />
Zeitschrittweite, 91<br />
Zustandsraum<br />
einer ODE, 11<br />
Molekulardnamik, 384<br />
Zwangskraft, 311<br />
Zweischrittverfahren, 82<br />
Gautschis, 443<br />
Beispiele und Bemerkungen<br />
[Lösung der Schaltkreis-DAEs mit MATLAB, 309<br />
[Steife Probleme in der chemischen Reaktionskinetik, 270<br />
‘Gronwall-Schranke” für Kondition, 53<br />
“Butcher barriers” für explizite RK-ESV, 161<br />
A-Stabilität ⇏ Diskrete Nichtexpansivität, 255<br />
Adaptive explizite RK-ESV für steifes Problem, 268<br />
Adaptive RK-ESV zur Teilchenbahnberechnung, 214<br />
Adaptives semi-implizites RK-ESV für steifes Problem, 276<br />
Affin-Kovarianz der Runge-Kutta-Verfahren, 148<br />
Allgemeine Variation-der-Konstanten-Formel, 46<br />
Analytizitätsvoraussetzung für Hamiltonsche Differentialgleichungen,<br />
410<br />
Anfangswerte für Dgl. höherer Ordnung, 16<br />
Attraktiver Grenzzyklus, 273<br />
Autonome skalare Differentialgleichungen, 41<br />
Autonomisierung, 14<br />
Autonomisierungsinvarianz von Runge-Kutta-Verfahren, 149<br />
AWP-Löser in MATLAB, 19<br />
B-Stabilität, 256<br />
Bedeutung der modifizierten Gleichungen niedriger Ordnung,<br />
404<br />
Bedeutung linearer AWPe, 47<br />
Bedingungsgleichungen für Linear-implizite Runge-Kutta-<br />
Verfahren 2. Ordnung, 285<br />
Berechnung der Modifikatoren ∆f j durch Computeralgebra,<br />
402<br />
Bimolekulare Reaktion, 22<br />
Butcher-Bäume, 159<br />
DAE: Transformation auf separierte Form, 299<br />
Definitionsintervalle von Lösungen von AWPe, 39<br />
Dense output, 150<br />
DIFEX, 190<br />
Doppelpendel, 58<br />
5.0<br />
p. 465<br />
Einfache A-stabile RK-ESV, 245<br />
Einfache reversible Einschrittverfahren, 110<br />
Einfache symplektische Integratoren, 372<br />
Eingebettete RK-ESV, 210<br />
5.0<br />
Eingebettete Runge-Kutta-Verfahren, 211<br />
Einschrittformulierung des Störmer-Verlet-Verfahrens, 86 p. 466<br />
Energieerhaltung bei numerischer Integration, 357<br />
Energieerhaltung bei semi-impliziter Mittelpunktsregel, 286<br />
Euler-Extrapolationsverfahren mit Ordnungssteuerung, 185<br />
Euler-Verfahren für Pendelgleichung, 72<br />
Eulerverfahren für längenerhaltende Evolution, 74<br />
Explizite Runge-Kutta-Schritte für Ricatti-Differentialgleichung,<br />
145<br />
Explizites Euler-Verfahren für logistische Dgl, 67<br />
Explizites Eulerverfahren als Differenzenverfahren, 62<br />
Exponentielles Euler-Verfahren, 291<br />
Exponentielles Euler-Verfahren für steifes AWP, 292<br />
Extrapolationsverfahren als Runge-Kutta-Verfahren, 183<br />
Extrapolierte implizite Mittelpunktsregel, 187<br />
Extrapoliertes Euler-Verfahren, 180<br />
Federpendel, 381<br />
Funktionenkalkül für Matrizen, 233<br />
Gauss-Kollokations-ESV bei stark attraktiven Fixpunkten,<br />
257<br />
Gauss-Kollokationsverfahren, 254<br />
Gautschis Zweischrittverfahren, 444<br />
Glattheitsannahmen an rechte Seite, 90<br />
Globale h 2 -Extrapolation für implizite Mittelpunktsregel, 189<br />
Gradientenfluss, 248<br />
Hamiltonsche Bewegungsgleichugen mit Nebenbedingungen,<br />
313<br />
Implementierung steif-genauer RK-ESV für DAE, 321<br />
Implizite Mittelpunktregel für Kreisbewegung, 78<br />
Implizite Mittelpunktsregel als Differenzenverfahren, 77<br />
Implizite Mittelpunktsregel für logistische Dgl., 77<br />
Langzeit-Energieerhaltung bei symplektischer Integration,<br />
380<br />
Linearisierung der Inkrementgleichungen, 278<br />
Lorenz system, 56<br />
Magnetnadel<br />
Präzession , 326<br />
Massenpunkt im Zentralfeld, 31<br />
Mathematisches Pendel, 27<br />
MATLAB-Integratoren für Index-1-DAEs, 309<br />
MATLAB-Integratoren für Pendelgleichung in Deskriptorform,<br />
315<br />
Modifikatoren für einfache ESV, 402<br />
Modifizierte Gleichung der Ordnung 2 zu explizitem Euler-<br />
Verfahren, 397<br />
Modifizierte Gleichung für RK-ESV und lineare AWPe, 396<br />
Modifizierte Gleichung für symplektisches Euler-Verfahren,<br />
431<br />
Modifiziertes Gautschi-Verfahren, 452<br />
Molekulardnamik, 384<br />
Notation fuer Einschrittverfahren, 91<br />
Numerische Integratoren als approximative Evolutionsoperatoren,<br />
41<br />
Numerische Quadratur, 125<br />
Oregonator-Reaktion, 24<br />
Partitionierte Runge-Kutta-Einschrittverfahren, 376<br />
Pendelgleichung in Deskriptorform, 310<br />
Philosophische Grundlage der Rückwärtsanalyse, 394<br />
Präzession<br />
Magnetnadel, 326<br />
Implizite Mittelpunktsregel für Pendelgleichung, 80<br />
Implizite RK-ESV bei schnellen Transienten, 259<br />
Implizite RK-ESV mit linearisierten Inkrementgleichungen,<br />
281<br />
Implizites Euler-Verfahren für Pendelgleichung in Deskriptorform,<br />
316<br />
Implizites Eulerverfahren als Differenzenverfahren, 71<br />
Implizites Eulerverfahren für logistische Differentialgleichung,<br />
71<br />
Ineffizienz expliziter Runge-Kutta-Verfahren, 219<br />
Inexakte Splittingverfahren, 197<br />
Interpretation der Stabilitätsfunktion, 225<br />
Invertierbarkeit der Koeffizientenmatrix von RK-ESV, 261<br />
Knotenanalyse eines Schaltkreises, 295<br />
Kollokationsverfahren und numerische Quadratur, 125<br />
Kondition skalarer linearer Anfangswertprobleme, 51<br />
Konsistenzordnung einfacher Einschrittverfahren, 98<br />
Konstante 2-Formen, 361<br />
Konstruktion einfacher Runge-Kutta-Verfahren, 142<br />
Konvergenz des expliziten Euler-Verfahrens, 63<br />
Konvergenz einfacher Splittingverfahren, 192<br />
Konvergenz expliziter Runge-Kutta-Verfahen, 153<br />
Konvergenz kombinierter Verfahren, 163<br />
Konvergenz von Gauss-Kollokations-Einschrittverfahren, 134<br />
Konvergenz von Kollokationsverfahren, 127<br />
Lösbarkeit der Inkrementgleichungen für Gauss-Kollokations-<br />
ESV, 253<br />
Lösung der Inkrementgleichungen, 151<br />
5.0<br />
Lösungsfunktion aus Extrapolationsverfahren, 129<br />
p. 467<br />
Projektion auf Energiemannigfaltigkeit, 391<br />
Qualität der Fehlerschätzung, 200<br />
Räuber-Beute-Modelle, 20<br />
Radau-ESV bei stark attraktiven Fixpunkten, 265<br />
Reskalierung des Modellproblems, 222<br />
Resourcenbegrenztes Wachstum, 17<br />
Reversibilität bei mechanischen Systemen, 350, 353<br />
Richtungsfeld und Lösungskurven, 12<br />
RK-Bedingungsgleichungen für Konsistenzordnung p =<br />
3, 155<br />
RK-ESV für autonome homogene lineare ODE, 231<br />
RK-ESV und Elimination der DAE-Nebenbedingungen, 306<br />
Romberg-Quadratur, 166<br />
Schaltkreis<br />
steife -gleichunge Zeitbereich, 272<br />
Schrittweitenbedingungen für ‘Langzeitintegration”, 429<br />
Schrittweitenbeschränkung aus Lemma 2.2.1, 122<br />
Schrittweitensteuerung für Bewegungsgleichungen, 216<br />
Schrittweitensteuerung für explizite Trapezregel/Euler-Verfahren,<br />
205<br />
Schrittweitensteuerung und Blow-up, 210<br />
Schrittweitensteuerung und Instabilität, 208<br />
Schrittweitensteuerung und Kollaps, 209<br />
Singulär gestörte Schaltkreisgleichungen, 301<br />
Skalierungsinvarianz der Extrapolation, 167<br />
Splittingverfahren für mechanische Systeme, 196<br />
Störmel-Verlet-Verfahren für Pendelgleichung, 84<br />
Störmer-Verlet-Verfahren als Differenzenverfahren, 83 5.0<br />
Störmer-Verlet-Verfahren als Polygonzugmethode, 87<br />
Stabilitätsfunktionen einiger RK-ESV, 227 p. 468
Stabilitätsgebiet des exponentiellen Euler-Verfahren, 291<br />
Standardintegratoren für oszillatorische Differentialgleichung,<br />
442<br />
Steife Schaltkreisgleichungen im Zeitbereich, 272<br />
Steuerung von ˜Ψ durch Ψ, 203<br />
Strömungsvisualisierung, 340<br />
Strang-Splitting erzeugt reversible ESV, 195<br />
Stufenform der Inkrementgleichungen, 144<br />
Symplektische Integratoren und variable Schrittweite, 439<br />
Symplektisches Euler-Verfahr, 375<br />
Symplektisches Euler-Verfahren für Pendelgleichung, 379<br />
Symplektisches Flussintegral, 363<br />
Symplektizität der Pendelgleichung, 358<br />
Symplektisches Produkt, 361<br />
Volumenerhaltung, 338<br />
Translationsinvarianz von Lösungen autonomer Dgl., 14<br />
Umformulierung der Inkrementgleichungen, 116<br />
Vektorräume von Vektorfeldern und Eigenschaften von Evolutionen,<br />
367<br />
Verfahren<br />
ESV adaptiv, explizit, steifes Problem, 268<br />
Verhalten von Stabilitätsfunktionen, 229<br />
Vielteilchen-Molekulardynamik, 388<br />
Volumenerhaltende Integratoren für d = 2, 343<br />
Volumenerhaltendes Splittingverfahren 2. Ordnung, 346<br />
Volumenerhaltung bei zweidimensionalen Hamiltonschen<br />
ODEs, 358<br />
Zeemans Herzschlagmodell, 25<br />
5.0<br />
p. 469<br />
5.0<br />
p. 471<br />
Definitionen<br />
MATLAB-Codes<br />
R-reversible Abbildung, 352<br />
(Abgeschnittene) asymptotische Entwicklung, 169<br />
A-Stabilität, 245<br />
algebraische Stabilität, 256<br />
Alternierende, nichtdegenerierte Bilinearform, 362<br />
Arten der Konvergenz, 64<br />
Asymptotische Stabilität eines Fixpunkts, 236<br />
DAE vom Index 1, 300<br />
Diskretisierungsfehler, 93<br />
Dissipatives Vektorfeld, 250<br />
Einschrittverfahren, 91<br />
Erstes Integral, 22<br />
Evolutionsoperator, 40<br />
explizite und implizite Einschrittverfahren, 92<br />
Exponentielle Runge-Kutta-Verfahren, 294<br />
Fixpunkt, 235<br />
Hamiltonsche Differentialgleichung, 30<br />
Konsistenz einer diskreten Evolution, 95<br />
Konsistenzfehler einer diskreten Evolution, 96<br />
Konsistenzordnung einer diskreten Evolution, 97<br />
Konvergenz und Konvergenzordnung, 93<br />
L-Stabilität, 260<br />
Lösung einer gewöhnlichen Differentialgleichung, 12<br />
Lösung eines Anfangswertproblems, 16<br />
Lokale Lipschitz-Stetigkei, 37<br />
Maximale Fortsetzbarkeit einer Lösung, 35<br />
Modifizierte Gleichung der Ordnung q, 397<br />
Nichtexpansivität, 248<br />
Nichtlineare Stabilität, 109<br />
Polynomiale Invarianten, 326<br />
Reversible diskrete Evolutionen, 110<br />
Runge-Kutta-Verfahren, 143<br />
Stabilitätsgebiet eines Einschrittverfahrens, 224<br />
Sternförmiges Gebiet, 368<br />
5.0<br />
Symplektische Abbildung, 366<br />
symplektisches Einschrittverfahren, 371 p. 470<br />
odeset, 214<br />
ode45, 269<br />
odeset, 269<br />
ode15s, 276<br />
ode23s, 276<br />
ode23, 213<br />
ode45, 193, 213<br />
odeset, 193, 213, 276<br />
Adaptives RK-ESV für steifes Problem, 269<br />
Aitken-Neville-Extrapolation, 168<br />
ode15s, 309<br />
ode23s, 327<br />
ode23t, 309<br />
ode45, 327<br />
5.0<br />
p. 472
Notationen<br />
C l (J, D) ˆ= l-mal stetig differenzierbare Funktionen J ↦→<br />
D, 12<br />
D y f ˆ= Ableitung von f nach y (Jacobi-Matrix), 37<br />
J(t 0 ,y 0 ) :=]t − , t + [ ˆ= maximales Existenzintervall, 36<br />
O(g(h)) ˆ= “Landau-O”, 63<br />
[x] ˆ= ganzzahliger Anteil von x > 0, 424<br />
divf ˆ= Divergenz eines Vektorfeldes, 339<br />
‖y‖ M<br />
:= (y T My) 1 /2<br />
induzierte Vektornorm, 248<br />
P s ˆ= Raum der univariaten Polynome vom Grad ≤ s, 114<br />
J ˆ= Matrix zum symplektischen Produkt, 361<br />
y,z, . . . Fettdruck für Spaltenvektoren, 11<br />
C − := {z ∈ C: Rez < 0}, 237<br />
1 = (1, . . .,1) T , 224<br />
∇ 2 f ˆ= Hesse-Matrix, 366<br />
adj(X) adjungierte Matrix, 335<br />
⊗ ˆ= Kronecker-Produkt von Matrizen, 281<br />
ρ(A): Spektralradius einer Matrix, 241<br />
f ˆ= rechte Seite einer ODE, 10<br />
σ(A): Spektrum einer Matrix, 237<br />
˙ ˆ= Ableitung nach der Zeit t, 11<br />
y α für Multiindex α, 326<br />
Appendix<br />
MATLAB-Files zu Beispielen<br />
• Beispiel 1.2.3 ↔ File/Directory ex:LV<br />
• Beispiel 1.2.5 ↔ File/Directory ex:Oregonator<br />
• Beispiel 1.2.6 ↔ File/Directory ex:heartbeat<br />
• Beispiel 1.3.8 ↔ File/Directory ex:Lorenz<br />
• Beispiel 1.4.2 ↔ File/Directory ex:expleulcvg<br />
Im(M) := {Mx:x ∈ R d }, Bild der Matrix M, 298<br />
Diskrete Evolution Ψ s,t y, 90<br />
Eklidische Vektornorm ‖·‖, 32<br />
Hamilton-Funktion H, 30<br />
Konsistenzfehler τ(t,y, h), 96<br />
Landau-o, 96<br />
Landau-Symbol O(h p ), 93<br />
Push-Forward Φ ∗ , 361<br />
symplektisches Produkt ω(v,w), 361<br />
ToleranzTOL, 199<br />
Vektorprodukt ×, 33<br />
5.0<br />
p. 473<br />
• Beispiel 1.4.3 ↔ File/Directory ex:eeullog p. 474<br />
5.0<br />
• Beispiel 1.4.5 ↔ File/Directory ex:ieullog<br />
• Beispiel 1.4.6 ↔ File/Directory ex:pendeul<br />
• Beispiel 1.4.7 ↔ File/Directory ex:eulspin<br />
• Beispiel 1.4.9 ↔ File/Directory ex:logimid<br />
• Beispiel 1.4.10 ↔ File/Directory ex:imidspin<br />
>> eulspin([1;0],10,40,’midspin40’)<br />
>> eulspin([1;0],10,160,’mispin160’)<br />
• Beispiel 1.4.11 ↔ File/Directory ex:pendimid<br />
>> pendmidp([pi/4;0],5,50,’pendimid50’);<br />
>> pendmidp([pi/4;0],5,100,’pendimid100’);<br />
>> pendmidp([pi/4;0],5,200,’pendimid200’);<br />
• Beispiel 1.4.14 ↔ File/Directory ex:svpend<br />
• Beispiel 2.2.4 ↔ File/Directory ex:cvgkoll<br />
• Beispiel 2.2.6 ↔ File/Directory ex:GaussCollcvg<br />
• Beispiel 2.4.1 ↔ File/Directory ex:kombesv<br />
• Beispiel 2.3.8 ↔ File/Directory ex:rkexplcvg<br />
• Beispiel 2.4.4 ↔ File/Directory ex:eulexpol<br />
• Beispiel 2.4.6 ↔ File/Directory ex:eulex p. 475<br />
• Beispiel 2.5.1 ↔ File/Directory ex:splitcvg<br />
• Beispiel 2.5.4 ↔ File/Directory ex:splitinex<br />
• Beispiel 2.6.1 ↔ File/Directory ex:qualest<br />
• Beispiel 2.6.9 ↔ File/Directory ex:adesv<br />
• Beispiel 2.6.10 ↔ File/Directory ex:adaptsat<br />
• Beispiel 3.0.11 ↔ File/Directory ex:logeximpl<br />
• Beispiel 3.3.3 ↔ File/Directory ex:GaussCollLog<br />
• Beispiel 3.4.1 ↔ File/Directory ex:iesvstiff<br />
• Beispiel 3.5.1 ↔ File/Directory ex:ode45stiff<br />
• Beispiel 3.5.3 ↔ File/Directory ex:odecircuit<br />
• Beispiel 3.5.5 ↔ File/Directory ex:odes<br />
• Beispiel 3.6.1 ↔ File/Directory ex:silog<br />
logsieul(0.1,round(5*1.5.ˆ(0:18)),’silog’);<br />
• Beispiel 3.6.2 ↔ File/Directory ex:siradlog<br />
siradlog(0.1,round(5*1.5.ˆ(0:18)),’siradlog’)<br />
• Beispiel 3.6.4 ↔ File/Directory ex:pendimipEnSmp<br />
• Beispiel 3.7.2 ↔ File/Directory ex:eeul p. 476<br />
5.0<br />
5.0
• Beispiel 3.7.3 ↔ File/Directory ex:eeulstiff<br />
• Beispiel 3.8.8 ↔ File/Directory ex:daecircml<br />
• Beispiel 3.8.11 ↔ File/Directory ex:daependmatlab<br />
• Beispiel 3.8.12 ↔ File/Directory ex:daependieul<br />
• Beispiel 4.1.1 ↔ File/Directory ex:magneedle<br />
• Beispiel 4.4.1 ↔ File/Directory ex:enpres<br />
• Beispiel 4.4.10 ↔ File/Directory ex:pendsympeul<br />
• Beispiel 4.4.13 ↔ File/Directory ex:md<br />
• Beispiel 4.4.12 ↔ File/Directory ex:springpend<br />
• Beispiel 4.4.14 ↔ File/Directory ex:moldyn<br />
[8] C. GRAY, An analysis of the Belousov-Zhabotinski reaction, Rose-Hulman Undergraduate Math<br />
Journal, 3 (2002). http://www.rose-hulman.edu/mathjournal/archives/2002/vol3-n1/paper1/v3n1-<br />
1pd.pdf.<br />
[9] W. HACKBUSCH, Iterative Lösung großer linearer Gleichungssysteme, B.G. Teubner–Verlag,<br />
Stuttgart, 1991.<br />
[10] E. HAIRER AND C. LUBICH, Asymptotic expansions and backward analysis for numerical integrators,<br />
in Dynamics of algorithms, vol. 118 of IMA Vol. Math. Appl., Springer, New York, 2000,<br />
pp. 91–106.<br />
[11] E. HAIRER, C. LUBICH, AND G. WANNER, Geometric numerical integration, vol. 31 of Springer<br />
Series in Computational Mathematics, Springer, Heidelberg, 2002.<br />
[12] , Geometric Numerical Integration, vol. 31 of Springer Series in Computational Mathematics,<br />
Springer, Berlin, Germany, 2002. Table of contents.<br />
[13] , Geometric numerical integration illustrated by the Störmer-Verlet method, Acta Numerica, 12<br />
(2003), pp. 399–450.<br />
[14] E. HAIRER, S. NORSETT, AND G. WANNER, Solving Ordinary Differential Equations I. Nonstiff<br />
Problems, Springer-Verlag, Berlin, Heidelberg, New York, 2 ed., 1993.<br />
5.0<br />
p. 477<br />
[15] E. HAIRER AND G. WANNER, Solving Ordinary Differential Equations II. Stiff and Differential-<br />
Algebraic Problems, Springer-Verlag, Berlin, Heidelberg, New York, 1991.<br />
5.0<br />
[16] M. HERRMANN, Numerik gewöhnlicher Differentialgleichungen, Oldenbourg, München, 2004. p. 479<br />
[17] N. HIGHAM, The scaling and squaring method for the matrix exponential revisited, SIAM J. Matrix<br />
Anal. Appl., 26 (2005), pp. 1179–1193.<br />
Literaturverzeichnis<br />
[1] H. AMANN, Gewöhnliche Differentialgleichungen, Walter de Gruyter, Berlin, 1st ed., 1983.<br />
[2] V. ARNOLD, Mathematical Methods of Classical Mechanics, Springer, New York, 2nd ed., 1989.<br />
[3] M. DEAKIN, Applied catastrophe theory in the social and biological sciences, Bulletin of Mathematical<br />
Biology, 42 (1980), pp. 647–679.<br />
[4] P. DEUFLHARD, Numerik von anfangswertaufgaben für gewöhnliche differentialgleichungen,<br />
Tech. Rep. TR 89-2, ZIB Berlin, Berlin, Germany, 1989.<br />
[5] P. DEUFLHARD AND F. BORNEMANN, Numerische Mathematik II, DeGruyter, Berlin, 2 ed., 2002.<br />
[6] P. DEUFLHARD AND A. HOHMANN, Numerische Mathematik I, DeGruyter, Berlin, 3 ed., 2002.<br />
[7] G. FISCHER, Lineare Algebra, Vieweg–Verlag, Braunschweig, 9th ed., 1986.<br />
5.0<br />
p. 478<br />
[18] M. HIRSCH, S. SMALE, AND R. DEVANEY, Differential Equations, Dynamical Systems, and an<br />
Introduction to Chaos, vol. 60 of Pure and Applied Mathematics, Elsevier Academic Press, Amsterdam,<br />
2 ed., 2004.<br />
[19] M. HOCHBRUCK AND C. LUBICH, On Krylov subspace approximations to the matrix exponential<br />
operator, SIAM J. Numer. Anal., 34 (1997), pp. 1911–1925.<br />
[20] , A Gautschi-type method for oscillatory second-order differential equations, Numer. Math., 83<br />
(1999), pp. 403–426.<br />
[21] M. HOCHBRUCK, C. LUBICH, AND H.SELHOFER, Exponential integrators for large systems of<br />
differential equations, SIAM J. Sci. Comp., 19 (1998), pp. 1552–1574.<br />
[22] B. LEIMKUHLER AND S. REICH, Simulating Hamiltonian Dynamics, vol. 14 of Cambridge Monographs<br />
on Applied and Computational Mathematics, Cambridge University Press, Cambridge,<br />
UK, 2004.<br />
[23] E. LORENZ, Deterministic non-periodic flow, J. Atmospheric Sciences, 20 (1963), pp. 130–141.<br />
[24] B. MINCHEV AND W. WRIGHT, A review of exponential integrators for first order semi-linear problems,<br />
Preprint 2/2005, NORGES TEKNISK-NATURVITENSKAPELIGE UNIVERSITET, Trondheim,<br />
Norway, 2005.<br />
[25] S. REICH, Backward error analysis for numerical integrators, SIAM J. Numer. Anal., 36 (1999), 5.0<br />
pp. 1549–1570. p. 480
[26] L. SHAMPINE, M. REICHELT, AND J. KIERZENKA, The MATLAB ODE suite, SIAM J. Sci. Comp.,<br />
18 (1997), pp. 1–22.<br />
[27] W. WALTER, Gewöhnliche Differentialgleichungen. Eine Einführung, vol. 110 of Heidelberger Taschenbücher,<br />
Springer, Heidelberg, 3 ed., 1986.<br />
5.0<br />
p. 481