21.06.2014 Aufrufe

2 - SAM - ETH Zürich

2 - SAM - ETH Zürich

2 - SAM - ETH Zürich

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

Vorlesung 401-2654-00L, Numerische Mathematik, FS 2008<br />

Numerische Mathematik<br />

(Numerik der ODEs)<br />

1.3.3.1 Grundbegriffe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47<br />

1.3.3.2 Unser Problem: das Anfangswertproblem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50<br />

1.3.3.3 Wohlgestelltheit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52<br />

1.3.3.4 Asymptotische Kondition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54<br />

1.3.3.5 Schlecht konditionierte AWPe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56<br />

1.4 Polygonzugverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60<br />

1.4.1 Das explizite Eulerverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60<br />

1.4.2 Das implizite Euler-Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70<br />

Prof. Ralf Hiptmair<br />

1.4.3 Implizite Mittelpunktsregel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76<br />

1.4.4 Störmer-Verlet-Verfahren [13] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81<br />

2 Einschrittverfahren 89<br />

Seminar for Applied Mathematics, <strong>ETH</strong> Zürich<br />

2.1 Grundlagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89<br />

2.1.1 Abstrakte Einschrittverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90<br />

2.1.2 Konsistenz [5, Sect. 4.1.1] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94<br />

Entwurf Mai 2009, Subversion rev #18697<br />

http://www.sam.math.ethz.ch/˜hiptmair/tmp/NUMODE09.pdf<br />

Inhaltsverzeichnis<br />

0.1 Danksagung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9<br />

1 Einleitung 10<br />

1.1 Anfangswertprobleme (AWP) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10<br />

1.2 Beispiele und Grundbegriffe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17<br />

1.2.1 Ökologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17<br />

1.2.2 Chemische Reaktionskinetik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22<br />

1.2.3 Physiologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25<br />

1.2.4 Mechanik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27<br />

1.3 Theorie [5, Sect. 2], [1, Ch. II] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34<br />

1.3.1 Existenz und Eindeutigkeit von Lösungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34<br />

1.3.2 Lineare AWPe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43<br />

1.3.3 Sensitivität [5, Sect. 3.1] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 p. 2<br />

0.0<br />

p. 1<br />

0.0<br />

2.1.3 Konvergenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100<br />

2.1.4 Das Äquivalenzprinzip (Dahlquist, Lax) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107<br />

2.1.5 Reversibilität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110<br />

2.2 Kollokationsverfahren[5, Sect. 6.3], [11, Sect. II.1.2] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113<br />

2.2.1 Konstruktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113<br />

2.2.2 Konvergenz von Kollokationsverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129 0.0<br />

2.3 Runge-Kutta-Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141 p. 3<br />

2.3.1 Konstruktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141<br />

2.3.2 Konvergenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153<br />

2.4 Extrapolationsverfahren [5, Sect. 4.3] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161<br />

2.4.1 Der Kombinationstrick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161<br />

2.4.2 Extrapolationsidee . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165<br />

2.4.3 Extrapolation von Einschrittverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172<br />

2.4.4 Lokale Extrapolations-Einschrittverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178<br />

2.4.5 Ordnungssteuerung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184<br />

2.4.6 Extrapolation reversibler Einschrittverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187<br />

2.5 Splittingverfahren [11, Sect. 2.5] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191<br />

2.6 Schrittweitensteuerung [5, Kap. 5], [16, Sect. 2.8] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199<br />

3 Stabilität [5, Kap. 6] 219<br />

3.1 Modellproblemanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221<br />

3.2 Vererbung asymptotischer Stabilität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235<br />

3.3 Nichtexpansivität [5, Abschn. 6.3.3] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 247<br />

3.4 Gleichmässige Stabilität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 257<br />

3.5 Steifheit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 268<br />

3.6 Linear-implizite Runge-Kutta-Verfahren [5, Sect. 6.4] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 278<br />

3.7 Exponentielle Integratoren [21, 24] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 288<br />

3.8 Differentiell-Algebraische Anfangswertprobleme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 295<br />

3.8.1 Grundbegriffe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 295<br />

3.8.2 Runge-Kutta-Verfahren für Index-1-DAEs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 300 0.0<br />

3.8.3 DAEs mit höherem Index . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 310 p. 4


4 Strukturerhaltende numerische Integration 324<br />

4.1 Polynomiale Invarianten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 325<br />

4.2 Volumenerhaltung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 338<br />

Kapitel 4:<br />

Kapitel 6:<br />

http://www.sam.math.ethz.ch/˜hiptmair/tmp/Literatur1.pdf<br />

http://www.sam.math.ethz.ch/˜hiptmair/tmp/Literatur2.pdf<br />

4.3 Verallgemeinerte Reversibilität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 347<br />

4.4 Symplektizität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 356<br />

4.4.1 Symplektische Evolutionen Hamiltonscher Differentialgleichungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 356<br />

4.4.2 Symplektische Integratoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 371<br />

4.4.3 Rückwärtsanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 394<br />

4.4.4 Modifizierte Gleichungen: Fehleranalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 406<br />

4.4.5 Strukturerhaltende modifizierte Gleichungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 430<br />

4.5 Methoden für oszillatorische Differentialgleichungen [20] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 440<br />

5 Randwertprobleme 455<br />

Enzyklopädische Präsentation klassischer numerischer Integratoren:<br />

E. HAIRER, S. NORSETT, AND G. WANNER, Solving Ordinary Differential Equations I. Nonstiff Problems,<br />

Springer, Heidelberg, 2nd ed., 1993.<br />

E. HAIRER AND G. WANNER, Solving Ordinary Differential Equations II. Stiff and Differential-Algebraic<br />

Problems, Springer, Heidelberg, 1991.<br />

Umfassende Darstellung “strukturerhaltender” Integratoren:<br />

Verzeichnisse 456<br />

Stichwortverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 456<br />

Verzeichnis der Beispiele und Bemerkungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 466<br />

Verzeichnis der Definitionen und Konzepte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 470<br />

Verzeichnis der MATLAB-CODE-Fragmente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 472<br />

Symbolverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 473<br />

Allgemeine Informationen<br />

0.0<br />

p. 5<br />

E. HAIRER, C. LUBICH, AND G. WANNER, Geometric numerical integration, vol. 31 of Springer Series<br />

in Computational Mathematics, Springer, Heidelberg, 2002.<br />

Gute Einführung in die Numerik Hamiltonscher Differentialgleichungen:<br />

B. LEIMKUHLER AND S. REICH, Simulating Hamiltonian Dynamics, vol. 14 of Cambridge Monographs 0.0<br />

on Applied and Computational Mathematics, Cambridge University Press, Cambridge, UK, 2004. p. 7<br />

Reporting errors<br />

Please report errors in the electronic lecture notes via a wiki page !<br />

Dozent: Prof. Ralf Hiptmair, <strong>SAM</strong>, D-MATH, Büro: HG G 58.2 Tel.: 044 632 3404,<br />

hiptmair@sam.math.ethz.ch<br />

Assistent: Holger Heumann, <strong>SAM</strong>, D-MATH Büro: HG G 58.3, Tel.: 044 632 8587,<br />

holger.heumann@sam.math.ethz.ch<br />

http://elbanet.ethz.ch/wikifarm/rhiptmair/index.php?n=Main.NCSECourse<br />

(Password: CSE, please choose EDIT menu to enter information)<br />

Website:<br />

Please supply the following information:<br />

Prüfung:<br />

Übungen:<br />

schriftliche Prüfung am Rechner (teilweise MATLAB-basierte Programmieraufgaben),<br />

keine (mitgebrachten) Hilfsmittel<br />

Vorlesungsunterlagen werden als PDF-Datei zur Verf¨gung gestellt<br />

• wöchentliches Übungsblatt (Bearbeitungszeit 1 Woche)<br />

• MATLAB-basierte Programmieraufgaben<br />

• Testatbedingung: 75% der Übungen abgegeben und akzeptiert<br />

• (sub)section where the error has been found,<br />

• precise location (e.g, after Equation (4), Thm. 2.3.3, etc. ). Refrain from giving page numbers,<br />

• brief description of the error.<br />

Alternative: E-mail an hiptmair@sam.math.ethz.ch, Subject: NUMODE<br />

☞ Literatur:<br />

P. DEUFLHARD AND F. BORNEMANN, Numerische Mathematik II, DeGruyter, Berlin, 2 ed., 2002. p. 6<br />

0.0<br />

0.1<br />

p. 8


0.1 Danksagung<br />

Dank geht an Frau Evgenia Ageeva für die Aufarbeitung der MATLAB-Codes zu numerischen Beispielen.<br />

offene Teilmenge D ⊂ R d ˆ= Zustandsraum ↔ “Zustandsvariable” y (engl. state space)<br />

Ω := I × D ˆ= erweiterter Zustandsraum (enthält Tupel (t,y))<br />

✎ Notation (Newton): Punkt ˙ ˆ= (totale) Ableitung nach der Zeit t<br />

✎ Notation: Fettdruck für Spaltenvektoren (Komponenten selektiert durch Subscript-Indices)<br />

Für d > 1 heisst (1.1.1) auch System gewöhnlicher Differentialgleichungen:<br />

⎛<br />

(1.1.1) ⇐⇒ ⎝ y ⎞ ⎛<br />

1<br />

. ⎠ = ⎝ f ⎞<br />

1(t,y 1 , ...,y d )<br />

. ⎠ .<br />

y d f d (t, y 1 ,...,y d )<br />

0.1<br />

p. 9<br />

Grundannahme: stetige rechte Seite f : I × D ↦→ R d 1.1<br />

p. 11<br />

1 Einleitung<br />

1.1 Anfangswertprobleme (AWP)<br />

Definition 1.1.1 (Lösung einer gewöhnlichen Differentialgleichung).<br />

Eine Funktion y ∈ C 1 (J, D), J ⊂ I Intervall positiver Länge, heisst Lösung der gewöhnlichen<br />

Differentialgleichung (1.1.1), falls<br />

ẏ(t) = f(t,y(t)) für alle t ∈ J .<br />

Beispiel 1.1.1 (Richtungsfeld und Lösungskurven).<br />

Riccati-Differentialgleichung<br />

skalare ODE<br />

Eine gewöhnliche Differentialgleichung erster Ordnung<br />

ẏ = y 2 + t 2<br />

➤<br />

d = 1, I, D = R + . (1.1.2)<br />

(engl. first-order ordinary differential equation (ODE)):<br />

ẏ = f(t,y) (1.1.1)<br />

f : I × D ↦→ R d ˆ= rechte Seite (d ∈ N)<br />

I ⊂ R ˆ= (Zeit)intervall ↔ “Zeitvariable” t p. 10<br />

1.1<br />

1.1<br />

p. 12


1.5<br />

1.5<br />

Verallgemeinerung: Eine gewöhnliche Differentialgleichung n-ter Ordnung, n ∈ N:<br />

y (n) = f(t,y,ẏ,...,y (n−1) ) . (1.1.4)<br />

y<br />

1<br />

y<br />

1<br />

✎ Notation: Superscript<br />

(n) ˆ= n. Ableitung nach der Zeit t<br />

0.5<br />

0<br />

0 0.5 1 1.5<br />

t<br />

Fig. 1<br />

Richtungsfeld<br />

0.5<br />

0<br />

0 0.5 1 1.5<br />

t<br />

Fig. 2<br />

Lösungskurven<br />

Lösungskurven tangential zum Richtungsfeld in jedem Punkt des erweiterten Zustandsraumes.<br />

➤ Umwandlung in ODE (System !) erster Ordnung (d ← n · d):<br />

⎛ ⎞<br />

⎛ ⎞ ⎛ ⎞<br />

y(t)<br />

z<br />

z 2<br />

1<br />

z(t) := ⎜ y (1) (t)<br />

⎟<br />

⎝ . ⎠ = ⎜z 2<br />

⎟<br />

⎝ . ⎠ ∈ z 3<br />

Rdn : (1.1.4) ↔ ż = g(z) , g(z) :=<br />

⎜ .<br />

⎟<br />

y (n−1) ⎝ z<br />

(t) z n ⎠ .<br />

n<br />

f(t,z 1 , ...,z n )<br />

(1.1.5)<br />

Theorie<br />

Theorie<br />

für ODEs 1. Ordnung ➥ für ODEs n. Ordnung !<br />

Numerische Verfahren Numerische Verfahren<br />

✸<br />

1.1<br />

p. 13<br />

Vorsicht: (1.1.5) weist spezielle Struktur auf, die ein generisches Verfahren für ODEs 1. Ordnung<br />

vielleicht nicht zur Verbesserung der Genauigkeit/Verringerung des Rechenaufwandes auszunutzen<br />

vermag (→ Diskussion in späteren Kapiteln)<br />

1.1<br />

p. 15<br />

Spezialfall: f(t,y) = f(y) ➡ autonome Differentialgleichung (hier I = R)<br />

ẏ = f(y) . (1.1.3)<br />

Bemerkung 1.1.4. Die Transformation (1.1.5) ist nur eine von (unendlich) vielen Möglichkeiten der<br />

Transformation von (1.1.4) in eine ODE 1. Ordnung.<br />

△<br />

Hier: f : D ⊂ R d ↦→ R d is ein (stetiges) Vektorfeld (Geschwindigkeitsfeld)<br />

Bemerkung 1.1.2 (Translationsinvarianz von Lösungen autonomer Dgl.).<br />

ODE + Anfangsbedigungen = Anfangswertproblem (AWP)<br />

ẏ = f(t,y) , y(t 0 ) = y 0 für ein (t 0 ,y 0 ) ∈ Ω . (1.1.6)<br />

t ↦→ y(t) Lösung von (1.1.3) ⇒ t ↦→ y(t + τ) Lösung von (1.1.3) ∀τ ∈ R<br />

△<br />

Definition 1.1.2 (Lösung eines Anfangswertproblems).<br />

Eine Lösung y : J ↦→ D, t 0 ∈ J, von (1.1.1), die y(t 0 ) = y 0 erfüllt, heisst Lösung des<br />

Anfangswertproblems (1.1.6).<br />

Bemerkung 1.1.3 (Autonomisierung).<br />

( )<br />

y(t)<br />

z(t) := =<br />

t<br />

(<br />

z ′<br />

z d+1<br />

)<br />

: (1.1.1) ↔ ż = g(z) , g(z) :=<br />

(<br />

f(zd+1 ,z ′ )<br />

)<br />

.<br />

1<br />

Bemerkung 1.1.5.<br />

Wenn ODE autonom<br />

Bem. 1.1.2<br />

➣ O.B.d.A. setze t 0 = 0 in (1.1.6)<br />

△<br />

△<br />

Bemerkung 1.1.6 (Anfangswerte für Dgl. höherer Ordnung).<br />

1.1<br />

p. 14<br />

Anfangswertproblem für gewöhnliche Differentialgleichung n-ter Ordnung (1.1.4):<br />

y (n) = f(t,y) , y(t 0 ) = y 0 ,ẏ(t 0 ) = y 1 , . ..,y (n−1) (t 0 ) = y n−1 . p. 16<br />

1.1


➡ n unabhängige Anfangswerte sind vorzugeben.<br />

Modellierung: Anfangswertprobleme (1.1.6) beschreiben deterministische Evolutionen<br />

△<br />

MATLAB-CODE: ODE-Integration<br />

fn = @(t,y) 5*y*(1-y);<br />

[t,y] = ode45(fn,[0 1.5],y0);<br />

plot(t,y,’r-’);<br />

Numerische Integration der logistischen Differentialgleichung<br />

in MATLAB mittels Funktion ode45():<br />

Funktions-Handle zur Übergabe der rechten Seite<br />

Zeitintervall<br />

Anfangswert<br />

1.2 Beispiele und Grundbegriffe<br />

Rückgabewerte:<br />

t ˆ= Vektor von Zeitpunkten, y ˆ= Vektor von Lösungswerten<br />

✸<br />

1.2.1 Ökologie<br />

Bemerkung 1.2.2 (AWP-Löser in MATLAB). → [26]<br />

[t,y] = solver(odefun,tspan,y0);<br />

Beispiel 1.2.1 (Resourcenbegrenztes Wachstum). [1, Sect. 1.1]<br />

Autonome logistische Differentialgleichung: (d = 1, D = R + , I = R)<br />

solver : ∈ { ode23, ode45, ode113, ode15s, ode23s, ode23t,<br />

ode23tb }<br />

odefun : Funktions-Handle vom Typ @(t,y) ↔ rechte Seite f(t,y)<br />

tspan : 2-Vektor: Anfangs- und Endzeitpunkt für numerische Integration<br />

y0 : (Vektor ) mit Anfangswerten y 0<br />

ẏ = (α − βy)y (1.2.1)<br />

1.2<br />

p. 17<br />

Warum so viele verschiedene Löser ?<br />

△<br />

1.2<br />

p. 19<br />

y ˆ= Populationsdichte, [y] = 1 m 2<br />

Beispiel 1.2.3 (Räuber-Beute-Modelle). [1, Sect. 1.1] & [11, Sect. 1.1.1]<br />

Wachstumsrate α − βy mit Wachstumskoeffizienten α, β > 0, [α] = 1 m2<br />

s , [β] = s<br />

Allgemein für ODE (1.1.1):<br />

y ∗ ∈ D, f(t,y ∗ ) = 0 ∀t ➣ y ∗ ist Fixpunkt/stationärer Punkt für die ODE → Sect. 3.2.<br />

Autonome Lotka-Volterra-Dgl.: (d = 2)<br />

˙u = (α − βv)u<br />

˙v = (δu − γ)v , I = R, D = (R+ ) 2 , α, β,γ, δ > 0 . (1.2.3)<br />

1.5<br />

Populationsdichten:<br />

1<br />

Attraktiver Fixpunkt y = α/β<br />

Repulsiver Fixpunkt y = 0<br />

u → Beute,<br />

v → Räuber<br />

y<br />

0.5<br />

0<br />

0 0.5 1 1.5<br />

t<br />

Fig. 3<br />

Richtungsfeld und Lösungskurven (α, β = 5)<br />

Separation der Variablen<br />

➥ Lösung des AWP für (1.2.1)<br />

mit y(0) = y 0 > 0<br />

y(t) =<br />

für alle t ∈ R<br />

αy 0<br />

βy 0 + (α − βy 0 ) exp(−αt) , (1.2.2)<br />

1.2<br />

p. 18<br />

Vektorfeld f für Lotka-Volterra-Dgl.<br />

Lösungskurven sind Trajektorien von Partikeln, die<br />

vom Geschwindigkeitsfeld f mitgetragen werden.<br />

✄<br />

(1.2.3) ⇒ 0 =(δ − γ u ) ˙u − (α v − β) ˙v = d (δu − γ log u − α log v + βv) = 0 .<br />

dt } {{ }<br />

=:I(u,v)<br />

v<br />

α/β<br />

γ/δ<br />

u<br />

Fig. 4<br />

1.2<br />

p. 20


Falls (u(t), v(t)) Lösung von (1.2.3) ⇒ I(u(t),v(t)) ≡ const<br />

Lösungen von (1.2.3) sind Niveaulinien von I<br />

A<br />

C<br />

Reaktion:<br />

k 2<br />

A + B<br />

←−<br />

−→ C + D . (1.2.5)<br />

k1<br />

6<br />

5<br />

4<br />

u = y 1<br />

v = y 2<br />

6<br />

5<br />

4<br />

B<br />

D<br />

Fig. 5<br />

mit Reaktionskonstanten k 1 (‘Hinreaktion”), k 2<br />

(“Rückreaktion”), [k 1 ] = [k 2 ] = cm3<br />

mol s .<br />

y<br />

3<br />

v = y 2<br />

3<br />

Faustregel:<br />

Geschwindigkeit einer bimolekularen Reaktion proportional zum Produkt der Konzentrationen<br />

der Reaktionspartner:<br />

2<br />

1<br />

2<br />

1<br />

for (1.2.5): ċ A = ċ B = −ċ C = −ċ D = −k 1 c A c B + k 2 c C c D . (1.2.6)<br />

c A , c B , c C ,c D ˆ= (zeitabhängige) Konzentrationen der Reaktanden, [c X ] = mol<br />

cm 3 ➥ c X (t) > 0; ∀t<br />

0<br />

1 2 3 4 5 6 7 8 9 10<br />

t<br />

Zeitabhängige Lösung, y 0 := ( u(0)<br />

v(0)<br />

)<br />

=<br />

( 42 )<br />

0<br />

0 0.5 1 1.5 2 2.5 3 3.5 4<br />

u = y 1<br />

Lösungskurven von (1.2.3) ↔ Niveaulinien von I<br />

Fixpunkt<br />

Geschlossene Lösungskurven ↔ (1.2.3) hat ausschliesslich periodische Lösungen<br />

(für u(0),v(0) > 0)<br />

Definition 1.2.1 (Erstes Integral).<br />

Ein Funktional I : D ↦→ R heisst erstes Integral/Invariante (engl. invariant) der ODE (1.1.1),<br />

wenn<br />

für jede Lösung y = y(t) von (1.1.1).<br />

I(y(t)) ≡ const<br />

Notwendige und hinreichende Bedingung für differenzierbares erstes Integral<br />

1.2<br />

✸<br />

p. 21<br />

(1.2.6) = autonome gewöhnliche Dgl. (1.1.3) mit<br />

⎛ ⎞<br />

⎛ ⎞<br />

c A (t)<br />

1<br />

y(t) = ⎜c B (t)<br />

⎟<br />

⎝c C (t) ⎠ , f(t,y) = (−k 1y 1 y 2 + k 2 y 3 y 4 ) ⎜ 1<br />

⎟<br />

⎝−1⎠ c D (t)<br />

−1<br />

Massenerhaltung:<br />

Beispiel 1.2.5 (Oregonator-Reaktion).<br />

d<br />

dt (c A(t) + c B (t) + c C (t) + c D (t)) = 0<br />

Spezialfall einer zeitlich oszillierenden Zhabotinski-Belousov-Reaktion [8]:<br />

BrO − 3 + Br− ↦→ HBrO 2<br />

HBrO 2 + Br − ↦→ Org<br />

BrO − 3 + HBrO 2 ↦→ 2 HBrO 2 + Ce(IV)<br />

(1.2.7)<br />

2 HBrO 2 ↦→ Org<br />

Ce(IV) ↦→ Br −<br />

✸<br />

1.2<br />

p. 23<br />

I erstes Integral von (1.1.1) ⇔ grad I(y) ·f(t,y) = 0 ∀(t,y) ∈ Ω . (1.2.4)<br />

Euklidisches Skalarprodukt<br />

1.2.2 Chemische Reaktionskinetik [5, Sect. 1.3]<br />

Beispiel 1.2.4 (Bimolekulare Reaktion).<br />

1.2<br />

p. 22<br />

y 1 := c(BrO − 3 ): ẏ 1 = −k 1 y 1 y 2 − k 3 y 1 y 3 ,<br />

y 2 := c(Br − ): ẏ 2 = −k 1 y 1 y 2 − k 2 y 2 y 3 + k 5 y 5 ,<br />

y 3 := c(HBrO 2 ): ẏ 3 = k 1 y 1 y 2 − k 2 y 2 y 3 + k 3 y 1 y 3 − 2k 4 y3 2 ,<br />

y 4 := c(Org): ẏ 4 = k 2 y 2 y 3 + k 4 y3 2 ,<br />

y 5 := c(Ce(IV)): ẏ 5 = k 3 y 1 y 3 − k 5 y 5 ,<br />

mit (dimensionslosen) Reaktionskonstanten:<br />

k 1 = 1.34 , k 2 = 1.6 · 10 9 , k 3 = 8.0 · 10 3 , k 4 = 4.0 · 10 7 , k 5 = 1.0 .<br />

Periodische chemische Reaktion ➽ Video 1, Video 2<br />

(1.2.8)<br />

MATLAB-Simulation mit Anfangswerten y 1 (0) = 0.06, y 2 (0) = 0.33 · 10 −6 , y 3 (0) = 0.501 · 10 −10 , 1.2<br />

y 4 (0) = 0.03, y 5 (0) = 0.24 · 10 −7 : p. 24


10 −3 Concentration of Br −<br />

Concentration of HBrO 2<br />

2.5<br />

2<br />

Phase flow for Zeeman model (α = 5.000000e−01,β=1.000000e−01)<br />

3<br />

Heartbeat according to Zeeman model (α = 5.000000e−01,β=1.000000e−01)<br />

l(t)<br />

p(t)<br />

2<br />

10 −4<br />

10 −6<br />

1.5<br />

1<br />

1<br />

10 −5<br />

10 −7<br />

0.5<br />

p<br />

0<br />

l/p<br />

0<br />

c(t)<br />

10 −6<br />

10 −7<br />

c(t)<br />

10 −8<br />

−0.5<br />

−1<br />

−1<br />

10 −8<br />

10 −9<br />

−1.5<br />

−2<br />

−2<br />

10 −9<br />

10 −10<br />

−2.5<br />

0<br />

l<br />

2 2.5<br />

Fig. 10<br />

−2.5 −2 −1.5 −1 −0.5 0.5 1 1.5<br />

−3<br />

0 10 20 30 40 50 60 70 80 90 100<br />

time t<br />

Fig. 11<br />

10 −10<br />

0 20 40 60 80 100 120 140 160 180 200<br />

Fig. 6<br />

t<br />

10 −5 t<br />

10 −11<br />

0 20 40 60 80 100 120 140 160 180 200<br />

Fig. 7 ✸<br />

Beobachtung: α ≪ 1 ➤ “Kammerflimmern”<br />

✸<br />

1.2.3 Physiologie<br />

1.2.4 Mechanik<br />

Beispiel 1.2.6 (Zeemans Herzschlagmodell). → [3, p. 655] p. 25<br />

1.2<br />

Beispiel 1.2.7 (Mathematisches Pendel).<br />

[1, I.3. Bsp. (3.4c)]<br />

1.2<br />

p. 27<br />

Grössen:<br />

mit Parametern:<br />

l = l(t) ˆ= Länge der Herzmuskelfaser<br />

p = p(t) ˆ= elektrochemisches Potential<br />

Phänomenologisches Modell:<br />

˙l = −(l 3 − αl + p) ,<br />

ṗ = βl ,<br />

α ˆ= Vorspannung der Muskelfaser<br />

β ˆ= (phänomenologischer) Rückkopplungsparameter<br />

Vektorfelder und numerische Lösungen für verschiedene Parameter:<br />

(1.2.9)<br />

Zustandsraum D = Konfigurationsraum für Minimalkoordinaten<br />

(= Auslenkungswinkel)<br />

➣<br />

d = 1, D = T (Kreislinie = “1D Torus”)<br />

Auslenkungswinkel α ∈ [−π,π[)<br />

Newtonsche Bewegungsgleichungen:<br />

ml ¨α(t) = −mg sinα(t) . (1.2.10)<br />

autonome ODE 2. Ordnung, siehe (1.1.4)<br />

l<br />

α<br />

mg<br />

Fig. 12<br />

2.5<br />

2<br />

1.5<br />

Phase flow for Zeeman model (α = 3,β=1.000000e−01)<br />

3<br />

2<br />

Heartbeat according to Zeeman model (α = 3,β=1.000000e−01)<br />

l(t)<br />

p(t)<br />

Formale Umwandlung in gewöhnliche Differentialgleichungen 1. Ordnung:<br />

Winkelgeschwindigkeit p := ˙α ⇒ d ( ) ( )<br />

α p<br />

=<br />

dt p − g l sin α . (1.2.11)<br />

1<br />

0.5<br />

1<br />

Energieerhaltung: E(t) = 1 2 ml2 p(t) 2 − mgl cosα(t) ⇒ E(t) ≡ const. (1. Integral → Def. 1.2.1) .<br />

p<br />

0<br />

−0.5<br />

l/p<br />

0<br />

kinetische Energie T(t)<br />

potentielle Energie U(t)<br />

−1<br />

−1<br />

−1.5<br />

−2<br />

−2<br />

−2.5<br />

−2.5 −2 −1.5 −1 −0.5 0<br />

l<br />

0.5 1 1.5 2 2.5<br />

Fig. 8<br />

−3<br />

0 10 20 30 40 50 60 70 80 90 100<br />

time t<br />

Fig. 9<br />

1.2<br />

p. 26<br />

1.2<br />

p. 28


4<br />

3<br />

Phase field for pendulum: l=1, g=1<br />

3<br />

2<br />

✬<br />

Lemma 1.2.3 (“Energieerhaltungssatz”).<br />

Die Hamilton-Funktion H is ein erstes Integral des autonomen Hamiltonschen Systems.<br />

✩<br />

p = velocity<br />

2<br />

1<br />

0<br />

−1<br />

−2<br />

−3<br />

−4<br />

−4 −3 −2 −1 0<br />

q = α<br />

1 2 3 4<br />

Fig. 13<br />

Vektorfeld für (1.2.11)<br />

p = velocity<br />

1<br />

0<br />

−1<br />

−2<br />

−3<br />

−3 −2 −1 0 1 2 3<br />

q = α<br />

Fig. 14<br />

Isolinien der Energie ↔ Lösungskurven<br />

✸<br />

✫<br />

Hamiltonsches System in der Form (1.1.1):<br />

(<br />

p<br />

y = ⇒ (1.2.12) ⇔ ẏ = J<br />

q)<br />

−1 · gradH(y) , J :=<br />

✎ Notation: I n ˆ= n × n Einheitsmatrix<br />

( )<br />

0 In<br />

∈ R<br />

−I n 0<br />

2n,2n . (1.2.13)<br />

Zusammen mit (1.2.4) folgt sofort Lemma 1.2.3, denn J ist schiefsymmetrisch (J T = −J) und für<br />

jede schiefsymmetrische Matrix A ∈ R n,n gilt x · Ax = 0 ∀x ∈ R n .<br />

Beispiel 1.2.9 (Massenpunkt im Zentralfeld).<br />

✪<br />

Newtonsche Bewegungsgleichungen eines Körpers (Ortskoordinate r = r(t)) mit Masse m > 0 im<br />

Kraftfeld f : R n ↦→ R n , n ∈ N:<br />

m ¨r(t) = f(r(t)) . (1.2.14)<br />

Definition 1.2.2 (Hamiltonsche Differentialgleichung).<br />

→ [11, Sect. VI.1.2]<br />

Es sei n ∈ N, M ⊂ R n offen, H : R n × M ↦→ R, H = H(p,q), stetig differenzierbar. Dann<br />

heisst die gewöhnliche Differentialgleichung erster Ordnung<br />

ṗ(t) = − ∂H<br />

∂q (p(t),q(t)) ,<br />

∂H<br />

˙q(t) = (p(t),q(t)) , (1.2.12)<br />

∂p<br />

ein autonomes Hamiltonsches System mit Hamilton-Funktion (engl. Hamiltonian) H.<br />

1.2<br />

p. 29<br />

Spezialfall:<br />

radialsymmetrisches konservatives Kraftfeld<br />

f(x) = −grad U(x) , x ∈ R n , U(x) = G(‖x‖) . (1.2.15) p. 31<br />

√<br />

✎ Notation: ‖x‖ := x 2 1 + · · · + x2 n ˆ= Euklidische Norm eines Vektors<br />

Speziell G(r) = G 0<br />

r<br />

:<br />

Keplerproblem: [11, Sect. I.2], [5, Sect. 1.1]<br />

Bewegung im Gravitationsfeld einer Zentralmasse<br />

(Sonne – Planet)<br />

1.2<br />

Für Pendelgleichung (1.2.11): n = 1, M =]0, 2π[, q ↔ α,<br />

H(p,q) = 2 1p2 − g l cos q (Gesamtenergie !)<br />

Terminologie: q ˆ= Ortsvariable, Konfigurationsvariable,<br />

p ˆ= Impulsvariable (engl. momentum variable),<br />

M ˆ= Konfigurationsraum.<br />

Bemerkung 1.2.8. Bewegungsgleichungen der klassischen Mechanik führen auf autonome Hamiltonsches<br />

Systeme, siehe [1, Sect. I.3] für eine Einführung, [2] für eine umfassende Darstellung.<br />

△<br />

←→<br />

Hamiltonsches System (→ Def. 1.2.2) mit Konfigurationsraum M := R n \ {0}, q := r, und<br />

Hamilton-Funktion (Energie) H(p,q) := 1<br />

2m ‖p‖2 + G(‖q‖) (1.2.16)<br />

p := mṙ ˆ= Impuls, kinetische Energie potentielle Energie<br />

ṗ = −G ′ (‖q‖) q<br />

‖q‖ , ˙q = m−1 p . (1.2.17)<br />

✬<br />

Lemma 1.2.4 (Bahnebene).<br />

Jede Lösung ( p<br />

q<br />

)<br />

: J ⊂ R ↦→ R 2n von (1.2.17) erfüllt<br />

p(t),q(t) ∈ Span {p(t 0 ),q(t 0 )} ∀t 0 ,t ∈ J .<br />

✩<br />

1.2<br />

p. 30<br />

✫<br />

✪<br />

1.2<br />

p. 32


✬<br />

Lemma 1.2.5 (Drehmomenterhaltung).<br />

Für n = 3 ist das Drehmoment (bzgl. 0) M := p × q (engl. angular momentum) ein erstes<br />

Integral (→ Def. 1.2.1) von (1.2.17).<br />

✫<br />

✎ Notation: × ˆ= Vektorprodukt im R 3 :<br />

⎛<br />

a × b = ⎝ a ⎞<br />

2b 3 − a 3 b 2<br />

a 3 b 1 − a 1 b 3 ⎠ .<br />

a 1 b 2 − a 2 b 1<br />

✬<br />

Theorem 1.2.6 (2. Keplersches Gesetz). Löst<br />

t ↦→ q(t) die Differentialgleichung (1.2.17),<br />

so überstreicht der Vektor q(t) in gleichen<br />

Zeitspannen gleiche Flächen in der Bahnebene.<br />

✫<br />

✩<br />

✪<br />

✩<br />

✪<br />

Definition 1.3.1 (Maximale Fortsetzbarkeit einer Lösung).<br />

Eine Lösung y ∈ C 1 ([t 0 , t 1 [,D) (→ Def. 1.1.1) des AWP (1.1.6) heisst maximal (in die Zukunft)<br />

fortsetzbar<br />

⇔: Es gibt eine Lösung ỹ ∈ C 1 ([t 0 ,t + [,D) des AWP (1.1.6) mit t + ≥ t 1 , y(t) = ỹ(t)<br />

∀t 0 ≤ t < t 1 , wobei genau einer der drei folgenden Fälle zutrifft:<br />

(i) t + = ∞ (Lösung existiert für alle Zeiten)<br />

(ii) t + < ∞ ,<br />

lim ‖ỹ(t)‖ = ∞<br />

t→t +<br />

( Blow-up”) ”<br />

(iii) t + < ∞ ,<br />

lim dist((t,ỹ(t)),∂Ω) = 0 .<br />

t→t +<br />

( Kollaps”)) ”<br />

(Analog: Maximale Fortsetzbarkeit in die Vergangenheit auf ]t − , t 0 ])<br />

1. Keplersches Gesetz (für Gravitationspotential):<br />

Für G(r) = G 0 r sind die Lösungskurven von (1.2.14) Ellipsen mit Brennpunkt 0.<br />

1.3 Theorie [5, Sect. 2], [1, Ch. II]<br />

✸<br />

1.3<br />

p. 33<br />

y<br />

(i)<br />

1.3<br />

p. 35<br />

Zu gegebener rechter Seite f : Ω := I × D ↦→ R d , d ∈ N, I ⊂ R offenes Intervall, D ⊂ R d offene<br />

Menge, betrachte das Anfangswertproblem<br />

(iii)<br />

: ”<br />

Blow-Up”<br />

ẏ = f(t,y) , y(t 0 ) = y 0 für gegebenes (t 0 ,y 0 ) ∈ Ω . (1.1.6)<br />

(ii)<br />

: ”<br />

Kollaps”<br />

: J(t 0 , y 0 ) = R<br />

t<br />

1.3.1 Existenz und Eindeutigkeit von Lösungen<br />

Zwei wichtige Begriffe:<br />

Notation: J(t 0 ,y 0 ) =]t − ,t + [ = maximales Existenzintervall für Lösung von AWP (1.1.6).<br />

1.3<br />

p. 34<br />

1.3<br />

p. 36


Definition 1.3.2 (Lokale Lipschitz-Stetigkeit).<br />

f : Ω ↦→ R d heisst lokal Lipschitz-stetig<br />

⇔:<br />

∀(t,y) ∈ Ω: ∃δ > 0, L > 0:<br />

‖f(τ,z) − f(τ,w)‖ ≤ L ‖z − w‖<br />

∀z,w ∈ D: ‖z − y‖ < δ, ‖w − y‖ < δ, ∀τ ∈ I: |t − τ| < δ .<br />

Damit kann (1.3.1) auf dem Intervall [t 0 , t 1 ] als Fixpunktgleichung T(y) = y in F geschrieben werden.<br />

Aus der lokalen Lipschitz-Stetigkeit folgt für genügend kleines t 1 > t 0 , dass T eine Kontraktion<br />

ist. Mit dem Banachschen Fixpunktsatz folgt die Behauptung für das Zeitintervall (t 0 , t 1 ). Das maximale<br />

Existenzintervall erhält man über Fortsetzung.<br />

Bemerkung 1.3.1 (Definitionsintervalle von Lösungen von AWPen).<br />

Lokale Lipschitz-Stetigkeit impliziert globale Lipschitz-Stetigkeit auf jeder kompakten Teilmenge K<br />

von Ω:<br />

∃L = L(K) > 0: ‖f(τ,z) − f(τ,w)‖ ≤ L ‖z − w‖ ∀(τ,z), (τ,w) ∈ K .<br />

Die Lösung eines Anfangswertproblems sucht sich Ihren Definitionsbereich selbst”<br />

”<br />

!<br />

Definitionsbereich J(t 0 ,y 0 ) hängt (meist) von (t 0 ,y 0 ) ab !<br />

Terminologie: Falls J(t 0 ,y 0 ) = I ➥ Lösung y : I ↦→ R d ist global.<br />

△<br />

✎ Notation: D y f ˆ= Ableitung von f nach Zustandsvariablen (= Jacobimatrix ∈ R d,d !)<br />

Ein einfaches Kriterium für lokale Lipschitz-Stetigkeit (Beweis über Mittelwertsatz):<br />

✬<br />

✩<br />

1.3<br />

p. 37<br />

1.3<br />

p. 39<br />

Lemma 1.3.3 (Kriterium für lokale Lipschitz-Stetigkeit).<br />

Sind f und D y f stetig auf Ω, so ist f lokal Lipschitz-stetig (→ Def. 1.3.2).<br />

✫<br />

✪<br />

✬<br />

✩<br />

Theorem 1.3.4 (Satz von Peano & Picard-Lindelöf). [1, Satz II(7.6)]<br />

Falls f : ˆΩ ↦→ R d lokal Lipschitz-stetig in der Variablen y, so hat das AWP (1.1.6) ∀(t 0 ,y 0 ) ∈ ˆΩ<br />

eine eindeutige maximal fortsetzbare Lösung y : J(t 0 ,y 0 ) ↦→ D.<br />

✫<br />

✪<br />

Beweisidee: (→ [27, I.§6]) Integration von (1.1.6) liefert<br />

y(t) = y 0 +<br />

∫ t<br />

f(s,y(s)) ds,<br />

t 0<br />

t ≥ t 0 . (1.3.1)<br />

Definiere Raum<br />

F = {y ∈ C([t 0 , t 1 [), y(t 0 ) = y 0 }<br />

für ein t 1 > t 0 und den Operator<br />

∫ t<br />

T : F → F, T : y ↦→ z(t) = y 0 + f(s,y(s)) ds.<br />

1.3<br />

t 0<br />

p. 38<br />

Definition 1.3.5 (Evolutionsoperator).<br />

Die zweiparametrige Familie Φ s,t von Abbildungen Φ s,t : D ↦→ D heisst Evolutionsoperator<br />

zur Dgl. ẏ = f(t,y), wenn<br />

t ∈ J(s,z) ↦→ Φ s,t z Lösung des AWP<br />

{<br />

˜Ω ↦→ D<br />

Definitionsbereich: Φ :<br />

(t,s,y) ↦→ Φ s,t y<br />

ẏ = f(t,y) ,<br />

y(s) = z ,<br />

, ˜Ω :=<br />

⋃<br />

(s,y)∈Ω<br />

für alle (s,z) ∈ Ω .<br />

J(s,y) × {(s,y)}<br />

Satz 1.3.4 ⇒ Φ t,t = Id , Φ s,t y = (Φ r,t ◦ Φ s,r )y , t,r ∈ J(s,y), (s,y) ∈ Ω . (1.3.2)<br />

Konvention: Für autonome Differentialgleichungen (1.1.3) (→ Bem. 1.1.5): Φ t := Φ 0,t<br />

➣ Falls J(0,y) = R ∀y ∈ D aus (1.3.2):<br />

Gruppe von Abbildungen von D: Φ s ◦ Φ t = Φ s+t , Φ −t ◦ Φ t = Id ∀t ∈ R . (1.3.3)<br />

1.3<br />

p. 40


Bemerkung 1.3.2 (Numerische Integratoren als approximative Evolutionsoperatoren).<br />

MATLAB-Lösung eines , vgl. Bem. 1.2.2<br />

[t,y] = solver(odefun,[t0 T,y0])<br />

1<br />

0.9<br />

0.8<br />

0.7<br />

0.6<br />

0.014<br />

0.012<br />

0.01<br />

0.008<br />

y(t)<br />

0.5<br />

y(t)<br />

Φ s,t y<br />

0.4<br />

0.3<br />

0.006<br />

0.004<br />

☞<br />

Numerische Lösungsverfahren für Anfangswertprobleme für eine gewöhnliche Differentialgleichung<br />

realisieren Approximationen von Evolutionsoperatoren → Def. 2.1.1.<br />

△<br />

0.2<br />

0.1<br />

0<br />

0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8<br />

t<br />

Fig. 16<br />

0.002<br />

0<br />

t<br />

0.768 0.769<br />

Fig. 17<br />

0.76 0.761 0.762 0.763 0.764 0.765 0.766 0.767<br />

Beispiel 1.3.3 (Autonome skalare Differentialgleichungen). ✄ d = 1<br />

✸<br />

• f(t,y) = −λy, λ ∈ R Lösung des AWP y(t) = y 0 e −λt , t ∈ R<br />

existiert für alle Zeiten, d.h. ]t − ,t + [= R für jedes y 0 : globale Lösung.<br />

Zugehöriger Evolutionsoperator:<br />

Φ t : R ↦→ R , Φ t (y 0 ) = e −λt y 0 .<br />

1.3.2 Lineare AWPe<br />

• f(t,y) = λy 2 , λ ∈ R: ẏ = λy 2 , y(0) = y 0 ∈ R p. 41<br />

1.3<br />

Vorbereitung:<br />

Basiswechsel im Zustandsraum (kovariante Transformation):<br />

ŷ = S −1 y , S ∈ R d,d reguläre Matrix (zeitunabhängig). p. 43<br />

1.3<br />

Lösung:<br />

⎧<br />

⎨ 1<br />

y(t) = y0 −1<br />

⎩<br />

−λt , falls y 0 ≠ 0 , (Blow-up)<br />

,<br />

0 , falls y 0 = 0 .<br />

λ, y 0 > 0 ⇒ J(0, y 0 ) =] − ∞, 1/λy 0 [ .<br />

Lösungskurven für λ = 1<br />

✄<br />

y(t)<br />

10<br />

8<br />

6<br />

4<br />

2<br />

0<br />

−2<br />

−4<br />

−6<br />

−8<br />

y 0<br />

= −0.5<br />

y 0<br />

= −1<br />

y 0<br />

= 1<br />

y 0<br />

= 0.5<br />

−10<br />

−3 −2 −1 0<br />

t<br />

1 2 3<br />

Fig. 15<br />

y löst<br />

{<br />

ẏ = f(t,y) ,<br />

y(t 0 ) = y 0<br />

⇔ ŷ := S −1 y löst<br />

{ ˙ŷ = ̂f(t,ŷ) ,<br />

ŷ(t 0 ) = S −1 y 0<br />

mit ̂f(t,ŷ) = S −1 f(t,Sŷ) .<br />

Betrachte Lineare Differentialgleichung mit konstanten Koeffizienten im R d :<br />

(1.3.4)<br />

D = R d , Ω = I × R d<br />

Koeffizientenmatrix A ∈ R d,d<br />

ẏ = Ay + g(t) . (1.3.5)<br />

” Quellterm”: stetige Funktion g : I ↦→ Rd<br />

Annahme:<br />

A diagonalisierbar, ∃S ∈ R d,d regulär: S −1 AS = diag(λ 1 ,...,λ d ), λ i ∈ C<br />

• f(t,y) = − 1 √ y<br />

, D = R + , Anfangswert y(0) = 1<br />

➣ y(t) = (1 − 3t/2) 2/3 , t − = −∞, t + = 2/3<br />

(Lösung läuft zum Rand y = 0 des erweiterten Zustandraums: Kollaps)<br />

• f(t,y) = sin(1/y) − 2, D = R + , Anfangswert y(0) = 1 [5, Bsp. 2.14]<br />

Lösung y(t) erfüllt ẏ ≤ −1 ➥ y(t) ≤ 1 − t ➥ Kollaps für t ∗ < 1.<br />

1.3<br />

p. 42<br />

• g ≡ 0: ẏ = Ay (autonome homogene lineare Dgl., allgemeinere Diskussion [5, Sect. 3.2.2])<br />

ŷ := S −1 y löst<br />

˙ŷ 1 = λ 1 ŷ 1 ,<br />

. ⇒ ŷ i (t) = (S −1 y 0 ) i e λit , t ∈ R .<br />

˙ŷ d = λ d ŷ<br />

⎛ d<br />

e λ ⎞<br />

1t<br />

y(t) = S⎜<br />

...<br />

⎟<br />

⎝ . .. ⎠ S−1 y 0 .<br />

e λ dt<br />

} {{ }<br />

Matrixexponentialfunktion exp(At)<br />

1.3<br />

p. 44


Allgemeine Definition der Matrixexponentialfunktion durch<br />

Wichtige Eigenschaft:<br />

∞∑ 1<br />

“Matrixexponentialreihe”: exp(M) =<br />

k! Mk . (1.3.6)<br />

k=0<br />

Matrixexponentialfunktion kommutiert mit Ähnlichkeitstransformationen<br />

M = S −1 AS ⇒ exp(M) = S −1 exp(A)S ∀A,M,S ∈ C d,d , S regulär. (1.3.7)<br />

• Inhomogener Fall<br />

Ansatz:<br />

ẏ(t) = Ay(t) + g(t) partikuläre Lösung durch ”<br />

Variation der Konstanten”:<br />

y(t) = exp(At)z(t) mit z ∈ C 1 (R, R d ) → [1, Thm I(5.14)]<br />

ẏ(t) = A exp(At)z(t) + exp(At)ż(t) = Ay(t) + g(t) = A exp(At)z(t) + g(t)<br />

∫ t<br />

ż(t) = exp(−At)g(t) ⇒ z(t) = y 0 + exp(−Aτ)g(τ) dτ<br />

t 0<br />

y(t) = exp(At)y 0 + ∫ t<br />

t0<br />

exp(A(t − τ))g(τ) dτ<br />

Lsg. des homogenen Problems<br />

Faltung mit Inhomogenität<br />

Bemerkung 1.3.5 (Bedeutung linearer AWPe).<br />

Linearisierung um einen stationären Punkt f(y ∗ ) = 0:<br />

y ≈ y ∗ : f(y) = D y f(y ∗ )(y − y ∗ ) + O(|y − y ∗ | 2 ) ,<br />

falls f ∈ C 2 .<br />

➣ Lösungen von ẏ = f(y) verhalten sich in der Umgebung von y ∗ (qualitativ) wie Lösungen der<br />

linearen ODE ẏ = D y f(y ∗ )y.<br />

△<br />

1.3.3 Sensitivität [5, Sect. 3.1]<br />

1.3.3.1 Grundbegriffe<br />

1.3<br />

p. 45<br />

Erinnerung<br />

(→ Vorlesung ”<br />

Numerische Methoden”):<br />

1.3<br />

p. 47<br />

Allgemeinere Betrachtungen<br />

→ [1, Kap. III]:<br />

Bemerkung 1.3.4 (Allgemeine Variation-der-Konstanten-Formel). → [1, Thm. (11.13)]<br />

Problem = Abbildung Π : X ↦→ Y von Datenraum X in den Ergebnisraum Y<br />

(beide versehen mit Metriken d X , d Y )<br />

A : J ⊂ R ↦→ R d,d stetige Matrixfunktion, J ⊂ R Intervall<br />

g : J ↦→ R d stetig<br />

✗<br />

✖<br />

Problem ist wohlgestellt (engl. well-posed), wenn Π stetig.<br />

✔<br />

✕<br />

(s, t) ↦→ E(s, t) ∈ R d,d beschreibt Evolutionsoperator, definiert durch<br />

∂E<br />

(s, t) = A(t)E(s, t) ∀(s, t) ∈ J × J , E(s, s) = I . (1.3.8)<br />

∂t<br />

Dann ist die (eindeutige → Thm. 1.3.4) Lösung des nicht-autonomen linearen Anfangswertproblems<br />

gegeben durch<br />

ẏ = A(t)y + g(t) , y(t 0 ) = y 0 ,<br />

Kondition/Sensitivität eines Problems:<br />

Mass für Einfluss von Störungen in den Daten auf das Ergebnis<br />

d<br />

Absolute Kondition: κ abs := sup Y (Π(x), Π(x ′ ))<br />

x,x ′ ∈X,x≠x ′ d X (x,x ′ . (1.3.10)<br />

)<br />

Sprachgebrauch: Problem ist ”<br />

gut konditioniert”, wenn ”<br />

κ abs ≈ 1”<br />

∫t<br />

y(t) = E(t, t 0 )y 0 +<br />

t 0<br />

E(t, s)g(s) ds , t ∈ J . (1.3.9)<br />

△<br />

1.3<br />

p. 46<br />

• Wohlgestelltheit und Gutkonditioniertheit eines Problems hängen entscheidend von den<br />

gewählten Metriken ab. Diese sind bei praktischen Problemen dadurch bestimmt, “woran der<br />

Anwender interessiert ist”.<br />

1.3<br />

p. 48


• Als Folge von unvermeidlichen Eingabefehlern, macht nur die numerische Lösung von<br />

➡<br />

wohlgestellten Problemen Sinn.<br />

• Absolute Konditionszahl ist die globale Lipschitz-Konstante der Problemabbildung (bzgl. der<br />

gewählten Metriken).<br />

Asymptotische (absolute) Kondition (linearisierte Störungstheorie):<br />

κ ∞ d<br />

abs := lim sup Y (Π(x), Π(x ′ ))<br />

δ→0 0 0 ,<br />

1 für λ < 0 .<br />

(1.3.14)<br />

(1.3.15)<br />

1.3.3.2 Unser Problem: das Anfangswertproblem<br />

1.3<br />

p. 49<br />

1.3.3.3 Wohlgestelltheit<br />

✸<br />

1.3<br />

p. 51<br />

Anwendung (der abstrakten Konzepte) auf Anfangswertproblem (1.1.6):<br />

Szenario ➊:<br />

✬<br />

Annahme:<br />

Rechte Seite f : I × D ↦→ R d von (1.1.6) erfüllt globale Lipschitzbedingung<br />

(vgl. lokale Lipschitzbedingung aus Def. 1.3.2)<br />

✩<br />

Eingabedatum y 0 ➥ Datenraum R d , Metrik: Euklidische Vektornorm<br />

Ausgabe y(T) zu Endzeitpunkt T > t 0 ➥ Ergebnisraum R d , Metrik: Euklidische Vektornorm<br />

Szenario ➋:<br />

Eingabedatum y 0 ➥ Datenraum R d , Metrik: Euklidische Vektornorm<br />

Ausgabe: Lösungsfunktion t ∈ J ⊂ I ↦→ y(T)<br />

➥ Ergebnisraum C 0 (J, R d ), Metrik: Maximumnorm ‖·‖ L ∞ (J)<br />

Szenario ➌:<br />

∀t ∈ I: ∃L(t) > 0: ‖f(t,x) − f(t,y)‖ ≤ L(t) ‖x − y‖ ∀x,y ∈ D ⊂ R d , (1.3.16)<br />

für geeignete Vektornorm ‖·‖ auf R d .<br />

✫<br />

✬<br />

Theorem 1.3.6 (Lipschitz-stetige Abhängigkeit vom Anfangswert).<br />

Es seien y,ỹ Lösungen des AWP (1.1.6) zu Anfangswerten y 0 ∈ D bzw. ỹ 0 ∈ D. Unter der<br />

Annahme (1.3.16) mit stetigem L(t) gilt<br />

(∫ t )<br />

‖y(t) − ỹ(t)‖ ≤ ‖y 0 − ỹ 0 ‖ · exp L(τ) dτ ∀t ∈ I .<br />

t 0<br />

✫<br />

Hilfsmittel beim Beweis:<br />

✪<br />

✩<br />

✪<br />

Eingabedaten: Anfangswert y 0 und rechte Seite f<br />

➥ Datenraum R d ×C 1 (I ×R d , R d ), Metrik: Euklidische Vektornorm & Maximumnorm<br />

1.3<br />

p. 50<br />

1.3<br />

p. 52


✬<br />

Lemma 1.3.7 (Gronwalls Lemma). → [1, Sect. II.6], [5, Lemma 3.9]<br />

Sei J ⊂ R Intervall, t 0 ∈ J, u,a,β ∈ C 0 (J, R + ), a monoton wachsend. Dann gilt<br />

∫ t<br />

∫ t<br />

u(t) ≤ a(|t − t 0 |) + β(τ)u(τ) dτ ⇒ u(t) ≤ a(|t − t 0 |) exp<br />

∣ β(τ) dτ<br />

∣ .<br />

t 0 t 0<br />

✫<br />

➤ AWP (1.1.6) is wohlgestellt unter Annahme (1.3.16) !<br />

➤ Schranke für absolute punktweise Kondition (für Endzeitpunkt T )<br />

( ∫ ) T<br />

κ abs ≤ exp L(τ) dτ . (1.3.18)<br />

t 0<br />

Bemerkung 1.3.7 ( ”<br />

Gronwall-Schranke” für Kondition).<br />

Schranke aus (1.3.18) oft extrem pessimistisch !<br />

für skalares lineares AWP mit λ < 0, punktweise Kondition, Endzeit-<br />

Beispiel (siehe Bsp. 1.3.6):<br />

punkt T > 0 (1.3.12)<br />

(1.3.18) ➣ κ abs ≤ e |λ|T T →∞<br />

↦−→ ∞ ←→ κ abs = e λT T →∞<br />

↦−→ 0 .<br />

1.3.3.4 Asymptotische Kondition<br />

✩<br />

✪<br />

1.3<br />

△ p. 53<br />

(Annahme:<br />

( )<br />

∂ ∂Φ<br />

∂t ∂y (t 0, t,y) = d<br />

dy f(t,Φt0,t y) = ∂f<br />

∂y (t,Φt0,t y) d<br />

dy Φt0,t y .<br />

f nach y stetig differenzierbar)<br />

Die Propagationsmatrix (Wronski-Matrix),<br />

zum AWP (1.1.6) erfüllt Anfangswertproblem für<br />

Beachte:<br />

✗<br />

✖<br />

Variationsgleichung<br />

W(t; t 0 ,z) := d<br />

dy Φt0,t ∈ R y|y=z<br />

d,d , (1.3.19)<br />

d<br />

dt W(t; t 0,y 0 ) = ∂f<br />

∂y (t,Φt0,t y 0 )W(t;t 0 ,y 0 ) , (1.3.20)<br />

W(t 0 ;t 0 ,y 0 ) = I .<br />

Variationsgleichung = lineare Differentialgleichung mit D = R d,d<br />

(☞ Matrix-Differentialgleichung)<br />

y 0 ← y 0 + δy 0 ➣ δy(t) ≈ W(t;t 0 ,y 0 )δy 0 für ”<br />

kleine δy 0 ”<br />

Intervallweise asymptotische Kondition des AWP (1.1.6) auf [t 0 , T] (bzgl. Norm ‖·‖ auf R d ):<br />

1.3.3.5 Schlecht konditionierte AWPe<br />

κ ∞ abs := max{‖W(t;t 0,y 0 )‖ : t 0 ≤ t ≤ T } . (1.3.21)<br />

✔<br />

✕<br />

1.3<br />

p. 55<br />

Szenario ➊:<br />

Wie wirken sich kleine Störungen im Anfangswert y 0 in (1.1.6) auf die Lösung y(t)<br />

aus ?<br />

Beispiel 1.3.8 (Lorenz-System). → [23, 18]<br />

Asymptotische absolute Konditionszahl durch differentielle Konditionsanalyse, siehe (1.3.11):<br />

Erforderlich: ”<br />

Differenzieren der Lösung eins Anfagswertproblems nach dem Anfangswert y 0 ”<br />

(Dabei wird die Zeit t als fester ”<br />

Parameter” behandelt.)<br />

➣ Zu betrachten ist, mit Evolution Φ s,t y = Φ(s, t,y)<br />

dy(t)<br />

dy 0<br />

∣ ∣∣∣t<br />

fest<br />

←→ ∂Φ<br />

∂y (t 0,t,y 0 ) .<br />

Autonome Differentialgleichung, D = R 3 ,<br />

σ,ρ, β ∈ R + :<br />

ẋ =σ(y − x) ,<br />

ẏ =x(ρ − z) − y ,<br />

ż =xy − βz .<br />

(1.3.22)<br />

d<br />

dy<br />

d<br />

dt Φt 0,t y = f(t,Φ<br />

t 0 ,t y) für festes y .<br />

(<br />

d ∂<br />

y)<br />

dy ∂t Φt0,t = d<br />

dy f(t,Φt0,t y)<br />

1.3<br />

p. 54<br />

1.3<br />

p. 56


−20<br />

σ = 10, ρ = 28, β = 2.666667e+00<br />

— : Anfangswert y 0 := (8, 9, 9.5) T<br />

— : Anfangswert y 0 := (8, 9, 9.5+10 −5 ) T<br />

3<br />

m 1<br />

= 2, m 2<br />

= 1, l 1<br />

= 1, l 2<br />

= 1.732051e+00<br />

3<br />

m 1<br />

= 2, m 2<br />

= 1, l 1<br />

= 1, l 2<br />

= 1.732051e+00<br />

45<br />

40<br />

35<br />

30<br />

Aus der Theorie der<br />

reellen dynamischen Systeme [18]:<br />

Lorenz-System ist chaotisches System<br />

2<br />

1<br />

2<br />

1<br />

z<br />

25<br />

20<br />

15<br />

10<br />

Anfängliche exponetielle Divergenz der<br />

beschränkten Trajektorien<br />

(Schranke (1.3.18) gilt für kleine T !)<br />

0<br />

−1<br />

0<br />

−1<br />

5<br />

−10<br />

0<br />

10<br />

x<br />

20 −30<br />

−20<br />

0<br />

−10<br />

y<br />

10<br />

20<br />

30<br />

Fig. 18<br />

Winzige Störungen der Anfangswerte<br />

➤ völlig verschiedene Zustände nach exponentiell<br />

kurzer Zeit”.<br />

”<br />

✸<br />

−2<br />

−3<br />

Fig. 20<br />

−4 −3 −2 −1 0 1 2 3 4<br />

θ 1 (0) = − π 2 , θ 2(0) = π, p 1 (0) = p 2 (0) = 0<br />

−2<br />

−3<br />

Fig. 21<br />

−4 −3 −2 −1 0 1 2 3 4<br />

θ 1 (0) = − π 2 , θ 2(0) = π + 10 −2 ,<br />

p 1 (0) = p 2 (0) = 0<br />

Ziel numerischer Simulation chaotischer dynamischer Systeme:<br />

Indentifikation des ”<br />

typischen” Verhaltens von Trajektorien<br />

[Simulation, MATLAB, ode45, Zeit [0, 20], Schrittweite 10 −3 ]<br />

✸<br />

★<br />

✥<br />

Essentiell:<br />

✧<br />

Beispiel 1.3.9 (Doppelpendel).<br />

Korrekte Behandlung von Erhaltungsgrössen, z.B. Gesamtenergie<br />

(→ Erste Integrale, Def. 1.2.1)<br />

✦<br />

1.3<br />

p. 57<br />

1.4 Polygonzugverfahren<br />

1.4<br />

p. 59<br />

l 2<br />

l 1<br />

θ 1<br />

θ 2<br />

m 1<br />

m 2<br />

Fig. 19<br />

✁<br />

(Mathematisches) Doppelpendel mit fester Aufhängung und masselosen<br />

Stäben.<br />

Minimalkoordinaten: Auslenkungswinkel θ 1 , θ 2<br />

Konfigurationsraum D = [0, 2π[ 2 (Torus)<br />

Hamilton-Funktion (→ Def. 1.2.2) = Summe kinetischer und potentieller<br />

Energie:<br />

H(p 1 ,p 2 ,θ 1 ,θ 2 ) =<br />

l 2 2 m 2p 2 1 + l2 1 (m 1 + m 2 )p 2 2 − 2m 2l 1 l 2 p 1 p 2 cos(θ 1 − θ 2 )<br />

2l 2 1 l2 2 m 2(m 1 + sin 2 (θ 1 − θ 2 )m 2 )<br />

− m 2 gl 2 cos θ 2 − (m 1 + m 2 )gl 1 cosθ 1 .<br />

Gegeben:<br />

Rechte Seite f : Ω ↦→ R d , lokal Lipschitz-stetig (→ Def. 1.3.2) auf<br />

erweitertem Zustandsraum Ω := I × D ⊂ R d+1<br />

Anfangsbedingungen y 0 ∈ D zum Anfangszeitpunkt t 0<br />

Thm. 1.3.4 (Peano & Picard-Lindelöf) ➤ Existenz & Eindeutigkeit von Lösungen (→ Def. 1.1.2)<br />

des AWP<br />

ẏ = f(t,y) , y(t 0 ) = y 0 . (1.4.1)<br />

Ziel: ☞ Approximation von y(T) für Endzeitpunkt T ∈ J(t 0 ,y 0 ) ✄ y h (T).<br />

☞ Approximation der Funktion t ↦→ y(t), t ∈ [t 0 , T], T ∈ J(t 0 ,y 0 ) ✄ t ↦→ y h (t).<br />

Beobachtung (in Experiment und Simulation):<br />

Extrem sensitive Abhängigkeit der Pendelbewegung von Anfangsbedingungen<br />

1.3<br />

p. 58<br />

1.4.1 Das explizite Euler-Verfahren (Euler 1768)<br />

Idee: ➊ ”<br />

Vorantasten” in der Zeit: (1.4.1) = Komposition von AWPe zu gegebenen<br />

kleinen Zeitintervallen [t k−1 , t k ], k = 1, ...,N, t N := T<br />

➋<br />

Approximation der zeitlokalen Lösungskurven durch Tangente im aktuellen<br />

1.4<br />

Anfangszeitpunkt. p.<br />

60


y<br />

y h (t 1 )<br />

y(t)<br />

y 0<br />

✁<br />

t<br />

t 0 t 1 Fig. 22<br />

Explizites Euler-Verfahren<br />

(Eulersches Polygonzugverfahren)<br />

Erster Schritt des expliziten Euler-Verfahrens<br />

(d = 1):<br />

Steigung der Tangente = f(t 0 ,y 0 )<br />

y h (t 1 ) ist Startwert für nächsten Schritt !<br />

In Formeln: durch explizites Eulerverfahren erzeugte Näherungen für y(t k ) erfüllen die Rekursion<br />

y k+1 := y h (t k+1 ) = y h (t k ) + h k f(t k ,y h (t k )) , k = 0,...,N − 1 , (1.4.2)<br />

mit lokaler (Zeit)schrittweite h k := t k+1 − t k .<br />

Beispiel 1.4.2 (Konvergenz(-geschwindigkeit) des expliziten Euler-Verfahrens).<br />

AWP für Riccati-Dgl. (1.1.2) auf [0, 1]<br />

Explizites Euler-Verfahren (1.4.2) mit<br />

uniformem Zeitschritt h = 1/n,<br />

n ∈ {5, 10, 20, 40, 80, 160, 320, 640}.<br />

Beobachtung:<br />

Fehler err h := |y(1) − y h (1)|<br />

Algebraische Konvergenz<br />

err h = O(h)<br />

error (Euclidean norm)<br />

10 0<br />

10 −1<br />

10 −2<br />

y0 = 0.10<br />

y0 = 0.20<br />

y0 = 0.40<br />

y0 = 0.80<br />

O(h)<br />

10 −3<br />

10 −3 10 −2 10 −1 10 0<br />

10 1 timestep h<br />

Fig. 24 ✸<br />

✎ Notation “Landau-O”:<br />

✎ Alternative Notation: y k := y h (t k )<br />

e(h) = O(g(h)) für h → 0 :⇔ ∃h 0 > 0, C > 0: |e(h)| ≤ Cg(h) ∀0 ≤ h ≤ h 0 .<br />

1.4<br />

p. 61<br />

1.4<br />

p. 63<br />

Veranschaulichung: Explizites Eulerverfahren<br />

Anfangswertproblem<br />

für<br />

Riccati-Differentialgleichung, siehe Bsp. 1.1.1<br />

y 0 = 2 1 , t 0 = 0, T = 1,<br />

gleichgrosse Zeitschritte h = 0.2<br />

ẏ = y 2 + t 2 . (1.1.2)<br />

↦→ ˆ= Richtungsfeld der Riccati-Dgl.<br />

✄<br />

y<br />

2.4<br />

2.2<br />

2<br />

1.8<br />

1.6<br />

1.4<br />

1.2<br />

1<br />

0.8<br />

0.6<br />

exact solution<br />

explicit Euler<br />

Bemerkung 1.4.1 (Explizites Eulerverfahren als Differenzenverfahren).<br />

0.4<br />

0 0.2 0.4 0.6 0.8 1 1.2 1.4<br />

t<br />

Fig. 23<br />

Definition 1.4.1 (Arten der Konvergenz).<br />

Sei err h der Diskretisierungsfehler eines Verfahrens zum Diskretisierungsparameter/Schrittweite<br />

h, h > 0.<br />

err h = O(h α ) :⇔ Algebraische Konvergenz der Ordnung α > 0<br />

err h = O(exp(−βh −γ )), :⇔ exponentielle Konvergenz, falls β,γ > 0<br />

Fehlerplots bei algebraischer Konvergenz (h i = (3/2) −i , i = 1, ...,10)<br />

(1.4.2) aus Approximation von Ableitung<br />

dt d durch Vorwärtsdifferenzenquotienten auf Zeitgitter G :=<br />

{t 0 , t 1 ,...,t N }:<br />

ẏ = f(t,y) ←→ y h(t k+1 ) − y h (t k )<br />

h k<br />

= f(t k ,y h (t k )) , k = 0,...,N − 1 .<br />

Frage: Wie genau ist die Näherungslösung ?<br />

△<br />

1.4<br />

p. 62<br />

1.4<br />

p. 64


0 0.1 0.2 0.3 0.4 0.5 0.6 0.7<br />

0.9<br />

0.8<br />

0.7<br />

α = 1/2<br />

α = 1<br />

α = 2<br />

Error plots for algebraic convergence (linear scale)<br />

10 0 Error plots for algebraic convergence (log scale<br />

10 −1<br />

Error plots for exponential convergence (h −γ lin−log scale)<br />

10 0 β = 0.5, γ = 0.5<br />

10 −1<br />

β = 1.0, γ = 0.5<br />

β = 2.0, γ = 0.5<br />

β = 1.0, γ = 1.0<br />

10 −2<br />

β = 1.0, γ = 1/3<br />

error<br />

0.6<br />

0.5<br />

0.4<br />

0.3<br />

0.2<br />

error<br />

10 −2<br />

10 −3<br />

error<br />

10 −3<br />

10 −4<br />

10 −5<br />

10 −6<br />

10 −7<br />

10 −8<br />

✁ (h −γ<br />

i , ǫ i ) (h i ˆ= Schrittweiten, ǫ i ˆ= zugehörige<br />

Diskretisierungsfehler ) liegen auf Geraden mit<br />

Steigung −β<br />

0.1<br />

0<br />

h<br />

lineare Skalen<br />

Fig. 25<br />

α = 1/2<br />

α = 1<br />

α = 2<br />

10 −4<br />

10 −2 10 −1 10 0<br />

h<br />

Fig. 26<br />

logarithmische Skalen<br />

10 −9<br />

10 −10<br />

0 5 10 15 20 25 30<br />

h −γ<br />

Fig. 29<br />

Beispiel 1.4.3 (Explizites Euler-Verfahren für logistische Dgl.).<br />

Fehlerplots bei exponentieller Konvergenz (h i = (3/2) −i , i = 1, ...,10)<br />

Anfangswertproblem für logistische Differentialgleichung, siehe Bsp. 1.2.1<br />

1.4<br />

p. 65<br />

ẏ = λy(1 − y) , y(0) = 0.01 .<br />

Explizites Euler-Verfahren (1.4.2) mit uniformem Zeitschritt h = 1/n,<br />

n ∈ {5, 10, 20, 40, 80, 160, 320, 640}.<br />

Fehler zum Endzeitpunkt T = 1<br />

1.4<br />

p. 67<br />

0.7<br />

0.6<br />

Error plots for exponential convergence (linear scale)<br />

β = 0.5, γ = 0.5<br />

β = 1.0, γ = 0.5<br />

β = 2.0, γ = 0.5<br />

β = 1.0, γ = 1.0<br />

β = 1.0, γ = 1/3<br />

10 0 Error plots for exponential convergence (log scale)<br />

10 −1<br />

10 −2<br />

10 0<br />

λ = 1.000000<br />

λ = 3.000000<br />

λ = 6.000000<br />

λ = 9.000000<br />

10 120<br />

10 100<br />

λ = 10.000000<br />

λ = 30.000000<br />

λ = 60.000000<br />

λ = 90.000000<br />

error<br />

0.5<br />

0.4<br />

0.3<br />

0.2<br />

error<br />

10 −3<br />

10 −4<br />

10 −5<br />

10 −6<br />

10 −7<br />

error (Euclidean norm)<br />

10 1 timestep h<br />

10 −1<br />

10 −2<br />

10 −3<br />

error (Euclidean norm)<br />

10 140 timestep h<br />

10 80<br />

10 60<br />

10 40<br />

10 20<br />

0.1<br />

0<br />

0 0.1 0.2 0.3 0.4 0.5 0.6 0.7<br />

h<br />

Fig. 27<br />

lineare Skalen<br />

10 −8<br />

β = 0.5, γ = 0.5<br />

β = 1.0, γ = 0.5<br />

β = 2.0, γ = 0.5<br />

10 −9<br />

β = 1.0, γ = 1.0<br />

β = 1.0, γ = 1/3<br />

10 −10<br />

h<br />

Fig. 28<br />

10 −2 10 −1 10 0<br />

logarithmische Skalen<br />

10 −4<br />

10 −5<br />

10 −3 10 −2 10 −1 10 0<br />

λ klein: O(h)-Konvergenz (asymptotisch)<br />

Fig. 30<br />

10 0<br />

10 −20<br />

10 −3 10 −2 10 −1 10 0<br />

λ gross: Explosion von y k für grosse<br />

Zeitschrittweiten h<br />

Fig. 31<br />

1.4<br />

p. 66<br />

1.4<br />

p. 68


0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1<br />

1.4<br />

Anwendung auf kleine Zeitintervalle [t 0 ,t 1 ], [t 1 ,t 2 ], ..., [t N−1 , t N ] ➤ implizites Euler-Verfahren<br />

y<br />

1.2<br />

1<br />

0.8<br />

0.6<br />

0.4<br />

0.2<br />

0<br />

−0.2<br />

−0.4<br />

exact solution<br />

explicit Euler<br />

✁ λ = 90, — ˆ= exakte Lösung, — ˆ= Eulerpolygon<br />

y k schiessen über den stark attraktiven<br />

Fixpunkt y = 1 hinaus.<br />

➥ Beobachtung: exponentiell anwachsende<br />

Oszillationen der y k<br />

durch implizites Eulerverfahren erzeugte Näherung für y(t k ) erfüllt<br />

y k+1 := y h (t k+1 ) = y h (t k ) + h k f(t k+1 ,y k+1 ) , k = 0,...,N − 1 , (1.4.9)<br />

mit lokaler (Zeit)schrittweite h k := t k+1 − t k .<br />

Beachte: (1.4.9) erfordert Auflösen einer (evtl. nichtlinearen) Gleichung nach y k+1 !<br />

(➤ Terminologie ”<br />

implizit”)<br />

Bemerkung 1.4.4 (Implizites Eulerverfahren als Differenzenverfahren).<br />

t<br />

Fig. 32<br />

✸<br />

(1.4.9) aus Approximation der Zeitableitung<br />

dt d durch Rückwärtsdifferenzenquotienten auf Zeitgitter<br />

G := {t 0 , t 1 ,...,t N }:<br />

Einsicht durch Modellproblemanalyse: einfachste Dgl. mit stark attraktivem Fixpunkt y = 0<br />

Homogene lineare skalare Dgl., Sect. 1.3.2 : ẏ = f(y) := λy , λ < 0 . (1.4.6)<br />

ẏ = λy , y(0) = y 0 ⇒ y(t) = y 0 exp(λt) → 0 für t → ∞ . (1.4.7)<br />

ẏ = f(t,y) ←→ y h(t k+1 ) − y h (t k )<br />

h k<br />

= f(t k+1 ,y h (t k+1 )) , k = 0,...,N − 1 .<br />

△<br />

Rekursion des expliziten Eulerverfahrens für (1.4.6) (uniforme Zeitschrittweite h > 0)<br />

Beispiel 1.4.5 (Implizites Eulerverfahren für logistische Differentialgleichung). → Bps. 1.4.3<br />

(1.4.2) for f(y) = λy: y k+1 = y k (1 + λh) . (1.4.8)<br />

1.4<br />

p. 69<br />

Wiederholung der numerischen Experimente aus Beispiel 1.4.3 für implizites Eulerverfahren (1.4.9):<br />

1.4<br />

p. 71<br />

y k = y 0 (1 + λh) k ⇒ |y k | →<br />

{<br />

0 , wenn λh > −2 (qualitativ richtig) ,<br />

∞ , wenn λh < −2 (qualitativ falsch) .<br />

10 0<br />

λ = 1.000000<br />

λ = 3.000000<br />

λ = 6.000000<br />

λ = 9.000000<br />

O(h)<br />

10 0<br />

10 −2<br />

λ = 10.000000<br />

λ = 30.000000<br />

λ = 60.000000<br />

λ = 90.000000<br />

O(h)<br />

1.4.2 Das implizite Euler-Verfahren<br />

error (Euclidean norm)<br />

10 −1<br />

10 −2<br />

10 −3<br />

error (Euclidean norm)<br />

10 −4<br />

10 −6<br />

10 −8<br />

10 −10<br />

10 −12<br />

10 −4<br />

10 −14<br />

Wie vermeidet man das Überschiessen des expliziten Eulerverfahrens bei stark attraktiven Fixpunkten<br />

und grossen Zeitschrittweiten ?<br />

y<br />

y h (t 1 ) y(t)<br />

y 0<br />

t<br />

t 0 t 1 Fig. 33<br />

Idee: Approximiere Lösung durch (t 0 , y 0 ) auf<br />

[t 0 ,t 1 ] durch<br />

• Strecke duch (t 0 , y 0 )<br />

• mit Steigung f(t 1 , y 1 )<br />

✁ — ˆ= Lösungkurve durch (t 0 , y 0 ),<br />

— ˆ= Lösungkurve durch (t 1 , y 1 ),<br />

— ˆ= Tangente an — in (t 1 ,y 1 ).<br />

1.4<br />

p. 70<br />

10 1 timestep h<br />

10 −5<br />

10 −3 10 −2 10 −1 10 0<br />

λ klein: O(h)-Konvergenz (asymptotisch)<br />

Fig. 34<br />

Modellproblemanalyse (wie in Abschnitt 1.4.1):<br />

( ) 1 k<br />

y k = y 0 ⇒ |y<br />

1 − λh k | →<br />

10 2 timestep h<br />

10 −16<br />

10 −3 10 −2 10 −1 10 0<br />

Fig. 35<br />

λ gross: stabil für alle Zeitschrittweiten h !<br />

(1.4.9) for f(y) = λy: y k+1 = y k<br />

1<br />

1 − λh . (1.4.10)<br />

⎧<br />

⎪⎨ 0 , wenn λh < 0 (qualitativ richtig) ,<br />

∞ , wenn 0 < λh < 1 (qualitativ richtig) ,<br />

⎪⎩<br />

∞ , wenn λh > 1 (Oszillationen, qualitativ falsch) .<br />

✸<br />

1.4<br />

p. 72


p<br />

p<br />

p<br />

Beispiel 1.4.6 (Euler-Verfahren für Pendelgleichung).<br />

Mathematisches Pendel → Bsp. 1.2.7: Hamiltonsche Form (1.2.11) der Bewegungsgleichungen<br />

Winkelgeschwindigkeit p := ˙α ⇒ d ( ) ( )<br />

α p<br />

=<br />

dt p − g l sin α , g = 9.8, l = 1 . (1.2.11)<br />

Approximative numerische Lösung mit explizitem/implizitem Eulerverfahren (1.4.2)/(1.4.9),<br />

Konstante Zeitschrittweite h = T/N, T = 5 Endzeitpunkt, N ∈ {50, 100, 200},<br />

2<br />

1.5<br />

1<br />

0.5<br />

0<br />

Erstes Integral (→ Def. 1.2.1):<br />

I(y) = ‖y‖<br />

(Bewegung mit konstanter Geschwindigkeit auf Kreisbahn)<br />

40 timesteps on [0,10.000000]<br />

160 timesteps on [0,10.000000]<br />

1.5<br />

exact solution<br />

exact solution<br />

explicit Euler<br />

explicit Euler<br />

implicit Euler<br />

implicit Euler<br />

1<br />

0.5<br />

Startwert: α(0) = π/4, p(0) = 0.<br />

y 2<br />

−0.5<br />

−1<br />

y 2<br />

0<br />

−1.5<br />

−0.5<br />

6<br />

4<br />

exact solution<br />

explicit Euler<br />

implicit Euler<br />

50 timesteps on [0,5.000000]<br />

6<br />

4<br />

100 timesteps on [0,5.000000]<br />

4<br />

3<br />

200 timesteps on [0,5.000000]<br />

−2<br />

−2.5<br />

−1<br />

2<br />

2<br />

0<br />

2<br />

0<br />

1<br />

0<br />

−3<br />

−4 −3 −2 −1 0 1 2<br />

y 1<br />

3<br />

Fig. 41<br />

−1.5<br />

−1.5 −1 −0.5 0<br />

y 1<br />

0.5 1 1.5<br />

Fig. 42<br />

−2<br />

−4<br />

−6<br />

−8<br />

−10 −8 −6 −4 −2 0 2 4<br />

α<br />

−2<br />

−4<br />

exact solution<br />

explicit Euler<br />

implicit Euler<br />

Fig. 36<br />

−6<br />

−2 −1.5 −1 −0.5 0 0.5 1 1.5 2 2.5<br />

Fig. 37<br />

−4<br />

−1.5 −1 −0.5 0 0.5 1 1.5<br />

Fig. 38<br />

α<br />

−1<br />

−2<br />

−3<br />

exact solution<br />

explicit Euler<br />

implicit Euler<br />

α<br />

☞ Expliziter Euler: Numerische Lösung wird aus der Kurve getragen”<br />

”<br />

☞ Impliziter Euler: Numerische Lösung stürzt ins Zentrum”<br />

”<br />

✸<br />

Verhalten der approximativen Energien: kinetische Enegie : E kin (t) = 1 2 p(t)2<br />

1.4<br />

potentielle Energie : E pot (t) = − g l cosα(t) p. 73<br />

9<br />

8<br />

Energies for explicit Euler discrete evolution<br />

kinetic energy<br />

potential energy<br />

total energy<br />

3<br />

Energies for implicit Euler discrete evolution<br />

kinetic energy<br />

potential energy<br />

total energy<br />

1.4.3 Implizite Mittelpunktsregel<br />

1.4<br />

p. 75<br />

7<br />

6<br />

2.5<br />

2<br />

Wie vermeidet man die Energiedrift für explizites/implizites Euler-Verfahren angewandt auf konservative<br />

Systeme ?<br />

energy<br />

5<br />

4<br />

3<br />

2<br />

1<br />

0<br />

0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5<br />

time t<br />

Fig. 39<br />

☞ Expliziter Euler: Anwachsen der Gesamtenergie des Pendels<br />

☞ Impliziter Euler: Pendel kommt zur Ruhe ( numerische Reibung”)<br />

”<br />

Beispiel 1.4.7 (Eulerverfahren für längenerhaltende Evolution).<br />

Anfagswertproblem für , D = R 2 :<br />

( )<br />

y2<br />

ẏ =<br />

−y 1<br />

, y(0) = y 0 ➤ y(t) =<br />

energy<br />

1.5<br />

1<br />

0.5<br />

0<br />

0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5<br />

time t<br />

Fig. 40<br />

( )<br />

cost sint<br />

y<br />

− sin t cost 0 .<br />

✸<br />

1.4<br />

p. 74<br />

y<br />

y ∗ y h (t 1 )<br />

y 0<br />

t 0 t 1<br />

t ∗ f(t ∗ ,y ∗ )<br />

t<br />

Fig. 43<br />

Idee: Approximiere Lösung durch (t 0 ,y 0 ) auf<br />

[t 0 ,t 1 ] durch<br />

• lineares Polynom durch (t 0 ,y 0 )<br />

• mit Steigung f(t ∗ ,y ∗ ),<br />

t ∗ := 1 2 (t 0 + t 1 ), y ∗ = 1 2 (y 0 + y 1 )<br />

✁ — ˆ= Lösungkurve durch (t 0 , y 0 ),<br />

— ˆ= Lösungkurve durch (t ∗ , y ∗ ),<br />

— ˆ= Tangente an — in (t ∗ ,y ∗ ).<br />

Anwendung auf kleine Zeitintervalle [t 0 ,t 1 ], [t 1 , t 2 ], . .., [t N−1 , t N ] ➤ implizite Mittelpunktsregel<br />

durch implizite Mittelpunktsregel erzegte Näherung y k+1 für y(t k ) erfüllt<br />

y k+1 := y h (t k+1 ) = y k + h k f( 1 2 (t k + t k+1 ), 1 2 (y k + y k+1 )) , k = 0, ...,N − 1 , (1.4.11)<br />

mit lokaler (Zeit)schrittweite h k := t k+1 − t k . p. 76<br />

1.4


p<br />

p<br />

p<br />

Beachte: (1.4.11) erfordert Auflösen einer (evtl. nichtlinearen) Gleichung nach y k+1 !<br />

(➤ Terminologie ”<br />

implizit”)<br />

Bemerkung 1.4.8 (Implizite Mittelpunktsregel als Differenzenverfahren).<br />

2<br />

1.5<br />

1<br />

exact solution<br />

explicit Euler<br />

implicit Euler<br />

implicit midpoint<br />

40 timesteps on [0,10.000000]<br />

1.5<br />

1<br />

exact solution<br />

explicit Euler<br />

implicit Euler<br />

implicit midpoint<br />

160 timesteps on [0,10.000000]<br />

(1.4.11) aus Approximation der Zeitableitung<br />

dt d durch zentralen Differenzenquotienten auf Zeitgitter<br />

G := {t 0 , t 1 ,...,t N }:<br />

ẏ = f(t,y) ←→ y h(t k+1 ) − y h (t k )<br />

h k<br />

= f( 1 2 (t k + t k+1 ), 1 2 (y h(t k ) + y(t k+1 )), k = 0, ...,N − 1 .<br />

Beispiel 1.4.9 (Implizite Mittelpunktsregel für logistische Dgl.).<br />

△<br />

y 2<br />

0.5<br />

0<br />

−0.5<br />

−1<br />

−1.5<br />

−2<br />

−2.5<br />

−3<br />

−4 −3 −2 −1 0 1 2<br />

y 1<br />

3<br />

Fig. 46<br />

y 2<br />

0.5<br />

0<br />

−0.5<br />

−1<br />

−1.5<br />

−1.5 −1 −0.5 0<br />

y 1<br />

0.5 1 1.5<br />

Fig. 47<br />

Wiederholung der numerischen Experimente aus Beispiel 1.4.3 für implizite Mittelpunktsregel (1.4.11):<br />

☞ Implizite Mittelpunktsregel: Perfekte Längenerhaltung !<br />

✸<br />

✬<br />

Lemma 1.4.2 (Erhaltung quadratischer erster Integrale durch implizite Mittelpunktsregel).<br />

Falls I : D ⊂ R d ↦→ R, I(y) := 2 1yT Ay, A ∈ R d,d , erstes Integral (→ Def. 1.2.1) der<br />

autonomen Dgl. ẏ = f(y) mit global differenzierbarer rechter Seite f : D ↦→ R d , dann gilt<br />

✩<br />

1.4<br />

p. 77<br />

✫<br />

I(y k ) = I(y 0 ) ∀k ∈ Z für y k gemäss (1.4.11)<br />

Beispiel 1.4.11 (Implizite Mittelpunktsregel für Pendelgleichung).<br />

✪<br />

1.4<br />

p. 79<br />

10 −1<br />

10 −2<br />

error (Euclidean norm)<br />

10 −3<br />

10 −4<br />

10 −5<br />

10 −6<br />

10 −6<br />

10 −8<br />

10 −10<br />

10 −7<br />

10 −8<br />

λ = 1.000000<br />

λ = 2.000000<br />

λ = 5.000000<br />

λ = 10.000000<br />

10 −12<br />

10 −14<br />

10 0 timestep h<br />

10 −2<br />

10 −4<br />

error (Euclidean norm)<br />

λ = 10.000000<br />

λ = 20.000000<br />

λ = 50.000000<br />

λ = 90.000000<br />

O(h 2 )<br />

10 −9<br />

10 −3 10 −2 10 −1 10 0<br />

Fig. 44<br />

λ klein: O(h 2 )-Konvergenz (asymptotisch)<br />

10 0 timestep h<br />

Anfangswertproblem und numerische Experimente wie in Bsp. 1.4.6<br />

6<br />

4<br />

2<br />

0<br />

exact solution<br />

explicit Euler<br />

implicit Euler<br />

implicit midpoint<br />

50 timesteps on [0,5.000000]<br />

6<br />

4<br />

2<br />

100 timesteps on [0,5.000000]<br />

4<br />

3<br />

2<br />

1<br />

200 timesteps on [0,5.000000]<br />

−2<br />

−4<br />

0<br />

−2<br />

0<br />

−1<br />

−2<br />

O(h 2 )<br />

10 −16<br />

10 −3 10 −2 10 −1 10 0<br />

Fig. 45<br />

λ gross: stabil für alle Zeitschrittweiten h ! ✸<br />

−6<br />

−8<br />

−10 −8 −6 −4 −2 0 2 4<br />

α<br />

−4<br />

exact solution<br />

explicit Euler<br />

implicit Euler<br />

implicit midpoint<br />

Fig. 48<br />

−6<br />

−2 −1.5 −1 −0.5 0 0.5 1 1.5 2 2.5<br />

Fig. 49<br />

−4<br />

−1.5 −1 −0.5 0 0.5 1 1.5<br />

Fig. 50<br />

α<br />

−3<br />

exact solution<br />

explicit Euler<br />

implicit Euler<br />

implicit midpoint<br />

α<br />

Beispiel 1.4.10 (Implizite Mittelpunktregel für Kreisbewegung).<br />

1.4<br />

p. 78<br />

1.4<br />

p. 80


0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5<br />

3<br />

Energies for implicit midpoint discrete evolution<br />

Bemerkung 1.4.12 (Störmer-Verlet-Verfahren als Differenzenverfahren).<br />

energy<br />

2.5<br />

2<br />

1.5<br />

1<br />

0.5<br />

kinetic energy<br />

potential energy<br />

total energy<br />

0<br />

time t<br />

Fig. 51<br />

✁ Verhalten der Energien bei numerischer<br />

Integration mit impliziter Mittelpunktsregel<br />

(1.4.11), N = 50.<br />

Keine (sichtbare) Energiedrift im Vergleich zu<br />

Euler-Verfahren (trotz grosser Zeitschritte)<br />

✸<br />

(1.4.14) aus Approximation der zweiten Zeitableitung durch zweiten zentralen Differenzenquotienten<br />

auf Zeitgitter G := {t 0 ,t 1 , ...,t N }: für uniforme Zeitschrittweite h > 0<br />

ÿ = f(y) ←→<br />

y h (t k+1 )−y h (t k )<br />

h − y h(t k )−y h (t k−1 )<br />

h = y h(t k+1 ) − 2y h (t k ) + y h (t k−1 )<br />

h<br />

h 2 = f(y h (t k )) .<br />

Bemerkung 1.4.13 (Startschritt für Störmer-Verlet-Verfahren).<br />

Anfangswerte für (1.4.12), siehe Bem. 1.1.6: y(0) = y 0 , ẏ(0) = v 0<br />

△<br />

1.4.4 Störmer-Verlet-Verfahren [13]<br />

Benutze virtuellen Zeitpunkt t −1 := t 0 − h 0<br />

Wende (1.4.14) an auf [t −1 , t 1 ]:<br />

?<br />

Übertragung der Idee der Euler-Verfahren (→ Sect. 1.4.1, 1.4.2) auf Differentialgleichungen 2.<br />

Ordnung<br />

ÿ = f(t,y) . (1.4.12)<br />

1.4<br />

p. 81<br />

Zentraler Differenzenquotient auf [t −1 , t 1 ]:<br />

y 1 = −y −1 + 2y 0 + h 2 0 f(t 0,y 0 ) . (1.4.15)<br />

y 1 − y −1<br />

2h 0<br />

= v 0 . (1.4.16)<br />

1.4<br />

p. 83<br />

Gegeben y k−1 ≈ y(t k−1 ), y k ≈ y(t k ) approximiere y(t) auf [t k−1 ,t k+1 ] durch<br />

• Parabel p(t) durch (t k−1 ,y k−1 ), (t k ,y k ) (∗),<br />

• mit<br />

¨p(t k ) = f(y k ) (∗).<br />

Berechne y 1 aus (1.4.15) & (1.4.16)<br />

Beispiel 1.4.14 (Störmer-Verlet-Verfahren für Pendelgleichung).<br />

△<br />

(∗) ➜<br />

Parabel eindeutig bestimmt.<br />

y k+1 := p(t k+1 ) ≈ y(t k+1 )<br />

(1.4.14) angewandt auf (1.2.10)<br />

Startschritt gemäss Bem. 1.4.13<br />

5<br />

4<br />

3<br />

Pendulum g = 9.800000, l = 1.000000,α(0)=1.570796,p(0)=0.000000<br />

Störmer-Verlet-Verfahren für (1.4.12) (Zeitgitter G := {t 0 ,t 1 , ...,t N }):<br />

y k+1 = − h (<br />

k<br />

y<br />

h k−1 + 1 + h )<br />

k<br />

y<br />

k−1 h k + 1 2 (h2 k + h kh k−1 )f(t k ,y k ) , k = 1,...,N − 1 .<br />

k−1<br />

Für uniforme Zeitschrittweite h:<br />

(1.4.13)<br />

Uniforme Zeitschrittweitee h := T/N, N ∈ N<br />

Zeitschritte<br />

Referenzlösung durch MATLAB-Funktion<br />

ode45() (extrem kleine Toleranzen)<br />

α 0 = π/2, p 0 = 0, T = 5, vgl. Bsp. 1.4.6<br />

velocity p<br />

2<br />

1<br />

0<br />

−1<br />

−2<br />

−3<br />

y k+1 = −y k−1 + 2y k + h 2 f(t k ,y k ) , k = 1, ...,N − 1 . (1.4.14)<br />

Beachte: (1.4.13) erfordert nicht das Lösen einer Gleichung (➤ explizites Verfahren)<br />

Anzahl Zeitschritte: N = 40<br />

−4<br />

−5<br />

−2 −1.5 −1 −0.5 0.5 1 0<br />

angle α<br />

1.5 2<br />

Fig. 52<br />

Terminologie: y k+1 = y k+1 (y k ,y k−1 ) ➤ (1.4.13) ist ein Zweischrittverfahren<br />

(Explizites/implizites Euler-Verfahren, Mittelpunktsregel = Einschrittverfahren)<br />

1.4<br />

p. 82<br />

1.4<br />

p. 84


0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5<br />

2<br />

Pendulum g = 9.800000, l = 1.000000,α(0)=1.570796,p(0)=0.000000<br />

5<br />

Pendulum g = 9.800000, l = 1.000000,α(0)=1.570796,p(0)=0.000000<br />

Ordnung, siehe (1.1.5): mit v k+ 1<br />

2<br />

:= y k+1−y k<br />

h<br />

angle α<br />

1.5<br />

1<br />

0.5<br />

0<br />

−0.5<br />

−1<br />

velocity p<br />

4<br />

3<br />

2<br />

1<br />

0<br />

−1<br />

−2<br />

−3<br />

ÿ = f(y)<br />

↕<br />

y k+1 − 2y k + y k−1 = h 2 k f(y k)<br />

←→<br />

←→<br />

ẏ = v ,<br />

˙v = f(y) .<br />

↕<br />

v k+ 1 = v k + h<br />

2<br />

2 f(y k) ,<br />

y k+1 = y k + hv k+ 1 ,<br />

2<br />

v k+1 = v k+ 1 + h<br />

2<br />

2 f(y k+1) .<br />

−1.5<br />

−2<br />

time t<br />

Fig. 53<br />

−4<br />

−5<br />

0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5<br />

time t<br />

Fig. 54<br />

Zweischrittverfahren<br />

Einschrittverfahren<br />

Startschritt (→ Bem. 1.4.13) ist implizit in der Einschrittformulierung enthalten.<br />

△<br />

Bemerkung 1.4.16 (Störmer-Verlet-Verfahren als Polygonzugmethode).<br />

10<br />

Energies for Stoermer−Verlet discrete evolution<br />

1.4<br />

p. 85<br />

y/v<br />

1.4<br />

p. 87<br />

9<br />

8<br />

energy<br />

7<br />

6<br />

5<br />

4<br />

3<br />

2<br />

1<br />

kinetic energy<br />

potential energy<br />

total energy<br />

0<br />

0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5<br />

time t<br />

Fig. 55<br />

☞ Keine Energiedrift trotz grosser Zeitschrittweite<br />

Perfekt periodische Orbits !<br />

Kontrast: Bsp. 1.4.6<br />

✸<br />

Perspektive: Störmer-Verlet-Verfahren<br />

als Einschrittverfahren<br />

(siehe Bem. 1.4.15)<br />

v k+ 1 = v<br />

2 k− 1 + hf(y k ) ,<br />

2<br />

y k+1 = y k + hv k+ 1 .<br />

2<br />

v k−3/2<br />

v k−1/2<br />

v k+1/2<br />

△<br />

y k<br />

f<br />

f<br />

y k−2<br />

y k−1<br />

y k+1<br />

Bemerkung 1.4.15 (Einschrittformulierung des Störmer-Verlet-Verfahrens).<br />

t k−2 t k−1 t k t k+1<br />

t<br />

Für uniforme Zeitschrittweite, vgl. (1.4.14), analog zur Umwandlung einer Dgl. 2. Ordnung → Dgl. 1.<br />

Erinnerung (Bem. 1.2.2) an die Frage<br />

für ODEs?”<br />

”<br />

Warum viele verschiedene numerischer Lösungsverfahren<br />

1.4<br />

p. 86<br />

Antwort:<br />

Jeder numerische Integrator hat spezielle Eigenschaften<br />

1.4<br />

➥ besonders geeignet/ungeeignet für bestimmte Klassen von AWPe p. 88


2 Einschrittverfahren<br />

Baustein: Zeitgitter G := {t 0 , t 1 , . ..,t N = T } , t 0 < t 1 < · · · < t N .<br />

(Terminologie: t k ˆ= Gitterpunkte, lokale (Zeit)schrittweite h k := t k+1 − t k )<br />

✎ Notation: globale Zeitschrittweite h = h G = max<br />

0≤i


Definition 2.1.3 (Diskretisierungsfehler).<br />

Für gegebenes T ∈ J(t 0 ,y 0 ), sei y : [t 0 , T] ↦→ R d Lösung des AWP (1.1.6)<br />

y G eine Näherungslösung auf dem Gitter G = {t 0 < t 1 < · · · < t N = T }.<br />

Diskretisierungsfehler<br />

Definition 2.1.4 (Konvergenz und Konvergenzordnung).<br />

Das ESV (2.1.1) zum AWP (1.1.6) konvergiert, falls<br />

∀ǫ > 0: ∃δ > 0: ∀Zeitgitter G: h G ≤ δ ⇒<br />

(Kurz: ǫ G → 0, falls h G → 0)<br />

ǫ G := max<br />

0≤k≤N ‖y(t k) − y k ‖ .<br />

ESV wohldefiniert,<br />

ǫ G ≤ ǫ .<br />

Das ESV heisst (algebraisch) konvergent von der Ordnung p ∈ N, falls<br />

✗<br />

✖<br />

d<br />

(<br />

Ψ s,t y<br />

dt<br />

)<br />

Falls Ψ (i)–(iii) erfüllt, dann gilt Ψ = Φ !<br />

Ψ s,t+τ y − Ψ s,t y (iii) Ψ t,t+τ (Ψ s,t y) − Ψ t,t (Ψ s,t y) (ii)<br />

= lim<br />

= lim<br />

= f(t,Ψ s,t y) .<br />

τ→0 τ τ→0 τ<br />

t ↦→ Ψ s,t löst das gleiche Anfangswertproblem für ẏ = f(t,y) wie t ↦→ Φ s,t y. Mit Satz von Picard-<br />

Lindelöf Thm. 1.3.4 folgt Ψ = Φ.<br />

Definition 2.1.5 (Konsistenz einer diskreten Evolution).<br />

Diskrete Evolution Ψ ist konsistent mit der ODE ẏ = f(t,y), falls für alle (t,y) ∈ Ω<br />

Ψ t,t d<br />

y = y und<br />

ds Ψt,t+s y<br />

∣ = f(t,y) .<br />

s=0<br />

✔<br />

✕<br />

ESV wohldefiniert,<br />

∃h 0 > 0, C > 0:<br />

ǫ G ≤ Ch p G<br />

(Kurzschreibweise mit Landau-Symbol ǫ G = O(h p ))<br />

∀Zeitgitter G, h G ≤ h 0 .<br />

2.1<br />

Erweiterung: Kovergenz für alle (t 0 ,y 0 ) ∈ Ω ➣ globale Konvergenz p. 93<br />

Beachte: Kovergenz ist ein asymptotischer Begriff (h G → 0)<br />

2.1.2 Konsistenz [5, Sect. 4.1.1]<br />

✬<br />

Lemma 2.1.6 (Darstellung konsistenter diskreter Evolutionen).<br />

(t,y) ∈ Ω, s ↦→ Ψ t,t+s y stetig differenzierbar in Umgebung von 0. Ψ is genau dann konsistent<br />

mit ẏ = f(t,y) (→ Def. 2.1.5), wenn eine auf dieser Nullumgebung stetige Inkrementfunktion<br />

h ↦→ ψ(t,y, h) existiert mit<br />

Ψ t,t+h y = y + hψ(t,y,h) , ψ(t,y, 0) = f(t,y) . (2.1.2)<br />

✩<br />

2.1<br />

p. 95<br />

Kontinuierliche Evolution (→ Def. 1.3.5) ←→<br />

Diskrete Evolution<br />

Φ s,t<br />

Ψ s,t<br />

erfüllt für alle (t,y) ∈ Ω<br />

sollte erfüllen:<br />

(i) Φ t,t y = y<br />

(i) Ψ t,t y = y klar!<br />

(ii) d ds Φt,t+s y<br />

d<br />

∣ = f(t,y)<br />

(ii)<br />

s=0 ds Ψt,t+s y<br />

∣ = f(t,y) unbedingt!<br />

s=0<br />

(iii) Φ r,s Φ t,r y = Φ t,s y ∀r,s ∈ J(t,y) (iii) Ψ r,s Ψ t,r y = Ψ t,s y ∀r, s ∈ J(t,y) utopisch!<br />

Unter der Annahme, dass t ↦→ Ψ s,t y differenzierbar:<br />

✫<br />

Definition 2.1.7 (Konsistenzfehler einer diskreten Evolution).<br />

Konsistenzfehler: τ(t,y,h) := Φ t,t+h y − Ψ t,t+h y (h hinreichend klein); .<br />

✬<br />

Lemma 2.1.8 (Konsistenz und Konsistenzfehler).<br />

Sei (t,y) ∈ Ω, s ↦→ Ψ t,t+s y stetig differenzierbar in Umgebung von 0. Ψ is genau dann<br />

konsistent mit ẏ = f(t,y) (→ Def. 2.1.5), wenn für den Konsistenzfehler gilt<br />

‖τ(t,y, h)‖ = o(h) für h → 0 lokal gleichmässig in (t,y) ∈ Ω .<br />

✪<br />

✩<br />

2.1<br />

p. 94<br />

✫<br />

✎<br />

Notation:<br />

✪<br />

2.1<br />

g(h)<br />

Landau-o”: g(h) = o(h) :⇔<br />

” h → 0 für h → 0 p. 96


Interpretation:<br />

✓<br />

✏<br />

Konsistenzfehler = Einschrittfehler<br />

✒<br />

✑<br />

— ˆ= exakte Lösung durch (y,y)<br />

— ˆ= Näherungslösung aus diskreter Evolution<br />

D<br />

t<br />

y<br />

Ψ t,t+h y<br />

τ(t,y, h)<br />

Φ t,t+h y<br />

t + h<br />

D(y) := x -> f(y(x));<br />

D (y) := x ↦→ f (y (x))<br />

y0 := y(0);<br />

y0 := y (0)<br />

solve(y0+h*f((y0+y1)/2)=y1,{y1});<br />

{y1 = RootOf (−y (0) − hf (1/2y (0) + 1/2 Z) + Z)}<br />

assign(%);<br />

taylor(y1-y(h),h=0,4);<br />

(( (<br />

series −1/6 D (2)) (f) (y (0)) (f (y (0))) 2 − 1/6 (D (f) (y (0))) 2 f (y (0))<br />

((<br />

+ 1/8 f (y (0)) D (2)) (f) (y (0)) f (y (0)) + 2 (D (f) (y (0))) 2) ) (<br />

h 3 + O h 4) )<br />

,h, 4<br />

Definition 2.1.9 (Konsistenzordnung einer diskreten Evolution).<br />

Eine diskrete Evolution hat Konsistenzordnung p ∈ N, falls für den Konsistenzfehler lokal<br />

gleichmässig in Ω gilt<br />

‖τ(t,y, h)‖ = O(h p+1 ) für h → 0 . (2.1.3)<br />

Implizite Mittelpunktsregel hat Konsistenzordnung 2 !<br />

Bestimmung der formalen Konsistenzordnung eines ESV immer unter der Annahme<br />

hinreichender (∗) Glattheit der exakten Lösung !<br />

✸<br />

Dass (2.1.3) lokal gleichmässig gilt bedeutet<br />

∀(t,y) ∈ Ω: ∃h 0 , δ,C > 0: τ(˜t,ỹ,h) ≤ Ch p+1 ∀˜t,ỹ,h: |˜t − t| ≤ δ, ‖ỹ − y‖ ≤ δ ,<br />

0 ≤ h ≤ h 0 .<br />

2.1<br />

p. 97<br />

(∗):<br />

” hinreichend” ˆ= so glatt, wie für Taylorentwicklung erforderlich p. 99<br />

2.1<br />

Wegen der Äquivalenz aller Normen auf dem endlichdimensionalen Raum R d ist die Wahl der Norm<br />

in den Definitionen 2.1.7 und 2.1.9 belanglos.<br />

Falls exakte Lösung nicht hinreichend glatt ☞ eingeschränkte Bedeutung der Konsistenzordnung<br />

für das tatsächliche Verhalten eines Verfahrens.<br />

Technik zur Bestimmung der Konsistenzordnung:<br />

Taylor-Entwicklung<br />

In dieser Vorlesung:<br />

Beispiel 2.1.3 (Konsistenzordnung einfacher Einschrittverfahren).<br />

(Oft) stillschweigende Annahme ”<br />

hinreichender Glattheit” !<br />

Implizite Mittelpunktsregel (1.4.11): y 1 = y 0 + hf( 1 2 (t 0 + t 1 ), 1 2 (y 0 + y 1 ))<br />

Beachte: Keine explizite Formel für Ψ ! (“implicit” method)<br />

Für die ”<br />

faulen” Leute: Computeralgebra (MAPLE) !<br />

2.1.3 Konvergenz<br />

2.1<br />

p. 98<br />

Betrachte wird Anfangswertproblem<br />

ẏ = f(t,y) , y(t 0 ) = y 0 für ein (t 0 ,y 0 ) ∈ Ω := I × D . 1.1.6<br />

Annahme: rechte Seite f : Ω ↦→ R d lokal Lipschitz-stetig (→ Def. 1.3.2)<br />

Thm. 1.3.4 ➣ Existenz & Eindeutigkeit von Lösung t ↦→ y(t)<br />

2.1<br />

p. 100


Betrachte Einschrittverfahren (→ Def. 2.1.1) mit Verfahrensfunktion<br />

Ψ : Ω h ⊂ I × I × D ↦→ R d<br />

Beweis. (durch Induktion nach N)<br />

Ψ t,t+h y := y + hψ(t,y,h) . (2.1.5)<br />

Inkrementfunktion<br />

Annahme: Lokale Abschätzung für Konsistenzfehler(→ Def. 2.1.7): für ein p ∈ N<br />

∥<br />

∀(t,y) ∈ Ω: ∃C c > 0,δ > 0: ∥Φ t,t+h y − Ψ t,t+h y∥ ≤ C c h p+1 ∀|h| hinreichend klein ,<br />

∀ty: |t − t| < δ, ‖y − y‖ < δ .<br />

Beachte: Konsistenzordnung p für diskrete Evolution Ψ bzgl. ẏ = f(t,y) ⇒ (2.1.6)<br />

(2.1.6)<br />

y G = (y k ) N k=0 : Gitterfunktion erzeugt durch ESV Ψ auf Zeitgitter (T > t 0 ˆ= Endzeitpunkt) )<br />

vgl. Def. 2.1.1.<br />

G := {t 0 < t 1 < · · · < t N = T } ⊂ J(t 0 ,y 0 ) ,<br />

Mit der Konvention, dass leere Summen verschwinden, gilt die Behauptung für N = 0 (Induktionsbeginn)<br />

Induktionsschluss:<br />

ξ N+1<br />

(2.1.7)<br />

≤ Ch p+1<br />

N + (1 + lh N)ξ<br />

⎛ N<br />

⎛<br />

⎞<br />

⎞<br />

∗<br />

≤ Ch p+1<br />

N + (1 + Lh N) ⎝C ( N−1 ) 1<br />

max<br />

k=0 hp k<br />

⎝exp ( N−1 ∑ )<br />

L h<br />

L<br />

k − 1 ⎠ + exp ( N−1 ∑ )<br />

L h k ξ0 ⎠<br />

k=0<br />

k=0<br />

⎛<br />

<br />

≤ C ( N )<br />

max<br />

k=0 hp k<br />

⎝h N + 1 (<br />

exp ( N∑ ) ) ⎞<br />

L h<br />

L k − 1 − LhN ⎠ + exp ( N∑ )<br />

L h k ξ0<br />

k=0<br />

k=0<br />

Das ist die Behauptung des Lemmas für N + 1.<br />

∗: Benutzt die Induktionsannahme, d.h., die Behauptung des Lemmas für ξ N .<br />

Benutzt die elementare Abschätzung 1+x ≤ exp(x), x ∈ R (Konvexität der Exponentialfunktion).<br />

✬<br />

Theorem 2.1.10 (Kovergenztheorem für Einschrittverfahren).<br />

Es gelte Annahme (2.1.6) und die Darstellung (2.1.5). Ist die Inkrementfunktion ψ lokal<br />

Lipschitz-stetig (→ Def. 1.3.2) in der Zustandsvariablen y, dann<br />

(i) liefert die Verfahrensfunktion Ψ für alle Zeitgitter G mit hinreichend kleinem h G eine<br />

Gitterfunktion y G zum Anfangswert y 0 ,<br />

(ii) konvergiert diese Familie {y G } G von Gitterfunktionen von der Ordnung p gegen t ↦→ y(t),<br />

siehe Def. 2.1.4<br />

✫<br />

Hilfsmittel beim Beweis:<br />

✩<br />

✪<br />

2.1<br />

p. 101<br />

Beweis von Thm. 2.1.10.<br />

➀ Kompakte Umgebung der Lösungstrajektorie t ↦→ y(t) zum Anfangswert y 0 :<br />

Für hinreichend kleines δ > 0:<br />

K δ := {(t,y) ∈ I × R d : t 0 ≤ t ≤ T, ‖y − y(t)‖ ≤ δ} , δ > 0 .<br />

K δ ⊂ Ω<br />

Infolge der lokalen Lipschitz-Bedingung an ψ und der lokalen Konsistenzfehlerabschätzung (2.1.6)<br />

➁ Annahme A1: (y k ) N k=0 existiert und y k ∈ K δ ⊂ Ω für ein δ > 0. Diese Annahme wird a posteriori<br />

(durch Induktion nach N) für hinreichend kleines h G besätigt.<br />

2.1<br />

p. 103<br />

✬<br />

Lemma 2.1.11 (Diskretes Gronwall-Lemma, siehe Lemma 1.3.7).<br />

Erfüllt die Folge (ξ k ) k∈N0 , ξ k ≥ 0, die Differenzenungleichung<br />

✫<br />

ξ k+1 ≤ Ch p+1<br />

k + (1 + Lh k )ξ k , k ∈ N 0 , L,C,h k ≥ 0 , (2.1.7)<br />

so gilt<br />

⎛<br />

⎞<br />

ξ N ≤ C ( ) 1<br />

max<br />

k=0,...,N−1 hp k<br />

⎝exp ( N−1 ∑ )<br />

L h<br />

L<br />

k − 1 ⎠ + exp ( N−1 ∑ )<br />

L h k · ξ0 , N ∈ N 0 .<br />

k=0<br />

k=0<br />

✩<br />

✪<br />

2.1<br />

p. 102<br />

➂ Beachte y k+1 = Ψ t k,t k+1 y k ➣ Rekursion für Fehler e k := y(t k ) − y k<br />

(<br />

)<br />

)<br />

e k+1 = y(t k+1 ) − Ψ t k,t k+1y(tk ) +<br />

(Ψ t k,t k+1y(tk ) − Ψ t k,t k+1yk<br />

} {{ } } {{ }<br />

Einschrittfehler<br />

propagierter Fehler<br />

(2.1.5)<br />

= τ(t k ,y(t k ), h k ) + e k + h k (ψ(t k ,y(t k ), h k ) − ψ(t k ,y k , h k )) ,<br />

wobei die Def. 2.1.7 des Konsistenzfehlers τ benutzt worden ist.<br />

➃ Kompaktheitsargumente:<br />

(2.1.8)<br />

2.1<br />

p. 104


Konsequenz der lokalen Konsistenzfehlerabschätzung (2.1.6): für |h| hinreichend klein<br />

∥<br />

∃C > 0: ∥Φ t,t+h y − Ψ t,t+h y∥ ≤ C c h p+1 ∀(t,y), (t + h,y) ∈ K δ . (2.1.9)<br />

Konsequenz der lokalen Lipschitz-Stetigkeit (→ Def. 1.3.2) der Inkrementfunktion ψ: für |h|<br />

hinreichend klein<br />

∃L > 0: ‖ψ(t,z, h) − ψ(t,w,h)‖ ≤ L ‖z − w‖ ∀(t,z), (t,w) ∈ K δ . (2.1.10)<br />

2.1.4 Das Äquivalenzprinzip (Dahlquist, Lax)<br />

Ziel: Abstraktion des Beweises von Thm. 2.1.10<br />

Betrachte: Äquidistante Zeitgitter G = {t k } N k=0 , t k := t 0 + hk, h := (T − t 0 )/N, N ∈ N<br />

➄ (2.1.8) & △-Ungleichung ⇒ Rekursion für Fehlernorm:<br />

‖e k+1 ‖ ≤ ‖e k ‖ + ‖τ(t k ,y(t k ), h k )‖ + h k ‖ψ(t k ,y(t k ),h k ) − ψ(t k ,y k , h k )‖<br />

(2.1.10)<br />

≤ ‖e k ‖ + ‖τ(t k ,y(t k ), h k )‖ + h k L ‖y(t k ) − y k ‖<br />

(2.1.9)<br />

≤ Ch p+1<br />

k + (1 + Lh k ) ‖e k ‖ .<br />

(Annahme:<br />

diskrete Evolution Ψ<br />

Gitterfunktion y G = (y k ) N k=0<br />

G ⊂ J(t 0 ,y 0 ), y G wohldefiniert)<br />

←→<br />

(kontinuierliche) Evolution Φ<br />

Lösung t ↦→ y(t)<br />

Anwendung des diskreten Gronwall-Lemmas mit ξ k := ‖e k ‖, ξ 0 = 0:<br />

Lemma 2.1.11 ⇒ ‖e k ‖ ≤ Ch p exp(L(T − t 0 )) − 1<br />

G<br />

.<br />

L<br />

➅ Die Abschätzung zeigt, dass y k − y(t k ) → 0 für h G → 0. Damit kann durch Induktion bewiesen<br />

werden<br />

∀δ > 0: ∃h ∗ = h ∗ (δ) > 0: h G < h ∗ ⇒ (t k ,y k ) ∈ K δ ∀k .<br />

Damit ist Annahme A1 gerechtfertigt.<br />

Beachte: Der Beweis benutzt nur den Konsistenzfehler entlang der Lösungstrajektorie τ(t,y(t), h).<br />

Man kann also die Voraussetzung der Konsistenzordung p (→ Def. 2.1.9) schwächer formulieren<br />

als<br />

‖τ(t,y(t),h)‖ ≤ C c h p+1<br />

∀t ∈ [t 0 ,T] , für h hinreichend klein.<br />

✷<br />

2.1<br />

p. 105<br />

D<br />

y(t)<br />

y k+1 Ψ y k+2<br />

Ψ<br />

y k<br />

Ψ<br />

y k−1<br />

t k−1 t k t k+1 t k+2<br />

t<br />

Konsistenzfehler, vgl. Def. 2.1.7:<br />

τ(t,y,h) := (Φ t,t+h y − Ψ t,t+h y) .<br />

Fehlerfunktion: e k := y(t k ) − y k .<br />

✁ — ˆ= t ↦→ y(t)<br />

• ˆ= y(t k )<br />

• ˆ= y k<br />

−→ ˆ= Ψ t k,t k+1<br />

2.1<br />

p. 107<br />

Merkregel: (Nur) für Einschrittverfahren:<br />

✗<br />

✖<br />

Konsistenzordnung p =⇒ Konvergenzordnung p<br />

Aus dem diskreten Gronwall-Lemma ergibt sich, dass die Konstante in der asymptotischen Fehlerabschätzung<br />

von Thm. 2.1.10 exponentiell von T − t 0 abhängt. Dies macht die Abschätzung des<br />

Theorems u.U. wertlos für Langzeitintegration, vgl. Lemma 4.4.17.<br />

✔<br />

✕<br />

Fehlerrekursion<br />

e k = y(t k ) − y k<br />

= y(t k ) − Ψ t k−1,t k(y(tk−1 ) + e k−1 )<br />

= Ψ t k−1,t k(y(tk−1 )) − Ψ t k−1,t k(y(tk−1 ) + e k−1 )<br />

} {{ }<br />

fortgepflanzter Fehler<br />

+ y(t k ) − Ψ t k−1,t k(y(tk−1 ))<br />

} {{ }<br />

Einschrittfehler = Konsistenzfehler<br />

e k−1<br />

y k−1<br />

y k<br />

e k<br />

Ψ t k−1,t k<br />

(y(t k−1 )<br />

y(t k )<br />

y(t k−1 )<br />

Fig. 56<br />

t k−1 t k<br />

2.1<br />

p. 106<br />

Konzept: Stabilität einer diskreten Evolution ←→ Kontrolle der Fehlerfortpflanzung<br />

2.1<br />

p. 108


Definition 2.1.12 (Nichtlineare Stabilität).<br />

Eine diskrete Evolution Ψ ist (nichtlinear) stabil<br />

∥<br />

:⇔ ∃c > 0: ∥Ψ t,t+h y − Ψ t,t+h z∥ ≤ (1 + ch) ‖y − z‖<br />

lokal gleichmässig in (t,y) für hinreichend kleine ‖y − z‖, h > 0.<br />

Für ESV (2.1.5): Lokale Lipschitz-Stetigkeit von ψ ➣ nichtlineare Stabilität<br />

Unter der Annahme der Eindeutigen Auflösbarkeit der Definitionsgleichung (1.4.11) nach y k+1 :<br />

⇒ y = Ψ t+h,t Ψ t,t+h y .<br />

Störmer-Verlet-Verfahren (→ Sect. 1.4.4) in Einschrittformulierung von Bem. 1.4.15<br />

v k+ 1 = v k + h<br />

2<br />

2 f(y k) ,<br />

y k+1 = y k + hv k+ 1 ,<br />

2<br />

v k+1 = v k+ 1 + h<br />

2<br />

2 f(y k+1) .<br />

⇒<br />

v k+ 1 = v k+1 − h<br />

2<br />

2 f(y k+1) ,<br />

y k = y k+1 − hv k+ 1 ,<br />

2<br />

v k = v k+ 1 − h<br />

2<br />

2 f(y k) .<br />

✬<br />

Theorem 2.1.13 ( Konsistenz & (nichtlineare) Stabilität ⇒ Konvergenz ).<br />

Falls Ψ konsistent mit Φ (von Ordnung p) und (nichtlinear) stabil, so konvergiert das Einschrittverfahren<br />

global (von Ordnung p).<br />

✫<br />

✩<br />

✪<br />

Man erkennt Reversibilität an der Verfahrensvorschrift, wenn der Austausch y k ↔ y k+1 und h ↔<br />

−h Gleichungen liefert, die mit der ursprünglichen Verfahrensvorschrift identisch sind.<br />

✸<br />

✬<br />

✩<br />

2.1.5 Reversibilität<br />

2.1<br />

p. 109<br />

Theorem 2.1.15 (Konsistenzordnung reversibler ESV).<br />

Die maximale Konsistenzordnung (→ Def. 2.1.9) eines reversiblen Einschrittverfahrens (→<br />

Def. 2.1.14) ist gerade.<br />

✫<br />

Der Beweis verwendet folgendes Hilfsresultat ([5, Lemma 4.38]):<br />

✪<br />

2.1<br />

p. 111<br />

✬<br />

✩<br />

Wir haben gesehen: Eine approximative diskrete Evolution Ψ (→ Sect. 2.1.1) kann im Allgemeinen<br />

nicht erfüllen: Ψ r,s Ψ t,r = Ψ t,s<br />

Jedoch: für s = t ist diese Forderung realisierbar !<br />

Definition 2.1.14 (Reversible diskrete Evolutionen).<br />

Eine diskrete Evolution Ψ : ˜Ω h ⊂ I × I × D ↦→ R d (und das zugehörige Einschrittverfahren)<br />

heisst reversibel, falls<br />

Lemma 2.1.16 (Störungslemma für diskrete Evolutionen).<br />

Sei f zweimal stetig differenzierbar und Ψ eine zur ODE ẏ = f(t,y) konsistente (→ Def. 2.1.5)<br />

diskrete Evolution, stetig differenzierbar in h und y. Dann gilt für (t,y) ∈ Ω und hinreichend<br />

kleine z ∈ R d<br />

Ψ t,t+h (y + z) = Ψ t,t+h y + z + h ∂f<br />

∂y (t,y)z + r(h,z) , ‖r(h,z)‖ ≤ C(h2 ‖z‖ + h ‖z‖ 2 ) ,<br />

mit C > 0 unabhängig von h und z.<br />

✫<br />

✪<br />

Ψ t,s Ψ s,t y = y ∀(t,y) ∈ Ω , ∀ |t − s| hinreichend klein .<br />

☞<br />

Thm. 2.1.15 erklärt in Bsp. 1.4.9 beoachtete O(h 2 )-Kovergenz der impliziten Mittelpunktsregel.<br />

Beispiel 2.1.4 (Einfache reversible Einschrittverfahren).<br />

implizite Mittelpunktsregel (1.4.11)<br />

Ψ t,t+h y = y + hf(t + 2 1h, 2 1(y + Ψt,t+h y))<br />

⇓<br />

2.1<br />

y = Ψ t,t+h y − hf(t + h − 2 1h, 2 1(y + Ψt,t+h y) . p. 110<br />

2.2<br />

p. 112


2.2 Kollokationsverfahren[5, Sect. 6.3], [11, Sect. II.1.2]<br />

2.2.1 Konstruktion<br />

Zunächst: Fokus auf ersten (↔ allgemeinem) Schritt<br />

(dies genügt bei Einschrittverfahren → Def. 2.1.1)<br />

s∑<br />

(2.2.1) ⇒ ẏ h (t 0 + τh) = k j L j (τ) , k j := f(t 0 + c j h,y h (t 0 + c j h)) .<br />

j=1<br />

s∑<br />

∫ τ<br />

⇒ y h (t 0 + τh) = y 0 + h k j L j (ζ) dζ .<br />

j=1<br />

0<br />

✗<br />

✖<br />

Idee: ➊ Approximiere y(t), t ∈ [t 0 ,t 1 ], in s + 1-dimensionalem Ansatzraum V von<br />

Funktionen [t 0 ,t 1 ] ↦→ R d ✄ y h .<br />

➋ Festlegung von y h ∈ V durch Kollokationsbedingungen<br />

y h (t 0 ) = y 0 , ẏ h (τ j ) = f(τ j ,y h (τ j )) , j = 1, . ..,s , (2.2.1)<br />

für Kollokationspunkte t 0 ≤ τ 1 < . .. < τ s ≤ t 1 .<br />

” Standardoption”: Polynomialer Ansatzraum V = P s<br />

✔<br />

✕<br />

Definierende Gleichungen des Kollokations-Einschrittverfahrens<br />

(zu Kollokationspunkten 0 ≤ c 1 < c 2 < · · · < c s ≤ 1):<br />

s∑<br />

y h (t 1 ) = y 0 + h b i k i ,<br />

i=1<br />

mit<br />

s∑<br />

k i = f(t 0 + c i h,y 0 + h a ij k j ) .<br />

j=1<br />

∫ ci<br />

a ij = L j (τ) dτ ,<br />

∫<br />

0<br />

1<br />

b i = L i (τ) dτ .<br />

0<br />

(2.2.3)<br />

2.2<br />

p. 113<br />

Diskrete Evolution Ψ t 0,t 1 : Ω ↦→ Ω , Ψ<br />

t 0 ,t 1y0 := y 1 := y h (t 1 )<br />

2.2<br />

p. 115<br />

✎ Notation: P s ˆ= Raum der univariaten Polynome vom Grad ≤ s, s ∈ N 0<br />

Bekannt: dim P s = s + 1<br />

➤ (2.2.3) ˆ= (Nichtlineares) Gleichungssystem für Inkremente k i (≈ ẏ(t 0 + c i h))<br />

✄ (Generische) Kollokationsverfahren = implizites Einschrittverfahren (→ Def. 2.1.1)<br />

➣<br />

Ein Polynom p ∈ P s ist durch s+1 Interpolationsbedingungen für Werte/Ableitungen eindeutig<br />

festgelegt.<br />

Kollokations-Einschrittverfahren in der Form von Lemma 2.1.6:<br />

s∑<br />

Ψ t 0,t 0 +h y 0 = y 0 + hψ(t 0 ,y 0 ,h) mit Inkrementfunktion ψ(t 0 ,y 0 , h) = b i k i . (2.2.4)<br />

i=1<br />

➣<br />

von y h )<br />

Kollokationsbedingungen (2.2.1) legen Polynomgrad s nahe (im Sinne von Existenz/Eindeutigkeit<br />

Bemerkung 2.2.1 (Umformulierung der Inkrementgleichungen (2.2.3)).<br />

Äquivalente Form der Inkrementgleichungen (2.2.3):<br />

Herleitung: Formel für y h (t 1 ) (h := t 1 − t 0 , τ j := t 0 + c j h, 0 ≤ c 1 < c 2 < ... < c s ≤ 1)<br />

Ersetze Inkremente k i durch<br />

s∑<br />

g i := y 0 + h a ij k j , i = 1,...,s ⇔ k i = f(t 0 + c i h,g i ).<br />

j=1<br />

Hilfsmittel: {L j } s j=1 ⊂ P s−1 ˆ= Lagrange-Polynome zu Sützstellen c i , i = 1, . ..,s, in [0, 1]:<br />

s∏ τ − c j<br />

L i (τ) = , i = 1, ...,s ⇒ L<br />

c<br />

j=1,j≠i i − c j (c i ) = δ ij , i,j = 1, ...,s . (2.2.2)<br />

j<br />

2.2<br />

p. 114<br />

(2.2.3) ⇔<br />

s∑<br />

g i = y 0 + h a ij f(t 0 + c i h,g j )<br />

j=1<br />

s∑<br />

y 1 = y 0 + h b i f(t 0 + c i h,g i ) .<br />

i=1<br />

(2.2.5)<br />

2.2<br />

p. 116


△<br />

ist als Störung der Einheitsmatrix inverstierbar für hinreichend kleines h.<br />

✷<br />

✬<br />

Lemma 2.2.1 (Lösbarkeit der Inkrementgleichungen).<br />

Ist f lokal Lipschitz-stetig (→ Def. 1.3.2) auf dem erweiterten Zustandsraum Ω, so gibt es zu<br />

jedem (t 0 ,y 0 ) ∈ Ω ein h 0 > 0 so, dass (2.2.3) für jedes h < h 0 eindeutig nach den Inkrementen<br />

k i auflösbar ist, und diese sind stetige Funktionen in h.<br />

Ist f ∈ C m (Ω, R d ), m ∈ N, dann sind auch die Inkremente m-fach stetig differenzierbare<br />

Funktionen von y 0 , t 0 ,h.<br />

✫<br />

Beweis” (von Lemma 2.2.1, unter stärkeren Voraussetzungen, für autonomen Fall ẏ = f(y))<br />

”<br />

Annahme:<br />

k i = f(y 0 + h<br />

s∑<br />

a ij k j ) ⇔<br />

j=1<br />

f ist stetig differenzierbar auf Ω<br />

⎛<br />

f(y 0 + h s ⎞<br />

∑<br />

a 1j k j )<br />

j=1<br />

G(h, k) = 0 , G(h, k) := k −<br />

.<br />

,<br />

⎜<br />

⎝ ∑<br />

f(y 0 + h s ⎟<br />

a sj k j )<br />

⎠<br />

j=1<br />

✩<br />

✪<br />

2.2<br />

p. 117<br />

Ein alternativer Beweis gibt zusätzliche Schrittweitenschranke für die Existenz einer Lösung der Inkrementgleichungen:<br />

Hilfsmittel bei alternativem Beweis (→ Analysis-Vorlesung):<br />

✬<br />

Theorem 2.2.3 (Banachscher Fixpunktsatz, parameterabhängige Version).<br />

V ⊂ R d abgeschlossen, U ⊂ R n offen, F : U × V ↦→ V sei total m-mal stetig differenzierbar,<br />

m ∈ N 0 , und besitze die gleichmaässige Kontraktionseigenschaft<br />

✫<br />

∃0 ≤ q < 1: ‖F(u,z) − F(u,w)‖ ≤ q ‖z − w‖ ∀z,w ∈ V , ∀u ∈ U .<br />

Dann gibt es eine m-mal stetig differenzierbare Funktion G : U ↦→ V so dass<br />

F(u, G(u)) = G(u) ∀u ∈ U .<br />

✎ Übliche Notation für Koeffizientenmatrix A := ( ) s<br />

a ij i,j=1 ∈ Rs,s 2.2<br />

p. 119<br />

✩<br />

✪<br />

mit k = (k 1 , ...,k s ) T ∈ R s·d .<br />

Idee: Anwendung des Satzes über implizite Funktionen auf G : R × D ↦→ D<br />

✬<br />

Theorem 2.2.2 (Satz über implizite Funktionen).<br />

→ Analysis-Vorlesung<br />

Seien I ⊂ R q , U ⊂ R n offen und G = G(ξ,y) : I × U ↦→ R n sei stetig differenzierbar. Für<br />

ein (ξ 0 ,y 0 ) ∈ I × U gelte G(ξ,y) = 0.<br />

✩<br />

s∑<br />

✎ Zeilensummennorm ‖A‖ ∞ := max |a ij | (ˆ= Matrixnorm zur Maximumnorm)<br />

i=1,...,s j=1<br />

Beweis. (von Lemma 2.2.1 für autonomen Fall ẏ = f(y))<br />

Vorbereitung: Wie im Beweis von Thm. 2.1.10 betrachten wir f wieder auf einer kompakten Umgebung<br />

K δ der L¨soungskurve t ↦→ y(t) im erweiterten Phasenraum Ω. Daher (zunächst) ohne<br />

Beschränkung der Allgemeinheit die Annahme:<br />

f global Lipschitz-stetig, vgl. Def. 1.3.2:<br />

Ist die Jacobi-Matrix ∂G<br />

∂y (ξ 0, y 0 ) invertierbar, dann gibt es eine Umgebung V ⊂ I von ξ 0 und<br />

eine eindeutige stetig differenzierbare Funktion ξ ↦→ z(ξ) so, dass<br />

✫<br />

G(ξ, z(ξ)) = 0 ∀ξ ∈ V .<br />

k 0 := (f(y 0 ),...,f(y 0 )) T erfüllt G(0, k 0 ) = 0<br />

✪<br />

∃L > 0: ‖f(z) − f(w)‖ ≤ L ‖z − w‖ ∀z,w ∈ D . (2.2.6)<br />

Wir nehmen auch an, dass sich eine r-Umgebung von y 0 in D befindet:<br />

∃r > 0: ‖z − y 0 ‖ ≤ r ⇒ z ∈ D .<br />

Idee: Anwendung des Banachschen Fixpunktsatzes Thm. 2.2.3 auf die (äquivalenten) Inkrementgleichungen<br />

(2.2.5) für die g i : mit g := (g 1 ,...,g s ) ∈ R s·d<br />

Ableitung (ˆ= Jacobi-Matrix) von G in (0,k 0 ) (aus Kettenregel)<br />

⎛<br />

D k G(0,k 0 ) = I − h ⎝ a ⎞<br />

11D y f(y 0 ) · a 1s D y f(y 0 )<br />

.<br />

. ⎠ ,<br />

a s1 D y f(y 0 ) · a ss D y f(y 0 )<br />

2.2<br />

p. 118<br />

⎛<br />

y 0 + h s ⎞<br />

∑<br />

a 1j f(g j )<br />

j=1<br />

(2.2.5) ⇔ g = F(h, g) , F(h, g) :=<br />

.<br />

. (2.2.7)<br />

⎜<br />

⎝ ∑<br />

y + h s ⎟<br />

a f(g )<br />

⎠<br />

2.2<br />

p. 120


Auf R s·d verwende Norm<br />

‖g‖ := max<br />

i=1,...,s ‖g i‖.<br />

Dies ist eine Schrittweitenbeschränkung analog der Schrittweitenbeschränkung für das explizite<br />

Euler-Verfahren in der Nähe stark attraktiver Fixpunkte, vgl. Bsp. 1.4.3.<br />

△<br />

Zu zeigen: für hinreichend kleines h bleiben alle g i in der abgeschlossenen r-Umgebung von y 0 : mit<br />

y 0 = (y 0 ,...,y 0 )<br />

∥ ∥∥∥∥∥ s∑<br />

‖F(h, g) − y 0 ‖ = max |h| a ij f(g j )<br />

i=1,...,s j=1 ∥ ≤ |h| ‖A‖ ∞ max<br />

∥<br />

∥f(y 0 ) + f(g j ) − f(y 0 ) ∥ j=1,...,s<br />

⇒<br />

Zu zeigen:<br />

(2.2.6)<br />

≤ |h| ‖A‖ ∞ (‖f(y 0 )‖ + L ‖g − y 0 ‖) .<br />

{<br />

}<br />

r<br />

|h| <<br />

⇒ ‖F(h, g) − y<br />

‖A‖ ∞ (‖f(y 0 )‖ + Lr)<br />

0 ‖ ≤ r , if ‖g − y 0 ‖ ≤ r .<br />

g ↦→ F(h, g) ist h-gleichmässige Kontraktion<br />

s∑<br />

‖F(h, g) − F(h, p)‖ ≤ |h| · max<br />

i=1,...,s<br />

a ij (f(g j ) − f(p j ))<br />

∥j=1<br />

∥<br />

∥<br />

≤ |h| · ‖A‖ ∞ max ∥f(g j ) − f(p j ) ∥ j=1,...,s<br />

≤ |h|L · ‖A‖ ∞ ‖g − p‖ ,<br />

2.2<br />

p. 121<br />

Verifikation einer Voraussetzung von Thm. 2.1.10:<br />

✬<br />

Lemma 2.2.4 (Lipschitz-Stetigkeit der Inkrementfuntion).<br />

Unter den Voraussetzungen von Lemma 2.2.1 existiert zu jedem (t 0 ,y 0 ) ∈ Ω ein h 0 > 0 so,<br />

dass ψ aus (2.2.4) lokal Lipschitz-stetig im Zustandsargument ist.<br />

✫<br />

Beweis. (für autonome ODE)<br />

Ohne Beschränkung der Allgemeinheit wird f als global Lipschitz-stetig angenommen, vgl. Beweis<br />

zu Lemma 2.2.1:<br />

∃L > 0: ‖f(z) − f(w)‖ ≤ L ‖z − w‖ ∀z,w ∈ D . (2.2.8)<br />

Mit g i aus den äquivalenten Inkrementgleichungen (2.2.5):<br />

s∑<br />

s∑<br />

ψ(t,y,h) = y + h b i f(g j ) , g i = y + h a ij f(g j ) . (2.2.9)<br />

j=1<br />

j=1<br />

✩<br />

✪<br />

2.2<br />

p. 123<br />

wobei im letzten Schritt die globale Lipschitz-Bedingung für f benutzt wurde.<br />

|h| <<br />

1<br />

L ‖A‖ ∞<br />

⇒ g ↦→ F(h, g) ist h-gleichmässige Kontraktion.<br />

Wähle h 0 =<br />

r<br />

‖A‖ ∞ (‖f(y 0 )‖ + Lr)<br />

Damit erfüllt F mit U =] − h 0 , h 0 [ und V = {g: ‖g − y 0 ‖ ≤ r} die Voraussetzungen des Banachschen<br />

Fixpunktsatzes Thm. 2.2.3.<br />

{<br />

⇒ f ∈ C m (D) ⇒<br />

}<br />

∃g :] − h 0 ,h 0 [↦→ R d·s : F(h, g(h)) = g(h) .<br />

Wegen der Äquivalenz (2.2.7) is damit der Beweis abgeschlossen.<br />

Bemerkung 2.2.2 (Schrittweitenbeschränkung aus Lemma 2.2.1).<br />

Beweis von Lemma 2.2.1: Lösbarkeit der Inkrementgleichungen nur garantiert, wenn<br />

|h| ≤<br />

1<br />

L ‖A‖ ∞<br />

,<br />

wobei L > 0 eine (lokale) Lipschitz-Konstante (→ Def. 1.3.2) für den Quellterm f ist.<br />

✷<br />

2.2<br />

p. 122<br />

Wähle y,z ∈ D und definiere (für hinreichend kleines h, siehe Lemma 2.2.1) g y i ,gz i ∈ R d als<br />

Lösungen von<br />

Mit g y := (g y 1 ,...,gy s), g z := (g z 1 , ...,gs s):<br />

s∑<br />

g y i = y + a ij f(g y j ) ,<br />

j=1<br />

s∑<br />

gi z = z + a ij f(gj z ) .<br />

j=1<br />

s∑ (∥ ∥ ∥ )<br />

‖g y − g z ∥∥f(g y ∥∥ ∥∥f(g<br />

‖ ≤ ‖y − z‖ + h max |a ij |<br />

i=1,...,s<br />

j ) −<br />

z j ) ∥<br />

j=1<br />

h ‖A‖ ∞ L < 1 ⇒<br />

(2.2.8)<br />

vgl. die Schrittweitenschranke aus Bem. 2.2.2<br />

≤ ‖y − z‖ + hL · ‖A‖ ∞ ‖g y − g z ‖ .<br />

‖g y − g z 1<br />

‖ ≤<br />

‖y − z‖ .<br />

1 − h ‖A‖ ∞ L<br />

Aus dieser Abschätzung und wieder mit (2.2.8) folgt (falls h ‖A‖ ∞ L < 1)<br />

s∑<br />

‖ψ(t,y,h) − ψ(t,z, h)‖ ≤ h |b i | ∥ ∥f(g y i ) − f(gz i )∥ ∥<br />

L<br />

s∑<br />

≤<br />

|b<br />

1 − Lh ‖A‖ i | · ‖y − z‖ .<br />

i=1<br />

∞ i=1<br />

(2.2.10)<br />

2.2<br />

p. 124


Da y, z beliebig, folgt die Behauptung.<br />

Bemerkung 2.2.3 (Kollokationsverfahren und numerische Quadratur).<br />

f(t,y) = f(t) & y 0 = 0 ➤ Numerische Quadratur (→ Vorlesung Numerische Methoden”)<br />

”<br />

t 1<br />

∫<br />

y(t 1 ) = f(t) dt ≈ h ∑ s<br />

i=1 b jf(t 0 + c j h) = Quadraturformel<br />

t 0<br />

➞ c 1 ,...,c s ↔ Knoten (engl. nodes) einer Quadraturformel (z.B. Gauss-Punkte auf [0, 1]<br />

b 1 ,...,b s ↔ Gewichte (engl. weights) einer Quadraturformel<br />

✷<br />

△<br />

☞ Die n Knoten der n. Gaussschen Quadraturformel<br />

auf [−1, 1], n ∈ N, sind die Nullstellen<br />

des Legendre-Polynoms vom Grad<br />

n. ✄<br />

☞ Die n. Gaussschen Quadraturformel hat<br />

Ordnung 2n.<br />

☞ Die Gewichte der n. Gaussschen Quadraturformel<br />

sind positiv.<br />

Anzahl n der Quadraturknoten<br />

Gauss-Kollokations-Einschrittverfahren<br />

20<br />

18<br />

16<br />

14<br />

12<br />

10<br />

8<br />

6<br />

4<br />

Gauss−Legendre−Punkte in [−1,1]<br />

2<br />

−1 −0.5 0 0.5 1<br />

t<br />

Fig. 57<br />

Aus Zusammenhang zwischen Kollokationsverfahren und numerische Quadratur<br />

✗<br />

✔<br />

➣ Wahl der Kollokationspunkte c i als Knoten bewährter Quadraturformeln<br />

✖<br />

✕<br />

Die folgenden Beispiele zeigen, dass sich sinnvolle Verfahren ergeben:<br />

• Fall s = 1 & c 1 = 1/2 (↔ einfachste Gauss-Legendre-Quadraturformel)<br />

L 1 ≡ 1 ⇒ a 11 = 1/2 , b 1 = 1 .<br />

k 1 = f(t 0 + 1/2h,y 0 + 1/2hk 1 ) , y h (t 1 ) = y 0 + hk 1 . (2.2.11)<br />

(2.2.11) = Implizite Mittelpunktsregel (1.4.11)<br />

2.2<br />

p. 125<br />

Beispiel 2.2.4 (Konvergenz von globalen Gauss-Kollokationsverfahren).<br />

Dieses Beispiel studiert den Einschrittfehler von Kollokationsverfahren in Abhängigkeit von der<br />

Anzahl der Kollokationspunkte ↔ Polynomgrad s<br />

Logistische Differentialgleichung (→ Bsp. 1.2.1)<br />

ẏ = λy(1 − y) , y 0 ∈]0, 1[ ⇒ y(t) =<br />

1<br />

1 + (y0 −1 , t ∈ R . (2.2.12)<br />

− 1)e−λt Numerische Experimente mit Gauss-Kollokationsverfahren auf [0, 1], y 0 = 0.01, λ = 10:<br />

(Lösung der Gleichungen für Inkremente k i : MATLAB fsolve, Toleranz 10 −9 )<br />

2.2<br />

p. 127<br />

• Fall s = 1 & c 1 = 0 (↔ linksseitige Ein-Punkt-Quadraturformel)<br />

Hier:<br />

Kollokationsverfahren als globales Integrationsverfahren<br />

L 1 ≡ 1 ⇒ a 11 = 0 , b 1 = 1 .<br />

k 1 = f(t 0 ,y 0 ) , y h (t 1 ) = y 0 + hk 1 = y 0 + hf(t 0 ,y 0 ) .<br />

(2.2.1) = Explizites Eulerverfahren (1.4.2) (kein Lösen einer Gleichung erforderlich !)<br />

1.6<br />

1.4<br />

1.2<br />

1<br />

y(t)<br />

s=1<br />

s=2<br />

s=3<br />

s=4<br />

s=5<br />

s=6<br />

10 0 Polynomgrad = Stufenzahl s<br />

10 −1<br />

10 −2<br />

• Fall s = 1 & c 1 = 1 (↔ rechtsseitige Ein-Punkt-Quadraturformel)<br />

L 1 ≡ 1 ⇒ a 11 = 1 , b 1 = 1 .<br />

k 1 = f(t 1 ,y 0 + hk 1 ) , y h (t 1 ) = y 0 + hk 1 = y 0 + hf(t 1 ,y h (t 1 )) .<br />

(2.2.1) = Implizites Eulerverfahren<br />

Erinnerung:<br />

Optimale Quadraturverfahren”: Gaussquadratur<br />

2.2<br />

”<br />

(→ Vorlesung Numerische Methoden”[6, Sect. 9.3]) p. 126<br />

”<br />

y<br />

0.8<br />

0.6<br />

0.4<br />

0.2<br />

0<br />

−0.2<br />

0 0.2 0.4 0.6 0.8 1<br />

t<br />

Näherungslösungen y h (t)<br />

|y h<br />

(1)−y(1)|<br />

10 −3<br />

10 −4<br />

10 −5<br />

10 −6<br />

1 2 3 4 5 6 7 8 9 10<br />

✄ Exponentielle Konvergenz in s (Warum ?)<br />

2.2<br />

✸ p. 128


Lemma 2.2.1 ➣ Lösbarkeit der Inkrementgleichungen (2.2.3) nur gesichert für ”<br />

kleines h !<br />

Idee: (wie in Sect. 1.4)<br />

➀ Wähle Zeitgitter G := {t 0 < t 1 < t 2 < · · · < t n = T }<br />

➁ Kollokations-Einschrittverfahren (→ Def. 2.1.1) auf der Grundlage von<br />

Ψ t k,t k−1 := diskrete Evolution durch Kollokation des AWP auf [tk−1 , t k ],<br />

→ Formel (2.2.3).<br />

Bemerkung 2.2.5 (Lösungsfunktion aus Kollokationsverfahren).<br />

Hilfsmittel beim Beweis: Restgliedabschätzung für Polynominterpolation (→ Vorlesung “Numerische<br />

Methoden”)<br />

✬<br />

Lemma 2.2.7 (Fehlerabschätzung für Polynominterpolation). → [6, Satz 7.16]<br />

Sei f ∈ C n+1 ([x 0 , x n ]), x 0 < x 1 < . .. < x n , und p ∈ P n das Interpolationspolynom von f<br />

zu den Sützstellen x i (d.h. p(x i ) = f(x i )), dann gilt<br />

|f (k) (x) − p (k) (x)| ≤ |x n − x 0 | n+1−k<br />

(n + 1 − k)!<br />

max |f (n+1) (ξ)| ∀x 0 ≤ x ≤ x n , k = 0,...,n + 1 .<br />

x 0 0:<br />

∥ ∥∥e<br />

max<br />

(k) (t) ∥ ≤ Ch s+1−k ∀|h| ≤ h 0 .<br />

t 0 ≤t≤t 1<br />

✩<br />

✪<br />

✩<br />

✪<br />

2.2<br />

p. 130<br />

∃L > 0: ‖f(z) − f(w)‖ ≤ L ‖z − w‖ ∀z,w ∈ D . (2.2.14)<br />

Zur Konsistenzuntersuchung betrachte die Einschrittfehlerfunktion<br />

Aus den Kollokationsbedingungen (2.2.1):<br />

e(t) := y(t) − y h (t) ➣ τ(y 0 , h) = e(h) . (2.2.15)<br />

ẏ h (t) =<br />

s∑<br />

f(y h (c i h)) · L i (τ) , τ := t h . (2.2.16)<br />

i=1<br />

Aus der Lösungseigenschaft von t ↦→ y(t)<br />

ẏ(t) = f(y(t)) =<br />

s∑<br />

f(y(c i h)) · L i (τ) + r(t) , τ := t h . (2.2.17)<br />

i=1<br />

Interpolationspolynom ∈ P s−1 zur Funktion t ↦→ f(y(t)) und Knoten c i h auf [0,h]<br />

r ˆ= Restglied für Polynominterpolation, siehe Lemma 2.2.7, erfüllt<br />

∥<br />

∥r (k) 1<br />

∥<br />

(t) ∥ ≤ max ∥y (s+1) (t) ∥ h s−k ≤ Ch s−k , k = 0,...,s . (2.2.18)<br />

(s − k)! 0


Konvention: All Konstanten C unabhängig von (hinreichend kleinem) h, dürfen abhängen von y(t),<br />

f, Paramtern des Kollokationsverfahrens, etc.<br />

Aus (2.2.16) & (2.2.17) & Integration ➣ Ausdruck für Einschrittfehlerfunktion<br />

Numerische Konvergenzraten :<br />

(berechnet durch lineare Regression)<br />

s = 1 : p = 1.96<br />

s = 2 : p = 4.01<br />

s = 3 : p = 6.00<br />

s = 4 : p = 8.02<br />

wobei<br />

s∑<br />

∫ τ ∫ t<br />

e(t) = h ∆f(c i h) · L i (σ) dσ + r(σ) dσ , 0 ≤ τ ≤ 1 , (2.2.19)<br />

i=1<br />

0<br />

0<br />

∆f(t) = f(y(t)) − f(y h (t)).<br />

(2.2.14) ⇒ ‖∆f(t)‖ ≤ L ‖e(t)‖ . (2.2.20)<br />

(2.2.19) & (2.2.18)<br />

=⇒ ‖e‖ ∞ := max<br />

0≤t≤h ‖e(t)‖ ≤ C 1Lh ‖e‖ ∞ + C 2 h s+1 , (2.2.21)<br />

mit von h unabhängigen Konstanten C 1 ,C 2 > 0 (, die von den Kollokationspunkten c i und y<br />

abhängen.)<br />

C<br />

C 1 Lh 0 < 1 ⇒ ‖τ(y, h)‖ ≤ ‖e‖ ∞ ≤ 2<br />

1 − C 1 h 0 L hs+1 ∀|h| ≤ h 0 . (2.2.22)<br />

☞ Zwischenergebnis: Das Kollokationsverfahren hat mindestens Konsistenzordnung s.<br />

Betrachte: Kollokationsverfahren zu ẏ = f(t,y) mit (relativen) Kollokationspunkten c i ∈ [0, 1],<br />

i = 1, ...,s, s ∈ N ➣ Koeffizienten b i , a ij in (2.2.3).<br />

✬<br />

Zugeordnete Quadraturformel, Bem. 2.2.3:<br />

Q(f) = h ∑ s<br />

Theorem 2.2.8 (Konsistenzordnung von Kollokationsverfahren).<br />

✸<br />

i=1 b jf(t 0 + c j h) . (2.2.24)<br />

Ein Kollokations-Einschrittverfahren hat die gleiche Konsistenzordnung (→ Def. 2.1.9) wie die<br />

zugeordnete Quadraturformel.<br />

✩<br />

Aus (2.2.19) und (2.2.18) lässt sich sogar folgern, für k = 0,...,s,<br />

∥<br />

max ∥e (k) (t) ∥ ≤ C 1 (k)Lh + C 2 (k)h s+1−k ∥<br />

⇒ max ∥e (k) (t) ∥ ≤ C(k)h s+1−k (2.2.23)<br />

0≤t≤h<br />

0≤t≤h<br />

2.2<br />

p. 133<br />

✫<br />

✪<br />

2.2<br />

p. 135<br />

mit von h unabhängigen Konstanten C 1 (k),C 2 (k),C(k) > 0.<br />

Beispiel 2.2.6 (Konvergenz von Gauss-Kollokations-Einschrittverfahren).<br />

Skalare logistische Differentialgleichung (1.2.1), λ = 10, y(0) = 0.01, T = 1<br />

Gauss-Kollokations-Einschrittverfahren (2.2.3) für s = 1,...,4, uniforme Zeitschrittweite h<br />

✷<br />

Hilfsmittel beim Bweis: Fehlerabschätzung für numerische Quadratur (→ Vorlesung “Numerische<br />

Methoden”)<br />

s-Punkt-Quadraturformel auf [a,b]: Q(f) := (b − a)<br />

Annahme: innere Knoten 0 ≤ c i ≤ 1, i = 1, . ..,s<br />

s∑<br />

i=1<br />

∫b<br />

b i f(a + c i (b − a)) ≈<br />

a<br />

f(x) dx .<br />

(2.2.25)<br />

✬<br />

✩<br />

y<br />

1<br />

0.8<br />

0.6<br />

0.4<br />

y(t)<br />

0.2<br />

s=1<br />

s=2<br />

s=3<br />

s=4<br />

0<br />

0 0.2 0.4 0.6 0.8 1<br />

t<br />

Fig. 58<br />

y h (j/10): Gauss-Kollokationsverfahren<br />

max k<br />

|y h<br />

(t k<br />

)−y(t) k<br />

)|<br />

10 −5<br />

10 −10<br />

s=1<br />

s=2<br />

s=3<br />

s=4<br />

10 −15<br />

10 −2 10 −1 h<br />

10 0<br />

Fig. 59<br />

10 0<br />

Konvergenz des Fehlers max k |y k − y(t k )| p. 134<br />

2.2<br />

Lemma 2.2.9 (Quadraturfehlerabschätzung).<br />

Ist eine Quadraturformel (2.2.25) exakt für Polynome von Grad ≤ n, so gilt<br />

∫ f ∈ C n+1 b<br />

([a,b]) ⇒<br />

∣ Q(f) − − a)n+2<br />

f(x) dx<br />

≤ C(b max<br />

a ∣ (n + 1)! a


Beweis von Thm. 2.2.8 (für autonome Dgl.)<br />

Idee: Interpretiere t ↦→ y h (t) als Lösung eines gestörten Anfangswertproblems !<br />

ẏ h (t) = f(y h (t)) + ẏ h (t) − f(y h (t)) , 0 ≤ t ≤ h . (2.2.26)<br />

} {{ }<br />

:=δ(t)<br />

Wegen ẏ(t) = f(y(t)) folgt für die Einschrittfehlerfunktion<br />

Die Propagationsmatrix ist natürlich unabhängig von h, also<br />

∥<br />

∃C > 0 unabhängig von h: ∥W(t;y 0 )W(τ;y 0 ) −1∥ ∥ ≤ C ∀0 ≤ t, τ ≤ h .<br />

∫<br />

(2.2.27)<br />

t<br />

⇒<br />

∥ W(t;y 0 )W(τ;y 0 ) −1 ρ(τ) dτ<br />

∥ ≤ Ch2s+3 ,<br />

0<br />

mit C > 0 unabhängig von h.<br />

ė(t) = f(y(t)) − f(y h (t)) − δ(t) , 0 ≤ t ≤ h .<br />

Beachte: (2.2.15) ➣ Konsistenzfehler bestimmt durch e(h) !<br />

Hilfsmittel: Taylorformel<br />

∫ 1<br />

ϕ(1) − ϕ(0) = ϕ ′ (0) + (1 − τ)ϕ ′′ (τ) dτ ,<br />

0<br />

für ϕ(ξ) := f(y(t) + ξ(y h (t) − y(t))) mit der Kettenregel:<br />

ϕ ′ (ξ) = Df(y(t) + ξ(y h (t) − y(t))) · (y h (t) − y(t)) ,<br />

ϕ ′′ (ξ) = D 2 f(y(t) + ξ(y h (t) − y(t))) (y h (t) − y(t),y h (t) − y(t)) .<br />

Einsetzen in die Formel für die Einschrittfehlerfunktion:<br />

∫ 1<br />

ė(t) = ϕ(0) − ϕ(1) − δ(t) = Df(y(t))e(t) − (1 − τ)D 2 f(y(t) + τe(t))(e(t),e(t)) −δ(t) .<br />

} 0 {{ }<br />

=:ρ(t)<br />

2.2<br />

p. 137<br />

Geniale Idee:<br />

Abschätzung von ∫ h<br />

0 W(t;y 0 )W(τ;y 0 ) −1 δ(τ) dτ als Quadraturfehler !<br />

Wegen δ(c i h) = 0 (Kollokationsbedingung (2.2.1) !):<br />

s∑<br />

b i W(t;y 0 )W(c i h;y 0 ) −1 δ(c i τ) = 0 ∀0 ≤ t ≤ h .<br />

} {{ }<br />

i=1<br />

} {{ =0 }<br />

Quadraturformel auf [0, h] für τ↦→W(t;y 0 )W(τ;y 0 ) −1 δ(τ)<br />

➣ Mit der Quadraturfehlerabschätzung aus Lemma 2.2.9<br />

∫h<br />

s∑<br />

W(t;y 0 )W(τ;y 0 ) −1 δ(τ) dτ − b i W(t;y 0 )W(c i h;y 0 ) −1 δ(c i τ)<br />

≤ C 3 h p+1 ,<br />

∥0<br />

i=1<br />

∥<br />

2.2<br />

p. 139<br />

Dabei gilt die offensichtliche Abschätzung:<br />

∥<br />

‖ρ(t)‖ ≤ max ∥D 2 Lemma 2.2.6<br />

2<br />

f(y) ∥ · ‖e(t)‖ ≤ Ch 2s+2 , (2.2.27)<br />

y∈K<br />

wobei K = {z ∈ D: ‖z − y(t)‖ ≤ R} mit von t unabhängigem R > 0 und C > 0 unabhängig von<br />

h.<br />

➣<br />

Einschrittfehlerfunktion löst das Anfangswertproblem<br />

ė = Df(y(t))e − ρ(t) − δ(t) , e(0) = 0 . (2.2.28)<br />

Betrachtet man ρ(t),δ(t) als blosse Funktionen von t, dann ist (2.2.28) eine nichtautonome lineare<br />

Differentialgleichung.<br />

➣ Lösung durch allgemeine Variation-der-Konstanten-Formel (1.3.9):<br />

mit<br />

C 3 := 1 max<br />

d p {<br />

p! 0≤τ≤h∥dτ p τ ↦→ W(h;y 0 )W(τ;y 0 ) δ(τ)} ∥ −1 ∥∥ .<br />

δ(t) := ẏ h (t)−f(y h (t)) hängt natürlich im Gegensatz zu W(t;y) von h ab, dch dank der Schranken<br />

aus Lemma 2.2.6 sind alle Ableitungen von y h gleichmässig in h beschränkt !. Also lässt sich auch<br />

C 3 unabhängig von h beschränken.<br />

∫h<br />

W(h;y 0 )W(τ;y 0 ) −1 δ(τ) dτ<br />

≤ Ch p+1 .<br />

∥0<br />

∥<br />

Zusammen mit der Abschätzung für den ρ-Term ergibt sich die Behauptung des Theorems, vgl.<br />

Def. 2.1.9<br />

✷<br />

∫ t<br />

e(t) = − W(t;y 0 )W(τ;y 0 ) −1 (ρ(τ) + δ(τ)) dτ , 0 ≤ t ≤ h .<br />

0<br />

mit der Propagationsmatrix t ↦→ W(t;y 0 ), vgl. (1.3.19), Sect. 1.3.3.4. Sie löst das Anfangswertproblem<br />

für die Variationsgleichung (1.3.20)<br />

s-stufige implizite Gauss-Kollokations-Einschrittverfahren haben Ordnung 2s<br />

Ẇ(t;y 0 ) = Df(y(t))W(t;y 0 ) , W(0;y 0 ) = I .<br />

2.2<br />

p. 138<br />

2.3<br />

p. 140


2.3 Runge-Kutta-Verfahren<br />

Nachteil der Kollokationseinschrittverfahren: Alle (mit Ausnahme des expliziten Euler-Verfahrens) sind<br />

implizit (→ Def. 2.1.2)<br />

Gibt es explizite Einschrittverfahren höhererOrdnung? Wenn ja, wie findet man diese?<br />

Definition 2.3.1 (Runge-Kutta-Verfahren).<br />

Für b i ,a ij ∈ R, c i := ∑ s<br />

j=1 a ij , i,j = 1,...,s, s ∈ N, definiert<br />

s∑<br />

s∑<br />

k i := f(t 0 + c i h,y 0 + h a ij k j ) , i = 1,...,s , Ψ t 0,t 0 +h y 0 := y 0 + h b i k i .<br />

j=1<br />

ein s-stufiges Runge-Kutta-Einschrittverfahren (RK-ESV) für AWP (1.1.6) mit Inkrementen k i ∈<br />

R d .<br />

i=1<br />

2.3.1 Konstruktion<br />

➣ Verallgemeinerung der Kollokationsverfahren → Sect. 2.2<br />

(doch keine konkrete Konstruktionsvorschrift !)<br />

AWP:<br />

∫<br />

ẏ(t) = f(t,y(t)) ,<br />

t1<br />

⇒ y(t 1 ) = y 0 + f(τ,y(t 0 + τ)) dτ<br />

y(t 0 ) = y 0 t 0<br />

Approximation durch Quadraturformel (auf [0, 1]) mit s Knoten c 1 , ...,c s :<br />

y(t 1 ) ≈ y 1 ( = y h (t 1 )) = y 0 + h<br />

Wie bekommt man diese Werte ?<br />

s∑<br />

b i f(t 0 + c i h, y(t 0 + c i h) ) , h := t 1 − t 0 .<br />

i=1<br />

Beispiel 2.3.1 (Konstruktion einfacher Runge-Kutta-Verfahren).<br />

Quadraturformel → Trapezregel:<br />

auf Intervall [a,b]<br />

✄ Bootstrapping<br />

Q(f) = 1 2 (b − a)(f(a) + f(b)) ↔ s = 2: c 1 = 0, c 2 = 1 , b 1 = b 2 = 1 2 , (2.3.1)<br />

und y h (T) aus explizitem Eulerschritt (1.4.2)<br />

k 1 = f(t 0 ,y 0 ) , k 2 = f(t 0 + h,y 0 + hk 1 ) , y 1 = y 0 + h 2 (k 1 + k 2 ) . (2.3.2)<br />

(2.3.2) = explizite Trapezregel<br />

Quadraturformel → einfachste Gauss-Quadraturformel (Mittelpunktsregel) & y h ( 1 2 (t 1 + t 0 )) aus<br />

explizitem Eulerschritt (1.4.2)<br />

k 1 = f(t 0 ,y 0 ) , k 2 = f(t 0 + h 2 ,y 0 + h 2 k 1) , y 1 = y 0 + hk 2 . (2.3.3)<br />

2.3<br />

p. 141<br />

Falls a ij = 0 für i ≤ j Explizites Runge-Kutta-Verfahren → Def. 2.1.2<br />

Kurznotation für Runge-Kutta-Verfahren:<br />

Butcher-Schema<br />

✄<br />

c A<br />

b T :=<br />

c 1 a 11 · · · a 1s<br />

. . .<br />

. (2.3.4)<br />

c s a s1 · · · a ss<br />

b 1 · · · b s<br />

A echte untere Dreiecksmatrix ➤ explizites Runge-Kutta-Verfahren<br />

2.3<br />

A untere Dreiecksmatrix ➤ diagonal-implizites Runge-Kutta-Verfahren (DIRK) p. 143<br />

Bemerkung 2.3.2 (Stufenform der Inkrementgleichungen).<br />

Für s-stufiges Runge-Kutta-Einschrittverfahren (RK-ESV), → Def. 2.3.1, definiere (Annahme: eindeutige<br />

Lösbarkeit der Inkrementgleichungen)<br />

Stufen (engl. stages:)<br />

Stufengleichungen<br />

g i = y 0 + h<br />

g i = y 0 + h<br />

s∑<br />

a ij k j , i = 1, ...,s ⇒ k i = f(t 0 + c i h,g i ) .<br />

j=1<br />

(2.3.5)<br />

s∑<br />

a ij f(t 0 + c j h,g j ) , i = 1, ...,s . (2.3.6)<br />

j=1<br />

△<br />

(2.3.3) = explizite Mittelpunktsregel<br />

Diskrete Evolutionen der Form (2.2.3)<br />

✸<br />

2.3<br />

p. 142<br />

Interpretation: Runge-Kutta-Verfahren ↔ Polygonzugapproximation der Lösungskurve<br />

→ Sect. 1.4<br />

Anzahl b i ≠ 0 ˆ= Anzahl der Teilstrecken im Polygonzug<br />

b i , i = 1, ...,s − 1 ˆ= relative Länge des i. Teilintervalls<br />

k i ˆ= Steigung” der i. Teilstrecke<br />

2.3<br />

p. 144


Beispiel 2.3.3 (Explizite Runge-Kutta-Polygonzugapproximation für Ricatti-Differentialgleichung).<br />

→ Bsp 1.1.1<br />

Anfangswertproblem: ẏ = t 2 + y 2 , y(0) = 0.2.<br />

Geometrische Interpretation von expliziten RK-ESV als Polygonzugverfahren → Verallgemeinerung<br />

des expliziten Euler-Verfahrens, siehe Sect. 1.4.1, Fig. ??.<br />

grün<br />

Explizite Mittelpunktsregel:<br />

0 0 0<br />

1<br />

2<br />

1<br />

2 0<br />

0 1<br />

Lösungskurven<br />

1<br />

0.8<br />

0.6<br />

yy(T)<br />

0.4<br />

Klassisches Runge-Kutta-Verfahren<br />

grün<br />

(RK4)<br />

0 0 0 0 0<br />

1<br />

2 1 2 0 0 0<br />

1<br />

2 0 1 2 0 0<br />

1 0 0 1 0<br />

1<br />

6 6 2 2 6 6<br />

1<br />

Lösungskurven<br />

magenta Abschnittsteigungen k i<br />

∗<br />

Punkte f-Auswertung<br />

(2.3.7)<br />

y<br />

1<br />

0.8<br />

0.6<br />

0.4<br />

0.2<br />

0<br />

y 0<br />

k 1<br />

k 2<br />

rot: Polygonzug<br />

0 0.2 0.4 0.6 0.8 1<br />

t<br />

y(T)<br />

0 0.2 0.4 0.6 0.8 1<br />

t<br />

2.3<br />

k 4<br />

k 3<br />

2.3<br />

p. 147<br />

magenta Abschnittsteigungen k i<br />

∗ Punkte f-Auswertung<br />

0.2<br />

y 0<br />

k 1<br />

k 2<br />

p. 145<br />

rot:<br />

Polygonzug<br />

0<br />

grün:<br />

Explizite Trapezregel<br />

0 0 0<br />

1 1 0<br />

1<br />

2 1 2<br />

Lösungskurven<br />

magenta: Abschnittsteigungen k i<br />

∗: Punkte f-Auswertung<br />

rot:<br />

Polygonzug<br />

y<br />

1<br />

0.8<br />

0.6<br />

0.4<br />

0.2<br />

0<br />

y(T)<br />

y 0<br />

0 0.2 0.4 0.6 0.8 1<br />

t<br />

k 1<br />

k 2<br />

p. 146<br />

grün<br />

Kuttas 3/8-Regel<br />

0 0 0 0 0<br />

1 1<br />

3 3 0 0 0<br />

2<br />

3 −1 3 1 0 0<br />

1 1 −1 1 0<br />

1 3 3<br />

8 8 8 1 8<br />

Lösungskurven<br />

magenta Abschnittsteigungen k i<br />

∗<br />

rot:<br />

Punkte f-Auswertung<br />

Polygonzug<br />

(2.3.8)<br />

y<br />

1<br />

0.8<br />

0.6<br />

0.4<br />

0.2<br />

0<br />

y(T)<br />

k 4<br />

k 3<br />

y 0<br />

k 1 k 2<br />

0 0.2 0.4 0.6 0.8 1<br />

t<br />

✸<br />

Bemerkung 2.3.4 (Affin-Kovarianz der Runge-Kutta-Verfahren).<br />

2.3<br />

2.3<br />

p. 148


Für S ∈ R d,d regulär, ŷ := S −1 y (→ Sect. 1.3.2, (1.3.4)), Ψ, ̂Ψ aus RK-Verfahren (→ Def. 2.3.1)<br />

Ψ s,t<br />

h = Diskrete Evolution zu ẏ = f(t,y) ,<br />

̂Ψ s,t<br />

ŜΨ s,t<br />

h S −1 y = Ψ s,t<br />

h<br />

h = Diskrete Evolution zu ˙ŷ = ̂f(t,ŷ) y . (2.3.9)<br />

→ (1.3.4)<br />

Bemerkung 2.3.5 (Autonomisierungsinvarianz von Runge-Kutta-Verfahren).<br />

Warum c i = ∑ s<br />

j=1 a ij in Def. 2.3.1 ?<br />

Autonomisierung:<br />

→ Bem. 1.1.3<br />

ẏ = f(t,y) ,<br />

y(t 0 ) = y 0<br />

▼<br />

⇒<br />

( y ˙<br />

=<br />

s)<br />

(<br />

f(s,y)<br />

1<br />

▼<br />

)<br />

=: ̂f<br />

Evolutionen: Φ t+h,t ↔ ̂Φt+h,t ,<br />

Diskrete Evl.: Ψ t+h,t<br />

h ↔ ̂Ψt+h,t h .<br />

Wunsch:<br />

(<br />

Φ t+h,t )<br />

y<br />

) ( )<br />

=<br />

t + h<br />

y<br />

t+h,t Ψ h y<br />

t t + h<br />

( (<br />

̂Ψ t+h,t<br />

∑ y<br />

h = y + h si=1<br />

)<br />

b îki<br />

t)<br />

t + h ∑ s ,<br />

i=1 b îκ i<br />

(( y<br />

,<br />

s))<br />

=<br />

△<br />

( ) ( ) y(0) y0<br />

= .<br />

s(0) t 0<br />

(<br />

t+h,t y ̂Ψ h . (2.3.10)<br />

t)<br />

) ( ∑ (̂ki f(t + h sj=1<br />

a<br />

=<br />

iĵκ j ,y + h ∑ )<br />

s<br />

j=1 a iĵkj )<br />

.<br />

̂κ i 1<br />

2.3<br />

p. 149<br />

Ziel:<br />

Stückweise polynomiale Definition von t ↦→ y h (t)<br />

Interpolationseigenschaft y h (t k ) = y k , k = 0, ...,N<br />

y h|[tk ,t berechenbar aus k+1<br />

y k , y k+1 und Inkrementen im k. Schritt<br />

mit Polynomen p 0 ,p 1 , q i : R ↦→ R.<br />

y h (t k + ξh k ) = p 0 (ξ)y k + p 1 (ξ)y k+1 +<br />

Wunsch: Für RK-ESV der Ordnung p ➣<br />

s∑<br />

q(ξ)k i , 0 ≤ ξ ≤ 1 ,<br />

i=1<br />

max ‖y(t) − y h(t)‖ = O(h p )<br />

0≤t≤T<br />

Bemerkung 2.3.7 (Lösung der Inkrementgleichungen). → [5, Sect. 6.2.2]<br />

Inkrementgleichungen für implizites RW-ESV (→ Def. 2.3.1) = (i.a. nichtlineares) Gleichungssystem<br />

mit s · d Unbekannten<br />

Im autonomen Fall (vgl. Beweis von Lemma 2.2.1)<br />

k i := f(y 0 + h<br />

s∑<br />

a ij k j )<br />

j=1<br />

k i =f(y 0 +g i )<br />

⇐⇒<br />

g i = h<br />

s∑<br />

a ij f(y 0 + g j ) , i = 1, ...,s . (2.3.12)<br />

j=1<br />

△<br />

2.3<br />

p. 151<br />

c i = ∑ s<br />

j=1 a ij ➣ ̂k i = k i &<br />

∑ si=1<br />

b i = 1 . (2.3.11)<br />

Die Grössen g i + y 0 heissen auch Stufen (engl. stages) des Runge-Kutta-Verfahrens, siehe<br />

Bem. 2.3.2<br />

= Hinreichende + notwendige Bedingungen für Autonomisierungsinvarianz eines RK-Verfahrens<br />

✄<br />

Analyse von autonomisierungsinvarianten RK-Verfahren kann sich auf autonome Probleme beschränken.<br />

Bemerkung 2.3.6 (“Dense output”).<br />

[14, Sect. II.5]<br />

Runge-Kutta-Einschrittverfahren (→ Def. 2.3.1) liefern Gitterfunktionen G ↦→ R d als Näherung von<br />

t ↦→ y(t) in diskreten Zeitpunkten.<br />

Was, wenn Näherungen für y(t) zu anderen Zeitpunkten/überall auf [0,T] gebraucht werden ?<br />

△<br />

2.3<br />

p. 150<br />

➣ iterative Lösung mit vereinfachtem Newton-Verfahren ( ”<br />

eingefrorene” Jacobi-Matrix)<br />

! Effizienz: Minimiere Anzahl von f, Df-Auswertungen<br />

Mit g = (g 1 , ...,g s ) T ∈ R s·d definiere<br />

⎛<br />

h s ⎞<br />

∑<br />

a 1j f(y 0 + g j )<br />

j=1<br />

F(g) := g −<br />

.<br />

⎜<br />

⎝ ∑<br />

h s ⎟<br />

a sj f(y 0 + g j )<br />

⎠<br />

j=1<br />

⇒ {(2.3.12) ⇔ F(g) = 0} . (2.3.13)<br />

h ”<br />

klein” ➣ Natürliche Anfangsnaḧerung für vereinfachte Newton-Iteration: g (0) = 0<br />

⎛<br />

⎞<br />

I − ha 11 Df(y 0 ) −ha 12 Df(y 0 ) · · · −ha 1s Df(y 0 )<br />

DF(g (0) ) = ⎜ −ha 21 Df(y 0 ) I − ha 22 Df(y 0 ) .<br />

⎟<br />

⎝ . . .. . ⎠ . 2.3<br />

−ha s1 Df(y 0 ) · · · −ha s,s−1 Df(y 0 ) I − ha ss Df(y 0 )<br />

p. 152


Vereinfachte Newton-Iteration<br />

g (0) = 0 , g (k+1) = g (k) − DF(0) −1 F(g (k) ) , k = 0, 1, 2,... .<br />

Wiedergewinnung der Inkremente k i aus g i : betrachte l. Komponente, l = 1,...,d. Mit g i =<br />

(g i,1 ,...,g i,d ) T ∈ R d s∑<br />

g i,l = h a ij k j,l ⇐⇒ ( ) d<br />

g i,l l=1 = hA( ) d<br />

k i,l l=1 .<br />

j=1<br />

A regulär ➣ k i durch Lösen von s linearen Gleichungssystemen mit Koeffizientenmatrix A.<br />

✬<br />

Lemma 2.3.2 (Konsistenz von Runge-Kutta-Einschrittverfahren).<br />

Unter den Voraussetzungen von Lemma 2.2.1 ist ein Runge-Kutta-Einschrittverfahren (→<br />

Def. 2.3.1) konsistent (→ Def. 2.1.5) genau dann, wenn ∑ s<br />

i=1 b i = 1.<br />

✫<br />

Frage: Wann ist ein Runge-Kutta-Verfahren konsistent (⇒ konvergent, Thm. 2.1.10)<br />

von der Ordnung p ?<br />

⇕<br />

(Konsistenz-)Bedingungsgleichungen für Koeffizienten a ij , b i<br />

✩<br />

✪<br />

△<br />

Hilfsmittel zum Aufstellen<br />

der Bedingungsgleichungen<br />

: Taylor-Entwicklung (des Konsistenzfehlers τ(t,y, h) → Dff. 2.1.7)<br />

Annahme:<br />

f “hinreichend glatt”<br />

Beispiel 2.3.9 (RK-Bedingungsgleichungen für Konsistenzordnung p = 3). [5, Sect. 4.2.2]<br />

2.3.2 Konvergenz<br />

Beispiel 2.3.8 (Konvergenz expliziter Runge-Kutta-Verfahen).<br />

2.3<br />

Skalare logistische Differentialgleichung (1.2.1), λ = 10, y(0) = 0.01, T = 1 p. 153<br />

Explizite Runge-Kutta-Einschrittverfahren, uniforme Zeitschrittweite h<br />

Konsistenzfehler: τ(t,y, h) := (Φ t,t+h − Ψ t,t+h )y (h hinreichend klein); .<br />

Fokus: autonome Differentialgleichung ẏ = f(y), f “hinreichend glatt”<br />

Fixiere Anfangswert y 0 ∈ D, O.B.d.A. t 0 = 0 (vgl. Bem. 1.1.5)<br />

➊ Taylorentwicklung der kontinuierlichen Evolution in h um h = 0:<br />

2.3<br />

p. 155<br />

y<br />

1<br />

0.9<br />

0.8<br />

0.7<br />

0.6<br />

0.5<br />

0.4<br />

0.3<br />

0.2<br />

0.1<br />

y(t)<br />

Explicit Euler<br />

Explicit trapezoidal rule<br />

Explicit midpoint rule<br />

RK4 method<br />

0<br />

0 0.2 0.4 0.6 0.8 1<br />

t<br />

y h (j/10), j = 1, ...,10 für explizite RK-Verfahren<br />

|y h<br />

(1)−y(1)|<br />

10 0<br />

10 −2<br />

10 −4<br />

10 −6<br />

s=1, Explicit Euler<br />

s=2, Explicit trapezoidal rule<br />

10 −8<br />

s=2, Explicit midpoint rule<br />

s=4, RK4 method<br />

10 −2 10 −1 10 0<br />

h<br />

Konvergenz des Fehlers y h (1) − y(1)<br />

✸<br />

Φ h y 0 = y(h) = y 0 + ẏ(0)h + 2ÿ(0)h2 1 + 1 6 y(3) (0)h 3 + O(h 4 ) , (2.3.14)<br />

mit<br />

ẏ(0) = f(y 0 ) ,<br />

ÿ(0) = Df(y 0 )ẏ(0) = Df(y 0 )f(y 0 ) ,<br />

y (3) (0) = D 2 f(y 0 )(ẏ(0),ẏ(0)) + Df(y 0 )ÿ(0) = D 2 f(y 0 )(f(y 0 ),f(y 0 )) + Df(y 0 )Df(y 0 )f(y 0 ) .<br />

Viele unserer Resultate über Kollokationsverfahren (→ Sect. 2.2) bleiben gültig für die allgemeinere<br />

Klasses der Runge-Kutta-Einschrittverfahren (mit im wesentlichen den gleichen Beweisen):<br />

✗<br />

✖<br />

Lemmas 2.2.1, 2.2.4 bleiben gültig für Runge-Kutta-Einschrittverfahren aus Def. 2.3.1<br />

✔<br />

✕<br />

2.3<br />

p. 154<br />

Φ h y 0 = y 0 + hf(y 0 ) + 1 2 h2 Df(y 0 )f(y 0 )+<br />

1<br />

6 h 3 (Df(y 0 )Df(y 0 )f(y 0 ) + D 2 f(y 0 )(f(y 0 ),f(y 0 ))) + O(h 4 ) .<br />

➋ Taylorentwicklung der diskreten Evolution in h um h = 0<br />

⇕<br />

Taylorentwicklung der Inkremente k i in h um h = 0<br />

(2.3.15)<br />

2.3<br />

p. 156


s∑<br />

k i = f(y 0 + h a ij k j ) =<br />

j=1<br />

⎛ ⎞ ⎛<br />

⎞<br />

s∑<br />

s∑ s∑<br />

= f(y 0 ) + h Df(y 0 ) ⎝ a ij k j<br />

⎠ + 1 2 h2 D 2 f(y 0 ) ⎝ a ij k j , a ij k j<br />

⎠ + O(h 3 )<br />

j=1<br />

j=1<br />

Einsetzen ”<br />

kürzerer Taylorentwicklungen” anstelle der Inkremente<br />

Beachte:<br />

➌<br />

k i =f(y 0 ) + hDf(y 0 )<br />

s∑<br />

a ij<br />

⎛<br />

⎝f ( y 0 + hDf(y 0 )<br />

j=1<br />

(2.3.16)<br />

Inkremente werden mit h multipliziert !<br />

⎞<br />

s∑<br />

a il k l + O(h 2 ) ) ⎠ +<br />

j=1<br />

l=1<br />

⎛<br />

⎞<br />

s∑<br />

s∑<br />

1<br />

2 h2 D 2 f(y 0 ) ⎝ a ij (f(y 0 ) + O(h)), a ij (f(y 0 ) + O(h)) ⎠ + O(h 3 )<br />

j=1<br />

j=1<br />

=f(y 0 ) + h · ∑s<br />

j=1 a ij Df(y 0 )f(y 0 )+<br />

} {{ }<br />

=c i , siehe Bem. 2.3.5<br />

h 2( ∑ s )<br />

a il c l Df(y0 )Df(y 0 )f(y 0 ) + h 21 2 c2 i D2 f(y 0 )(f(y 0 ),f(y 0 )) + O(h 3 ) .<br />

l=1<br />

Ψ h y 0 = y 0 + h<br />

Ψ h y 0 = y 0 +<br />

(<br />

h<br />

s∑<br />

b i k i ➤ Entwicklung bis O(h 3 ) ausreichend<br />

i=1<br />

) (<br />

s∑<br />

s∑<br />

b i f(y 0 ) + h 2 b i c i<br />

)Df(y 0 )f(y 0 )+<br />

⎛ i=1 ⎞ i=1<br />

s∑ s∑<br />

⎝h 2 b i a ij c j<br />

⎠Df(y 0 )Df(y 0 )f(y 0 )+<br />

i=1 j=1<br />

( )<br />

s∑<br />

1<br />

2 h 2 b i c 2 i D 2 f(f(y 0 ),f(y 0 )) + O(h 4 ) .<br />

i=1<br />

(2.3.17)<br />

Gleichsetzen der Koeffizienten der linear unabhängigen (→ Übung) elementaren Differentiale<br />

1,f(y 0 ), Df(y 0 )f(y 0 ), Df(y 0 )Df(y 0 )f(y 0 ),D 2 f(y 0 )(f(y 0 ),f(y 0 ))<br />

2.3<br />

p. 157<br />

s∑<br />

b i c i = 1 2 , (2.3.19)<br />

i=1<br />

s∑<br />

b i c 2 i = 1 3 ,<br />

i=1<br />

s∑ s∑<br />

b i a ij c j = 1 (2.3.20)<br />

6 .<br />

i=1<br />

☞ (2.3.18) hinreichend & notwendig für Konsistenzordnung p = 1, siehe Lemma 2.3.2<br />

☞ (2.3.18) + (2.3.19) hinreichend & notwendig für Konsistenzordnung p = 2<br />

Bemerkung 2.3.10 (Butcher-Bäume).<br />

j=1<br />

Allgemeiner kombinatorischer Algorithmus zum Aufstellen der RK-Bedingungsgleichungen: Butcher-<br />

Bäume [5, Sect. 4.2.3], [11, Ch. III]<br />

➞<br />

Konstruktion von RK-Verfahren vorgegebener Konvergenzordnung durch Lösen der (nichtlinearen)<br />

Bedingungsgleichungen (vom Typ (2.3.18)-(2.3.20)):<br />

p 1 2 3 4 5 6 7 8 9 10 20<br />

♯B.G. 1 2 4 8 17 37 85 200 486 1205 20247374<br />

Einige Konvergenzordnungen von Runge-Kutta-Verfahren:<br />

Explizite Verfahren<br />

Expliztes Eulerverfahren (2.2.1) p = 1<br />

Explizite Trapezregel (2.3.2) p = 2<br />

Explizite Mittelpunktsregel (2.3.3) p = 2<br />

Klassisches Runge-Kutta-V. (2.3.7) p = 4<br />

Kuttas 3/8-Regel (2.3.8) p = 4<br />

Implizite Verfahren<br />

Implizites Eulerverfahren (2.2.1) p = 1<br />

Implizite Mittelpunktsregel (2.2.11) p = 2<br />

Gauss-Kollokationsverfahren p = 2s<br />

✸<br />

△<br />

2.3<br />

p. 159<br />

in (2.3.17) und (2.3.15)<br />

Viele weitere RK-Verfahren ✄ [14, 15]<br />

Hinreichende & notwendige Bedingungsgleichungen für Konsistenzordnung p = 3 eines<br />

(autonomisierungsinvarianten) RK-Verfahrens:<br />

s∑<br />

b i = 1 , (2.3.18)<br />

i=1<br />

2.3<br />

p. 158<br />

Ordnungsschranken:<br />

Für explizite Runge-Kutta-Verfahren p ≤ s<br />

Für allgemeine Runge-Kutta-Verfahren p ≤ 2s<br />

2.3<br />

➣ Gauss-Kollokationsverfahren realisieren maximale Ordnung p. 160


Bemerkung 2.3.11 (“Butcher barriers” für explizite RK-ESV).<br />

y h (T) − y(T) = ch p + O(h p+1 )<br />

y h/2 (T) − y(T) = c2 −p h p + O(h p+1 )<br />

(I)<br />

(II)<br />

Ordnung p 1 2 3 4 5 6 7 8 ≥ 9<br />

Minimale Stufenzahl s 1 2 3 4 6 7 9 11 ≥ p + 3<br />

Eine allgemeine Formel für die minimale Stufenzahl konnte bisher nicht hergeleitet werden.<br />

△<br />

(I)-2 p·(II): y h (T) − 2 p y h/2 (T) − (1 − 2 p )y(T) = O(h p+1 ) ,<br />

⇒<br />

y h (T) − 2 p y h/2 (T)<br />

1 − 2 p − y(T) = O(h p+1 ) .<br />

kombiniertes Verfahren, konvergent von Ordnung p + 1 !<br />

Beispiel 2.4.1 (Konvergenz kombinierter Verfahren).<br />

2.4 Extrapolationsverfahren [5, Sect. 4.3]<br />

AWP für logistische Differentialgleichung (2.2.12): (→ Bsp. 1.2.1)<br />

ẏ = λy(1 − y) , y 0 = 0.01 ⇒ y(t) =<br />

1<br />

1 + 99 · e −λt , t ∈ R .<br />

2.4.1 Der Kombinationstrick<br />

Basisverfahren: Explizites Euler-Verfahren (1.4.2), p = 1<br />

Explizite Trapezregel (2.3.2), p = 2<br />

2.4<br />

p. 161<br />

2.4<br />

p. 163<br />

Einschrittverfahren für Anfangswertproblem<br />

Logistic ODE on [0;1], y(0) = 0.01, λ = 10<br />

Logistic ODE on [0;1], y(0) = 0.01, λ = 10<br />

expl. trapezoidal rule combined<br />

simple expl. trapezoidal rule<br />

ẏ = f(t,y) , y(t 0 ) = y 0 , (t 0 ,y 0 ) ∈ Ω , ((1.1.6))<br />

betrachtet auf [t 0 ,T], liefert Gitterfunktion y G = (y k ) N k=1 als Lösung: y k ≈ y(t k ), t N = T .<br />

Bei äquidistanter Zeitschrittweite h > 0, schreiben wir auch y h (t k ) := y k , also y h (T) = y N .<br />

|y h<br />

(1)−y(1)|<br />

10 −3<br />

10 −4<br />

10 −5<br />

|y h<br />

(1)−y(1)|<br />

10 −3<br />

10 −4<br />

10 −5<br />

10 −6<br />

10 −7<br />

O(h 3 )<br />

10 −6<br />

Sect. 2.1.3: Einschrittverfahren für ẏ = f(y), konvergent von Ordnung p<br />

∃C > 0: ‖y h (T) − y(T)‖ ≤ Ch p für h → 0, N = T/h ∈ N .<br />

(Annahme: Äquidistante Zeitschritte der Länge h > 0)<br />

10 −7<br />

10 −2 h<br />

10 −8<br />

Euler combined<br />

simple Euler<br />

O(h 2 )<br />

10 −3 10 −2 10 −1<br />

Euler-Verfahren<br />

Fig. 60<br />

10 −9<br />

10 −10<br />

10 −2 h<br />

10 −3 10 −2 10 −1<br />

Fig. 61<br />

Explizite Trapezregel ✸<br />

Spekulation: ∃c ∈ R d : y h (T) − y(T) = ch p + O(h p+1 ) für h → 0 . (2.4.1)<br />

Beachte: Falls h ↦→ y h (T) glatt, Verfahren konvergent von Ordnung p, dann ist (2.4.1) naheliegend:<br />

Taylorentwicklung !<br />

Dies wird in Abschnitt 2.4.3 vertieft.<br />

2.4<br />

p. 162<br />

2.4<br />

p. 164


2.4.2 Extrapolationsidee<br />

Erinnerung (→ Vorlesung ”<br />

Numerische Methoden”): Romberg-Quadratur (→ [6, Sect. 9.4])<br />

Abstrakter Rahmen:<br />

Visualisierung:<br />

Idee von Extrapolationsverfahren<br />

✄<br />

exakter Wert<br />

Π(x 0 )<br />

R d<br />

Π h3 (x 0 )<br />

h ↦→ Π h (x 0 )<br />

Π h1 (x 0 )<br />

Π h2 (x 0 )<br />

h<br />

Problem: Π : X ↦→ R d , gesucht Π(x 0 ) für festes x 0 ∈ X, X ˆ= Datenraum<br />

{<br />

Familie numerischer Näherungsverfahen Π h : X ↦→ R d} h ➤ Näherungen Π h(x o ) ≈ Π(x 0 )<br />

Bemerkung 2.4.3 (Skalierungsinvarianz der Extrapolation).<br />

Π h abhängig von skalarem Diskretisierungsparameter h > 0 (z.B. Zeitschrittweite)<br />

Berechne Π h (x 0 ) für h ∈ {h 1 , . ..,h k } ( ”<br />

Schrittweitenfolge”, h i > h i+1 )<br />

Berechne Interpolationspolynom p ∈ (P k−1 ) d mit<br />

p(h i ) = Π hi (x 0 ), i = 1,...,k .<br />

Bessere (?) Näherung<br />

Beispiel 2.4.2 (Romberg-Quadratur).<br />

Π(x 0 ) ≈ p(0)<br />

Interpretation des abstrakten Rahmens für die Romberg-Quadratur: X = C 0 ([a,b]), a,b ∈ R,<br />

a < b<br />

Π h ˆ=<br />

∫b<br />

Π(f) :=<br />

a<br />

N−1<br />

f(x) dx , Π h := h 2 f(a) + h ∑<br />

Trapezregel zur numerischen Quadratur<br />

j=1<br />

f(a + j b−a<br />

N ) + h 2 f(b) , h := 1 N ,<br />

Diskretisierungsparameter h = N 1 , N ∈ N (“Maschenweite” der Trapezregel):<br />

Werte annehmen !<br />

kann nur diskrete<br />

✸<br />

2.4<br />

p. 165<br />

2.4<br />

p. 166<br />

p(t) ∈ P k−1 ˆ= Interpolationspolynom zu (t 1 ,y 1 ), ...,(t k ,y k )<br />

˜p(t) ∈ P k−1 ˆ= Interpolationspolynom zu (ξt 1 ,y 1 ), ...,(ξt k ,y k ) für ein ξ ∈ R<br />

p(0) = ˜p(0)<br />

(Wenn p(t) = ∑ s<br />

j=0 a j t j , dann haben alle Polynome p ξ (t) = ∑ s<br />

j=0 a j (ξt) j offensichtlich den<br />

gleichen Wert für t = 0.)<br />

Es genügt, die Verhältnisse η i := h 1<br />

h i<br />

zu spezifizieren !<br />

Algorithmus: Aitken-Neville-Schema [6, Sect. 9.4] → Vorlesung ”<br />

Numerische Methoden”<br />

Rekursive Berechnung der Werte von Interpolationspolynomen<br />

für h = 0, p = 1:<br />

T i1 := Π hi (x 0 ) , i = 1, ...,k , (2.4.2)<br />

T il := T i,l−1 + T i,l−1 − T i−1,l−1<br />

h i−l+1<br />

h i<br />

− 1<br />

Extrapolationstableau<br />

, 2 ≤ l ≤ k .<br />

(2.4.3)<br />

MATLAB-CODE : Aitken-Neville-Extrapolation<br />

function T = anexpol(y,h)<br />

k = length(h);<br />

T(1) = y(1);<br />

for i=2:k<br />

T(i) = y(i);<br />

for l=i-1:-1:1<br />

T(l)=T(l+1)+(T(l+1)-T(l))/...<br />

end<br />

end<br />

(h(l)/h(i)-1);<br />

η l : η i<br />

✄<br />

T 11<br />

ց<br />

T 21<br />

.<br />

→ T 22<br />

. ..<br />

T k−1,1 → · · · → T k−1,k−1<br />

ց ց ց<br />

T k1 → · · · → T k,k−1 → T kk<br />

△<br />

2.4<br />

p. 167<br />

T(1) T(2) T(3) · · · T(k)<br />

T 11 = y 1<br />

↓<br />

T 22 ← T 21 = y 2<br />

↓ ↓<br />

T 33 ← T 32 ← T 31 = y 3<br />

↓ ↓ ↓<br />

.<br />

.<br />

.<br />

↓ ↓ ↓<br />

T kk ← T k,k−1 ← · · · ← T k,1 2.4<br />

Ausgabe: unterste Tableauzeile absteigend p. 168


☞<br />

Extrapolation ”<br />

funktioniert”, wenn<br />

• lim Π h (x 0 ) = Π(x 0 ) ˆ= Konvergenz,<br />

h→0<br />

• h ↦→ Π h (x 0 ) sich für kleine h wie ein Polynom verhält.”<br />

”<br />

k∑<br />

i=1<br />

L i (0)h j i = ⎧<br />

⎪⎨<br />

⎪ ⎩<br />

1 für j = 0 ,<br />

0 für 1 ≤ j ≤ k − 1 ,<br />

(−1) k−1 h 1 · · · · · h k für j = k .<br />

(2.4.4)<br />

Definition 2.4.1 ((Abgeschnittene) asymptotische Entwicklung).<br />

h ↦→ Π h (x 0 ) (x 0 ∈ X fest) besitzt eine (abgeschnittene) asymptotische Entwicklung in h bis<br />

zur Ordnung k, falls es Konstanten (∗) α 0 , α 1 ,...,α k ∈ R d und eine für hinreichend kleine h<br />

gleichmässig beschränkte Funktion h ↦→ R k (h) gibt, so dass<br />

Π h (x 0 ) = α 0 + α 1 h + α 2 h 2 + · · · + α k h k + R k (h)h k+1 für kleine h > 0 .<br />

(∗) α i Konstanten ˆ= α i unabhängig von h !<br />

Klar: Hinreichend & notwendig für Konvergenz: α 0 = Π(x 0 )<br />

✬<br />

Theorem 2.4.2 (Konvergenz extrapolierter Werte).<br />

Π h (x 0 ) besitze asymptotische Entwicklung in h bis zur Ordnung k gemäss Def. 2.4.1. Dann<br />

erfüllen die Werte aus dem Extrapolationstableau, siehe (2.4.2), (2.4.3), für hinreichend kleine<br />

h j > 0<br />

✫<br />

∥<br />

∥T i,l − α 0<br />

∥ ∥ ≤ ‖α l ‖ h i−l+1 · · · · · h i + C ·<br />

wobei C > 0 nur von den Verhältnissen h i : h j abhängt.<br />

i∑<br />

j=i−l+1<br />

∥<br />

∥R k (h j ) ∥ ∥h l+1<br />

j , 1 ≤ i,l ≤ k ,<br />

Beweis: Jedes T i,k aus dem Extrapolationstableau lässt sich als “Endwert” T kk eines Teiltableaus<br />

interpretieren ➥ Es genügt, den Beweis für i = l = k zu führen<br />

Voraussetzung: Existenz einer (abgeschnittenen) asymptotischen Entwicklung → Def. 2.4.1<br />

T i,1 = Π hi (x 0 ) = α 0 + α 1 h i + α 2 h 2 i + · · · + α kh k i + R k(h)h k+1<br />

i für kleines h i > 0 .<br />

Extrapolationspolynom zu (h i ,T i,1 ), i = 1,...,k: q ∈ P k−1 , dargestellt durch<br />

Lagrange-Polynome, siehe (2.2.2)<br />

✩<br />

✪<br />

2.4<br />

p. 169<br />

Nachweis von (2.4.4): für 0 ≤ j ≤ k−1 stimmt r j (t) := ∑ k<br />

i=1 h j i L i(t) ∈ P k−1 mit t ↦→ t j überein.<br />

Für j = k hat t k − r k (t) ∈ P k die Nullstellen h i , i = 1, ...,k und führenden Koeffizienten 1:<br />

t k − r k (t) = (t − h 1 ) · · · · · (t − h k ) .<br />

Damit folgt (2.4.4).<br />

⎛<br />

⎞<br />

k∑<br />

k∑ k∑<br />

T k,k = q(0) = L i (0)T i,1 = L i (0) ⎝ α j h j i + R k(h i )h k+1 ⎠<br />

i<br />

i=1 i=1 j=0<br />

k∑ k∑ k∑<br />

= α j h j i L i(0) + L i (0)R k (h i )h k+1<br />

i<br />

j=0 i=1 i=1<br />

(2.4.4)<br />

k∑<br />

= α 0 + α k · (−1) k−1 h 1 · · · · · h k + L i (0)R k (h i )h k+1<br />

i .<br />

i=1<br />

Also gilt die Behauptung mit C := max |L i(0)|. Beachte, dass L i (0) nur von den Verhältnissen<br />

i=1,...,l<br />

2.4<br />

h i : h j abhängt, siehe Bem. 2.4.3. ✷ p. 171<br />

2.4.3 Extrapolation von Einschrittverfahren<br />

Anfangswertproblem (1.1.6): ẏ = f(t,y), y(t 0 ) = y 0 ➣ Lösung t ↦→ y(t)<br />

Das Anfangswertproblem wird betrachtet auf festem Zeitintervall [t 0 , T]<br />

Annahme: f ”<br />

hinreichend” glatt ⇔ y(t) ”<br />

hinreichend” glatt<br />

Gegeben: Konsistentes Einschrittverfahren ↔ diskrete Evolution (→ Lemma 2.1.6)<br />

Annahmen:<br />

Ψ t,t+h y = y + hψ(t,y,h) , ψ(t,y, 0) = f(t,y) , (t,y) ∈ Ω, h klein . (2.4.5)<br />

Inkrementfunktion ψ stetig differenzierbar in (t,y)<br />

ESV hat Konsistenzordnung = Konvergenzordnung p ∈ N (→ Thm. 2.1.10)<br />

Gegeben: Endzeitpunkt T ∈ J(t 0 ,y 0 ) ➥ uniforme Zeitschrittweite h = (T −t 0 )/N, N ∈ N<br />

k∑<br />

q(t) = T i,1 L i (t) , L i ∈ P k−1 , L i (h j ) = δ ij , i,j = 1, ...,k .<br />

i=1<br />

2.4<br />

p. 170<br />

Einschrittverfahren ➡ Gitterfunktion {y k } N k=0 , y N ≈ y(T)<br />

2.4<br />

p. 172


✬<br />

Theorem 2.4.3 (Asymptotische Entwicklung des Diskretisierungsfehlers von ESV).<br />

Es existieren ein K ∈ N (abhängig von der Glattheit von f) und glatte Funktionen e i :<br />

J(t 0 ,y 0 ) ↦→ R d , i = p,p + 1,...,p + K, mit e i (0) = 0 und (für hinreichend kleine h)<br />

gleichmässig beschränkte Funktionen (T,h) ↦→ r k+p+1 (T,h), 0 ≤ k ≤ K, so dass<br />

Dabei gilt<br />

✫<br />

y N − y(T) =<br />

k∑<br />

e l+p (T)h l+p + r k+p+1 (T,h)h k+p+1 für kleines h .<br />

l=0<br />

∥<br />

∥r k+p+1 (T,h) ∥ ∥ = O(T − t 0 ) für T − t 0 → 0 gleichmässig in h < T ,<br />

‖e(T)‖ = O(T − t 0 ) für T − t 0 → 0.<br />

Beweis. Annahme: f, y(t) ”<br />

hinreichend” glatt<br />

Weiter nehmen wir globale Lipschitz-Stretigkeit der Inkrementfunktion ψ des ESV aus (2.4.5) an:<br />

∃L > 0: ‖ψ(t,z, h) − ψ(t,w,h)‖ ≤ L ‖z − w‖ gleichmässig in t 0 ≤ t ≤ T, h . (2.4.6)<br />

✩<br />

✪<br />

Beweis von (2.4.9) durch Induktion:<br />

(∗) ← Induktionsannahme.<br />

ŷ j+1 = ŷ j + ĥψ(t j ,ŷ j ,h)<br />

(2.4.8)<br />

= ŷ j + hψ(t j ,ŷ j + e(t j )h p ,h) − h p (e(t j+1 ) − e(t j ))<br />

(∗)<br />

= y j + hψ(t j ,y j ,h) −e(t<br />

} {{ } j+1 )h p .<br />

=y j+1<br />

Annahme: Das modifizierte Einschrittverfahren ist konsistent mit ẏ = f(t,y) zur Ordnung p + 1<br />

Thm. 2.1.10<br />

⇒ ŷ N − y(T) = r p+1 (T, h)h p+1 ,<br />

∥<br />

∥r p+1 (T, h) ∥ ≤ C exp(L(T − t 0)) − 1<br />

,<br />

} {{ L }<br />

=O(T −t 0 ) für T −t 0 →0<br />

(Kompaktheitsargumente, vgl. Beweis von Thm. 2.1.10, machen Verzicht auf diese Annahme<br />

möglich.)<br />

Konsequenz der Konsistenzordnung p (→ Def. 2.1.9) und Glattheit von f: für Konsistenzfehler (→<br />

Def. 2.1.7) entlang der Lösungstrajektorie (nur dort wird die Konsistenzfehlerabschätzung im Beweis<br />

2.4<br />

p. 173<br />

mit C > 0 unabhängig von h, T . L ˆ= gemeinsame Lipschitz-Konstante von ψ, ̂ψ (bzgl. y) aus (2.4.6)<br />

(2.4.9)<br />

⇒ y N − y(T) = e(T)h p + r p+1 (T, h)h p+1 .<br />

Damit haben wir das erste Glied der asymptotischen Entwicklung des Theorems erhalten.<br />

2.4<br />

p. 175<br />

von Thm. 2.1.10 gebraucht !) gilt<br />

τ(t,y(t), h) := y(t + h) − Ψ t,t+h y(t) = d(t)h p+1 + O(h p+2 ) für h → 0 , (2.4.7)<br />

mit stetiger Funktion d : [t 0 , T] ↦→ R d . Dies ergibt sich mit Taylorentwicklung, siehe Bsp. 2.3.9:<br />

RK-ESV: d hängt nur von Ableitungen von f ab ➢ d “hinreichend glatt”<br />

Idee: Betrachte ESV mit modifizierter Inkrementfunktion<br />

̂ψ(t,u, h) := ψ(t,u + e(t)h p ,h) − (e(t + h) − e(t))h p−1 , (2.4.8)<br />

mit “hinreichend glatter” Funktion e : [t 0 , T] ↦→ R d .<br />

Beachte: Auch ̂ψ erfüllt (2.4.6) mit dem gleichen L > 0.<br />

Warum betrachten wir dieses modifizierte ESV ?<br />

y j /ŷ j , j = 0, ...,N ˆ= Gitterfunktionen erzeugt durch ursprüngliches/modifiziertes ESV mit Zeitschrittweite<br />

h := (T −t 0)<br />

N . Setze ŷ 0 = y 0<br />

ŷ j = y j − e(t j )h p , t j := t 0 + jh , j = 0, ...,N . (2.4.9)<br />

2.4<br />

p. 174<br />

Induktive Anwendung des Arguments ➢ Modifizierte ESVen ̂Ψ 1 := ̂Ψ, ̂Ψ 2 , ..., ̂Ψ k+1 konsistent<br />

zu ẏ = f(t,y) mit Ordnungen p + 1,p + 2,...,p + k + 1 erzeugen Näherungslösungen ŷ 1 j :=<br />

ŷ j ,ŷj 2, ...,ŷk+1 j<br />

, j = 1, . ..,N.<br />

Mit ŷ 0 k = y k (Teleskopsumme)<br />

ŷj l+1 = ŷj l − e l(t j )h p+l , l = 0, ...,k .<br />

k∑<br />

y N − y(T) = ŷN l − ŷl+1 N + r p+k+1(T,h)h p+k+1<br />

l=0<br />

k∑<br />

= e l (T)h p+l + r p+k+1 (T,h)h p+k+1 .<br />

l=0<br />

Daraus folgt die Behauptung des Theorems.<br />

?<br />

Existenz von e(t) so dass das modifizierte ESV Konsistenzordnung p + 1 besitzt.<br />

☞<br />

Betrachte den Konsistenzfehler des modifizierten Verfahrens & Taylorentwicklung(en)<br />

y(t + h) − ̂Ψ t,t+h y(t) = y(t + h) − y(t) − ĥψ(t,y(t),h)<br />

= y(t + h) − y(t) − hψ(t,y(t) + e(t)h p ,h) + (e(t + h) − e(t))h p<br />

(<br />

= y(t + h) − y(t) − h ψ(t,y(t),h) + ∂ψ<br />

)<br />

∂y (t,y(t), h)e(t)hp + O(h 2p ) + ė(t)h p+1 + O(h p+2 )<br />

( )<br />

2.4<br />

p. 176


Löst e folgendes AWP für eine inhomogene linear Variationsgleichung<br />

ė(t) = ∂f (t,y(t))e(t) − d(t) , e(0) = 0 ⇒<br />

∂y<br />

e glatt , (2.4.10)<br />

dann ist die Annahme über das modifizierte ESV erfüllt.<br />

✷<br />

Logisch:<br />

K hängt von der Glattheit von f ab.<br />

Idee: Ordnungserhöhung durch Extrapolation (→ Sect. 2.4.2)<br />

MATLAB-CODE : Einzelschritt, lokales Extrapolations-ESV, skalare ODE<br />

function y = expesvstep(esvstep,y,t,h,n)<br />

for i=1:length(n)<br />

yt(i) = y;<br />

ht = h/n(i); tt = t;<br />

for j=1:n(i)<br />

yt(i) = esvstep(yt(i),tt,ht);<br />

tt = tt + ht;<br />

end<br />

T = anexpol(yt,1./n,p);<br />

return(T(1));<br />

esvstep(y,t,h) ˆ= ein Schritt<br />

des Basisverfahrens, Schrittweite<br />

h, ausgehend vom Zustand (t,y):<br />

esvstep(y,t,h) := Ψ t,t+h y<br />

n ˆ= Vektor (n l ) k+1<br />

l=1<br />

anexpol ˆ= verallgemeinerte<br />

Version für Extrapolationspolynom<br />

p(t) = α 0 + α p h p + α p+1 h p+1 +<br />

· · · + α p+k−1 h p+k−1<br />

Wähle N 1 < N 2 < · · · < N k+1 , N i ∈ N<br />

ESV (Schrittweite h i = (T −t 0 )/N i ) liefert y Ni , i = 1,...,k + 1<br />

Ablauf: Lokales Extrapolations-Einschrittverfahren (n 1 = 1,n 2 = 2, n 3 = 3)<br />

Polynomextrapolation (∗) aus (h i ,y hi ,N i<br />

)<br />

➥ Näherung ỹ mit ‖ỹ − y(T)‖ = O(h p+k<br />

1 ) (vgl. Thm. 2.4.2)<br />

(∗): Thm. 2.4.3 ➤ Extrapolation basierend auf Polynom der Form<br />

p(t) = α 0 + α p h p + α p+1 h p+1 + · · · + α p+k−1 h p+k−1 !<br />

Thm. 2.4.3 erfordert ”<br />

hinreichend kleines” h<br />

2.4<br />

p. 177<br />

D<br />

2.4<br />

p. 179<br />

Nicht nur y(T) von Interesse, sondern (genäherte) Lösung t ↦→ y(t)<br />

• ˆ= y j<br />

2.4.4 Lokale Extrapolations-Einschrittverfahren<br />

• ↔ n 1 = 1<br />

• ↔ n 1 = 2<br />

• ↔ n 1 = 3<br />

ˆ= Extrapolation<br />

H j H j+1 H j+2<br />

Fig. 62<br />

Anwendung der Extrapolationsidee auf Intervallen eines Zeitgitters G := {t 0 < t 1 < · · · <<br />

t N = T } ↔ Makroschritte: auf [t j , t j+1 ], Makroschrittweite H j := t j+1 − t j<br />

Fixiere Sequenz (n l ) k+1<br />

l=1 , n l ∈ N, z.B. (1, 2, 3, 4, 5, 6,...) ↔ Anzahl Mikroschritte<br />

n l Schritte des ESV mit Startwert y j , Schrittweite h = t j+1−t j<br />

n l<br />

➥ yj+1 l , l = 1, ...,k + 1<br />

(ESV = Basisverfahren, Ordnung p)<br />

Polynomextrapolation (∗) aus (n −1<br />

l ,y l j+1 ) ➥ y j+1 vgl. Bem. 2.4.3<br />

t j−1 t j t j+1<br />

Beispiel 2.4.4 (Extrapoliertes Euler-Verfahren).<br />

t<br />

Extrapolations-Einschrittverfahren der Ordnung p + k<br />

2.4<br />

p. 178<br />

2.4<br />

p. 180


AWP für logistische Dgl. (→ Bsp. 1.2.1)<br />

ẏ = 5y(1 − y) , y(0) = 0.02 .<br />

Endzeit: T = 1 Basis-ESV: explizites Euler-<br />

Verfahen (1.4.2)<br />

Extrapolation: verschiedene k,n l , l = 1, ...,k+1,<br />

uniforme Makroschrittweite h<br />

Fehler<br />

max |y(t j ) − y j | .<br />

j<br />

10 0<br />

10 −2<br />

10 −4<br />

10 −6<br />

10 −8<br />

macro step h<br />

10<br />

Algebraische Konvergenz der Ordnung k + 1 ✄ −10<br />

10 −3 10 −2 10 −1<br />

error<br />

(1,2)<br />

(1,2,3)<br />

(1,2,4)<br />

(1,4,16)<br />

O(h 2 )<br />

O(h 3 )<br />

O(h 4 )<br />

✸<br />

wobei C > 0 nur von den Verhältnissen n j : n l abhängt.<br />

⇒ ‖ŷ − y(t + H)‖ ≤ CH k+2 ,<br />

mit C > 0 unabhängig von H.<br />

Bemerkung 2.4.5 (Extrapolationsverfahren als Runge-Kutta-Verafhren).<br />

Basisverfahren: Explizites Euler-Verfahren (1.4.2), Ordnung p = 1<br />

➜ Polynomextrapolation zur Sequenz (1, 2, 3, 4, ...,k) liefert explizites (→ Def. 2.1.2)<br />

Runge-Kutta-Verfahren (→ Def. 2.3.1) der Ordnung k mit s = k(k − 1)/2 + 1 Stufen.<br />

△<br />

Theoretische Analyse ↔ Verifikation der Voraussetzungen von Thm. 2.1.10<br />

Überlegungen für Spezialfall p = 1 ↔ Euler-Verfahren, vgl. Bsp. 2.4.4<br />

Notationen:<br />

t ↦→ y(t) ˆ= exakte Lösung durch (t,y) ∈ Ω<br />

H > 0 ˆ= Schrittweite des Makroschritts<br />

n 1 , ...,n k+1 ˆ= Anzahl von Mikroschritten in [t, t + H]<br />

2.4<br />

p. 181<br />

2.4.5 Ordnungssteuerung<br />

2.4<br />

p. 183<br />

y N ˆ= Resultat der Anwendung von N Schritten des Basis-Einschrittverfahrens auf [t,t + H] mit<br />

uniformer Schrittweite h := H/N und Startwert y<br />

Für Extrapolations-Einschrittverfahren:<br />

k = k(j) einfach zu realisieren<br />

ŷ ˆ= durch Extrapolation aus y n1 ,y n2 ,...,y nk+1 gewonnener Näherungswert für y(t + H)<br />

Idee: [(lokale) Ordnungssteuerung]<br />

✗<br />

✔<br />

Konsistenzfehler (→ Def. 2.1.7): τ(t,y,H) = y(t + H) − ŷ .<br />

Zu zeigen ist: Konsistenzordnung k + 1 ↔ ‖τ(t,y, H)‖ = O(H k+2 )<br />

✖<br />

Erhöhe lokale Ordnung, bis es sich nicht mehr lohnt (∗)”<br />

”<br />

(∗) Heuristisches Beurteilungskriterium (basierend auf Aitken-Neville-Extrapolationstableau (2.4.3)):<br />

✕<br />

➀<br />

Lokale Anwendung von Thm. 2.4.3 mit t 0 = t, T = t + H: für hinreichend grosses K ∈ N<br />

⇒ y N − y(t + H) =<br />

l=1<br />

wobei ☞ ‖r K (t + H,h)‖ ≤ CH<br />

☞ ‖e(t + H)‖ ≤ CH<br />

mit C > 0 unabhängig von t und (hinreichend kleinem) h.<br />

K∑<br />

e l (t + H)h l + r K (t + H,h)h K+1 , h = H/N ,<br />

∥<br />

∥T k,k−1 − T k,k<br />

∥ ∥ ≤ TOL · ∥∥T k,k<br />

∥ ∥ für ToleranzTOL > 0 .<br />

Zweitbeste Näherung<br />

beste Näherung<br />

➁ Damit aus Thm. 2.4.2<br />

k∑ ∥<br />

‖ŷ − y(t + H)‖ ≤ ‖e k+1 (t + H)‖ h 1 · · · · · h k+1 + C ∥r j (t + H, h j ) ∥ ∥h k+2<br />

j ,<br />

j=1<br />

2.4<br />

p. 182<br />

2.4<br />

p. 184


MATLAB-CODE : Adaptives Euler-Extrapolationsverfahren<br />

function [y,k] = eulexstep(f,y,H,TOL)<br />

kmax = 1000;<br />

T{1} = y + H*f(y);<br />

for i=2:kmax<br />

T{i} = y; h = H/i;<br />

for k=1:i, T{i} = T{i} + h*f(T{i}); end<br />

for l=i-1:-1:1<br />

T{l} = T{l+1} + (T{l+1}-T{l})/(i/l-1);<br />

end<br />

if (norm(T{1}-T{2}) < TOL*norm(T{1}))<br />

y = T{1}; k = i; return;<br />

end<br />

Adaptives<br />

Euler-Extrapolationsverfahren:<br />

(für autonomes AWP)<br />

Makroschritt der LängeH<br />

Argumente:<br />

f<br />

: Funktionshandle f=@(y)<br />

auf rechte Seite<br />

y : Anfangswert zu t = 0<br />

TOL : Toleranz<br />

Rückgabewerte:<br />

y : Näherung zu t = H<br />

k : Verwendete Extrapolationstiefe<br />

y 2<br />

(t)<br />

0.6<br />

0.4<br />

0.2<br />

0<br />

−0.2<br />

−0.4<br />

−0.6<br />

−0.8<br />

−1<br />

−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8<br />

y (t) 1<br />

Fig. 63<br />

y i<br />

(t)<br />

5<br />

0<br />

−5<br />

20<br />

y (t ) (Naeherung)<br />

1 k<br />

y (t ) (Naeherung)<br />

2 k<br />

v (t ) (Naeherung)<br />

1 k<br />

v (t ) (Naeherung)<br />

2 k<br />

0 0.5 1 1.5 2 2.5 3 3.5<br />

10<br />

4 0<br />

t<br />

Local extrapolation depth<br />

Fig. 64<br />

Beachte:<br />

Einfache Erweiterung des Extrapolationstableaus um eine weitere Zeile<br />

✄ Automatische Erhöhung der Ordnung an ”<br />

kritischen Stellen”<br />

✸<br />

Beispiel 2.4.6 (Euler-Extrapolationsverfahren mit Ordnungssteuerung).<br />

Bewegung eines geladenen ( Teilchens im Feld eines geraden Drahtes = Linienladung (konservatives<br />

0) Zentralfeld, Zentrum 0 , Potential U(x) := −2 log ‖x‖): → Bsp. 1.2.9<br />

ÿ = − 2y ( ( )<br />

y ˙ v<br />

( ) ( )<br />

−1 0.1<br />

‖y‖ 2 ⇒ =<br />

v)<br />

− 2y , y(0) = , v(0) = .<br />

‖y‖ 2 0<br />

−0.1<br />

Anfangswert: y(0) = (−1, 0, 0.1, −0.1), Endzeitpunkt: T = 4<br />

2.4<br />

p. 185<br />

2.4.6 Extrapolation reversibler Einschrittverfahren<br />

Beispiel 2.4.7 (Extrapolierte implizite Mittelpunktsregel).<br />

Anfangswertproblem aus Bsp. 1.4.3 (logistische Dgl., siehe Bsp. 1.2.1), λ = 10, y 0 = 0.01, aus<br />

[0, 1] (T = 1)<br />

2.4<br />

p. 187<br />

y 2<br />

0.8<br />

0.6<br />

0.4<br />

0.2<br />

0<br />

−0.2<br />

4<br />

3<br />

2<br />

1<br />

0<br />

y 1<br />

(t)<br />

y 2<br />

(t)<br />

v 1<br />

(t)<br />

v 2<br />

(t)<br />

Einschrittverfahren: implizite Mittelpunktsregel (1.4.11)<br />

Globale Extrapolation (→ Abschnitt 2.4.3) von y h (T) aus Lösungen erhalten durch uniforme<br />

Schrittweiten h/n i<br />

Beachte: Extrapolation auf der Grundlage des Standard-Tableaus (2.4.2)<br />

Implicit MPR (extr.), logistic ODE, λ = 10.000000, y0 = 0.010000, T = 1.000000<br />

−0.4<br />

−1<br />

−0.6<br />

−2<br />

10 −2<br />

−0.8<br />

Exakte Bahn<br />

−1<br />

−1 −0.5 0 0.5 1<br />

y 1<br />

Beobachtung:<br />

−3<br />

−4<br />

0 0.5 1 1.5 2 2.5 3 3.5 4<br />

t<br />

Peaks” in der Lösungskomponente v(t) (= zeitlokale Charakteristika)<br />

”<br />

Ordnungsadaptives Euler-Extrapolationsverfahren (TOL = 0.01), uniforme Makrozeitschrittweite H =<br />

0.02<br />

|y N<br />

−y(T)|<br />

10 −4<br />

10 −6<br />

10 −8<br />

10 −10<br />

10 −12<br />

10 −14<br />

10 0 h<br />

No extrapolation<br />

n=(1,2)<br />

n=(1,2,3)<br />

n=(1,2,3,4)<br />

n=(1,2,3,4,5)<br />

O(h 2 )<br />

O(h 4 )<br />

O(h 6 )<br />

10 −2 10 −1 10 0<br />

Fig. 65<br />

✁ Ordnungserhöhung nur in jedem zweite Extrapolationsschritt<br />

Ordnungserhöhung um jeweils zwei<br />

✸<br />

2.4<br />

p. 186<br />

2.4<br />

p. 188


Beobachtung aus Bsp. 2.4.7 einfach zu erklären, falls<br />

y h (T) = y(T) + α 1 h 2 + α 2 h 4 + α 6 h 6 + · · · .<br />

➣ DIFEX-Algorithmus [5, Sect. 4.3.3]<br />

△<br />

Beispiel 2.4.8 (Globale h 2 -Extrapolation für implizite Mittelpunktsregel).<br />

(Fast) wie Bsp. 2.4.7<br />

NEU:<br />

y N aus Extrapolation in h 2<br />

2.5 Splittingverfahren [11, Sect. 2.5]<br />

Implicit MPR (h 2 extr.), logistic ODE, λ = 10.0, y0 = 0.01, T = 1.0<br />

Autonomes AWP mit additiv zerlegter rechter Seite:<br />

10 −2<br />

10 −4<br />

ẏ = f(y) + g(y) , y(0) = y 0 , (2.5.1)<br />

mit f : D ⊂ R d ↦→ R d , g : D ⊂ R d ↦→ R d “hinreichend glatt”, lokal Lipschitz-stetig (→ Def. 1.3.2)<br />

|y N<br />

−y(T)|<br />

10 0 h<br />

10 −6<br />

10 −8<br />

✁ Ordnungserhöhung um zwei in jedem Extrapolationsschritt<br />

!<br />

(Kontinuierliche) Evolutionen:<br />

Φ t f ↔ Dgl. ẏ = f(y) ,<br />

Φ t g ↔ Dgl. ẏ = g(y) .<br />

10 −10<br />

✬<br />

✫<br />

10 −12<br />

10 −14<br />

No extrapolation<br />

n=(1,2)<br />

n=(1,2,3)<br />

O(h 2 )<br />

O(h 4 )<br />

O(h 6 )<br />

10 −2 10 −1 10 0<br />

Fig. 66<br />

Theorem 2.4.4 (Asymptotische Entwicklung des Diskretisierungsfehlers in h 2 ).<br />

Bezeichne y h (t), t ∈ äquidistantes Zeitgitter mit Schrittweite h > 0 auf [t 0 , T], die durch ein<br />

reversibles Einschrittverfahren (→ Def. 2.1.14) erzeugte Näherungslösung eines Anfangswertproblems<br />

ẏ = f(t,y), y(t 0 ) = y 0 , mit exakter Lösung t ↦→ y(t).<br />

Dann existieren ein K ∈ N (abhängig von der Glattheit von f) und glatte Funktionen e i :<br />

J(t 0 ,y 0 ) ↦→ R d , i = 1,...,K, mit e i (0) = 0 und (für hinreichend kleine h) gleichmässig<br />

beschränkte Funktionen (T,h) ↦→ r k (T, h), 0 ≤ k ≤ K, so dass<br />

y h (T) − y(T) =<br />

k∑<br />

e l (T)h 2l + r k (T,h)h 2k+2 für kleines h .<br />

l=1<br />

Dabei gilt ‖r k (T, h)‖ = O(T − t 0 ) für T − t 0 → 0 gleichmässig in h < T .<br />

Beweis. Siehe [5, Satz 4.42] ✷<br />

Bemerkung 2.4.9 (DIFEX).<br />

✸<br />

✩<br />

✪<br />

2.4<br />

p. 189<br />

2.5<br />

Annahme: Φ t f , Φt g (analytisch) bekannt p. 191<br />

(2.5.2) ↔<br />

Idee: Konstruiere Einschrittverfahren mit diskreten Evolutionen<br />

y 1<br />

Ψ h<br />

Φ h g<br />

y 0<br />

Φ h f<br />

Lie-Trotter-Splitting: Ψ h = Φ h g ◦ Φ h f , (2.5.2)<br />

Strang-Splitting: Ψ h = Φ h/2<br />

f ◦ Φ h g ◦ Φ h/2<br />

f . (2.5.3)<br />

Fig. 67<br />

(2.5.3) ↔<br />

Beispiel 2.5.1 (Konvergenz einfacher Splittingverfahren).<br />

√<br />

1 − y 2<br />

ẏ = λy(1 − y) +<br />

} {{ }<br />

=:f(y)<br />

} {{ }<br />

=:g(y)<br />

Φ h/2<br />

f y 1<br />

Ψ h Φ h g<br />

y 0<br />

, y(0) = 0 .<br />

Φ h/2<br />

f<br />

Fig. 68<br />

Praktische Extrapolationsverfahren stützen sich auf explizite Verfahren, deren Fehler eine asymptotische<br />

Entwicklung in h 2 besitzt (eine spezielle Trapezregel)<br />

2.4<br />

p. 190<br />

Φ t f y = 1<br />

1 + (y −1 − 1)e −λt , t > 0,y ∈]0, 1] (Logistische Differentialgleichung (2.2.12)) 2.5<br />

p. 192


|y(T)−y h<br />

(T)|<br />

Φ t gy =<br />

{<br />

sin(t + arcsin(y)) , falls t + arcsin(y) < π 2 ,<br />

1 , sonst,<br />

10 −2<br />

10 −3<br />

10 −4<br />

10 −5<br />

Lie−Trotter−Splitting<br />

Strang−Splitting<br />

O(h)<br />

10 −6<br />

O(h 2 )<br />

10 −2 10 −1<br />

Zeitschrittweite h<br />

Fig. 69<br />

✬<br />

✫<br />

t > 0,y ∈ [0, 1] .<br />

Numerisches Experiment:<br />

T = 1, λ = 1, Vergleich von Splittingverfahren<br />

(konstante Schrittweite) mit hochgenauer numerischer<br />

Lösung erhalten durch<br />

f=@(t,x) λ*x*(1-x)+sqrt(1-xˆ2);<br />

options=odeset(’reltol’,1.0e-10,...<br />

’abstol’,1.0e-12);<br />

[t,yex]=ode45(f,[0,1],y0,options);<br />

✁ Fehlerverhalten zum Endzeitpunkt T = 1<br />

Theorem 2.5.1 (Konsistenzordnung einfacher Splittingverfahren). Die ESV (2.5.2) und (2.5.3)<br />

haben die Konsistenzordnungen (→ Def. 2.1.9) 1 bzw. 2.<br />

Beweis. Annahme: f, g hinreichend glatt.<br />

Taylorentwicklung der Evolution nach h, vgl. (2.3.14):<br />

Φ h y =y + ẏ(0)h + 1 2ÿ(0)h2 + O(h 3 )<br />

=y + h(f(y) + g(y)) + 1 2 h2 (Df(y) + Dg(y))(f(y) + g(y)) + O(h 3 ) .<br />

Taylorentwicklung der partiellen Evolutionen Φ h f , Φh g nach h, vgl. (2.3.14)<br />

Φ h f y = y + hf(y) + 1 2 h2 Df(y)f(y) + O(h 3 ) ,<br />

Φ h gy = y + hg(y) + 1 2 h2 Dg(y)g(y) + O(h 3 ) .<br />

Ψ h y =Φ h/2<br />

f (Φh g(Φ h/2<br />

f y)) = Φh/2<br />

f (Φh g(y + h/2f(y) + 8 1h2 Df(y)f(y) + O(h 3 )))<br />

(<br />

=Φ h/2<br />

f y + h/2f(y) + 1 8 h2 Df(y)f(y) + O(h 3 ) + hg(y + h/2f(y) + O(h 2 ))<br />

)<br />

+ 1 2 h2 Dg(y + O(h))g(y + O(h)) + O(h 3 )<br />

(<br />

=Φ h/2<br />

f y + h/2f(y) + hg(y) + 1 8 h2 Df(y)f(y) + 1 2 h2 Dg(y)f(y)+<br />

)<br />

1<br />

2 h2 Dg(y)g(y) + O(h 3 )<br />

=y + h 2 f(y) + hg(y) + 1 8 h2 Df(y)f(y) + 1 2 h2 Dg(y)f(y) + 1 2 h2 Dg(y)g(y) + O(h 3 )+<br />

✸<br />

(2.5.4)<br />

✩<br />

✪<br />

2.5<br />

p. 193<br />

2.5<br />

p. 194<br />

h/2f(y + h 2 f(y) + hg(y)) + O(h2 )) + 1 8 h2 Df(y + O(h))f(y + O(h))<br />

=y + h 2 f(y) + hg(y) + 1 8 h2 Df(y)f(y) + 1 2 h2 Dg(y)f(y) + 1 2 h2 Dg(y)g(y)<br />

+ 1 2 hf(y) + 1 4 h2 Df(y)f(y) + 1 2 h2 Df(y)g(y) + 1 8 h2 Df(y)f(y) + O(h 3 )<br />

=y + h(f(y) + g(y)) + 1 2 h2( Df(y)f(y) + Dg(y)f(y) + Df(y)g(y) + Dg(y)g(y) )<br />

+ O(h 3 ) .<br />

Vergleich mit (2.5.4) liefert die Behauptung für das Strang-Splitting.<br />

Bemerkung 2.5.2 ( reversible Strang-Splitting-Einschrittverfahren).<br />

Diskrete Evolution Ψ h aus (2.5.3) erfüllt<br />

Ψ −h = Φ −h/2<br />

f<br />

(<br />

◦ Φ −h g ◦ Φ −h/2<br />

f =<br />

Φ h/2<br />

f<br />

Ψ ist reversibel (→ Def. 2.1.14)<br />

) −1 ( ) −1 (<br />

◦ Φ h g ◦<br />

)<br />

Φ h/2 −1<br />

f<br />

=<br />

(<br />

Φ h/2<br />

f ◦ Φ h g ◦ Φ h/2<br />

f<br />

Thm. 2.1.15 ⇒ gerade Konsistenzordnung von Strang-Splitting-Einschrittverfahren<br />

Beispiel 2.5.3 (Splittingverfahren für mechanische Systeme).<br />

Newtonsche Bewegungsgleichung<br />

¨r = a(r)<br />

(1.1.5)<br />

⇐⇒ ẏ :=<br />

(<br />

r<br />

˙<br />

v)<br />

( ) (<br />

0 v<br />

Splitting: F(y) = + .<br />

a(r) 0)<br />

} {{ } }{{}<br />

=:f(y) =:g(y)<br />

( ) ( )<br />

Φ t r0 r<br />

f = 0<br />

v 0 v 0 + ta(r 0 )<br />

)<br />

✷<br />

(<br />

= Ψ h) −1<br />

.<br />

( )<br />

v<br />

= =: F(y) .<br />

a(r)<br />

( ) ( )<br />

, Φ t r0 r0 + tv<br />

g = 0 .<br />

v 0 v 0<br />

Lie-Trotter-Splitting (2.5.2): ➢ Symplektisches Eulerverfahren<br />

( ) ( ) ( ) ( )<br />

Ψ h r<br />

= Φ<br />

v<br />

h g ◦ Φ h r r + h(v + ha(r))<br />

f =<br />

. (2.5.5)<br />

v v + ha(r)<br />

Strang-Splitting (2.5.3):<br />

( ) (<br />

Ψ h r<br />

= Φ h/2<br />

v g<br />

◦ Φ h f ◦ Φh/2 g<br />

) ( )<br />

r<br />

v<br />

(<br />

r + hv + 1<br />

=<br />

2 h 2 a(r + 1 2 hv)<br />

)<br />

v + ha(r + 2 1hv) . (2.5.6)<br />

△<br />

2.5<br />

p. 195<br />

2.5<br />

p. 196


= Einschrittformulierung des Störmer-Verlet-Verfahrens (1.4.14), siehe Bem. 1.4.15 !<br />

(2.5.6) ←→<br />

r k+ 1 = r k + 1<br />

2<br />

2 hv k ,<br />

v k+1 = v k + ha(r k+ 1) ,<br />

2<br />

r k+1 = r k+ 1 + 1<br />

2<br />

2 hv k+1 .<br />

(2.5.7)<br />

✸<br />

2.6 Schrittweitensteuerung [5, Kap. 5], [16, Sect. 2.8]<br />

Erinnerung an das Keplerproblem von Bsp. 2.4.6, Oregonator-Reaktion von Bsp. 1.2.5:<br />

Häufig: Lösungen von AWPs zeigen stark ungleichmässiges Verhalten in der Zeit.<br />

Idee:<br />

Ersetze<br />

Exakte Evolutionen −→ diskrete Evolutionen<br />

Φ h g , Φh f −→ Ψ h g , Ψh f<br />

Beispiel 2.5.4 (Inexakte Splittingverfahren). Forsetzung Bsp. 2.5.1<br />

AWP von Bsp. 2.5.1, Inexakte Splittingverfahren auf der Grundlage verschiedener inexakter Basisverfahren:<br />

Effizienz<br />

✬<br />

Ziel: ♯G möglichst klein<br />

✫<br />

Adaptive Wahl des Rechengitters für ESV durch zeitlokale Fehlerschätzung<br />

(→ Ordnungssteuerung bei Extrapolationsverfahren, Sect. 2.4.5)<br />

&<br />

Genauigkeit<br />

max ‖y(t k) − y k ‖ Ordnung(Ψ)<br />

⇒ Φ t,t+h y(t k ) − Ψ t,t+h y(t k ) ≈ EST<br />

} {{ } k := ˜Ψ t,t+h y(t k ) − Ψ t,t+h y(t k ) . (2.6.1)<br />

Konsistenzfehler<br />

Heuristik für konkretes h<br />

Beispiel 2.6.1 (Qualität der Fehlerschätzung).<br />

Skalares AWP: ẏ = cos 2 (ay), Lösung y(t) = 1/a arctan(at) auf [−1, 1], a = 10<br />

☞<br />

Ordnung der Splittingverfahren wird durch Konsistenzordnung von Φ h f , Φh g begrenzt.<br />

Ausnahme: SS-EuEI: reversibles Verfahren ➢ Konsistenzordnung ≥ 2 nach Thm. 2.1.15<br />

✸<br />

Ψ ↔ Explizites Euler-Verfahren (1.4.2), Ordnung p = 1<br />

˜Ψ ↔ Explizite Trapezregel (2.3.2), Ordnung p = 2<br />

2.6<br />

p. 198<br />

2.6<br />

p. 200


−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1<br />

0.15<br />

0.1<br />

f(y) = cos 2 (10*y)<br />

0.14<br />

0.12<br />

Euler: error<br />

Euler: est. error<br />

TRP: error<br />

TRP: est. error<br />

f(y) = cos 2 (10*y)<br />

0.05<br />

0.1<br />

y,y h<br />

0<br />

−0.05<br />

y,y h<br />

0.08<br />

0.06<br />

Optimale Schrittweite”:<br />

”<br />

(Schrittweitenvorschlag)<br />

h ∗ = h p+1 √ TOL<br />

EST k<br />

. (2.6.2)<br />

Korrigierte Schrittweite<br />

Schrittweitenvorschlag<br />

−0.1<br />

0.04<br />

−0.15<br />

−0.2<br />

t<br />

Expl. Euler solution<br />

Expl. trapezoidal rule<br />

Exact solution<br />

Fig. 70<br />

0.02<br />

0<br />

−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1<br />

t<br />

Beobachtung: ☞ Grosse Unterschiede zwischen geschätztem und wahrem Fehler möglich<br />

☞ Fehlerschätzung für ˜Ψ durch Ψ macht Sinn !<br />

Fig. 71<br />

Bemerkung 2.6.2 (Steuerung von ˜Ψ durch Ψ).<br />

Bisherige Überlegung:<br />

” Schätzung des Fehlers” von ˜Ψ ➣ Steuerung von ˜Ψ<br />

✸<br />

Vergleich<br />

EST k ↔ TOL<br />

EST k ↔ TOL ‖y k ‖<br />

➣<br />

Absolute Toleranz<br />

Verwerfen/Akzeptieren des aktuellen Schritts<br />

2.6<br />

Relative Toleranz p. 201<br />

2.6<br />

p. 203<br />

Führt zu einem sehr einfachen Algorithmus:<br />

EST k < TOL: Ausführen des aktuellen Schritts (Schrittweite h)<br />

Nächster Schritt mit Schrittweite ≥ h, z.B. 2h<br />

EST k > TOL: Wiederholung des aktuellen Schritts mit Schrittweite < h, z.B. 1 2 h<br />

Jedoch: Vergrösserung/Verringerung der Schrittweite “verschwendet” Information enthalten in EST k :<br />

TOL.<br />

Wir wollen mehr ! WennEST k > TOL : Schrittweitenkorrektur t k+1 = ?<br />

WennEST k < TOL : Schrittweitenvorschlag t k+2 = ?<br />

Falls Ordnung(Ψ) = p, Ordnung(˜Ψ) > p, p ∈ N,<br />

Ψ t,t+h y(t k ) − Φ t,t+h y(t k ) = ch p+1 + O(h p+2 ) ,<br />

˜Ψ t,t+h y(t k ) − Φ t,t+h y(t k ) = O(h p+2 )<br />

Ziel: Effizienz<br />

h≪1<br />

⇒ EST k ≈ ch p+1 ! = TOL .<br />

Effizient ?<br />

Genaueres (teureres) Verfahren ˜Ψ wird nur zur Steuerung des ungenaueren Verfahrens<br />

verwendet.<br />

Erinnerung an Bsp. 2.6.1:<br />

Mit gleichem Aufwand: Integration des AWP mit ˜Ψ gesteuert durch Ψ !<br />

Euler-Verfahren (Ordnung p = 1) lieferte gute Fehlerschätzung für explizite<br />

Trapezregel (Ordnung p = 2)<br />

So wird es in der Praxis auch gemacht !<br />

Noch eine Heuristik:<br />

EST k > TOL ist ein Hinweis darauf, dass eines der beiden Verfahren Ψ, ˜Ψ Probleme mit der<br />

(lokalen) Approximation der Lösung hat. Eine Verringerung von h k ist daher angezeigt.<br />

Mathematische Rechtfertigung: Steuerungstheorie → [5, Sect. 5.2]<br />

△<br />

Herleitung einer “optimalen” Schrittweite h ∗ mitEST k = TOL (in führender Potenz von h):<br />

{<br />

EST k ≈ ch p+1 ⇒ c ≈ EST }<br />

k<br />

h p+1 mit Forderung c(h ∗ ) p+1 !<br />

= TOL<br />

2.6<br />

p. 202<br />

2.6<br />

p. 204


MATLAB-Implementierung: Ψ,˜Ψ ˆ= diskrete Evolutionen, Konsistenzordnung p/p + 1<br />

t 0 ˆ= Anfangszeitpunkt, T ˆ= Endzeitpunkt<br />

y 0 ˆ= Anfangswert (Spaltenvektor)<br />

reltol, abstol ˆ= absolute/relative Toleranzen<br />

h 0 ,h min ˆ= Schrittweite für 1. Schritt/minimale Schrittweite<br />

ESV mit Schrittweitensteuerung<br />

function [t,y] = ssctrl(Ψ,˜Ψ,t0,T,y0,h0,reltol,abstol,hmin)<br />

t = t0; y = y0; h = h0;<br />

while ((t(end) < T) && (h > hmin))<br />

yh = ˜Ψ(t(end),y(:,end),h);<br />

yH = Ψ(t(end),y(:,end),h);<br />

est = norm(yH-yh);<br />

tol = min(reltol*norm(y(:,end)),abstol);<br />

h = h*max(0.5,min(2,(tol/est)ˆ(1/(p+1))));<br />

if (est < tol)<br />

y = [y,yh]; t = [t,t(end) + min(T-t(end),h)];<br />

end<br />

end<br />

error<br />

reltol<br />

Adaptive trapezoidal rule<br />

Adaptive Euler method<br />

10 −1<br />

10 −2<br />

10 −3<br />

10 −4<br />

10 −5<br />

10 −5 10 −4 10 −3 10 −2 10 −1 10 0<br />

Fig. 73<br />

10 0<br />

☞ Fehler max |y(t j ) − y j | korreliert nur grob mit Toleranz TOL !<br />

j<br />

No. of timesteps<br />

600<br />

500<br />

400<br />

300<br />

200<br />

100<br />

Adaptive trapezoidal rule<br />

Adaptive Euler method<br />

0<br />

10 −5 10 −4 10 −3 10 −2 10 −1 0<br />

reltol<br />

10<br />

Fig. 74<br />

Diese Beobachtung wird verständlich, wenn man sich in Erinnerung ruft, dass die Schrittweitensteuerung<br />

sich ausschliesslich auf den Einschrittfehler stützt und den fortgepflanzten Fehler ignoriert, siehe<br />

Abschnitt 2.1.4.<br />

Beispiel 2.6.3 (Schrittweitensteuerung für explizite Trapezregel/Euler-Verfahren).<br />

2.6<br />

p. 205<br />

2.6<br />

✸ p. 207<br />

Anfangswertproblem für skalare logistische Dgl, siehe Bsp. 1.2.1<br />

Beispiel 2.6.4 (Schrittweitensteuerung und Instabilität).<br />

ẏ = λy(1 − y) , λ = 20 ➣ y(t) =<br />

y 0<br />

y 0 + (1 − y 0 ) exp(−λt) .<br />

Anfangswertproblem für skalare logistische Dgl, siehe Bsp. 2.6.3, nun λ = 100<br />

Einschrittverfahren aus Bsp. 2.6.1, Schrittweitenanpassung<br />

gemäss (2.6.2)<br />

Integration mit explizitem Euler-Verfahren<br />

(1.4.2),<br />

Fehlerschätzung (2.6.1) mit<br />

expliziter Trapezregel (2.3.2)<br />

Integration mit expliziter Trapezregel (2.3.2),<br />

Schrittweitensteuerung mit expliziten Euler-<br />

Verfahren gemäss Bem. 2.6.2<br />

Absolute/relative Toleranz = 0.005, y 0 = 0.1/λ<br />

y(t)/y k<br />

1.4<br />

1.2<br />

1<br />

0.8<br />

0.6<br />

0.4<br />

0.2<br />

Logistic ODE, lambda = 20.000000, y 0<br />

= 0.005000<br />

trapezoidal rule<br />

Euler method<br />

exact solution<br />

0<br />

0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1<br />

t<br />

Fig. 72<br />

Trapezregel/Euler: 63/62 Schritte, 12 verworfen<br />

explizites Euler-Verfahren (1.4.2), explizite Trapezregel (2.3.2) mit Schrittweitensteuerung wie<br />

Bsp. 2.6.3<br />

Absolute/relative Toleranz = 0.05, Anfangszeitschritt (für adaptive ESV) h = 0.05<br />

y(t)/y k<br />

Logistic ODE, lambda = 100.000000, y = 0.001000, stepsize = 0.050000<br />

0<br />

3<br />

2.5<br />

2<br />

1.5<br />

1<br />

0.5<br />

0<br />

−0.5<br />

y(t)/y k<br />

Logistic ODE, lambda = 100.000000, y = 0.001000<br />

0<br />

1.4<br />

1.2<br />

1<br />

0.8<br />

0.6<br />

0.4<br />

2.6<br />

p. 206<br />

−1<br />

−1.5<br />

trapezoidal rule<br />

Euler method<br />

exact solution<br />

TR blowup<br />

Euler blorwup<br />

−2<br />

0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1<br />

t<br />

Fig. 75<br />

Trapez/Euler: uniforme Zeitschrittweite h = 0.05<br />

0.2<br />

trapezoidal rule<br />

Euler method<br />

exact solution<br />

0<br />

0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1<br />

t<br />

Fig. 76<br />

Trapez/Euler: 119/114 Schritte, 28/42 verworfen<br />

2.6<br />

p. 208


Schrittweitensteuerung verhindert Instabilität, vgl. Bsp. 1.4.3 !<br />

Beispiel 2.6.5 (Schrittweitensteuerung und Kollaps).<br />

Skalares Anfangswerproblem mit Kollaps, vgl.<br />

Bsp. 1.3.3<br />

ẏ = − 1 √ y<br />

, y(0) = 1<br />

⇒ y(t) = (1 − 3t/2) 2/3 .<br />

Absolute/relative Toleranz = 0.005<br />

y(t)/y k<br />

1<br />

0.9<br />

0.8<br />

0.7<br />

0.6<br />

0.5<br />

0.4<br />

0.3<br />

0.2<br />

d t<br />

y = −1/<br />

✸<br />

Algorithmische Realisierung (ESV):<br />

Eingebettete Runge-Kutta-Verfahren<br />

Gleiche Inkremente k i , verschiedene Gewichte b i<br />

(→ Def 2.3.1) realisieren RK-Evolutionen Ψ h , ˜Ψ h<br />

der Ordnungen p und p + 1.<br />

c A<br />

b T :=<br />

b<br />

̂ T<br />

c 1 a 11 · · · a 1s<br />

. . .<br />

c s a s1 · · · a ss .<br />

b 1 · · · b s<br />

̂b1 · · · ̂bs<br />

Eingebettetes RK-ESV: Butcher-Schema<br />

s∑<br />

s∑<br />

Ψ h y = y + h b i k i , ˜Ψh y = y + h ̂bi k i .<br />

i=1<br />

Motivation: Effizienz (Inkremente k i nur einmal zu berechnen, siehe Def. 2.3.1)<br />

Gebräuchlich: p = 4, p = 7<br />

i=1<br />

0.1<br />

adaptive trapezoidal rule<br />

adaptive Euler method<br />

exact solution<br />

0<br />

t<br />

0.7<br />

Fig. 77<br />

0 0.1 0.2 0.3 0.4 0.5 0.6<br />

△<br />

Schrittweitensteuerung ➣ Verfahren “erkennt” Kollaps der Lösung<br />

2.6<br />

✸ p. 209<br />

Beispiel 2.6.8 (Eingebettete Runge-Kutta-Verfahren).<br />

→ [14, Sect. II.4]<br />

2.6<br />

p. 211<br />

Beispiel 2.6.6 (Schrittweitensteuerung und Blow-up).<br />

Skalares Anfangswerproblem mit Blow-up, vgl.<br />

Bsp. 1.3.3<br />

ẏ = y 2 , y(0) = 1<br />

⇒ y(t) = 1<br />

1 − t .<br />

Absolute/relative Toleranz = 0.05<br />

y(t)/y k<br />

100<br />

90<br />

80<br />

70<br />

60<br />

50<br />

40<br />

30<br />

20<br />

10<br />

adaptive trapezoidal rule<br />

adaptive Euler method<br />

exact solution<br />

d t<br />

y = y 2 , y 0<br />

= 1.000000<br />

0<br />

1<br />

3<br />

1<br />

3<br />

1<br />

3<br />

1<br />

6<br />

1<br />

6<br />

1<br />

2<br />

1<br />

8 0 3<br />

8<br />

1 1<br />

2 0 − 3 2 2<br />

y 1<br />

1<br />

6 0 0 2 3 1 6<br />

ŷ 1<br />

1<br />

10 0 3<br />

10<br />

2<br />

5<br />

1<br />

5<br />

Eingebettes RK-Verfahren der Ordnung 3( ”<br />

4”)<br />

von Merson<br />

0<br />

1<br />

2<br />

1<br />

2<br />

1<br />

2 0 1<br />

2<br />

1 0 0 1<br />

3<br />

4<br />

5<br />

32<br />

7<br />

32 32 13 − 32<br />

1<br />

y 1<br />

1<br />

6<br />

1<br />

3<br />

1<br />

3<br />

1<br />

6<br />

ŷ 1 −2<br />

1 7 7 13<br />

3 3 6 − 16<br />

3<br />

Eingebettes RK-Verfahren der Ordnung 3(4) von<br />

Zonneveld<br />

0<br />

0 0.2 0.4 0.6<br />

t<br />

0.8 1 1.2<br />

Fig. 78<br />

Schrittweitensteuerung ➣ Verfahren “erkennt” Blow-up der Lösung<br />

Bemerkung 2.6.7 (Eingebettete RK-ESV).<br />

✸<br />

2.6<br />

p. 210<br />

2.6<br />

p. 212


0<br />

1<br />

5<br />

3<br />

10<br />

4<br />

5<br />

8<br />

9<br />

1<br />

5<br />

3 9<br />

40 40<br />

44<br />

45 − 56<br />

15<br />

19372<br />

6561 −25360 2187<br />

1 9017<br />

3168 − 355<br />

33<br />

1 35<br />

384 0 500<br />

1113<br />

y 1<br />

35<br />

384 0 500<br />

1113<br />

ŷ 1<br />

5179<br />

57600 0 7571<br />

16695<br />

32<br />

9<br />

64448<br />

6561 −212 729<br />

46732<br />

5247<br />

49<br />

176 −18656<br />

5103<br />

125<br />

192 −6784<br />

2187<br />

125<br />

192 −6784<br />

2187<br />

393<br />

640 −339200<br />

92097<br />

11<br />

84 0<br />

11<br />

84 0<br />

187<br />

2100<br />

1<br />

40<br />

DOPRI5: Eingebettes RK-<br />

Verfahren der Ordnung 4(5)<br />

von Dormand & Prince<br />

(MATLAB ode45)<br />

✸<br />

4<br />

3<br />

2<br />

1<br />

0<br />

−1<br />

−2<br />

−3<br />

abstol = 0.001000, reltol = 0.010000<br />

y 1<br />

(t) (exakt)<br />

y 2<br />

(t) (exakt)<br />

v 1<br />

(t) (exakt)<br />

v 2<br />

(t) (exakt)<br />

−4<br />

0 0.5 1 1.5 2 2.5 3 3.5 4<br />

t<br />

y i<br />

(t)<br />

5<br />

0<br />

abstol = 0.001000, reltol = 0.010000<br />

0.2<br />

y 1<br />

(t k<br />

) (Naeherung)<br />

y 2<br />

(t k<br />

) (Naeherung)<br />

v 1<br />

(t k<br />

) (Naeherung)<br />

v 2<br />

(t k<br />

) (Naeherung)<br />

−5<br />

0 0.5 1 1.5 2 2.5 3 3.5 4<br />

t<br />

0 0.5 1 1.5 2 2.5 3 3.5 4 0 0.1<br />

Zeitschrittweite<br />

Adaptive Integratoren für Anfangswertprobleme in MATLAB:<br />

options = odeset(’abstol’,atol,’reltol’,rtol,’stats’,’on’);<br />

[t,y] = ode45/ode23(@(t,x) f(t,x),tspan,y0,options);<br />

(f = function handle, tspan ˆ= [t 0 , T], y0 ˆ= y 0 , t ˆ= t k , y ˆ= y k )<br />

2.6<br />

p. 213<br />

2.6<br />

p. 215<br />

Beispiel 2.6.9 (Adaptive RK-ESV zur Teilchenbahnberechnung). → Bsp. 2.4.6<br />

0.8<br />

0.8<br />

0.6<br />

0.6<br />

Adaptiver Integrator:<br />

ode45(@(t,x) satf,[0 4],[-1;0;0.1;-0.1,],options):<br />

0.4<br />

0.4<br />

➊ options = odeset(’reltol’,0.001,’abstol’,1e-5);<br />

➋ options = odeset(’reltol’,0.01,’abstol’,1e-3);<br />

y 2<br />

0.2<br />

0<br />

−0.2<br />

y 2<br />

0.2<br />

0<br />

−0.2<br />

4<br />

3<br />

2<br />

1<br />

0<br />

−1<br />

−2<br />

−3<br />

abstol = 0.000010, reltol = 0.001000<br />

y 1<br />

(t) (exakt)<br />

y 2<br />

(t) (exakt)<br />

v 1<br />

(t) (exakt)<br />

v 2<br />

(t) (exakt)<br />

−4<br />

0 0.5 1 1.5 2 2.5 3 3.5 4<br />

t<br />

y i<br />

(t)<br />

5<br />

0<br />

abstol = 0.000010, reltol = 0.001000<br />

0.2<br />

y 1<br />

(t k<br />

) (Naeherung)<br />

y 2<br />

(t k<br />

) (Naeherung)<br />

v 1<br />

(t k<br />

) (Naeherung)<br />

v 2<br />

(t k<br />

) (Naeherung)<br />

−5<br />

0 0.5 1 1.5 2 2.5 3 3.5 4<br />

t<br />

0 0.5 1 1.5 2 2.5 3 3.5 4 0 0.1<br />

Zeitschrittweite<br />

−0.4<br />

−0.6<br />

−0.8<br />

Exakte Bahn<br />

Naeherung<br />

−1<br />

−1 −0.5 0 0.5 1<br />

y 1<br />

reltol=0.001, abstol=1e-5<br />

☞ Qualitativ falsche Lösung bei geringfügig erniedrigter Toleranz !<br />

−0.4<br />

−0.6<br />

−0.8<br />

Exakte Bahn<br />

Naeherung<br />

−1<br />

−1 −0.5 0 0.5 1<br />

y 1<br />

reltol=0.01, abstol=1e-3<br />

Beispiel 2.6.10 (Schrittweitensteuerung für Bewegungsgleichungen). → Bsp. 2.4.6<br />

✸<br />

2.6<br />

p. 214<br />

2.6<br />

p. 216


10 2 (Absolute) Toleranz<br />

AWP aus Bsp. 2.4.6<br />

ode45 mit verschiedenen absoluten/relativen Toleranzen<br />

Wie schon in Bsp. 2.6.3:<br />

10 −2<br />

! Toleranzen sagen nichts über globalen Fehler 10 −3<br />

rtol = atol^(1/2)<br />

rtol=atol^(2/3)<br />

rtol=10*atol<br />

10 −4<br />

10 −6 10 −5 10 −4 10 −3 10 −2 10 −1<br />

Fehler |y h<br />

(4)−y(4)|<br />

10 1<br />

10 0<br />

10 −1<br />

3 Stabilität [5, Kap. 6]<br />

Beispiel 3.0.11 (Ineffizienz expliziter Runge-Kutta-Verfahren). → Bsp. 1.4.3, 1.4.5<br />

Logistische Differentialgleichung ẏ = f(y), f(y) = λy(1 − y) → (2.2.12), λ = 50, Anfangswert<br />

y 0 = 0.1, Zeitintervall [0, 1]:<br />

• Integratoren: Implizites Euler-Verfahren (1.4.9), klassisches Runge-Kutta-Verfahren (2.3.7)<br />

• uniforme Zeitschrittweite h = 1/N, N ∈ N<br />

• Fehlermass: err = max k |y k − y(t k )|, k = 1, ...,N<br />

2.6<br />

p. 217<br />

3.0<br />

p. 219<br />

Fehler |y h<br />

(4)−y(4)|<br />

RK4 äquidistant<br />

ode45 adaptiv<br />

10 0<br />

10 −2<br />

10 −4<br />

10 −6<br />

10 −8<br />

10 −10<br />

10 1 10 2 10 3 10 4 10 5 10 6<br />

10 2 Anzahl f−Auswertungen<br />

Effizienz von Schrittweitensteuerung:<br />

Vergleich:<br />

• Klassisches Runge-Kutta-Verfahren (2.3.7)<br />

• Eingebettetes Runge-Kutta-Verfahren mit<br />

Schrittweitensteuerung: ode45<br />

Aufwandsmass: ♯f-Auswertungen<br />

Adaptivität zahlt sich aus !<br />

✸<br />

y<br />

1.2<br />

1<br />

0.8<br />

0.6<br />

0.4<br />

0.2<br />

y(t)<br />

Implicit Euler<br />

RK4<br />

0<br />

0 0.2 0.4 0.6 0.8 1<br />

t<br />

Fig. 79<br />

(Approximative) Lösungen für N = 30<br />

∞−error<br />

10 0<br />

10 −1<br />

10 −2<br />

10 −3<br />

10 −4<br />

10 −5<br />

10 −6<br />

10 −7<br />

implicit Euler<br />

RK4<br />

blow−up<br />

10 −8<br />

10 −4 10 −3 10 −2 10 −1 10 0<br />

timestep h<br />

Fig. 80<br />

10 1<br />

Fehler gegen Schrittweite (doppeltlogarithmisch)<br />

Beobachtung:<br />

RK4 asymptotisch genauer als implizites Euler-Verfahren<br />

RK4 präasymptotisch (für h > 0.02) unbrauchbar<br />

2.6<br />

p. 218<br />

Überlegung: Linearisierung um Fixpunkt, siehe Bem. 1.3.5<br />

3.0<br />

(für Logistische Differentialgleichung ẏ = λy(1 − y), λ > 0) p. 220<br />


y = 1 ⇒ f(y) = 0: für λ ≫ 1 ist 1 stark attraktiver Fixpunkt/stationärer Punkt der Evolution zur<br />

Dgl. (→ Bsp. 1.2.1, 1.4.3):<br />

df<br />

(1) = −λ ⇒ für y ≈ 1 : Dgl. ≈ ẏ = −λ(y − 1) .<br />

dy<br />

Zeitskalierung s := λt: ỹ(s) := y(s/λ) erfüllt<br />

d<br />

dsỹ = ỹ<br />

Annahme: Zeitskalierungsinvarianz der diskreten Evolution ↔ kommutierendes Diagramm<br />

s:=λt<br />

y(t)<br />

−−−→ ỹ(s)<br />

⏐<br />

⏐<br />

ESV↓<br />

↓ESV<br />

(3.1.2)<br />

y h (t) := Ψ t s:=λt<br />

λ −−−→ ỹ h (s) = ˜Ψ s 1 .<br />

Beachte: Erfüllt für Runge-Kutta-Einschrittverfahren (→ Def. 2.3.1) !<br />

3.1 Modellproblemanalyse<br />

Ψ h λ = Ψλh 1 hängt nur von z := λh ab: S(z) := Ψ h λ<br />

Überlegung zu Bsp. 3.0.11: Relevanz der (um einen Fixpunkt) linearisierten ODE<br />

Abschnitt 1.4.1: Einsichten in das Verhalten des expliziten Euler-Verfahrens (1.4.2) durch Modellproblemanalyse,<br />

d.h., analytische Untersuchung der diskreten Evolution für die skalare lineare ODE<br />

ẏ = λy, λ ∈ C.<br />

Diskrete Lösung: y k = S(z) k y 0 , k ∈ N 0 , z := λh .<br />

Stabilitätsfunktion<br />

➥ |S(z)| < 1 ⇔ y = 0 asymptotisch stabil für diskrete EvolutionΨ h λ . △<br />

3.1<br />

p. 221<br />

3.1<br />

p. 223<br />

Autonomes skalares lineares AWP: ẏ = λy , y(0) = 1, Re λ < 0 auf [0, ∞[ (3.1.1)<br />

y(t) = e λt → 0 für t → ∞ (Asymptotische Stabilität von y = 0) .<br />

Definition 3.1.1 (Stabilitätsgebiet eines Einschrittverfahrens).<br />

Das Stabilitätsgebiet eines ESV für das AWP (3.1.1) auf der Grundlage der diskreten Evolution<br />

Ψ h λ y =: S(z)y, y ∈ C, z := λh, S : D S ⊂ C ↦→ C, ist<br />

S Ψ := {z ∈ D S : |S(z)| < 1} ⊂ C .<br />

Beachte: λ ∈ C zugelassen ➢ komplexer Zustandsraum C<br />

(Grund: Diagonalisierungstechnik” für lineare, autonome AWP, Sect. 1.3.2, vgl.<br />

”<br />

Bem. 3.1.5)<br />

☞<br />

Für von RK-ESV zu AWP (3.1.1) erzeugte Gitterfunktion {y k } k∈N auf äquidistantem Zeitgitter<br />

mit Maschenweite h > 0 gilt<br />

Frage: Wann erbt” Lösung {y ” k } ∞ k=0 , y k+1 = Ψ h λ y k (Ψh λ ˆ= diskrete Evolution) aus RK-ESV auf<br />

(unendlichem) äquidistantem Gitter (Maschenweite h) asymptotische Stabilität ?<br />

Frage der Strukturerhaltung: Übereinstimmung von qualitativen Eigenschaften der kontinuierlichen<br />

und diskreten Evolution.<br />

✬<br />

lim y k = 0 ⇔<br />

k→∞<br />

Theorem 3.1.2 (Stabilitätsfunktion von Runge-Kutta-Verfahren).<br />

lim<br />

k→∞ S(hλ)k = 0 ⇔ hλ ∈ S Ψ . (3.1.3)<br />

Ist Ψ h λ<br />

diskrete Evolution zu einem s-stufigen Runge-Kutta-Einschrittverfahren (→ Def. 2.3.1)<br />

✩<br />

Bemerkung 3.1.1 (Reskalierung des Modellproblems).<br />

Da AWP (3.1.1) autonom & skalar ➢ h ↦→ Ψ h λ ist Funktion R ↦→ C. p. 222<br />

3.1<br />

mit Butcher-Schema c A bT (siehe (2.3.4)) für das AWP (3.1.1), dann<br />

Ψ h λ = 1 + zbT (I − zA) −1 1<br />

} {{ }<br />

Stabilitätsfunktion S(z)<br />

✫<br />

= det(I − zA + z1bT )<br />

det(I − zA)<br />

, z := λh , 1 = (1, ...,1) T ∈ R s .<br />

✪<br />

3.1<br />

p. 224


Beweis: Aus den Formeln (→ Def. 2.3.1) für die Inkremente mit f(y) = λy: Diskrete Evolution von<br />

c A<br />

s-stufigem Runge-Kutta-Verfahren (→ Def. 2.3.1)<br />

b T :<br />

k i = λ(y 0 + h<br />

j=1<br />

s∑<br />

y 1 = y 0 + h b i k i<br />

i=1<br />

s∑<br />

a ij k j ) ,<br />

⇒<br />

( )( ) ( )<br />

I − zA 0 k 1<br />

−zb T = y<br />

1 y 0 ,<br />

1 1<br />

wobei k ∈ R s ˆ= Vektor (k 1 , ...,k s ) T /λ der Inkremente, y 1 := Ψ h λ y 0.<br />

Daraus ergibt sich die erste Darstellung von S(z), die zweite folgt aus der Cramerschen Regel.<br />

Falls det(I − zA) = 0:<br />

garantieren.<br />

Schrittweite nicht klein genug, um Lösbarkeit der Inkrementgleichungen zu<br />

Bemerkung 3.1.2 (Interpretation der Stabilitätsfunktion).<br />

Ψ h λ y = S(z)y = (1 + λhbT (I − λhA) −1 1)y<br />

Φ h λ = eλh<br />

Diskrete Evolution (Kontinuierliche) Evolution p. 225<br />

➣ S(z) ≈ exp(z): Stabilitätsfunktion = Approximation der Exponentialfunktion (um 0).<br />

△<br />

3.1<br />

✬<br />

Lemma 3.1.4 (Rationale Approximation der Exponentialfunktion).<br />

Ist S(z) = P(z)<br />

Q(z) , P,Q ∈ P s, s ∈ N, so gilt<br />

✫<br />

S(z) − exp(z) = O(|z| m ) für z → 0 ⇒ m ≤ 2s + 1 .<br />

Beweis: Indirekte Beweisführung, Annahme S(z) − exp(z) = O(|z| 2s+2 ) für z → 0:<br />

Ansatz:<br />

P(z) = p 0 + p 1 z + · · · + p s z s ,<br />

Q(z) = q 0 + q 1 z + · · · + q s z s , q 0 = 1, da O.B.d.A Q(0) = 1 .<br />

Q(z) exp(z) − P(z) = α 2s+2 z 2s+2 + α 2s+3 z 2s+3 + ... (global konvergente Potenzreihe) .<br />

Einsetzen der Exponentialreihe und Multiplikation, dann Koeffizientenvergleich ➢ lineares Gleichungssystem<br />

s∑<br />

j=0<br />

s∑<br />

j=0<br />

Dieses hat nur die triviale Lösung.<br />

q j<br />

1<br />

(i − j)! = 0 , i = s + 1,...,2s + 1 .<br />

q j<br />

1<br />

(i − j)! − p i = 0 , i = 0,...,s .<br />

Beispiel 3.1.3 (Stabilitätsfunktionen einiger RK-ESV).<br />

• Explizites Euler-Verfahren (1.4.2):<br />

0 0<br />

1<br />

➣ S(z) = 1 + z .<br />

✩<br />

✪<br />

✷<br />

3.1<br />

p. 227<br />

✬<br />

✩<br />

Korollar 3.1.3.<br />

Explizite Runge-Kutta-Verfahren ➤ S(z) ∈ P s ,<br />

Allgemeine Runge-Kutta-Verfahren ➤ S(z) = P(z)<br />

Q(z) , P,Q ∈ P s.<br />

✫<br />

Beweis. Aus der Determinantenformel von Thm. 3.1.2:<br />

✪<br />

• Implizites Eulerverfahren (1.4.9):<br />

• Explizite Trapezregel (2.3.2):<br />

1 1<br />

1<br />

0 0 0<br />

1 1 0<br />

1<br />

2 1 2<br />

➣ S(z) = 1<br />

1 − z .<br />

➣ S(z) = 1 + z + 1 2 z2 .<br />

Explizite Runge-Kutta-Verfahren ⇒ A echte untere Dreiecksmatrix ⇒ det(I − zA) = 1<br />

Allgemein ist z ↦→ det(I − zM), M ∈ R s,s , ein Polynom vom Grad s, wie aus der kombinatorischen<br />

Definition der Determinante folgt.<br />

✷<br />

Korollar (3.1.3) ➣ Ordnungsschranken für explizite/implizite RK-ESV, siehe Sect. 2.3.2<br />

3.1<br />

p. 226<br />

• Implizite Mittelpunktsregel (2.2.11): 1<br />

2<br />

1 21 ➣ S(z) = 1 + 1 2 z<br />

1 − 1 2 z .<br />

• RK4-Verfahren (2.3.7):<br />

0 0 0 0 0<br />

1<br />

2 1 2 0 0 0<br />

1<br />

2 0 1 2 0 0<br />

1 0 0 1 0<br />

1<br />

6 2 6 6 2 6<br />

1<br />

➣ S(z) = 1 + z + 1 2 z2 + 1 6 z3 + 1<br />

24 z4 .<br />

3.1<br />

p. 228


Beispiel 3.1.4 (Verhalten von Stabilitätsfunktionen).<br />

✸<br />

3<br />

2<br />

λ<br />

*<br />

Im<br />

1<br />

0<br />

−1<br />

−2<br />

λh ∋<br />

Verhalten von Stabilitätsfunktionen (für reelles Argument z):<br />

Bem. 3.1.2 ➣ wir erwarten, dass sich die Stabilitätsfunktionen in z = 0 an exp(z) “anschmiegen”,<br />

d.h., beiden Funktionen stimmen im Werte und einigen niedrigsten Ableitungen überein. Die<br />

Mindestzahl der übereinstimmenden Ableitungen ist gegeben durch die Konsistenzordnung des Einschrittverfahrens.<br />

Stabilitätsbedingte Schrittweitenbeschränkung<br />

für explizite RK-ESV angewandt<br />

auf (3.1.1):<br />

h < sup{t > 0: tλ ∈ S Ψ } . (3.1.4)<br />

Re(S(z))<br />

60<br />

50<br />

40<br />

30<br />

20<br />

10<br />

exp(z)<br />

Explicit Euler<br />

Classical RK4<br />

Implicit Euler<br />

Gauss−coll.−RK−ESV s=1<br />

Gauss−coll.−RK−ESV s=2<br />

Gauss−coll.−RK−ESV s=3<br />

Gauss−coll.−RK−ESV s=4<br />

Re(S(z))<br />

4<br />

3.5<br />

3<br />

2.5<br />

2<br />

1.5<br />

exp(z)<br />

Explicit Euler<br />

Classical RK4<br />

Implicit Euler<br />

Gauss−coll.−RK−ESV s=1<br />

Gauss−coll.−RK−ESV s=2<br />

Gauss−coll.−RK−ESV s=3<br />

Gauss−coll.−RK−ESV s=4<br />

−3<br />

−3 −2 −1 0 1 2 3<br />

Re<br />

Bemerkung 3.1.5 (RK-ESV für autonome homogene lineare ODE). siehe Sect. 1.3.2<br />

Was ist die Diskrete Evolution eines RK-ESV angewandt auf<br />

homogene, autonome, lineare ODE ẏ = Ay, A ∈ C d,d ?<br />

0<br />

−10<br />

−20<br />

−5 0 5<br />

z<br />

Fig. 81<br />

1<br />

0.5<br />

0<br />

−1 −0.5 0 0.5 1<br />

z<br />

3.1<br />

Fig. 82 p. 229<br />

➀ Annahme: A diagonalisierbar ⇔ ∃S ∈ C d,d regulär: S −1 AS = D := diag(λ 1 , ...,λ d )<br />

Folgerung aus Affin-Kovarianz von RK-ESV (→ Bem. 2.3.4):<br />

3.1<br />

p. 231<br />

✸<br />

Ist ̂Ψ die diskrete Evolution zu d dtŷ = Dŷ (entkoppelte skalare lineare ODE !), dann, mit ŷ := S−1 y,<br />

Beispiele: Stabilitätsgebiete S expliziter RK-ESV:<br />

Im<br />

2.5<br />

2<br />

1.5<br />

1<br />

0.5<br />

0<br />

−0.5<br />

−1<br />

−1.5<br />

−2<br />

Im<br />

3<br />

2<br />

1<br />

0<br />

−1<br />

−2<br />

Im<br />

3<br />

2<br />

1<br />

0<br />

−1<br />

−2<br />

⎛<br />

Ψ h ⎞ ⎛<br />

Ψ h y = ŜΨ h S −1 λ ŷ<br />

⎜ 1 1<br />

⎟<br />

y = S⎝<br />

. ⎠ = S ⎝ S(hλ ⎞<br />

1)<br />

. . . ⎠ŷ<br />

Ψ h λ ŷ<br />

d d S(hλ d )<br />

⎛<br />

= S⎝ P(hλ ⎞ ⎛ ⎛<br />

1)<br />

. . . ⎠S −1 ⎝S⎝ Q(hλ ⎞ ⎞−1<br />

1)<br />

. .. ⎠S −1 ⎠ y<br />

(<br />

P(hλ d )<br />

Q(hλ d )<br />

= SP(hD)S −1 SQ(hD)S −1) −1<br />

y = P(hA)Q(hA) −1 y = S(hA)y .<br />

−2.5<br />

Fig. 83<br />

−3 −2 −1 0 1 2 3<br />

Re<br />

S Ψ : expliziter Euler (2.2.1)<br />

✗<br />

✖<br />

−3<br />

Fig. 84<br />

−3 −2 −1 0 1 2 3<br />

Re<br />

S Ψ : explizite Trapezregel<br />

Mittelpunktsregel<br />

−3<br />

S Ψ :<br />

Das Stabilitätsgebiet expliziter RK-Verfahren ist beschränkt !<br />

−3 −2 −1 0 1 2 3<br />

Re<br />

Fig. 85<br />

RK4-Verfahren (2.3.7)<br />

Kuttas 3/8-Regel (2.3.8)<br />

✔<br />

✕<br />

wobei S(z) = P(z)/Q(z) ˆ= Stabilitätsfunktion (→ Thm. 3.1.2) des RK-ESV.<br />

➁ Allgemeine Matrix A ∈ C d,d mit Eigenwerten (mit Vielfachheit gezählt) λ 1 , ...,λ d ∈ C<br />

Aus der Schur-Zerlegung für Matrizen folgt, dass die diagonalisierbaren Matrizen in C d,d dicht liegen<br />

(bzgl. der von der Euklidischen Norm induzierten Matrixnorm). Ist σ(hA) ⊂ D S , dann gibt es eine<br />

Folge diagonalisierbarer Matrizen A n → A, n ∈ N, σ(hA n ) ⊂ D S , für die offensichtlich gilt<br />

3.1<br />

p. 230<br />

P(hA n ) → P(hA) , Q(hA n ) → Q(hA) .<br />

3.1<br />

p. 232


Wegen der Stetigkeit der Matrixinversion A ↦→ A −1 auf GL(d) := {M ∈ C d,d : M regulär} folgt<br />

damit<br />

S(hA n ) = P(hA n )Q(hA n ) −1 → P(hA)Q(hA) −1 = S(hA) . (3.1.5)<br />

Ist nun Ψ h n die diskrete Evolution zu ẏ = A ny, so gilt<br />

Ψ h y = lim<br />

n→∞ Ψh ny = ➀ lim<br />

n→∞ S(hA n)y (3.1.5)<br />

= S(hA) .<br />

Für alle oben eingeführten Matrixfunktionen gilt, vgl. 1.3.7,<br />

A = S −1 BS ⇒ f(A) = S −1 f(B)S ∀A,B ∈ C d,d , S ∈ C d,d regulär . (3.1.7)<br />

Für das Spektrum gilt<br />

σ(f(A)) = f(σ(A)) := {f(λ): λ ∈ σ(A)} . (3.1.8)<br />

△<br />

Ψ h y = S(hA)y ∀y ∈ C d . (3.1.6)<br />

3.2 Vererbung asymptotischer Stabilität<br />

Bemerkung 3.1.6 (Funktionenkalkül für Matrizen).<br />

△<br />

Betrachte: Autonomes AWP ẏ = f(y), f ∈ C 1 (D, R d ), D ⊂ R d offen.<br />

Für A ∈ R d,d :<br />

3.1<br />

p. 233<br />

Definition 3.2.1 (Fixpunkt).<br />

y ∗ ist Fixpunkt (stationärer Punkt) von ẏ = f(y), falls f(y ∗ ) = 0.<br />

3.2<br />

p. 235<br />

Klar ist p(A) =<br />

s∑<br />

c j A j<br />

j=1<br />

Für rationale Funktion<br />

s∑<br />

falls q j A j invertierbar.<br />

j=1<br />

∑<br />

für Polynom p ∈ P s , p(z) = s c j z j .<br />

j=1<br />

s∑<br />

p j z j<br />

⎛ ⎞<br />

j=1<br />

s∑<br />

R(z) =<br />

R(A) = ⎝ q s∑<br />

j A ⎠−1 ⎛<br />

j ⎝<br />

q j z j j=1<br />

j=1<br />

∑<br />

Ist f(z) = ∞ a j z j eine Potenzreihe mit Konvergenzradius ρ > 0, so ist<br />

i=0<br />

f(A) :=<br />

s∑<br />

j=1<br />

∞∑<br />

a j A j wohldefiniert für ‖A‖ < ρ .<br />

i=0<br />

p j A j ⎞<br />

⎠ ,<br />

So lassen sich transzendente Funktionen von Matrizen, wie etwa die Matrixexponentialfunktion<br />

(1.3.6) definieren.<br />

3.1<br />

p. 234<br />

Definition 3.2.2 (Asymptotische Stabilität eines Fixpunkts).<br />

Fixpunkt y ∗ ∈ D asymptotisch stabil (attraktiv)<br />

:⇔ ∃δ > 0: ‖y 0 − y ∗ ‖ < δ ⇒ R + 0 ⊂ J(y 0) ∧ lim<br />

t→∞ y(t) = y∗ ,<br />

wobei y(t) Lösung des AWP ẏ = f(y), y(0) = y 0 .<br />

L¨soungskurven der ODE<br />

ẏ = −y(1 − y)(1 + y)<br />

y ∗ = 0 ist asymptotisch stabiler (attraktiver) Fixpunkt,<br />

y ∗ = ±1 sind instabile (repulsive) Fixpunkte<br />

(→ Bsp. 1.2.1)<br />

✄<br />

y(t)<br />

2<br />

1.5<br />

1<br />

0.5<br />

−0.5<br />

−1<br />

−1.5<br />

−2<br />

d t<br />

y = −y(1−y)(1+y)<br />

y ∗ y ∗ Fig. 86<br />

0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2<br />

t<br />

3.2<br />

p. 236


✬<br />

Theorem 3.2.3 (Hinreichende Bedingung für asymptotische Stabilität).<br />

Fixpunkt y ∗ ∈ D ist asymptotisch stabil, falls<br />

σ(Df(y ∗ )) ⊂ C − := {z ∈ C: Re z < 0} .<br />

✫<br />

✩<br />

✪<br />

Mit Hilfe der Jordan-Normalform, siehe oben:<br />

∀β ∈] max{Reλ : λ ∈ σ(Df(0))} , 0[: ∃C = C(β) > 0:<br />

} {{ }<br />

‖exp(Df(0)t)‖ ≤ Ce βt ∀t ∈ R .<br />

0. Dazu gibt es ǫ > 0:<br />

‖r(y)‖ ≤ − β<br />

2C ‖y‖, wenn ‖y‖ < ǫ<br />

✎ Notation: σ(A) := {λ : λ ist Eigenwert von A} ˆ= Spektrum einer Matrix<br />

Hilfsmittel: Matrixexponentialfunktion (1.3.6), Jordan-Normalform von A ∈ C d,d :<br />

∃S ∈ C d,d regulär: S −1 AS = diag(J 1 , ...,J m ) ,<br />

mit Jordan-Blöcken der Form (λ ∈ σ(A))<br />

⎛<br />

⎞<br />

λ 1 0 . .. ... 0<br />

0 λ 1 0 .<br />

J k =<br />

.<br />

⎜<br />

.. . ..<br />

⎟<br />

⎝ λ 1⎠ = λI + N k ∈ C d k,d k, dk ∈ {1, ...,d} .<br />

λ<br />

Annahme: ‖y(t)‖ < ǫ für 0 < t < δ. Damit für 0 ≤ t < δ aus (3.2.1)<br />

∫ t<br />

‖y(t)‖ ≤ Ce βt ‖y 0 ‖ − β 2 e β(t−τ) ‖y(τ)‖ dτ ,<br />

0<br />

∫ t<br />

e |β|t ‖y(t)‖ ≤ C ‖y 0 ‖ + |β|<br />

2 e |β|τ ‖y(τ)‖ dτ<br />

0<br />

Benutze:<br />

Gronwalls Lemma (Lemma 1.3.7) für u(t) := e |β|t ‖y(t)‖<br />

‖y(t)‖ ≤ C ‖y 0 ‖ exp(− |β|<br />

2<br />

Nun sieht man, dass die Annahme ‖y(t)‖ < ǫ erfüllt ist, wenn ‖y 0 ‖ <<br />

t) ∀0 ≤ t < δ . (3.2.2)<br />

ǫ<br />

max{C, 1} .<br />

Unter dieser Bedingung gilt (3.2.2) für alle t ≥ 0 und auch R + 0 ⊂ J(y 0) mit Thm. 1.3.4.<br />

✷<br />

N k ∈ C d k,d k sind nilpotente Matrizen: N<br />

d k = 0 3.2<br />

p. 237<br />

Wegen (1.3.7) genügt es exp(J) für einen generischen Jordan-Block J ∈ C n,n zu betrachten:<br />

∞∑<br />

∞∑ k∑<br />

(<br />

exp(J) = (λI + N) k k<br />

= N<br />

l)<br />

l λ k−l =<br />

Also finden wir<br />

k=0<br />

k=0 l=0<br />

n−1 ∑<br />

l=0<br />

N l<br />

l!<br />

∞∑ λ k−l n−1<br />

(k − l)! = ∑<br />

eλ<br />

k=l<br />

l=0<br />

exp(At) = S exp(Dt)P(t)S −1 , D = diag(λ 1 , ...,λ d ) ,<br />

mit einem Matrixpolynom P vom Grad < d, λ 1 ,...,λ d ˆ= Eigenwerte von A (mit Vielfachheit<br />

gezählt).<br />

Beweis. (von Thm.3.2.3) → [5, Satz 3.30], O.B.d.A. y ∗ = 0<br />

N l<br />

l!<br />

.<br />

✬<br />

✩<br />

Asymptotische Stabilität eines Fixpunktes y ∗ folgt aus der asymptotischen Stabilität des Fixpunktes<br />

y ∗ der um y ∗ linearisierten ODE<br />

ẏ = Df(y ∗ )(y − y ∗ ) . (3.2.3)<br />

✫<br />

✪<br />

Betrachte: (Konsistentes) RK-ESV für autonome ODE ẏ = f(y) (→ Def. 2.3.1)<br />

s∑<br />

s∑<br />

k i := f(y + h a ij k j ) , i = 1, ...,s , Ψ h y := y + h b i k i . (3.2.4)<br />

j=1<br />

i=1<br />

s∑<br />

Hinreichend: b i = 1, Lemma 2.3.2<br />

i=1<br />

3.2<br />

p. 239<br />

Linearisierung, siehe Bem. 1.3.5:<br />

f(y) = Df(0)y + r(y) , ‖r(y)‖ = o(‖y‖) für y → 0 .<br />

y(t) ˆ= Lösung des AWP zu Anfangswert y 0 , t ∈ J(y 0 ). Variation-der-Konstanten-Formel, siehe<br />

Sect. 1.3.2:<br />

∫ t<br />

y(t) = exp(Df(0)t)y 0 + exp(Df(0)(t − τ))r(y(τ)) dτ . (3.2.1)<br />

0<br />

3.2<br />

p. 238<br />

Annahme: h hinreichend klein für Wohldefiniertheit des ESV für y ”<br />

nahe bei” y ∗ , → Lemma. 2.2.1.<br />

Ψ h y ∗ = y ∗ . (3.2.5)<br />

3.2<br />

p. 240


✬<br />

Theorem 3.2.4 (Asymptotische Stabilität von Fixpunkten diskreter dynamischer Systeme).<br />

Sei Π : D ⊂ R d ↦→ R d stetig differenzierbar und Π(y ∗ ) = y ∗ für ein y ∗ ∈ D. Dann gilt<br />

ρ(DΠ(y ∗ )) < 1 ⇒ y ∗ ist asymptotisch stabiler Fixpunkt von y k+1 := Π(y k ) .<br />

✫<br />

✎ Notation: ρ(A) := max{|λ| : λ ∈ σ(A)} ˆ= Spektralradius einer Matrix<br />

✩<br />

✪<br />

Schreibe: K i := D y k i (y ∗ ) ∈ R d,d<br />

s∑<br />

s∑<br />

K i = Df(y ∗ ) · (I + h a ij K j ) , D y (Ψ h (y))(y ∗ ) = I + h b i K i .<br />

i=1<br />

i=1<br />

ˆ= 1. Schritt des RK-ESV für Matrix-AWP Ẏ = Df(y ∗ )Y, Y(0) = I ˆ= Variationsgleichung (1.3.20)<br />

zur konstanten Lösung y(t) = y ∗ . Dann Anwendung von (3.1.6) aus Bem. 3.1.5<br />

✬<br />

✩<br />

Lemma 3.2.5 (Den Spektralradius approximierende Matrixnorm). → [9, Sect. 2.9.3]<br />

Zu jeder Matrix A ∈ C d,d und jedem ǫ > 0 gibt es eine Vektornorm ‖·‖ A,ǫ auf R d so, dass für<br />

die induzierte Matrixnorm gilt<br />

Für RK-ESV: D y (Ψ h (y))(y ∗ ) = S(hDf(y ∗ )) . (3.2.7)<br />

ρ(A) ≤ ‖A‖ A,ǫ ≤ ρ(A) + ǫ .<br />

✬<br />

✩<br />

✫<br />

✪<br />

f(y ∗ ) = 0 ⇒ Ψ h y ∗ = y ∗<br />

Der Beweis stützt sich auf die Schur-Normalform von A<br />

⇓<br />

y(h) ≈ (y 0 − y ∗ )exp(Df(y ∗ )h) + y ∗ ↔ Ψ h y ≈ (y 0 − y ∗ )S(hDf(y ∗ )) + y ∗ p. 243<br />

Beweis von Thm. 3.2.4. Nach Lemma 3.2.5 gibt es eine Norm auf R d so, dass ‖DΠ(y ∗ )z‖ ≤ 1 2 (1 +<br />

ρ(DΠ(y ∗ ))) ‖z‖ ∀z ∈ R d . Also nach Definition der Induzierten Matrixnorm<br />

y k+1 − y ∗ = Π(y k ) − Π(y ∗ ) = DΠ(y ∗ )(y k − y ∗ ) + g(y k − y ∗ ), ‖g(y k − y ∗ )‖ = o(‖y k − y ∗ ‖) . p. 241<br />

3.2<br />

✫<br />

✪<br />

3.2<br />

✬<br />

✩<br />

Wähle δ > 0 so, dass ‖g(y k − y ∗ )‖ ≤ 3 1(1 − ρ(DΠ(y∗ ))) ‖y k − y ∗ ‖, wenn ‖y k − y ∗ ‖ ≤ δ.<br />

( )<br />

‖y k+1 − y ∗ ‖ ≤ 12 (1 + ρ(DΠ(y ∗ ))) + 1 3 (1 − ρ(DΠ(y∗ ))) ‖y k − y ∗ ‖<br />

≤ ( 6 5 + 1 6 ρ(DΠ(y∗ ))) ‖y<br />

} {{ } k − y ∗ ‖ .<br />

< 1<br />

✷<br />

Theorem 3.2.6 (Vererbung asymptotischer Stabilität).<br />

Ein asymptotisch stabiler Fixpunkt y ∗ ∈ D von ẏ = f(y) (→ Def. 3.2.2), ist auch ein solcher<br />

der zugehörigen diskreten Evolution eines RK-ESV mit Stabilitätsgebiet S Ψ , wenn<br />

hσ(Df(y ∗ )) ⊂ S Ψ .<br />

✫<br />

✪<br />

Beweis. Aus (3.2.7) und (3.1.8):<br />

☞ Für diskrete Evolution Ψ h : Untersuche die Jacobi-Matrix D y (Ψ h y) für y = y ∗ !<br />

D y (Ψ h y) für Runge-Kutta-Einschrittverfahren durch implizites Differenzieren der Inkrementgleichungen<br />

(3.2.4):<br />

s∑<br />

s∑<br />

D y k i = Df(y + h a ij k j ) · (I + h a ij D y k j ) ,<br />

Beachte: für y = y ∗ ➢ k i = 0<br />

i=1<br />

D y (Ψ h y) = I + h<br />

i=1<br />

s∑<br />

b i D y k i .<br />

i=1<br />

ρ(D y Φ h (y)) = max{|S(hλ)| : λ ∈ σ(Df(y ∗ ))}<br />

wenn hσ(Df(y ∗ )) ⊂ S Ψ . Dann wende Thm. 3.2.4 an.<br />

★<br />

✧<br />

= max{|S(z)| : z ∈ hσ(Df(y ∗ ))} < 1 ,<br />

Explizite RK-ESV : Schrittweitenbeschränkung für Vererbung<br />

von Stabilität eines Fixpunktes (→ (3.1.4))<br />

✥<br />

✦<br />

✷<br />

D y k i (y ∗ ) = Df(y ∗ ) · (I + h<br />

s∑<br />

a ij D y k j (y ∗ )) .<br />

i=1<br />

3.2<br />

p. 242<br />

Für welche Verfahren entfällt Schrittweitenbeschränkung ?<br />

3.2<br />

p. 244


Definition 3.2.7 (A-stabiles Einschrittverfahren).<br />

ESV A-stabil :⇔ C − := {z ∈ C: Re z < 0} ⊂ S Ψ (S Ψ = Stabilitätsgebiet,<br />

Def. 3.1.1)<br />

Aus Thm. 3.2.6: für A-stabile ESV (mit diskreter Evolution Ψ h )<br />

Autonome Dgl. ẏ = f(y) ,<br />

Fixpunkt f(y ∗ ) = 0<br />

Beispiel 3.2.1 (Einfache A-stabile RK-ESV).<br />

∧<br />

σ(Df(y ∗ )) ⊂ C −<br />

(ˆ= asymp. Stabilität von y ∗ )<br />

⇒<br />

Falls ‖y 0 − y ∗ ‖ < δ,<br />

(<br />

dann lim Ψ h) k<br />

y0 = y ∗ .<br />

k→∞<br />

Im<br />

3<br />

2<br />

1<br />

0<br />

−1<br />

−2<br />

−3<br />

−3 −2 −1 0 1 2 3<br />

Re<br />

Fig. 88<br />

implizite Mittelpunktsregel (1.4.11)<br />

Stabilitätsfunktion (→ Thm. 3.1.2)<br />

S(z) = 1 + 1 2 z<br />

1 − 1 2 z .<br />

✁ Stabilitätsgebiet S Ψ (→ Def. 3.1.1)<br />

✸<br />

3<br />

3.2<br />

p. 245<br />

3.3 Nichtexpansivität [5, Abschn. 6.3.3]<br />

3.3<br />

Betrachte: Autonomes AWP ẏ = f(y), f ∈ C 1 (D, R d ), D ⊂ R d offen. p. 247<br />

Sei M ∈ R d,d s.p.d. ➣ Norm ‖y‖ M := (y T My) 1/2 auf R d .<br />

Im<br />

2<br />

1<br />

0<br />

−1<br />

−2<br />

Implizites Eulerverfahren (1.4.9)<br />

Stabilitätsfunktion (→ Thm. 3.1.2)<br />

S(z) = 1<br />

1 − z .<br />

✁ Stabilitätsgebiet S Ψ (→ Def. 3.1.1)<br />

Definition 3.3.1 (Nichtexpansivität).<br />

Eine Evolution Φ t zu einer autonomen Dgl. bzw. eine diskrete Evolution Ψ h zu einem zugehörigen<br />

Einschrittverfahren heisst nichtexpansiv, falls<br />

∥<br />

∥Φ t y − Φ t ỹ∥ ≤ ‖y − ỹ‖ M M ,<br />

∥<br />

∥Ψ h y − Ψ h ∀y,ỹ ∈ D ,<br />

ỹ∥ ≤ ‖y − ỹ‖ M M<br />

und für alle t ∈ J(y) ∩ J(ỹ) ∩ R + 0 und alle hinreichend kleinen” h > 0.<br />

”<br />

−3<br />

−3 −2 −1 0 1 2 3<br />

Re<br />

Fig. 87<br />

Beispiel 3.3.1 (Gradientenfluss ➞ ”<br />

Kriechvorgänge”).<br />

C 1 -Potential V : R d ↦→ R konvex (V (ξx + (1 − ξ)y) ≤ ξV (x) + (1 − ξ)V (y), 0 ≤ ξ ≤ 1)<br />

⇒ (gradV (x) − gradV (y)) T (x − y) ≥ 0 ∀x,y ∈ R d .<br />

3.2<br />

p. 246<br />

Dies folgt aus der Monotonie der Ableitung von τ ↦→ V (y + τ(x − y))<br />

3.3<br />

p. 248


✬<br />

✩<br />

40<br />

30<br />

20<br />

10<br />

0<br />

2<br />

1.5<br />

1<br />

0.5<br />

∥<br />

χ(t) := ∥Φ t y − Φ t ỹ∥ 2 2<br />

0<br />

−0.5<br />

−1<br />

−1.5<br />

x<br />

−2<br />

−2<br />

1<br />

x 2 Fig. 89<br />

➣ Nichtexpansivität mit M = I.<br />

Nichtexpansivität einer Evolution:<br />

−1<br />

0<br />

1<br />

2<br />

Gradientenfluss-AWP:<br />

ẏ(t) = −gradV (y(t)) ,<br />

y(0) = y 0 ∈ R d .<br />

(3.3.1)<br />

⇒ ˙χ(t) = −2 (grad V (Φ t y) − gradV (Φ t ỹ)) T (Φ t y − Φ t ỹ) ≤ 0 .<br />

} {{ }<br />

≥0<br />

äquivalente Charakterisierung<br />

✸<br />

3.3<br />

p. 249<br />

Theorem 3.3.4 (Gauss-Kollokations-RK-ESV nichtexpansiv).<br />

Die diskreten Evolutionen zu Gauss-Kollokations-RK-ESV (→ Sect. 2.2.2) erben die Nichtexpansivität<br />

der (exakten) Evolution.<br />

✫<br />

Beweis von Thm. 3.3.4. Betrachte Gauss-Kollokations-ESV mit s Knoten:<br />

y h (t),ŷ h (t) ∈ P s ˆ= Kollokationspolynome zu Anfangswerten y 0 bzw. ỹ 0 , siehe Sect. 2.2.1<br />

Ψ h y 0 = y h (h) , Ψ h ỹ 0 = ỹ h (h) .<br />

d(τ) := ‖y h (τh) − ỹ h (τh)‖ 2 M ist Polynom in τ vom Grad ≤ 2s .<br />

Nichtexpansivität von Ψ h is äquivalent zu<br />

∥ ∫<br />

∥<br />

∥Ψ h y 0 − Ψ h ∥∥ 2<br />

1<br />

∫ 1<br />

ỹ 0 = d(1) = d(0) + d ′ (τ) dτ = ‖y 0 − ỹ 0 ‖ 2<br />

M<br />

M + d ′ (τ) dτ . (3.3.2)<br />

} 0 {{ }<br />

0<br />

!<br />

Ziel ≤ 0<br />

Gauss-Quadratur (mit s Knoten) ist exakt für Polynome ∈ P 2s−1<br />

∫ 1 s∑<br />

d ′ (τ) dτ = b j d ′ (c j ) . (3.3.3)<br />

0<br />

j=1<br />

✪<br />

3.3<br />

p. 251<br />

Definition 3.3.2 (Dissipatives Vektorfeld).<br />

f : D ⊂ R d ↦→ R d dissipativ :⇔ M(f(y) − f(ỹ)) · (y − ỹ) ≤ 0 ∀y,ỹ ∈ D .<br />

Dies ist eine Verallgemeinerung der Eigenschaft ”<br />

monoton fallend” von skalarwertigen Funkionen.<br />

Ableitung aus der Kettenregel:<br />

d ′ (τ) = 2hM(y h (τh) − ỹ h (τh)) · (ẏ h (τh) − ˙ỹ h (τh)) . (3.3.4)<br />

Aus Kollokationsbedingungen (2.2.1):<br />

ẏ h (c j h) = f(y h (c j h)) , ˙ỹh (c j h) = f(ỹ h (c j h)) , j = 1, ...,s .<br />

✬<br />

Lemma 3.3.3 (Bedingung für Nichtexpansivität einer Evolution).<br />

✫<br />

Beweis.<br />

Rechte Seite f dissipativ<br />

⇔ Nichtexpansivität der Evolution<br />

zur autonomen ODE ẏ = f(y)<br />

✩<br />

✪<br />

(3.3.4)<br />

d ′ (c j ) = 2hM(y h (c j h) − ỹ h (c j h)) · (f(y h (c j h)) − f(ỹ h (c j h))) ≤ 0 , (3.3.5)<br />

da f dissipativ ⇔ Nichtexpansivität von Φ t , vgl Lemma 3.3.3.<br />

(3.3.2), (3.3.3), (3.3.5) ⇒ Behauptung, da Gewichte b j der Gauss-Quadraturformeln positiv !. ✷<br />

Nichtexpansivität ⇔ ψ(t) := ‖y(t) − ỹ(t)‖ 2 M monoton fallend<br />

⇔<br />

dψ<br />

dt (t) = M(y(t) − ỹ(t)) · (ẏ(t) − ˙ỹ(t)) ≤ 0<br />

⇔ M(y(t) − ỹ(t)) · (f(y(t)) − f(ỹ(t))) ≤ 0 .<br />

✬<br />

Lemma 3.3.5 (Diskrete Nichtexpansivität ⇒ A-Stabilität).<br />

Nichtexpansivität (→ Def. 3.3.1) erbende RK-ESV (→ Def. 2.3.1) sind A-stabil (→ Def. 3.2.7).<br />

✫<br />

✩<br />

✪<br />

3.3<br />

p. 250<br />

3.3<br />

p. 252


0.4<br />

0.9<br />

0.9<br />

1 1 1<br />

Beweis. Skalare komplexe Dlg. ↔ reelle Dlg. in D = R 2 : für beliebiges λ = α + iβ ∈ C<br />

( ( ) ( (<br />

˙u˙v)<br />

ẏ = λy y=u+iv α −β u u<br />

⇔ =<br />

↔ ẏ = f(y) mit y := .<br />

β α v)<br />

v)<br />

} {{ }<br />

=:A<br />

Re λ < 0 ⇒ α < 0 ⇒ x T Ax = α ‖x‖ 2 ≤ 0 ∀x ∈ R 2<br />

⇒ rechte Seite f(y) = Ay ist dissipativ (→ Def. 3.3.2)<br />

⇒ Evolution nichtexpansiv, siehe Lemma 3.3.3.<br />

(“Vererbung”)<br />

⇒<br />

Diskrete Evolution Ψ h nichtexpansiv<br />

∥<br />

∥Ψ h y∥ = |S(hλ)||y| ≤ ‖y‖ 2 2 = |y| ⇒ |S(z)| ≤ 1 ∀z ∈ C − .<br />

Logistische Differentialgleichung ẏ = f(y),<br />

f(y) = λy(1 − y) → (2.2.12), λ = 50, Anfangswert<br />

y 0 = 10 −4 , Zeitintervall [0, 1].<br />

Kollokations-Einschrittverfahren (→ Abschnitt<br />

2.2) auf äquidistantem Gitter,<br />

h = 20 1 . y(t)<br />

0.2<br />

s=1<br />

s=2<br />

s=3<br />

s=4<br />

0<br />

0 0.2 0.4 0.6 0.8 1<br />

y<br />

1<br />

0.8<br />

0.6<br />

0.4<br />

t<br />

Fig. 93<br />

✸<br />

⇒ C − ⊂ S Ψ (Stabilitätsgebiet → Def. 3.1.1) . ✷<br />

Bemerkung 3.3.4 (A-Stabilität ⇏ Diskrete Nichtexpansivität ).<br />

Gegenbeispiel:<br />

implizite Trapezregel, Einschrittverfahren für ẏ = f(t,y) definiert durch<br />

✓<br />

✒<br />

Alle Gaus-Kollokations-ESV sind A-stabil<br />

Bemerkung 3.3.2 (Lösbarkeit der Inkrementgleichungen für Gauss-Kollokations-ESV).<br />

✏<br />

✑<br />

3.3<br />

p. 253<br />

y 1 = y 0 + 1 2 h(f(t,y 0) + f(t + h,y 1 )) ↔<br />

angewandt auf skalare autonome ODE ẏ =<br />

{<br />

−y 3 für y < 0 ,<br />

−y 2 für y ≥ 0 .<br />

Butcher-Schema<br />

0 0 0<br />

1 1/2 1/2<br />

1/2 1/2<br />

→ Übungsaufgabe<br />

3.3<br />

p. 255<br />

Die Inkrementgleichungen eines Gauss-Kollokations-RK-ESV für eine nichtexpansive<br />

autonome ODE sind für jedes h > 0 eindeutig lösbar →[15, Sect. IV.14].<br />

△<br />

△<br />

Bemerkung 3.3.5 (B-Stabiliät).<br />

Stabilitätsgebiete von Gauss-Kollokations-Einschrittverfahren:<br />

Im<br />

5<br />

4<br />

3<br />

2<br />

1<br />

0<br />

−1<br />

−2<br />

−3<br />

−4<br />

−5<br />

0.4<br />

0.7<br />

0.7<br />

0.4<br />

0.4<br />

0.7<br />

0.7<br />

0.9<br />

0.9<br />

1 1 1<br />

1.1<br />

−6 −4 −2 0 2 4 6<br />

Re<br />

1.1<br />

1.1<br />

1.5<br />

1.5<br />

1.5<br />

1.5<br />

Fig. 90<br />

Implizite Mittelpunktsregel<br />

Vermutung (Beweis später):<br />

Im<br />

20<br />

15<br />

10<br />

5<br />

0<br />

−5<br />

−10<br />

−15<br />

−20<br />

0.7<br />

0.4<br />

0.7<br />

0.4<br />

0.9<br />

0.7<br />

0.4<br />

0.7<br />

0.9<br />

1.1<br />

−20 −10 0 10 20<br />

Re<br />

s = 2 (Ordnung 4)<br />

1.5<br />

1.1<br />

1.1<br />

1.5<br />

1.5<br />

1.5<br />

Fig. 91<br />

Im<br />

50<br />

40<br />

30<br />

20<br />

10<br />

0<br />

−10<br />

−20<br />

−30<br />

−40<br />

0.4<br />

0.4<br />

0.7<br />

0.7<br />

0.4<br />

0.4<br />

0.9<br />

0.7<br />

0.9<br />

0.7<br />

−50<br />

−60 −40 −20 0 20 40<br />

Fig. 9260<br />

Re<br />

s = 4 (Ordnung 8)<br />

Niveaulinien von |S(z)| für Gauss-Kollokations-Einschrittverfahren<br />

S Ψ = C −<br />

Beispiel 3.3.3 (Gauss-Kollokationsverfahren für logistische Differentialgleichung). → Bsp. 3.0.11, 3.3<br />

1.4.9 p. 254<br />

1 1 1<br />

0.9 1.5 1.1<br />

1.1<br />

1.1<br />

1.5<br />

1.5<br />

1.5<br />

1.5<br />

Einschrittverfahren, die die Nichtexpansivität der Evolution zu einer ODE erben, heissen auch B-stabil<br />

[15, Sect. IV.12].<br />

Ein algebraisches Kriterium für B-Stabilität:<br />

Definition 3.3.6 (Algebraische Stabilität).<br />

Ein Runge-Kutta-Einschrittverfahren (→ Def. 2.3.1) mit Butcher-Schema c A bT , siehe (2.3.4),<br />

ist algebraisch stabil, falls<br />

(i) b i ≥ 0, i = 1, ...,s,<br />

(ii) und die Matrix M := diag(b 1 ,...,b s )A −A T diag(b 1 , ...,b s ) −bb T positiv semi-definit<br />

ist.<br />

△<br />

3.3<br />

p. 256


✬<br />

Theorem 3.3.7 (Kriterium für B-Stabilität).<br />

Algebraische Stabilität ⇒ B-Stabilität<br />

✫<br />

✩<br />

✪<br />

Beispiel 3.4.2 (Implizite RK-ESV bei schnellen Transienten). → Bsp. 3.5.3<br />

AWP: ẏ = −λy + β sin(2πt) , λ = 10 6 , β = 10 6 , y(0) = 1 .<br />

RK-ESV, äquidistantes Gitter auf [0, 1], h = 1<br />

40 :<br />

3.4 Gleichmässige Stabilität<br />

Re(S(z))<br />

1<br />

0.8<br />

0.6<br />

0.4<br />

0.2<br />

0<br />

−0.2<br />

exp(z)<br />

Impliziter Euler<br />

Gauss−Koll.−RK−ESV s=1<br />

Gauss−Koll.−RK−ESV s=2<br />

Gauss−Koll.−RK−ESV s=3<br />

Gauss−Koll.−RK−ESV s=4<br />

y<br />

4<br />

3<br />

2<br />

1<br />

0<br />

y(t)<br />

Impliziter Euler<br />

Kollokations RK−ESV s=1<br />

Kollokations RK−ESV s=2<br />

Kollokations RK−ESV s=3<br />

Kollokations RK−ESV s=4<br />

Beispiel 3.4.1 (Gauss-Kollokations-ESV bei stark attraktiven Fixpunkten). → Bsp. 3.5.1<br />

−0.4<br />

−0.6<br />

−1<br />

−0.8<br />

−2<br />

−1<br />

−1000 −800 −600 −400 −200 0<br />

z<br />

Fig. 95<br />

Stabilitätsfunktionen für Re z ≪ 1<br />

−3<br />

0 0.2 0.4 0.6 0.8 1<br />

t<br />

Fig. 96<br />

Diskrete Evolutionen (Zeitverlauf)<br />

3.4<br />

p. 257<br />

➣ Ungenügende Dämpfung der Anfangsstörung bei Kollokations-RK-ESV !<br />

(Oszillationen für ungerades s ➞ vgl. Stabilitätsfunktionen, lim<br />

Rez→−∞ S(z) = (−1)s )<br />

3.4<br />

p. 259<br />

ODE mit stark attraktivem Fixpunkt y = 1:<br />

ẏ = λy 2 (1 − y) ,<br />

λ = 500 , y(0) = 1<br />

100 .<br />

Qualitatives Verhalten von<br />

Gauss-Kollokations-ESV (→ Abschnitt 2.2)<br />

auf äquidistantem Gitter<br />

✄<br />

y<br />

1.4<br />

1.2<br />

1<br />

0.8<br />

0.6<br />

0.4<br />

0.2<br />

Äquidistantes Gitter, h=0.016667<br />

y(t)<br />

Gauss−Koll., s= 1<br />

Gauss−Koll., s= 2<br />

➣ Explizites Euler-Verfahren (1.4.2): sofortige Relaxation der diskreten Lösung !<br />

Klar, denn<br />

lim S(z) = 0 für explizites Euler-Verfahren.<br />

Rez→−∞<br />

✸<br />

Sect. 3.1: Stabilitätsfunktion S(z) ←→ exp(z)<br />

➣<br />

Falsche Oszillationen bei Gauss-Kollokations-ESV niedriger Ordnung<br />

0<br />

0 0.2 0.4 0.6 0.8 1<br />

t<br />

Fig. 94<br />

Erklärung: Für Gauss-Kollokations-ESV gilt S(z) ≈ ±1 für |z| → ∞, so dass der Fixpunkt der diskreten<br />

Evolution zwar anziehend bleibt, aber die diskrete Lösung (im Gegensatz zur kontinuierlichen)<br />

nur noch langsam (und oszillatorisch für ungerades s) gegen ihn konvergiert.<br />

Weitere Demonstration → Bsp. 3.4.2<br />

Utopie (für RK-ESV): S(−∞) = 0 , S(∞) = ∞<br />

(von keiner rationalen Funktion erfüllbar !)<br />

Bescheidener Wunsch (bei stark attrativen Fixpunkten, schnellen Relaxationen): S(−∞) = 0<br />

Definition 3.4.1 (L-Stabilität).<br />

ESV L-stabil :⇔ {z ∈ C: Re z < 0} ⊂ S Ψ & lim<br />

Rez→−∞ |S(z)| = 0<br />

✸<br />

3.4<br />

p. 258<br />

Kurz: L-stabil :⇔ A-stabil & ”<br />

S(−∞) = 0” p. 260<br />

3.4


Wie findet man L-stabile RK-ESV ?<br />

Existenz ist zu fordern<br />

Thm. 3.1.2 ⇒ S(−∞) = 1 − b T A −1 1 . (3.4.1)<br />

Falls b T = a<br />

T·,j (Zeile von A) ⇒ S(−∞) = 0 . (3.4.2)<br />

charakterisiert steif-genaue (engl. stiffly accurate) RK-ESV<br />

Bemerkung 3.4.3 (Invertierbarkeit der Koeffizientenmatrix von RK-ESV).<br />

Für jedes Kollokationsverfahren (→ Sect. 2.2.1) ist die Koeffizientenmatrix (Butcher-Matrix) A nichtsingulär<br />

Beweis. Es sei x ∈ R s mit Ax = 0<br />

(2.2.3)<br />

⇒<br />

s∑<br />

a ij x j =<br />

j=1<br />

s∑ ∫ i<br />

x j L j (τ) dτ = 0 , i = 1,...,s ,<br />

0c<br />

j=1<br />

mit den Lagrange-Polynomen L i ∈ P s−1 aus (2.2.2).<br />

s∑<br />

q := x j L j<br />

j=1<br />

erfüllt:<br />

∫ c i<br />

c i−1<br />

q(τ) dτ = 0 , i = 1, ...,s (c 0 := 0) .<br />

⇒ q ∈ P s−1 hat s Nullstellen in [0, 1] ⇒ q = 0 ⇒ x = 0. ✷ △<br />

3.4<br />

p. 261<br />

order of quadrature rule<br />

23<br />

21<br />

19<br />

17<br />

15<br />

13<br />

11<br />

9<br />

7<br />

5<br />

3<br />

1<br />

Nodes for Gauss−Radau quadrature rules<br />

0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1<br />

node position x<br />

Knoten: Radau-Quadraturformeln<br />

Fig. 97<br />

size of weight<br />

0.8<br />

0.7<br />

0.6<br />

0.5<br />

0.4<br />

0.3<br />

0.2<br />

0.1<br />

Weights for Gauss−Radau quadrature rules<br />

order = 3<br />

order = 5<br />

order = 7<br />

order = 9<br />

order = 11<br />

order = 13<br />

order = 15<br />

order = 17<br />

order = 19<br />

order = 21<br />

order = 23<br />

0<br />

0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1<br />

node position x<br />

Gewichte: Radau-Quadraturformeln<br />

Implizite s-stufige L-stabile Radau-ESV, Konvergenzordnung 2s − 1 (→ Thm. 2.2.8)<br />

4− √ 6 88−7 √ 6 296−169 √ 6 −2+3 √ 6<br />

1 5<br />

1 1<br />

3 12 −12<br />

1<br />

10 360 1800 225<br />

1<br />

1 3 4+ √ 6 296+169 √ 6 88+7 √ 6 −2−3 √ 6<br />

1<br />

10 1800 360 225<br />

4 4<br />

16− √ 6 16+ √ 6<br />

3 1<br />

1<br />

1<br />

4 4<br />

36 36 9<br />

16− √ 6 16+ √ 6 1<br />

36 36 9 3.4<br />

Implizites Euler-ESV Radau-ESV, Ordnung 3 Radau-ESV, Ordnung 5 p. 263<br />

Fig. 98<br />

Butcher-Schema (2.3.4) für konsistente<br />

(→ Lemma 2.3.2), L-stabile RK-ESV,<br />

siehe Def. 3.4.1<br />

✄<br />

c A<br />

b T :=<br />

Idee: Wähle c s = 1 im Kollokations-RK-ESV (2.2.3)<br />

c 1 a 11 · · · a 1s<br />

. .<br />

.<br />

c s−1 a s−1,1 · · · a s−1,s .<br />

b 1 · · · b s<br />

1 b 1 · · · b s<br />

Wähle c 1 ,...,c s−1 als Knoten einer Quadraturformel maximaler Ordnung.<br />

(➞ Gauss-Radau-Quadratur, Ordnung 2s − 1)<br />

Stabilitätsfunktion s-stufiger Radau-Kollokations-<br />

RK-ESVs:<br />

S(z) = P(z)<br />

Q(z) , P ∈ P s−1, Q ∈ P s .<br />

Vorsicht: Auch ”<br />

S(∞) = 0”<br />

Re(S(z))<br />

100<br />

90<br />

80<br />

70<br />

60<br />

50<br />

40<br />

30<br />

20<br />

10<br />

0<br />

exp(z)<br />

RADAU, s=2<br />

RADAU, s=3<br />

RADAU, s=4<br />

RADAU, s=5<br />

−2 −1 0 1 2 3 4 5 6<br />

z<br />

Niveaus der Stabilitätsfunktionen von s-stufigen Radau-Kollokations-RK-ESVs:<br />

3.4<br />

p. 262<br />

3.4<br />

p. 264


1<br />

1.5<br />

−2 0 2 4 6 8 10<br />

0.7<br />

1.5<br />

1<br />

0.4<br />

Im<br />

10<br />

8<br />

6<br />

4<br />

2<br />

0<br />

−2<br />

−4<br />

−6<br />

−8<br />

−10<br />

0.4<br />

0.4<br />

0.7<br />

1.1<br />

0.9<br />

0.7<br />

0.9<br />

1.1<br />

1<br />

1.5<br />

Re<br />

1<br />

1.5<br />

0.4<br />

0.4<br />

1.1<br />

0.7<br />

0.9<br />

0.7<br />

0.4<br />

0.4<br />

Im<br />

20<br />

15<br />

10<br />

5<br />

0<br />

−5<br />

−10<br />

0.4<br />

0.9<br />

0.4<br />

1<br />

1.1<br />

1<br />

1.1<br />

−20<br />

−15<br />

−20<br />

−30<br />

0 5 10 15 20<br />

Re<br />

s = 2<br />

s = 3<br />

s = 4<br />

Beispiel 3.4.4 (Radau-ESV bei stark attraktiven Fixpunkten). → Bsp. 3.4.1<br />

0.9<br />

0.7<br />

1.5<br />

0.4<br />

0.7<br />

1.5<br />

0.9<br />

1.1<br />

0.4<br />

1<br />

1.1<br />

1<br />

0.9<br />

0.7<br />

0.4<br />

0.4<br />

Im<br />

30<br />

20<br />

10<br />

0.1<br />

0<br />

−10<br />

0.4<br />

0.9<br />

0.7<br />

1.1<br />

1.5<br />

1.1<br />

0.4<br />

1.5<br />

1<br />

0.7<br />

0.4<br />

0.9<br />

0.9<br />

0.7<br />

1<br />

1.1<br />

1.5<br />

0 5 10 15 20 25 30<br />

Re<br />

1.5<br />

1.1<br />

0.4<br />

1<br />

0.7<br />

0.9<br />

0.4<br />

0.7<br />

✬<br />

Theorem 3.4.2 (Radau-ESV nichtexpansiv).<br />

Die diskreten Evolutionen zu Radau-ESV erben die Nichtexpansivität der (exakten) Evolution.<br />

✫<br />

Beweis. Erweiterung des Beweises zu Thm. 3.3.4. Mit den dortigen Notationen und Fehlerdarstellungsformel<br />

für Gauss-Radau-Quadraturformeln<br />

∫ 1 s∑<br />

d ′ (τ) dτ = b j d ′ (c j ) − R mit R = c(s)d (2s) (ξ) , 0 ≤ ξ ≤ 1 ,<br />

0<br />

j=1<br />

wobei c(s) > 0. Formeln (3.3.4) und (3.3.5) bleiben gültig, so dass die Behauptung von Thm. 3.4.2<br />

gezeigt ist, sobald R ≥ 0 sichergestellt ist:<br />

∑2s<br />

d(τ) = δ j τ j ⇒ d (2s) (τ) = (2s)!δ 2s ,<br />

j=0<br />

d(τ) ≥ 0 ⇒<br />

lim d(τ) ≥ 0 ⇒ δ 2s ≥ 0 .<br />

|τ|→∞<br />

Beachte: Auch die Gewichte von Gauss-Radau-Quadraturformeln sind positiv, siehe Fig. 98.<br />

✷<br />

✩<br />

✪<br />

AWP für ODE mit stark attraktivem Fixpunkt y = 1,<br />

Bsp. 3.4.1<br />

ẏ = λy 2 (1 − y) ,<br />

λ = 500 , y(0) = 1<br />

100 .<br />

y<br />

1.4<br />

1.2<br />

1<br />

0.8<br />

0.6<br />

Äquidistantes Gitter, h=0.016667<br />

y(t)<br />

RADAU, s= 1<br />

RADAU, s= 2<br />

3.4<br />

p. 265<br />

3.5 Steifheit<br />

Konzept 3.5.1 (Steifes Anfangswertproblem).<br />

Radau-ESV sind A-stabil (→ Def. 3.2.7)<br />

Ein AWP heisst steif (engl. stiff), falls für explizite RK-ESV (→ Def. 2.1.2) Stabilität eine wesentlich<br />

kleinere Schrittweite verlangt als die Genauigkeitsanforderungen.<br />

3.5<br />

p. 267<br />

Qualitatives Verhalten von Radau-ESV auf<br />

äquidistantem Gitter<br />

✄<br />

➣<br />

Diskrete Evolution strebt schnell dem stabilen Zustand zu<br />

0.4<br />

0.2<br />

0<br />

0 0.2 0.4 0.6 0.8 1<br />

t<br />

Fig. 99<br />

Beispiel 3.5.1 (Adaptive explizite RK-ESV für steifes Problem). → Sect. 2.6<br />

ẏ(t) = λy 2 (1 − y) , λ = 500 , y(0) = 1<br />

100 .<br />

MATLAB-CODE : Adaptives ESV für steifes Problem<br />

fun = @(t,x) 500*xˆ2*(1-x); tspan = [0 1]; y0 = 0.01;<br />

options = odeset(’reltol’,0.1,’abstol’,0.001,’stats’,’on’);<br />

[t,y] = ode45(fun,tspan,y0,options);<br />

plot(t,y,’r+’);<br />

✸<br />

Wie für Gauss-Kollokations-RK-ESV, siehe Thm. 3.3.4:<br />

3.4<br />

p. 266<br />

3.5<br />

p. 268


y<br />

1.4<br />

1.2<br />

1<br />

0.8<br />

0.6<br />

0.4<br />

0.2<br />

y(t)<br />

ode45<br />

0<br />

0 0.2 0.4 0.6 0.8 1<br />

t<br />

Fig. 100<br />

y(t)<br />

1.5<br />

1<br />

0.5<br />

0.03<br />

0.02<br />

0<br />

0 0.2 0.4 0.6 0.8 1<br />

t<br />

Fig. 101<br />

0 0.2 0.4 0.6 0.8 1 0 0.01<br />

➣ Schrittweitensteuerung realisiert Schrittweitenbeschränkung ! → Bsp. 2.6.4<br />

(186 successful steps, 55 failed attempts, 1447 function evaluations)<br />

y = 1 stark attraktiver Fixpunkt ➣<br />

Extreme Schrittweitenbeschränkung für<br />

expliziten Integrator ode45<br />

Beachte: die Schrittweitensteuerung erkennt Stabilitätsprobleme und reduziert die Schrittweite entsprechend<br />

! → Bsp. 2.6.4<br />

Zeitschrittweite<br />

✸<br />

3.5<br />

p. 269<br />

fun = @(t,y) ([-k1*y(1)*y(2) + k2*y(3) - k3*y(1)*y(3) + k4*y(4);<br />

-k1*y(1)*y(2) + k2*y(3);<br />

k1*y(1)*y(2) - k2*y(3) - k3*y(1)*y(3) + k4*y(4);<br />

k3*y(1)*y(3) - k4*y(4)]);<br />

tspan = [0 1];<br />

y0 = [1;1;10;0];<br />

options = odeset(’reltol’,0.1,’abstol’,0.001,’stats’,’on’);<br />

[t,y] = ode45(fun,[0 1],y0,options);<br />

concentrations<br />

12<br />

10<br />

8<br />

6<br />

4<br />

2<br />

0<br />

Chemical reaction: concentrations<br />

c A<br />

(t)<br />

c C<br />

(t)<br />

c A,k<br />

, ode45<br />

c C,k<br />

, ode45<br />

−2<br />

0 0.2 0.4 0.6 0.8 1<br />

t<br />

Fig. 102<br />

Beispiel 3.5.3 (Steife Schaltkreisgleichungen im Zeitbereich).<br />

c C<br />

(t)<br />

10<br />

9<br />

8<br />

7<br />

6<br />

5<br />

4<br />

Chemical reaction: stepsize<br />

3<br />

0 0.2 0.4 0.6 0.8 1<br />

t<br />

0 0.2 0.4 0.6 0.8 1 0 1<br />

x 10 −5<br />

7<br />

6<br />

5<br />

4<br />

3<br />

2<br />

timestep<br />

Fig. 103 p. 271<br />

✸<br />

3.5<br />

Welche Anfangswertprobleme sind steif ?<br />

☞<br />

ODE-Modelle für Systeme mit schnell relaxierenden Komponenten<br />

(mit stark unterschiedlichen Zeitkonstanten)<br />

Schaltkreisanalyse im Zeitbereich:<br />

Bauelementgleichungen (i ˆ= Strom, u ˆ= Spannung):<br />

R<br />

u(t)<br />

Beispiel 3.5.2 (Steife Probleme in der chemischen Reaktionskinetik). → Sect. 1.2.2<br />

Reaktion:<br />

k 2<br />

k 4<br />

A + B<br />

←−<br />

−→ C , , A + C<br />

←−<br />

−→ D (3.5.1)<br />

k1 k3<br />

Stark unterschiedliche Reaktionsgeschwindigkeiten: k 1 , k 2 ≫ k 3 , k 4<br />

• Widerstand: i(t) = R −1 u(t)<br />

• Kondensator: i(t) = C ˙u(t)<br />

Dgl. aus Knotenanalyse:<br />

C ˙u(t) = −R −1 u(t) + I(t) .<br />

C<br />

I(t)<br />

Falls c A (0) > c B (0) ➢<br />

2. Reaktion kontrolliert Langzeitdynamik<br />

Konkret: C = 1pF , R = 1kΩ, I(t) = sin(2π 1Hz t)mA, u(0) = 0V<br />

Skalierte (dimensionslose) Dgl. : ˙u(t) = −10 9 u(t) + 10 9 sin(2πt) ⇒ u(t) ≈ sin(2πt) .<br />

Numerisches Experiment, MATLAB, t 0 = 0, T = 1, k 1 = 10 4 , k 2 = 10 3 , k 3 = 10, k 4 = 1<br />

ˆ= ODE aus Bsp. 3.4.2<br />

MATLAB-CODE : Explizite Integration steifer chemischer Reaktionsgleichungen<br />

3.5<br />

p. 270<br />

Im Fall der nichtautonomen Dgl. ẏ = −λy + g(t), λ ≫ 1, sind wird mit einem “zeitlich variierenden”<br />

stark attraktiven Fixpunkt y ∗ (t) = λ −1 g(t) konfrontiert. Auch dieser führt zu Steifheit gemäss<br />

Konzept 3.5.1.<br />

3.5<br />

p. 272


✸<br />

Abschnitt 3.4 ➣ Wir wissen was zu tun ist !<br />

1.5<br />

ode45 for attractive limit cycle<br />

x 10 −4<br />

8<br />

2<br />

ode23s for attractive limit cycle<br />

0.02<br />

1<br />

7<br />

1<br />

0.015<br />

Steife AWP<br />

➤<br />

(Geeignete) implizite RK-ESV (→ Def. 2.1.2) sind zu verwenden !<br />

0.5<br />

6<br />

d.h. L-stabil (→ Def. 3.4.1)<br />

y i<br />

(t)<br />

0<br />

5<br />

timestep<br />

y i<br />

(t)<br />

0<br />

0.01<br />

timestep<br />

−0.5<br />

4<br />

Beispiel 3.5.4 (Attraktiver Grenzzyklus). vgl. Bsp. 1.2.6<br />

−1<br />

y 1,k<br />

y 2,k<br />

Fig. 105<br />

−1.5<br />

0 1 2 3 4 5 6 7<br />

t<br />

0 1 2 3 4 5 6 7 2 3<br />

ode45: 3794 Schritte (λ = 1000)<br />

−1<br />

y 1,k<br />

y 2,k<br />

Fig. 106<br />

−2<br />

0 1 2 3 4 5 6 7<br />

t<br />

0 1 2 3 4 5 6 7 0 0.005<br />

ode23s: 432 Schritte (λ = 1000)<br />

3.5<br />

p. 273<br />

3.5<br />

p. 275<br />

2<br />

1<br />

ode45 for rigid motion<br />

0.2<br />

1.5<br />

Autonome Dgl. ẏ = f(y)<br />

( )<br />

0 −1<br />

f(y) := y + λ(1 − ‖y‖<br />

1 0<br />

2 )y ,<br />

auf Zustandsraum D = R 2 \ {0}.<br />

Lösungstrajektorien (λ = 10) ✄<br />

1<br />

0.5<br />

0<br />

−0.5<br />

−1<br />

−1.5<br />

Fig. 104<br />

−2<br />

−2 −1.5 −1 −0.5 0 0.5 1 1.5 2<br />

y i<br />

(t)<br />

0<br />

y 1,k<br />

−1<br />

0 1 2 3 4 5 6 7<br />

t<br />

0 1 2 3 4 5 6 7 0 0.1<br />

timestep<br />

✁ λ = 0 ˆ= Drehbewegung, siehe Bsp. 1.4.7<br />

ode45 erzielt gute Genauigkeit trotz (relativ)<br />

grosser Schrittweite.<br />

Nichtsteifes Problem!<br />

y 2,k<br />

✸<br />

☞ Falls ‖y 0 ‖ = 1 ⇒ ‖y(t)‖ = 1 ∀t<br />

☞ “Grenzzyklus auf Einheitskreis”: ‖y(t)‖ → 1 für t → ∞.<br />

Adaptive MATLAB-Integratoren für steife Probleme: (Schrittweitensteuerung wie in Abschnitt 2.6)<br />

MATLAB-CODE Integration von Evolution mit Grenzzyklus<br />

fun = @(t,y) ([-y(2);y(1)] + lambda*(1-y(1)ˆ2-y(2)ˆ2)*y);<br />

tspan = [0,2*pi]; y0 = [1,0];<br />

opts = odeset(’stats’,’on’,’reltol’,1E-4,’abstol’,1E-4);<br />

[t45,y45] = ode45(fun,tspan,y0,opts);<br />

3.5<br />

[t23,y23] = ode23s(fun,tspan,y0,opts); p. 274<br />

opts = odeset(’abstol’,atol,’reltol’,rtol,’Jacobian’,@J)<br />

[t,y] = ode15s/ode23s(odefun,tspan,y0,opts);<br />

Beispiel 3.5.5 (Adaptives semi-implizites RK-ESV für steifes Problem). → Bsp. 3.5.1, 3.4.1<br />

ẏ(t) = λy 2 (1 − y) , λ = 500 , y(0) = 100 1 . 3.5<br />

p. 276


MATLAB-CODE : Semi-Implizites ESV für steifes Problem<br />

lambda = 500; tspan = [0 1]; y0 = 0.01;<br />

fun = @(t,x) lambda*xˆ2*(1-x);<br />

Jac = @(t,x) lambda*(2*x*(1-x)-xˆ2);<br />

o = odeset(’reltol’,0.1,’abstol’,0.001,’stats’,’on’,’Jacobian’,Jac);<br />

[t,y] = ode23s(fun,[0 1],y0,o);<br />

Implizites Euler-Verfahren (1.4.9) mit uniformem<br />

Zeitschritt h = 1/n,<br />

n ∈ {5, 8, 11, 17, 25, 38, 57, 85, 128, 192, 288,<br />

, 432, 649, 973, 1460, 2189, 3284, 4926, 7389}.<br />

10 −1<br />

Logistic ODE, y 0<br />

= 0.100000, λ = 5.000000<br />

Statistik:<br />

20 successful steps 4 failed attempts 70 function<br />

evaluations<br />

& näherungsweise Berechnung von y k+1<br />

durch 1 Newton-Schritt mit Startwert y k<br />

error<br />

10 −2<br />

10 −3<br />

1.4<br />

1.2<br />

1<br />

y(t)<br />

ode23s<br />

2<br />

0.1<br />

= semi-implizites Euler-Verfahren<br />

Fehlermass err = max<br />

j=1,...,n |y j − y(t j )|<br />

10 0 h<br />

10 −4<br />

implicit Euler<br />

semi−implicit Euler<br />

O(h)<br />

10 −5<br />

10 −4 10 −3 10 −2 10 −1 10 0<br />

Fig. 109<br />

y<br />

0.8<br />

0.6<br />

0.4<br />

0.2<br />

0<br />

0 0.2 0.4 0.6 0.8 1<br />

t<br />

Fig. 107<br />

y(t)<br />

1<br />

0<br />

0 0.2 0.4 0.6 0.8 1<br />

t<br />

Fig. 108<br />

0 0.2 0.4 0.6 0.8 1 0 0.05<br />

Zeitschrittweite<br />

➤ Effizientes Verfahren (vgl. Bsp. 3.5.1): Keine Schrittweitenbeschränkung für y ≈ 1<br />

3.6 Linear-implizite Runge-Kutta-Verfahren [5, Sect. 6.4]<br />

✸<br />

3.6<br />

p. 277<br />

Logistic ODE, y 0<br />

= 0.100000, λ = 5.000000<br />

10 0 h<br />

3.6<br />

p. 279<br />

Inkrementgleichungen (2.2.3) für s-stufige implizite RK-ESV<br />

=<br />

Nichtlineares Gleichungssystem der Dimension s · d<br />

Beispiel 3.6.1 (Linearisierung der Inkrementgleichungen).<br />

Anfangswertproblem für logistische Differentialgleichung, siehe Bsp. 1.2.1<br />

ẏ = λy(1 − y) , y(0) = 0.1 , λ = 5 .<br />

Implizite Mittelpunktsregel (1.4.11) mit uniformem<br />

Zeitschritt h = 1/n (wie oben)<br />

& näherungsweise Berechnung von y k+1<br />

durch 1 Newton-Schritt mit Startwert y k<br />

Fehlermass err = max<br />

j=1,...,n |y j − y(t j )|<br />

error<br />

10 −2<br />

10 −4<br />

10 −6<br />

10 −8<br />

implicit midpoint rule<br />

semi−implicit m.p.r.<br />

O(h 2 )<br />

10 −10<br />

10 −4 10 −3 10 −2 10 −1 10 0<br />

Fig. 110 ✸<br />

?Idee: Implizite RK-ESV mit linearisierten Inkrementgleichungen (2.2.3)<br />

⎛ ⎞<br />

s∑<br />

k i = f(y 0 ) + hDf(y 0 ) ⎝ a ij k j<br />

⎠ , i = 1,...,s . (3.6.1)<br />

j=1<br />

(3.6.1) ˆ= LGS der Dimension s · d: (s ˆ= Anzahl der Stufen, A ∈ R s,s ˆ= Koeffizientenmatrix aus<br />

3.6<br />

p. 278<br />

3.6<br />

p. 280


Butcher-Schema (2.3.4))<br />

⎛<br />

(I s·d − hA ⊗ Df(y 0 )) ⎝ k ⎞ ⎛<br />

1<br />

. ⎠ = ⎝ 1 ⎞<br />

. ⎠ ⊗ f(y 0 ) ,<br />

k s 1<br />

mit Kronecker-Produkt: für A ∈ R m,n , B ∈ R k,l<br />

⎛<br />

A ⊗ B := ⎝ a ⎞<br />

11B · · · a 1n B<br />

.<br />

. ⎠ ∈ R m·k,n·l .<br />

a m,1 B · · · a m,n B<br />

MATLAB-Kommando kron(A,B).<br />

Betrachte:<br />

diagonal-implizite RK-ESV (DIRK)<br />

⇕<br />

A untere Dreiecksmatrix<br />

(A regulär ⇔ a jj ≠ 0)<br />

c A<br />

b T :=<br />

Gestaffeltes (nichtlineares) Gleichungssystem für Inkremente<br />

c 1 a 11 0 · · · 0<br />

c 2 a 21 a 22 0 0<br />

. . . .. ... .<br />

. . ... ... . .<br />

. . ... 0<br />

c s a s1 · · · a ss<br />

b 1 · · · · · · b s<br />

(autonomer Fall)<br />

(3.6.3)<br />

✗<br />

✖<br />

Linearisierung folgenlos bei linearen ODE ➢ Stabilitätsfunktion (→ Def. 3.1.2) unverändert<br />

Beispiel 3.6.2 (Implizite RK-ESV mit linearisierten Inkrementgleichungen).<br />

Anfangswertproblem für logistische Differentialgleichung, siehe Bsp. 1.2.1<br />

✔<br />

✕<br />

Allgemeine Inkrementgleichungen für s-stufiges DIRK-Verfahren:<br />

k i = f(y 0 + h<br />

i∑<br />

s∑<br />

a ij k j ) , y 1 = y 0 + h b i k i .<br />

j=1<br />

i. Inkrementgleichung: Umformulierung als Problem der Nullstellensuche von<br />

i=1<br />

ẏ = λy(1 − y) , y(0) = 0.1 , λ = 5 .<br />

3.6<br />

p. 281<br />

∑i−1<br />

F(k) := k − f(y 0 + z + a ii k) = 0 , z = h a ij k j .<br />

j=1<br />

3.6<br />

p. 283<br />

2-stufiges Radau-ESV, Butcher Schema<br />

1 5<br />

3 12 − 12<br />

1<br />

1 3 1<br />

4 4<br />

3 1<br />

4 4<br />

, (3.6.2)<br />

Ordnung 3, siehe Sect. 3.4.<br />

Inkremente aus linearisierten Gleichungen<br />

(3.6.1)<br />

Fehlermass err = max<br />

j=1,...,n |y j − y(t j )|<br />

error<br />

Logistic ODE, y 0<br />

= 0.100000, λ = 5.000000<br />

10 −2<br />

10 −4<br />

10 −6<br />

10 −8<br />

10 −10<br />

RADAU (s=2)<br />

10 −12<br />

semi−implicit RADAU<br />

O(h 3 )<br />

O(h 2 )<br />

10 −14<br />

10 −4 10 −3 10 −2 h<br />

10 −1 10 0<br />

Fig. 111<br />

10 0<br />

Ein Newton-Schritt mit Startwert k (0)<br />

i<br />

:<br />

DF(k) = I − Df(y 0 + z + a ii k)ha ii .<br />

k (1)<br />

i = k (0)<br />

i − (I − Df(y 0 + z + a ii k)ha ii ) −1 ·<br />

Vereinfachung, vgl. Bem. 2.3.7: Benutze Jacobi-Matrix an der Stelle y 0<br />

Newton-Verfahren:<br />

Allgemeiner Ansatz für Startnäherung:<br />

(<br />

k (0)<br />

i − f(y 0 + z + a ii k (0) )<br />

i )<br />

Ansatz Startnäherung (für k i ): k (0) ∑i−1<br />

d ij<br />

i = k<br />

a j . (3.6.4)<br />

j=1 ii<br />

Ordnungsverlust durch Linearisierung !<br />

✸<br />

∑i−1<br />

∑i−1<br />

(I − ha ii J)k i =f(y 0 + h (a ij + d ij )k j ) − hJ d ij k j , (3.6.5)<br />

)<br />

(a ij + d ij )k j . (3.6.6)<br />

j=1<br />

j=1<br />

J :=Df ( ∑i−1<br />

y 0 + h<br />

j=1<br />

3.6<br />

p. 284<br />

” Rettung” der Ordnung durch bessere Startnäherung für (einen) Newtonschritt ? 3.6<br />

p. 282


Vereinfachtes Newton-Verfahen ( eingefrorene” Jacobi-Matrix)<br />

”<br />

s∑<br />

Wie bei Standard-RK-ESV (→ Def. 2.3.1): y 1 = y 0 + h b i k i . (3.6.7)<br />

i=1<br />

Nächster Schritt: Bestimme Koeffizienten a ij , d ij in (3.6.5) (und b i ), so dass sie Ordnungsbedingungsgleichungen<br />

genügen<br />

(analog zur Konstruktion von Runge-Kutta-Verfahren in Sect. 2.3)<br />

Linear-implizite Runge-Kutta-Verfahren (Rosenbrock-Wanner(ROW)-Methoden)<br />

Beispiel 3.6.3 (Bedingungsgleichungen für Linear-implizite Runge-Kutta-Verfahren 2. Ordnung).<br />

Hamiltonsche ODE (1.2.11) für mathematisches<br />

Pendel für 0 ≤ t ≤ T := 50, Anfangswerte<br />

α(0) = π/4, p(0) = 0<br />

Implizite Mittelpunktsregel (1.4.11)/semiimplizite<br />

Mittelpunktsregel (→ Bsp. 3.6.1) auf<br />

uniformem Zeitgitter h = T/300,<br />

Beobachtet: Zeitverhalten der Energien →<br />

Bsp. 1.4.6<br />

p<br />

3<br />

2<br />

1<br />

0<br />

−1<br />

−2<br />

exact solution<br />

implicit midpoint<br />

semi−implicit m.r.<br />

300 timesteps on [0,50.000000]<br />

−3<br />

−1 −0.8 −0.6 −0.4 −0.2 0.2 0.4 0.6 0<br />

α<br />

0.8 1<br />

Fig. 112<br />

Aus der Neumannschen Reihe für Matrizen: für h > 0 “hinreichend klein”<br />

∞∑<br />

(I − ha ii J) −1 = (ha ii J) k = I + ha ii J + O(h 2 ) . (3.6.8)<br />

k=0<br />

Einsetzen in (3.6.5) + Taylor-Entwicklung von f um y 0 + rekursives Einsetzen, vgl. Bsp. 2.3.9:<br />

(<br />

k i = I + ha ii J + O(h )) ⎛ ⎞<br />

2 ∑i−1<br />

⎝f(y 0 ) + hJ (a ij + d ij )k j + O(h 2 ∑i−1<br />

) − hJ d ij k j<br />

⎠<br />

j=1<br />

j=1<br />

3.6<br />

p. 285<br />

3.6<br />

p. 287<br />

= f(y 0 ) + ha ii Jf(y 0 ) + hJf(y 0 ) (i−1 ∑ )<br />

a ij + O(h 2 ) .<br />

j=1<br />

3<br />

2.5<br />

Energies for implicit midpoint discrete evolution<br />

4.5<br />

4<br />

3.5<br />

Energies for semi−implicit midpoint discrete evolution<br />

(3.6.7)<br />

⇒<br />

y 1 = y 0 + h ( ∑ s )<br />

b i f(y0 ) + h 2( s∑ ∑i−1<br />

b i a ij<br />

)Jf(y 0 ) + O(h 3 ) .<br />

i=1<br />

i=1<br />

j−1<br />

Dabei wurde benutzt: J = Df(y 0 ). Dann Vergleich mit Taylorentwicklung (2.3.15) ➣ Bedingungsgleichungen<br />

(2.3.18), (2.3.19) (gleich wie für Standard-Rk-ESV !).<br />

Beispiel 3.6.4 (Energieerhaltung bei semi-impliziter Mittelpunktsregel).<br />

✸<br />

energy<br />

2<br />

1.5<br />

1<br />

0.5<br />

kinetic energy<br />

potential energy<br />

total energy<br />

0<br />

0 5 10 15 20 25 30 35 40 45 50<br />

time t<br />

Fig. 113<br />

energy<br />

3<br />

2.5<br />

2<br />

1.5<br />

1<br />

0.5<br />

kinetic energy<br />

potential energy<br />

total energy<br />

0<br />

0 5 10 15 20 25 30 35 40 45 50<br />

time t<br />

Fig. 114<br />

✗<br />

✖<br />

Energiedrift bei semi-impliziter Mittelpunktsregel<br />

✔<br />

✕<br />

✸<br />

3.7 Exponentielle Integratoren [21, 24]<br />

3.6<br />

p. 286<br />

Betrachte: Autonomes AWP ẏ = f(y), f : D ⊂ R d ↦→ R d stetig differenzierbar p. 288<br />

3.7


Idee:<br />

” Absubtrahieren” der Lösung der um y 0 linearisierten ODE<br />

ẏ = Jy + g(y) , g(y) := f(y) − Jy , (3.7.1)<br />

mit J := Df(y 0 )<br />

Bemerkung 3.7.1 (Stabilitätsgebiet des exponentiellen Euler-Verfahrens).<br />

Erinnerung: Analyse des linearen Modellproblems, Sect. 3.1 ➣ Stabilitätsgebiet S Ψ ⊂ C →<br />

Def. 3.1.1<br />

Variation der Konstanten (→ Sect. 1.3.2) angewandt auf (3.7.1)<br />

∫ h<br />

y(h) = exp(Jh)y 0 + exp(J(h − τ))g(y(τ)) dτ . (3.7.2)<br />

0<br />

Beachte: exponentielles Euler-Verfahren ist exakt für AWP zur ODE ẏ = Ay + g mit konstantem<br />

A ∈ R d,d , g ∈ R d .<br />

(Ideale !) Stabilitätsfunktion: S(z) = exp(z) ➤ (ideales) Stabilitätsgebiet S Ψ = C − △<br />

exp ˆ= Matrixexponentialfunktion, definiert durch<br />

∞∑ 1<br />

“Matrixexponentialreihe”: exp(M) =<br />

k! Mk .<br />

k=0<br />

! Auswertung der Matrixexponentialreihe ist kein stabiler numerischer Algorithmus (Auslöschung !)<br />

Beispiel 3.7.2 (Exponentielles Euler-Verfahren).<br />

Alternativen:<br />

☞ Pade-Approximation von t ↦→ e t (nach Skalieren der Matrix, ”<br />

scaling and squaring”)<br />

3.7<br />

p. 289<br />

3.7<br />

p. 291<br />

Logistic ODE, y 0<br />

= 0.100000, λ = 5.000000<br />

☞ Schur-Zerlegung (siehe MATLAB-Kommando schur)<br />

M = Q T (D + U)Q mit Diagonalmatrix<br />

D, echter oberer Dreiecksmatrix U, orthogonaler Matrix Q. Anschliessend Auswertung der<br />

abgeschnittenen Matrixexponentialreihe für D + U & (1.3.7)<br />

MATLAB-Funktion expm, Algorithmus → [17]<br />

error<br />

10 −1<br />

10 −2<br />

10 −3<br />

10 −4<br />

• Anfangswertproblem für<br />

logistische Differentialgleichung, λ = 5, T = 1,<br />

siehe Bsp. 1.2.1<br />

• Exponentielles Euler-Verfahren (3.7.3) mit<br />

uniformen Zeitschrittweiten h<br />

10 0 h<br />

Numerische Quadratur des Faltungsintegrals ➢ Diskretisierung von (3.7.2) ➢ ESV<br />

10 −5<br />

exponential Euler<br />

10 −6<br />

explicit Euler<br />

O(h)<br />

O(h 2 )<br />

10 −7<br />

10 −4 10 −3 10 −2 10 −1<br />

Fig. 115<br />

• Fehlermass err = max<br />

j=1,...,n |y j − y(t j )|<br />

Algebraische Konvergenz der Ordnung 2 !<br />

Einfachste Wahl:<br />

∫ h<br />

∫ h<br />

exp(J(h − τ))g(y(τ)) dτ ≈ exp(J(h − τ)) dτ · g(y 0 ) = hϕ(Jh) · g(y 0 )<br />

0<br />

0<br />

mit ϕ(z) = exp(z) − 1<br />

z<br />

exponentielles Euler-Verfahren (auf Zeitgitter {t k }, h k := t k+1 − t k )<br />

.<br />

Konsistenzordnung 2 (→ DEf. 2.1.9) wird bestätigt durch Taylorentwicklung (→ Bsp. 2.1.3) unter<br />

Verwendung von ϕ(z) = 1 + 1 2 z + O(|z|2 ) und (??).<br />

✸<br />

y k+1 = y k + h k ϕ(h k J)f(y k ) , k = 0, ...,N , J := Df(y k ) . (3.7.3)<br />

3.7<br />

p. 290<br />

Beispiel 3.7.3 (Exponentielles Euler-Verfahren für steifes AWP).<br />

3.7<br />

p. 292


• Steifes AWP → Bsp. 3.5.1, 3.4.1, 3.5.5:<br />

ẏ(t) = λy 2 (1 − y) ,<br />

λ = 500 , y(0) = 1<br />

100 .<br />

1.4<br />

1.2<br />

1<br />

0.8<br />

exponential Euler, h=0.012500<br />

Bemerkung 3.7.4. Herausforderung:<br />

effiziente/genaue Berechnung von exp(c i hJ)<br />

Krylov-Unterraummethoden für grosse, dünnbesetzte J → [19]<br />

△<br />

y<br />

• Exponentielles Euler-Verfahren (3.7.3) mit uniformen<br />

Zeitschrittweiten h = 1 80<br />

Qualitativ richtiges Verhalten<br />

0.6<br />

0.4<br />

0.2<br />

exact solution y(t)<br />

exponential Euler<br />

0<br />

0 0.2 0.4 0.6 0.8 1<br />

t<br />

Fig. 116 ✸<br />

3.8 Differentiell-Algebraische Anfangswertprobleme<br />

Verallgemeinerung: Exponentielle Runge-Kutta-Verfahren: mit J := Df(y k )<br />

Semi-implizites Euler-Verfahren Exponentielles Euler-Verfahren<br />

y k+1 = y k + (I − hJ) −1 hf(y k ) y k+1 = y k + ϕ(hJ)hf(y k )<br />

3.8.1 Grundbegriffe<br />

Beispiel 3.8.1 (Knotenanalyse eines Schaltkreises). → Bsp. 3.5.3<br />

☞ Ersetze: (I − γhJ) −1 → ϕ(γhJ) in linear-impliziten RK-ESV (3.6.5)<br />

Definition 3.7.1 (Exponentielle Runge-Kutta-Verfahren).<br />

Für b i ,a ij , d ij ∈ R, i,j = 1,...,s, s ∈ N, definiert<br />

k i :=ϕ(a ii hJ) ( ∑i−1<br />

)<br />

f(u i ) + hJ d ij k j , i = 1, ...,s ,<br />

j=1<br />

∑i−1<br />

u i :=y 0 + h (a ij + d ij )k j , i = 1,...,s ,<br />

j=1<br />

s∑<br />

Ψ h y 0 :=y 0 + h b i k i .<br />

i=1<br />

ein s-stufiges exponentielles Runge-Kutta-Einschrittverfahren für die autonome ODE ẏ = f(y).<br />

Dabei ist J := Df(y 0 ).<br />

Wie in Sect. 2.3:<br />

Gewünschte Konsistenzordnung<br />

➢ Bestimmungsgleichungen [21]<br />

➢ Koeffizienten b i , a ij ,c ij , c i<br />

3.7<br />

p. 293<br />

ẏ = Ay + g, A ∈ R d,d , g ∈ R d 3.7<br />

Zusatzbedingung: Exakte Integration von linearen Dgl.<br />

p. 294<br />

u 0 (t)<br />

Vorgegeben:<br />

Knotengleichungen (Kirchoffsche Regel):<br />

R 1<br />

➊: 0 = I D + I R1 − I C ,<br />

C<br />

➋: 0 = I C − I R2 .<br />

➊ ➋ Bauelementgleichungen:<br />

Diode<br />

I<br />

R D = I D (u 1 ) = I 0 (exp(K(u 0 − u 1 )) − 1) ,<br />

2<br />

I C = C( ˙u 1 − ˙u 2 ) ,<br />

I R1 = R1 −1 (u 0 − u 1 ) ,<br />

I R2 = R2 −1 u 2 .<br />

Zeitabhängige Eingangsspannung u 0 = u 0 (t)<br />

➊ ➣ 0 = I D (u 1 ) + R1 −1 0 − u 1 ) − C( ˙u 1 − ˙u 2 ) ,<br />

➋ ➣ 0 = C( ˙u 1 − ˙u 2 ) − R2 −1 2 − u 0 ) .<br />

( )( ) (<br />

C −C ˙u1 ID (u<br />

= 1 ) + R1 −1 (u )<br />

0 − u 1 )<br />

−C C ˙u2 −R2 −1 u 2<br />

(3.8.1)<br />

3.8<br />

p. 295<br />

Singuläre Matrix ! ➥ (3.8.1) ist Differentiell-Algebraische Gleichung (DAE) p. 296<br />

3.8


Beachte:<br />

(<br />

1 0<br />

1 1<br />

)(<br />

C −C<br />

−C C<br />

) ( )<br />

1 1<br />

=<br />

0 1<br />

( )<br />

C 0<br />

.<br />

0 0<br />

Transformation von (3.8.1): y 1 := u 1 − u 2 , y 2 := u 2<br />

( )( )( ) ( ) (<br />

C 0 1 −1 ˙u1 C 0<br />

=<br />

)(ẏ1 I<br />

= D (u 1 ) + R1 −1 (u )<br />

0 − u 1 )<br />

0 0 0 1 ˙u2 0 0 ẏ2 I D (u 1 ) + R1 −1 (u 0 − u 1 ) − R2 −1 u 2<br />

(<br />

I<br />

= D (y 1 + y 2 ) + R1 −1 (u )<br />

0 − y 1 − y 2 )<br />

I D (y 1 + y 2 ) + R1 −1 (u 0 − y 1 − y 2 ) − R2 −1 y .<br />

2<br />

Algebraische Nebenbedingung<br />

c(y 1 ,y 2 ) := I D (y 1 + y 2 ) + R1 −1 (u 0 − y 1 − y 2 ) − R2 −1 y 2 = 0 .<br />

Beachte: ∀y 1 : y 2 ↦→ c(y 1 , y 2 ) monoton fallend, lim<br />

y 2 →∞ c(y 1, y 2 ) = −∞, lim<br />

y 2 →−∞ c(y 1, y 2 ) = ∞<br />

⇒ Nebenbedingung ist auflösbar nach y 2 = u 2 : ∃ Funktion G : R ↦→ R so, dass y 1 = G(y 1 )<br />

Einsetzen ODE für y 1 !<br />

Gegeben: ”<br />

Rechte Seiten” d : D 1 × D 2 ⊂ R p × R q ↦→ R p ,<br />

c : D 1 × D 2 ⊂ R p × R q ↦→ R q hinreichend glatt, p,q ∈ N, u 0 ∈ D 1 , v 0 ∈ D 2<br />

☞<br />

Separiertes differentiell-algebraisches Anfangswertproblem (DAE):<br />

˙u = d(u,v) ,<br />

0 = c(u,v)<br />

Bemerkung 3.8.2 (DAE: Transformation auf separierte Form).<br />

Die Form (3.8.1) einer DAE ist immer in (3.8.2) transformierbar:<br />

,<br />

rank(M) = r ⇒ ∃T,S ∈ R d,d regulär: TMS =<br />

Algebraische Nebenbedingung (engl. constraint)<br />

u(0) = u 0 ,<br />

v(0) = v 0<br />

, c(u 0 ,v 0 ) = 0 . (3.8.2)<br />

Konsistente Anfangswerte erforderlich !<br />

( )<br />

I 0<br />

, I ∈ R<br />

0 0<br />

r,r .<br />

△<br />

Cy˙<br />

1 = I D (y 1 + G(y 1 )) + R1 −1 (u 0 − y 1 − G(y 1 )) .<br />

➣ Existenz & Eindeutigkeit von Lösungen, siehe Sect. 1.3.1.<br />

✸<br />

3.8<br />

p. 297<br />

✬<br />

Annahme 3.8.1. Partielle Ableitung (Jacobi-Matrix) D v c(u,v) der Nebenbedingungen ist regulär<br />

entlang von Lösungskurven t ↦→ (u(t),v(t)) T .<br />

✩<br />

3.8<br />

p. 299<br />

Gegeben: Rechte Seite f : D ⊂ R d ↦→ R d ,<br />

singuläre Matrix M ∈ R d,d<br />

☞<br />

Autonomes (lineares) differentiell-algebraisches Anfangswertproblem (DAE):<br />

✫<br />

Lokale Auflösbarkeit: v = G(u): (3.8.2) ⇒ ˙u = d(u,G(u)) ˆ= (1.1.6).<br />

✪<br />

Mẏ = f(y) , y(0) = y 0 .<br />

Beachte: (3.8.1) impliziert algebraische Nebenbedingung f(y(t)) ∈ Im(M)<br />

(Konsistente Anfangswerte erforderlich: f(y 0 ) ∈ Im(M) !)<br />

✎ Notation: Im(M) := {Mx:x ∈ R d } ˆ= Bild der Matrix M<br />

Definition 3.8.2 (DAE vom Index 1).<br />

Annahme (3.8.1) erfüllt ➣ DAE-AWP (3.8.2) hat (Differenzierbarkeits)index 1<br />

Bemerkung 3.8.3. Allgemeine Diskussion des Indexbegriffes (Index > 1, Störungsindex, etc.) bei<br />

DAE: [15, Kap. VII]<br />

△<br />

In Bsp. 3.8.1: Transformationen ➣ Reduktion auf spezielle Form:<br />

Erweiterung von Def. 1.1.1 ➣ Lösungsbegriff für (3.8.1)<br />

(Diffizil: Allgemeine Existenz & Eindeutigkeit von Lösungen, siehe [5, Sect. 2.6])<br />

3.8<br />

p. 298<br />

3.8.2 Runge-Kutta-Verfahren für Index-1-DAEs<br />

Betrachte: differentiell-algebraisches Anfangswertproblem (3.8.2) unter Annahme 3.8.1 p. 300<br />

3.8


Idee:<br />

➀ Betrachte AWPs für Dgl.<br />

Singuläre Störungstechnik (engl. ǫ-embedding)<br />

˙u = d(u,v)<br />

ǫ ˙v = c(u,v) , ǫ > 0.<br />

˙u = g(u,v)<br />

➁ Formuliere RK-ESV für<br />

˙v = 1 , ǫ > 0.<br />

ǫc(u,v) ➂ Macht Verfahren noch Sinn ǫ = 0 ? Wenn ja →<br />

Beispiel 3.8.4 (Singulär gestörte Schaltkreisgleichungen).<br />

Schaltkreis aus Bsp. 3.8.1 mit parasitärer Kapazität<br />

(durchflossen vom Strom I p )<br />

Knotengleichungen (Kirchoffsche Regel):<br />

➊: 0 = I D + I R1 + I p − I C ,<br />

➋: 0 = I C − I R2 .<br />

Zusätzliche Bauelementgleichung:<br />

u 0 (t)<br />

R 1<br />

C<br />

➊ ➋<br />

R 2<br />

Diode<br />

C p<br />

Fig. 117<br />

☞ Steifheit des singulär gestörten Problems, siehe Bsp. 3.5.4.<br />

Quantitative Analyse: Betrachte den Fall u 0 (t) ≡ 0 ➣ Stationärer Punkt: u 1 = 0, u 2 = 0<br />

Jacobi-Matrix im stationären Punkt<br />

Df(0) = C −1 p<br />

➣ C p → 0 ⇒ λ min (Df(0)) → −∞<br />

✗<br />

✖<br />

( ) (−I0 1 1 K − R −1<br />

1 1 + C p<br />

C<br />

1 0<br />

0 −R −1<br />

2<br />

DAEs = ”<br />

∞-steife Anfangswertprobleme”<br />

)<br />

✔<br />

✕<br />

✸<br />

u 2<br />

3<br />

2.5<br />

2<br />

1.5<br />

1<br />

0.5<br />

0<br />

−0.5<br />

I p = C p ( ˙u 0 − ˙u 1 ) .<br />

(<br />

C+Cp −C<br />

−C C<br />

−1<br />

−1 −0.8 −0.6 −0.4 −0.2 0.2 0.4 0.6 0<br />

u 1<br />

0.8 1<br />

Fig. 118<br />

) ( ) (<br />

˙u1 ID (u<br />

= 1 ) + R −1<br />

˙u2<br />

Reguläre Matrix für C p > 0<br />

Constraint manifold<br />

✁<br />

1 (u 0 − u 1 ) + C p ˙u 0<br />

−R −1<br />

2 u 2<br />

)<br />

(3.8.3)<br />

Richtungsfeld der singulär gestörten Schaltkreisgleichung<br />

für u 0 (t) ≡ 0<br />

(Skalierte Grössen R = 1, C = 1, I 0 = 10 −4 ,<br />

K = 10, C p = 10 −3 )<br />

Aus dem Richtungsfeld liest man ab: schnelle Relaxation in Richtung auf die Mannigfaltigkeit beschrieben<br />

durch die algebraische Nebenbedingung der DAE (3.8.1)<br />

u 2 = R 2 (I D (u 1 ) + R −1<br />

1 )(u 0 − u 1 ) .<br />

3.8<br />

p. 301<br />

3.8<br />

p. 302<br />

Formale Rechnung: Singuläre Störungstechnik für Runge-Kutta-Einschrittverfahren mit<br />

Butcher-Schema c A b T : 3.8<br />

p. 303<br />

Def. 2.3.1: s-stufiger Runge-Kutta-Schritt für ẏ = f(y), Stufenform, siehe Bem. 2.3.2:<br />

∑<br />

k i = f(y 0 + h s a ij k j )<br />

j=1 k i =f(g i )<br />

∑<br />

y 1 = y 0 + h s ⇔<br />

b i k i<br />

i=1<br />

{ ˙u = d(u,v)<br />

˙v = 1 ǫ c(u,v)<br />

ǫ → 0 ⇒<br />

∑<br />

g i = y 0 + h s a ij f(g j )<br />

j=1<br />

∑<br />

y 1 = y 0 + h s , i = 1, ...,s .<br />

b i f(g i )<br />

i=1<br />

⎧⎪ ⎨ g u ∑<br />

i = u 0 + h s a ij d(gj u,gv j )<br />

j=1<br />

⎪ ⎩ ǫgi v ∑<br />

= ǫv 0 + h s , i = 1, ...,s<br />

a ij c(gj u,gv j )<br />

j=1<br />

⎧<br />

∑<br />

⎪⎨ u 1 = u 0 + h s b i d(gi u,gv i )<br />

i=1<br />

⎪⎩ v 1 = v 0 + 1 ǫ h ∑ s b i c(gi u,gv i )<br />

i=1<br />

s∑<br />

a ij c(gj u ,gv j ) = 0, i = 1,...,s ⇒ c(gu j ,gv j ) = 0<br />

j=1<br />

Annahme: Koeffizientenmatrix A := (a ij ) s i,j=1 regulär 3.8<br />

p. 304


➀ Falls Nebenbedingung nach v auflösbar (→ Index 1, Def. 3.8.2)<br />

Dies kann den Schritt v 0 ↦→ v 1 ersetzen.<br />

➁<br />

c(u 1 ,v 1 ) = 0 ⇒ v 1 = G(u 1 ) .<br />

Im allgemeinen Fall, formal, mit A −1 = (ǎ ij ) s i,j=1<br />

1<br />

s∑<br />

ǫ hc(gu i ,gv i ) = ǎ ij (gj v − v 0)<br />

j=1<br />

s∑ s∑<br />

s∑<br />

⇒ v 1 = v 0 + b i ǎ ij (gj v − v 0) = (1 − b T A −1 ( ∑ s )<br />

1) v<br />

} {{ } 0 + b i ǎ ij g<br />

v<br />

j .<br />

i=1 j=1<br />

= S(−∞) j=1 i=1<br />

Beachte: c(u 1 ,v 1 ) ist hier nicht garantiert !<br />

Aus Formel (3.4.1) für Stabilitätsfunktion S<br />

Notwendig (für Lösbarkeit der Imkrementgleichungen, Def. 2.3.1):<br />

DAE ”<br />

∞-steif” ➣ Notwendig: A-Stabilität → Def. 3.2.7,<br />

Wünschenswert: L-stabilität → Def. 3.4.1<br />

Wiederum: Einsichten durch Modellproblemanalyse, vgl. Sect. 3.1:<br />

Modellproblem:<br />

˙u = vf(u) ,<br />

0 = 1 − v<br />

Heuristik: ESV tauglich für Modellproblem ↔<br />

implizites Verfahren<br />

˙u = vf(u) ,<br />

0 < ǫ ≪ 1 .<br />

ǫ ˙v = 1 − v<br />

Singulär gestörte Dgl.<br />

ESV tauglich für singulär gestörtes Problem<br />

∀ǫ ≈ 0<br />

ESV muss für AWP ˙v = ǫ −1 (1 − v), v(0) = 1, 0 < ǫ ≪ 1, Folge {v k } ∞ k=0<br />

mit lim v k = 1<br />

k→∞<br />

liefern !<br />

Erwünscht: S(−∞) = 0 für Stabilitätsfunktion (→ Thm. 3.1.2) S(z) des ESV.<br />

Spezialfall: Wenn RK-ESV steif-genau, also b T = aT·,s (Zeile von A), vgl. hinreichende Bedingung<br />

(3.4.2) für L-Stabilität<br />

⇒ v 1 = gs v ⇒ c(u 1 ,v 1 ) = 0<br />

3.8<br />

p. 305<br />

✬<br />

✩<br />

3.8<br />

p. 307<br />

Bemerkung 3.8.5 (RK-ESV und Elimination der DAE-Nebenbedingungen).<br />

Index-1 DAE (→ Def. 3.8.2) ↔ ODE ˙u = d(u,G(u))<br />

steif-genaues RK-ESV gemäss (3.4.2) für diese ODE:<br />

☞<br />

s∑<br />

gi u = u 0 + h a ij d(gj u ,G(gu j )) , i = 1,...,s , u 1 = gs<br />

u<br />

j=1<br />

⇕<br />

⎧<br />

s∑<br />

⎪⎨ gi u = u 0 + h a ij d(gj u ,gv j )<br />

j=1<br />

, i = 1,...,s , u 1 = gs u .<br />

⎪⎩<br />

0 = c(gi u ,gv i )<br />

Ein “kommutierendes Diagramm”<br />

Steif-genaues RK-ESV für<br />

˙u = d(u,v)<br />

0 = c(u,v)<br />

= Steif-genaues RK-ESV für ˙u = d(u,G(u))<br />

△<br />

Theorem 3.8.3 (Konvergenz impliziter RK-ESV für Index-1-DAEs). → [15, Thm. 1.1,<br />

Sect. VI.1]<br />

Es seien d, c hinreichend glatt, das Anfangswertproblem (3.8.2) eindeutig lösbar<br />

und Annahme 3.8.1 erfüllt (→ Index-1-DAE, siehe Def. 3.8.2). Das s-stufige<br />

Runge-Kutte-Einschrittverfahren mit Butcher-Tableau c A bT , siehe (2.3.4), sei steif-genau, d.h.<br />

A ist regulär und b i = a s,i , i = 1, ...,s, und sei konsistent von der Ordnung p.<br />

Dann ist das Verfahren angewandt auf (3.8.2) für hinreichend kleine Zeitschrittweite h wohldefiniert<br />

und es gilt<br />

✫<br />

‖u k − u(t k )‖ = O(h p ) , ‖v k − v(t k )‖ = O(h p ) ,<br />

auf jedem endlichen Integrationszeitintervall [0, T].<br />

Beweisskizze: Auflösen von (3.8.2) nach der algebraischen Variablen v und Einsetzen ➣ ODE<br />

Anwendung des RK-ESV auf die resultierende ODE liefert genau die gleiche diskrete Evolution fuer<br />

u wie das Verfahren für die DAE (“kommutierendes Diagramm”), vgl. Bem. 3.8.5.<br />

✪<br />

Welche Runge-Kutta-Einschrittverfahren (→ Sect. 2.3)<br />

3.8<br />

eignen sich für die singuläre Störungstechnik ? p. 306<br />

Numerische Integration von Index-1-DAEs mit Radau-ESV → Sect. 3.4<br />

3.8<br />

p. 308


Bemerkung 3.8.6. Radau-ESV auch geeignet für Index-1-DAEs (!) in der Form (3.8.1) Mẏ = f(y)<br />

△<br />

Bemerkung 3.8.7 (MATLAB-Integratoren für Index-1-DAEs).<br />

MATLAB-CODE : Lösung einer Index-1-DAE<br />

f = @(t,y) [ ... ];<br />

J = @(t,y) [ ... ];<br />

M = @(t,y) [ ... ];<br />

opts = odeset(’Mass’,M,’Jacobian’,J);<br />

[t,y] = ode15s(f,tspan,y0,opts);<br />

MATLAB-Code zur Lösung allgemeiner<br />

DAEs<br />

Funktion f<br />

Jacobi-Matrix D y f<br />

M(t,y)ẏ = f(t,y) .<br />

x 2<br />

0<br />

Zwangskraft F z<br />

g<br />

Mathematisches Pendel (Aufhängung in 0)<br />

x 1<br />

Zwangskraft (Zug des Stabs) hält Pendelmasse<br />

mg<br />

F z (x) = −λx . (3.8.5)<br />

(x = (x 1 ,x 2 ) T ˆ= Position der Masse)<br />

Fig. 121<br />

auf der Kreisbahn<br />

( 0<br />

F z (x) − mg ⊥ x . (3.8.4)<br />

1)<br />

Zwangskraft in Richtung des Stabes:<br />

Alternativer Integrator: ode23t (gleicher Aufruf)<br />

Matrix(funktion) M(t,y)<br />

Bewegungsgleichungen in Deskriptorform: (↔ Minimalkoordinaten in Bsp. 1.2.7)<br />

( 0<br />

mẍ = −λx − mg , x<br />

1)<br />

2 1 + x2 2 = l2 . (3.8.6)<br />

(Beachte: Alle MATLAB DAE-Integratoren benutzen adaptive Schrittweitensteuerung, vgl. Sect. 2.6)<br />

△<br />

Lagrange-Multiplikator ➣ Zwangskraft Zwangsbedingung<br />

Beispiel 3.8.8 (Lösung der Schaltkreis-DAEs mit MATLAB).<br />

DAE (3.8.1) mit C = 1, R 2 = 1, R 1 = 1000, K = 10, I 0 = 10−4 p. 309<br />

MATLAB-Integratoren ode23t, ode15s, default Toleranzen<br />

voltages<br />

1<br />

0.8<br />

0.6<br />

0.4<br />

0.2<br />

0<br />

−0.2<br />

−0.4<br />

−0.6<br />

−0.8<br />

ode15s: Circuit DAE<br />

u 0<br />

(t)<br />

u 1<br />

(t)<br />

u 2<br />

(t)<br />

voltages<br />

1<br />

0.8<br />

0.6<br />

0.4<br />

0.2<br />

0<br />

−0.2<br />

−0.4<br />

−0.6<br />

−0.8<br />

ode23t: Circuit DAE<br />

u 0<br />

(t)<br />

u 1<br />

(t)<br />

u 2<br />

(t)<br />

3.8<br />

(3.8.6) ˆ= 2. Ordnung ➣ Umwandlung in separierte DAE (3.8.2) 1. Ordnung:<br />

⎛ ⎞ ⎛ ⎞<br />

ẋ 1 p 1<br />

(3.8.6) ➢ m ⎜ ẋ2<br />

⎟<br />

⎝ ṗ1 ⎠ = ⎜ p 2<br />

⎟<br />

⎝ −λx 1 ⎠ , x2 1 + x2 2 = l2 . (3.8.7)<br />

ṗ2 −λx 2 − g<br />

(3.8.7) ist DAE vom Index > 1 !<br />

Differenzieren der Zwangsbedingung x 1 p 1 + x 2 p 2 = 0 , (3.8.8)<br />

Nochmaliges Differenzieren (p 2 1 + p2 2 ) − λ(x2 1 + x2 2 ) − gx 2 = 0 . (3.8.9)<br />

3.8<br />

p. 311<br />

−1<br />

0 2 4 6 8 10 12 14 16<br />

time t<br />

Fig. 119<br />

t i<br />

−1<br />

0 2 4 6 8 10 12 14 16<br />

time t<br />

t i<br />

Fig. 120 ✸<br />

• (3.8.8), (3.8.9) ˆ= versteckte Nebenbedingungen (von den Anfangswerten zu erfüllen !)<br />

3.8.3 DAEs mit höherem Index<br />

• Erst nach zweimaligem Differenzieren der Nebenbedingung können wir die daraus resultierende<br />

Nebenbedingung (3.8.9) nach λ auflösen ➥ (3.8.7) hat Index 3<br />

Beispiel 3.8.9 (Pendelgleichung in Deskriptorform). → Bsp. 1.2.7<br />

3.8<br />

p. 310<br />

✸<br />

3.8<br />

p. 312


Bemerkung 3.8.10 (Hamiltonsche Bewegungsgleichungen mit Nebenbedingungen).<br />

△<br />

Betrachte:<br />

Mechanisches System mit Hamilton-Funktion (→ Def. 1.2.2) H = H(p,q)<br />

(q ∈ R n ˆ= Konfigurationsvariable, p ∈ R n ˆ= Impulsvariable, siehe Sect. 1.2.4)<br />

Zwangsbedingungen für Konfigurationen:<br />

c(q(t)) = 0 ∀t ≥ 0, c : R n ↦→ R m , m < n<br />

Beispiel 3.8.11 (MATLAB-Integratoren für Pendelgleichung in Deskriptorform).<br />

MATLAB ode15s/ode23t angewandt auf (3.8.7):<br />

Hamiltonsche Bewegungsgleichungen mit Zwangsbedingungen<br />

Falls m = 1 ➣<br />

˙q = ∂H<br />

∂p (p,q)<br />

ṗ = − ∂H<br />

∂q (p,q) − Dc(q)T λ<br />

0 = c(q) .<br />

Lagrange-Multiplikator λ : R ↦→ R m<br />

c(q) = 0 beschreibt n − 1-dimensionale Mannigfaltigkeit im R n<br />

grad c(q) ˆ= Normalenvektor auf diese Mannigfaltigkeit<br />

λgrad c(q) ˆ= Zwangskraft orthogonal zur Mannigfaltigkeit, vgl. (3.8.4)<br />

(3.8.10)<br />

3.8<br />

p. 313<br />

??? Error using ==> funfun/private/daeic12 at 77<br />

This DAE appears to be of index greater than 1.<br />

Error in ==> ode15s at 394<br />

[y,yp,f0,dfdy,nFE,nPD,Jfac] = daeic12(odeFcn,odeArgs,...)<br />

Idee:<br />

MATLAB”, probiere Nebenbedingung (3.8.9)<br />

ӆberliste<br />

⎛ ⎞ ⎛<br />

⎞<br />

1 0 0 0 0<br />

y 3<br />

0 1 0 0 0<br />

Mẏ = f(y): M =<br />

⎜0 0 1 0 0<br />

⎟<br />

⎝0 0 0 1 0⎠ , f(y) = y 4<br />

⎜<br />

−y 5 y 1<br />

⎟<br />

⎝ −y 5 y 2 − g ⎠ .<br />

0 0 0 0 0<br />

−y 5 (y1 2 + y2 2 ) − gy 2 + (y3 2 + y2 4 )<br />

l = 1, g = 9.8, Zeitspanne [0, 50], Löser: ode15s mit default-Toleranzen<br />

Konsistente Anfangswerte x 1 (0) = −x 2 (0) = 1 2√<br />

2, p1 (0) = p 2 (0) = 0 (→ λ(0)) p. 315<br />

3.8<br />

Häufiger Spezialfall:<br />

mit M ˆ= s.p.d. Massenmatrix, U ˆ= Potential,<br />

0.8<br />

0.6<br />

x 1<br />

x 2<br />

1.5<br />

H(p,q) = 1 2 pT M −1 p + U(q) (3.8.11)<br />

0.4<br />

1<br />

kinetische Energie<br />

potentielle Energie<br />

0.2<br />

0.5<br />

(3.8.10) ⇒ ˙q = M −1 p , ˙q = −grad U(q) − Dc(q) T λ , c(q) = 0 .<br />

position<br />

0<br />

−0.2<br />

constraint (length)<br />

v \dot x<br />

energy (scaled)<br />

0<br />

−0.4<br />

−0.6<br />

−0.5<br />

➢ Versteckte Nebenbedingungen ↔ (3.8.8), (3.8.9)<br />

−0.8<br />

0 =Dc(q) ∂H (p,q) , (3.8.12)<br />

∂p<br />

0 = ∂ (<br />

Dc(q) ∂H ) ( )<br />

∂H<br />

∂q ∂p (p,q) ∂p (p,q) − H ∂H<br />

Dc(q)∂2 ∂q 2 ∂q (p,q) + Dc(q)T λ . (3.8.13)<br />

−1<br />

0 5 10 15 20 25 30 35 40 45 50<br />

time t<br />

−1<br />

Fig. 122 0 5 10 15 20 25 30 35 40 45 50<br />

time t<br />

Fig. 123<br />

✸<br />

Beispiel 3.8.12 (Implizites Euler-Verfahren für Pendelgleichung in Deskriptorform).<br />

Für H der Form (3.8.11):<br />

∂ 2 H<br />

∂q 2 = M−1<br />

(invertierbare Matrix)<br />

AWP für Pendel-DAE (3.8.7) wie in Bsp. 3.8.11, Endzeitpunkt T = 5<br />

➣ (3.8.13) nach λ auflösbar, wenn Dc(q) T injektiv ⇔ Dc(q) hat vollen Rang (entlang der<br />

Lösungstrajektorie): Zwangsbedingungen unabhängig.<br />

3.8<br />

p. 314<br />

Implizites Eulerverfahren (1-stufiges Radau-ESV)<br />

3.8<br />

p. 316


Formale Anwendung eines Rückwärtsdifferenzenquotienten (→ Bem. 1.4.4) auf die Hamiltonsche<br />

Bewegunggleichung mit Zwangsbedingungen (3.8.10): berechne (q 1 ,p 1 ,λ 1 ) aus (q 0 ,p 0 ,λ 0 )<br />

gemäss<br />

q 1 = q 0 + h ∂H<br />

∂p (p 1,q 1 )<br />

p 1 = p 0 − h ∂H<br />

∂q (p 1,q 1 ) − hDc(q 1 ) T λ 1<br />

0 = c(q 1 ) .<br />

Konkret für Pendelgleichung in Deskriptorform (3.8.7), q ↔ x, H(p,q) = 1 2 ‖p‖2 + gx 2 :<br />

x 1 = x 0 + hp 1 ,<br />

( ( 0<br />

p 1 = p 0 − h λx 1 + ,<br />

g))<br />

0 = ‖x 1 ‖ 2 2 − l2 .<br />

Sect. 3.8.2:<br />

Singuläre Störungstechnik für Runge-Kutte-Einschrittverfahren<br />

Anwendung auf autonome DAE (Index > 1!)<br />

ẏ = f(y,λ) ,<br />

0 = c(y) .<br />

(3.8.14)<br />

(f : D × R q ↦→ R d , D ⊂ R d , c : D ↦→ R q , Annahme: Konsistente Anfangswerte<br />

y 0 , λ 0 zur Zeit t = 0)<br />

Zu (3.8.14) gehörendes singulär gestörtes Problem<br />

für ǫ → 0.<br />

ẏ = f(y, λ) ,<br />

ǫ ˙λ = c(y) ,<br />

Sect. 3.8.2 ➣ Betrachte steif-genaue RK-ESV<br />

3.8<br />

p. 317<br />

Formale Rechnung: Singuläre Störungstechnik für Runge-Kutta-Einschrittverfahren mit<br />

3.8<br />

p. 319<br />

maximal errors<br />

timestep h<br />

10 0<br />

10 −1<br />

x 1<br />

10 −2<br />

x 2<br />

v 1<br />

v 2<br />

λ<br />

O(h)<br />

10 −3<br />

10 −4 10 −3 10 −2 10 −1<br />

Fig. 124<br />

10 1<br />

✁ Fehler in Lösungskomponenten<br />

(diskrete Maximumnorm) für<br />

100, 200, 400, 1600, 3200, 6400, 12800 implizite<br />

Euler-Schritte<br />

( ”<br />

Exakte Lösung berechnet mit<br />

impliziter Mittelpunktsregel angewandt auf Minimalkoordinatenform,<br />

siehe Bsp. 1.4.11)<br />

Man beobachtet algebraische Konvergenz erster Ordnung in allen Lösungskomponenten !<br />

Butcher-Schema c A b T , b i = a s,i , i = 1,...,s :<br />

{ ẏ = f(y,λ)<br />

˙λ = 1 ǫ c(y)<br />

ǫ → 0 ⇒<br />

∑<br />

⎧⎪ ⎨ g i = y 0 + h s a ij f(g j ,gj λ)<br />

j=1<br />

⎪ ⎩ ǫgi λ ∑<br />

= ǫλ 0 + h s , i = 1,...,s<br />

a ij c(g j )<br />

j=1<br />

⎧<br />

∑<br />

⎪⎨ y 1 := y 0 + h s a s,i f(g i ,gi λ) = g s<br />

i=1<br />

⎪⎩ v 1 := v 0 + 1 ǫ h ∑ s a s,i c(g i ,gi λ) = gλ s<br />

i=1<br />

s∑<br />

a ij c(g j ) = 0, i = 1, ...,s ⇒ c(g j ) = 0<br />

j=1<br />

3.8<br />

p. 318<br />

Koeffizientenmatrix A := (a ij ) s i,j=1 regulär 3.8<br />

RK-ESV steif-genau ⇒<br />

p. 320<br />


➣ Stufengleichungen (→ Bem. 2.3.2) für steif-genaues RK-ESV für (3.8.14)<br />

⎧<br />

⎨ ∑<br />

g i = y 0 + h s a ij f(g j ,gj λ)<br />

j=1 , i = 1, ...,s , y<br />

⎩<br />

1 = g s . (3.8.15)<br />

0 = c(g i )<br />

Konvergenztheorie für (3.8.15) im Fall von DAEs mit Index 2:<br />

[15, Sect. VII.4]<br />

△<br />

Beachte:<br />

(3.8.15) ˆ= implizite Gleichung für Stufen g i ,g λ i<br />

(s(d + q) Unbekannte)<br />

Für s-stufig Radau-ESV: y h (t) konvergiert mit Ordnung 2s − 1, λ h (t) mit Ordnung s.<br />

λ 0 wird nicht benötigt!<br />

Bemerkung 3.8.13 (Implementierung steif-genauer RK-ESV für DAE).<br />

Formal: Stufengleichungen eines RK-ESV für allgemeine autonome DAE Mẏ = f(y), M ∈ R d,d<br />

singulär<br />

Mg i = My 0 + h<br />

s∑<br />

a ij f(g j ) , i = 1, ...,s .<br />

j=1<br />

⇕<br />

⎛<br />

M(g 1 − y 0 ) − h s ⎞<br />

∑<br />

a 1j f(g j )<br />

⎛<br />

j=1<br />

F(g) = 0 , F(g) =<br />

.<br />

, g = ⎝ g ⎞<br />

1<br />

. ⎠ . (3.8.16)<br />

⎜<br />

⎝<br />

∑<br />

M(g s − y 0 ) − h s ⎟<br />

a sj f(g j )<br />

⎠ g s<br />

j=1<br />

3.8<br />

p. 321<br />

3.8<br />

p. 323<br />

(steif-genau !)<br />

y 1 = g s<br />

MATLAB-CODE : steif-genaues RK-ESV für DAE<br />

function y1 = rksadaestep(rhs,M,y0,h,A)<br />

d = length(y0);<br />

s = size(A,1);<br />

F = @(gv) stagefn(gv,y,h,fun,A,M);<br />

[dgv,r,flg] = fsolve(F,zeros(s*d,1));<br />

if (flg


4.1 Polynomiale Invarianten<br />

Erinnerung an Def. 1.2.1 & (1.2.4): Konzept und Eigenschaften von Invarianten/ersten Integralen<br />

Beispiele: Massenerhaltung → Sect. 1.2.2, Energieerhaltung → Lemma 1.2.3, Längenerhaltung<br />

Bsp. 1.4.7<br />

MATLAB-CODE : Berechnung des Präzession einer Magnetnadel<br />

h = [-1;-1;-1]; tspan = [0 10000]; y0 = [0.5*sqrt(2);0;0.5*sqrt(2)];<br />

fun = @(t,x) cross(x,h);<br />

Jac = @(t,x) [0 h(3) -h(2); -h(3) 0 h(1); h(2) -h(1) 0];<br />

options = odeset(’reltol’,0.001,’abstol’,1e-4,’stats’,’on’);<br />

[t45,y45] = ode45(fun,tspan,y0,options);<br />

options = odeset(’reltol’,0.001,’abstol’,1e-4,’stats’,’on’,’Jacobian’,Jac);<br />

[t23,y23] = ode23s(fun,tspan,y0,options);<br />

Betrachte: AWP für autonome ODE ẏ = f(y) auf Zustandsraum D ⊂ R d<br />

t ↦→ y(t) ˆ= Lösung zum Anfangswert y 0 ∈ D<br />

Erinnerung: erstes Integral I : D ↦→ R erfüllt I(y(t)) = const für jede Lösung y(t) (→ Def. 1.2.1)<br />

ode45: 24537 successful steps, 7432 failed attempts, 191815 function evaluations<br />

ode23s: 93447 successful steps, 4632 failed attempts, 289607 function evaluations<br />

1.1<br />

1.05<br />

ode45<br />

oed23s<br />

(1.2.4): I ist erstes Integral von ẏ = f(y) ⇔ gradI(y) · f(y) = 0 für alle y ∈ D.<br />

lineares erstes Integral : I(y) = b T y + c mit b ∈ R d , c ∈ R<br />

quadratisches erstes Integral : I(y) = 1 2 yT Ay + b T y + c mit A ∈ R d,d , b ∈ R d , c ∈ R<br />

Definition 4.1.1 (Polynomiale Invarianten).<br />

Ein erstes Integral I(y) ist polynomial vom Grad n, n ∈ N, wenn<br />

∑<br />

I(y) = β α y α , β α ∈ R (Multivariates Polynom) .<br />

α∈N d 0 , |α|≤n<br />

4.1<br />

p. 325<br />

y 3<br />

1<br />

0.5<br />

0<br />

−0.5<br />

1<br />

0.5<br />

0<br />

y 1<br />

−0.5<br />

1<br />

0.5<br />

y(t)<br />

ode45<br />

ode23s<br />

y 2<br />

0<br />

−0.5<br />

Fig. 125<br />

➣ Keine Erhaltung von ‖y(t)‖ über lange Zeiten<br />

Einschrittverfahren auf äquidistanten Zeitgittern (qualitatives Verhalten):<br />

Laenge |y(t)|<br />

1<br />

0.95<br />

0.9<br />

0.85<br />

0.8<br />

0.75<br />

0 2000 4000 6000 8000 10000<br />

t<br />

1.05<br />

1<br />

4.1<br />

Fig. 126 p. 327<br />

✎ Multiindexnotation: α = (α 1 ,...,α d ) ∈ N d 0 , |α| = ∑ i α i, y α := y α 1<br />

1 · · · · · · · yα d<br />

d<br />

1<br />

0.95<br />

0.9<br />

Beispiel 4.1.1 (Präzession einer Magnetnadel).<br />

y : R ↦→ R 3 = Trajektorie der Spitze einer Magnetnadel (im äusseren Feld h) ➣ Bewegungsgleichung<br />

⎛<br />

ẏ = y × h , Kreuzprodukt y × h = ⎝ y ⎞<br />

2h 3 − y 3 h 2<br />

y 3 h 1 − y 1 h 3 ⎠ ⊥y<br />

y 1 h 2 − y 2 h 1 ∥<br />

Quadratische Invarianten:<br />

∥y (m) (t) ∥ = const , m ∈ N 0<br />

0.5<br />

0<br />

−0.5<br />

1<br />

0.5<br />

0<br />

y 3<br />

−0.5<br />

1<br />

y(t)<br />

RK4 method<br />

Gauss−Koll., s=2<br />

RADAU, s=3<br />

0.5<br />

0<br />

−0.5<br />

Fig. 127<br />

|y(t)|<br />

0.85<br />

0.8<br />

0.75<br />

0.7<br />

0.65<br />

RK4 method<br />

0.6 Gauss−Koll., s=2<br />

RADAU, s=3<br />

0.55<br />

0 200 400 600 800 1000<br />

t<br />

Fig. 128<br />

Anfangswert: y 0 = ( 1 2√<br />

2, 0, 1, 1<br />

2<br />

√<br />

2) T<br />

4.1<br />

p. 326<br />

4.1<br />

p. 328


|y(t)xh|<br />

1.6<br />

1.4<br />

1.2<br />

1<br />

0.8<br />

0.6<br />

△<br />

✁ Erhaltung aller quadratischer Invarianten nur<br />

durch das Gauss-Kollokationsverfahren.<br />

Aus Kollokationsbedingungen (4.1.1) und (1.2.4)<br />

d ′ (τ) = hgrad I(y h (τ)) · ẏ h (τh) ⇒<br />

Da d(0) = I(y 0 ), d(1) = I(y 1 ) folgt die Behauptung.<br />

Nachtrag zu Sect. 3.3:<br />

d ′ (c i ) = hgradI(y h (c i h)) · f(y h (c i h)) = 0 .<br />

} {{ }<br />

=0<br />

✷<br />

0.4 RK4 method<br />

Gauss−Koll., s=2<br />

RADAU, s=3<br />

0.2<br />

0 200 400 600 800 1000<br />

t<br />

Fig. 129<br />

✸<br />

✬<br />

Theorem 4.1.4 (Stabilitätsgebiet von Gauss-Kollokations-ESV).<br />

Für Gauss-Kollokations-ESV gilt:<br />

S Ψ = C −<br />

✩<br />

✬<br />

✩<br />

✫<br />

✪<br />

Theorem 4.1.2 (Erhaltung linearer Invarianten).<br />

Alle Runge-Kutta-Einschrittverfahren (→ Def. 2.3.1) erhalten lineare erste Integrale.<br />

✫<br />

✪<br />

Beweis.<br />

➊ Wende RK-ESV an auf ODE ẏ = Ay mit A T = −A (schiefsymmetrische Matrix)<br />

Beweis. Lineare Invariante I(y) = b T y + c, b ∈ R d , c ∈ R ➣ gradI(y) = b ∀y ∈ D<br />

(1.2.4) ⇒ b · f(y) = 0 ,<br />

s∑<br />

⇒ b · f(t 0 + c i h,y 0 + h a ij k j ) = b · k i = 0 , i = 1, . ..,s (für Inkremente) ,<br />

j=1<br />

4.1<br />

p. 329<br />

➢ ‖y(t)‖ 2 ist quadratische Invariante der Evolution, da y T Ay = 0 für alle y ∈ R d<br />

Beachte: A diagonalisierbar mit σ(A) ⊂ iR. Zu jedem µ ∈ R können wir A ∈ R d,d , A T = −A,<br />

so wählen, dass iµ ∈ σ(A).<br />

4.1<br />

p. 331<br />

⇒ I(y 1 ) = b · y 1 + c = b · (y s∑ )<br />

0 + b i k i = b · y0 + c = I(y 0 ) .<br />

i=1<br />

✷<br />

Für Eigenvektor y zu Eigenwert iµ: Ay = iuy ⇒ S(hA)y = S(iµ)y<br />

⇒ ‖y‖ 2 ∥<br />

= ∥Ψ h y∥ 2 = ‖S(iµh)y‖ 2 = |S(iµh)| 2 ‖y‖ 2 ⇒ |S(iµh)| = 1 ,<br />

wobei Ψ h , h > 0, die diskrete Evolution des RK-ESV fuer ẏ = Ay und S(z) die Stabilitätsfunktion.<br />

✬<br />

Theorem 4.1.3 (Erhaltung quadratischer Invarianten).<br />

✫<br />

Gauss-Kollokations-ESV (→ Sect. 2.2.2) erhalten quadratische erste Integrale.<br />

Beweis. (für autonome ODE ẏ = f(y), vgl. Beweis von Thm. 3.3.4)<br />

y h (t) ∈ P s ˆ= Gauss-Kollokationspolynom zum Anfangswert y 0 (t 0 = 0):<br />

˙ y h (c i h) = f(y h (c i h)) , h ˆ= Schrittweite, vgl. (2.2.1) . (4.1.1)<br />

Quadratische Invariante:<br />

I(y) = 1 2 yT Ay + b T y + c mit A ∈ R d,d , b ∈ R d , c ∈ R<br />

d(τ) := I(y h (τh)) ist Polynom vom Grad ≤ 2s .<br />

Da s-Punkt Gauss-Quadraturformel exakt für Polynome vom Grad ≤ 2s − 1 und d ′ ∈ P 2s−1<br />

∫ 1<br />

s∑<br />

d(1) = d(0) + d ′ (τ) dτ = d(0) + b i d ′ (c i ) .<br />

0<br />

} i=1 {{ }<br />

!<br />

Ziel =0<br />

✩<br />

✪<br />

4.1<br />

p. 330<br />

➋<br />

|S(iµ)| = 1 ∀µ ∈ R .<br />

Da S(z) rationale Funktion mit reellen Koeffizienten: S(z) = S(z).<br />

Re z = 0 ⇒ 1 = |S(z)| 2 = S(z)S(z) = S(z)S(−z) (4.1.2)<br />

(S rational) Analytische Fortsetzung ⇒ S(z)S(−z) = 1 ∀z ∈ C \ {Polstellen}.<br />

➌ Thm. 3.3.4 & Lemma 3.3.5 ⇒ Gauss-Kollokations-ESV A-stabil (→ Def. 3.2.7)<br />

⇒ S(z) hat keine Pole in C − .<br />

⇒ S als rationale Funktion analytisch in C − .<br />

(4.1.2) & A-Stabilität ⇒ S Ψ = C − . ✷<br />

4.1<br />

p. 332


✬<br />

✩<br />

✬<br />

✩<br />

Lemma 4.1.5 (Erhaltung quadratischer Invarianten durch RK-ESV).<br />

Erfüllen die Koeffizienten eines s-stufigen (konsistenten) Runge-Kutta-Einschrittverfahrens (→<br />

Def. 2.3.1)<br />

b i a ij + b j a ji = b i b j für alle i,j = 1, ...,s , (4.1.3)<br />

Lemma 4.1.7 (Ableitung der Determinantenfunktion).<br />

Für die Determinantenfunktion det : R n,n ↦→ R gilt<br />

D det(X)H = trace(adj(X)H) , X,H ∈ R d,d .<br />

✫<br />

✪<br />

dann erhält dessen diskrete Evolution quadratische erste Integrale.<br />

✫<br />

Beweis: (für vereinfachte quadratische Invariante I(y) := 1 2 yT Qy, Q ∈ R d,d , Q = Q T )<br />

✪<br />

d∑<br />

✎ Notation: Spur einer Matrix A = (a ij ) d i,j=1 ∈ Rd,d : trace(A) = a jj<br />

j=1<br />

➢ gradI(y) = Qy ⇒ y T Qf(y) = 0 ∀y ∈ D . (4.1.4)<br />

Ein Schritt des RK-ESV mit Inkrementen k i , vgl. Def. 2.3.1:<br />

✎ Notation: adjungierte Matrix (adj(X)) ij = (−1) i+j det( ˇX ij ), X ∈ R d , 1 ≤ i,j ≤ d, ˇX ij ˆ=<br />

Matrix, die aus X durch Streichen der i. Zeile und j. Spalte ensteht (Minor).<br />

Stufen:<br />

y 1 = y 0 + h<br />

i=1<br />

s∑<br />

b i k i ,<br />

i=1<br />

s∑<br />

s∑ s∑<br />

y1 T Qy 1 − y0 T Qy 0 = 2h b i y0 T Qk i + h 2 b i b j k T i Qk j . (4.1.5)<br />

i=1 j=1<br />

∑<br />

g i = y 0 + h s a ij f(g j ) ➣ k i = f(g i ), i = 1, ...,s,<br />

∑<br />

y 0 = g i − h s a ij f(g j ) .<br />

j=1<br />

j=1<br />

4.1<br />

p. 333<br />

☞ Bekannt aus der linearen Algebra [7, Lemma 4.3.4]: A · adj(A) = det(A) · I<br />

Beweis. Als Polynom in den Matrixelementen ist A ↦→ detA eine C ∞ -Funktion:<br />

detA := ∑ n∏<br />

sgn(σ) a i,σ(i) .<br />

σ∈Π n i=1<br />

4.1<br />

p. 335<br />

Einsetzen in (4.1.5), da aus (4.1.4) folgt g i Qf(g i ) = 0:<br />

y T 1 Qy 1 − y T 0 Qy 0 = 2h<br />

i=1<br />

s∑<br />

b i<br />

⎛<br />

⎝g i − h<br />

j=1<br />

⎞T<br />

s∑<br />

s∑ s∑<br />

a ij f(g j ) ⎠ Qf(g i ) + h 2 b i b j f(g i ) T Qf(g j )<br />

i=1 j=1<br />

i=1 j=1<br />

s∑ s∑<br />

s∑ s∑<br />

= −2h 2 b i a ij f(g j ) T Qf(g i ) + h 2 b i b j f(g i ) T Qf(g j )<br />

i=1 j=1<br />

s∑ s∑<br />

= h 2 (−2b i a ij + b i b j )f(g i ) T Qf(g j ) .<br />

i=1 j=1<br />

Q = Q T ➣ Indexvertauschung in der Doppelsumme ➣ Behauptung. ✷<br />

det(I + ǫH) = ∑ n∏<br />

sgn(σ) (δ i,σ(i) + ǫh i,σ(i) )<br />

σ∈Π n i=1<br />

n∏<br />

n∑<br />

= (1 + ǫh ii ) + O(ǫ 2 ) = 1 + ǫ h ii + O(ǫ 2 ) . ,<br />

i=1<br />

für H = (h ij ) d i,j=1 , denn jede Permutation ≠ Id erzeugt ein Produkt der Grösse O(ǫ2 ). Daher für<br />

reguläres X ∈ R d,d :<br />

i=1<br />

det(X + ǫH) − det(X) = ǫ trace(det(X)X<br />

} {{ −1 H) + O(ǫ<br />

}<br />

2 ) .<br />

adj(X)<br />

Da die regulären Matrizen in R d,d dicht liegen, X ↦→ adjX stetig →<br />

✷<br />

✬<br />

✩<br />

Beweis von Thm. 4.1.6 (Widerspruchsbeweis)<br />

Theorem 4.1.6 (Nichterhaltung allgemeiner polynomialer Invarianten).<br />

Für n ≥ 3 gibt es kein zu ẏ = f(y) konsistentes Runge-Kutta-Einschrittverfahren (→ Def. 2.3.1)<br />

das alle polynomialen Invarianten (→ Def. 4.1.1) der Dgl. vom Grad n erhält.<br />

t ↦→ Y(t) löse lineare Matrix-Differentialgleichung Ẏ = AY, A ∈ R d<br />

Mit Lemma 4.1.7 folgt<br />

✫<br />

Hilfssatz für den Beweis:<br />

✪<br />

4.1<br />

p. 334<br />

D Y I(Y)H = detY · trace(HY −1 ) ⇒ d dt detY(t) = Y trace(ẎY−1 ) = Y trace(A) .<br />

(4.1.6)<br />

4.1<br />

p. 336


⇒<br />

★<br />

Falls trace(A) = 0 ist I(Y) := detY eine polynomiale Invariante vom Grad d der<br />

Matrix-Differentialgleichung Ẏ = AY.<br />

✧<br />

Annahme: RK-ESV erhält Polynomiale Invarianten vom Grad d > 2. Wende das Verfahren an auf<br />

Ẏ = AY, trace(A) = 0, A ∈ R d,d . Nach Bem. 3.1.5, (3.1.6)<br />

Y 1 = S(hA)Y 0 mit Stabilitätsfunktion S(z) , h > 0 .<br />

detY 1 = detY 0 ∀Y 0 ⇒ det S(hA) = 1<br />

Wähle spezielle (diagonale !) Matrix mit trace(A) = 0 und Zeitschrittweite h = 1<br />

A = diag(µ, ν, −(µ + ν), 0,...,0) ∈ R d,d , µ, ν ∈ R .<br />

S(A) = diag(S(µ), S(ν),S(−(µ + ν)), 0, ...,0)<br />

Aus det S(A) = 1 folgt, dass S die Funktionalgleichung S(µ)S(ν)S(−(µ + nu)) = 1 erfüllt.<br />

⇒ S(0) = 1 ⇒ S(−µ) = S(µ) −1 ⇒ S(µ)S(ν) = S(µ + ν) ∀µ, ν ∈ R .<br />

z ↦→ S(z) erfüllt die Funktionalgleichung der Exponentialfunktion, ist stetig in Umgebung von 0 ⇒<br />

S(z) = exp(z).<br />

Andererseits muss S(z) eine rationale Funktion sein, siehe Thm. 3.1.2, ein Widerspruch ✷<br />

4.2 Volumenerhaltung<br />

✥<br />

✦<br />

4.2<br />

p. 337<br />

✬<br />

Theorem 4.2.3 (Satz von Liouville).<br />

Sei f : D ⊂ R d ↦→ R d stetig differenzierbar. Genau dann wenn divf(y) = 0 für jedes y ∈ D,<br />

ist die zu ẏ = f(y) gehörige Evolution Φ t volumenerhaltend, d.h.<br />

✫<br />

∀V ⊂ D kompakt: ∃δ > 0: Vol(Φ t (V )) = Vol(V ) ∀0 ≤ t < δ .<br />

∑<br />

✎ Notation: Divergenz divf(y) = d ∂f i<br />

(y) = traceDf(y), mit f = (f<br />

j=1 ∂y 1 , . ..,f d ) T<br />

i<br />

Beweis. (basierend auf Lemma 4.2.2, vgl. [11, Lemma 9.1])<br />

Sei Φ : ˜Ω ↦→ D der Evolutionsoperator zur autonomen ODE ẏ = f(y).<br />

Jacobi-Matrix (Propagationsmatrix)<br />

(1.3.20)<br />

W(t,y) = D y Φ t (y), y ∈ D, erfüllt die Variationsgleichung<br />

d<br />

dt W(t,y) = Df(Φt y)W(t,y) , t ∈ J(y) , W(0,y) = I . (4.2.1)<br />

Wie im Beweis zu Thm. 4.1.6, aus Lemma 4.1.7, vgl. (4.1.6):<br />

“⇒” aus (4.2.2), da detW(0,y) = 1<br />

d<br />

dt detW(t,y) = detW(t,y) trace(Ẇ(t,y)W−1 (t,y))<br />

= detW(t,y) trace(Df(Φ t y))<br />

= detW(t,y) divf(Φ t y) .<br />

(4.2.2)<br />

✩<br />

✪<br />

4.2<br />

p. 339<br />

Physik: inkompressible Strömung ↔ volumenerhaltender Fluss<br />

Definition 4.2.1 (Volumenerhaltung).<br />

Eine Abbildung Φ : D ⊂ R d ↦→ R d heisst volumenerhaltend<br />

∀V ⊂ D messbar: Vol(Φ(V )) = Vol(V ) .<br />

“⇐”: Wenn divf ≠ 0, dann gibt esδ > 0, V ⊂ D so dass | divf(y)| > δ für alle y ∈ V . Daher, für<br />

y ∈ V ,<br />

d<br />

d<br />

detW(t,y) ≥ δ detW(t,y) oder detW(t,y) ≤ −δ detW(t,y) .<br />

dt dt<br />

⇒ t ↦→ detW(t,y) wächst/fällt exponentiell. ✷<br />

✬<br />

Lemma 4.2.2 (Volumenerhaltende Abbildungen).<br />

Eine stetig differenzierbare Abbildung Φ : D ⊂ R d ↦→ R d ist genau dann volumenerhaltend,<br />

wenn | detDΦ(y)| = 1 für alle y ∈ D.<br />

✫<br />

✩<br />

✪<br />

✗<br />

✖<br />

Inkompressible Strömung ↔ divergenzfreie Geschwindigkeitsfelder<br />

Beispiel 4.2.1 (Strömungsvisualisierung).<br />

Anwendung numerischer ODE-Löser in der Computergraphik:<br />

✔<br />

✕<br />

Beweis. Nach dem Transformationssatz für Integrale:<br />

∫ ∫<br />

Vol(Φ(V )) = 1 dx =<br />

| det DΦ(y)| dy . ✷<br />

Φ(V )<br />

V<br />

4.2<br />

p. 338<br />

4.2<br />

p. 340


−1<br />

x 3<br />

1<br />

0.8<br />

0.6<br />

0.4<br />

0.2<br />

0<br />

−0.5<br />

0<br />

x 1<br />

0.5<br />

1 −1<br />

−0.5<br />

x 2<br />

0<br />

0.5<br />

Fig. 130<br />

1<br />

Divergenzfreies Vektorfeld:<br />

⎛<br />

−y 2 − y ⎞<br />

1<br />

a 2 +y3<br />

2<br />

f(y) = ⎜<br />

⎝ y 1 − y 2 ⎟<br />

a 2 +y3<br />

2 ⎠ , y ∈ R3 .<br />

2/a arctan(y 3/a)<br />

MATLAB-function<br />

Volumenerhaltende numerische ODE-Löser (“Integratoren”) ?<br />

streamline(X,Y,Z,U,V,W,...)<br />

Stromlinien von f ˆ= Lösungen von AWPe zur<br />

autonomomen ODE ẏ = f(y).<br />

✸<br />

Der Beweis im allgemeinen Fall stützt sich auf implzites Differenzieren der Runge-Kutta-<br />

Inkrementgleichungen, siehe Def. 2.3.1.<br />

Bemerkung 4.2.2 (Volumenerhaltende Integratoren für d = 2).<br />

Für RK-ESV im Fall d = 2:<br />

Erhalt quadratischer Invarianten =⇒ Volumenerhaltung<br />

( )<br />

w11 w<br />

Für d = 2: detW = w 11 w 22 − w 12 w 21 ist quadratische Funktion (W = 12 ˆ=<br />

w 21 w 22<br />

Propagationsmatrix/Wronsk-Matrix, siehe (1.3.19)). Ist die Evolution zu ẏ = f(y) volumenerhaltend,<br />

so gilt detW(t) ≡ 1, also is detW eine quadratische Invariante der Variationsgleichung und wird<br />

vom RK-ESV erhalten.<br />

Nach Lemma 4.2.4 gilt dann<br />

∀h > 0:<br />

(<br />

det D y0 Ψ h) = 1 .<br />

✬<br />

Lemma 4.2.4 (Variationsgleichung und Runge-Kutta-Einschrittverfahren).<br />

Für Runge-Kutta-Einschrittverfahren (→ Def. 2.3.1) kommutiert das folgende Diagramm<br />

ẏ = f(y), y(0) = y 0<br />

⏐<br />

RK-ESV↓<br />

W:= ∂y<br />

∂y 0<br />

−−−−−→<br />

Variationsgleichung, siehe Sect. 1.3.3.4.<br />

ẏ = f(y), y(0) = y 0 ,<br />

Ẇ = Df(y)W, W(0) = I<br />

⏐<br />

⏐<br />

↓RK-ESV<br />

✩<br />

4.2<br />

p. 341<br />

Nach Lemma 4.2.2 ist die diskrete Evolution daher volumenerhaltend.<br />

d > 2: (Beweis von) Thm. 4.1.6 ➢ Allgemeine Runge-Kutta-Einschrittverfahren kommen nicht in<br />

Betracht !<br />

(Notwendig: Integratoren mit “eingebauter Zusatzinformation” über f)<br />

△<br />

4.2<br />

p. 343<br />

(y k ) N k=1<br />

W k := ∂y k<br />

∂y 0<br />

−−−−−−→ (y k ,W k ) N k=1<br />

Idee: ➊ Additive Zerlegung von f in wesentlich zweidimensionale Vektorfelder<br />

✫<br />

Beweis: (nur für explizites Euler-Verfahren (1.4.2), vgl. [11, Lemma 4.1])<br />

✪<br />

➋ Splittingverfahren (→ Sect. 2.5) basierend auf RK-ESV, die<br />

quadratische Invarianten erhalten, siehe Sect. 4.1.<br />

Rekursion des expliziten Euler-Verfahrens für ẏ = f(y)<br />

y k+1 = y k + hf(y k )<br />

d<br />

dy<br />

=⇒ dy 0 k+1<br />

= dy k<br />

+ hDf(y<br />

dy 0 dy k ) dy k<br />

.<br />

0 dy 0<br />

Explizites Euler-Verfahren für (erweiterte) Variationsgleichung Ẇ = Df(y)W:<br />

d−1 ∑<br />

Zu ➊: f(y) = g i,i+1 (y) ,<br />

i=1<br />

Zu ➋: y k+1 =(Ψ h d−1 ◦ · · · ◦ Ψh 1 )y k ,<br />

g i,i+1 (y) = (0 · · · 0 ∗ ∗ 0 · · · 0) T<br />

↑ ↑ , divg i,i+1 = 0 .<br />

i i + 1<br />

W k+1 = W k + hDf(y k )W k .<br />

wobei Ψ h i ˆ= diskrete Evolution des RK-Basisverfahrens für<br />

ẏ = g i,i+1 (y).<br />

dy k<br />

dy 0<br />

und W k erfüllen die gleiche Rekursion.<br />

✷<br />

4.2<br />

p. 342<br />

Verallgemeinertes Lie-Trotter-Splitting (2.5.2)<br />

4.2<br />

p. 344


Existenz der Vektorfelder g i,i+1 ?<br />

✬<br />

Theorem 4.2.5 (Zerlegung in divergenzfreie Vektorfelder).<br />

Jedes stetige divergenzfreie f : R d ↦→ R d lässt sich darstellen als Summe von d −1 divergenzfreien<br />

Vektorfeldern g i,i+1 : R d ↦→ R d der Form<br />

g i,i+1 (y) = (0 · · · 0 p i (y) q i (y) 0 · · · 0) T , i = 1, ...,d − 1 ,<br />

↑ ↑<br />

i i + 1<br />

mit Funktionen p i , q i : R d ↦→ R.<br />

✩<br />

Einfachstes volumenerhaltendes Splittingverfahren 2. Ordnung:<br />

Basis-RK-ESV: implizite Mittelpunktsregel (1.4.11), Ψ h i ˆ= diskrete Evolutionen zu ẏ = g i,i+1 (y)<br />

➥ Ψ h i volumenerhaltend, siehe Bem. 4.2.2 !<br />

Verallgemeinertes Strang-Splitting (2.5.3)<br />

Ψ h := Ψ h/2<br />

1 ◦ Ψ h/2<br />

2 ◦ · · · ◦ Ψ h/2<br />

d−2 ◦ Ψh d−1 ◦ Ψh/2 d−2 ◦ · · · ◦ Ψh/2 1 .<br />

symmetrisches Einschrittverfahren → Def. 2.1.14<br />

Thm. 2.1.15<br />

⇒ Konsistenzordnung ≥ 2<br />

△<br />

✫<br />

⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞<br />

f 1 (y) p 1 (y) 0 0<br />

f 2 (y)<br />

q 1 (y)<br />

p 2 (y)<br />

0<br />

0.<br />

0.<br />

f 3 (y)<br />

0<br />

q 2 (y)<br />

p 3 (y)<br />

0<br />

0<br />

f(y) =<br />

f 4 (y)<br />

=<br />

0<br />

+<br />

0<br />

+<br />

q 3 (y)<br />

+ · · · +<br />

0<br />

+<br />

0<br />

.<br />

⎜<br />

.<br />

⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜<br />

p d−2 (y)<br />

⎟ ⎜<br />

0<br />

⎟<br />

⎝f d−1 (y) ⎠ ⎝<br />

0. ⎠ ⎝<br />

0. ⎠ ⎝<br />

0. ⎠ ⎝q d−2 (y) ⎠ ⎝p d−1 (y) ⎠<br />

f d (y) 0 0 0<br />

0 q d−1 (y)<br />

Beweis. (vgl. [11, Theorem 9.3])<br />

Konstruktiv für f = (f 1 , ...,f d ) T mit beliebigen a i ∈ R<br />

✪<br />

4.2<br />

p. 345<br />

4.3 Verallgemeinerte Reversibilität<br />

Sect. 2.1.5: reversible (symmetrische) diskrete Evolutionen/Einschrittverfahren → Def. 2.1.14<br />

(für autonome ODE) Ψ −h ◦ Ψ h = Id für h > 0 hinreichend klein<br />

D<br />

4.3<br />

p. 347<br />

p i (y) = f i (y) + r i (y) , q i (y) = −r i+1 (y) ,<br />

∫ y i ( ∂f1<br />

r i (y) = + · · · + ∂f )<br />

i−1<br />

(y<br />

∂y 1 ∂y 1 , ...,y i−1 ,τ, y i+1 , ...,y d ) dτ , 2 ≤ i ≤ d − 1 ,<br />

i−1<br />

a i<br />

r 1 (y) ≡ 0 ,<br />

⇒<br />

∂p i<br />

= ∂f i<br />

+ ∂f 1<br />

+ · · · + ∂f i−1<br />

,<br />

∂y i ∂y i ∂y 1 ∂y i−1<br />

1 ≤ i ≤ d − 1 .<br />

∂q i<br />

= − ∂f 1<br />

− · · · − ∂f i<br />

= − ∂p i<br />

.<br />

∂y i+1 ∂y 1 ∂y i ∂y i<br />

Also sind die Teilfelder alle divergenzfrei. Weiter, wegen divf = 0,<br />

⎛ ⎞<br />

y<br />

∑d−1<br />

d<br />

⎝ g i,i+1 (y) ⎠ = q d−1 (y) = −r d (y) = −<br />

i=1<br />

d<br />

∫<br />

a d<br />

∂f 1<br />

∂y 1<br />

+ · · · + ∂f d−1<br />

∂y d−1<br />

=<br />

y d ∫<br />

a d<br />

∂f d<br />

∂y d<br />

= f d (y) .<br />

Reversibilität<br />

⇕<br />

Symmetrie bzgl. Zeitumkehr<br />

Erinnerung an Thm. 2.1.15:<br />

✬<br />

Theorem 4.3.1 (Reversible Runge-Kutta-Einschrittverfahren).<br />

Ψ h Ψ −h t<br />

Fig. 131<br />

Reversible ESV haben gerade Konsistenzordnung<br />

Ein s-stufiges RK-ESV (→ Def. 2.3.1) mit Butcher-Tableau c A bT , siehe (2.3.4), ist reversibel<br />

(symmetrisch, → Def. 2.1.14), falls<br />

a s+1−i,s+1−j + a ij = b j ∀1 ≤ i,j ≤ s .<br />

✩<br />

Beachte: Konstruktion der g i,i+1 benötigt (symbolische) Ableitungen der f i .<br />

Bemerkung 4.2.3 (Volumenerhaltendes Splittingverfahren 2. Ordnung). p. 346<br />

4.2<br />

✫<br />

Beweis (siehe [11, Sect. V.2, Thm. 2.3])<br />

zu zeigen: y 0<br />

Ψ h<br />

−−→ y 1<br />

Ψ −h<br />

−−−→ y 0 .<br />

✪<br />

4.3<br />

p. 348


Technik: Teste Invarianz der Verfahrensgleichungen bei Vertauschung y 0 ↔ y 1 , h ↔ −h in den<br />

Verfahrensgleichungen<br />

⎧<br />

⎧<br />

s∑<br />

s∑<br />

k ⎪⎨ i = f(y 0 + h a ij k j ) , k ⎪⎨ i = f(y 1 − h a ij k j ) ,<br />

j=1<br />

j=1<br />

⇒<br />

s∑<br />

s∑<br />

⎪⎩<br />

y 1 = y 0 + h b i k i . ⎪⎩<br />

y 0 =y 1 − h b i k i .<br />

i=1⎧<br />

i=1<br />

s∑<br />

k ⎪⎨ i = f(y 0 + h (b j − a ij )k j ) ,<br />

j=1<br />

⇒<br />

(4.3.1)<br />

s∑<br />

⎪⎩<br />

y 1 = y 0 + h b i k i .<br />

i=1<br />

2a ij = b j ⇒ Gleichheit nach Vertauschung y 0 ↔ y 1 , h ↔ −h, doch leider liefert das kein<br />

sinnvolles RK-ESV (Ausnahme: implizite Mittelpunktsregel (1.4.11) mit s = 1, a 11 = 2 1 , b 1 = 1)<br />

Kommutierendes Diagramm:<br />

(p 0 ,q 0 )<br />

Umkehr der Geschwindigkeiten:<br />

p ←<br />

⏐<br />

↓<br />

−p<br />

p<br />

R<br />

(−p 0 ,q 0 )<br />

Φ t<br />

Evolution (4.3.2)<br />

−−−−−−−−−→<br />

von 0 bis T<br />

Evolution (4.3.2)<br />

←−−−−−−−−−<br />

von 0 bis T<br />

(p(T),q(T))<br />

⏐ Umkehr der Geschwindigkeiten:<br />

p ←<br />

↓<br />

−p<br />

(−p(T),q(T))<br />

⇔ Evolution Φ t zu (1.2.12) erfüllt<br />

R ◦ Φ t = Φ −t ◦ R (4.3.3)<br />

R<br />

mit Abbildung<br />

( ( )<br />

q<br />

p −p<br />

R = . (4.3.4)<br />

q)<br />

q<br />

(4.3.3) ˆ= Rückwärtsevolution” nach Umkehr der<br />

”<br />

Φ t Geschwindigkeiten<br />

✸<br />

4.3<br />

! Beachte: a s+1−i,s+1−j + a ij = b j ⇒ b s+1−i = b i<br />

p. 349<br />

➣ Umindizieren i ← s + 1 − i, j ← s + 1 − j unter den Annahme b s+1−i = b i<br />

⎧<br />

s∑<br />

k ⎪⎨ i = f(y 0 + h (b j − a s+1−i,s+1−j )k j ) ,<br />

j=1<br />

(4.3.1) ⇒<br />

s∑<br />

⎪⎩<br />

y 1 = y 0 + h b i k i .<br />

i=1<br />

= Ausgangs-RK-ESV, falls b j − a s+1−i,s+1−j = a ij ✷<br />

Abstraktion:<br />

Betrachte autonome AWPe ẏ = f(y), y(0) = y 0 ,<br />

f : D ↦→ R d lokal Lipschitz-stetig (→ Def. 1.3.2)<br />

Annahme: Für alle y 0 ∈ D existiert die Lösung für alle Zeiten, vgl. Def. 1.3.1<br />

Definition 4.3.2 (R-reversible Abbildung).<br />

Es sei R : D ↦→ D ⊂ R d eine bijektive lineare Abbildung.<br />

Eine weitere bijektive Abbildung Φ : D ↦→ D heisst R-reversibel, falls<br />

R ◦ Φ = Φ −1 ◦ R .<br />

4.3<br />

p. 351<br />

Neues Konzept:<br />

R-Reversibilität = “verallgemeinerte Zeitumkehrsymmetrie”<br />

Beispiel 4.3.1 (Reversibilität bei mechanischen Systemen).<br />

Hamiltonsche Differentialgleichung (→ Def. 1.2.2) mit Hamilton-Funktion<br />

{ R n × R n ↦→ R<br />

H :<br />

(p,q) ↦→ 1 2 pT M −1 ⇒ H(p,q) = H(−p,q) ,<br />

p + U(q) ,<br />

mit s.p.d. Massenmatrix M ∈ R d,d .<br />

ṗ(t) = − ∂H<br />

∂H<br />

(p(t),q(t)) = −gradU(q) , ˙q(t) =<br />

∂q ∂p (p(t),q(t)) = M−1 p . (4.3.2)<br />

4.3<br />

p. 350<br />

✬<br />

✩<br />

Lemma 4.3.3 (R-reversible Evolutionen).<br />

Die Evolution Φ t zu ẏ = f(y) ist R-reversibel für alle t ∈ R, falls<br />

f ◦ R = −R ◦ f auf D . (4.3.5)<br />

✫<br />

✪<br />

Beweis. (siehe [11, Sect. V.1]) Zu zeigen ist, wegen Φ t ◦ Φ −t = Id (Gruppeneigenschaft (1.3.2))<br />

R ◦ Φ t = (Φ t ) −1 ◦ R = Φ −t ◦ R . (4.3.6) 4.3<br />

p. 352


Idee:<br />

beide Seiten von (4.3.6) sind Lösungen des gleichen Anfangswertproblems, mit y ∈ D<br />

d<br />

dt ((R ◦ Φt )(y)) = Rf(Φ t (y)) = −f((R ◦ Φ t )(y)) , (4.3.7)<br />

d<br />

dt ((Φ−t ◦ R)(y)) = −f((Φ −t ◦ R)(y)) . (4.3.8)<br />

t ↦→ (R ◦ Φ t )(y) und t ↦→ (Φ −t ◦ R)(y) sind beides Lösungen des Anfangswertproblems<br />

ż = −f(z) , z(0) = Ry .<br />

Daher folgt (4.3.6) aus dem Eindeutigkeitssatz Thm. 1.3.4.<br />

Beispiel 4.3.2 (Fortsetzung: Reversibilität bei mechanischen Systemen). Bsp. 4.3.1<br />

✷<br />

Gemäss Def. 2.3.1, wegen Linearität von R<br />

⎧<br />

s∑<br />

k ⎪⎨ i = f(y + h a ij k j ) ,<br />

j=1<br />

s∑<br />

⎪⎩<br />

Ψ h y = y + h b i k i ,<br />

i=1<br />

(4.3.5)<br />

=⇒<br />

Transformierte Inkremente ˜k i := −Rk i erfüllen<br />

˜k i = f(Ry − h<br />

⎧<br />

s∑<br />

Rk ⎪⎨ i = −f(Ry + h a ij Rk j ) ,<br />

j=1<br />

s∑<br />

⎪⎩<br />

RΨ h y = Ry + h b i Rk i .<br />

i=1<br />

s∑<br />

a ij˜kj ) , i = 1, ...,s .<br />

j=1<br />

˜k i ˆ= Inkremente des RK-ESV zur Schrittweite −h, Anfangswert Ry ↔ Ψ −h RY<br />

Für Hamiltonsche Evolution (4.3.2) mit y = (p,q) T , d = 2n, R aus (4.3.4)<br />

( ) ( )<br />

−gradU(Rq (y)) −gradU(q)<br />

(f ◦ R)(y) =<br />

M −1 =<br />

R p (y) −M −1 = −R<br />

p<br />

ˆ= Voraussetzung von Lemma 4.3.3.<br />

( −gradU(q)<br />

M −1 p<br />

Alternative Perspektive: Hamiltonsche Dgl. (1.2.13) ẏ = J −1 gradH(y):<br />

)<br />

= −R(f(y)) .<br />

H(Ry) = H(y) ⇒ Rgrad H(Ry) = gradH(y) . (4.3.9)<br />

Für R aus (4.3.3): J ◦ R = −R ◦ J, R 2 = Id<br />

4.3<br />

p. 353<br />

RΨ h y = Ry − h<br />

➁ direkte Verifikation von Def. 4.3.2<br />

s∑<br />

b i˜ki = Ψ −h Ry ⇒ (4.3.10) .<br />

i=1<br />

RK-ESV reversibel/symmetrisch<br />

⇕<br />

(4.3.10)<br />

⇒ R ◦ Ψ h = Ψ −h ◦ R = (Ψ h ) −1 ◦ R . ✷<br />

Ψ −h = (Ψ h ) −1<br />

4.4 Symplektizität<br />

4.4<br />

p. 355<br />

(4.3.9)<br />

⇒ − R(J −1 gradH(y)) = J −1 R(grad H(y)) = J −1 RRgradH(Ry) = J −1 grad H(Ry) .<br />

ˆ= (4.3.5) für f(y) = J −1 grad H(y).<br />

✸<br />

4.4.1 Symplektische Evolutionen Hamiltonscher Differentialgleichungen<br />

✬<br />

Theorem 4.3.4 (R-reversible Runge-Kutta-Evolutionen).<br />

Die rechte Seite f der autonomen ODE ẏ = f(y) erfülle (4.3.5).<br />

Dann ist die von einem Runge-Kutta-Einschrittverfahren (→ Def. 2.3.1) erzeugte<br />

diskrete Evolution genau dann R-reversibel, wenn das RK-ESV reversibel/symmetrisch<br />

(→ Def. 2.1.14) ist.<br />

✫<br />

Beweis. (siehe [11, Sect. V.1, Thm. 1.5])<br />

➀<br />

Mit Notationen von Lemma 4.3.3 und Ψ h als diskrete Evolution des RK-ESV zur ODE ẏ = f(y)<br />

wird gezeigt (vgl. Beweis der Affin-Kovarianz von RK-ESV, Bem. 2.3.4)<br />

f ◦ R = −R ◦ f ⇒ R ◦ Ψ h = Ψ −h ◦ R . (4.3.10)<br />

✩<br />

✪<br />

4.3<br />

p. 354<br />

Erinnerung (Sect. 1.2.4): Hamiltonsche Differentialgleichung → Def. 1.2.2<br />

ṗ(t) = − ∂H<br />

∂q (p(t),q(t)) ,<br />

∂H<br />

˙q(t) = (p(t),q(t)) , (1.2.12)<br />

∂p<br />

mit (glatter) Hamilton-Funktion H : R n × M ↦→ R, Konfigurationsraum M ⊂ R n .<br />

y = ( p)<br />

( )<br />

q<br />

=⇒ (1.2.12) ⇔ ẏ = J −1 0 In<br />

· grad H(y) , J =<br />

∈ R<br />

−I n 0<br />

2n,2n . (1.2.13)<br />

Lemma 1.2.3 (Energieerhaltung): H ist Invariante von (1.2.12)<br />

Energieerhaltung ↔<br />

I(y) := H(y) ist Invariante/erstes Integral (→ Def. 1.2.1)<br />

von ẏ = f(y) := J −1 · gradH(y)<br />

(1.2.4) ➣ Lemma 1.2.3 aus gradH(y) · f(y) = grad H(y) T J −1 gradH(y) = 0, da J −1<br />

schiefsymmetrisch (vgl. Bemerkungen nach (1.2.13))<br />

4.4<br />

p. 356


Beispiel 4.4.1 (Energieerhaltung bei numerischer Integration). ↔ Bsp. 1.4.11<br />

Mathematisches Pendel Bsp. 1.2.7, AWP für (1.2.11) auf [0, 1000], p(0) = 0, q(0) = 7π/6.<br />

Vergleich von klassischem Runge-Kutta-Verfahren (2.3.7) (Ordnung 4) mit 1-stufigem<br />

Gauss-Kollokations-ESV (implizite Mittelpunktsregel 2.2.11), äquidistantes Gitter, h = 2 1 :<br />

9<br />

0.95<br />

0.9<br />

8<br />

Volumenerhaltung im Zustandsraum (Phasenraum):<br />

Evolution eines quadratischen Volumens ✄<br />

q = α<br />

11<br />

10<br />

9<br />

8<br />

7<br />

6<br />

t=0<br />

t=0.5<br />

t=1<br />

t=2<br />

t=3<br />

t=5<br />

q<br />

7<br />

6<br />

5<br />

Gesamtenergie<br />

0.85<br />

0.8<br />

0.75<br />

0.7<br />

0.65<br />

5<br />

4<br />

−1.5 −1 −0.5 0 1 1.5 0.5<br />

p<br />

2 2.5<br />

Fig. 134<br />

4<br />

(p(t),q(t))<br />

RK4 Methode<br />

Impl. Mittelpunktsregel<br />

3<br />

−2 −1.5 −1 −0.5 0 0.5 1 1.5 2<br />

p<br />

Fig. 132<br />

Trajektorien ”<br />

exakter” /diskreter Evolutionen<br />

0.6<br />

RK4−Methode<br />

Impl. Mittelpunktsregel<br />

0.55<br />

0 200 400 600 800 1000<br />

t<br />

Fig. 133<br />

Energieerhaltung diskreter Evolutionen<br />

➣ Keine Energiedrift bei impliziter Mittelpunktsregel p. 357<br />

4.4<br />

4.4<br />

p. 359<br />

?<br />

Eine rätselhafte Beobachtung:<br />

★<br />

Besonderheit mancher (∗) numerischer Integratoren:<br />

✧<br />

Approximative Langzeit-Energieerhaltung (keine Energiedrift)<br />

(∗) Implizite Mittelpunktsregel (1.4.11) → Bsp. 4.4.1, 1.4.11,<br />

Störmer-Verlet-Verfahren (2.5.7) → Bsp. 1.4.14<br />

✥<br />

✦<br />

✸<br />

q<br />

11<br />

10<br />

9<br />

8<br />

7<br />

6<br />

5<br />

t=0<br />

t=0.5<br />

t=1<br />

t=2<br />

t=3<br />

t=5<br />

q<br />

11<br />

10<br />

9<br />

8<br />

7<br />

6<br />

5<br />

t=0<br />

t=0.5<br />

t=1<br />

t=2<br />

t=3<br />

t=5<br />

Bemerkung 4.4.2 (Volumenerhaltung bei zweidimensionalen Hamiltonschen ODEs).<br />

4<br />

−1.5 −1 −0.5 0 0.5 1 1.5 2 2.5<br />

p<br />

4<br />

−1.5 −1 −0.5 0 0.5 1 1.5 2 2.5<br />

p<br />

Für Evolution Φ t : R n × M ↦→ R n × M zu einer Hamiltonschen Differentialgleichung gilt:<br />

n = 1 ➣<br />

div y J −1 grad H(y) = 0<br />

} {{ }<br />

rotH(y)<br />

Thm. 4.2.3<br />

➣<br />

Φ t volumenerhaltend (flächenerhaltend).<br />

Beispiel 4.4.3 (Flächenerhaltung bei Evolution für Pendelgleichung). → Bsp. 1.2.7<br />

p ↔ Winkelgeschwindigkeit,<br />

ṗ = − sinq ,<br />

˙q = p<br />

q ↔ Winkelvariable α<br />

Hamilton-Funktion H(p,q) = 1 2 p2 − cos q (Gesamtenergie) (4.4.1)<br />

△<br />

4.4<br />

p. 358<br />

Evolution eines quadratischen Volumens<br />

(Explizites Eulerverfahren)<br />

Evolution eines quadratischen Volumens<br />

(Implizite Mittelpunktsregel)<br />

Bem. 4.2.2: Für d = 2 ist die implizite Mittelpunktsregel volumenerhaltend (wie alle<br />

Gauss-Kollokationsverfahren nach Lemma 4.1.5)<br />

✸<br />

4.4<br />

Verallgemeinerung auf höhere Dimensionen: Symplektische Evolutionen (≠ Volumenerhaltung) p. 360


Push-Forward: Wirkung einer (glatten) Abbildung<br />

auf infinitesimale Strecke = Vektor<br />

Für C 1 -Abbildung Φ : D ⊂ R d ↦→ R d :<br />

(Φ ∗ v)(y) = DΦ(y)v y ∈ D, v ∈ R d .<br />

✁ Transport eines Vektors im ”<br />

Strömungsfeld”<br />

t ↦→ Φ t zu ẏ = f(y)<br />

mit D = diag(µ 1 ,...,µ n ) ∈ R n , µ i > 0. Dann setze<br />

(<br />

)<br />

U = √ 1 D<br />

Q<br />

−1/2 D −1/2<br />

2 −iD −1/2 iD −1/2 . ✷<br />

Beachte: Die Matrix U ist reell !<br />

Es gibt eine reelle Koordinatentransformation, die β in ω (→ Def. 4.4.1) überführt.<br />

△<br />

Fig. 135<br />

Bemerkung 4.4.5 (Symplektisches Flussintegral).<br />

Definition 4.4.1 (Symplektisches Produkt).<br />

ω(v,w) := v T Jw , v,w ∈ R 2n mit J =<br />

( )<br />

0 In<br />

.<br />

−I n 0<br />

Bemerkung 4.4.4 (Konstante 2-Formen).<br />

Symplektisches Produkt ˆ= Prototyp einer nichtdegenerierten, alternierenden Bilinearform:<br />

4.4<br />

p. 361<br />

4.4<br />

p. 363<br />

Definition 4.4.2 (Alternierende, nichtdegenerierte Bilinearform).<br />

Eine Bilinearform β : R d × R d ↦→ R heisst<br />

• alternierend :⇔ β(x,y) = −β(y,x) ∀x,y ∈ R d ,<br />

• nichtdegeneriert :⇔ β(x,y) = 0 ∀y = R d ⇒ x = 0<br />

y<br />

✁ ω(x,y) ˆ= Fluss “durch” orientiertes Parallelogramm,<br />

aufgespannt von {p,p+x,p+y,p+<br />

x + y} (gewichtete Fläche)<br />

β : R d × R d ↦→ R alternierende Bilinearform ⇒ ∃L ∈ Rd,d : L T = −L<br />

β(x,y) = x T Ly ∀x,y ∈ R d<br />

p<br />

x<br />

✬<br />

Lemma 4.4.3 (Normalform schiefsymmetrischer Matrizen).<br />

Zu jedem regulären L ∈ R 2n,2n mit L T = −L gibt es ein reguläres U ∈ R d,d , so dass<br />

( )<br />

U T 0 In<br />

LU = J =<br />

(Kongruenztransformation).<br />

−I n 0<br />

✩<br />

“Riemann-Summation”<br />

Fig. 136<br />

✄<br />

✫<br />

Beweis. L = −L T ⇒ unitär diagonalisierbar (normale Matrix !), rein imaginäre Eigenwerte, die<br />

in konjugiert komplexen Paaren zu konjugiert komplexen Eigenvektoren auftreten:<br />

( )<br />

∃Q ∈ C 2n : Q −1 = Q H und Q H D 0<br />

LQ = i ,<br />

0 −D<br />

✪<br />

4.4<br />

p. 362<br />

➣ Fluss durch beschränkte orientierte differenzierbare<br />

Fläche (= Mannigfaltigkeit der Dimension<br />

2)<br />

Fig. 137<br />

4.4<br />

p. 364


Ist ψ : U ↦→ R d eine Parametrisierung (Karte) der 2-Mannigfaltigkeit Σ, so gilt, vgl. Push-Forward,<br />

∫ ∫ ( ) dψ T ( ) dψ<br />

Fluss = ω = J du .<br />

Σ U du 1 du 2<br />

★<br />

✧<br />

Thm. 4.4.4: Die Evolution zu einer Hamiltonschen Differentialgleichung<br />

ist symplektisch zu jedem Zeitpunkt.<br />

Das Konzept der Symplektizität ist eng verbunden mit der differentialgeometrischen Betrachtung Hamiltonscher<br />

Evolutionen, siehe [2, Part III].<br />

✥<br />

✦<br />

△<br />

✬<br />

✩<br />

✬<br />

Theorem 4.4.4 (Symplektischer Fluss Hamiltonscher Systeme).<br />

Sei Φ t die Evolution zu einer Hamiltonschen Differentialgleichung (1.2.12) mit C 2 -Hamilton-<br />

Funktion H : R n × M ↦→ R. Dann gilt<br />

✩<br />

Korollar 4.4.6 (Komposition symplektischer Abbildungen).<br />

Die Komposition symplektischer Abbildungen ist symplektisch.<br />

✫<br />

Bemerkung 4.4.6 (Vektorräume von Vektorfeldern und Eigenschaften von Evolutionen).<br />

✪<br />

✫<br />

∀y ∈ D: ∃δ > 0: ω ( (Φ t ∗v)(y), (Φ t ∗w)(y) ) = ω(v,w) ∀v,w ∈ R 2n , 0 ≤ t < δ .<br />

✪<br />

Def. 1.3.5: Vektorfeld f : D ⊂ R d ↦→ R d ➣ Evolution Φ t zur ODE ẏ = f(y)<br />

Beweis.<br />

(→ Beweis von [11, Thm. 2.4, Ch. VI])<br />

Φ t ˆ= Evolutionsoperator zur Hamiltonschen ODE<br />

ẏ = J −1 gradH(y)<br />

Behauptung ⇐⇒ (Φ t ∗(y)v) T J(Φ t ∗(y)w) = v T Jw ∀v,w ∈ R d , ∀y ∈ D ,<br />

⇐⇒<br />

( ) d T ( ) d<br />

dy Φt (y) J<br />

dy Φt (y) = J ∀y ∈ D .<br />

Propagationsmatrix W(t;y) := d<br />

dy Φt y löst Variationsgleichung (1.3.20)<br />

Ẇ(t;y) = D(J −1 gradH(y))W(t;y) = J −1 ∇ 2 H(y)W(t;y) , y ∈ D .<br />

✎ Notation: ∇ 2 H ˆ= (symmetrische) Hesse-Matrix der Hamilton-Funktion H.<br />

4.4<br />

p. 365<br />

✗<br />

✖<br />

(1.2.4): gradI · f = 0 ⇔ Φ t “I-isoflächenerhaltend” für alle t<br />

Thm. 4.2.3: divf = 0 ⇔ Φ t volumenerhaltend (→ Def. 4.2.1) ∀t<br />

Lemma 4.3.3: f ◦ R = −R ◦ f ⇔ Φ t R-reversibel (→ Def. 4.3.2) ∀t<br />

Thm. 4.4.4: f = J −1 gradH ⇒ Φ t symplektisch (→ Def. 4.4.5) ∀t<br />

Vektorraum V von Vektorfeldern D ↦→ R d<br />

Gruppe G von Diffeomorphismen<br />

Einschrittverfahren für ẏ = f(y) strukturerhaltend :⇔ f ∈ V ⇒ Ψ h ∈ G<br />

(mit diskreter Evolution Ψ h )<br />

✔<br />

✕<br />

△<br />

4.4<br />

p. 367<br />

Mit Produktregel, da J T = −J, J −T = −J −1 = J:<br />

d<br />

(<br />

)<br />

W(t;y) T JW(t;y) =<br />

dt<br />

Ẇ(t;y)T JW(t;y) + W(t;y) T JẆ(t;y)<br />

= W(t;y)∇ 2 H(y)J} −T {{ J}<br />

W(t;y) + W(t;y) T } JJ{{ −1 } ∇ 2 H(y)W(t;y) = 0 .<br />

=−I<br />

=I<br />

Da W(0;y) = I ⇒ W(t;y) T JW(t;y) = J ∀t ✷<br />

✬<br />

Theorem 4.4.7 (Symplektische Evolutionen und Hamiltonsche Differentialgleichungen).<br />

Sei Φ t der Evolutionsoperator zu einer autonomen ODE ẏ = f(y), f : D ⊂ R 2n ↦→ R 2n stetig<br />

differenzierbar, Zustandsraum D sternförmig. Dann gilt<br />

Φ t symplektisch (→ Def. 4.4.5) ∀t ⇔ ∃H : D ↦→ R: f(y) = J −1 grad H(y) .<br />

✫<br />

✩<br />

✪<br />

Definition 4.4.5 (Symplektische Abbildung).<br />

Eine C 1 -Abbildung Φ : D ⊂ R 2n ↦→ R 2n heisst symplektisch, falls<br />

DΦ(y) T JDΦ(y) = J ⇔ ω ( )<br />

DΦ(y)v, DΦ(y)w = ω(v,w) ∀v,w ∈ R<br />

} {{ } } {{ }<br />

2n , ∀y ∈ D .<br />

(Φ ∗ v)(y) (Φ ∗ w)(y)<br />

4.4<br />

p. 366<br />

Definition 4.4.8 (Sternförmiges Gebiet).<br />

DsubsetR d heisst sternförmig, wenn es z ∈ D gibt, so dass<br />

für alle Punkte x ∈ D.<br />

{tz + (1 − t)x, 0 ≤ t ≤ 1} ⊂ D<br />

4.4<br />

p. 368


Hilfsmittel beim Beweis:<br />

4.4.2 Symplektische Integratoren<br />

✬<br />

Lemma 4.4.9 (Integrabilitätslemma).<br />

Es sei D ⊂ R d sternförmig und f : D ↦→ R d stetig differenzierbar. Dann gilt<br />

Df = Df T ⇔ ∃F : D ↦→ R: f(y) = grad F(y) ∀y ∈ D .<br />

✫<br />

✩<br />

✪<br />

Warum interessiert Numeriker diese ”<br />

exotische” Eigenschaft ”<br />

Symplektizität” ?<br />

Thm. 4.4.7:<br />

f = J −1 gradH<br />

(“Bewegungsgleichung”)<br />

⇔<br />

Φ t symplektisch (→ Def. 4.4.5) ∀t<br />

Beweis. O.B.d.A: D sternförmig bzgl. 0 ⇒ Wohldefiniert ist die Funktion<br />

∫ 1<br />

F(y) := f(τy) · y dτ y ∈ D .<br />

⇒<br />

0<br />

∫ 1<br />

∫ 1 d<br />

gradF(y) = τDf(τy) · y + f(τy) dτ = (f(τy)τ) (τ) dτ = f(y) .<br />

0<br />

0 dτ<br />

Intuition: diskrete Evolution Ψ h symplektisch ↔ “Diskrete Bewegungsgleichung<br />

Symplektizität kann von diskreten Evolutionen geerbt werden !<br />

Beweis (von Thm. 4.4.7)<br />

“⇐”: Siehe Thm. 4.4.4<br />

“⇒”: Propagationsmatrix W(t;y) := ( d<br />

dy Φt )(y) löst Variationsgleichung (1.3.20)<br />

Ẇ(t;y) = Df(Φ t y)W(t;y) , W(0;y) = I , y ∈ D , t ∈ J(y) .<br />

t fixiert, hinreichend klein: y ↦→ Φ t y ist symplektische Abbildung (→ Def. 4.4.5)<br />

W(t;y) T JW(t;y) = J =⇒ tfrei d (<br />

)<br />

W(t;y) T JW(t;y) = 0 .<br />

dt<br />

Mit Produktregel:<br />

0 = d (<br />

)<br />

W(t;y) T JW(t;y) =<br />

dt<br />

Ẇ(t;y)T JW(t;y) + W(t;y) T JẆ(t;y)<br />

= (Df(Φ t y)) T JW(t;y) + W(t;y) T J(Df(Φ t y)) ∀y ∈ D, |t| klein.<br />

Setze t = 0, benutze J −T = −J −1 = J ⇒ JDf(y) = (JDf(y)) T ∀y ∈ D<br />

Wegen JDf(y) = D(Jf)(y) Anwendung der Integrabilitätslemmas 4.4.9. ✷<br />

4.4<br />

p. 369<br />

Definition 4.4.10 (Symplektisches Einschrittverfahren).<br />

Ein Einschrittverfahren (→ Def. 2.1.1) heisst symplektisch, wenn es, angewendet auf eine<br />

Hamitonsche Differentialgleichung (→ Def. 1.2.2) ẏ = J −1 gradH(y) eine konsistente<br />

diskrete Evolution Ψ h erzeugt, so dass Φ h : K ⊂ D ↦→ R d für jedes Kompaktum K ⊂ D und<br />

festes hinreichend kleines h > 0 eine symplektische Abbildung (→ Def. 4.4.5) ist.<br />

Bemerkung 4.4.7 (Einfache symplektische Integratoren).<br />

Die diskreten Evolutionen Ψ h : D ⊂ R 2n ↦→ R 2n zur Hamiltonsche ODE (1.2.12)<br />

(ẏ = J −1 gradH(y), H : D ⊂ R d ↦→ R) erzeugt durch<br />

implizite Mittelpunkteregel (1.4.11)<br />

symplektisches Eulerverfahren (2.5.5)<br />

Störmer-Verlet-Verfahren (2.5.7) (→ Bem. 1.4.15, Bsp. 2.5.3) für separierte Hamilton-Funktion der<br />

Form H(y) = T(p) + U(q), y = ( p<br />

q<br />

)<br />

,<br />

sind symplektisch (für hinreichend kleine Schrittweite h ∈ R).<br />

Nachweise der Symplektizität:<br />

für implizite Mittelpunkteregel (1.4.11):<br />

Φ h y 0 := y 1 = y 0 + hJ −1 gradH( 1 2 (y 0 + y 1 )) . (4.4.2)<br />

Implizites Differenzieren (Annahme: H “hinreichend glatt”):<br />

4.4<br />

p. 371<br />

4.4<br />

p. 370<br />

DΦ h (y 0 ) = I + hJ −1 ∇ 2 H( 1 2 (y 0 + y 1 )) 1 2 (I + DΦh (y 0 )) ,<br />

(<br />

) −1 (<br />

)<br />

⇒ DΦ h (y 0 ) = I − 2 1hJ−1 ∇ 2 H(...) I + 2 1hJ−1 ∇ 2 H(. ..) .<br />

4.4<br />

p. 372


Verwende nun<br />

M = M T ⇒ (I + αJ −1 M) T J(I + αJ −1 M) = J . (4.4.3)<br />

Störmer-Verlet-Verfahren (2.5.7) für H(p,q) = T(p) + U(q):<br />

⎧<br />

⎪⎨ p 1/2 = p 0 − 2 1hgradU(q 0) ,<br />

q 1 = q 0 + hgradT(p 1/2 ) ,<br />

⎪⎩ p 1 = p 1/2 − 1 2 hgradU(q 1) .<br />

Strang-Splittingverfahren (Bem. 1.4.15): diskrete Evolution Ψ h zu (4.4.4) erfüllt<br />

Ψ h = Φ h/2<br />

U ◦ Φh T ◦ Φh/2 U ,<br />

wobei Φ t T , Φt U<br />

exakte Evolutionsoperatoren zu Hamiltonschen ODE<br />

{<br />

Φ t ṗ = 0 ,<br />

T ↔<br />

→ Hamilton-Funktion H(p,q) = T(p) ,<br />

˙q = grad T(p)<br />

Φ t U ↔ {<br />

ṗ = −gradU(q) ,<br />

˙q = 0 .<br />

Korollar 4.4.6 ⇒ Ψ h is symplektische Abbildung (→ Def. 4.4.5).<br />

→ Hamilton-Funktion H(p,q) = U(q) .<br />

(4.4.4)<br />

Terminologie: implizte Mittelpunktsregel/Störmer-Verlet-Verfahren = symplektische Integratoren △ p. 373<br />

✬<br />

✩<br />

4.4<br />

✗<br />

✖<br />

Thm. 4.1.3 ⇒ Alle Gauss-Kollokations-Einschrittverfahren sind symplektisch.<br />

Beispiel 4.4.8 (Symplektisches Euler-Verfahren). siehe Bsp. 2.5.3<br />

Annahme: Separierte Hamilton-Funktion der Form H(p,q) = T(p) + U(q), T, U : D ⊂<br />

R n ↦→ R glatt<br />

H(p,q) = T(p) + U(q) ↔ Splitting der rechten Seite von (1.2.12), vgl. Bsp. 2.5.3<br />

( )<br />

f(y) = J −1 −gradU(q)<br />

grad H(y) =<br />

+<br />

0<br />

➣ Lie-Trotter-Splitting-Einschrittverfahren (2.5.2)<br />

p k+1 = p k − hgradU(q k )<br />

q k+1 = q k + hgrad T(p k+1 ),<br />

bzw.<br />

(<br />

0<br />

gradT(p)<br />

✔<br />

✕<br />

)<br />

=: f 1 (y) + f 2 (y) (4.4.5)<br />

p k+1 = p k − hgradU(q k+1 )<br />

q k+1 = q k + hgrad T(p k ) .<br />

(4.4.6) = explizite symplektische diskrete Evolutionen (Thm. 2.5.1: Konsistenzordnung 1)<br />

(4.4.6)<br />

4.4<br />

p. 375<br />

Theorem 4.4.11 (Symplektische Runge-Kutta-Einschrittverfahren).<br />

Alle Runge-Kutta-Einschrittverfahren (→ Def. 2.3.1), die quadratische Invarianten erhalten, sind<br />

symplektisch.<br />

✫<br />

✪<br />

Beachte: In (4.4.6) (links): Inkrement benutzt q k , p k+1<br />

In (4.4.6) (rechts): Inkrement benutzt q k+1 , p k<br />

☞ Verallgemeinerung von (4.4.6) auf ẏ = J −1 grad H(y) in der Form, y := ( p<br />

q<br />

)<br />

,<br />

Beweis. Φ t ˆ= Evolutionsoperator zu Hamiltonschen Dgl. ẏ = f(y) := J −1 grad H(y) ist eine<br />

symplektische Abbildung für (alle zulässigen) t<br />

Def. 4.4.5 ⇒ I(Y) := Y T JY ist quadratisches erstes Integral der Variationsgleichung<br />

ṗ(t) = − ∂H<br />

∂q (p(t),q(t)) , ∂H<br />

˙q(t) = (p(t),q(t)) : (1.2.12)<br />

∂p<br />

y k+1 = y k + hJ −1 grad H(p k ,q k+1 ) bzw. y k+1 = y k + hJ −1 gradH(p k+1 ,q k ) .<br />

Ẇ(t;y) = Df(Φ t y)W(t;y) .<br />

Ψ h ˆ= diskrete Evolution des EK-ESV für ẏ = f(y)<br />

̂Ψ h ˆ= diskrete Evolution des EK-ESV für<br />

{ ẏ = f(y) ,<br />

Ẇ = Df(y)W :<br />

Lemma 4.2.4<br />

⇒<br />

dΨ h (<br />

dy (y 0) = W 1 = ̂Ψ h( ))<br />

y 0<br />

.<br />

I W<br />

( y1<br />

W 1<br />

)<br />

= ̂Ψh( y0<br />

I<br />

)<br />

.<br />

Nach Voraussetzung erhält ̂Ψ h quadratische erste Integrale,<br />

( )<br />

dΨ h T ( )<br />

dy (y dΨ h<br />

0) J<br />

dy (y 0) = W1 T JW 1 = J ∀y 0 ∈ D . ✷<br />

4.4<br />

p. 374<br />

Für allgemeine Hamilton-Funktion H = H(p,q) :<br />

p k+1 = p k − h ∂H<br />

∂q (p k+1,q k )<br />

q k+1 = q k + h ∂H<br />

∂p H(p k+1,q k ),<br />

bzw.<br />

Symplektische Euler-Verfahren<br />

p k+1 = p k − h ∂H<br />

∂q (p k,q k+1 )<br />

q k+1 = q k + h ∂H<br />

∂p H(p k,q k+1 ) .<br />

☞ kein Splittingverfahren mehr, trotzdem symplektisch [11, Thm. 3.3] !<br />

Bemerkung 4.4.9 (Partitionierte Runge-Kutta-Einschrittverfahren).<br />

(4.4.7)<br />

✸<br />

4.4<br />

p. 376


Mit lokal Lipschitz-stetigen f u : D u × D v ↦→ R n , f v : D u × D v ↦→ R n , D u ,D v ⊂ R n<br />

˙u = f u (u,v) ,<br />

ODE:<br />

(4.4.8)<br />

˙v = f v (u,v) .<br />

“Symplektisches Euler-Verfahren” (4.4.7) für (4.4.8):<br />

u 1 = u 0 + hf u (u 1 ,v 0 ) ,<br />

➣ Konsistenzordnung 1. (4.4.9)<br />

v 0 = v 0 + hf v (u 1 ,v 0 ) .<br />

Ansatz: s-stufige partitionierte Runge-Kutta-Einschrittverfahren (für autonome ODE)<br />

⎧<br />

⎪⎨ k u ∑<br />

i = f u (u 0 + h s a u ij ku j ,v ∑<br />

0 + h s a v ij kv j ) ,<br />

j=1<br />

j=1<br />

⎪⎩ k v ∑<br />

i = f v (u 0 + h s a u ij ku j ,v ∑<br />

0 + h s i = 1, ...,s ,<br />

a v ij kv j ) j=1<br />

j=1<br />

⎧<br />

⎪⎨ u 1 = u 0 + s (4.4.10)<br />

∑<br />

b u i ku i ,<br />

i=1<br />

∑<br />

⎪⎩ v 1 = v 0 + s b v i kv i . i=1<br />

Beispiel 4.4.10 (Symplektisches Euler-Verfahren für Pendelgleichung).<br />

AWP für Pendelgleichung wie in Bsp. 4.4.3.<br />

q<br />

11<br />

10<br />

9<br />

8<br />

7<br />

6<br />

5<br />

t=0<br />

t=0.5<br />

t=1<br />

t=2<br />

t=3<br />

t=5<br />

4<br />

−1.5 −1 −0.5 0 0.5 1 1.5 2 2.5<br />

p<br />

Fig. 139<br />

Evolution eines quadratischen Volumens<br />

(Verfahren (4.4.7), links)<br />

q<br />

11<br />

10<br />

9<br />

8<br />

7<br />

6<br />

5<br />

t=0<br />

t=0.5<br />

t=1<br />

t=2<br />

t=3<br />

t=5<br />

4<br />

−1.5 −1 −0.5 0 0.5 1 1.5 2 2.5<br />

p<br />

Fig. 140<br />

Evolution eines quadratischen Volumens<br />

(Verfahren (4.4.7), rechts)<br />

△<br />

4.4<br />

p. 377<br />

4.4<br />

p. 379<br />

in Stufenform, vgl. Bem. 2.3.2:<br />

⎧<br />

⎪⎨ g u ∑<br />

i = u 0 + h s a u ij f u(k u j ,kv j ) ,<br />

j=1<br />

⎪⎩ gi v ∑<br />

= v 0 + h s ,<br />

a v ij f v(k u j ,kv j ) , j=1<br />

Darstellung:<br />

Zwei Butcher-Tableaus:<br />

⎧<br />

∑<br />

⎪⎨ u 1 = u 0 + s b u i f u(k u i ,kv i ) ,<br />

i=1<br />

∑<br />

⎪⎩ u 1 = v 0 + s (4.4.11)<br />

b v i f v(k u i ,kv i ) . i=1<br />

c u<br />

A u<br />

b u,T & cv A v<br />

b v,T<br />

Energieerhaltung des symplektischen partitionierten<br />

Eulerverfahrens (4.4.7) (links) (p(0) =<br />

0, q(0) = 7π 6 ) 0<br />

0 500 1000 1500 2000 2500 3000 3500 4000 4500 5000<br />

Gesamtenergie<br />

1.5<br />

1<br />

0.5<br />

Symplektisches Euler-Verfahren<br />

0 0<br />

1<br />

& 1 1 1<br />

Störmer-Verlet-Verfahren<br />

1/2 1/2 0<br />

1/2 1/2 0<br />

1/2 1/2<br />

In Analogie zur Theorie der konventionellen RK-ESV aus Def. 2.3.1:<br />

&<br />

0 0 0<br />

1 1/2 1/2<br />

1/2 1/2<br />

• Bedingungsgleichungen an Koeffizienten für gewünschte Konsistenzordnungen, vgl. Sect. 2.3.2<br />

[11, Sect. II.2]<br />

• Algebraische Bedingungen für Erhaltung quadratischer Invarianten [11, Sect. IV.2.2], vgl.<br />

Lemma 4.1.5, und Symmetrie, vgl. Thm. 4.3.1 [11, Sect. V.2.2],<br />

• Koeffizientenbedingungen für Symplektizität, vgl. Thm. 4.4.11 [11, Sect. VI.4].<br />

4.4<br />

p. 378<br />

t<br />

Fig. 141<br />

Beispiel 4.4.11 (Langzeit-Energieerhaltung bei symplektischer Integration). → Bsp. 4.4.1, 4.4.10,<br />

1.4.14<br />

Hamiltonsche Differentialgleichung (4.4.1) für mathematisches Pendel → 1.2.7 (p ↔ Winkelgeschwindigkeit,<br />

q ↔ Winkelvariable α)<br />

ṗ = − sinq ,<br />

˙q = p<br />

Hamilton-Funktion H(p,q) = 1 2 p2 − cos q (Gesamtenergie) (4.4.1)<br />

Anfangswerte: p(0) = 0, q(0) = 7/6π, Endzeitpunkt T = 5000 p. 380<br />

✸<br />

4.4


Symplektische ESV:<br />

Symplektisches partitioniertes Euler-Verfahren (4.4.7) (links)<br />

Störmer-Verlet-Verfahren (4.4.4), siehe Bem. 4.4.7<br />

Implizite Mittelpunktsregel (4.4.2), siehe Bem. 4.4.7<br />

2-stufiges Gauss-Kollokations-Einschrittverfahren, siehe Sect. 2.2.1<br />

1<br />

0.5<br />

0<br />

−0.5<br />

Stoermer−Verlet, h = 0.200000<br />

1<br />

0.5<br />

0<br />

−0.5<br />

Explicit trapezoidal rule, h = 0.200000<br />

(uniforme Zeitschrittweite h > 0)<br />

−1<br />

−1<br />

q 2<br />

q 2<br />

−1.5<br />

−1.5<br />

Stärke der Energieschwankungen<br />

E var (h) = max |E h (ih) − E exact | .<br />

i=0,...,T/h<br />

Sympl. Euler E var (h) = O(h) ,<br />

Störmer-Verlet E var (h) = O(h 2 ) ,<br />

Implizite MPR E var (h) = O(h 2 ) ,<br />

Gauss-Koll (s = 2) E var (h) = O(h 4 ) .<br />

Vermutung: E var (h) = O(h p )<br />

(p ˆ= Konvergenzordnung des ESV)<br />

Beispiel 4.4.12 (Federpendel).<br />

energy variation<br />

10 0<br />

10 −1<br />

10 −2<br />

10 −3<br />

10 −4<br />

10 −5<br />

10 −6 Gauss coll.(s=2)<br />

implicit midpoint<br />

Stoermer−Verlet<br />

sympl. Euler<br />

10 −7<br />

O(h 4 )<br />

O(h 2 )<br />

O(h)<br />

10 −8<br />

10 −2 10 −1 10 0<br />

h<br />

Fig. 142 ✸<br />

Reibungsfreies Federpendel: Hamilton-Funktion H(p,q) = 1 2 ‖p‖2 + 2 1(‖q‖ − 1)2 + q 2<br />

p. 381<br />

(q ˆ= Position, p ˆ= Impuls)<br />

ṗ = −(‖q‖ − 1) q ( ) 0<br />

‖q‖ − , ˙q = p . (4.4.12)<br />

1<br />

0000000000000000000000000000<br />

1111111111111111111111111111<br />

0000000000000000000000000000<br />

1111111111111111111111111111<br />

0000000000000000000000000000<br />

1111111111111111111111111111<br />

0000000000000000000000000000<br />

1111111111111111111111111111<br />

0000000000000000000000000000<br />

1111111111111111111111111111<br />

0<br />

−0.5<br />

−1<br />

Spring pendulum trajectory<br />

4.4<br />

−2<br />

−2.5<br />

−3<br />

0 < t < 50<br />

1000 < t < 1050<br />

−3.5<br />

−1.5 −1 −0.5 0<br />

q 1<br />

0.5 1 1.5<br />

Fig. 145<br />

Animation<br />

✄<br />

Störmer-Verlet ESV<br />

−2<br />

−2.5<br />

−3<br />

0 < t < 50<br />

1000 < t < 1050<br />

−3.5<br />

−1.5 −1 −0.5 0<br />

q 1<br />

0.5 1 1.5<br />

Fig. 146<br />

Explizite Trapezregel<br />

Symplektischer Integrator: Positionen im “zulässigen Bereich” auch bei Langzeitintegration<br />

Explizite Trapezregel: Trajektorien verlassen bei Langzeitintegration den “zulässigen Bereich” (Energiedrift<br />

!)<br />

Beispiel 4.4.13 (Molekulardynamik). → [5, Sect. 1.2]<br />

Zustandsraum für n ∈ N Atome in d ∈ N Dimensionen:<br />

D = R 2dn<br />

(Positionen q = [q 1 ; ...;q n ] T ∈ R dn , Impulse p = [p 1 , ...,p n ] T ∈ R dn )<br />

Gesamtenergie (Hamilton-Funktion):<br />

3<br />

2.5<br />

Lenard−Jones potential<br />

equilibrium distance<br />

✸<br />

4.4<br />

p. 383<br />

Fig. 143<br />

Trajektorien bei Langzeitevolution ✄<br />

(Chaotisches mechanisches System)<br />

q 2<br />

−1.5<br />

−2<br />

−2.5<br />

−3<br />

−3.5<br />

−1 −0.8 −0.6 −0.4 −0.2 0.2 0.4 0.6 0<br />

q 1<br />

0.8 1<br />

Fig. 144<br />

H(p,q) = 1 2 ‖p‖2 2 + V (q) .<br />

Lenard-Jones-Potential:<br />

✄<br />

n∑ ∑<br />

∥<br />

V (q) = V( ∥q i − q j∥ ∥ ∥2 ) ,<br />

j=1 i≠j<br />

V(ξ) = ξ −12 − ξ −6 . (4.4.13)<br />

H(q)<br />

2<br />

1.5<br />

1<br />

0.5<br />

0<br />

ESV: Störmer-Verlet-Verfahren (4.4.4) (Konsistenzordnung 2), siehe Bem. 4.4.7,<br />

Explizite Trapezregel (2.3.2) (Konsistenzordnung 2).<br />

4.4<br />

p. 382<br />

−0.5<br />

0 0.5 1 1.5 2 2.5 3<br />

|q|<br />

Fig. 147<br />

➥ Hamiltonsche Differentialgleichung (→ Def. 1.2.2):<br />

ṗ j = − ∑ V ′ ∥<br />

( ∥q j − q i∥ ∥ q j − q ∥2 ) ∥<br />

i<br />

∥q j − q i∥ ∥<br />

, ˙q j = p j , j = 1,...,n .<br />

i≠j<br />

2<br />

4.4<br />

p. 384


t<br />

t<br />

Störmer-Verlet-Verfahren (4.4.4):<br />

q h (t + 1 2 h) = q h(t) + h 2 p h(t) ,<br />

p j h (t + h) = pj h (t) − h ∑ V ′ ∥<br />

( ∥q j ∥<br />

h (t + 2 1h) − qi h (t + 2 1h) ∥∥2 q j ) h (t + 1 2 h) − qi h (t + 1 2 h)<br />

∥<br />

i≠j<br />

∥q j ∥<br />

h (t + 2 1h) − qi h (t + 1 2 h) ∥∥2<br />

,<br />

100<br />

80<br />

60<br />

Trajektorien der Atome, Verlet, 2000 timesteps<br />

0.6<br />

0.4<br />

0.2<br />

0<br />

Energieanteile, Verlet, 2000 timesteps<br />

kinetische Energie<br />

potentielle Energie<br />

Gesamtenergie<br />

q h (t + h) = q h (t + 1 2 h) + h 2 p h(t + h) .<br />

40<br />

−0.2<br />

Simulation mit d = 2, n = 3, q 1 (0) = 2<br />

1 √ (<br />

2 −1)<br />

, q 2 (0) = 1 (<br />

2√<br />

2<br />

11 )<br />

, q 3 (0) = 2<br />

1 √ (<br />

2<br />

−1 )<br />

1 , p(0) = 0,<br />

Endzeitpunkt T = 100<br />

20<br />

0<br />

−2 −1.5 −1 −0.5 0 0.5 1 1.5 −2<br />

0<br />

2<br />

E<br />

−0.4<br />

−0.6<br />

x 1<br />

x 2<br />

−0.8 0 10 20 30 40 50<br />

t<br />

60 70 80 90 100<br />

Beobachtungen:<br />

Völlig unterschiedliche Trajektorien bei Langzeitsimulation mit unterschiedlichen Zeitschrittweiten<br />

h.<br />

Qualitativ richtige Trajektorien in jedem Fall.<br />

4.4<br />

p. 385<br />

4.4<br />

p. 387<br />

Trajektorien der Atome, Verlet, 10000 timesteps<br />

Energieanteile, Verlet, 10000 timesteps<br />

0.6<br />

kinetische Energie<br />

potentielle Energie<br />

100<br />

0.4<br />

Gesamtenergie<br />

80<br />

0.2<br />

60<br />

0<br />

−0.2<br />

40<br />

−0.4<br />

20<br />

2<br />

−0.6<br />

0<br />

0<br />

−1.5 −1 −0.5 0 0.5 1 −2<br />

x −0.8<br />

2 0 10 20 30 40 50 60 70 80 90 100<br />

x 1 t<br />

E<br />

Energie<br />

10 3 Verlet auf [0,10]: Schwankung der Gesamtenergie<br />

10 2<br />

10 1<br />

10 0<br />

10 −1<br />

10 −2<br />

10 −3<br />

Variation<br />

Drift<br />

Abstand<br />

10 −4<br />

0 20 40 60 80 100 120 140 160<br />

Anzahl(Zeitschritte)<br />

Fig. 148<br />

T = 10, d = 2, n = 3, q 1 (0) = 2<br />

1 √ (<br />

2 −1)<br />

, q 2 (0) =<br />

√ (<br />

1<br />

2 2<br />

11 )<br />

, q 3 (0) = 2√ 1 (<br />

2<br />

−1 )<br />

1 , p(0) = 0.<br />

N−1 ∑<br />

Variation = |E tot ((i + 1)h) − E tot (ih)| ,<br />

i=1<br />

Drift = |E tot (T) − E tot (0)| ,<br />

∥<br />

Abstand = max{ ∥q j ∥<br />

h (T) ∥∥2<br />

, j = 1, 2, 3} .<br />

✸<br />

Beispiel 4.4.14 (Vielteilchen-Molekulardynamik). → [22, Sect. 4.5.1]<br />

4.4<br />

p. 386<br />

4.4<br />

p. 388


2D konservatives Vielteilchensystem mit<br />

Lennard-Jones-Potential → Bsp. 4.4.13<br />

9<br />

8<br />

Initial position of atoms, 0K<br />

1.4<br />

1.2<br />

Stoermer−Verlet: 10 x 10 Lenard−Jones atoms<br />

3<br />

2.5<br />

Trapezoidal rule, 10 x 10 Lenard−Jones atoms<br />

h = 0.010000<br />

h = 0.005000<br />

h = 0.002500<br />

h = 0.001250<br />

Anfangspositionen ✄<br />

(Anfangsimpulse = 0 ↔ 0K)<br />

Beobachtet für explizite Trapezregel (2.3.2),<br />

Störmer-Verlet (4.4.4)<br />

q 2<br />

7<br />

6<br />

5<br />

4<br />

3<br />

temperature<br />

1<br />

0.8<br />

0.6<br />

0.4<br />

temperature<br />

2<br />

1.5<br />

1<br />

Approximation der Gesamtenergie H(p,q)<br />

Mittlere kinetische Energie (“Temperatur”)<br />

Animation ✄<br />

2<br />

1<br />

0<br />

0 1 2 3 4 5 6 7 8 9<br />

q 1<br />

Fig. 149<br />

0.2<br />

h = 0.010000<br />

h = 0.005000<br />

h = 0.002500<br />

h = 0.001250<br />

0<br />

0 10 20 30 40 50 60 70 80 90 100<br />

t<br />

Fig. 152<br />

Symplektischer Integrator: Qualitativ korrektes Verhalten der Temperatur<br />

0.5<br />

0<br />

0 10 20 30 40 50 60 70 80 90 100<br />

t<br />

Fig. 153<br />

✸<br />

Beispiel 4.4.15 (Projektion auf Energiemannigfaltigkeit). → Bsp. 4.4.12<br />

4.4<br />

p. 389<br />

4.4<br />

p. 391<br />

−906<br />

−908<br />

−910<br />

−912<br />

Stoermer−Verlet: 10 x 10 Lenard−Jones atoms<br />

h = 0.010000<br />

h = 0.005000<br />

h = 0.002500<br />

h = 0.001250<br />

−500<br />

−600<br />

Trapezoidal rule, 10 x 10 Lenard−Jones atoms<br />

h = 0.010000<br />

h = 0.005000<br />

h = 0.002500<br />

h = 0.001250<br />

Idee: Korrektur der Energiedrift (bei nichtsymplektischen Integratoren) durch Projektion auf Energiemannigfaltigkeit<br />

total energy<br />

−914<br />

−916<br />

−918<br />

−920<br />

total energy<br />

−700<br />

−800<br />

−900<br />

{(p,q) ∈ R n × R n : H(p,q) = H(p 0 ,q 0 )} . (4.4.14)<br />

Konkret: Orthogonalprojektion (p,q) ↦→ P(p,q) := (p ∗ ,q ∗ ): mit y = ( p<br />

q<br />

)<br />

, bestime λ ∈ R, y ∗ =<br />

( p ∗<br />

q ∗ )<br />

∈ R 2n so, dass<br />

H(y ∗ ) = H 0 , y ∗ = y + λgrad H(y ∗ ) . (4.4.15)<br />

−922<br />

−1000<br />

−924<br />

−926<br />

50<br />

t<br />

90 100<br />

Fig. 150<br />

0 10 20 30 40 60 70 80<br />

−1100<br />

50<br />

t<br />

90 100<br />

Fig. 151<br />

0 10 20 30 40 60 70 80<br />

Projiziertes ESV Ψ h : Orthogonalprojektion nach jedem Schritt: y k+1 = PΨ h y k<br />

Beachte: (4.4.15) nichtlineares Gleichungssystem der Dimension 2n + 1, teuer !<br />

4.4<br />

p. 390<br />

4.4<br />

p. 392


0 200 400 600 800 1000 1200<br />

5<br />

4<br />

Stoermer−Verlet<br />

Explicit TR<br />

Projected TR<br />

spring pendulum integration, h=0.200000<br />

1<br />

0.5<br />

Projected explicit trapezoidal rule, h = 0.200000<br />

Konkrete Anwendung dieser Philosophie auf numerische Integratoren (Einschrittverfahren), siehe [22,<br />

Sect. 5.1]:<br />

0<br />

3<br />

−0.5<br />

total energy<br />

2<br />

q 2<br />

−1<br />

−1.5<br />

Ψ h ˆ= diskrete Evolution eines ESV für ẏ = f(y) ➣ y k+1 = Ψ h (y k )<br />

Finde h-abhängiges Vektorfeld ˜f h :↦→ R d so, dass<br />

1<br />

−2<br />

−2.5<br />

˙ỹ = ˜f h (ỹ) , ỹ(0) = y 0 ⇒ y k = ỹ(hk) . (4.4.16)<br />

0<br />

−1<br />

t<br />

Fig. 154<br />

Warnung: Projektion kein Allheilmittel, siehe [11, Ch. IV, Ex. 4.3]<br />

−3<br />

0 < t < 50<br />

1000 < t < 1050<br />

−3.5<br />

−1.5 −1 −0.5 0<br />

q 1<br />

0.5 1 1.5<br />

Fig. 155<br />

Wunsch:<br />

Modifizierte Differentialgleichung<br />

˜fh , f gehören zur gleichen Klasse von Vektorfeldern, vgl. Bem. 4.4.6<br />

Kleine Störung: ˜fh ≈ f für “kleine” Schrittweiten h > 0<br />

Ψ h strukturerhaltend & “qualitativ genau”:<br />

(y k ) akzeptabel<br />

✸<br />

4.4.3 Rückwärtsanalyse<br />

4.4<br />

p. 393<br />

Rückwärtsanalyse von auf der Grundlage modifizierter Differentialgleichung<br />

erfordert uniforme Zeitschrittweite<br />

Beispiel 4.4.17 (Modifizierte Gleichung für RK-ESV und lineare ODE).<br />

4.4<br />

p. 395<br />

Sect. 1.3.3.5: Berechnung individueller Trajektorien sinnlos für schlecht konditionierte/chaotische<br />

Evolutionen.<br />

lineare ODE (→ Sect. 1.3.2):<br />

ẏ = Ay, A ∈ R d,d<br />

Runge-Kutta-Einschrittverfahren (→ Def. 2.3.1) mit Stabilitätsfunktion S(z)<br />

Ziel:<br />

Berechnung typischer/wahrscheinlicher Trajektorien<br />

Modifizierte ODE: ˜fh (y) = Ãy , Ã = 1 log(S(hA)) , (4.4.17)<br />

h<br />

für “hinreichend kleines” h > 0.<br />

Bemerkung 4.4.16 (Rückwärtsanalyse (engl. backward error analysis): Philosophische Grundlage).<br />

Hier: log ˆ= “Matrixlogarithmus”:<br />

log(X) = ∞ ∑<br />

k=1<br />

(−1) k−1<br />

k (X − I) k für ‖X − I‖ < 1<br />

“Naturgesetze” (engl. first principles) Parameter/Daten p 1 , ...,p m (unsicher !)<br />

Mathematisches Modell y = M(p 1 , ...,p m )<br />

Beweis von (4.4.17) ( elementar unter Annahme, dass A diagonalisierbar:<br />

T −1 AT = D = diag(µ 1 ,...,µ d )):<br />

∃T ∈ R d,d regulär:<br />

✬<br />

Ziel:<br />

Diskretisiertes Model y h = M h (p 1 ,...,p m )<br />

Genaue, mit den Naturgesetzen verträgliche Lösung y h<br />

✩<br />

Bem. 3.1.5, (3.1.6) ⇒ Für RK-ESV y 1 = S(hA)y 0<br />

(4.4.16)<br />

=⇒ exp(Ãh) = S(hA) mit σ(hA)∩] − ∞, 0] = ∅ für kleines h > 0 . ✸<br />

✫<br />

∃˜p i : ‖p i − ˜p i ‖ ≪ 1: y h = M(˜p 1 , ..., ˜p m )<br />

✪<br />

4.4<br />

△ p. 394<br />

4.4<br />

p. 396


? Modifizierte Gleichung im allgemeinen Fall<br />

✎ Notationen: Φ t ˆ= Evolutionsoperator zur ODE ẏ = f(y),<br />

t ↦→ y(t) ˆ= Lösungstrajektorien von ẏ = f(y) zum Anfangswert y 0 ∈ D.<br />

Definition 4.4.12 (Modifizierte Gleichung der Ordnung q).<br />

Sei Ψ h die diskrete Evolution eines Einschrittverfahrens der Konsistenzordnung p für die ODE<br />

ẏ = f(y) mit lokal Lipschitz-stetigem f : D ⊂ R d ↦→ R d .<br />

Dann ist ˙ỹ = ˜f h (ỹ) mit h-abhängigem, lokal Lipschitz-stetigen ˜f h : D ↦→ R d eine modifizierte<br />

Gleichung der Ordnung q, q > p, wenn<br />

∥<br />

∥˜Φ h hy − Ψ h y∥ ≤ C(y)h q+1 ∀y ∈ D für h → 0 ,<br />

Ziel: Formalisierung der ad-hoc-Konstruktion einer modifizierten Gleichung der Ordnung p + 1 aus<br />

Bsp. 4.4.18<br />

Idee: Rekursive Konstruktion von ˜f h :<br />

Annahme: diskrete Evolution Ψ h konsistent von der Ordnung p mit ẏ = f h (y)<br />

wobei ˜Φ t h der Evolutionsoperator zu ˙ỹ = ˜f h (ỹ) und C : D ↦→ R lokal gleichmässig beschränkt.<br />

Ansatz:<br />

˜fh = f h (y) + h p ∆f(y) (4.4.19)<br />

Modifikatorfunktion<br />

Def. 4.4.12 ˆ= “Das ESV ist konsistent von der Ordnung q mit ˙ỹ = ˜f h (ỹ).” → Def. 2.1.9<br />

Ziel:<br />

˜Φh hy − Ψ h y = O(h p+2 ) für h → 0 (4.4.20)<br />

Beispiel 4.4.18 (Modifizierte Gleichung der Ordnung 2 zu explizitem Euler-Verfahren).<br />

Explizites Eulerverfahren (1.4.2) für ẏ = f(y): y 1 = y 1 (h) = Ψ h y 0 = y 0 + hf(y 0 )<br />

4.4<br />

p. 397<br />

Konkrete Annahme, vgl. (2.4.7):<br />

∃ lokale gleichmässig beschränktes d : D ↦→ R d mit<br />

4.4<br />

p. 399<br />

Vergleich mit Taylorentwicklung (um 0) (2.3.14) der exakten Lösung y(t):<br />

y(h) = y 0 + f(y 0 )h + 1 2 Df(y 0)f(y 0 )h 2 + O(h 3 ) für h → 0 . (4.4.18)<br />

“störender Term ☞ zu “verschieben” in ˜f h<br />

τ(y 0 , h) := Φ h h y 0 − Ψ h y 0 = d(y 0 )h p+1 + O(h p+2 ) für h → 0 , ∀y 0 ∈ D . (4.4.21)<br />

Konsistenzfehler → Def. 2.1.7, (Φ t h ˆ= Evolutionsoperator zu ẏ = f h(y))<br />

(4.4.20): Bestimme ∆f so, dass Lsg. von ˙ỹ = ˜fh (ỹ), ỹ(0) = y 0<br />

˜Φ h hy − Ψ h y = ỹ(h) − y 1 = O(h p+2 ) für h → 0 . (4.4.22)<br />

Modifizierte Gleichung der Ordnung 2:<br />

˙ỹ = ˜f h (ỹ) := f(ỹ) − 1 2 hDf(ỹ)f(ỹ)<br />

denn aus (4.4.18), für h → 0<br />

f glatt<br />

⇒<br />

ỹ(h) = y 0 + ˜f h (y 0 )h + 1 2 D˜f h (y 0 )˜f h (y 0 )h 2 + O(h 3 )<br />

˜Φh hy 0 − y 1 (h) = O(h 3 ) ,<br />

= y 0 + hf(y 0 ) − 1 2 h21 2 Df(y 0)f(y 0 ) + 1 2 Df(y 0)f(y 0 )h 2 + O(h 3 )<br />

= y 0 + hf(y 0 ) + O(h 3 ) = Ψ h y 0 + O(h 3 ) .<br />

✸<br />

Taylorentwicklung um h = 0, vgl. (2.3.14), benutze Dgl. und Kettenregel: Für h → 0<br />

∑p+1<br />

h<br />

ỹ(h) = y 0 +<br />

j!ỹ(j) j<br />

(0) + O(h p+2 ∑p+1<br />

h j d j−1<br />

) = y 0 +<br />

j! dt j−1˜f h (ỹ(t)) + O(h p+2 )<br />

|t=0<br />

k=1<br />

k=1<br />

= y 0 + h˜f h (y 0 ) + 1 2 h2 D˜f h (y 0 )˜f h (y 0 )<br />

+ 1 6 h3( D 2˜fh (y 0 )(˜f h (y 0 ),˜f h (y 0 )) + D˜f h (y 0 )D˜f h (y 0 )˜f h (y 0 ) ) + · · · + O(h p+2 )<br />

= y 0 + hf h (y 0 ) + h p+1 ∆f(y 0 ) + 1 2 h2 Df h (y 0 )f h (y 0 )<br />

+ 1 6 h3( D 2 f h (y 0 )(f h (y 0 ),f h (y 0 )) + Df h (y 0 )Df h (y 0 )f h (y 0 ) ) + · · · + O(h p+2 ) ,<br />

da “O(h p )-Modifikation” in (4.4.19), z.B.<br />

Durchwegs “stillscheigende Annahme”: f “hinreichend glatt” ⇒ Φ t ,Ψ h “hinreichend glatt”<br />

4.4<br />

p. 398<br />

h 2 D˜f h (y 0 )˜f h (y 0 ) = h 2( Df h (y 0 ) + h p D∆f(y 0 ) ) (f h (y 0 ) + h p ∆f(y 0 ))<br />

= h 2 Df h (y 0 )f h (y 0 ) + O(h p+2 ) .<br />

4.4<br />

p. 400


➣ Beobachtung: Taylorentwicklung von t ↦→ Φ t h V y 0 um t = 0 ist enthalten !<br />

Versuch:<br />

ỹ(h) = Φ h h y 0 + h p+1 ∆f(y 0 ) + O(h p+2 )<br />

(4.4.21)<br />

= Ψ h y 0 + h p+1 d(y 0 ) + h p+1 ∆f(y 0 ) + O(h p+2 ) .<br />

(4.4.22) erfüllt durch ∆f(y) := −d(y) ! (4.4.23)<br />

Reihenansatz für Vektorfeld der modifizierten Gleichung:<br />

˜fh (y) = f(y) + h p ∆f p (y) + h p+1 ∆f p+1 (y) + h p+2 ∆f p+2 (y) + . .. . (4.4.24)<br />

➣ Modifikatorfunktionen ∆f l , l ∈ N, aus rekursiver Konstruktionsvorschrift<br />

˜Φh h,l−1y − Ψ h y<br />

(4.4.23) ⇒ ∆f l (y) = − lim h→0 h l+1 , (4.4.25)<br />

Explizites Euler-Verfahren (1.4.2): y 1 = y 0 + hf(y 0 )<br />

˜f(y) = y 2 − h<br />

}{{}<br />

y 3 +h 2 3/2 y 4 −h<br />

} {{ }<br />

3 8/3 y 5 +h<br />

} {{ }<br />

4 31 6 y6 −h 5 157<br />

−∆f<br />

}{{} } 15{{ y7<br />

}<br />

1 ∆f 2 −∆f 3 ∆f 4 −∆f 5<br />

+ h 6 649<br />

} 30{{ y8 −h 7 9427<br />

} 210 y9 +h 8 19423<br />

} {{ } 210 y10 −h 9 6576<br />

} {{ } 35 h9 y 11 +O(h 10 ) .<br />

} {{ }<br />

∆f 6 −∆f 7 ∆f 8 −∆f 9<br />

Implizites Euler-Verfahren (1.4.9): y 1 = y 0 + hf(y 1 )<br />

(In MAPLE code: res := ytilde-y-h*fcn(ytilde))<br />

˜f(y) = y 2 + hy 3 + 3/2 h 2 y 4 + 8/3h 3 y 5 + 31 6 h4 y 6 + 157<br />

15 h5 y 7 + 649<br />

30 h6 y 8<br />

+ 9427<br />

210 h7 y 9 + 19423<br />

210 h8 y 10 + 6576<br />

35 h9 y 11 + O(h 10 )<br />

Implizite Mittelpunktsrregel (1.4.11): y 1 = y 0 + hf( 2 1(y 0 + y 1 ))<br />

(In MAPLE code: res := ytilde-y-h*fcn(0.5*(y+ytilde))<br />

˜f(y) = y 2 + 1 4 h2 y 4 + 1 8 h4 y 6 + 0.057291667h 6 y 8 + 0.02343750000h 8 y 10 + O(h 10 ) .<br />

mit<br />

˜Φt h,l ˆ= Evolutionsoperator zur ODE<br />

˙ỹ = ˜f h,l (ỹ) := f(y) + h p ∆f p (y) + h p+1 ∆f p+1 (y) + h p+2 ∆f p+2 (y) + ... + h l ∆f l (y) . (4.4.26)<br />

4.4<br />

p. 401<br />

☞ Nur gerade Potenzen von h, vgl. Beweis zu Thm. 2.1.15, Thm. 2.4.4<br />

✸<br />

4.4<br />

p. 403<br />

Bemerkung 4.4.19 (Berechnung der Modifikatorfunktionen ∆f j durch Computeralgebra).<br />

MAPLE-Code: Berechnung der ∆f j<br />

fcn := y ->f(y) :<br />

N := q :<br />

fcoe [1] := fcn(y):<br />

for n from 2 by 1 to N do<br />

modeq := sum(hˆj*fcoe [j+1], j=0..n-2):<br />

diffy [0] := y:<br />

for i from 1 by 1 to n do<br />

diffy [i] := diff(diffy[i-1],y)*modeq:<br />

od:<br />

ytilde := sum(hˆk*diffy[k]/k!, k=0..n):<br />

res := ytilde-y-h*fcn(y):<br />

tay := convert(series(res,h=0,n+1),polynom):<br />

fcoe [n] := -coeff(tay,h,n):<br />

od:<br />

simplify(sum(hˆj*fcoe[j+1],j=0..N-1));<br />

ESV:<br />

Explizites Euler-Verfahren<br />

✁ MAPLE-code [10]:<br />

Berechnung der<br />

Modifikatorfunktionen ∆f l<br />

für skalare ODE ẏ = f(y).<br />

Ausgabe der Reihe (4.4.24)<br />

bis zum q. Term.<br />

∞∑<br />

Problem: Potenzreihe (in h) h k ∆f k (y) möglicherweise divergent<br />

k=1<br />

∀h > 0 (↔ Konvergenzradius = 0)<br />

Interpretation von (4.4.24) als asymptotische Entwicklung von ˜f h , siehe Def. 2.4.1<br />

Beispiel 4.4.21 (Bedeutung der modifizierten Gleichungen niedriger Ordnung).<br />

Anfangswertproblem für logistische Differentialgleichung, siehe Bsp. 1.2.1<br />

ẏ = λy(1 − y) , y(0) = 0.01 .<br />

ESV: Explizites Euler-Verfahren (1.4.2), vgl. Bsp. 1.4.3, Modifikatorfunktionen aus (4.4.24)<br />

∆f 1 (y) = λ 2( −1/2 y + 3/2 y 2 − y 3) , ∆f 2 (y) = λ 3( − 11<br />

6 y2 + 3 y 3 − 3/2y 4 + 1/3 y ) .<br />

△<br />

Beispiel 4.4.20 (Modifikatoren für einfache ESV).<br />

4.4<br />

Skalare Differentialgleichung: ẏ = y 2 → Bsp. 1.3.3 p. 402<br />

ESV: Implizites Euler-Verfahren (1.4.9), vgl. Bsp. 1.4.5, Modifikatorfunktionen aus (4.4.24)<br />

∆f 1 (y) = λ 2( 1/2 y − 3/2 y 2 + y 3) , ∆f 2 (y) = λ 3( − 11 6 y2 + 3 y 3 − 3/2 y 4 + 1/3 y ) 4.4<br />

p. 404


y<br />

y<br />

1<br />

Expl. Euler<br />

y(t)<br />

y 1<br />

(t)<br />

y (t) 2<br />

Explicit Euler h=0.050000, logistic ODE, λ=10.000000<br />

1<br />

Impl. Euler<br />

y(t)<br />

y 1<br />

(t)<br />

y (t) 2<br />

Implicit Euler h=0.050000, logistic ODE, λ=10.000000<br />

• Wenn ja, ist die rechte Seite dieser modifizierten Gleichung nahe bei der rechten Seite der Ausgangsgleichung.<br />

0.8<br />

0.8<br />

0.6<br />

0.6<br />

Strategie: Was wollen wir ?<br />

0.4<br />

0.2<br />

0.4<br />

0.2<br />

☞ Lemma 4.4.13: Familie modifizierter Gleichungen ˙ỹ = ˜f h,l (ỹ),<br />

y k+1 = Ψ h y k , d.h.<br />

konsistent mit dem ESV”<br />

”<br />

0<br />

0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1<br />

t<br />

Fig. 156<br />

0<br />

0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1<br />

t<br />

Fig. 157<br />

Konsistenzfehler τ(y,h) := Ψ h y − ˜Φ h h,ly → 0 für h → 0 .<br />

Die Euler-Verfahren für y = f(y) liefern eine bessere Approximation für die Lösungen von<br />

ẏ = ˜f 1,h (y) = f(y) + h∆f 1 (y) und ẏ = ˜f 1,h (y) = f(y) + h∆f 1 (y) + h 2 ∆f 2 (y) .<br />

Betrachte abgeschnittene modifizierte Gleichung !<br />

Idee: Erinnerung an Beweis des Konvergenzsatzes für ESV, Thm. 2.1.10<br />

(vgl. auch Beweis von Thm. 2.1.13 und das ”<br />

diskrete Gronwall-Lemma” Lemma<br />

2.1.11)<br />

‖y k − ỹ(kh)‖ ≤ 1 ∥<br />

max ∥τ(y<br />

h<br />

j , h) ∥ exp(Lhk) − 1 . (4.4.27)<br />

j=0,...,k−1<br />

L<br />

✬<br />

Lemma 4.4.13 (“Abgeschnittene” modifizierte Gleichung).<br />

Mit Modifikatorfunktionen ∆f i gemäss (4.4.25) für die ODE ẏ = f(y) und das ESV mit<br />

diskreter Evolution Ψ h (der Konsistenzordnung p) wie oben definiert, ist<br />

✸<br />

4.4<br />

p. 405<br />

✩<br />

(L > 0: Lipschitz-Konstante der Inkrementfunktion des ESV, ỹ ˆ= Lösung der modifizierten<br />

Gleichung)<br />

Exponentielles Wachstum der Konstanten in (4.4.27) für hk → ∞ !<br />

( ∥ ∥τ(y j ,h) ∥ ∥ = O(h l+2 ) liefert keine sinnvollen Abschätzungen bei Langeitintegration)<br />

4.4<br />

p. 407<br />

✫<br />

˙ỹ = ˜f h,l (ỹ) := f(ỹ) + h p ∆f p (ỹ) + h p+1 ∆f p+1 (ỹ) + · · · + h l ∆f l (ỹ) ,<br />

eine modifizierte Gleichung der Ordnung l + 1, l > p (→ Def. 4.4.12)<br />

✪<br />

JEDOCH:<br />

Wenn Konsistenzfehler ”<br />

exponentiell klein”<br />

100<br />

γ = 1, L = 1<br />

Beweis. Der Beweis ergibt sich aus der rekursiven Konstruktion der ∆f l , siehe (4.4.21), (4.4.22),<br />

(4.4.23).<br />

‖τ ‖ ≤ Ch exp(−γ/h) , γ > 0 . (4.4.28)<br />

log of bound<br />

0<br />

−100<br />

−200<br />

−300<br />

−400<br />

−500<br />

‖y k − ỹ(kh)‖<br />

−600<br />

10 2<br />

4.4.4 Modifizierte Gleichungen: Fehleranalyse<br />

≤ C exp(−γ/h + hkL) . (4.4.29)<br />

10 1<br />

final time T = hk<br />

10 0<br />

10 −3 10 −2 10 −1 10 0<br />

h<br />

Im Sinne der Rückwärtsanalyse (→ Bem. 4.4.16) des Lanzeitverhaltens von Einschrittverfahren ist<br />

zu untersuchen:<br />

Verhalten der Schranke aus (4.4.29)<br />

• Gibt es eine (strukturerhaltende) modifizierte Gleichung, der Lösung für lange Zeiten nahe bei<br />

der numerische Lösung (Gitterfunktion (y k ) k ) bleibt.<br />

4.4<br />

p. 406<br />

4.4<br />

p. 408


final time T = hk<br />

γ = 1, L = 1<br />

10 2 Contours for 0.1, 0.01, 0.001<br />

10 1<br />

Schranke ≥ 0.1<br />

maximal final time T<br />

10 2<br />

10 1<br />

γ = 1, L = 1, C = 1<br />

bound < 0.1<br />

bound < 0.01<br />

bound < 0.001<br />

f(y) = J −1 gradH(y) holomorph in D ⇔ H(y) holomorph in D<br />

(mit jeweils gleicher unterer Schranke R für Konvergenzradius auf Kompakta)<br />

Mathematisches Pendel, Bsp. 4.4.3: H(p,q) = 2 1p2 − cos q<br />

➣ D = R 2 , R = ∞ (ganze Funktion !)<br />

Federpendel, Bsp. 4.4.12: H(p,q) = 1 2 ‖p‖2 + 2 1 (‖q‖ − 1)2<br />

➣ D = R 4 , R = dist(K, {q = 0}) (H nicht holomorph in q = 0)<br />

Schranke ≤ 0.001<br />

10 0<br />

10 0<br />

10 −2 10 −1<br />

h<br />

Fig. 158<br />

10 3 h<br />

Beachte: H(p,q) jeweils analytisch in Umgebungen physikalisch sinnvoller Trajektorien !<br />

10 −1<br />

10 −3 10 −2 10 −1 10 0<br />

Fig. 159<br />

Aus (4.4.29) lesen wir ab:<br />

γ<br />

h <<br />

TL − log(τ/C)<br />

⇒ ‖y k − ỹ(kh)‖ ≤ τ für 0 ≤ kh ≤ T .<br />

Schrittweite h ”<br />

klein” ⇒ Numerische Lösungy k bleibt lange in der Nähe der Trajektorie t ↦→ ỹ(t)<br />

(Präzisere Diskussion in Bem. 4.4.23)<br />

✎ Notation: ˜Φt h,l ˆ= Evolutionsoperator zu ˙ỹ = ˜f h,l (ỹ), vgl. Lemma 4.4.13<br />

✸<br />

4.4<br />

p. 409<br />

✬<br />

✩<br />

4.4<br />

p. 411<br />

Wir sind frei in der Wahl der Abschneideindex l !<br />

Frage: Was ist die beste abgeschnittene modifizierte Gleichung ?<br />

Zur Beantwortung brauchen wir Konzepte/Hilfsmittel aus der Funktionentheorie !<br />

Theorem 4.4.14 (Konsistenzfehlerabschätzung für abgeschnittene modifizierte Gleichungen).<br />

Sei Ψ h die diskrete Evolution eines zu ẏ = f(y) konsistenten (partitionierten) Runge-Kutta-<br />

Einschrittverfahrens. Unter der Analytizitätsvoraussetzung gibt es für jedes Kompaktum K ⊂ D<br />

Konstanten C 1 ,C 2 > 0 und ein h 0 ∈]0, ∞] so, dass<br />

∥<br />

∥Ψ h y − ˜Φ h h,ly∥ ≤ C 1 h(C 2 (l + 1)h) l+1 ∀y ∈ K, ∀l ∈ N , ∀|h| ≤ h 0 . (4.4.30)<br />

Analytizitätsvoraussetzung<br />

für jedes Kompaktum K ⊂ D gibt es ein R = R(K) > 0, so dass f(y) in jedem y ∈ K in<br />

jeder Komponente von y eine Potenzreihenentwicklung mit Konvergenzradius > R besitzt.<br />

⇔ f ist holomorph in D<br />

✫<br />

Hilfsmittel bei Beweis: Differentialgleichung in C → [27, Kap. I, §8]<br />

✬<br />

Theorem 4.4.15 (Existenz- und Eindeutigkeitssatz für Dgl. in C).<br />

Ist f : D ⊂ C ↦→ C in einer Umgebung B ρ (z 0 ) := {z ∈ C : |z − z 0 | < ρ} ⊂ D von<br />

z 0 ∈ D holomorph und |f(z)| ≤ M für alle z ∈ B ρ (z 0 ), dann existiert genau eine auf B ρ/M (0)<br />

holomorphe Lösung y des Anfangswertproblems<br />

✪<br />

✩<br />

✎<br />

Erklärung: Potenzreihenentwicklung um y = (y 1 ,...,y d ) T in der j. Komponente<br />

∞∑<br />

f(y 1 , . ..,y j−1 , y,y j+1 , ...,y d ) = a k (y)(y − y j ) k für |y − y j | < R .<br />

k=0<br />

✫<br />

Notation:<br />

y ′ (z) = f(y(z)) ∀z ∈ B ρ/M (0) , y(0) = z 0 .<br />

′ ˆ= komplexe Differentiation<br />

✪<br />

Beispiel 4.4.22 (Analytizitätsvoraussetzung für Hamiltonsche Differentialgleichungen). p. 410<br />

4.4<br />

4.4<br />

p. 412


✬<br />

Lemma 4.4.16. Ist f holormph in einer Umgebung von B ρ (0), |f(z)| ≤ M für alle z ∈ B ρ (0)<br />

und f(0) = · · · = f (p) (0) = 0, p ∈ N 0 , dann gilt<br />

✫<br />

Beweis. Auf B ρ (0):<br />

|f(z)| ≤ M|z| p+1 ρ −(p+1) ∀z ∈ B ρ (0) .<br />

konvergente Potenzreihenentwicklung<br />

∞<br />

f(z) = z p+1 ∑<br />

a j z j<br />

j=0<br />

} {{ }<br />

=:g(z)<br />

, |g(z)| ≤ M für |z| = ρ .<br />

ρp+1 g holomorph auf B ρ (0) ⇒ |g| nimmt Maximum auf Rand |z| = ρ an (Maximumprinzip). ✷<br />

✩<br />

✪<br />

Im Folgenden: betrachte komplexe “Zeitschrittweiten” h ∈ C, 0 < α < 1 fest gewählt.<br />

Aus der Abschätzung für Wegintegrale im Komplexen<br />

∫ M := max |f(z)| ⇒ z∈B R (D) |Φh h<br />

z − z| =<br />

f(Φ τ ) dτ<br />

∣ 0 ∣ ≤ M|h| ,<br />

Schranke für |h|:<br />

⇒ |Ψ h z − z| = |hf(z)| ≤ M|h| .<br />

Wenn z ∈ B αR (D) & |h| ≤ (1−α) R M , 0 ≤ α < 1<br />

dann bleibt die Trajektorie ξ ↦→ Φ ξh z, 0 ≤ ξ ≤ 1,<br />

in B R (D) !<br />

∀z ∈ B αR (D)<br />

|h| klein.<br />

(4.4.31)<br />

D<br />

αR<br />

z<br />

Φ h z Fig. 161<br />

Blosse Beschränktheit auf einer Nullumgebung einer holomorphen Funktion f mit |f(z)| =<br />

O(|z| p+1 ) genügt bereits, um das Abfallverhalten für z → 0 genau zu charakterisieren!<br />

⇒<br />

(1 − α)R<br />

|h| ≤ h 1 :=<br />

M<br />

(<br />

(1 − α)R<br />

|h| ≤ ⇒<br />

M<br />

⇒ |Φh y − y| ≤ (1 − α)R ,<br />

|Ψ h ∀y ∈ B αR (D)<br />

y − y| ≤ (1 − α)R .<br />

)<br />

|Φ h y − Ψ h y| ≤ 2(1 − α)R ∀y ∈ B αR (D) . (4.4.32)<br />

Beweis von Thm. 4.4.14 ☞ für skalaren Fall d = 1, ẏ = f(y), D =]a,b[⊂ R Intervall,<br />

4.4<br />

☞ für explizites Euler-Verfahren (1.4.2): Ψ h y = y + hf(y) p. 413<br />

Anwendung von Lemma 4.4.16 auf g(h) = Φ h y − Ψ h y:<br />

g holomorph in B (1−α)R/M (0)<br />

4.4<br />

p. 415<br />

(Beweis nach S. Reich 1999, siehe [25, Thm. 2])<br />

Annahme:<br />

f holomorph in Umgebung von<br />

B R (D) := {z ∈ C: ∃x ∈ D : |z − x| ≤ R}<br />

Ziel, vgl. (4.4.30):<br />

Abschätzung des Konsistenzfehlers ˜Φ h h,l (y) − Ψh (y) für modifizierte<br />

Gleichungen der Ordnung l + 1 (→ Def. 4.4.12)<br />

⇕ ← (4.4.23)<br />

Abschätzung der Modifikatorfunktionen ∆f l !<br />

D<br />

R<br />

Fig. 160<br />

g beschränkt durch 2(1 − α)R auf B (1−α)R/M (0)<br />

⇒<br />

( )<br />

|Φ h y − Ψ h y| ≤ 2(1 − α)R|h| 2 (1 − α)R −2<br />

M<br />

( )<br />

≤ 2M|h| 2 M<br />

∀y ∈ B<br />

(1 − α)R αR (D) ,<br />

(4.4.33)<br />

da g(h) = O(h 2 ) (Euler-Verfahren Konsistenzordnung 1), so dass g(0) = g ′ (0) = 0.<br />

∣ (4.4.25)<br />

⇒ |∆f 1 (y)| =<br />

∣ lim Φ h y − Ψ h y ∣∣∣∣ ( )<br />

(4.4.33) M<br />

h→0 h 2 ≤ 2M<br />

∀y ∈ B<br />

(1 − α)R αR (D) . (4.4.34)<br />

Wir haben nun gesehen, wie man unter der Analytizitätsannahme an die rechte Seite f eine<br />

Abschätzung für die erste Modifikatorfunktion erhalten kann. Benötigt wird eine Schranke für f in<br />

einer kompakten Umgebung B R (D) ⊂ C.<br />

Schritt I: Abschätzung für Modifikatorfunktion ∆f 1<br />

(auch zur Demonstration der Technik)<br />

Die rekursive Konstruktion der Modifikatorfunktionen gemäss (4.4.25) legt nun folgendes Vorgehen<br />

nahe:<br />

! Interpretation von ẏ = f(y) als Differentialgleichung in C → Thm. 4.4.15 :<br />

f holomorph ⇒ Lösungen t ↦→ y(t) analytisch (in Umgebung von 0) ⇒ fortsetzbar nach C<br />

⇒ Evolution Φ t : B R (D) ↦→ C holomorph (für hinreichend kleines |t|)<br />

4.4<br />

p. 414<br />

➀ Unter Verwendung von Abschätzungen für die Modifikatorfunktionen ∆f j , 1 ≤ j ≤ l, leite eine<br />

Abschätzung für die rechte Seite ˜f h,l der modifizierten Gleichung (4.4.26) aus Lemma 4.4.13 her.<br />

Ebenso wie alle Modifikatorfunktionen wird auch ˜f h,l analytisch in einer Umgebung von D sein.<br />

4.4<br />

p. 416


➁ Benutze die Schranke für ˜f h,l , um mit gleichen Techniken wie oben für ∆f 1 die nächste Modifikatorfunktion<br />

∆f l+1 abzuschätzen.<br />

➂ Mache weiter mit ➀<br />

Erinnerung an unser Ziel (4.4.35) für ”<br />

l ← l + 1”. Wegen<br />

müssen wir also zeigen:<br />

∆f l+1 (y) = − lim h→0<br />

˜Φ h h,l y − Ψh y<br />

h l+2 , (4.4.25)<br />

Rekursive Abschätzung ←→ Induktionsbeweis<br />

Herausforderung: Formulierung einer geeigneten Induktionsannahme, vgl. (4.4.34).<br />

(<br />

|˜Φ h h,l y − Ψh y| ≤ |h| l+2 c(l + 1)M<br />

) l+1|h|<br />

bM<br />

bMh<br />

(1 − α)R<br />

l h −(l+2)<br />

l<br />

} {{ }<br />

∀y ∈ B αR (D) (4.4.37)<br />

=h −1<br />

l !<br />

Beachte: (4.4.37) ⇒ Behauptung des Theorems mit C 1 = bM, C 2 = cM<br />

(1−α)R !<br />

Schritt II. Induktionsbeweis: Induktionsannahme: Es gibt l-unabhängige b > 0, c > 0, so dass<br />

( ) clM l<br />

∀l ∈ N: max |∆f l(y)| ≤ bM<br />

∀y ∈ B<br />

y∈B αR (D) (1 − α)R αR (D) , ∀0 ≤ α < 1 . (4.4.35)<br />

Beachte: per constructionem, Lemma 4.4.13: ˜Φh h,l y − Ψ h y = O(h l+2 ) für h → 0<br />

Lemma 4.4.16 ⇒ Da h ↦→ ˜Φ h h,l y − Ψh y analytisch, genügt es zu zeigen<br />

Die Konstanten b,c werden dann später geeignet festgelegt.<br />

|˜Φ h h,l y − Ψh y| ≤ h l bM ∀h ∈ B hl (0) , ∀y ∈ B αR (D) . (4.4.38)<br />

Dann Dreiecksungleichung wie in (4.4.32) & Abschätzung analog zu (4.4.31):<br />

Induktionsbeginn “l = 0” ⇔ (4.4.34)<br />

4.4<br />

p. 417<br />

|˜Φ h h,ly − y| ≤ |h| max | ˜f h,l (y)| ∀y ∈ B αR (D), |h| hinreichend klein”. (4.4.39)<br />

y∈B α ∗ R (D) ”<br />

4.4<br />

p. 419<br />

Induktionsschritt “l ⇒ l + 1”: (0 < α < 1 fixiert!)<br />

Was brauchen wir ?<br />

(|Ψ h y − y| ≤ M|h| wie oben)<br />

| ˜f h,l (y)| ≤|f(y)| + |h||∆f 1 (y)| + |h| 2 |∆f 2 (y)| + · · · + |h| l |∆f l (y)|<br />

2M<br />

l∑<br />

( )<br />

≤M + |h|<br />

(1 − α)R + bM |h| j jcM j<br />

∀y ∈ B<br />

, αR (D) ,<br />

(1 − α)R ∀0 < α < 1 .<br />

j=2<br />

aus (4.4.34) nach Induktionsannahme (4.4.35)<br />

? Nötig: Schranke für | ˜f h,l (y)| in einer Umgebung von B αR (D)<br />

max<br />

y∈B α ∗ R (D) | ˜f h,l (y)| ≤ (b − 1)M,<br />

h l · max | ˜f h,l (y)| ≤ δ(1 − α)R, damit die Trajektorie z ↦→ ˜Φ z<br />

y∈B<br />

h,l y in B α ∗ R(D) bleibt, wenn<br />

α ∗ R<br />

|z| ≤ h l (Beachte: B αR (D) ⊂ B α ∗ R(D)).<br />

Idee:<br />

⇒<br />

∀α” in (4.4.35) ➣ nutze Freiheit in der Wahl von α !<br />

”<br />

α ∗ := α + δ(1 − α) ∈]δ, 1[ ⇒ 1 − α ∗ = (1 − α)(1 − δ) , α ∗ > α .<br />

max | ˜f 2M<br />

l∑<br />

(<br />

h,l (y)| ≤ M + |h|<br />

y∈B α ∗ R (D) (1 − α)(1 − δ)R + bM j=2<br />

Versuch: Vereinfachung durch Beschränkung von |h|: |h| ≤ h l :=<br />

⇒<br />

max | ˜f<br />

(<br />

h,l (y)| ≤ M 1 +<br />

y∈B α ∗ R (D)<br />

2<br />

l∑<br />

(<br />

c(l + 1)(1 − δ) + b<br />

j=2<br />

jcM|h|<br />

(1 − α)(1 − δ)R<br />

j<br />

(l + 1)(1 − δ)<br />

(1 − α)R<br />

(l + 1)cM<br />

) j<br />

.<br />

) j)<br />

. (4.4.36)<br />

4.4<br />

p. 418<br />

Dazu müssen wir die Parameter in (4.4.36) geeignet wählen!<br />

Wir sind ”<br />

frei” in der Wahl von δ ∈]0, 1[ ! ➣ δ := b − 1<br />

c<br />

(4.4.36)<br />

⇒<br />

1<br />

·<br />

l + 1<br />

⇒<br />

h l (b − 1)M = δ(1 −α)R<br />

max | ˜f<br />

(<br />

2<br />

l∑<br />

( )<br />

h,l (y)| ≤ M 1 +<br />

y∈B α ∗ R (D) c(l + 1) − b + 1 + b jc j)<br />

.<br />

c(l + 1) − b + 1<br />

j=2<br />

} {{ }<br />

=:Γ(b,c,l)<br />

Frage: Gibt es b, c > 0 (b − 1 < 2c) so, dass max l∈N ? 4.4<br />

p. 420


1<br />

1<br />

0<br />

Für Beweis von Thm. 4.4.14:<br />

Γ(b, c, ell)<br />

22<br />

20<br />

18<br />

16<br />

14<br />

12<br />

Γ(b, c,l) := 1 +<br />

Verhalten von<br />

2<br />

l∑<br />

c(l + 1) − b + 1 + b<br />

b=20, c=300<br />

b=20, c=100<br />

b=10,c=10<br />

10<br />

0 10 20 30 40 50 60 70 80 90 100<br />

l<br />

Fig. 162<br />

c<br />

400<br />

350<br />

300<br />

250<br />

200<br />

150<br />

100<br />

50<br />

j=2<br />

(<br />

)<br />

jc j<br />

:<br />

c(l + 1) − b + 1<br />

2 2 2 2<br />

1<br />

5 10 15 20 25 30<br />

b<br />

Fig. 163<br />

0<br />

Γ(b, c, l) < b − 1<br />

1<br />

−1<br />

0<br />

Verhalten der Schranke aus Thm. 4.4.14<br />

Mögliche Divergenz der asymptotischen Entwicklung<br />

(4.4.24) manifestiert sich in C 1 h(C 2 (l +<br />

1)h) l+1 → ∞ für l → ∞.<br />

Optimaler Abbruchindex:<br />

[ ] 1<br />

l opt ≈ . (4.4.42)<br />

C 2 eh<br />

✄<br />

((l+1)C 2<br />

h) (l+1)<br />

10 −2<br />

10 −4<br />

10 −6<br />

10 −8<br />

10 −10<br />

10 −12<br />

10 −14<br />

10 −16<br />

C 2<br />

h = 0.1<br />

10 −18 C h = 0.05<br />

2<br />

C 2<br />

h = 0.01<br />

10 −20<br />

10 0 10 1 10 2<br />

10 0 l<br />

Fig. 164<br />

Linker Plot: l ↦→ Γ(b, c,l) ➣ eindeutiges Maximum für kleines l<br />

Rechter Plot: Konturen von (b,c) ↦→ max l Γ(b,c,l) − b + 1<br />

4.4<br />

p. 421<br />

4.4<br />

p. 423<br />

Aus den Plots lesen wir ab: mögliche Wahl c = 300, b = 20 ∀l.<br />

10 −2<br />

40<br />

35<br />

10 0 1/C 2<br />

h<br />

Dann weiter wie zuvor skizziert, siehe (4.4.38), (4.4.39):<br />

⇒ |˜Φ h h,ly − y| ≤ M(b − 1)|h| ,<br />

⇒<br />

|˜Φ h h,l y − Ψh y| ≤ bM|h|<br />

für |h| ≤ h l , ∀y ∈ B αR (D) , (4.4.40)<br />

Beachte: ˜Φ h h,l y − Ψh y = O(h l+2 ) nach Konstruktion der Modifikatorfunktionen und holomorph in<br />

Umgebung von 0. Mit Formel für h l , o.B.d.A. 0 < h l < 1,<br />

optimal consistency error bound<br />

10 −4<br />

10 −6<br />

10 −8<br />

10 −10<br />

10 −12<br />

10 −14<br />

optimal truncation index<br />

30<br />

25<br />

20<br />

15<br />

10<br />

5<br />

Lemma 4.4.16<br />

⇒<br />

|˜Φ h h,l y − Ψh y| ≤ bM<br />

Mit (4.4.25) folgt die Induktionsbehauptung für l + 1.<br />

( ) |h| l+2 ( )<br />

≤ bM|h| l+2 c(l + 1)M l+1<br />

. (4.4.41)<br />

h l (1 − α)R<br />

10 −16<br />

10 20 30 40 50 60 70 80 90 100<br />

Fig. 165<br />

✎ Notation: [x] ˆ= ganzzahliger Anteil von x > 0<br />

0<br />

10 20 30 40 50 60 70 80 90 100<br />

1/C 2<br />

h<br />

Fig. 166<br />

4.4<br />

Behauptung des Theorems mit C 1 = bM, C 2 = cM R (Fall α = 0) folgt ebenfalls aus (4.4.41) ✷ p. 422<br />

∥<br />

∥Ψ h y − ˜Φ h h,l opt<br />

y∥ ≤ C 1 h exp(−l opt ) ≤ C 1 h exp(−γ/h) , γ := 1<br />

C 2 e > 0 . (4.4.43)<br />

4.4<br />

Schranke exponentiell klein für h → 0, vgl. (4.4.28) p. 424<br />

(4.4.42) ergibt sich aus Kurvendiskussion von x ↦→ (ax) x , x > 0.


Beachte: (4.4.43) ↔ Konsistenzfehlerabschätzung (2.1.6)<br />

T < γ<br />

Lh ⇒<br />

“exponentiell kleiner” Fehler des Einschrittverfahrens<br />

bzgl. der optimal abgeschnittenen modifizierten Gleichung<br />

Nun leiten wir eine Abschätzung für die Abweichung der numerischen Lösung von der<br />

Lösungstrajektorie der optimal abgeschnittenen modifizierten Gleichung ˙ỹ = ˜f h,lopt (ỹ) her,<br />

vgl. (4.4.27).<br />

Nächster Punkt: Entsteht die optimal abgeschnittene modifizierte Gleichung wirklich durch eine ”<br />

kleine”<br />

Störung der ursprünglichen ODE?<br />

Betrachte: AWP ẏ = f(y) y(0) = y 0 ∈ D auf [0,T], Endzeitpunkt T ∈ J(y 0 )<br />

✬<br />

Lemma 4.4.18 (Störungsabschätzung für optimal abgeschnittene modifizierten Gleichung).<br />

Neben den Voraussetzungen von Thm. 4.4.14 (Analytizitätsannahme) gibt es für jedes Kompaktum<br />

K ⊂ D eine von (hinreichend kleinem) h > 0 unabhängige Konstante C > 0 so, dass<br />

✩<br />

✎ Notationen: ỹ ˆ= Lösung des AWP ˙ỹ = ˜f h,lopt (ỹ), ỹ(0) = y 0<br />

(l opt aus (4.4.42) mit C 2 aus Thm. 4.4.14 bzgl. K)<br />

(<br />

)<br />

yk<br />

((Ψ h<br />

)k := h ) k y 0<br />

k , k ∈ {0, . ..,[ T/h]}: Gitterfunktion erzeugt durch das<br />

Einschrittverfahren mit Schrittweite h > 0 (numerische Näherungslösung)<br />

✫<br />

Beweis.<br />

∥<br />

∥˜f h,l (y) − f(y) ∥ ≤ Ch p ∀y ∈ K , ∀l ∈ N .<br />

Ergänzung zum Beweis von Thm. 4.4.14, siehe die dort gemachten Annahmen und verwendeten<br />

Notationen. Ausführungen für das explizite Euler-Verfahren, d.h. p = 1.<br />

✪<br />

✬<br />

✩<br />

4.4<br />

p. 425<br />

4.4<br />

p. 427<br />

Lemma 4.4.17 (Konvergenz der optimal abgeschnittenen modifizierten Gleichung).<br />

Es gebe eine kompakte Umgebung K ⊂ D von y 0 , so dass yk h ∈ K für alle k ∈ N,<br />

wenn h hinreichend klein.<br />

Es gelten die Voraussetzungen von Thm. 4.4.14 (Analytizitätsannahme).<br />

✫<br />

Die diskrete Evolution zum ESV besitze die Darstellung Ψ h y = y + hψ(y,h) mit einer<br />

auf K gleichmässig Lipschitz-stetigen Inkrementfunktion ψ, d.h., vgl. 2.1.10,<br />

∃L > 0: ‖ψ(z, h) − ψ(w,h)‖ ≤ L ‖z − w‖<br />

∀z,w ∈ K, |h| hinreichend klein.<br />

Dann gibt es h 0 > 0 und von h 0 unabhängige Konstanten C > 0, γ > 0 so, dass<br />

∥<br />

∥ỹ(hk) − yk<br />

h ∥ ≤ C(exp(hkL) − 1) exp(−γ/h) ∀k ∈ {0,...,[T/h]} , ∀0 < h < h 0 .<br />

Beweis.<br />

Siehe (4.4.27) und die dortigen Bemerkungen:<br />

✪<br />

Aus der Definition von ˜f h,l , → Lemma 4.4.13,<br />

˜f h,l (y) − f(y) =<br />

l∑<br />

h j ∆f j (y) .<br />

Idee: Verwende Abschätzung der Modifiktorfunktionen ∆f j aus dem Beweis von Thm. 4.4.14<br />

Konkret: aus (4.4.35) mit α = 0<br />

⎛<br />

⎞<br />

| ˜f h,l (y) − f(y)| ≤ |h| ⎝ 2M l∑<br />

( )<br />

R + bM |h| j−1 jcM j<br />

⎠ .<br />

R<br />

j=2<br />

R<br />

|h| ≤<br />

(l + 1)2cM ⇒ | ˜f<br />

( 2M<br />

h,l (y) − f(y)| ≤ |h|<br />

R + 2bcM2 l∑<br />

( )<br />

2 −j j + 1 j )<br />

j .<br />

R l + 1<br />

j=2<br />

} {{ }<br />

beschränkt<br />

j=1<br />

Der Beweis von Thm. 2.1.10 kann fast unverändert übertragen werden, nachdem (2.1.9) durch<br />

(4.4.43) ersetzt worden ist. Siehe auch Sect. 2.1.4 für die Beweistechnik. ✷<br />

4.4<br />

p. 426<br />

4.4<br />

p. 428


0.8<br />

Beispiel 4.4.24 (Modifizierte Gleichung für symplektisches Euler-Verfahren). → [22, Sect. 5.1.2]<br />

Summe<br />

l ↦→<br />

l∑<br />

2 −j j<br />

j=2<br />

✄<br />

( ) j + 1 j<br />

(4.4.44)<br />

l + 1<br />

Summe (4.4.44)<br />

0.7<br />

0.6<br />

0.5<br />

0.4<br />

0.3<br />

0.2<br />

0.1<br />

0<br />

0 10 20 30 40 50 60 70 80 90 100<br />

l<br />

Fig. 167<br />

Also: | ˜f h,l (y) − f(y)| ≤ Ch für kleines h, ∀y ∈ K, mit C > 0 unabhängig von l. ✷<br />

Das Vektorfeld der optimal abgeschnittenen modifizierten Gleichung ist “O(h p )-nah” zu f<br />

Bemerkung 4.4.23 (Schrittweitenbedingungen für ”<br />

Langzeitintegration”).<br />

Betrachte AWP<br />

ẏ = f(y), y(0) = y 0 , auf [0,T] ⊂ J(y 0 ), f holomorph.<br />

ESV y 1 = Ψ h y 0 der Konsistenzordnung p ∈ N. p. 429<br />

Schrittweitenbedingung für genaue numerische Lösung (‖y(hk) − y k ‖ klein) auf [0, T]<br />

Thm. 2.1.10 ⇒ h p exp(LT) ≪ 1 ⇒ h = O(exp(−T/p)) .<br />

Schrittweitenbedingung für akzeptable (∗) numerische Lösung (‖ỹ(hk) − y k ‖ klein) auf [0, T]<br />

Lemmas 4.4.17, 4.4.18 ⇒ h < γ<br />

LT ⇒ h = O(T −1 ) .<br />

(∗) ”<br />

generisch akzeptabel” bzgl. allgemeiner additiver Störungen von f. (Schärfer: strukturerhaltend<br />

akzeptabel, siehe Anfang von Sect. 4.4.3)<br />

△<br />

4.4<br />

Separierte Hamilton-Funktion mit Potential U : R n ↦→ R, vgl. (1.2.16)<br />

Hamiltonsche Differentialgleichung:<br />

H(p,q) := 1 2 ‖p‖2 + U(q) , p,q ∈ R n .<br />

ṗ = −grad U(q) , ˙q = p . (4.4.45)<br />

➀ Explizites Euler-Verfahren für (4.4.45), Schrittweite h > 0 (Konsistenzordnung 1):<br />

p 1 = p 0 − hgradU(q 0 ) , q 1 = q 0 + hp 0 .<br />

Taylorentwicklung & (4.4.45) & (4.4.23) ➣ erste Modifikatorfunktion<br />

p(h) = p 0 + hṗ(0) + 1 2 h2¨p(0) + O(h 3 )<br />

= p 0 − hgradU(q 0 ) − 1 2 h2 ∇ 2 U(q 0 )p 0 + O(h 3 ) ,<br />

q(h) = q 0 h ˙q(0) + 1 2 h2¨q(0) + O(h 3 )<br />

Ausdruck für den Konsistenzfehler:<br />

= q 0 + hp 0 − 1 2 h2 grad U(q 0 ) + O(h 3 ) .<br />

( )<br />

p(h) − p1<br />

τ(y 0 , h) = =<br />

q(h) − q 1<br />

(4.4.25)<br />

⇒ ∆f 1 (p,q) = 1 2<br />

(<br />

− 1<br />

2 h 2 ∇ 2 )<br />

U(q 0 )p 0<br />

−2 1 + O(h 3 ) .<br />

h2 grad U(q 0 )<br />

(<br />

∇ 2 )<br />

U(q)p<br />

≠ J −1 grad ˜H(y) .<br />

gradU(q)<br />

➁ Symplektisches Euler-Verfahren (4.4.6), Schrittweite h > 0 (Konsistenzordnung 1):<br />

p 1 = p 0 − hgradU(q 1 ) , q 1 = q 0 + hp 0 .<br />

Taylorentwicklung & (4.4.45) & (4.4.23) ➣ Modifikatorfunktion<br />

Im Unterschied zu oben, unter Verwendung von (4.4.6):<br />

q(h) = q 0 + hp 0 − 1 2 h2 grad U(q 0 ) + O(h 3 )<br />

= q 0 + hp 1 + 1 2 h2 gradU(q 0 ) + O(h 3 )<br />

4.4<br />

p. 431<br />

4.4.5 Strukturerhaltende modifizierte Gleichungen<br />

Gemäss Bem. 4.4.16 müssen wir zu zeigen, dass die Vektorfelder ˜f h,l der abgeschnittenen modifizierten<br />

Gleichungen strukturelle Eigenschaften (f ∈ V von Bem. 4.4.6) von f erben. Fokus ist auf<br />

Hamiltonschen Differentialgleichungen (→ Def. 1.2.2) ↔ Symplektizität (→ Def. 4.4.5)<br />

4.4<br />

p. 430<br />

∆f 1 (p,q) = 1 2<br />

(<br />

∇ 2 )<br />

U(q)p<br />

−grad U(q)<br />

⎛<br />

= ⎝ −∂ ˜H ⎞<br />

1<br />

∂q (p,q)<br />

∂ ˜H ⎠ , ˜H 1 (p,q) = − 1<br />

1<br />

∂p (p,q) 2 p · gradU(q) .<br />

⇒ Modifizierte Gleichung zweiter Ordnung ist Hamiltonsche Differentialgleichung !<br />

4.4<br />

p. 432


Konkret: mathematisches Pendel → Bsp. 1.2.7<br />

n = 1 , H(p,q) = 1 2 p2 − cosq .<br />

“exakte” Trajektorien ✄<br />

Trajektorien zu modifizierten Gleichungen 2. Ordnung<br />

p = velocity<br />

3<br />

2<br />

1<br />

0<br />

−1<br />

−2<br />

Explicit Euler, h = 0.000000, trajektories for modified equation<br />

✬<br />

Theorem 4.4.19 (Symplektizität der Modifikatorfunktionen).<br />

Sei Ψ h die diskrete Evolution eines symplektischen Einschrittverfahrens (→ Def. 4.4.10) für<br />

die Hamiltonsche Differentialgleichung ẏ = J −1 · grad H(y) mit glatter Hamilton-Funktion<br />

H : D ⊂ R 2n ↦→ R, D sternförmig.<br />

Dann sind die abgeschnittenen modifizierten Gleichungen ˙ỹ = ˜f h,l (ỹ) aus Lemma 4.4.13 ebenfalls<br />

Hamiltonsch für alle l ∈ N und alle (hinreichend kleinen) h > 0.<br />

✫<br />

Beweis. (von Thm. 4.4.19)<br />

Idee: Induktion nach l<br />

✩<br />

✪<br />

−3<br />

−6 −4 −2 0 2 4 6<br />

q = α<br />

Fig. 168<br />

Induktionsbeginn: Für l ≤ p: ˜fh,l (y) = f(y) = J −1 · gradH(y) ✔<br />

“l → l + 1”: ˜Φt ˆ= Evolutionsoperator zu ˙ỹ = ˜fh,l (ỹ) = J −1 grad ˜H l (y) (Induktionsannahme !)<br />

⇒ Für festes t: ˜Φt : D ↦→ R 2n is symplektisch (→ Def. 4.4.5)<br />

4.4<br />

p. 433<br />

Nach (4.4.21) & (4.4.23), Lemma 4.4.13 für h → 0<br />

˜Φ h y 0 − Ψ h y 0 = −∆f l+1 (y 0 )h l+2 + O(h l+3 ) ∀y 0 . (4.4.46)<br />

(D y˜Φh )(y0 ) − (D y Ψ h )(y 0 ) = −(D y ∆f l+1 )(y)h l+2 + O(h l+3 ) . (4.4.47)<br />

4.4<br />

p. 435<br />

3<br />

Explicit Euler, h = 0.500000, trajektories for modified equation<br />

3<br />

Symplectic Euler, h = 0.500000, trajektories for modified equation<br />

˜Φ h , Ψ h = symplektische Abbildungen (→ Def. 4.4.5, Argument y 0 weggelassen)<br />

⇒<br />

p = velocity<br />

2<br />

1<br />

0<br />

−1<br />

p = velocity<br />

2<br />

1<br />

0<br />

−1<br />

(D y ˜Φh ) T JD y ˜Φh<br />

} {{ }<br />

=J<br />

= (D y Ψ h ) T JD y Ψ h<br />

} {{ }<br />

=J<br />

+ h l+2( (D y Ψ h ) T JD y ∆f l+1 + (D y ∆f l+1 ) T JD y Ψ h) + O(h l+3 ) .<br />

⇒ 0 = (D y Ψ h ) T JD y ∆f l+1 + (D y ∆f l+1 ) T JD y Ψ h + O(h) .<br />

Für konsistentes ESV, siehe Lemma 2.1.6: D y Ψ h = I + O(h) für h → 0.<br />

−2<br />

−2<br />

h→0<br />

⇒ 0 = JD y ∆f l+1 + (D y ∆f l+1 ) T J ⇒ D y (J∆f l+1 ) = (D y (J∆f l+1 )) T .<br />

−3<br />

−6 −4 −2 0 2 4 6<br />

q = α<br />

Fig. 169<br />

−3<br />

−6 −4 −2 0 2 4 6<br />

q = α<br />

Fig. 170<br />

Anwendung von Lemma 4.4.9 (Integrabilitätslemma) auf J∆f l+1 .<br />

✷<br />

Expl. Euler, h = 0.5<br />

Synplekt. Euler, h = 0.5<br />

✸<br />

Symplektische Integratoren liefern strukturerhaltende akzeptable (∗) diskrete Evolutionen für<br />

(glatte) konservative mechanische Systeme.<br />

4.4<br />

p. 434<br />

(∗): (exponentiell genaue) Lösung einer Evolution mit “leicht gestörter” (nämlich O(h p ), siehe Lemma<br />

4.4.18) Hamilton-Funktion ➢ Rückwärtsanalyse → Sect. 4.4.3<br />

4.4<br />

p. 436


Erklärung der “Langzeitenergieerhaltung” symplektischer Integratoren durch Rückwärtsanalyse:<br />

☞ Lösung des ESV (Konsistenzordnung p) ist “exponentiell genaue” (→ Lemma 4.4.17) Approximation<br />

der Lösung einer (optimal abgeschnittenen) modifizierten Gleichung<br />

Diese ist eine Hamiltonsche Differentialgleichung (→ Def. 1.2.2) mit einer (bzgl. H) um<br />

O(h p ) gestörten Hamilton-Funktion ˜H(y) (→ Thm. 4.4.18).<br />

✬<br />

Theorem 4.4.20 (Langzeitenergieerhaltung bei symplektischer Integration).<br />

Für die Hamiltonsche ODE ẏ = J −1 gradH(y) (→ Def. 1.2.2) und ein dazu von Ordnung<br />

p konsistentes symplektisches Einschrittverfahren (→ Def. 4.4.10) seien die Voraussetzungen<br />

von Thm. 4.4.14 erfüllt.<br />

Für hinreichend kleine (uniforme !) Schrittweiten h gelte (Ψ h ) k y ∈ K für alle k ∈ N 0 und<br />

y ∈ K 0 , wobei K, K 0 ⊂ D kompakt. Dann gibt es C > 0 mit<br />

✩<br />

Details:<br />

|H((Ψ h ) k y 0 ) − H(y 0 )| ≤ C(hk exp(−γ/h) + h p ) ∀h hinreichend klein, ∀y 0 ∈ K 0 .<br />

Annahmen:<br />

symplektisches ESV der Konsistenzordnung p<br />

Schrittweite h < h ∗ ⇒ numerischen Lösungen (y k ) k ⊂ K ⊂ D, K kompakte<br />

Teilmenge K ⊂ D des Zustandsraums.<br />

K ist sternförmig (darauf kann verzichtet werden [11, Sect. XI.3.2])<br />

f erfüllt Analytizitätsannahme bzgl. K<br />

✫<br />

T exp(O(h −1 )) =⇒ H(y k ) − H(y 0 ) = O(h p )<br />

Sect. 4.4.3”: Methode der Rückwärtsanalyse erfordert uniforme Zeitschrittweite.<br />

✪<br />

✎ Notation: (t,y) ↦→ ˜Φ t hy ˆ= Evolutionsoperator zur (optimal abgeschnittenen)<br />

modifizierten Gleichung ˙ỹ = ˜f h,lopt (ỹ).<br />

∥<br />

Abschätzung (4.4.43) ⇒ ∥Ψ h y − ˜Φ h hy∥ ≤ Ch exp(−γ/h) ∀y ∈ K, ∀h < h ∗ .<br />

Thm. 4.4.19 ⇒ ˜f h,lopt (y) = J −1 grad ˜H h (y) mit ˜Hh : K ↦→ R holomorph .<br />

4.4<br />

p. 437<br />

Eine bloss theoretische Einschänkung ?<br />

Beispiel 4.4.25 (Symplektische Integratoren und variable Schrittweite). Fortsetzung Bsp. 4.4.10<br />

Symplektisches Eulerverfahren (4.4.6) für (4.4.1) auf [0,T], T = 5000. Erratische variable Schrittweite<br />

4.4<br />

h i = 0.5(1 + 0.5(rand() − 0.5)), i = 1,...,10000, p(0) = 0, q(0) = 7π/6 p.<br />

439<br />

600<br />

250<br />

˜H h : K ↦→ R holomorph<br />

K kompakt<br />

⇒ ∃L > 0: | ˜H h (y) − ˜H h (z)| ≤ L ‖y − z‖ ∀y,z ∈ K .<br />

500<br />

200<br />

” Teleskopsummenargument”: da ˜H h (˜Φ t hy) = ˜H h (y) für alle t ∈ J(y), y ∈ K (Hamilton-Funktion<br />

ist Invariante einer Hamiltonschen ODE, siehe Lemma 1.2.3)<br />

| ˜H h (y k ) − ˜H<br />

k−1 ∑<br />

h (y 0 )| ≤ | ˜H h (y j+1 ) − ˜H<br />

k−1 ∑<br />

h (y j )| = | ˜H h (Ψ h y j ) − ˜H h (˜Φ h hy j )|<br />

j=0<br />

j=0<br />

k−1 ∑<br />

∥<br />

≤ L∥Ψ h y j − ˜Φ h ∥ k−1 ∥∥<br />

∑<br />

hy j ≤ CL h exp(−γ/h) ≤ CLhk exp(−γ/h) .<br />

j=0<br />

j=0<br />

Thm. 4.4.19 ⇒ ∃C > 0: max<br />

y∈K | ˜H h (y) − H(y)| ≤ Ch p ∀h < h ∗ .<br />

⇒ |H(y k ) − H(y 0 )| ≤ C(Lhk exp(−γ/h) + h p ) ∀h < h ∗ .<br />

LT h p exp(−γ/h) ➣ ”<br />

Energiefehler” der numerischen Lösung von der Grösse O(h p )<br />

Gesamtenergie<br />

400<br />

300<br />

200<br />

100<br />

0<br />

−100<br />

0 500 1000 1500 2000 2500 3000 3500 4000 4500 5000<br />

t<br />

Energiedrift bei variabler Schrittweite (Verfahren<br />

(4.4.6), links)<br />

Gesamtenergie<br />

150<br />

100<br />

50<br />

0<br />

0 500 1000 1500 2000 2500 3000 3500 4000 4500 5000<br />

t<br />

Energiedrift bei variabler Schrittweite (Verfahren<br />

(4.4.6), rechts)<br />

✸<br />

für ”<br />

exponentiell lange Zeit”<br />

4.5 Methoden für oszillatorische Differentialgleichungen [20]<br />

☞ Dies ist die Erklärung für die Vermutung aus Bsp. (4.4.11) !<br />

4.4<br />

p. 438<br />

4.5<br />

☞ p. 440


Prototyp: ÿ = −ω 2 y , y(0) = y 0 , ẏ(0) = v 0<br />

Ziel: Effiziente numerische Integration von (4.5.1)/(4.5.2) auch für ω ≫ 1 bzw. λ max (A) ≫ 1<br />

y(t) = α cos(ωt) + β sin(ωt) , α,β ∈ R<br />

Idee: ( wie bei exponentiellen Integratoren, siehe Sect. 3.7)<br />

Verallgemeinerung (skalar): ÿ = −ω 2 y + g(y) , y(0) = y 0 , ẏ(0) = v 0 , (4.5.1)<br />

Verwende analytische Lösungsdarstellung (4.5.4) zur numerischen Integration:<br />

mit Lipschitz-stetiger Störung g : R ↦→ R.<br />

Verallgemeinerung (vektoriell) ÿ = −Ay + g(y) , y(0) = y 0 , ẏ(0) = v 0 , (4.5.2)<br />

Bemerkung 4.5.1.<br />

(4.5.1)<br />

A ∈ R d,d symmetrisch positiv definit,<br />

v:=ẏ<br />

⇐⇒<br />

Lösung von (4.5.3) durch Variation der Konstanten:<br />

( )<br />

y(t)<br />

=<br />

v(t)<br />

(<br />

cos tω ω −1 )(<br />

sin tω y0<br />

−ω sintω costω<br />

g : R d ↦→ R d<br />

( ) ( ( ) ( )<br />

d y 0 1 y 0<br />

=<br />

dt v −ω 0) 2 + . (4.5.3)<br />

v g(y)<br />

v 0<br />

)<br />

+<br />

∫t<br />

0<br />

(<br />

ω −1 )<br />

sin(t − s)ω<br />

g(y(s)) ds (4.5.4)<br />

cos(t − s)ω<br />

Bemerkung 4.5.2. y(t) löst (4.5.1) & G ′ = g ➡ 1 2 |ẏ|2 + 1 2 ω2 y(t) − G(y(t)) ≡ const.<br />

” Energie” für ODE (4.5.1) △<br />

Beispiel 4.5.3 (Standardintegratoren für oszillatorische Differentialgleichung).<br />

△<br />

4.5<br />

p. 441<br />

g ≡ const. ,<br />

(4.5.5)<br />

y(t ± h) = cos(hω)y(t) ± sinhω<br />

ω ẏ(t) +<br />

±h ∫<br />

0<br />

sin(±h−s)ω<br />

ω · g(y(t + s)) ds (4.5.5)<br />

y(t + h) − 2 cos(hω)y(t) + y(t − h) = h 2 (<br />

sin( 1<br />

2 hω)<br />

1<br />

2 hω ) 2<br />

g . (4.5.6)<br />

➣ Gautschis Zweischrittverfahren (y h (t + h) aus y h (t),y h (t − h)) für (4.5.1)<br />

y h (t + h) − 2 cos(hω)y h (t) + y h (t − h) = h 2 (<br />

sin( 1<br />

2 hω)<br />

1<br />

2 hω ) 2<br />

g(y h (t)) . (4.5.7)<br />

Notwendig: Startschritt aus (4.5.4)<br />

Ableitungsnäherung:<br />

y h (h) = cos(hω)y 0 +<br />

sin hω<br />

ω<br />

Aus (4.5.5) für g ≡ const:<br />

v 0 + 1 2 h2 (<br />

sin( 1<br />

2 hω)<br />

1<br />

2 hω ) 2<br />

g(y 0 ) . (4.5.8)<br />

4.5<br />

p. 443<br />

Adaptives explizites RK-ESV (Sect. 2.6 für (4.5.1):<br />

y0=[1;0]; f=@(t,x) [0,1;-omegaˆ2,0]*x + 20*[0;sin(x(1))];<br />

options=odeset(’reltol’,1.0e-2,’abstol’,1.0e-5);<br />

[t,y]=ode45(f,[0,1],y0,options); ( ”<br />

Energie” ˆ= Invariante aus Bem. 4.5.2)<br />

sin hω<br />

y(t + h) − y(t − h) = 2h<br />

hω ẏ(t) ⇒ v h(t) = hω<br />

sin hω · yh(t + h) − y h (t − h)<br />

.<br />

2h<br />

(4.5.9)<br />

Bemerkung 4.5.4. Gautschi-Verfahren (4.5.7), (4.5.8) für vektorielles Problem (4.5.2) ?<br />

(<br />

sin( 1<br />

2 hω)<br />

800<br />

700<br />

0.45<br />

0.4<br />

Ersetze cos(hω) ↦→ coshA ,<br />

1<br />

2 hω ) 2<br />

↦→ 4(hA) −2 sin 2 ( 1 2 hA) . △<br />

#(Zeitschritte)<br />

600<br />

500<br />

400<br />

300<br />

200<br />

100<br />

Relativer Energiefehler fuer t=1<br />

0.35<br />

0.3<br />

0.25<br />

0.2<br />

0.15<br />

0.1<br />

0.05<br />

Beispiel 4.5.5 (Gautschis Zweischrittverfahren).<br />

Anfangswertproblem vom Typ (4.5.1) auf [0, 1]:<br />

ÿ = −ω 2 y + sin y , y(0) = 1 , ẏ(0) = 0 .<br />

0<br />

0 50 100 150 200 250<br />

ω Fig. 171<br />

0<br />

0 50 100 150 200 250<br />

ω Fig. 172<br />

ω ↑ ⇒ Oszillationen in y(t) ↑ ⇒ Anzahl Zeitschritte ↑<br />

✸<br />

4.5<br />

p. 442<br />

4.5<br />

p. 444


y<br />

1.5<br />

1<br />

0.5<br />

0<br />

−0.5<br />

−1<br />

Gautschi−Verfahren: h = 0.1000, ω = 25<br />

y(t)<br />

v(t)/ω<br />

y h<br />

(t)<br />

v h<br />

(t)/ω<br />

−1.5<br />

0 0.2 0.4 0.6 0.8 1<br />

t<br />

Fig. 173<br />

y<br />

1<br />

0.8<br />

0.6<br />

0.4<br />

0.2<br />

0<br />

−0.2<br />

−0.4<br />

−0.6<br />

−0.8<br />

Gautschi−Verfahren: h = 0.0333, ω = 25<br />

y(t)<br />

v(t)/ω<br />

y h<br />

(t)<br />

v h<br />

(t)/ω<br />

−1<br />

0 0.2 0.4 0.6 0.8 1<br />

t<br />

Fig. 174<br />

Fehler fuer t=1<br />

10 1 Gautschi−Verfahren: Konvergenz, ω = 25<br />

10 0<br />

10 −1<br />

10 −2<br />

10 −3<br />

10 −4<br />

|y h<br />

(1)−y(1)|<br />

|v (1)−v(1)|<br />

10 −5<br />

h<br />

Energiefehler<br />

O(h 2 )<br />

10 −6<br />

10 −3 10 −2 10 −1<br />

h<br />

Fig. 177<br />

Beobachtung:<br />

Alle Fehler ≈ O(h 2 )<br />

⇕<br />

Konvergenzordnung 2<br />

ω = 25: y h folgt (oszillatorischer Lösung), auch wenn h ≈ 2π ω<br />

Ziel erreicht ?<br />

Relativer Fehler in ”<br />

Energie” (→ Bem. 4.5.2) für t = 1:<br />

Fehler für fixes h in Abhängigkeit von ω:<br />

4.5<br />

p. 445<br />

4.5<br />

p. 447<br />

0.25<br />

Gautschi−Verfahren: h = 0.1000, ω = 25<br />

5<br />

Gautschi−Verfahren: h = 0.0333, ω = 25<br />

7<br />

6<br />

Gautschi−Verfahren: Konvergenz, h = 0.0500<br />

|y h<br />

(1)−y(1)|<br />

|v h<br />

(1)−v(1)|/ω<br />

Gautschi−Verfahren: Energiedrift, h = 0.0500<br />

10 4 Energiefehler fuer t=1<br />

10 2<br />

0.2<br />

4<br />

5<br />

10 0<br />

energy<br />

0.15<br />

0.1<br />

energy<br />

3<br />

2<br />

Fehler fuer t=1<br />

4<br />

3<br />

2<br />

Fehler fuer t=1<br />

10 −2<br />

10 −4<br />

10 −6<br />

0.05<br />

1<br />

1<br />

10 −8<br />

0<br />

0 0.2 0.4 0.6 0.8 1<br />

t<br />

Fig. 175<br />

6 x 10−3 t<br />

0<br />

0 0.2 0.4 0.6 0.8 1<br />

Fig. 176<br />

0<br />

0 50 100 150 200<br />

ω<br />

10 −10<br />

0 50 100 150 200<br />

ω<br />

Zeitschritt h = 0.1<br />

Zeitschritt h = 0.033<br />

h = 0.05: Was pasiert für ω ≈ 61, ω ≈ 123, ω ≈ 185 ? Instabilität ?<br />

4.5<br />

p. 446<br />

4.5<br />

p. 448


15<br />

Gautschi−Verfahren: Konvergenz, h = 0.0200<br />

|y h<br />

(1)−y(1)|<br />

|v h<br />

(1)−v(1)|/ω<br />

10 4 Gautschi−Verfahren: Energiedrift, h = 0.0200<br />

Energiefehler fuer t=1<br />

1<br />

0.8<br />

Fehler fuer t=1<br />

10<br />

5<br />

Fehler fuer t=1<br />

10 2<br />

10 0<br />

10 −2<br />

10 −4<br />

sinc(x)<br />

0.6<br />

0.4<br />

0.2<br />

0<br />

−0.2<br />

−0.4<br />

−0.6<br />

Die sinc-Funktion:<br />

sinc(x) := sin x<br />

x<br />

➤ Analytisch auf R<br />

➤ | sinc(x)| ≤ 1 mit globalem Maximum in x = 0<br />

−0.8<br />

0<br />

0 50 100 150 200<br />

ω<br />

➣<br />

10 −6<br />

0 50 100 150 200<br />

ω<br />

h-Abhängigkeit kritischer Frequenzen<br />

−1<br />

0 5 10 15 20<br />

x<br />

Analyse von (4.5.11): Ansatz y h (kh) = ξ k ↔ Charakteristische (quadratische) Gleichung<br />

∃ Lösungen y h (kh) von (4.5.11):<br />

lim y h(hk) = ±∞<br />

k→∞<br />

⇔<br />

∣<br />

∣2 cos(hω) + h 2 α sinc 2 ( 1 2 hω) ∣ ∣∣ > 2<br />

4.5<br />

p. 449<br />

(coshω ≈ 1 ⇔ hω ≈ 2πl, l ∈ Z) ⇒ y h (hk) → ±∞ auch für h ≪ 1 . 4.5<br />

Abhilfe [20]:<br />

” Filterung”: Dämpfung von α, falls hω ≈ 2πl: p. 451<br />

In (4.5.7), (4.5.8) ersetze: g(y h (t)) ↦→ g(ψ(hω)y h (t)), ψ(ξ) := sinc 2 ξ(1 + 2 1 (1 − cosξ))<br />

h-Abhängigkeit kritischer Frequenzen<br />

➤<br />

Modifiziertes Gautschi-Verfahren:<br />

Logarithmus log 10 des relativen Energiefehlers<br />

zum Endzeitpunkt t =<br />

✄<br />

0<br />

y h (t + h) − 2 cos(hω)y h (t) + y h (t − h) = h 2 (<br />

sin( 1<br />

2 hω)<br />

1<br />

2 hω ) 2<br />

g(ψ(hω)y h (t)) . (4.5.12)<br />

Beobachtung:<br />

hω-Abhängigkeit kritischer Frequenzen<br />

10 1 Filterndes Gautschi−Verfahren: Konvergenz, ω = 25<br />

Fig. 178<br />

10 0<br />

✸<br />

Modellproblem:<br />

ÿ = −ω 2 y + αy , α ≪ ω 2 . (4.5.10)<br />

➤ Gautschi-Verfahren (4.5.7), Schrittweite h: ➢ Dreitermrekursion<br />

}<br />

y h (t + h) −<br />

{2 cos(hω) + h 2 α sinc 2 ( 2 1hω) y h (t) + y h (t − h) = 0 . (4.5.11)<br />

4.5<br />

p. 450<br />

Beispiel 4.5.6 (Modifiziertes Gautschi-Verfahren).<br />

AWP aus Bsp. 4.5.7, Integration gemäss (4.5.12),<br />

Filterfunktion ψ(ξ) := sinc 2 ξ(1 + 1 2 (1 − cos ξ))<br />

Konvergenzordnung 2<br />

✄<br />

Fehler fuer t=1<br />

10 −1<br />

10 −2<br />

10 −3<br />

10 −4<br />

|y h<br />

(1)−y(1)|<br />

|v (1)−v(1)|<br />

h<br />

10 −5<br />

Energiefehler<br />

O(h 2 )<br />

10 −6<br />

10 −3 10 −2 10 −1<br />

h<br />

4.5<br />

p. 452


0.14<br />

0.12<br />

0.1<br />

Filterndes Gautschi−Verfahren: Konvergenz, h = 0.0500<br />

|y h<br />

(1)−y(1)|<br />

|v h<br />

(1)−v(1)|/ω<br />

Filterndes Gautschi−Verfahren: Energiedrift, h = 0.0500<br />

10 −1 Energiefehler fuer t=1<br />

10 −2<br />

5 Randwertprobleme<br />

Fehler fuer t=1<br />

0.08<br />

0.06<br />

0.04<br />

Fehler fuer t=1<br />

10 −3<br />

0.02<br />

0<br />

0 50 100 150 200<br />

ω<br />

10 −4<br />

0 50 100 150 200<br />

ω<br />

4.5<br />

p. 453<br />

5.0<br />

p. 455<br />

hω-Abhängigkeit der Energiedrift<br />

✄<br />

Beobachtung:<br />

(4.5.12): Keine Instabilität<br />

Im Vergleich zu (4.5.7) (→<br />

Bsp. 4.5.5) deutlich reduzierte<br />

Energiedrift (Skala!)<br />

Verzeichnisse<br />

4.5<br />

p. 454<br />

5.0<br />

p. 456


Index<br />

R-reversible Abbildung, 352<br />

R-reversible Evolution, 352<br />

A-Stabilität, 252<br />

absolute Toleranz, 201<br />

adjungierte Matrix, 335<br />

Affin-Kovarianz<br />

Runge-Kutta, 148<br />

Aitken-Neville-Schema, 168<br />

akzeptable Lösung, 436<br />

akzeptables Resultat, 395<br />

algebraische Konvergenz, 63, 64, 93<br />

algebraische Nebenbedingung<br />

bei DAE, 298<br />

algebraische Stabilität, 256<br />

alternierende Bilinearform, 362<br />

analytische Funktion, 410<br />

Analytizitätsvoraussetzung, 410<br />

Anfangswertproblem<br />

Lösung, 16<br />

linear, 43<br />

steifes, 268<br />

Bootstrapping, 141<br />

Butcher-Bäum, 159<br />

Butcher-Matrix, 261<br />

Butcher-Schema, 143<br />

DAE, 297, 298<br />

separiert, 299<br />

vom Index 1, 300<br />

Deskriptorform<br />

mechanischer Bewegungsgleichungen, 310<br />

von Bewegungsgleichungen, 311<br />

Determinante<br />

Ableitung, 335<br />

diagonal-implizite ESV, 282<br />

DIFEX, 190<br />

Differentialgleichung<br />

Hamiltonsche, 30<br />

linear, 44<br />

logistische, 128, 163<br />

Variation der Konstanten, 45<br />

Differentialgleichungen<br />

Skalare, 41<br />

differentiell-algebraische Gleichung (DAE), 297<br />

differentiell-algebraisches Anfangswertproblem (DAE), 298,<br />

299<br />

differentielle Konditionsanalyse, 49<br />

Differenzenverfahren, 62, 71, 77<br />

DIRK-Einschrittverfahren, 282<br />

diskrete Evolution<br />

Konsistenz, 95<br />

Konsistenzfehler, 96<br />

Konsistenzordnung, 97<br />

Asymptotische (absolute) Kondition, 49<br />

asymptotische Entwicklung, 169, 173, 404<br />

Asymptotische Stabilität<br />

eines Fixpunkts, 236<br />

attraktiver Fixpunkt, 18, 221<br />

autonome Differentialgleichung, 13<br />

Autonomisierung, 14<br />

Autonomisierungsinvarianz, 149<br />

AWP<br />

Kondition, 51<br />

B-Stabilität, 256<br />

Bahnebene, 32<br />

Banachscher Fixpunktsatz, 119<br />

Basisverfahren<br />

für Extrapolation, 178<br />

Bewegungsgleichungen<br />

Hamiltonsche Form, 28<br />

Molekulardnamik, 384<br />

Newtonsche, 28<br />

5.0<br />

bimolekulare Reaktion, 22<br />

Blow-up, 35, 42, 210 p. 457<br />

reversibel, 110<br />

diskretes dynamisches System, 241<br />

Diskretisierungsfehler, 93<br />

Diskretisierungsparameter, 165<br />

dissipatives Vektorfeld, 250<br />

Divergenz<br />

eines Vektorfeldes, 339<br />

Drehmoment, 33<br />

Drehmomenterhaltung, 33<br />

Dreitermrekursion, 450<br />

dynamisches System<br />

diskret, 241<br />

Eingebettete Runge-Kutta-Verfahren, 210<br />

eingebettete Runge-Kutta-Verfahren, 211<br />

Einschrittfehler, 108<br />

Einschrittverfahre<br />

implizit, 92<br />

Einschrittverfahren, 82, 91<br />

diagonal-implizit, 282<br />

explizit, 92<br />

Konvergenz, 100<br />

Notation, 91<br />

reversibel, 187<br />

symplektisch, 371<br />

elementare Differentiale, 158<br />

Energie<br />

für oszillatorische Differentialgleichung, 441<br />

Energiedrift, 81, 86, 357, 440, 454<br />

Energieerhaltung, 31, 356<br />

5.0<br />

Pendel, 28<br />

Energiemannigflatigkeit, 392 p. 458<br />

Erstes Integral<br />

Bedingung, 22<br />

erstes Integral, 22, 325<br />

linear, 325<br />

polynomial, 326<br />

quadratisch, 79, 325<br />

erweiterter Zustandsraum<br />

einer ODE, 11<br />

ESV<br />

Radau, Ordnung 3, 263<br />

Radau, Ordnung 5, 263<br />

Euler<br />

Implizit, 263<br />

Euler-Verfahren, 180<br />

explizites, Stabilitätsfunktion, 228<br />

implizit, 70<br />

semi-implizit, 279<br />

Euler-Verfahrens<br />

Konvergenz, 63<br />

Eulersches Polygonzugverfahren, 61<br />

Eulerverfahren<br />

explizit, 60, 126<br />

implizit, 126<br />

implizites, Stabilitätsfunktion, 228<br />

Evolution<br />

R-reversibel, 352<br />

diskrete, 115<br />

Evolutionsoperator, 40<br />

explizite Mittelpunktsregel, 160<br />

explizite Trapezregel, 160<br />

explizites Einschrittverfahren, 92<br />

gewöhnliche Differentialgleichung, 10<br />

autonome, 13<br />

erster Ordnung, 10<br />

Gewichte<br />

einer Quadraturformel, 125<br />

Gitterfunktion, 92<br />

Glattheit<br />

hinreichende, 100<br />

globale Lösung, 39<br />

globale Lipschitzbedingung, 52<br />

Gradientenfluss, 248<br />

Grenzzyklus, 273<br />

Gronwalls Lemma, 52<br />

Hamilton-Funktion, 30, 356<br />

Molekulardnamik, 384<br />

separiert, 372<br />

Hamiltonsche Bewegungsgleichugen<br />

mit Nebenbedingunge, 313<br />

Hamiltonsche Differentialgleichung, 30, 356<br />

Herzschlagmodell, 25<br />

hinreichende Glattheit, 100<br />

holomorphe Funktion, 410<br />

homogene lineare Differentialgleichung, 44<br />

implizite Mittelpunktsregel, 76, 98, 126, 372<br />

implizites Einschrittverfahren, 92<br />

implizites Euler-Verfahren, 70<br />

implizites, Euler-Verfahren, 160<br />

Index<br />

einer DAE, 300, 312<br />

inkompressible Strömung, 338<br />

explizites Eulerverfahren, 60, 126<br />

exponentiell klein, 408<br />

exponentielle Konvergenz, 64, 128<br />

exponentielle Runge-Kutta-Verfahren, 294<br />

Extrapolation, 165<br />

Extrapolations-Einschrittverfahren, 178<br />

Extrapolationstableau, 168<br />

Extrapolationsverfahren<br />

global, 177<br />

lokal, 178<br />

Faltung, 45<br />

Federpendel, 381<br />

Fehlerfortpflanzung, 108<br />

Fehlerfunktion, 108<br />

Fehlerschätzung<br />

zeitlokal, 199<br />

Fixpunkt<br />

asymptotisch stabil, 236<br />

asymptotische Stabilität, 239<br />

attraktiv, 18, 69, 221<br />

einer ODE, 235<br />

repulsiv, 18<br />

Gauss-Kollokations-Einschrittverfahren, 127, 140, 160, 251,<br />

267, 374<br />

Gauss-Radau-Quadratur, 262<br />

Gaussquadratur, 126<br />

Gautschi-Verfahren, 443<br />

Filterung, 452<br />

5.0<br />

modizifiertes, 452<br />

Gautschis Zweischrittverfahren, 443 p. 459<br />

Inkremente<br />

Kollokation, 116<br />

Runge-Kutta, 143<br />

Inkrementfunktion, 96<br />

Inkrementgleichungen, 116<br />

linearisiert, 280<br />

Instabilität<br />

Gautschi-Verfahren, 448<br />

Integrabilitätslemma, 369<br />

intervallweise Kondition, 51<br />

Invariante, 22<br />

Jordan-Block, 237<br />

Jordan-Normalform, 237<br />

Keplerproblem, 31<br />

Keplersches Gesetz<br />

erstes, 33<br />

zweites, 33<br />

kinetische Energie, 28<br />

klassisches Runge-Kutta-Verfahren, 160<br />

Knoten<br />

einer Quadraturformel, 125<br />

Knotenanalyse<br />

von Schaltkreisen, 272, 295<br />

Kollaps, 35, 42, 209<br />

Kollokation<br />

Inkremente, 116<br />

Kollokations<br />

RK-ESV, 262<br />

5.0<br />

Kollokationsbedingung, 113<br />

Kollokationspunkt, 113 p. 460


Kollokationsverfahren, 113<br />

Inkrementfunktion, 116<br />

Konsistenz, 135<br />

Kompaktheitsargument, 104<br />

Kondition, 48<br />

analyse<br />

differentielle, 54<br />

asymptotisch, 49<br />

intervallweise, 51<br />

punktweise, 51<br />

Kongruenztransformation, 362<br />

Konsistenz, 95<br />

Runge-Kutta-Verfahren, 155<br />

Konsistenzfehler, 96, 101, 108<br />

Konsistenzordnung, 97<br />

Splittingverfahren, 193<br />

Kontraktion, 119<br />

Konvergenz, 93<br />

algebraisch, 63<br />

exponentiell, 128<br />

Kollokationsverfahren, 127<br />

von Einschrittverfahren, 100<br />

Konvergenzordnung, 93<br />

kovariante Transformation, 43<br />

Kovergenz<br />

global, 93<br />

Kraftfeld<br />

konservativ, 31<br />

Kuttas 3/8-Regel, 160<br />

L-Stabilität, 260<br />

Lösung<br />

Mittelpunktsregel, 142<br />

explizit, 142, 145<br />

implizit, 76, 126<br />

implizit, Stabilitätsfunktion, 228<br />

Modellprobelanalyse<br />

implizites Euler-Verfahren, 72<br />

Modellproblem<br />

für gestörte oszillatorische Differentialgleichungen, 450<br />

Modellproblemanalyse, 221<br />

explizites Eulerverfahren, 69<br />

modifizierte Differentialgleichung, 395<br />

für lineare AWP, 396<br />

modifizierte Gleichung<br />

abgeschnittene, 406<br />

der Ordnung q, 397<br />

Molekulardnamik, 384<br />

Molekulardynamik, 388<br />

mplizite Trapezregel, 160<br />

multivariates Polynom, 326<br />

Newton-Verfahren<br />

vereinfacht, 285<br />

nichtdegenerierte Bilinearform, 362<br />

Nichtexpansivität, 248<br />

nichtlineare Stabilität, 109<br />

Normalform<br />

bei schiefsymmetrischen Matrizen, 362<br />

numerische Quadratur, 125<br />

numerischer Integrator, 88<br />

ODE, 10<br />

skalar, 13<br />

eines Anfangswertproblems, 16<br />

Lagrange-Multiplikator, 311, 313<br />

Lagrange-Polynom, 114<br />

Legendre-Polynome, 127<br />

Lenard-Jones-Potential, 384<br />

Lie-Trotter-Splitting, 192<br />

linear-implizites Runge-Kutta-Verfahren, 285<br />

lineare Differentialgleichung, 43, 44<br />

linearisierte Störungstheorie, 49<br />

Liouville<br />

Satz von, 339<br />

Lipschitz-Stetigkeit<br />

lokale, 37<br />

Logistische Differentialgleichung, 128, 163, 192<br />

logistische Differentialgleichung, 17, 181<br />

Lotka-Volterra Differentialgleichung, 20<br />

Makroschritt<br />

bei Extrapolationsverfahren, 178<br />

MAPLE, 98<br />

mathematisches Pendel, 27<br />

symplektische Integration, 357<br />

Matrix<br />

Propagations-, 55<br />

Wronski, 55<br />

Matrixexponentialfunktion, 44, 290<br />

Matrixfunktionen, 233<br />

maximale Fortsetzbarkeit, 35<br />

maximales Existenzintervall, 36<br />

Mikroschritt<br />

5.0<br />

bei Extrapolationsverfahren, 178<br />

Minimalkoordinaten, 311 p. 461<br />

ordinary differential equation (ODE), 10<br />

Ordnung<br />

einer Quadraturformel, 136<br />

Ordnungsschranken<br />

für Runge-Kutta-Verfahen, 160<br />

Ordnungssteuerung<br />

bei Extrapolationsverfahren, 184<br />

Oregonator, 24<br />

oszillatorische Differentialgleichungen, 440<br />

parasitäre Kapazität, 301<br />

partikuläre Lösung, 45<br />

partitionierte Runge-Kutta-Einschrittverfahren, 376<br />

Peano<br />

Satz von, 38<br />

Pendel, 27, 310<br />

Pendelgleichung, 358<br />

Picard-Lindelöf<br />

Satz von, 38<br />

Polynom<br />

multivariat, 326<br />

polynomiale Invariante, 326<br />

Polynominterpolation<br />

Fehlerabschätzung, 131<br />

potentielle Energie, 28<br />

Problem<br />

in der Numerik, 47<br />

Propagationsmatrix, 55<br />

Punkt<br />

stationär, 21<br />

5.0<br />

punktweise Kondition, 51<br />

Push-Forward, 361 p. 462<br />

Quadraturformel, 125<br />

Mittelpunktsregel, 142<br />

Ordnung, 136<br />

Trapezregel, 142<br />

Räuber-Beute-Modell, 20<br />

Rückwärtsanalyse, 436<br />

von Integrationsverfahren, 394<br />

Radau-ESV, Ordnung 3, 263<br />

Radau-ESV, Ordnung 5, 263<br />

Radau-Verfahren, 308<br />

Reaktionskinetik, 22<br />

rechte Seite<br />

einer ODE, 10<br />

Regel<br />

Kuttas 3/8, 148<br />

Mittelpunkt, explizit, 142<br />

Trapez, explizit, 142, 146<br />

relative Toleranz, 201<br />

repulsiver Fixpunkt, 18<br />

Reversibilität, 110, 187, 350<br />

reversible Einschrittverfahren<br />

Konsistenzordnung, 111<br />

Riccati-Differentialgleichung, 12, 62<br />

Richtungsfeld, 12<br />

RK4, 147<br />

Stabilitätsfunktion, 228<br />

Romberg-Quadratur, 165<br />

ROW-Methoden, 285<br />

Runge-Kutta<br />

3/8-Regel, 148<br />

Affin-Kovarianz, 148<br />

Schrittweitenvorschlag, 202<br />

semi-implizites Euler-Verfahren, 279<br />

Sensitivitä, 48<br />

Separation der Variablen, 18<br />

sinc-Funktion, 451<br />

Singuläre Störungstechnik, 301<br />

Skalare Differentialgleichungen , 41<br />

Skalare ODE, 13<br />

Spektralradius<br />

einer Matrix, 241<br />

Spektrum<br />

einer Matrix, 237<br />

Splitting<br />

Lie-Trotter, 192<br />

Strang, 192<br />

Splittingverfahren, 191, 375<br />

inexakt, 197<br />

inexakte, 197<br />

ssymmetrische Runge-Kutta-Einschrittverfahren, 348<br />

Störmer-Verlet-Verfahren, 81, 372<br />

Molekulardnamik, 385<br />

Stabilit<br />

nichtlineare, 109<br />

Stabilität, 108<br />

-sfunktion, 264<br />

-sgebiet, 245<br />

B-, 256<br />

L-, 260<br />

Stabilitätsfunktion, 227<br />

Interpretation, 225<br />

von Runge-Kutta-Verfahren, 224<br />

Autonomisierung, 149<br />

eingebettet, 211<br />

Einschritt-Verfahren, 143<br />

Inkremente, 143<br />

klassisch, 147<br />

Runge-Kutta-Einschrittverfahren<br />

R-reversibel, 354<br />

steif-genaue, 261<br />

symmetrisch, 348<br />

Runge-Kutta-Verfahen<br />

Autonomisierungsinvarianz, 149<br />

Ordnungsschranken, 160<br />

Runge-Kutta-Verfahren, 141, 143<br />

eingebettet, 210<br />

exponentiell, 294<br />

Konsistenz, 155<br />

Konstruktion, 142<br />

Konvergenzordnung, 160<br />

linear-implizit, 285<br />

Stabilitätsfunktion, 224<br />

Satz<br />

Peano & Picard-Lindelöf, 38<br />

Satz über implizite Funktionen, 118<br />

Satz von Liouville, 339<br />

Schaltkreis<br />

Knotenanalyse, 272, 295<br />

Schrittweitenbeschränkung, 122, 244<br />

für explizite RK-ESV, 231<br />

Schrittweitenkorrektur, 202<br />

5.0<br />

Schrittweitensteuerung, 269<br />

für ESV, 199 p. 463<br />

Stabilitätsgebiet, 224<br />

Startschritt, 83, 443<br />

steif-genau, 261, 305<br />

Steifheit, 268<br />

sternförmig, 369<br />

Strang-Splitting, 192<br />

Stromlinien, 341<br />

strukturerhaltende Integratoren, 395<br />

Stufen<br />

eines RK-ESV, 144<br />

symplektische Abbildung, 366<br />

symplektische Evolution, 360<br />

symplektischer Fluss, 363<br />

symplektischer Integrator, 373<br />

symplektisches Einschrittverfahren, 371<br />

symplektisches Euler-Verfahren, 372, 375<br />

symplektisches Produkt, 361<br />

Taylorentwicklung, 156<br />

Toleranz, 199<br />

absolute, 201<br />

realtiv, 201<br />

Relativ, 201<br />

Trajektorie, 20<br />

Transformation<br />

kovariant, 43<br />

Trapezregel, 142<br />

explizit, 142, 146<br />

explizit, Stabilitätsfunktion, 228<br />

5.0<br />

Varationsgleichung, 55<br />

Variation der Konstanten, 45, 289, 441 p. 464


Variationsgleichung, 342<br />

Vektorfeld, 13<br />

Vektorprodukt, 33<br />

Verfahren<br />

Einschritt, Schrittweitensteuerung, 199<br />

ESV, Runge-Kutta, 143<br />

Euler, implizit, 126<br />

Runge-Kutta, 141, 143<br />

Runge-Kutta, klassisch, 147<br />

Runge-Kutta, Konstruktion, 142<br />

versteckte Nebenbedingungen, 312<br />

bei DAEs, 314<br />

volumenerhaltende Abbildung, 338<br />

Volumenerhaltung, 339<br />

bei Hamiltonschen ODEs, 358<br />

wohlgestellt, 52<br />

Problem, 48<br />

Wronski-Matrix, 55<br />

Zeeman-Modell, 25<br />

Zeitgitter, 91<br />

Zeitschrittweite, 91<br />

Zustandsraum<br />

einer ODE, 11<br />

Molekulardnamik, 384<br />

Zwangskraft, 311<br />

Zweischrittverfahren, 82<br />

Gautschis, 443<br />

Beispiele und Bemerkungen<br />

[Lösung der Schaltkreis-DAEs mit MATLAB, 309<br />

[Steife Probleme in der chemischen Reaktionskinetik, 270<br />

‘Gronwall-Schranke” für Kondition, 53<br />

“Butcher barriers” für explizite RK-ESV, 161<br />

A-Stabilität ⇏ Diskrete Nichtexpansivität, 255<br />

Adaptive explizite RK-ESV für steifes Problem, 268<br />

Adaptive RK-ESV zur Teilchenbahnberechnung, 214<br />

Adaptives semi-implizites RK-ESV für steifes Problem, 276<br />

Affin-Kovarianz der Runge-Kutta-Verfahren, 148<br />

Allgemeine Variation-der-Konstanten-Formel, 46<br />

Analytizitätsvoraussetzung für Hamiltonsche Differentialgleichungen,<br />

410<br />

Anfangswerte für Dgl. höherer Ordnung, 16<br />

Attraktiver Grenzzyklus, 273<br />

Autonome skalare Differentialgleichungen, 41<br />

Autonomisierung, 14<br />

Autonomisierungsinvarianz von Runge-Kutta-Verfahren, 149<br />

AWP-Löser in MATLAB, 19<br />

B-Stabilität, 256<br />

Bedeutung der modifizierten Gleichungen niedriger Ordnung,<br />

404<br />

Bedeutung linearer AWPe, 47<br />

Bedingungsgleichungen für Linear-implizite Runge-Kutta-<br />

Verfahren 2. Ordnung, 285<br />

Berechnung der Modifikatoren ∆f j durch Computeralgebra,<br />

402<br />

Bimolekulare Reaktion, 22<br />

Butcher-Bäume, 159<br />

DAE: Transformation auf separierte Form, 299<br />

Definitionsintervalle von Lösungen von AWPe, 39<br />

Dense output, 150<br />

DIFEX, 190<br />

Doppelpendel, 58<br />

5.0<br />

p. 465<br />

Einfache A-stabile RK-ESV, 245<br />

Einfache reversible Einschrittverfahren, 110<br />

Einfache symplektische Integratoren, 372<br />

Eingebettete RK-ESV, 210<br />

5.0<br />

Eingebettete Runge-Kutta-Verfahren, 211<br />

Einschrittformulierung des Störmer-Verlet-Verfahrens, 86 p. 466<br />

Energieerhaltung bei numerischer Integration, 357<br />

Energieerhaltung bei semi-impliziter Mittelpunktsregel, 286<br />

Euler-Extrapolationsverfahren mit Ordnungssteuerung, 185<br />

Euler-Verfahren für Pendelgleichung, 72<br />

Eulerverfahren für längenerhaltende Evolution, 74<br />

Explizite Runge-Kutta-Schritte für Ricatti-Differentialgleichung,<br />

145<br />

Explizites Euler-Verfahren für logistische Dgl, 67<br />

Explizites Eulerverfahren als Differenzenverfahren, 62<br />

Exponentielles Euler-Verfahren, 291<br />

Exponentielles Euler-Verfahren für steifes AWP, 292<br />

Extrapolationsverfahren als Runge-Kutta-Verfahren, 183<br />

Extrapolierte implizite Mittelpunktsregel, 187<br />

Extrapoliertes Euler-Verfahren, 180<br />

Federpendel, 381<br />

Funktionenkalkül für Matrizen, 233<br />

Gauss-Kollokations-ESV bei stark attraktiven Fixpunkten,<br />

257<br />

Gauss-Kollokationsverfahren, 254<br />

Gautschis Zweischrittverfahren, 444<br />

Glattheitsannahmen an rechte Seite, 90<br />

Globale h 2 -Extrapolation für implizite Mittelpunktsregel, 189<br />

Gradientenfluss, 248<br />

Hamiltonsche Bewegungsgleichugen mit Nebenbedingungen,<br />

313<br />

Implementierung steif-genauer RK-ESV für DAE, 321<br />

Implizite Mittelpunktregel für Kreisbewegung, 78<br />

Implizite Mittelpunktsregel als Differenzenverfahren, 77<br />

Implizite Mittelpunktsregel für logistische Dgl., 77<br />

Langzeit-Energieerhaltung bei symplektischer Integration,<br />

380<br />

Linearisierung der Inkrementgleichungen, 278<br />

Lorenz system, 56<br />

Magnetnadel<br />

Präzession , 326<br />

Massenpunkt im Zentralfeld, 31<br />

Mathematisches Pendel, 27<br />

MATLAB-Integratoren für Index-1-DAEs, 309<br />

MATLAB-Integratoren für Pendelgleichung in Deskriptorform,<br />

315<br />

Modifikatoren für einfache ESV, 402<br />

Modifizierte Gleichung der Ordnung 2 zu explizitem Euler-<br />

Verfahren, 397<br />

Modifizierte Gleichung für RK-ESV und lineare AWPe, 396<br />

Modifizierte Gleichung für symplektisches Euler-Verfahren,<br />

431<br />

Modifiziertes Gautschi-Verfahren, 452<br />

Molekulardnamik, 384<br />

Notation fuer Einschrittverfahren, 91<br />

Numerische Integratoren als approximative Evolutionsoperatoren,<br />

41<br />

Numerische Quadratur, 125<br />

Oregonator-Reaktion, 24<br />

Partitionierte Runge-Kutta-Einschrittverfahren, 376<br />

Pendelgleichung in Deskriptorform, 310<br />

Philosophische Grundlage der Rückwärtsanalyse, 394<br />

Präzession<br />

Magnetnadel, 326<br />

Implizite Mittelpunktsregel für Pendelgleichung, 80<br />

Implizite RK-ESV bei schnellen Transienten, 259<br />

Implizite RK-ESV mit linearisierten Inkrementgleichungen,<br />

281<br />

Implizites Euler-Verfahren für Pendelgleichung in Deskriptorform,<br />

316<br />

Implizites Eulerverfahren als Differenzenverfahren, 71<br />

Implizites Eulerverfahren für logistische Differentialgleichung,<br />

71<br />

Ineffizienz expliziter Runge-Kutta-Verfahren, 219<br />

Inexakte Splittingverfahren, 197<br />

Interpretation der Stabilitätsfunktion, 225<br />

Invertierbarkeit der Koeffizientenmatrix von RK-ESV, 261<br />

Knotenanalyse eines Schaltkreises, 295<br />

Kollokationsverfahren und numerische Quadratur, 125<br />

Kondition skalarer linearer Anfangswertprobleme, 51<br />

Konsistenzordnung einfacher Einschrittverfahren, 98<br />

Konstante 2-Formen, 361<br />

Konstruktion einfacher Runge-Kutta-Verfahren, 142<br />

Konvergenz des expliziten Euler-Verfahrens, 63<br />

Konvergenz einfacher Splittingverfahren, 192<br />

Konvergenz expliziter Runge-Kutta-Verfahen, 153<br />

Konvergenz kombinierter Verfahren, 163<br />

Konvergenz von Gauss-Kollokations-Einschrittverfahren, 134<br />

Konvergenz von Kollokationsverfahren, 127<br />

Lösbarkeit der Inkrementgleichungen für Gauss-Kollokations-<br />

ESV, 253<br />

Lösung der Inkrementgleichungen, 151<br />

5.0<br />

Lösungsfunktion aus Extrapolationsverfahren, 129<br />

p. 467<br />

Projektion auf Energiemannigfaltigkeit, 391<br />

Qualität der Fehlerschätzung, 200<br />

Räuber-Beute-Modelle, 20<br />

Radau-ESV bei stark attraktiven Fixpunkten, 265<br />

Reskalierung des Modellproblems, 222<br />

Resourcenbegrenztes Wachstum, 17<br />

Reversibilität bei mechanischen Systemen, 350, 353<br />

Richtungsfeld und Lösungskurven, 12<br />

RK-Bedingungsgleichungen für Konsistenzordnung p =<br />

3, 155<br />

RK-ESV für autonome homogene lineare ODE, 231<br />

RK-ESV und Elimination der DAE-Nebenbedingungen, 306<br />

Romberg-Quadratur, 166<br />

Schaltkreis<br />

steife -gleichunge Zeitbereich, 272<br />

Schrittweitenbedingungen für ‘Langzeitintegration”, 429<br />

Schrittweitenbeschränkung aus Lemma 2.2.1, 122<br />

Schrittweitensteuerung für Bewegungsgleichungen, 216<br />

Schrittweitensteuerung für explizite Trapezregel/Euler-Verfahren,<br />

205<br />

Schrittweitensteuerung und Blow-up, 210<br />

Schrittweitensteuerung und Instabilität, 208<br />

Schrittweitensteuerung und Kollaps, 209<br />

Singulär gestörte Schaltkreisgleichungen, 301<br />

Skalierungsinvarianz der Extrapolation, 167<br />

Splittingverfahren für mechanische Systeme, 196<br />

Störmel-Verlet-Verfahren für Pendelgleichung, 84<br />

Störmer-Verlet-Verfahren als Differenzenverfahren, 83 5.0<br />

Störmer-Verlet-Verfahren als Polygonzugmethode, 87<br />

Stabilitätsfunktionen einiger RK-ESV, 227 p. 468


Stabilitätsgebiet des exponentiellen Euler-Verfahren, 291<br />

Standardintegratoren für oszillatorische Differentialgleichung,<br />

442<br />

Steife Schaltkreisgleichungen im Zeitbereich, 272<br />

Steuerung von ˜Ψ durch Ψ, 203<br />

Strömungsvisualisierung, 340<br />

Strang-Splitting erzeugt reversible ESV, 195<br />

Stufenform der Inkrementgleichungen, 144<br />

Symplektische Integratoren und variable Schrittweite, 439<br />

Symplektisches Euler-Verfahr, 375<br />

Symplektisches Euler-Verfahren für Pendelgleichung, 379<br />

Symplektisches Flussintegral, 363<br />

Symplektizität der Pendelgleichung, 358<br />

Symplektisches Produkt, 361<br />

Volumenerhaltung, 338<br />

Translationsinvarianz von Lösungen autonomer Dgl., 14<br />

Umformulierung der Inkrementgleichungen, 116<br />

Vektorräume von Vektorfeldern und Eigenschaften von Evolutionen,<br />

367<br />

Verfahren<br />

ESV adaptiv, explizit, steifes Problem, 268<br />

Verhalten von Stabilitätsfunktionen, 229<br />

Vielteilchen-Molekulardynamik, 388<br />

Volumenerhaltende Integratoren für d = 2, 343<br />

Volumenerhaltendes Splittingverfahren 2. Ordnung, 346<br />

Volumenerhaltung bei zweidimensionalen Hamiltonschen<br />

ODEs, 358<br />

Zeemans Herzschlagmodell, 25<br />

5.0<br />

p. 469<br />

5.0<br />

p. 471<br />

Definitionen<br />

MATLAB-Codes<br />

R-reversible Abbildung, 352<br />

(Abgeschnittene) asymptotische Entwicklung, 169<br />

A-Stabilität, 245<br />

algebraische Stabilität, 256<br />

Alternierende, nichtdegenerierte Bilinearform, 362<br />

Arten der Konvergenz, 64<br />

Asymptotische Stabilität eines Fixpunkts, 236<br />

DAE vom Index 1, 300<br />

Diskretisierungsfehler, 93<br />

Dissipatives Vektorfeld, 250<br />

Einschrittverfahren, 91<br />

Erstes Integral, 22<br />

Evolutionsoperator, 40<br />

explizite und implizite Einschrittverfahren, 92<br />

Exponentielle Runge-Kutta-Verfahren, 294<br />

Fixpunkt, 235<br />

Hamiltonsche Differentialgleichung, 30<br />

Konsistenz einer diskreten Evolution, 95<br />

Konsistenzfehler einer diskreten Evolution, 96<br />

Konsistenzordnung einer diskreten Evolution, 97<br />

Konvergenz und Konvergenzordnung, 93<br />

L-Stabilität, 260<br />

Lösung einer gewöhnlichen Differentialgleichung, 12<br />

Lösung eines Anfangswertproblems, 16<br />

Lokale Lipschitz-Stetigkei, 37<br />

Maximale Fortsetzbarkeit einer Lösung, 35<br />

Modifizierte Gleichung der Ordnung q, 397<br />

Nichtexpansivität, 248<br />

Nichtlineare Stabilität, 109<br />

Polynomiale Invarianten, 326<br />

Reversible diskrete Evolutionen, 110<br />

Runge-Kutta-Verfahren, 143<br />

Stabilitätsgebiet eines Einschrittverfahrens, 224<br />

Sternförmiges Gebiet, 368<br />

5.0<br />

Symplektische Abbildung, 366<br />

symplektisches Einschrittverfahren, 371 p. 470<br />

odeset, 214<br />

ode45, 269<br />

odeset, 269<br />

ode15s, 276<br />

ode23s, 276<br />

ode23, 213<br />

ode45, 193, 213<br />

odeset, 193, 213, 276<br />

Adaptives RK-ESV für steifes Problem, 269<br />

Aitken-Neville-Extrapolation, 168<br />

ode15s, 309<br />

ode23s, 327<br />

ode23t, 309<br />

ode45, 327<br />

5.0<br />

p. 472


Notationen<br />

C l (J, D) ˆ= l-mal stetig differenzierbare Funktionen J ↦→<br />

D, 12<br />

D y f ˆ= Ableitung von f nach y (Jacobi-Matrix), 37<br />

J(t 0 ,y 0 ) :=]t − , t + [ ˆ= maximales Existenzintervall, 36<br />

O(g(h)) ˆ= “Landau-O”, 63<br />

[x] ˆ= ganzzahliger Anteil von x > 0, 424<br />

divf ˆ= Divergenz eines Vektorfeldes, 339<br />

‖y‖ M<br />

:= (y T My) 1 /2<br />

induzierte Vektornorm, 248<br />

P s ˆ= Raum der univariaten Polynome vom Grad ≤ s, 114<br />

J ˆ= Matrix zum symplektischen Produkt, 361<br />

y,z, . . . Fettdruck für Spaltenvektoren, 11<br />

C − := {z ∈ C: Rez < 0}, 237<br />

1 = (1, . . .,1) T , 224<br />

∇ 2 f ˆ= Hesse-Matrix, 366<br />

adj(X) adjungierte Matrix, 335<br />

⊗ ˆ= Kronecker-Produkt von Matrizen, 281<br />

ρ(A): Spektralradius einer Matrix, 241<br />

f ˆ= rechte Seite einer ODE, 10<br />

σ(A): Spektrum einer Matrix, 237<br />

˙ ˆ= Ableitung nach der Zeit t, 11<br />

y α für Multiindex α, 326<br />

Appendix<br />

MATLAB-Files zu Beispielen<br />

• Beispiel 1.2.3 ↔ File/Directory ex:LV<br />

• Beispiel 1.2.5 ↔ File/Directory ex:Oregonator<br />

• Beispiel 1.2.6 ↔ File/Directory ex:heartbeat<br />

• Beispiel 1.3.8 ↔ File/Directory ex:Lorenz<br />

• Beispiel 1.4.2 ↔ File/Directory ex:expleulcvg<br />

Im(M) := {Mx:x ∈ R d }, Bild der Matrix M, 298<br />

Diskrete Evolution Ψ s,t y, 90<br />

Eklidische Vektornorm ‖·‖, 32<br />

Hamilton-Funktion H, 30<br />

Konsistenzfehler τ(t,y, h), 96<br />

Landau-o, 96<br />

Landau-Symbol O(h p ), 93<br />

Push-Forward Φ ∗ , 361<br />

symplektisches Produkt ω(v,w), 361<br />

ToleranzTOL, 199<br />

Vektorprodukt ×, 33<br />

5.0<br />

p. 473<br />

• Beispiel 1.4.3 ↔ File/Directory ex:eeullog p. 474<br />

5.0<br />

• Beispiel 1.4.5 ↔ File/Directory ex:ieullog<br />

• Beispiel 1.4.6 ↔ File/Directory ex:pendeul<br />

• Beispiel 1.4.7 ↔ File/Directory ex:eulspin<br />

• Beispiel 1.4.9 ↔ File/Directory ex:logimid<br />

• Beispiel 1.4.10 ↔ File/Directory ex:imidspin<br />

>> eulspin([1;0],10,40,’midspin40’)<br />

>> eulspin([1;0],10,160,’mispin160’)<br />

• Beispiel 1.4.11 ↔ File/Directory ex:pendimid<br />

>> pendmidp([pi/4;0],5,50,’pendimid50’);<br />

>> pendmidp([pi/4;0],5,100,’pendimid100’);<br />

>> pendmidp([pi/4;0],5,200,’pendimid200’);<br />

• Beispiel 1.4.14 ↔ File/Directory ex:svpend<br />

• Beispiel 2.2.4 ↔ File/Directory ex:cvgkoll<br />

• Beispiel 2.2.6 ↔ File/Directory ex:GaussCollcvg<br />

• Beispiel 2.4.1 ↔ File/Directory ex:kombesv<br />

• Beispiel 2.3.8 ↔ File/Directory ex:rkexplcvg<br />

• Beispiel 2.4.4 ↔ File/Directory ex:eulexpol<br />

• Beispiel 2.4.6 ↔ File/Directory ex:eulex p. 475<br />

• Beispiel 2.5.1 ↔ File/Directory ex:splitcvg<br />

• Beispiel 2.5.4 ↔ File/Directory ex:splitinex<br />

• Beispiel 2.6.1 ↔ File/Directory ex:qualest<br />

• Beispiel 2.6.9 ↔ File/Directory ex:adesv<br />

• Beispiel 2.6.10 ↔ File/Directory ex:adaptsat<br />

• Beispiel 3.0.11 ↔ File/Directory ex:logeximpl<br />

• Beispiel 3.3.3 ↔ File/Directory ex:GaussCollLog<br />

• Beispiel 3.4.1 ↔ File/Directory ex:iesvstiff<br />

• Beispiel 3.5.1 ↔ File/Directory ex:ode45stiff<br />

• Beispiel 3.5.3 ↔ File/Directory ex:odecircuit<br />

• Beispiel 3.5.5 ↔ File/Directory ex:odes<br />

• Beispiel 3.6.1 ↔ File/Directory ex:silog<br />

logsieul(0.1,round(5*1.5.ˆ(0:18)),’silog’);<br />

• Beispiel 3.6.2 ↔ File/Directory ex:siradlog<br />

siradlog(0.1,round(5*1.5.ˆ(0:18)),’siradlog’)<br />

• Beispiel 3.6.4 ↔ File/Directory ex:pendimipEnSmp<br />

• Beispiel 3.7.2 ↔ File/Directory ex:eeul p. 476<br />

5.0<br />

5.0


• Beispiel 3.7.3 ↔ File/Directory ex:eeulstiff<br />

• Beispiel 3.8.8 ↔ File/Directory ex:daecircml<br />

• Beispiel 3.8.11 ↔ File/Directory ex:daependmatlab<br />

• Beispiel 3.8.12 ↔ File/Directory ex:daependieul<br />

• Beispiel 4.1.1 ↔ File/Directory ex:magneedle<br />

• Beispiel 4.4.1 ↔ File/Directory ex:enpres<br />

• Beispiel 4.4.10 ↔ File/Directory ex:pendsympeul<br />

• Beispiel 4.4.13 ↔ File/Directory ex:md<br />

• Beispiel 4.4.12 ↔ File/Directory ex:springpend<br />

• Beispiel 4.4.14 ↔ File/Directory ex:moldyn<br />

[8] C. GRAY, An analysis of the Belousov-Zhabotinski reaction, Rose-Hulman Undergraduate Math<br />

Journal, 3 (2002). http://www.rose-hulman.edu/mathjournal/archives/2002/vol3-n1/paper1/v3n1-<br />

1pd.pdf.<br />

[9] W. HACKBUSCH, Iterative Lösung großer linearer Gleichungssysteme, B.G. Teubner–Verlag,<br />

Stuttgart, 1991.<br />

[10] E. HAIRER AND C. LUBICH, Asymptotic expansions and backward analysis for numerical integrators,<br />

in Dynamics of algorithms, vol. 118 of IMA Vol. Math. Appl., Springer, New York, 2000,<br />

pp. 91–106.<br />

[11] E. HAIRER, C. LUBICH, AND G. WANNER, Geometric numerical integration, vol. 31 of Springer<br />

Series in Computational Mathematics, Springer, Heidelberg, 2002.<br />

[12] , Geometric Numerical Integration, vol. 31 of Springer Series in Computational Mathematics,<br />

Springer, Berlin, Germany, 2002. Table of contents.<br />

[13] , Geometric numerical integration illustrated by the Störmer-Verlet method, Acta Numerica, 12<br />

(2003), pp. 399–450.<br />

[14] E. HAIRER, S. NORSETT, AND G. WANNER, Solving Ordinary Differential Equations I. Nonstiff<br />

Problems, Springer-Verlag, Berlin, Heidelberg, New York, 2 ed., 1993.<br />

5.0<br />

p. 477<br />

[15] E. HAIRER AND G. WANNER, Solving Ordinary Differential Equations II. Stiff and Differential-<br />

Algebraic Problems, Springer-Verlag, Berlin, Heidelberg, New York, 1991.<br />

5.0<br />

[16] M. HERRMANN, Numerik gewöhnlicher Differentialgleichungen, Oldenbourg, München, 2004. p. 479<br />

[17] N. HIGHAM, The scaling and squaring method for the matrix exponential revisited, SIAM J. Matrix<br />

Anal. Appl., 26 (2005), pp. 1179–1193.<br />

Literaturverzeichnis<br />

[1] H. AMANN, Gewöhnliche Differentialgleichungen, Walter de Gruyter, Berlin, 1st ed., 1983.<br />

[2] V. ARNOLD, Mathematical Methods of Classical Mechanics, Springer, New York, 2nd ed., 1989.<br />

[3] M. DEAKIN, Applied catastrophe theory in the social and biological sciences, Bulletin of Mathematical<br />

Biology, 42 (1980), pp. 647–679.<br />

[4] P. DEUFLHARD, Numerik von anfangswertaufgaben für gewöhnliche differentialgleichungen,<br />

Tech. Rep. TR 89-2, ZIB Berlin, Berlin, Germany, 1989.<br />

[5] P. DEUFLHARD AND F. BORNEMANN, Numerische Mathematik II, DeGruyter, Berlin, 2 ed., 2002.<br />

[6] P. DEUFLHARD AND A. HOHMANN, Numerische Mathematik I, DeGruyter, Berlin, 3 ed., 2002.<br />

[7] G. FISCHER, Lineare Algebra, Vieweg–Verlag, Braunschweig, 9th ed., 1986.<br />

5.0<br />

p. 478<br />

[18] M. HIRSCH, S. SMALE, AND R. DEVANEY, Differential Equations, Dynamical Systems, and an<br />

Introduction to Chaos, vol. 60 of Pure and Applied Mathematics, Elsevier Academic Press, Amsterdam,<br />

2 ed., 2004.<br />

[19] M. HOCHBRUCK AND C. LUBICH, On Krylov subspace approximations to the matrix exponential<br />

operator, SIAM J. Numer. Anal., 34 (1997), pp. 1911–1925.<br />

[20] , A Gautschi-type method for oscillatory second-order differential equations, Numer. Math., 83<br />

(1999), pp. 403–426.<br />

[21] M. HOCHBRUCK, C. LUBICH, AND H.SELHOFER, Exponential integrators for large systems of<br />

differential equations, SIAM J. Sci. Comp., 19 (1998), pp. 1552–1574.<br />

[22] B. LEIMKUHLER AND S. REICH, Simulating Hamiltonian Dynamics, vol. 14 of Cambridge Monographs<br />

on Applied and Computational Mathematics, Cambridge University Press, Cambridge,<br />

UK, 2004.<br />

[23] E. LORENZ, Deterministic non-periodic flow, J. Atmospheric Sciences, 20 (1963), pp. 130–141.<br />

[24] B. MINCHEV AND W. WRIGHT, A review of exponential integrators for first order semi-linear problems,<br />

Preprint 2/2005, NORGES TEKNISK-NATURVITENSKAPELIGE UNIVERSITET, Trondheim,<br />

Norway, 2005.<br />

[25] S. REICH, Backward error analysis for numerical integrators, SIAM J. Numer. Anal., 36 (1999), 5.0<br />

pp. 1549–1570. p. 480


[26] L. SHAMPINE, M. REICHELT, AND J. KIERZENKA, The MATLAB ODE suite, SIAM J. Sci. Comp.,<br />

18 (1997), pp. 1–22.<br />

[27] W. WALTER, Gewöhnliche Differentialgleichungen. Eine Einführung, vol. 110 of Heidelberger Taschenbücher,<br />

Springer, Heidelberg, 3 ed., 1986.<br />

5.0<br />

p. 481

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!