06.10.2013 Aufrufe

Bachelorarbeit Sigmoidale Transformationen und Quadratur über ...

Bachelorarbeit Sigmoidale Transformationen und Quadratur über ...

Bachelorarbeit Sigmoidale Transformationen und Quadratur über ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

Georg-August-Universität<br />

Göttingen<br />

Zentrum für Informatik<br />

<strong>Bachelorarbeit</strong><br />

im Studiengang ”Angewandte Informatik”<br />

<strong>Sigmoidale</strong> <strong>Transformationen</strong><br />

<strong>und</strong> <strong>Quadratur</strong> <strong>über</strong> Sphären<br />

Michael Schachtebeck<br />

am Institut für<br />

Numerische <strong>und</strong> Angewandte Mathematik<br />

Bachelor- <strong>und</strong> Masterarbeiten<br />

des Zentrums für Informatik<br />

an der Georg-August-Universität Göttingen<br />

10. September 2004<br />

ISSN 1612-6793<br />

Nummer ZFI-BM-2004-14


Georg-August-Universität Göttingen<br />

Zentrum für Informatik<br />

Lotzestraße 16-18<br />

37083 Göttingen<br />

Germany<br />

Tel. +49 (5 51) 39-1 44 02<br />

Fax +49 (5 51) 39-1 44 03<br />

Email office@informatik.uni-goettingen.de<br />

WWW www.informatik.uni-goettingen.de


Ich erkläre hiermit, daß ich die vorliegende Arbeit selbständig verfaßt <strong>und</strong> keine<br />

anderen als die angegebenen Quellen <strong>und</strong> Hilfsmittel verwendet habe.<br />

Göttingen, den 10. September 2004


<strong>Bachelorarbeit</strong><br />

<strong>Sigmoidale</strong> <strong>Transformationen</strong><br />

<strong>und</strong> <strong>Quadratur</strong> <strong>über</strong> Sphären<br />

Michael Schachtebeck<br />

10. September 2004<br />

Betreut durch Prof. Dr. Rainer Kreß<br />

Institut für Numerische <strong>und</strong> Angewandte Mathematik<br />

Georg-August-Universität Göttingen


Inhaltsverzeichnis<br />

1 Einleitung 5<br />

2 Gr<strong>und</strong>lagen 9<br />

3 Das Verfahren von Atkinson 13<br />

4 Das Verfahren der sigmoidalen <strong>Transformationen</strong> 23<br />

4.1 Einleitung <strong>und</strong> Definition . . . . . . . . . . . . . . . . . . . . . 23<br />

4.2 Anwendung auf ein Integral <strong>über</strong> [0, π] . . . . . . . . . . . . . 24<br />

4.3 Anwendung auf ein Integral <strong>über</strong> S 2 . . . . . . . . . . . . . . . 33<br />

5 Die Gauß-Trapez-Produktregel 47<br />

6 Numerische Beispiele 51<br />

7 Ergebnis 61<br />

A Implementierung 63<br />

Literaturverzeichnis 69


Kapitel 1<br />

Einleitung<br />

Über diese Arbeit<br />

Die vorliegende Arbeit beschäftigt sich mit verschiedenen Verfahren zur numerischen<br />

Berechnung von Integralen der Form<br />

<br />

ρ(Q) dS(Q),<br />

Γ<br />

wobei Γ die hinreichend glatte Oberfläche eines einfach zusammenhängenden<br />

Gebietes Ω ⊂ R 3 ist <strong>und</strong> die Funktion ρ entweder glatt ist oder eine Singularität<br />

in einem Punkt P ∈ Γ besitzt.<br />

Wir setzen in dieser Arbeit voraus, daß es eine hinreichend glatte Bijektion<br />

M : S2 −→ Γ gibt, wobei S2 die Oberfläche der Einheitskugel im R3 bezeichnet.<br />

Damit können wir uns auf die Behandlung von Integralen der Form<br />

<br />

f(Q) dS(Q) (1.1)<br />

S 2<br />

beschränken, da wegen der vorausgesetzten Existenz der Bijektion M nach<br />

Forster [6, Seite 16 f.] die Beziehung<br />

<br />

<br />

ρ(Q) dS(Q) = ρ(M( ˆ Q)) JM( ˆ Q) dS( ˆ Q) (1.2)<br />

Γ<br />

S 2<br />

gilt, wobei JM( ˆ Q) die Funktionaldeterminante der Funktion M : S 2 −→ Γ im<br />

Punkt ˆ Q bezeichnet. Mit f(Q) := ρ(M(Q)) JM(Q) können also alle Aussagen,<br />

die wir für ein Integral der Form (1.1) herleiten, ohne weiteres auf ein Integral<br />

der Form (1.2) <strong>über</strong>tragen werden, da durch die Transformation M die Art der<br />

Singularität nicht verändert wird. Besitzt ρ im Punkt P ∈ Γ eine Singularität,<br />

so ist f singulär im Punkt ˆ P ∈ S 2 mit M( ˆ P ) = P , also ˆ P = M −1 (P ) (denn<br />

da M als Bijektion vorausgesetzt ist, gilt JM(Q) = 0, die Singularität bleibt<br />

also erhalten).


6 Kapitel 1. Einleitung<br />

Wenn wir im Laufe dieser Arbeit von Singularitäten sprechen, so sind stets<br />

integrierbare Singularitäten gemeint. Unter einer nichtsingulären Funktion<br />

werden wir eine Funktion verstehen, die keine Singularitäten besitzt.<br />

Aufbau der Arbeit<br />

Die Arbeit ist wie folgt gegliedert:<br />

Zunächst werden wir in Kapitel 2 einige Gr<strong>und</strong>lagen <strong>über</strong> <strong>Quadratur</strong>formeln<br />

zur numerischen Berechnung von Integralen zusammenstellen.<br />

In Kapitel 3 stellen wir das von Atkinson [1] vorgeschlagene Verfahren vor,<br />

das nach Anwendung einer speziellen Transformation L : S 2 −→ S 2 das transformierte<br />

Integral mit Hilfe der zusammengesetzten Trapezregel bezüglich<br />

zweier Variablen approximiert. Die Transformation L ist dabei so gewählt,<br />

daß sie den Integranden an den beiden Polen der Einheitskugel glättet. Durch<br />

eine orthogonale Householder-Transformation wird ein Pol der Einheitskugel<br />

auf die Singularität der zu integrierenden Funktion abgebildet.<br />

Kapitel 4 beschreibt das Verfahren der sigmoidalen <strong>Transformationen</strong>, dessen<br />

Ziel es ist, im Integranden eine geeignete Substitution durchzuführen, so daß<br />

der entstehende Integrand bis zu einem gewissen Grad periodisch ist. Wir<br />

beziehen uns dabei auf die Darstellung von Kress [8]. Außerdem zeigen wir in<br />

Kapitel 4, daß es sich beim Verfahren von Atkinson um einen Spezialfall des<br />

Verfahrens der sigmoidalen <strong>Transformationen</strong> handelt.<br />

In Kapitel 5 werden wir kurz die klassische Gauß-Trapez-Produktregel vorstellen,<br />

die wir in Kapitel 6 numerisch mit dem Verfahren von Atkinson<br />

<strong>und</strong> dem Verfahren der sigmoidalen <strong>Transformationen</strong> vergleichen werden. Da<br />

wir die Gauß-Trapez-Produktregel lediglich zu Vergleichszwecken heranziehen,<br />

werden wir sie nicht ausführlich diskutieren, sondern verweisen für eine<br />

vertiefende Darstellung auf Colton <strong>und</strong> Kress [2].<br />

Anschließend werden wir in Kapitel 6 das Verfahren von Atkinson, das Verfahren<br />

der sigmoidalen <strong>Transformationen</strong> <strong>und</strong> die Gauß-Trapez-Produktregel<br />

an ausgewählten numerischen Beispielen miteinander vergleichen.<br />

In Kapitel 7 schließlich werden wir die Ergebnisse dieser Arbeit, insbesondere<br />

der Kapitel 4 <strong>und</strong> 6, diskutieren.<br />

Die Implementierung der Funktionen, die wir zur Auswertung in Kapitel 6<br />

verwenden, geben wir in Anhang A an.


Danksagung<br />

An dieser Stelle möchte ich allen Personen danken, die mich im Verlauf meines<br />

bisherigen Studiums <strong>und</strong> besonders während der Entstehung dieser Arbeit<br />

begleitet <strong>und</strong> unterstützt haben – nicht nur in fachlicher, sondern auch <strong>und</strong><br />

vor allem in menschlicher Hinsicht.<br />

Ich bedanke mich bei Herrn Prof. Dr. Rainer Kreß für die interessante Aufgabenstellung<br />

<strong>und</strong> die hervorragende Betreuung. Seine Ideen <strong>und</strong> Vorschläge<br />

waren mir eine große Hilfe bei der Anfertigung dieser Arbeit.<br />

Mein besonderer Dank gebührt Annika Eickhoff, Harald Heese <strong>und</strong> Stefan<br />

Langer, die viel Zeit <strong>und</strong> Geduld für fachliche Diskussionen aufgebracht haben,<br />

nicht nur während der Entstehung dieser Arbeit.<br />

Ich danke meiner Familie, insbesondere meinen Eltern, <strong>und</strong> meinen Fre<strong>und</strong>en<br />

für ihre wertvolle Unterstützung während meines gesamten Studiums.<br />

7


8 Kapitel 1. Einleitung


Kapitel 2<br />

Gr<strong>und</strong>lagen<br />

Die näherungsweise Berechnung von Integralen geschieht in allen Verfahren,<br />

die wir in dieser Arbeit vorstellen, mit Hilfe von <strong>Quadratur</strong>formeln; dabei wird<br />

ein Integral<br />

b<br />

f(x) dx<br />

durch eine gewichtete Summe<br />

Qn(f) :=<br />

a<br />

n<br />

αkf(xk), n ∈ N,<br />

k=0<br />

mit paarweise verschiedenen Stützstellen x0, . . . , xn ∈ [a, b] <strong>und</strong> Gewichten<br />

α0, . . . , αn ∈ R approximiert. Die Differenz<br />

b<br />

En(f) := f(x) dx − Qn(f)<br />

heißt Restglied der <strong>Quadratur</strong>formel Qn.<br />

a<br />

Die beiden einfachsten <strong>Quadratur</strong>formeln, die wir in dieser Arbeit anwenden<br />

werden, sind mit der Schrittweite h := b−a die zusammengesetzte (oder sum-<br />

n<br />

mierte) Rechteckregel<br />

n<br />

Rh(f) := h f(a + kh)<br />

<strong>und</strong> die zusammengesetzte (oder summierte) Trapezregel<br />

<br />

1 n−1<br />

Th(f) := h f(a) + f(a + kh) +<br />

2 1<br />

2 f(b)<br />

<br />

.<br />

k=1<br />

k=1<br />

Für eine (b − a)-periodische Funktion ist f(a) = f(b), so daß in diesem Fall<br />

die zusammengesetzte Rechteckregel <strong>und</strong> die zusammengesetzte Trapezregel<br />

<strong>über</strong>einstimmen.


10 Kapitel 2. Gr<strong>und</strong>lagen<br />

Definition 2.1. Die Bernoulli-Polynome Bn sind rekursiv durch B0(x) := 1<br />

<strong>und</strong><br />

B ′ n := Bn−1, n ∈ N,<br />

mit der Normierung<br />

definiert.<br />

1<br />

0<br />

Bn(x) dx = 0, n ∈ N,<br />

Mit ˜ Bn, n ≥ 2, bezeichnen wir die periodische Fortsetzung des n-ten Bernoulli-<br />

Polynoms Bn mit Periode 1 <strong>und</strong> der Eigenschaft<br />

Die rationalen Zahlen<br />

heißen Bernoulli-Zahlen.<br />

˜Bn(x) = Bn(x), x ∈ [0, 1]. (2.1)<br />

bn := n! Bn(0), n ∈ N ∪ {0}, (2.2)<br />

Lemma 2.2. Die periodischen Fortsetzungen der Bernoulli-Polynome besitzen<br />

für m ∈ N die Fourierentwicklung<br />

˜B2m(x) = 2 (−1) m−1<br />

˜B2m+1(x) = 2 (−1) m<br />

Beweis. Siehe Kress [8, Seite 208 f.].<br />

∞<br />

k=1<br />

∞<br />

k=1<br />

cos 2πkx<br />

(2πk) 2m<br />

sin 2πkx<br />

.<br />

(2πk) 2m+1<br />

Satz 2.3. Sei m ∈ N <strong>und</strong> f : [a, b] −→ R m-mal stetig differenzierbar. Sei<br />

n ∈ N <strong>und</strong> h = b−a.<br />

Dann gilt für die numerische Integration mit Hilfe der<br />

n<br />

zusammengesetzten Trapezregel Th die Euler-Maclaurin-Entwicklung<br />

b<br />

f(x) dx − Th(f) = (−h) m<br />

b <br />

x − a<br />

˜Bm f<br />

h<br />

(m) (x) dx<br />

a<br />

−<br />

⌊ m<br />

2 ⌋<br />

<br />

k=1<br />

a<br />

b2kh 2k<br />

(2k)!<br />

f (2k−1) (b) − f (2k−1) (a) , (2.3)<br />

wobei <br />

m<br />

m<br />

die größte ganze Zahl kleiner oder gleich 2<br />

2 bezeichnet.<br />

Beweis. Siehe Kress [8, Seite 209 f.].


Satz 2.4. Sei m ∈ N <strong>und</strong> f : [0, π] −→ R (2m)-mal stetig differenzierbar mit<br />

f (2k−1) (0) = f (2k−1) (π), k = 1, . . . , m − 1. Sei n ∈ N <strong>und</strong> h = π.<br />

Dann gilt bei<br />

n<br />

der numerischen Integration mit Hilfe der zusammengesetzten Trapezregel Th<br />

für das Restglied<br />

die Abschätzung<br />

mit<br />

Dn(f) :=<br />

π<br />

0<br />

f(x) dx − Th(f)<br />

|Dn(f)| ≤ C<br />

n2m π <br />

(2m)<br />

f (x) dx<br />

0<br />

C :=<br />

∞<br />

k=1<br />

4<br />

.<br />

(2k) 2m<br />

Beweis. Aus der Voraussetzung an die Ableitungen von f an den Stellen 0<br />

<strong>und</strong> π folgt nach Einsetzen in (2.3)<br />

|Dn(f)| =<br />

(2.1),(2.2)<br />

=<br />

<br />

<br />

π<br />

<br />

2m π<br />

<br />

n<br />

0<br />

˜B2m<br />

− b2m<br />

<br />

<br />

π<br />

<br />

2m π<br />

<br />

n<br />

0<br />

(2m)!<br />

˜B2m<br />

<br />

x<br />

<br />

h<br />

f (2m) (x) dx<br />

f (2m−1) (π) − f (2m−1) (0) <br />

<br />

x<br />

<br />

h<br />

f (2m) (x) dx<br />

− ˜ B2m(0) f (2m−1) (π) − f (2m−1) (0) .<br />

Durch Anwendung des Hauptsatzes der Differential- <strong>und</strong> Integralrechnung ergibt<br />

sich daraus<br />

|Dn(f)| =<br />

≤<br />

Aus Lemma 2.2 erhalten wir<br />

<br />

<br />

<br />

π<br />

<br />

2m π <br />

x<br />

<br />

˜B2m<br />

<br />

−<br />

n 0 h<br />

˜ <br />

B2m(0) f (2m) <br />

<br />

(x) dx<br />

<br />

<br />

π<br />

<br />

2m π <br />

<br />

B2m<br />

˜<br />

x<br />

<br />

<br />

+ <br />

n<br />

h<br />

˜ <br />

f<br />

B2m(0) <br />

(2m) (x) dx.<br />

0<br />

<br />

<br />

˜ <br />

<br />

B2m(x) ≤<br />

∞<br />

k=1<br />

2<br />

,<br />

(2πk) 2m<br />

11


12 Kapitel 2. Gr<strong>und</strong>lagen<br />

<strong>und</strong> damit gilt<br />

|Dn(f)| ≤<br />

<br />

π<br />

<br />

2m π<br />

2<br />

n 0<br />

= 1<br />

n 2m<br />

∞<br />

k=1<br />

4<br />

(2k) 2m<br />

∞ 2<br />

(2πk) 2m<br />

<br />

(2m)<br />

f (x) dx<br />

k=1<br />

π<br />

0<br />

<br />

f (2m) (x) dx.<br />

Bemerkung 2.5. In Satz 2.3 genügt auch die abgeschwächte Voraussetzung<br />

f ∈ C m−1 [a, b] <strong>und</strong> f (m) ∈ L[a, b], siehe Kress [8]. Analog genügt es für<br />

Satz 2.4, wenn wir f ∈ C 2m−1 [0, π] <strong>und</strong> f (2m) ∈ L[0, π] anstatt f ∈ C 2m [0, π]<br />

voraussetzen.


Kapitel 3<br />

Das Verfahren von Atkinson<br />

In diesem Kapitel geben wir einen Überblick <strong>über</strong> das Verfahren, das Atkinson<br />

[1] zur Integration <strong>über</strong> die Oberfläche Γ eines einfach zusammenhängenden<br />

Gebietes Ω ⊂ R 3 vorstellt für den Fall, daß der Integrand eine Singularität<br />

auf der Oberfläche Γ besitzt.<br />

Sei im Folgenden S 2 die Oberfläche der Einheitskugel im R 3 . Wie in Kapitel<br />

1 bereits erwähnt, beschränken wir uns zunächst darauf, ein Integral <strong>über</strong><br />

S 2 zu betrachten. Die Übertragung unserer Überlegungen auf ein Integral<br />

<strong>über</strong> Γ ist nach (1.2) jederzeit möglich, wenn eine hinreichend glatte Bijektion<br />

M : S 2 −→ Γ existiert.<br />

Um die Idee des Verfahrens von Atkinson zu verdeutlichen, betrachten wir<br />

zunächst ein Integral der Form<br />

<br />

IS2(f) := f(Q) dS(Q)<br />

S 2<br />

für den Fall, daß die Funktion f hinreichend oft stetig differenzierbar <strong>und</strong><br />

nichtsingulär auf S 2 ist.<br />

Wir nutzen im Folgenden aus, daß in Kugelkoordinaten jeder Punkt Q ∈ S2 die eindeutige Darstellung<br />

⎛ ⎞<br />

cos φ sin θ<br />

Q = Q(φ, θ) = ⎝sin<br />

φ sin θ⎠<br />

cos θ<br />

mit 0 ≤ φ < 2π <strong>und</strong> 0 ≤ θ ≤ π besitzt.<br />

Nun führen wir die bijektive Transformation<br />

L : S 2 −→ S 2 , Q(φ, θ) ↦−→ ˜ ⎛<br />

cos φ sin<br />

1<br />

Q = √ ⎝<br />

cos2 2q θ + sin θ<br />

q θ<br />

sin φ sinq ⎞<br />

θ⎠<br />

cos θ<br />

(3.1)


14 Kapitel 3. Das Verfahren von Atkinson<br />

mit einem Parameter q ≥ 1 ein.<br />

Wegen<br />

<strong>und</strong><br />

Dθ L(φ, θ) =<br />

ist<br />

Dφ L(φ, θ) =<br />

1<br />

cos 2 θ + sin 2q θ 3<br />

2<br />

sin q θ<br />

√ cos 2 θ + sin 2q θ<br />

⎛<br />

⎜<br />

⎝<br />

= sinq−1 θ sin 2 θ + q cos 2 θ <br />

cos 2 θ + sin 2q θ 3<br />

2<br />

⎛ ⎞<br />

− sin φ<br />

⎝ cos φ ⎠<br />

0<br />

cos φ q sin q−1 θ cos θ (cos 2 θ + sin 2q θ)<br />

− sin q θ (− sin θ cos θ + q sin 2q−1 θ cos θ <br />

sin φ q sin q−1 θ cos θ (cos 2 θ + sin 2q θ)<br />

− sin q θ (− sin θ cos θ + q sin 2q−1 θ cos θ <br />

− sin θ (cos 2 θ + sin 2q θ)<br />

+ cos θ (− sin θ cos θ + q sin 2q−1 θ cos θ) <br />

⎛<br />

cos φ cos θ<br />

⎝sin<br />

φ cos θ<br />

− sin q ⎞<br />

⎠<br />

θ<br />

Dφ L(φ, θ) × Dθ L(φ, θ) = sin2q−1 θ sin 2 θ + q cos 2 θ <br />

cos 2 θ + sin 2q θ 2<br />

<strong>und</strong> damit<br />

⎛<br />

− cos φ sin<br />

⎝<br />

q θ<br />

− sin φ sinq ⎞<br />

θ⎠<br />

− cos θ<br />

JL( ˜ Q) := |Dφ L(φ, θ) × Dθ L(φ, θ)| = sin2q−1 θ(q cos2 θ + sin2 θ)<br />

(cos2 θ + sin2q θ) 3 .<br />

2<br />

Wir definieren<br />

⎛ ⎞ ⎛ ⎞<br />

ξ cos φ sin θ<br />

⎝η⎠<br />

:= L ⎝sin<br />

φ sin θ⎠<br />

=<br />

ζ<br />

cos θ<br />

1<br />

√ cos 2 θ + sin 2q θ<br />

⎛<br />

cos φ sin<br />

⎝<br />

q θ<br />

sin φ sinq ⎞<br />

θ⎠<br />

cos θ<br />

<strong>und</strong> erhalten mit Hilfe der Transformation L (siehe Wienert [13, Seite 30])<br />

IS2(f) =<br />

⎛ ⎞<br />

π 2π ξ<br />

f ⎝η⎠<br />

0 0 ζ<br />

sin2q−1 θ(q cos2 θ + sin2 θ)<br />

(cos2 θ + sin2q θ) 3 dφ dθ.<br />

2<br />

(3.2)<br />

Dieses Integral approximieren wir nun mit Hilfe der zusammengesetzten Trapezregel<br />

bezüglich zweier Variablen. Für n ∈ N wählen wir die Schrittweite<br />

h = π<br />

n<br />

⎞<br />

⎟<br />


<strong>und</strong> die Stützstellen<br />

Mit den Definitionen<br />

<strong>und</strong><br />

⎛<br />

⎝<br />

ξk,j<br />

ηk,j<br />

ζk,j<br />

⎞<br />

⎛<br />

⎠ := L ⎝<br />

φj := jh, j = 0, . . . , 2n,<br />

n<br />

k=0<br />

cos φj sin θk<br />

sin φj sin θk<br />

cos θk<br />

θk := kh, k = 0, . . . , n.<br />

′′<br />

ak := a0<br />

2 +<br />

⎞<br />

⎠ =<br />

n−1<br />

k=1<br />

ak + an<br />

2<br />

1<br />

sin 2q θk + cos 2 θk<br />

⎛<br />

⎝<br />

cos φj sinq θk<br />

sin φj sinq θk<br />

cos θk<br />

ergibt sich dann durch Anwendung der zusammengesetzten Trapezregel bezüglich<br />

zweier Variablen auf das Integral (3.2) die <strong>Quadratur</strong>formel<br />

π sin<br />

IS2(f) =<br />

0<br />

2q−1 θ(q cos2 θ + sin2 θ)<br />

(cos2 θ + sin2q θ) 3<br />

⎡ ⎛ ⎞ ⎤<br />

2π ξ<br />

⎣ f ⎝η⎠<br />

dφ⎦<br />

dθ<br />

2 0 ζ<br />

n ′′ sin<br />

≈ h<br />

k=0<br />

2q−1 <br />

θk q cos2 θk + sin2 <br />

θk<br />

<br />

cos2 θk + sin2q ⎡ ⎛ ⎞⎤<br />

2n<br />

ξk,j<br />

′′<br />

⎣h 3<br />

f ⎝ηk,j⎠⎦<br />

2 θk<br />

j=0 ζk,j<br />

= h 2<br />

⎛ ⎞<br />

n−1 2n<br />

ξk,j<br />

f ⎝ηk,j⎠<br />

k=1 j=1<br />

sin2q−1 <br />

θk q cos2 θk + sin2 <br />

θk<br />

<br />

cos2 θk + sin2q 3<br />

2 θk<br />

ζk,j<br />

=: I S 2 ,n(f), (3.3)<br />

denn für θ = 0 <strong>und</strong> θ = π verschwindet der Integrand <strong>und</strong> damit das erste<br />

<strong>und</strong> das letzte Glied der äußeren Summe. Da der Integrand 2π-periodisch in<br />

φ ist, sind das erste <strong>und</strong> das letzte Glied der zweiten Summe gleich <strong>und</strong> lassen<br />

sich zu einem einzigen mit eins gewichteten Summanden zusammenfassen.<br />

Damit haben wir die Betrachtung des einfachen Falles mit nichtsingulärem<br />

Integranden abgeschlossen.<br />

Nun betrachten wir den Fall, daß die Funktion f in einem Punkt P ∈ S2 eine Singularität besitzt. Die beiden Pole sowie alle Punkte auf dem Äquator<br />

von S2 sind Fixpunkte der Abbildung L, wie man durch Einsetzen der Winkel<br />

θ = 0, θ = π <strong>und</strong> θ = π in die Definition (3.1) von L sofort ausrechnen<br />

2<br />

kann. Alle anderen Punkte auf der Oberfläche von S2 werden für q > 1 durch<br />

⎞<br />

⎠<br />

15


16 Kapitel 3. Das Verfahren von Atkinson<br />

die Transformation L in Richtung des nächstgelegenen Poles von S 2 verschoben.<br />

Um das zu verdeutlichen, betrachten wir die dritte Koordinate unter der<br />

Abbildung L:<br />

cos θ L<br />

−→ ζ =<br />

cos θ<br />

√ cos 2 θ + sin 2q θ .<br />

Für θ ∈ 0, π<br />

<br />

gilt sin θ ∈ (0, 1) <strong>und</strong> cos θ ∈ (0, 1), damit ist<br />

2<br />

<strong>und</strong> wir erhalten<br />

Analog berechnen wir<br />

1 = cos 2 θ + sin 2 θ > cos 2 θ + sin 2q θ > 0,<br />

cos θ<br />

<br />

√ > cos θ, θ ∈<br />

cos2 2q θ + sin θ<br />

cos θ<br />

√ cos 2 θ + sin 2q θ < cos θ, θ ∈<br />

Wenn wir also nun das Integral<br />

<br />

f(L(Q)) JL(Q) dS(Q)<br />

S 2<br />

0, π<br />

2<br />

<br />

.<br />

<br />

π<br />

<br />

, π .<br />

2<br />

mit einer <strong>Quadratur</strong>formel mit konstanter Schrittweite h approximieren, hat<br />

die Transformation L aus (3.1) den Effekt, daß die Stützstellen nicht mehr<br />

äquidistant verteilt sind, sondern sich an den Polen von S 2 häufen – das ist für<br />

die Genauigkeit einer <strong>Quadratur</strong>formel vorteilhaft, wenn sich die Singularität<br />

des Integranden an einem Pol von S 2 befindet <strong>und</strong> der Integrand an allen<br />

anderen Stellen “gutartig” ist.<br />

In den Abbildungen 3.1 <strong>und</strong> 3.2 wird dieser Effekt veranschaulicht: In Abbildung<br />

3.1 sind für eine äquidistante Unterteilung φj ∈ [0, 2π), θk ∈ (0, π)<br />

die Punkte (cos φj sin θk, sin φj sin θk, cos θk) T aufgetragen sowie die zugehörigen<br />

Isolinien für θ = const eingezeichnet. In Abbildung 3.2 sind stattdessen<br />

(für die gleiche äquidistante Unterteilung) die Funktionswerte von L mit dem<br />

Parameter q = 3 aufgetragen. Man sieht deutlich, wie die vorher äquidistant<br />

verteilten Stützstellen sich nun an den beiden Polen der Einheitskugel konzentrieren.<br />

Da die Transformation L den Integranden an den beiden Polen von S 2 glättet,<br />

soll das Koordinatensystem vor der Anwendung der Funktion f so transformiert<br />

werden, daß ein Pol von S 2 auf die Singularität P von f abgebildet wird.<br />

Dazu bestimmen wir eine Householder-Matrix H mit<br />

⎛ ⎞<br />

⎛ ⎞<br />

0<br />

0<br />

H ⎝0⎠<br />

= P oder H ⎝ 0 ⎠ = P.<br />

1<br />

−1


Mit u := P + sign(P3)e3 ist<br />

H := I − 2uuT<br />

u T u<br />

diejenige Householder-Matrix, für die HP = −sign(P3)e3 gilt, wobei e3 den<br />

Einheitsvektor e3 = (0, 0, 1) T <strong>und</strong> P3 die dritte Komponente des Punktes<br />

P = (P1, P2, P3) T bezeichnet. Da H als lineare orthogonale Transformation<br />

die Funktionaldeterminante 1 besitzt, ergibt sich durch die Anwendung von<br />

H nach der Anwendung von L die Gleichung<br />

<br />

IS2(f) = f(HL( ˜ Q)) JL( ˜ Q) dS( ˜ Q). (3.4)<br />

S 2<br />

Um das Matrix-Vektor-Produkt HL( ˜ Q) effizienter berechnen zu können, formen<br />

wir wie folgt um:<br />

HL( ˜ <br />

Q) = I − 2uuT<br />

uT <br />

L(<br />

u<br />

˜ Q) = L( ˜ T 2u<br />

Q) − u<br />

uT u L( ˜ <br />

Q) . (3.5)<br />

Setzen wir nun (3.5) in (3.4) ein, so ergibt sich mit Hilfe der <strong>Quadratur</strong>formel<br />

(3.3) die Gleichung<br />

<br />

IS2(f) =<br />

S2 f(Q) dS(Q)<br />

=<br />

<br />

S2 <br />

f L( ˜ T 2u<br />

Q) − u<br />

uT u L( ˜ <br />

Q) JL( ˜ Q) dS( ˜ ≈<br />

Q)<br />

h 2<br />

n−1 2n sin 2q−1 <br />

2<br />

θk q cos θk + sin 2 <br />

⎛⎛<br />

θk<br />

3 f ⎝⎝<br />

2<br />

ξk,j<br />

⎞ ⎡<br />

ηk,j⎠<br />

− u ⎣ 2uT<br />

uT ⎛<br />

⎝<br />

u<br />

ξk,j<br />

⎞⎤⎞<br />

ηk,j⎠⎦⎠<br />

k=1 j=1<br />

cos 2 θk + sin 2q θk<br />

=: Ah,q(f). (3.6)<br />

Die Approximation von I S 2(f) durch Ah,q(f) bezeichnen wir als das Verfahren<br />

von Atkinson.<br />

ζk,j<br />

Wenn wir nun anstatt des Integrals IS2(f) das Integral<br />

<br />

ρ(Q) dS(Q)<br />

Γ<br />

betrachten, wobei ρ in einem Punkt ˆ P ∈ Γ eine Singularität besitzt, <strong>und</strong><br />

voraussetzen, daß eine hinreichend glatte Bijektion M : S 2 −→ Γ existiert, so<br />

ist in die Gleichung (3.6) – wie bereits in Kapitel 1 erwähnt – die Funktion<br />

f(Q) := ρ(M(Q)) JM(Q) <strong>und</strong> bei der Berechnung der Householder-Matrix H<br />

der Punkt P = M −1 ( ˆ P ) einzusetzen.<br />

ζk,j<br />

17


18 Kapitel 3. Das Verfahren von Atkinson<br />

0.8<br />

0.6<br />

0.4<br />

0.2<br />

0<br />

−0.2<br />

−0.4<br />

−0.6<br />

−0.8<br />

0.8<br />

0.6<br />

0.4<br />

0.2<br />

0<br />

−0.2<br />

−0.4<br />

−0.6<br />

−0.8<br />

−0.8<br />

−0.6<br />

−0.4<br />

Abbildung 3.1: Punkte (cos φj sin θk, sin φj sin θk, cos θk) T für eine äquidistante<br />

Unterteilung φj ∈ [0, 2π) <strong>und</strong> θk ∈ (0, π), Isolinien für θ = const.<br />

−0.2<br />

0<br />

0.2<br />

0.4<br />

0.6<br />

0.8


0.8<br />

0.6<br />

0.4<br />

0.2<br />

0<br />

−0.2<br />

−0.4<br />

−0.6<br />

−0.8<br />

0.8<br />

0.6<br />

0.4<br />

0.2<br />

0<br />

−0.2<br />

−0.4<br />

−0.6<br />

−0.8<br />

−0.8<br />

−0.6<br />

−0.4<br />

Abbildung 3.2: Transformation L, ausgewertet für eine äquidistante Unterteilung<br />

φj ∈ [0, 2π), θk ∈ (0, π), Isolinien für θ = const, Parameter q = 3.<br />

−0.2<br />

0<br />

0.2<br />

0.4<br />

0.6<br />

0.8<br />

19


20 Kapitel 3. Das Verfahren von Atkinson<br />

Wird das Verfahren von Atkinson auf ein Integral der Form<br />

<br />

Γ<br />

f(Q)<br />

|P − Q|<br />

dS(Q), P ∈ Γ,<br />

mit einer glatten Funktion f angewendet, so gilt die folgende Fehlerabschätzung:<br />

Satz 3.1. Sei Γ die hinreichend glatte Oberfläche eines einfach zusammenhängenden<br />

Gebietes Ω ⊂ R 3 <strong>und</strong> M : S 2 −→ Γ eine hinreichend glatte Bijektion<br />

zwischen Γ <strong>und</strong> der Oberfläche S 2 der Einheitskugel im R 3 . Es existiere<br />

eine offene ε-Umgebung S 2 ε ⊂ R 3 von S 2 <strong>und</strong> eine offene ε-Umgebung<br />

Γε = M(S 2 ε ) ⊂ R 3 von Γ, so daß M : S 2 ε −→ Γε als dreidimensionale Abbildung<br />

eine hinreichend glatte Bijektion mit nichtverschwindender Funktionaldeterminante<br />

ist.<br />

Sei P ∈ Γ, q ∈ N,<br />

s :=<br />

<br />

q falls q gerade<br />

q + 1 falls q ungerade,<br />

f ∈ C s−1 (Γ) <strong>und</strong> f (s) ∈ L(Γ), <strong>und</strong> sei Ah,q definiert wie in (3.6). Dann gilt<br />

für den Approximationsfehler bei Anwendung des Verfahrens von Atkinson auf<br />

das Integral<br />

mit<br />

die Abschätzung<br />

I(f) :=<br />

=<br />

Beweis. Siehe Atkinson [1].<br />

<br />

<br />

Γ<br />

S 2<br />

g(Q) :=<br />

f(Q)<br />

|P − Q| dS(Q)<br />

f(M(Q)) JM(Q)<br />

dS(Q)<br />

|P − M(Q)|<br />

f(M(Q)) JM(Q)<br />

|P − M(Q)|<br />

I(f) − Ah,q(g) = O (h s ) .<br />

Wird das Verfahren von Atkinson auf ein Integral mit nichtsingulärem Integranden<br />

angewendet, so läßt sich eine schärfere Fehlerabschätzung beweisen:


Satz 3.2. Sei Γ die hinreichend glatte Oberfläche eines einfach zusammenhängenden<br />

Gebietes Ω ⊂ R 3 <strong>und</strong> M : S 2 −→ Γ eine hinreichend glatte Bijektion<br />

zwischen Γ <strong>und</strong> der Oberfläche S 2 der Einheitskugel im R 3 .<br />

Sei q ≥ 1 mit 2q ∈ N <strong>und</strong><br />

s :=<br />

<br />

2q falls 2q gerade<br />

2q + 1 falls 2q ungerade.<br />

Sei f s-mal differenzierbar mit f (s) ∈ L(S2 ), <strong>und</strong> sei IS2 ,n definiert wie in<br />

(3.3). Dann gilt für den Approximationsfehler bei Anwendung des Verfahrens<br />

von Atkinson auf das Integral<br />

<br />

I(f) = f(M(Q)) JM(Q) dS(Q)<br />

mit<br />

die Abschätzung<br />

Beweis. Siehe Atkinson [1].<br />

S 2<br />

g(Q) := f(M(Q)) JM(Q)<br />

I(f) − I S 2 ,n(g) = O(h s ).<br />

21


22 Kapitel 3. Das Verfahren von Atkinson


Kapitel 4<br />

Das Verfahren der sigmoidalen<br />

<strong>Transformationen</strong><br />

4.1 Einleitung <strong>und</strong> Definition<br />

In diesem Kapitel führen wir zunächst in das Verfahren der sigmoidalen <strong>Transformationen</strong><br />

ein, das z. B. Elliott [5] <strong>und</strong> Kress [8] für die Approximation uneigentlicher<br />

Integrale <strong>über</strong> dem Intervall [0, 1] vorschlagen. Wir werden dieses<br />

Verfahren zur numerischen Integration uneigentlicher Integrale <strong>über</strong> dem Intervall<br />

[0, π] einsetzen <strong>und</strong> daraus eine weitere Methode erhalten, ein Integral<br />

<strong>über</strong> die Oberfläche S 2 der Einheitskugel im R 3 mit singulärem Integranden<br />

näherungsweise zu bestimmen. Wir werden für dieses Verfahren eine Fehlerabschätzung<br />

beweisen <strong>und</strong> zeigen, daß das Verfahren von Atkinson ein Spezialfall<br />

dieses Verfahrens ist. Damit können wir eine alternative Fehlerabschätzung für<br />

das Verfahren von Atkinson herleiten.<br />

In Anlehnung an Elliott [5] geben wir die folgende<br />

Definition 4.1. Eine reellwertige Funktion w ∈ C ∞ [0, π], die auf [0, π] streng<br />

monoton steigend ist, die an der Stelle 0 den Funktionswert<br />

besitzt, die die Symmetrieeigenschaft<br />

erfüllt <strong>und</strong> für deren Ableitung<br />

w(0) = 0 (4.1)<br />

w(t) = π − w(π − t), t ∈ [0, π], (4.2)<br />

gilt, bezeichnen wir als sigmoidale Transformation.<br />

w ′ (0) = w ′ (π) = 0 (4.3)


24 Kapitel 4. Das Verfahren der sigmoidalen <strong>Transformationen</strong><br />

Bemerkung 4.2. In der Literatur wird auch der Begriff periodisierende<br />

Transformation verwendet.<br />

Bemerkung 4.3. Elliott [5] betrachtet Funktionen w ∈ C 1 [0, 1] ∩ C ∞ (0, 1)<br />

mit w(0) = 0 <strong>und</strong> der Symmetrieeigenschaft w(t) = 1 − w(1 − t), t ∈ [0, 1],<br />

<strong>und</strong> fordert, daß die Ableitung w ′ streng monoton wachsend auf [0, 1]<br />

ist <strong>und</strong><br />

2<br />

daß w ′ (0) = 0 gilt – unsere Voraussetzung (4.3) ist dann eine Folgerung aus<br />

dieser Forderung.<br />

Folgerung 4.4. Aus den Eigenschaften (4.1) <strong>und</strong> (4.2) erhalten wir<br />

w(π) = π. (4.4)<br />

Da w stetig <strong>und</strong> streng monoton steigend auf [0, π] ist <strong>und</strong> (4.1) sowie (4.4)<br />

erfüllt, bildet w das Intervall [0, π] bijektiv auf sich selbst ab.<br />

4.2 Anwendung auf ein Integral <strong>über</strong> [0, π]<br />

Wir wollen zunächst die Idee des Verfahrens der sigmoidalen <strong>Transformationen</strong><br />

für die Approximation eines uneigentlichen Integrals <strong>über</strong> dem Intervall [0, π]<br />

vorstellen. Sei f hinreichend glatt in (0, π) <strong>und</strong> integrierbar <strong>über</strong> [0, π], f<br />

darf also an den beiden Grenzen (integrierbare) Singularitäten besitzen. Wir<br />

betrachten das Integral π<br />

f(x) dx.<br />

0<br />

Sei w eine sigmoidale Transformation. Dann erhalten wir durch Substitution<br />

π π<br />

f(x) dx = w ′ (t) f(w(t)) dt. (4.5)<br />

0<br />

0<br />

Dieses Integral approximieren wir mit der zusammengesetzten Rechteckregel<br />

π<br />

π<br />

f(x) dx = w ′ (t) f(w(t)) dt<br />

0<br />

0<br />

≈ π<br />

n<br />

w<br />

n<br />

k=1<br />

′<br />

<br />

πk πk<br />

f w<br />

n n<br />

= π n−1<br />

w<br />

n<br />

′<br />

<br />

πk πk<br />

f w<br />

n n<br />

k=1<br />

(denn nach Voraussetzung (4.7) ist w ′ ( πn)<br />

= 0).<br />

n<br />

(4.6)


4.2. Anwendung auf ein Integral <strong>über</strong> [0, π] 25<br />

Besitzt w für ein hinreichend großes p ∈ N an den beiden Grenzen des Integrals<br />

die Ableitungen<br />

sowie<br />

so verschwinden die Funktion<br />

w (j) (0) = w (j) (π) = 0, j = 1, . . . , p − 1, (4.7)<br />

w (p) (0) = 0 <strong>und</strong> w (p) (π) = 0, (4.8)<br />

g(t) := w ′ (t) f(w(t)) (4.9)<br />

<strong>und</strong> ihre Ableitungen bis zu einer bestimmten Ordnung (die von den Eigenschaften<br />

der Funktion f <strong>und</strong> von p abhängt) an den beiden Intervallgrenzen<br />

0 <strong>und</strong> π. Somit können wir g als hinreichend glatte π-periodische Funktion<br />

ansehen <strong>und</strong> Satz 2.4 zur Gewinnung einer Fehlerabschätzung verwenden. Zunächst<br />

benötigen wir jedoch die folgende Definition <strong>und</strong> den folgenden Satz:<br />

Definition 4.5. Für s ∈ N <strong>und</strong> 0 < α ≤ 1 sei S s,α (0, π) die Menge aller<br />

s-mal stetig differenzierbaren Funktionen f : (0, π) −→ R, für die gilt:<br />

sup [x(π − x)]<br />

0


26 Kapitel 4. Das Verfahren der sigmoidalen <strong>Transformationen</strong><br />

Satz 4.7. Sei p ∈ N <strong>und</strong> w eine sigmoidale Transformation, deren Ableitungen<br />

(4.7) <strong>und</strong> (4.8) erfüllen. Sei s ∈ N <strong>und</strong> f ∈ S 2s,α (0, π) mit 0 < α ≤ 1, so daß<br />

ist. Dann gilt für den Fehler<br />

En(f) =<br />

π<br />

0<br />

2s < αp<br />

f(x) dx − π n−1<br />

n<br />

k=1<br />

der <strong>Quadratur</strong>formel (4.6) die Abschätzung<br />

w ′<br />

|En(f)| ≤ C<br />

n 2s f 2s,α<br />

<br />

πk<br />

f w<br />

n<br />

mit einer Konstanten C ≥ 0, die von w, s <strong>und</strong> α abhängt.<br />

<br />

πk<br />

n<br />

Beweis. Sei g definiert als g(t) = w ′ (t)f(w(t)) wie in (4.9). Nach (4.5) ist<br />

En(f) = Dn(g). Wir wollen die Abschätzung aus Satz 2.4 verwenden. Nach<br />

Bemerkung 2.5 genügt es, wenn wir g ∈ C 2s−1 [0, π], g (2s) ∈ L[0, π] <strong>und</strong><br />

g (2k−1) (0) = g (2k−1) (π), k = 1, . . . , s − 1, zeigen.<br />

Nach den Voraussetzungen an f <strong>und</strong> w ist g ∈ C 2s (0, π), es muß also noch<br />

gezeigt werden, daß sich die Funktion g <strong>und</strong> ihre Ableitungen bis zur Ordnung<br />

2s−1 an den Stellen 0 <strong>und</strong> π stetig fortsetzen lassen, daß die Ableitungen von<br />

g die Bedingung g (2k−1) (0) = g (2k−1) (π), k = 1, . . . , s − 1, erfüllen, <strong>und</strong> daß<br />

das Integral π<br />

0<br />

<br />

g (2s) (t) dt<br />

existiert (zumindest als uneigentliches Integral).<br />

Sei im Folgenden immer r ∈ {0, 1, . . . , 2s}.<br />

Wir schreiben die r-te Ableitung von g mit Hilfe der Leibniz’schen Regel als<br />

g (r) (t) =<br />

r<br />

k=0<br />

<br />

r<br />

[f(w(t))]<br />

k<br />

(k) w (r−k+1) (t).<br />

Unter Berücksichtigung der Ketten- <strong>und</strong> der Produktregel können wir g (r)<br />

auch schreiben als<br />

g (r) r<br />

(t) = u r k(t)f (k) (w(t)). (4.12)<br />

k=0


4.2. Anwendung auf ein Integral <strong>über</strong> [0, π] 27<br />

Um Aussagen <strong>über</strong> die Eigenschaften von g (r) machen zu können, müssen wir<br />

die Koeffizienten ur k untersuchen. Ableiten von (4.12) liefert<br />

g (r+1) r<br />

<br />

(t) = u<br />

k=0<br />

r k(t)w ′ (t)f (k+1) (w(t)) + durk (t)<br />

f<br />

dt<br />

(k) <br />

(w(t))<br />

du<br />

=<br />

r r<br />

r<br />

0(t)<br />

duk (t)<br />

f(w(t)) +<br />

dt dt + urk−1(t)w ′ <br />

(t) f (k) <br />

(w(t))<br />

k=1<br />

+ u r r(t)w ′ (t)f (r+1) (w(t)),<br />

<strong>und</strong> durch einen Koeffizientenvergleich mit<br />

g (r+1) (t) =<br />

r+1<br />

k=0<br />

u r+1<br />

k (t)f (k) (w(t))<br />

= u r+1<br />

0 (t)f(w(t)) +<br />

+ u r+1<br />

r+1(t)f (r+1) (w(t))<br />

erhalten wir für u r+1<br />

k (t) die Rekursionsformeln<br />

r<br />

k=1<br />

k = 0 : u r+1<br />

0 (t) = dur 0(t)<br />

dt<br />

u r+1<br />

k (t)f (k) (w(t))<br />

(4.13)<br />

k = 1, . . . , r : u r+1<br />

k (t) = dur k (t)<br />

dt + ur k−1(t)w ′ (t) (4.14)<br />

k = r + 1 : u r+1<br />

r+1(t) = u r r(t)w ′ (t). (4.15)<br />

Für einige dieser Koeffizienten können wir eine explizite Darstellung angeben,<br />

die wir später noch benötigen: Aus (4.12) folgt mit r = 0 die Gleichung<br />

g(t) = u 0 0(t)f(w(t)), <strong>und</strong> mit der Definition g(t) = w ′ (t) f(w(t)) aus (4.9)<br />

erhalten wir daraus u 0 0(t) = w ′ (t). Zusammen mit der Rekursion (4.13) ergibt<br />

sich daraus durch r-maliges Differenzieren<br />

u r 0(t) = w (r+1) (t). (4.16)<br />

Da u 0 0(t) = w ′ (t) ist, ergibt sich zusammen mit der Rekursionsformel (4.15)<br />

Wir zeigen jetzt, daß mit<br />

für k = 0, . . . , r die Koeffizienten u r k<br />

u r r(t) = [w ′ (t)] r+1 . (4.17)<br />

z r k := p − 1 + kp − r<br />

(t) die Gleichung<br />

u r k(t) = O [t(π − t)] zr k , t → 0, t → π,


28 Kapitel 4. Das Verfahren der sigmoidalen <strong>Transformationen</strong><br />

erfüllen. Wir merken an, daß für r = 0, . . . , 2s−1 aufgr<strong>und</strong> der Voraussetzung<br />

p ≥ αp > 2s<br />

gilt.<br />

z r k = p − 1 + kp − r<br />

> (2s) − 1 + kp − (2s − 1)<br />

= kp<br />

≥ 0<br />

Wir zeigen die Behauptung zuerst für die beiden Fälle k = 0 <strong>und</strong> k = r für<br />

r ∈ {0, 1, . . . , 2s}, <strong>und</strong> anschließend für die restlichen Fälle durch vollständige<br />

Induktion nach r, wobei wir in jedem Schritt der Induktion die Behauptung<br />

nur noch für k = 1, . . . , r − 1 zeigen müssen.<br />

Zunächst benötigen wir dafür eine Aussage <strong>über</strong> das Verhalten der Funktion<br />

w <strong>und</strong> ihrer Ableitungen. Mit Hilfe der Lagrange’schen Darstellung des Restglieds<br />

der Taylor’schen Formel erhalten wir durch Entwicklung von w (j) an<br />

der Stelle 0 für j = 0, . . . , p<br />

Wir definieren<br />

w (j) (t) =<br />

p−j−1 <br />

k=0<br />

w (j+k) (0)<br />

k!<br />

t k + w(p) (ξ)<br />

(p − j)! tp−j<br />

(4.7)<br />

= w (p) (ξ)<br />

(p − j)! tp−j mit ξ ∈ [0, t].<br />

Rj(t) := w(j) (t)<br />

t p−j = w(p) (ξ)<br />

(p − j)! .<br />

Nach den Voraussetzungen an w ist Rj beschränkt in (0, π), <strong>und</strong> durch Grenz<strong>über</strong>gang<br />

erhalten wir<br />

lim Rj(t) = lim<br />

t→0 ξ→0<br />

w (p) (ξ)<br />

(p − j)! = w(p) (0)<br />

(p − j)! ,<br />

also gilt wegen w (j) (t) = Rj(t) t p−j <strong>und</strong> der Beschränktheit von Rj auf [0, π)<br />

w (j) (t) = O t p−j , t → 0.<br />

Analog erhält man durch eine Taylorentwicklung von w (j) an der Stelle π<br />

Somit gilt<br />

w (j) (t) = O (π − t) p−j , t → π.<br />

w (j) (t) = O [t(π − t)] p−j , t → 0, t → π. (4.18)


4.2. Anwendung auf ein Integral <strong>über</strong> [0, π] 29<br />

Mit Hilfe dieser Gleichung können wir jetzt die Behauptung beweisen.<br />

k=0: Nach (4.16) ist<br />

u r 0(t) = w (r+1) (t),<br />

<strong>und</strong> aus (4.18) folgt mit zr 0 = p − 1 − r wie behauptet<br />

u r 0(t) = O [t(π − t)] zr 0 , t → 0, t → π.<br />

k=r: Nach (4.17) ist<br />

Aus (4.18) erhalten wir<br />

also<br />

u r r(t) = [w ′ (t)] r+1 .<br />

w ′ (t) = O [t(π − t)] p−1 , t → 0, t → π, (4.19)<br />

[w ′ (t)] r+1 = O [t(π − t)] (p−1)·(r+1) , t → 0, t → π.<br />

Mit zr r = p − 1 + rp − r ist dann<br />

u r r(t) = O [t(π − t)] zr r , t → 0, t → π.<br />

Nun zeigen wir die Behauptung für die restlichen Fälle durch vollständige<br />

Induktion nach r. Der Induktionsanfang r = 0 ist durch den Fall k = 0 bereits<br />

gezeigt.<br />

Sei die Behauptung für ein r ∈ {0, . . . , 2s − 1} <strong>und</strong> k = 1, . . . , r − 1 bereits<br />

bewiesen (unter Berücksichtigung der anfangs betrachteten Sonderfälle ist sie<br />

somit für k = 0, . . . , r bewiesen). Wir müssen zeigen, daß die Behauptung<br />

dann auch für r + 1 <strong>und</strong> k = 1, . . . , r gilt.<br />

Nach (4.14) ist<br />

Mit z r+1<br />

k<br />

daraus<br />

u r+1<br />

k (t) = dur k (t)<br />

dt + ur k−1(t)w ′ (t).<br />

= p + kp − r − 2, Gleichung (4.19) <strong>und</strong> der Induktionsannahme folgt<br />

<br />

[t(π − t)] zr+1<br />

<br />

k , t → 0, t → π.<br />

u r+1<br />

k (t) = O<br />

Damit haben wir die Behauptung<br />

u r k(t) = O [t(π − t)] zr k , t → 0, t → π, (4.20)<br />

für alle r ∈ {0, 1, . . . , 2s} <strong>und</strong> k = 0, . . . , r gezeigt <strong>und</strong> kennen somit das<br />

asymptotische Verhalten der Koeffizienten ur k an den beiden Grenzen 0 <strong>und</strong>


30 Kapitel 4. Das Verfahren der sigmoidalen <strong>Transformationen</strong><br />

π. Um eine Aussage <strong>über</strong> das Verhalten der Funktion g an diesen beiden<br />

Stellen zu erhalten, müssen wir zunächst noch das Verhalten der Funktion f<br />

untersuchen.<br />

Sei im Folgenden immer k ∈ {0, 1, . . . , 2s}.<br />

Aus der Definition 4.5 der Norm · s,α erhalten wir<br />

<strong>und</strong> daraus<br />

f 2s,α ≥ [x(π − x)] k+1−α f (k) (x) , x ∈ (0, π),<br />

<br />

f (k) (x) ≤ f2s,α [x(π − x)] α−k−1 , x ∈ (0, π).<br />

Damit gilt nach der Symmetrieeigenschaft w(t) = π − w(π − t) aus (4.2)<br />

<br />

f (k) (w(t)) ≤ f2s,α (w(t)[π − w(t)]) α−k−1<br />

Aus (4.18) folgt<br />

= f 2s,α (w(t){π − [π − w(π − t)]}) α−k−1<br />

= f 2s,α [w(t) · w(π − t)] α−k−1 , t ∈ (0, π). (4.21)<br />

w(t) · w(π − t) = O ([t(π − t)] p ) ,<br />

<strong>und</strong> durch Einsetzen in (4.21) erhalten wir<br />

<br />

f (k) (w(t)) = f2s,α (O ([t(π − t)] p )) α−k−1<br />

mit einer Konstanten Ck ≥ 0.<br />

≤ Ck f 2s,α [t(π − t)] (α−k−1)p<br />

Damit sind wir in der Lage, die Ableitungen der Funktion g abzuschätzen;<br />

durch Einsetzen in (4.12) erhalten wir<br />

<br />

(r)<br />

g (t) =<br />

<br />

r <br />

u<br />

<br />

k=0<br />

r k(t)f (k) <br />

<br />

<br />

(w(t)) <br />

<br />

≤<br />

r <br />

u r k(t)f (k) (w(t)) <br />

≤<br />

k=0<br />

r<br />

mit einer Konstanten Cr ≥ 0.<br />

Ck f 2s,α [t(π − t)] αp−r−1<br />

≤<br />

k=0<br />

Cr f2s,α [t(π − t)] αp−r−1 , t ∈ (0, π), (4.22)


4.2. Anwendung auf ein Integral <strong>über</strong> [0, π] 31<br />

Da nach Voraussetzung αp > 2s ist, gilt für r = 0, . . . , 2s − 1<br />

αp − r − 1 > (2s) − (2s − 1) − 1 = 0,<br />

<strong>und</strong> damit ist (4.22) wohldefiniert. Somit läßt sich g (r) wegen<br />

lim<br />

t→0, t→π<br />

<br />

g (r) (t) ≤ lim<br />

t→0, t→π Cr f 2s,α [t(π − t)] αp−r−1 = 0<br />

stetig auf [0, π] fortsetzen mit den Werten<br />

g (r) (0) = g (r) (π) = 0, r = 0, . . . , 2s − 1. (4.23)<br />

Wir haben also g ∈ C 2s−1 [0, π] gezeigt, außerdem ist nach (4.23) die Voraussetzung<br />

g (2k−1) (0) = g (2k−1) (π), k = 1, . . . , s − 1, von Satz 2.4 erfüllt. Es bleibt<br />

noch g (2s) ∈ L[0, π] zu zeigen. Nach (4.22) ist<br />

π<br />

0<br />

<br />

g (2s) (t) dt ≤<br />

π<br />

<strong>und</strong> wegen der Voraussetzung αp > 2s ist<br />

0<br />

C2 f 2s,α [t(π − t)] αp−2s−1 ,<br />

αp − 2s − 1 > −1.<br />

Somit existiert das Integral auf der rechten Seite als uneigentliches Integral,<br />

<strong>und</strong> damit natürlich auch das Integral auf der linken Seite. Somit haben wir<br />

nun auch g (2s) ∈ L[0, π] gezeigt. Aus Satz 2.4 erhalten wir die Abschätzung<br />

|En(f)| ≤ C1<br />

n 2s<br />

≤ C1<br />

n 2s<br />

π<br />

0 π<br />

0<br />

≤ ˜ C<br />

n 2s f 2s,α<br />

≤ C<br />

n 2s f 2s,α .<br />

<br />

g (2s) (t) dt<br />

C2 f 2s,α [t(π − t)] αp−2s−1 dt<br />

π<br />

0<br />

[t(π − t)] αp−2s−1 dt<br />

Für eine auf [0, π] hinreichend glatte Funktion f läßt sich diese Abschätzung<br />

noch etwas verbessern, so daß s nicht mehr durch 2s < αp mit 0 < α ≤ 1<br />

beschränkt ist. Wir benötigen dafür die folgende<br />

Definition 4.8. Sei s ∈ N. Für f ∈ Cs [0, π] definieren wir<br />

f∞,s := max<br />

<br />

(j)<br />

f .<br />

∞<br />

j=0,...,s


32 Kapitel 4. Das Verfahren der sigmoidalen <strong>Transformationen</strong><br />

Satz 4.9. Sei p ∈ N <strong>und</strong> w eine sigmoidale Transformation, deren Ableitungen<br />

(4.7) <strong>und</strong> (4.8) erfüllen. Sei s ∈ N <strong>und</strong> f ∈ C 2s [0, π] mit<br />

Dann gilt für den Fehler<br />

En(f) =<br />

π<br />

0<br />

2s ≤ p + 1.<br />

f(x) dx − π n−1<br />

n<br />

k=1<br />

der <strong>Quadratur</strong>formel (4.6) die Abschätzung<br />

w ′<br />

|En(f)| ≤ C<br />

n 2s f ∞,2s<br />

<br />

πk<br />

f w<br />

n<br />

mit einer Konstanten C ≥ 0, die von w <strong>und</strong> s abhängt.<br />

<br />

πk<br />

n<br />

Beweis. Nach den Voraussetzungen an f <strong>und</strong> w ist die Funktion g aus (4.9)<br />

(2s)-mal stetig differenzierbar auf [0, π]. Somit können wir zum Beweis Satz 2.4<br />

anwenden, wenn wir zeigen, daß g (2k−1) (0) = g (2k−1) (π), k = 1, . . . , s − 1, gilt.<br />

Der Beweis davon erfolgt zum größten Teil analog zum Beweis von Satz 4.7.<br />

An Stelle von (4.22) verwenden wir für r ≤ p − 1 die Abschätzung<br />

mit einer Konstanten Cr ≥ 0.<br />

<br />

g (r) (t) =<br />

<br />

r <br />

u<br />

<br />

k=0<br />

r k(t)f (k) <br />

<br />

<br />

(w(t)) <br />

<br />

≤<br />

r<br />

f∞,2s |u r k(t)| (4.24)<br />

k=0<br />

(4.20)<br />

≤ f ∞,2s Cr [t(π − t)] zr 0<br />

= Cr f ∞,2s [t(π − t)] p−1−r<br />

Wegen der Voraussetzung 2s ≤ p + 1 gilt für r = 0, . . . , 2s − 3<br />

p − 1 − r ≥ (2s − 1) − 1 − (2s − 3)<br />

= 1,<br />

<strong>und</strong> wir erhalten durch Grenz<strong>über</strong>gang in (4.25)<br />

g (r) (0) = g (r) (π) = 0, r = 0, . . . , s − 3.<br />

(4.25)


4.3. Anwendung auf ein Integral <strong>über</strong> S 2 33<br />

Damit können wir Satz 2.4 anwenden <strong>und</strong> erhalten zusammen mit (4.24)<br />

|En(f)| ≤ C1<br />

n 2s<br />

π<br />

0<br />

= C1<br />

n 2s f ∞,2s<br />

<br />

g (2s) (t) dt<br />

π 2s<br />

0<br />

k=0<br />

<br />

u 2s<br />

k (t) dt.<br />

Da f als (2s)-mal stetig differenzierbar auf [0, π] vorausgesetzt <strong>und</strong> auch g<br />

(2s)-mal stetig differenzierbar auf [0, π] ist, sind die Koeffizienten u 2s<br />

k nach<br />

(4.12) beschränkt auf [0, π], <strong>und</strong> wir erhalten<br />

|En(f)| ≤ C1<br />

n2s f π<br />

∞,2s<br />

0<br />

≤ C<br />

n 2s f ∞,2s .<br />

2s<br />

Ck dt<br />

4.3 Anwendung auf ein Integral <strong>über</strong> S 2<br />

Wir wollen nun das Verfahren der sigmoidalen <strong>Transformationen</strong> zur numerischen<br />

Behandlung eines Integrals der Form<br />

<br />

IS2(f) = f(Q) dS(Q)<br />

verwenden. In Kugelkoordinaten erhalten wir die Darstellung<br />

⎛ ⎞<br />

π 2π cos φ sin θ<br />

IS2(f) = f ⎝sin<br />

φ sin θ⎠<br />

sin θ dφ dθ.<br />

0 0 cos θ<br />

S 2<br />

Sei zunächst f nichtsingulär auf S 2 . Auf das Integral I S 2(f) wenden wir für<br />

die Integration <strong>über</strong> θ das Verfahren der sigmoidalen <strong>Transformationen</strong> mit<br />

einer sigmoidalen Transformation w an, während wir das “gutartige” Integral<br />

<strong>über</strong> φ direkt mit der zusammengesetzten Rechteckregel approximieren. Für<br />

n ∈ N wählen wir die Schrittweite<br />

h = π<br />

n<br />

<strong>und</strong> die Stützstellen<br />

φj = jh, j = 1, . . . , 2n,<br />

k=0<br />

θk = kh, k = 1, . . . , n − 1.


34 Kapitel 4. Das Verfahren der sigmoidalen <strong>Transformationen</strong><br />

Dann erhalten wir mit der sigmoidalen Transformation w wie in (3.3) die<br />

<strong>Quadratur</strong>formel<br />

IS2(f) =<br />

⎛<br />

⎞<br />

π 2π cos φ sin w(θ)<br />

f ⎝sin<br />

φ sin w(θ) ⎠ sin w(θ) w<br />

0 0 cos w(θ)<br />

′ (θ) dφ dθ (4.26)<br />

≈ h 2<br />

⎛<br />

⎞<br />

n−1<br />

2n cos φj sin w(θk)<br />

f ⎝sin<br />

φj sin w(θk) ⎠ sin w(θk) w<br />

k=1 j=1 cos w(θk)<br />

′ (θk). (4.27)<br />

=: ˆ Qh(f)<br />

Sei nun f singulär im Punkt P ∈ S2 . Analog zum Verfahren von Atkinson bestimmen<br />

wir eine Householder-Matrix H = I −2 uuT<br />

uT u , die einen Pol von S2 auf<br />

die Singularität P abbildet, da das Verfahren der sigmoidalen <strong>Transformationen</strong><br />

für die Approximation von Integralen von Funktionen mit (integrierbaren)<br />

Singularitäten an den beiden Endpunkten des Intervalls [0, π] konstruiert worden<br />

ist. Da die Funktionaldeterminante einer linearen orthogonalen Abbildung<br />

1 ist, erhalten wir analog zu (3.6) mit der Definition<br />

⎛ ⎞ ⎛<br />

⎞<br />

λk,j cos φj sin w(θk)<br />

⎝µk,j⎠<br />

:= ⎝sin<br />

φj sin w(θk) ⎠<br />

cos w(θk)<br />

νk,j<br />

die <strong>Quadratur</strong>formel<br />

IS2(f) =<br />

⎛ ⎛<br />

⎞⎞<br />

π 2π cos φ sin w(θ)<br />

f ⎝H ⎝sin<br />

φ sin w(θ) ⎠⎠<br />

sin w(θ) w<br />

0 0<br />

cos w(θ)<br />

′ (θ) dφ dθ<br />

≈ h 2<br />

⎛⎛<br />

⎞ ⎡<br />

n−1<br />

2n λk,j<br />

f ⎝⎝µk,j⎠<br />

− u ⎣ 2uT<br />

uT ⎛ ⎞⎤⎞<br />

λk,j<br />

⎝µk,j⎠⎦⎠<br />

sin w(θk) w<br />

u<br />

′ (θk).<br />

k=1 j=1<br />

νk,j<br />

νk,j<br />

(4.28)<br />

Wir wollen nun einen Zusammenhang zwischen dem Verfahren von Atkinson<br />

<strong>und</strong> dem Verfahren der sigmoidalen <strong>Transformationen</strong> aufzeigen. Dazu benötigen<br />

wir zunächst das folgende<br />

Lemma 4.10. Sei q ≥ 1, i ∈ N ∪ {0}. Dann gilt für die i-te Ableitung von<br />

sinq−1 θ<br />

<br />

<br />

i<br />

<br />

q−1 (i)<br />

sin θ = q − k cos i θ sin q−i−1 θ + ri,q (θ) sin q−i+1 θ (4.29)<br />

k=1<br />

mit einer unendlich oft differenzierbaren Funktion ri,q (θ).


4.3. Anwendung auf ein Integral <strong>über</strong> S 2 35<br />

Beweis. Durch vollständige Induktion nach i. Für i = 0, 1 stimmt die Behauptung<br />

offensichtlich, wenn wir r0,q (θ) = r1,q (θ) = 0 wählen.<br />

Angenommen, die Behauptung wurde bereits für ein i ∈ N gezeigt. Durch<br />

Ableiten von (4.29) erhalten wir<br />

<br />

<br />

i<br />

<br />

q−1 (i+1)<br />

sin θ = −i q − k cos i−1 θ sin q−i θ<br />

Mit<br />

ri+1,q (θ) :=<br />

=<br />

k=1<br />

<br />

i<br />

<br />

+ (q − i − 1) q − k<br />

k=1<br />

cos i+1 θ sin q−i−2 θ<br />

+ ∂ri,q (θ)<br />

sin<br />

∂θ<br />

q−i+1 θ<br />

+ (q − i + 1) ri,q (θ) cos θ sin q−i θ<br />

<br />

i+1<br />

q − k cos i+1 θ sin q−i−2 θ<br />

k=1<br />

<br />

i<br />

<br />

+ − i q − k cos<br />

k=1<br />

i−1 θ + ∂ri,q (θ)<br />

∂θ<br />

<br />

+ (q − i + 1) ri,q (θ) cos θ<br />

<br />

i<br />

<br />

− i q − k cos<br />

k=1<br />

i−1 θ + ∂ri,q (θ)<br />

∂θ<br />

<br />

+ (q − i + 1) ri,q (θ) cos θ<br />

sin q−i θ.<br />

sin θ<br />

sin θ<br />

folgt die Behauptung, da ri+1,q (θ) eine Summe von Produkten von unendlich<br />

oft differenzierbaren Funktionen ist. <br />

Satz 4.11. Die Funktion<br />

w : [0, π] −→ [0, π], w(θ) = arccos<br />

cos θ<br />

√ cos 2 θ + sin 2q θ<br />

ist eine sigmoidale Transformation. Für ihre Ableitungen gilt<br />

sowie<br />

w (k) (0) = w (k) (π) = 0, k = 1, . . . , q − 1,<br />

w (q) (0) = 0 <strong>und</strong> w (q) (π) = 0.


36 Kapitel 4. Das Verfahren der sigmoidalen <strong>Transformationen</strong><br />

Beweis. Es gilt w(0) = 0, <strong>und</strong> aus sin (π −t) = sin t, cos (π −t) = − cos t <strong>und</strong><br />

arccos (−t) = π − arccos t, t ∈ [−1, 1], folgt, daß w die Symmetrieeigenschaft<br />

(4.2) erfüllt.<br />

Die Ableitung von w berechnet sich zu<br />

w ′ (θ) =<br />

sin θ √ cos2 θ + sin2q θ + cos θ cos θ(q sin2q−1 − sin θ)<br />

√<br />

cos2 θ+sin2q θ<br />

<br />

1 −<br />

cos2 θ<br />

cos2 θ+sin2q <br />

cos2 2q θ + sin θ θ<br />

= sin θ(cos2 θ + sin2q θ) + cos2 θ(q sin2q−1 − sin θ)<br />

<br />

cos 1 −<br />

2 θ<br />

cos2 θ+sin2q 3<br />

cos2 2q 2<br />

θ + sin θ θ<br />

=<br />

=<br />

sin2q+1 θ + q sin2q−1 θ cos2 θ<br />

<br />

sin2q θ<br />

cos2 θ+sin2q θ<br />

cos 2 θ + sin 2q θ 3<br />

2<br />

sin 2q−1 θ sin 2 θ + q cos 2 θ <br />

sinq √ θ<br />

cos2 θ+sin2q θ<br />

cos 2 θ + sin 2q θ 3<br />

2<br />

= sin q−1 θ sin2 θ + q cos2 θ<br />

cos2 θ + sin2q . (4.30)<br />

θ<br />

Aus (4.30) erkennen wir, daß w ′ (0) = w ′ (π) = 0 gilt <strong>und</strong> w ′ zudem positiv<br />

in (0, π) ist. Also ist w streng monoton steigend in [0, π]. Aus (4.30) folgt<br />

weiterhin, daß w ′ als Produkt von Summen von unendlich oft stetig differenzierbaren<br />

Funktionen ebenfalls unendlich oft stetig differenzierbar in [0, π] ist,<br />

da beim weiteren Differenzieren durch das Anwenden der Quotientenregel nur<br />

Potenzen des Nenners von (4.30) im Nenner auftreten, die auf [0, π] stets von 0<br />

verschieden sind. Somit erfüllt w alle Voraussetzungen der Definition 4.1 <strong>und</strong><br />

ist damit eine sigmoidale Transformation.<br />

Nun zeigen wir den zweiten Teil der Behauptung. Wir differenzieren (4.30)<br />

mit Hilfe der Leibniz’schen Regel <strong>und</strong> erhalten<br />

w (1+k) (θ) =<br />

k<br />

i=0<br />

<br />

k sin q−1 (i)<br />

θ<br />

i<br />

Für i = 0, . . . , q − 2 ist q − i + 1 > q − i − 1 ≥ 1, also<br />

2 2 sin θ + q cos θ<br />

sin2q θ + cos2 (k−i)<br />

. (4.31)<br />

θ<br />

sin q−i−1 (0) = sin q−i−1 (π) = sin q−i+1 (0) = sin q−i+1 (π) = 0,<br />

<strong>und</strong> damit nach Lemma 4.10<br />

sin q−1 θ (i) θ=0,π<br />

= 0, i = 0, . . . , q − 2. (4.32)


4.3. Anwendung auf ein Integral <strong>über</strong> S 2 37<br />

Nach (4.31) gilt daher<br />

w (1+k) (0) = w (1+k) (π) = 0, k = 0, . . . , q − 2.<br />

Für i = q − 1 ist sin q−i+1 (0) = sin q−i+1 (π) = 0, sin q−i−1 (0) = sin q−i−1 (π) = 1<br />

<strong>und</strong> cos i (0) = 1, cos i (π) = (−1) i <strong>und</strong> damit wiederum nach Lemma 4.10<br />

sowie<br />

sin q−1 θ (q−1) θ=0<br />

sin q−1 θ (q−1) θ=π<br />

=<br />

q−1 <br />

q − k<br />

k=1<br />

= (q − 1)! (4.33)<br />

= 0<br />

= (−1) q−1<br />

q−1 <br />

q − k<br />

k=1<br />

= (−1) q−1 (q − 1)! (4.34)<br />

= 0.<br />

Aus den Gleichungen (4.31), (4.32), (4.33) <strong>und</strong> (4.34) erhalten wir<br />

w (q) (0) =<br />

<br />

q − 1<br />

(q − 1)!<br />

q − 1<br />

<strong>und</strong><br />

w (q) (π) =<br />

= (q − 1)!<br />

= 0<br />

<br />

q − 1<br />

(−1)<br />

q − 1<br />

q−1 (q − 1)!<br />

= (−1) q−1 (q − 1)!<br />

= 0.<br />

Damit ist die Behauptung bewiesen. <br />

Satz 4.12. Das Verfahren der sigmoidalen <strong>Transformationen</strong> mit der Transformation<br />

aus Satz 4.11 führt für die Berechnung des Integrals<br />

<br />

f(Q) dS(Q)<br />

S 2<br />

zur gleichen <strong>Quadratur</strong>formel wie das Verfahren von Atkinson, sofern in beiden<br />

Verfahren die Schrittweite h <strong>und</strong> die Stützstellen φj <strong>und</strong> θk gleich gewählt<br />

werden.


38 Kapitel 4. Das Verfahren der sigmoidalen <strong>Transformationen</strong><br />

Beweis. Wegen sin(arccos(x)) = 1 − cos 2 (arccos(x)) = √ 1 − x 2 ist<br />

Aus (4.30) <strong>und</strong> (4.35) folgt<br />

sin w(θ) w ′ (θ) =<br />

sin w(θ) =<br />

=<br />

=<br />

<br />

1 −<br />

<br />

sin2q θ<br />

cos 2 θ<br />

cos 2 θ + sin 2q θ<br />

cos2 θ + sin2q θ<br />

sinq θ<br />

√ . (4.35)<br />

cos2 2q θ + sin θ<br />

sinq θ<br />

√ ·<br />

cos2 2q θ + sin θ sinq−1 θ sin2 θ + q cos2 θ <br />

cos2 θ + sin2q θ<br />

= sin2q−1 θ sin2 θ + q cos2 θ <br />

3 . (4.36)<br />

cos2 2q 2<br />

θ + sin θ<br />

Einsetzen von (4.35) <strong>und</strong> (4.36) in (4.26) liefert (3.2), das Bestimmen der<br />

Householder-Matrix H <strong>und</strong> die anschließende Anwendung der <strong>Quadratur</strong>formeln<br />

verläuft bei beiden Verfahren gleich. <br />

Folgerung 4.13. Nach Satz 4.11 gelten die Abschätzungen der Sätze 4.7 <strong>und</strong><br />

4.9 mit p = q insbesondere für die Transformation aus Satz 4.11, die nach<br />

Satz 4.12 zum Verfahren von Atkinson führt.<br />

Wir haben bisher eine Fehlerabschätzung für die Approximation eines Integrals<br />

<strong>über</strong> dem Intervall [0, π] mit dem Verfahren der sigmoidalen <strong>Transformationen</strong><br />

gewonnen <strong>und</strong> gezeigt, daß diese Abschätzung auf die spezielle sigmoidale<br />

Transformation aus Satz 4.11 angewendet werden kann. Diese Abschätzung<br />

wollen wir nutzen, um eine Aussage <strong>über</strong> den Fehler bei der Approximation<br />

eines Integrals <strong>über</strong> die Kugeloberfläche S 2 mit Hilfe des Verfahrens der<br />

sigmoidalen <strong>Transformationen</strong> zu machen.<br />

Im Folgenden werden wir aus Gründen der Übersichtlichkeit für die Darstellung<br />

der Funktion f in Kugelkoordinaten<br />

⎛ ⎞<br />

cos φ sin θ<br />

f ⎝sin<br />

φ sin θ⎠<br />

=: F (φ, θ), 0 ≤ φ < 2π, 0 ≤ θ ≤ π (4.37)<br />

cos θ<br />

schreiben. Wir werden in den folgenden Beweisen mehrfach ausnutzen, daß<br />

für eine sigmoidale Transformation<br />

π<br />

π<br />

f(x) dx = f(w(t)) w ′ (t) dt<br />

0<br />

0


4.3. Anwendung auf ein Integral <strong>über</strong> S 2 39<br />

gilt, ohne diese Tatsache jedes Mal erneut zu erwähnen.<br />

Lemma 4.14. Sei p ∈ N <strong>und</strong> w eine sigmoidale Transformation, deren Ableitungen<br />

(4.7) <strong>und</strong> (4.8) erfüllen. Sei s ∈ N, f : S 2 −→ R <strong>und</strong> F definiert wie<br />

in (4.37) (2s)-mal stetig differenzierbar auf [0, 2π] × (0, π). Weiterhin gelte<br />

sup<br />

0


40 Kapitel 4. Das Verfahren der sigmoidalen <strong>Transformationen</strong><br />

Lemma 4.15. Sei s ∈ N, f : S 2 −→ R <strong>und</strong> F definiert wie in (4.37) (2s)-mal<br />

stetig differenzierbar auf [0, 2π] × (0, π). Sei 0 < α ≤ 1 <strong>und</strong><br />

<br />

<br />

<br />

∂<br />

<br />

j<br />

<br />

<br />

[F (φ, ·) sin ·] <br />

∂φj 0,α<br />

≤ C(s, α), j = 0, . . . , 2s, (4.39)<br />

für alle φ ∈ [0, 2π] <strong>und</strong> θ ∈ (0, π), wobei C(s, α) unabhängig von φ <strong>und</strong> θ sei.<br />

Dann ist die Funktion<br />

π<br />

G(φ) := F (φ, θ) sin θ dθ, φ ∈ [0, 2π],<br />

(2s-1)-mal stetig differenzierbar <strong>und</strong> G (2s) ∈ L[0, 2π].<br />

0<br />

Beweis. Sei j ∈ {0, . . . , 2s}. Nach der Voraussetzung an die Differenzierbarkeit<br />

von F ist F für jedes feste θ ∈ (0, π) (2s)-mal partiell nach φ differenzierbar,<br />

<strong>und</strong> mit (4.39) folgt<br />

<br />

<br />

<br />

∂<br />

<br />

j<br />

<br />

<br />

[F (φ, θ) sin θ] <br />

∂φj ≤ C(s, α) [θ(π − θ)]α−1 =: g(θ)<br />

für alle φ ∈ [0, 2π] <strong>und</strong> alle θ ∈ (0, π). Wegen α > 0 ist g ∈ L[0, π]. Nach<br />

Heuser [7, Satz 128.2] gilt dann, daß G auf [0, 2π] (2s)-mal differenzierbar ist.<br />

Damit ist G insbesondere (2s-1)-mal stetig differenzierbar auf [0, 2π], <strong>und</strong> es<br />

gilt G (2s) ∈ L[0, 2π]. <br />

Nun können wir eine Aussage <strong>über</strong> den Fehler machen, der auftritt, wenn das<br />

Integral <br />

S 2<br />

f(Q) dS(Q)<br />

mit Hilfe des Verfahrens der sigmoidalen <strong>Transformationen</strong> approximiert wird:<br />

Satz 4.16. Sei p ∈ N <strong>und</strong> w eine sigmoidale Transformation, deren Ableitungen<br />

(4.7) <strong>und</strong> (4.8) erfüllen. Sei s ∈ N, f : S 2 −→ R <strong>und</strong> F definiert wie in<br />

(4.37) (2s)-mal stetig differenzierbar auf [0, 2π] × (0, π). Weiterhin gelte<br />

sup<br />

0


4.3. Anwendung auf ein Integral <strong>über</strong> S 2 41<br />

ist. Außerdem sei<br />

<br />

<br />

<br />

∂<br />

<br />

j<br />

<br />

<br />

[F (φ, ·) sin ·] <br />

∂φj 0,α<br />

≤ C(s, α), j = 0, . . . , 2s<br />

für alle φ ∈ [0, 2π] <strong>und</strong> θ ∈ (0, π), wobei C(s, α) unabhängig von φ <strong>und</strong> θ sei.<br />

Dann gilt mit der Schrittweite<br />

h = π<br />

n<br />

<strong>und</strong> den Stützstellen<br />

für die Approximation des Integrals<br />

<br />

IS2(f) =<br />

S 2<br />

durch die <strong>Quadratur</strong>formel<br />

ˆQh(f) = h 2<br />

n−1<br />

aus (4.27) für den Fehler<br />

die Abschätzung<br />

|En(f)| ≤ C<br />

n 2s<br />

2π<br />

mit einer Konstanten C ≥ 0.<br />

Beweis. Es ist<br />

|En(f)| =<br />

0<br />

φj = jh, j = 1, . . . , 2n,<br />

θk = kh, k = 1, . . . , n − 1,<br />

π<br />

f(Q) dS(Q) =<br />

0<br />

2n<br />

k=1 j=1<br />

0<br />

2π<br />

0<br />

F (φ, θ) sin θ dφ dθ<br />

F (φj, w(θk)) sin w(θk) w ′ (θk)<br />

En(f) = I S 2(f) − ˆ Qh(f)<br />

π <br />

<br />

∂<br />

<br />

2s<br />

<br />

<br />

[F (φ, θ) sin θ] <br />

∂φ2s dθ dφ + max<br />

j=1,...,2n F (φj,<br />

<br />

·)2s,α <br />

π<br />

<br />

<br />

0<br />

−<br />

2π<br />

0<br />

π<br />

n<br />

F (φ, w(θ)) sin w(θ) w ′ (θ) dφ dθ<br />

2n<br />

F (φj, w(θk)) sin w(θk) w ′ <br />

<br />

<br />

(θk) <br />

.<br />

2 n−1<br />

<br />

k=1 j=1


42 Kapitel 4. Das Verfahren der sigmoidalen <strong>Transformationen</strong><br />

Durch eine Nullergänzung erhalten wir<br />

|En(f)| =<br />

<br />

π 2π<br />

<br />

F (φ, w(θ)) sin w(θ) w<br />

<br />

′ (θ) dφ dθ<br />

=<br />

Wir definieren<br />

0 0<br />

π<br />

−<br />

0<br />

0<br />

π<br />

sin w(θ) w ′ (θ) π<br />

n<br />

2n<br />

j=1<br />

2n<br />

F (φj, w(θ)) dθ<br />

+ sin w(θ) w<br />

0<br />

′ (θ) π<br />

F (φj, w(θ)) dθ<br />

n<br />

j=1<br />

<br />

π<br />

2 n−1<br />

2n<br />

−<br />

F (φj, w(θk)) sin w(θk) w<br />

n<br />

k=1 j=1<br />

′ <br />

<br />

<br />

(θk) <br />

<br />

<br />

<br />

2π π<br />

<br />

<br />

F (φ, θ) sin θ dθ dφ −<br />

<br />

π<br />

2n<br />

π<br />

<br />

F (φj, θ) sin θ dθ<br />

n<br />

+ π<br />

n<br />

0<br />

2n<br />

π<br />

j=1<br />

0<br />

j=1<br />

F (φj, w(θ)) sin w(θ) w ′ (θ) dθ<br />

− π n−1<br />

F (φj, w(θk)) sin w(θk) w<br />

n<br />

′ <br />

<br />

(θk) .<br />

k=1<br />

G(φ) :=<br />

π<br />

0<br />

F (φ, θ) sin θ dθ<br />

<strong>und</strong> erhalten damit<br />

|En(f)| ≤<br />

<br />

<br />

2π<br />

<br />

G(φ) dφ −<br />

0<br />

π<br />

<br />

2n <br />

<br />

G(φj) <br />

n <br />

j=1<br />

+ π<br />

<br />

2n π<br />

<br />

F (φj, w(θ)) sin w(θ) w<br />

n <br />

j=1 0<br />

′ (θ) dθ<br />

− π n−1<br />

F (φj, w(θk)) sin w(θk) w<br />

n<br />

′ <br />

<br />

<br />

(θk) <br />

.<br />

k=1<br />

F ist in der Darstellung (4.37) 2π-periodisch in φ, <strong>und</strong> damit ist auch G<br />

2π-periodisch in φ. Nach Lemma 4.15 ist G (2s-1)-mal stetig differenzierbar<br />

auf [0, 2π] <strong>und</strong> G (2s) ∈ L[0, 2π], somit können wir den ersten Betrag nach<br />

Bemerkung 2.5 mit Hilfe von Satz 2.4 abschätzen (mit dem Intervall [0, 2π]<br />

anstatt [0, π], der Beweis erfolgt analog). Den zweiten Betrag können wir mit<br />

Hilfe von Lemma 4.14 abschätzen <strong>und</strong> erhalten<br />

0


4.3. Anwendung auf ein Integral <strong>über</strong> S 2 43<br />

|En(f)| ≤ C1<br />

n2s 2π <br />

(2s)<br />

G (φ) <br />

π<br />

dφ +<br />

0<br />

n<br />

≤ C<br />

n 2s<br />

2π π<br />

0<br />

0<br />

2n<br />

C2<br />

n<br />

j=1<br />

2s F (φj, ·)2s,α <br />

<br />

<br />

∂<br />

<br />

2s<br />

<br />

<br />

[F (φ, θ) sin θ] <br />

∂φ2s dθ dφ + max<br />

j=1,...,2n F (φj,<br />

<br />

·)2s,α mit einer Konstanten C ≥ 0. <br />

Bemerkung 4.17. Es ist<br />

<br />

1<br />

En(f) = O<br />

n2s <br />

,<br />

unabhängig von der verwendeten sigmoidalen Transformation (unter der Voraussetzung,<br />

daß ihre Ableitungen die Voraussetzungen von Satz 4.16 erfüllen).<br />

Somit gilt die Abschätzung aus Satz 4.16 insbesondere für die sigmoidale<br />

Transformation aus Satz 4.11 <strong>und</strong> damit nach Satz 4.12 auch für das Verfahren<br />

von Atkinson.<br />

Wir wollen nun anstatt des allgemeinen Falls ein Integral der Form<br />

<br />

f(Q)<br />

|P − Q| dS(Q), P ∈ S2 , (4.40)<br />

S 2<br />

mit einer glatten Funktion f betrachten. Dies ist der Fall, für den die Fehlerabschätzung<br />

aus Satz 3.1 für das Verfahren von Atkinson gilt. Wir benötigen<br />

dazu das folgende<br />

Lemma 4.18. Sei p ∈ N <strong>und</strong> w eine sigmoidale Transformation, deren Ableitungen<br />

(4.7) <strong>und</strong> (4.8) erfüllen. Sei s ∈ N, f : S 2 −→ R <strong>und</strong> F definiert<br />

wie in (4.37) (2s)-mal stetig differenzierbar auf [0, 2π] × [0, π] mit<br />

2s ≤ p + 1.<br />

Dann gilt für jedes φ ∈ [0, 2π] mit θk = πk , k = 1, . . . , n − 1, die Abschätzung<br />

n<br />

<br />

<br />

π<br />

<br />

F (φ, w(θ)) cos<br />

<br />

w(θ)<br />

2 w′ (θ) dθ − π<br />

n−1 <br />

F (φ, w(θk)) cos<br />

n<br />

w(θk)<br />

2 w′ <br />

<br />

<br />

(θk) <br />

<br />

0<br />

≤ C<br />

n 2s<br />

<br />

<br />

F (φ, ·) cos ·<br />

<br />

<br />

<br />

2 ∞,2s<br />

k=1<br />

mit einer Konstanten C ≥ 0, die nur von w <strong>und</strong> s abhängt.


44 Kapitel 4. Das Verfahren der sigmoidalen <strong>Transformationen</strong><br />

Beweis. Analog zum Beweis von Lemma 4.14 unter Verwendung von Satz 4.9<br />

anstatt Satz 4.7. Eine zu (4.38) analoge Voraussetzung ist in diesem Fall nicht<br />

nötig, da F als (2s)-mal stetig differenzierbar auf [0, 2π] × [0, π] vorausgesetzt<br />

ist <strong>und</strong> somit die ersten 2s partiellen Ableitungen von F auf [0, 2π] × [0, π]<br />

beschränkt sind. <br />

Nun können wir einen Satz ähnlich Satz 4.16 beweisen. Wegen der speziellen<br />

Form des Integranden in (4.40) können wir jedoch 2s ≤ p + 1 anstatt 2s < αp<br />

mit 0 < α ≤ 1 zulassen.<br />

Satz 4.19. Sei p ∈ N <strong>und</strong> w eine sigmoidale Transformation, deren Ableitungen<br />

(4.7) <strong>und</strong> (4.8) erfüllen. Sei s ∈ N, f : S 2 −→ R <strong>und</strong> F definiert wie in<br />

(4.37) (2s)-mal stetig differenzierbar auf [0, 2π] × [0, π] mit<br />

Dann gilt mit der Schrittweite<br />

<strong>und</strong> den Stützstellen<br />

2s ≤ p + 1.<br />

h = π<br />

n<br />

φj = jh, j = 1, . . . , 2n,<br />

θk = kh, k = 1, . . . , n − 1,<br />

für die Approximation des Integrals<br />

<br />

I(f) =<br />

f(Q)<br />

|P − Q| dS(Q), P ∈ S2 , (4.41)<br />

durch die <strong>Quadratur</strong>formel<br />

für den Fehler<br />

˜Qh(f) :=<br />

n−1<br />

S 2<br />

2n<br />

k=1 j=1<br />

die Abschätzung<br />

|En(f)| ≤ C<br />

n2s 2π<br />

mit einer Konstanten C ≥ 0.<br />

F (φj, w(θk)) cos w(θk)<br />

2 w′ (θk) (4.42)<br />

En(f) = I S 2(f) − ˜ Qh(f)<br />

0<br />

π<br />

0<br />

<br />

<br />

<br />

∂<br />

<br />

2s<br />

∂φ2s + max<br />

j=1,...,2n F (φj, ·) ∞,2s<br />

<br />

F (φ, θ) cos θ<br />

<br />

<br />

dθ dφ<br />

2


4.3. Anwendung auf ein Integral <strong>über</strong> S 2 45<br />

Beweis. Es sei ohne Beschränkung der Allgemeinheit P = (0, 0, 1) T (wäre das<br />

nicht so, könnten wir – wie in Kapitel 3 bereits besprochen – eine Householder-<br />

Matrix H bestimmen, so daß HP = (0, 0, 1) T gilt). Dann ist<br />

I(f) =<br />

=<br />

π 2π<br />

0 0<br />

π 2π<br />

0<br />

0<br />

F (φ, θ) sin θ<br />

cos 2 φ sin 2 θ + sin 2 φ sin 2 θ + (1 − cos θ) 2<br />

F (φ, θ) sin θ<br />

√ 2 − 2 cos θ dφ dθ.<br />

Mit der Formel von Moivre für Winkelvielfache<br />

<strong>und</strong> der Halbwinkelformel<br />

sin x<br />

2 =<br />

erhalten wir für x ∈ [0, π]<br />

<strong>und</strong> damit<br />

I(f) =<br />

=<br />

sin 2x = 2 sin x cos x<br />

<br />

1<br />

(1 − cos x), x ∈ [0, π],<br />

2<br />

sin x = 2 sin x<br />

2<br />

π 2π<br />

0 0<br />

π 2π<br />

0<br />

0<br />

cos x<br />

2<br />

= √ 2 − 2 cos x cos x<br />

2<br />

F (φ, θ) cos θ<br />

2<br />

dφ dθ<br />

F (φ, w(θ)) cos w(θ)<br />

2 w′ (θ) dφ dθ.<br />

dφ dθ<br />

(4.43)<br />

Analog zum Beweis von Satz 4.16 erhalten wir für die Approximation dieses<br />

Integrals mit der <strong>Quadratur</strong>formel ˜ Qh aus (4.42) mit<br />

die Abschätzung<br />

|En(f)| ≤<br />

H(φ) :=<br />

π<br />

0<br />

F (φ, θ) cos θ<br />

2<br />

k=1<br />

dθ, φ ∈ [0, 2π],<br />

<br />

<br />

2π<br />

<br />

H(φ) dφ −<br />

0<br />

π<br />

<br />

2n <br />

<br />

H(φj) <br />

n <br />

j=1<br />

+ π<br />

<br />

2n π<br />

<br />

F (φj, w(θ)) cos<br />

n <br />

j=1 0<br />

w(θ)<br />

2 w′ (θ) dθ<br />

− π n−1<br />

F (φj, w(θk)) cos<br />

n<br />

w(θk)<br />

2 w′ <br />

<br />

<br />

(θk) <br />

.


46 Kapitel 4. Das Verfahren der sigmoidalen <strong>Transformationen</strong><br />

Da F als (2s)-mal stetig differenzierbar auf [0, 2π]×[0, π] vorausgesetzt wurde,<br />

ist F (φ, θ) cos θ auch (2s)-mal stetig differenzierbar auf [0, 2π] × [0, π]. Nach<br />

2<br />

dem Satz <strong>über</strong> Parameterintegrale ist damit für jedes θ ∈ [0, π] die Funktion<br />

H ebenfalls (2s)-mal stetig differenzierbar auf [0, 2π]. F ist in der Darstellung<br />

(4.37) 2π-periodisch in φ, diese Eigenschaft <strong>über</strong>trägt sich nach Definition auf<br />

die Funktion H. Daher können wir den ersten Betrag mit Hilfe von Satz 2.4<br />

abschätzen. Den zweiten Betrag schätzen wir mit Hilfe von Lemma 4.18 ab<br />

<strong>und</strong> erhalten dadurch die Behauptung. <br />

Bemerkung 4.20. Wird die <strong>Quadratur</strong>formel ˆ Qh aus (4.27) auf ein Integral<br />

der Form (4.41) mit P = (0, 0, 1) T angewendet, so stimmt sie mit der<br />

<strong>Quadratur</strong>formel ˜ Qh aus (4.42) <strong>über</strong>ein. Insbesondere gilt die Fehlerabschätzung<br />

aus Satz 4.19 damit auch für die <strong>Quadratur</strong>formel ˆ Qh <strong>und</strong> daher mit der<br />

Transformation aus Satz 4.11 auch für das Verfahren von Atkinson.<br />

Beweis. Wir definieren<br />

g(Q) := f(Q)<br />

|P − Q|<br />

<strong>und</strong> erhalten in Polarkoordinaten die Darstellung<br />

G(φ, θ) =<br />

Wegen P = (0, 0, 1) T ist<br />

Wir setzen ein <strong>und</strong> erhalten<br />

F (φ, θ)<br />

<br />

(P1 − cos φ sin θ) 2 + (P2 − sin φ sin θ) 2 .<br />

+ (P3 − cos θ) 2<br />

ˆQh(g) = h 2<br />

n−1<br />

G(φ, θ) =<br />

2n<br />

k=1 j=1<br />

n−1 2n<br />

= h 2<br />

<br />

k=1 j=1<br />

Mit (4.43) ergibt sich schließlich<br />

ˆQh(g) = h 2<br />

n−1<br />

k=1 j=1<br />

= ˜ Qh(f).<br />

F (φ, θ)<br />

√ 2 − 2 cos θ .<br />

G(φj, w(θk)) sin w(θk) w ′ (θk)<br />

F (φj, w(θk))<br />

2 − 2 cos w(θk) sin w(θk) w ′ (θk).<br />

2n<br />

F (φj, w(θk)) cos w(θk)<br />

2 w′ (θk)


Kapitel 5<br />

Die Gauß-Trapez-Produktregel<br />

In diesem Kapitel stellen wir kurz die klassische Gauß-Trapez-Produktregel<br />

vor. Es handelt sich dabei um ein Verfahren zur numerischen Integration <strong>über</strong><br />

die Oberfläche S 2 der Einheitskugel im R 3 . Dieses Verfahren besitzt bei der<br />

Integration analytischer Funktionen ein sehr gutes Konvergenzverhalten, ist<br />

allerdings nicht für die Integration von Funktionen mit (integrierbaren) Singularitäten<br />

konstruiert.<br />

Sei n ∈ N. Seien −1 < t1<br />

Legendre-Polynoms<br />

< t2 < · · · < tn < 1 die Nullstellen des n-ten<br />

Pn(x) = 1<br />

2n n!<br />

dn (x2 − 1) n<br />

dxn <strong>und</strong><br />

αk = 2(1 − t2k )<br />

, k = 1, . . . , n,<br />

[n Pn−1(tk)]<br />

2<br />

die Gewichte der Gauß-Legendre-<strong>Quadratur</strong>formel. Mit<br />

wählen wir die Stützstellen<br />

⎛<br />

xjk = ⎝<br />

φj = πj<br />

, j = 0, . . . , 2n − 1,<br />

n<br />

θk = arccos(tk), k = 1, . . . , n,<br />

cos φj sin θk<br />

sin φj sin θk<br />

cos θk<br />

⎞<br />

⎠ , j = 0, . . . , 2n − 1, k = 1, . . . , n.<br />

Für die numerische Integration <strong>über</strong> die Oberfläche S 2 der Einheitskugel im<br />

R 3 wird damit für n ∈ N die Gauß-Trapez-Produktregel durch<br />

definiert.<br />

Gn(f) := π<br />

2n−1 <br />

n<br />

j=0<br />

n<br />

αkf(xjk) (5.1)<br />

k=1


48 Kapitel 5. Die Gauß-Trapez-Produktregel<br />

Satz 5.1. Ist f eine analytische Funktion, so konvergiert die Gauß-Trapez-<br />

Produktregel exponentiell, das heißt es existieren Konstanten C ≥ 0 <strong>und</strong> α > 0,<br />

so daß gilt: <br />

<br />

<br />

f(Q) dS(Q) − Gn(f) <br />

≤ C e−nα .<br />

Beweis. Siehe Wienert [13, Seite 30 ff.].<br />

S 2<br />

Zur numerischen Berechnung der Nullstellen der Legendre-Polynome <strong>und</strong> der<br />

Gewichte der Gauß-Legendre-<strong>Quadratur</strong>formel verweisen wir auf Werner [12,<br />

Seite 241] <strong>und</strong> Stoer [9, Seite 141 f.]. Danach sind die Nullstellen des n-ten<br />

Legendre-Polynoms gerade die Eigenwerte der symmetrischen Tridiagonalmatrix<br />

⎛<br />

⎞<br />

0 τ1<br />

⎜ .<br />

⎜τ1<br />

0 .. ⎟<br />

J = ⎜<br />

⎝ . .. . ⎟<br />

(5.2)<br />

.. τn−1<br />

⎠<br />

0<br />

mit<br />

τk :=<br />

τn−1<br />

k<br />

√ 4k 2 − 1 , k = 1, . . . , n − 1,<br />

<strong>und</strong> für die Gewichte der Gauß-Legendre-<strong>Quadratur</strong>formel gilt<br />

<br />

αk =<br />

2 , k = 1, . . . , n, (5.3)<br />

wobei u (k) :=<br />

der Normierung<br />

<br />

u (k)<br />

1 , . . . , u (k)<br />

T n<br />

u (k)<br />

1<br />

der Eigenvektor zum Eigenwert tk von J mit<br />

u (k) T u (k) = 2 (5.4)<br />

ist. Sind v (1) , . . . , v (k) die Eigenvektoren von J <strong>und</strong> setzen wir<br />

so ist<br />

u (k) =<br />

u (k) T u (k) = 2<br />

√<br />

(k) 2 v<br />

,<br />

v (k) 2<br />

v (k) T v (k)<br />

v (k) 2<br />

2<br />

= 2;<br />

die Vektoren u (k) erfüllen also (5.4). Damit berechnen sich die Gewichte αk<br />

der <strong>Quadratur</strong>formel Gn nach (5.3) durch<br />

<br />

2 2 v<br />

αk = =<br />

(k)<br />

2 1<br />

u (k)<br />

1<br />

aus den Eigenvektoren v (k) von J.<br />

v (k) 2<br />

2


Bemerkung 5.2. Die Idee, die Nullstellen tk des n-ten Legendre-Polynoms<br />

Pn <strong>und</strong> die Gewichte αk der Gauß-Legendre-<strong>Quadratur</strong>formel <strong>über</strong> die Eigenwerte<br />

<strong>und</strong> Eigenvektoren der Matrix J zu bestimmen, hat einen großen Nachteil:<br />

Je größer die Anzahl n der Stützstellen gewählt wird, desto größer werden<br />

sowohl der Aufwand zum Berechnen der Eigenwerte <strong>und</strong> -vektoren, als auch<br />

der dabei auftretende Fehler. Dieses Verfahren ist daher nur für nicht allzu<br />

große n geeignet – da aber die benötigte Anzahl der Stützstellen wegen der exponentiellen<br />

Konvergenz der Gauß-Legendre-<strong>Quadratur</strong>formel für analytische<br />

Funktionen in der Regel recht klein ist, fällt dieser Nachteil nicht so sehr ins<br />

Gewicht.<br />

Wir merken an dieser Stelle an, daß es noch weitere Möglichkeiten gibt, die<br />

Nullstellen der Legendre-Polynome numerisch zu bestimmen, zum Beispiel das<br />

Newtonverfahren – wir verweisen dazu auf Davis <strong>und</strong> Rabinowitz [3].<br />

49


50 Kapitel 5. Die Gauß-Trapez-Produktregel


Kapitel 6<br />

Numerische Beispiele<br />

Nachdem wir in den vorherigen Kapiteln das Verfahren von Atkinson <strong>und</strong><br />

das Verfahren der sigmoidalen <strong>Transformationen</strong> ausführlich besprochen <strong>und</strong><br />

auch die Gauß-Trapez-Produktregel eingeführt haben, vergleichen wir diese<br />

Verfahren nun an zwei ausgewählten numerischen Beispielen miteinander. Dabei<br />

nutzen wir das Verfahren von Atkinson als Sonderfall des Verfahrens der<br />

sigmoidalen <strong>Transformationen</strong> mit der in Satz 4.11 vorgestellten Substitution<br />

w <strong>und</strong> den Parametern q = 2, 3, 4.<br />

Weitere sigmoidale <strong>Transformationen</strong>, die wir verwenden werden, sind<br />

wp : [0, π] −→ [0, π], wp(t) =<br />

π tp tp , (6.1)<br />

+ (π − t) p<br />

ähnlich den von Kress [8] vorgestellten Substitutionen wp : [0, 2π] −→ [0, 1].<br />

Als Parameter werden wir auch hier p = 2, 3, 4 wählen.<br />

Alle Berechnungen wurden auf Rechnern des Instituts für Numerische <strong>und</strong><br />

Angewandte Mathematik mit Intel Pentium IV Prozessoren <strong>und</strong> dem Betriebssystem<br />

SuSE Linux 8.2 durchgeführt. Zum Einsatz kam das Programm<br />

Matlab in der Version 6.1.0.450 (R12.1), die Gleitkommagenauigkeit betrug<br />

dabei ungefähr 2 · 10 −16 . Die Implementierungen des Verfahrens der sigmoidalen<br />

<strong>Transformationen</strong> <strong>und</strong> der Gauß-Trapez-Produktregel, die wir verwendet<br />

haben, sind in Anhang A angegeben.<br />

Satz 6.1. Die Funktionen wp aus (6.1) sind sigmoidale <strong>Transformationen</strong>.<br />

Für ihre Ableitungen gilt<br />

sowie<br />

w (k)<br />

p (0) = w (k)<br />

p (π) = 0, k = 0, . . . , p − 1,<br />

w (p)<br />

p (0) = 0 <strong>und</strong> w (p)<br />

p (π) = 0.


52 Kapitel 6. Numerische Beispiele<br />

Beweis. Nach (6.1) ist wp als Produkt von unendlich oft stetig differenzierbaren<br />

Funktionen selbst wieder unendlich oft stetig differenzierbar in [0, π],<br />

denn beim weiteren Differenzieren mit Hilfe der Quotientenregel tauchen nur<br />

Potenzen des Nenners von (6.1) im Nenner auf – diese Potenzen sind in [0, π]<br />

stets von 0 verschiedenen. Es ist wp(0) = 0 <strong>und</strong><br />

π − wp(π − t) = π −<br />

π (π − t)p<br />

t p + (π − t) p<br />

= π tp + π (π − t) p − π (π − t) p<br />

tp + (π − t) p<br />

π t<br />

=<br />

p<br />

tp + (π − t) p<br />

= wp(t).<br />

Somit erfüllen die <strong>Transformationen</strong> wp die Symmetrieeigenschaft (4.2). Die<br />

Ableitungen w ′ p berechnen wir zu<br />

w ′ p(t) = π p tp−1 [t p + (π − t) p ] − t p [p t p−1 − p (π − t) p−1 ]<br />

[t p + (π − t) p ] 2<br />

= p π tp−1 (π − t) p + t p (π − t) p−1<br />

[t p + (π − t) p ] 2<br />

= p π 2 tp−1 (π − t) p−1<br />

[tp + (π − t) p 2 . (6.2)<br />

]<br />

Aus (6.2) erkennen wir, daß w ′ p(0) = w ′ p(π) = 0 gilt. w ′ p ist in (0, π) positiv<br />

<strong>und</strong> daher streng monoton steigend in [0, π]. Somit sind die Funktionen wp in<br />

der Tat sigmoidale <strong>Transformationen</strong>.<br />

Wir zeigen nun den zweiten Teil der Behauptung. Wir wenden auf (6.2) zwei<br />

Mal die Leibniz’sche Formel an <strong>und</strong> erhalten<br />

w (1+k) (t) = p π 2<br />

k<br />

k<br />

<br />

1<br />

i [t i=0<br />

p + (π − t) p ] 2<br />

(k−i)<br />

i<br />

<br />

i tp−1 j<br />

(j) p−1<br />

(π − t) <br />

(i−j)<br />

.<br />

Induktiv berechnen wir<br />

t p−1 (j) =<br />

j=0<br />

<br />

j<br />

<br />

p − l t p−1−j<br />

l=1<br />

(π − t) p−1 (i−j) = (−1) i−j<br />

<br />

<br />

p − l (π − t) p−1−i+j<br />

i−j<br />

l=1


<strong>und</strong> erhalten damit<br />

w (1+k) (t) = p π 2<br />

k<br />

k<br />

<br />

1<br />

i [tp + (π − t) p ] 2<br />

(k−i)<br />

i<br />

<br />

(−1)<br />

j=0<br />

i−j<br />

<br />

i<br />

j<br />

<br />

j i−j<br />

<br />

p − l p − l<br />

l=1<br />

l=1<br />

<br />

i=0<br />

t p−1−j (π − t) p−1−i+j<br />

Für k = 0, . . . , p − 2 ist i ≤ p − 2 <strong>und</strong> 0 ≤ j ≤ p − 2, also<br />

somit gilt<br />

p − 1 − j ≥ p − 1 − (p − 2) = 1<br />

p − 1 − i + j ≥ p − 1 − (p − 2) + 0 = 1,<br />

w (k)<br />

p (0) = w (k)<br />

p (π) = 0, k = 0, . . . , p − 1.<br />

Für k = p − 1 verschwinden für t = 0 (bzw. t = π) alle Summanden bis auf<br />

den Summanden mit i = j = k = p − 1 (bzw. j = 0, i = k = p − 1), <strong>und</strong> wir<br />

erhalten damit<br />

w (p) (0) = p π 2<br />

<br />

p−1 <br />

p − l π p−1<br />

sowie<br />

l=1<br />

= p! π p+1 = 0<br />

w (p) (π) = p π 2 (−1) p−1<br />

<br />

<br />

p − l π p−1<br />

p−1<br />

l=1<br />

= (−1) p−1 p! π p+1 = 0.<br />

Damit ist der Satz bewiesen. <br />

Beispiel 6.2. Zunächst berechnen wir mit allen Verfahren das Integral<br />

<br />

I1 := e x2 +y2 +z2 dS(Q)<br />

=<br />

= e<br />

S2 π 2π<br />

e<br />

0 0<br />

cos2 φ sin2 θ+sin2 φ sin2 θ+cos2 θ<br />

sin θ dφ dθ<br />

π 2π<br />

0<br />

= 4πe.<br />

0<br />

sin θ dφ dθ<br />

.<br />

53


54 Kapitel 6. Numerische Beispiele<br />

Für das Verfahren von Atkinson erwarten wir nach Satz 3.2 eine Konvergenzrate<br />

von 2q für gerades q bzw. von 2q + 1 für ungerades q. Für das Verfahren<br />

der sigmoidalen <strong>Transformationen</strong> haben wir für den Fall eines nichtsingulären<br />

Integranden keine verbesserte Fehlerabschätzung hergeleitet. Es gilt auf<br />

jeden Fall die Fehlerabschätzung aus Satz 4.19, wir erwarten auf Gr<strong>und</strong> der<br />

Regularität des Integranden aber ein besseres Konvergenzverhalten.<br />

In Tabelle 6.1 ist der absolute Fehler bei Approximation des Integrals I1 mit<br />

den verschiedenen in dieser Arbeit vorgestellten <strong>Quadratur</strong>verfahren in Abhängigkeit<br />

von der Anzahl n der Stützstellen aufgeführt. Die Gauß-Trapez-<br />

Produktregel berechnet das Integral bereits mit 2 Stützstellen bis auf die interne<br />

Genauigkeit von Matlab korrekt, auch das Verfahren von Atkinson <strong>und</strong><br />

das Verfahren der sigmoidalen <strong>Transformationen</strong> mit den Parametern q = 4<br />

<strong>und</strong> p = 3, 4 erreichen recht schnell diese Grenze. Bei allen Verfahren außer<br />

dem Verfahren von Atkinson <strong>und</strong> dem Verfahren der sigmoidalen <strong>Transformationen</strong><br />

mit q = p = 2 stagniert ab einer bestimmten Anzahl von Stützstellen<br />

der absolute Fehler oder wächst sogar wieder an. Wir führen das darauf zurück,<br />

daß die interne Rechengenauigkeit von Matlab erreicht wurde <strong>und</strong> der<br />

absolute Fehler auf Gr<strong>und</strong> von R<strong>und</strong>ungsfehlern wieder ansteigt.<br />

In Tabelle 6.2 haben wir die aus den Daten aus Tabelle 6.1 näherungsweise ermittelte<br />

Konvergenzordnung der verwendeten <strong>Quadratur</strong>verfahren aufgeführt.<br />

Ausgehend von der Fehlerabschätzung<br />

erhalten wir aus |En1(f)| ≈ C<br />

n α 1<br />

<strong>und</strong> daraus<br />

|En(f)| ≤ C<br />

n α<br />

<strong>und</strong> |En2(f)| ≈ C<br />

nα 2<br />

α n2<br />

<br />

<br />

<br />

En1(f)<br />

<br />

En2(f)<br />

≈<br />

α ≈<br />

<br />

<br />

ln<br />

n1<br />

En 1 (f)<br />

En2 (f)<br />

ln n2<br />

n1<br />

die Näherung<br />

<br />

<br />

<br />

. (6.3)<br />

Das Verfahren von Atkinson mit dem Parameter q = 2 besitzt wie erwartet<br />

eine Konvergenzordnung von ungefähr 4. Wegen der großen Schwankungen<br />

können wir für q = 3, 4 zunächst keine Aussage <strong>über</strong> die Konvergenzordnung<br />

machen. Ignorieren wir jedoch die Näherungen für 2 Stützstellen, die sehr ungenau<br />

sind, <strong>und</strong> gehen bis zu der Näherung, die noch innerhalb der internen<br />

Genauigkeit von Matlab liegt, so erhalten wir aussagekräftigere Ergebnisse.<br />

Nutzen wir (6.3) mit n1 = 4 <strong>und</strong> n2 = 256, so erhalten wir für q = 3 mit<br />

α ≈ 6.68 in etwa die erwartete Konvergenzordnung 7. Für q = 4 wenden wir


Verfahren von Atkinson Substitutionen wp Gauß-Trapez<br />

n q=2 q=3 q=4 p=2 p=3 p=4<br />

2 7.33 E+00 7.33 E+00 7.33 E+00 1.95 E+01 4.63 E+01 7.32 E+01 0.00 E+00<br />

4 1.16 E+00 1.55 E+00 6.69 E+00 6.28 E-01 7.74 E+00 1.98 E+01 7.11 E-15<br />

8 2.00 E-02 1.43 E-01 4.50 E-01 1.35 E-03 8.13 E-02 1.00 E+00 2.13 E-14<br />

16 8.38 E-04 4.80 E-05 1.06 E-03 8.38 E-05 1.42 E-06 6.41 E-04 7.11 E-15<br />

32 5.28 E-05 3.64 E-07 7.43 E-09 5.33 E-06 3.63 E-09 4.38 E-11 1.42 E-14<br />

64 3.30 E-06 5.69 E-09 1.93 E-11 3.34 E-07 5.79 E-11 9.24 E-14 9.95 E-14<br />

128 2.07 E-07 8.90 E-11 1.42 E-14 2.09 E-08 1.00 E-12 9.24 E-14 1.14 E-13<br />

256 1.29 E-08 1.34 E-12 4.97 E-14 1.31 E-09 2.84 E-14 4.26 E-14 2.13 E-14<br />

512 8.07 E-10 4.19 E-13 4.41 E-13 8.22 E-11 4.48 E-13 4.48 E-13 4.97 E-13<br />

1024 5.11 E-11 6.47 E-13 6.39 E-13 5.76 E-12 6.47 E-13 6.47 E-13 6.11 E-13<br />

2048 8.67 E-13 2.27 E-12 2.26 E-12 1.96 E-12 2.28 E-12 2.27 E-12 2.25 E-12<br />

4096 1.99 E-13 3.91 E-13 4.05 E-13 3.55 E-13 4.05 E-13 3.69 E-13 4.48 E-13<br />

Tabelle 6.1: Absoluter Fehler bei der Anwendung der verschiedenen <strong>Quadratur</strong>verfahren auf<br />

das Integral aus Beispiel 6.2 in Abhängigkeit von der Anzahl n der verwendeten Stützstellen.<br />

55


56 Kapitel 6. Numerische Beispiele<br />

Verfahren von Atkinson Substitutionen wp<br />

n q=2 q=3 q=4 p=2 p=3 p=4<br />

4 2.66 2.24 0.13 4.96 2.58 1.89<br />

8 5.86 3.43 3.90 8.86 6.57 4.30<br />

16 4.57 11.55 8.73 4.01 15.80 10.61<br />

32 3.99 7.04 17.12 3.98 8.62 23.80<br />

64 4.00 6.00 8.59 3.99 5.97 8.89<br />

128 4.00 6.00 10.41 4.00 5.85 —<br />

256 4.00 6.05 — 4.00 5.14 —<br />

512 4.00 — — 3.99 — —<br />

1024 3.98 — — 3.83 — —<br />

2048 5.88 — — 1.56 — —<br />

Tabelle 6.2: Ungefähre Konvergenzordnung bei Anwendung der verschiedenen<br />

<strong>Quadratur</strong>verfahren auf das Integral aus Beispiel 6.2 bei Verdopplung der Stützstellenzahl<br />

von n<br />

2 auf n Stützstellen. Da der Integrand glatt ist, konvergieren die<br />

Verfahren alle recht schnell, so daß in vielen Fällen bei 256 oder sogar noch weniger<br />

Stützstellen die interne Genauigkeit von Matlab erreicht <strong>und</strong> daher keine Konvergenzanalyse<br />

für die Fälle mit mehr Stützstellen möglich ist.<br />

(6.3) mit n1 = 4 <strong>und</strong> n2 = 128 an <strong>und</strong> erhalten mit α ≈ 9.74 einen besseren<br />

Wert als 8, den wir erwartet haben. Das Verfahren der sigmoidalen <strong>Transformationen</strong><br />

mit den <strong>Transformationen</strong> wp aus (6.1) besitzt wie erwartet ein<br />

besseres Konvergenzverhalten, als die Fehlerabschätzung aus Satz 4.19 für den<br />

singulären Fall angibt. Für p = 2 ist die Konvergenzordnung ungefähr 4. Für<br />

p = 3 erhalten wir mit n1 = 4 <strong>und</strong> n2 = 256 eine ungefähre Konvergenzordnung<br />

von α ≈ 7.99, für p = 4 berechnen wir α ≈ 11.90 aus n1 = 4 <strong>und</strong><br />

n2 = 64.<br />

Beispiel 6.3. Als nächstes Beispiel betrachten wir das Integral<br />

<br />

1<br />

I2 :=<br />

|P − Q| dS(Q).<br />

S 2<br />

Der Integrand besitzt im Punkt P ∈ S 2 eine (integrierbare) Singularität. Für<br />

den Fall P = (0, 0, 1) T ∈ S 2 berechnen wir mit Hilfe von (4.43)<br />

I2 =<br />

= 2π<br />

π 2π<br />

= 4π.<br />

0 0 π<br />

0<br />

sin θ<br />

√ 2 − 2 cos θ dφ dθ<br />

cos θ<br />

2 dθ


Für das Verfahren von Atkinson erwarten wir nach Satz 3.1 in Übereinstimmung<br />

mit Satz 4.19 eine Konvergenzrate von q für gerades q bzw. von q + 1<br />

für ungerades q. Atkinson [1] hat für q = 3 sogar eine deutlich höhere Konvergenzrate<br />

von 6 beobachtet.<br />

Für das Verfahren der sigmoidalen <strong>Transformationen</strong> mit den <strong>Transformationen</strong><br />

wp aus (6.1) erwarten wir analog nach Satz 4.19 eine Konvergenzordnung<br />

von p für gerades p bzw. von p + 1 für ungerades p.<br />

In Tabelle 6.3 ist der absolute Fehler bei Approximation des Integrals I2 in<br />

Abhängigkeit von der Anzahl n der Stützstellen aufgeführt. Man sieht sofort,<br />

daß die Gauß-Trapez-Produktregel das mit Abstand schlechteste Konvergenzverhalten<br />

besitzt. Auch in diesem Beispiel erreichen das Verfahren von Atkinson<br />

<strong>und</strong> das Verfahren der sigmoidalen <strong>Transformationen</strong> mit den Parametern<br />

q = 3 <strong>und</strong> p = 3, 4 recht schnell die interne Genauigkeit von Matlab.<br />

In Tabelle 6.4 haben wir, ausgehend von den Daten aus Tabelle 6.3, die näherungsweise<br />

ermittelte Konvergenzordnung der verwendeten <strong>Quadratur</strong>verfahren<br />

aufgeführt.<br />

Das Verfahren von Atkinson mit den Parametern q = 2, 4 besitzt, von Ausreißern<br />

abgesehen, wie erwartet die Konvergenzordnung 2 bzw. 4, auch das<br />

Verfahren der sigmoidalen <strong>Transformationen</strong> mit den <strong>Transformationen</strong> wp<br />

aus (6.1) erfüllt für p = 2, 3, 4 mit den ungefähren Konvergenzraten 2, 4 <strong>und</strong><br />

4 unsere Erwartungen. Für das Verfahren von Atkinson mit q = 3 berechnen<br />

wir mit n1 = 2 <strong>und</strong> n2 = 256 aus (6.3) α ≈ 6.48 <strong>und</strong> <strong>über</strong>treffen damit sogar<br />

leicht die Beobachtung von Atkinson [1].<br />

Die Gauß-Trapez-Produktregel hingegen konvergiert nur linear <strong>und</strong> zeigt damit<br />

das mit Abstand schlechteste Konvergenzverhalten aller Verfahren, die<br />

wir implementiert haben.<br />

In Tabelle 6.5 geben wir an, wie viele Stützstellen für jedes Verfahren mindestens<br />

benötigt werden, um das Integral I2 bis auf einen vorgegebenen Fehler<br />

10 −k , k = 1, . . . , 6, genau zu berechnen. Von der Anwendung der Gauß-Trapez-<br />

Produktregel auf ein Integral der Form aus Beispiel 6.3 kann man nach einem<br />

Blick auf Tabelle 6.5 nur abraten. Die mit Abstand wenigsten Stützstellen<br />

benötigen das Verfahren der sigmoidalen Transformation mit der sigmoidalen<br />

Transformation w4 <strong>und</strong> das Verfahren von Atkinson mit dem Parameter<br />

q = 3, dicht gefolgt vom Verfahren der sigmoidalen <strong>Transformationen</strong> mit der<br />

Transformation w3 <strong>und</strong> dem Verfahren von Atkinson mit q = 4. Die sigmoidale<br />

Transformation w2 <strong>und</strong> das Verfahren von Atkinson mit q = 2 hingegen<br />

benötigen deutlich mehr Stützstellen.<br />

57


58 Kapitel 6. Numerische Beispiele<br />

Verfahren von Atkinson Substitutionen wp Gauß-Trapez<br />

n q=2 q=3 q=4 p=2 p=3 p=4<br />

2 5.59 E+00 5.59 E+00 5.59 E+00 1.39 E+00 8.37 E+00 1.53 E+01 2.19 E+00<br />

4 3.12 E-01 4.22 E-01 1.23 E-01 1.67 E-01 7.69 E-01 2.68 E+00 1.22 E+00<br />

8 1.58 E-01 1.18 E-02 8.35 E-02 5.10 E-02 4.30 E-03 7.06 E-02 6.44 E-01<br />

16 4.02 E-02 1.05 E-05 4.44 E-04 1.28 E-02 2.99 E-05 2.94 E-05 3.32 E-01<br />

32 1.01 E-02 3.35 E-08 1.95 E-05 3.21 E-03 1.88 E-06 6.23 E-07 1.68 E-01<br />

64 2.52 E-03 5.23 E-10 1.22 E-06 8.03 E-04 1.18 E-07 3.91 E-08 8.48 E-02<br />

128 6.31 E-04 8.17 E-12 7.60 E-08 2.01 E-04 7.35 E-09 2.45 E-09 4.26 E-02<br />

256 1.58 E-04 1.23 E-13 4.75 E-09 5.02 E-05 4.60 E-10 1.53 E-10 2.13 E-02<br />

512 3.94 E-05 0.00 E+00 2.97 E-10 1.25 E-05 2.87 E-11 9.58 E-12 1.07 E-02<br />

1024 9.86 E-06 5.33 E-15 1.86 E-11 3.14 E-06 1.78 E-12 6.32 E-13 5.34 E-03<br />

2048 2.46 E-06 1.07 E-14 1.18 E-12 7.84 E-07 1.10 E-13 4.44 E-14 2.67 E-03<br />

4096 6.16 E-07 5.33 E-15 9.24 E-14 1.96 E-07 3.38 E-14 1.78 E-15 1.34 E-03<br />

Tabelle 6.3: Absoluter Fehler bei der Anwendung der verschiedenen <strong>Quadratur</strong>verfahren auf<br />

das Integral aus Beispiel 6.3 in Abhängigkeit von der Anzahl n der verwendeten Stützstellen.


Verfahren von Atkinson Substitutionen wp Gauß-Trapez<br />

n q=2 q=3 q=4 p=2 p=3 p=4<br />

4 4.16 3.73 5.50 3.06 3.44 2.52 0.85<br />

8 0.99 5.16 0.56 1.72 7.48 5.25 0.92<br />

16 1.97 10.13 7.55 1.99 7.17 11.23 0.96<br />

32 2.00 8.30 4.51 2.00 3.99 5.56 0.98<br />

64 2.00 6.00 4.00 2.00 4.00 3.99 0.99<br />

128 2.00 6.00 4.00 2.00 4.00 4.00 0.99<br />

256 2.00 6.06 4.00 2.00 4.00 4.00 1.00<br />

512 2.00 — 4.00 2.00 4.00 4.00 1.00<br />

1024 2.00 — 4.00 2.00 4.01 3.92 1.00<br />

2048 2.00 — 3.98 2.00 4.01 3.83 1.00<br />

4096 2.00 – 3.67 2.00 1.71 4.64 1.00<br />

Tabelle 6.4: Ungefähre Konvergenzordnung bei Anwendung der verschiedenen<br />

<strong>Quadratur</strong>verfahren auf das Integral aus Beispiel 6.3 bei Verdopplung der Stützstellenzahl<br />

von n<br />

2 auf n Stützstellen. Beim Verfahren von Atkinson mit q = 3 war<br />

bei 256 Stützstellen bereits die interne Genauigkeit von Matlab erreicht <strong>und</strong> daher<br />

keine Konvergenzanalyse für mehr als 256 Stützstellen möglich.<br />

In Tabelle 6.6 geben wir schließlich die Zeit in Sek<strong>und</strong>en an, die die einzelnen<br />

Verfahren benötigen, um das Integral aus Beispiel 6.3 bis auf einen vorgegebenen<br />

Fehler 10 −k , k = 1, . . . , 6, genau zu berechnen. Wir haben dazu für jedes<br />

Verfahren die benötigte Zeit mit dem Befehl cputime gemessen <strong>und</strong> den Mittelwert<br />

aus jeweils 250 Einzelmessungen gebildet. Außer dem X-Server, KDE<br />

<strong>und</strong> Matlab liefen während der Messung nur die üblichen Linux-Prozesse <strong>und</strong><br />

keine anderen Programme, die die Messung hätten verfälschen können. Die<br />

Ergebnisse entsprechen denen aus Tabelle 6.5.<br />

Verfahren von Atkinson Substitutionen wp Gauß-Trapez<br />

Tol q=2 q=3 q=4 p=2 p=3 p=4<br />

10 −1 11 6 7 6 6 8 55<br />

10 −2 33 6 11 19 8 11 547<br />

10 −3 102 11 12 58 9 13 —<br />

10 −4 322 13 12 182 11 15 —<br />

10 −5 1017 13 38 574 22 17 —<br />

10 −6 3215 18 68 1814 38 17 —<br />

Tabelle 6.5: Anzahl der benötigten Stützstellen bei den verschiedenen <strong>Quadratur</strong>verfahren,<br />

um das Integral aus Beispiel 6.3 bis auf eine vorgegebene Toleranz Tol<br />

genau zu berechnen. Mit der Gauß-Trapez-Produktregel waren schon für eine Toleranz<br />

von 10 −3 weit <strong>über</strong> 4000 Stützstellen nötig, so daß wir hier nur die Werte für<br />

eine Toleranz von 10 −1 bzw. 10 −2 angeben können.<br />

59


60 Kapitel 6. Numerische Beispiele<br />

Verfahren von Atkinson Substitutionen wp Gauß-Trapez<br />

Tol q=2 q=3 q=4 p=2 p=3 p=4 Zeit 1 Zeit 2<br />

10 −1 1.66 E-03 1.53 E-03 1.51 E-03 1.47 E-03 1.47 E-03 1.49 E-03 4.31 E-03 2.27 E-03<br />

10 −2 2.17 E-03 1.55 E-03 1.56 E-03 1.60 E-03 1.49 E-03 1.50 E-03 1.71 E+00 3.56 E-01<br />

10 −3 1.11 E-02 1.65 E-03 1.56 E-03 3.25 E-03 1.55 E-03 1.52 E-03 — —<br />

10 −4 1.01 E-01 1.67 E-03 1.57 E-03 3.32 E-02 1.59 E-03 1.55 E-03 — —<br />

10 −5 1.10 E+00 1.69 E-03 2.32 E-03 3.18 E-01 1.78 E-03 1.61 E-03 — —<br />

10 −6 1.56 E+01 1.80 E-03 4.19 E-03 4.31 E+00 2.32 E-03 1.65 E-03 — —<br />

Tabelle 6.6: Benötigte Zeit in Sek<strong>und</strong>en bei den verschiedenen <strong>Quadratur</strong>verfahren, um das Integral aus<br />

Beispiel 6.3 bis auf eine vorgegebene Toleranz Tol genau zu berechnen. Mit der Gauß-Trapez-Produktregel<br />

waren schon für eine Toleranz von 10 −3 weit <strong>über</strong> 4000 Stützstellen nötig, so daß wir hier nur die Werte<br />

für eine Toleranz von 10 −1 bzw. 10 −2 angeben können. Zeit 1 ist dabei die Zeit inklusive Berechnung der<br />

Eigenwerte <strong>und</strong> -vektoren der Matrix J aus (5.2), Zeit 2 die Zeit ohne diese Berechnung.


Kapitel 7<br />

Ergebnis<br />

Wir betrachten zunächst das Verfahren von Atkinson für ein Integral der Form<br />

<br />

f(Q)<br />

|P − Q| dS(Q), P ∈ S2 , (7.1)<br />

mit einer auf S 2 hinreichend glatten Funktion f.<br />

S 2<br />

Nach Satz 4.12 entspricht das Verfahren der sigmoidalen <strong>Transformationen</strong><br />

mit der Transformation<br />

w(θ) = arccos<br />

cos θ<br />

√ cos 2 θ + sin 2q θ<br />

dem Verfahren von Atkinson. Nach Satz 4.11 erfüllen die Ableitungen von w<br />

die Bedingungen<br />

w (j) (0) = w (j) (π) = 0, j = 1, . . . , q − 1,<br />

w (q) (0) = 0 <strong>und</strong> w (q) (π) = 0.<br />

Sei q ∈ N fest gewählt <strong>und</strong> damit die Transformation L aus (3.1) sowie die<br />

Transformation w festgelegt. Mit<br />

<br />

q falls q gerade<br />

2s =<br />

q + 1 falls q ungerade<br />

erhalten wir aus Satz 4.19 für eine (2s)-mal stetig differenzierbare Funktion<br />

für das Verfahren von Atkinson die Fehlerabschätzung<br />

<br />

1<br />

En(f) = O<br />

n2s <br />

.<br />

Dieses Ergebnis stimmt mit dem Ergebnis von Atkinson aus Satz 3.1 <strong>über</strong>ein.


62 Kapitel 7. Ergebnis<br />

Unsere numerischen Resultate aus Kapitel 6 bestätigen die theoretischen Überlegungen<br />

der Kapitel 3 <strong>und</strong> 4. Die Ergebnisse aus Beispiel 6.3 zeigen eindrucksvoll,<br />

wie sehr das Verfahren der sigmoidalen <strong>Transformationen</strong> <strong>und</strong> das Verfahren<br />

von Atkinson bei singulärem Integranden der Gauß-Trapez-Produktregel<br />

<strong>über</strong>legen sind <strong>und</strong> wie stark diese Verfahren durch geschickte Wahl des Parameters<br />

p bzw. q noch optimiert werden können (siehe vor allem Tabelle 6.5).<br />

Betrachten wir ein Integral der Form<br />

<br />

ρ(Q) dS(Q)<br />

S 2<br />

mit einer Funktion ρ, die eine Singularität auf S 2 besitzt, die nicht die Form<br />

(7.1) hat, so macht Atkinson [1] keine Aussage <strong>über</strong> den Fehler, der bei der<br />

Approximation dieses Integrals mit dem von ihm vorgeschlagenen Verfahren<br />

auftritt. Wir haben jedoch in Satz 4.16 eine Abschätzung für den Fehler in<br />

einem allgemeineren Fall als (7.1) herleiten können. Diese Abschätzung gilt<br />

nach Satz 4.12 insbesondere für das Verfahren von Atkinson.<br />

Außerdem gelten unsere Abschätzungen aus den Sätzen 4.16 <strong>und</strong> 4.19 für<br />

beliebige sigmoidale <strong>Transformationen</strong>, deren Ableitungen (4.7) <strong>und</strong> (4.8) erfüllen,<br />

<strong>und</strong> nicht nur für die spezielle Transformation, die zum Verfahren von<br />

Atkinson führt.<br />

Wir haben also die Fehlerabschätzungen von Atkinson [1] mit der Theorie<br />

des Verfahrens der sigmoidalen <strong>Transformationen</strong> bestätigen <strong>und</strong> (mit einer<br />

allerdings nicht mehr ganz so scharfen Fehlerabschätzung) verallgemeinern<br />

können.


Anhang A<br />

Implementierung<br />

Wir stellen nun die Implementierungen des Verfahrens der sigmoidalen <strong>Transformationen</strong><br />

<strong>und</strong> der Gauß-Legendre-Produktregel vor, die wir für die Auswertung<br />

der Beispiele in Kapitel 6 verwendet haben.<br />

In Listing A.1 geben wir die Implementierung des Verfahrens der sigmoidalen<br />

<strong>Transformationen</strong> an, das wir in Abschnitt 4.3 vorgestellt haben. Die Funktion<br />

wurde (auf Kosten des benötigten Speicherplatzes) auf Geschwindigkeit<br />

optimiert. Ab einigen tausend Stützstellen kann es daher passieren, daß der<br />

Hauptspeicher für die Berechnung nicht ausreicht; in diesem Fall sollte man<br />

auf eine direkte Implementierung der <strong>Quadratur</strong>formel (4.28) mit Hilfe zweier<br />

ineinander geschachtelter for-Schleifen zurückgreifen. Da es sich in dem Fall<br />

um eine direkte Umsetzung der Gleichung (4.28) handelt, verzichten wir an<br />

dieser Stelle auf ihre Darstellung.<br />

Listing A.2 zeigt die Implementierung der Gauß-Trapez-Produktregel, die wir<br />

in Kapitel 5 eingeführt haben. Auch diese Funktion wurde (auf Kosten des<br />

benötigten Speicherplatzes) in Hinblick auf die Ausführungsgeschwindigkeit<br />

optimiert. Daher kann es bei dieser Funktion ebenfalls vorkommen, daß bei<br />

einer großen Anzahl von Stützstellen der Hauptspeicher nicht ausreicht <strong>und</strong><br />

eine direkte Implementierung der <strong>Quadratur</strong>formel (5.1) mittels zweier ineinander<br />

geschachtelter for-Schleifen besser geeignet ist.<br />

In Listing A.3 schließlich geben wir die Implementierung der Funktion zur<br />

Berechnung des Vektors u an, aus dem sich mit H = I−2 uuT die Householder-<br />

uT u<br />

Matrix H berechnet, die den Punkt x auf [0, 0, 1] T oder [0, 0, −1] T abbildet.<br />

Diese Funktion wird von beiden Verfahren benötigt. Wir haben sie für den<br />

Fall x ∈ S2 optimiert.<br />

In Listing A.4 demonstrieren wir an einem einfachen Beispiel die Anwendung<br />

der Funktionen Sigmoidal <strong>und</strong> Gauss_Trapez.


64 Anhang A. Implementierung<br />

✬ ✩<br />

function [ summe , cpu ] = Sigmoidal (n , f , P,W,w) ;<br />

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%<br />

% %<br />

% Berechnet numerisch das I n t e g r a l der Funktions f <strong>über</strong> %<br />

% d i e O berfläche der E i n h e i t s k u g e l im Rˆ3 mit H i l f e des %<br />

% Verfahrens der sigmoidalen <strong>Transformationen</strong> . %<br />

% %<br />

% PARAMETER: %<br />

% n : Anzahl der S t ü t z s t e l l e n %<br />

% f : d i e zu i n t e g r i e r e n d e Funktion %<br />

% P: der Punkt , in dem f s i n g u l ä r wird %<br />

% W: d i e zu verwendende s i g m o i d a l e Transformation %<br />

% w: A b l e i t u n g der sigmoidalen Transformation W %<br />

% %<br />

% RÜCKGABEWERTE: %<br />

% summe : d i e b e r e c h n e t e Näherung %<br />

% cpu : d i e f ü r d i e Rechnung b e n ö t i g t e CPU−Z e i t %<br />

% %<br />

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%<br />

t = cputime ;<br />

phi = linspace ( pi /n , 2∗ pi , 2∗n ) ;<br />

theta = linspace ( pi /n , (n−1)∗ pi /n , n−1);<br />

W theta = W( theta ) ;<br />

[ COS PHI , x3 ] = meshgrid ( cos ( phi ) , cos ( W theta ) ) ;<br />

[ SIN PHI ,SIN W THETA] = meshgrid ( sin ( phi ) , sin ( W theta ) ) ;<br />

x1 = COS PHI . ∗ SIN W THETA;<br />

clear COS PHI phi ;<br />

x2 = SIN PHI . ∗ SIN W THETA;<br />

clear SIN PHI SIN W THETA;<br />

u = Householder (P ) ;<br />

f a k t o r = 2/(u ’ ∗ u ) ∗ ( u (1)∗ x1 + u (2)∗ x2 + u (3)∗ x3 ) ;<br />

x1 = x1 − u (1)∗ f a k t o r ;<br />

x2 = x2 − u (2)∗ f a k t o r ;<br />

x3 = x3 − u (3)∗ f a k t o r ;<br />

summe = ( pi /n)ˆ2 ∗ ( (w( theta ) . ∗ sin ( W theta ) ) . . .<br />

∗ sum( f ( x1 , x2 , x3 ) , 2 ) ) ;<br />

cpu = cputime − t ;<br />

✫ ✪<br />

Listing A.1: Funktion Sigmoidal zur Approximation eines Integrals <strong>über</strong> S 2 mit<br />

Hilfe des Verfahrens der sigmoidalen <strong>Transformationen</strong>.


✬ ✩<br />

function [ summe , cpu1 , cpu2 ] = Gauss Trapez (n , f ) ;<br />

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%<br />

% %<br />

% Berechnet numerisch das I n t e g r a l der Funktions f <strong>über</strong> %<br />

% d i e O berfläche der E i n h e i t s k u g e l im Rˆ3 mit H i l f e der %<br />

% Gauß−Trapez−P r o d u k t r e g e l . %<br />

% %<br />

% PARAMETER: %<br />

% n : Anzahl der S t ü t z s t e l l e n %<br />

% f : d i e zu i n t e g r i e r e n d e Funktion %<br />

% %<br />

% RÜCKGABEWERTE: %<br />

% summe : d i e b e r e c h n e t e Näherung %<br />

% cpu1 : d i e f ü r d i e Rechnung b e n ö t i g t e CPU−Z e i t %<br />

% cpu2 : d i e f ü r d i e Rechnung b e n ö t i g t e CPU−Z e i t %<br />

% OHNE d i e Z e i t f ü r d i e Berechnung der %<br />

% Eigenwerte der Matrix J %<br />

% %<br />

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%<br />

t1 = cputime ;<br />

k = 1 : n−1;<br />

k = k . / sqrt (4∗ k .ˆ2 −1);<br />

[EV,EW] = eig ( diag ( k , 1 ) + diag ( k , −1));<br />

t2 = cputime ;<br />

phi = linspace ( 0 , (2∗n−1)∗ pi /n , 2∗n ) ;<br />

[ C P , C T ] = meshgrid ( cos ( phi ) , diag (EW) ) ;<br />

[ S P , S T ] = meshgrid ( sin ( phi ) , sin ( acos ( diag (EW) ) ) ) ;<br />

clear EW phi k ;<br />

summe = 2 ∗ pi /n ∗ ( EV( 1 , : ) . ˆ 2 ∗ diag ( 1 . / diag (EV’ ∗EV ) ) . . .<br />

∗ sum( f (C P . ∗ S T , S P . ∗ S T , C T ) , 2 ) ) ;<br />

cpu1 = cputime − t1 ;<br />

cpu2 = cputime − t2 ;<br />

✫ ✪<br />

Listing A.2: Funktion Gauss_Trapez zur Approximation eines Integrals <strong>über</strong> S 2<br />

mit Hilfe der Gauß-Trapez-Produktregel.<br />

65


66 Anhang A. Implementierung<br />

✬ ✩<br />

function u = Householder ( x )<br />

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%<br />

% %<br />

% Berechnet f ü r einen Punkt x , der auf der O berfläche %<br />

% der E i n h e i t s k u g e l im Rˆ3 l i e g t , einen Vektor u , so %<br />

% daß d i e Matrix I − 2∗u∗uˆT / uˆT∗u eine Householder− %<br />

% Matrix i s t , d i e x auf ein V i e l f a c h e s des Vektors %<br />

% [ 0 , 0 , 1 ] ˆT a b b i l d e t . Die Gleichung f ü r u l a u t e t %<br />

% %<br />

% u = x + s i g n ( x ( 3 ) ) ∗ norm( x , 2 ) ∗ [ 0 ; 0 ; 1 ] . %<br />

% %<br />

% Wir nutzen aus , daß auf der K u g e l o b e r f l ä c h e %<br />

% %<br />

% norm( x , 2 ) = 1 %<br />

% %<br />

% g i l t . %<br />

% %<br />

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%<br />

i f ( x ( 3 ) < 0)<br />

u = x − [ 0 ; 0 ; 1 ] ;<br />

else<br />

u = x + [ 0 ; 0 ; 1 ] ;<br />

end<br />

✫ ✪<br />

Listing A.3: Funktion Householder zur Berechnung einer Householder-Matrix,<br />

wird von den Funktionen Sigmoidal <strong>und</strong> Gauss_Trapez benötigt.


✬ ✩<br />

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%<br />

% %<br />

% Demonstration , wie d i e Funktionen Sigmoidal %<br />

% <strong>und</strong> Gauss Trapez angewendet werden . %<br />

% %<br />

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%<br />

clc ; clear a l l ; close a l l ;<br />

% D e f i n i t i o n der Anzahl der S t ü t z s t e l l e n<br />

n = 100;<br />

% D e f i n i t i o n der Transformation W p <strong>und</strong> i h r e r<br />

% A b l e i t u n g w p f ü r den Parameter p=2:<br />

W 2 = i n l i n e ( ’ ( pi ∗x . ˆ 2 ) . / ( x .ˆ2+( pi−x ) . ˆ 2 ) ’ , ’ x ’ ) ;<br />

w 2 = i n l i n e ( ’ (2∗ pi ˆ2∗x . ∗ ( pi−x ) ) . / ( x .ˆ2+( pi−x ) . ˆ 2 ) . ˆ 2 ’ , ’ x ’ ) ;<br />

% D e f i n i t i o n der zu i n t e g r i e r e n d e n Funktion f .<br />

% f muss eine Abbildung von Rˆ3 nach R sein , der<br />

% d i e d r e i Komponenten i h r e s Arguments a l s g e t r e n n t e<br />

% Parameter <strong>über</strong>geben werden .<br />

f = i n l i n e ( ’ 1 . / s q r t ( x1 .ˆ2+ x2.ˆ2+(1−x3 ) . ˆ 2 ) ’ , ’ x1 ’ , ’ x2 ’ , ’ x3 ’ ) ;<br />

% D e f i n i t i o n des Punktes , in dem f s i n g u l ä r wird . I s t<br />

% f n i c h t s i n g u l ä r , so i s t P = [ 0 ; 0 ; 1 ] eine gute Wahl .<br />

P = [ 0 ; 0 ; 1 ] ;<br />

% Aufruf der Funktionen<br />

[ ergebnis , cpu ] = Sigmoidal (n , f , P, W 2, w 2 )<br />

[ ergebnis2 , cpu1 , cpu2 ] = Gauss Trapez (n , f )<br />

✫ ✪<br />

Listing A.4: Demonstration der Anwendung der Funktionen Sigmoidal <strong>und</strong><br />

Gauss_Trapez.<br />

67


68 Anhang A. Implementierung


Literaturverzeichnis<br />

[1] Kendall Atkinson. <strong>Quadratur</strong>e of singular integrands over surfaces. Reports<br />

on Computational Mathematics #156, Dept of Mathematics, University<br />

of Iowa, 2003.<br />

[2] David Colton, Rainer Kress. Inverse Acoustic and Electromagnetic Scattering<br />

Theory, Second Edition. Springer-Verlag, New York, 1998.<br />

[3] Philip J. Davis, Philip Rabinowitz. Methods of Numerical Integration,<br />

Second Edition. Academic Press, London, 1984.<br />

[4] David Elliott. The Euler-Maclaurin formula revisited. J. Austral. Math.<br />

Soc. B 40, E27-E76, 1998.<br />

[5] David Elliott. Sigmoidal transformations and the trapezoidal rule. J. Austral.<br />

Math. Soc. B 40, E77-E137, 1998.<br />

[6] Otto Forster. Analysis 3, 3. Auflage. Vieweg-Studium, Braunschweig,<br />

1984.<br />

[7] Harro Heuser. Lehrbuch der Analysis, Teil 2. Teubner, Stuttgart, 1981.<br />

[8] Rainer Kress. Numerical Analysis. Springer-Verlag, New York, 1998.<br />

[9] Josef Stoer. Numerische Mathematik 1. Springer-Verlag, Berlin, 1989.<br />

[10] Andreas Vogt. Analytische <strong>und</strong> numerische Untersuchung von direkten<br />

<strong>und</strong> inversen Randwertproblemen in Gebieten mit Ecken mittels Integralgleichungsmethoden.<br />

Dissertation, Göttingen, 2001.<br />

[11] Wolfgang Walter. Analysis II. Springer-Verlag, Berlin, 1990.<br />

[12] Jochen Werner. Numerische Mathematik 1. Vieweg-Studium, Braunschweig,<br />

1992.<br />

[13] Lutz Wienert. Die numerische Approximation von Randintegraloperatoren<br />

für die Helmholtzgleichung im R 3 . Dissertation, Göttingen, 1990.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!