23.12.2012 Aufrufe

pdf-file, 2.03 Mbyte - Torsten Schütze

pdf-file, 2.03 Mbyte - Torsten Schütze

pdf-file, 2.03 Mbyte - Torsten Schütze

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

90 Kapitel 4. Bivariate Tensorprodukt-Splines<br />

Hierbei seien B1 und B2 beliebige glatte Matrixfunktionen und die verbleibenden Größen<br />

Z, C1, C2, h 1 sowie h 2 konstante Vektoren und Matrizen. Die variable Projektion, d. h. die<br />

Optimallösung Aopt von (4.13) bei festen t 1 und t 2 , ist gegeben durch<br />

(4.15) Aopt(t 1 , t 2 ) := B1(t 1 ) + Z B2(t 2 ) + T .<br />

Reduziertes Problem<br />

(4.16) f(t 1 , t 2 ) := 1<br />

2 F(t1 , t 2 ) 2<br />

F<br />

→ min<br />

t 1 ,t 2<br />

mit F(t1 , t2 ) := F(t1 , t2 , Aopt(t1 , t2 )) = P⊥ ZPB2 unter den Nebenbedingungen (4.14). Eine<br />

B1<br />

äquivalente Darstellung des reduzierten Funktionals f(t 1 , t 2 ) ist offensichtlich durch<br />

f(t 1 , t 2 ) = 1<br />

2<br />

<br />

<br />

B1(t 1 )B1(t 1 ) + Z B2(t 2 ) +T B2(t 2 ) T − Z<br />

2<br />

F<br />

<br />

<br />

1<br />

<br />

<br />

=<br />

2<br />

PB1ZP⊥ <br />

<br />

B2<br />

gegeben.<br />

Wir wollen nun in Verallgemeinerung der Ergebnisse von [GP73] untersuchen, inwieweit<br />

vollständiges und reduziertes Problem äquivalent sind. Im folgenden benötigen wir oft die<br />

Fréchet-Ableitung von gewissen Funktionalen, welche durch die Frobeniusnorm definiert<br />

sind. Es bezeichne ∂ den Operator der Fréchet-Ableitung.<br />

Lemma 4.1 (Fréchet-Ableitungen von Frobeniusnormen).<br />

Sei A : Rl → L (Rn , Rm ), x ∈ Rl → A(x) ∈ Rm,n eine Fréchet-differenzierbare Matrixfunktion<br />

und sei<br />

f : R l → L (R) , x ∈ R l → f(x) := 1<br />

2 A(x)2 F ∈ R.<br />

Dann gilt<br />

<br />

∂f(x)[∆x] = tr (∂A(x)[∆x]) T <br />

A(x) = tr A(x) T <br />

(∂A(x)[∆x])<br />

<br />

<br />

<br />

T T<br />

= tr (∂A(x)[∆x]) A(x) = tr A(x) (∂A(x)[∆x]) für alle ∆x ∈ R l .<br />

Beweis. Bekanntlich gilt f(x) = 1<br />

2 A(x)2 F<br />

f(x + ∆x) = 1<br />

2 tr<br />

<br />

A(x + ∆x) T A(x + ∆x)<br />

<br />

= 1<br />

2 tr A(x) T A(x) . Man hat<br />

= 1<br />

2 tr (A(x) + ∂A(x)[∆x] + O(∆x)) T (A(x) + ∂A(x)[∆x] + O(∆x))<br />

und wegen der Linearität der Spur<br />

f(x + ∆x) − f(x) = 1<br />

2 tr<br />

<br />

<br />

2<br />

F<br />

(∂A(x)[∆x]) T A(x) + A(x) T (∂A(x)[∆x]) + O(∆x)<br />

Für quadratische Matrizen B gilt tr(B) = tr(B T ), also wegen (∂A(x)[∆x]) T A(x) ∈ R n,n<br />

schließlich<br />

<br />

f(x + ∆x) − f(x) = tr (∂A(x)[∆x]) T <br />

A(x) + O(∆x) , d. h.<br />

<br />

∂f(x)[∆x] = tr (∂A(x)[∆x]) T <br />

A(x) = tr A(x) T <br />

(∂A(x)[∆x]) .<br />

Aus der äquivalenten Darstellung f(x) = 1<br />

analoger Weise den restlichen Teil der Behauptung.<br />

2 A(x)2 F<br />

<br />

.<br />

= 1<br />

2 tr A(x)A(x) T erhält man in

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!