05.11.2013 Aufrufe

Inkrementelle Akquisition von 3D-Objektmodellen - Institut für ...

Inkrementelle Akquisition von 3D-Objektmodellen - Institut für ...

Inkrementelle Akquisition von 3D-Objektmodellen - Institut für ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

IR-INI 2006–01, c○ 2006 <strong>Institut</strong> <strong>für</strong> Neuroinformatik, Ruhr-Universität Bochum, FRG 49<br />

Die negative Gradientenrichtung −g ist die Richtung der größten Verminderung des Funktionswertes<br />

<strong>von</strong> e. Wir erhalten also <strong>für</strong> eine geeignete Schrittlänge λ ∈ R mit<br />

∆ = −λg (8.7)<br />

einen neuen Parameterwert p = p 0 + ∆, der den Wert der Fehlerfunktion vermindert.<br />

Der große Vorteil des Gradientenabstiegs ist, dass wir – sofern wir uns nicht bereits in einem Minimum<br />

befinden – auf jeden Fall eine Verminderung des Funktionswerts erhalten. Jedoch entspricht<br />

der Gradientenabstieg einer linearen Approximierung der Funktion, was eine langsame Konvergenz<br />

mit sich bringt.<br />

8.2.1.2 Newton-Verfahren<br />

Das Newton-Verfahren beruht auf der Taylor-Entwicklung <strong>von</strong> e. Eine quadratische Abschätzung<br />

<strong>von</strong> e ist gegeben durch das Taylorpolynom zweiter Ordnung und damit durch<br />

e(p) = e(p 0 ) + g∆ + 1 2 ∆T H∆ (8.8)<br />

Der Gradient g ist dabei definiert durch (8.6) und H ist die Hessematrix (also die Matrix der<br />

zweiten Ableitungen) an der Stelle p 0 .<br />

Da unsere Approximierung quadratisch ist, hat sie ein eindeutiges Minimum, das wir erhalten,<br />

indem wir die Nullstelle der Ableitung berechnen. Die Ableitung <strong>von</strong> (8.8) nach ∆ ist<br />

e ′ (p) = g + ∆H (8.9)<br />

Indem wir sie auf Null setzen und nach ∆ umformen erhalten wir<br />

∆ = −H −1 g (8.10)<br />

Das Newton-Verfahren beruht auf der Hoffnung, dass sich die Funktion in der Nähe des Minimums<br />

durch eine quadratische Funktion gut approximieren lässt und führt im Allgemeinen zu schnellerer<br />

Konvergenz als der Gradientenabstieg. Nachteile sind, dass eine Verbesserung des Funktionswertes<br />

nicht garantiert ist, falls eine quadratische Approximation an der Stelle p 0 nicht angemessen ist,<br />

und dass die Berechnung der Hessematrix sehr aufwändig ist.<br />

8.2.1.3 Gauß-Newton-Verfahren<br />

Das Gauß-Newton-Verfahren ist eine Modifikation des Newton-Verfahrens, um das Problem der<br />

aufwändigen Berechnung der Hessematrix zu umgehen. Die Hessematrix lässt sich berechnen durch<br />

die Ableitung <strong>von</strong> (8.6) und somit durch<br />

H = J T J + J ′T ɛ(p 0 ) (8.11)<br />

J ′ ist hier ein 3-dimensionales Feld aus den Ableitungen <strong>von</strong> J und das Produkt J ′T ɛ(p 0 ) ist die<br />

Summe über die jeweils mit ihrer Hessematrix multiplizierten Komponenten <strong>von</strong> ɛ(p 0 ).<br />

Im Gauß-Newton-Verfahren wird der zweite Term weggelassen und die Hessematrix abgeschätzt<br />

durch<br />

H = J T J (8.12)<br />

Da nun die Hessematrizen <strong>von</strong> ɛ(p 0 ) nicht berechnet werden müssen, bringt dies eine erhebliche<br />

Einsparung an Rechenzeit und die Approximierung ist meist ausreichend.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!