Inkrementelle Akquisition von 3D-Objektmodellen - Institut für ...
Inkrementelle Akquisition von 3D-Objektmodellen - Institut für ...
Inkrementelle Akquisition von 3D-Objektmodellen - Institut für ...
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
IR-INI 2006–01, c○ 2006 <strong>Institut</strong> <strong>für</strong> Neuroinformatik, Ruhr-Universität Bochum, FRG 49<br />
Die negative Gradientenrichtung −g ist die Richtung der größten Verminderung des Funktionswertes<br />
<strong>von</strong> e. Wir erhalten also <strong>für</strong> eine geeignete Schrittlänge λ ∈ R mit<br />
∆ = −λg (8.7)<br />
einen neuen Parameterwert p = p 0 + ∆, der den Wert der Fehlerfunktion vermindert.<br />
Der große Vorteil des Gradientenabstiegs ist, dass wir – sofern wir uns nicht bereits in einem Minimum<br />
befinden – auf jeden Fall eine Verminderung des Funktionswerts erhalten. Jedoch entspricht<br />
der Gradientenabstieg einer linearen Approximierung der Funktion, was eine langsame Konvergenz<br />
mit sich bringt.<br />
8.2.1.2 Newton-Verfahren<br />
Das Newton-Verfahren beruht auf der Taylor-Entwicklung <strong>von</strong> e. Eine quadratische Abschätzung<br />
<strong>von</strong> e ist gegeben durch das Taylorpolynom zweiter Ordnung und damit durch<br />
e(p) = e(p 0 ) + g∆ + 1 2 ∆T H∆ (8.8)<br />
Der Gradient g ist dabei definiert durch (8.6) und H ist die Hessematrix (also die Matrix der<br />
zweiten Ableitungen) an der Stelle p 0 .<br />
Da unsere Approximierung quadratisch ist, hat sie ein eindeutiges Minimum, das wir erhalten,<br />
indem wir die Nullstelle der Ableitung berechnen. Die Ableitung <strong>von</strong> (8.8) nach ∆ ist<br />
e ′ (p) = g + ∆H (8.9)<br />
Indem wir sie auf Null setzen und nach ∆ umformen erhalten wir<br />
∆ = −H −1 g (8.10)<br />
Das Newton-Verfahren beruht auf der Hoffnung, dass sich die Funktion in der Nähe des Minimums<br />
durch eine quadratische Funktion gut approximieren lässt und führt im Allgemeinen zu schnellerer<br />
Konvergenz als der Gradientenabstieg. Nachteile sind, dass eine Verbesserung des Funktionswertes<br />
nicht garantiert ist, falls eine quadratische Approximation an der Stelle p 0 nicht angemessen ist,<br />
und dass die Berechnung der Hessematrix sehr aufwändig ist.<br />
8.2.1.3 Gauß-Newton-Verfahren<br />
Das Gauß-Newton-Verfahren ist eine Modifikation des Newton-Verfahrens, um das Problem der<br />
aufwändigen Berechnung der Hessematrix zu umgehen. Die Hessematrix lässt sich berechnen durch<br />
die Ableitung <strong>von</strong> (8.6) und somit durch<br />
H = J T J + J ′T ɛ(p 0 ) (8.11)<br />
J ′ ist hier ein 3-dimensionales Feld aus den Ableitungen <strong>von</strong> J und das Produkt J ′T ɛ(p 0 ) ist die<br />
Summe über die jeweils mit ihrer Hessematrix multiplizierten Komponenten <strong>von</strong> ɛ(p 0 ).<br />
Im Gauß-Newton-Verfahren wird der zweite Term weggelassen und die Hessematrix abgeschätzt<br />
durch<br />
H = J T J (8.12)<br />
Da nun die Hessematrizen <strong>von</strong> ɛ(p 0 ) nicht berechnet werden müssen, bringt dies eine erhebliche<br />
Einsparung an Rechenzeit und die Approximierung ist meist ausreichend.