Inkrementelle Akquisition von 3D-Objektmodellen - Institut für ...
Inkrementelle Akquisition von 3D-Objektmodellen - Institut für ...
Inkrementelle Akquisition von 3D-Objektmodellen - Institut für ...
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
IR-INI 2006–01, c○ 2006 <strong>Institut</strong> <strong>für</strong> Neuroinformatik, Ruhr-Universität Bochum, FRG 33<br />
die gesuchte Fundamentalmatrix, welche sich auf die ursprünglichen Punktkorrespondenzen<br />
x ↔ x ′ bezieht .<br />
Die Normalisierung hat folgenden Grund, der sie unverzichtbar macht:<br />
Aufgrund <strong>von</strong> Rauschen, ungenauen Daten und der diskreten Bildauflösung erhalten wir nie<br />
eine absolut korrekte Fundamentalmatrix, sondern lediglich eine Matrix, die möglichst gut<br />
auf unsere Daten passt. Der Fehler, der durch sie entsteht, ist abhängig <strong>von</strong> der Wahl der<br />
Koordinatensysteme der beiden Bilder, mit deren Punkten sie erstellt wurde. Diese Abhängigkeit<br />
<strong>von</strong> einer willkürlichen Wahl ist an sich nicht erwünscht und wird durch die Normalisierung<br />
eliminiert. Zudem ist das Koordinatensystem, das durch die Normalisierung erzwungen wird,<br />
besonders geeignet, um zu einem möglichst guten Ergebnis zu führen. Dies wird mit Blick auf<br />
die Matrix A offensichtlich. Würden wir nicht normalisierte Daten benutzen, würden x und y<br />
sowie x ′ und y ′ den ursprünglichen Bildkoordinaten entsprechen und beispielsweise Werte um 100<br />
annehmen. Einige Einträge der Matrix würden somit Werte im Bereich <strong>von</strong> 10 4 annehmen. Dies<br />
würde zu einer großen Verzerrung in der Bewertung der Fehler führen. Insbesondere hätte die<br />
letzte Koordinate kaum Einfluss auf das Ergebnis der Gleichungen. So würde eine Abweichung in<br />
der letzten Koordinate (z.B. (100, 100, 0.5) statt (100, 100, 1)), die einen erheblichen Unterscheid<br />
bewirkt, völlig unterbewertet.<br />
Durch die Normalisierung ist sichergestellt, dass alle Einträge etwa im gleichen Bereich liegen und<br />
diese Verzerrung vermieden wird.<br />
6.2.2.2 Der 7-Punkt-Algorithmus<br />
Der 7-Punkt-Algorithmus funktioniert nach dem gleichen Prinzip wie der 8-Punkt-Algorithmus.<br />
Wir benutzen jedoch nur 7 Gleichungen und erhalten durch die Singulärwertzerlegung keinen 1-<br />
dimensionalen Lösungsraum, sondern einen 2-dimensionalen Lösungsraum, der durch zwei Vektoren<br />
f 1 und f 2 aufgespannt wird. Wir benutzen nun die Bedingung, dass die Fundamentalmatrix einen<br />
Rang <strong>von</strong> 2 haben und somit det F = 0 gelten muss. Wir bilden die Matrizen F 1 aus f 1 und F 2 aus<br />
f 2 und suchen dann die Matrix F = αF 1 + (1 − α)F 2 , <strong>für</strong> die det F = 0 gilt – wir müssen also die<br />
Gleichung<br />
det(αF 1 + (1 − α)F 2 ) = 0<br />
nach α lösen. Dies ist eine kubische Gleichung, wir erhalten also <strong>für</strong> α bis zu drei mögliche Werte<br />
und daher bis zu drei mögliche Lösungen <strong>für</strong> die Fundamentalmatrix.<br />
Es ist auch hier mit der gleichen Argumentation notwendig, den Algorithmus auf normalisierten<br />
Daten durchzuführen, wie es in Abschnitt 6.2.2.1 beschrieben ist.<br />
6.2.2.3 RANSAC<br />
Beim 7- und 8-Punkt-Algorithmus werden nur 7 bzw. 8 Korrespondenzen zur Berechnung <strong>von</strong><br />
F benutzt. Für diese Korrespondenzen ist die Gleichung x ′T F x = 0 erfüllt. Da im 8-Punkt-<br />
Algorithmus die Matrix im Nachhinein modifiziert wird, um Rang 2 zu erhalten, treten dort<br />
allerdings auch schon bei den benutzten Korrespondenzen Abweichungen auf.<br />
Wir erwarten, dass die Gleichung auch <strong>für</strong> die anderen, nicht benutzten Korrespondenzen gilt. Bei<br />
perfekten Daten wäre dies der Fall und bei sehr guten Daten sind die Fehler tatsächlich gering.<br />
Im Allgemeinen sind wir aber darauf angewiesen, dass gerade die ausgewählten Korrespondenzen<br />
besonders gut sind. Leider kann beim Tracking nicht garantiert werden, dass alle Korrespondenzen<br />
gut sind – wir müssen auch mit völlig falschen Korrespondenzen rechnen (siehe Abbildung 6.2, in<br />
der die blau gekennzeichneten Korrespondenzen offensichtlich nicht korrekt sind).<br />
RANSAC ist eine im Grunde einfache aber sehr wirksame Methode, um Ausreißer, also fehlerhafte<br />
Korrespondenzen, zu entlarven und eine gute Auswahl an Punkten <strong>für</strong> den 7- oder