Inkrementelle Akquisition von 3D-Objektmodellen - Institut für ...
Inkrementelle Akquisition von 3D-Objektmodellen - Institut für ...
Inkrementelle Akquisition von 3D-Objektmodellen - Institut für ...
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
IR-INI 2006–01, c○ 2006 <strong>Institut</strong> <strong>für</strong> Neuroinformatik, Ruhr-Universität Bochum, FRG 3<br />
1.2 Ziel der Arbeit<br />
Anstatt gleich die dreidimensionale Beschaffenheit der ganzen Welt oder zumindest einer kompletten<br />
Umgebung zu erfassen, fangen wir kleiner an und versuchen, ein dreidimensionales Modell eines<br />
kleinen Gegenstandes zu erstellen. Dieser Prozess entspricht dabei nicht dem Erkennen einer bekannten<br />
dreidimensionalen Form sondern der Betrachtung eines zuvor unbekannten Gegenstandes.<br />
Dieses möchte ich deshalb unterstreichen, weil unsere alltägliche Wahrnehmung zum Großteil eine<br />
Wahrnehmung einer bekannten Umgebung und <strong>von</strong> bekannten Gegenständen ist, und wir meistens<br />
auf unser Wissen zurückgreifen können anstatt tatsächlich ein neues <strong>3D</strong>-Modell zu erstellen, wie<br />
wir es hier <strong>von</strong> dem System erwarten.<br />
Unser Modell wird aus einer Wolke <strong>von</strong> Raumpunkten bestehen. Dabei wollen wir ausschließlich<br />
optische Informationen benutzen, die aus einer einfachen Webcam gewonnen werden. Damit ist<br />
der erste Schritt vorgegeben: das Erstellen einer Bildsequenz des Objektes aus den Bildern dieser<br />
Webcam. Dabei werden wir (außer <strong>für</strong> die Segmentierung) kein Wissen über die Kamerapositionen<br />
und internen Parameter der Kamera verwenden. Da<strong>für</strong> nehmen wir in Kauf, dass wir lediglich<br />
ein projektives Modell erstellen können (die berechneten Raumpunkte werden also gegenüber den<br />
tatsächlichen Raumpunkten projektiv verzerrt sein) – wie wir sehen werden, ist mit den gegebenen<br />
Informationen auch nicht mehr möglich. Wir werden allerdings herausstellen, mit welchen zusätzlichen<br />
Informationen wir ein metrisches Modell erstellen könnten.<br />
Der Titel dieser Arbeit verspricht eine inkrementelle Erstellung des Modells. Das hier vorgestellte<br />
System arbeitet inkrementell, indem es mit jedem Bild, das verarbeitet wird, das Modell erweitert<br />
und ggf. anpasst. Jedoch werden wir sehen, dass das System aus zahlreichen abgrenzbaren Arbeitschritten<br />
besteht und dass jeder Arbeitsschritt <strong>für</strong> alle Bilder durchgeführt wird, bevor mit dem<br />
nächsten Arbeitsschritt begonnen wird – so ist die Arbeit auch gegliedert und <strong>für</strong> das Verständnis<br />
ist diese Vorgehensweise sicher am geeignetsten. Prinzipiell ist es aber genauso möglich, <strong>für</strong> jedes<br />
Bild – soweit nötig (wir werden sehen, dass nicht alle Bilder in allen Arbeitschritten verwendet werden)<br />
– alle Arbeitsschritte durchzuführen, bevor das nächste betrachtet wird. Das Ergebnis bleibt<br />
das gleiche – eine Ausnahme stellt nur der letzte Arbeitsschritt, das Bundle Adjustment, dar. Hier<br />
kann die Entscheidung, ob er inkrementell oder abschließend auf allen Daten durchgeführt wird,<br />
einen großen Einfluß auf das Ergebnis nehmen.<br />
Das System ließe sich so erweitern, dass auch die Bildakquisition inkrementell durchgeführt werden<br />
könnte. Somit könnte während des Erstellens des Modells entschieden werden, welche Bereiche des<br />
Modells abgefilmt werden müssen um das Modell sinnvoll zu vervollständigen.<br />
1.3 Resourcen<br />
Das hier vorgestellte System wurde am <strong>Institut</strong> <strong>für</strong> Neuroinformatik der Ruhr-Universität Bochum<br />
entwickelt. Es war mir somit möglich, die dort vorhandenen Resourcen zu nutzen. Diese umfassen<br />
insbesondere die vorhandene Hardware, die zum Abfilmen der Objekte verwendet wurde (wie<br />
zum Beispiel den Roboterarm – siehe Kapitel 3), sowie die Software-Bibliothek FLAVOR (siehe<br />
hierzu [RPEvdM99]). Aus FLAVOR (kurz <strong>für</strong> ”<br />
Flexible Library for Active Vision and Object<br />
Recognition“) habe ich neben Methoden zur Bildrepräsentation und mathematischen Methoden<br />
wie Matrixzerlegungen vor allem auch Methoden zum Tracking <strong>von</strong> Bildpunkten (siehe Kapitel 5)<br />
benutzt.<br />
Als ”<br />
ideelle“ Resource diente – natürlich neben der sonstigen angegebenen Literatur – vor allem<br />
[HZ04], in der die grundlegende Vorgehensweise des überwiegenden Teils des Systems sowie auch<br />
spezielle angewandte Verfahren behandelt werden.<br />
Das System wurde komplett in C++ entwickelt.