01.03.2014 Aufrufe

Masterarbeit Corinna Harmening Raum-zeitliche Segmentierung ...

Masterarbeit Corinna Harmening Raum-zeitliche Segmentierung ...

Masterarbeit Corinna Harmening Raum-zeitliche Segmentierung ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

<strong>Masterarbeit</strong> <strong>Corinna</strong> <strong>Harmening</strong><br />

<strong>Raum</strong>-<strong>zeitliche</strong> <strong>Segmentierung</strong> von natürlichen<br />

Objekten in stark verdeckten Szenen<br />

Spatio-temporal segmentation of natural objects in highly occluded scenes<br />

Erstprüfer:<br />

Zweitprüfer:<br />

apl. Prof. Dr.-Ing. Claus Brenner<br />

Dr.-Ing. Jens-André Paffenholz


<strong>Raum</strong>-<strong>zeitliche</strong> <strong>Segmentierung</strong> von natürlichen<br />

Objekten in stark verdeckten Szenen<br />

<strong>Masterarbeit</strong> am ikg<br />

Einführung und Ziel der Arbeit<br />

Die Erfassung von 3D Objektdaten erfolgt häufig mit Laserscannern und optionalen Kameras zur<br />

Bereitstellung von Farbinformation. Ein wesentlicher Schritt in der Aufbereitung der erfassten 3D<br />

Punktwolken ist die <strong>Segmentierung</strong> von interessierenden Objekten. Die Beschreibung und<br />

Identifikation von natürlichen Objekten in 3D Punktwolken stellt im Vergleich zu anthropogenen<br />

Objekten eine besondere Herausforderung dar. Liegt der Fokus auf der detaillierten Beschreibung<br />

<strong>zeitliche</strong>r Veränderung von natürlichen Objekten, wie zum Beispiel Pflanzen, basierend auf räumlich<br />

verteilten 3D Punktwolken, so ist ein effizientes Verfahren zur <strong>Segmentierung</strong> notwendig.<br />

Im Rahmen dieser <strong>Masterarbeit</strong> soll ein effizientes Verfahren zur <strong>Segmentierung</strong> von natürlichen<br />

Objekten aus 3D Punktwolken, am Beispiel der Gewächshausgurke, entwickelt werden. Die zu<br />

segmentierenden Objekte liegen in 3D Punktwolken unterschiedlicher Aufnahmerichtungen und<br />

Aufnahmezeitpunkte in einem gemeinsamen Koordinatensystem vor. Im Ergebnis soll das<br />

interessierende und segmentierte Objekt als Zeitreihe von 3D Punktwolken zur Verfügung stehen.<br />

Aus der Zeitreihe sollen Informationen über die geometrische Veränderung (das Wachstum,<br />

kurzzeitige, morphologische Anpassungen) abgeleitet werden.<br />

Aufgaben und <strong>zeitliche</strong>r Ablauf<br />

► Einarbeitung in die zur Verfügung stehenden Datensätze (3D Punktwolken mit Remissionswerten<br />

und optionalen Farbinformation aus digitalen Bildaufnahmen)<br />

► Literaturrecherche zum Thema <strong>Segmentierung</strong> von 3D Punktwolken mit dem Fokus auf Verfahren<br />

zur Behandlung unterschiedlicher Aufnahmerichtungen und Aufnahmezeitpunkte<br />

► Implementierung und Adaptierung eines Verfahrens in einer geeigneten Programmiersprache<br />

► <strong>Segmentierung</strong> der interessierenden Objekte in zeitlich aufeinanderfolgenden Aufnahmen<br />

► Gemeinsame <strong>Segmentierung</strong> der identischen, interessierenden Objekte in räumlich<br />

verschiedenen Aufnahmen<br />

► Analyse und Bewertung des implementierten Verfahrens sowie des Nutzens optional verfügbarer<br />

Farbinformation aus digitalen Bildaufnahmen<br />

Hilfsmittel<br />

► Diverse Datensätze von natürlichen Objekten (hier der Gewächshausgurke) in einer<br />

unstrukturierten, kontrollierten Umgebung (Gewächshaus)<br />

► Zeitliche verteilte Datensätze mit Abständen von wenigen Minuten bis zu mehreren Tagen<br />

► Räumlich verteilte Datensätze aus unterschiedlichen Aufnahmerichtungen zur ganzheitlichen<br />

Beschreibung des Objekts in einem gemeinsamen Koordinatensystem<br />

Voraussetzungen<br />

► Programmierkenntnisse in Python sowie nach Möglichkeit in C++<br />

► Sicherer Umgang mit Matlab<br />

Ansprechpartner<br />

Jens-André Paffenholz (Email Jens-Andre.Paffenholz@ikg.uni-hannover.de, Tel. 762-3191)<br />

Institut für Kartographie und Geoinformatik, Appelstraße 9a, 30167 Hannover, <strong>Raum</strong> 603<br />

Das Thema der <strong>Masterarbeit</strong> ist eingebettet in das Forschungsprojekt „<strong>Raum</strong>-zeitlich dichtes<br />

Monitoring von Pflanzenbeständen mittels Messroboter“, welches im Rahmen des Programms "Wege<br />

in die Forschung II - Projektförderung für junge Wissenschaftler/-innen" der Leibniz Universität<br />

Hannover gefördert wird.<br />

Englischer Titel: Spatio-temporal segmentation of natural objects in highly occluded scenes


Eidesstattliche Erklärung<br />

Ich versichere hiermit, dass ich die vorliegende <strong>Masterarbeit</strong> selbstständig und ohne Benutzung<br />

anderer als der angegebenen Quellen und Hilfsmittel angefertigt habe. Alle Zeichnungen<br />

und Abbildungen, die mit keinem Quellennachweis versehen sind, wurden von mir<br />

selbst erstellt.<br />

Hannover, den 14.10.2013<br />

<strong>Corinna</strong> <strong>Harmening</strong>


Inhaltsverzeichnis<br />

1 Einleitung 1<br />

1.1 Motivation und Zielsetzung . . . . . . . . . . . . . . . . . . . . . . . . . . 1<br />

1.2 Aufbau der Arbeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3<br />

2 <strong>Raum</strong>-zeitlich dichtes Monitoring von Pflanzenbeständen mittels Multi-Sensorsystem<br />

5<br />

2.1 Komponenten des Multi-Sensorsystems . . . . . . . . . . . . . . . . . . . . 6<br />

2.2 Datenerfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8<br />

2.3 Registrierung unterschiedlicher Aufnahmerichtungen . . . . . . . . . . . . . 9<br />

2.3.1 Verfahren für die Grobregistrierung . . . . . . . . . . . . . . . . . . 10<br />

2.3.2 Verfahren für die Feinregistrierung . . . . . . . . . . . . . . . . . . 12<br />

2.3.3 Durchführung der Registrierung im Rahmen des Projektes . . . . . 14<br />

2.4 Einordnung der Arbeit in den Gesamtzusammenhang des Projektes . . . . 15<br />

3 <strong>Segmentierung</strong> von Laserscandaten 17<br />

3.1 Der Begriff der <strong>Segmentierung</strong> . . . . . . . . . . . . . . . . . . . . . . . . . 17<br />

3.2 <strong>Segmentierung</strong> von spektraler Information . . . . . . . . . . . . . . . . . . 18<br />

3.3 <strong>Segmentierung</strong> von geometrischer Information . . . . . . . . . . . . . . . . 19<br />

3.3.1 <strong>Segmentierung</strong> unter Verwendung von Oberflächeneigenschaften . . 20<br />

3.3.2 <strong>Segmentierung</strong> durch Extraktion von Primitiven . . . . . . . . . . . 24<br />

3.4 Graphbasierte <strong>Segmentierung</strong>sverfahren . . . . . . . . . . . . . . . . . . . . 32<br />

3.4.1 Grundlagen der Graphentheorie . . . . . . . . . . . . . . . . . . . . 33<br />

3.4.2 Effiziente graphbasierte Bildsegmentierung nach Felzenszwalb und<br />

Huttenlocher . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37


3.5 <strong>Raum</strong>-<strong>zeitliche</strong> <strong>Segmentierung</strong>sverfahren . . . . . . . . . . . . . . . . . . . 41<br />

3.5.1 Trackingverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41<br />

3.5.2 <strong>Segmentierung</strong> eines raum-<strong>zeitliche</strong>n Volumens . . . . . . . . . . . . 43<br />

3.5.3 Shape-Matching mit Dynamic Time Warping . . . . . . . . . . . . 46<br />

4 Entwicklung eines Verfahrens zur raum-<strong>zeitliche</strong>n <strong>Segmentierung</strong> von natürlichen<br />

Objekten 49<br />

4.1 Schwierigkeiten bei der <strong>Segmentierung</strong> von natürlichen Objekten . . . . . . 49<br />

4.2 Ausgangsdaten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52<br />

4.3 Räumliche <strong>Segmentierung</strong> . . . . . . . . . . . . . . . . . . . . . . . . . . . 54<br />

4.3.1 Entwicklung einer <strong>Segmentierung</strong>sstrategie . . . . . . . . . . . . . . 55<br />

4.3.2 Berechnung lokaler Normalenvektoren . . . . . . . . . . . . . . . . . 57<br />

4.3.3 Glätten der Punktwolke . . . . . . . . . . . . . . . . . . . . . . . . 60<br />

4.3.4 Extraktion der Kiste . . . . . . . . . . . . . . . . . . . . . . . . . . 65<br />

4.3.5 Vorsegmentierung nach Felzenszwalb und Huttenlocher . . . . . . . 70<br />

4.3.6 Statistisch begründetes Region-Merging . . . . . . . . . . . . . . . . 80<br />

4.3.7 Ergebnisse der räumlichen <strong>Segmentierung</strong> . . . . . . . . . . . . . . 95<br />

4.4 <strong>Segmentierung</strong> in zeitlich aufeinanderfolgenden Aufnahmen . . . . . . . . . 100<br />

4.4.1 Entwicklung einer <strong>zeitliche</strong>n <strong>Segmentierung</strong>sstrategie . . . . . . . . 101<br />

4.4.2 Registrierung der Aufnahmen unterschiedlicher Aufnahmeepochen . 102<br />

4.4.3 Shape-Matching mit Hilfe des Dynamic Time Warping . . . . . . . 105<br />

4.4.4 Ergebnisse der <strong>zeitliche</strong>n <strong>Segmentierung</strong> . . . . . . . . . . . . . . . 108<br />

4.5 Analyse und Bewertung des entwickelten <strong>Segmentierung</strong>sansatzes . . . . . 110<br />

5 Ableitung von geometrischen Merkmalen 115<br />

5.1 Vermaschung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115<br />

5.2 Blattflächenbestimmung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119<br />

6 Zusammenfassung/Ausblick 123<br />

Literaturverzeichnis<br />

I<br />

Abbildungsverzeichnis<br />

IV


Tabellenverzeichnis<br />

Abkürzungsverzeichnis<br />

VI<br />

VII<br />

Anhang<br />

VIII<br />

A Ergänzende Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . VIII<br />

B Matlab-Skripte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . XIV


1 Einleitung<br />

1.1 Motivation und Zielsetzung<br />

In der Zukunftsvision vieler Menschen wird in einigen Jahren die Entwicklung der Robotik<br />

so weit vorangeschritten sein, dass Roboter viele – insbesondere unbeliebte – Aufgaben des<br />

Menschen übernehmen können. Dass diese Vision keineswegs unrealistisch ist, zeigt sich<br />

in der zunehmenden Automatisierung, die das Leben der heutigen Gesellschaft verändert:<br />

Das wahrscheinlich populärste Beispiel sind zurzeit die ständigen Neuerungen in der Entwicklung<br />

von Fahrerassistenzsystemen, die dem Autofahrer das Einparken erleichtern oder<br />

ihn vor Hindernissen warnen sollen.<br />

Damit eine Maschine die Aufgaben eines Menschen übernehmen kann, muss sie dessen<br />

für die entsprechende Tätigkeit benötigten Fähigkeiten besitzen. Eine besondere Herausforderung<br />

stellt hierbei das maschinelle Sehen dar (engl. Computer Vision), d. h. die<br />

Fähigkeit einer Maschine, eine Szene zu interpretieren und Informationen zu extrahieren.<br />

Die Grundlage für eine solche automatische Interpretation von Fotos, Videos oder ähnlichen<br />

Daten bildet die sogenannte <strong>Segmentierung</strong>, mit deren Hilfe z. B. die Pixel eines<br />

Fotos zu homogenen Regionen zusammengefasst werden [Szeliski (2010)].<br />

Die Erkennung der für eine solche Gruppierung notwendigen Zusammenhänge zwischen<br />

den einzelnen Pixeln gelingt dem Menschen aufgrund seiner Fähigkeit zur visuellen Wahrnehmung<br />

problemlos; diese Fähigkeit einer Maschine zu verleihen stellt jedoch ein nichttriviales<br />

Problem dar, mit dem sich Forscher schon seit vielen Jahren beschäftigen [Kootstra<br />

u. a. (2011)].<br />

Der Grundstein für die Lösung dieses Problems wurde bereits im Jahr 1923 von Max<br />

Wertheimer gelegt, der sich sehr ausführlich mit der Funktionsweise der menschlichen<br />

Wahrnehmung beschäftigte und die sogenannten Gestaltprinzipien veröffentlichte, nach<br />

denen ein Mensch einzelne Elemente als zusammengehörig erkennt (siehe Wertheimer<br />

(1923)). So spielt hierfür z. B. neben der Nähe der Elemente (ein Mensch erkennt Zwei-<br />

1


1 Einleitung<br />

Abb. 1.1: Zwei der Gestaltprinzipien: Prinzip der Nähe (links); Prinzip der Ähnlichkeit<br />

(rechts) (nach Wertheimer (1923))<br />

ergruppen in Abbildung 1.1 (links)) auch die Ähnlichkeit der Elemente eine Rolle (die<br />

menschliche Wahrnehmung fasst die Punkte in Abbildung 1.1 (rechts) vertikal zu Gruppen<br />

zusammen). Weitere Prinzipien beruhen z. B. auf der Symmetrie oder der Einfachheit<br />

der zusammengesetzten Strukturen.<br />

Aufbauend auf diesen Gestaltprinzipien wurde bereits eine Vielzahl von <strong>Segmentierung</strong>salgorithmen<br />

entwickelt. Zu ihnen gehören allgemeingültige Algorithmen wie z. B. die<br />

Graph Cuts von Boykov u. Kolmogorov (2004), die eine beliebige Szene bestmöglich segmentieren,<br />

sowie Algorithmen für spezielle Anwendungen, die entwickelt wurden, wenn<br />

die allgemeingültigen Algorithmen für sehr komplexe Szenen keine zufriedenstellenden<br />

Ergebnisse lieferten [Paproki u. a. (2011)].<br />

Eine besondere Herausforderung stellt die <strong>Segmentierung</strong> von natürlichen Objekten dar,<br />

da sie in der Regel variable Formen besitzen und zudem Verdeckungen auftreten [Paproki<br />

u. a. (2011)].<br />

Das Ziel der vorliegenden Arbeit ist die Entwicklung eines Algorithmus für die raum<strong>zeitliche</strong><br />

<strong>Segmentierung</strong> von natürlichen Objekten: Für die automatische Phänotypisierung<br />

von Pflanzen wurde am Institut für Kartographie und Geoinformatik (IKG) ein<br />

Multisensor-System (MSS) entwickelt, mit dessen Hilfe natürliche Objekte raum-zeitlich<br />

hochauflösend erfasst werden können. Das Ergebnis einer solchen Messung ist eine eingefärbte<br />

3-D-Punktwolke, wie sie beispielhaft in Abbildung 1.2 zu sehen ist.<br />

Während die Identifizierung der Pflanzenorgane in diesen Daten einem Menschen aufgrund<br />

2


1.2 Aufbau der Arbeit<br />

der Fähigkeit zur visuellen Wahrnehmung sehr leicht fällt, stellt dies für den Computer<br />

Abb. 1.2: Messergebnis der Aufnahme einer<br />

Gurkenpflanze mit dem am<br />

IKG entwickelten MSS<br />

eine deutlich schwierigere Aufgabe dar.<br />

Der zu entwickelnde Algorithmus soll für das<br />

Beispiel der Gurkenpflanze das <strong>Segmentierung</strong>sproblem<br />

für natürliche Objekte lösen.<br />

Eine solche Lösung beinhaltet zum einen eine<br />

räumliche <strong>Segmentierung</strong>, die als Ergebnis<br />

alle Punkte, die dasselbe Pflanzenorgan<br />

beschreiben, zu einem Segment zusammenfasst.<br />

Zum anderen erfolgt eine <strong>zeitliche</strong> <strong>Segmentierung</strong>,<br />

die in zu verschiedenen Zeitpunkten<br />

erfassten Datensätzen korrespondierende<br />

Pflanzenorgane identifiziert. Die Ergebnisse<br />

der <strong>Segmentierung</strong> bilden die Grundlage für<br />

eine Phänotypisierung der Pflanze, d. h. sie<br />

werden dazu verwendet, geometrische Merkmale<br />

der Gurkenpflanze zu bestimmen und<br />

Veränderungen festzustellen.<br />

1.2 Aufbau der Arbeit<br />

Die vorliegende Arbeit gliedert sich in sechs Kapitel: Im ersten Kapitel erfolgt eine kurze<br />

Einführung in das Thema. Kapitel 2 beinhaltet die für das Verständnis dieser Arbeit<br />

benötigten Grundlagen der Phänotypisierung von Pflanzen, wobei der Schwerpunkt<br />

auf dem am IKG erprobten Ansatz liegt. Das dritte Kapitel thematisiert die <strong>Segmentierung</strong><br />

von Laserscandaten. Hierbei werden sowohl Verfahren zur räumlichen <strong>Segmentierung</strong><br />

als auch Verfahren zur zusätzlichen <strong>Segmentierung</strong> der <strong>zeitliche</strong>n Dimension vorgestellt<br />

und klassifiziert sowie die für die vorliegende Arbeit relevanten Verfahren erläutert. Den<br />

Schwerpunkt der Arbeit bildet das vierte Kapitel: In ihm wird für das Problem der raum<strong>zeitliche</strong>n<br />

<strong>Segmentierung</strong> von natürlichen Objekten am Beispiel der Gurkenpflanze ein<br />

Algorithmus entwickelt, auf verschiedene gemessene Datensätze angewandt und anhand<br />

3


1 Einleitung<br />

der erzielten Ergebnisse analysiert und bewertet. Das 5. Kapitel zeigt Möglichkeiten auf,<br />

wie die <strong>Segmentierung</strong>sergebnisse für die Phänotypisierung von Pflanzen verwendet werden<br />

können. Im letzten Kapitel werden die Ergebnisse dieser Arbeit zusammengefasst<br />

und es erfolgt ein Ausblick auf mögliche Modifikationen zur Verbesserung des entwickelten<br />

Ansatzes.<br />

4


2 <strong>Raum</strong>-zeitlich dichtes Monitoring von<br />

Pflanzenbeständen mittels<br />

Multi-Sensorsystem<br />

Im Januar 2013 gab das Bundesministerium für Bildung und Forschung (BMBF) eine<br />

Pressemitteilung (siehe Bundesministerium für Forschung und Bildung (b)) heraus,<br />

nach der die automatisierte Phänotypisierung von Pflanzen – d. h. die automatisierte<br />

Bestimmung der äußeren Gestalt einer Pflanze – im Rahmen des Deutschen Pflanzen-<br />

Phänotypisierungs-Netzwerks in den folgenden fünf Jahren mit 34,6 Millionen Euro gefördert<br />

wird [Bundesministerium für Forschung und Bildung (a)]. Motiviert wird dieses Forschungsprojekt<br />

durch die Tatsache, dass die Entwicklung einer Pflanze nicht allein von<br />

der im Samen enthaltenen genetischen Information abhängt, sondern vielmehr von einem<br />

Wechselspiel zwischen dem Genom und den äußeren Einflüssen wie z. B. der Bewässerung,<br />

der Temperatur, den Lichtverhältnissen oder den zugeführten Nährstoffen. Durch ein besseres<br />

Verständnis dieses Zusammenspiels und dessen Auswirkungen auf den Phänotyp<br />

einer Pflanze erhofft sich das BMBF eine Ertragssteigerung von Nutzpflanzen [Bundesministerium<br />

für Forschung und Bildung (b)].<br />

Die Idee der Phänotypisierung von Pflanzen ist nicht neu, entsprechende Untersuchungen<br />

werden bislang jedoch überwiegend manuell durchgeführt und sind somit sehr arbeitsintensiv.<br />

Die bestehenden Verfahren werden in der Regel in destruktive und nichtdestruktive<br />

Verfahren unterteilt: Bei den destruktiven Verfahren werden die einzelnen Organe<br />

der Pflanze abgetrennt und beispielsweise das interessierende Attribut der Blattgröße mit<br />

Hilfe eines Blattflächenmessgerätes bestimmt. Die ermittelten Ergebnisse sind zwar sehr<br />

genau, durch die Zerstörung der Pflanze eignet sich diese Art der Verfahren jedoch nicht<br />

zur Feststellung von Veränderungen einer Pflanze. Für derartige Untersuchungen finden<br />

nichtdestruktive Verfahren Verwendung, bei denen die vorzunehmenden Messungen direkt<br />

5


2 <strong>Raum</strong>-zeitlich dichtes Monitoring von Pflanzenbeständen mittels Multi-Sensorsystem<br />

an der Pflanze erfolgen, ohne sie zu zerstören. Ein Beispiel für ein solches Verfahren ist die<br />

manuelle Digitalisierung von charakteristischen Punkten einer Pflanze, wie sie z. B. von<br />

Kahlen u. Stützel (2007) vorgestellt wird. Problematisch ist bei diesem Verfahren neben<br />

dem hohen Arbeitsaufwand die starke Vereinfachung des entstehenden Pflanzenmodells<br />

und eine damit verbundene Verfälschung der Messgrößen sowie die Tatsache, dass es sich<br />

um kein berührungsfreies Verfahren handelt, sodass aufgedeckte Bewegungen der Pflanze<br />

nicht allein auf natürliche Umwelteinflüsse zurückzuführen sind.<br />

Solche Nachteile der bestehenden Verfahren sowie die Forderung von Eberius u. Lima-<br />

Guerra (2009), für eine erfolgreiche Phänotypisierung mehrere Tausend Pflanzen pro Tag<br />

zu untersuchen, machen eine automatische und berührungsfreie Phänotypisierung notwendig,<br />

die erst durch die Entwicklungen in der Robotik, der Datenverarbeitung sowie<br />

der Sensortechnik ermöglicht wird [Bundesministerium für Forschung und Bildung (b)].<br />

Die vorliegende Arbeit ist in ein kooperatives Forschungsprojekt des IKG sowie des Instituts<br />

für Gartenbauliche Produktionssysteme (IGPS) der Leibniz Universität Hannover<br />

eingebettet, das sich ebenfalls mit der Phänotypisierung von Pflanzen beschäftigt. Das<br />

Ziel dieses Projektes ist eine nichtdestruktive, berührungsfreie Erfassung von Pflanzen –<br />

hier am Beispiel der Gurkenpflanze – mit Hilfe eines MSS, das als Ergebnis der Datenerfassung<br />

eine räumlich und zeitlich hochauflösende 3-D-Punktwolke liefert. Aus dieser<br />

Punktwolke soll zum einen eine detaillierte geometrische Beschreibung der aufgenommenen<br />

Pflanzen abgeleitet, zum anderen soll der Wachstumsprozess der Pflanze – auch unter<br />

Veränderung der äußeren Einflüsse – überwacht werden [Paffenholz (2012)].<br />

Bevor die vorliegende Arbeit in den Gesamtzusammenhang des Projektes eingeordnet wird<br />

(vgl. Abschnitt 2.4), werden im Folgenden die für das Verständnis benötigten Grundlagen<br />

hinsichtlich der verwendeten Sensorik, der Datenerfassung sowie der Vorverarbeitung der<br />

Daten erläutert.<br />

2.1 Komponenten des Multi-Sensorsystems<br />

Die Grundlage des für die Datenerfassung verwendeten MSS bildet ein Roboter vom<br />

Typ Volksbot RT6 des Fraunhofer-Instituts, der mit vier Sensoren bestückt ist: zwei Laserscannern,<br />

einer Digitalkamera und einer Global-Positioning-System(GPS)-gestützten<br />

6


2.1 Komponenten des Multi-Sensorsystems<br />

inertialen Messeinheit (engl. Inertial Measurement Unit (IMU)).<br />

Den für die Datenerfassung wichtigsten Sensor stellt ein Zeilenscanner der Firma SICK<br />

dar, der an der Vorderseite des Roboters angebracht ist und dessen Nullrichtung horizontal<br />

zum Messobjekt zeigt (siehe Abbildung 2.1). Die vom Hersteller angegebene Genauigkeit<br />

dieses Laserscanners beträgt 12 mm auf 6 m Entfernung zum Messobjekt.<br />

Das Ergebnis eines einzelnen Scans ist eine<br />

2-D-Scanzeile; die für das Ableiten von<br />

Pflanzenmerkmalen benötigte dritte Dimension<br />

entsteht durch die vertikale Bewegung<br />

des MSS mit Hilfe eines Lift-Wagens.<br />

Um einen Bezug zwischen den einzelnen<br />

Scanzeilen herzustellen, wird der zweite<br />

Laserscanner – ein Zeilenscanner der Firma<br />

Hokuyo – verwendet. Dieser Scanner ist<br />

so am Roboter angebracht, dass seine Nullrichtung<br />

senkrecht nach unten zeigt und er<br />

somit die aktuelle Höhe des Roboters und<br />

damit auch der entsprechenden Scanzeile<br />

Abb. 2.1: Multi-Sensorsystem<br />

bestimmen kann. Durch Einbeziehung der<br />

[Paffenholz u. a. (2013)]<br />

Höhe können die einzelnen Scanzeilen des<br />

SICK-Scanners zu einer 3-D-Punktwolke<br />

zusammengesetzt werden (siehe Paffenholz u. a. (2013)).<br />

Neben dem SICK-Laserscanner wird auch eine Digitalkamera der Firma The Imaging<br />

Source für die Datenbestimmung verwendet: Die von ihr ermittelten RGB-Werte können<br />

zum einen zur Einfärbung der Punktwolke verwendet werden (Visualisierung), zum anderen<br />

liefern die Bilddaten zusätzliche Informationen: Da die Fotos eine höhere Auflösung<br />

besitzen als die 3-D-Punktwolke, sind in ihnen z. B. feine Blattstrukturen besser erkennbar<br />

als in der Punktwolke [Paffenholz u. a. (2013)].<br />

Der vierte Sensor – die GPS-gestützte IMU – dient zurzeit vor allem der Definition einer<br />

zuverlässigen Zeitbasis, die die Grundlage für eine korrekte Synchronisierung bildet. Auf<br />

diesbezügliche Details wird an dieser Stelle jedoch ebenso verzichtet wie auf technische<br />

7


2 <strong>Raum</strong>-zeitlich dichtes Monitoring von Pflanzenbeständen mittels Multi-Sensorsystem<br />

Angaben zu den Sensoren und die genaue Vorgehensweise zur Generierung der eingefärbten<br />

Punktwolke. Entsprechende Informationen sind in Paffenholz u. a. (2013) zu finden.<br />

2.2 Datenerfassung<br />

Neben der Auswahl der Sensoren spielt die Bestimmung einer geeigneten Aufnahmekonfiguration<br />

eine wichtige Rolle: Aufgrund von Verdeckungen ist eine Aufnahme pro Pflanze<br />

nicht ausreichend, sodass für eine vollständige Erfassung jede Pflanze aus unterschiedlichen<br />

Blickrichtungen aufgenommen werden muss. Um diese verschiedenen Aufnahmen<br />

in der anschließenden Prozessierung in ein gemeinsames Koordinatensystem überführen<br />

zu können (siehe Abschnitt 2.3), müssen benachbarte Aufnahmen bis zu einem gewissen<br />

Grad überlappen. Gleichzeitig sollte die Aufnahmedauer für eine möglichst effiziente Datenerfassung<br />

jedoch so gering wie möglich gehalten werden. Als einen guten Kompromiss<br />

zwischen Aufnahmedauer und Anzahl der Aufnahmen schlagen Paffenholz u. a. (2013) die<br />

in Abbildung 2.2 dargestellte Aufnahmekonfiguration vor:<br />

Jede Pflanze wird von drei unterschiedlichen Aufnahmepositionen (sPos 0 ◦ , sPos 120 ◦ und<br />

Abb. 2.2: Messkonfiguration [Paffenholz u. a. (2013)]<br />

8


2.3 Registrierung unterschiedlicher Aufnahmerichtungen<br />

sPos 240 ◦ ) erfasst, wobei die Nullrichtungen der jeweiligen Scan-Positionen einen Winkel<br />

von 120 ◦ einschließen. Da sowohl während des Herauf- (Scanrichtung Up“) als auch<br />

”<br />

während des Herunterfahrens (Scanrichtung Down“) des MSS die Pflanze gescannt wird,<br />

”<br />

liegen nach Trennung dieser beiden Fahrten für jede Aufnahmeposition zwei Punktwolken<br />

vor (für nähere Informationen siehe Paffenholz u. a. (2013)). Durch die Wahl einer<br />

Entfernung zwischen Laserscanner und Pflanze von ca. einem Meter besitzt jede dieser<br />

Punktwolken eine Punktdichte von 9 Punkten pro cm 2 .<br />

Obwohl die insgesamt sechs Aufnahmen nicht zeitgleich durchgeführt werden können,<br />

wird die Gesamtheit dieser Aufnahmen als die Punktwolke einer Zeitepoche definiert.<br />

Diese Vereinfachung kann vorgenommen werden, da alle sechs Aufnahmen innerhalb von<br />

ca. drei Minuten erfolgen, sodass die zwischenzeitlich stattfindende Bewegung der Pflanze<br />

als äußerst gering angesehen werden kann.<br />

Für eine Beobachtung der Pflanzen über einen längeren Zeitraum wird das oben beschriebene<br />

Vorgehen in vorab definierten Zeitabständen wiederholt.<br />

2.3 Registrierung unterschiedlicher Aufnahmerichtungen<br />

Das Ergebnis der Datenerfassung sind somit Aufnahmen aus unterschiedlichen Richtungen<br />

(engl. Views) sowie zu unterschiedlichen Zeitpunkten, die jeweils in einem lokalen Sensorkoordinatensystem<br />

vorliegen. Um diese Aufnahmen gemeinsam auswerten zu können,<br />

muss zunächst die sogenannte Registrierung – das Zusammenführen aller Aufnahmen in<br />

ein gemeinsames Koordinatensystem – durchgeführt werden [Campbell u. Flynn (2001)].<br />

Hierfür werden diejenigen Transformationsparameter bestimmt, die die lokalen Koordinatensysteme<br />

durch Translationen und Rotationen sowie unter Minimierung eines Fehlermaßes<br />

bestmöglich ineinander überführen [Besl u. McKay (1992)]. Da es sich hierbei<br />

um ein nichtlineares Optimierungsproblem handelt, werden für die Lösung Näherungswerte<br />

benötigt [Neugebauer (1997)], sodass der Vorgang der Registrierung in der Regel<br />

in zwei Schritten durchgeführt wird: Zunächst werden mit Hilfe der Grobregistrierung<br />

Näherungswerte für die gesuchten Transformationsparameter bestimmt, die als Grundlage<br />

für den zweiten Schritt, die Feinregistrierung, dienen und gewährleisten sollen, dass<br />

in diesem zweiten Schritt von den vielen lokal optimalen Lösungen das globale Optimum<br />

9


2 <strong>Raum</strong>-zeitlich dichtes Monitoring von Pflanzenbeständen mittels Multi-Sensorsystem<br />

gefunden wird [Campbell u. Flynn (2001)].<br />

Im Folgenden wird zunächst ein kurzer Überblick über bestehende Verfahren der Grobbzw.<br />

Feinregistrierung gegeben, bevor erläutert wird, auf welche Weise die Registrierung<br />

in dem vorgestellten Projekt erfolgt (vgl. Abschnitt 2.3.3).<br />

2.3.1 Verfahren für die Grobregistrierung<br />

Die Grobregistrierung kann auf zwei verschiedene Arten durchgeführt werden:<br />

• Werden die Daten in einer sogenannten kontrollierten Umgebung aufgenommen, so<br />

sind die Beziehungen zwischen den einzelnen lokalen Koordinatensystemen a priori<br />

annähernd genau bekannt. Das ist z. B. dann der Fall, wenn eine Kalibrierung<br />

des Scanners in Bezug auf die Umgebung durchgeführt wurde [Campbell u. Flynn<br />

(2001)] oder wenn sich das Objekt auf einem Drehteller befindet, mit dessen Hilfe<br />

die relative Orientierung der Aufnahmen bestimmt werden kann [Oishi u. a. (2003)].<br />

• Liegt keine kontrollierte Umgebung vor, so erfolgt die Grobregistrierung mittels sogenannter<br />

Matching-Verfahren, deren Grundlage die automatische Suche nach identischen<br />

Punkten in den verschiedenen Aufnahmen bildet [Campbell u. Flynn (2001)].<br />

Mit Hilfe dieser korrespondierenden Punkte werden die gesuchten Transformationsparameter<br />

bestimmt.<br />

Eine Möglichkeit, existierende Matching-Verfahren zu klassifizieren, ergibt sich aus<br />

der verwendeten Repräsentationsform der Punkte, die sowohl einen effizienten Vergleich<br />

von Punkten aus unterschiedlichen Aufnahmen ermöglichen [Johnson u. Hebert<br />

(1999)] als auch dazu geeignet sein muss, Punkte eindeutig zu beschreiben<br />

[Lamdan u. Wolfson]. Eine weitere Klassifizierungsmöglichkeit ergibt sich aus der<br />

Anzahl der Aufnahmen, in denen die Korrespondenzsuche durchgeführt wird: Es<br />

existieren Verfahren für die Suche von paarweisen Korrespondenzen, die das Matching<br />

in genau zwei Aufnahmen durchführen, und sogenannte Multi-View-Korrespondenz-Algorithmen,<br />

die simultan eine Aufnahme mit mehreren anderen zusammenführen<br />

[Mian u. a. (2006)].<br />

Ein Beispiel für die Suche von paarweisen Korrespondenzen findet sich in der Veröffentlichung<br />

von Johnson u. Hebert (1999), in der als Repräsentationsform sogenannte<br />

10


2.3 Registrierung unterschiedlicher Aufnahmerichtungen<br />

Spin-Images vorgeschlagen werden. Ausgangspunkt für die Berechnung eines solchen<br />

Bildes sind vermaschte und orientierte Punkte, die aus den entsprechenden 3-D-<br />

Koordinaten sowie der Oberflächennormalen im jeweiligen Punkt bestehen. Zufällig<br />

ausgewählte orientierte Punkte bilden die Grundlage für die Definition je eines zylindrischen<br />

2-D-Koordinatensystems. Die Akkumulation dieser Koordinaten der benachbarten<br />

Punkte in einem zweidimensionalen Histogramm liefert das jeweilige<br />

Spin-Image (siehe Abbildung 2.3).<br />

Abb. 2.3: Berechnung eines Spin-Images [Johnson u. Hebert (1999)]<br />

Aufgrund dieser bildbasierten Repräsentation können für das eigentliche Matching<br />

die gut untersuchten Verfahren aus der Bildanalyse angewendet werden. Johnson u.<br />

Hebert (1999) berechnen hierfür den Korrelationskoeffizienten (siehe z. B. Gonzalez<br />

u. Woods (2002)), der für ähnliche Spin-Images und damit für ähnliche Punkte<br />

einen hohen Wert annimmt. Die so gefundenen korrespondierenden Punkte können<br />

für die Durchführung der Grobregistrierung genutzt werden.<br />

Für den Fall, dass ein Objekt aus mehr als zwei Richtungen aufgenommen wurde,<br />

ist die Anwendung einer paarweisen Korrespondenzsuche auf jeweils zwei der Bilder<br />

theoretisch möglich, in der Praxis jedoch sehr ineffizient. Insbesondere für ungeordnete<br />

Aufnahmen, bei denen unbekannt ist, welche der Aufnahmen überlappen,<br />

existieren aus diesem Grund sogenannte Multi-View-Korrespondenz-Algorithmen.<br />

Mian u. a. (2006) stellen in ihrer Veröffentlichung einen solchen Algorithmus vor:<br />

11


2 <strong>Raum</strong>-zeitlich dichtes Monitoring von Pflanzenbeständen mittels Multi-Sensorsystem<br />

Als Repräsentationsform wird ein Tensor gewählt, für dessen Bestimmung zunächst<br />

eine Dreiecksvermaschung der Punktwolke durchgeführt wird. Jeweils ein Paar von<br />

orientierten Punkten wird für die Definition eines dreidimensionalen kartesischen<br />

Koordinatensystems genutzt, das wiederum dazu dient, ein 3-D-Gitter zu definieren.<br />

Die Schnittflächen der jeweiligen Gitterzellen mit der vermaschten Punktwolke<br />

werden in einem Tensor dritter Ordnung abgespeichert und dienen der Repräsentation<br />

von Punkten (siehe Abbildung 2.4).<br />

Abb. 2.4: Berechnung eines Tensors (Ausschnitt aus [Mian u. a. (2006)])<br />

Für die effiziente Suche nach Korrespondenzen wird eine vierdimensionale Hashtabelle<br />

verwendet, in der die Tensoren aller Aufnahmen abgespeichert sind. Über<br />

die Tabellen-Indizes werden mögliche Korrespondenzen gesucht, die anhand eines<br />

Korrelationskoeffizienten sowie eines Ähnlichkeitsmaßes bewertet werden.<br />

2.3.2 Verfahren für die Feinregistrierung<br />

Ebenso wie bei der Grobregistrierung können auch die Verfahren zur Feinregistrierung<br />

nach der Anzahl der zu registrierenden Aufnahmen unterschieden werden: Für den Zwei-<br />

Aufnahmen-Fall ist das Standardverfahren der von Besl u. McKay (1992) vorgestellte<br />

Iterative-Closest-Point(ICP)-Algorithmus [Campbell u. Flynn (2001)]: Ausgangspunkt für<br />

diesen Algorithmus bilden zwei Datensätze mit n 1 bzw. n 2 Punkten sowie die aus der<br />

Grobregistrierung bekannten Transformationsparameter, die die beiden Datensätze näherungsweise<br />

ineinander überführen. Die Anwendung dieser Transformation stellt die Initia-<br />

12


2.3 Registrierung unterschiedlicher Aufnahmerichtungen<br />

lisierung des ICP-Algorithmus dar.<br />

Im darauffolgenden Schritt werden zwischen den beiden Datensätzen die nächsten Nachbarn<br />

ermittelt und – unter der Annahme, dass diese nächsten Nachbarn korrespondierenden<br />

Punkten entsprechen – die Transformation zwischen den beiden Datensätzen bestimmt.<br />

Nach Durchführung dieser Transformation erfolgt erneut eine Nachbarschaftssuche.<br />

Das Verfahren wird so lange iterativ fortgesetzt, bis die Änderung des mittleren<br />

quadratischen Fehlers der korrespondierenden Punkte kleiner als ein vorgegebener Schwellwert<br />

wird. Der ICP-Algorithmus konvergiert, wie von Besl u. McKay (1992) dargelegt,<br />

immer – jedoch nicht zwangsläufig gegen das globale Minimum. Aus diesem Grund ist eine<br />

sorgfältige Grobregistrierung notwendig, die gute Näherungswerte für die Initialisierung<br />

des Algorithmus liefert [Campbell u. Flynn (2001)].<br />

Für eine Multi-View-Feinregistrierung führt der ICP-Algorithmus zu keinen guten Ergebnissen,<br />

da der Registrierungsfehler mit der Anzahl der Aufnahmerichtungen zunimmt<br />

[Oishi u. a. (2003)]. Aus diesem Grund existieren für diesen Fall – ähnlich wie für die<br />

Grobregistrierung – Algorithmen, die die unterschiedlichen Aufnahmerichtungen gleichzeitig<br />

ineinander überführen. Ein Beispiel für eine solche simultane Feinregistrierung ist<br />

in Neugebauer (1997) zu finden:<br />

Ausgangspunkt für den Algorithmus bilden n Distanzbilder B i , deren relative Orientierungen<br />

θ i – bestehend aus drei Translationen und drei Rotationen – näherungsweise aus der<br />

Grobregistrierung bekannt sind. Der Autor formuliert die Feinregistrierung als Optimierungsproblem,<br />

das eine vorher definierte Distanz D zwischen den Überlappungsbereichen<br />

[<br />

]<br />

aller Distanzbilder in Abhängigkeit von der relativen Orientierung θ = θ 0 ,...,θ n 1<br />

minimiert:<br />

ɛ 2 = min ∑ i≠j<br />

D(T (θ)<br />

i B i ,T (θ)<br />

j B j ) (2.1)<br />

mit:<br />

ɛ : Verbesserungsquadratsumme<br />

T (θ)<br />

i : Ähnlichkeitstransformation unter Verwendung der relativen Orientierung θ.<br />

Da es sich um ein nichtlineares Optimierungsproblem handelt, muss zum einen eine Linearisierung<br />

erfolgen, zum anderen wird eine Iteration durchgeführt, die die aus der Grobregistrierung<br />

bekannten Näherungswerte Schritt für Schritt verbessert.<br />

13


2 <strong>Raum</strong>-zeitlich dichtes Monitoring von Pflanzenbeständen mittels Multi-Sensorsystem<br />

2.3.3 Durchführung der Registrierung im Rahmen des Projektes<br />

Die Grobregistrierung der in dieser Arbeit verwendeten Datensätze kann auf zwei Arten<br />

erfolgen: Zum einen sind aufgrund der sorgfältig ausgewählten Aufnahmekonfiguration<br />

sowohl die Distanzen zwischen dem jeweiligen Aufnahmestandort und der Pflanze als<br />

auch der zwischen zwei Standpunkten eingeschlossene Winkel annähernd genau a priori<br />

bekannt, sodass es sich um eine kontrollierte Umgebung handelt und die Grobregistrierung<br />

direkt mit diesen Werten durchgeführt werden kann. Um die kontrollierte Umgebung auch<br />

für zeitlich spätere Aufnahmen zu erhalten, werden die jeweiligen Aufnahmepositionen<br />

bei der zeitlich ersten Aufnahme auf dem Boden markiert und können somit für weitere<br />

Aufnahmen rekonstruiert werden (siehe Paffenholz u. a. (2013)).<br />

Da diese Rekonstruktion der Aufnahmeposition jedoch relativ fehleranfällig ist, werden<br />

außerdem mit Reflexfolie beklebte Targets so um die Pflanze herum positioniert, dass in<br />

den Überlappungsbereichen der verschiedenen Aufnahmen mindestens drei Targets liegen.<br />

Diese Targets können aufgrund ihrer Reflexionseigenschaften einfach und schnell aus den<br />

Laserscans extrahiert werden und dienen als korrespondierende Punkte und somit als<br />

Grundlage für ein Matching der Punktwolken.<br />

Die für die Verbesserung der Registrierung im Anschluss durchzuführende Feinregistrierung<br />

erfolgt mit Hilfe des ICP-Algorithmus. Da dieser Algorithmus nur für den Zwei-<br />

Abb. 2.5: Schematischer Überblick über den Registrierungsvorgang [Paffenholz u. a.<br />

(2013)]<br />

14


2.4 Einordnung der Arbeit in den Gesamtzusammenhang des Projektes<br />

Aufnahmen-Fall definiert ist, wird die Feinregistrierung paarweise durchgeführt, wobei<br />

die Aufnahme von Scanposition 0 ◦ als Referenz dient [Paffenholz u. a. (2013)]. Aufgrund<br />

der geringen Anzahl der Aufnahmen, die zudem geordnet sind, spielt der in Abschnitt<br />

2.3.2 erwähnte Registrierungsfehler, der bei Anwendung des ICP-Algorithmus auf den<br />

Multi-View-Fall auftritt, keine Rolle.<br />

Der gesamte Registrierungsvorgang ist schematisch in Abbildung 2.5 dargestellt.<br />

2.4 Einordnung der Arbeit in den Gesamtzusammenhang<br />

des Projektes<br />

Nach der Datenerfassung und -prozessierung liegt für jede Zeitepoche eine registrierte und<br />

eingefärbte 3-D-Punktwolke vor. Um aus einer solchen Punktwolke Pflanzenmerkmale wie<br />

z. B. die Blattgröße ableiten zu können, müssen die ungeordneten Punkte der Punktwolke<br />

segmentiert, d. h. nach einem vorher definierten Ähnlichkeitsmaß gruppiert werden.<br />

Im Hinblick auf die Zielsetzung des Projektes ist dies gleichbedeutend mit der automatischen<br />

Extraktion der interessierenden Organe der Pflanze – in dieser Arbeit vorrangig<br />

der Blätter. Die vorliegende Arbeit kann somit innerhalb des gesamten Projektes an den<br />

Anfang der Auswertekette eingeordnet werden. Da alle folgenden Berechnungen auf dieser<br />

Arbeit aufbauen, besteht ein hoher Anspruch an die Richtigkeit der <strong>Segmentierung</strong>.<br />

15


3 <strong>Segmentierung</strong> von Laserscandaten<br />

Laserscanner finden insbesondere in der Geodäsie ihre Anwendung, wo sie z. B. zur Erstellung<br />

von digitalen Gelände- oder 3-D-Stadtmodellen sowie zur Rekonstruktion von<br />

industriellen Anlagen eingesetzt werden [Vosselman u. Maas (2010)]. Mit der stetigen<br />

Entwicklung der Robotik in den letzten Jahren nehmen auch die Anwendungsmöglichkeiten<br />

in diesem Bereich zu: Laserscanner auf Robotern werden z. B. für die simultane<br />

Lokalisierung und Kartierung (engl. Simultaneous Localization and Mapping (SLAM))<br />

oder für die Objekterkennung und -verfolgung verwendet (siehe z.B. Montemerlo u. a.<br />

(2002)).<br />

Bei all diesen Anwendungen ist das Messergebnis eines Laserscanners eine ungeordnete<br />

3-D-Punktwolke, die in dieser Form zunächst schwer zu verarbeiten ist [Wang u. Shan<br />

(2009)]. Um aus der aufgenommenen ungeordneten Punktwolke effizient die benötigten<br />

Informationen extrahieren zu können, wird in der Regel eine Prozessierungskette durchlaufen,<br />

die sich aus sogenannten Low-Level- und High-Level-Schritten zusammensetzt.<br />

Nach Besl (1988) zeichnen sich Low-Level-Schritte durch die Verarbeitung ungeordneter<br />

Werte – z. B. Punkte einer 3-D-Punktwolke – aus, während bei High-Level-Schritten<br />

bereits geordnete Gruppen von Punkten die Grundlagen bilden.<br />

3.1 Der Begriff der <strong>Segmentierung</strong><br />

Ein sehr bedeutender Low-Level-Schritt bei der Verarbeitung von Punktwolken ist die<br />

<strong>Segmentierung</strong>. Hierbei wird die Gesamtmenge der aufgenommenen Punkte in disjunkte,<br />

zusammenhängende Teilmengen unterteilt [Gonzalez u. Woods (2002)], sodass die Punkte<br />

innerhalb einer Teilmenge ähnliche Eigenschaften aufweisen, während sich die Punkte<br />

benachbarter Teilmengen in ihren Eigenschaften unterscheiden [Sima u. a. (2013)]. Das<br />

Ergebnis der <strong>Segmentierung</strong> ist somit eine symbolische Beschreibung der Punktwolke,<br />

die die Grundlage für die nachfolgenden High-Level-Schritte bildet [Arman u. Aggarwal<br />

17


3 <strong>Segmentierung</strong> von Laserscandaten<br />

(1993)].<br />

Liegt ein für den Zweck der nachfolgenden High-Level-Schritte nicht zufriedenstellendes<br />

Ergebnis vor, so wird zwischen zwei Fällen unterschieden [Felzenszwalb u. Huttenlocher<br />

(2004):<br />

• Ist die <strong>Segmentierung</strong> zu fein, d. h. es existieren Segmente, die aufgrund ihrer ähnlichen<br />

Eigenschaften eigentlich zusammengefasst werden müssten, so wird von Übersegmentierung<br />

gesprochen.<br />

• Liegen dagegen zu wenige Segmente vor, ist die <strong>Segmentierung</strong> zu grob. In diesem<br />

Fall – der sogenannten Untersegmentierung – werden fälschlicherweise Segmente<br />

zusammengefasst, die nicht zusammengehören.<br />

Bei der <strong>Segmentierung</strong> von Laserscandaten wird nach Belton (2008) zwischen der <strong>Segmentierung</strong><br />

von spektraler und von geometrischer Information unterschieden.<br />

3.2 <strong>Segmentierung</strong> von spektraler Information<br />

Ein Laserscanner an sich liefert als direktes spektrales Messergebnis nur Intensitätswerte,<br />

die ein Maß für die Energie des zurückgestreuten Signals sind [Pfeifer u. a. (2007)]. Hinzu<br />

kommt, dass die Anzahl hybrider Messsysteme – bestehend aus einem Laserscanner und<br />

einer Kamera – zunimmt, sodass in diesem Fall die entsprechende RGB-Farbinformation<br />

ebenfalls für die <strong>Segmentierung</strong> verwendet werden kann. In beiden Fällen wird die <strong>Segmentierung</strong><br />

in der Regel nicht im 3-D-<strong>Raum</strong> durchgeführt, sondern es erfolgt zunächst<br />

eine Projektion der Messwerte auf eine Ebene [Belton (2008)]. Infolgedessen liegt die<br />

spektrale Information in Form von Intensitäts- bzw. RGB-Bildern vor, sodass sich auf<br />

dieses <strong>Segmentierung</strong>sproblem die bereits sehr gut erforschten und vielfältigen <strong>Segmentierung</strong>sverfahren<br />

der Bildanalyse anwenden lassen. Da der Schwerpunkt dieser Arbeit auf<br />

der <strong>Segmentierung</strong> der geometrischen Information liegt, wird an dieser Stelle auf weitere<br />

Ausführungen über spektrale <strong>Segmentierung</strong> verzichtet und auf entsprechende Fachliteratur<br />

wie z. B. Gonzalez u. Woods (2002) verwiesen.<br />

18


3.3 <strong>Segmentierung</strong> von geometrischer Information<br />

3.3 <strong>Segmentierung</strong> von geometrischer Information<br />

Wird die geometrische Information verwendet, kann die <strong>Segmentierung</strong> als Zusammenfassung<br />

derjenigen Punkte verstanden werden, die sich auf derselben Oberfläche befinden<br />

[Vosselman u. Maas (2010)]. Diese <strong>Segmentierung</strong> kann entweder direkt in der unstrukturierten<br />

3-D-Punktwolke erfolgen oder – ähnlich wie bei der <strong>Segmentierung</strong> der spektralen<br />

Information – auf Bildebene.<br />

Bei der direkten <strong>Segmentierung</strong> der 3-D-Punktwolke wird die Definition der Nachbarschaften<br />

als problematisch angesehen, da sie – anders als bei Bildern – nicht direkt gegeben<br />

sind. In der Regel werden für jeden Punkt die k nächsten Punkte gesucht und als Nachbarn<br />

deklariert. Da diese Suche sehr rechenintensiv ist, werden für eine effiziente Umsetzung<br />

räumliche Datenstrukturen wie z. B. k-D-Bäume benötigt [Shah (2006)].<br />

Aus diesem Grund erfolgt die <strong>Segmentierung</strong> häufig auf Bildebene, auf sogenannten Tiefenbildern<br />

(häufig auch als Distanzbilder bezeichnet). Mathematisch wird solch ein Tiefenbild<br />

als eine Funktion f(r, c) in Abhängigkeit von der Bildzeile r und der Bildspalte<br />

c definiert [Hoffman u. Jain (1987)], wobei der Funktionswert f(r, c) die Distanz des gemessenen<br />

Punktes zum Sensor angibt [Besl (1988)]. Üblicherweise wird diese Darstellung<br />

als 2,5-dimensional bezeichnet [Wang u. Shan (2009)], womit bereits der große Vorteil<br />

gegenüber den 2-D-Intensitätsbildern deutlich wird: Durch die bildhafte Darstellung der<br />

Tiefenwerte – und damit der physikalischen Oberfläche der gemessenen Objekte – bleibt<br />

die geometrische Information der abgebildeten Oberflächen explizit erhalten und kann für<br />

die <strong>Segmentierung</strong> verwendet werden [Yokoya u. Levine (1989)].<br />

Die <strong>Segmentierung</strong> von Tiefenbildern ist ein gut untersuchtes Forschungsfeld, was die Vielzahl<br />

an Publikationen in diesem Bereich verdeutlicht (ein guter Überblick über bestehende<br />

Verfahren ist in Hoover u. a. (1996) zu finden). Gegenüber der direkten <strong>Segmentierung</strong> innerhalb<br />

der Punktwolke gestaltet sich die Definition der Nachbarschaften bei Tiefenbildern<br />

zudem deutlich einfacher: Aufgrund der bildhaften Darstellung können die Definitionen<br />

der Vierer- und Achternachbarschaften aus der Bildanalyse (siehe z. B. Gonzalez u. Woods<br />

(2002)) direkt auf die Tiefenbilder übertragen werden.<br />

Dennoch sollte nach Wang u. Shan (2009) die <strong>Segmentierung</strong> direkt in der 3-D-Punktwolke<br />

erfolgen, da die Konvertierung der 3-D-Punktwolke zu einem 2,5-D-Tiefenbild in den meis-<br />

19


3 <strong>Segmentierung</strong> von Laserscandaten<br />

ten Fällen einen Informationsverlust mit sich bringt, der insbesondere bei Verdeckungen<br />

als kritisch anzusehen ist.<br />

Unabhängig davon, ob die <strong>Segmentierung</strong> in Tiefenbildern oder direkt in der 3-D-Punktwolke<br />

durchgeführt wird, kann die <strong>Segmentierung</strong> der geometrischen Information auf zwei<br />

Arten durchgeführt werden, die im Folgenden erläutert werden.<br />

3.3.1 <strong>Segmentierung</strong> unter Verwendung von<br />

Oberflächeneigenschaften<br />

Die <strong>Segmentierung</strong> unter Verwendung von Oberflächeneigenschaften – von Wang u. Shan<br />

(2009) auch als Patch-Type-Methode bezeichnet – gruppiert benachbarte Punkte nach einem<br />

auf Oberflächeneigenschaften basierenden Ähnlichkeitsmaß. Typischerweise werden<br />

für die Beurteilung der Ähnlichkeit die Orientierung der Oberfläche – repräsentiert durch<br />

den Einheitsnormalenvektor der jeweiligen Tangentialebene –, Krümmungen und/oder die<br />

quadratischen Koeffizienten der bestanpassenden Oberfläche zweiten Grades verwendet.<br />

Zu beachten ist jedoch, dass sowohl die Krümmungen, die sich aus ersten und zweiten partiellen<br />

Ableitungen berechnen, als auch die Normalenvektoren und quadratischen Koeffizienten,<br />

für deren Berechnung eine sorgfältig definierte lokale Nachbarschaft benötigt wird,<br />

sehr anfällig gegenüber Rauschen sind. Infolgedessen sollten entweder robuste Verfahren<br />

verwendet werden oder vor der Berechnung der entsprechenden Werte eine Glättung erfolgen<br />

[Hoffman u. Jain (1987)].<br />

Unter der Annahme, dass es sich bei den gesuchten Regionen um homogene Bereiche mit<br />

starken Änderungen in den Eigenschaften von einem Bereich zum nächsten handelt, wird<br />

in einem Großteil der Literatur eine weitere Klassifizierung dieser Patch-Type-Methoden<br />

durchgeführt, indem eine Unterteilung in kantenbasierte und regionenbasierte Verfahren<br />

(siehe z. B. Belton (2008), Yokoya u. Levine (1989) oder Bhandarkar u. Siebert (1992))<br />

vorgenommen wird.<br />

3.3.1.1 Kantenbasierte Verfahren<br />

Kantenbasierte Verfahren sind dadurch motiviert, dass sich Objektgrenzen durch Diskontinuitäten<br />

in den Oberflächeneigenschaften auszeichnen. Das Ziel dieser Verfahren ist<br />

20


3.3 <strong>Segmentierung</strong> von geometrischer Information<br />

zunächst die Detektion dieser Diskontinuitäten/Kanten, bevor in einem zweiten Schritt<br />

alle Punkte, die von einer solchen Kante eingeschlossen werden, zu einem Segment zusammengefasst<br />

werden [Yokoya u. Levine (1989)].<br />

Üblicherweise werden kantenbasierte Verfahren nicht auf 3-D-Punktwolken, sondern auf<br />

Tiefenbilder angewendet [Wang u. Shan (2009)], für die drei Arten von Kanten (engl.<br />

edges) definiert werden [Krishnapuram u. Gupta (1992)]:<br />

y<br />

y<br />

y<br />

x 0<br />

x<br />

x 0<br />

x<br />

x 0<br />

x<br />

Abb. 3.1: Kantentypen in Tiefenbildern: Jump-Edge (links); Crease-Edge (Mitte);<br />

Smooth-Edge (rechts) (nach Krishnapuram u. Gupta (1992))<br />

• Jump-Edges (siehe Abbildung 3.1 (links)) markieren Tiefensprünge. Sie treten<br />

dort auf, wo es zu Verdeckungen kommt, und sind vergleichbar mit Kanten in Intensitätsbildern,<br />

die ebenfalls durch Sprünge in den Werten entstehen. Aus diesem<br />

Grund können für die Detektion von Jump-Edges die aus der Bildanalyse bekannten<br />

Kantenoperatoren (z. B. Gradientenoperatoren wie der Sobel-Operator oder auf der<br />

zweiten Ableitung basierende Detektoren wie der Laplacian-of-a-Gaussian-Operator,<br />

siehe Gonzalez u. Woods (2002)) direkt adaptiert werden [Bellon u. a. (1999)].<br />

• Crease-Edges (siehe Abbildung 3.1 (Mitte)) zeigen Diskontinuitäten in der Richtung<br />

der Oberflächennormale und entstehen z. B. dort, wo zwei Oberflächen aufeinander<br />

treffen. Die Detektion dieser Kanten ist nicht so trivial wie die der Jump-<br />

Edges [Hoffman u. Jain (1987)], es gibt jedoch eine Reihe von Publikationen, die sich<br />

mit der Lösung dieses Problems beschäftigten. Mögliche Lösungsansätze sind u. a.<br />

die Detektion mit Hilfe von morphologischen Operatoren [Krishnapuram u. Gupta<br />

(1992)], die Zuhilfenahme von differentieller Geometrie [Yokoya u. Levine (1989)]<br />

oder die Scan-Line-Approximation [Jiang u. Bunke (1999)].<br />

• Smooth-Edges (siehe Abbildung 3.1 (rechts)) treten dort auf, wo es zu Diskontinuitäten<br />

in der Krümmung kommt, während sich die Richtung der Oberflächennor-<br />

21


3 <strong>Segmentierung</strong> von Laserscandaten<br />

male kontinuierlich ändert. Diese dritte Art der Kanten spielt in der Literatur kaum<br />

eine Rolle und wird auch hier nur der Vollständigkeit halber aufgeführt.<br />

Nach der Detektion der Kanten liegen in der Regel keine geschlossenen Objektgrenzen vor.<br />

Um die Punkte innerhalb von Objektgrenzen zu Segmenten zusammenfassen zu können,<br />

müssen zunächst in einer aufwändigen Nachbearbeitung die Lücken in den detektierten<br />

Kanten geschlossen werden [Jiang u. Bunke (1999)]. Jiang u. Bunke (1997) zeigen mit<br />

der adaptiven Gruppierung von Kanten eine Möglichkeit auf, aus einem Kantenbild eine<br />

vollständige <strong>Segmentierung</strong> zu erhalten.<br />

Trotz dieses zusätzlichen Nachbearbeitungsschritts sind kantenbasierte Verfahren beliebt,<br />

da ihnen zum einen häufig einfache mathematische Operatoren (z. B. Faltungen) zu Grunde<br />

liegen und zum anderen die detektierten Objektgrenzen sehr gut zu lokalisieren sind<br />

[Jiang u. Bunke (1997)]. Hinzu kommt, dass eine kantenbasierte Repräsentation einen<br />

verhältnismäßig geringen Speicheraufwand benötigt, was eine höhere Effizienz der darauf<br />

angewandten High-Level-Algorithmen garantiert [Arman u. Aggarwal (1993)].<br />

Auch wenn sich die bisherigen Ausführungen speziell auf Tiefenbilder beziehen, kann<br />

das Aufdecken von Diskontinuitäten auch direkt in der 3-D-Punktwolke eine <strong>Segmentierung</strong>sstrategie<br />

darstellen [Belton (2008)]: In diesem Fall werden lokale Nachbarschaften<br />

definiert, für die – z. B. durch Schätzen einer besteinpassenden Ebene (siehe Abschnitt<br />

3.3.2.1) – ein lokaler Normalenvektor bestimmt wird. Starke Änderungen in der Richtung<br />

benachbarter Normalenvektoren sind ein Indikator für Crease-Edges, während Tiefensprünge<br />

aufgedeckt werden können, indem für die Nachbarn des Punktes p 0 die Abstände<br />

zur Tangentialebene in p 0 bestimmt werden.<br />

3.3.1.2 Regionenbasierte Verfahren<br />

Die regionenbasierten Verfahren können als das Komplement zu den kantenbasierten Verfahren<br />

verstanden werden: Sie verwenden die lokalen Oberflächeneigenschaften nicht für<br />

das Aufdecken von Diskontinuitäten, sondern für die Bestimmung eines Ähnlichkeitsmaßes<br />

[Wang u. Shan (2009)], anhand dessen benachbarte Punkte auf Homogenität untersucht<br />

werden. Punkte mit ähnlichen Eigenschaften werden zusammengefasst, sodass im Ergebnis<br />

Oberflächen mit kontinuierlichen Eigenschaften detektiert werden [Zhan u. Yu (2012)].<br />

Je nach <strong>Segmentierung</strong>sstrategie lassen sich die regionenbasierten Verfahren in zwei Klas-<br />

22


3.3 <strong>Segmentierung</strong> von geometrischer Information<br />

sen unterteilen [Belton (2008)]:<br />

• Das Surface-Growing ist eine Erweiterung des aus der Bildanalyse bekannten<br />

Region-Growings (siehe z. B. Gonzalez u. Woods (2002)) auf den 3-D-<strong>Raum</strong> [Vosselman<br />

u. Maas (2010)] und besteht aus zwei Schritten: der Bestimmung von Saatregionen<br />

und dem anschließenden Oberflächenwachstum. Als Saatregionen werden<br />

Punkte bezeichnet, die in ihren Eigenschaften charakteristisch für die Oberfläche<br />

sind, auf der sie sich befinden [Belton (2008)]. Von ihnen ausgehend wird das Oberflächenwachstum<br />

durchgeführt, bei dem Punkte einer Saatregion zugeordnet werden,<br />

wenn sie sich innerhalb eines bestimmten Abstandes zu ihr befinden und ähnliche<br />

Oberflächeneigenschaften aufweisen wie sie.<br />

Auf weitere Details, insbesondere wie die Saatregionen bestimmt werden oder welche<br />

Optimierungsmöglichkeiten existieren, wird an dieser Stelle verzichtet und stattdessen<br />

auf z. B. Vosselman u. Maas (2010) verwiesen.<br />

• Für das Clustering werden die Punkte in der Regel in einen hochdimensionalen<br />

Merkmalsraum überführt, in dem jeder Punkt durch eine gewisse Anzahl von<br />

Merkmalen – beispielsweise Koordinaten, Normalenvektoren, Farbwerte etc. – repräsentiert<br />

wird [Coleman u. Andrews (1979)]. Punkte mit ähnlichen Eigenschaften<br />

führen im Merkmalsraum zu Ballungen, den sogenannten Clustern. Das Ziel der<br />

<strong>Segmentierung</strong> ist das Aufdecken dieser Cluster, was entweder hierarchisch (Zusammenfassung<br />

von Punkten bzw. von bereits bestehenden Clustern mit geringer<br />

euklidischer Distanz) oder partitional (Auftrennung eines bestehenden Clusters an<br />

den Stellen, an denen große euklidische Distanzen auftreten) durchgeführt werden<br />

kann [Belton (2008)]. Für weitere Details sei auch an dieser Stelle auf weiterführende<br />

Literatur wie Jain u. Dubes (1988) verwiesen.<br />

Im Vergleich zu den kantenbasierten Verfahren haben die regionenbasierten Verfahren den<br />

großen Vorteil, dass das <strong>Segmentierung</strong>sergebnis aus bereits geschlossenen Regionen besteht<br />

und zumindest in dieser Hinsicht keine Nachbearbeitung notwendig ist.<br />

Nachteilig sind dagegen die häufig zerklüfteten Regionsgrenzen sowie die Tatsache, dass<br />

die Güte des <strong>Segmentierung</strong>sergebnisses sehr stark von den zu wählenden Parametern<br />

(Anzahl der Cluster, Auswahl der Saatregionen, Auswahl der Merkmale, die für die Be-<br />

23


3 <strong>Segmentierung</strong> von Laserscandaten<br />

urteilung der Ähnlichkeit verwendet werden) abhängig ist. Hinzu kommt, dass regionenbasierte<br />

Verfahren zur Übersegmentierung neigen, sodass häufig ein zweiter Schritt notwendig<br />

wird, durch den zusammengehörige Segmente zusammengefügt werden [Jiang u.<br />

Bunke (1999)].<br />

3.3.2 <strong>Segmentierung</strong> durch Extraktion von Primitiven<br />

Neben den bereits erläuterten Patch-Type-Methoden existieren Verfahren, die von Wang<br />

u. Shan (2009) unter dem Begriff der Part-Type-Methoden zusammengefasst werden. Das<br />

Ziel dieser Methodik ist die direkte Extraktion von geometrischen Primitiven wie z. B.<br />

Ebenen, Zylindern oder Kugeln aus der Punktwolke. Diejenigen Punkte, die auf derselben<br />

extrahierten Oberfläche liegen, werden einem Segment zugeordnet [Vosselman u. Maas<br />

(2010)].<br />

Für die Extraktion von geometrischen Primitiven existieren in der Literatur eine Reihe<br />

von Verfahren, von denen im Folgenden zwei für diese Arbeit wichtige Verfahren erläutert<br />

werden.<br />

3.3.2.1 Besteinpassung von Oberflächen<br />

Für die Bestimmung der Parameter eines Primitivs werden prinzipiell nur so viele Punkte<br />

benötigt, wie das Primitiv voneinander unabhängige Parameter besitzt [Ahn (2004)]. In<br />

der Regel sind die Messungen jedoch fehlerbehaftet, was zu Verfälschungen der berechneten<br />

Parameter führt [Drixler (1993)]. Aus diesem Grund werden mehr als die minimal<br />

benötigten Beobachtungen verwendet, sodass Fehler in den Beobachtungen nicht mehr so<br />

stark ins Gewicht fallen. Die Methodik, die sich mit der optimalen Lösung solcher überbestimmten<br />

Probleme beschäftigt, ist die Ausgleichungsrechnung [Niemeier (2008)].<br />

Ausgangspunkt für eine Ausgleichung sind n Messungen, die im sogenannten Beobachtungsvektor<br />

l zusammengefasst werden:<br />

l =<br />

[<br />

l 1 l 2 ... l n<br />

] T<br />

. (3.1)<br />

Messfehler und andere Unsicherheiten werden mit Hilfe einer Varianz-Kovarianzmatrix<br />

(VKM) modelliert, die die Genauigkeit jeder Messung und die stochastischen Abhängig-<br />

24


3.3 <strong>Segmentierung</strong> von geometrischer Information<br />

keiten der verschiedenen Messungen beinhaltet:<br />

⎡<br />

σ 1 2 ρ 12 σ 1 σ 2 ... ρ 1n σ 1 σ n<br />

ρ<br />

Σ ll =<br />

21 σ 2 σ 1 σ2 2 ... ρ 2n σ 2 σ n<br />

⎢ . .<br />

... .<br />

⎣<br />

ρ n1 σ n σ 1 ρ n2 σ n σ 2 ... σn<br />

2<br />

⎤<br />

⎥<br />

⎦<br />

(3.2)<br />

= σ 2 0Q ll (3.3)<br />

mit:<br />

σ i : Standardabweichung<br />

σi 2 : Varianz<br />

ρ ij : Korrelationskoeffizient<br />

σ0 2 : A-priori-Varianzfaktor<br />

Q ll : Kofaktormatrix.<br />

Das Ziel der Ausgleichung ist die Bestimmung von u Parametern, die zusammen den<br />

Parametervektor x bilden:<br />

[<br />

] T<br />

x = x 1 x 2 ... x u . (3.4)<br />

Zwischen den Beobachtungen l und den Parametern x besteht ein funktionaler Zusammenhang<br />

f, der mathematisch auf drei Arten beschrieben werden kann [Ahn (2004)]:<br />

• Die explizite Darstellung einer Oberfläche lautet<br />

Z = f(x,X,Y); (3.5)<br />

die Z-Koordinate wird also in Abhängigkeit von X- und Y -Koordinate sowie dem<br />

gesuchten Parametervektor ausgedrückt. Da diese Art der Darstellung voraussetzt,<br />

dass jedem (X, Y )-Paar genau ein Z-Wert zugeordnet wird, ist sie nur für wenige<br />

geometrische Primitive – z. B. eine Ebene – geeignet. Hinzu kommt, dass bei dieser<br />

Darstellung nicht die orthogonale Distanz (Erklärung siehe unten), sondern nur die<br />

Distanz in einer Koordinatenrichtung – in diesem Fall der Z-Richtung – minimiert<br />

wird [Shah (2006)].<br />

25


3 <strong>Segmentierung</strong> von Laserscandaten<br />

• Aus diesem Grund wird häufig die allgemeinere Repräsentationsform – die implizite<br />

Darstellung – verwendet:<br />

0 = f(x,X,Y,Z). (3.6)<br />

• Die dritte Möglichkeit ist die parametrische Darstellung, in der jede Koordinate<br />

eine eigene Funktion darstellt und in Abhängigkeit von zwei neuen Variablen<br />

ausgedrückt wird:<br />

X = f(x, u, v) (3.7)<br />

Y = g(x, u, v) (3.8)<br />

Z = h(x, u, v). (3.9)<br />

Diese dritte Möglichkeit wird insbesondere für die Darstellung von Kurven im <strong>Raum</strong><br />

verwendet [Shah (2006)].<br />

Das Ziel der Besteinpassung von Oberflächen ist nun die Bestimmung eines optimalen<br />

Primitivs – repräsentiert durch dessen geschätzte Parameter ˆx –, welches in Bezug auf die<br />

Beobachtungen ein vorher definiertes Fehlermaß minimiert. In der Literatur wird in der<br />

Regel für die Definition des Fehlermaßes eine der beiden folgenden Distanzen verwendet<br />

[siehe z. B. Ahn (2004), Shah (2006)]:<br />

• Die algebraische Distanz lässt sich geometrisch nicht direkt interpretieren und<br />

ist nur für implizit dargestellte Funktionen berechenbar. Für den Fall, dass ein<br />

gemessener Punkt p i nicht auf der durch die bestimmten Parameter ˆx beschriebenen<br />

Oberfläche liegt, ist die Gleichung 3.6 nicht erfüllt und es gilt:<br />

f(ˆx ,X i ,Y i ,Z i ) = w i ≠0. (3.10)<br />

Der Widerspruchsvektor<br />

[<br />

w =<br />

w 1 w 2 ... w n<br />

] T<br />

(3.11)<br />

kann somit als ein Maß dafür interpretiert werden, wie gut die bestimmte Oberfläche<br />

zu den gemessenen Punkten passt. Da dieses Fehlermaß insbesondere in der Geodäsie<br />

26


3.3 <strong>Segmentierung</strong> von geometrischer Information<br />

selten Verwendung findet, wird an dieser Stelle nicht weiter darauf eingegangen und<br />

für weitere Informationen – insbesondere über Vor- und Nachteile dieses Fehlermaßes<br />

– auf Ahn (2004) verwiesen.<br />

• In der Geodäsie üblich ist die Verwendung der geometrischen oder auch orthogonalen<br />

Distanz [Drixler (1993)], die dem geometrischen Abstand d i des gemessenen<br />

Punktes p i zur bestimmten Oberfläche entspricht [Shah (2006)]:<br />

d i = ||p i p ′ i|| (3.12)<br />

mit:<br />

p i : beobachteter Punkt<br />

p ′ i : Punkt auf der Oberfläche mit geringster Distanz zu p i<br />

|| · || : Betrag von · .<br />

Die oben beschriebenen Fehlermaße werden für die Definition eines Qualitätskriteriums<br />

verwendet, welches in Folge der Ausgleichung minimiert wird. In der Geodäsie am weitesten<br />

verbreitet ist die Methode der kleinsten Quadrate (MkQ), bei der die Quadratsumme<br />

des Fehlermaßes d minimiert wird:<br />

∑<br />

d<br />

2<br />

i ⇒ Min. (3.13)<br />

Unter der Voraussetzung, dass die Messfehler stochastisch unabhängig und normalverteilt<br />

sind, hat dieses Schätzverfahren gegenüber anderen den Vorteil, dass die geschätzten Parameter<br />

erwartungstreu und ihre Varianzen minimal sind [Drixler (1993)].<br />

Um die Besteinpassung für die <strong>Segmentierung</strong> nutzen zu können, müssen die Art der<br />

Oberfläche und die ungefähre räumliche Lage a priori bekannt sein [Shah (2006)]. Aus<br />

diesem Grund wird die Besteinpassung nicht für die <strong>Segmentierung</strong> einer gesamten Szene,<br />

sondern z. B. für die Optimierung einer bereits bestehenden <strong>Segmentierung</strong> (siehe<br />

Abschnitt 3.3.2.2) oder für die Bestimmung lokaler Oberflächeneigenschaften (siehe Abschnitt<br />

3.3.1) verwendet.<br />

Die Besteinpassung bzw. die Ausgleichungsrechnung im Allgemeinen ist ein sehr komplexes<br />

Thema, über das ganze Bücher veröffentlicht wurden (siehe z. B. Niemeier (2008)<br />

27


3 <strong>Segmentierung</strong> von Laserscandaten<br />

oder Shah (2006)). Eine ausführliche Auseinandersetzung mit diesem Thema würde über<br />

den Rahmen dieser Arbeit hinausgehen, sodass im Folgenden die Grundlagen der Fehlerlehre<br />

und Ausgleichungsrechnung vorausgesetzt werden. Allein auf die Ebenenschätzung<br />

mit Hilfe einer Hauptkomponentenanalyse wird im Folgenden detailliert eingegangen, da<br />

diese Vorgehensweise von der üblichen Verfahrensweise einer Ausgleichung wie sie z. B.<br />

in Niemeier (2008) beschrieben ist, abweicht. Hinzu kommt, dass die Ebenenschätzung in<br />

der <strong>Segmentierung</strong> von Punktwolken eine übergeordnete Rolle spielt: Zum einen setzen<br />

sich anthropogene Objekte häufig aus ebenen Oberflächen zusammen [Rao (1964)], zum<br />

anderen werden besteinpassende Ebenen dazu verwendet, lokale Normalenvektoren zu bestimmen<br />

[Hoffman u. Jain (1987)].<br />

Die implizite Darstellung einer Ebene lautet [Merziger u. Wirth (2006)]:<br />

ax + by + cz = d bzw: (3.14)<br />

n T p = d (3.15)<br />

mit:<br />

n =<br />

p =<br />

[<br />

[<br />

] T<br />

a b c : normierter Normalenvektor<br />

] T<br />

x y z : Variable für einen Punkt auf der Ebene<br />

d : Abstand der Ebene zum Ursprung.<br />

Ein häufig verwendetes Verfahren zur Bestimmung der besteinpassenden Ebene ist die<br />

Hauptkomponentenanalyse (engl. Principal Component Analysis (PCA)) der sogenannten<br />

Scatter-Matrix Σ S [Rao (1964)], für deren Berechnung zunächst der Schwerpunkt p der<br />

gemessenen Punkte p i bestimmt wird:<br />

x = 1 n∑<br />

x i<br />

n<br />

i=1<br />

(3.16)<br />

y = 1 n∑<br />

y i<br />

n<br />

i=1<br />

(3.17)<br />

z = 1 n∑<br />

z i .<br />

n<br />

(3.18)<br />

i=1<br />

28


3.3 <strong>Segmentierung</strong> von geometrischer Information<br />

Nach einer Schwerpunktreduktion der gemessenen Punkte<br />

x ′ i = x i x (3.19)<br />

y i ′ = y i y (3.20)<br />

z i ′ = z i z (3.21)<br />

berechnet sich die Scatter-Matrix wie folgt [Rao (1964), Ahn (2004)]:<br />

⎡ ⎤<br />

Σ S =<br />

[<br />

p ′ 1 p ′ 2 ... p ′ n<br />

]<br />

·<br />

⎢<br />

⎣<br />

p ′T<br />

1<br />

p ′T<br />

2<br />

.<br />

⎥<br />

⎦<br />

(3.22)<br />

=<br />

=<br />

⎡<br />

⎢<br />

⎣<br />

⎡<br />

⎢<br />

⎣<br />

p ′T n<br />

∑ n ∑ n ∑<br />

⎤<br />

i=1 x′2 i i=1 x′ iy i<br />

′ n<br />

i=1 x′ iz i<br />

′ ∑ n ∑<br />

i=1 x′ iy i<br />

′ n ∑ n<br />

i=1 y′2 i i=1 y′ iz i<br />

′ ⎥<br />

(3.23)<br />

∑ n ∑<br />

i=1 x′ iz i<br />

′ n ∑<br />

⎦<br />

i=1 y′ iz i<br />

′ n<br />

i=1 z′2 i<br />

⎤<br />

Σ Sxx Σ Sxy Σ Sxz<br />

Σ Sxy Σ Syy Σ Syz<br />

⎥<br />

⎦ . (3.24)<br />

Σ Sxz Σ Syz Σ Szz<br />

Die Scatter-Matrix stellt ein Maß für die Streuung der Punkte dar und kann nach einer<br />

1<br />

Normierung mit<br />

n 1<br />

(1999)].<br />

als die VKM der Punkte verstanden werden [Bolton u. Krzanowski<br />

Das Ziel einer PCA ist die Untersuchung der Varianz-Kovarianzstruktur von Zufallsvariablen,<br />

die in Form von Linearkombinationen – den Hauptkomponenten – dargestellt<br />

werden. Geometrisch können diese Linearkombinationen als ein neues Koordinatensystem<br />

interpretiert werden, dessen Achsen in die Richtungen der maximalen Variationen<br />

zeigen. Der Vorteil dieser neuen Darstellung liegt in einer einfacheren, da unkorrelierten<br />

Beschreibung der Kovarianzstruktur [Johnson u. Wichern (2007)].<br />

Für die Ebenenschätzung wird die PCA genutzt, indem zunächst mit Hilfe einer Spektralzerlegung<br />

der Scatter-Matrix diese neuen Koordinatenachsen bestimmt werden:<br />

Σ S = MΛM ′ , (3.25)<br />

wobei sich die Modalmatrix M spaltenweise aus den Eigenvektoren zusammensetzt – der<br />

Basis des neuen Koordinatensystems –, während die Spektralmatrix Λ eine Diagonalma-<br />

29


3 <strong>Segmentierung</strong> von Laserscandaten<br />

trix ist, die die Eigenwerte λ i enthält [Niemeier (2008)]. Der Normalenvektor einer Ebene<br />

zeigt in die Richtung der geringsten Variation, sodass der gesuchte Normalenvektor dem<br />

zum kleinsten Eigenwert gehörenden Eigenvektor entspricht. Da die gesuchte Ebene außerdem<br />

durch den Schwerpunkt verläuft (auf einen Beweis wird an dieser Stelle verzichtet),<br />

lässt sich der noch zu bestimmende Parameter d durch Einsetzen der Schwerpunktkoordinaten<br />

in die Ebenengleichung 3.15 berechnen [Ahn (2004)]:<br />

d = n T · p. (3.26)<br />

3.3.2.2 Random-Sample-Consensus-Algorithmus<br />

Die unter 3.3.2.1 beschriebenen Verfahren zeichnen sich dadurch aus, dass für die Bestimmung<br />

des optimalen geometrischen Primitivs alle vorliegenden Daten verwendet werden.<br />

Fehler in den Daten werden aufgrund redundanter Information geglättet, jedoch nicht<br />

komplett beseitigt. Liegen grobe Fehler vor, so können sie zu einer deutlichen Verfälschung<br />

der geschätzten Parameter führen, wie in Fischler u. Bolles (1981) anhand eines Beispiels<br />

verdeutlicht wird.<br />

Für den Umgang mit groben Fehlern in den Daten existieren zwei übliche Strategien:<br />

Enthalten die Daten nur eine begrenzte Anzahl an Ausreißern, so können diese iterativ<br />

mit Hilfe eines statistischen Ausreißertests (z. B. nach Baarda, siehe Niemeier (2008))<br />

aufgedeckt und eliminiert werden. Für Datensätze mit einem hohen Prozentsatz an groben<br />

Fehlern bieten sich sogenannte robuste Verfahren an, deren Stärke es ist, dass das<br />

Ergebnis von vorliegenden groben Fehlern nicht beeinflusst wird [Xinming u. a. (1994)].<br />

Ein Beispiel für ein solches robustes Verfahren ist der Random-Sample-Consensus(RAN-<br />

SAC)-Algorithmus, der von Fischler u. Bolles (1981) vorgestellt wurde.<br />

Der RANSAC-Algorithmus besteht aus zwei Schritten, die iterativ durchgeführt werden:<br />

• Im ersten Schritt werden aus der Gesamtmenge der Beobachtungen zufällig m Beobachtungen<br />

ausgewählt (Random-Sample), wobei m die minimal benötigte Anzahl<br />

von Beobachtungen ist, die für die Festlegung des zu extrahierenden Primitivs<br />

benötigt werden (z. B. Ebene: m = 3). Diese m Punkte werden für die Bestimmung<br />

der Parameter des Primitivs – des sogenannten Modells – verwendet.<br />

• Der zweite Schritt – auch Consensus-Schritt genannt – überprüft, wie gut das be-<br />

30


3.3 <strong>Segmentierung</strong> von geometrischer Information<br />

stimmte Modell zur Gesamtmenge der Beobachtungen passt: Für jeden Punkt aus<br />

der Gesamtmenge wird die Abweichung zum Modell berechnet. Diejenigen Punkte,<br />

deren Abstand innerhalb einer gewissen Fehlertoleranz ɛ R liegt, werden dem sogenannten<br />

Consensus-Set zugewiesen.<br />

Die Iteration wird entweder k-mal durchgeführt oder abgebrochen, sobald die Anzahl der<br />

im Consensus-Set enthaltenen Punkte einen Schwellwert t überschreitet. Auf die letztere<br />

Möglichkeit wird im Folgenden nicht weiter eingegangen, sodass im Folgenden davon<br />

ausgegangen wird, dass nach Durchführung von k Iterationen die Punkte des größten<br />

Consensus-Sets das gesuchte Primitiv festlegen. Sie können in einem zweiten Schritt dazu<br />

verwendet werden, das bereits bestimmte Modell z. B. mit Hilfe der Methode der kleinsten<br />

Quadrate zu optimieren [Vosselman u. Maas (2010), Fischler u. Bolles (1981)].<br />

Der RANSAC-Algorithmus enthält zwei Parameter, die von Fischler u. Bolles (1981) wie<br />

folgt spezifiziert werden:<br />

• Für die Berechnung der Anzahl k der maximal durchzuführenden Iterationen werden<br />

drei Wahrscheinlichkeiten eingeführt: Der Parameter z gibt an, mit welcher Wahrscheinlichkeit<br />

das richtige Modell gefunden werden soll. Der Wert von b steht für die<br />

Wahrscheinlichkeit, dass die ausgewählten m Punkte das richtige Modell beschreiben,<br />

und berechnet sich aus der Wahrscheinlichkeit w, dass eine einzelne gezogene<br />

Beobachtung auf dem korrekten Modell liegt:<br />

b = w m . (3.27)<br />

Die Gegenwahrscheinlichkeit von w gibt somit den Anteil der groben Fehler im<br />

Datensatz an [Vosselman u. Maas (2010)].<br />

Mit diesen so definierten Wahrscheinlichkeiten lässt sich der gesuchte Parameter k<br />

wie folgt berechnen:<br />

k =<br />

log(1 z)<br />

log(1 b) . (3.28)<br />

Auf eine Herleitung dieser Beziehung wird an dieser Stelle verzichtet und stattdessen<br />

auf Fischler u. Bolles (1981) verwiesen.<br />

31


3 <strong>Segmentierung</strong> von Laserscandaten<br />

• Die Fehlertoleranz ɛ R ist ein Maß dafür, wie viel Rauschen im entsprechenden Datensatz<br />

toleriert wird, und kann entweder empirisch bestimmt (siehe Fischler u. Bolles<br />

(1981)) oder aus den vom Hersteller angegebenen Genauigkeiten des Laserscanners<br />

abgeleitet werden [Vosselman u. Maas (2010)].<br />

Da die Wahl der Fehlertoleranz sehr kritisch ist und signifikante Auswirkungen<br />

auf das Ergebnis hat [Vosselman u. Maas (2010)], gibt es mit dem M-estimatorsample-consensus(MSAC)-Algorithmus<br />

[Torr u. Zisserman (1998)] eine Erweiterung<br />

des RANSAC-Algorithmus, der diese Schwäche behebt.<br />

Neben der bereits erwähnten Stärke, mit einem hohen Prozentsatz (> 50 %) an Ausreißern<br />

in den Daten umgehen zu können, bietet der Algorithmus weitere Vorteile: Er ist<br />

sehr einfach zu implementieren und kann auf eine Vielzahl von Problemstellungen angewendet<br />

werden [Schnabel u. a. (2007)]. Problematisch kann sich die Laufzeit gestalten, die<br />

von der Anzahl benötigter Ziehungen und der Berechnung des Consensus-Sets abhängt.<br />

Diesbezügliche Optimierungen sind z. B. in Schnabel u. a. (2007) zu finden.<br />

3.4 Graphbasierte <strong>Segmentierung</strong>sverfahren<br />

Aus den obigen Erläuterungen geht hervor, dass für die <strong>Segmentierung</strong> eine geeignete<br />

Darstellung der Punkte und ihrer Beziehungen zu ihren Nachbarn benötigt wird. In der<br />

Bildanalyse finden hierfür Graphen zunehmend Verwendung, da mit ihnen zum einen eine<br />

einfache Modellierung von Beziehungen zwischen benachbarten Punkten möglich ist und<br />

da sie zum anderen auf eine Vielzahl von Problemen anwendbar sind. Hinzu kommt, dass<br />

Graphen nicht nur der reinen Repräsentation dienen, sondern vielmehr die Grundlage für<br />

eine Vielzahl von Algorithmen bilden [Lézoray u. Grady (2012)].<br />

Auch in dieser Arbeit wird eine graphbasierte <strong>Segmentierung</strong> durchgeführt, sodass im<br />

Folgenden die für das Verständnis der Arbeit wichtigen Begriffe und Grundlagen der Graphentheorie<br />

vorgestellt werden. Da die meisten Publikationen über graphbasierte <strong>Segmentierung</strong>sverfahren<br />

aus dem Bereich der Bildanalyse stammen, orientiert sich auch dieser<br />

Abschnitt zunächst sehr stark an der Bildsegmentierung. Die erläuterten Prinzipien sind<br />

jedoch ohne Probleme auf eine 3-D-Punktwolke erweiterbar, wie im Anschluss verdeutlicht<br />

wird. Es sei weiterhin darauf hingewiesen, dass die Graphentheorie ein sehr komplexes<br />

32


3.4 Graphbasierte <strong>Segmentierung</strong>sverfahren<br />

Thema ist, sodass für vertiefende Informationen auf die entsprechende Fachliteratur wie<br />

z. B. Harary (1994) verwiesen wird.<br />

3.4.1 Grundlagen der Graphentheorie<br />

Ein Graph G =(V,E) ist ein mathematisches Modell. Er besteht aus Knoten v i ∈ V (dargestellt<br />

als Kreise) und Kanten e ij = {v i ,v j }∈E (dargestellt als Geraden bzw. Pfeile),<br />

die die Beziehungen zwischen benachbarten Knoten v i und v j modellieren. Kanten besitzen<br />

in der Regel ein Gewicht w ij , welches ein Maß für die Stärke der jeweiligen Kante<br />

darstellt. Besitzen alle Kanten eines Graphen das Gewicht w ij = 1, so wird der Graph als<br />

ungewichtet bezeichnet, andernfalls handelt es sich um einen gewichteten Graphen. Des<br />

Weiteren wird – je nachdem, ob die Richtung einer Kante eine Rolle spielt oder nicht –<br />

zwischen gerichteten (w ij ≠ w ji ) und ungerichteten (w ij = w ji ) Graphen unterschieden<br />

(siehe Abbildung 3.2).<br />

ν 1<br />

ν 1<br />

ν 2<br />

ν 2<br />

ν 5<br />

ν 3<br />

ν 4<br />

ν 3<br />

ν 4<br />

ν 5<br />

Abb. 3.2: Beispielgraphen: ungerichteter Graph (links); gerichteter Graph (rechts) (nach<br />

Roberts (1978))<br />

Knoten, die über eine Kante miteinander verbunden sind, sowie Kanten, die den gleichen<br />

Knoten berühren, heißen adjazent. Analog dazu wird eine Nachbarschaftsbeziehung zwischen<br />

Knoten und Kanten definiert: Eine Kante ist inzident zu den beiden Knoten, die<br />

sie miteinander verbindet, und ein Knoten ist inzident zu den Kanten, die von ihm ausgehen.<br />

Eine Sequenz von aufeinanderfolgenden und durch Kanten verbundene Knoten wird als<br />

Weg bezeichnet. Enthält die entsprechende Sequenz keine doppelten Knoten, so han-<br />

33


3 <strong>Segmentierung</strong> von Laserscandaten<br />

delt es sich um einen Sonderfall des Weges, den sogenannten Pfad (siehe Abbildung 3.3<br />

(links)). Sind zusätzlich der Anfangs- und Endpunkt eines Pfades identisch, wird dieser<br />

Pfad als Zyklus bezeichnet (siehe Abbildung 3.3 (rechts)) [Lézoray u. Grady (2012)].<br />

ν 1<br />

ν 1<br />

ν 2<br />

ν 2<br />

ν 5<br />

ν 3<br />

ν 4<br />

ν 3<br />

ν 4<br />

ν 5<br />

Abb. 3.3: Beispielgraphen: Pfad in einem Graphen (links); Zyklus in einem Graphen<br />

(rechts) (nach Lézoray u. Grady (2012))<br />

Ein Graph heißt weiterhin verbunden, wenn alle Knoten eines Graphen über Wege miteinander<br />

verbunden sind (siehe Abbildung 3.4) [Roberts (1978)].<br />

ν 1<br />

ν 1<br />

ν 2<br />

ν 2<br />

ν 5<br />

ν 3<br />

ν 4<br />

ν 3<br />

ν 4<br />

ν 5<br />

Abb. 3.4: Beispielgraphen: verbundener Graph (links); nicht verbundener Graph (rechts)<br />

(nach Roberts (1978))<br />

3.4.1.1 Bäume und minimale Spannbäume<br />

Einen Spezialfall der Graphen stellen sogenannte Bäume dar, bei denen es sich um ungerichtete,<br />

verbundene und azyklische Graphen handelt. Ist G =(V,E) ein Graph, so<br />

wird der Baum G ′ =(V,E ′ ) mit E ′ ∈ E als Spannbaum von G bezeichnet [Lézoray u.<br />

34


3.4 Graphbasierte <strong>Segmentierung</strong>sverfahren<br />

Grady (2012)]: Er enthält dieselben Knoten wie G, jedoch nur eine Untermenge der Kanten<br />

[Zahn (1971)]. In Abbildung 3.5 sind in Rot zwei Spannbäume des zugrundeliegenden<br />

Graphen aus Abbildung 3.2 (links) zu sehen.<br />

ν 1<br />

ν 1<br />

ν 2<br />

ν 2<br />

ν 5<br />

ν 3<br />

ν 4<br />

ν 3<br />

ν 4<br />

ν 5<br />

Abb. 3.5: Spannbäume (nach Zahn (1971))<br />

In der Regel existieren für einen Graphen eine Vielzahl von Spannbäumen. Wird die<br />

Summe der Kantengewichte eines Baumes als Kosten c eines Baumes definiert, so ist<br />

der Spannbaum mit den minimalen Kosten ein minimaler Spannbaum (engl: minimal<br />

spanning tree (MST)) des Graphen G [Zahn (1971)]. Die beiden bekanntesten Algorithmen<br />

für die Berechnung von MSTs sind die Algorithmen von Prim (1957) und Kruskal (1956),<br />

auf die an dieser Stelle jedoch nicht weiter eingegangen wird.<br />

3.4.1.2 Graphen in der Bildsegmentierung<br />

In der graphbasierten Bildanalyse werden Bilder in der Regel als ungerichtete, gewichtete<br />

Graphen G =(V,E) aufgefasst: Jedes Pixel entspricht einem Knoten, der über Kanten<br />

mit seinen Nachbarn – in der Regel mit seiner Vierer- oder Achternachbarschaft – verbun-<br />

Abb. 3.6: Interpretation eines Bildes als Graph: Ausschnitt eines Grauwertbildes (links);<br />

auf Vierernachbarschaft basierender Grid-Graph (Mitte); auf Achternachbarschaft<br />

basierender Grid-Graph (rechts) (nach Malmberg (2011))<br />

35


3 <strong>Segmentierung</strong> von Laserscandaten<br />

den ist. Graphen dieser Art werden auch als Grid-Graphen bezeichnet (siehe Abbildung<br />

3.6) [Dezso u. a. (2012)]. Die Kantengewichte stellen ein Maß für die Ähnlichkeit adjazenter<br />

Pixel dar: Übliche Kantengewichte sind z. B. die Differenzen der Intensitäts- oder<br />

Farbwerte [Felzenszwalb u. Huttenlocher (2004)].<br />

Das Ziel einer graphbasierten <strong>Segmentierung</strong> ist nach Dezso u. a. (2012) die Suche von<br />

verbundenen Sub-Graphen, die bestimmte Ähnlichkeitskriterien erfüllen. Für den Fall,<br />

dass die Kantengewichte sich aus Intensitätsdifferenzen berechnen, bedeutet das, dass innerhalb<br />

eines Segmentes die Kantengewichte klein und die Kantengewichte zwischen den<br />

einzelnen Segmenten groß sind [Felzenszwalb u. Huttenlocher (2004)].<br />

Die graphbasierten <strong>Segmentierung</strong>sverfahren werden unterteilt in Top-Down- und Bottom-<br />

Up-Verfahren [Dezso u. a. (2012)]: Ausgangspunkt bei den Verfahren der ersten Gruppe ist<br />

ein großes Segment, das durch Zertrennen von Kanten nach und nach in kleinere Segmente<br />

aufgesplittet wird. Typische Beispiele für Algorithmen, die nach dem Top-Down-Verfahren<br />

arbeiten, sind z. B. die Graph Cuts [Boykov u. Kolmogorov (2004)] sowie die Normalized<br />

Cuts [Jianbo u. Malik (2000)].<br />

Im Gegensatz dazu beginnen die Bottom-Up-Verfahren mit einer <strong>Segmentierung</strong>, bei der<br />

jedes Pixel ein Segment darstellt. Indem die einzelnen Segmente nach bestimmten Kriterien<br />

zusammengefügt werden, wird die endgültige <strong>Segmentierung</strong> bestimmt. Felzenszwalb<br />

u. Huttenlocher (2004) (siehe auch Abschnitt 3.4.2) stellen einen Algorithmus vor, der<br />

nach diesem Prinzip arbeitet und der auch die Grundlage des in dieser Arbeit vorgestellten<br />

<strong>Segmentierung</strong>sansatzes bildet.<br />

Grid-Graphen sind nicht die einzige Möglichkeit, Bilder zu repräsentieren. Der große Nachteil,<br />

der sich aus der Interpretation von Pixeln als Knoten ergibt, ist die große Anzahl<br />

an Knoten, die insbesondere bei rechenaufwändigen Verfahren wie z. B. den Graph Cuts<br />

zu langen Laufzeiten führt. Aus diesem Grund kann in einem ersten Schritt mit einem<br />

weniger rechenaufwändigen Verfahren eine Vorsegmentierung durchgeführt werden, deren<br />

Ergebnis sogenannte Superpixel sind [Ren u. Malik (2003)]. Diese Superpixel entstehen<br />

durch eine Übersegmentierung des Eingangsbildes und unterteilen das Bild in sinngebende<br />

Partitionen [Malmberg (2011)], indem sie wichtige Objektgrenzen erhalten [Achanta<br />

u. a. (2012)].<br />

36


3.4 Graphbasierte <strong>Segmentierung</strong>sverfahren<br />

Die Abbildung 3.7 zeigt zwei Beispielbilder und ihre Unterteilungen in unterschiedlich<br />

große Superpixel. Nach Bestimmung dieser Superpixel kann in einem zweiten Schritt auf<br />

einen aus diesen Superpixeln aufgebauten Graphen ein rechenaufwändigeres Verfahren<br />

angewandt werden, um die endgültige <strong>Segmentierung</strong> zu erhalten.<br />

Abb. 3.7: Unterteilung von Eingangsbildern in unterschiedlich große Superpixel [Achanta<br />

u. a. (2012)]<br />

3.4.2 Effiziente graphbasierte Bildsegmentierung nach Felzenszwalb<br />

und Huttenlocher<br />

Der Algorithmus nach Felzenszwalb u. Huttenlocher (2004) führt die <strong>Segmentierung</strong> mit<br />

Hilfe eines Clusterings durch und gehört somit zu den regionenbasierten <strong>Segmentierung</strong>sverfahren<br />

(siehe Abschnitt 3.3.1.2). Ursprünglich wurde der Algorithmus für die Bildsegmentierung<br />

entwickelt, er ist jedoch ohne Probleme auf die <strong>Segmentierung</strong> von Videos<br />

[Grundmann u. a. (2010)] oder Punktwolken [Sima u. a. (2013)] erweiterbar.<br />

Wie bereits erwähnt, handelt es sich bei dem Algorithmus um ein graphbasiertes Bottom-<br />

Up-Verfahren. Die Grundlage für die <strong>Segmentierung</strong> bilden MSTs, die sich durch einen<br />

ähnlichen Algorithmus wie dem von Kruskal (1956) berechnen lassen:<br />

37


3 <strong>Segmentierung</strong> von Laserscandaten<br />

Begonnen wird mit einer Startsegmentierung, bei der jedes Pixel für sich ein Segment darstellt.<br />

Unter Berücksichtigung einer vorher definierten Nachbarschaft werden alle Kantengewichte<br />

des gesamten Graphen berechnet und in einer aufsteigend sortierten Kantenliste<br />

π =(e 1 , ..., e mk ) zusammengefasst. Diese Kantenliste wird durchlaufen und jeweils die<br />

beiden angrenzenden Segmente betrachtet. Falls ein bestimmtes <strong>Segmentierung</strong>skriterium<br />

erfüllt ist, werden diese beiden Segmente zusammengefasst. Die Wahl des <strong>Segmentierung</strong>skriteriums<br />

stellt die Stärke des Algorithmus dar: Felzenszwalb u. Huttenlocher<br />

(2004) schlagen ein adaptives Kriterium vor, welches sich an die Variabilität innerhalb<br />

eines bereits bestehenden Segmentes anpasst. Die Motivation für ein solches adaptives<br />

Kriterium liefert die Abbildung 3.8 (links): Für die menschliche Wahrnehmung besteht<br />

das Bild aus drei Regionen: einer einfarbigen Region (in Abbildung 3.8 (rechts) blau umrandet),<br />

die eine sehr stark texturierte Region (grün umrandet) umschließt, sowie die rot<br />

umrandete Region, die einen kontinuierlichen Farbverlauf aufweist.<br />

Abb. 3.8: Motivation für ein adaptives <strong>Segmentierung</strong>skriterium: Originalbild [Felzenszwalb<br />

u. Huttenlocher (2004)] (links); menschliche Wahrnehmung des Bildes<br />

(rechts)<br />

Verfahren, die aufgrund lokaler <strong>Segmentierung</strong>skriterien über ein Zusammenfügen von<br />

Segmenten entscheiden, führen in diesem Fall nicht zum Erfolg, da für ein Zusammenfügen<br />

von zwei Segmenten nicht die Größe der auftretenden Grauwertvariationen alleine ausschlaggebend<br />

ist. Vielmehr spielt das Verhältnis von Grauwertdifferenzen innerhalb eines<br />

Segmentes zu den Differenzen zwischen zwei verschiedenen Segmenten eine entscheidende<br />

Rolle.<br />

38


3.4 Graphbasierte <strong>Segmentierung</strong>sverfahren<br />

Diese Überlegungen nehmen Felzenszwalb u. Huttenlocher (2004) als Grundlage für die<br />

Definition einer booleschen Variablen D, die eine Aussage darüber trifft, ob eine Grenze<br />

zwischen zwei bereits bestehenden Segmenten existiert. Für die Berechnung von D werden<br />

zwei Maßzahlen eingeführt, die anschließend verglichen werden:<br />

• Die Differenz zwischen zwei Segmenten Dif(C 1 ,C 2 ) gibt die Stärke der Grauwertvariation<br />

zwischen den beiden Segmenten C 1 und C 2 an und wird definiert als<br />

das minimale Kantengewicht aller Kanten, die die beiden Segmente miteinander<br />

verbinden:<br />

Dif(C 1 ,C 2 ) = min w(v i ,v j ), mit v i ∈ C 1 ,v j ∈ C 2 , (v i ,v j ) ∈ E. (3.29)<br />

• Die interne Differenz Int(C) isteinMaßfür die Grauwertvariation innerhalb eines<br />

bereits bestehenden Segmentes C. Sie wird definiert als das größte Kantengewicht<br />

des MST des Segmentes:<br />

Int(C) =maxw(e), mit e ∈ MST(C,E). (3.30)<br />

Da die interne Differenz für aus einzelnen Pixeln bestehende Segmente Null und somit<br />

nicht aussagekräftig ist, wird zusätzlich eine Schwellwertfunktion τ(C) eingeführt, die<br />

erlaubt, dass trotz Zusammengehörigkeit zweier Segmente die Differenz zwischen diesen<br />

Segmenten innerhalb eines gewissen Rahmens die interne Differenz des einzelnen Segmentes<br />

überschreiten darf. In die Berechnung dieser Schwellwertfunktion fließen die Größe |C|<br />

des Segmentes sowie eine Konstante κ ein:<br />

τ(C) = κ<br />

|C| . (3.31)<br />

Die Konstante κ muss zu Beginn der <strong>Segmentierung</strong> gewählt werden und beeinflusst die<br />

Größe der entstehenden Segmente, auch wenn κ nicht als Mindestgröße o. Ä. interpretiert<br />

werden darf.<br />

Mit diesen Werten und der minimalen internen Differenz<br />

MInt(C 1 ,C 2 ) = min(Int(C 1 )+τ(C 1 ), Int(C 2 )+τ(C 2 )) (3.32)<br />

ergibt sich die boolesche Variable D:<br />

⎧<br />

⎨ wahr, falls Dif(C 1 ,C 2 ) > MInt(C 1 ,C 2 )<br />

D(C 1 ,C 2 ) =<br />

⎩ falsch, sonst.<br />

(3.33)<br />

39


3 <strong>Segmentierung</strong> von Laserscandaten<br />

Diese so bestimmte Variable D wird als <strong>Segmentierung</strong>skriterium herangezogen: Falls die<br />

Variation zwischen zwei Segmenten größer ist als die Variation innerhalb der einzelnen<br />

Segmente – unter Berücksichtigung der Toleranz durch die Schwellwertfunktion τ –, liegt<br />

eine Grenze zwischen diesen beiden Segmenten vor und sie bleiben getrennt, andernfalls<br />

werden die beiden Segmente zusammengefügt.<br />

Der Algorithmus von Felzenszwalb u. Huttenlocher (2004) ist ein sogenannter gieriger<br />

Algorithmus: Anders als z. B. die Graph Cuts von Boykov u. Kolmogorov (2004), die mit<br />

Hilfe einer Energieminimierung eine global optimale <strong>Segmentierung</strong> suchen, werden bei<br />

einem gierigen Algorithmus die Entscheidungen getroffen, die lokal am besten geeignet<br />

sind. Als Konsequenz daraus folgt, dass gierige Algorithmen deutlich effizienter sind als<br />

Algorithmen, die nach einem globalen Optimum suchen, während sie gleichzeitig eine ausreichend<br />

gute – wenn auch keine global optimale – Lösung finden [Cormen (2001)].<br />

Die Effizienz des Algorithmus von Felzenszwalb u. Huttenlocher (2004) zeigt sich in der<br />

Laufzeit, die mit O(m k log(m k )) angegeben wird, wobei m k die Anzahl der Kanten ist.<br />

Gegenüber anderen gierigen Algorithmen besitzt der Algorithmus von Felzenszwalb u.<br />

Huttenlocher (2004) zusätzlich den Vorteil, dass – aufgrund des adaptiven <strong>Segmentierung</strong>skriteriums<br />

– in gewisser Weise globale Charakteristiken eines Bildes in der <strong>Segmentierung</strong><br />

erhalten bleiben (vgl. die Erläuterungen zu Abbildung 3.8).<br />

Felzenszwalb u. Huttenlocher (2004) wenden ihren Algorithmus auf zwei Arten von Nachbarschaften<br />

(Grid-Graphen und k-nächste-Nachbarn) an und liefern somit direkt eine<br />

Möglichkeit für die Erweiterung des Algorithmus auf die <strong>Segmentierung</strong> von Punktwolken:<br />

Während die Verwendung von Grid-Graphen nur für die Bildsegmentierung geeignet ist,<br />

bildet die Bestimmung von Nachbarschaften mit Hilfe von Nächste-Nachbarn-Verfahren<br />

die Grundlage für die <strong>Segmentierung</strong> innerhalb von 3-D-Punktwolken [Shah (2006)](siehe<br />

auch Abschnitt 3.3).<br />

In der Original-Veröffentlichung wird eine Transformation der Pixel eines Bildes in den<br />

Merkmalsraum durchgeführt und für jeden Punkt die k nächsten Nachbarn gesucht, deren<br />

euklidische Distanz im Merkmalsraum gleichzeitig das Kantengewicht darstellt. Sima<br />

u. a. (2013) führen eine Erweiterung des Algorithmus auf Punktwolken durch, indem sie<br />

alle Punkte der 3-D-Punktwolke mit ihren k nächsten Nachbarn verbinden und in die<br />

Berechnung des Kantengewichtes neben der räumlichen Distanz der Punkte die Differenz<br />

40


3.5 <strong>Raum</strong>-<strong>zeitliche</strong> <strong>Segmentierung</strong>sverfahren<br />

der Intensitäten einbeziehen. Zusätzlich zur Berechnung von k nächsten Nachbarn testen<br />

Sima u. a. (2013) die Verwendung einer Radiussuche für die Bestimmung der Nachbarschaften:<br />

Alle Punkte innerhalb einer Kugel mit vorgegebenem Radius r stellen einen<br />

potentiellen Nachbarn des Kugelmittelpunktes dar. Da durch dieses Verfahren bei unregelmäßigen<br />

Punktabständen unterschiedlich viele Nachbarn gefunden werden, werden von<br />

diesen potentiellen Nachbarn eine bestimmte Anzahl zufällig ausgewählt, für die die jeweiligen<br />

Kantengewichte berechnet werden. Diese Möglichkeit der Nachbarschaftsdefinition<br />

schlagen die Autoren für Laserscanaufnahmen mit geringer Auflösung vor, während sie<br />

für hochaufgelöste Aufnahmen die Berechnung der k nächsten Nachbarn empfehlen.<br />

3.5 <strong>Raum</strong>-<strong>zeitliche</strong> <strong>Segmentierung</strong>sverfahren<br />

Ist das Ziel der nachfolgenden High-Level-Schritte eine Veränderungsanalyse oder die Verfolgung<br />

von Personen bzw. Objekten, bilden z. B. Videos oder zu unterschiedlichen Zeitpunkten<br />

aufgenommene Punktwolken die Grundlage für die <strong>Segmentierung</strong>. Grundsätzlich<br />

kann eine solche <strong>Segmentierung</strong> als Erweiterung der bisher behandelten (rein) räumlichen<br />

<strong>Segmentierung</strong>sverfahren um eine zusätzliche Dimension – die Zeit – verstanden werden<br />

[Wang u. a. (2004)]. Die Schwierigkeit bei der <strong>Segmentierung</strong> raum-<strong>zeitliche</strong>r Datensätze<br />

liegt in der Bestimmung einer zeitlich stimmigen <strong>Segmentierung</strong> [Khan u. Shah (2001)].<br />

Nach DeMenthon (2002) lassen sich die Verfahren zur <strong>Segmentierung</strong> raum-<strong>zeitliche</strong>r Datensätze<br />

in zwei Kategorien unterteilen, die im Folgenden kurz vorgestellt werden.<br />

3.5.1 Trackingverfahren<br />

Sogenannte Trackingverfahren zeichnen sich dadurch aus, dass die zusätzliche Dimension<br />

der Zeit unabhängig von den räumlichen Komponenten betrachtet wird [Lombaert u. a.<br />

(2011)]. Brendel u. Todorovic (2009) führen eine weitere Unterscheidung dieser Trackingverfahren<br />

in punktbasierte und regionenbasierte Verfahren durch.<br />

3.5.1.1 Tracking von Interest-Punkten<br />

Der punktbasierte Ansatz, auch als Tracking von Interest-Punkten bezeichnet, deckt<br />

zunächst <strong>zeitliche</strong> Zusammenhänge zwischen Interest-Punkten der unterschiedlichen Auf-<br />

41


3 <strong>Segmentierung</strong> von Laserscandaten<br />

nahmen auf und verwendet die daraus erhaltenen Punktbewegungen, um Punkte zu zusammenhängenden<br />

Regionen zusammenzufassen [DeMenthon u. Megret (2002)]. Ein Beispiel<br />

für einen punktbasierten Tracking-Ansatz ist in der Veröffentlichung von Cousins<br />

u. a. (2008) zu finden, in der zunächst aus den verschiedenen Frames eines Videos eine<br />

Menge von sogenannten Partikeln bestimmt wird, die Interest-Punkte und ihre Bewegung<br />

von einem Frame zum anderen repräsentieren. Unter der Annahme, dass Punkte mit ähnlichen<br />

Bewegungen eine räumlich zusammenhängende Region bilden, wird anschließend<br />

unter Minimierung einer Energiefunktion die räumliche <strong>Segmentierung</strong> durchgeführt.<br />

3.5.1.2 Regionentracking<br />

Im Gegensatz dazu werden bei den regionenbasierten Verfahren, dem Regionentracking,<br />

zunächst nur räumliche Zusammenhänge berücksichtigt, indem jede Aufnahme bzw. jedes<br />

Frame eines Videos ohne Berücksichtigung der anderen Aufnahmen segmentiert wird.<br />

Unter Zuhilfenahme von Bewegungsinformationen, die z. B. in Form von Optical-Flow-<br />

Vektoren vorliegen (für nähere Information siehe z. B. Horn u. Schunck (1981)), werden<br />

die Segmente in die zeitlich folgende Aufnahme transformiert und mit den entsprechenden<br />

Segmenten dieser Aufnahme zusammengefügt, wenn sie bestimmte Ähnlichkeitskriterien<br />

wie z. B. räumliche Nähe, geringe Farbunterschiede oder ein ähnliches Bewegungsverhalten<br />

erfüllen [DeMenthon (2002)]. Voraussetzung für die Durchführung eines regionenbasierten<br />

Trackings ist in den meisten Fällen die Annahme, dass sich Größe und Position der<br />

Objekte von einer Aufnahme zur nächsten nur geringfügig ändern.<br />

Gegenüber den punktbasierten Trackingverfahren besitzt der regionenbasierte Ansatz den<br />

Vorteil, dass in der Regel die Anzahl der zu trackenden Segmente geringer ist als die der<br />

Interest-Punkte, was zu einem geringeren Rechenaufwand führt. Hinzu kommt, dass für<br />

die Beschreibung von Regionen aussagekräftige Merkmale wie z. B. die Größe oder die<br />

Form herangezogen werden können, während für eine robuste Beschreibung von Punkten<br />

deutlich größerer Aufwand betrieben werden muss (siehe z. B. auch Abschnitt 2.3).<br />

Problematisch ist hingegen, dass die vorsegmentierten Frames die oben genannte Voraussetzung<br />

der geringfügigen Veränderung nicht immer erfüllen: Obwohl die Objekte sich<br />

nur unwesentlich bewegen, kann es durchaus vorkommen, dass zwei Regionen mit undeutlicher<br />

Grenze in einem Frame als zwei Segmente dargestellt werden, während sie in einem<br />

42


3.5 <strong>Raum</strong>-<strong>zeitliche</strong> <strong>Segmentierung</strong>sverfahren<br />

anderen Frame zusammenhängend segmentiert werden. Daraus ergibt sich zum einen eine<br />

starke Veränderung der Größe und eine Verlagerung des Schwerpunktes des Segmentes,<br />

zum anderen besitzt nicht jedes Segment genau ein Partnersegment in der zeitlich folgenden<br />

Aufnahme [Brendel u. Todorovic (2009)].<br />

Dieses Problem lässt sich mit sogenannten Shape-Matching-Verfahren umgehen, die die<br />

Ähnlichkeit verschiedener Segmente aufgrund der Form beurteilen. Gegenüber dem Vergleich<br />

von z. B. Größe oder Position besitzt diese Beurteilung den entscheidenden Vorteil,<br />

dass Segmentgrenzen zwischen einzelnen Frames kaum durch das oben beschriebene Aufsplitten<br />

oder Zusammenfügen verändert werden.<br />

Brendel u. Todorovic (2009) stellen ein Shape-Matching-Verfahren für Videos vor, das<br />

zwei Objektgrenzen mit Hilfe des Dynamic Time Warping (DTW) bestmöglich ineinander<br />

überführt.<br />

Da in der vorliegenden Arbeit ebenfalls ein auf DTW basierender Shape-Matching-Algorithmus<br />

verwendet wird, werden die für das Verständnis benötigten Grundlagen im Anschluss<br />

an den hier gegebenen Überblick ausführlicher behandelt (siehe Abschnitt 3.5.3).<br />

3.5.2 <strong>Segmentierung</strong> eines raum-<strong>zeitliche</strong>n Volumens<br />

Neben den Trackingverfahren existieren Verfahren, die die <strong>zeitliche</strong> und räumliche Dimension<br />

während der <strong>Segmentierung</strong> nicht voneinander trennen. Die gesamte Datenmenge<br />

wird dabei im Falle eines Videos als ein dreidimensionales (bzw. 2D + t) und im Falle<br />

einer in <strong>zeitliche</strong>n Abständen aufgenommenen Punktwolke als ein vierdimensionales (bzw.<br />

3D + t) Volumen interpretiert. Üblicherweise wird die <strong>Segmentierung</strong> in diesen Fällen entweder<br />

graphbasiert oder mit Hilfe eines Clusterings durchgeführt [DeMenthon u. Megret<br />

(2002)].<br />

3.5.2.1 Graphbasierte raum-<strong>zeitliche</strong> <strong>Segmentierung</strong><br />

Die graphbasierte raum-<strong>zeitliche</strong> <strong>Segmentierung</strong> unterscheidet sich kaum von den in Abschnitt<br />

3.4.1.2 vorgestellten Verfahren. Der einzige Unterschied liegt in der Konstruktion<br />

des Graphen, dessen Kanten nicht nur Knoten einer Aufnahme, sondern auch Knoten<br />

unterschiedlicher Aufnahmen miteinander verbinden. Wird ein Grid-Graph verwendet, so<br />

entsteht im Falle einer Videosegmentierung ein dreidimensionaler Würfel (siehe Abbildung<br />

43


3 <strong>Segmentierung</strong> von Laserscandaten<br />

3.9), auf den prinzipiell alle graphbasierten <strong>Segmentierung</strong>sverfahren direkt angewendet<br />

werden können [Malmberg (2011)].<br />

y<br />

t<br />

x<br />

Abb. 3.9: Grid-Graph für eine raum-<strong>zeitliche</strong> <strong>Segmentierung</strong> (nach Malmberg (2011))<br />

Ein Beispiel für die graphbasierte <strong>Segmentierung</strong> eines raum-<strong>zeitliche</strong>n Volumens ist in<br />

der Veröffentlichung von Grundmann u. a. (2010) zu finden, in der der Algorithmus von<br />

Felzenszwalb u. Huttenlocher (2004) für die Videosegmentierung herangezogen wird. Da<br />

die direkte Adaption jedoch keine zufriedenstellende Ergebnisse liefert, führen die Autoren<br />

eine Erweiterung zu einem hierarchischen Algorithmus durch: In einem Initialisierungsschritt<br />

wird eine Übersegmentierung des raum-<strong>zeitliche</strong>n Volumens mit Hilfe des Algorithmus<br />

von Felzenszwalb u. Huttenlocher (2004) durchgeführt. Diese initialen Segmente<br />

werden dazu verwendet, erneut einen Graphen aufzubauen, der die Grundlage für eine weitere<br />

<strong>Segmentierung</strong> bildet. Durch Wiederholung dieser Vorgehensweise und gleichzeitige<br />

Veränderung der Konstante κ aus Gleichung 3.31 entsteht eine hierarchische <strong>Segmentierung</strong>,<br />

deren verschiedene Ebenen unterschiedlich fein segmentiert sind. Das bedeutet,<br />

dass die Konstante κ nicht a priori festgelegt werden muss, sondern eine geeignete Segmentgröße<br />

im Anschluss an die <strong>Segmentierung</strong> aus den verschiedenen Ebenen ausgewählt<br />

werden kann.<br />

Als weitere Veränderung des ursprünglichen Algorithmus von Felzenszwalb u. Huttenlocher<br />

(2004) werden von Grundmann u. a. (2010) Optical-Flow-Vektoren verwendet: Zum<br />

einen dienen sie dazu, Nachbarschaften zwischen zwei zeitlich verschiedenen Aufnahmen<br />

besser definieren zu können, zum anderen werden sie als weiteres Merkmal zur Bestimmung<br />

der Kantengewichte herangezogen.<br />

44


3.5 <strong>Raum</strong>-<strong>zeitliche</strong> <strong>Segmentierung</strong>sverfahren<br />

Veröffentlichungen zu <strong>zeitliche</strong>n <strong>Segmentierung</strong>sverfahren beschäftigen sich hauptsächlich<br />

mit der Videosegmentierung, also mit der <strong>Segmentierung</strong> in dreidimensionalen Volumina.<br />

Veröffentlichungen zur vierdimensionalen <strong>Segmentierung</strong>, die auch in dieser Arbeit<br />

eine Rolle spielt, betreffen überwiegend den Bereich der medizinischen Bildverarbeitung.<br />

Gerade in diesem Bereich stellen die Graph Cuts von Boykov u. Kolmogorov (2004) ein<br />

sehr beliebtes Verfahren dar. Lombaert u. a. (2011) z. B. verwenden eine Variante der<br />

Graph Cuts, um medizinische Daten zu segmentieren. Die direkte Anwendung der Graph<br />

Cuts ist aufgrund der Größe der Daten und den daraus resultierenden Anforderungen<br />

an den Hauptspeicher sehr ineffizient; daher werden zunächst Datensätze mit verringerter<br />

Auflösung generiert, auf die die Graph Cuts angewendet werden. Die sich daraus ergebene<br />

grobe <strong>Segmentierung</strong> wird in einem zweiten Schritt um die jeweiligen Schnittstellen mit<br />

Hilfe eines Region-Growings verfeinert.<br />

3.5.2.2 <strong>Raum</strong>-<strong>zeitliche</strong> Clusteringverfahren<br />

Ähnlich wie die graphbasierten Verfahren können auch die Clustering-Verfahren um die<br />

<strong>zeitliche</strong> Dimension erweitert werden: Um eine raum-<strong>zeitliche</strong> <strong>Segmentierung</strong> durchzuführen,<br />

werden die Pixel bzw. Punkte aller Aufnahmen in einen gemeinsamen hochdimensionalen<br />

Merkmalsraum abgebildet, in dem mit Hilfe eines geeigneten Verfahrens Cluster<br />

gesucht werden. Im Gegensatz zu den rein räumlichen Clustering-Verfahren werden bei<br />

der Definition des Merkmalsraumes in der Regel zusätzlich Bewegungsinformationen mit<br />

einbezogen [DeMenthon u. Megret (2002)].<br />

Beispielsweise stellt DeMenthon (2002) für jedes Pixel eines Videos einen siebendimensionalen<br />

Merkmalsvektor auf, der sich aus drei Farb- und vier Bewegungskomponenten<br />

zusammensetzt. Zur Bestimmung der Bewegungskomponenten dienen Optical-Flow-<br />

Vektoren, die für die Berechnung zweier Bewegungswinkel (charakterisieren die Richtung<br />

der Bewegung) sowie zweier Bewegungsdistanzen (repräsentieren die Pixelposition) verwendet<br />

werden. Nach der Transformation der Punkte in den Merkmalsraum wird eine<br />

Clusteranalyse durchgeführt, für die die Autoren die Mean-Shift-Analyse wählen. Bei ihr<br />

handelt es sich um einen nichtparametrischen Dichteschätzer, der die lokalen Dichtegradienten<br />

von im Merkmalsraum benachbarten Punkten bestimmt. Mit Hilfe dieser Dichtegradienten<br />

lassen sich Extrema in den lokalen Punktdichten aufspüren. Über die Richtung<br />

45


3 <strong>Segmentierung</strong> von Laserscandaten<br />

der Gradienten können die Punkte des Merkmalsraums diesen Extrema und somit ihren<br />

Segmenten zugeordnet werden [Wang u. a. (2004)].<br />

3.5.3 Shape-Matching mit Dynamic Time Warping<br />

Dynamic Time Warping (DTW) ist ein Verfahren aus der Spracherkennung, dessen ursprüngliches<br />

Ziel die <strong>zeitliche</strong> Zuordnung zweier gegeneinander verzerrter Sprachsignale<br />

ist [Wendemuth u. Andelic (2004)]. Es lässt sich jedoch auch außerhalb der Spracherkennung<br />

anwenden, wenn – allgemein formuliert – zwei Sequenzen X =(x 1 ,x 2 , ..., x n )<br />

und Y =(y 1 ,y 2 , ..., y m ) (siehe Abbildung 3.10) bestmöglich zur Deckung gebracht werden<br />

sollen [Müller (2007)].<br />

Abb. 3.10: Zeitliche Zuordnung zweier Sequenzen X und Y [Müller (2007)]<br />

Die Durchführung eines DTW setzt neben zwei Sequenzen eine Kostenfunktion c(x i ,y i )<br />

voraus, die ein Maß für den Aufwand darstellt, der benötigt wird, um die beiden Sequenzen<br />

zur Deckung zu bringen. Müller (2007) verwendet als Kostenfunktion die Manhatten-<br />

Distanz, die Verwendung anderer Funktionen ist jedoch durchaus denkbar. Aus den lokalen<br />

Kosten c(x i ,y i ), die für jedes Paar (x i ,y i ) berechnet werden, wird die sogenannte<br />

n-x-m-Kostenmatrix C erstellt:<br />

C(i, j) := c(x i ,y j ) mit: i =1, ..., n; j =1, ..., m. (3.34)<br />

Eine beispielhafte Kostenmatrix ist in Abbildung 3.11 (links) graphisch dargestellt, wobei<br />

hohe Kosten durch helle und niedrige Kosten durch dunkle Farben repräsentiert werden.<br />

Die optimale Zuordnung der Sequenzen wird bestimmt, indem der optimale Warping-<br />

Pfad durch die Kostenmatrix berechnet wird, wobei optimal in diesem Fall bedeutet, dass<br />

er von allen möglichen Pfaden die geringsten Gesamtkosten aufweist. In Abbildung 3.11<br />

46


3.5 <strong>Raum</strong>-<strong>zeitliche</strong> <strong>Segmentierung</strong>sverfahren<br />

Abb. 3.11: Dynamische Programmierung zur Durchführung des DTW: beispielhafte Kostenmatrix<br />

(links); dazugehörige akkumulierte Kostenmatrix (rechts) [Müller<br />

(2007)]<br />

ist dieser optimale Warping-Pfad als weiße Linie dargestellt. Die Menge aller möglichen<br />

Warping-Pfade wird durch einige Restriktionen verkleinert: Zum einen müssen Anfangsund<br />

Endpunkte der beiden Sequenzen auch Anfangs- und Endpunkt des Warping-Pfades<br />

darstellen. Damit ist sichergestellt, dass die gesamten Sequenzen und nicht etwa nur Teilsequenzen<br />

ineinander überführt werden [Müller (2007)]. Zum anderen müssen alle Elemente<br />

der Sequenzen in die Berechnung des optimalen Warping-Pfades einfließen. Mit einer dritten<br />

Restriktion, dass die Reihenfolge der Elemente einer Sequenz während der Zuordnung<br />

erhalten bleibt, wird das Auftreten von Rückwärtssprüngen verhindert [Wendemuth u.<br />

Andelic (2004)]. Aufgrund dieser Restriktionen verbleiben nur drei mögliche Schritte im<br />

Warping-Pfad:<br />

X(t) → X(t + 1), Y(t) → Y (t + 1) (3.35)<br />

X(t) → X(t), Y(t) → Y (t + 1) (3.36)<br />

X(t) → X(t + 1), Y(t) → Y (t). (3.37)<br />

Die Suche nach dem optimalen Warping-Pfad erfolgt mit Hilfe der dynamischen Programmierung,<br />

die Optimierungsprobleme durch rekursive Berechnung kumulativer Größen löst:<br />

Zunächst wird die sogenannte akkumulierte Kostenmatrix D aufgestellt, die sich rekursiv<br />

und in einer Laufzeit von O(n m) berechnen lässt [Müller (2007)]:<br />

D(n, m) = min {D(n 1,m 1),D(n 1,m),D(n, m 1)} + c(x n ,y m ). (3.38)<br />

In Abbildung 3.11 (rechts) ist eine solche akkumulierte Kostenmatrix beispielhaft gra-<br />

47


3 <strong>Segmentierung</strong> von Laserscandaten<br />

phisch dargestellt. Der optimale Warping-Pfad entspricht nun dem Pfad, der zu den kleinsten<br />

kumulativen Distanzen führt [Wendemuth u. Andelic (2004)].<br />

Im Unterschied zu Sprachaufnahmen handelt es sich bei Objektgrenzen um zyklische<br />

Strukturen, weshalb Brendel u. Todorovic (2009) dem hier vorgestellten klassischen Algorithmus<br />

des DTW einen Schritt voranstellen, um Start- und Endpunkt der zyklischen<br />

Sequenz zu identifizieren. Das eigentliche Tracking wird anschließend mit Hilfe des Relaxation<br />

Labelings durchgeführt, wobei die Matching-Kosten aus dem DTW als Ähnlichkeitsmaß<br />

eingehen.<br />

48


4 Entwicklung eines Verfahrens zur<br />

raum-<strong>zeitliche</strong>n <strong>Segmentierung</strong> von<br />

natürlichen Objekten<br />

Inhalt dieses Kapitels ist die Entwicklung eines Verfahrens zur raum-<strong>zeitliche</strong>n <strong>Segmentierung</strong><br />

von natürlichen Objekten am Beispiel der Gurkenpflanze. Der entwickelte Algorithmus<br />

wird auf die Datensätze zweier verschiedener Messtage angewendet und im Anschluss<br />

daran analysiert und bewertet. Die Ergebnissegmente bilden die Grundlage für die<br />

Bestimmung geometrischer Veränderungen (Wachstum oder kurzzeitige morphologische<br />

Anpassungen) der Pflanze.<br />

4.1 Schwierigkeiten bei der <strong>Segmentierung</strong> von<br />

natürlichen Objekten<br />

Wie in Kapitel 3 verdeutlicht wurde, ist die <strong>Segmentierung</strong> von Bild- und Laserscandaten<br />

ein bereits sehr gut untersuchtes Forschungsfeld. Der Großteil der hierzu veröffentlichten<br />

Publikationen beschäftigt sich jedoch mit der <strong>Segmentierung</strong> von anthropogenen Objekten<br />

wie z.B. Gebäuden [Wang u. Shan (2009)] oder industriellen Anlagen [Rabbani u. a.<br />

(2007)].<br />

Gegenüber der <strong>Segmentierung</strong> natürlicher Objekte stellt die <strong>Segmentierung</strong> anthropogener<br />

Objekte in der Regel das einfachere Problem dar: Sie bestehen meist aus einfachen<br />

regelgeometrischen Primitiven wie Ebenen (z. B. Hauswände und -dächer) oder Zylindern<br />

(z. B. Straßenlaternen oder Rohre in industriellen Anlagen), die sich – sofern die Form<br />

der Objekte bekannt ist – relativ gut mit den in Abschnitt 3.3.2 vorgestellten Verfahren<br />

segmentieren lassen.<br />

49


4 Entwicklung eines Verfahrens zur raum-<strong>zeitliche</strong>n <strong>Segmentierung</strong> von natürlichen Objekten<br />

Im Gegensatz dazu lassen sich natürliche<br />

Objekte – sofern sie überhaupt mit Hilfe<br />

von mathematischen Funktionen modellierbar<br />

sind – nur mittels komplexer Geometrien<br />

beschreiben. Nach Finnegan u. a.<br />

(2006) zählen Pflanzen zu den am schwierigsten<br />

zu modellierenden natürlichen Objekten.<br />

Neben ihrer komplexen Struktur<br />

spielen auch die stark variierenden Erscheinungsformen<br />

eine Rolle. Dass diese Problematik<br />

nicht nur Pflanzen unterschiedlicher<br />

Arten, sondern bereits die verschiedenen<br />

Blätter einer einzelnen Pflanze betrifft,<br />

wird aus Abbildung 4.1 ersichtlich:<br />

Die Blätter dieser Beispielpflanze unterscheiden<br />

sich nicht nur in ihrer Größe, sondern<br />

sind auch in sich verformbar und zeigen<br />

daher zusätzlich starke Variationen in<br />

Abb. 4.1: Gurkenpflanze (Aufnahme: Paffenholz)<br />

ihrer Form.<br />

Ein weiteres Problem wurde bereits im Abschnitt 2.2 angedeutet: Aus einer Blickrichtung<br />

betrachtet, sind aufgrund von Verdeckungen nicht alle Blätter der Pflanze vollständig erkennbar.<br />

Die Problematik der Verdeckung besitzt – je nachdem, ob zweidimensionale oder<br />

dreidimensionale Daten vorliegen – unterschiedliche Ausmaße: Sowohl in zwei- als auch in<br />

dreidimensionalen Aufnahmen führen Verdeckungen zu einer unvollständigen Erfassung<br />

des Objektes. Während diese Problematik im dreidimensionalen Fall durch eine geeignete<br />

Aufnahmekonfiguration gelöst werden kann, ist in zweidimensionalen Aufnahmen keine<br />

Tiefeninformation vorhanden, um sich verdeckende Blätter voneinander zu trennen. Diese<br />

Schwierigkeit tritt im dreidimensionalen Fall nur dann auf, wenn sich zwei verdeckende<br />

Blätter berühren.<br />

Bei einer <strong>zeitliche</strong>n <strong>Segmentierung</strong> müssen außerdem Bewegungen der Pflanze berücksichtigt<br />

werden, die zum einen auf Wachstum und zum anderen auf tägliche Bewegungszyklen<br />

50


4.1 Schwierigkeiten bei der <strong>Segmentierung</strong> von natürlichen Objekten<br />

zurückzuführen sind [Alenya u. a. (2011)]. Schwierigkeiten ergeben sich einerseits durch<br />

nicht-rigide Bewegungen, die Deformationen der Blätter zur Folge haben, andererseits<br />

interagiert die Pflanze mit ihrer Umgebung, sodass auch die äußeren Bedingungen die<br />

Bewegung sehr stark beeinflussen. Um das Bewegungsverhalten einer Pflanze zu modellieren,<br />

ist somit eine genaue Kenntnis der Umgebung (z. B. über die Lichtverhältnisse)<br />

sowie Expertenwissen über das Bewegungsverhalten der entsprechenden Pflanze notwendig<br />

[Campbell u. Flynn (2001)].<br />

Trotz dieser geschilderten Schwierigkeiten gibt es bereits einige Veröffentlichungen, die<br />

sich mit der <strong>Segmentierung</strong> von Pflanzen beschäftigen.<br />

Für das Problem der Verdeckungen in Fotos schlagen Finnegan u. a. (2006) ein bildbasiertes<br />

interaktives Verfahren vor: Im ersten Schritt erfolgt eine automatische <strong>Segmentierung</strong><br />

mit Hilfe eines graphbasierten Top-Down-Verfahrens (siehe Abschnitt 3.4.1.2). Aufgrund<br />

ähnlicher Grauwerte und undeutlicher Grenzen zwischen überlappenden Blättern liefert<br />

diese erste <strong>Segmentierung</strong> kein zufriedenstellendes Ergebnis, weshalb es in einem zweiten<br />

interaktiven Schritt verbessert wird.<br />

Alenya u. a. (2011) dagegen führen die <strong>Segmentierung</strong> vollautomatisch durch: Die Datenerfassung<br />

erfolgt mit einer Time-of-Flight-Kamera sowie einer Digitalkamera. Ausgangspunkt<br />

für die <strong>Segmentierung</strong> ist zunächst nur eine Aufnahme. Für den Fall, dass aufgrund<br />

von sich berührenden Blättern eine fehlerhafte <strong>Segmentierung</strong> entsteht, wird die Position<br />

der Kamera automatisch verändert und die <strong>Segmentierung</strong> verbessert, indem Aufnahmen<br />

aus anderen Blickrichtungen hinzugezogen werden.<br />

Da eine Beschreibung einzelner Blätter durch einfache regelgeometrische Primitive keine<br />

ausreichend gute Näherung liefert, wird die Extraktion von Primitiven (vgl. Abschnitt<br />

3.3.2) bei Pflanzen generell nicht als erfolgversprechende <strong>Segmentierung</strong>sstrategie angesehen.<br />

Daher existieren für die <strong>Segmentierung</strong> von Pflanzen regelbasierte Verfahren, die<br />

z. B. L-Systeme (für detaillierte Informationen siehe z. B. Prusinkiewicz u. Lindenmayer<br />

(1996)) verwenden, um komplexe Modelle zu erstellen [Finnegan u. a. (2006)]. Diese vorab<br />

generierten Modelle werden mit der Punktwolke abgeglichen, sodass Strukturen, die<br />

diesen Modellen ähneln, identifiziert werden können [Mian u. a. (2006)]. Das Aufstellen<br />

geeigneter Modelle erfordert Expertenwissen über den Aufbau einer Pflanze, sodass dieses<br />

Verfahren nur bedingt anwendbar ist [Finnegan u. a. (2006)].<br />

51


4 Entwicklung eines Verfahrens zur raum-<strong>zeitliche</strong>n <strong>Segmentierung</strong> von natürlichen Objekten<br />

4.2 Ausgangsdaten<br />

Die Grundlage für den im Folgenden entwickelten Algorithmus für die raum-<strong>zeitliche</strong> <strong>Segmentierung</strong><br />

von Gurkenpflanzen bilden die Daten zweier Messtage, die am 08.05.2013 und<br />

am 23.05.2013 mit Hilfe des in Abschnitt 2.1 beschriebenen MSS in den Gewächshäusern<br />

des IGPS erfasst worden sind. An beiden Messtagen wurden – entsprechend der in Abschnitt<br />

2.2 beschriebenen Aufnahmekonfiguration – Messungen zu unterschiedlichen Zeitpunkten<br />

durchgeführt. Um die Menge der Daten übersichtlich zu halten, werden in dieser<br />

Arbeit nur die Aufnahmen der Scanrichtung Down“ verwendet. Die Tabelle 4.1 gibt<br />

”<br />

einen Überblick über die verwendeten Bezeichnungen dieser Datensätze sowie über die<br />

<strong>zeitliche</strong>n Abstände der einzelnen Aufnahmen.<br />

Tabelle 4.1: Verwendete Datensätze<br />

Aufnahmedatum Pflanze Bezeichnung ∆t = t i t 1 [min]<br />

E1 08 0<br />

08.05.2013 g1w1 E2 08 53.56<br />

E4 08 74.20<br />

E5 08 87.77<br />

E1 23 0<br />

E2 23 18.39<br />

23.05.2013 g1w1 E3 23 113.73<br />

E4 23 129.68<br />

E5 23 139.04<br />

Jeder Datensatz besteht zunächst aus den direkten Messergebnissen des Laserscanners:<br />

Hierbei handelt es sich zum einen um die spektralen Intensitätswerte (in Abbildung 4.2<br />

(links) in Form eines Intensitätsbildes dargestellt) und zum anderen um die geometrischen<br />

Distanzwerte (in Abbildung 4.2 (rechts) als Distanzbild dargestellt). Durch die zeilenweise<br />

Erfassung der Daten, die letztendlich auch eine einfache Darstellung der erfassten Werte<br />

in Bildform ermöglicht, sind zusätzlich implizite Informationen über die Nachbarschaften<br />

innerhalb einer Scanzeile vorhanden [Paffenholz u. a. (2013)]. Diese Informationen können<br />

gegebenenfalls für die spätere <strong>Segmentierung</strong> genutzt werden.<br />

52


4.2 Ausgangsdaten<br />

Abb. 4.2: Ausgangsdaten der Aufnahme E1 08 (sPos 0 ◦ ): Intensitätsbild (links); Distanzbild<br />

(rechts)<br />

Die Abbildung 4.2 zeigt, dass die Gurkenpflanze einen im Vergleich zum Hintergrund nur<br />

kleinen Teil der aufgenommenen Daten ausmacht. Aus diesem Grund wird im Postprocessing<br />

der Daten unter Berücksichtigung des Wissens über die Aufnahmekonfiguration<br />

das Blickfeld des Laserscanners eingeschränkt: Unter der Annahme, dass sich die zu untersuchende<br />

Pflanze in einer maximalen Entfernung von 1,5 m vom Laserscanner befindet<br />

und außerdem eine so geringe Ausdehnung besitzt, dass sie mit einem Öffnungswinkel des<br />

Abb. 4.3: Ausgangsdaten der Aufnahme E1 08 (sPos 0 ◦ ) nach Einschränkung des Sichtfeldes:<br />

Intensitätsbild (Ausschnitt) (links); Distanzbild (Ausschnitt) (rechts)<br />

53


4 Entwicklung eines Verfahrens zur raum-<strong>zeitliche</strong>n <strong>Segmentierung</strong> von natürlichen Objekten<br />

Laserscanners von 45 ◦ immer noch vollständig erfasst wird, kann die große Datenmenge<br />

auf das Wesentliche – in diesem Fall die Gurkenpflanze – reduziert werden. Das Ergebnis<br />

der Datenreduktion ist in Abbildung 4.3 zu sehen.<br />

Neben den direkten Messwerten liefert die Prozessierung der Distanzwerte und die Registrierung<br />

der drei Aufnahmerichtungen eine 3-D-Punktwolke (X-, Y- und Z-Koordinaten<br />

der Punkte). Diese Punktwolke kann zusätzlich mit den von der Kamera erfassten ebenfalls<br />

spektralen RGB-Werten (siehe Abbildung 4.4 (links) ) eingefärbt werden (siehe Abbildung<br />

4.4 (rechts)).<br />

Abb. 4.4: RGB-Daten der Aufnahme E1 08 : RGB-Bild (sPos 0 ◦ ) (links); eingefärbte<br />

Punktwolke aller drei Aufnahmerichtungen (rechts)<br />

Für die Entwicklung des <strong>Segmentierung</strong>sansatzes wird im Folgenden nur der Datensatz<br />

vom 08.05.2013 verwendet, während für die Bewertung des Ansatzes auch der zweite<br />

Datensatz herangezogen wird.<br />

4.3 Räumliche <strong>Segmentierung</strong><br />

Für die Lösung des <strong>Segmentierung</strong>sproblems werden zunächst nur die Aufnahmen einer<br />

einzigen Zeitepoche betrachtet; die <strong>Segmentierung</strong> über die Zeit erfolgt in einem zweiten<br />

Schritt, auf den in Abschnitt 4.4 ausführlich eingegangen wird.<br />

54


4.3 Räumliche <strong>Segmentierung</strong><br />

4.3.1 Entwicklung einer <strong>Segmentierung</strong>sstrategie<br />

Grundsätzlich existieren für die räumliche <strong>Segmentierung</strong> der in dieser Arbeit verwendeten<br />

Daten zwei Möglichkeiten:<br />

• Jede Aufnahme einer Scanposition wird zunächst unabhängig von den anderen<br />

beiden Aufnahmen der Epoche segmentiert. In diesem Fall können die bildhaften<br />

Darstellungen der Daten (Tiefen-, Intensitäts- und/oder RGB-Bilder) für die <strong>Segmentierung</strong><br />

verwendet werden. Diese Strategie bringt die bereits in Abschnitt 3.3<br />

erläuterten Vorteile der Vielfalt an bestehenden Verfahren und der Kenntnis über<br />

die Nachbarschaften mit sich. Speziell auf die vorliegenden Daten bezogen, ergeben<br />

sich jedoch zwei schwerwiegende Nachteile: Zum einen wurde mit Hilfe der sorgfältig<br />

ausgewählten Aufnahmekonfiguration die Pflanze zwar komplett erfasst, aufgrund<br />

der unabhängigen Betrachtung der einzelnen Messungen kommt diese vollständige<br />

Erfassung jedoch gar nicht zum Tragen: In den einzelnen Aufnahmen tritt weiterhin<br />

das Problem der Verdeckung und damit von unvollständigen Blättern auf. Zum<br />

anderen müssen – um eine räumlich stimmige <strong>Segmentierung</strong> zu erhalten – die Segmente<br />

der drei Aufnahmen in einem zweiten Schritt zusammengefügt werden.<br />

• Diese Probleme können umgangen werden, indem alle drei Aufnahmen einer Zeitepoche<br />

gemeinsam segmentiert werden. Die <strong>Segmentierung</strong> erfolgt nicht länger auf Bildebene,<br />

sondern direkt in der registrierten 3-D-Punktwolke, deren Punkten zusätzlich<br />

die entsprechenden Intensitäts- und RGB-Werte zugeordnet werden können. Nachteilig<br />

ist bei dieser Vorgehensweise die rechenintensive Nachbarschaftssuche.<br />

In dieser Arbeit erfolgt die <strong>Segmentierung</strong> in der 3-D-Punktwolke, da die Vorteile gegenüber<br />

der ersten Strategie deutlich überwiegen.<br />

Neben der Frage, ob jede Aufnahme für sich oder die 3-D-Punktwolke als Ganzes segmentiert<br />

wird, spielt die Art der Daten eine Rolle, die für die <strong>Segmentierung</strong> verwendet<br />

werden: Mit dem Wissen, dass eine <strong>Segmentierung</strong> nach Ähnlichkeitsmaßen gruppiert,<br />

lassen die Abbildungen 4.3 und 4.4 bereits Vermutungen darüber zu, welche Art der Daten<br />

für eine <strong>Segmentierung</strong> der Gurkenblätter geeignet sein könnte: Die spektralen Daten<br />

zeigen Variationen innerhalb eines Blattes, die zum Teil durch die Blattstrukturen oder<br />

– im Fall des RGB-Bildes – durch Schattenwurf entstehen. Gleichzeitig liefert diese Art<br />

55


4 Entwicklung eines Verfahrens zur raum-<strong>zeitliche</strong>n <strong>Segmentierung</strong> von natürlichen Objekten<br />

der Daten zwar eine deutliche Abgrenzung der Pflanze vom Hintergrund (siehe Abbildung<br />

4.2), die einzelnen Blätter nehmen jedoch sehr ähnliche Werte an. Da eine Abgrenzung<br />

der Pflanze vom Hintergrund aufgrund der Einschränkung des Sichtfeldes nicht mehr notwendig<br />

ist, kann davon ausgegangen werden, dass diese spektralen Daten nicht oder nur<br />

bedingt für die <strong>Segmentierung</strong> der einzelnen Blätter geeignet sind.<br />

Ein anderes Bild ergibt sich dagegen bei den geometrischen Tiefenwerten: Auch diese zeigen<br />

zwar – hervorgerufen durch Verdeckungen und daraus resultierenden Tiefensprüngen<br />

– Variationen innerhalb eines einzelnen Blattes, gleichzeitig sind die Grenzen zwischen<br />

zwei Blättern in den meisten Fällen jedoch gut zu erkennen. Aus diesem Grund wird bei<br />

der Entwicklung einer <strong>Segmentierung</strong>sstrategie zunächst der Fokus auf die <strong>Segmentierung</strong><br />

der geometrischen Merkmale gelegt (vgl. Abschnitt 3.3).<br />

Da die zu dieser Methodik gehörende <strong>Segmentierung</strong> durch Extraktion von Primitiven<br />

bereits in Abschnitt 4.1 ausgeschlossen wurde und aufgrund fehlenden Expertenwissens<br />

eine Aufstellung komplexer Modelle entfällt, verbleibt für die Lösung des <strong>Segmentierung</strong>sproblems<br />

die in Abschnitt 3.3.1 vorgestellte <strong>Segmentierung</strong> unter Verwendung von Oberflächeneigenschaften.<br />

Von der Vielfalt der bestehenden Algorithmen, die dieser Gruppe<br />

von Verfahren zugeordnet werden können, wird für die <strong>Segmentierung</strong> der Gurkenblätter<br />

der in Abschnitt 3.4.2 vorgestellte graphbasierte Algorithmus nach Felzenszwalb u. Huttenlocher<br />

(2004) als besonders geeignet angesehen. Den Grund hierfür stellt das adaptive<br />

<strong>Segmentierung</strong>skriterium dar, welches durch die Abbildung 3.8 motiviert wird. Ein Vergleich<br />

dieser Abbildung mit dem vergrößerten Ausschnitt eines beispielhaft ausgewählten<br />

Tiefenbildes der in dieser Arbeit verwendeten Datensätze (siehe Abbildung 4.5) lässt große<br />

Ähnlichkeiten erkennen: Zum einen weist jedes Blatt aufgrund des starken Messrauschens<br />

eine gewisse Texturierung auf, zum anderen entstehen durch die Blattkrümmungen über<br />

größere Bereiche eines Blattes sich kontinuierlich ändernde Werte, die in einer farblichen<br />

Darstellung als Grauwertrampen identifiziert werden können. Der Algorithmus nach<br />

Felzenszwalb u. Huttenlocher (2004) wird innerhalb der Patch-Type-Verfahren den regionenbasierten<br />

Verfahren zugeordnet, wobei die <strong>Segmentierung</strong> an sich mit Hilfe eines<br />

Clusterings erfolgt.<br />

56


4.3 Räumliche <strong>Segmentierung</strong><br />

Abb. 4.5: Vergrößerter Ausschnitt des Tiefenbildes der Aufnahme E1 08 (sPos 0 ◦ )<br />

4.3.2 Berechnung lokaler Normalenvektoren<br />

Die <strong>Segmentierung</strong> mit Hilfe des Algorithmus nach Felzenszwalb u. Huttenlocher (2004)<br />

erfordert die Definition von Kantengewichten, die zur Beurteilung der Ähnlichkeit benachbarter<br />

Knoten herangezogen werden. Für die Berechnung der Kantengewichte kommen die<br />

in Abschnitt 4.2 aufgeführten Messwerte in Frage, von denen insbesondere die Tiefeninformation<br />

erfolgversprechend ist. Bei sich berührenden Blättern ist diese Art der Information<br />

jedoch nicht ausreichend. An sich berührenden Oberflächen treten in der Regel Crease-<br />

Edges auf, die aufgrund der Richtungsänderung der lokalen Normalenvektoren entstehen<br />

(siehe Abschnitt 3.3.1.1). Durch Berücksichtigung dieser lokalen Normalenvektoren in der<br />

<strong>Segmentierung</strong> sollte es also möglich sein, sich berührende Blätter voneinander zu trennen.<br />

Die Berechnung der Normalenvektoren erfolgt – ebenso wie die <strong>Segmentierung</strong> an sich<br />

– direkt in der 3-D-Punktwolke. In einem ersten Schritt muss somit zunächst für jeden<br />

Punkt p i der Punktwolke eine lokale Nachbarschaft ermittelt werden. Die Definition der<br />

Nachbarschaft erfolgt mit Hilfe einer Radiussuche, die alle Punkte mit einer maximalen<br />

Entfernung r von p i der Nachbarschaft zuordnet. Für eine effiziente Suche wird ein<br />

k-D-Baum verwendet. Unter Berücksichtigung des starken Messrauschens (die Genauigkeitsangabe<br />

des Herstellers beträgt, wie in Abschnitt 2.1 angegeben, 12 mm) wird für<br />

die Bestimmung der lokal besteinpassenden Ebene der in Abschnitt 3.3.2.2 beschriebenen<br />

57


4 Entwicklung eines Verfahrens zur raum-<strong>zeitliche</strong>n <strong>Segmentierung</strong> von natürlichen Objekten<br />

robuste RANSAC-Algorithmus verwendet, dessen Ergebnis in einem zweiten Schritt mit<br />

Hilfe der in Abschnitt 3.3.2.1 beschriebenen PCA optimiert wird.<br />

Die Verwendung des RANSAC-Algorithmus erfordert die Definition von vier Parametern:<br />

Die Wahrscheinlichkeit w, dass eine einzelne ausgewählte Beobachtung auf dem korrekten<br />

Modell liegt, wird unter Berücksichtigung des Wissens, dass sich an einer Stelle maximal<br />

zwei Blätter berühren, zu w =0, 5 gesetzt. Da die Wahrscheinlichkeit z, das richtige Modell<br />

zu finden, groß sein soll, wird sie auf 95 % gesetzt. Die Wahl der verbleibenden beiden<br />

Parameter – der Größe der Nachbarschaft, die über den Radius r definiert wird, sowie des<br />

Schwellwertes ɛ R – gestaltet sich aufgrund des starken Messrauschens deutlich schwieriger:<br />

Damit die lokalen Oberflächeneigenschaften der Punktwolke möglichst gut wiedergegeben<br />

werden und die Annahme, dass alle Punkte auf einer Ebene liegen, als gerechtfertigt angesehen<br />

werden kann, sollte die für die Ebenenschätzung verwendete Nachbarschaft eher<br />

klein sein. Das starke Messrauschen führt jedoch dazu, dass die Ebenenschätzung trotz<br />

Verwendung eines robusten Verfahrens bei kleinen Nachbarschaften sehr instabil wird.<br />

Der im Folgenden verwendete Radius von r =2cm bildet einen guten Kompromiss: Mit<br />

einem Durchmesser der verwendeten Punktmenge von damit 4 cm ist die Ausdehnung<br />

der Punktmenge in die beiden Hauptebenenrichtungen deutlich größer als in Richtung<br />

des Normalenvektors, in der eine Ausdehnung in der Größenordnung der Messgenauigkeit<br />

zu erwarten ist, sodass eine robuste Ebenenschätzung möglich wird. Gleichzeitig ist die<br />

Nachbarschaft im Vergleich zum gesamten Blatt (Gurkenblätter erreichen Ausdehnungen<br />

bis deutlich über 20 cm) jedoch klein genug, um die Annahme als gerechtfertigt anzusehen,<br />

dass die Punkte der Nachbarschaft eine Ebene approximieren. Um tatsächlich den<br />

lokalen Normalenvektor des Punktes p i – und nicht etwa den eines der zufällig während<br />

der Durchführung des RANSAC-Algorithmus ausgewählten Punkte der Nachbarschaft –<br />

zu bestimmen, fließt der Punkt p i in jede der Ebenenschätzungen ein, sodass nur zwei weitere<br />

Punkte zufällig aus der Menge der benachbarten Punkte ausgewählt werden müssen.<br />

Für den vierten Wert – den Schwellwert ɛ R – muss ebenfalls ein Kompromiss eingegangen<br />

werden: Zum einen muss das relativ starke Messrauschen Berücksichtigung finden,<br />

zum anderen sollen jedoch auch undeutliche Crease-Edges – d. h. Kanten zwischen zwei<br />

Flächen, deren Oberflächennormalen einen kleinen Winkel einschließen – aufgedeckt werden<br />

können. Aus diesem Grund wird der Schwellwert ɛ R empirisch bestimmt:<br />

58


4.3 Räumliche <strong>Segmentierung</strong><br />

Die Abbildung 4.6 zeigt das Ergebnis der Berechnung der lokalen Normalenvektoren unter<br />

Verwendung der Messgenauigkeit (ɛ R = 12 mm) bzw. unter Verwendung der halben<br />

Messgenauigkeit (ɛ R =6mm) als Schwellwert (für die farbcodierte Darstellung wurden<br />

die Normalenvektoren auf den Wertebereich [0, 1] skaliert und als RGB-Werte aufgefasst).<br />

Wie zu erwarten war, ergibt sich für den ersten Fall ein sehr homogenes Bild, was darauf<br />

zurückzuführen ist, dass für die Bewertung der zufällig ausgewählten Ebenenmodelle bis<br />

auf einige Ausreißer so gut wie alle Punkte der lokalen Nachbarschaft einbezogen werden<br />

und die entsprechenden Ebenen aus diesem Grund die tatsächliche Form der Pflanze relativ<br />

gut annähern. Anders sieht dies bei Verwendung der halben Messgenauigkeit aus:<br />

Insbesondere für den Fall, dass es sich bei p i im Vergleich zu seiner lokalen Nachbarschaft<br />

um einen Ausreißer handelt, werden nur sehr wenige Punkte für die Ebenenbewertung<br />

verwendet, was diese Ebenenbestimmung sehr instabil werden lässt und zu einem leicht<br />

verrauschten Eindruck der Normalenvektoren führt. Dennoch wird im Folgenden aus zwei<br />

Gründen der Schwellwert von ɛ R =6mm für die Berechnung der Normalenvektoren verwendet:<br />

Zum einen erfolgt auf diese Art in gewisser Weise eine Ausreißereliminierung,<br />

da bei Verwendung der Normalenvektoren als Ähnlichkeitsmaß die stark verrauschten<br />

Punkte mit großer Wahrscheinlichkeit nicht dem Rest des Blattes zugeordnet werden;<br />

Abb. 4.6: Lokale Normalenvektoren der Aufnahme E1 08 (sPos 0 ◦ ); w =0.5, z =0.95,<br />

r =2cm: Schwellwert ɛ R = 12 mm (links); Schwellwert ɛ R =6mm (rechts)<br />

59


4 Entwicklung eines Verfahrens zur raum-<strong>zeitliche</strong>n <strong>Segmentierung</strong> von natürlichen Objekten<br />

das Segment wird somit insgesamt glatter, was eine deutlich zuverlässigere Blattflächenbestimmung<br />

erlaubt. Zum anderen spielt hier die bereits erwähnte Aufdeckbarkeit von<br />

schwachen Crease-Edges eine Rolle: Insbesondere sich berührende Blätter, die – wie in<br />

Abschnitt 4.1 dargelegt – die Hauptschwierigkeit bei der Pflanzensegmentierung darstellen,<br />

schließen zum Teil Winkel nahe 180 ◦ ein. Um diese zuverlässig aufdecken zu können,<br />

müssen auch die beiden lokalen Ebenen gut voneinander zu trennen sein, was bei einem<br />

zu groß gewählten Schwellwert nicht mehr garantiert werden kann.<br />

4.3.3 Glätten der Punktwolke<br />

Bei der Berechnung der Normalenvektoren hat sich bereits angedeutet, dass die vorliegenden<br />

Daten aufgrund des starken Messrauschens bei den erforderlichen Berechnungen<br />

Probleme bereiten. Aufgrund des adaptiven <strong>Segmentierung</strong>skriteriums ist zwar davon auszugehen,<br />

dass der in dieser Arbeit verwendete <strong>Segmentierung</strong>salgorithmus bis zu einem<br />

gewissen Grad mit diesem Messrauschen umgehen kann, spätestens für eine zuverlässige<br />

Blattflächenbestimmung ist eine Glättung der Punktwolke jedoch unabdingbar. Da eine<br />

geglättete Punktwolke auch für einige der folgenden Rechenschritte von Vorteil sein kann,<br />

wird die Glättung bereits an dieser Stelle durchgeführt, sodass im Folgenden sowohl auf<br />

eine geglättete als auch auf eine ungeglättete Punktwolke zurückgegriffen werden kann.<br />

Die Glättung einer Punktwolke kann auf unterschiedliche Arten durchgeführt werden, von<br />

denen drei Möglichkeiten vorgestellt werden:<br />

• Die Rohdaten des Laserscanners – in diesem Fall die Distanzwerte – werden direkt<br />

geglättet. Die prinzipielle Vorgehensweise für die Durchführung einer Glättung<br />

ist die Anwendung eines Tiefpassfilters auf die Daten [Tomasi u. Manduchi (1998)].<br />

Ein populäres Beispiel für einen solchen Tiefpassfilter stellt der Gauß-Filter dar (siehe<br />

z. B. Gonzalez u. Woods (2002)), der jedoch den großen Nachteil besitzt, dass<br />

die Glättung über Kanten hinweg erfolgt, sodass diese verschmieren. Aus diesem<br />

Grund existieren kantenerhaltende Filter wie z. B. der von Tomasi u. Manduchi<br />

(1998) vorgestellte Bilateralfilter, der in der Glättung nicht nur die geometrische<br />

Nähe der benachbarten Punkte, sondern auch die Ähnlichkeit der Funktionswerte<br />

einbezieht.<br />

Da der Erhalt der Kanten für eine korrekte Trennung zweier sich berührender Blätter<br />

60


4.3 Räumliche <strong>Segmentierung</strong><br />

Abb. 4.7: Glättung der Rohdaten mit Hilfe des Bilateralfilters: ungeglättete Punktwolke<br />

(links); geglättete Punktwolke (rechts)<br />

notwendig ist, bietet sich eine Glättung der Rohdaten mit Hilfe des Bilaterfilters an.<br />

Der Effekt der Glättung lässt sich besonders gut an der Kiste erkennen, in der die<br />

Gurkenpflanze wächst. Die Abbildung 4.7 zeigt einen Ausschnitt der ungeglätteten<br />

3-D-Punktwolke und der Punktwolke, die entsteht, wenn der Bilateralfilter auf die<br />

Rohdaten angewendet wird. Auf den ersten Blick scheint die Anwendung des Bilateralfilters<br />

eine deutliche Verbesserung mit sich zu bringen: Das starke Rauschen<br />

der linken Punktwolke wird unterdrückt, sodass die ebenen Elemente der Box deutlich<br />

besser zu erkennen sind. Gleichzeitig bleiben die Kanten der Kiste erhalten.<br />

Der Nachteil dieser Art der Glättung besteht darin, dass die Aufnahmen der drei<br />

Scanpositionen unabhängig voneinander gefiltert werden. In den Überlappungsbereichen<br />

kommt es aus diesem Grund nach der Glättung zu Unstimmigkeiten. Die<br />

Abbildung 4.8 verdeutlicht diese Problematik: Dargestellt ist ein Ausschnitt der<br />

registrierten Punktwolken zweier Scanpositionen (die Aufnahme der Scanposition<br />

0 ◦ ist rot, die Aufnahme der Scanposition 120 ◦ grün eingefärbt) vor und nach<br />

Durchführung der Glättung. Während die beiden Punktwolken innerhalb des blauen<br />

Kreises ohne Durchführung der Glättung sehr gut übereinzustimmen scheinen,<br />

ist dies nach der Glättung nicht mehr der Fall. Da sowohl eine <strong>Segmentierung</strong> als<br />

auch eine spätere Blattflächenbestimmung durch diese Unstimmigkeiten deutlich<br />

erschwert werden, wird dieser Ansatz nicht weiter verfolgt.<br />

61


4 Entwicklung eines Verfahrens zur raum-<strong>zeitliche</strong>n <strong>Segmentierung</strong> von natürlichen Objekten<br />

Abb. 4.8: Unstimmigkeiten in den Überlappungsbereichen der Aufnahmen zweier Scanpositionen<br />

(rot bzw. grün eingefärbt) nach der Glättung der Rohdaten mit Hilfe<br />

des Bilateralfilters: ungeglättete Punktwolke (links); geglättete Punktwolke<br />

(rechts)<br />

• Das Problem dieser Unstimmigkeiten kann umgangen werden, indem die Filterung<br />

direkt in der registrierten 3-D-Punktwolke erfolgt und somit alle drei Aufnahmen<br />

einer Zeitepoche gemeinsam geglättet werden. Hierfür wird das Prinzip des 2-D-<br />

Mittelwertfilters (siehe z. B. Gonzalez u. Woods (2002)) auf eine 3-D-Punktwolke<br />

erweitert. Das Prinzip eines solchen räumlichen Mittelwertfilters ist schematisch in<br />

der Abbildung 4.9 (links) dargestellt: Für jeden Punkt p i der Punktwolke – dargestellt<br />

in Schwarz – wird mit Hilfe einer Kugel eine Nachbarschaft definiert; diese<br />

Kugel dient als Filtermaske. Alle Punkte dieser Nachbarschaft – dargestellt in Rot<br />

– werden dazu verwendet, die Koordinaten des Punktes p i neu zu bestimmen. Die<br />

neuen Koordinaten können im einfachsten Fall durch die Berechnung des Mittelwertes<br />

oder mit etwas mehr Rechenaufwand mit Hilfe eines gewichteten Mittels – z. B.<br />

unter Berücksichtigung der Distanzen zu p i – bestimmt werden. Die Abbildung 4.10<br />

zeigt eine Punktwolke vor und nach Anwendung eines solchen 3-D-Mittelwertfilters;<br />

als Filtergröße wurde ein Radius von 2 cm gewählt. Ähnlich wie bei der bilateralen<br />

62


4.3 Räumliche <strong>Segmentierung</strong><br />

Abb. 4.9: Anwendung eines 3-D-Mittelwertfilters: Prinzip (links); Blattflächenverkleinerung<br />

in Folge der Glättung (gelb: Ausschnitt aus der ungeglätteten Punktwolke,<br />

hellblau: Ausschnitt aus der geglätteten Punktwolke) (rechts)<br />

Filterung der Distanzwerte ist auch bei der 3-D-Mittelwertfilterung eine Glättung<br />

der Punktwolke erkennbar. Da die Filterung der Aufnahmen aller drei Scanpositionen<br />

gemeinsam durchgeführt wird, treten in den Überlappungsbereichen jedoch<br />

keine Unstimmigkeiten mehr auf. Als Nachteil dieser Art der Glättung erweist sich<br />

das Verschmieren der Kanten, da ein einfacher Mittelwertfilter kein kantenerhal-<br />

Abb. 4.10: Glättung der Rohdaten mit Hilfe eines 3-D-Mittelwertfilters: ungeglättete<br />

Punktwolke (links); geglättete Punktwolke (rechts)<br />

63


4 Entwicklung eines Verfahrens zur raum-<strong>zeitliche</strong>n <strong>Segmentierung</strong> von natürlichen Objekten<br />

tender Filter ist. Hinzu kommt, dass die Mittelbildung nicht nur in Aufnahmerichtung<br />

geschieht, sondern in alle drei Koordinatenrichtungen. Das führt dazu,<br />

dass die Punktwolke zusammengezogen“ wird und sich somit die Ausdehnung der<br />

”<br />

Punktwolke quer zur Aufnahmerichtung verändert. Dieser Effekt wird in Abbildung<br />

4.9 (rechts) deutlich, in der sowohl die geglättete Punktwolke (hellblau eingefärbt)<br />

als auch die ungeglättete Punktwolke (gelb eingefärbt) gemeinsam dargestellt sind.<br />

Deutlich erkennbar ist eine Verkleinerung der Blattfläche in Folge der Glättung.<br />

• Diese Verkleinerung der Blattfläche kann vermieden werden, indem die Filterung<br />

nicht in alle Koordinatenrichtungen, sondern nur in Richtung des lokalen Normalenvektors<br />

durchgeführt wird. Die Berechnung der lokalen Normalenvektoren wurde<br />

bereits in Abschnitt 4.3.2 beschrieben; die Filterung in Richtung des lokalen Normalenvektors<br />

baut im Prinzip darauf auf. Mit Hilfe des RANSAC-Algorithmus wird<br />

zunächst eine robuste Ebene bestimmt. Die PCA im Anschluss daran wird an dieser<br />

Stelle jedoch nicht dazu verwendet, die optimalen Ebenenparameter zu bestimmen,<br />

sondern um die drei Hauptrichtungen der RANSAC-Ebene zu ermitteln, die den<br />

Eigenvektoren der Scatter-Matrix entsprechen (vgl. Abschnitt 3.3.2.1). Die aus den<br />

Eigenvektoren bestehende Modalmatrix dient als Rotationsmatrix, um die lokale<br />

Nachbarschaft in das Koordinatensystem der lokalen Hauptachsen zu überführen.<br />

Die Mittelbildung erfolgt in diesem Koordinatensystem entlang des zum kleinsten<br />

Eigenwerts gehörenden Eigenvektors; die anderen beiden Koordinatenrichtungen<br />

bleiben unverändert. Nach der anschließenden Rücktransformation in das ursprüngliche<br />

Koordinatensystem liegt somit eine Punktwolke vor, die entlang des lokalen<br />

Normalenvektors gefiltert wurde, während sie in den anderen Koordinatenrichtungen<br />

unverändert bleibt.<br />

Das Ergebnis der Mittelwertfilterung in Richtung der lokalen Normalenvektoren ist<br />

in der Abbildung 4.11 zu sehen: Während auch in diesem Fall eine deutliche Glättung<br />

erkennbar ist, kommen die Nachteile der beiden anderen beschriebenen Verfahren<br />

nicht zum Tragen: Da die Punktwolke als Ganzes gefiltert wird, treten keine Unstimmigkeiten<br />

in den Überlappungsbereichen auf. Gleichzeitig bleibt die Ausdehnung der<br />

Punktwolke quer zur Normalenrichtung unverändert. Hinzu kommt, dass durch die<br />

Vorauswahl der für die Berechnung der Hauptrichtungen verwendeten Punkte mit<br />

64


4.3 Räumliche <strong>Segmentierung</strong><br />

Abb. 4.11: Glättung der Rohdaten in Richtung der lokalen Normalenvektoren: ungeglättete<br />

Punktwolke (links); geglättete Punktwolke (rechts)<br />

Hilfe des RANSAC-Algorithmus Kanten bis zu einem gewissen Grad erhalten bleiben,<br />

wobei die Stärke der Kanten, die erhalten werden, abhängig von der Größe des<br />

Schwellwerts ɛ R ist.<br />

4.3.4 Extraktion der Kiste<br />

Durch die Einschränkung des Sichtfeldes wurde bereits ein Großteil der für die <strong>Segmentierung</strong><br />

der Gurkenblätter unwichtigen Daten herausgefiltert. Neben der Pflanze ist in der<br />

3-D-Punktwolke nur noch die Kiste enthalten, in der die Pflanze wächst. Da die unteren<br />

Blätter der Pflanze diese Kiste in der Regel berühren, ist davon auszugehen, dass in einer<br />

gemeinsamen <strong>Segmentierung</strong> die Trennung der Blätter von der Kiste mit Schwierigkeiten<br />

verbunden ist. Aus diesem Grund erfolgt in einem ersten <strong>Segmentierung</strong>sschritt eine Extraktion<br />

der Kiste, um die eigentliche <strong>Segmentierung</strong> der Gurkenblätter mit Hilfe einer<br />

Punktwolke durchführen zu können, in der nur noch die Pflanze enthalten ist.<br />

Die bildhaften Darstellungen der Ausgangsdaten in den Abbildungen 4.3 und 4.4 legen die<br />

Vermutung nahe, dass die Kiste relativ einfach mit Hilfe der RGB-Werte von der Pflanze<br />

getrennt werden kann, da in diesem Fall – anders als bei den Distanz- oder Intensitätswerten<br />

– die Kiste deutlich erkennbar andere Werte annimmt als die Pflanze. Werden auch<br />

die Aufnahmen der anderen beiden Standpunkte der Epoche E1 08 betrachtet (siehe Ab-<br />

65


4 Entwicklung eines Verfahrens zur raum-<strong>zeitliche</strong>n <strong>Segmentierung</strong> von natürlichen Objekten<br />

Abb. 4.12: RGB-Bilder der Aufnahme E1 08 : Scanposition sPos 120 ◦ (links); Scanposition<br />

sPos 240 ◦ (rechts)<br />

bildung 4.12), wird jedoch deutlich, dass die ungünstigen Lichtverhältnisse die Extraktion<br />

der Kiste mit Hilfe von RGB-Werten erschweren: Insbesondere die Aufnahme der Scanposition<br />

sPos 240 ◦ liegt fast komplett im Schatten, was die Blätter der Gurkenpflanze<br />

und die Kiste sehr dunkel und somit sehr ähnlich aussehen lässt. Eine übliche Vorgehensweise,<br />

um mit Schatten umzugehen, ist eine Transformation der RGB-Farbinformation<br />

in den HSV-Farbraum (Hue, Saturation, Value) [Cucchiara u. a. (2001)]. Von Interesse<br />

ist in diesem Fall der eigentliche Farbwert (engl. Hue), da er von ungleichmäßigen Beleuchtungsverhältnissen<br />

und dem daraus resultierenden Schattenwurf unbeeinflusst ist. In<br />

der Abbildung 4.13 (links) ist der Hue-Wert der im RGB-Farbraum besonders kritischen<br />

Aufnahme der Scanposition sPos 240 ◦ zu sehen. Zwar nimmt die Pflanze an sich größtenteils<br />

sehr ähnliche Hue-Werte an, die Kiste nimmt jedoch ein sehr breites Spektrum an<br />

Farbwerten an. Da es u. a. auch das Spektrum der Gurkenpflanze enthält, führt diese<br />

Vorgehensweise zu keinem Erfolg. Die Trennung von Kiste und Gurkenpflanze mit Hilfe<br />

der spektralen Information wird aus diesem Grund nicht weiter vertieft, sondern die<br />

geometrische Information sowie das Wissen über Form und Ausmaße der Kiste für die<br />

Lösung des Problems herangezogen:<br />

Bei der Kiste handelt es sich um eine quaderförmige Box, deren Grundfläche die un-<br />

66


4.3 Räumliche <strong>Segmentierung</strong><br />

Abb. 4.13: Extraktion der Kiste: Hue-Werte der Aufnahme E1 08 , sPos 240 ◦ (links); Kiste<br />

mit aufliegender Styroporplatte (Aufnahme: Paffenholz) (rechts)<br />

gefähren Ausmaße von 305 mm x 395 mm besitzt. In den in dieser Arbeit verwendeten<br />

Aufnahmen liegt auf der Kiste eine L-förmige Styroporplatte, die an drei Seiten wenige<br />

Zentimeter über den Rand der Kiste hinausragt (siehe Abbildung 4.13 (rechts)). Durch die<br />

seitliche Aufnahme der Pflanze wird die horizontale Oberfläche der Styroporplatte nicht<br />

komplett erfasst; in den Punktwolken sind somit vor allem die vertikalen Oberflächen der<br />

Styroporplatte sowie die vier Seitenwände der Kiste zu erkennen. Diese gilt es im Folgenden<br />

zu extrahieren.<br />

Der Überstand der Styroporplatte ist nicht deutlich größer als das Messrauschen. Aus<br />

diesem Grund wird für eine gute Trennung von Kiste und Platte auf die geglättete<br />

Punktwolke zurückgegriffen. Da sich die Punkte der ungeglätteten Punktwolke eindeutig<br />

ihrem geglätteten Pendant zuordnen lassen, kann die Extraktion anschließend auf die<br />

ungeglättete Punktwolke übertragen werden, sodass spätere Berechnungen auch mit der<br />

ungeglätteten Punktwolke durchgeführt werden können. Um die Suche nach der Kiste<br />

nicht in der gesamten Punktwolke durchführen zu müssen, erfolgt außerdem zu Beginn<br />

der Berechnungen eine Reduktion des Suchraumes, die aufgrund der begrenzten Höhe der<br />

Kiste durchgeführt werden kann: Für die Berechnungen wird nur derjenige Teil der Punktwolke<br />

verwendet, dessen Z-Koordinaten kleiner als ein von der Höhe der Kiste abhängiger<br />

Schwellwert ɛ z sind.<br />

67


4 Entwicklung eines Verfahrens zur raum-<strong>zeitliche</strong>n <strong>Segmentierung</strong> von natürlichen Objekten<br />

Da die vier Seitenwände der Kiste einen deutlich größeren Teil der Punktwolke einnehmen<br />

als die Styroporplatte, wird mit der Extraktion der Kiste begonnen. Hierfür wird im Prinzip<br />

viermal hintereinander eine Ebenenextraktion mit Hilfe des RANSAC-Algorithmus<br />

durchgeführt, wobei diejenigen Punkte, die in einer der Iterationen einer Ebene zugeordnet<br />

werden, in der nächsten Iteration nicht mehr berücksichtigt werden; die Punktwolke<br />

wird somit in jedem der vier Iterationsschritte um eine Seitenwand reduziert.<br />

Das direkte Anwenden des RANSAC-Algorithmus liefert zunächst jedoch keine guten Ergebnisse<br />

(siehe Abbildung 4.14 (links)): Trotz Verwendung der geglätteten Punktwolke<br />

erfolgt keine saubere Trennung von Styroporplatte und Seitenwand, was dazu führt, dass<br />

die geschätzte Ebene geneigt im <strong>Raum</strong> liegt. Aus diesem Grund werden zwei Modifikationen<br />

des RANSAC-Algorithmus durchgeführt:<br />

• Zum einen wird der Suchraum, aus dem die drei für die Bestimmung des Modells<br />

benötigten Punkte ausgewählt werden, weiter eingeschränkt: Ausgewählt werden<br />

nur Punkte aus dem unteren Bereich der Kiste, sodass garantiert keiner auf der Styroporplatte<br />

liegt. Bewertet wird das Modell jedoch weiterhin mit Hilfe der gesamten<br />

Punktwolke.<br />

• Zum anderen wird eine Restriktion eingeführt, die als gültiges Modell nur Ebenen<br />

akzeptiert, die annähernd senkrecht stehen. Ist die Bedingung<br />

n T · e 3<br />

!<br />

< 0.1 (4.1)<br />

mit:<br />

n : Normalenvektor der Ebene<br />

[ ]<br />

e 3 = 0 0 1<br />

nicht erfüllt, so wird die Auswahl als ungültig angesehen und der Berechnungsschritt<br />

zählt nicht als eine der k maximal durchzuführenden Iterationen.<br />

Insgesamt erhöhen diese Modifikationen zwar die Anzahl der durchzuführenden Berechnungsschritte,<br />

dieser erhöhte Rechenaufwand wird jedoch in Kauf genommen, da sich das<br />

Ergebnis deutlich verbessert (Abbildung 4.14 (rechts)).<br />

68


4.3 Räumliche <strong>Segmentierung</strong><br />

Abb. 4.14: Extraktion einer Seitenwand der Kiste (blau: Ausgangspunktwolke, rot: Ergebnisebene,<br />

grün: extrahierte Punkte): einfacher RANSAC (links), modifizierter<br />

RANSAC (rechts)<br />

Ist die erste Ebene E 1 gefunden, erlaubt die Kenntnis der Kistenmaße eine erneute Verkleinerung<br />

des Suchraumes: Gesucht wird zunächst die zu E 1 parallele Ebene, sodass –<br />

unabhängig davon, ob die bereits gefundene Ebene eine Quer- oder eine Längsseite der<br />

Kiste darstellt – alle Punkte, die einen Abstand d


4 Entwicklung eines Verfahrens zur raum-<strong>zeitliche</strong>n <strong>Segmentierung</strong> von natürlichen Objekten<br />

Abb. 4.15: Extraktion aller vier Seitenwände der Kiste (blau: Ausgangspunktwolke, rot:<br />

Ergebnisebenen, grün: extrahierte Punkte)<br />

Kiste alle Punkte mit einem Abstand d < 140 mm von diesem Schwerpunkt aus der<br />

Punktwolke entfernt werden. Die Extraktion der vertikalen Styroporoberflächen erfolgt<br />

anschließend analog zur Extraktion der Kistenwände, mit dem einzigen Unterschied, dass<br />

nur die drei größten der insgesamt sechs senkrechten Styroporflächen extrahiert werden.<br />

Die anderen drei sind so klein, dass davon ausgegangen werden kann, dass sie die folgende<br />

<strong>Segmentierung</strong> nicht negativ beeinflussen.<br />

4.3.5 Vorsegmentierung nach Felzenszwalb und Huttenlocher<br />

Nach diesen vorbereitenden Schritten kann mit der eigentlichen <strong>Segmentierung</strong> der Gurkenpflanze<br />

begonnen werden. Da die Blattstruktur bei der <strong>Segmentierung</strong> eine wichtige<br />

Rolle spielt, wird die ungeglättete Punktwolke verwendet.<br />

4.3.5.1 Definition der Nachbarschaften<br />

Für eine <strong>Segmentierung</strong> der Gurkenblätter muss zunächst die Art der Nachbarschaftsdefinition<br />

festgelegt werden. Da die <strong>Segmentierung</strong> direkt in der 3-D-Punktwolke durchgeführt<br />

wird, bieten sich die von Sima u. a. (2013) vorgeschlagenen k nächsten Nachbarn oder<br />

die Durchführung einer Radiussuche an. Die vorliegenden Daten besitzen im Vergleich<br />

zu anderen Laserscandaten mit einer Punktdichte von ca. 9 Punkten/cm 2 eine geringe<br />

70


4.3 Räumliche <strong>Segmentierung</strong><br />

Auflösung. Hinzu kommt, dass die Auflösung innerhalb der Punktwolke aufgrund der<br />

Überlappungsbereiche der drei Aufnahmen deutlich variiert. Um eine isotrope Nachbarschaft<br />

zu garantieren, wird die Nachbarschaft jedes Punktes mit Hilfe einer Radiussuche<br />

definiert. Der Einfluss der Größe dieser Nachbarschaft – bestimmt durch den Radius r –<br />

auf die <strong>Segmentierung</strong> ist enorm: Zum einen ist die Laufzeit des Algorithmus eine Funktion<br />

in Abhängigkeit von der Anzahl der zu untersuchenden Kanten, die wiederum von<br />

der Anzahl der Nachbarn jedes Punktes abhängt. Zum anderen wirkt sich die Größe<br />

der Nachbarschaft sehr deutlich auf das <strong>Segmentierung</strong>sergebnis aus, was im Folgenden<br />

verdeutlicht wird, indem dieselbe Punktwolke unter Verwendung von drei beispielhaften<br />

Nachbarschaften segmentiert wird. Alle anderen für die <strong>Segmentierung</strong> wichtigen Parameter<br />

sind in allen drei Berechnungen identisch (auf die entsprechenden Größen wird in<br />

den nachfolgenden Abschnitten eingegangen).<br />

Den Berechnungen zugrunde liegen die Radien r 1 =5mm, r 2 = 10 mm sowie r 3 = 15 mm.<br />

Die Tabelle 4.2 erlaubt eine Vorstellung darüber, in welchem Maße die Anzahl der Nachbarn<br />

von der Wahl des Radius abhängt:<br />

Tabelle 4.2: Anzahl der Nachbarn in Abhängigkeit vom verwendeten Radius r<br />

Radius [mm] n max n n min<br />

r 1 =5 19 4 0<br />

r 2 = 10 65 20 0<br />

r 3 = 15 139 50 0<br />

Angegeben ist von allen Nachbarschaften der gesamten Punktwolke jeweils die maximale<br />

Anzahl von Nachbarn n max , die mittlere Anzahl der Nachbarn n sowie die minimale<br />

Anzahl von Nachbarn n min . Die Nullspalte resultiert aus Ausreißern, die keine direkten<br />

Nachbarn in ihrer Nähe besitzen. Der deutliche Unterschied zwischen den anderen beiden<br />

Spalten – der maximalen Anzahl der Nachbarn sowie der mittleren Anzahl der Nachbarn<br />

– entsteht zum einen durch die bereits angesprochene starke Variation in der Punktdichte,<br />

hat ihre Ursache zum anderen aber auch in der Struktur der Pflanze: Z. B. besitzen<br />

Punkte an den Rändern von Blättern oder auf dem Stiel deutlich weniger Nachbarn als<br />

ein Punkt in der Mitte eines Blattes.<br />

71


4 Entwicklung eines Verfahrens zur raum-<strong>zeitliche</strong>n <strong>Segmentierung</strong> von natürlichen Objekten<br />

In Abbildung 4.16 sind die Ergebnisse dieser Berechnungen dargestellt 1 . Es wird deutlich,<br />

dass mit der Größe einer Nachbarschaft auch die Größe der Ergebnissegmente zunimmt:<br />

Während bei Verwendung des relativ kleinen Radius (r 1 =5mm) die Initialisierung des<br />

Algorithmus annähernd erhalten bleibt und nur ein geringer Teil der Punkte zu größeren<br />

Segmenten zusammengefasst wird, sind bei den beiden größeren Radien (r 2 = 10 mm<br />

und r 3 = 15 mm) die einzelnen Blätter bereits relativ gut anhand der <strong>Segmentierung</strong> zu<br />

erkennen, wenngleich auch hier Übersegmentierungen auftreten; diese sind umso stärker,<br />

je kleiner die Nachbarschaft gewählt wird. Prinzipiell ist somit eine große Nachbarschaft<br />

vorzuziehen, die jedoch einen erhöhten Rechenaufwand mit sich bringt. Darüber hinaus<br />

zeigt sich, dass die zum Parameter r 3 = 15 mm gehörende Abbildung nicht komplett<br />

übersegmentiert ist: Im oberen Teil der Pflanze werden zwei Blätter zu einem Segment<br />

zusammengefasst (in Abbildung 4.16 (rechts) hellblau eingefärbt), sodass es an dieser<br />

Stelle zu einer Untersegmentierung kommt. Dieses gleichzeitige Auftreten von Unter- und<br />

Übersegmentierung erschwert einen möglichen Nachbearbeitungsschritt; es ist jedoch zu<br />

beachten, dass auch andere Parameter das Ergebnis deutlich beeinflussen und dem Fall<br />

1 Benachbarte Punkte, die zu Segmenten zusammengefasst werden, sind in den gleichen Farben dargestellt.<br />

Für eine bessere Erkennbarkeit sind für diese und alle folgenden <strong>Segmentierung</strong>sergebnisse<br />

vergrößerte Darstellungen im Anhang A zu finden.<br />

Abb. 4.16: Einfluss der Nachbarschaftsgröße auf das <strong>Segmentierung</strong>sergebnis (Aufnahme<br />

E1 08 ): r 1 =5mm (links); r 2 = 10 mm (Mitte); r 3 = 15 mm (rechts);<br />

(Vergrößerte Darstellung in Abbildung A1)<br />

72


4.3 Räumliche <strong>Segmentierung</strong><br />

der gleichzeitigen Über- und Untersegmentierung entgegenwirken können. Als ein guter<br />

Kompromiss zwischen der Laufzeit und der Qualität der Ergebnisse wird die Verwendung<br />

des Radius r 2 = 10 mm angesehen, der im Folgenden der Nachbarschaftsdefinition<br />

zugrunde liegt. Die Durchführung einer Radiussuche für die Definition der Nachbarschaften<br />

hat zur Folge, dass – über die Punktwolke gesehen – aufgrund der unterschiedlichen<br />

Punktdichten die Anzahl der Nachbarn stark variiert. Um die Nachbarschaften nicht nur<br />

isotrop, sondern auch homogen zu gestalten, wird auf den Ansatz von Sima u. a. (2013)<br />

zurückgegriffen: Die endgültige Nachbarschaft ergibt sich durch zufälliges Auswählen von<br />

n r = n Punkten der sich aus der Radiussuche ergebenden Nachbarschaft. Dieser zusätzliche<br />

Schritt führt zu einer deutlichen Reduktion der Laufzeit, gleichzeitig bleibt die Güte<br />

des <strong>Segmentierung</strong>sergebnisses jedoch unbeeinflusst.<br />

4.3.5.2 Definition der Kantengewichte<br />

Nach Festlegung einer geeigneten Nachbarschaft stellt sich die Frage nach der Definition<br />

der Kantengewichte, die – allgemein formuliert – ein Maß für die Ähnlichkeit benachbarter<br />

Knoten darstellen. Speziell für die <strong>Segmentierung</strong> der Gurkenblätter muss das Ähnlichkeitsmaß<br />

eine Aussage darüber erlauben, ob zwei benachbarte Punkte auf demselben Blatt<br />

liegen oder nicht. Prinzipiell können für die Berechnung von Ähnlichkeitsmaßen die in Abschnitt<br />

4.2 vorgestellten Ausgangsdaten sowie sämtliche daraus berechenbare Werte wie z.<br />

B. lokale Normalenvektoren, Krümmungen o. Ä. verwendet werden. Dass insbesondere die<br />

spektralen Daten hierfür nicht geeignet sind, wurde in Abschnitt 4.2 bereits vermutet und<br />

wird durch die Abbildung 4.17 bestätigt: Dargestellt sind die Ergebnisse der <strong>Segmentierung</strong><br />

für den Fall, dass die Kantengewichte mit Hilfe der spektralen Information bestimmt<br />

werden. Verwendet wurden als Kantengewichte w die Differenzen der Intensitätswerte I i<br />

bzw. die normierte Differenz der RGB-Farbwerte RGB i benachbarter Punkte p i und p j<br />

mit i ≠ j:<br />

w Iij = I i I j (4.2)<br />

w RGBij = |RGB i RGB j | (4.3)<br />

⎡ ⎤ ⎡ ⎤<br />

R R<br />

=<br />

⎢ G ⎥ ⎢ G ⎥<br />

. (4.4)<br />

⎣ ⎦ ⎣ ⎦<br />

∣ B B ∣<br />

i<br />

j<br />

73


4 Entwicklung eines Verfahrens zur raum-<strong>zeitliche</strong>n <strong>Segmentierung</strong> von natürlichen Objekten<br />

Die <strong>Segmentierung</strong> unter Verwendung der Intensitätswerte teilt die Gurkenpflanze in zwei<br />

große Segmente (dargestellt in Hellblau und Gelb), ein mittelgroßes Segment (dargestellt<br />

in Rot) sowie eine Vielzahl sehr kleiner Segmente. Die starke Untersegmentierung hat<br />

ihre Ursache in den sehr ähnlichen Intensitätswerten benachbarter Blätter, die eine Trennung<br />

der Blätter voneinander unmöglich machen. Dass die Gurkenpflanze nicht zu einem<br />

einzigen Segment zusammengefügt wird, erklärt sich durch die leichten Variationen der<br />

Intensitätswerte, die insbesondere an den Übergängen zwischen Blättern und Stiel auftreten.<br />

Die Vielzahl der kleinen Segmente ist größtenteils auf grobe Fehler in den Daten<br />

zurückzuführen: Hierbei handelt es sich um geometrische Ausreißer, in deren Nachbarschaft<br />

keine weiteren Punkte liegen, sodass sie in der Kantenliste gar nicht erst aufgeführt<br />

werden. Diese Störsegmente“ treten in allen späteren <strong>Segmentierung</strong>sergebnissen auf und<br />

”<br />

werden nicht weiter beachtet.<br />

Ein ähnliches, wenn auch nicht ganz so extremes Ergebnis liefert die <strong>Segmentierung</strong> unter<br />

Verwendung der RGB-Werte als Kantengewichte (4.17 (rechts)). Auch in diesem Fall<br />

treten Untersegmentierungen auf (im linken Teil der Pflanze der hellblau dargestellte Bereich<br />

und im oberen Teil der Pflanze der violett dargestellte Bereich), die ebenfalls auf die<br />

starke Ähnlichkeit der Werte zurückzuführen sind. Anders als bei den Intensitätswerten<br />

Abb. 4.17: Ergebnisse der <strong>Segmentierung</strong>, basierend auf der spektralen Information (Aufnahme<br />

E1 08 ): w I (links), w RGB (rechts);<br />

(Vergrößerte Darstellung in Abbildung A2)<br />

74


4.3 Räumliche <strong>Segmentierung</strong><br />

führt eine Verwendung der RGB-Werte als Kantengewicht in einigen Teilen der Pflanze<br />

jedoch auch zu Übersegmentierungen: Am stärksten betrifft dies im Fall des verwendeten<br />

Beispieldatensatzes die Blätter im rechten unteren Teil der Pflanze, die jeweils in zwei<br />

bis drei größere Segmente unterteilt werden. Die Ursache hierfür stellen die ungünstigen<br />

Lichtverhältnisse in den Gewächshäusern dar, die dazu führen, dass einige Teile der<br />

Pflanze im Schatten liegen und somit dunklere Farbwerte aufweisen als die nicht im Schatten<br />

liegenden Teile der Pflanze. Die resultierenden Segmentgrenzen stimmen mit diesen<br />

Schattengrenzen überein. Da diese Schattengrenzen wiederum in keinerlei Bezug zu den zu<br />

detektierenden Blattgrenzen stehen, liefert eine <strong>Segmentierung</strong> auf Basis der RGB-Werte<br />

nicht die gewünschten Ergebnisse.<br />

Wie zu erwarten war, muss die Definition der Kantengewichte somit auf Basis der geometrischen<br />

Information durchgeführt werden. Einen sehr vielversprechenden Eindruck<br />

für eine erfolgreiche <strong>Segmentierung</strong> der Gurkenblätter vermitteln die Distanzbilder; diese<br />

können jedoch nicht direkt verwendet werden, da die <strong>Segmentierung</strong> aus oben genannten<br />

Gründen in der 3-D-Punktwolke durchgeführt wird. Charakteristisches und für die<br />

<strong>Segmentierung</strong> wichtiges Merkmal der Distanzbilder stellen die durch Tiefensprünge entstehenden<br />

Jump-Edges dar, weshalb im Folgenden ein Kantengewicht definiert wird, das<br />

genau diese Tiefensprünge innerhalb einer Punktwolke aufdeckt.<br />

Ausgangspunkt für die Definition des Kantengewichtes ist der Mittelpunkt p i der bereits<br />

Abb. 4.18: Detektion von Tiefensprüngen in der 3-D-Punktwolke: Prinzip (links); Übersegmentierung<br />

bei starken Blattkrümmungen (Mitte); Untersegmentierung bei<br />

Blattberührungen (rechts)<br />

75


4 Entwicklung eines Verfahrens zur raum-<strong>zeitliche</strong>n <strong>Segmentierung</strong> von natürlichen Objekten<br />

definierten Nachbarschaft p n sowie die Tangentialebene der Oberfläche im Punkt p i (siehe<br />

Abbildung 4.18 (links)). Der Abstand der benachbarten Punkte zu dieser Tangentialebene<br />

entspricht der Größe des Tiefensprunges vom Punkt p i zum jeweiligen Punkt der Nachbarschaft<br />

und kann somit direkt als Kantengewicht verwendet werden:<br />

w dij = |n T · p nj + d|, (4.5)<br />

mit:<br />

n : lokaler Normalenvektor<br />

d : Distanz der Tangentialebene zum Ursprung<br />

p nj : Punkt der Nachbarschaft.<br />

Wie aus der Abbildung 4.19 (links) zu erkennen ist, liefert auch eine <strong>Segmentierung</strong> auf Basis<br />

dieses Kantengewichts kein zufriedenstellendes Ergebnis. Zwar werden Tiefensprünge<br />

erfolgreich aufgedeckt, diese sind für eine brauchbare <strong>Segmentierung</strong> der Gurkenblätter<br />

jedoch nicht ausreichend: Zum einen ist es unmöglich, Grenzen zwischen sich berührenden<br />

Blättern aufzudecken, da in diesem Fall keine Tiefensprünge auftreten (siehe Abbildung<br />

4.18 (rechts)). Als Konsequenz daraus treten in den entsprechenden Bereichen der<br />

Pflanze Untersegmentierungen auf (in Abbildung 4.19 (links) oben links in Hellblau und<br />

Abb. 4.19: Ergebnisse der <strong>Segmentierung</strong>, basierend auf der geometrischen Information<br />

(Aufnahme E1 08 ): w d (links), w NV (rechts);<br />

(Vergrößerte Darstellung in Abbildung A2)<br />

76


4.3 Räumliche <strong>Segmentierung</strong><br />

unten rechts in Grün dargestellt). Zum anderen können innerhalb eines stark gekrümmten<br />

Blattes sehr große Tiefensprünge auftreten (siehe Abbildung 4.18 (Mitte)), wodurch<br />

es gleichzeitig zu Übersegmentierungen kommt. Eine <strong>Segmentierung</strong> auf Basis der Detektion<br />

von Tiefensprüngen ist somit nur bedingt geeignet; ein Nachbearbeitungsschritt<br />

wäre unerlässlich. Da ein solcher Nachbearbeitungsschritt sowohl das Zusammenfügen von<br />

übersegmentierten Blättern als auch das Auftrennen von untersegmentierten Blättern erfordern<br />

würde, wird auch diese Variante verworfen.<br />

Nachdem die Detektion von Jump-Edges kein zufriedenstellendes <strong>Segmentierung</strong>sergebnis<br />

liefert, verbleibt die Detektion von Crease-Edges. Da insbesondere sich berührende Oberflächen<br />

Crease-Edges bilden, sollte mit diesem Ansatz das Problem der Untersegmentierung<br />

gelöst werden können. Als Kantengewicht zwischen zwei benachbarten Knoten wird<br />

der Winkel verwendet, der von den jeweiligen beiden lokalen Normalenvektoren n pi und<br />

n pnj<br />

eingeschlossen wird:<br />

w NVij = arccos<br />

(<br />

n<br />

T<br />

pi · n pnj<br />

|n pi |·|n pnj |<br />

)<br />

. (4.6)<br />

Das Ergebnis dieser <strong>Segmentierung</strong> – in Abbildung 4.19 (rechts) dargestellt – ist im Vergleich<br />

zu den anderen dreien mit Abstand das beste: Durch geschicktes Auswählen des<br />

Parameters κ – ausführlicher im folgenden Abschnitt behandelt – ist es möglich, Untersegmentierungen<br />

komplett zu vermeiden und gleichzeitig die Übersegmentierung relativ<br />

gering zu halten. Dennoch ist es auch bei dieser Berechnung der Kantengewichte nicht<br />

möglich, alle Blätter vollständig zu segmentieren: Da die Blätter in sich verformbar sind,<br />

treten nicht nur an den Übergängen zwischen zwei verschiedenen Blättern, sondern auch<br />

innerhalb eines Blattes Crease-Edges auf. Eine Unterscheidung zwischen diesen beiden<br />

Arten von Crease-Edges ist jedoch mit Hilfe des Algorithmus von Felzenszwalb u. Huttenlocher<br />

(2004) nicht möglich.<br />

Trotz dieses Nachteils werden im Folgenden die auf Basis der Normalenvektoren berechneten<br />

Kantengewichte verwendet, um die Gurkenblätter zu segmentieren, da dieses Vorgehen<br />

von den vier getesteten Möglichkeiten die Blattstruktur und die Form der Blätter<br />

am besten wiedergibt und somit das brauchbarste Ergebnis liefert.<br />

77


4 Entwicklung eines Verfahrens zur raum-<strong>zeitliche</strong>n <strong>Segmentierung</strong> von natürlichen Objekten<br />

4.3.5.3 Definition von κ<br />

Ebenfalls einen starken Einfluss auf das Ergebnis der <strong>Segmentierung</strong> besitzt die Konstante<br />

κ (siehe Gleichung 3.31): Sie gibt indirekt an, um wie viel die Differenz zweier benachbarter<br />

Segmente größer sein muss als die interne Differenz, damit eine Grenze zwischen<br />

diesen beiden Segmenten erkannt wird, und beeinflusst damit die Größe der Ergebnissegmente.<br />

Dieser Parameter ist somit diejenige Größe, mit Hilfe derer das Maß an Überbzw.<br />

Untersegmentierung gesteuert werden kann.<br />

In Abbildung 4.20 sind die Ergebnisse dreier <strong>Segmentierung</strong>en zu sehen, bei denen unterschiedliche<br />

Werte für κ gewählt wurden. Da die Kantengewichte bei Verwendung von w NV<br />

im Intervall [0, π] liegen und zwischen zwei sich berührenden Blättern relativ schwache<br />

Crease-Edges aufgedeckt werden müssen, wurden für κ drei Werte gewählt, die im unteren<br />

Bereich dieses Intervalls liegen: κ 1 =0, 1, κ 2 =0, 6 und κ 3 = 1.<br />

Der kleinste dieser Werte liefert ein Ergebnis, das stark übersegmentiert ist: Jedes Blatt<br />

besteht aus vier bis fünf größeren Segmenten und einer Vielzahl kleinerer Segmente. Blattstrukturen<br />

sind in dieser <strong>Segmentierung</strong> nur sehr schwer zu erkennen. Auch ein zu groß<br />

gewähltes κ liefert kein zufriedenstellendes Ergebnis: Bei Verwendung von κ 3 = 1 nimmt<br />

der Grad der Übersegmentierung im Vergleich zur Verwendung von κ 1 zwar stark ab,<br />

Abb. 4.20: Einfluss der Konstante κ auf das <strong>Segmentierung</strong>sergebnis (Aufnahme E1 08 ):<br />

κ 1 =0, 1 (links); κ 2 =0, 6 (Mitte); κ 3 = 1 (rechts);<br />

(Vergrößerte Darstellung in Abbildung A3)<br />

78


4.3 Räumliche <strong>Segmentierung</strong><br />

gleichzeitig treten jedoch Untersegmentierungen auf. Dieses gleichzeitige Auftreten von<br />

sowohl Über- als auch Untersegmentierungen entsteht dadurch, dass bei sich berührenden<br />

Blättern Crease-Edges zum Teil schwächer ausgebildet sind als innerhalb eines Blattes.<br />

Das Ergebnis dieser <strong>Segmentierung</strong> verdeutlicht die Schwierigkeit, ein geeignetes κ zu<br />

wählen: Sollen die einzelnen Blätter möglichst vollständig segmentiert werden, so muss<br />

zwangsläufig eine Untersegmentierung akzeptiert werden; wird das κ dagegen so gewählt,<br />

dass sich berührende Blätter immer als zwei Segmente erkannt werden, so ergibt sich in<br />

jedem Fall eine gewisse Übersegmentierung. In keinem Fall ist das Ergebnis für die nachfolgende<br />

Ableitung von geometrischen Merkmalen zufriedenstellend, weshalb zur Verbesserung<br />

der <strong>Segmentierung</strong> ein nachfolgender Bearbeitungsschritt unabdingbar ist. Um zu<br />

vermeiden, dass in diesem zweiten Schritt sowohl zu kleine Segmente zusammengefügt als<br />

auch zu große Segmente aufgetrennt werden müssen, bietet sich als eine Möglichkeit an,<br />

das größtmögliche κ zu wählen, welches zu keiner Untersegmentierung führt.<br />

Diese Möglichkeit erweist sich aufgrund des Aufbaus der Pflanze jedoch nicht immer als<br />

optimal: Da im oberen Teil der Pflanze kleinere Blätter auftreten als im unteren Teil<br />

und insbesondere diese kleinen Blätter sich häufig berühren, muss für eine Trennung der<br />

oberen Blätter eine starke Übersegmentierung der unteren Blätter in Kauf genommen<br />

werden. Dieser Effekt tritt bei den in dieser Arbeit verwendeten Daten insbesondere beim<br />

Datensatz vom 08.05.2013 auf. Abhilfe kann geschaffen werden, indem in diesen Fällen<br />

κ nicht als Konstante, sondern als Funktion der z-Koordinate aufgefasst wird. In dieser<br />

Arbeit wird ein linearer Zusammenhang verwendet, der dafür sorgt, dass der Wert des<br />

verwendeten κ(z s ) mit der Höhe der beiden untersuchten Segmente abnimmt:<br />

κ(z s ) = a ·<br />

( z<br />

z max<br />

)<br />

+ b (4.7)<br />

= a · z s + b, (4.8)<br />

mit:<br />

a, b : zu wählende Parameter<br />

z : Mittelwert der z-Koordinate der beiden betrachteten Segmente<br />

z max : größte z-Koordinate der Punktwolke; dient zur Skalierung.<br />

79


4 Entwicklung eines Verfahrens zur raum-<strong>zeitliche</strong>n <strong>Segmentierung</strong> von natürlichen Objekten<br />

Die Bestimmung der Parameter a und b erfolgt empirisch zu:<br />

a = 0, 8 (4.9)<br />

b = 0, 7. (4.10)<br />

Damit ergeben sich für den Datensatz E1 08 für κ(z s ) Werte zwischen 0, 8 und 0, 15, die<br />

dafür sorgen, dass die großen Blätter im unteren Teil der Pflanze relativ vollständig segmentiert<br />

werden, während im oberen Teil der Pflanze auch sehr schwache Crease-Edges<br />

erkannt werden, sodass zwei sich berührende Blätter voneinander getrennt werden können.<br />

Auch diese veränderte Definition von κ verhindert jedoch nicht, dass weiterhin starke<br />

Übersegmentierungen auftreten. Aus diesem Grund ist ein zweiter Schritt, in dem die<br />

bestehende <strong>Segmentierung</strong> verbessert wird, unerlässlich.<br />

4.3.6 Statistisch begründetes Region-Merging<br />

Die Grundlage für diesen zweiten <strong>Segmentierung</strong>sschritt bilden die Ergebnissegmente, die<br />

durch das im vorigen Abschnitt beschriebene Verfahren gewonnen wurden und die im Folgenden<br />

als Superpixel aufgefasst werden (siehe Abschnitt 3.4.1.2). Im Vergleich zum ersten<br />

<strong>Segmentierung</strong>sschritt bilden somit deutlich weniger Segmente die Startinitialisierung. Da<br />

diese zudem mehr Informationen enthalten als die einzelnen Punkte einer Punktwolke,<br />

kann in dem zweiten <strong>Segmentierung</strong>sschritt auf komplexere und rechenaufwändigere Berechnungen<br />

zurückgegriffen werden als in der Vorsegmentierung.<br />

Bei Anwendung des Algorithmus nach Felzenszwalb u. Huttenlocher (2004) ist jedoch zu<br />

beachten, dass er Segmente liefert, die sich in ihren Größen deutlich voneinander unterscheiden:<br />

Zum einen existieren Segmente, die fast vollständig einem ganzen Blatt entsprechen,<br />

gleichzeitig existiert eine Vielzahl sehr kleiner Segmente, die aus fünf oder weniger<br />

Punkten bestehen. Letztere werden aus rechentechnischen Gründen von den folgenden<br />

Berechnungen zunächst ausgeschlossen und später gesondert behandelt (siehe Abschnitt<br />

4.3.6.3).<br />

4.3.6.1 Oberflächenbasiertes Region-Merging<br />

Alenya u. a. (2011) lösen das Problem der <strong>Segmentierung</strong> von Pflanzen ebenfalls in zwei<br />

Schritten und verbessern das Ergebnis aus der Vorsegmentierung u. a. mit Hilfe eines<br />

80


4.3 Räumliche <strong>Segmentierung</strong><br />

Region-Mergings: Für zwei benachbarte Segmente S i und S j sowie für das aus diesen<br />

beiden Segmenten zusammengesetzte Segment S i∩j werden die besteinpassenden Ebenen<br />

oder die besteinpassenden Oberflächen zweiten Grades bestimmt. Mit Hilfe der aus den<br />

Schätzungen resultierenden mittleren quadratischen Fehler E i , E j und E i∩j wird beurteilt,<br />

ob die beiden Segmente S i und S j dieselbe Ebene/Oberfläche beschreiben und dementsprechend<br />

zusammengefügt werden müssen.<br />

Die grundsätzliche Idee dieses oberflächenbasierten Region-Mergings wird in dieser Arbeit<br />

übernommen, die Umsetzung jedoch leicht verändert: Aufbauend auf der Annahme,<br />

dass die Ergebnisse aus der Vorsegmentierung so gut sind, dass für jedes Blatt ein großes<br />

Segment existiert, das als Repräsentant dieses Blattes angesehen werden kann und – für<br />

eine vollständige <strong>Segmentierung</strong> des entsprechenden Blattes – um einige kleinere Segmente<br />

ergänzt werden muss, werden jedem Segment S i mit einer bestimmten Mindestgröße<br />

zunächst alle diejenigen Segmente als Nachbarn zugeordnet, die einen Abstand d


4 Entwicklung eines Verfahrens zur raum-<strong>zeitliche</strong>n <strong>Segmentierung</strong> von natürlichen Objekten<br />

Die Abbildung 4.21 (links) zeigt beispielhaft die beschriebene Situation: Dargestellt ist<br />

in Blau das Segment S i , in Grün eines der gefundenen Nachbarsegmente S j und in Hellblau<br />

die Untermenge des Segmentes S i , die in die weiteren Berechnungen einfließt. Da<br />

das Nachbarsegment im Vergleich zu S i relativ klein ist, geht dieses als Ganzes in die<br />

Oberflächenschätzung ein.<br />

Die Oberflächenschätzung wird durchgeführt, indem sowohl die Untermenge S isub als<br />

auch das aus S isub und S j zusammengesetzte Segment S isub ∩j mit Hilfe einer mathematischen<br />

Funktion bestmöglich approximiert werden. Da die Punkte aufgrund der starken<br />

Krümmungen der Gurkenblätter nicht auf einer Ebene liegen, werden die Segmente daher<br />

im Folgenden ausschließlich durch Oberflächen zweiten Grades beschrieben.<br />

Die Schätzung dieser Oberflächen zweiten Grades kann auf unterschiedliche Arten erfolgen:<br />

Eine Möglichkeit ist die Bestimmung einer besteinpassenden Quadrik, die funktional<br />

wie folgt beschrieben werden kann:<br />

√ √ √<br />

0 = a 1 x 2 + a 2 y 2 + a 3 z 2 + a 4 2xy + a5 2xz + a6 2yz + a7 x + a 8 y + a 9 z + a 10 . (4.12)<br />

Für die Bestimmung der besteinpassenden Quadrik schlägt Drixler (1993) eine Überführung<br />

des eigentlich zu verwendenden Gauß-Helmert-Modells in ein Gauß-Markov-Modell<br />

vor. Die Lösung des Ausgleichungsproblems erfolgt dann mit Hilfe einer Eigenwertzerlegung,<br />

wobei die entsprechenden Eigenwerte die geometrische Figur dieser Quadrik spe-<br />

Abb. 4.21: Durchführung der Oberflächenschätzung: Einschränkung der verwendeten<br />

Punkte (blau: Segment S i , hellblau: Untermenge von S i (S isub ), grün: Nachbarsegment<br />

S j ) (links); Ergebnis der Oberflächenschätzung nach Drixler (1993)<br />

(rechts)<br />

82


4.3 Räumliche <strong>Segmentierung</strong><br />

zifizieren. Die verschiedenen geometrischen Formen, die eine Quadrik annehmen kann,<br />

stellen für ihre Anwendung in dieser Arbeit ein Problem dar: In Abbildung 4.21 (rechts)<br />

ist die auf diese Art bestimmte besteinpassende Quadrik der Punktmenge S isub zu sehen.<br />

Anders als erwartet, ergibt sich als besteinpassende Quadrik jedoch keine Ellipsoid- oder<br />

Zylinderoberfläche, sondern ein – für die hier beschriebene Aufgabe ungeeignetes – Hyperboloid.<br />

Soll dieser Ansatz weiter verfolgt werden, müsste z. B. mit Hilfe einer Restriktion<br />

vermieden werden, dass die besteinpassende Quadrik eine ungeeignete Form annimmt.<br />

Da es sich hierbei um eine nichttriviale Aufgabe der Formschätzung handelt und eine<br />

Vertiefung dieses Themas den Rahmen dieser Arbeit übersteigen würde, wird der Ansatz<br />

der Quadrikenschätzung nicht weiter verfolgt.<br />

Alenya u. a. (2011) verwenden ein deutlich einfacheres mathematisches Modell zur Beschreibung<br />

einer Oberfläche zweiten Grades:<br />

z = ax 2 + by 2 + cx + dy + e. (4.13)<br />

Da es sich hierbei – anders als bei 4.12 – um eine explizite Formulierung handelt, kann<br />

zur Lösung des Ausgleichungsproblems ein Gauß-Markov-Modell verwendet werden. Diese<br />

Vorgehensweise besitzt jedoch einen Nachteil: Bei einer solchen Formulierung wird nur<br />

die Z-Koordinate als Messung aufgefasst, während die X- und Y-Koordinaten als deterministisch<br />

angesehen werden [Shah (2006)]. Das allein könnte an dieser Stelle als gültige<br />

Vereinfachung hingenommen werden, hinzu kommt jedoch, dass eine Minimierung der<br />

quadratischen Distanz nur entlang der Z-Richtung erfolgt, was zu numerischen Instabilitäten<br />

führt, wenn die zu bestimmende Oberfläche annähernd senkrecht im <strong>Raum</strong> steht.<br />

Dieses Problem kann umgangen werden, indem in diesen Fällen vor Bestimmung der besteinpassenden<br />

Oberfläche eine Hauptachsentransformation der Punktwolke durchgeführt<br />

wird. In dem neuen Koordinatensystem erfolgt eine Minimierung entlang des zum kleinsten<br />

Normalenwerts gehörenden Normalenvektors.<br />

In Abbildung 4.22 ist das Ergebnis einer solchen Oberflächenschätzung zu sehen: Die<br />

hellblau dargestellte Oberfläche approximiert die Punktmenge S isub ,während die besteinpassende<br />

Oberfläche zweiten Grades der Punktmenge S isub ∩j in Grün eingefärbt ist. Im<br />

Vergleich zur Vorgehensweise nach Drixler (1993) liefert das in Gleichung 4.13 angegebene<br />

funktionale Modell für die hier zu lösende Aufgabe das deutlich plausiblere Ergebnis.<br />

Da die Interpretation der X- und Y-Koordinaten als deterministische Werte an dieser<br />

83


4 Entwicklung eines Verfahrens zur raum-<strong>zeitliche</strong>n <strong>Segmentierung</strong> von natürlichen Objekten<br />

Abb. 4.22: Ergebnis der Oberflächenschätzung nach Alenya u. a. (2011)<br />

Stelle nicht schwer wiegt und das Problem der senkrechten Oberflächen mit Hilfe einer<br />

Hauptachsentransformation gelöst werden kann, werden im Folgenden auf diese Weise<br />

die besteinpassenden Oberflächen bestimmt. Zu beachten ist, dass es sich bei diesem<br />

Lösungsansatz um ein Optimierungsproblem nach kleinsten Quadraten und somit um<br />

kein robustes Verfahren handelt. Aus diesem Grund ist davon auszugehen, dass das starke<br />

Messrauschen die Ergebnisse negativ beeinflusst, sodass für die Schätzungen auf die<br />

geglättete Punktwolke zurückgegriffen wird.<br />

Die Beurteilung, ob zwei verwendete Punktmengen auf derselben Oberfläche liegen, erfolgt<br />

in dieser Arbeit mit Hilfe eines Hypothesentests, der die Parameter der beiden geschätzten<br />

Oberflächen auf Signifikanz testet: Verwendet wird der Differenztest nach Welsch u. a.<br />

(2000), der von den Autoren ursprünglich zur Aufdeckung von Punktbewegungen vorgeschlagen<br />

wurde. Die Theorie zum Testen von Hypothesen wird an dieser Stelle als bekannt<br />

vorausgesetzt; detaillierte Informationen zu diesem Thema finden sich z. B. in Welsch u. a.<br />

(2000) oder in Niemeier (2008).<br />

Ausgangspunkt für den Differenztest bilden die beiden geschätzten Parametervektoren ˆx 1<br />

und ˆx 2 , die die geschätzten Parameter der beiden Oberflächen enthalten:<br />

ˆx 1 =<br />

ˆx 2 =<br />

[<br />

[<br />

â 1<br />

ˆb1 ĉ 1<br />

ˆd1 ê 1<br />

] T<br />

(4.14)<br />

â 2<br />

ˆb2 ĉ 2<br />

ˆd2 ê 2<br />

] T<br />

. (4.15)<br />

84


4.3 Räumliche <strong>Segmentierung</strong><br />

Im ersten Schritt des Hypothesentests werden die Null- bzw. die Alternativhypothese (H 0<br />

bzw. H A ) formuliert:<br />

H 0 : E {d} =0 (4.16)<br />

H A : E {d} ≠0 (4.17)<br />

mit:<br />

d = ˆx 1 ˆx 2 .<br />

Die Testgröße<br />

T = dT · Q dd 1 · d<br />

p · s 2 0<br />

(4.18)<br />

mit:<br />

Q dd = Q x1 x 1<br />

+ Q x2 x 2<br />

p = Rang(Q dd )<br />

s 2 0 = (vT 1 · Q x1 x 1 1 · v 1 )+(v T 2 · Q x2 x 2 1 · v 2 )<br />

f 1 + f 2<br />

f 1 ,f 2 : Freiheitsgrade<br />

folgt der Fisher-Verteilung, sodass sich das Quantil q wie folgt bestimmen lässt:<br />

mit:<br />

q = F p,f,α (4.19)<br />

f = f 1 + f 2<br />

α = 95% : Sicherheitswahrscheinlichkeit.<br />

Damit ergeben sich der Annahme- bzw. der Verwerfungsbereich zu:<br />

A = [0,q] (4.20)<br />

V = (q, ∞). (4.21)<br />

Die Nullhypothese wird angenommen und dementsprechend die beiden Segmente zusammengefügt,<br />

wenn<br />

T ∈ A. (4.22)<br />

85


4 Entwicklung eines Verfahrens zur raum-<strong>zeitliche</strong>n <strong>Segmentierung</strong> von natürlichen Objekten<br />

Andernfalls muss davon ausgegangen werden, dass die beiden getesteten Segmente nicht<br />

dieselbe Oberfläche beschreiben und somit nicht zusammengefügt werden dürfen.<br />

Das Ergebnis des oberflächenbasierten Region-Mergings ist in Abbildung 4.23 beispielhaft<br />

an zwei Blättern dargestellt: Abgebildet ist für jedes Blatt in Blau das Segment S i ,<br />

welches direkt aus der Vorsegmentierung stammt und welches in beiden Fällen die Blattform<br />

schon relativ gut wiedergibt. In Rot und Grün sind die gefundenen Nachbarsegmente<br />

eingefärbt, wobei Rot“ bedeutet, dass diese Segmente aufgrund des Hypothesentests mit<br />

”<br />

S i zusammengefügt werden, während für die in Grün dargestellten Segmente die Nullhypothese<br />

verworfen wird.<br />

Die Abbildung zeigt, dass das Ergebnis der Vorsegmentierung durch dieses Region-Merging<br />

zwar leicht verbessert wird, da Lücken innerhalb des Segments S i geschlossen werden. Im<br />

Großen und Ganzen ist das Ergebnis jedoch immer noch nicht zufriedenstellend, denn<br />

ein Großteil der grün eingefärbten Segmente gehört offensichtlich zum selben Blatt wie<br />

S i , werden diesem jedoch nicht zugeordnet. Dieser Effekt hat zwei Gründe: Zum einen<br />

führt trotz der Durchführung einer Glättung das Messrauschen dazu, dass auch kleine<br />

Segmente die geschätzten Oberflächen so stark verändern können, dass die Nullhypothese<br />

verworfen werden muss. (Dieser Fall tritt sehr ausgeprägt im linken Beispielblatt der<br />

Abbildung 4.23 auf.) Zum anderen löst der hier beschriebene Ansatz nicht das Problem<br />

der Crease-Edges innerhalb eines Blattes: Ein Abknicken eines Blattes verändert die von<br />

Abb. 4.23: Ergebnis des oberflächenbasierten Region-Mergings: (blau: Segment S i , rot:<br />

Nachbarsegmente, die S i zugeordnet werden, grün: Nachbarsegmente, die S i<br />

nicht zugeordnet werden)<br />

86


4.3 Räumliche <strong>Segmentierung</strong><br />

den Punkten beschriebene Oberfläche so stark, dass insbesondere an den Knickstellen die<br />

Ergebnisse aus der Vorsegmentierung mit Hilfe des Ansatzes von Alenya u. a. (2011) nicht<br />

verbessert werden können. Dieser Effekt tritt im rechten Beispielblatt der Abbildung 4.23<br />

auf, dessen linke und rechte obere Ecke nach hinten knicken und aus diesem Grund nicht<br />

dem Segment S i zugeordnet werden.<br />

4.3.6.2 Kantenbasiertes Region-Merging<br />

In Abbildung 4.24 sind ein unvollständig segmentiertes Blatt sowie seine Nachbarsegmente<br />

dargestellt. Der Vergleich eines Übergangs zwischen zwei Segmenten, die demselben Blatt<br />

angehören mit dem Übergang zwischen zwei Segmenten, die zwei verschiedenen Blättern<br />

angehören, motiviert ein kantenbasiertes Region-Merging, um die bisherigen Ergebnisse<br />

zu verbessern: Anders als bei Segmenten, die zwei sich berührenden Blättern angehören,<br />

beschreiben die Grenzkanten zweier Segmente desselben Blattes dieselbe <strong>Raum</strong>kurve (dargestellt<br />

in Gelb). Das Aufdecken von Segmentgrenzen und die Beurteilung, ob diese Grenzen<br />

dieselbe <strong>Raum</strong>kurve beschreiben, stellt den zweiten in dieser Arbeit durchgeführten<br />

Region-Merging-Schritt dar.<br />

Um einen kantenbasierten Ansatz umzusetzen, müssen zunächst die Segmentgrenzen bestimmt<br />

werden, was sich aufgrund der komplexen Form eine Blattes nicht als trivial er-<br />

Abb. 4.24: Motivation für einen kantenbasierten Ansatz: Grenzkante zweier Segmente,<br />

die sich berührenden Blättern angehören (Hellblau), und Grenzkante zweier<br />

Segmente desselben Blattes (Gelb)<br />

87


4 Entwicklung eines Verfahrens zur raum-<strong>zeitliche</strong>n <strong>Segmentierung</strong> von natürlichen Objekten<br />

weist. Um den Einfluss der Blattform abzuschwächen, wird eine Initialisierung durchgeführt,<br />

indem die beiden am weitesten voneinander entfernten Punkte eines Segmentes<br />

als Punkte der Segmentgrenze deklariert werden. Durch diese beiden Punkte wird eine<br />

Hilfsebene E H1 gelegt, die parallel zum lokalen Normalenvektor der Mitte des Segmentes<br />

verläuft und dieses somit in zwei Punktmengen teilt. Von jeder dieser beiden Punktmengen<br />

wird derjenige Punkt gesucht, der den größten Abstand zur Hilfsebene hat. Diese beiden<br />

Punkte werden ebenfalls als Randpunkte festgelegt (siehe Abbildung 4.25 (links)). Diese<br />

insgesamt vier Randpunkte unterteilen die gesamte Segmentgrenze in vier ungefähr gleich<br />

große Abschnitte. Auf jeden dieser Abschnitte wird eine Variante des Douglas-Peucker-<br />

Algorithmus, der eigentlich für die Generalisierung von Linien gedacht ist [Douglas u.<br />

Peucker (1973)], angewendet. Mit dieser Variante können die restlichen Kantenpunkte wie<br />

folgt rekursiv identifiziert werden: In dem durch die zwei Punkte p 1 und p 2 begrenzten<br />

Abschnitt wird zunächst ein weiterer Randpunkt p 3 identifiziert. Dieser neue Randpunkt<br />

unterteilt den bestehenden Abschnitt in zwei Teile, die durch p 1 und p 3 bzw. durch p 3 und<br />

p 2 begrenzt werden. Auf diese beiden Abschnitte wird der Algorithmus erneut angewendet.<br />

Die Identifikation des gesuchten Randpunktes p 3 erfolgt, in dem durch die beiden den<br />

Abschnitt begrenzenden Punkte p 1 und p 2 eine Hilfsebene E H2 gelegt wird, die senkrecht<br />

auf dem Segment steht und dieses in zwei Punktmengen teilt: Eine große Punktmenge P B ,<br />

Abb. 4.25: Bestimmung der Segmentränder: Initialisierung (blau: Beispielsegment, rot:<br />

Initialisierungspunkte, grün: Hilfsebene) (links); Unterteilung der Punktwolke<br />

in zwei Punktmengen (gelb: P B , grün: P R ) (rechts)<br />

88


4.3 Räumliche <strong>Segmentierung</strong><br />

die in Abbildung 4.25 (rechts) gelb dargestellt ist und den Großteil des Blattes enthält,<br />

sowie eine kleine, grün eingefärbte Punktmenge P R , die aufgrund des gekrümmten Rands<br />

des Gurkenblattes entsteht und nur einen kleinen Rest des Blattes enthält. Eine schematische<br />

Darstellung dieser Situation ist in Abbildung 4.26 (links) zu sehen: In Grün bzw.<br />

in Gelb sind die beiden Punktmengen dargestellt; die rot umkreisten Punkte sind jeweils<br />

diejenigen Punkte, die automatisch als Rand identifiziert werden müssen.<br />

Für die Menge P R lässt sich der gesuchte Randpunkt sehr einfach identifizieren, indem<br />

der Algorithmus von Douglas u. Peucker (1973) auf die dritte Dimension erweitert wird:<br />

Für jeden Punkt dieser Menge P R wird der Abstand d Ri zur Hilfsebene E H2 bestimmt und<br />

der Punkt p 3R mit dem maximalen Abstand d Rmax<br />

zur Ebene als gesuchter Randpunkt<br />

identifiziert. Für die Menge P B dagegen entspricht der Punkt p 3B mit dem geringsten<br />

Abstand d Bmin<br />

zur Hilfsebene dem gesuchten Kantenpunkt. Diese beiden Fälle werden<br />

miteinander kombiniert und der gesuchte Punkt p 3 ergibt sich zu:<br />

⎧<br />

⎨ p 3R , falls d Rmax >d Bmin<br />

p 3 =<br />

⎩ p 3B , sonst.<br />

(4.23)<br />

Die Iteration wird abgebrochen, wenn der Abstand der Punkte p 1 und p 2 kleiner wird als<br />

ein vorgegebener Schwellwert ɛ DP .<br />

Das Ergebnis der Bestimmung der Randpunkte für ein beispielhaft ausgewähltes Segment<br />

ist in Abbildung 4.26 (rechts) zu sehen. Obwohl es sich um ein verhältnismäßig großes und<br />

Abb. 4.26: Randbestimmung: schematische Darstellung des Prinzips (links); Ergebnis mit<br />

ɛ DP = 15 mm (rechts)<br />

89


4 Entwicklung eines Verfahrens zur raum-<strong>zeitliche</strong>n <strong>Segmentierung</strong> von natürlichen Objekten<br />

stark gekrümmtes Segment handelt, identifiziert die hier entwickelte Variante des Algorithmus<br />

von Douglas u. Peucker (1973) die Randpunkte so gut wie fehlerfrei, sodass sie im<br />

Folgenden als Grundlage für ein kantenbasiertes Region-Merging dienen. Zu beachten ist<br />

jedoch, dass der Algorithmus zur Bestimmung der Randpunkte nur für Segmente geeignet<br />

ist, die eine gewisse Größe besitzen; andernfalls werden direkt alle Punkte des Segmentes<br />

als Rand identifiziert. Aus diesem Grund werden für einen zuverlässigen kantenbasierten<br />

Ansatz im Folgenden alle Segmente, die aus weniger als 20 Punkten bestehen, vom kantenbasierten<br />

Region-Merging ausgeschlossen.<br />

Für spätere Berechnungen wie z. B. die Bestimmung des Umfangs eines Blattes können die<br />

gefundenen Randpunkte jedoch noch nicht direkt verwendet werden, da der Algorithmus<br />

zunächst eine unsortierte Liste von Randpunkten liefert. Die Sortierung dieser Punkte<br />

ist aufgrund der komplexen Form der Segmente nicht trivial, kann aber gelöst werden,<br />

indem sie als das Problem eines Handlungsreisenden (engl.: Traveling Salesman Problem<br />

(TSP)) aufgefasst wird: Hierbei handelt es sich um ein Optimierungsproblem mit dem<br />

Ziel, die optimale Route durch n Städte zu finden [Applegate (2007)]. Die Lösung dieses<br />

Optimierungsproblems ist das Thema einer Vielzahl von Veröffentlichungen und wird in<br />

dieser Arbeit nicht vertieft. Eine Möglichkeit für die Lösung des TSP bietet die Klasse<br />

der genetischen Algorithmen (siehe z. B. Bryant (2000)), von denen eine existierende Implementierung<br />

2 für die notwendige Sortierung der Randpunkte verwendet wird.<br />

Das kantenbasierte Region-Merging beginnt mit der Suche der gemeinsamen Grenze zwischen<br />

einem Segment S i und seinen Nachbarsegmenten, die bereits in den Berechnungen<br />

des Abschnitts 4.3.6.1 bestimmt wurden. Als Grenzkante werden diejenigen Randpunkte<br />

eines Segmentes definiert, die von den Randpunkten des benachbarten Segmentes weniger<br />

als 2 cm entfernt sind. In Abbildung 4.27 (links) ist eine solche Situation anhand zweier<br />

beispielhaft ausgewählter Segmente dargestellt: Zu sehen ist in Blau das Segment S i ,<br />

dessen Randpunkte der gemeinsamen Grenzkante in Rot eingefärbt sind. Das Nachbarsegment<br />

und die zu diesem Segment gehörenden Punkte der Grenzkante sind in Grün bzw.<br />

in Magenta dargestellt. Für ein kantenbasiertes Region-Merging müssen die <strong>Raum</strong>kurven<br />

durch diese Grenzkanten bestimmt und die Parameter anschließend auf Signifikanz<br />

2 Verwendet wurde die Matlab-Implementierung von Joseph Kirk vom 23 Aug 2008 ”<br />

Fixed Start Open<br />

Traveling Salesman Problem - Genetic Algorithm“<br />

90


4.3 Räumliche <strong>Segmentierung</strong><br />

Abb. 4.27: Kantenbasiertes Region-Merging: Grenzkante im <strong>Raum</strong> (rot: Randpunkte des<br />

blau eingefärbten Segmentes S i , magenta: Randpunkte des grün eingefärbten<br />

Nachbarsegmentes) (links); Ergebnis (blau: Segment S i , rot: Nachbarsegmente,<br />

die S i aufgrund des oberflächenbasierten Ansatzes zugeordnet werden, gelb:<br />

Nachbarsegmente, die S i aufgrund des kantenbasierten Ansatzes zugeordnet<br />

werden, grün: Nachbarsegmente, die S i nicht zugeordnet werden) (rechts)<br />

getestet werden. Das Schätzen einer <strong>Raum</strong>kurve ist im Vergleich zur Schätzung von 3-D-<br />

Oberflächen oder 2-D-Kurven aufwändiger, da <strong>Raum</strong>kurven in der Regel in parametrischer<br />

Form ausgedrückt werden. Um eine Ausgleichung dieser Art zu umgehen, kann das Problem<br />

entweder durch eine Projektion um eine Dimension reduziert oder die <strong>Raum</strong>kurve<br />

als Schnitt zweier Oberflächen im <strong>Raum</strong> beschrieben werden [Shah (2006)]. Eine mögliche<br />

Dimensionsreduktion kann z. B. mit Hilfe einer PCA durchgeführt werden: Nach Transformation<br />

der Grenzkante in das von den Eigenvektoren der Scatter-Matrix aufgespannte<br />

Koordinatensystem wird die Koordinatenrichtung mit dem geringsten Informationsgehalt<br />

– d. h. die Koordinatenrichtung entlang des lokalen Normalenvektors – in die Ausgleichung<br />

nicht mit einbezogen. Da dieses Vorgehen einen Informationsverlust mit sich bringt, wird<br />

in dieser Arbeit auf die zweite Möglichkeit zurückgegriffen: Für die Beschreibung der<br />

beiden <strong>Raum</strong>kurven wird jeweils eine Hilfsoberfläche konstruiert, indem die Grenzkanten<br />

entlang der lokalen Normalenrichtung verschoben werden. Hierdurch entsteht eine Oberfläche,<br />

deren Schnitt mit dem Segment der Grenzkante entspricht. Da ein ähnlicher Verlauf<br />

der beiden <strong>Raum</strong>kurven eine ähnliche Form der beiden Hilfsoberflächen impliziert, ist es<br />

91


4 Entwicklung eines Verfahrens zur raum-<strong>zeitliche</strong>n <strong>Segmentierung</strong> von natürlichen Objekten<br />

an dieser Stelle ausreichend, die Parameter dieser beiden Hilfsoberflächen zu bestimmen<br />

und anschließend auf Signifikanz zu testen. Hierfür kann analog zu der in Abschnitt 4.3.6.1<br />

beschriebenen Weise vorgegangen werden.<br />

Das Ergebnis des kantenbasierten Region-Mergings ist für ein beispielhaft ausgewähltes<br />

Segment in Abbildung 4.27 (rechts) zu sehen. Verglichen mit dem Ergebnis des oberflächenbasierten<br />

Ansatzes kommt eine neue Punktmenge hinzu: In Gelb sind alle diejenigen<br />

Segmente eingefärbt, die aufgrund des gerade beschriebenen kantenbasierten Ansatzes<br />

zu dem in Blau dargestellten Segment S i hinzugefügt werden. Für das in Abbildung 4.27<br />

(rechts) dargestellte Beispielblatt führt diese Vorgehensweise zu einem sehr guten Ergebnis:<br />

Der bislang fälschlicherweise als einzelnes Segment dargestellte abknickende Teil des<br />

Blattes wird durch diesen kantenbasierten Ansatz als zu S i gehörig erkannt und somit diesem<br />

Segment zugeordnet. Probleme treten jedoch dann auf, wenn zwei sich berührende<br />

Blätter eine gemeinsame Grenzkante besitzen (siehe Abbildung 4.28 (links)). Der kantenbasierte<br />

Ansatz unterscheidet bislang keine Grenzkanten zwischen den Segmenten zweier<br />

verschiedener Blätter von den Grenzkanten zweier Segmente desselben Blattes, sodass<br />

Abb. 4.28: Schwierigkeiten beim kantenbasierten Region-Merging: Grenzkante zweier<br />

fälschlicherweise zusammengefügter Segmente (links); Ergebnis nach<br />

Einführung einer Restriktion (blau: Segment S i , rot: Nachbarsegmente, die S i<br />

aufgrund des oberflächenbasierten Ansatzes zugeordnet werden, gelb: Nachbarsegmente,<br />

die S i aufgrund des kantenbasierten Ansatzes zugeordnet werden,<br />

grün: Nachbarsegmente, die S i nicht zugeordnet werden) (rechts)<br />

92


4.3 Räumliche <strong>Segmentierung</strong><br />

Segmente fälschlicherweise zusammengefügt werden. Ein Vergleich der beiden Arten von<br />

Grenzkanten in Abbildung 4.27 (links) und 4.28 (links) motiviert eine Unterscheidung mit<br />

Hilfe der Länge der gemeinsamen Grenze: Während bei zwei sich berührenden Blättern<br />

eine im Verhältnis zu den Umfängen der beiden Segmente sehr kleine gemeinsame Grenze<br />

auftritt, ist die gemeinsame Grenze bei zwei Segmenten desselben Blattes deutlich<br />

länger. Diese Überlegung motiviert ein Kriterium, welches die Länge der Grenzkante im<br />

Vergleich zum Umfang der beiden Segmente beurteilt und eine Entscheidung darüber erlaubt,<br />

ob die beiden Segmente zum selben Blatt gehören oder nicht. Die Definition eines<br />

solchen Kriteriums gestaltet sich ohne Expertenwissen über zu erwartende Blattgrößen in<br />

bestimmten Wachstumsstadien einer Pflanze jedoch schwierig. Aus diesem Grund wurden<br />

für die in dieser Arbeit verwendeten Datensätze empirische Schwellwerte bestimmt,<br />

die unter Berücksichtigung der Umfänge U 1 und U 2 zweier Segmente die Mindestlänge<br />

l min der gemeinsamen Grenzkante festlegen, die die Durchführung eines kantenbasierten<br />

Region-Mergings erlaubt:<br />

⎧<br />

⎪⎨<br />

l min =<br />

⎪⎩<br />

10 cm, für min(U 1 ,U 2 ) ≥ 100 cm<br />

5 cm, für 100 cm > min(U 1 ,U 2 ) ≥ 50 cm<br />

2 cm, für 50 cm > min(U 1 ,U 2 ) ≥ 10 cm<br />

1, 5 cm, sonst .<br />

(4.24)<br />

Ist die Kantenlänge kleiner als l min , wird davon ausgegangen, dass es sich um Segmente<br />

zweier sich berührender Blätter handelt, die nicht zusammengefügt werden dürfen. Mit<br />

dieser Modifikation werden zwei sich berührende Blätter nicht länger fälschlicherweise zusammengefügt,<br />

wie die Abbildung 4.28 (rechts) zeigt: Während die zum selben Blatt wie<br />

S i gehörenden Segmente größtenteils zu diesem hinzugefügt werden, bleibt das zu einem<br />

benachbarten Blatt gehörende Segment unverändert.<br />

Dass diese Vorgehensweise nicht nur für beispielhaft ausgewählte Blätter erfolgreich ist,<br />

zeigen die Abbildungen A6 bis A10 im Anhang A: Dargestellt sind alle Blätter der Aufnahme<br />

E1 08 nach Durchführung des oberflächen- und des kantenbasierten Region-Mergings:<br />

Während der oberflächenbasierte Ansatz das Ergebnis aus der Vorsegmentierung nur in<br />

kleinem Maße verbessert und vor allem kleinere Lücken in den Ergebnissegmenten der<br />

Vorsegmentierung schließt, ist der kantenbasierte Ansatz deutlich erfolgreicher: Die Segmente<br />

aus der Vorsegmentierung werden mit Hilfe dieses Ansatzes so zusammengesetzt,<br />

93


4 Entwicklung eines Verfahrens zur raum-<strong>zeitliche</strong>n <strong>Segmentierung</strong> von natürlichen Objekten<br />

dass die Ergebnissegmente im Großen und Ganzen den Blättern der Gurkenpflanze entsprechen.<br />

Gleichzeitig wird eine erfolgreiche Unterscheidung zwischen Crease-Edges innerhalb<br />

eines Blattes und Crease-Edges, die von zwei sich berührenden Blättern gebildet<br />

werden, durchgeführt: Das kantenbasierte Region-Merging fügt in keinem einzigen Fall<br />

zwei Segmente zusammen, die zwei benachbarten Blättern angehören, und löst somit für<br />

die Gurkenblätter das Hauptproblem der Pflanzensegmentierung. Zwar gibt es auch im<br />

Anschluss an das kantenbasierte Region-Merging kleinere Segmente, die dem Blatt fälschlicherweise<br />

nicht zugeordnet werden; diese haben jedoch kaum Einfluss auf die Blattfläche<br />

oder -form, vielmehr ist sogar davon auszugehen, dass diese in der Regel die auf der <strong>Segmentierung</strong><br />

aufbauenden Berechnungen wie z. B. die Blattflächenbestimmung verfälschen<br />

würden (siehe hierzu auch 4.3.6.3).<br />

4.3.6.3 Umgang mit kleinen Segmenten<br />

Zu Beginn dieses Abschnittes wurden zunächst alle kleinen Segmente mit fünf oder weniger<br />

Punkten aus den Berechnungen ausgeschlossen. Der Grund hierfür ist, dass diese Segmente<br />

keine repräsentative Oberfläche beschreiben und im kantenbasierten Ansatz aufgrund ihrer<br />

Größe ohnehin nicht berücksichtigt werden. Mit diesen kleinen Segmenten kann auf zwei<br />

Arten umgegangen werden: Entweder sie werden demjenigen Nachbarsegment zugeordnet,<br />

zu dem sie den kleinsten Abstand haben, oder sie werden ohne weitere Berechnungen<br />

einer Störklasse zugeordnet. In dieser Arbeit wird aus folgendem Grund der zweite Ansatz<br />

bevorzugt: Der Algorithmus nach Felzenszwalb u. Huttenlocher (2004) berücksichtigt<br />

aufgrund des adaptiven <strong>Segmentierung</strong>skriteriums ein gewisses Maß an Rauschen in den<br />

Messdaten. Wenn insbesondere sehr kleine Punktgruppen innerhalb einer <strong>Segmentierung</strong><br />

dennoch von den benachbarten Punkten getrennt werden, ist davon auszugehen, dass diese<br />

Punkte besonders stark rauschen. Im Hinblick auf die folgenden Berechnungen, die u. a.<br />

eine Blattflächenbestimmung beinhalten, führt ein starkes Rauschen zu einer Verfälschung<br />

des Ergebnisses (siehe hierzu auch Abschnitt 5.2). Das Trennen dieser Punktgruppen von<br />

den benachbarten Punkten durch den Algorithmus nach Felzenszwalb u. Huttenlocher<br />

(2004) kann somit als eine Art Ausreißerbeseitigung interpretiert werden.<br />

94


4.3 Räumliche <strong>Segmentierung</strong><br />

4.3.7 Ergebnisse der räumlichen <strong>Segmentierung</strong><br />

Die endgültig segmentierte Punktwolke der Aufnahme E1 08 ist in Abbildung 4.29 (links)<br />

zu sehen. Sowohl die extrahierte Kiste, in der die Gurkenpflanze wächst, als auch alle<br />

Segmente, denen weniger als n = 500 Punkte angehören, werden der weiß dargestellten<br />

Störklasse zugeordnet. Damit verbleibt ein zum Stiel der Pflanze gehörendes Segment im<br />

unteren Teil der Pflanze (in Abbildung 4.29 in Magenta dargestellt), das über die Position<br />

als nicht zu den Blättern zugehörig identifiziert werden kann, sowie die gesuchten Blätter,<br />

die in Abbildung 4.29 (rechts) noch einmal gesondert dargestellt sind. Die Betrachtung der<br />

gesamten segmentierten Punktwolke zeigt bereits, dass das Ziel der <strong>Segmentierung</strong> – die<br />

Extraktion der Blätter vom Rest der Punktwolke – mit dem in dieser Arbeit entwickelten<br />

Ansatz für den verwendeten Datensatz erreicht wird.<br />

Abb. 4.29: Segmentierte Punktwolke der Aufnahme E1 08 : Gesamte Punktwolke (links);<br />

segmentierte Blätter (rechts);<br />

(Vergrößerte Darstellung in Abbildung A4)<br />

Die <strong>Segmentierung</strong>sergebnisse der anderen Datensätze vom ersten Messtag befinden sich<br />

im Anhang A in der Abbildung A11 und bestätigen größtenteils diesen Eindruck, es treten<br />

jedoch auch Unstimmigkeiten auf:<br />

• Zum einen wird eines der beiden obersten Blätter in den drei zeitlich späteren Aufnahmen<br />

der Störklasse zugeordnet, während es in der zeitlich ersten Aufnahme als<br />

95


4 Entwicklung eines Verfahrens zur raum-<strong>zeitliche</strong>n <strong>Segmentierung</strong> von natürlichen Objekten<br />

Blatt segmentiert wird (eingefärbt in Hellblau). Die Ursache hierfür liegt in der<br />

Größe des Segmentes, die in den verschiedenen <strong>Segmentierung</strong>en um den Schwellwert<br />

schwankt, der für die Zuordnung zur Störklasse ausschlaggebend ist. Falls dieses<br />

Blatt für spätere Berechnungen von Interesse wäre, müsste dieser Schwellwert<br />

gegebenenfalls angepasst werden.<br />

• Zum anderen treten in den beiden Aufnahmen E2 08 und E4 08 an einem bzw. an<br />

zwei Blättern Übersegmentierungen auf. Diese beiden Blätter sind in der Abbildung<br />

4.30 gesondert dargestellt. Die beiden Segmente des linken Blattes besitzen – obwohl<br />

sie demselben Blatt angehören – eine im Verhältnis zu den Segmentumfängen kurze<br />

Grenzkante, sodass die Bedingung 4.24 nicht erfüllt ist und ein mögliches kantenbasiertes<br />

Region-Merging fälschlicherweise abgefangen wird. Wie die vollständigen<br />

<strong>Segmentierung</strong>en dieses Blattes in den anderen beiden Datensätzen zeigen, erweist<br />

sich die Länge dieser Grenzkante jedoch als Grenzfall, da sie nur in zwei der Aufnahmen<br />

unter der geforderten Mindestlänge l min liegt. Dass dieser Fall überhaupt auftritt,<br />

liegt daran, dass die gelb umkreisten, weiß dargestellten Punkte der Störklasse<br />

keinem der beiden Segmente zugeordnet werden, woraus die zu kurze Grenzkante<br />

resultiert. Dass diese Punkte in der <strong>Segmentierung</strong> nicht dem Blatt zugeordnet werden,<br />

liegt an der verhältnismäßig geringen Punktdichte in diesem Bereich, die z. B.<br />

durch immer noch auftretende Verdeckungen verursacht wird. Die geringe Punkt-<br />

Abb. 4.30: Übersegmentierte Blätter der Aufnahme E4 08<br />

96


4.3 Räumliche <strong>Segmentierung</strong><br />

dichte erschwert die Berechnung eines zuverlässigen Normalenvektors, sodass dieser<br />

Bereich nach der Vorsegmentierung der Störklasse zugeordnet wird.<br />

Die beiden Segmente des rechten Blattes in Abbildung 4.30 besitzen eine Grenzkante,<br />

deren Länge oberhalb der für ein kantenbasiertes Region-Merging geforderten<br />

Mindestlänge liegt. Aufgrund des Hypothesentests wird die Nullhypothese jedoch<br />

verworfen, sodass dieses Blatt entweder ein typischer Fall für das Vorliegen eines<br />

Fehlers 1. Art ist oder die beiden Grenzkanten nicht deutlich genug ausgeprägt<br />

sind, sodass sie tatsächlich zwei verschiedene <strong>Raum</strong>kurven beschreiben. Abgesehen<br />

von dieser Übersegmentierung handelt es sich bei diesem Blatt ohnehin um einen<br />

Problemfall“: Dass aufgrund der nicht segmentierten Blattspitze sowie nicht segmentierter<br />

Punkte in der Mitte des Blattes ein sehr unvollständiger Eindruck<br />

”<br />

entsteht,<br />

liegt nicht etwa an einer fehlerhaften <strong>Segmentierung</strong>, sondern an den Daten,<br />

die in der Mitte des Blattes nur in sehr geringer Auflösung vorliegen und somit eine<br />

zusammenhängende <strong>Segmentierung</strong> erschweren. Hinzu kommt, dass die Blattspitze<br />

in der Punktwolke direkt in das Gelb umkreiste Target übergeht. Das führt in dieser<br />

Aufnahme dazu, dass sie nicht als dem Blatt zugehörig erkannt wird, während in der<br />

Aufnahme E1 08 dieses Target über die Verbindung mit der Blattspitze dem Blatt<br />

fälschlicherweise zugeordnet wird (siehe Abbildung 4.29).<br />

Die beiden Blätter aus Abbildung 4.30 bilden jedoch die Ausnahme in einer ansonsten sehr<br />

zufriedenstellenden <strong>Segmentierung</strong>. Die Abbildung 4.31 fasst die Qualität der erzielten Ergebnisse<br />

sehr gut anhand zweier beispielhaft ausgewählter Segmente zusammen: Zu sehen<br />

sind in beiden Darstellungen dieselben Segmente (eingefärbt in Grün bzw. in Gelb), wobei<br />

in der linken der beiden Abbildungen zusätzlich die Punkte der Störklasse dargestellt<br />

sind. Diese zusätzlich dargestellte Störklasse lässt eine Beurteilung der Vollständigkeit der<br />

segmentierten Blätter zu: Zwar liegen insbesondere im Innern eines Blattes viele Punkte<br />

vor, die dem Blatt nicht zugeordnet werden; diese haben aufgrund der immer noch hohen<br />

Punktdichte jedoch keine Auswirkungen auf die spätere Ableitung von geometrischen<br />

Merkmalen. Problematisch ist in dieser Hinsicht nur eine unvollständige <strong>Segmentierung</strong><br />

der Randbereiche, die bei diesen beiden Beispielblättern jedoch nur an der rot umkreisten<br />

Stelle deutlich erkennbar auftritt. Im Großen und Ganzen geben die Segmente somit die<br />

tatsächliche Form der Blätter sehr gut wieder – unabhängig davon, wie stark die Blätter<br />

97


4 Entwicklung eines Verfahrens zur raum-<strong>zeitliche</strong>n <strong>Segmentierung</strong> von natürlichen Objekten<br />

Abb. 4.31: Beispielhaft ausgewählte segmentierte Blätter: mit Darstellung der Störklasse<br />

(links); ohne Darstellung der Störklasse (rechts)<br />

Abb. 4.32: Segmentierte Punktwolke der Aufnahme E1 23 : gesamte Punktwolke (links);<br />

segmentierte Blätter (rechts);<br />

(Vergrößerte Darstellung in Abbildung A5)<br />

98


4.3 Räumliche <strong>Segmentierung</strong><br />

verformt sind. Gleichzeitig erfolgt eine saubere Trennung von benachbarten Blättern.<br />

Bislang wurde der <strong>Segmentierung</strong>salgorithmus nur auf den Datensatz vom 08.05.2013<br />

angewandt. Dass der in der vorliegenden Arbeit entwickelte Algorithmus auch für eine<br />

Pflanze in einem anderen Wachstumsstadium zufriedenstellende Ergebnisse liefert, zeigt<br />

die Abbildung 4.32, in der der segmentierte Datensatz E1 23 dargestellt ist. Das Ergebnis<br />

ist prinzipiell dem <strong>Segmentierung</strong>sergebnis der Daten vom 08.05.2013 sehr ähnlich:<br />

Die Blätter der Gurkenpflanze sind im Großen und Ganzen vollständig segmentiert, ohne<br />

dass Untersegmentierungen auftreten. Probleme zeigen sich dagegen erneut an Stellen<br />

mit geringerer Punktdichte, wie aus der Abbildung 4.33 ersichtlich ist, in der zwei Blätter<br />

beispielhaft dargestellt sind. Beide Blätter sind in den beiden rot umkreisten Bereichen<br />

unvollständig erfasst, wie die zusätzliche Darstellung der Störklasse verdeutlicht.<br />

Abb. 4.33: Übersegmentierte Blätter der Aufnahme E1 23 , frontale Blickrichtung auf Beispielblatt<br />

1 (links); Blickrichtung von oben auf Beispielblatt 2 (rechts)<br />

Im Fall des linken Blattes kann diese Datenlücke nur durch eine ungleichmäßige horizontale<br />

Bewegung des MSS erklärt werden, da der Laserscanner dieses Blatt frontal erfasst<br />

und daher keine Verdeckungen auftreten können.<br />

Die unvollständige Erfassung des rechten Blattes ist dagegen in der horizontalen Ausrichtung<br />

des Laserscanners begründet und stellt somit ein generelles Problem dar, das sich<br />

aus dem Aufbau des MSS ergibt. Die Abbildung 4.34 verdeutlicht diese Situation: Die<br />

Laserstrahlen werden vom Laserscanner zwar in gleichen horizontalen Abständen ausgesandt,<br />

treffen aufgrund der Krümmung der Blätter jedoch nicht in gleichen Abständen<br />

99


4 Entwicklung eines Verfahrens zur raum-<strong>zeitliche</strong>n <strong>Segmentierung</strong> von natürlichen Objekten<br />

Abb. 4.34: Schematisch dargestellter Verlauf der Laserstrahlen bei annähernd horizontal<br />

ausgerichteten Blättern<br />

auf die Pflanze. Besonders problematisch wirkt sich das bei Blättern aus, von denen Teile<br />

ebenfalls horizontal im <strong>Raum</strong> liegen. Diese Bereiche (in Abbildung 4.34 blau umkreist)<br />

können mit einem horizontal ausgerichteten Laserscanner nicht oder nur unvollständig<br />

erfasst werden. In den Daten des Messtages 05.08.2013 tritt dieses Problem nicht auf,<br />

da die Blätter alle nach unten geneigt sind. Dagegen tritt es in den Daten des zweiten<br />

Messtages – wie die <strong>Segmentierung</strong>sergebnisse der Aufnahmen E2 23 bis E5 23 in Abbildung<br />

A12 zeigen – als generelles Problem auf, das eine zufriedenstellende <strong>Segmentierung</strong> aller<br />

Blätter unmöglich macht. Da für eine Lösung dieses Problems jedoch die Art der Datenerfassung<br />

modifiziert werden müsste – beispielsweise durch Veränderung der Ausrichtung<br />

des Laserscanners – und die Ursache für die zum Teil fehlerhaften <strong>Segmentierung</strong>sergebnisse<br />

nicht in der <strong>Segmentierung</strong> an sich liegt, können die vorliegenden Ergebnisse als<br />

zufriedenstellend angesehen werden und somit als Grundlage für die <strong>Segmentierung</strong> der<br />

zeitlich aufeinanderfolgenden Aufnahmen dienen.<br />

4.4 <strong>Segmentierung</strong> in zeitlich aufeinanderfolgenden<br />

Aufnahmen<br />

Aus den Ergebnissen der räumlichen <strong>Segmentierung</strong> können geometrische Merkmale wie<br />

z. B. Blattgröße, -umfang o. Ä. abgeleitet werden. Für die Beobachtung einer Pflanze,<br />

insbesondere die Feststellung von Veränderungen, sind diese Ergebnisse jedoch noch nicht<br />

geeignet, da zwischen den einzelnen Aufnahmen kein <strong>zeitliche</strong>r Bezug besteht. Die Herstellung<br />

eines solchen Bezuges mit Hilfe einer <strong>zeitliche</strong>n <strong>Segmentierung</strong> stellt den Schwerpunkt<br />

dieses Abschnittes dar.<br />

100


4.4 <strong>Segmentierung</strong> in zeitlich aufeinanderfolgenden Aufnahmen<br />

4.4.1 Entwicklung einer <strong>zeitliche</strong>n <strong>Segmentierung</strong>sstrategie<br />

Im Abschnitt 3.5 wurden zwei Vorgehensweisen für eine <strong>zeitliche</strong> <strong>Segmentierung</strong> vorgestellt.<br />

Da im ersten Schritt der räumlichen <strong>Segmentierung</strong> ein graphbasiertes Verfahren<br />

verwendet wurde (vgl. Abschnitt 4.3.5), bietet es sich prinzipiell an, für die <strong>zeitliche</strong> <strong>Segmentierung</strong><br />

den verwendeten Graphen um die vierte Dimension zu erweitern und direkt<br />

dieses raum-<strong>zeitliche</strong> Volumen zu segmentieren (vgl. Abschnitt 3.5.2). Würde die <strong>Segmentierung</strong><br />

mit Hilfe des Algorithmus nach Felzenszwalb u. Huttenlocher (2004) direkt<br />

ein zufriedenstellendes Ergebnis liefern, wäre diese Vorgehensweise die einfachste. Da dies<br />

jedoch nicht der Fall ist und daher in dem relativ aufwändigen Region-Merging auch die<br />

vierte Dimension berücksichtigt werden müsste, wird von dieser Vorgehensweise abgesehen.<br />

Stattdessen erfolgt in dieser Arbeit eine <strong>zeitliche</strong> <strong>Segmentierung</strong> mit Hilfe eines Regionentrackings,<br />

indem auf die aus der räumlichen <strong>Segmentierung</strong> vorhandene Information<br />

über die Blattform und -größe zurückgegriffen wird, um die entsprechenden Blätter in der<br />

zeitlich nächsten Aufnahme wiederzufinden.<br />

Die <strong>Segmentierung</strong>sergebnisse der einzelnen räumlichen Aufnahmen zeigen in einigen<br />

Fällen den von Brendel u. Todorovic (2009) beschriebenen Effekt, dass sich Segmente<br />

von einer Aufnahme zur nächsten aufteilen. Dieser Effekt tritt z. B. beim Datensatz vom<br />

08.05.2013 von der zeitlich ersten zur zeitlich zweiten Aufnahme auf, wie aus der Abbildung<br />

4.35 ersichtlich ist: Während das weiß umkreiste Gurkenblatt in der <strong>Segmentierung</strong><br />

des Datensatzes E1 08 durch ein einziges Segment repräsentiert wird, befinden sich an der<br />

Stelle dieses Blattes in der zeitlich folgenden Aufnahme zwei Segmente 3 . Aus diesem<br />

Grund bietet es sich an, für die <strong>zeitliche</strong> <strong>Segmentierung</strong> ein Shape-Matching-Verfahren<br />

anzuwenden, welches korrespondierende Segmente mit Hilfe ihrer Form identifiziert, sodass<br />

der oben beschriebene Effekt nur geringen Einfluss auf die <strong>Segmentierung</strong>sergebnisse<br />

besitzt. Bestenfalls sollten sogar Übersegmentierungen unter Zuhilfenahme der <strong>Segmentierung</strong>sergebnisse<br />

anderer Aufnahmen aufgedeckt und eliminiert und somit das zum Teil<br />

fehlerhafte Ergebnis der räumlichen <strong>Segmentierung</strong> verbessert werden können.<br />

3 Zu beachten ist, dass in diesen Darstellungen übereinstimmende Farben derselben Blätter zufällig<br />

entstehen. Die Farbcodierungen der Segmente lassen also keine Aussagen über vorliegende Korrespondenzen<br />

zu.<br />

101


4 Entwicklung eines Verfahrens zur raum-<strong>zeitliche</strong>n <strong>Segmentierung</strong> von natürlichen Objekten<br />

Abb. 4.35: Aufteilung eines Segmentes von einer räumlichen <strong>Segmentierung</strong> zur nächsten:<br />

<strong>Segmentierung</strong>sergebnis der Aufnahme E1 08 (links); <strong>Segmentierung</strong>sergebnis<br />

der Aufnahme E2 08 (rechts)<br />

Von der Vielzahl bestehender Verfahren wird das von Brendel u. Todorovic (2009) vorgeschlagene<br />

Shape-Matching-Verfahren auf Basis des DTW-Algorithmus verwendet, da<br />

dieser auch einen Vergleich sehr komplexer Segmentränder erlaubt.<br />

4.4.2 Registrierung der Aufnahmen unterschiedlicher<br />

Aufnahmeepochen<br />

Für die Durchführung eines solchen Shape-Matchings müssen zunächst in den zeitlich<br />

verschiedenen Aufnahmen potentielle korrespondierende Segmente identifiziert werden,<br />

deren Ähnlichkeit anschließend mit Hilfe des DTW-Algorithmus beurteilt wird. Die Suche<br />

nach Korrespondenzen kann in dieser Arbeit sehr einfach gestaltet werden, da sich<br />

die Position der Pflanze an sich nicht verändert. Die einzigen zu erwartenden Bewegungen<br />

finden in den Blättern statt, wobei es sich hierbei vor allem um Verformungen oder ein<br />

leichtes Auf- und Abbewegen der Blätter handelt – die Position am Stiel wird jedoch trotz<br />

dieser Bewegungen immer beibehalten. Aus diesem Grund kann eine grobe Zuordnung der<br />

Segmente aus den unterschiedlichen Zeitepochen über die Position erfolgen.<br />

102


4.4 <strong>Segmentierung</strong> in zeitlich aufeinanderfolgenden Aufnahmen<br />

Die einzige Voraussetzung für eine solche Vorgehensweise<br />

ist, dass alle Aufnahmen im selben Koordinatensystem<br />

vorliegen. Die Wiederherstellbarkeit<br />

der jeweiligen Aufnahmepositionen (vgl.<br />

Abschnitt 2.3.3) führt zwar dazu, dass die verschiedenen<br />

Aufnahmen grob registriert sind, was<br />

jedoch nicht ausreicht, wie die Abbildung 4.36<br />

zeigt: Zu sehen sind zwei zu verschiedenen Zeitpunkten<br />

aufgenommene Punktwolken, die in der<br />

X- und Y-Koordinate zwar sehr gut übereinzustimmen<br />

scheinen, in der Z-Koordinate jedoch<br />

einen deutlich erkennbaren Offset besitzen. Eine<br />

Verbesserung dieser Grobregistrierung ist somit<br />

Abb. 4.36: Offset in der Z-Koordinate unerlässlich. Sie erfolgt an dieser Stelle mit Hilfe<br />

eines Matching-Verfahrens. Als korrespondie-<br />

zweier zu verschiedenen<br />

Zeitpunkten aufgenommenen<br />

Punktwolken<br />

der Kiste, die zum einen stabil und zum anderen<br />

rende Punkte dienen die oberen vier Eckpunkte<br />

in allen Aufnahmen enthalten sind und darüber<br />

hinaus relativ einfach extrahiert werden können:<br />

Diese vier Punkte werden durch die vier bereits extrahierten senkrechten Seitenwände der<br />

Kiste sowie die waagerechte Unterseite der Styroporplatte definiert. Letztere kann zwar<br />

nicht direkt aus dem Scan extrahiert werden, kann jedoch aus den Unterkanten der drei<br />

extrahierten senkrechten Styroporflächen konstruiert werden. Die vier gesuchten Punkte<br />

ergeben sich damit als die vier Schnittpunkte dieser fünf Ebenen. Diese Situation ist beispielhaft<br />

in Abbildung 4.37 (links) dargestellt. Zu sehen sind in Blau alle Punkte, die den<br />

Seitenwänden der Kiste zugeordnet werden. Da fälschlicherweise auch Punkte der Styroporplatte<br />

diesen Flächen zugeordnet werden, können die Seitenwände der Kiste nicht für<br />

die Definition der oberen Kistenkante verwendet werden. Hingegen beschreiben die grün<br />

eingefärbten Styroporflächen nach unten hin saubere Kanten, aus denen sich die benötigte<br />

fünfte Ebene konstruieren lässt und die gesuchten vier Kantenpunkte – dargestellt in<br />

Gelb – bestimmen lassen.<br />

103


4 Entwicklung eines Verfahrens zur raum-<strong>zeitliche</strong>n <strong>Segmentierung</strong> von natürlichen Objekten<br />

Abb. 4.37: Zeitliche Registrierung: Bestimmung der Kisten-Eckpunkte (links); Ergebnis<br />

(rechts)<br />

Da vier Punkte für die Durchführung einer stabilen Registrierung nicht ausreichend sind,<br />

werden durch Verschieben dieser Punkte in Z-Richtung vier weitere Punkte konstruiert,<br />

sodass in jeder Aufnahme insgesamt acht Punkte vorliegen, die die Grundlage für das<br />

Matching bilden. Die Zuordnung dieser Punkte zu ihren Korrespondenzen in einer zeitlich<br />

späteren Aufnahme kann aufgrund der kontrollierten Umgebung über die Suche nach<br />

nächsten Nachbarn erfolgen. Die gesuchten Transformationsparameter werden nach Identifikation<br />

der Korrespondenzen mit Hilfe einer 3-D-Helmert-Transformation nach Blech<br />

u. Illner (1989) bestimmt.<br />

Das Ergebnis einer solchen <strong>zeitliche</strong>n Registrierung ist beispielhaft für die Datensätze<br />

E1 08 und E2 08 in Abbildung 4.37 (rechts) zu sehen. Dargestellt ist ein Ausschnitt beider<br />

Punktwolken – blau bzw. grün eingefärbt –, in dem die Kiste zu erkennen ist, deren Kanten<br />

durch diese hier beschriebene <strong>zeitliche</strong> Registrierung sehr gut zur Deckung gebracht<br />

wurden.<br />

Zur Beurteilung der Qualität der <strong>zeitliche</strong>n Registrierung lässt sich der mittlere Fehler<br />

der korrespondierenden Punkte heranziehen: Während dieser für die Registrierung der<br />

Datensätze E1 08 und E2 08 vor der Durchführung der Transformation knapp 25 mm beträgt,<br />

liegt er nach der Registrierung der Datensätze mit 8 mm deutlich unterhalb der<br />

Messgenauigkeit. Damit sind die Aufnahmen für die folgende Anwendung ausreichend<br />

gut registriert, sodass auf eine anschließende Feinregistrierung verzichtet werden kann.<br />

104


4.4 <strong>Segmentierung</strong> in zeitlich aufeinanderfolgenden Aufnahmen<br />

4.4.3 Shape-Matching mit Hilfe des Dynamic Time Warping<br />

Nach Durchführung der Registrierung sind alle Voraussetzungen erfüllt, um ein Shape-<br />

Matching durchzuführen. Das grundsätzliche Ziel dieser <strong>zeitliche</strong>n <strong>Segmentierung</strong> ist die<br />

Identifizierung von identischen Blättern in den verschiedenen Punktwolken. Hierbei müssen<br />

prinzipiell zwei Fälle unterschieden werden:<br />

• Die verschiedenen Aufnahmen wurden in relativ kurzen <strong>zeitliche</strong>n Abständen durchgeführt.<br />

Das gilt z. B. für den Datensatz vom 08.05.2013 oder für den Datensatz vom<br />

23.05.2013. Ziel des Pflanzenmonitorings ist das Aufdecken von kurzfristigen morphologischen<br />

Anpassungen, die z. B. durch Trockenstress hervorgerufen werden. Da<br />

diesen Aufnahmen kurz hintereinander erfolgen, findet kein aufdeckbares Wachstum<br />

der Pflanze statt; die Blattgrößen an sich bleiben also unverändert und es finden<br />

verhältnismäßig geringe Bewegungen und/oder Verformungen statt. In solch einer<br />

Situation können die <strong>Segmentierung</strong>sergebnisse von anderen Aufnahmen herangezogen<br />

werden, um die Segmente eines fälschlicherweise übersegmentierten Blattes<br />

zu einem Segment zusammenzufassen und somit die räumliche <strong>Segmentierung</strong> zu<br />

verbessern.<br />

• Liegt ein großer <strong>zeitliche</strong>r Abstand zwischen den Aufnahmen der verschiedenen Zeitepochen<br />

– beispielsweise zwischen der ersten Aufnahme des 08.05.2013 und der<br />

ersten Aufnahme des 23.05.2013 –, findet neben deutlichen Bewegungen und Verformungen<br />

auch ein Wachstum der Blätter statt. In diesem Fall verändern sich die<br />

Blätter so stark, dass eine Verbesserung der räumlichen <strong>Segmentierung</strong> nicht möglich<br />

sein wird.<br />

Im Folgenden wird zunächst das Shape-Matching für den ersten der beiden Fälle beschrieben,<br />

bevor anschließend dieser Ansatz modifiziert wird, um ihn auch für den zweiten Fall<br />

anwendbar zu machen.<br />

Die Grundlage für das Shape-Matching bilden mindestens zwei bereits segmentierte Datensätze<br />

D j und D j+1 , die zu den Zeitpunkten t j bzw. t j+1 aufgenommen wurden. Im<br />

ersten Schritt des Shape-Matchings werden in den Segmenten S j+1<br />

l<br />

der Aufnahme D j+1<br />

potentielle Matching-Partner zu den Segmenten S j i<br />

der Aufnahme D j gesucht. Aufgrund<br />

der relativ geringen Blattbewegungen kann diese erste grobe Zuordnung über eine Ra-<br />

105


4 Entwicklung eines Verfahrens zur raum-<strong>zeitliche</strong>n <strong>Segmentierung</strong> von natürlichen Objekten<br />

diussuche erfolgen, in der jedes Segment durch seinen Schwerpunkt charakterisiert wird.<br />

Im optimalen Fall liefert diese Radiussuche für das Segment S j i genau einen Matching-<br />

Partner. Es kommt jedoch durchaus vor, dass sich mehr als ein Segment in der näheren<br />

Umgebung befindet; das ist dann der Fall, wenn Blätter sehr dicht beieinander liegen oder<br />

wenn ein Blatt in einer der beiden Aufnahmen übersegmentiert ist.<br />

Das Ziel des Shape-Matchings ist es, aus dieser Liste von potentiellen Matching-Partnern<br />

das zu S j i<br />

ähnlichste Segment bzw. diejenige Kombination von Segmenten, die als Gesamtheit<br />

die größte Ähnlichkeit mit S j i<br />

besitzen, auszuwählen.<br />

Die Beurteilung der Ähnlichkeit zweier Segmente S j i<br />

und Sj+1<br />

l<br />

der Formen, die durch die beiden sortierten Sequenzen der Randpunkte R j i<br />

erfolgt über einen Vergleich<br />

bzw. Rj+1<br />

l<br />

(vgl.<br />

Abschnitt 4.3.6.2) charakterisiert werden: Mit Hilfe des in Abschnitt 3.5.3 vorgestellten<br />

DTW werden die Gesamtkosten bestimmt, die bei einer Überführung von R j i in R j+1<br />

l<br />

entstehen, wobei als Kostenfunktion in dieser Arbeit die euklidische Distanz verwendet<br />

wird. Um den Einfluss von Blattbewegungen auf die Kosten des DTW abzuschwächen,<br />

wird vor Berechnung der Kosten eine Translation des potentiellen Matching-Partners auf<br />

den Schwerpunkt des Segmentes S j i durchgeführt, wobei sich der Translationsvektor aus<br />

der Differenz der Schwerpunkte berechnet.<br />

Zu beachten ist, dass es sich bei R j i<br />

und Rj+1<br />

l<br />

zunächst um zyklische Sequenzen handelt, die<br />

für eine Anwendung des klassischen DTW-Algorithmus an einem geeigneten Punkt aufgetrennt<br />

werden müssen. Brendel u. Todorovic (2009) stellen mit ihrem Circular-Dynamic-<br />

Time-Warping-Algorithmus eine Möglichkeit für die Lösung dieses Problems vor. In der<br />

vorliegenden Arbeit können aufgrund der Tatsache, dass keine Verdrehungen der Blätter<br />

zu erwarten sind, für ein Aufsplitten der beiden Sequenzen diejenigen Punkte aus R j i und<br />

R j+1<br />

l<br />

verwendet werden, die den geringsten Abstand voneinander besitzen.<br />

Durch diese Vorgehensweise können für das Segment S j i<br />

und jeden seiner potentiellen<br />

Matching-Partner die Gesamtkosten des DTW c DTW berechnet werden. Diese Gesamtkosten<br />

sind untereinander jedoch noch nicht vergleichbar, da sie sich aus der Addition aller<br />

Einzelkosten ergeben und somit umso größer werden, je mehr Randpunkte ein Segment<br />

besitzt. Aus diesem Grund wird nach Berechnung der Kosten eine Normierung durchgeführt,<br />

die die mittleren Kosten c DTW liefert:<br />

c DTW =<br />

c DTW<br />

min(n 1 ,n 2 ) , (4.25)<br />

106


4.4 <strong>Segmentierung</strong> in zeitlich aufeinanderfolgenden Aufnahmen<br />

mit:<br />

n 1 : Anzahl der Punkte in R j i (4.26)<br />

n 2 : Anzahl der Punkte in R j+1<br />

l<br />

. (4.27)<br />

Für den Fall, dass keine Übersegmentierungen auftreten und somit jedes Segment genau<br />

ein korrespondierendes Segment besitzt, kann dieses über den kleinsten dieser Kostenwerte<br />

c min identifiziert werden. Da – wie die Ergebnisse der räumlichen <strong>Segmentierung</strong> zeigen<br />

– solch eine Situation jedoch nicht vorausgesetzt werden kann, werden ähnlich wie von<br />

Husain u. a. (2006) vorgeschlagen, zusätzlich die Kosten für zusammengesetzte Segmente<br />

bestimmt: Ausgangspunkt ist das Segment mit den niedrigsten Kosten, das mit jedem<br />

verbleibenden potentiellen Matching-Kandidaten zu jeweils einem neuen Segment zusammengesetzt<br />

wird. Aus der Gesamtheit dieser Zweierkombinationen wird erneut dasjenige<br />

zusammengesetzte Segment ausgewählt, welches die niedrigsten Kosten c min2<br />

verursacht.<br />

Sind diese Kosten kleiner als die Kosten c min , wird analog zu dieser Vorgehensweise Schritt<br />

für Schritt der jeweils am besten passende potentielle Matching-Partner diesem zusammengesetzten<br />

Segment hinzugefügt. Die Iteration wird entweder abgebrochen, wenn das<br />

zusammengesetzte Segment alle potentiellen Matching-Partner enthält oder wenn sich der<br />

Kostenwert durch Hinzufügen eines weiteren Teilsegmentes erhöht.<br />

Das Ergebnis dieses Verfahrens ist eine Liste, die jedem Segment S j i<br />

ein oder mehrere<br />

korrespondierende Segmente S j+1<br />

l<br />

zuordnet. In diesem Fall dienen die Segmente S j i als<br />

eine Art Template, sodass Übersegmentierungen im Datensatz D j+1 aufgedeckt werden<br />

können. Um im Umkehrschluss auch Übersegmentierungen im Datensatz D j aufdecken<br />

zu können, wird das Verfahren mit den Segmenten S j+1<br />

l<br />

als Templates wiederholt. Im<br />

Anschluss daran werden aus beiden Listen diejenigen Segment-Paare ausgewählt, die die<br />

geringsten Kosten verursachen. Diese Suche erfolgt gierig, d. h. es wird zunächst dasjenige<br />

Segment-Paar ausgewählt, welches unter allen möglichen Paaren die geringsten Kosten<br />

verursacht. Nach Identifizierung dieses ersten Paares werden alle weiteren Paare aus der<br />

Liste entfernt, die eines der beiden Segmente enthalten, und aus den verbleibenden Paaren<br />

wird erneut das mit den geringsten Kosten ausgewählt. Die Iteration wird so lange<br />

durchgeführt, bis keine Segmentpaare mehr in der Liste enthalten sind.<br />

107


4 Entwicklung eines Verfahrens zur raum-<strong>zeitliche</strong>n <strong>Segmentierung</strong> von natürlichen Objekten<br />

Für den zu Beginn dieses Abschnitts beschriebenen zweiten Fall kann dieses Verfahren<br />

vereinfacht werden: Da eine Verbesserung der räumlichen <strong>Segmentierung</strong> für diese Situation<br />

ausgeschlossen wurde, müssen keine zusammengesetzten Segmente betrachtet werden,<br />

womit auch die abwechselnde Betrachtung der Segmente beider Datensätze als Templates<br />

überflüssig wird. Es reicht somit aus, für jedes Segment und seine möglichen Matching-<br />

Partner die Kosten des DTW zu berechnen. Die Auswahl der zusammengehörenden Segmente<br />

erfolgt anschließend wie oben beschrieben.<br />

4.4.4 Ergebnisse der <strong>zeitliche</strong>n <strong>Segmentierung</strong><br />

Das Ergebnis der <strong>zeitliche</strong>n <strong>Segmentierung</strong> für den Fall, dass die Aufnahmen in kurzen<br />

<strong>zeitliche</strong>n Abständen erfolgen, ist in Abbildung 4.38 dargestellt. Zu sehen sind die segmentierten<br />

Aufnahmen E1 08 und E2 4 08 . Die Abbildungen zeigen, dass der verwendete<br />

Shape-Matching-Algorithmus die Erwartungen voll und ganz erfüllt: Zum einen erfolgt ein<br />

Tracking der Segmente über die Zeit, d. h. jedem Segment aus der zeitlich ersten Aufnahme<br />

wird sein Pendant aus den zeitlich folgenden Aufnahmen zugeordnet. Erkennbar wird<br />

diese erfolgreiche Zuordnung durch die Einfärbung der Segmente: Besitzt ein Segment in<br />

allen Aufnahmen dieselbe Farbe, wird es als dasselbe Segment erkannt. Zum anderen wird<br />

4 Die gesamte segmentierte Zeitreihe dieses Datensatzes findet sich im Anhang, in der Abbildung A13.<br />

Abb. 4.38: Ergebnis der <strong>zeitliche</strong>n <strong>Segmentierung</strong> bei kurzen Zeitabständen: Aufnahme<br />

E1 08 (links); Aufnahme E2 08 (rechts)<br />

108


4.4 <strong>Segmentierung</strong> in zeitlich aufeinanderfolgenden Aufnahmen<br />

das Ergebnis der räumlichen <strong>Segmentierung</strong> in der <strong>zeitliche</strong>n <strong>Segmentierung</strong> verbessert.<br />

Besonders deutlich wird dieser Effekt bei dem in Abbildung 4.38 gelb eingefärbten Segment.<br />

Dieses Segment entspricht dem linken der beiden in Abbildung 4.30 dargestellten<br />

Problemblätter“, welches in zwei der vier Aufnahmen ohne Betrachtung der <strong>zeitliche</strong>n<br />

”<br />

Zusammenhänge übersegmentiert wird. Nach der <strong>zeitliche</strong>n <strong>Segmentierung</strong> wird dieses<br />

Blatt in allen vier Aufnahmen als ein einziges Segment dargestellt – die Information aus<br />

der ersten Aufnahme, dass sich an dieser Position nur ein einziges Blatt befindet, wird<br />

somit erfolgreich dazu verwendet, die Übersegmentierung zu eliminieren.<br />

Das Tracking der Blätter des Datensatzes vom 08.05.2013 gelingt insofern problemlos, als<br />

so gut wie keine Blattbewegungen auftreten. Völlig anders sieht das bei einer <strong>zeitliche</strong>n<br />

<strong>Segmentierung</strong> über einen größeren Zeitraum aus. In Abbildung 4.39 ist die <strong>zeitliche</strong> <strong>Segmentierung</strong><br />

der Datensätze E1 08 und E1 23 zu sehen – zwischen diesen Aufnahmen liegen<br />

somit nicht nur einige Minuten, sondern gut zwei Wochen. Auffällig sind zunächst die<br />

weiß eingefärbten Segmente: Bei ihnen handelt es sich um Segmente, die in der zeitlich<br />

vorhergehenden/nachfolgenden Aufnahme keinen Matching-Partner besitzen. In der rechten<br />

der beiden Abbildungen ist dieser Effekt zu erwarten, da sich durch das Wachstum<br />

der Pflanze neue Blätter gebildet haben, zu denen kein Pendant in der zeitlich früheren<br />

Abb. 4.39: Ergebnis der <strong>zeitliche</strong>n <strong>Segmentierung</strong> bei langen Zeitabständen: Aufnahme<br />

E1 08 (links); Aufnahme E1 23 (rechts)<br />

109


4 Entwicklung eines Verfahrens zur raum-<strong>zeitliche</strong>n <strong>Segmentierung</strong> von natürlichen Objekten<br />

Aufnahme existieren kann. Diese weißen Segmente treten jedoch auch in der linken der<br />

beiden Aufnahmen im oberen Teil der Pflanze auf und entstehen dann, wenn die Blattbewegungen<br />

so stark sind, dass die korrespondierenden Blätter (gekennzeichnet durch die<br />

farbigen Umkreisungen) über die Radiussuche nicht gefunden werden. Dieses Problem<br />

betrifft den oberen Teil der Pflanze, da insbesondere in diesem Bereich aufgrund des<br />

Wachstums starke Blattbewegungen und -verformungen stattfinden. Ein weiteres nicht<br />

zugeordnetes Segment tritt in der zeitlich späteren Aufnahme in der Mitte der Pflanze<br />

auf (hellblau umkreist). Dass es keinem Segment aus der zeitlich früheren Aufnahme zugeordnet<br />

wird, hat seine Ursache in einer Falschzuordnung: Auslöser ist das in der rechten<br />

Darstellung blau umkreiste Segment: Bei dem entsprechenden Blatt handelt es sich um<br />

eines der Keimblätter, das in der zeitlich früheren Aufnahme so klein ist, dass es nicht<br />

als Blatt erkannt wird, sondern zusammen mit dem Stiel der Störklasse zugeordnet wird.<br />

Mit dem Entstehen“ eines neuen Blattes in den unteren Teilen der Pflanze kann der Algorithmus<br />

nicht umgehen: Aufgrund der ähnlichen Form und der zusätzlichen räumlichen<br />

”<br />

Nähe erfolgt an dieser Stelle eine Falschzuordnung, womit für das hellblau umkreiste Segment<br />

kein Matching-Partner mehr vorhanden ist. Von dieser Falschzuordnung abgesehen,<br />

liefert die <strong>zeitliche</strong> <strong>Segmentierung</strong> auch für einen zeitlich großen Abstand gute Ergebnisse:<br />

Für die sieben restlichen Blätter werden trotz deutlich erkennbarer Blattbewegungen die<br />

richtigen Korrespondenzen gefunden.<br />

4.5 Analyse und Bewertung des entwickelten<br />

<strong>Segmentierung</strong>sansatzes<br />

In Abschnitt 4.3.7 wurde bereits gezeigt, dass die Punktwolke einer Zeitepoche mit Hilfe<br />

des in der vorliegenden Arbeit entwickelten <strong>Segmentierung</strong>salgorithmus trotz des starken<br />

Rauschens in den Daten zufriedenstellend segmentiert wird: In keiner der segmentierten<br />

Beispieldatensätze treten Untersegmentierungen auf; gleichzeitig besitzt der Großteil der<br />

auftretenden Übersegmentierungen kaum einen Einfluss auf spätere Berechnungen, da es<br />

sich in der Regel um kleinere Punktgruppen handelt, die sich in der Mitte eines Blattes<br />

befinden. Kritisch werden Übersegmentierungen nur dann, wenn sie sich am Rand eines<br />

Blattes befinden und dazu führen, dass die Form des Blattes durch das entsprechende<br />

110


4.5 Analyse und Bewertung des entwickelten <strong>Segmentierung</strong>sansatzes<br />

Segment nur unvollständig wiedergegeben wird. Diese Fälle treten zwar auf, sind in der<br />

Regel jedoch auf eine geringe Datendichte zurückzuführen, die in der Datenerfassung begründet<br />

liegt.<br />

Die Güte der endgültigen <strong>Segmentierung</strong> ist stark vom Ergebnis der Vorsegmentierung<br />

abhängig: Die Voraussetzung für ein erfolgreiches Region-Merging stellt eine vorsegmentierte<br />

Punktwolke ohne Untersegmentierungen dar. Ist diese Bedingung nicht erfüllt,<br />

treten garantiert auch im endgültigen Ergebnis Untersegmentierungen auf, was für die<br />

späteren Anwendungen nicht als zufriedenstellend angesehen werden kann. Gleichzeitig<br />

erschweren zu starke Übersegmentierungen ein Region-Merging, denn insbesondere der<br />

kantenbasierte Ansatz setzt voraus, dass für jedes der Blätter ein verhältnismäßig großes<br />

Segment existiert, welches um benachbarte kleinere Segmente erweitert wird. Würde sich<br />

jedes Blatt aus einer Vielzahl kleiner Segmente zusammensetzen, würde die Einführung<br />

einer Kantenmindestlänge ihren Zweck nicht erfüllen und damit die Unterscheidung zwischen<br />

Crease-Edges innerhalb eines Blattes und Crease-Edges, die von zwei benachbarten<br />

Blättern gebildet werden, scheitern. Der Parameter, der das Auftreten von Über- und Untersegmentierungen<br />

steuert, ist die Konstante κ bzw. die von der mittleren Z-Koordinate<br />

abhängige Funktion κ(z min ): Allein sie steuert die Güte der Vorsegmentierung und damit<br />

die Güte der endgültigen <strong>Segmentierung</strong>; eine sorgfältige Wahl ist somit unerlässlich. Für<br />

die beiden in dieser Arbeit verwendeten Datensätze wurden geeignete Werte festgelegt,<br />

diese müssen jedoch nicht zwangsläufig für alle Wachstumsstadien einer Gurkenpflanze<br />

geeignet sein.<br />

Abgesehen von der Wahl dieses Parameters führt der entwickelte Algorithmus die <strong>Segmentierung</strong><br />

vollautomatisch durch und bildet somit die Grundlage für eine automatische<br />

Phänotypisierung.<br />

Neben der Güte der Ergebnisse spielt für die Beurteilung des Algorithmus auch die Laufzeit<br />

eine Rolle: Der für die Vorsegmentierung verwendete Algorithmus von Felzenszwalb<br />

u. Huttenlocher (2004) ist ein gieriger Algorithmus, dessen Laufzeit allein von der Anzahl<br />

der Kanten im Graphen abhängt und somit sehr effizient ist. Den mit Abstand größten<br />

Rechenaufwand in der Berechnungskette erfordert das Region-Merging, obwohl auch an<br />

dieser Stelle nur lokale Entscheidungen getroffen werden: In diesem Schritt müssen für<br />

jedes Segment mit einer bestimmten Mindestgröße alle Nachbarsegmente gefunden und<br />

111


4 Entwicklung eines Verfahrens zur raum-<strong>zeitliche</strong>n <strong>Segmentierung</strong> von natürlichen Objekten<br />

anschließend Oberflächen geschätzt, Randpunkte bestimmt und die <strong>Raum</strong>kurven bzw.<br />

die entsprechenden Hilfsoberflächen berechnet werden. Aufgrund der starken Übersegmentierung<br />

nach Durchführung der Vorsegmentierung besitzen manche Segmente bis zu<br />

50 Nachbarn. Hinzu kommt, dass ein erfolgreiches Region-Merging sowohl Oberflächen<br />

als auch Grenzkanten zwischen bereits getesteten Segmenten signifikant verändern kann,<br />

sodass in diesen Fällen die Berechnungen wiederholt werden müssen. Die Existenz so zahlreicher<br />

Nachbarsegmente erklärt sich durch das starke Rauschen der Daten: Lägen weniger<br />

verrauschte Daten vor, wäre das Ergebnis der Vorsegmentierung deutlich weniger stark<br />

übersegmentiert, wodurch die Rechenintensität des Region-Mergings deutlich abnehmen<br />

würde. Für die vorliegenden verrauschten Daten muss für ein zufriedenstellendes <strong>Segmentierung</strong>sergebnis<br />

das rechenintensive Region-Merging somit in Kauf genommen werden.<br />

Dagegen fallen die Berechnung der Normalenvektoren oder die Nachbarschaftssuche in<br />

der Punktwolke bei der Beurteilung der Effizienz nicht ins Gewicht.<br />

Im Vergleich zu den bestehenden Phänotypisierungsverfahren besitzt der in dieser Arbeit<br />

entwickelte Ansatz neben der bereits genannten Automatisierung sowie der berührungsfreien<br />

Datenerfassung einen weiteren entscheidenden Vorteil, der aus der Abbildung 4.40<br />

ersichtlich wird. Dargestellt sind zwei Pflanzenmodelle der beiden Messtage, die mit Hilfe<br />

der manuellen Digitalisierung von charakteristischen Punkten (siehe z. B. Kahlen u.<br />

Stützel (2007)) erstellt wurden. Für diese Digitalisierung wurden pro Blatt 17 charakte-<br />

Abb. 4.40: Ergebnisse der manuellen Digitalisierung von charakteristischen Punkten einer<br />

Gurkenpflanze: Modell vom 08.05.2013 (links); Modell vom 23.05.2013 (rechts)<br />

112


4.5 Analyse und Bewertung des entwickelten <strong>Segmentierung</strong>sansatzes<br />

ristische Punkte gemessen und daraus ein – wie die Abbildungen zeigen – stark vereinfachtes<br />

Modell der Pflanze berechnet. Der direkte Vergleich eines Blattes des Modells vom<br />

08.05.2013 mit dem identischen segmentierten Gurkenblatt in Abbildung 4.41 lässt bereits<br />

erahnen, dass Letzteres gegenüber dem Digitizer-Modell einen deutlich höheren Detailgrad<br />

besitzt, sodass auch eine zuverlässigere Blattflächenbestimmung möglich sein sollte.<br />

Die Bestimmung von geometrischen Merkmalen aus der segmentierten Punktwolke ist Bestandteil<br />

des Kapitels 5, in dem ausführlicher auf den Vergleich mit dem Digitzer-Modell<br />

eingegangen wird.<br />

Abb. 4.41: Ergebnisse der manuellen Digitalisierung von charakteristischen Punkten einer<br />

Gurkenpflanze: Modell vom 08.05.2013 (links); Modell vom 23.05.2013 (rechts)<br />

Ähnlich gute Ergebnisse wie die räumliche <strong>Segmentierung</strong> liefert die <strong>zeitliche</strong> <strong>Segmentierung</strong>:<br />

Insbesondere bei geringen Blattbewegungen gelingt eine fehlerlose Identifizierung<br />

korrespondierender Blätter, gleichzeitig werden die <strong>zeitliche</strong>n Zusammenhänge für eine<br />

Eliminierung von Übersegmentierungen verwendet. Zu beachten ist jedoch, dass dieses<br />

Verfahren nur dann zum Erfolg führt, wenn keine Untersegmentierungen vorliegen. Andernfalls<br />

würde die <strong>zeitliche</strong> <strong>Segmentierung</strong> die räumlichen <strong>Segmentierung</strong>en verschlechtern,<br />

indem nicht zusammengehörende Segmente zusammengefügt werden. Eine mögliche<br />

Untersegmentierung muss dementsprechend vor Durchführung der <strong>zeitliche</strong>n <strong>Segmentierung</strong><br />

ausgeschlossen werden können.<br />

Der Algorithmus stößt an seine Grenzen, wenn sich die Blätter von einer Aufnahme<br />

zur nächsten sehr stark bewegen und gleichzeitig aufgrund von Wachstum ihre Form<br />

113


4 Entwicklung eines Verfahrens zur raum-<strong>zeitliche</strong>n <strong>Segmentierung</strong> von natürlichen Objekten<br />

verändern. In diesem Fall treffen die zwei grundlegenden Annahmen, auf denen der Algorithmus<br />

dieser Arbeit basiert – die unmittelbare Nachbarschaft zweier korrespondierender<br />

Segmente sowie die Ähnlichkeit zweier korrespondierender Segmente –, nicht mehr<br />

zu. Für eine erfolgreiche <strong>Segmentierung</strong> über einen längeren Zeitraum hinweg müssten<br />

dementsprechend die <strong>zeitliche</strong>n Abstände der Aufnahmen so gewählt werden, dass diese<br />

Annahmen noch zutreffen.<br />

Ebenso wie die räumliche <strong>Segmentierung</strong> erfolgt das Tracking der Blätter über die Zeit<br />

vollautomatisch. Von den durchzuführenden Berechnungschritten der <strong>zeitliche</strong>n <strong>Segmentierung</strong><br />

erfordert das DTW den größten Rechenaufwand, da es sich hierbei um das einzige<br />

Optimierungsproblem des gesamten Algorithmus handelt. Im Vergleich zum Rechenaufwand<br />

des Region-Mergings ist der Zeitaufwand für diese Berechnung jedoch ebenfalls vernachlässigbar.<br />

Die Entscheidung über die Korrespondenzen erfolgt schlussendlich wieder<br />

gierig, sodass auch dieser Berechnungsschritt sehr effizient ist.<br />

114


5 Ableitung von geometrischen<br />

Merkmalen<br />

Das folgende Kapitel gibt einen Einblick in eine mögliche Vorgehensweise, um aus den segmentierten<br />

Gurkenblättern geometrische Merkmale abzuleiten und Veränderungen über<br />

die Zeit zu bestimmen.<br />

5.1 Vermaschung<br />

Nach der <strong>Segmentierung</strong> liegt zunächst noch immer eine Punktwolke vor. Um aus dieser<br />

Punktwolke z. B. Blattflächen bestimmen zu können, wird die von den entsprechenden<br />

Punkten gebildete Oberfläche benötigt. Eine solche Oberfläche wird in der Regel durch<br />

eine Vermaschung der Punktwolke bestimmt [Linsen (2001)].<br />

Ein übliches Verfahren für die Vermaschung einer Punktwolke ist die Bestimmung sogenannter<br />

α-Shapes, die ursprünglich von Edelsbrunner u. a. (1983) für den zweidimensionalen<br />

Fall vorgestellt und von Edelsbrunner u. Mücke (1994) um die dritte Dimension<br />

erweitert wurden.<br />

α-Shapes stellen eine Verallgemeinerung der konvexen Hülle einer Punktwolke dar und<br />

tragen ihren Namen aufgrund des Parameters α, der den Detaillierungsgrad der Vermaschung<br />

angibt. Da das vorliegende Kapitel nur einen Einblick in eine mögliche Vorgehensweise<br />

geben soll, wird auf eine ausführliche Erläuterung dieses Themas an dieser Stelle<br />

verzichtet und stattdessen auf die oben genannten Veröffentlichungen verwiesen.<br />

Die Vermaschung eines beispielhaft ausgewählten Ergebnissegmentes mit Hilfe von drei<br />

verschiedenen α-Shapes ist in Abbildung 5.1 zu sehen: Dargestellt sind Vermaschungen,<br />

bei denen für den Parameter α die Werte α 1 = 10 mm, α 2 = 20 mm bzw. α 3 = 50 mm<br />

gewählt wurden. Der Einfluss dieses Parameters wird anhand der drei Abbildungen sehr<br />

115


5 Ableitung von geometrischen Merkmalen<br />

Abb. 5.1: α-Shapes eines beispielhaft ausgewählten Ergebnissegmentes: α 1<br />

(links); α 2 = 20 mm (Mitte); α 3 = 50 mm (rechts)<br />

= 10 mm<br />

gut deutlich: Der größte der drei α-Werte liefert eine sehr grobe Vermaschung, die von<br />

allen drei Ergebnissen die größte Ähnlichkeit mit der konvexen Hülle der Punktwolke<br />

besitzt. Je kleiner α gewählt wird, desto feiner wird die Vermaschung, bis sie in der linken<br />

der drei Abbildungen so fein wird, dass sogar Lücken in der Vermaschung entstehen.<br />

Die Bestimmung einer korrekten Blattfläche beginnt somit bereits mit der Wahl eines<br />

geeigneten α. Für das ausgewählte Beispielblatt scheint der Wert α 2 = 20 mm am besten<br />

geeignet, dennoch ist eine Blattfläche, die aus einer solchen Vermaschung berechnet wird,<br />

noch nicht zufriedenstellend: Aufgrund des starken Messrauschens ergibt sich eine sehr<br />

stachelige“ Oberfläche, die – bei Berechnung der Blattfläche als Summe aller Dreiecksflächen<br />

– deutlich größer als die tatsächliche Blattfläche ist. Aus diesem Grund wird<br />

”<br />

an<br />

dieser Stelle auf die geglättete Punktwolke zurückgegriffen. Der Einfluss der Glättung ist<br />

– wie aus der Abbildung 5.2 deutlich wird – enorm: Dargestellt ist die seitliche Ansicht eines<br />

beispielhaft ausgewählten und vermaschten Segmentes, zum einen unter Verwendung<br />

der ungeglätteten Punktwolke (linke Abbildung) und zum anderen nach Durchführung<br />

einer Glättung mit einer 2 cm großen Filtermaske (rechte Abbildung). Während in der<br />

linken Abbildung der bereits erwähnte ”<br />

stachelige“ Eindruck vorherrscht, formt die Vermaschung<br />

in der rechten Abbildung größtenteils eine sehr glatte und damit auch deutlich<br />

realistischere Oberfläche. Dennoch ist auch dieses Ergebnis noch nicht optimal: Im oberen<br />

Teil des Segmentes (in Abbildung 5.2 (rechts) rot umkreist) existieren Punkte, die so<br />

stark verrauscht sind, dass deren Einfluss auf die Vermaschung trotz der Glättung nicht<br />

komplett eliminiert wird.<br />

116


5.1 Vermaschung<br />

Abb. 5.2: α-Shapes eines beispielhaft ausgewählten Ergebnissegmentes: ungeglättete<br />

Punktwolke (links); geglättete Punktwolke (rechts)<br />

Nichtsdestotrotz werden diese geglätteten und anschließend vermaschten Segmente im<br />

Folgenden für einen – zunächst visuellen – Vergleich mit dem Digitizer-Modell herangezogen.<br />

Abb. 5.3: Gegenüberstellung der vermaschten Punktwolke und des Digitizer-Modells: vermaschte<br />

Punktwolke vom 08.05.2013 (links); Digitizer-Modell vom 08.05.2013<br />

(rechts)<br />

117


5 Ableitung von geometrischen Merkmalen<br />

In Abbildung 5.3 (links) ist das gesamte vermaschte <strong>Segmentierung</strong>sergebnis des Datensatzes<br />

E1 08 zu sehen. Der Eindruck, der bereits bei Betrachtung eines einzelnen Segmentes<br />

entsteht (vgl. Abbildung 5.2), wird durch diese Darstellung bestätigt: Trotz der ursprünglich<br />

sehr verrauschten Daten ergibt sich größtenteils ein sehr glattes und realistisches Modell<br />

der Gurkenblätter. Einzig und allein bei Segmenten mit geringer Punktdichte – in der<br />

Abbildung 5.3 (links) insbesondere bei dem unteren in Magenta eingefärbten Segment –<br />

ergeben sich Probleme, da in diesem Fall das gewählte α 2 = 20 mm zu klein ist.<br />

Das Digitizer-Modell dieses Datensatzes ist in Abbildung 5.3 (rechts) dargestellt. Die<br />

zu den Segmenten der vermaschten Punktwolke korrespondierenden Blätter sind direkt<br />

über die Position identifizierbar; zu beachten ist jedoch, dass die beiden obersten der<br />

vom Laserscanner erfassten Blätter kein Pendant im Digitizer-Modell besitzen. Ebenso<br />

wenig wurde das grün eingefärbte Segment im linken unteren Teil der Punktwolke digitalisiert,<br />

das einem Keimblatt entspricht und für die Phänotypisierung ohne Bedeutung ist.<br />

Bereits die Gegenüberstellung dieser beiden<br />

Modelle zeigt, dass das Digitizer-Modell die<br />

Form der Blätter stark vereinfacht, während<br />

sie durch die segmentierte Punktwolke sehr<br />

gut wiedergegeben werden. Noch deutlicher<br />

wird dieser Effekt, wenn ein beispielhaft ausgewähltes<br />

Blatt des Digitizer-Modells über<br />

sein Pendant aus der vermaschten Punktwolke<br />

gelegt wird (siehe Abbildung 5.4). Das<br />

Blatt des Digitizer-Modells setzt sich aus wenigen<br />

großen Dreiecken zusammen. Daraus resultiert<br />

eine Oberfläche, die aus relativ großen<br />

Abb. 5.4: Vergleich eines Blattes aus<br />

ebenen Flächen besteht und nur an den wenigen<br />

Dreiecksseiten Knicke aufweist. Im Ge-<br />

dem Digitizer-Modell (rot eingefärbt)<br />

mit demselben segmentierten<br />

Blatt (dargestellt in<br />

gensatz dazu beschreibt das vermaschte Segment<br />

aufgrund der höheren Punktdichte und<br />

Grautönen)<br />

der daraus resultierenden vergleichsweise kleinen<br />

Dreiecke sowie der weniger stark ausge-<br />

118


5.2 Blattflächenbestimmung<br />

prägten Knicke die tatsächliche Blattoberfläche deutlich besser. Nicht nur die Oberfläche<br />

an sich, sondern auch die Randbereiche des Blattes aus dem Digitizer-Modell sind vereinfacht:<br />

Die wenigen gemessenen Randpunkte werden durch lange Geradenstücke miteinander<br />

verbunden, sodass sie den abgerundeten Rand des Blattes sehr stark generalisieren.<br />

Zu beachten ist, dass auch die Segmente die Blattform nicht zwangsläufig komplett wiedergeben:<br />

Aufgrund von Übersegmentierungen kommt es durchaus vor, dass kleinere Teile<br />

des Blattes nicht in dem Segment wiederzufinden sind. Für das Blatt in Abbildung 5.4<br />

gilt das beispielsweise für die Blattspitze, die nicht komplett diesem Segment zugeordnet<br />

wird.<br />

5.2 Blattflächenbestimmung<br />

Die bislang allein auf dem visuellen Eindruck beruhende Vermutung, dass das Digitizer-<br />

Modell die Form der Gurkenblätter stark vereinfacht, wird durch die in der Tabelle 5.1<br />

aufgeführten Blattflächen rechnerisch bestätigt.<br />

Tabelle 5.1: Gegenüberstellung der Blattflächen des Digitzer-Modells A D und der Blattflächen<br />

der segmentierten Gurkenblätter bei Verwendung der ungeglätteten<br />

(A Su ) bzw. der geglätteten Punktwolke (A Sg )<br />

Blatt-ID A D [cm 2 ] A Su [cm 2 ] A Sg [cm 2 ] ∆ A = A Sg A D [cm 2 ] V A = A D /A Sg<br />

3 449,1 510,92 464,27 15,17 0,967<br />

4 480,45 536,16 504,43 23,98 0,952<br />

5 357,92 403,81 363,10 5,18 0,986<br />

6 389,16 519,60 465,96 76,8 0,835<br />

7 371,43 415,53 372,54 1,11 0,997<br />

8 489,06 595,96 540,02 50,96 0,906<br />

9 503,85 591,90 522,78 18,93 0,964<br />

10 394,13 484,15 446,04 51,91 0,884<br />

Die jeweiligen Flächeninhalte der Gurkenblätter ergeben sich sowohl beim Digitizer-Modell<br />

als auch bei der segmentierten Punktwolke durch Addition der Flächeninhalte aller die<br />

Oberfläche approximierender Dreiecke. Im Fall der segmentierten Punktwolke werden die<br />

119


5 Ableitung von geometrischen Merkmalen<br />

Blattflächen der ungeglätteten Punktwolke A Su und die der geglätteten Punktwolke A Sg<br />

unterschieden. In der Tabelle sind beispielhaft die auf diese Weise errechneten Blattflächen<br />

des Datensatzes E1 08 aufgeführt. Die Nummerierung der Blätter erfolgt von unten nach<br />

oben (vgl. Abbildung 5.3 (rechts)), wobei die Zählung erst bei ID 3 beginnt, da die Blatt-<br />

IDs 1 und 2 den im Digitizer-Modell nicht auftretenden Keimblättern entsprechen.<br />

Die Werte in dieser Tabelle bestätigen zunächst den bereits vermuteten starken Einfluss<br />

der Glättung: Im Mittel verkleinert sich der Flächeninhalt durch die Glättung der Punktwolke<br />

um knapp 50 cm 2 . Aufgrund der visuellen Beurteilung der vermaschten Segmente<br />

ist davon auszugehen, dass die Werte der vierten Spalte (A Sg ) somit deutlich realistischere<br />

Maße für die Blattflächen darstellen, sodass im Folgenden diese Spalte für einen Vergleich<br />

mit den Blattflächen des Digitizer-Modells herangezogen wird. Die Unterschiede zwischen<br />

den Blattflächen des Digitizer-Modells und der segmentierten Punktwolke sind in der fünften<br />

Spalte der Tabelle 5.1 aufgeführt. Wie erwartet, sind die aus der Punktwolke errechneten<br />

Flächen für jedes der Blätter etwas größer als die entsprechenden Flächen der Blätter<br />

des Digitizer-Modells, was auf die bereits angesprochene Generalisierung des Digitizer-<br />

Modells zurückzuführen ist. Unter Berücksichtigung dieser Generalisierung stimmen die<br />

errechneten Blattflächen aus beiden Modellen jedoch sehr gut überein, was insbesondere<br />

durch die sechste Spalte deutlich wird, in der das Verhältnis der entsprechenden Blattflächen<br />

aufgeführt ist: Mit Werten, die meist über 90% liegen, kann das Ergebnis als sehr<br />

zufriedenstellend angesehen werden.<br />

Die Ergebnisse der <strong>zeitliche</strong>n <strong>Segmentierung</strong> erlauben darüber hinaus einen Blattflächenvergleich<br />

der verschiedenen Aufnahmen. In Tabelle 5.2 sind die Blattflächen der Datensätze<br />

vom 08.05.2013 aufgeführt. Für eine bessere Vergleichbarkeit wurden zudem für<br />

jedes Blatt der Mittelwert A und die Standardabweichung σ A bestimmt. Besonders aussagekräftig<br />

ist in diesem Fall die Standardabweichung, die eine Aussage darüber zulässt,<br />

wie stark die ermittelten Blattflächen aus den vier verschiedenen Aufnahmen variieren.<br />

Da die Aufnahmen in kurzen <strong>zeitliche</strong>n Abständen durchgeführt wurden und somit keine<br />

Veränderungen in der Blattfläche zu erwarten sind, ist mit einer Standardabweichung<br />

nahe Null zu rechnen. Einige der Blattflächen weisen auch tatsächlich relativ geringe Standardabweichung<br />

auf, jedoch nicht alle: Die mit knapp 50 cm größte Standardabweichung<br />

besitzt das Blatt 4. Da es sich bei diesem Blatt um das bereits erwähnte Problemblatt“<br />

”<br />

120


5.2 Blattflächenbestimmung<br />

Tabelle 5.2: Vergleich der Blattflächen der unterschiedlichen Aufnahmen des Messtages<br />

08.05.2013<br />

Blatt-ID A1 08 [cm 2 ] A2 08 [cm 2 ] A4 08 [cm 2 ] A5 08 [cm 2 ] A [cm] 2 σ A [cm]<br />

3 464,27 452,06 514,42 486,17 479,23 23,71<br />

4 504,43 455,39 520,06 392,04 467,98 49,92<br />

5 363,10 389,86 341,10 380,81 368,72 18,62<br />

6 465,96 474,29 466,21 442,91 462,34 11,71<br />

7 372,54 382,27 403,20 377,34 383,84 11,70<br />

8 540,02 584,80 582,72 533,98 560,38 23,49<br />

9 522,78 539,01 515,26 540,18 529,31 10,63<br />

10 446,04 500,83 522,66 441,98 477,88 34,77<br />

handelt, wird es im Folgenden von der Bewertung ausgeschlossen. Außer diesem Blatt<br />

weisen jedoch auch vollständig erfasste Blätter eine sehr große Standardabweichung auf.<br />

Die Ursache wird sehr schnell bei Betrachtung des Blattes 10 deutlich, für das sich die<br />

zweitgrößte Standardabweichung ergibt. Die Vermaschungen der vier unterschiedlichen<br />

Aufnahmen dieses Blattes sind in Abbildung 5.5 dargestellt: Zum einen variiert die Blatt-<br />

Abb. 5.5: Durch die Vermaschung verursachten Abweichungen in den Blattflächen<br />

fläche aufgrund unvollständiger <strong>Segmentierung</strong>en. Das ist z. B. bei der zweiten Abbildung<br />

von links der Fall, in der die Blattspitze in der <strong>Segmentierung</strong> nicht enthalten ist. Dennoch<br />

beschreibt dieses Segment sogar eine größere Oberfläche als zwei der anderen beiden<br />

Segmente. Ursache für diesen Effekt sind Ausreißer in den Punktwolken, die die ansonsten<br />

glatte Oberfläche stachelig“ wirken lassen und somit zu einer Vergrößerung der<br />

”<br />

Blattfläche führen. Für eine verlässliche Blattflächenbestimmung müssen somit zunächst<br />

121


5 Ableitung von geometrischen Merkmalen<br />

die Ausreißer in den Daten entfernt werden. Eine diesbezügliche Untersuchung übersteigt<br />

jedoch den Rahmen dieser Arbeit.<br />

122


6 Zusammenfassung/Ausblick<br />

In der vorliegenden Arbeit wurde ein Algorithmus für die raum-<strong>zeitliche</strong> <strong>Segmentierung</strong><br />

von natürlichen Objekten in stark verdeckten Szenen entwickelt. Als Beispielobjekt diente<br />

eine Gurkenpflanze, die an zwei verschiedenen Messtagen mit einem Laserscanner raumzeitlich<br />

hochauflösend erfasst worden war und die mit Hilfe der <strong>Segmentierung</strong>sergebnisse<br />

phänotypisiert werden soll.<br />

Für die räumliche <strong>Segmentierung</strong> wurde ein zweistufiger Bottom-Up-Ansatz gewählt:<br />

Zunächst wurde mit einem graphbasierten Clustering eine Vorsegmentierung der 3-D-<br />

Punktwolke durchgeführt. Die Schwierigkeit der Trennung von sich berührenden Blättern<br />

wurde unter Verwendung eines auf den lokalen Normalenvektoren basierenden Ähnlichkeitsmaßes<br />

gelöst. Die sich daraus ergebende übersegmentierte Punktwolke bildete die<br />

Grundlage für ein statistisch basiertes Region-Merging. In diesem zweiten Schritt wurden<br />

ein regionenbasiertes und ein kantenbasiertes Verfahren verwendet, die auf statistischen<br />

Tests basierten, die eine Aussage darüber erlaubten, ob zwei Segmente demselben Blatt<br />

angehörten. Das war entweder dann der Fall, wenn die beiden Segmente dieselbe Oberfläche<br />

beschrieben oder wenn die Ränder der Segmente über eine gewisse Distanz dieselbe<br />

<strong>Raum</strong>kurve beschrieben. Die benötigten Randpunkte wurden mit Hilfe einer Variante des<br />

Douglas-Peucker-Algorithmus ermittelt. Insbesondere das kantenbasierte Region-Merging<br />

führte zu einer deutlichen Verbesserung der Ergebnisse aus dem ersten <strong>Segmentierung</strong>sschritt.<br />

Der entwickelte <strong>Segmentierung</strong>salgorithmus lieferte für die getesteten Datensätze sehr zufriedenstellende<br />

Ergebnisse: Die Gurkenblätter waren im Großen und Ganzen vollständig<br />

segmentiert. In Bereichen mit geringer Datendichte traten zwar weiterhin leichte Übersegmentierungen<br />

auf, dieses Problem lag jedoch in der Art der Datenerfassung begründet.<br />

Zu betonen ist, dass in keinem Fall Untersegmentierungen auftraten und somit die größte<br />

123


6 Zusammenfassung/Ausblick<br />

Schwierigkeit bei der Pflanzensegmentierung – die Trennung sich berührender Blätter –<br />

für die Gurkenpflanzen gelöst werden konnte.<br />

Als problematisch erwies sich in sämtlichen Berechnungen das starke Messrauschen: Trotz<br />

Verwendung des robusten RANSAC-Algorithmus zur Bestimmung der lokalen Normalenvektoren<br />

führte es zu einem stark übersegmentierten Ergebnis in der Vorsegmentierung,<br />

woraus ein hoher Rechenaufwand während des Region-Mergings resultierte.<br />

Im Anschluss erfolgte die <strong>Segmentierung</strong> der <strong>zeitliche</strong>n Dimension unabhängig von der<br />

räumlichen <strong>Segmentierung</strong>. Verwendet wurde ein auf Dynamic Time Warping basierendes<br />

Shape-Matching-Verfahren, welches die korrespondierenden Segmente der zu unterschiedlichen<br />

Zeitpunkten erfassten Datensätze über die Form identifizierte. Dieses Verfahren<br />

erwies sich insbesondere für eine <strong>zeitliche</strong> <strong>Segmentierung</strong> von Aufnahmen mit relativ geringen<br />

<strong>zeitliche</strong>n Abständen und damit geringen Blattbewegungen und -verformungen als<br />

sehr zufriedenstellend: Neben dem reinen Tracking der Segmente über die Zeit gelang<br />

es, Übersegmentierungen in den verschiedenen Aufnahmen zu identifizieren und zu eliminieren.<br />

Das Verfahren stieß jedoch an seine Grenzen, wenn zwischen den verschiedenen<br />

Aufnahmen so große Zeitabstände lagen, dass sich sowohl die Position eines Blattes als<br />

auch insbesondere seine Form deutlich verändert hatten.<br />

Um das Potential der Ergebnisse für eine Phänotypisierung der Gurkenpflanzen zu testen,<br />

wurden die Segmente mit α-Shapes vermascht und basierend auf dieser Vermaschung die<br />

entsprechenden Blattflächen bestimmt. Der Vergleich der auf Grundlage unterschiedlicher<br />

<strong>Segmentierung</strong>sergebnisse errechneten Flächeninhalte zeigte, dass für eine aussagekräftige<br />

Phänotypisierung zunächst weitergehende Untersuchungen sowohl in Bezug auf die Generierung<br />

einer optimalen Vermaschung als auch hinsichtlich der Eliminierung von Ausreißern<br />

durchzuführen sind.<br />

Ausblickend bleibt festzuhalten, dass bereits durch eine Modifikation der Aufnahmekonfiguration<br />

das <strong>Segmentierung</strong>sproblem leichter zu lösen ist: Für Daten mit geringerem<br />

Messrauschen ist eine signifikante Verringerung des Rechenaufwands für das Region-<br />

Merging zu erwarten. Hinzu kommt, dass für eine vollständige <strong>Segmentierung</strong> eine über<br />

die gesamte Punktwolke gleichmäßige Datendichte vorliegen muss. Bislang ist diese Voraussetzung<br />

aufgrund der Ausrichtung des Laserscanners insbesondere bei horizontalen<br />

Blattoberflächen nicht gegeben. Eine Änderung der Ausrichtung des Laserscanners bzw.<br />

124


eine zweifache Erfassung der Punktwolke unter zwei unterschiedlichen Ausrichtungen sollte<br />

dieses Problem lösen.<br />

Von den verschiedenen Rechenschritten erfordert insbesondere das oberflächenbasierte<br />

Region-Merging weiterführende Untersuchungen: Bislang wurde zur Bestimmung der Oberflächen<br />

eine sehr einfache Funktion zweiten Gerades verwendet, die die komplexe Form<br />

eines Gurkenblattes häufig nicht ausreichend gut wiedergab. Für die Modellierung solcher<br />

Freiformflächen finden in der Regel deutlich komplexere mathematische Beschreibungen<br />

Anwendung. Ein bekanntes Beispiel stellen die Non-uniform rational B-Splines (NURBS)<br />

dar, die es erlauben, auch große komplexe Oberflächen in einer einheitlichen und mathematisch<br />

exakten Form zu repräsentieren [Turner (1992)]. Die Verwendung von NURBS<br />

für die Modellierung der Gurkenblätter wäre sicherlich eine Möglichkeit, eine bessere Approximation<br />

der Blattoberflächen zu erhalten.<br />

Von den in Kapitel 1 genannten Gestaltprinzipien fließen in den in dieser Arbeit entwickelten<br />

Algorithmus mit der Bestimmung einer Nachbarschaft das Gesetz der Nähe und mit<br />

der Definition eines Ähnlichkeitsmaßes das Gesetz der Ähnlichkeit ein. Insbesondere bei<br />

der Pflanzensegmentierung kann jedoch eine zusätzliche Berücksichtigung des Gesetzes<br />

der Symmetrie eine weitere Verbesserung des Ergebnisses mit sich bringen. Paproki u. a.<br />

(2011) stellen einen auf Symmetrien basierenden <strong>Segmentierung</strong>sansatz für Blätter vor,<br />

der in ähnlicher Form auch auf die <strong>Segmentierung</strong> der Gurkenblätter angewendet werden<br />

kann. Das Wissen, dass Blätter und damit auch die Ergebnissegmente achsensymmetrisch<br />

sein müssen, kann z. B. für die Verbesserung einer bestehenden <strong>Segmentierung</strong> verwendet<br />

werden.<br />

Da der verwendete <strong>Segmentierung</strong>salgorithmus auf lokalen Entscheidungen aufbaut, bietet<br />

es sich darüber hinaus an, einen <strong>Segmentierung</strong>salgorithmus zu testen, der eine global<br />

optimale Lösung findet. Eine mögliche Alternative zu dem in dieser Arbeit entwickelten<br />

Algorithmus stellen daher die Graph Cuts von Boykov u. Kolmogorov (2004) dar. Zu<br />

beachten ist jedoch, dass diese nur für den Zweiklassenfall das globale Optimum finden –<br />

im Mehrklassenfall, wie er in dieser Arbeit vorliegt – nähern sie dieses globale Optimum<br />

in der Regel nur an [Boykov u. Veksler (2006)]. Darüber hinaus erfordern Graph Cuts<br />

in der Regel einen interaktiven Schritt, um die Terminal-Knoten festzulegen (siehe z. B.<br />

Ulén (2013)). Um die Graph Cuts für eine wie in dieser Arbeit geforderte vollautomati-<br />

125


6 Zusammenfassung/Ausblick<br />

sche <strong>Segmentierung</strong> anwenden zu können, sind daher mit Sicherheit einige Modifikationen<br />

notwendig.<br />

Die Behebung der Probleme, die in der <strong>zeitliche</strong>n <strong>Segmentierung</strong> auftraten, sobald sich<br />

die Gurkenblätter von einer Aufnahme zur nächsten stark bewegt und/oder verformt hatten,<br />

setzt eine Berücksichtigung des Bewegungsverhaltens der Pflanze voraus, um den<br />

Suchraum für die Bestimmung möglicher Matching-Partner einschränken und die Anzahl<br />

der Fehlzuordnungen minimieren zu können. Eine solche Modellierung des Bewegungsverhaltens<br />

erfordert jedoch Expertenwissen über die zu erwartenden Auswirkungen von<br />

Umwelteinflüssen auf die Pflanze sowie über ihr Wachstum.<br />

126


Literaturverzeichnis<br />

[Achanta u. a. 2012] Achanta, R. ; Shaji, A. ; Smith, K. ; Lucchi, A. ; Fua, P.;<br />

Süsstrunk, S.: SLIC Superpixels Compared to State-of-the-art Superpixel Methods.<br />

In: IEEE Transactions on Pattern Analysis and Machine Intelligence 34 (2012), Nr.<br />

11, S. 2274–2282<br />

[Ahn 2004] Ahn, Sung J.: Lecture notes in computer science. Bd. 3151: Least squares<br />

orthogonal distance fitting of curves and surfaces in space. Berlin [u.a.] : Springer, 2004<br />

[Alenya u. a. 2011] Alenya, G.;Dellen, B.;Torras, C.: 3D modelling of leaves from<br />

color and ToF data for robotized plant measuring. In: IEEE International Conference<br />

on Robotics and Automation (ICRA), 2011, S. 3408–3414<br />

[Applegate 2007] Applegate, David L.: The traveling salesman problem: A computational<br />

story. Princeton : Princeton Univ. Press, 2007 (Princeton series in applied<br />

mathematics)<br />

[Arman u. Aggarwal 1993] Arman, Farshid ; Aggarwal, J. K.: Model-based object<br />

recognition in dense-range images – a review. In: ACM Computing Surveys 25 (1993),<br />

Nr. 1, S. 5–43. – ISSN 03600300<br />

[Bellon u. a. 1999] Bellon, O.R.P ; Direne, A. I. ; Silva, L.: Edge detection to guide<br />

range image segmentation by clustering techniques. In: Proceedings 1999 International<br />

Conference on Image Processing, IEEE, 1999, S. 725–729<br />

[Belton 2008] Belton, David: Classification and Segmentation of 3D Terrestrial Laser<br />

Scanner Point Clouds. Dissertation, Perth, Curtin University of Technology, 2008<br />

I


Literaturverzeichnis<br />

[Besl u. McKay 1992] Besl, P.J.;McKay, H. D.: A method for registration of 3-D<br />

shapes. In: IEEE Transactions on Pattern Analysis and Machine Intelligence 14 (1992),<br />

Nr. 2, S. 239–256. – ISSN 0162–8828<br />

[Besl 1988] Besl, Paul J.: Surfaces in range image understanding. New York : Springer,<br />

1988 (Springer series in perception engineering)<br />

[Bhandarkar u. Siebert 1992] Bhandarkar, Suchendra M. ; Siebert, Andreas: Integrating<br />

edge and surface information for range image segmentation. In: Pattern Recognition<br />

25 (1992), Nr. 9, S. 947–962. – ISSN 00313203<br />

[Blech u. Illner 1989] Blech ; Illner: Strenge Lösung der räumlichen Koordinatentransformation<br />

durch iterative Berechnung. In: Allgemeine Vermessungsnachrichten<br />

96 (1989), Nr. 4, S. 133–144<br />

[Bolton u. Krzanowski 1999] Bolton, Richard J. ; Krzanowski, Wojtek J.: A Characterization<br />

of Principal Components for Projection Pursuit. In: The American Statistician<br />

53 (1999), Nr. 2, S. 108–109. – ISSN 0003–1305<br />

[Boykov u. Kolmogorov 2004] Boykov, Y. ; Kolmogorov, V.: An experimental comparison<br />

of min-cut/max-flow algorithms for energy minimization in vision. In: IEEE<br />

Transactions on Pattern Analysis and Machine Intelligence 26 (2004), Nr. 9, S. 1124–<br />

1137. – ISSN 0162–8828<br />

[Boykov u. Veksler 2006] Boykov,Y.;Veksler, O.: Graph Cuts in Vision and Graphics:<br />

Theories and Applications. In: Paragios, Nikos (Hrsg.) ; Chen, Yunmei (Hrsg.) ;<br />

Faugeras, Olivier (Hrsg.): Handbook of Mathematical Models in Computer Vision.<br />

New York : Springer, 2006, S. 79–96<br />

[Brendel u. Todorovic 2009] Brendel, William ; Todorovic, Sinisa: Video object segmentation<br />

by tracking regions. In: IEEE 12th International Conference on Computer<br />

Vision (ICCV), 2009, S. 833–840<br />

[Bryant 2000] Bryant, K.: Genetic Algorithms and the Traveling Salesman Problem:<br />

www.math.hmc.edu/seniorthesis/archives/2001/kbryant/kbryant-2001-thesis.pdf; (letzter<br />

Abruf: 05.10.2013). 2000<br />

II


Literaturverzeichnis<br />

[Bundesministerium für Forschung und Bildung a] Bundesministerium für Forschung<br />

und Bildung: Deutsches Pflanzen-Phänotypisierungs-Netzwerk (DPPN);<br />

www.bmbf.de/de/21116.php (letzter Abruf: 13.09.2013)<br />

[Bundesministerium für Forschung und Bildung b] Bundesministerium für Forschung<br />

und Bildung: Die Vermessung der Pflanze; www.bmbf.de/press/3411.php<br />

(letzter Abruf: 13.09.2013)<br />

[Campbell u. Flynn 2001] Campbell, Richard J. ; Flynn, Patrick J.: A Survey Of Free-<br />

Form Object Representation and Recognition Techniques. In: Computer Vision and<br />

Image Understanding 81 (2001), Nr. 2, S. 166–210. – ISSN 10773142<br />

[Coleman u. Andrews 1979] Coleman, G. B. ; Andrews, H. C.: Image segmentation by<br />

clustering. In: Proceedings of the IEEE 67 (1979), Nr. 5, S. 773–785. – ISSN 0018–9219<br />

[Cormen 2001] Cormen, Thomas H.: Introduction to algorithms. 2nd ed. Cambridge and<br />

Mass : MIT Press, 2001<br />

[Cousins u. a. 2008] Cousins, Steve ; Beaudouin-Lafon, Michel ; Goldman, Dan B.<br />

; Gonterman, Chris ; Curless, Brian ; Salesin, David ; Seitz, Steven M.: Video<br />

object annotation, navigation, and composition. In: the 21st annual ACM symposium,<br />

2008, S. 3–12<br />

[Cucchiara u. a. 2001] Cucchiara, R.;Crana, C.;Piccardi, M.;Prati, A.;Sirotti,<br />

S.: Improving shadow suppression in moving object detection with HSV color<br />

information. In: IEEE Intelligent Transportation Systems. Proceedings, 2001, S. 334–339<br />

[DeMenthon 2002] DeMenthon, D.: Spatio-Temporal Segmentation of Video by Hierarchical<br />

Mean Shift Analysis. In: Statistical Methods in Video Processing Workshop<br />

(2002)<br />

[DeMenthon u. Megret 2002] DeMenthon, D. ; Megret, R. ; Language<br />

and Media Processing (Hrsg.): Spatio-Temporal Segmentation<br />

of Video by Hierarchical Mean Shift Analysis: lampsrv02.umiacs.umd.edu/pubs/TechReports/LAMP<br />

090/LAMP 090.pdf (letzter Abruf:<br />

11.10.2013). 2002<br />

III


Literaturverzeichnis<br />

[Dezso u. a. 2012] Dezso, B.;Giachetta, R.;Laszlo, I.;Fekete, I.: Experimental<br />

study on graph-based image segmentation methods in the classification of satellite<br />

images. In: EARSeL eProceedings 11 (2012)<br />

[Drixler 1993] Drixler, Erwin: Deutsche Geodätische Kommission bei der Bayerischen<br />

Akademie der Wissenschaften : Reihe C, Dissertationen. Bd. 409: Analyse der Form<br />

und Lage von Objekten im <strong>Raum</strong>. München : Verl. der Bayerischen Akad. der Wiss.,<br />

1993<br />

[Eberius u. Lima-Guerra 2009] Eberius,M.;Lima-Guerra, J.: High-Throughput Plant<br />

Phenotyping - Data Acquisition, Transformation and Analysis. In: Edwards, David<br />

(Hrsg.) ; Stajich, Jason E. (Hrsg.) ; Hansen, David (Hrsg.): Bioinformatics. New<br />

York : Springer, 2009<br />

[Edelsbrunner u. a. 1983] Edelsbrunner, H.;Kirkpatrick, D. ; Seidel, R.: On the<br />

shape of a set of points in the plane. In: IEEE Transactions on Information Theory 29<br />

(1983), Nr. 4, S. 551–559. – ISSN 0018–9448<br />

[Douglas u. Peucker 1973] Douglas, David. ; Peucker, Thomas: Algorithms for the<br />

reduction of the number of points required to represent a digitized line or its caricature.<br />

In: Cartographica: The International Journal for Geographic Information and<br />

Geovisualization 10 (1973), Nr. 2, S. 112–122. – ISSN 0317–7173<br />

[Edelsbrunner u. Mücke 1994] Edelsbrunner, Herbert ; Mücke, Ernst P.: Threedimensional<br />

alpha shapes. In: ACM Transactions on Graphics 13 (1994), Nr. 1, S.<br />

43–72. – ISSN 07300301<br />

[Felzenszwalb u. Huttenlocher 2004] Felzenszwalb, Pedro F. ; Huttenlocher, Daniel<br />

P.: Efficient Graph-Based Image Segmentation. In: International Journal of Computer<br />

Vision 59 (2004), Nr. 2, S. 167–181. – ISSN 0920–5691<br />

[Finnegan u. a. 2006] Finnegan, John ; Dorsey, Julie ; Quan, Long ; Tan, Ping ; Zeng,<br />

Gang ; Yuan, Lu;Wang, Jingdong ; Kang, Sing B.: Image-based plant modeling.<br />

In: ACM SIGGRAPH, 2006<br />

IV


Literaturverzeichnis<br />

[Fischler u. Bolles 1981] Fischler, Martin A. ; Bolles, Robert C.: Random sample<br />

consensus: a paradigm for model fitting with applications to image analysis and automated<br />

cartography. In: Communications of the ACM 24 (1981), Nr. 6, S. 381–395. –<br />

ISSN 00010782<br />

[Gonzalez u. Woods 2002] Gonzalez, Rafael C. ; Woods, Richard E.: Digital image<br />

processing. 2nd. Upper Saddle River : Prentice Hall, 2002<br />

[Grundmann u. a. 2010] Grundmann, Matthias ; Kwatra, Vivek ; Han, Mei ; Essa, Irfan:<br />

Efficient hierarchical graph-based video segmentation. In: IEEE Computer Society<br />

Conference on Computer Vision and Pattern Recognition, IEEE, 2010, S. 2141–2148<br />

[Harary 1994] Harary, Frank: Graph theory. Reading : Perseus Books, 1994<br />

[Hoffman u. Jain 1987] Hoffman, Richard ; Jain, Anil K.: Segmentation and Classification<br />

of Range Images. In: IEEE Transactions on Pattern Analysis and Machine<br />

Intelligence PAMI-9 (1987), Nr. 5, S. 608–620. – ISSN 0162–8828<br />

[Hoover u. a. 1996] Hoover, A. ; Jean-Baptiste, G. ; Jiang, X. ; Flynn, P.J.;<br />

Bunke, H. ; Goldgof, D.B.;Bowyer, K. ; Eggert, D.W.;Fitzgibbon, A.;<br />

Fisher, R. B.: An experimental comparison of range image segmentation algorithms.<br />

In: IEEE Transactions on Pattern Analysis and Machine Intelligence 18 (1996), Nr. 7,<br />

S. 673–689. – ISSN 0162–8828<br />

[Horn u. Schunck 1981] Horn, Berthold K. ; Schunck, Brian G.: Determining optical<br />

flow. In: Artificial Intelligence 17 (1981), Nr. 1-3, S. 185–203. – ISSN 00043702<br />

[Husain u. a. 2006] Husain, Mustafa ; Saber, Eli ; Misic, Vladimir ; Joralemon,<br />

Stephen: Dynamic Object Tracking by Partial Shape Matching for Video Surveillance<br />

Applications. In: International Conference on Image Processing, 2006, S. 2405–2408<br />

[Jain u. Dubes 1988] Jain, Anil K. ; Dubes, Richard C.: Algorithms for clustering data.<br />

Englewood Cliffs : Prentice Hall, 1988 (Prentice Hall advanced reference series)<br />

[Jianbo u. Malik 2000] Jianbo, S. ; Malik, J.: Normalized cuts and image segmentation.<br />

In: IEEE Transactions on Pattern Analysis and Machine Intelligence 22 (2000), Nr. 8,<br />

S. 888–905. – ISSN 0162–8828<br />

V


Literaturverzeichnis<br />

[Jiang u. Bunke 1997] Jiang, Xiaoyi ; Bunke, Horst: Range image segmentation: Adaptive<br />

grouping of edges into regions. In: Chin, Roland (Hrsg.) ; Pong, Ting-Chuen<br />

(Hrsg.): Lecture Notes in Computer Science. Berlin and Heidelberg : Springer, 1997, S.<br />

299–306<br />

[Jiang u. Bunke 1999] Jiang, Xiaoyi ; Bunke, Horst: Edge Detection in Range Images<br />

Based on Scan Line Approximation. In: Computer Vision and Image Understanding<br />

73 (1999), Nr. 2, S. 183–199. – ISSN 10773142<br />

[Johnson u. Hebert 1999] Johnson, A.E.;Hebert, M.: Using spin images for efficient<br />

object recognition in cluttered 3D scenes. In: IEEE Transactions on Pattern Analysis<br />

and Machine Intelligence 21 (1999), Nr. 5, S. 433–449. – ISSN 0162–8828<br />

[Johnson u. Wichern 2007] Johnson, Richard A. ; Wichern, Dean W.: Applied multivariate<br />

statistical analysis. 6th ed., Pearson international. Upper Saddle River : Pearson<br />

Prentice Hall, Pearson Education International, 2007<br />

[Kahlen u. Stützel 2007] Kahlen, K. ; Stützel, H.: Estimation of Geometric Attributes<br />

and Masses of Individual Cucumber Organs Using Three-dimensional Digitizing and<br />

Allometric Relationships. In: Journal of the American Society for Horticultural Science<br />

132 (2007), Nr. 4, S. 439–446<br />

[Khan u. Shah 2001] Khan,S.;Shah, M.: Object based segmentation of video using color,<br />

motion and spatial information. In: IEEE Computer Society Conference on Computer<br />

Vision and Pattern Recognition. CVPR 2001, 2001, S. II–746–II–751<br />

[Kootstra u. a. 2011] Kootstra, G.;Bergström, N. ; Kragic, D.: Gestalt Principles<br />

for Attention and Segmentation in Natural and Artificial Vision Systems. In: Semantic<br />

Perception, Mapping and Exploration (SPME), ICRA 2011 Workshop, May 9, 2011,<br />

Shanghai, China (2011)<br />

[Krishnapuram u. Gupta 1992] Krishnapuram, Raghu ; Gupta, Sundeep: Morphological<br />

methods for detection and classification of edges in range images. In: Journal of<br />

Mathematical Imaging and Vision 2 (1992), Nr. 4, S. 351–375. – ISSN 0924–9907<br />

VI


Literaturverzeichnis<br />

[Kruskal 1956] Kruskal, Joseph B.: On the shortest spanning subtree of a graph and<br />

the traveling salesman problem. In: Proceedings of the American Mathematical Society<br />

7 (1956), Nr. 1. – ISSN 0002–9939<br />

[Lamdan u. Wolfson ] Lamdan, Y.;Wolfson, H. J.: Geometric Hashing: A General<br />

And Efficient Model-based Recognition Scheme. In: Second International Conference<br />

on Computer 1988, S. 238–249<br />

[Lézoray u. Grady 2012] Lézoray, Olivier ; Grady, Leo: Image processing and analysis<br />

with graphs: Theory and practice. Boca Raton : Taylor & Francis, 2012 (Digital imaging<br />

and computer vision series)<br />

[Linsen 2001] Linsen, Lars: Point cloud representation: www.faculty.jacobsuniversity.de/llinsen/publications/Linsen01a.pdf<br />

(letzter Abruf: 10.10.2013). 2001<br />

[Lombaert u. a. 2011] Lombaert, Herve ; Sun, Yiyong ; Cheriet, Farida ; Dawant,<br />

Benoit M. ; Haynor, David R.: Fast 4D segmentation of large datasets using graph<br />

cuts. In: SPIE Medical Imaging, SPIE, 2011 (SPIE Proceedings)<br />

[Malmberg 2011] Malmberg, F.: Graph-based Methods for Interactive Image Segmentation.<br />

Dissertation. Uppsala, 2011<br />

[Merziger u. Wirth 2006] Merziger, Gerhard ; Wirth, Thomas: Repetitorium der höhe\-<br />

ren Mathematik. 5. Aufl. Springe : Binomi, 2006<br />

[Mian u. a. 2006] Mian, A.S. ; Bennamoun, M.;Owens, R.: Three-Dimensional Model-<br />

Based Object Recognition and Segmentation in Cluttered Scenes. In: IEEE Transactions<br />

on Pattern Analysis and Machine Intelligence 28 (2006), Nr. 10, S. 1584–1601. –<br />

ISSN 0162–8828<br />

[Montemerlo u. a. 2002] Montemerlo, M. ; Thrun, S. ; Whittaker, W.: Conditional<br />

particle filters for simultaneous mobile robot localization and people-tracking. In: Proceedings<br />

IEEE International Conference on Robotics and Automation, IEEE, 2002, S.<br />

695–701<br />

[Müller 2007] Müller, Meinard: Information Retrieval for Music and Motion. Berlin<br />

and Heidelberg : Springer, 2007<br />

VII


Literaturverzeichnis<br />

[Neugebauer 1997] Neugebauer, Peter J.: Reconstruction of real-world objects via simultaneous<br />

registration and robust combination of multiple range images. In: International<br />

journal of shape modeling 3 (1997), Nr. 182, S. 71–90<br />

[Niemeier 2008] Niemeier, Wolfgang: Ausgleichungsrechnung: Statistische Auswertemethoden.<br />

2., überarb. und erw. Aufl. Berlin [u.a.] : De Gruyter, 2008 (De Gruyter<br />

Lehrbuch)<br />

[Oishi u. a. 2003] Oishi, T.;Sagawa, R.;Nakazawa, A.;Kurazume, R.;Ikeuchi,<br />

K.: Parallel alignment of a large number of range images. In: Fourth International<br />

Conference on 3-D Digital Imaging and Modeling, 2003, S. 195–202<br />

[Paffenholz 2012] Paffenholz, J.-A.: Beschreibung des WiF II-Projektes ”<strong>Raum</strong>zeit\-lich<br />

dich\-tes Monitoring von Pflanzenbeständen mittels Messrobotern”;<br />

http://www.dezernat4.uni-hannover.de/688.html (letzter Abruf: 07.10.2013). 2012<br />

[Paffenholz u. a. 2013] Paffenholz, J.-A. ; Huang, H.;Wiechers, D.;Wagner,<br />

C., Stützel, H ; Brenner, C. ; Sester, M.: Monitoring and modeling of plants by<br />

means of 3D point clouds (Manuskript in Vorbereitung). 2013<br />

[Paproki u. a. 2011] Paproki, Anthony ; Fripp, Jurgen ; Salvado, Olivier ; Sirault,<br />

Xavier ; Berry, Scott ; Furbank, Robert: Automated 3D Segmentation and Analysis<br />

of Cotton Plants. In: 2011 International Conference on Digital Image Computing:<br />

Techniques and Applications (DICTA), 2011, S. 555–560<br />

[Pfeifer u. a. 2007] Pfeifer, N. ; Dorninger, P.;Haring, A. ; Fan, H.: Investigating<br />

terrestrial laser scanning intensity data: quality and functional relations. 8th Conference<br />

on Optical 3-D Measurement Techniques. Zurich, 2007<br />

[Prim 1957] Prim, R. C.: Shortest connection networks and some generalizations. In:<br />

Bell System Technology Journal 36 (1957), S. 1389–1401<br />

[Prusinkiewicz u. Lindenmayer 1996] Prusinkiewicz, Przemyslaw ; Lindenmayer,<br />

Aris\-tid: The algorithmic beauty of plants. First soft cover printing. New York [u.a.] :<br />

Springer, 1996 (The virtual laboratory)<br />

VIII


Literaturverzeichnis<br />

[Rabbani u. a. 2007] Rabbani, Tahir ; Dijkman, Sander ; Heuvel, Frank van d. ; Vosselman,<br />

George: An integrated approach for modelling and global registration of point<br />

clouds. In: ISPRS Journal of Photogrammetry and Remote Sensing 61 (2007), Nr. 6,<br />

S. 355–370. – ISSN 09242716<br />

[Rao 1964] Rao, C. R.: The Use and Interpretation of Principal Component Analysis in<br />

Applied Research. In: Sankhya: The Indian Journal of Statistics 26 (1964), Nr. 4, S.<br />

329–358<br />

[Ren u. Malik 2003] Ren ; Malik: Learning a classification model for segmentation. In:<br />

9th International Conference on Computer Vision, 2003, S. 10–17 vol. 1<br />

[Roberts 1978] Roberts, Fred S.: CBMS-NSF regional conference series in applied mathematics.<br />

Bd. 29: Graph theory and its applications to problems of society. Philadelphia<br />

: Society for Industrial and Applied Mathematics, 1978<br />

[Schnabel u. a. 2007] Schnabel, R.;Wahl, R.;Klein, R.: Efficient RANSAC for Point-<br />

Cloud Shape Detection. In: Computer Graphics Forum 26 (2007), Nr. 2, S. 214–226. –<br />

ISSN 0167–7055<br />

[Shah 2006] Shah, Tahir R.: Publications on geodesy. Bd. 62: Automatic reconstruction of<br />

industrial installations using point clouds and images. Delft : Nederlandse Commissie<br />

voor Geodesie, 2006<br />

[Sima u. a. 2013] Sima, Mihai-Cotizo ; Nüchter, Andreas ; Wang, Yulin ; Tan, Liansheng<br />

; Zhou, Jianhong: An extension of the Felzenszwalb-Huttenlocher segmentation<br />

to 3D point clouds. In: Fifth International Conference on Machine Vision: Computer<br />

Vision, Image Analysis and Processing, SPIE, 2013<br />

[Szeliski 2010] Szeliski, R.: Computer Vision: Algorithms and Applications:<br />

http://szeliski.org/Book/ (letzter Abruf: 12.10.2013). 2010<br />

[Tomasi u. Manduchi 1998] Tomasi, C. ; Manduchi, R.: Bilateral filtering for gray and<br />

color images. In: IEEE 6th International Conference on Computer Vision, 1998, S.<br />

839–846<br />

IX


Literaturverzeichnis<br />

[Torr u. Zisserman 1998] Torr, P.;Zisserman, A.: Robust computation and parametrization<br />

of multiple view relations. In: IEEE 6th International Conference. 1998, S.<br />

727–732<br />

[Turner 1992] Turner, A. K.: NATO ASI Series, Series C: Mathematical and Physical<br />

Sciences. Bd. 354: Three-Dimensional Modeling with Geoscientific Information<br />

Systems. Dordrecht : Springer Netherlands, 1992<br />

[Ulén 2013] Ulén, J.: Multi-Region Segmentation Using Graph-Cuts:<br />

www.maths.lth.se/matematiklth/personal/petter/rapporter/multi-label.pdf; (letzter<br />

Abruf: 01.10.2013). 2013<br />

[Vosselman u. Maas 2010] Vosselman, G. ; Maas, Hans-Gerd: Airborne and terrestrial<br />

laser scanning. Dunbeath : Whittles Publishing, 2010<br />

[Wang u. a. 2004] Wang, Jue ; Thiesson, Bo ; Xu, Yingqing ; Cohen, Michael: Image<br />

and Video Segmentation by Anisotropic Kernel Mean Shift. In: Kanade, Takeo (Hrsg.):<br />

Computer Vision - ECCV 2004 Bd. 3022. Berlin and Heidelberg : Springer, 2004, S.<br />

238–249<br />

[Wang u. Shan 2009] Wang, Jun ; Shan, Jie: Segmentation of LiDAR point clouds for<br />

building extraction. In: ASPRS 2009 Annual Conference; Baltimore, Maryland (2009)<br />

[Welsch u. a. 2000] Welsch, W. ; Heunecke, Otto ; Kuhlmann, Heiner: Auswertung<br />

geodätischer Überwachungsmessungen. Heidelberg : Wichmann, 2000 (Handbuch Ingenieurgeodäsie)<br />

[Wendemuth u. Andelic 2004] Wendemuth, Andreas ; Andelic, Edin: Grundlagen der<br />

stochastischen Sprachverarbeitung. München : Oldenbourg, 2004<br />

[Wertheimer 1923] Wertheimer, Max: Untersuchungen zur Lehre von der Gestalt. II.<br />

In: Psychologische Forschung 4 (1923), Nr. 1, S. 301–350. – ISSN 0340–0727<br />

[Xinming u. a. 1994] Xinming,Y.;Bui,T.D.;Krzyzak, A.: Robust estimation for range<br />

image segmentation and reconstruction. In: IEEE Transactions on Pattern Analysis and<br />

Machine Intelligence 16 (1994), Nr. 5, S. 530–538. – ISSN 01628828<br />

X


Literaturverzeichnis<br />

[Yokoya u. Levine 1989] Yokoya, N. ; Levine, M. D.: Range image segmentation based<br />

on differential geometry: a hybrid approach. In: IEEE Transactions on Pattern Analysis<br />

and Machine Intelligence 11 (1989), Nr. 6, S. 643–649. – ISSN 01628828<br />

[Zahn 1971] Zahn, C. T.: Graph-Theoretical Methods for Detecting and Describing<br />

Gestalt Clusters. In: IEEE Transactions on Computers C-20 (1971), Nr. 1, S. 68–86. –<br />

ISSN 0018–9340<br />

[Zhan u. Yu 2012] Zhan, Qingming ; Yu, Liang: Segmentation of LiDAR Point Cloud<br />

Based on Similarity Measures in Multi-dimension Euclidean Space. In: Zeng, Dehuai<br />

(Hrsg.): Advances in Computer Science and Engineering Bd. 141. Berlin and Heidelberg<br />

: Springer, 2012, S. 349–357<br />

XI


Abbildungsverzeichnis<br />

1.1 Zwei der Gestaltprinzipien: Prinzip der Nähe (links); Prinzip der Ähnlichkeit<br />

(rechts) (nach Wertheimer (1923)) . . . . . . . . . . . . . . . . . . . . 2<br />

1.2 Messergebnis der Aufnahme einer Gurkenpflanze mit dem am IKG entwickelten<br />

MSS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3<br />

2.1 Multi-Sensorsystem<br />

[Paffenholz u.a. (2013)] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7<br />

2.2 Messkonfiguration [Paffenholz u. a. (2013)] . . . . . . . . . . . . . . . . . . 8<br />

2.3 Berechnung eines Spin-Images [Johnson u. Hebert (1999)] . . . . . . . . . . 11<br />

2.4 Berechnung eines Tensors (Ausschnitt aus [Mian u. a. (2006)]) . . . . . . . 12<br />

2.5 Schematischer Überblick über den Registrierungsvorgang [Paffenholz u. a.<br />

(2013)] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14<br />

3.1 Kantentypen in Tiefenbildern: Jump-Edge (links); Crease-Edge (Mitte);<br />

Smooth-Edge (rechts) (nach Krishnapuram u. Gupta (1992)) . . . . . . . . 21<br />

3.2 Beispielgraphen: ungerichteter Graph (links); gerichteter Graph (rechts)<br />

(nach Roberts (1978)) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33<br />

3.3 Beispielgraphen: Pfad in einem Graphen (links); Zyklus in einem Graphen<br />

(rechts) (nach Lézoray u. Grady (2012)) . . . . . . . . . . . . . . . . . . . 34<br />

3.4 Beispielgraphen: verbundener Graph (links); nicht verbundener Graph (rechts)<br />

(nach Roberts (1978)) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34<br />

3.5 Spannbäume (nach Zahn (1971)) . . . . . . . . . . . . . . . . . . . . . . . 35<br />

3.6 Interpretation eines Bildes als Graph: Ausschnitt eines Grauwertbildes (links);<br />

auf Vierernachbarschaft basierender Grid-Graph (Mitte); auf Achternachbarschaft<br />

basierender Grid-Graph (rechts) (nach Malmberg (2011)) . . . . 35<br />

XIII


3.7 Unterteilung von Eingangsbildern in unterschiedlich große Superpixel [Achanta<br />

u.a. (2012)] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37<br />

3.8 Motivation für ein adaptives <strong>Segmentierung</strong>skriterium: Originalbild [Felzenszwalb<br />

u. Huttenlocher (2004)] (links); menschliche Wahrnehmung des<br />

Bildes (rechts) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38<br />

3.9 Grid-Graph für eine raum-<strong>zeitliche</strong> <strong>Segmentierung</strong> (nach Malmberg (2011)) 44<br />

3.10 Zeitliche Zuordnung zweier Sequenzen X und Y [Müller (2007)] . . . . . . 46<br />

3.11 Dynamische Programmierung zur Durchführung des DTW: beispielhafte<br />

Kostenmatrix (links); dazugehörige akkumulierte Kostenmatrix (rechts)<br />

[Müller (2007)] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47<br />

4.1 Gurkenpflanze (Aufnahme: Paffenholz) . . . . . . . . . . . . . . . . . . . . 50<br />

4.2 Ausgangsdaten der Aufnahme E1 08 (sPos 0 ◦ ): Intensitätsbild (links); Distanzbild<br />

(rechts) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53<br />

4.3 Ausgangsdaten der Aufnahme E1 08 (sPos 0 ◦ ) nach Einschränkung des<br />

Sichtfeldes: Intensitätsbild (Ausschnitt) (links); Distanzbild (Ausschnitt)<br />

(rechts) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53<br />

4.4 RGB-Daten der Aufnahme E1 08 : RGB-Bild (sPos 0 ◦ ) (links); eingefärbte<br />

Punktwolke aller drei Aufnahmerichtungen (rechts) . . . . . . . . . . . . . 54<br />

4.5 Vergrößerter Ausschnitt des Tiefenbildes der Aufnahme E1 08 (sPos 0 ◦ ) . . 57<br />

4.6 Lokale Normalenvektoren der Aufnahme E1 08 (sPos 0 ◦ ); w =0.5, z =0.95,<br />

r =2cm: Schwellwert ɛ R = 12 mm (links); Schwellwert ɛ R =6mm (rechts) 59<br />

4.7 Glättung der Rohdaten mit Hilfe des Bilateralfilters: ungeglättete Punktwolke<br />

(links); geglättete Punktwolke (rechts) . . . . . . . . . . . . . . . . . 61<br />

4.8 Unstimmigkeiten in den Überlappungsbereichen der Aufnahmen zweier Scanpositionen<br />

(rot bzw. grün eingefärbt) nach der Glättung der Rohdaten mit<br />

Hilfe des Bilateralfilters: ungeglättete Punktwolke (links); geglättete Punktwolke<br />

(rechts) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62<br />

4.9 Anwendung eines 3-D-Mittelwertfilters: Prinzip (links); Blattflächenverkleinerung<br />

in Folge der Glättung (gelb: Ausschnitt aus der ungeglätteten<br />

Punktwolke, hellblau: Ausschnitt aus der geglätteten Punktwolke) (rechts) 63<br />

XIV


4.10 Glättung der Rohdaten mit Hilfe eines 3-D-Mittelwertfilters: ungeglättete<br />

Punktwolke (links); geglättete Punktwolke (rechts) . . . . . . . . . . . . . 63<br />

4.11 Glättung der Rohdaten in Richtung der lokalen Normalenvektoren: ungeglättete<br />

Punktwolke (links); geglättete Punktwolke (rechts) . . . . . . . . 65<br />

4.12 RGB-Bilder der Aufnahme E1 08 : Scanposition sPos 120 ◦ (links); Scanposition<br />

sPos 240 ◦ (rechts) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66<br />

4.13 Extraktion der Kiste: Hue-Werte der Aufnahme E1 08 , sPos 240 ◦ (links);<br />

Kiste mit aufliegender Styroporplatte (Aufnahme: Paffenholz) (rechts) . . . 67<br />

4.14 Extraktion einer Seitenwand der Kiste (blau: Ausgangspunktwolke, rot:<br />

Ergebnisebene, grün: extrahierte Punkte): einfacher RANSAC (links), modifizierter<br />

RANSAC (rechts) . . . . . . . . . . . . . . . . . . . . . . . . . . 69<br />

4.15 Extraktion aller vier Seitenwände der Kiste (blau: Ausgangspunktwolke,<br />

rot: Ergebnisebenen, grün: extrahierte Punkte) . . . . . . . . . . . . . . . . 70<br />

4.16 Einfluss der Nachbarschaftsgröße auf das <strong>Segmentierung</strong>sergebnis (Aufnahme<br />

E1 08 ): r 1 =5mm (links); r 2 = 10 mm (Mitte); r 3 = 15 mm (rechts);<br />

(Vergrößerte Darstellung in Abbildung A1) . . . . . . . . . . . . . . . . . . 72<br />

4.17 Ergebnisse der <strong>Segmentierung</strong>, basierend auf der spektralen Information<br />

(Aufnahme E1 08 ): w I (links), w RGB (rechts);<br />

(Vergrößerte Darstellung in Abbildung A2) . . . . . . . . . . . . . . . . . . 74<br />

4.18 Detektion von Tiefensprüngen in der 3-D-Punktwolke: Prinzip (links); Übersegmentierung<br />

bei starken Blattkrümmungen (Mitte); Untersegmentierung<br />

bei Blattberührungen (rechts) . . . . . . . . . . . . . . . . . . . . . . . . . 75<br />

4.19 Ergebnisse der <strong>Segmentierung</strong>, basierend auf der geometrischen Information<br />

(Aufnahme E1 08 ): w d (links), w NV (rechts);<br />

(Vergrößerte Darstellung in Abbildung A2) . . . . . . . . . . . . . . . . . . 76<br />

4.20 Einfluss der Konstante κ auf das <strong>Segmentierung</strong>sergebnis (Aufnahme E1 08 ):<br />

κ 1 =0, 1 (links); κ 2 =0, 6 (Mitte); κ 3 = 1 (rechts);<br />

(Vergrößerte Darstellung in Abbildung A3) . . . . . . . . . . . . . . . . . . 78<br />

XV


4.21 Durchführung der Oberflächenschätzung: Einschränkung der verwendeten<br />

Punkte (blau: Segment S i , hellblau: Untermenge von S i (S isub ), grün: Nachbarsegment<br />

S j ) (links); Ergebnis der Oberflächenschätzung nach Drixler<br />

(1993) (rechts) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82<br />

4.22 Ergebnis der Oberflächenschätzung nach Alenya u. a. (2011) . . . . . . . . 84<br />

4.23 Ergebnis des oberflächenbasierten Region-Mergings: (blau: Segment S i , rot:<br />

Nachbarsegmente, die S i zugeordnet werden, grün: Nachbarsegmente, die<br />

S i nicht zugeordnet werden) . . . . . . . . . . . . . . . . . . . . . . . . . . 86<br />

4.24 Motivation für einen kantenbasierten Ansatz: Grenzkante zweier Segmente,<br />

die sich berührenden Blättern angehören (Hellblau), und Grenzkante zweier<br />

Segmente desselben Blattes (Gelb) . . . . . . . . . . . . . . . . . . . . . . 87<br />

4.25 Bestimmung der Segmentränder: Initialisierung (blau: Beispielsegment, rot:<br />

Initialisierungspunkte, grün: Hilfsebene) (links); Unterteilung der Punktwolke<br />

in zwei Punktmengen (gelb: P B , grün: P R ) (rechts) . . . . . . . . . . 88<br />

4.26 Randbestimmung: schematische Darstellung des Prinzips (links); Ergebnis<br />

mit ɛ DP = 15 mm (rechts) . . . . . . . . . . . . . . . . . . . . . . . . . . . 89<br />

4.27 Kantenbasiertes Region-Merging: Grenzkante im <strong>Raum</strong> (rot: Randpunkte<br />

des blau eingefärbten Segmentes S i , magenta: Randpunkte des grün<br />

eingefärbten Nachbarsegmentes) (links); Ergebnis (blau: Segment S i , rot:<br />

Nachbarsegmente, die S i aufgrund des oberflächenbasierten Ansatzes zugeordnet<br />

werden, gelb: Nachbarsegmente, die S i aufgrund des kantenbasierten<br />

Ansatzes zugeordnet werden, grün: Nachbarsegmente, die S i nicht zugeordnet<br />

werden) (rechts) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91<br />

4.28 Schwierigkeiten beim kantenbasierten Region-Merging: Grenzkante zweier<br />

fälschlicherweise zusammengefügter Segmente (links); Ergebnis nach Einführung<br />

einer Restriktion (blau: Segment S i , rot: Nachbarsegmente, die S i aufgrund<br />

des oberflächenbasierten Ansatzes zugeordnet werden, gelb: Nachbarsegmente,<br />

die S i aufgrund des kantenbasierten Ansatzes zugeordnet werden,<br />

grün: Nachbarsegmente, die S i nicht zugeordnet werden) (rechts) . . . . . . 92<br />

XVI


4.29 Segmentierte Punktwolke der Aufnahme E1 08 : Gesamte Punktwolke (links);<br />

segmentierte Blätter (rechts);<br />

(Vergrößerte Darstellung in Abbildung A4) . . . . . . . . . . . . . . . . . . 95<br />

4.30 Übersegmentierte Blätter der Aufnahme E4 08 . . . . . . . . . . . . . . . . 96<br />

4.31 Beispielhaft ausgewählte segmentierte Blätter: mit Darstellung der Störklasse<br />

(links); ohne Darstellung der Störklasse (rechts) . . . . . . . . . . . . . . 98<br />

4.32 Segmentierte Punktwolke der Aufnahme E1 23 : gesamte Punktwolke (links);<br />

segmentierte Blätter (rechts);<br />

(Vergrößerte Darstellung in Abbildung A5) . . . . . . . . . . . . . . . . . . 98<br />

4.33 Übersegmentierte Blätter der Aufnahme E1 23 , frontale Blickrichtung auf<br />

Beispielblatt 1 (links); Blickrichtung von oben auf Beispielblatt 2 (rechts) . 99<br />

4.34 Schematisch dargestellter Verlauf der Laserstrahlen bei annähernd horizontal<br />

ausgerichteten Blättern . . . . . . . . . . . . . . . . . . . . . . . . . . . 100<br />

4.35 Aufteilung eines Segmentes von einer räumlichen <strong>Segmentierung</strong> zur nächsten:<br />

<strong>Segmentierung</strong>sergebnis der Aufnahme E1 08 (links); <strong>Segmentierung</strong>sergebnis<br />

der Aufnahme E2 08 (rechts) . . . . . . . . . . . . . . . . . . . . . . . . 102<br />

4.36 Offset in der Z-Koordinate zweier zu verschiedenen Zeitpunkten aufgenommenen<br />

Punktwolken . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103<br />

4.37 Zeitliche Registrierung: Bestimmung der Kisten-Eckpunkte (links); Ergebnis<br />

(rechts) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104<br />

4.38 Ergebnis der <strong>zeitliche</strong>n <strong>Segmentierung</strong> bei kurzen Zeitabständen: Aufnahme<br />

E1 08 (links); Aufnahme E2 08 (rechts) . . . . . . . . . . . . . . . . . . . 108<br />

4.39 Ergebnis der <strong>zeitliche</strong>n <strong>Segmentierung</strong> bei langen Zeitabständen: Aufnahme<br />

E1 08 (links); Aufnahme E1 23 (rechts) . . . . . . . . . . . . . . . . . . . . . 109<br />

4.40 Ergebnisse der manuellen Digitalisierung von charakteristischen Punkten<br />

einer Gurkenpflanze: Modell vom 08.05.2013 (links); Modell vom 23.05.2013<br />

(rechts) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112<br />

4.41 Ergebnisse der manuellen Digitalisierung von charakteristischen Punkten<br />

einer Gurkenpflanze: Modell vom 08.05.2013 (links); Modell vom 23.05.2013<br />

(rechts) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113<br />

XVII


5.1 α-Shapes eines beispielhaft ausgewählten Ergebnissegmentes: α 1 = 10 mm<br />

(links); α 2 = 20 mm (Mitte); α 3 = 50 mm (rechts) . . . . . . . . . . . . . . 116<br />

5.2 α-Shapes eines beispielhaft ausgewählten Ergebnissegmentes: ungeglättete<br />

Punktwolke (links); geglättete Punktwolke (rechts) . . . . . . . . . . . . . 117<br />

5.3 Gegenüberstellung der vermaschten Punktwolke und des Digitizer-Modells:<br />

vermaschte Punktwolke vom 08.05.2013 (links); Digitizer-Modell vom 08.05.2013<br />

(rechts) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117<br />

5.4 Vergleich eines Blattes aus dem Digitizer-Modell (rot eingefärbt) mit demselben<br />

segmentierten Blatt (dargestellt in Grautönen) . . . . . . . . . . . . 118<br />

5.5 Durch die Vermaschung verursachten Abweichungen in den Blattflächen . . 121<br />

A1 Einfluss der Nachbarschaftsgröße auf das <strong>Segmentierung</strong>sergebnis (Aufnahme<br />

E1 08 ): r 1 =5mm (links); r 2 = 10 mm (Mitte); r 2 = 15 mm (rechts);<br />

(Vergrößerte Darstellung) . . . . . . . . . . . . . . . . . . . . . . . . . . . XXVI<br />

A2 Ergebnisse der <strong>Segmentierung</strong>, basierend auf der spektralen und der geometrischen<br />

Information (Aufnahme E1 08 ); von links nach rechts: w I , w RGB ,<br />

w d , w NV ; (Vergrößerte Darstellung) . . . . . . . . . . . . . . . . . . . . . . XXVII<br />

A3 Einfluss der Konstante κ auf das <strong>Segmentierung</strong>sergebnis (Aufnahme E1 08 ):<br />

κ 1 =0, 1 (links); κ 2 =0, 6 (Mitte); κ 3 = 1 (rechts); (Vergrößerte Darstellung)XXVIII<br />

A4 Segmentierte Punktwolke der Aufnahme E1 08 : Gesamte Punktwolke (links);<br />

Punktwolke ohne Störklasse (rechts); (Vergrößerte Darstellung) . . . . . . . XXIX<br />

A5 Segmentierte Punktwolke der Aufnahme E1 23 : Gesamte Punktwolke (links);<br />

segmentierte Blätter (rechts); (Vergrößerte Darstellung) . . . . . . . . . . XXX<br />

A6 Ergebnis des Region-Mergins (E1 08 ) (a): Blatt 1 (links); Blatt 2 (rechts) . XXXI<br />

A7 Ergebnis des Region-Mergins (E1 08 ) (b): Blatt 3 (links); Blatt 4 (rechts) . XXXI<br />

A8 Ergebnis des Region-Mergins (E1 08 ) (c): Blatt 5 (links); Blatt 6 (rechts) . . XXXII<br />

A9 Ergebnis des Region-Mergins (E1 08 ) (d): Blatt 7 (links); Blatt 8 (rechts) . XXXII<br />

A10 Ergebnis des Region-Mergins (E1 08 ) (e): Blatt 9 (links); Blatt 10 (rechts) . XXXII<br />

A11 Ergebnisse der <strong>Segmentierung</strong>; Von links nach rechts die Datensätze E1 08 ,<br />

E2 08 , E4 08 , E5 08 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . XXXIII<br />

A12 Ergebnisse der <strong>Segmentierung</strong>; Von links nach rechts die Datensätze E2 23 ,<br />

E3 23 , E4 23 , E5 23 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . XXXIV<br />

XVIII


A13 Ergebnisse der <strong>zeitliche</strong>n <strong>Segmentierung</strong>; Von links nach rechts die Datensätze<br />

E1 08 , E2 08 , E4 08 , E5 08<br />

. . . . . . . . . . . . . . . . . . . . . . . . XXXV<br />

XIX


Tabellenverzeichnis<br />

4.1 Verwendete Datensätze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52<br />

4.2 Anzahl der Nachbarn in Abhängigkeit vom verwendeten Radius r . . . . . 71<br />

5.1 Gegenüberstellung der Blattflächen des Digitzer-Modells A D und der Blattflächen<br />

der segmentierten Gurkenblätter bei Verwendung der ungeglätteten<br />

(A Su ) bzw. der geglätteten Punktwolke (A Sg ) . . . . . . . . . . . . . . . . . 119<br />

5.2 Vergleich der Blattflächen der unterschiedlichen Aufnahmen des Messtages<br />

08.05.2013 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121<br />

XXI


Abkürzungsverzeichnis<br />

BMBF:<br />

DTW:<br />

GPS:<br />

ICP:<br />

IGPS:<br />

IKG:<br />

IMU:<br />

MkQ:<br />

MSAC:<br />

MSS:<br />

MST:<br />

NURBS:<br />

PCA:<br />

RANSAC:<br />

SLAM:<br />

TSP:<br />

VKM:<br />

Bundesministerium für Bildung und Forschung<br />

Dynamic Time Warping<br />

Global Positioning System<br />

Iterative Closest Point<br />

Institut für Gartenbauliche Produktionssysteme<br />

Institut für Kartographie und Geoinformatik<br />

Inertial Measurement Unit<br />

Methode der kleinsten Quadrate<br />

M-Estimator Sample Consensus<br />

Multi-Sensorsystem<br />

Minimal Spanning Tree<br />

Non-uniform rational B-Splines<br />

Principal Component Analysis<br />

Random Sample Consensus<br />

Simultaneous Localization and Mapping<br />

Traveling Salesman Problem<br />

Varianz-Kovarianz-Matrix<br />

XXIII


Anhang<br />

A Ergänzende Abbildungen<br />

Zusätzlich zu den Darstellungen innerhalb der Arbeit werden im Folgenden ergänzende<br />

Abbildungen aufgeführt: In den Abbildungen A1 bis A5 befinden sich die vergrößerten<br />

Darstellungen der segmentierten Punktwolken, die sich in den jeweiligen Kapiteln in kleinerer<br />

Ausführung befinden.<br />

Die Abbildungen A6 bis A10 zeigen für jedes Blatt des Datensatzes E1 08 das Ergebnis des<br />

Region-Mergings: Die rot eingefärbten Punkte werden aufgrund des oberflächenbasierten<br />

Ansatzes dem in Blau dargestellten Segment zugeordnet. Alle gelb eingefärbten Punkte<br />

werden aufgrund des kantenbasierten Ansatzes als zugehörig erkannt, während für die<br />

grün dargestellten Segmente beide Nullhypothesen verworfen werden.<br />

Die endgültigen <strong>Segmentierung</strong>sergebnisse sind in der Arbeit nur beispielhaft an ausgewählten<br />

Datensätzen dargestellt. Ergänzend dazu befinden sich die Ergebnisse der<br />

räumlichen <strong>Segmentierung</strong> für alle verwendeten Datensätze in den Abbildungen A11 und<br />

A12, sowie die gesamte segmentierte Zeitreihe des Datensatzes vom 08.05.2013 in der<br />

Abbildung A13.<br />

XXV


Vergrößerte Abbildungen<br />

Abb. A1: Einfluss der Nachbarschaftsgröße auf das <strong>Segmentierung</strong>sergebnis (Aufnahme E108): r1 =5mm (links); r2 = 10 mm (Mitte);<br />

r2 = 15 mm (rechts); (Vergrößerte Darstellung)<br />

XXVI


Abb. A2: Ergebnisse der <strong>Segmentierung</strong>, basierend auf der spektralen und der geometrischen Information (Aufnahme E108); von links<br />

nach rechts: wI, wRGB, wd, wNV ; (Vergrößerte Darstellung)<br />

XXVII


Abb. A3: Einfluss der Konstante κ auf das <strong>Segmentierung</strong>sergebnis (Aufnahme E108): κ1 =0, 1 (links); κ2 =0, 6 (Mitte); κ3 =1<br />

(rechts); (Vergrößerte Darstellung)<br />

XXVIII


Abb. A4: Segmentierte Punktwolke der Aufnahme E108: Gesamte Punktwolke (links); Punktwolke ohne Störklasse (rechts); (Vergrößerte<br />

Darstellung)<br />

XXIX


Abb. A5: Segmentierte Punktwolke der Aufnahme E123: Gesamte Punktwolke (links); segmentierte Blätter (rechts); (Vergrößerte<br />

Darstellung)<br />

XXX


Ergebnisse des Region-Mergings<br />

Abb. A6: Ergebnis des Region-Mergins (E1 08 ) (a): Blatt 1 (links); Blatt 2 (rechts)<br />

Abb. A7: Ergebnis des Region-Mergins (E1 08 ) (b): Blatt 3 (links); Blatt 4 (rechts)<br />

XXXI


Abb. A8: Ergebnis des Region-Mergins (E1 08 ) (c): Blatt 5 (links); Blatt 6 (rechts)<br />

Abb. A9: Ergebnis des Region-Mergins (E1 08 ) (d): Blatt 7 (links); Blatt 8 (rechts)<br />

Abb. A10: Ergebnis des Region-Mergins (E1 08 ) (e): Blatt 9 (links); Blatt 10 (rechts)<br />

XXXII


Ergebnisse der räumlichen <strong>Segmentierung</strong><br />

Abb. A11: Ergebnisse der <strong>Segmentierung</strong>; Von links nach rechts die Datensätze E108, E208, E408, E508<br />

XXXIII


XXXIV<br />

Abb. A12: Ergebnisse der <strong>Segmentierung</strong>; Von links nach rechts die Datensätze E223, E323, E423, E523


Ergebnisse der <strong>zeitliche</strong>n <strong>Segmentierung</strong><br />

Abb. A13: Ergebnisse der <strong>zeitliche</strong>n <strong>Segmentierung</strong>; Von links nach rechts die Datensätze E108, E208, E408, E508<br />

XXXV


B Matlab-Skripte<br />

Sämtliche Berechnungen dieser Arbeit wurden mit Matlab (R2013a) durchgeführt. Auf<br />

dem beiliegenden Datenträger befinden sich die entsprechenden Matlab-Skripte sowie die<br />

gemessenen Datensätze, die den Berechnungen zugrunde liegen ( ”<br />

g1w1 08.mat“ sowie<br />

g1w1 23.mat“). Die Hauptfunktion main.m berechnet sowohl die räumliche als auch die<br />

”<br />

<strong>zeitliche</strong> <strong>Segmentierung</strong>. Alle hierfür geschriebenen Funktionen, die in dieser Hauptfunktion<br />

aufgerufen werden, sind in den entsprechenden Matlab-Skripten beschrieben.<br />

Neben den Matlab-Skripten befindet sich auf dem Datenträger die digitale Version dieser<br />

Arbeit.<br />

XXXVII

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!