PDF 8.939kB - Hochschule Ulm

hs.ulm.de

PDF 8.939kB - Hochschule Ulm

Masterarbeit zur Erlangung des Abschlusses Master of Engineering“ ” an der Hochschule Ulm Fakultät Elektrotechnik und Informationstechnik Thema Messung der Strömungsgeschwindigkeit von Wasser mittels Bildpaar- und Bildsequenzanalyse Erstgutachter: Prof. Dr. Günter Gramlich Zweitgutachter: Prof. Dr. Wolfgang Schroer vorgelegt von: Julian Paar Matrikelnummer: 3104930 Studiengang: Systems Engineering und Management Schwerpunkt: Electrical Engineering Abgabedatum: 09.01.2012


Zusammenfassung Im Rahmen dieser Arbeit wird die Anwendbarkeit der Bildpaar- und Bildsequenzanalyse auf die Messung von Strömungsgeschwindigkeit von Wasser hin untersucht. Neben dem Aufbau einer geeigneten Messeinrichtung und Auswahl der notwendigen Komponenten werden die aufgenommenen Bildsequenzen durch jeweils eine repräsentative Methode der Bildpaar- und Bildsequenzanalyse ausgewertet. Hierfür wurden in dieser Arbeit das Verfahren der Particle Image Velocimetry sowie der (Multi-) Objektverfolgung mit Hilfe eines Kalman-Filters implementiert. Diese Implementierung und die Ergebnisse der Auswertung werden dargelegt und diskutiert. ii


Erklärung Ich, Julian Paar, versichere, dass ich die vorliegende Masterarbeit selbstständig und nur unter Verwendung der angegebenen Quellen und Hilfsmittel angefertigt habe. Ulm, den 09.01.2012 Julian Paar iii


Vorwort und Danksagung Die vorliegende Arbeit entstand am Institut für angewandte Forschung der Hochschule Ulm im Zuge des Studiengangs Systems Engineering und Management im Schwerpunkt Electrical Engineering der Fakultät Elektrotechnik und Informationstechnik. Herrn Prof. Dr. Günter Gramlich möchte ich für die Betreuung und Förderung dieser Arbeit sowie dem mir eingeräumten Freiraum herzlich danken. Auch Herrn Prof. Dr. Wolfgang Schroer danke ich für die Übernahme des Zweitgutachtens und dem fachlichen Interesse an meiner Arbeit. Im Weiteren gilt mein Dank Herrn Manuel Haide und Herrn Manuel Tobler für viele interessante Diskussion zum Thema. Herrn Julian Adam und Herrn Sebastian Herr danke ich für ihre tatkräftige Unterstützung beim Aufbau des Versuchsträgers und der Aufnahme der Messreihen. Auch gilt mein Dank Herrn Julian Werlein für die Gestaltung des Umschlags. Zu guter Letzt möchte ich mich bei meinen Korrekturlesern sowie bei allen ungenannten Personen, die mich während dieser Arbeit unterstützt haben, herzlich bedanken. iv


Inhaltsverzeichnis Zusammenfassung Erklärung Vorwort und Danksagung ii iii iv 1 Einleitung 1 1.1 Bewegungsanalsyse durch digitale Bildverarbeitung . . . . . . . . . . . . . . . 1 1.2 Gliederung der Arbeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 2 Verfahren der Bildverarbeitung 3 2.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 2.2 Definitionen und Grundlagen . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 2.2.1 Bildrepräsentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 2.2.2 Diskrete Geometrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 2.2.3 Quantisierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 2.2.4 Klassifizierung von Bildern . . . . . . . . . . . . . . . . . . . . . . . . 6 2.2.5 Grauwertprofil und Histogramm . . . . . . . . . . . . . . . . . . . . . 7 2.2.6 Bilddarstellungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 2.3 Bildpunktoperationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 2.3.1 Homogene Punktoperationen . . . . . . . . . . . . . . . . . . . . . . . 9 2.3.2 Lineares Dehnen und Clipping . . . . . . . . . . . . . . . . . . . . . . 10 2.3.3 Inhomogene Punktoperationen . . . . . . . . . . . . . . . . . . . . . . 12 2.4 Segmentierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 2.4.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 2.4.2 Pixelorientierte Segmentierung . . . . . . . . . . . . . . . . . . . . . . 15 2.5 Formanalyse durch morphologische Operatoren . . . . . . . . . . . . . . . . . 16 2.5.1 Morphologische Operationen . . . . . . . . . . . . . . . . . . . . . . . 16 2.5.2 Opening und Closing . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 2.5.3 Extraktion von Rändern: . . . . . . . . . . . . . . . . . . . . . . . . . 18 2.5.4 Repräsentation der Form . . . . . . . . . . . . . . . . . . . . . . . . . 19 2.5.5 Formparameter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 v


Inhaltsverzeichnis 3 Particle Image Velocimetry 22 3.1 Versuchsaufbau und grundlegende Eigenschaften . . . . . . . . . . . . . . . . 22 3.2 Aufnahmetechniken . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 3.3 PIV-Auswerteverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 3.3.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 3.3.2 Kreuzkorrelation als Ähnlichkeitsmaß . . . . . . . . . . . . . . . . . . 27 3.3.3 MQD als Ähnlichkeitsmaß . . . . . . . . . . . . . . . . . . . . . . . . . 28 3.3.4 Suchstrategie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 3.3.5 Position des Extremwertes . . . . . . . . . . . . . . . . . . . . . . . . . 30 3.3.6 Nachbearbeitung der PIV-Daten . . . . . . . . . . . . . . . . . . . . . 31 3.3.7 Interpolation fehlender Datenpunkte . . . . . . . . . . . . . . . . . . . 33 4 Objektverfolgung 34 4.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 4.2 Kalman Filter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 4.2.1 Prädiktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 4.2.2 Aktualisierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 4.3 Weitere Zustandsschätzer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37 4.4 Datenassoziation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 4.4.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 4.4.2 Datenausschluss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 4.4.3 Datenzuweisung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 5 Allgmeiner Versuchsaufbau 41 5.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41 5.2 Komponenten des Versuchsaufbaus . . . . . . . . . . . . . . . . . . . . . . . . 42 5.3 Abbildungsfehler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 6 Versuchauswertung mittels PIV- Verfahren 47 6.1 Spezifischer Versuchsaufbau . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 6.2 Versuchsauswertung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48 6.2.1 Ablauf der Auswertung . . . . . . . . . . . . . . . . . . . . . . . . . . 48 6.2.2 Aufteilung in Einzelbilder und Vorverarbeitung . . . . . . . . . . . . . 48 6.2.3 Bestimmung des Verschiebungsvektorfeldes . . . . . . . . . . . . . . . 51 6.2.4 Auswahl der Region of Interest . . . . . . . . . . . . . . . . . . . . . . 53 6.2.5 Korrektur der x-Komponenten . . . . . . . . . . . . . . . . . . . . . . 54 6.2.6 Validierung der Daten . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 6.2.7 Berechnung von Amplitude und Phase . . . . . . . . . . . . . . . . . . 55 6.3 Versuchsergebnisse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56 Masterarbeit Julian Paar vi


Inhaltsverzeichnis 6.3.1 Umrechnung in reale Geschwindigkeiten . . . . . . . . . . . . . . . . . 56 6.3.2 Geschwindigkeitsprofil . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 6.3.3 Einfluss der Anzahl von Bildpaarvergleichen . . . . . . . . . . . . . . . 58 6.3.4 Einfluss der Größe der Analysefelder . . . . . . . . . . . . . . . . . . . 59 6.4 Fazit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61 7 Versuchauswertung mittels Objekverfolgung 63 7.1 Spezifischer Versuchsaufbau . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63 7.2 Ablauf der Auswertung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63 7.3 Segmentierung und Merkmalsextraktion . . . . . . . . . . . . . . . . . . . . . 64 7.4 Objektverfolgung mit Kalman-Filter . . . . . . . . . . . . . . . . . . . . . . . 67 7.4.1 Bestimmung der Systemmatrizen . . . . . . . . . . . . . . . . . . . . . 67 7.4.2 Gestaltung des Filtersystems . . . . . . . . . . . . . . . . . . . . . . . 68 7.4.3 Bewegungsklassifizierung . . . . . . . . . . . . . . . . . . . . . . . . . 69 7.4.4 Ablauf der Objektverfolgung . . . . . . . . . . . . . . . . . . . . . . . 71 7.4.5 Datenassoziation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 7.4.6 Datenverwaltung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73 7.5 Versuchsergebnisse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74 7.5.1 Verfolgung einzelner Partikel . . . . . . . . . . . . . . . . . . . . . . . 74 7.5.2 Verfolgung mehrerer Partikel . . . . . . . . . . . . . . . . . . . . . . . 76 7.5.3 Auswertung der Geschwindigkeit . . . . . . . . . . . . . . . . . . . . . 77 7.5.4 Validierung der ermittelten Geschwindigkeit . . . . . . . . . . . . . . . 79 7.6 Fazit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80 8 Fazit 82 8.1 Vergleich der Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82 8.2 Ausblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83 A Weitere Darstellungen der Versuchsergebnisse 85 A.1 PIV-Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85 A.1.1 Darstellung der Geschwindigkeit bei 1056 Messpunkten . . . . . . . . 85 A.1.2 Darstellung der Geschwindigkeit bei 234 Messpunkten . . . . . . . . . 87 A.2 Objektverfolgung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91 A.2.1 Darstellung der Geschwindigkeit bei Pumpenspannung 120 V . . . . . 91 A.2.2 Darstellung der Geschwindigkeit bei Pumpenspannung 130 V . . . . . 93 A.2.3 Darstellung der Geschwindigkeit bei Pumpenspannung 150 V . . . . . 95 B Weitere Aufnahmen des Versuchaufbaus 97 Abbildungsverzeichnis 99 Masterarbeit Julian Paar vii


Inhaltsverzeichnis Tabellenverzeichnis 102 Literaturverzeichnis 103 Einzelbildnachweis 106 Masterarbeit Julian Paar viii


1 Einleitung 1.1 Bewegungsanalsyse durch digitale Bildverarbeitung Die Detektion und Analyse von sich bewegenden Objekten in Bildsequenzen durch Methoden der digitalen Bildverarbeitung hat sich in den letzten Jahren zu einer wichtigen Technologie mit Einsatz in vielen wissenschaftlichen und technischen Anwendungen entwickelt. Das Anwendungsspektrum ist vielfältig und reicht von der Untersuchung von Fließ- und Transportprozessen, Wachstumsprozessen in der Biologie über die Steuerung von Prozessabläufen in der Industrie, der Verkehrsüberwachung bis hin zur Steuerung autonomer Roboter. Man kann sagen, dass alle dynamischen Vorgänge, die zeitliche Veränderung bewirken, die sichtbar gemacht werden können, potenzielle Aufgaben für die Bildsequenzanalyse sind.“[20, ” Kapitel 14.1] Die Detektion von Bewegung in der Bildanalyse basiert auf einer zeitlichen Grauwertveränderung und der daraus resultierenden Disparität zwischen Objekten in zwei aufeinanderfolgenden Bildern. Man unterscheidet dabei grundsätzlich zwei verschiedene Ansätze: 1. Bildpaaranalyse: Die Bildpaaranalyse vergleicht gemäß ihres Namens nur zwei aufeinanderfolgende Bilder. Die zugehörigen Verfahren beschäftigen sich hauptsächlich damit, eine korrekte Zuweisung zwischen Bildteilen zweier Folgebilder zu ermitteln. Typischerweise wird diese Aufgabenstellung durch Korrelationsverfahren oder differentielle Verfahren (z.B. Optischer Fluss [20, Kapitel 14.2.6]) gelöst. 2. Bildsequenzanalyse: Die Bildsequenzanalyse erweitert die Analyse auf mehrere aufeinanderfolgende Bilder. Es entsteht dabei ein mehrdimensionaler Raum, der über einer Zeitkonstante und den Bildkoordinaten aufgespannt wird. Dieser Raum wird auch als Orts/Zeit-Raum oder xt-Raum bezeichnet. Sich bewegende Objekte zeichnen sich in diesem Raum als linienartige Strukturen aus, deren Orientierung ein direktes Maß für die Geschwindigkeit des Objekts ist. In dieser Abschlussarbeit soll die Anwendbarkeit der Bildpaar- und Bildsequenzanalyse auf die Messung von Strömungsgeschwindigkeiten hin untersucht werden. Es ist hierfür ein geeigneter Versuchsaufbau inklusive Kamerasystem und Beleuchtung zu entwickeln. Die aufgenommenen Bildsequenzen sollen durch jeweils eine repräsentative Methode der Bildpaarund Bildsequenzanalyse ausgewertet werden. 1


Kapitel 1. Einleitung 1.2 Gliederung der Arbeit Die vorliegende Arbeit gliedert sich in sieben weitere Kapitel auf, welche folgend kurz zusammengefasst werden: Kapitel 2: Im zweiten Kapitel werden die Grundlagen der für diese Arbeit benötigten Methoden der digitalen Bildverarbeitung erläutert. Kapitel 3: Das dritte Kapitel beschreibt die Grundlagen des Partikel Image Velocimetry (PIV)-Verfahrens, welches der Bildpaaranalyse zugeordnet werden kann. Es werden die grundlegenden Eigenschaften, die Aufnahmetechniken sowie die Methoden zur Auswertung von Bildpaaren mit Hilfe des Verfahrens erläutert. Kapitel 4: Im vierten Kapitel werden die Grundlagen der (Multi-) Objektverfolgung dargelegt. Dieses Verfahren kann der Bildsequenzanalyse zugeordnet werden. Nach der Einführung des Kalman-Filters und der kurzen Beschreibung weiterer Zustandsschätzer wird auf die Methodik und die verschiedenen Ansätze der Objektverfolgung eingegangen. Kapitel 5: Dieses Kapitel beschreibt den allgemeinen Versuchsaufbau mit dem die auszuwertenden Bildsequenzen aufgenommen werden. Es wird dabei auf einzelnen Komponenten und deren Auswahl eingegangen. Kapitel 6: Ausgehend von Kapitel 3 wird die Implementierung der Auswertung mittels PIV-Verfahren beschrieben. Die Ergebnisse der Auswertung werden dargelegt und diskutiert. Kapitel 7: Auf Grundlage von Kapitel 4 wird die Implementierung der (Multi-) Objektverfolgung erläutert. Wie im vorherigen Kapitel werden auch hier die Ergebnisse der Auswertung dargelegt, diskutiert und durch ein weiteres Messverfahren validiert. Kapitel 8: Abschließend erfolgt eine Zusammenfassung der Erkenntnisse dieser Arbeit. Beide implementierten Verfahren werden gegenübergestellt und ein Ausblick auf mögliche weiterführende Arbeiten gegeben. Die Implementierungen der Verfahren wurden in Matlab 7.12 (R2011a) [14] unter Verwendung der Image Processing Toolbox [24] realisiert. Die Aufnahme der Bildreihen erfolgt mit dem Programm IC Capture [33]. Die benutzten Grafiken wurden mit Hilfe der Programme Inkscape [18], Photoshop Elements und MS Visio erstellt. Grafiken und Bilder, die zur ausschließlichen Verwendung in dieser Masterarbeit aus anderen Quellen entnommen sind, werden im Einzelbildnachweis auf Seite 106 kenntlich gemacht sowie deren Quelle angegeben. Auf der DVD, die dieser Arbeit beiliegt, finden sich sowohl die beschriebenen Implementierungen mit den zugehörigen Daten als auch ein Großteil der angegebenen Literatur. Masterarbeit Julian Paar 2


2 Verfahren der Bildverarbeitung 2.1 Einleitung Die digitale Bildverarbeitung hat sich in den letzten Jahren zunehmend zu einem wichtigen Werkzeug in vielen Bereichen entwickelt. Dies ist vor allem auf die stetige Weiterentwicklung der Sensorik und der zunehmenden Rechenleistung von PCs zurückzuführen. Abb. 2.1: Teilgebiete der digitalen Bildverarbeitung. Die digitale Bildverarbeitung lässt sich in drei große Teilbereiche, die in Abb. 2.1 dargestellt sind, untergliedern, welche sequentiell abgearbeitet werden: ˆ Image Acquisition: Dieser Teilbereich beschäftigt sich mit der Aufnahme von Bildern oder Videos. Er reicht vom klassischen Kamera-Linsen-System bis hin zu modernen bildgebenden Aufnahmeverfahren, wie z.B. CT-Aufnahmen in der Medizintechnik. ˆ Image Processing: Der Teilbereich Image Processing, als ein Spezialgebiet der allgemeinen Signalverarbeitung, beeinhaltet Methoden zur Bildaufbereitung sowie der Extraktion von Strukturen und Objekten innerhalb eines Bildes. ˆ Computer Vision: Der Teilbereich, der als Computer Vision oder Machine Vision bezeichnet wird, ist die Intelligenz eines Bildverarbeitungssystems. In diesen Bereich sind Methoden anzusiedeln, die in der Lage sind, die extrahierten Informationen zu interpretieren. Die Anwendungen reichen von der automatischen Erkennung von Objekten über die Qualitätskontrolle in Produktionsanlagen bis hin zur Bewegungsanalyse in Bildsequenzen. 3


Kapitel 2. Verfahren der Bildverarbeitung In den folgenden Abschnitten wird auf die Grundlagen, der für diese Abschlussarbeit relevanten Methoden der digitalen Bildverarbeitung eingegangen. 2.2 Definitionen und Grundlagen Dieser Abschnitt befasst sich mit den thematischen Grundlagen der industriellen Bildverarbeitung. Hierbei wird im speziellen auf die Bilddarstellung und -repräsentation sowie den Grundlagen der diskreten Geometrie, der Quantisierung und der Bildbeschreibung eingegangen. Grundlage dieses Abschnittes bilden [1, Kapitel 2]und [20, Kapitel 2 und 3]. 2.2.1 Bildrepräsentation Bilder stellen eine flächenhafte Verteilung der Bestrahlungsstärke in einer Ebene dar. Sie können somit mathematisch als eine Funktion, die abhängig von zwei Variablen ist, dargestellt werden. E(x 1 , x 2 ) = E(x), (2.1) mit x = (x 1 , x 2 ). Da die Verarbeitung von kontinuierlichen Signalen auf einem Rechner nicht möglich ist, muss ein kontinuierliches Bild in ein zweidimensionales Feld (Matrix) mit digitalen Werten überführt werden (siehe Abschnitt 2.2.3). Ein einzelnes Element dieser Matrix bezeichnet man als Pixel (Abk. engl. picture element, dt. Bildpunkt). Der Wert dieses Pixels repräsentiert die mittlere, digitalisierte Bestrahlungsstärke einer rechteckigen Region des Bildes, welche auch als Elementarzelle bezeichnet wird. Für die Angabe der Position eines Pixels wird üblicherweise die Matrixnotation verwendet. Besteht ein Bild also aus M × N Bildpunkten, so enthält es m = M − 1 Zeilen und n = N − 1 Spalten. Dabei wird n als Spalten- und m als Zeilenindex bezeichnet. Abb. 2.2: Bildkoordinatensystem. Der Definition der Matrixnotation entsprechend befindet sich der Ursprung des Bildkoordinatensystems an der linken oberen Ecke des Bildes. Somit läuft die y-Achse in positiver Richtung von oben nach unten, die x-Achse von links nach rechts im Bild. Masterarbeit Julian Paar 4


Kapitel 2. Verfahren der Bildverarbeitung 2.2.2 Diskrete Geometrie Grundlage der diskreten Geometrie ist der so genannte Gittervektor. Dieser gibt die Position eines Pixels innerhalb eines rechteckigen Gitternetzes an. Er ist definiert als [ ] n · ∆x x m,n = (2.2) m · ∆y wobei ∆x die Gitterbreite in x-Richtung und ∆y die Gitterbreite in y-Richtung ist. Dieser Vektor ist Grundlage für die Distanzmessung innerhalb des Gitternetzes. Für praktische Aufgaben wird meist die euklidische Distanz verwendet. Sie ist definiert als d e (x, x ′ ) = ‖x − x ′ ‖ = √ (n − n ′ ) 2 ∆x 2 + (m − m ′ ) 2 ∆y 2 (2.3) Für 4er-Nachbarschaften kann auch die Blockdistanz verwendet werden. d b (x, x ′ ) = |n − n ′ | + |m − m ′ | (2.4) 2.2.3 Quantisierung Die in den Bildern gespeicherten Bestrahlungsstärken treten in der Natur als kontinuierliche Signale auf. Sie besitzen daher in x- und y-Richtung eine unendliche Ausdehnung. Bei der Verarbeitung auf Rechnern muss diese kontinuierliche Information auf eine begrenzte Anzahl Q von Grauwerten abgebildet werden. Dieser Vorgang wird allgemein als Quantisierung bezeichnet. Q wird in diesem Zusammenhang daher auch als die Anzahl der Quantisierungsstufen bezeichnet. Die Anzahl der benötigten Quantisierungsstufen hängt vom Einsatzgebiet der Bildverarbeitung ab. Ändert sich der Grauton innerhalb der aufgenommenen Szene nur langsam, ist eine feine Quantisierung mit vielen Stufen gefragt. Standardmäßig wird eine Auflösung von 8bit, d.h. 256 Quantisierungsstufen verwendet. 2.2.4 Klassifizierung von Bildern Bilder werden nach ihrem Wertebereich und der Dimension der Bildkoordinaten in folgende Kategorien aufgeteilt: Binärbilder: Diese Bilder besitzen nur zwei Quantisierungsstufen (logisch 0 und 1). Sie finden ihre Anwendung vor allem in der Segmentierung, der Bestimmung von zusammenhängenden Regionen sowie der Beschreibung von Objekten. Graubilder: Diese Bilder bestehen aus ganzen, positiven und nach oben begrenzten Zahlen. Bei Q = 256 Quantisierungsstufen entsprechen schwarze Bildpunkte dem Wert 0, weiße dem Grauwert 255. Farbbilder: Diese Bilder bestehen im RGB-System aus drei Grauwertbildern mit Werten für die Grundfarben Rot, Blau und Grün. Die Farbe eines Pixels setzt sich aus einer additiven Farbmischung der Werte der Grundfarben zusammen. Masterarbeit Julian Paar 6


Kapitel 2. Verfahren der Bildverarbeitung Multispektrale Bilder: Diese Bilder setzen sich aus mehreren Graubildern zusammen. Ein Grauwertbild entspricht einem Spektralbereiches der Aufnahmevorrichtung. Spektralbereiche können neben den bereits erwähnten Farbkanälen Rot,Grün und Blau auch Kanäle mit anderen Wellenlängen (z.B. Infrarot) sein. 3-D Bilddarstellung: Diese Bilder entstehen, wenn eine zusätzliche z-Komponente hinzufügt wird. Zeitlich variierende Bildfolge: Bildfolgen erlauben die Beschreibung und die Analyse von Bewegungen. 2.2.5 Grauwertprofil und Histogramm In der Bilderfassung muss, wie in allen anderen Messverfahren, davon ausgegangen werden, dass ein Fehler in Form von Rauschen auftritt. Deshalb muss bei der Bildverarbeitung von der Bearbeitung stochastischer Signale/Werten ausgegangen werden, wobei die Grauwerte des Bildes als eindimensionale Zufallsvariable angesehen werden können. Die daraus resultierende Wahrscheinlichkeitsverteilung der Grauwerte ist die Grundlage der Ermittlung von Kenngrößen zur Beschreibung von Bildern. Das Grauwertprofil beschreibt die Grauwerte eines Bildes entlang einer beliebig im Bild verlaufenden Linie. Dieses Profil ist dafür geeignet, Aussagen über das Bild in Bezug auf die Hintergrundbeschaffenheit, der Steilheit von Kanten oder das Signal zu Rausch-Verhältnis (engl. signal to noise) zu machen. Auch ist diese Methode geeignet, Objekte zu vermessen, indem man die Linie entlang der zu messenden Strecke legt. Als Histogramm wird die graphische Darstellung der Häufigkeitsverteilung von Messwerten, also in diesem Fall der Grauwerte des Bildes bezeichnet. Das Histogramm kann vereinfacht als ein Vektor angesehen werden. Die Länge des Vektors ist durch die Anzahl der Quantisierungsstufen gegeben. Jedes Element dieses Vektors enthält die Anzahl der Pixel, deren Grauwert mit dem Index des Elements übereinstimmen. Diese diskrete Funktion h(g) beschreibt nun absolut die Anzahl der Pixel eines Grauwertes g. Diese Funktion kann natürlich auch relativ in Form einer Wahrscheinlichkeitsdichtefunktion (engl. probability density function ,PDF) angegeben werden: p(g) = h(g) Q ∑ p(g) = 1, (2.5) Q−1 mit g=0 wobei g der Grauwert und Q die Anzahl der Quantisierungsstufen darstellt. Die Notation für die PDF in der diskreten Darstellung lautet p g . Das Histogramm ist ein wichtiges Hilfsmittel der statistischen Bildverarbeitung. Es lassen sich daraus wichtige Kenngrößen wie der Mittelwert oder die Varianz ableiten. Masterarbeit Julian Paar 7


Kapitel 2. Verfahren der Bildverarbeitung (a) (b) (c) (d) Abb. 2.4: Grauwertprofil und Histogramm: (a) Orginalbild, (b) Grauwertprofil, (c) Orginalbild, (d) Histogramm. Der Mittelwert µ ist definiert als die Varianz als σ 2 = µ = Q−1 ∑ q=0 Q−1 ∑ q=0 p q · g q , (2.6) p q · (g q − µ) 2 . (2.7) Die Varianz ist ein Maß dafür, wie weit die Grauwerte vom Mittelwert abweichen. Die Wahrscheinlichkeitsdichtefunktion kann darüber hinaus über die Momente n-ter Ordnung beschrieben werden m n = Q−1 ∑ q=0 p q · (g q − µ) n . (2.8) Das Moment erster Ordnung entspricht dem Mittelwert, das Moment zweiter Ordnung der Varianz. Auf die Momente höherer Ordnung (z.B. Schiefe für n = 3) und ihrer Anwendungsmöglichkeiten wird an dieser Stelle nicht genauer eingegangen. Masterarbeit Julian Paar 8


Kapitel 2. Verfahren der Bildverarbeitung 2.2.6 Bilddarstellungen Die bisherigen Überlegungen bezogen sich alle auf die räumliche Darstellung von Bildern, welche auch im Folgenden benutzt wird. Dies bedeutet, dass sich jedes Bild aus einzelnen Bildpunkten oder auch Basisbildern zusammensetzt. Ein Basisbild ist dadurch gekennzeichnet, dass nur ein Bildpunkt einen Grauwert besitzt, alle anderen Bildpunkte sind null m,n P m ′ ,n ′ = { g für m = m ′ und n = n ′ 0 sonst . (2.9) Damit kann jedes beliebige Bild aus Basisbildern zusammengesetzt werden G = M−1 ∑ N−1 ∑ m=0 n=0 m,n P. (2.10) Eine andere, weit verbreitete Darstellungsmöglichkeit in der Bildverarbeitung ist die Darstellung im Wellenzahlraum. Deren Basisbilder sind periodische Muster, die aus einer Koordinatentransformation, der Fouriertransformation, entstehen. Das Bild wird also in einen komplexen Vektorraum, den Fourierraum, transformiert. Jeder Bildpunkt wird im Fourierraum durch zwei Parameter beschrieben, der Amplitude und der Phase. Die Amplitude beschreibt dabei lediglich, dass eine periodische Struktur im Bild vorkommt, aber nicht wo. Die Phase der Fourierkomponente eines Objektes kodiert dabei wo das Objekt liegt und wie es aussieht. Damit ist die Phase der Hauptinformationsträger. 2.3 Bildpunktoperationen Dieser Abschnitt befasst sich mit der Verarbeitung von Bildern durch homogene und inhomogene Bildpunktoperationen. Grundlage bilden [1, Kapitel 5] und [20, Kapitel 8]. 2.3.1 Homogene Punktoperationen Homogene Punktoperationen sind eine Untergruppe der lokalen Operationen und sind somit ein wichtiges Instrument in der Vorverarbeitung von Bildern. Ist eine Punktoperation nur abhängig vom Grauwert und nicht von der Bildposition des Pixels, so spricht man von einer homogenen Punktoperation P(g). Es entsteht ein neues Bild, dessen Grauwerte nach folgender Formel berechnet werden G ′ mn = P(G mn ). (2.11) Eine Punktoperation bildet somit Grauwerte auf sich selbst ab. Je nach verwendeter Operation P(g) kann es sein, dass mehrere Grauwerte des Eingangsbildes auf einen Grauwert des Ausgangsbildes abgebildet werden. Daher können Punktoperationen zum Teil nicht umkehrbar sein, d.h. man kann nicht auf den ursprünglichen Grauwert schließen. Es gehen damit Masterarbeit Julian Paar 9


Kapitel 2. Verfahren der Bildverarbeitung natürlich Informationen verloren. Ein Beispiel für eine nicht umkehrbare Punktoperation ist der Schwellwertoperator, der gemäß der Formel { 0 g < t P(g) = . (2.12) Q − 1 g ≥ t arbeitet. Dieser Operator bildet alle Grauwerte unterhalb eines Schwellwertes t (engl. threshold) auf den Wert 0 (schwarz), die Grauwerte ab der Schwelle auf den Maximalwert (weiß) ab. Je nach verwendeter homogenen Punktoperation P(g) kann die direkte Berechnung des neuen Grauwertes sehr (rechen)aufwendig werden. Nehmen wir ein Bild an, dass eine standardmäßige Auflösung von 1024 ×1024-Pixel hat. Müsste man die Punktoperation für jeden Pixel neu berechnen, würde man auf über eine Million Berechnungen kommen. Geht man zusätzlich davon aus, dass ein bestimmter Grauwert mehrmals in einem Bild auftaucht, so wäre jede erneute Berechnung eine unnötige Wiederholung einer bereits durchgeführten. Um dieses Problem zu umgehen verwendet man so genannte Look-Up-Tables (kurz LUT, dt. Nachschlagetabelle). Unter einer LUT versteht man einen Speicher, bei dem unter einer Adresse x ein Wert y gespeichert ist: y = LUT(x). (2.13) In diesem Fall ist natürlich der Wert x der Grauwert des Eingangsbildes und y der zugehörige Grauwert des Ausgangsbildes. Der große Vorteil besteht nun darin, dass die teilweise aufwendige Berechnung einer Punktoperation für jeden Grauwert nur einmal ausgeführt werden muss. Der Inhalt der LUT kann dann für die Erstellung des neuen Bildes verwendet werden G ′ = LUT(G). (2.14) Look-up-Tabellen werden zur Veranschaulichung oft auch als Diagramme dargestellt. In diesen Diagrammen bilden die Grauwerte des Eingangsbildes die Abszisse, die Grauwerte des Ausgangsbildes die Ordinate. Abb. 2.5 zeigt die Kennlinien des Schwellwert- und des Negationsoperators. 2.3.2 Lineares Dehnen und Clipping Die allgemeine Gleichung der lineare Grauwerttransformation lautet G ′ mn = u · G mn + v, (2.15) wobei die Konstante u dem Kontrast und die Konstante v der Helligkeit entspricht. Mit dieser Transformationsgleichung lässt sich eine Dehnung der Grauwerte in einem Bild erreichen. Ein wichtiger Parameter ist dabei die Kontrastkonstante. Ist u > 1, so wird der Kontrast erhöht und man spricht von einer Kontrastspreizung. Ist u < 1, so wird der Kontrast verringert Masterarbeit Julian Paar 10


Kapitel 2. Verfahren der Bildverarbeitung (a) Schwellwertoperator (b) Negationsoperator Abb. 2.5: Kennlinien von Operatoren. und man spricht von Kontrastkompression. Durch die Konstante v lässt sich die Helligkeit des neuen Bildes beeinflussen. Für den vorhandenen diskreten Fall müssen allerdings noch Einschränkungen vorgenommen werden, da der Grauwertbereich beschränkt ist ⎧ ⎪⎨ 255 wenn u · G mn + v > 255 G ′ mn = 0 wenn u · G mn + v < 0 . (2.16) ⎪⎩ u · G mn + v sonst Auf die Grauwertdehnung bzw. Kontrastspreizung soll an dieser Stelle nochmals genauer eingegangen werden. Dazu nehmen wir an, dass wir ein Eingangsbild G mit dem minimalen Grauwert G min und dem maximalen Grauwert G max haben und das auf ein Ausgangsbild G ′ mit einem minimalen Grauwert G ′ min und einem maximalen Grauwert G′ max transformieren wollen. Mit den Beziehungen G min ≤ G mn ≤ G max und G ′ min ≤ G′ mn ≤ G ′ max erhalten wir die allgemeine Formel für die Kontrastdehnung G ′ mn = G′ max − G ′ min G max − G min · (G mn − G min ) + G ′ min. (2.17) Durch die Verwendung von 8-bit Grauwerten sind die Grauwertgrenzen durch die Werte 0 und 255 vorgegeben. Diese Randbedingungen auf Gleichung 2.17 angewendet ergibt G ′ mn = Abb. 2.6 zeigt die zugehörige Kennlinie der LUT. 255 G max − G min · (G mn − G min ). (2.18) Eine Möglichkeit, die Extremwerte G max und G min festzulegen, wäre den jeweilig größten bzw. kleinsten Wert aus dem Histogramm zu übernehmen. Diese starre Methode zur Findung der Extremwerte ist durch die Tatsache, dass diese meist nur von wenigen Bildpunkten besetzt sind, nicht optimal. Eine effektivere Kontrastspreizung lässt sich erreichen, wenn Masterarbeit Julian Paar 11


Kapitel 2. Verfahren der Bildverarbeitung Abb. 2.6: Kennlinie der linearen Dehnung. man das Intervall G max − G min durch ein neues Intervall B max − B min ersetzt. Für die Werte B max und B min dieses Intervalls muss dabei gelten G min ≤ B min ≤ B max ≤ G max . (2.19) Die neuen Grenzen werden dabei so bestimmt, dass die im Intervall G max − B max und B min − G min liegenden Bildpunkte einen geringen prozentualen Anteil des Gesamtbilds haben (1-5%). Damit liegen 95-99% der Bildpunkte im linearen Bereich der LUT. Diese Kombination aus linearer Dehnung und Abschneiden der Extremwerte wird Clipping genannt. Die Anwendung der Kontrastspreizung ist in Abb. 2.7 an einem Beispiel gezeigt. 2.3.3 Inhomogene Punktoperationen Wie bereits erwähnt, stellen die homogenen Punktoperationen nur eine Unterklasse der Punktoperationen dar. Hängt die Punktoperation auch von der Position des Pixels ab, so spricht man von inhomogenen Punktoperationen. Diese sind im Allgemeinen sehr viel rechenaufwendiger als homogene Punktoperationen, da eine LUT hier nicht verwendet werden kann. Es muss also die Funktion für jeden Pixel im Bild neu berechnet werden. Ein einfaches Beispiel für eine inhomogene Punktoperation ist die Subtraktion eines Hintergrundbildes. Die dafür verwendete Funktion lautet G ′ mn = P mn (G mn ) = G mn − B mn , (2.20) wobei B mn das Hintergrundbild darstellt. Trotz großer Anstrengung ist es meist nicht möglich, eine aufzunehmende Szene gleichmäßig, d.h. homogen zu beleuchten. Eine Möglichkeit, dieses Problem zu korrigieren, ist die Aufnahme von Referenzbildern ohne Objekte. Eine inhomogene Beleuchtung kann dann dadurch ausgeglichen werden, indem man ein Bild durch das Referenzbild dividiert. Masterarbeit Julian Paar 12


Kapitel 2. Verfahren der Bildverarbeitung (a) (b) (c) (d) Abb. 2.7: Kontrastspreizung: (a) Orginalbild, (b) original Histogramm, (c) gespreiztes Bild, (d) gespreiztes Histogramm. Folgende Gleichung beschreibt diesen Vorgang. G ′ mn = c · Gmn R mn (2.21) Die Multiplikation der Konstante c in Gleichung 2.21 ist notwendig, um das entstehende Bild wieder in ganzzahligen Integers darzustellen. R mn stellt das Referenzbild dar. Abb. 2.8 zeigt die Korrektur einer inhomogenen Beleuchtung. Masterarbeit Julian Paar 13


Kapitel 2. Verfahren der Bildverarbeitung (a) (b) (c) Abb. 2.8: Korrektur inhomogener Beleuchtung: (a) Orginalbild, (b) Referenzbild, (c) Divisionsbild. 2.4 Segmentierung Dieser Abschnitt befasst sich mit den Segmentierungsverfahren. Grundlage dieses Abschnittes bilden [1, Kapitel 6] und [20, Kapitel 16] 2.4.1 Einleitung Die bisher beschriebenen Verfahren waren in der Bildvorverarbeitung anzusiedeln. Diese dienten also der besseren Erkennung von Bildobjekten. Die im Folgenden beschriebene Segmentierung ist nun das Bindeglied zwischen der Bildvorverarbeitung und den Verfahren der Bildanalyse. Die Aufgabe der Segmentierung besteht darin, Punkte, die in den vorherigen Bearbeitungsschritten extrahiert wurden, in Objekte bzw. Regionen zusammenzufassen. Es entstehen dabei Binärbilder, die codieren ob ein Bildpunkt zu einem Objekt gehört oder nicht. Für diesen Vorgang gibt es verschiedene Verfahren: ˆ Pixelorientierte Segmentierung ˆ Kantenbasierte Segmentierung ˆ Regionenorientierte Segmentierung ˆ Modellbasierte Segmentierung Masterarbeit Julian Paar 14


Kapitel 2. Verfahren der Bildverarbeitung An dieser Stelle wird nur die pixelorientierte Segmentierung näher behandelt. Für ausführliche Beschreibungen der anderen Verfahren sei z.B. auf Jähne [20, Kapitel 16] verwiesen. 2.4.2 Pixelorientierte Segmentierung Die pixel- oder punktorientierte Segmentierung ist vom Prinzip das einfachste Segmentierungsverfahren. Dieses Verfahren richtet sich bei der Entscheidung, ob ein Pixel zum Objekt gehört oder nicht, nur nach der Eigenschaft dieses Pixels, genauer gesagt nach dessen Grauwert. Daher spielt das Histogramm an dieser Stelle eine entscheidende Rolle. Bilder, deren Objekte sich klar vom Hintergrund abheben, können mit Hilfe des Schwellwertverfahrens segmentiert werden, der zugehörige Operator wurde bereits in Kapitel 2.3.1 vorgestellt. Im Optimalfall zeigt das Grauwerthistogramm eines zu segmentierenden Bildes eine bimodale Verteilung, d.h. es gibt zwei ausgeprägte Maxima und ein dazwischenliegendes Minimum, an dem das Histogramm null ist. Diese Verteilung ist in Abb. 2.9-(c) zu sehen. In einem Beispiel wie in Abb. 2.9 ist es nun einfach, einen geeigneten Schwellwert zu finden. (a) (b) (c) Abb. 2.9: Segmentierung mit Schwellwertoperator: (a) Originalbild, (b) zugehöriges Histogramm, (c) segmentiertes Bild mit Schwellwert 150. Masterarbeit Julian Paar 15


Kapitel 2. Verfahren der Bildverarbeitung Man kann die Grauwertgrenze irgendwo innerhalb des Minimums setzen und erhält eine fast perfekte Segmentierung. Da in diesem Fall für das gesamte Bild nur ein Schwellwert verwendet wird, spricht man auch von einem globalen Schwellwertverfahren. Dieser ideale Fall mit einer ausgeprägten bimodalen Verteilung tritt leider nur sehr selten auf. Dieses Verfahren stößt an seine Grenzen, wenn sich die Objekte nur leicht vom Hintergrund unterscheiden oder wenn die zu segmentierende Objekte sehr klein gegenüber dem Gesamtbild sind. In diesen Fällen bilden sich keine markanten Maxima im Histogramm aus. Auch ist es problematisch wenn die Objekte im Bild unterschiedliche Grauwerte aufweisen. Es gibt aber Verfahren, die auch für diese Probleme einen so genannten optimalen Schwellwert berechnen. Auf diese Verfahren wird an dieser Stelle nicht eingegangen, sondern auf die Fachliteratur verwiesen, in denen diese Verfahren ausführlich erläutert sind (z.B. [1, Abschnitt 6.1.1.2]). Ein weiterer Ansatz ist ein Bild in mehrere Regionen aufzuteilen und für jede dieser Region einen eigenen Schwellwert zu finden. Dieses Verfahren wird dann als lokales Schwellwertverfahren bezeichnet. 2.5 Formanalyse durch morphologische Operatoren Die bisher beschriebenen Verfahren dienten dazu, interessante Objekte oder Regionen (engl. Region of Interest, kurz ROI) hervorzuheben. Das Ergebnis sind ein oder mehrere Binärbilder, anhand derer nun weitere Parameter zur Klassifizierung eines Objektes abgeleitet werden sollen. Dafür ist eine neue Klasse von Operatoren notwendig, die morphologischen Operationen. Dieser Abschnitt lehnt sich an die Ausführungen in [1, Kapitel 4.4, 5.5] und [20, Kapitel 18] an. 2.5.1 Morphologische Operationen Da Binärbilder gemäß ihren Namens nur aus zwei Werten bestehen, der logischen Null und Eins, sind die Bearbeitungsmöglichkeiten auf die logischen Operatoren der boolschen Algebra beschränkt. Die Grundoperationen der boolschen Algebra, die UND- und die ODER- Verknüpfung, lassen sich auch in der Bildverarbeitung wieder finden. Man definiert dazu eine binäre Faltung. Diese unterscheidet sich von der diskreten Faltung dadurch, dass die Multiplikation der Filtermaske mit dem Bildpunkt durch eine UND-Operation und die Summation durch eine UND- oder eine ODER-Operation ersetzt wird. Man erhält dadurch zwei neue Operatoren: und G ′ mn = G ′ mn = R∨ R∨ m ′ =−R n ′ =−R R∧ R∧ m ′ =−R n ′ =−R M m ′ ,n ′ ∧ G m+m ′ ,n+n ′ (2.22) M m′ ,n ′ ∧ G m+m ′ ,n+n′, (2.23) Masterarbeit Julian Paar 16


Kapitel 2. Verfahren der Bildverarbeitung wobei G für das Ausgangsbinärbild und M für die Filtermaske steht. Das Zeichen ∧ steht für die logische UND-, ∨ für die logische ODER-Operation. Der Operator aus Gleichung 2.22 wird Dilationsoperator genannt. Geht man von einer Filtermaske aus, die aus Einsen besteht, bewirkt diese Gleichung, dass das Ergebnis dieser Operation eins wird, sobald ein Objektpixel innerhalb der Filtermaske den Wert eins besitzt. Das hat zur Folge, dass ein Objekt größer wird, aber auch, dass kleine Löcher oder Sprünge gefüllt werden. Dieser Operator selektiert also den maximalen Wert der Filtermaske. Der zweite Operator aus Gleichung 2.23 wird Erosionsoperator genannt. Durch das Ersetzen der Summation durch eine UND-Verknüpfung ist das Ergebnis nur eins, wenn alle Bildpunkte innerhalb der Maske gleich eins sind. Daraus folgt, dass alle Objekte die kleiner als die Filtermaske sind, aus dem Bild verschwinden bzw. Objekte, die durch einen schmalen Steg getrennt sind, getrennt werden. Im Allgemeinen werden Objekte durch diese Operation kleiner. Beide Operatoren, die als Grundoperationen der morphologischen Operationen gelten, beeinflussen die Form von Objekten innerhalb des Bildes. Dies ist der Grund, warum sie als morphologische Operatoren bezeichnet werden. Die Filtermaske wird bei den morphologischen Operatoren auch als Strukturmaske bezeichnet, da in dieser Maske meist eine gewisse geometrische Struktur abgebildet ist. An dieser Stelle ist anzumerken, dass für die Berechnung der Erosion bzw. Dilation nur die Elemente verwendet werden, die in der Strukturmaske den Wert eins besitzen. Die morphlogischen Operationen werden grundsätzlich als Mengenoperation mit Bildpunkten definiert. Deshalb findet man in der Literatur auch folgende Schreibweise G M (2.24) für die Dilation und G M (2.25) für die Erosion. Die Auswirkungen der Dilation und der Erosion sind in Abb. 2.10 dargestellt. 2.5.2 Opening und Closing Erosion und Dilation bilden die Grundlage der morphologischen Operationen. Beide bieten allerdings Vor- und Nachteile. In diesem Abschnitt wird gezeigt, wie durch eine Kombination dieser Grundoperationen weitere morphologische Operatoren entstehen. Die Erosion entfernt alle Objekte im Bild, die kleiner sind als die gegebene Struktur in der Filtermaske. Allerdings bewirkt sie auch, dass alle Objekte im Bild kleiner werden, was als Nachteil anzusehen ist. Führt man allerdings anschließend eine Dilation mit derselben Filtermaske durch, so lässt sich das vermeiden. Die Kombination aus Erosion und anschließender Masterarbeit Julian Paar 17


Kapitel 2. Verfahren der Bildverarbeitung (a) (b) (c) Abb. 2.10: Morphologische Grundoperationen: (a) Originalbild, (b) dilatiertes Bild, (c) erodiertes Bild. Dilation wird als Opening bezeichnet: G ◦ M = (G M) M. (2.26) Die Dilation füllt Löcher, die kleiner sind als die Filtermaske innerhalb von Objekten komplett aus. Allerdings werden dabei alle Objekte vergrößert. Diese Vergrößerung lässt sich durch eine anschließende Erosion mit derselben Filtermaske vermeiden. Die Kombination aus Dilation und anschließender Erosion nennt man Closing: G • M = (G M) M. (2.27) 2.5.3 Extraktion von Rändern: Eine weitere wichtige morphologische Operation bewirkt die Extraktion von Objekträndern. Hierzu wird der Rand als Mengendifferenz zwischen dem Objekt und dem erodierten Objekt angesehen: δG = G/(G M b ), (2.28) mit der Strukturmaske M b = ⎡ ⎢ ⎣ 1 1 1 1 1 1 1 1 1 ⎤ ⎥ ⎦ . (2.29) Das Ergebnis ist ein Binärbild, das nur an den Elementen des Objektrandes eine Eins besitzt. Führt man dieses Vorgehen iterativ durch und verwendet man für jeden Iterationsschritt das, um den Rand des vorherigen Schrittes verminderte, Bild als Ausgangsbild, so erhält man eine so genannte Distanztransformation. Durch diese erhält man den Abstand jedes Pixels zum Rand. Masterarbeit Julian Paar 18


Kapitel 2. Verfahren der Bildverarbeitung 2.5.4 Repräsentation der Form Morphologische Operationen haben als Ergebnis Binärbilder, die wie alle Bilder in Form einer Matrix gespeichert werden. Dabei nehmen die darin vorhanden Objekte meist nur einen geringen Teil des Gesamtbildes ein, der Hauptanteil besteht aus Hintergrundpixeln. Diese tragen allerdings keine Information, weswegen versucht wird, Objekte in einer anderen Form zu speichern. Eine Möglichkeit ist der so genannte Kettencode. Dieser Code speichert nicht alle Koordinaten der Randpixel, sondern nur den Startbildpunkt. Ausgehend von diesem Punkt wird nun einmal im Gegenuhrzeigersinn der Rand des Objekts verfolgt. Die Richtungsänderungen des Randes gemäß Abb. 2.11-b werden dann aufeinander folgend gespeichert. Diese Folge spiegelt nun genau die äußere Form des Objekts wieder. (a) (b) (c) Abb. 2.11: Objektrand und Kettencode einer 8-er Nachbarschaft: (a) Kantenpixel und Kantenpfad eines Objektes, (b) Richtungen einer 8-er Nachbarschaft, (c) Länge der Einzelschritte in Abhängigkeit der Richtung. Diese Darstellung hat einige Vorteile. Darum ist er sehr gut geeignet um rotationsinvariante Parameter wie z.B. den Umfang oder die Fläche eines Objektes zu berechnen. 2.5.5 Formparameter Fläche: Die Fläche ist der einfachste Formparameter. Er ist durch die Anzahl der Pixel innerhalb des Objektes bestimmt. Die Berechnung wird im einfachsten Fall als Zählalgorithmus implementiert. Umfang: Der Umfang gibt an, welche räumliche Ausdehnung das Objekt besitzt. Der Umfang kann leicht aus dem Kettencode berechnet werden. Dazu werden einfach die der Richtung entsprechenden Längen der Teilstücke addiert (siehe dazu Abb. 2.11-b und -c). Betrachtet man dieses Vorgehen genauer, so hat jede ungerade Richtungsänderung den Betrag √ 2, jede gerade Richtungsänderung den Betrag 1. Somit gilt für den Umfang eines Masterarbeit Julian Paar 19


Kapitel 2. Verfahren der Bildverarbeitung Objektes bei einer 8-er Nachbarschaft aus dem Kettencode: p = n e + √ 2n o . (2.30) Rundheit: Die Rundheit ist der einfachste Parameter, der von der Größe des Objektes unabhängig ist. Die Rundheit c ist definiert als: c = p2 A , (2.31) wobei A die Fläche und p der Umfang des Objektes ist. Die Gleichung hat den Wert 4π für einen Kreis mit der Fläche A = πr 2 und dem Umfang p = 2πr. Die Rundheit kann allerdings auch auf einen Kreis als Maximalwert normiert werden. Man erhält hierfür: C n = 4πA p 2 . (2.32) Diese Gleichung hat nun einen Maximalwert von 1 für einen Kreis und einen Wertebereich von 0 bis 1. Weitere Beschreibungsparameter: Die Liste von möglichen Beschreibungsparameter von Regionen würde sich beliebig z.B. durch geometrische Merkmale ergänzen lassen. Matlab bietet hierfür mit dem Operator regionprops ein wichtiges Werkzeug an. In nachfolgender Tabelle sind die Beschreibungsparameter aufgeführt, die mit Hilfe des Operators ermittelt werden können. Masterarbeit Julian Paar 20


Kapitel 2. Verfahren der Bildverarbeitung Property Beschreibungsparameter ’Area’ Fläche des Objektes ’BoundingBox’ Umgebenes Rechteck, kleinstes Rechteck das alle Objektpixel enthält ’Centroid’ Schwerpunkt des Objektes ’MajorAxisLength’ Die Länge der Hauptachse der Ellipse, die das selbe normalisierte zweite Moment besitzt ’MinorAxisLength’ Die Länge der Nebenachse der Ellipse, die das selbe normalisierte zweite Moment besitzt ’Eccentricity’ Exzentrizität, 0 für Kreise, 1 für Linien, Zwischenwerte möglich ’Orientation’ Winkel zwischen x-Achse und Hauptachse der ensprechenden Ellipse ’Image’ Bild mit der Größe des umgebenen Rechtecks ’FilledImage’ Bild mit der Größe des umgebenen Rechtecks, alle Löcher werden gefüllt ’FilledArea’ Anzahl der Pixel des gefüllten Bildes ’ConvexHull’ Konvexe Hülle, minimales Polygon, das alle Objektpunkte enthält ’ConvexImage’ ausgefülltes Binärbild der konvexen Hülle ’ConvexArea’ Anzahl der Pixel der ausgefüllten konvexen Hülle ’EulerNumber’ Anzahl der Objekte im Bild minus der Anzahl der Löcher in diesen Objekten ’Extrema’ Koordinaten der Eckpunkte des Objekts ’EquivDiameter’ Durchmesser eines Kreises, der die gleiche Fläche wie das Objekt besitzt ’Solidity’ Verhältnis der Fläche zur Fläche der konvexen Hülle ’Extent’ Verhältnis der Objektfläche zur Fläche des umgebenen Rechtecks ’PixelIdxList’ Linearen Indizes der Pixel des Objekts ’PixelList’ Liste mit Koordinaten der Pixelpunkte ’Perimeter’ Der Umfang des Objektes Tabelle 2.1: Properties des Matlab-Operators regionprops. Masterarbeit Julian Paar 21


3 Particle Image Velocimetry Die folgenden Abschnitte behandeln das Messverfahren, dass allgemein unter dem Namen PIV ( Particle Image Velocimetry) bekannt ist. Die Beschreibung stützt sich überwiegend auf das Buch von Raffel et. al. [30] sowie [28]. 3.1 Versuchsaufbau und grundlegende Eigenschaften Das PIV-Verfahren ist ein bildgebendes Messverfahren zur Bewegungsvisualisierung, welches heutzutage in vielen Bereichen eingesetzt wird. Diese reichen von der Bewegungsvisualisierung von Fluiden und Gasen bis hin zur Visualisierung der Bewegung von Mikroorganismen. Dieses breite Spektrum an Anwendungsgebieten erfordert natürlich eine individuelle Anpassung des Versuchsaufbaus an das jeweilige Versuchsobjekt. Dennoch besteht jede dieser Versuchsanordnung aus einem Grundgerüst von Untersystemen, die in Abb. 3.1 beispielhaft dargestellt sind. Abb. 3.1: Beispielhafter Versuchsaufbau des PIV-Verfahrens. 22


Kapitel 3. Particle Image Velocimetry Dem fließenden Medium werden meist kleine Partikel (Tracer) zur Visualisierung der Bewegung hinzugefügt. Diese Tracer werden durch eine geeignete Lichtquelle (z.B. Laser) innerhalb eines kurzen Zeitintervalls zweimal beleuchtet. Die beleuchtete Region wird durch ein Kamera-Linsen-System aufgenommen. Die relative Verschiebung der Tracer zwischen den Aufnahmen muss nun durch die Methoden des PIV-Verfahrens ermittelt werden. Dazu werden die Aufnahmen in kleine äquidistante Analysefelder (interrogation windows) unterteilt. Für jedes dieser Analysefelder wird ein lokaler Verschiebungsvektor durch statistische Methoden ermittelt. Dies setzt natürlich voraus, dass zum einen die Bewegung zwischen den Bildaufnahmen gleichförmig ist, zum anderen dass alle Partikel innerhalb eines Analysefelds denselben Verschiebungsvektor besitzen. Nachfolgend werden die wichtigsten Eigenschaften des PIV-Verfahrens nach [30, Seite 5] aufgeführt, bevor auf die Einzelheiten in den folgenden Abschnitten genauer eingegangen wird. Nicht-invasive Methode: Im Gegensatz zur Messung der Strömungsgeschwindigkeit mit mechanischen (z.B. Pitot- oder Venturi-Rohr) oder elektrothermischen Messeinrichtungen (z.B. Hitzedrahtsonden) arbeitet das PIV-Verfahren berührungslos. Es eignet sich also vor allem bei Messaufbauten, deren Strömung sehr empfindlich gegenüber Messsonden ist. Indirekte Geschwindigkeitsmessung: Um die Bewegung des Mediums sichtbar zu machen und damit die Strömungsgeschwindigkeit messen zu können, werden dem Medium kleine Tracer-Partikel hinzugefügt. Bestimmung eines Strömungsfeldes: Durch die räumliche Auflösung des bildgebenden Verfahrens ist es möglich, die Geschwindigkeit nicht nur an einem einzelnen Punkt, sondern für den gesamten Bildbereich zu bestimmen. Beleuchtung: Aufgrund der geringen Größe der Tracer-Partikel wird eine starke Lichtquelle benötigt, um diese für den Lichtsensor des Kamerasystems sichtbar zu machen. Belichtungsdauer: Die Belichtungsdauer sollte möglichst kurz gewählt werden, dass die Partikel sich innerhalb dieses Zeitraums möglichst nicht bewegen. Dies verhindert die Bewegungsunschärfe der einzelnen Partikel. Belichtungsintervall: Das Intervall zwischen den einzelnen Aufnahmen sollte lang genug gewählt werden, um eine repräsentative Verschiebung der Partikel messen zu können. Im Gegensatz dazu, sollte das Intervall so kurz wie möglich gehalten werden, damit die Ähnlichkeit eines Bildausschnittes in zwei aufeinander folgenden Bildern möglichst hoch ist, um eine eindeutige Zuordnung möglich zu machen. Partikeldichte: Abb. 3.2 zeigt grafisch die Einteilung der Partikeldichte in drei verschiedene Kategorien. Bei sehr geringer Dichte (low density) ist es möglich, einzelne Partikel zu verfolgen. Man spricht hierbei dann von Particle-Tracking. Die mittlere Partikeldichte (medium density) ist typisch für das PIV-Verfahren. Bei sehr hoher Partikeldichte (high density) findet meist das LSV-Verfahren (Laser-Speckle-Velocimetry) seine Anwendung. Masterarbeit Julian Paar 23


Kapitel 3. Particle Image Velocimetry chen Abfolge der Aufnahmen gespeichert sind. Dies kann zu einer Mehrdeutigkeit der Bewegungsrichtung führen. Abb. 3.4 zeigt dies Anhand eines Vergleichs des single-frame/singleexposure- und der single-frame/double-exposure-Aufnahmetechnik. In Abb. 3.4-a soll ein Partikel angedeutet werden, dass über einen längeren Zeitraum belichtet wurde. Durch Bewegungsunschärfe entsteht ein Bewegungsmuster anhand dessen allein sich nicht bestimmen lässt, ob das Partikel sich zwischen den Aufnahmen von Position P1 nach P2 oder umgekehrt bewegt hat. Im Gegensatz dazu lässt sich die Bewegungsrichtung in Abb. 3.4-b eindeutig bestimmen. (a) (b) Abb. 3.4: Vergleich der Aufnahmetechniken: (a) single-frame/single-exposure, (b) singleframe/double-exposure. 3.3 PIV-Auswerteverfahren 3.3.1 Einleitung Die Hauptaufgabe des PIV-Auswerteverfahrens besteht darin, eine Verbindung zwischen zwei gleichen Bildteilen in einem Bildpaar herzustellen. Anders ausgedrückt besteht die Aufgabe darin, ein bekanntes Teilbild innerhalb eines größeren Bildes wieder zu finden. Das zu findende Teilbild wird im Folgenden als Referenzbild bezeichnet. In der Literatur finden sich aber hierfür auch die Bezeichnungen Template, Block, Sample oder Pattern. Das Verfahren, welches hinter der beschriebenen Aufgabe steht wird als Template Matching bezeichnet. Die Grundidee des Template Matching ist einfach (siehe Abb. 3.5): Das Referenzbild wird über ein Bild bewegt und für jede Position wird ein Ähnlichkeitsmaß zwischen Bild und Referenzbild berechnet. Ein Extremwert dieses Ähnlichkeitsmaßes sollte dann eine Gleichheit oder zumindest eine hohe Ähnlichkeit anzeigen. Masterarbeit Julian Paar 25


Kapitel 3. Particle Image Velocimetry Abb. 3.5: Grundidee des Template-Matching. Nach [7, S.414ff] lassen sich für dieses Verfahren drei Aufgabenstellungen ableiten: 1. es muss ein Ähnlichkeitsmaß zwischen zwei Teilbildern definiert werden, 2. es muss eine Suchstrategie entwickelt werden um eine optimale Übereinstimmung möglichst schnell zu finden, 3. es muss eine minimal zulässige Ähnlichkeit definiert werden. Aus Sicht des PIV-Auswerteverfahren ergibt sich in diesem Zusammenhang also folgendes Bild. Gegeben sind zwei Bilder, welche beleuchtete Tracer-Partikel enthalten und in einem kurzen Zeitabstand nacheinander aufgenommen wurden. Ziel ist es, ein Vektorfeld zu berechnen, das die mittlere Verschiebung der Partikel innerhalb einer lokalen Gruppe beschreibt. Aus Sicht der digitalen Signalverarbeitung wird also ein System gesucht, dass ein Eingangsbild G in ein Ausgangsbild G ′ transformiert. Dies ist in Abb. 3.6 dargestellt. Die Transferfunktion dieses Systems H ist ein Abbild des Systemverhaltens und wird bestimmt durch eine Verschiebungsfunktion d und einem Rauschanteil N. Die gesuchte Funktion ist die Verschiebungsfunktion d, da diese die Bewegung der Partikel beschreibt. Abb. 3.6: Signalflussdiagramm Die Aufgabe besteht nun darin, diese Verschiebungsfunktion d aus den bekannten Bildern G Masterarbeit Julian Paar 26


Kapitel 3. Particle Image Velocimetry und G ′ zu bestimmen, ohne dabei die unbekannten Rauscheffekte berücksichtigen zu müssen. Hierfür sind statistische Methoden notewendig. 3.3.2 Kreuzkorrelation als Ähnlichkeitsmaß Eine Möglichkeit, eine Ähnlichkeit zwischen zwei Teilbildern zu beschreiben ist die Kreuzkorrelation, welche folgendermaßen beschrieben ist: K∑ L∑ C (x, y) = R (i, j) · G (i + x, j + y), (3.1) i=−K j=−L wobei R dem Referenzbild entspricht und G das Grauwertbild darstellt, in dem das Referenzbild gesucht wird. x und y beschreiben die Komponenten des Verschiebungsvektors d(x, y). Je größer der Wert von C ist, desto ähnlicher sind sich die zwei Teilbilder. Aus obiger Gleichung lassen sich zwei wichtige Eigenschaften der Kreuzkorrelation ableiten: ˆ die Anzahl der benötigten Multiplikationen steigt proportional zur Größe des Referenzbildes (K × L), ˆ es lassen sich nur lineare Verschiebungen detektieren. Der große Vorteil der Kreuzkorrelation besteht aber darin, dass sie sich alternativ sehr effektiv im Frequenzbereich berechnen lässt. Der Kreuzkorrelationswert zweier Funktionen ist nach [30, Gleichung 5.2] gleich der konjugiert-komplexen Multiplikation derer Fourier- Transformierten: C ⇔ ˆR · Ĝ∗ , (3.2) wobei ˆR und Ĝ die Fourier-Transformierten von R und G darstellen. Die Fouriertransformation wird auf Rechnern mithilfe der diskreten Fouriertransformation (DFT) berechnet, wobei in der Praxis der deutlich effizientere FFT-Algorithmus (Fast Fourier Transformation, [20, S. 70ff]) verwendet wird. Die Berechnung der Kreuzkorrelation mithilfe der FFT ist in Abb. 3.7 dargestellt. Abb. 3.7: Berechnung der Kreuzkorrelation mit FFT. Ein weiterer Nachteil der Standard-Kreuzkorrelation ist die Tatsache, dass die Grauwerte der einzelnen Teilbilder als Absolutwert in die Berechnung eingehen. Dies führt dazu, dass unterschiedliche Intensitätswerte beider Bilder, die z.B. aus Schwankungen der Beleuchtung Masterarbeit Julian Paar 27


Kapitel 3. Particle Image Velocimetry entstehen, zu einem geringeren Kreuzkorrealtionswert führen. Aus diesem Grund wird beim PIV-Verfahren die normalisierte Kreuzkorrelation bzw. der normalisierte Kreuzkorrelations- Koeffizient verwendet, der folgendermaßen definiert ist. c N = mit C N (normalisierte Kreukorrelation) und C N = M∑ i=0 j=0 C N (x, y) √ σR (x, y) · √σ G (x, y) (3.3) N∑ [R (i, j) − µ R ] [G (i + x, j + y) − µ G (x, y)] (3.4) σ G = σ R = M∑ M∑ i=0 j=0 i=0 j=0 N∑ [R (i, j) − µ R ] 2 (3.5) N∑ [G (i, j) − µ G (x, y)] 2 (3.6) Der Wert µ R entspricht dem Mittelwert des Referenzbildes und muss nur einmal berechnet werden. µ G , der Mittelwert des Grauwertbildes an der Stelle (x, y), mit dem das Referenzbild verglichen wird, muss immer neu berechnet werden. 3.3.3 MQD als Ähnlichkeitsmaß Die Verwendung der Methode der minimalen Differenzenquadrate (engl. Minimum Quadratic Differences, MQD) als Ähnlichkeitsmaß innerhalb des PIV-Verfahrens wurde von Gui und Merzkirch in [16] vorgestellt. Analog zum Kreuzkorrelations-Verfahren wird auch bei diesem Verfahren ein Ausschnitt G eines Grauwertbildes mit einem Referenzbild R verglichen. Die quadratische Differenz zweier Matrizen (hier Bilder) wird definiert als ∑ |R − G| = √ M N∑ (r ij − g ij ) 2 , (3.7) i=1 j=1 wobei g ij und r ij die Grauwerte der Bilder mit der Größe M ×N an der Stelle (i, j) darstellen. Eine hohe Ähnlichkeit wird im Gegensatz zur Kreuzkorrelation durch ein Minimum der quadratischen Differenz D (x, y) = 1 MN M∑ i=1 j=1 N∑ (r (i, j) − g (i + x, j + y)) 2 (3.8) charakterisiert, wobei x und y wiederum die Komponenten des Verschiebungsvektors d(x, y) darstellen. Der MQD-Algorithmus weist wie in [27] und [16] beschrieben eine höhere Stabilität im Gegensatz zur Kreuzkorrelation auf, vor allem bei Bildern deren Partikel ein Specklemuster aufweisen. Der große Nachteil dieser Methode ist der deutlich größere Rechenaufwand gegenüber der Kreuzkorrelation, da sich diese nicht effizient im Frequenzbereich berechnen lässt. Masterarbeit Julian Paar 28


Kapitel 3. Particle Image Velocimetry 3.3.4 Suchstrategie Die vorherigen Abschnitte haben gezeigt, wie ein Ähnlichkeitsmaß zwischen zwei Teilbildern definiert werden kann. Nun stellt sich die Frage, wie eine maximale Ähnlichkeit innerhalb eines Suchbereichs möglichst schnell gefunden werden kann. Eine einfache Möglichkeit zeigt Abb. 3.8. Abb. 3.8: Eine einfache Suchstrategie. Bei diesem Verfahren wird das Referenzbild immer um ein Pixel in x- oder y-Richtung im Suchbereich verschoben und die Ähnlichkeit zu diesem Suchbereichsausschnitt berechnet. Das Ergebnis aller Verschiebungen ist die Ähnlichkeits-Ebene des Suchbereichs. Das Maximum bzw. Minimum (je nach Verfahren) zeigt die Stelle der größten Ähnlichkeit an. Großer Nachteil dieses Vorgehens ist allerdings der hohe Rechenaufwand, der proportional zur Größe des Suchbereichs zunimmt. Ein Ansatz den Rechenaufwand zu minimieren ist die hierarchische bzw. rekursive Annäherung. Die Vorgehensweise dieses Ansatzes lässt sich nach [30, S.148] mit folgenden Schritten beschreiben: 1. Im ersten Schritt wählt man einen großen Suchbereich aus, der mit Sicherheit den ganzen dynamischen Beriech der möglichen Verschiebungsvektoren abdeckt. 2. Man berechnet die Ähnlichkeit des Referenzbildes zum Ausschnitt des Suchbereichs und verschiebe das Referenzbild im Weiteren so, dass keine oder eine sehr geringe Überlappung zur vorherigen Position vorhanden ist. Masterarbeit Julian Paar 29


Kapitel 3. Particle Image Velocimetry 3. Die entstandene Ähnlichkeitsebene wird nach Ausreißern durchsucht, welche dann entfernt und interpoliert werden. Das Maximum (bzw. Minimum) der Ähnlichkeitsebene wird ermittelt und die zugehörige Verschiebung an die nächste Hierarchieebene übergeben. 4. Schritt 1) bis 4) werden wiederholt, wobei der Suchbereich verkleinert (meist halbiert) wird. Des Weiteren wird die Überlappung erhöht. Dies wird solange wiederholt bis die Größe des Suchbereichs der des Referenzbildes entspricht. 5. Abschließend werden die Ähnlichkeit und der daraus resultierende Verschiebungsvektor für die finale Position berechnet. 3.3.5 Position des Extremwertes Einer der wichtigsten Aufgaben des PIV-Verfahren ist die Detektion der größten Ähnlichkeit sowie deren Positionsbestimmung. Aufgrund der Diskretisierung kann die Position des Extremwertes der Ähnlichkeits-Ebene nur mit einer systembedingten Ungenauigkeit von ±0,5 Pixel angegeben werden. Um die Position trotzdem mit Subpixel Genauigkeit bestimmen zu können, wird ein Fit zwischen den Ähnlichkeitswerten und einer geeigneten Funktion durchgeführt. Meist wird hierfür ein Drei-Punkte-Schätzer eingesetzt, der die Koeffizienten einer Gauß’schen Glockenkurve aus drei Punkten ermittelt. Dabei wird folgendermaßen vorgegangen: 1. Der Extrempunkt der Ähnlichkeitsebene wird bestimmt und dessen Position (i, j) gespeichert. 2. Die Ähnlichkeit der vier benachbarten Datenpunkte R (i−1,j) , R (i+1,j) , R (i,j−1) und R (i,j+1) wird berechnet. 3. Für beide Richtungen werden die Koeffizienten der zugehörigen Gauß’schen Glockenkurve berechnet. Der Schnittpunkt beider Kurven bestimmt die verwendete Position des Extremwertes. Nach [30, Tabelle 5.1] ergibt sich für eine Gauß’sche Glockenkurve der Form folgende Korrektur der Position des Extremwertes (x 0 , y 0 ): x 0 = i + f(x) = C · e − (x 0 −x)2 k (3.9) lnR (i−1,j) − lnR (i+1,j) 2 lnR (i−1,j) − 4 lnR (i,j) + 2 lnR (i+1,j) (3.10) und y 0 = j + lnR (i,j−1) − lnR (i,j+1) 2 lnR (i,j−1) − 4 lnR (i,j) + 2 lnR (i,j+1) . (3.11) Masterarbeit Julian Paar 30


Kapitel 3. Particle Image Velocimetry Globaler Histogramm-Operator Dieses Verfahren beruht auf dem Prinzip, dass die Differenz zwischen zwei benachbarten Verschiebungsvektoren unter einem gewissen Schwellwert liegt. Global, auf das ganze Bild bezogen, folgt daraus, dass alle korrekten Verschiebungsvektoren innerhalb einer definierten Region der Ebene, die durch die Komponenten des Verschiebungsvektors aufgespannt wird, liegen. Je nach Anwendung kann es auch mehrere definierte Regionen geben, wenn mehrere Strömungscharakteristiken im aufgenommenen Strömungsfeld vorliegen. Dynamischer Mittelwert-Operator Ein weiteres Verfahren wird als Mittelwert-Test bezeichnet. Bei diesem Verfahren wird die Länge eines Verschiebungsvektors mit der mittleren Länge der benachbarten Vektoren verglichen. Typischerweise wird hier eine Nachbarschaft der Größe 3 × 3, also 8 Nachbarn verwendet. Für N = 8 Nachbarn wird der Mittelwert µ an der Stelle (i, j) berechnet [30, S.183]: µ(i, j) = 1 N∑ N · U 2D (n), (3.12) wobei U 2D den einen Verschiebungsvektors darstellt. Die Differenz zwischen dem Mittelwert µ und dem zu validierenden Vektor U 2D (i, j) muss dann kleiner sein als ein Schwellwert ǫ, der definiert ist als ǫ = c 1 + c 2 · σ(i, j). (3.13) c 1 und c 2 sind Konstanten, σ die mittelere quadratische Differenz des Mittelwert und der benachbarten Vektoren: σ = 1 N∑ N · (µ(i, j) − U 2D (n)) 2 . (3.14) n=1 Dieses Verfahren zeigt Schwächen, wenn weniger als 8 Nachbarn vorhanden sind. Dies umgeht man meist damit, dass fehlende Nachbarn durch den Mittelwert aller Vektoren im Datenfeld aufgefüllt werden. Anstelle des Mittelwerts kann auch der Medianwert benutzt werden. Die Berechnung erfolgt analog, das Kriterium für einen korrekten Verschiebungsvektor lautet: |µ med − U 2D (i, j)| < ǫ (3.15) n=1 Weitere Verfahren Im Folgenden werden weitere Verfahren für die Bewertung des Ähnlichkeitswertes beschrieben. Die Beschreibungen beziehen sich auf die Verwendung der Kreuzkorrelation, gelten aber analog auch für das MQD-Verfahren. Masterarbeit Julian Paar 32


Kapitel 3. Particle Image Velocimetry Minimum correlation-Filter: Bei diesem Verfahren wird ein globaler Grenzwert für eine minimale Ähnlichkeit definiert. Nur Peaks ab einer gewissen Höhe werden als zulässig angesehen. Peak-height-ratio-Filter: Der höchste Peak, der für die Bestimmung des Verschiebungsvektors verwendet wird, wird mit dem zweithöchsten Peak, der definitionsbedingt als Rauschen angesehen wird, ins Verhältnis gesetzt. Ein Peak wird nur als korrekt angesehen, wenn das Verhältnis über einem gewissen Schwellwert liegt. Signal-to-noise-Filter: Bei diesem Verfahren wird der Quotient zwischen dem höchsten Ähnlichkeitswert und dem Mittelwert der übrigen Ähnlichkeitswerte gebildet und gegenüber einem Schwellwert validiert. 3.3.7 Interpolation fehlender Datenpunkte Für eine weitere Analyse der Daten ist es meist notwendig ein vollständiges Verschiebungsvektorfeld zu haben. Fehlende Werte müssen daher im Vorfeld der weiteren Analysen aus den vorhandenen Daten interpoliert werden. Grundsätzlich bietet sich hierfür nahezu jedes Interpolationsverfahren an. An dieser Stelle sollen drei üblich verwendete Verfahren kurz vorgestellt werden. Lineare Interpolation: Bei der linearen Interpolation werden zwei gegebene Datenpunkte durch eine Strecke verbunden. Betrachtet man die lineare Interpolation nur entlang der x- oder y-Achse, so ergibt sich für zwei Datenpunkte z 0 und z 1 die Geradengleichung Kubische C 2 -Spline Interpolation: z(x) = z 0 + z 1 − z 0 x 1 − x 0 · (x − x 0 ). (3.16) Die Kubische C 2 -Spline Interpolation modelliert die Funktionswerte zwischen zwei gegebenen Datenpunkten als ein Polynom dritten Grades, dass zweimal stetig differenzierbar (C 2 ) ist. Nähere Beschreibungen hierzu sind z.B. aus [6] zu entnehmen. Kriging Interpolation: Die Kriging Interpolation ist ein Verfahren, dass vor allem in der Geostatistik weite Verbreitung findet. Bei diesem Verfahren wird der zu interpolierende Wert als eine gewichtete lineare Kombination der vorhandenen Werte berechnet. Auf die genaue Definition sei hier auf [11] verwiesen. Masterarbeit Julian Paar 33


4 Objektverfolgung 4.1 Einleitung Die Objektverfolgung (engl. Particle Tracking oder Object Tracking) hat sich in den letzten Jahren zunehmend zu einer wichtigen Technologie innerhalb der Bildsequenzanalyse entwickelt. Sie verfolgt das Ziel, ein digitales Objekt kontinuierlich in einer Bildsequenz zu verfolgen um Rückschlüsse auf dessen Bewegung ziehen zu können. Anwendungsgebiete dieser Technik finden sich überwiegend in der Überwachung des Straßen-, Luft- und Schiffsverkehr. Grundsätzlich lässt sich die Objektverfolgung in drei Teilaufgaben aufteilen: ˆ Dynamische Zustandsschätzung (Filterung), ˆ Datenassoziation, ˆ Verwaltung der Objektpfade. Die dynamische Zustandsschätzung beschäftigt sich dabei mit der Schätzung der Zustände eines Systems. Zustände bzw. Zustandsgrößen beschreiben den momentanen Zustand (z.B. Größe, Position, Geschwindigkeit) eines dynamischen Systems (z.B. Bewegungsmodell). Die Notwendigkeit einer derartigen Filterung ergibt sich aus der Tatsache, dass benötigte Zustandsgrößen sich oftmals nicht direkt durch Sensoren erfassen lassen. Auch muss man bei jeder Messung davon ausgehen, dass Messfehler in Form von Rauschen auftreten. Des Weiteren ist die Modellierung des Systems nur eine mathematische Annäherung der Vorgänge der Wirklichkeit. Es ist also auch von der Ungenauigkeit des verwendeten Systems auszugehen, das als Systemrauschen bezeichnet wird. Abb. 4.1: System mit Systemrauschen und Messrauschen. Die Datenassoziation beschäftigt sich mit der korrekten Zuweisung von Messdaten zu Objektpfaden, welche von der dritten Teilaufgabe verwaltet werden. Die Bezeichnung Objektpfad 34


Kapitel 4. Objektverfolgung bezieht sich in dieser Arbeit auf die zeitliche Veränderung der Position eines Objektes in einer Bildsequenz. Auf die angerissenen Teilaufgaben wird in den nächsten Abschnitten genauer eingegangen. 4.2 Kalman Filter Der Kalman Filter (KF), von R.E. Kalman in [21] vorgestellt, ist ein rekursiver Zustandsschätzer der unter Verwendung von [25] und [38] im Folgenden vorgestellt wird. Die Hauptaufgabe des KF liegt darin, den Zustand x ∈ R n eines dynamischen Systems aus dem Systemverhalten und verrauschten Messwerten y ∈ R m so zu schätzen, dass der mittlere quadratische Fehler minimiert wird. Der Ablauf des KF lässt sich in zwei Schritte unterteilen: ˆ Die Prädiktion des Systemzustand und der ˆ Aktualisierung anhand von Messwerten. Dieser Ablauf wird in jedem Zeitschritt k unter Verwendung des Zustands des vorherigen Zeitschrittes k − 1 wiederholt. Daher wird das KF auch als rekursives Filter bezeichnet. Dem KF liegen zwei zeitdiskrete, lineare Differenzengleichungen zu Grunde. Die Systemgleichung x k = A · x k−1 + B · u k−1 + w k−1 (4.1) und das Messmodell z k = C · x k + v k . (4.2) A, B und C bezeichnet man als Systemmatrizen. Die Matrix A der Größe n × n beschreibt das dynamische Verhalten des Systems. Die Messmatrix C der Größe m × n beschreibt die Messung von Zustandsgrößen durch Sensoren. Die Eingangsmatrix B modelliert den Einfluss von Eingangsgrößen auf den aktuellen Zustand. Das Systemrauschen w k und das Messrauschen v k werden als unkorreliertes, mittelwertfreies und weißes Rauschen angenommen. Q bezeichnet in diesem Zusammenhang die Kovarianz des Systemrauschens E [ w (k) · w T (l) ] = Q(k) · δ kl (4.3) und R die Kovarianz des Messrauschens E [ v (k) · v T (l) ] = R (k) · δ kl . (4.4) 4.2.1 Prädiktion Die Prädiktion ergibt sich direkt aus der Systemgleichung zu ˆx − k = A · ˆx k−1 + B · u k−1 , (4.5) Masterarbeit Julian Paar 35


Kapitel 4. Objektverfolgung wobei ˆx k−1 den Zustand des letzten Zeitschrittes (a-posteriori Schätzwert) und ˆx − k den Prädiktionswert (a-priori Schätzung) bezeichnet. Der Fehler der Schätzung wird definiert als die zugehörige Fehlerkovarianzmatrix als e − k = x k − ˆx − k , (4.6) P − k [e ] = − k · e− T k = Q k−1 + A k−1 · P k−1 · A T k−1 . (4.7) 4.2.2 Aktualisierung Zum Zeitpunkt k wird eine Messung y k durchgeführt. Ziel des KF ist nun, eine a posteriori Zustandsschätzung ˆx k als eine lineare Kombination der a priori Schätzung ˆx − k und einer gewichteten Differenz zwischen der aktuellen Messung und der prädizierten Messung C · ˆx − k zu ermitteln ˆx = ˆx − k + K ( y k − C · ˆx − k ) . (4.8) Die Differenz y k − C · ˆx − k wird als Innovation bezeichnet, K als Korrekturfaktor. Ziel ist es, den Korrekturfaktor so zu wählen, dass die a posteriori Fehlerkovarianz P k = [ e k · e T ] k (4.9) mit dem Fehler e k = x k − ˆx k , (4.10) minimiert wird. Es ergibt sich ohne Herleitung für den Korrekturfaktor folgende Gleichung, die die Fehlerkovarianz minimiert: K k = P − k · CT ( P − k · CT + R k ) −1 = P − k · CT . (4.11) P − k · CT + R k Mit Gleichung 4.11 lässt sich die Strategie der Schätzung gut verdeutlichen. Ist die Messung sehr verrauscht und damit die Messkovarianz R sehr groß, so geht K gegen Null. Es wird also dem Systemmodell mehr vertraut als der Messung. Ist dagegen die Messkovarianz sehr gering, so überwiegt die Ungenauigkeit des Systemmodells, es wird also der Messung mehr vertraut. K wird daher groß gewählt. Abschließend zu jedem Zeitschritt wird die Aktualisierung der Fehlerkovarianz gemäß berechnet. P k = P − k − K k · C · P − k (4.12) Zusammenfassend für die vorherigen Ausführungen stellt Abb. 4.2 den Ablauf des KF unter Annahme von konstanten Systemmatrizen grafisch dar. Masterarbeit Julian Paar 36


Kapitel 4. Objektverfolgung Abb. 4.2: Rekursiver Ablauf des Kalman Filter mit Formeln. 4.3 Weitere Zustandsschätzer Neben dem KF finden auch weitere Filtertypen ihre Anwendung in der Objektverfolgung. Dieser Abschnitt greift die Übersicht von Fox et.al. [10] auf. Für nähere Betrachtungen der Thematik sei auch auf diese Literaturstelle verwiesen. Extended Kalman Filter: Dem KF legt ein lineares System- und Messmodell zugrunde. Können diese Voraussetzungen für eines oder beide Modelle nicht erfüllt werden, kann dieser Filtertyp nicht verwendet werden. Für den nicht-linearen Fall ergeben sich für System- und Messmodell folgende Gleichungen: x k = f (x k−1 ) + w k−1 (4.13) y k = c(x k ) + v k . Der Extended Kalman Filter (EKF) löst diese Problemstellung, indem er die nicht-linearen Funktionen f und c am Arbeitspunkt durch eine Taylor-Reihenentwicklung linearisiert (siehe [38]). Multi-Hypothesen-Tracker: Das KF schätzt den aktuellen Zustand eines Systems anhand der gewichteten Mittelung eines Schätzwertes und einer Messung. Voraussetzung dabei ist, dass es nur eine optimale Schätzung des Systemzustands gibt, er arbeitet also unimodal. Bei Vorhandensein von mehreren Messungen pro Prädiktionswert enthält das KF keine Entscheidungsgrundlage, welche Masterarbeit Julian Paar 37


Kapitel 4. Objektverfolgung Messung der aktuellen Prädiktion zuzuordnen ist. Der Multi-Hypothesen-Tracker (MHT) stellt eine multimodale Erweiterung des KF dar. Er setzt sich aus einem Satz von mehreren Zustandsschätzern zusammen, wobei jede Hypothese (Messwert gehört zu Prädiktion) durch einen eigenen KF repräsentiert wird. Jede Hypothese wird mit einem Faktor ω t gewichtet, welcher die Wahrscheinlichkeit der Richtigkeit dieser Hypothese angibt. Gitterbasierte Ansätze: Gitterbasierte Ansätze teilen die Messumgebung in kleine Gitterzellen auf. Jede dieser Zellen enthält sowohl die Wahrscheinlichkeit, dass sich das Objekt dort befindet als auch Informationen über die Nachbarschaft. Die Ansätze können je nach Auflösung des Gitters eine hohe Genauigkeit erzielen. Aufgrund des exponentiell steigenden Rechenaufwands mit Zunahme der Freiheitsgrade des modellierten Informationraums, wird dieses Verfahren überwiegend in Problemstellungen mit wenigen Freiheitsgraden (z.B. nur die Position eines Objektes) eingesetzt. Topologische Ansätze: Topologische Ansätze modellieren die Zustände eines Objektes nicht in metrischen Räumen. Sie nutzen abstrakte Beschreibungen der Umgebung. Zum Beispiel kann die Position eines Objektes in einem Haus durch die Angabe des Raumes, in dem sich das Objekt befindet, angegeben werden. Die Umgebung (hier das Haus) wird in Form eines Graphen dargestellt, bei dem jeder Knoten ein Raum des Hauses repräsentiert. Die Kanten stellen die Verbindungen der Räume dar. Typische Bewegungsmuster können durch Verhaltensmodelle modelliert werden. Die Ansätze zeigen eine hohe Effizienz bei der Berechnung, da ein Objekt in kleinen diskreten Zustandsräumen angegeben werden kann. Dies ist allerdings auch der Nachteil des Verfahrens, da in obigem Beispiel die Position nur grob geschätzt werden kann. Partikelfilter: Partikelfilter (PF) basieren auf der sequentiellen Monte-Carlo-Methode (SMC). Bei diesem Filter wird der Zustandsraum durch eine Menge aus N Samples oder Partikeln angenähert, die Paare eines Gewichtungsfaktors ω (i) t und eines Zustands x (i) t des Zustandsraums darstellen. Die Gewichtungsfaktoren aller Partikel summieren sich zu Eins und stellen die Auftrittswahrscheinlichkeit des jeweiligen Zustands dar. Die Aktualisierung erfolgt durch Sampling-Methoden. Dabei wird das Gewicht jedes Partikels durch ein Modell der Systemdynamik sowie durch Messungen angepasst und weiterentwickelt. Nähere Ausführungen zur genauen Funktionsweise lassen sich aus [3] entnehmen. Eine ausführliche Beschreibung einer Sampling-Methode, dem Condensations-Algorithmus, findet sich in den Ausführungen von Isard und Blake in [19]. Vorteile des PF liegen darin, dass zum einen nicht-lineare Systemmodelle verwendet werden können, des Weiteren lässt sich die Wahrscheinlichkeitsverteilung des Initialzustands des Systems in beliebiger Form approximieren. Masterarbeit Julian Paar 38


Kapitel 4. Objektverfolgung 4.4 Datenassoziation 4.4.1 Einleitung Der Einsatz von Zustandsschätzern erfordert, dass zum Zeitpunkt der Systemaktualisierung eine korrekte Zuordnung von Mess- und Prädiktionswerten besteht. Eine korrekte Zuordnung in diesem Zusammenhang bedeutet, dass jeder Objektpfad mit einem einzelnen Messwert assoziiert wird, der im besten Fall natürlich auch vom zugehörigen Objekt stammt. Dieses Problem der korrekten Zuweisung wird als Assoziationsproblem bezeichnet. Die Datenassoziation lässt sich in zwei Teilbereiche untergliedern, dem ˆ Datenausschluss und der ˆ Datenzuweisung. Beide Teilbereiche werden im Folgenden näher betrachtet. 4.4.2 Datenausschluss Der Datenausschluss ist eine Vorauswahl der Messdaten. Er wird in der Literatur häufig als Gating bezeichnet. Bei diesem Vorgang wird um die Prädiktion ein Suchbereich (validation region oder Gate) im Zustandsraum aufgespannt. Dieser Suchbereich beschreibt den Aufenthaltsraum, in dem die zugehörige Messung eines Objektes mit hoher Wahrscheinlichkeit zu finden ist. Alle Messungen innerhalb des Suchbereichs gehen in den nächsten Schritt der Datenzuweisung mit ein, alle anderen werden ausgeschlossen. Dieses Vorgehen lässt darüber hinaus die Identifizierung von neuen Objekten zu. Intuitiv ordnet man Messungen, die nahe an der Prädiktion liegen, am ehesten dem entsprechenden Objektpfad zu. Daher bietet sich ein Abstandsmaß als Modellierungsgrundlage für den Suchbereich an. In dieser Arbeit wird als Abstandsmaß die euklidische Distanz verwendet. In der Literatur finden sich aber auch häufig die Block-Distanz und die Mahalanobis-Distanz als Abstandsmaß. 4.4.3 Datenzuweisung Nach der Vorauswahl der möglichen Kandidaten durch das Gating muss die Entscheidung getroffen werden, welcher der Kandidaten welchem Objektpfad zugeordnet wird. Nachfolgend werden einige klassische Verfahren der Datenzuweisung vorgestellt. Nearest-Neighbor-Verfahren: Das Nearest-Neighbor (NN)-Verfahren ist eines der einfachsten Zuweisungsverfahren. Bei diesem wird nur eine Hypothese der Datenzuweisung betrachtet, nämlich die Messung, die am nächsten zur Prädiktion liegt. Dieses Verfahren hat bei der Multi-Objektverfolgung den Nachteil, dass eine einzelne Messung zu mehreren Objektpfaden zugeordnet werden kann, Masterarbeit Julian Paar 39


Kapitel 4. Objektverfolgung wenn die Messung innerhalb von mehreren Suchbereichen liegt. Für das NN-Verfahren existiert auch ein iterativer Ansatz, der Doppelzuweisungen verhindert. Bei diesem Ansatz wird eine zugeordnete Messung markiert und für weitere Zuordnungen nicht mehr berücksichtigt. Eine Erweiterung des NN-Verfahren stellt das Global-Nearest-Neighbor (GNN)-Verfahren dar. Dabei wird anstatt einer lokalen optimalen Assoziation für ein einzelnes Objekt eine globale optimale Assoziation in Hinblick auf die Distanz zwischen Messung und Prädiktion gesucht [15]. Diese Zuordnung erfolgt meist durch einen Auktion-Algorithmus (AA). Probabilistic Data Association (PDA): Beim NN- und GNN-Verfahren erfolgt die Zuordnung der Messwerte zu den Objekten über die Minimierung der Distanz zwischen beiden. Es erfolgt dabei eine konkrete Zuordnung zwischen einer Messung und einer Prädiktion. Diese Verfahren werden daher der so genannten hard-decision-Klasse zugeordnet. Dagegen stehen die Verfahren der soft-decision-Klasse, zu der das PDA-Verfahren gehört. Anstatt einem Objekt eine einzelne Messung zuzuordnen, wird der prädizierte Zustand mit einer Mischung aus allen Messungen innerhalb des Gates aktualisiert. Diese Mischung ist eine gewichtete Kombination aller Messungen entsprechend ihrer Assoziationswahrscheinlichkeit. Daher eignet sich dieses Verfahren besonders für Anwendungen, bei denen mit stark fehlerbehafteten und fehlenden Messungen gerechnet werden muss [15]. Das PDA-Verfahren geht von einem einzelnen Objekt aus, dem Messungen zugeordnet werden müssen. Es wird dabei angenommen, dass alle Messungen innerhalb des Suchbereichs entweder vom Objekt stammen oder durch Fehlmessungen entstanden sind. Für jedes Objekt werden für M Messungen innerhalb des Gates M+1 Hypothesen aufgestellt. Die Hypothesen H (m) , m = 1,2, ...,M besagen, dass die zugehörige Messung vom Objekt stammt. Hypothese H (0) dagegen besagt, dass keine Messung vom Objekt stammt. Für ein Objekt wird nach [4] eine Gesamtinnovation ν als M∑ ν = β i · ν i (4.14) i=1 gebildet. Dabei ist ν i die Innovation bezüglich des zugehörigen Messwertes und β i die Assoziationswahrscheinlichkeit. Die Gesamtinnovation geht in den Aktualisierungsschritt des Zustandsschätzers mit ein. Für eine ausführliche Beschreibung des PDA-Verfahrens sei an dieser Stelle auf [4] und [5] verwiesen. Joint Probabilistic Data Association (JPDA): Das JPDA-Verfahren ist eine Erweiterung des PDA-Verfahrens. Während das PDA-Verfahren jedes Objekt unabhängig voneinander betrachtet, berücksichtigt das JPDA-Verfahren alle möglichen Zuordnungsmöglichkeiten zwischen Messdaten und Objekten. Dabei geht das Verfahren davon aus, dass die Anzahl der zu verfolgenden Objekten bekannt ist und Messungen eines Objektes auch in den Suchbereich eines anderen fallen können. Eine ausführliche Beschreibung des Verfahrens findet sich in [4] und [5], ein Anwendungsbeispiel in [8]. Masterarbeit Julian Paar 40


Kapitel 5. Allgmeiner Versuchsaufbau Pixel wird dabei ausgehend vom Bildkoordinatenursprung gebildet. Dieses Vorgehen hat den Nachteil, dass die Kamera in diesem Modus nicht senkrecht über dem Rohr positioniert werden kann. Die Kamera ist daher im Versuchsaufbau in Strömungsrichtung rechts versetzt vom Rohrmittelpunkt angebracht. Abb. 5.3: Aufnahme des Versuchaufbaus; Weitere Aufnahmen befinden sich im Anhang B. Objektiv: Bei der Messung der Strömungsgeschwindigkeit wird von einer maximal zu messenden Geschwindigkeit von v max = 2 m s ausgegangen. Bei einer Bildwiederholungsrate von 160 fps ergibt sich eine zeitliche Differenz von ∆t = 6,25ms zwischen den Aufnahmen. Für die Mindestanzahl von n = 5 Messungen pro Partikel im Bildbereich ergibt sich eine minimale Bildhöhe in Strömungsrichtung entlang der y-Achse im Bild von s = v max · n · ∆t = 2 mm ms · 5 · 6,25ms = 62,5mm (5.1) Umgerechnet auf den gesamten Sensor und unter Berücksichtigung eines Sicherheitsabstandes ergibt sich die aufzunehmende Gegenstandshöhe von h g = 140 mm. Die zugehörige Brennweite des Objektivs ergibt sich daraus nach [35, Bestimmung der Brennweite] als Brennweite = Arbeitsabstand · Sensorhöhe = 6,27mm (5.2) Gegenstandshöhe + Sensorhöhe bei einem Arbeitsabstand von 250 mm und der Sensorhöhe von 3,6 mm bei einem 1/3" Sensorchip. Aufgrund dieser Berechnung wird bei diesem Versuchsaufbau ein 6 mm-Objektiv verwendet. Masterarbeit Julian Paar 43


Kapitel 5. Allgmeiner Versuchsaufbau Beleuchtung: Die Beleuchtung der Partikel erfolgt durch eine Hellfeld-Durchlichtbeleuchtung (siehe Abb. 5.4). Bei dieser Beleuchtungsart wird die Kamera genau gegenüber der Beleuchtung angeordnet. Objekte im Bildfeld streuen nun das Licht so, dass sie sich dunkel gegenüber einem hellen Hintergrund abheben. Es entsteht ein helles, kontrastscharfes Bild, wobei Merkmale wie die Oberflächenstruktur nicht abgebildet werden können. Das entstandene Bild hat daher binäre Eigenschaften, weshalb diese Technik überwiegend in der Anwesenheitskontrolle eingesetzt wird. Erreicht wird diese Beleuchtung durch eine 8W Leuchtstoffröhre, die direkt auf der Unterseite des Rohrs befestigt ist. Dies hat darüber hinaus den weiteren Vorteil, dass Reflexionen an der Oberfläche des Rohrs vermindert werden. Abb. 5.4: Aufbau einer Hellfeld-Durchlicht-Beleuchtung. Diffusor: Die Beleuchtung der Versuchsanordnung sollte möglichst gleichmäßig sein. Der Diffusor übernimmt dabei die Aufgabe, dass Licht der Beleuchtung abzudämpfen und zu streuen. Dies hat wiederum den Vorteil, dass Reflexionen vermindert werden, allerdings auch den Nachteil, dass die Lichtintensität gegenüber einer direkten Beleuchtung geringer ist. Der Diffusor ist in diesem Versuchsaufbau durch ein weißes Papier realisiert, welches zwischen Leuchtstoffröhre und Rohr platziert ist. Tracer-Partikel: Zur Visualisierung werden der Strömung Tracer-Partikel hinzugefügt. Bei dieser Arbeit wurden zum einen Luftbläschen und zum anderen Spritzgussgranulat aus Polyethylen verwendet. Polyethylen hat den Vorteil, dass dessen Dichte von ca. 0,9 etwa der von Wasser 1 g cm 3 entspricht. g cm 3 in Masterarbeit Julian Paar 44


Kapitel 5. Allgmeiner Versuchsaufbau Nimmt der Abbildungsmaßstab mit zunehmender Höhe ab, so spricht man von einer tonnenförmigen Verzeichnung (siehe Abb. 5.5).Das Gegenteil, ein zunehmender Abbildungsmaßstab, wird als kissenförmige Verzeichnung bezeichnet. Tonnenförmige Verzeichnungen treten überwiegend bei Weitwinkelobjektiven auf. Ein solches wird auch in dieser Arbeit verwendet, weshalb mit diesen Effekten auch hier gerechnet werden muss. Da die Stärke der Verzeichnung direkt von der Bildhöhe, also dem Abstand des Bildpunktes von der Bildmitte abhängt, ist dieser Effekt am Bildrand deutlich ausgeprägter. Durch das Windowing wird nur der linke Rand des Gesamtbildes ausgelesen. Es ist also damit zu rechnen, dass durch die Verzeichnung Objektpunkte am linken Rand der Aufnahmen näher zusammenrücken. Masterarbeit Julian Paar 46


Kapitel 6. Versuchauswertung mittels PIV- Verfahren ˆ Farbraum: RGB (24bit) ˆ keine Videokomprimierung 6.2 Versuchsauswertung 6.2.1 Ablauf der Auswertung Die Auswertung der Daten erfolgt sequentiell wie in Abb. 6.3 auf folgender Seite dargestellt. Der sequentielle Ablauf ist in diesem Zusammenhang so zu verstehen, dass alle Auswertungsschritte erst nach vollständiger Abarbeitung des vorherigen erfolgen. Abb. 6.3 teilt sich in drei Teile auf. In der Mitte werden die einzelnen Auswertungsschritte in ihrem zeitlichen Ablauf dargestellt. Die zugehörigen Matlab-Files (m-files), in denen der jeweilige Auswertungsschritt durchgeführt wird, sind auf der rechten Seite abgebildet. Die Daten, die aus den jeweiligen Auswertungsschritten hervorgehen sind unter Angabe des relativen Ordnerpfades auf der linken Seite zugeordnet. Sowohl die Daten als auch die m-Files finden sich auf beiliegender DVD im Ordner Messreihen/PIV. Im weiteren Verlauf des Kapitels wird nun auf die einzelnen Auswertungsschritte genauer eingegangen. Abschluss dieses Kapitels bildet die Darlegung und die Diskussion der Versuchsergebnisse. 6.2.2 Aufteilung in Einzelbilder und Vorverarbeitung Matlab bietet für die Verarbeitung von Videodateien im AVI-Format den Operatoraviread an. Mithilfe dieses Operators wird die Videodatei in einzelne Frames zerlegt, welche für die weitere Verarbeitung in 8-bit Grauwertbilder umgewandelt werden. Abb. 6.2: Einzelner Frame der Videodatei in 8-bit Grauwertkodierung. Masterarbeit Julian Paar 48


Kapitel 6. Versuchauswertung mittels PIV- Verfahren Abb. 6.3: Sequentieller Ablauf der Auswertung. Masterarbeit Julian Paar 49


Kapitel 6. Versuchauswertung mittels PIV- Verfahren Das PIV-Verfahren ist, wie bereits in Kapitel 3 beschrieben, ein Verfahren der Bildpaaranalyse. Die Ermittlung des Verschiebungsvektorfeldes beruht auf dem Auffinden eines Bildteiles im Folgebild. Bei den beschriebenen Verfahren zur Bestimmung des Ähnlichkeitsmaßes zweier Bildteile bilden die Grauwerte der zu vergleichenden Bildteile eine entscheidende Rolle. Aus dieser Tatsache folgt, dass die Vorverarbeitung der Bilder und der damit verbundenen Änderung der Grauwerte einheitlich über alle Bilder gleich sein muss. Andernfalls könnte es zu einer durch die Vorverarbeitung bedingten Änderung des Ähnlichkeitswertes kommen. Im schlimmsten Fall könnte dies eine Zuordnung zweier Bildteile unmöglich machen. Aus diesem Grund ist die Vorverarbeitung der Bilder an dieser Stelle bewusst einfach gehalten. (a) (b) Abb. 6.4: Histogramme: (a) eines einzelnen Frames und (b) der maximalen Grauwerte aller Frames. Betrachtet man das Histogramm eines Frames genauer (Abb. 6.4(a)), so sieht man dass sich die Grauwerte nur im unteren Bereich des Histogramms befinden. Dies legt die Verwendung einer Kontrastspreizung nahe (siehe Abschnitt 2.3.2). Für die Verwendung des PIV-Verfahrens muss in diesem Zusammenhang sichergestellt sein, dass die Punktoperation bei jedem Bild gleich ist. Daraus folgt, dass der zu spreizende Grauwertbereich überall gleich gewählt werden muss. Der Grauwertbereich wird durch seine Randpunkte G min und G max definiert, wobei G min = 0 angenommen wird. Die Bestimmung von G max erfolgt anhand der Verteilung der maximalen Grauwerte aller Frames (Abb. 6.4(a)). Es ist bei diesem Histogramm zu sehen, dass die Anzahl der maximalen Grauwerte ab dem Wert 190 signifikant abnimmt. Aus diesem Grund wird der zu spreizende Bereich zwischen G min = 0 und G max = 190 festgelegt. Das Ergebnis der Kontrastspreizung in Bild und Histogramm ist in Abb. 6.5 zu sehen. Masterarbeit Julian Paar 50


Kapitel 6. Versuchauswertung mittels PIV- Verfahren (a) (b) Abb. 6.5: Kontrastspreizung: (a) Histogramm und (b) Frame. 6.2.3 Bestimmung des Verschiebungsvektorfeldes Die Bestimmung des Verschiebungsvektorfeldes nimmt in diesem Auswerteverfahren eine zentrale Rolle ein. In dieser Arbeit wird für diese Bestimmung die Matlab-Toolbox MPIV von Mori und Chang [27] verwendet. Diese Toolbox bietet den Vorteil, dass die in Kapitel 3 beschriebenen Arbeitsschritte schon großteils implementiert sind. Dazu gehören unter anderem ˆ die Implementierung der Kreuzkorrelation und des MQD als Ähnlichkeitsmaß, ˆ die rekursive Annäherung als Suchstrategie, ˆ die Überprüfung der Daten mittels dynamischen Mittelwert- und Medianoperator ˆ sowie die Interpolation fehlender Datenpunkte durch lineare, Spline und Kriging Interpolation. Die Verwendung der Toolbox gliedert sich in zwei Funktionsaufrufe,mpiv undmpiv filter. Erstere Funktion berechnet das Verschiebungsvektorfeld eines Bildpaares, die zweite Funktion dient zur Nachbearbeitung der Daten (Validierung und Interpolation). Für die Berechnung des Verschiebungsvektorfeldes wurden mittels Übergabeparameter der Funktion folgende Randbedingungen festgelegt: ˆ Als Ähnlichkeitsmaß wird das MQD-Verfahren verwendet, ˆ die Größe der Analysefelder beträgt 64 × 64 Pixel, ˆ die maximale Überlappung zur vorherigen Position des Referenzbildes beträgt 0,5, ˆ die maximal zulässige Verschiebung in x- und y-Richtung wurde nach vorheriger manueller Messung auf 15 Pixel festgelegt. Dieser Wert bestimmt den Suchbereich. Masterarbeit Julian Paar 51


Kapitel 6. Versuchauswertung mittels PIV- Verfahren Abb. 6.7: Validiertes und interpoliertes Verschiebungsvektorfeld; interpolierte Vektoren sind rot dargestellt. 6.2.4 Auswahl der Region of Interest Die Auswahl der Region of Interest (ROI) stellt den ersten Schritt der Nachbearbeitung der Daten dar. Wie bereits in den vorherigen Darstellungen der Einzelframes zu sehen ist, nehmen das Rohr und die Luftbläschen nicht den kompletten Bildbereich ein. Es ist daher davon auszugehen, dass die Verschiebungsvektoren außerhalb des Bildbereichs von Rohr und Luftbläschen keine Informationen über die Strömung liefern. Diese Verschiebungsvektoren sind also für die weitere Auswertung nicht von Bedeutung. Deshalb wird der Datenbereich durch die Auswahl einer ROI verkleinert. Die Auswahl der ROI erfolgt manuell und ist in Abb. 6.8 dargestellt. Die ROI wird dabei so gewählt, dass eine möglichst maximale Anzahl der Luftbläschen darin liegt. Ausgehend von dieser Auswahl wird eine ROI-Maske erstellt. Diese dient zur Eliminierung der Verschiebungsvektoren außerhalb der ROI. Die ROI-Maske besitzt dieselbe Größe wie die Datenmatrizeniu ip undiv ip. Sie besitzt binäre Eigenschaften, das heißt ihre Elemente nehmen nur die Werte 1 und 0 an. Innerhalb der modellierten ROI besitzt die Maske den Wert 1, außerhalb den Wert 0. ⎡ ⎤ 0 ... 1 1 ... 0 roi mask = 0 1 1 0 ⎢ ⎣ ... 1 1 ... ⎥ (6.1) ⎦ 0 ... 1 1 ... 0 Masterarbeit Julian Paar 53


Kapitel 6. Versuchauswertung mittels PIV- Verfahren Abb. 6.9: Zusammenhang der Verschiebungsvektorkomponenten. 6.2.6 Validierung der Daten Bei der Aufnahme des Videos tritt vereinzelt der Fall auf, dass einzelne Frames mehrfach aus dem Speicher der Kamera ausgelesen werden. In der Bildreihe kommt also ein Frame mehrfach vor. Ist dies der Fall, so lassen sich aus diesen Bildpaaren keine Informationen bezüglich der Verschiebung der Luftbläschen ableiten. Dieser Fall lässt sich aus der Betrachtung der berechneten Verschiebungsvektoren detektieren. Es hat sich gezeigt, dass wenn der Mittelwert des Betrags der Verschiebungsvektoren unter einem Schwellwert von 10 −4 liegt, der oben beschriebene Fall vorliegt. Die zugehörigen Daten werden für die weitere Auswertung nicht verwendet. 6.2.7 Berechnung von Amplitude und Phase Die letzten Schritte der Nachbearbeitung bilden die Zusammenfassung der Daten in einzelne Messpunkte sowie die Berechnung der Amplitude und Phase der Verschiebungsvektoren. Jeder Bildpaarvergleich besteht aufgrund der Größe der Frames und der Analysefelder aus 1064 Messpunkten. Die Messpunkte werden aufsteigend, ausgehend von der linken oberen Ecke, durchnummeriert. Die vorhandenen Daten werden nun so zusammengefasst, dass jeder Messpunkt die zugehörigen Verschiebungsvektorkomponenten aller Bildpaarvergleiche enthält. Ausgehend von dieser Zusammenfassung werden für jeden Messpunkt die Amplitude als Betrag des Vektors und die Phase als Winkel gegenüber der y-Achse des Bildkoordinatensystems berechnet. Mit diesem Schritt ist die Nachbearbeitung der Daten beendet. Masterarbeit Julian Paar 55


Kapitel 6. Versuchauswertung mittels PIV- Verfahren 6.3.2 Geschwindigkeitsprofil Die Auswertung der Daten ergibt ein Geschwindigkeitsprofil, welches in Abb. 6.11 dargestellt ist. In diesem Profil wird der mittlere Betrag der Geschwindigkeit jedes Messpunktes in Abhängigkeit von dessen x-Koordinate abgetragen. Abb. 6.11: Scatter-Plot des Geschwindigkeitsprofils. Da sich die Luftbläschen an der Wand des Rohrs bewegen, müsste sich bei einer laminaren Strömung eine konstante Geschwindigkeit ausbilden. Da aber das Geschwindigkeitsprofil ein Maximum in der Mitte des Messbereichs aufweist, ist von einer turbulenten Strömung im Rohr auszugehen. Zum Rand des Messbereichs hin ist ein Anstieg der Geschwindigkeit zu erkennen. Dies lässt sich auf zwei Gründe zurückführen. Zum einen ist der Randbereich der ROI nicht über den gesamten Messzeitraum vollständig mit Luftbläschen bedeckt. Es kann hier also zu Fehlzuordnungen mit dem Hintergrund kommen. Zum anderen sind im Randbereich die Luftbläschen kleiner und liegen weniger dicht gepackt beieinander. Dies führt zu kleineren Reibungskräften zwischen den Luftbläschen. Auch weisen kleinere Luftbläschen eine höhere Anpassung an die Strömungsgeschwindigkeit des Wassers im Rohr auf. In obigem Geschwindigkeitsprofil wurde nur der Betrag der Geschwindigkeit berücksichtigt. Diese Vereinfachung kann getroffen werden, da der Winkel der Verschiebungsvektoren gegenüber der y-Bildachse im gesamten Messbereich unter 3 ◦ liegt (siehe Abb. 6.12). Rückschlüsse auf die Abhängigkeit der Geschwindigkeit von der y-Koordinate und der daraus resultierende Verlauf der Geschwindigkeit lassen sich aus dem Bereich schließen, in dem sich die Geschwindigkeiten an einer x-Koordinate bewegen. Da diese Bereiche recht schmal sind lässt sich die Strömung als gleichförmig und unter Berücksichtigung der Bewegungsrichtung als geradlinig bezeichnen. Masterarbeit Julian Paar 57


Kapitel 6. Versuchauswertung mittels PIV- Verfahren Abb. 6.13 zeigt den Verlauf der Abweichung exemplarisch anhand einer Zeile des Bildes. Erwartungsgemäß nimmt die prozentuale Abweichung mit steigender Anzahl von Bildpaarvergleichen (y-Achse) ab. Ungefähr ab dem hundertsten Bildpaarvergleich liegt die Abweichung zum Mittelwert der gesamten Messreihe bei ≤ 5%. Daraus lässt sich schließen, dass circa 100 Bildpaarvergleiche und eine daraus resultierende Aufnahmedauer von 0,63 s für eine stabile Bestimmung der Strömungsgeschwindigkeit notwendig sind. 6.3.4 Einfluss der Größe der Analysefelder Ein weiterer Parameter der direkt die Rechenzeit beeinflusst ist die Größe der Analysefelder und der daraus resultierenden Anzahl von Messpunkten. Dabei gilt, dass mit steigender Anzahl von Messpunkten die örtliche Auflösung der Strömung steigt und feinere Strömungsstrukturen ermittelt werden können. Wie bereits schon festgestellt wurde liegt in diesem Versuchsaufbau eine tendenziell geradlinige und gleichförmige Bewegung der Luftbläschen ohne Turbulenzen vor. In Hinblick auf eine geringere Rechenzeit ist daher die Verminderung der Anzahl von Messpunkten sowie die Auswirkung auf das Versuchsergebnis zu betrachten. Aus diesem Grund wurde die Versuchsauswertung nochmals mit 176 und 234 anstatt der vorherigen 1056 Messpunkten durchgeführt 1 . Um die Auswirkung der Anzahl von Messpunkten auf das Versuchsergebnis darzustellen, wird in Abb. 6.14 der relative Unterschied des Geschwindigkeitsbetrags der gröberen Auflösungen in Bezug auf die feine Auflösung mit 1056 Messpunkten dargestellt. Auffällig an beiden Vergleichen ist, dass der relative Unterschied zwischen hoher und niedriger Auflösung im zentralen Bereich des Bilds bei ≤ 3% liegt, es also kaum einen Unterschied gibt. Bei einer hohen Dichte von Partikeln, welche im zentralen Bereich des Bildes vorhanden ist, lässt sich daher die vorhandene Strömungscharakteristik ausreichend mit wenigen Messpunkten beschreiben. Die Ungenauigkeit der niedrigeren Auflösung zeigt sich überwiegend in den Randbereichen des Datenfeldes. Durch die Vergrößerung der Analysefelder treten mehr Störungen durch die geringere Dichte von den Luftbläschen und durch Fehlzuordnungen mit der Hintergrundströmung auf. Zusammenfassend lässt sich also sagen, dass die Strömung in diesem Versuchsaufbau auch mit geringerer Anzahl von Messpunkten ausreichend gut beschrieben werden kann. Dies setzt aber eine ausreichend große Dichte an Partikeln voraus. Da dies nur im zentralen Bereich des Bildes gegeben ist, müsste für diese Vereinfachung die Region of Interest verkleinert werden. 1 Weitere Darstellungen der gemessenen Geschwindigkeiten finden sich im Anhang A.1 Masterarbeit Julian Paar 59


Kapitel 6. Versuchauswertung mittels PIV- Verfahren 6.4 Fazit Der große Vorteil des PIV-Verfahrens ist die Möglichkeit, ein vollständiges Verschiebungsvektorfeld aus einem Bildpaar zu ermitteln. Dies ermöglicht eine Beschreibung der Strömung in einer hohen räumlichen Auflösung. Dabei sind eine sehr feine Auflösungen und eine hohe Genauigkeit möglich. Beiden Faktoren stehen allerdings die Rechenzeit und die Datenmenge gegenüber. Mit den in dieser Arbeit verwendeten Algorithmen dauert die Versuchsauswertung eines einzelnen Bildpaares bei Verwendung von 1056 Messpunkten circa 15 s. Bei einer Videodauer von 2 s mit circa 300 Bildpaarvergleichen ergibt das eine Auswertungsdauer von 1 Stunde und 15 Minuten, wobei die Implementierung nicht explizit in Bezug auf die Rechenzeit optimiert ist. Die lange Rechenzeit ist nicht zuletzt auch auf die Verwendung der MQD als Ähnlichkeitsmaß zurückzuführen. Die alternative Berechnung der Ähnlichkeit durch die Kreuzkorrelation würde aufgrund der effizienteren Berechnung im Frequenzbereich sicherlich zu einer Verminderung der Rechenzeit führen. Allerdings weist die Kreuzkorrelation, wie z.B. auch von Gui und Merzkirch in [16] beschrieben, bei der in dieser Arbeit verwendeten kompakten Partikeldichte eine sehr geringe Stabilität auf. Diese geringe Stabilität lässt sich auf zwei Parameter der Validierung der Peaks der Ähnlichkeitsebene zurückführen. In den meisten Fällen wurde das Maximum in der Ähnlichkeitsebene aufgrund der Unterschreitung der Grenzwerte für den Peak-height-ratio sowie des Signal-to-noise-Verhältnisses (siehe Kapitel 3.3.6) als falsche Zuordnung bewertet. Eine Verringerung der Grenzwerte erzielte teilweise bessere Ergebnisse, führte aber meistens zu extremen Fehlzuordnungen. Daher ist die Verwendung der Kreuzkorrelation für diesen speziellen Fall nicht praktikabel. Die Anwendbarkeit ist aber für andere Messaufbauten erneut zu prüfen. Neben der langen Rechenzeit stellt das PIV-Verfahren auch einen hohen Anspruch an den Versuchsaufbau selbst. Dabei spielt eine geeignete Dichte von Partikeln über den gesamten Messzeitraum eine entscheidende Rolle. Daher kommt der Partikelzufuhr (engl. Seeding) eine ganz besondere Bedeutung zu. Schwankungen in der Dichte oder der Anzahl von Partikeln führen meist dazu, dass die Auswertung mit diesem Verfahren entweder nicht möglich ist oder die Ergebnisse nicht zufriedenstellend sind. Das Verfahren ist daher sehr empfindlich gegenüber Störeinflüsse, was eine Reproduzierbarkeit einer Messreihe erschwert. Diese Arbeit hat gezeigt, dass eine Auswertung einer Strömung durch das PIV-Verfahren auch mit einer handelsüblichen Industriekamera grundsätzlich möglich ist. Die geringe Auflösung der Kamera macht allerdings die Verwendung von großen Partikeln notwendig. Die geringe Bildwiederholungsrate limitiert darüber hinaus die mögliche Strömungsgeschwindigkeit auf weit unter 1 m s . Die hier verwendete Kamera ist aufgrund dieser Einschränkungen grundsätzlich eher ungeeignet für das PIV-Verfahren. Für weitere Versuchsreihen in dieser Richtung sollte in jedem Fall auf eine Hochgeschwindigkeitskamera zurückgegriffen werden, welche bei heutigem Stand der Technik schon über Bildwiederholungsraten von über 3000 fps bei einer Auflösung von 1000 × 1000 Pixeln verfügen. Masterarbeit Julian Paar 61


Kapitel 6. Versuchauswertung mittels PIV- Verfahren Des Weiteren ist auch der Versuchsaufbau zu überarbeiten. Da sich Luftbläschen zwischen Rohrwand und Wasser bewegen, treten Reibungskräfte zwischen den Luftbläschen und Wasser bzw. Rohrwand, aber auch zwischen den Luftbläschen selbst, auf. Diese Kräfte sind nicht quantifizierbar so dass ein Rückschluss auf die eigentliche Strömungsgeschwindigkeit des Wassers im Rohr nicht möglich ist. Unter Berücksichtigung der vorherigen Ausführungen lässt sich zusammenfassend sagen, dass das PIV-Verfahren sich grundsätzlich zur Messung der Strömungsgeschwindigkeit eignet. Gegen die Anwendung des Verfahrens, z.B. bei der Messung von Fließgeschwindigkeiten von Flüssen, sprechen der hohe Rechenaufwand sowie die Anfälligkeit gegenüber Störungen. Masterarbeit Julian Paar 62


7 Versuchauswertung mittels Objekverfolgung 7.1 Spezifischer Versuchsaufbau Dieser Versuchaufbau entspricht der Versuchsanordnung, wie sie in Kapitel 5 beschrieben ist. Als Tracer-Partikel wird Polyethylen-Spritzgussgranulat verwendet. Um verschiedene Strömungsgeschwindigkeiten zu erzeugen erfolgt die Bildaufnahme bei Pumpenspannungen von 100 V , 120 V , 130 V und 150 V . Für die Aufnahme der Szene wird die Kamera gemäß folgender Parameter eingestellt: ˆ Viedoaufnahme: Dateityp .avi ˆ Auflösung der Einzelframes: 320 × 240 Pixel ˆ Bildwiederholungsrate: 160 fps ˆ Farbraum: RGB (24bit) ˆ keine Videokomprimierung 7.2 Ablauf der Auswertung Der grundsätzliche Ablauf der Auswertung mittels Objektverfolgung lässt sich, wie in Abb. 7.1 dargestellt, in zwei Teilbereiche unterteilen: ˆ Die Messung der sich bewegenden Partikeln und ˆ die Objektverfolgung mittels Kalman-Filter Die Messung erfolgt nach der Videoaufnahme durch Methoden der digitalen Bildverarbeitung. Es gilt dabei Daten für die Objektverfolgung mittels KF zu extrahieren. Die Messung gliedert sich dabei in Segmentierung der Partikel sowie die Extraktion von deren Merkmalen, die zur Beschreibung des digitalen Objekts dienen. Diese Daten bilden die Grundlage für die Objektverfolgung selbst. Für diese werden die Schritte des KF, Prädiktion und Aktualisierung, durch die zusätzlichen Schritte der Objektverfolgung, der Datenassoziation und 63


Kapitel 7. Versuchauswertung mittels Objekverfolgung Datenzuweisung, ergänzt. In der hier beschriebenen Implementierung wird so vorgegangen, dass die Extraktion der Partikel aus allen Bildern der Objektverfolgung vorangestellt wird. Sowohl die Daten als auch die m-Files dieser Implementierung finden sich auf beiliegender DVD im Ordner Messreihen/Objektverfolgung. Abb. 7.1: Ablauf der Auswertung mittels Objektverfolgung. 7.3 Segmentierung und Merkmalsextraktion Ein entscheidender Vorgang bei der Objektverfolgung mit Zustandsschätzern ist die Aktualisierung durch Messwerte. Die Messwerte beschreiben Zustandsgrößen des modellierten Systems. Das Messinstrument ist in diesem Fall die Aufnahme von Bildern und deren Auswertung durch Methoden der digitalen Bildverarbeitung. Ziel ist es also, aus den vorhandenen Bildern eine Zustandsgröße, nämlich die Position von Partikeln, aus dem Bild zu ermitteln. Dieser Vorgang lässt sich in zwei Schritte untergliedern. Zum einen ist das die Detektion der Partikel (Segmentierung) und zum anderen die Merkmalsextraktion (Bestimmung der Position). Abb. 7.2 zeigt eine typische Aufnahme der Bildreihe mit zwei Partikeln. Grundlage der Verarbeitungskette der Segmentierung ist das Divisionsbild, das in Kapitel 2.3.3 vorgestellt wurde. Grundsätzlich dient das Divisionsbild meist dazu, inhomogene Beleuchtung auszugleichen. Dabei wird die inhomogene Beleuchtung als statische Konstante angesehen. Auf den Fall der Segmentierung übertragen lässt sich die Umgebung der Partikel als statische Konstante ansehen. Daher dient eine Aufnahme, in der keine zu segmentie- Masterarbeit Julian Paar 64


Kapitel 7. Versuchauswertung mittels Objekverfolgung 7.4 Objektverfolgung mit Kalman-Filter 7.4.1 Bestimmung der Systemmatrizen Die Schätzaufgabe des KF in dieser Anwendung besteht darin, die Position eines Partikels im nächsten Zeitschritt, also hier im nächsten Bild, zu schätzen. Das zu modellierende System beschreibt die Bewegung eines Partikels in einer Bildsequenz. Für dieses System werden zwei Zustandsgrößen definiert. Zum einen ist das die Position des Partikels (p x , p y ) sowie dessen Geschwindigkeit (v x , v y ). Diese werden in den Zustandsvektor x = [p x p y v x v y ] T zusammengefasst. Bei diesem Versuchsaufbau mit konstanter Pumpenspannung ist von einer gleichförmigen, unbeschleunigten Bewegung der Partikel auszugehen. Daraus ergeben sich folgende Gleichungen für die Position des Partikels zum Zeitpunkt t sowie für die Geschwindigkeit p x,t = p x,t−1 + v x,t−1 · ∆t p y,t = p y,t−1 + v y,t−1 · ∆t v x,t = v x,t−1 v y,t = v y,t−1 . (7.1) (7.2) Daraus ergibt sich für die Zustandsbeschreibung der Form x t = A · x t−1 für die dynamische Beschreibung des Systems ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ p x 1 0 ∆t 0 p x p y ⎢ ⎣ v ⎥ = 0 1 0 ∆t ⎢ x ⎦ ⎣ 0 0 1 0 ⎥ · p y ⎢ ⎦ ⎣ v ⎥ x ⎦ v y 0 0 0 1 v y t } {{ } A t−1 . (7.3) Der Wert für ∆t wird für die Zustandsschätzung auf 1 gesetzt. Die Umrechnung in reale Geschwindigkeiten erfolgt analog zur Auswertung mit dem PIV-Verfahren später im Verlauf der Auswertung. Wie bereits beschrieben lässt sich durch die Messung wohl die Position des Partikels ermittelt, aber nicht dessen aktuelle Geschwindigkeit. Für das Messmodell der Form z t = C · x t ergibt sich dadurch z t = ⎡ ⎤ p ] [ ] x 1 0 0 0 = · p y z y,t 0 1 0 0 ⎢ ⎣ v ⎥ . (7.4) x ⎦ } {{ } C v y [ zx,t Der Messung wird eine durch die Diskretisierung bedingte Ungenauigkeit mit der Standardabweichung von σ m = 0,5 (Pixel) zugrunde gelegt. Das Messrauschen ergibt sich dazu als [ ] σ 2 R = m 0 . (7.5) 0 σm 2 t Masterarbeit Julian Paar 67


Kapitel 7. Versuchauswertung mittels Objekverfolgung Die mögliche Änderung der Bewegungsrichtung und -geschwindigkeit des Partikels wird durch das Systemrauschen modelliert. Mit der angenommenen Standardabweichung von σ s = 5 (Pixel) ergibt sich für das Systemrauschen ⎡ ⎤ σs 2 0 0 0 Q = 0 σ 2 s 0 0 ⎢ ⎣ 0 0 σs 2 0 ⎥ ⎦ . (7.6) 0 0 0 σs 2 Die Kovarianzmatrix P wird durch das Messrauschen initialisiert: ⎡ ⎤ σm 2 0 0 0 P 0 = 0 σ 2 m 0 0 ⎢ ⎣ 0 0 σm 2 0 ⎥ ⎦ . (7.7) 0 0 0 σm 2 7.4.2 Gestaltung des Filtersystems Die Gestaltung des Filtersystems bildet die Vorüberlegung zur Implementierung der Objektverfolgung. Es ist von Bildsequenzen auszugehen, in denen sich mehrere Partikeln im Bild befinden. Diese Partikel bewegen sich unabhängig voneinander und können sich daher in Bewegungsrichtung und Geschwindigkeit unterscheiden. Im Zuge der Multi-Objektverfolgung muss ein Verfahren entwickelt werden, welches ein Partikel eindeutig zu einem Objektpfad zuordnet. Für die grundsätzliche Gestaltung des Partikelfiltersystems ergeben sich zwei Möglichkeiten: 1. Die Zustände aller Partikel werden in einen Zustandsvektor zusammengefasst und durch einen KF verwaltet. Diese Möglichkeit macht eine dynamische Anpassung des Zustandsvektors sowie der Systemmatrizen erfolderlich. 2. Jedes Partikel wird einem eigenen KF zugeordnet. Bei dieser Gestaltung ist mit einem höheren Verwaltungsaufwand zu rechnen. Vor allem aufgrund der Annahme, dass sich Partikel voneinander unabhängig bewegen, bietet sich die Verwendung der zweiten Möglichkeit aufgrund der höheren Flexibilität an. Bei der Implementierung in dieser Arbeit wird daher jeder Objektpfad durch eine Instanz der Klasse kalman repräsentiert. Innerhalb dieser Klasse sind die Schritte des KF, Prädiktion und Aktualisierung, das Gating der Datenassoziation sowie Methoden zur Initialisierung neuer Objektpfade und der Abspeicherung abgestorbener Objektpfade implementiert. Darüber hinaus wird in den Instanzen der Klasse der Verlauf von wichtigen Parametern der Objektverfolgung gespeichert. Diese sind beispielhaft der Verlauf der Position und Geschwindigkeit eines Partikels aber auch Parameter des KF wie zum Beispiel der Korrekturfaktor. Die Masterarbeit Julian Paar 68


Kapitel 7. Versuchauswertung mittels Objekverfolgung Methoden der Klasse bilden die Schnittstelle zum übergeordneten Auswertungsprogramm. Folgend werden die Methoden benannt und kurz beschrieben: ˆ predict(): Diese Methode beinhaltet des Prädiktionsschritt des KF. ˆ adjust(): Der Aktualisierungsschritt des KF wird durch diese Methode durchgeführt. Dabei muss der Methode die zugeordnete Messung übergeben werden. ˆ gating(): Diese Methode implementiert das Gating der Datenassoziation. Übergabeparameter sind alle Messungen des aktuellen Zeitschritts. ˆ kalman(): Der Konstruktor der Klasse dient zur Initialisierung neuer Instanzen und damit neuer Objektpfade. ˆ exit(): Kann ein Objektpfad durch eine Messung nicht weitergeführt werden, wird diese Methode aufgerufen. Diese Methode bereitet die Objektinstanz auf das Abspeichern vor, indem sie unter anderem die realen Geschwindigkeiten des Partikels berechnet. ˆ show(): Über diese Methode lässt sich der Verlauf des Objektpfads anzeigen. Es werden hierbei die Messwerte, die Prädiktionen, die Gatingregionen und die aktualisierten Positionen angezeigt. 7.4.3 Bewegungsklassifizierung Im Vorfeld der weiteren Beschreibung der Auswertung steht die Analyse von möglichen Objektkonstellationen. Abb. 7.4 auf folgender Seite zeigt die identifizierten Konstellationen schematisch als zeitliche Abfolge von vier Zeitschritten. Ausgehend von dieser Abbildung werden die Konstellationen in fünf Klassen unterteilt. Diese Klassen werden im Folgenden beschrieben und es wird definiert, wie diese innerhalb der Auswertung behandelt werden. ˆ Eindeutige Zuordnung: Kann einer Prädiktion eindeutig eine Messung zugeordnet werden, so spricht man an dieser Stelle von einer eindeutigen Zuordnung. Der zugehörige KF des Objektpfades wird anhand des Messwerts aktualisiert. ˆ Auftauchen: Kann ein Messwert keiner Prädiktion zugeordnet werden, so ist davon auszugehen, dass die Messung durch ein neu aufgetauchtes Partikel im Bildfeld verursacht wurde. Für dieses neue Partikel wird ein Objektpfad in Form einer Instanz der Klasse kalman angelegt und durch den Messwert initialisiert. ˆ Verschwinden: Dieser Fall tritt auf, wenn einer Prädiktion kein Messwert zugeordnet werden kann. Der Objektpfad kann daher nicht fortgeführt werden und gilt als abgestorben. Der Objektpfad wird an dieser Stelle abgebrochen und abgespeichert. Masterarbeit Julian Paar 69


Kapitel 7. Versuchauswertung mittels Objekverfolgung (a) (b) (c) (d) (e) Abb. 7.4: Bewegungsklassen: (a) Eindeutige Zuordnung, (b) Auftauchen, (c) Verschwinden, (d) Teilen, (e) Verschmelzen. ˆ Verschmelzen: Diese Bewegungsklasse beschreibt den Vorgang, dass sich zwei Partikel im Bildfeld kreuzen und dadurch überlappen. Die Partikel verschmelzen zu einem digitalen Objekt, für das nur eine Position im Bild bestimmt werden kann. Diese Klasse wird in der Auswertung so abgebildet, dass die Objektpfade der einzelnen Partikel abgebrochen werden und ein neuer Objektpfad für die verschmolzenen Partikel angelegt wird. ˆ Teilen: Das Teilen ist der gegensätzliche Fall der Verschmelzung. Hierbei trennen sich zwei verschmolzene Partikel wieder in zwei einzelne Partikel auf. In der Auswertung wird der Objektpfad der verschmolzenen Partikel abgebrochen und für die einzelnen Partikel jeweils ein neuer angelegt. Die Klassen Verschmelzen und Teilen stellen eine Kombination aus den Klassen Auftauchen und Verschwinden dar. Masterarbeit Julian Paar 70


Kapitel 7. Versuchauswertung mittels Objekverfolgung 7.4.4 Ablauf der Objektverfolgung Die Objektverfolgung ist wie bereits ausgeführt als eine Erweiterung des KF zu betrachten. Daher ist die Objektverfolgung ebenfalls ein zyklischer Prozess, der in jedem Zeitschritt durchlaufen wird. Zum Anfang eines jeden Zyklus werden zwei Kenngrößen ermittelt, auf deren Grundlage die benötigten Arbeitsschritte des aktuellen Zyklus festgelegt werden. Dies ist zum einen die Anzahl k der aktuell aktiven Objektpfade mit den zugehörigen KF. Zum anderen ist das die Anzahl p der vorhandenen Messungen des Zeitschrittes. Aus diesen beiden Kenngrößen ergeben sich vier Fälle, die getrennt voneinander betrachtet werden: 1. k = 0 und p = 0: In diesem Fall liegen keine verwertbaren Informationen vor. Es werden keine weiteren Arbeitsschritte benötigt. 2. k = 0 und p > 0: Es liegen ein oder mehrere Messungen vor aber keine aktiven Objektpfade. Es wird davon ausgegangen, dass die Messungen von neuen Partikeln stammen. Dementsprechend werden p-neue Objektpfade angelegt. 3. k > 0 und p = 0: In diesem Fall sind wohl k Objektpfade aktiv, aber es gibt keine Messungen, mit denen diese fortgeführt werden können. Die Objektpfade werden daher abgebrochen 4. k > 0 und p > 0: Dies ist der klassische Fall der Objektverfolgung. Es liegen mehrere Messungen vor, die mehreren Objektpfaden zugeordnet werden müssen. Es müssen daher alle Schritte der Objektverfolgung durchlaufen werden. Diese Schritte werden in Abb. 7.5 als Erweiterung von Abb. 7.1 aufgeführt. Am Anfang der Verarbeitungskette steht die Prädiktion. Diese wird durch den Aufruf der Methode predict()aller k aktiven Objektpfade ausgeführt. Auf die weiteren Verarbeitungsschritte wird in den folgenden Abschnitten genauer eingegangen. 7.4.5 Datenassoziation Die Datenassoziation gliedert sich in den Datenausschluss (Gating) und in die Datenzuweisung. Das Gating bewirkt eine Vorauswahl der Messwerte durch die Begrenzung des Zustandsraums auf einen Suchbereich, welcher um die Prädiktion aufgespannt wird. Als Abstandsmaß wird die euklidische Distanz verwendet, was zu kreisförmigen Suchbereichen führt. Für Messungen innerhalb des Suchbereichs gilt daher √ d (z k ) = zk T · I · z k ≤ γ, (7.8) wobei z k = y k −C · ˆx − k die Innovation des Kalman-Filters darstellt. I ist die Einheitsmatrix. Die Größe des Suchbereichs wird durch den Schwellwert γ festgelegt, der in der Literatur häufig auch als gate threshold bezeichnet wird. Zur Bestimmung von γ wird zunächst die Masterarbeit Julian Paar 71


Kapitel 7. Versuchauswertung mittels Objekverfolgung Abb. 7.5: Verarbeitungskette der Objektverfolgung. Größe der Partikel im Bild betrachtet. Bei den Partikeln handelt es sich um nahezu runde Objekte. Daher wird im Folgenden der Radius des Kreises betrachtet, der den gleichen Flächeninhalt wie das Partikel im Bild besitzt (Property ’EquivDiameter’ des Matlab- Operators regionprops). In Abb 7.6 wird dieser Radius aller extrahierten Partikel der Messreihe in Form eines Histogramms dargestellt. Es zeigt sich, dass alle Radien größer als sechs Pixel sind. Daher wird γ = 6 gewählt. Diese Definition impliziert gleichzeitig aber auch, dass immer nur eine Messung in einen Suchbereich fallen kann. Es können daher nur zwei Hypothesen betrachtet werden: ˆ Es liegt genau eine Messung im Suchbereich und diese wird dem Objektpfad zugeordnet. ˆ Es liegt keine Messung im Suchbereich, der Objektpfad wird abgebrochen. Die Größe des Suchbereichs bleibt über die gesamte Auswertung hinweg konstant. Einzige Ausnahme bildet folgender Fall. Tritt ein Partikel in das Bildfeld ein so kann es vorkommen, dass das Partikel nur partiell im Bild vorhanden ist. Die Position als Flächenschwerpunkt des Bildobjekts ist daher fehlerhaft, was zu einer ungenauen Prädiktion führt. Um diesen Umstand auszugleichen, wird der Radius des Suchbereichs um fünf Pixel vergrößert, wenn die ursprüngliche Position innerhalb eines Bereichs von 20 Pixel vom unteren Bildrand liegt. In der Implementierung erfolgt das Gating durch den Aufruf der Methode gating() aller Masterarbeit Julian Paar 72


Kapitel 7. Versuchauswertung mittels Objekverfolgung ˆ Auftauchen: Ist die Summe einer Spalte gleich 0, so konnte diese Messung keiner Prädiktion zugeordnet werden. Es wird ein neuer KF mit diesem Messwert initialisiert. ˆ Verschwinden: Dieser Fall tritt auf, wenn einer Prädiktion kein Messwert zugeordnet werden kann. Innerhalb der Assoziationsmatrix lässt sich dieser Fall dadurch erkennen, dass die Zeilensumme gleich 0 ist. Für die Initialisierung eines neuen Objektpfades wird eine neue Instanz der Klasse kalman angelegt. Durch den zugehörigen Konstruktor wird der Zustandsvektor durch die Position des Messwertes und die zu erwartende Geschwindigkeit erstellt. Die Initialwerte der Geschwindigkeit bei den unterschiedlichen Pumpenspannungen lassen sich aus Tabelle 7.1 entnehmen. Pumpenspannung [V] Geschwindigkeit (x,y) [Pixel] 100 (1,-15) 120 (1,-20) 130 (1,-25) 150 (1,-35) Tabelle 7.1: Initialgeschwindigkeit bei Pumpenspannung. Wird ein Objektpfad abgebrochen, so wird die zugehörige Klasseninstanz abgespeichert. Allerdings erfolgt das Abspeichern nur, wenn der Pfad über mindestens drei Punkte verläuft. Vor dem Abspeichern werden die Geschwindigkeiten noch in reale Geschwindigkeiten umgerechnet. Die Berechnung erfolgt analog zur Umrechnung beim PIV-Verfahren (Gleichung 6.6). Die Umrechnungsfaktoren in diesem Versuchsaufbau sind f x = 0,1516 mm Pixel und f y = 0,1538 mm Pixel . (7.10) Des Weiteren wird die durchschnittliche Geschwindigkeit an das übergeordnete Auswerteprogramm zurückgegeben. Mit Durchschnitt aller dieser Werte werden dann neue Objektpfade initialisiert. 7.5 Versuchsergebnisse 7.5.1 Verfolgung einzelner Partikel Der Objektpfad eines einzelnen Partikels lässt sich mit dershow()-Methode der zugehörigen Klasseninstanz veranschaulichen. Ein exemplarischer Objektpfad ist in Abb. 7.7 abgebildet. In diesem Diagramm sind die Messungen (roter Stern), die Prädiktionen (grüner Kreis), die Korrektur (schwarzes Kreuz) sowie die Suchbereiche (blau gestrichelt) eingezeichnet. Masterarbeit Julian Paar 74


Kapitel 7. Versuchauswertung mittels Objekverfolgung den sind und korrekt zugeordnet werden können. Ob dies allerdings ein Nachteil ist, hängt stark von der jeweiligen Anwendung ab. In diesem Fall, in der die Strömung über das Bildfeld hinweg nahezu konstant ist, ist aber diese Informationsdichte für die Messung einer repräsentativen Strömungsgeschwindigkeit ausreichend. Der große Nachteil bei diesem Versuchsaufbau unter Verwendung eines Monokamerasystems ist das Fehlen der Tiefeninformation der Partikel im Rohr. Diese Tatsache lässt sich für weitere Untersuchungen durch folgende Erweiterungen ausgleichen: 1. Durch die Verwendung eines Stereokamerasystems. 2. Durch die Beschränkung der Partikelbewegung auf eine Ebene, z.B. die Wasseroberfläche. Bei diesem Versuch konnten Geschwindigkeiten bis zu 1,2 m s detektiert werden. Das Verfahren ist aber auch für höhere Geschwindigkeiten geeignet. Allerdings muss dann eine Kamera mit einer höheren Bildwiederholungsrate eingesetzt werden. Masterarbeit Julian Paar 81


8 Fazit 8.1 Vergleich der Verfahren Beide Verfahren sind grundsätzlich für die Messung der Strömungsgeschwindigkeit von Wasser geeignet. Das ist wohl die allgemeine und kürzeste Zusammenfassung der vorliegenden Arbeit. Allerdings bieten beide Verfahren Vor- und Nachteile. Diese sollen im Folgenden dargelegt und diskutiert werden. Die folgende Tabelle zeigt einen Überblick über die Kriterien, anhand derer die Verfahren verglichen werden. Kriterium Particle Image Velocimetry Objektverfolgung Geeignet zur Messung der Strömunggeschwindigkeit ja ja Rückschluss auf Strömungsgeschwindigkeit im nein ja Rohr möglich Robustheit gegen Störeinflüsse gering gut Benötigte Rechenzeit lang kurz Räumliche Auflösung und Informationsdichte hoch gering Verwendetes Kamerasystem bedingt, nur sehr kleine geeignet Geschwindigkeiten ja, bis ca. 1,5 m s Tabelle 8.1: Kriterien für den Vergleich der Verfahren. 82


Kapitel 8. Fazit Das PIV-Verfahren zeigt seine größte Stärke darin, ein komplettes Verschiebungsvektorfeld über den gesamten Bildbereich pro Bildpaar ermitteln zu können. Daraus resultieren eine hohe räumliche Auflösung und die Möglichkeit auch feinste Strömungsstrukturen sichtbar zu machen. Dieser Vorteil wird allerdings durch eine hohe Rechenzeit und einer großen Datenmenge erkauft. Dies ist der Nachteil des Verfahrens. Darüber hinaus stellt das Verfahren hohe Ansprüche an den Versuchsaufbau. Für gute Ergebnisse stellt dabei die Partikelkonzentration und -dichte über den gesamten Messzeitraum den wichtigsten Parameter dar. Daraus resultiert eine hohe Anforderung an die Partikelzufuhr (Seeding) und macht das Verfahren anfällig gegenüber Störeinflüssen. Auch kann das Verfahren seinen großen Vorteil, nämlich die Visualisierung von Strömungsstrukturen, bei diesem Versuchsaufbau mit einer überwiegend geradlinigen, gleichförmigen Strömung nicht ausspielen. Zusammenfassend lässt sich sagen, dass das Verfahren geeignet ist, aber wohl für diese Anwendung zu überdimensioniert ist. Dagegen steht das Verfahren der (Multi-) Objektverfolgung. Dieses weist gegenüber dem PIV-Verfahren eine weitaus geringere Informationsdichte auf. Aber durch die sehr kurze benötigte Rechenzeit lässt sich dieser Nachteil leicht über einen längeren Messzeitraum ausgleichen. Dieses Verfahren stellt einen geringeren Anspruch an den Versuchsaufbau. Die Partikelkonzentration und -dichte kann über den Messzeitraum variieren. Auch das kurzzeitige Fehlen von Partikeln stellt kein Problem dar. Dies macht das Verfahren robust gegenüber Störeinflüssen. Zusammenfassend lässt sich sagen, dass bei dieser Anwendung mit diesem spezifischen Versuchsaufbau und der vorliegenden Strömung das Verfahren der Objektverfolgung zur Messung der Strömungsgeschwindigkeit eindeutig vorzuziehen ist. 8.2 Ausblick Der Versuchsaufbau sowie die Implementierungen der Auswerteverfahren sind funktionsfähig, bieten allerdings noch Spielraum für Erweiterungen und Optimierungen. Daher sollen an dieser Stelle einige Anregungen für weiterführende Arbeiten angebracht werden. Der Versuchsaufbau bietet in der vorgestellten Form einige Vorteile. Die aufgenommene Strömung bewegt sich im Rohr in einem eindeutig definierten und abgegrenzten Raum, was die Anbringung und Ausrichtung des Kamerasystems erleichtert. Auch die Anbringung der weiteren Komponenten wie der Beleuchtung oder des Diffusors stellt dadurch kein Problem dar. Allerdings beeinflusst das Rohr die Strömung. Zum einen verschiebt der geknickte Einflauf die Maximalgeschwindigkeit der Strömung im Gegensatz zu einer laminaren Strömung. Auch entstehen nicht im Voraus quantifizierbare Reibungskräfte zwischen dem Wasser und den Partikeln mit der Rohrwand. Da die mögliche Anwendung der Arbeit vor allem im Bereich der Messung von Fließgeschwindigkeiten offener Gewässer liegt, wäre auch die Mo- Masterarbeit Julian Paar 83


Kapitel 8. Fazit difikation des Versuchsaufbaus in dieser Richtung sinnvoll. Dabei würde sich die Aufnahme von schwimmenden Partikeln an der Wasseroberfläche anbieten. Die hier verwendeten Partikel aus Polyethylen wären dafür geeignet, da sie eine Dichte aufweisen, die leicht unter der von Wasser liegt. Diese Anordnung hätte den Vorteil, dass die Bewegung auf eine Ebene, die Wasseroberfläche, reduziert würde. Allerdings müssten neue Konzepte für den Kameraaufbau und die Beleuchtung entwickelt werden, da mit Reflexionen an der Wasseroberfläche zu rechnen ist. Die Problematik der fehlenden Tiefeninformation bei Verwendung eines Mono- Kamerasystems ist durch diese Modifikation allerdings noch nicht komplett gelöst. Durch Wellenbewegungen an der Wasseroberfläche ist eine z-Komponente in der Geschwindigkeit der Partikel nicht auszuschließen. Es ist daher die Verwendung eines Stereo-Kamerasystems anzudenken. Unabhängig vom Kamerasystem sollte zur Erhöhung der Genauigkeit eine Kalibrierung des Kamerasystems erfolgen. Diese Kalibrierung dient zur Gewinnung von intrinsischen und extrinsischen Parameter der Kamera. Intrinsische Parameter beschreiben die Verzerrung des Bildes durch das Kamerasystem. Dadurch lässt sich die Verzerrung des Bilds aufgrund der nicht idealen Optik ermitteln, welche dann für die Auswertung herausgerechnet werden kann. Auch lässt sich der exakte Abstand zwischen zwei benachbarten Pixeln auf dem Sensor ermitteln, welche die Umrechnung in reale Geschwindigkeiten genauer macht. Extrinsische Parameter stellen die Lage der Kamera in Bezug auf ein Referenzkoordinatensystem dar. Die verwendete Kamera erlaubt die Ermittlung von Geschwindigkeiten bis zu ca. 1,5 m s bei der Objektverfolgung unter Verwendung des Spritzgussgranulats als Partikel. Für höhere Strömungsgeschwindigkeiten oder anderen Partikeln muss eine andere Kamera verwendet werden. Hierbei sind zwei Parameter der Kamera entscheiden, die Auflösung und die Bildwiederholungsrate. Ausgehend von einer gleich bleibenden Größe der aufgenommenen Szene bewirkt eine höhere Auflösung die mögliche Verwendung kleinerer Partikel. Eine größere Bildwiederholungsrate würde die Messung höherer Geschwindigkeiten zulassen. Die Implementierungen der Verfahren sind auf Hinblick der Rechenzeit zu optimieren. Ist über den Messzeitraum hinweg von einer beschleunigten Strömung auszugehen, so muss der Kalman-Filter der Implementierung der Objektverfolgung durch einen nichtlinearen Zustandsschätzer ersetzt werden (z.B. Extended Kalman Filter oder Partikel Filter). Die Verwendung von höhren Partikeldichten macht darüber hinaus wahrscheinlich die Anwendung von anderen Assoziationsverfahren notwendig. Masterarbeit Julian Paar 84


B Weitere Aufnahmen des Versuchaufbaus Dieser Anhang enthält weitere Aufnahmen des Versuchsaufbaus, der in Kapitel 5 vorgestellt wurde. Abb. B.1: Aufnahme des Kamerasystems. Abb. B.2: Aufnahme des Versuchaufbaus I. 97


Anhang B. Weitere Aufnahmen des Versuchaufbaus Abb. B.3: Aufnahme des Versuchaufbaus II. Abb. B.4: Aufnahme des Versuchaufbaus III. Masterarbeit Julian Paar 98


Abbildungsverzeichnis 2.1 Teilgebiete der digitalen Bildverarbeitung. . . . . . . . . . . . . . . . . . . . . 3 2.2 Bildkoordinatensystem. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 2.3 Arten von Nachbarschaften. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 2.4 Grauwertprofil und Histogramm . . . . . . . . . . . . . . . . . . . . . . . . . 8 2.5 Kennlinien von Operatoren. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 2.6 Kennlinie der linearen Dehnung. . . . . . . . . . . . . . . . . . . . . . . . . . 12 2.7 Kontrastspreizung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 2.8 Korrektur inhomogener Beleuchtung . . . . . . . . . . . . . . . . . . . . . . . 14 2.9 Segmentierung mit Schwellwertoperator . . . . . . . . . . . . . . . . . . . . . 15 2.10 Morphologische Grundoperationen . . . . . . . . . . . . . . . . . . . . . . . . 18 2.11 Objektrand und Kettencode . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 3.1 Beispielhafter Versuchsaufbau des PIV-Verfahrens. . . . . . . . . . . . . . . . 22 3.2 Partikeldichte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 3.3 Single-frame- und multi-frame-Aufnahmetechniken . . . . . . . . . . . . . . . 24 3.4 Vergleich der Aufnahmetechniken . . . . . . . . . . . . . . . . . . . . . . . . . 25 3.5 Grundidee des Template-Matching. . . . . . . . . . . . . . . . . . . . . . . . . 26 3.6 Signalflussdiagramm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 3.7 Berechnung der Kreuzkorrelation mit FFT. . . . . . . . . . . . . . . . . . . . 27 3.8 Eine einfache Suchstrategie. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 3.9 Darstellung eines Verschiebungsvektorfeld. . . . . . . . . . . . . . . . . . . . . 31 4.1 System mit Systemrauschen und Messrauschen. . . . . . . . . . . . . . . . . . 34 4.2 Rekursiver Ablauf des Kalman Filter mit Formeln. . . . . . . . . . . . . . . . 37 5.1 Schematischer Versuchsaufbau dieser Arbeit. . . . . . . . . . . . . . . . . . . 41 5.2 Prinzipbild eines Pixel eines CMOS-Sensor. . . . . . . . . . . . . . . . . . . . 42 5.3 Aufnahme des Versuchaufbaus . . . . . . . . . . . . . . . . . . . . . . . . . . 43 5.4 Aufbau einer Hellfeld-Durchlicht-Beleuchtung. . . . . . . . . . . . . . . . . . . 44 5.5 Tonnenförmige Verzeichnung bei einer optischen Abbildung. . . . . . . . . . . 45 6.1 Schematischer Versuchsaubau beim PIV-Verfahren. . . . . . . . . . . . . . . . 47 99


Abbildungsverzeichnis 6.2 Einzelner Frame der Videodatei in 8-bit Grauwertkodierung. . . . . . . . . . . 48 6.3 Sequentieller Ablauf der Auswertung. . . . . . . . . . . . . . . . . . . . . . . . 49 6.4 Histogramme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 6.5 Kontrastspreizung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51 6.6 Verschiebungsvektorfeld nach mpiv.m. . . . . . . . . . . . . . . . . . . . . . . 52 6.7 Validiertes und interpoliertes Verschiebungsvektorfeld . . . . . . . . . . . . . 53 6.8 Auswahl der Region of Interest . . . . . . . . . . . . . . . . . . . . . . . . . . 54 6.9 Zusammenhang der Verschiebungsvektorkomponenten. . . . . . . . . . . . . . 55 6.10 Aufnahme des Geometrie-Dreiecks . . . . . . . . . . . . . . . . . . . . . . . . 56 6.11 Scatter-Plot des Geschwindigkeitsprofils. . . . . . . . . . . . . . . . . . . . . . 57 6.12 Winkel der Verschiebungsvektoren gegenüber der y-Bildachse. . . . . . . . . . 58 6.13 Prozentuale Abweichung des Mittelwerts . . . . . . . . . . . . . . . . . . . . . 58 6.14 Relative Abweichung des Betrags der Geschwindigkeitsvektoren . . . . . . . . 60 7.1 Ablauf der Auswertung mittels Objektverfolgung. . . . . . . . . . . . . . . . . 64 7.2 Typische Aufnahme der Bildreihe. . . . . . . . . . . . . . . . . . . . . . . . . 65 7.3 Schritte der Bildvorverarbeitung . . . . . . . . . . . . . . . . . . . . . . . . . 66 7.4 Bewegungsklassen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70 7.5 Verarbeitungskette der Objektverfolgung. . . . . . . . . . . . . . . . . . . . . 72 7.6 Radien der extrahierten Partikel. . . . . . . . . . . . . . . . . . . . . . . . . . 73 7.7 Partikelpfad eines einzelnen Partikels. . . . . . . . . . . . . . . . . . . . . . . 75 7.8 Vergrößerte Darstellung des Objektpfades. . . . . . . . . . . . . . . . . . . . . 76 7.9 Exemplarische Bildsequenz mit vier Partikeln. . . . . . . . . . . . . . . . . . . 77 7.10 Objektpfade der gesamten Messreihe. . . . . . . . . . . . . . . . . . . . . . . . 78 7.11 Histogramm der gemessenen Geschwindigkeiten. . . . . . . . . . . . . . . . . 78 7.12 Scatter-Plot der gemessenen Geschwindigkeiten. . . . . . . . . . . . . . . . . . 79 7.13 Vergleich des Geschwindigkeitsverlauf zwischen den Verfahren. . . . . . . . . 80 A.1 Ermittelte Geschwindigkeiten bei 1056 Messpunkten als Checkerboard-Plot. . 85 A.2 Ermittelte Geschwindigkeiten bei 1056 Messpunkten als surf-Plot. . . . . . . 86 A.3 Ermittelte Geschwindigkeiten bei 1056 Messpunkten als 3D-Darstellung. . . . 86 A.4 Ermittelte Geschwindigkeiten bei 234 Messpunkten als Checkerboard-Plot. . 87 A.5 Ermittelte Geschwindigkeiten bei 234 Messpunkten als surf-Plot. . . . . . . 87 A.6 Ermittelte Geschwindigkeiten bei 234 Messpunkten als 3D-Darstellung. . . . 88 A.7 Ermittelte Geschwindigkeiten bei 234 Messpunkten als Scatter-Plot. . . . . . 88 A.8 Ermittelte Geschwindigkeiten bei 176 Messpunkten als Checkerboard-Plot. . 89 A.9 Ermittelte Geschwindigkeiten bei 176 Messpunkten als surf-Plot. . . . . . . 89 A.10 Ermittelte Geschwindigkeiten bei 176 Messpunkten als 3D-Darstellung. . . . 90 A.11 Ermittelte Geschwindigkeiten bei 176 Messpunkten als Scatter-Plot. . . . . . 90 Masterarbeit Julian Paar 100


Abbildungsverzeichnis A.12 Objektpfade der gesamten Messreihe bei 120 V . . . . . . . . . . . . . . . . . . 91 A.13 Histogramm der gemessenen Geschwindigkeiten bei 120 V . . . . . . . . . . . . 91 A.14 Scatter-Plot der gemessenen Geschwindigkeiten bei 120 V . . . . . . . . . . . . 92 A.15 Objektpfade der gesamten Messreihe bei 130 V . . . . . . . . . . . . . . . . . . 93 A.16 Histogramm der gemessenen Geschwindigkeiten bei 130 V . . . . . . . . . . . . 93 A.17 Scatter-Plot der gemessenen Geschwindigkeiten bei 130 V . . . . . . . . . . . . 94 A.18 Objektpfade der gesamten Messreihe bei 150 V . . . . . . . . . . . . . . . . . . 95 A.19 Histogramm der gemessenen Geschwindigkeiten bei 150 V . . . . . . . . . . . . 95 A.20 Scatter-Plot der gemessenen Geschwindigkeiten bei 150 V . . . . . . . . . . . . 96 B.1 Aufnahme des Kamerasystems. . . . . . . . . . . . . . . . . . . . . . . . . . . 97 B.2 Aufnahme des Versuchaufbaus I. . . . . . . . . . . . . . . . . . . . . . . . . . 97 B.3 Aufnahme des Versuchaufbaus II. . . . . . . . . . . . . . . . . . . . . . . . . . 98 B.4 Aufnahme des Versuchaufbaus III. . . . . . . . . . . . . . . . . . . . . . . . . 98 Masterarbeit Julian Paar 101


Tabellenverzeichnis 2.1 Properties des Matlab-Operators regionprops. . . . . . . . . . . . . . . . . 21 7.1 Initialgeschwindigkeit bei Pumpenspannung. . . . . . . . . . . . . . . . . . . . 74 7.2 Messergebnis durch Auslitern . . . . . . . . . . . . . . . . . . . . . . . . . . . 79 8.1 Kriterien für den Vergleich der Verfahren. . . . . . . . . . . . . . . . . . . . . 82 102


Literaturverzeichnis [1] Abmayer, W.: Einführung in die digitale Bildverarbeitung. B.G. Teubner Stuttgart, 1994 [2] Al-Hamadi, A. ; Niese, R. ; Michaelis, B.: Towards Robust Automatic Segmentation and Tracking Analysis of Objects in Video Sequences. In: Proceedings of the 3rd International Sympodium on Image and Signal Processing and Analysis (2003) [3] Arulampalam, M. ; Maskell, S. ; Gordan, N. ; Clapp, T.: A Tutorial on Particle Filters for Online Nonlinear/Non-Gaussian Bayesian Tracking. In: IEEE Transactions on Signal Processing 50 (2002), Nr. 2, S. 174–188 [4] Bar-Shalom, Y. ; Daum, F. ; Huan, J.: The Probalistic Data Association Filter. In: IEEE Control Systems Magazine (2009), December [5] Bar-Shalom, Y. ; Thiagalingam, K.: Probalistic Data Association Techniques for Target Tracking in Clutter. In: Proceedings of the IEEE 92 (2004), Nr. 3, S. 536–557 [6] Boor, C. de: A practical Guide to splines. third print. Springer Verlag, 1985 [7] Burger, W. ; Burge, M. J.: Digitale Bildverarbeitung. Eine Einführung mit Java und ImageJ. 2.Auflage. Springer Verlag, 2006 [8] Daronkolaei, A.G. ; Nazari, V. ; Menhaj, M.B. ; Shiry, S.: A Joint Probalistic Data Association Filter. Algorithm for Multiple Robot Tracking Problems. In: Tools in Artificial Intelligence [9] De Freitas, J.: CYCL3D:A Matlab Function to Plot 3-Dimensional Data on a Cyclindrical Surface, 2005. – QinetiQ Ltd., Winfrith Technology Center [10] Fox, D. ; Hightower, J. ; Liao, L. ; Schulz, D. ; Borriello, G.: Bayesing Filters for Location Estimation. In: IEEE Pervasive Computing (2003), Nr. 2(3), S. 24–33 [11] Gau, C.: Geostatistik in der Baugrundmodellierung. 1. Auflage. Vieweg+Teubner Research, 2010 [12] Gockel, T.: Form der wissenschaftlichen Ausarbeitung. Studienarbeit, Diplomarbeit, Dissertation, Konferenzbeitrag. 2.Auflage. Springer Verlag, 2010 103


Literaturverzeichnis [13] Gramlich, G.: Lineare Algebra; Eine Einführung. 2. aktualisierte Auflage. Carl Hanser Verlag München, 2009 [14] Gramlich, G.: Einführung in Matlab. 2010. – HS Ulm [15] Grinberg, M.: Data Association for Multi-Target-Tracking / Karlsruhe Institute of Technology (Technical Report IES-20xx-xx). – Forschungsbericht [16] Gui, L.C. ; Merzkirch, W.: A method of tracking ensembles of particle images. In: Experiments in Fluids 21 (1996). – Springer Verlag [17] Homberg, U.: Mulit-Objektverfolgung in Farbbildsequenzen auf der Basis von Partikelfilter, Otto-von-Guerike-Universität Magdeburg, Diplomarbeit, 2007 [18] Inkscape: Open-Source-Vektorgrafikeditor. – URL http://inkscape.org/?lang=de [19] Isard, M. ; Blake, A.: Condensation-Conditional Density Propagation for Visual Tracking. In: International Journal of Computer Vision 29 (1998), Nr. 1, S. 5–28 [20] Jähne, B.: Digitale Bildverarbeitung. 6.Auflage. Springer Verlag, 2005 [21] Kalman, R.E.: A New Approach to Linear Filtering and Prediction Problems. In: Transactions of the ASME-Journal of Basic Engineering (1960), Nr. 82 (Series D), S. 35–45 [22] Liu, F.: Objektverfolgung durch Fusion von Radar- und Monokameradaten auf Merkmalsebene für zukünftige Fahrerassistenzsysteme. KIT Scientific Publishing, 2010. – Dissertation [23] Maehlisch, M.: Filtersynthese zur simultanen Minimierung von Existenz-, Assoziations- und Zustandsunsicherheiten in der Fahrzeugumfelderfassung mit heterogenen Sensordaten, Universität Ulm, Dissertation, 2009 [24] Matlab: Image Processing Toolbox; User´s Guide. The Mathworks, Inc., 2011 [25] Maybeck, P.: Stochastic models, estimation, and control. Volume 1. Academic Press, 1979 [26] Ming-Hui, W. ; Zhi-Sheng, Y.: Improved Joint Probalistic Data Association Algorithm. In: ISIF (2002) [27] Mori, N. ; Chang, K.-A.: Introduction to mpiv. -PIV toolbox in MATLAB-, 2009 [28] Nitsche, W. ; Brunn, A.: Strömungsmesstechnik. 2. Auflage. Springer Verlag, 2006 Masterarbeit Julian Paar 104


Literaturverzeichnis [29] Pathan, S. ; Al-Hamadi, A. ; Senst, T. ; Michaelis, B.: Multi-Object Tracking Using Semantic Analysis and Kalman Filter. In: Proceedings of the 6th International Symposium on Image and Signal Processing and Analyses (2009) [30] Raffel, M. ; Willert, C. ; Wereley, S. ; Kompenhans, J.: Particle Image Velocimetry. A Practical Guide. 2. Edition. Springer Verlag, 2007 [31] Rasmussen, C. ; Hager, G.D.: Probalistic Data Association Methods for Tracking Complex Visual Objects. In: IEEE Transactions on Pattern Analysis and Machine Intelligence 23 (2001), June, Nr. 6. – 2001 [32] Sidenbladh, H.: Multi-Target Particle Filtering for the Probality Hypothesis Density. In: Proceedings of the 6th International Conference on Information Fusion (2003) [33] TheImagingSource: IC Capture. – URL http://www.theimagingsource.com/d e DE/products/software/enduser/iccapturetis/ [34] TheImagingSource: Optik-Grundlagen, 2003 [35] TheImagingSource: Objektive. Auswahl und Montage, 2005 [36] Thöniß, T.: Abbildungsfehler und Abbildungsleistung optischer Systeme. 2004. – Seminar Technische Optik in der Praxis“, PhotonikNet Niedersachsen, Göttingen ” [37] Vermaak, J. ; Doucet, A. ; Pérez, P.: Maintaining Multi-Modality through Mixture Tracking. In: Proceedings of the Ninth IEEE International Conference on Computer Vision (2003) [38] Welch, G. ; Bishop, G.: An Introduction to the Kalman Filter. 2006. – Department of Computer Science, University of North Carolina [39] Wierzimok, D.: Messung turbulenter Strömungen unterhalb wind-wellenbewegten Wasseroberfläche mittels Bildfolgeanalyse, Ruprecht-Karl-Universität Heidelberg, Dissertation, 1990 Masterarbeit Julian Paar 105


Einzelbildnachweis Abb. 2.3-(a): http://upload.wikimedia.org/wikipedia/commons/thumb/b/ba/Vierer-Nachbarschaft.p ng/220px-Vierer-Nachbarschaft.png Abb. 2.3-(b): http://upload.wikimedia.org/wikipedia/commons/thumb/f/fb/Achter-Nachbarschaft.p ng/220px-Achter-Nachbarschaft.png Abb. 2.4-(c): http://docs.gimp.org/2.2/images/filters/examples/render-checkerboard1.jpg Abb. 2.4-(c): http://www.miszalok.de/Images/Lena512.bmp Abb. 2.7-(a): http://upload.wikimedia.org/wikipedia/commons/thumb/f/fc/Bike sapa29.jpg/402px -Bike sapa29.jpg Abb. 2.8-(a): http://upload.wikimedia.org/wikipedia/commons/5/55/Inhomogene Beleuchtung mit Ob jekten.png Abb. 2.8-(b): http://upload.wikimedia.org/wikipedia/commons/1/10/Inhomogene Beleuchtung ohne Ob jekte.png Abb. 3.1: http://www.uni-stuttgart.de/itlr/forschung/waerme/piv.jpg Abb. 3.2: [28, Bild 3.43] Abb. 3.3: In Anlehnung an [30, Abb. 4.1, S. 98] und [30, Abb. 4.2, S. 99] Abb. 3.5: In Anlehnung an [7, Abb. 17.1, S. 412] Abb. 3.6: In Anlehnung an [30, Abb. 5.11, S. 133] Abb. 3.7: In Anlehnung an [30, Abb. 4.14, S. 136] und [30, Abb. 5.5, S. 128] 106


Einzelbildnachweis Abb. 3.8: In Anlehnung an [30, Abb. 5.12, S. 134] Abb. 4.2: In Anlehnung an [38, Figure 1-2.] Abb. 5.2: http://upload.wikimedia.org/wikipedia/commons/a/a2/APS-Principle.svg Abb. 5.4: http://wiki.zimt.uni-siegen.de/fertigungsautomatisierung/index.php/Datei:Hellfe ld-Durchlichtbeleuchtung.jpg Abb. 5.5: Entnommen aus [36, Bild 18] Masterarbeit Julian Paar 107

Weitere Magazine dieses Users
Ähnliche Magazine