Dokument 1.pdf - Opus
Dokument 1.pdf - Opus
Dokument 1.pdf - Opus
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
Automatische Bildrestaurierung<br />
für faseroptische Systeme<br />
am Beispiel von Fiberskopen<br />
Der Technischen Fakultät der<br />
Universität Erlangen-Nürnberg<br />
zur Erlangung des Grades<br />
DOKTOR-INGENIEUR<br />
vorgelegt von<br />
Christian Winter<br />
Erlangen — 2008
ii<br />
Als Dissertation genehmigt von<br />
der Technischen Fakultät der<br />
Universität Erlangen-Nürnberg<br />
Tag der Einreichung: 2. April 2008<br />
Tag der Promotion: 10. Juli 2008<br />
Dekan: Prof. Dr.-Ing. Johannes Huber<br />
Berichterstatter: Prof. Dr.-Ing. Heinz Gerhäuser<br />
Prof. Dr.-Ing. Dietrich Paulus
Kurzfassung<br />
Ein flexibles Endoskop mit einem Bildleiter aus Glasfasern wird als Fiberskop (Fa-<br />
serendoskop) bezeichnet. Der Einsatz solcher faseroptischen Abbildungssysteme er-<br />
möglicht eine im wörtlichen Sinn flexible Begutachtung schwer zugänglicher Hohlräu-<br />
me über kleinste Zugangswege. Faserendoskope spielen insbesondere in der medizi-<br />
nischen Diagnostik, Behandlung und Forschung, sowie in der industriellen Qualitäts-<br />
prüfung und Instandhaltung eine tragende Rolle. Gegenüber starren, linsenoptischen<br />
Endoskopen und Videoendoskopen zeigen sie eine deutlich geringere Abbildungsqua-<br />
lität. Diese resultiert aus der Abtastung der Szene durch das bildleitende Faserbündel<br />
mit einer relativ geringen Anzahl an Einzelfasern (Größenordnung: 3.000 bis 30.000)<br />
und äußert sich besonders in Struktur- und Farbartefakten. Um der störenden Waben-<br />
struktur entgegenzuwirken, wird bislang in der Praxis eine optische Defokussierung<br />
durchgeführt oder in der Literatur der Einsatz einfacher digitaler Filter vorgeschlagen.<br />
Für eine Weiterverwendung von fiberskopischen Bilddaten als Grundlage einer räum-<br />
lichen Rekonstruktion, Bildanalyse oder zur Bewegungsstabilisierung fehlen bislang<br />
wissenschaftliche Untersuchungen bzw. praktikable Umsetzungen.<br />
Diese Arbeit greift Aspekte aus der Signaltheorie auf, um die Hintergründe der<br />
Abtastvorgänge im Fall der Faserübertragung theoretisch zu untermauern. Neben der<br />
Erweiterung von Filteransätzen wird zusätzlich auch die Interpolation im Ortraum mit<br />
einer automatischen Parametrisierung vorgeschlagen. Obwohl ein Vergleich dieser bei-<br />
den Signalräume der Filterung im Fall von Grauwertbildern eine höhere Restaurie-<br />
rungsgüte bescheinigt, erlangt die Interpolation dennoch ihre Bedeutung, wenn es um<br />
die Reduzierung von Farbartefakten geht. Durch direkten Zugriff auf den Bildsensor<br />
und Auswertung der Sensordaten werden diese Farbartefakten mit einer Erweiterung<br />
der Interpolation umgangen. Außerdem können durch die registrierte Bewegung meh-<br />
rerer Einzelaufnahmen Artefakte der Interpolation reduziert werden. Mittels Erhöhung<br />
der Anzahl von Abtastwerten kann sogar die Auflösung der resultierenden Bilder ge-<br />
steigert werden. Die Grenze dieser Auflösungssteigerung wird in der vorliegenden Ar-<br />
beit theoretisch hergeleitet. Zudem wird ein Verfahren vorgeschlagen, wie diese Gren-<br />
ze für ein faseroptisches Bildbündel messtechnisch abgeschätzt werden kann.<br />
iii
iv<br />
Bei der Realisierung der Algorithmen wird besonderer Wert auf die breite Nutzbar-<br />
keit gelegt, insbesondere für verschiedene Kombinationen von Faserendoskopen und<br />
Kameras, die sich jeweils in ihren technischen Spezifikationen wie Auflösung, Grö-<br />
ße und Verwendungszweck unterscheiden können. Ein physikalisch motiviertes Ab-<br />
bildungsmodell der Glasfaserübertragung erlaubt die Bereitstellung von Bilddaten als<br />
Grundwahrheit für den unmittelbaren Vergleich zwischen originalen und aufbereiteten<br />
Bilddaten. Mit diesem Modell ist es auch möglich, die Sensordaten einer Einchip-<br />
Kamera zu simulieren, auf denen der vorgestellte Ansatz zur farbartefaktfreien Inter-<br />
polation basiert. Auf der Basis von definierten Vergleichskriterien und einer geeigneten<br />
Zusammenstellung von Referenzbildern werden die vorgestellten Verfahren evaluiert<br />
und wichtige Aussagen experimentell untermauert.
Abstract<br />
A flexible endoscope with a fiber bundle for optical transmission is called fibersco-<br />
pe. The application of such fiber optic devices allows, in the literal sense, a flexible<br />
investigation of hardly accessible hollow cavities via small entries. Fiber endoscopes<br />
play an important role particularly in medical diagnosis, therapy and research, as well<br />
as in industrial quality inspection and machine maintenance. Compared to rigid, lens<br />
based endoscopes and videoscopes they have a substantially lower imaging quality.<br />
This follows from sampling of the scene by the fiber based image transmission with a<br />
relatively small amount of single fibers (around 3.000 to 30.000) and results in struc-<br />
tural and color artefacts. Until now to avoid this the defoccusion of optics or simple<br />
digital filterung are stated as standard methods both in literature and practice. For fur-<br />
ther use of fiberscopic images, for instance for 3d-reconstruction, image analysis or<br />
motion compensation, scientific evaluation and feasible implementations are currently<br />
missing.<br />
This work makes use of signal theory to substantiate the background of sampling<br />
for fiber optic transmission. Besides the extension of filter approaches it also proposes<br />
the auto-parametrization for an interpolation approach. Although the comparison of<br />
these two signal spaces certifies better results to the filter approach as long as gray-<br />
scale images are used, the interpolation approach shows its superiority with respect to<br />
reduction of color artefacts. By directly accessing and analyzing the sensor signals the-<br />
se color artefacts are avoided. Furthermore it is possible to reduce structural artefacts<br />
of interpolation by merging sampling data of a tracked motion sequence and even to<br />
increase the resolution by a higher number of samples. In this work, the limit for the<br />
latter super resolution approach is derived from theory and a measurement procedure<br />
to estimate this limit for a given fiber bundle is proposed.<br />
Regarding the development of algorithms, a special focus is placed on a broad<br />
applicability, especially for different combinations of fiberscopes and cameras which<br />
may differ in their technical specifications like resolution, size and intended use. A<br />
physically motivated transmission model provides ground truth image data for a direct<br />
comparison between original and processed versions. The model also simulates the<br />
v
vi<br />
sensor data of a single chip camera for use with the proposed approach of interpolation<br />
without color artefacts. Based on the definition of certain criteria and an appropriate set<br />
of reference images, the proposed approaches are evaluated and important conclusions<br />
are experimentally emphasized.
Inhaltsverzeichnis<br />
1 Einleitung 1<br />
1.1 Bedeutung der Endoskopie . . . . . . . . . . . . . . . . . . . . . . . 2<br />
1.2 Problemstellung und Zielsetzung . . . . . . . . . . . . . . . . . . . . 4<br />
2 Stand der Technik 11<br />
2.1 Historischer Weg der flexiblen Endoskopie . . . . . . . . . . . . . . . 11<br />
2.2 Anwendungen mit Faseroptik . . . . . . . . . . . . . . . . . . . . . . 13<br />
2.3 Eigenschaften von faseroptischen Systemen . . . . . . . . . . . . . . 18<br />
2.4 Methoden der Bildaufbereitung für die Endoskopie . . . . . . . . . . 28<br />
2.5 Bildrestaurierung faseroptischer Einzelaufnahmen . . . . . . . . . . . 31<br />
2.6 Auflösungssteigerung in bewegten Bildsequenzen . . . . . . . . . . . 37<br />
3 Eigener Beitrag 47<br />
3.1 Modellierung und Kalibrierung von Faseroptiken . . . . . . . . . . . 47<br />
3.2 Restaurierung einzelner Intensitätsbilder . . . . . . . . . . . . . . . . 60<br />
3.3 Artefaktreduzierende Farbinterpolation . . . . . . . . . . . . . . . . . 82<br />
3.4 Nachkalibrierung zur Systemstabilisierung . . . . . . . . . . . . . . . 85<br />
3.5 Superposition in fiberoptischen Bildsequenzen . . . . . . . . . . . . . 88<br />
3.6 Definition von Gütekriterien zur Evaluierung . . . . . . . . . . . . . 109<br />
4 Untersuchungen und Ergebnisse 123<br />
4.1 Übersicht über die verwendeten Geräte . . . . . . . . . . . . . . . . . 124<br />
vii
viii<br />
4.2 Qualität von 3D-Rekonstruktionen . . . . . . . . . . . . . . . . . . . 128<br />
4.3 Modi und Effektivität der Filterung . . . . . . . . . . . . . . . . . . . 137<br />
4.4 Modellbasierter Vergleich von Filterung vs. Interpolation . . . . . . . 145<br />
4.5 Evaluierung der Farbbildrestaurierung . . . . . . . . . . . . . . . . . 153<br />
4.6 Auflösungssteigerung durch Superposition . . . . . . . . . . . . . . . 156<br />
4.7 Echtzeit-Fähigkeit der Ansätze . . . . . . . . . . . . . . . . . . . . . 170<br />
5 Zusammenfassung und Ausblick 173<br />
5.1 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . 173<br />
5.2 Ausblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175<br />
Abbildungs- und Tabellenverzeichnis 181<br />
Glossar, Formelzeichen und Symbole 187<br />
Literaturverzeichnis 193<br />
Lebenslauf 207
1<br />
1<br />
Einleitung<br />
In vielen Bereichen der medizinischen Diagnostik und Therapie, aber auch der in-<br />
dustriellen Inspektion und Instandhaltung spielt die visuelle Begutachtung von Ober-<br />
flächen eine tragende Rolle. Oft gelten hohe Anforderungen an Erkennungssicherheit<br />
und Prüfgenauigkeit. Viele kritische Stellen sind jedoch nicht immer auf einfache Wei-<br />
se zugänglich. Dabei kann es sich beispielsweise um medizinische Untersuchungen im<br />
Inneren des menschlichen Körpers oder um komplexe Prüfaufgaben an industriellen<br />
Hohlräumen handeln.<br />
Um eine Aussage über den Zustand von schwer zugänglichen Bereichen treffen zu<br />
können, sind unterschiedliche bildgebende Verfahren, wie z. B. Röntgenstrahlung, Ul-<br />
traschall, Magnetresonanz oder invasives Öffnen denkbar. Den genannten Modalitäten<br />
(a) (b)<br />
Abbildung 1.1: (a): Flexibles Endoskop zum medizinischen Einsatz als Naso-Pharyngoskop<br />
zur Betrachtung des Nasen- und Halsbereichs oder zur technischen Inspektion von Hohlräu-<br />
men (Abb. freundlich genehmigt von Schölly Fiberoptic GmbH). (b): Gastroskop zur optischen<br />
Diagnose im menschlichen Verdauungstrakt (Abb. freundlich genehmigt von Olympus Deutsch-<br />
land GmbH).
2 1.1. BEDEUTUNG DER ENDOSKOPIE<br />
(a) (b)<br />
Abbildung 1.2: Flexibles Endoskop (a) zur Inspektion technischer Hohlräume. Die Abbildung<br />
der feinen verwundenen Kühlkanäle (c) im Inneren einer industriellen Turbinenschaufel auf<br />
dem Prüfstand (b) erfordert einen Arbeitsdurchmesser des Geräts von höchstens 1mm. Abb.<br />
(a) mit freundlicher Genehmigung von Kurt Fuchs im Auftrag des Fraunhofer IIS.<br />
und Verfahren ist gemeinsam, dass sie entweder irreversible Veränderungen oder Be-<br />
schädigungen an den untersuchten Körpern hinterlassen oder die verwendete Strahlung<br />
eine Gefahr für das Gewebe darstellt, das ihr ausgesetzt wird. Durch metallische Ma-<br />
terialien sind oft verfälschende Reflexionen und Abschirmungen unvermeidlich. Um<br />
die beschriebenen Nachteile zu umgehen, werden oftmals flexible Endoskope (vgl.<br />
Abb. 1.1) eingesetzt, die eine visuelle Inspektion von Hohlräumen und teilweise sogar<br />
eine direkte Intervention unter Sichtbedingungen erlauben.<br />
1.1 Bedeutung der Endoskopie<br />
Das Universitätsklinikum Giessen und Marburg kommentiert die Bedeutung der En-<br />
doskopie für den Bereich der Gastroenterologie 1 mit der kurzen, aber prägnanten Be-<br />
merkung:<br />
Die Endoskopie ist die beste Methode, um Erkrankungen des Magen und<br />
des Darmes zu diagnostizieren. [Uni07]<br />
Auch die Ärzte Zeitung hebt die Anwendung der Endoskopie für den menschlichen<br />
Verdauungstrakt mit den Worten hervor:<br />
1 Gastroenterologie: Die Gastroenterologie befasst sich mit der Diagnostik, nichtoperativen Therapi-<br />
en (z. B. medikamentöse Therapien) und Prävention von Erkrankungen des Magen-Darm-Trakts
1.1. BEDEUTUNG DER ENDOSKOPIE 3<br />
(a) (b) (c)<br />
Abbildung 1.3: Schematische Darstellung der Endoskopführung für Untersuchungen im Pa-<br />
tienten: (a) Gastroskopie zur optischen Diagnose im oberen Verdauungstrakt, (b) Koloskopie<br />
zur Spiegelung des Dickdarms und (c) Bronchoskopie zur Untersuchung der Atemwege und der<br />
Lunge. Abb. von National Cancer Institute (Terese Winslow).<br />
Der Stellenwert der Endoskopie ist in der Gastroenterologie unverändert<br />
hoch. Sie ist nicht nur für die Diagnostik wichtig, sondern ermöglicht zu-<br />
nehmend ein zeitgleiches therapeutisches Vorgehen. Damit gewinnt sie<br />
auch für die Behandlung von Patienten mit Erkrankungen des Gastroin-<br />
testinaltraktes mehr und mehr an Bedeutung. [Ärz00]<br />
Im Rückblick der Industriemesse Hannover vom 19. bis 24. April 2004 ist von der Fir-<br />
ma Karl Storz Endoskope, einem führenden Endoskopiehersteller, über Entwicklungen<br />
für den industriellen Einsatz von Endoskopen zu lesen:<br />
Da der Trend zu immer kleineren und komplizierteren industriellen Bau-<br />
teilen anhält, wächst auch der Bedarf an solchen miniaturisierten, aber<br />
leistungsfähigen Prüfsystemen. Damit lassen sich auch kleinste Hohlräu-<br />
me kontrollieren, zum Beispiel in Turbinen [...]. Ein weiterer wesentlicher<br />
Vorteil liegt in der Vermessung der Schadensgröße. Für die industrielle<br />
Endoskopie ist dies ein erheblicher Fortschritt, denn wichtige Befunde<br />
sind so jederzeit verfügbar - bei Qualitätskontrollen oder Schadensana-<br />
lysen beispielsweise in der Luftfahrt ist dies natürlich von erheblicher Be-<br />
deutung. [Kar04]<br />
Weitere unzählige Aussagen in der Literatur und dem Internet schließen sich den<br />
exemplarisch aufgeführten Aussagen an und machen auf die große Bedeutung der En-<br />
doskopie in vielfältigen Bereichen aufmerksam. Die Erforschung und Weiterentwick-
4 1.2. PROBLEMSTELLUNG UND ZIELSETZUNG<br />
lung von endoskopischen Systemen wird damit in eindrücklicher Weise gerechtfertigt<br />
und gefordert.<br />
1.2 Problemstellung und Zielsetzung<br />
Vor der kritischen Betrachtung von Technik und Anwendung der Endoskopie werden<br />
in einem kurzen Abriss zunächst alternative Verfahren für die Hohlraumprüfung dis-<br />
kutiert. Deren schwierige oder unzureichende Handhabung motiviert den Einsatz fle-<br />
xibler Endoskope und begründet schließlich die Notwendigkeit der Thematik, welcher<br />
sich die vorliegende Arbeit widmet.<br />
1.2.1 Alternative Verfahren für die Hohlraumprüfung<br />
Die Vorzüge der Endoskopie als rein optisches Abbildungssystem zur Inspektion und<br />
Untersuchung lassen sich am besten an den differenzierten Nachteilen sonstiger bild-<br />
gebender Verfahren für diesen Anwendungsbereich aufzeigen, wobei die ersten drei<br />
Verfahren gar keine Möglichkeit zur Farbbildgebung bieten.<br />
• Röntgenstrahlung (CT) ist nur in eingeschränktem Maße und nur dort einsetz-<br />
bar, wo ausreichende Materialverträglichkeit gegeben ist, sowie eine Gewebe-<br />
schädigung ausgeschlossen oder toleriert werden kann. Des Weiteren spielt die<br />
ungewollte Abschirmung durch eine etwaige metallische Umgebung eine ent-<br />
scheidende Rolle bei der Entscheidung für dieses Medium. Das Handelsblatt<br />
verwies unlängst auf eine Studie, die den Umgang mit dieser Technik als zu<br />
sorglos kritisiert [Han07a].<br />
• Ultraschall (Sonographie) schneidet in der Qualität seiner Bildgebung auf-<br />
grund der geringeren Raumauflösung gegenüber dem CT und der niedrigeren<br />
Weichteil-Kontrastauflösung gegenüber dem MRT schlechter ab. Selbst erfahre-<br />
nen Experten gelingen selten vergleichbare Aufnahmen und Interpretationen mit<br />
diesem Medium [Sei03].<br />
• Magnetresonanz (MRT) ist äußerst sensibel auf Abschirmung durch ferroma-<br />
gnetische Metalle und eine Untersuchung oder Inspektion ist im Vergleich zu an-<br />
deren bildgebenden Verfahren relativ zeitaufwändig. Die Technik für diese Art<br />
der Bildgebung ist bautechnisch noch größer als beim CT, weshalb sich MRT<br />
für einen handlichen mobilen Einsatz nicht eignet.
1.2. PROBLEMSTELLUNG UND ZIELSETZUNG 5<br />
• Das invasive Öffnen eines Körpers oder Objekts ist stets mit einer Verletzung<br />
von Gewebe oder Material verbunden und stellt damit ein hohes Risiko für die<br />
anschließende Regenerierung dar. Bei technischen Anwendungen ist dieses Vor-<br />
gehen meist mit der Beschädigung oder Zerstörung von Bauteilen verbunden<br />
und daher ebenfalls unerwünscht.<br />
• Die Optische Inspektion von außen eignet sich primär nur für lineare Zugänge.<br />
Das bedeutet, dass eine Apparatur mit Abstand zum Objekt nur geradlinig nach<br />
vorne (0 ◦ -Optik) Einblick geben kann. Seitenwände oder gar verdeckte Bereiche<br />
in der Tiefe und abzweigende Hohlräume sind somit nur unter großem techni-<br />
schen Aufwand bzw. gar nicht inspizierbar.<br />
Den beschriebenen Modalitäten 2 ist gemein, dass sie entweder irreversible Verän-<br />
derungen oder Beschädigungen an den zu untersuchenden Körpern hervorrufen oder<br />
die verwendete Strahlung eine Gefahr für das Gewebe darstellt, das ihr ausgesetzt wird.<br />
Weiterhin stellen metallische Materialien nicht selten eine verfälschende Abschirmung<br />
dar. Ohne aktive Strahlung ist mit den meisten der genannten Verfahren kein vollstän-<br />
diger Einblick möglich.<br />
Konkurrenz durch Videoskopie Während der letzten zehn Jahre setzt sich auf dem<br />
Markt mehr und mehr ein weiterer flexibler Endoskoptyp durch: Das Videoskop. Die<br />
Lage des auf der Spitze des Videoskops angebrachten Sensorchips ist namensgebend<br />
für die Tip-Chip-Technologie. Die Bilddaten werden hier in elektronischer Form, und<br />
daher kostengünstig und robust zur auswertenden Einheit übermittelt. Vorteile sind<br />
die Möglichkeit einer höheren Auflösung und die Tatsache, dass die Bilder ohne Wa-<br />
benstruktur abgebildet werden können. Allerdings treten durch die Miniaturisierung<br />
der Optik und des Sensors mit Elementen in der Größenordnung 2µm teilweise star-<br />
ke Farbartefakte beim Betrachten texturierter Oberflächen auf. Weitere Nachteile der<br />
Videoendoskoptechnik sind die technischen Limitierungen für die Sensorabmessun-<br />
gen. Der minimale Arbeitsdurchmesser von derzeit knapp vier Millimeter macht sie<br />
für bestimmte Anwendungsgebiete ungeeignet, beispielsweise der Bronchoskopie an<br />
Kindern, wo entsprechend kleinere Durchmesser notwendig sind. Aufgrund von hohen<br />
Anschaffungskosten können sich nur wenige Ärzte in ihrer Praxis den Umstieg auf die<br />
digitale Videoendoskopie leisten, was eine flächendeckende Verbreitung z. B. unter<br />
niedergelassenen Ärzten verhindert. Bei bestimmten mobilen Anwendungen wird be-<br />
wusst weiterhin auf die bewährte und robuste Fasertechnolgie gesetzt. Faserbasierte<br />
2 Modalitäten: In der bildgebenden Medizin bezeichnen Modalitäten verschiedene Signalarten<br />
(Licht, Ultraschall, Röntgenstrahlung, usw.), mit denen man Bilder vom menschlichen Körper gewinnt.
6 1.2. PROBLEMSTELLUNG UND ZIELSETZUNG<br />
Geräte kommen zunächst ohne zusätzliche Elektronik aus und erweisen sich deshalb<br />
im Feldeinsatz als mobiler und robuster, als ein Videoskop, das in heutigen marktübli-<br />
chen Realisierungen an einen sog. Endoskopturm mit Steuerelektronik und -mechanik<br />
gebunden ist. Vergleichsweise hochwertige Kamerasensoren, die am Okular von En-<br />
doskopen montiert werden, kosten deutlich weniger bzw. lässt sich mit üblichen Indus-<br />
triekameras eine höhere Aufnahmequalität bzgl. Lichtempfindlichkeit und Signal-zu-<br />
Rausch-Verhältnis erzielen.<br />
Für viele existierende faserendoskopische Geräte (z. B. in Praxen niedergelassener<br />
Ärzte oder in Werk- und Prüfstätten des industriellen Umfelds) bedeutet daher eine<br />
automatisierte Bildrestaurierung zur verbesserten Darstellung von Einzelbildern, aber<br />
auch die Aufbereitung von archivierten Sequenzen einen enormen Mehrwert und eine<br />
Steigerung des wirtschaftlichen Nutzens durch bessere Anwendbarkeit in schwierigen<br />
Aufgabenbereichen.<br />
1.2.2 Flexible Faserendoskopie<br />
Auch wenn die faseroptische Endoskopie die meisten der im letzten Abschnitt geschil-<br />
derten Schwierigkeiten umgeht und sich deshalb für einen breiten Einsatz in Medizin<br />
und Industrie anbietet, stellt sie die Bildgebung doch vor große Herausforderungen.<br />
Um der detaillierten Recherche und Beschreibung dieser Probleme in Abschnitt 2.3.3<br />
nicht vorzugreifen, sei an dieser Stelle lediglich auf die eingeschränkte Bildqualität<br />
und die niedrige Auflösung hingewiesen, die sich auf viele digitale Anwendungen,<br />
aber auch auf die Darstellung auf Kontrollmonitoren negativ auswirken. Beim Blick<br />
durch ein Faserendoskop mit dem Auge macht sich dies durch eine sehr kleine Bild-<br />
größe bemerkbar, bei der die Faserstruktur nicht mehr erkennbar ist. Der Hersteller<br />
dimensioniert das Gerät nach dem Motto: Besser ein kleines gutes Bild, als ein großes<br />
undeutliches. Abbildung 1.4 zeigt diese Schwächen an zwei vergrößerten Ausschnitten<br />
eines Kalibriermusters, das durch ein Endoskop mit Glasfaserbündel betrachtet wird.<br />
In der Vergrößerung (b) und (c) ist deutlich die Beeinträchtigung durch eine grobe<br />
Rasterung zu erkennen, die beispielsweise eine direkte Weiterverarbeitung zur Merk-<br />
malserkennung oder räumlichen Rekonstruktion behindert bzw. unmöglich macht.<br />
Wo der im buchstäblichen Sinne flexiblere Einsatz nicht benötigt wird und der Vor-<br />
teil einer starren Hand-Auge-Transformation von größerem Nutzen ist, liegt die Präfe-<br />
renz eindeutig bei rigiden (starren) Endoskopen. Sie zeigen aufgrund der durchgehen-<br />
den linsenoptischen Bildübertragung eine wabenfreie Abbildung von deutlich höherer
1.2. PROBLEMSTELLUNG UND ZIELSETZUNG 7<br />
(a) (b) (c)<br />
Abbildung 1.4: Typische Abbildung eines Kalibriertargets durch ein flexibles Endoskop (a).<br />
Stark vergrößerte Ausschnitte zeigen die Wabenstruktur bei Verwendung eines Glasfaser-<br />
Endoskops (b,c).<br />
Güte. In der vorliegenden Arbeit wird dieser Bautyp teilweise als Vergleich für die<br />
erzielte Bildqualität mit flexiblen Geräten herangezogen.<br />
1.2.3 Motivation dieser Arbeit<br />
Konnten mit Abschnitt 1.2.1 die positiven Eigenschaften der Endoskopie als bildge-<br />
bendes Verfahren für viele Bereiche herausgestellt werden, so zeigt doch der Vergleich<br />
mit der qualitativ höherwertigen rigiden Endoskoptechnik bzw. den Videoendoskop-<br />
systemen, dass vor allem die schlechte Qualität (Beschreibung der Beeinträchtigun-<br />
gen s. Abschn. 2.3.3 auf S. 23) der übertragenen Bilddaten einen verbreiteten Einsatz<br />
von faseroptischen Geräten behindert. Die Beeinträchtigungen in der Darstellung von<br />
Details und hinsichtlich weiterführender (Farb-) Bildverarbeitung mit herkömmlichen<br />
Industriekameras werden dabei maßgeblich durch die architekturbedingte Faserstruk-<br />
tur hervorgerufen. Durch die gestörte Licht- und Bildübertragung entstehen Struktur-<br />
und Farbartefakte, die eine texturgetreue Abbildung und Darstellung von Szenen be-<br />
hindern.<br />
In Kapitel 2 werden zahlreiche Verfahren aus der Literatur vorgestellt und disku-<br />
tiert, die eine Aufbereitung von endoskopischen Bilddaten erlauben. Dabei handelt es<br />
sich zum einen um mechanische und optische Konstruktionen, die den visuellen Ein-<br />
druck der Bilder z. B. durch Weichzeichnung verbessern. Zum anderen werden in der<br />
Praxis Algorithmen der Bildbearbeitung eingesetzt, die entweder fest in ein System<br />
integriert werden, oder als Software der Bildaufbereitung für spezielle Anwendungen
8 1.2. PROBLEMSTELLUNG UND ZIELSETZUNG<br />
dienen. Es ist auffällig, dass die Umsetzung und konkrete Anwendung der Ansätze sel-<br />
ten eine automatische Parametrisierung unterstützen und sich deshalb nur für spezielle<br />
Kombinationen aus Kamera und Endoskop eignen. Außerdem finden sich in der ein-<br />
schlägigen Literatur keine zielführenden Bestrebungen, einen objektiven Vergleichs-<br />
maßstab für entwickelte und eingesetzte Methoden der Bildverbesserung zu schaffen.<br />
Die vorliegende Arbeit diskutiert die Herausforderungen, die sich beim Einsatz<br />
flexibler Endoskope bezüglich deren Bildqualität stellen, gibt einen Überblick über<br />
derzeitige Lösungsansätze und widmet sich auf dieser Grundlage zwei Aspekten:<br />
Methoden zur Bildaufbereitung Es werden Verfahren zur Restaurierung und Stei-<br />
gerung der Qualität von faseroptischen Abbildungen entwickelt und analysiert. Sowohl<br />
der Frequenz-, als auch der Ortsraum spielt dabei gleichermaßen eine bedeutende Rol-<br />
le, da beide Signalräume ihre Vorzüge in der Bearbeitung der Bilddaten zeigen. Für<br />
die Filterung werden verschiedene spektrale Maskentypen und die automatische Fest-<br />
legung optimaler Grenzfrequenzen untersucht. Für die Interpolation werden zwei neu-<br />
artige Ansätze vorgestellt. Dabei handelt es sich erstens um eine Möglichkeit, durch die<br />
registrierte Bewegung mehrerer Einzelaufnahmen Artefakte der Interpolation zu redu-<br />
zieren und durch Mehrfachabtastung sogar die Auflösung der resultierenden Bilder zu<br />
steigern. Für diese Auflösungssteigerung wird die theoretische Grenze hergeleitet und<br />
ein Verfahren vorgeschlagen, wie diese Grenze für ein faseroptisches Bildbündel mess-<br />
technisch abgeschätzt werden kann. Der zweite Ansatz behebt Farbartefakte durch un-<br />
gleich beleuchtete Bildsensoren, indem die Beleuchtungsschwerpunkte der Fasern und<br />
die Verteilung des Farbfiltermosaiks auf dem Farbsensor berücksichtigt werden. Durch<br />
geeignete Kombination von Methoden beider Signalräume ergeben sich weitere inter-<br />
essante Anwendungen, z. B. zur Kompensation singulärer Faserdefekte. Besonderer<br />
Wert wird dabei auf eine breite Nutzbarkeit der Algorithmen gelegt, also insbesondere<br />
für verschiedene Kombinationen von Endoskopen und Kameramodulen, die sich je-<br />
weils in ihren technischen Spezifikationen, wie Auflösung, Größe oder Verwendungs-<br />
zweck unterscheiden können.<br />
Modellbasierte Evaluierung Weiterhin wird mit dieser Arbeit erstmals ein Modell<br />
zur Nachbildung des Abbildungsprozesses einer fasergestützten Optik vorgestellt. Die<br />
synthetische Generierung der Faserstruktur berücksichtigt dabei die physikalischen<br />
Grundlagen der optischen Übertragung von sichtbarem Licht durch Faserbündel. Da-<br />
mit ist es möglich, vielen Methoden zur quantitativen Evaluierung der Aufbereitungs-<br />
qualität (u.a. Differenz- und Ähnlichkeitsmaße) die notwendige Grundwahrheit bereit-<br />
zustellen. Da der genannte Ansatz zur Kompensation von Farbartefakten die Rohdaten
1.2. PROBLEMSTELLUNG UND ZIELSETZUNG 9<br />
des Kamerasensors auswertet, wird auch diese Darstellungsform als Datenformat un-<br />
terstützt. So ist es möglich, auf einer gemeinsamen Datenbasis die unterschiedlichen<br />
Vorgehensweisen zu vergleichen und einen Standard zur Evaluierung von Algorithmen<br />
Dritter zu etablieren. Weiterhin wird die konkrete Anwendung der 3D-Rekonstruktion<br />
von parametrisierbaren Hohlräumen genutzt, um die Güte der Restaurierungsansätze<br />
zu beurteilen.<br />
Für viele existierende Geräte (z. B. in Praxen niedergelassener Ärzte) und aktuelle<br />
Anwendungsgebiete (vgl. Abschn. 2.2) kann eine automatisierte Bildrestaurierung zur<br />
verbesserten Darstellung von Einzelbildern, aber auch die Aufbereitung von archivier-<br />
ten Sequenzen einen enormen Mehrwert und eine Steigerung des wirtschaftlichen Nut-<br />
zens durch bessere Anwendbarkeit in schwierigen Aufgabenbereichen bedeuten. Mit<br />
den definierten Vergleichsmaßstäben soll eine Zusammenstellung von Referenzbildern<br />
mit bekannter Grundwahrheit als Evaluierungsstandard für bestehende und zukünftige<br />
Entwicklungen von Algorithmen für die faseroptische Bildverarbeitung etabliert wer-<br />
den.
2 Stand<br />
11<br />
der Technik<br />
2.1 Historischer Weg der flexiblen Endoskopie<br />
Die Ursprünge der modernen Endoskopie gehen auf medizinische Fragestellungen und<br />
Untersuchungen zurück [SS07]. Der Wunsch der Ärzte, menschliche Körperhöhlen<br />
oder -gänge zu untersuchen, um Erkrankungen zu erkennen und zu behandeln, ist sehr<br />
alt. Leicht zugängliche Körperhöhlen wie der Mund, das Rektum 1 oder auch die Schei-<br />
de wurden schon in der Antike mit Hilfe von Spekula 2 untersucht, was als der Beginn<br />
der starren Endoskopie gesehen wird. Bis ins 19. Jahrhundert stellte die Beleuchtung<br />
der dunklen Hohlräume eine der größten Herausforderungen dar. Bozzini publizierte<br />
im Jahre 1804 in einer kleinen Frankfurter Tageszeitung seine neue Erfindung eines<br />
Lichtleiters. Einen ausführlichen Bericht veröffentlichte er zwei Jahre später im Jour-<br />
nal der Praktischen Arzneikunde und Wundarzneikunst. Das Gerät besteht aus einem<br />
optischen Teil mit der Beleuchtungseinrichtung und einem mechanischen Teil, der sich<br />
der Anatomie der Körperöffnung anpasst. Mit dem Einsatz des Lichtleiters für urolo-<br />
gische Untersuchungen an Patienten fand die Endoskopie mit dem französischen Chir-<br />
urgen Desormeaux 1865 einen ersten Höhepunkt. Seine Instrumente bestanden aus<br />
einem System von Spiegeln und Linsen mit einer offenen Flamme als Lichtquelle. Die<br />
häufigste Komplikation bestand daher in Verbrennungen der Haut.<br />
Der nächste Meilenstein wurde mit der Erfindung der Glühlampe erreicht. Der Uro-<br />
loge Nitze präsentierte 1879 ein Zystoskop 3 mit verbesserter Prismen -und Spiegeltech-<br />
nik, das er mit einer bereits 1845 bekannten Platin-Glühlampe kombinierte. Das direkte<br />
Mitführen der Beleuchtung erlaubte eine wesentlich flexiblere und stärkere Ausleuch-<br />
1 Rektum: (lat. rectum) Mastdarm<br />
2 Spekulum: (lat. Speculum) Spiegel<br />
3 Zystoskop: Gerät zur Spiegelung der Blase
12 2.1. HISTORISCHER WEG DER FLEXIBLEN ENDOSKOPIE<br />
(a) (b)<br />
Abbildung 2.1: Kuriose Erfindung: Faseroptische Lesehilfe (nach Pelli [PLS85]).<br />
tung. Leider behob diese Technik noch nicht die Gefahr von Verbrennungen durch<br />
die Lichteinwirkung. Erst mit Einführung der Linsensysteme 1932 durch Schindler<br />
und Wolf und der damit verbundenen Entwicklung halbflexibler Endoskope wurde die<br />
Endoskopie ungefährlicher. Dennoch dauerte es noch weitere 25 Jahre, bis die Glasfa-<br />
sertechnologie in die Beleuchtungs- und Abbildungstechnik Einzug hielt. Hirschowitz<br />
stellt 1957 ein vollflexibles Endoskop vor, das sowohl für den Licht-, als auch für den<br />
Bildtransport Glasfasern verwendet. Ein solcher Bildleiter wird aus feinen Lichtleitern<br />
gefertigt, die nicht miteinander verschmolzen sind, sondern lose nebeneinander liegen.<br />
Die biegsamen Einzelfasern sind lediglich an Ein- und Ausgangsseite geometrisch ko-<br />
härent geordnet und fest eingefasst. Der detaillierte Aufbau und die technischen Ei-<br />
genschaften werden in Abschnitt 2.3 beschrieben. Faseroptiken werden anstatt einer<br />
konventionellen Abbildung mit optischen Linsen überall dort eingesetzt, wo es auf<br />
kleine Abmessungen und hohe Lichtstärke ankommt. Sie erlauben einen erweiterten<br />
Betrachtungsraum bei größerer Helligkeit.<br />
Kuriose Erfindungen<br />
Pelli stellte im Jahr 1985 eine optische Lesehilfe mit Glasfasertechnik vor [PLS85]. Sie<br />
vergrößert einen anvisierten Ausschnitt und leitet ihn durch ein flexibles Faserbündel<br />
(vgl. Abbildung 2.1(a)) an das Auge des Betrachters weiter. Abbildung 2.1(b) zeigt<br />
den praktischen Einsatz der Lesehilfe.
2.2. ANWENDUNGEN MIT FASEROPTIK 13<br />
2.2 Anwendungen mit Faseroptik<br />
Entsprechend den beiden Hauptanforderungen an die technische Ausführung der Ge-<br />
räte wird in der Endoskopie grundlegend zwischen medizinischen und industriellen<br />
Anwendungsgebieten unterschieden. Für Sterilisationszwecke in der Medizin und Bio-<br />
logie wird gefordert, dass wiederverwendete Komponenten, die in Kontakt mit Körper-<br />
flüssigkeiten treten, autoklaviert 4 werden können. Dies erfordert hohe Druckdichte und<br />
Säureverträglichkeit, was insbesondere an Klebestellen und Materialübergängen be-<br />
rücksichtigt werden muss. In der Industrie werden Endoskope häufig unter sehr rauhen<br />
Bedingungen eingesetzt, was wiederum eine hochwertige Ummantelung, z. B. in Form<br />
eines Metallgeflechts oder einer Teflonbeschichtung erforderlich macht. Widerstands-<br />
festigkeit und ein geringer Reibungskoeffizient für ruckfreie Bewegungen fördern den<br />
optimalen Einsatz im industriellen Umfeld. Die prädestinierten Einsatzgebiete faser-<br />
optischer Geräte sind Anwendungen, die einen extrem dünnen Arbeitsdurchmesser er-<br />
fordern. Hier können sie an Stellen vordringen, die sonst optisch nicht untersucht wer-<br />
den könnten. Eine präzisiere und farbgetreue Darstellung von Einzelbildern, aber auch<br />
die Aufbereitung von archivierten Sequenzen bedeutet einen ernormen Mehrwert und<br />
eine Steigerung des wirtschaftlichen Nutzens durch bessere Anwendbarkeit in schwie-<br />
rigen Aufgabenbereichen. Da große deutsche Endoskopiehersteller die Präsenz und<br />
Bedeutung der faseroptischen Endoskopie noch mindestens für einen Zeitraum von et-<br />
wa einem Jahrzehnt gewährleistet sehen, gilt dies auch für das wirtschaftliche Interesse<br />
an robusten und wirkungsvollen Verfahren zur Bildaufbereitung und -verarbeitung für<br />
diese Systeme. Die Endoskopie trägt wirtschaftlich und strategisch zu folgenden Punk-<br />
ten bei:<br />
• Kostenersparnis, da die meisten Aufgaben zerstörungsfrei durchgeführt wer-<br />
den können und ein Austausch von Teilen vermieden werden kann, die als in<br />
Ordnung befunden wurden<br />
• Vermeidung von Folgekosten, die durch einen zu späten Austausch von Teilen<br />
verursacht werden, welche fälschlicherweise als in Ordnung befunden wurden<br />
• Zeitersparnis, durch eine rasche Durchführung der Inspektionen und weil die<br />
Notwendigkeit von Folgearbeiten zuverlässiger bestimmt werden kann<br />
• Der Beweispflicht kann mittels <strong>Dokument</strong>ation durch Bild- und Video-Auf-<br />
zeichnung besser Rechnung getragen werden<br />
4 Autoklavieren: Verfahren zum Erreichen von Sterilität für Objekte (z. B. Instrumente oder Nährme-<br />
dien), die dazu unter Überdruck Wasserdampf oder speziellen Gasen ausgesetzt werden
14 2.2. ANWENDUNGEN MIT FASEROPTIK<br />
Neben den großen Endoskopieherstellern mit deutscher Niederlassung, Everest VIT<br />
GmbH [Eve07], Olympus GmbH [Oly07], Karl Storz GmbH [Kar07], Schölly Fibe-<br />
roptic GmbH [Sch07b] und Richard Wolf GmbH [Ric07] existiert noch eine Reihe<br />
von Firmen, die sich auf endoskopische Produkte für außergewöhnliche Anwendun-<br />
gen spezialisiert haben, wie beispielsweise Polydiagnost GmbH [Pol07] oder Almikro<br />
GmbH [Alm06]. Die Produktpaletten dieser Hersteller geben eine umfassende Über-<br />
sicht der vielfältigen und teilweise speziellen Einsatzgebiete von Mikroendoskopen<br />
mit fasergestützter Optik. Die folgenden beiden Abschnitte zeigen typische medizini-<br />
sche und industrielle Anwendungsfälle derartiger Endoskope auf.<br />
2.2.1 Industrieller Anwendungsbereich der Fiberskopie<br />
Entsprechend der Diagnose im medizinischen Umfeld ermöglicht die Endoskopie im<br />
industriellen Bereich die zerstörungsfreie Sichtprüfung, z. B. von Innenflächen und<br />
Hohlräumen [SKW06]. Dabei steht die Automatisierung einer zuverlässigen Qualitäts-<br />
kontrolle und Schadensanalyse im Vordergrund. Routineinspektionen, die von techni-<br />
schem Personal nicht selten fehlerbehaftet und schlecht rekonstruierbar durchgeführt<br />
werden, können so maschinell erledigt und die Ergebnisse quantitativ in elektroni-<br />
scher Form archiviert werden. Durch geeignete digitale Bildverarbeitung werden fase-<br />
roptisch aufgezeichnete Aufnahmen aufbereitet und verbessert [MEW + 06]. Eine wei-<br />
tere Möglichkeit zur Verbesserung der Darstellung besteht in der dreidimensionalen<br />
Darstellung von einfachen geometrischen Objekten, die aus den monokularen 5 An-<br />
sichten eines freigeführten Endoskops räumlich rekonstruiert wird [WSRW05]. Die<br />
Anwendungsfelder, aus denen derartige Anforderungen erwachsen sind vielfältig:<br />
Instandhaltung und Wartung Maschinenkomponenten, die ohne aufwändige De-<br />
montage nicht zugänglich sind oder im eingebauten Zustand nicht einsehbar sind, die<br />
jedoch eine tragende Rolle bezüglich Funktionsfähigkeit und Sicherheit spielen, müs-<br />
sen zuverlässig visuell inspiziert werden. Im Bereich der Automobiltechnik, in der<br />
Luftfahrt und der Kraftwerkstechnik müssen Getriebe, Generatoren, (Elektro-)Moto-<br />
ren, Hydraulikzylinder, Tanks, Rohrleitungen und Sondermaschinen inwendig über-<br />
prüft werden. Die endoskopische Begutachtung kann mit einer bebilderten Beschrei-<br />
bung eine konkrete Aussage über den Zustand von Oberflächen, Lagern, Verzahnun-<br />
gen, Planetenrädern und anderen Bauteilen liefern. Dies kann ein hilfreicher Befund<br />
sein, aus dem sich rechtzeitig eine entscheidende Handlungsempfehlung ableiten lässt.<br />
In vielen Fällen können so Materialfehler, Risse, Korrosionsschäden und Fremdkörper<br />
5 Monokular: (lat. für einäugig) Hier: Mit einer einzigen Blickrichtung
2.2. ANWENDUNGEN MIT FASEROPTIK 15<br />
mit Hilfe der Endoskopie in schwer zugänglichen Hohlräumen frühzeitig erkannt und<br />
meist ohne Beschädigung behoben werden.<br />
Unterstützung in der Produktionstechnik Die Miniaturisierung technischer Bau-<br />
teile schreitet immer weiter voran und stellt die damit verbundene Produktionstechnik<br />
vor immer neue Herausforderungen. Herstellungsprozesse müssen zu 100% überwacht<br />
werden und Vorrichtungen zum Greifen und Positionieren werden oft von moderner<br />
Bildverarbeitung unterstützt. Für Greifzangen, die aufgrund ihrer hohen Bewegungs-<br />
geschwindigkeit möglichst leicht sein müssen, wird die Optik zum Anvisieren und<br />
Kontrollieren des Greifablaufs durch eine Glasfaseroptik ersetzt, die das Bild flexibel<br />
an einen beliebigen Ort mit fest installierter Kamera überträgt. Mit dieser Technik kann<br />
die Trägheit von beweglichen Teilen reduziert und trotzdem eine optische Komponente<br />
gewährleistet werden.<br />
Zivilschutz, Verteidigungs- und Spionagetechnik Einsatztruppen der Polizei set-<br />
zen Endoskope zur gefahrlosen Lageprüfung von unsicheren Räumen, z. B. durch die<br />
Öffnung eines Schlüssellochs ein, bevor sie sich Zutritt verschaffen oder gewaltsa-<br />
me Maßnahmen einleiten. Aus dem Geheimdienst sind ähnliche Anwendungsfälle für<br />
Spionagetechnik bekannt. Das Militär setzt die Endoskopie nicht nur im Feld zur Ob-<br />
servation ein, sondern inspiziert auf diese Art, wie die Waffenindustrie, auch die Läufe<br />
ihrer Schusswaffen auf Beschädigungen. Zur Aufdeckung von Verdachtsmomenten im<br />
internationalen Warenhandel verwendet der Zoll Endoskope, um Einblick in schwie-<br />
rig zugängliche Hohlräume z. B. den Tank in Kraftfahrzeugen zu erhalten. Im Kata-<br />
strophenschutz werden Endoskope eingesetzt, um verschüttete oder eingeschlossene<br />
Personen aufzuspüren, ohne die einsturzgefährdete Umgebung zu beeinflussen.<br />
Archäologie, Bautenschutz und Denkmalpflege In der Archäologie, dem Bauten-<br />
schutz und der Denkmalpflege kommt die Endoskoptechnik zum Einsatz, wo Material<br />
erhalten werden muss, dessen Zustand jedoch eine Überprüfung unter Sicht verlangt.<br />
Dazu wird beispielsweise die Isolierung bei Altbauten inspiziert, Holzbauten auf et-<br />
waigen Schädlingsbefall hin untersucht oder große Denkmäler im hohlen Innenraum<br />
auf korrosive Schadensstellen geprüft.
16 2.2. ANWENDUNGEN MIT FASEROPTIK<br />
2.2.2 Medizinischer Einsatz von Fiberskopen<br />
Der Einsatz von flexiblen Endoskopen im menschlichen Körper erstreckt sich wort-<br />
wörtlich von Kopf bis Fuß und wird hier anhand von fünf typischen Beispielen ge-<br />
schildert. Einige Einsatzgebiete finden sich auch in der Veterinärmedizin wieder, wo<br />
für wertvolle Zuchttiere ein hoher Kosten- und Pflegeaufwand betrieben wird.<br />
Mamaskopie / Duktoskopie Zur Früherkennung von Brustkrebs in Milchkanälen,<br />
z. B. durch Läsionen 6 an der Milchgangswand, gibt die übliche Bildgebung mittels Ga-<br />
laktographie 7 , Mammographie 8 und duktusorientierter Mammasonographie 9 nur indi-<br />
rekte Information über den intraduktalen 10 Befund. Die Miniendoskopie mit einem<br />
Duktoskop von weniger als einem halben Millimeter Durchmesser bietet die Möglich-<br />
keit, intraduktal direkt zu diagnostizieren und unter Sicht eine Gewebeprobe zur Beur-<br />
teilung der Schadhaftigkeit zu entnehmen, um so bei der Entscheidung zur Durchfüh-<br />
rung bzw. Vermeidung einer operativen Entfernung des Milchgangs zu helfen. Durch<br />
die Verwendung von feinen Mikroendoskopen reduziert sich die Gefahr einer Gewebe-<br />
schädigung und die Belastung des Patienten durch Behandlungsfolgen werden gesenkt<br />
[GOE + 05, OPJ + 06].<br />
Dentalendoskopie Dentalendoskope dienen der Begutachtung und zur Unterstüt-<br />
zung bei Behandlungen und Operationen in der Kieferhöhle. Beispielsweise kann der<br />
Einblick in den freigelegten Kanal während einer Wurzelbehandlung Aufschluss dar-<br />
über geben, ob weitere versteckte Seitenkanäle vom Hauptkanal abzweigen. Bleiben<br />
diese unerkannt und werden nicht in die Behandlung mit eingeschlossen, neigen sie zur<br />
Entzündung und gefährden damit den mittelfristigen Erfolg der Behandlung. Ebenso<br />
kann während der Aufbereitung von Wurzelkanälen und Revisionen von Wurzelfül-<br />
lungen optisch sichergestellt werden, dass die Füllung die Randbereiche, die teilweise<br />
einen elliptischen Querschnitt und eine Torsion entlang der Längsachse zeigen, voll-<br />
ständig ausgefüllt.<br />
Bronchoskopie und Hals-Nasen-Ohren (HNO) Diagnostik Ziel der Bronchosko-<br />
pie 11 ist die Darstellung von Lumen und Schleimhaut sowie die Diagnostik, die Klas-<br />
6Läsion: Gewebeauffälligkeit<br />
7Galaktographie: Röntgenuntersuchung der Milchgänge<br />
8Mammographie: Radiologische Untersuchung der Brust zur Früherkennung von Brustkrebs<br />
9Mammasonographie: Ultraschalluntersuchung der Brust<br />
10Intraduktal: Innerhalb des Milchgangs<br />
11Bronchoskopie: Spiegelung der Atemwege und des Lungenraums
2.2. ANWENDUNGEN MIT FASEROPTIK 17<br />
sifizierung und die Therapie von Funktionsstörungen im Bronchialsystem. Durch die<br />
Miniaturisierung der Kameratechnik (s. Abschn. 1.2.1) kann die Bronchoskopie an<br />
einem erwachsenen Menschen üblicherweise mit einem Videoendoskop durchgeführt<br />
werden. Jedoch ist der Arzt bei vergleichsweise beengten Zugangswegen z. B. bei klei-<br />
nen Kindern oder beim Vordringen in feinere Lungenäste nach wie vor auf dünne Fa-<br />
serendoskope angewiesen. Je dünner das verwendete Endoskop ist, desto verträglicher<br />
und verletzungsfreier ist die Anwendung für den meist nur leicht sedierten Patienten.<br />
Das Gleiche gilt für die Ophtalmoskopie, welche die Möglichkeit bietet, Ablagerungen<br />
in Form von Tränensteinen oder das Ausmaß von Schleimhautentzündungen innerhalb<br />
der Tränenwege optisch zu diagnostizieren und durch Minibohrer und Laserwerkzeuge<br />
zu therapieren. Auch im Bereich der HNO werden dünne Endoskope eingesetzt, um<br />
enge anatomische Bereiche zur Diagnostik und Therapie optisch darzustellen.<br />
Choledochoskopie und Gynäkologie Die mikroendoskopische Darstellung von Lu-<br />
men und Schleimhaut erleichtert die Diagnostik, die Klassifizierung und die Therapie<br />
von Funktionsstörungen im Gallen- und Bauchspeicheldrüsensystem (Choledochosko-<br />
pie) bzw. im Bereich der Eileiter (Gynäkologie). Unter Sichtkontrolle können Laser-<br />
behandlungen und Biopsien sicherer und effizienter durchgeführt werden.<br />
Neurochirurgie Die zunehmende Bedeutung von dünnen Endoskopen wird auch in<br />
der Neurochirurgie untersucht. Über die Keilbeinhöhle kann der Chirurg mittels ei-<br />
ner Fräse, die endoskopisch gelenkt wird, zur Gehirnbasis (Hypophyse) vordringen,<br />
wo ein Auftreten von Tumoren relativ häufig beobachtet und behandelt wird. Einige<br />
Forschungsprojekte untersuchen, inwieweit sich eine 3D-Rekonstruktion der Keilbein-<br />
höhle aus monokularen Ansichten durch ein Endoskop zur Unterstützung der Naviga-<br />
tion bei einem derartigen Eingriff eignet. Neben einem derartigen Forschungsziel am<br />
Fraunhofer IIS [WWS + 06] widmen sich auch einige weitere Forschungsgruppen die-<br />
ser Fragestellung, z.B. [MKT + 07].<br />
Konfokale Fluoreszenzmikroskopie Le Goualher et al. [GPG + 04] verwenden einen<br />
flexiblen Bildleiter, um konfokal abgetastete Intensitätsdaten zur Auswertung an einen<br />
elektronischen Sensor zu leiten. Die Apparatur dient einer Anwendung zur optischen<br />
Biopsie. Die Algorithmen zur Bildaufbereitung entsprechen in Ansätzen denen zur<br />
Grauwertinterpolation (vgl. Abschn. 3.2.2) und wurden von Mauna Kea Technologies<br />
patentiert [AGF05]. Der Fokus der genannten Arbeit liegt auf der Gewinnung von In-<br />
tensitätsdaten mit hohem Störabstand und kann technisch bedingt bislang nicht auf<br />
eine Farbbildgebung erweitert werden.
18 2.3. EIGENSCHAFTEN VON FASEROPTISCHEN SYSTEMEN<br />
2.3 Eigenschaften von faseroptischen Systemen<br />
2.3.1 Aufbau<br />
Ihre Bezeichnung verdankt die flexible Endoskopie der Flexibilität des lichtleitenden<br />
Faserbündels, welches das projizierte Abbild einer Szene vom distalen 12 Ende des En-<br />
doskops zum Okular transportiert. Abbildung 2.2 zeigt den typischen Aufbau eines fle-<br />
xiblen Endoskops in einem schematischen Schnitt. Die Lichtquelle schickt über einen<br />
separaten Lichtleiter Kaltlicht an die Spitze des Endoskops, wo es diffus ausgestrahlt<br />
wird und die Szene beleuchtet, die sich meist im Dunkeln befindet.<br />
Vorteilhaft für den praktischen Einsatz des Endoskops ist die sog. Fixfokusoptik,<br />
d.h. eine Szene wird ab einem definierten Mindestabstand (Arbeitsabstand), meist im<br />
Bereich weniger Millimeter, bis ins Unendliche scharf wahrgenommen. Das interope-<br />
rative Scharfstellen der Abbildung wäre bei einem flexiblen Endoskop nicht möglich,<br />
da der Vorgang die Optik an der Spitze des Endoskops beeinflussen müsste und nicht<br />
am Okular nachgestellt werden kann, wie das bei starren linsenbasierten Geräten der<br />
Fall ist. Die Objektivlinsen verzerren das Bild nahezu fischaugenartig, da für ein breites<br />
Blickfeld eine Weitwinkeloptik verwendet wird. Durch Präzisionsfehler der miniatu-<br />
risierten Linsen treten hier zudem Unschärfe und Kontraststörungen in der Abbildung<br />
auf das Faserbündel auf.<br />
An der proximalen 13 Optik, dem sog. Okular, wird zur digitalen Weiterverarbeitung<br />
der Bilddaten ein Bildsensor angekoppelt, der das Abbild kartesisch abtastet und als<br />
diskrete Bildinformation zur Verfügung stellt. Die Verbindung erfolgt standardmäßig<br />
12 (lat. distare, Distanz) Beim Endoskop ist das entfernte Ende, also die Spitze gemeint, die sich,<br />
relativ zum Anwender, auf Distanz befindet.<br />
13 (lat. proximus, der nächste) Beim Endoskop ist die Seite mit dem Okular gemeint. Sie befindet sich<br />
in der Nähe des Anwenders.<br />
Abbildung 2.2: Schematischer Aufbau eines flexiblen Endoskops.
2.3. EIGENSCHAFTEN VON FASEROPTISCHEN SYSTEMEN 19<br />
(a) (b)<br />
Abbildung 2.3: (a) Schematischer Schnitt durch eine optische Faser mit Kern- und Mantelma-<br />
terial. Die optische Achse und ein totalreflektierter Lichtstrahl sind mit Pfeilen gekennzeichnet.<br />
(b) Durchmesser einer optischen Faser im Vergleich zu dem eines menschlichen Haars.<br />
durch einen sog. TV-Adapter, der auf der einen Seite einen Schnappverschluss für das<br />
Okular des Endoskops und auf der anderen Seite ein C-Mount-Gewinde für gängige<br />
Industriekameras zeigt. Ein Linsensystem stellt den richtigen Abbildungsmaßstab und<br />
Fokusabstand zwischen dem polierten Ende des Faserbündels und der Sensorfläche<br />
sicher. Die Qualität dieser TV-Adapter unterscheidet sich erheblich und beeinflusst die<br />
Abbildungsqualität maßgeblich.<br />
Aufgrund der elementaren Bedeutung des Lichtleiters im Endoskop werden dessen<br />
Aufbau und seine Eigenschaften nun im Detail beschrieben. Dazu wird von der ein-<br />
zelnen lichtleitenden Faser ausgegangen und darauf aufbauend die Zusammenfassung<br />
solcher Fasern zu einem Bildbündel betrachtet.<br />
Optische Fasern In einer Broschüre [Fib04] über den industriellen Einsatz optischer<br />
Bauteile wird der Aufbau und die Funktionsweise von lichtleitenden Fasern für die op-<br />
tische Signal- und Bildübertragung beschrieben. Jede Faser besteht aus einem Kern<br />
mit hohem Brechungsindex und dem sog. Cladding, einer Ummantelung mit niedri-<br />
gem Brechungsindex (vgl. Abb. 2.3). Lichtstrahlen, die relativ zur optischen Achse<br />
bis zu einem Akzeptanzwinkel αtotal in die Faser eintreten, werden durch interne To-<br />
talreflexion an das andere Ende geleitet. Sie folgen dem gekrümmten Verlauf der Fa-<br />
ser, sofern deren minimaler Biegeradius die Totalreflexion am Kern-Mantel-Übergang<br />
erlaubt. Die drei wichtigsten Eigenschaften, die eine Faser charakterisieren sind der<br />
Durchmesser, die numerische Apertur und die spektrale Transmission [Fib01].<br />
• Durchmesser<br />
Um für das Spektrum des sichtbaren Lichts die interne Totalreflexion zu gewähr-<br />
leisten, muss die Ummantelung eine minimale Wandstärke von 2µm aufweisen.<br />
Bei konstanter Mantelstärke kann die Effizienz der optischen Lichtübertragung<br />
durch Erhöhung des Kernradius rkern gesteigert werden. Dies führt jedoch zu
20 2.3. EIGENSCHAFTEN VON FASEROPTISCHEN SYSTEMEN<br />
einer geringeren mechanischen Flexibilität des Lichtleiters. Für optische Bild-<br />
bündel werden Fasern mit einem Durchmesser von 6 bis 15µm verwendet.<br />
• Numerische Apertur<br />
Die numerische Apertur NA einer optischen Faser ist abhängig von den beiden<br />
Brechungsindizes n1 bzw. n2 des Kernmaterials bzw. des Mantelmaterials, wobei<br />
n1 > n2 gilt. Mit dem Brechungsindex n0 der Umgebung außerhalb der Faser gilt<br />
die Beziehung:<br />
NA = n0 · sin αtotal =<br />
<br />
n 2 1 − n 2 2<br />
Alle Lichtstrahlen, die unter einem Winkel α ≤ αtotal auf das polierte Ende des<br />
Lichtleiters treffen, werden durch die Faser geleitet. Je größer die numerische<br />
Apertur ist, desto mehr Licht kann über die Faser transportiert werden.<br />
• Spektrale Transmission<br />
Durchläuft ein Lichtstrahl mit der Frequenz λ eine optische Faser, reduziert<br />
sich seine Intensität. Das Verhältnis zwischen Eingangs- und Ausgangsintensität<br />
wird als spektrale Transmission T(λ) bezeichnet. Sie hängt maßgeblich von den<br />
Absorbtionsverlusten im Kernglas, der nicht-idealen Totalreflexion am Kern-<br />
Mantel-Übergang und Verlusten beim Ein- und Auskoppeln des Lichtstrahls in<br />
die bzw. aus der Faser ab.<br />
Von der Faser zum Bildbündel Werden viele der beschriebenen optischen Fasern<br />
zusammengefasst, entsteht ein flexibler Lichtleiter. Die Anordnung der einzelnen Fa-<br />
sern ist dabei nicht zwangsläufig geordnet, was den Hauptunterschied zum optischen<br />
Bildleiter darstellt. Letzterer überträgt durch seine kohärent geordneten Fasern die<br />
abgetasteten Bildpunkte einer Szene, die auf die frontseitige Schnittfläche projiziert<br />
werden, nahezu ohne geometrische Verluste auf die rückseitige Schnittfläche. Da das<br />
Material der Ummantelung und der Zwischenräume zwischen den Fasern weniger<br />
Lichtintensität überträgt, als der Faserkern, erscheinen die übertragenen Lichtpunkte<br />
in einem sog. Wabenmuster. Die hexagonale Ausrichtung geht auf die Anordnung in<br />
der dichtesten Packungsform zurück. Die spektrale Transmission eines Faserbündels<br />
wird maßgeblich vom Typ und der Qualität des verwendeten Glasmaterials für Kern-<br />
und Mantelbereich, den Absorptionseigenschaften, der Packungsdichte und der Quali-<br />
tät der Abschlussfläche beeinflusst.<br />
Auswirkung von Material und Herstellungsprozess der Fasern Es gibt zwei un-<br />
terschiedliche Materialien und Herstellungsprozesse von Bildleitern auf Basis von Fa-<br />
sern. Glasfaserbündel zeigen aufgrund der ausgeprägten Kern-Mantel-Struktur in ih-<br />
.
2.3. EIGENSCHAFTEN VON FASEROPTISCHEN SYSTEMEN 21<br />
(a) (b)<br />
Abbildung 2.4: (a) Blick durch ein flexibles Endoskop auf ein Testbild. (b) Der vergrößerte Aus-<br />
schnitt zeigt die inhomogen ausgerichtete Struktur der Fasern, die hier aus einem Bildbündel<br />
aus Quarzfasern resultiert.<br />
rem Querschnitt eine bildweite Homogenität und besitzen klare Bildpunkte mit ei-<br />
ner ausgeprägten kontrastreichen, dunklen Umrandung, die bereits als Wabenstruk-<br />
tur beschrieben wurde (vgl. Abb. 1.4). Im Querschnitt eines Quarzbildleiters hinge-<br />
gen können einzelne Fasern unregelmäßige Querschnitte aufweisen und verschiedene<br />
Flächenabschnitte eine unterschiedliche Orientierung in der Anordnung besitzen (vgl.<br />
Abb. 2.4). Der Querschnitt einzelner Fasern kann von der Kreisform bis hin zu einer<br />
Tropfenform abweichen.<br />
2.3.2 Farbbildgebung<br />
Kamerasensoren bestehen prinzipiell aus einer großen Anzahl an lichtempfindlichen<br />
Sensorelementen 14 , die das Abbild einer Szene auf ihre Intensität abtasten. Zur Ak-<br />
quisition von Farbbildern unterscheidet man nach ihrem Prinzip zwischen Dreichip-<br />
Kameras und Einchip-Kameras. Der grundlegende Aufbau und die Funktionsweise<br />
sind in [Fur01] zusammengefasst. Demnach besitzen Dreichip-Kameras drei Intensi-<br />
tätssensorfelder, die ganzflächig mit unterschiedlichen Farbfiltern versehen und über<br />
ein Prisma pixelgenau registriert dieselbe Szene erfassen. Aus der spektralen Informa-<br />
tion der einzelnen Elemente kann durch diesen Aufbau die volle physikalische Auflö-<br />
sung für jeden Farbkanal gewährleistet werden.<br />
14 Sensorelement: Einzelne lichtempfindliche Zelle aus der fotosensitiven Fläche (Matrix) eines Ka-<br />
merasensors
22 2.3. EIGENSCHAFTEN VON FASEROPTISCHEN SYSTEMEN<br />
(a) (b) (c)<br />
Abbildung 2.5: Mosaikartige Filterfelder für die Verwendung in Einchip-Kameras. Die einzel-<br />
nen Farbfilter ermöglichen jedem Sensorelement, neben der Intensität auch die lokale Farbin-<br />
formation zu erfassen. (a) Complementary Color Mosaic mit den Komplementärfarben Cyan,<br />
Gelb, Magenta, sowie Grün. (b) Bayer-Pattern mit den Primärfarben Rot, zweifach Grün und<br />
Blau. (c) Indizierte Elemente für verschiedene Verfahren des Demosaicing auf dem Bayer-<br />
Pattern.<br />
Aus Kostengründen sind jedoch die Einchip- oder Single-Chip-Farbkameras we-<br />
sentlich verbreiteter als die Dreichip-Kameras. Einchip-Farbsensoren besitzen, wie der<br />
Name schon sagt, einen einzelnen Intensitätssensor, der mit einem speziellen Mosaik<br />
aus Farbfiltern versehen ist (vgl. Abb. 2.5). Diese Filter bewirken, dass einzelne Pixel<br />
jeweils auf einen ganz bestimmten Wellenlängenbereich des Lichtes reagieren. Da je-<br />
des Pixel mit seiner Intensität nur eine Farbkomponente repräsentiert, müssen jeweils<br />
die fehlenden Farbinformationen zur Darstellung als Farb-Pixel aus den angrenzenden<br />
Elementen bestimmt werden.<br />
Typische analoge Einchip-Farbkameras enthalten ein Farbfiltermosaik mit der Be-<br />
zeichnung Complementary Color Mosaic. Dabei wechseln sich pixelweise die Farben<br />
Cyan, Gelb, Magenta und Grün ab (vgl. Abb. 2.5(a)), wobei eine Konvertierung in<br />
YUV oder RGB meist bereits auf der Hardware durchgeführt werden kann. Im Be-<br />
reich der digitalen Kameratechnik findet man am häufigsten das sog. Bayer-Pattern<br />
oder Primary Color Mosaic. Hierbei handelt es sich um Farbfiltermosaike mit den<br />
Primärfarben Rot, Grün und Blau (vgl. Abb. 2.5(b)), wobei zur Erhaltung der Sym-<br />
metrie der Farbe Grün doppelt so viele Elemente zugewiesen sind wie den anderen<br />
beiden Farben, da das menschliche Auge das entsprechende Spektrum empfindlicher<br />
wahrnimmt. Einige Kameras stellen eine Schnittstelle bereit, um die farbspezifischen<br />
Intensitätsdaten auszulesen, die als Rohdaten 15 bzw. Primärdaten bezeichnet werden.<br />
Das ermöglicht die individuelle Berechnung des Farbbilds aus den Rohdaten, was als<br />
15 Rohdaten: Farbsensoren mit Farbfiltermosaik berechnen die Farbwerte des resultierenden Bilds aus<br />
farbkodierten Intensitätswerten, den sog. Rohdaten
2.3. EIGENSCHAFTEN VON FASEROPTISCHEN SYSTEMEN 23<br />
Demosaicing 16 bezeichnet wird. Im Rahmen dieser Arbeit wurden neben einfachen<br />
linearen Ansätzen, wie dem Demosaicing aus dem Grünkanal oder dem bilinearen<br />
Demosaicing auch komplexere Berechnungsvorschriften, wie dem gradientenbasierten<br />
Demosaicing nach Laroche-Prescott oder dem adaptiven Demosaicing nach Hamilton-<br />
Adams untersucht. Weil diese aufwändigeren Ansätze, wenn überhaupt, nur einen mar-<br />
ginalen Unterschied zu linearen Ansätzen zeigen, werden sie hier nicht ausführlich be-<br />
handelt, sondern können in [Sch07a, RSBS02] studiert werden. Die Stärken der meis-<br />
ten kantenerhaltenden Ansätze kommen für die Anwendung auf faseroptisch abgetas-<br />
teten Sensorabbildungen nicht zum Tragen, weil die kontrastreiche Faserstruktur die<br />
Gradienten mehr beeinflusst, als dies die dahinterliegenden Bildstrukturen vermögen.<br />
Viel mehr Sinn würde eine kantenerhaltende Berechnung im Zuge der Interpolation<br />
machen (vgl. Abschn. 5.2).<br />
Aus den genannten Gründen wird deshalb das Demosaicing für die Untersuchun-<br />
gen und Ergebnisse in Kapitel 4 linear aus dem Grünkanal durchgeführt, was trotz<br />
geringem Aufwand qualitativ ausreichende Ergebnisse liefert. Das Prinzip ist denk-<br />
bar einfach und berücksichtigt mit der Auslegung der Farbfilterverteilung, dass die<br />
menschliche optische Wahrnehmung am empfindlichsten auf den Spektralbereich des<br />
grünen Lichts reagiert. Die vergleichsweise hohe Auflösung der grün gefilterten Ele-<br />
mente gegenüber den roten und blauen prädestiniert diese als erste Näherung für das<br />
Intensitätsbild. Die fehlenden Intensitätswerte werden auf Basis der bereits bekannten<br />
grünen Elemente interpoliert. Dazu wird das resultierende Bild imaginär um den Ab-<br />
stand eines halben Pixel verschoben. Die neuen Intensitätswerte, durch vorgestellte In-<br />
dizes gekennzeichnet, berechnen sich für den beispielhaften Block in Abbildung 2.5(c)<br />
zu<br />
⎛ ⎞<br />
11I ⎜12<br />
⎜ I<br />
⎟<br />
⎜ ⎟<br />
⎝21I⎠<br />
22 I<br />
2.3.3 Beeinträchtigungen<br />
= 1<br />
2<br />
⎛ ⎞ ⎛<br />
1 1 0 0<br />
⎜<br />
⎜0<br />
1 0 1<br />
⎟ ⎜<br />
⎟ ⎜<br />
⎜ ⎟ ⎜<br />
⎝1<br />
0 1 0⎠<br />
⎝<br />
0 0 1 1<br />
Trotz des großen Marktes hat sich die Entwicklung der flexiblen Endoskopie über ge-<br />
wisse technische Einschränkungen noch nicht hinwegsetzen können. Dies sind zum<br />
einen konstruktiv bedingte Herausforderungen, wie die geringe Auflösung oder die<br />
schwierige Handhabung der Beleuchtung. Zum anderen ergeben sich finanzielle Gren-<br />
16 Demosaicing: Interpolation eines Farbbilds aus den einkanaligen farbkodierten Intensitätsdaten des<br />
Sensorfelds.<br />
G21<br />
G12<br />
G32<br />
G23<br />
⎞<br />
⎟<br />
⎠
24 2.3. EIGENSCHAFTEN VON FASEROPTISCHEN SYSTEMEN<br />
zen, die einem akzeptablen Verhältnis von Kosten zu Nutzen entgegenstehen. In diese<br />
Kategorie fällt die miniaturisierte Optik der Endoskope.<br />
Niedrige Auflösung und Abtastung In Abschnitt 2.3.1 wird beschrieben, dass op-<br />
tische Fasern nicht beliebig dünn gefertigt und verwendet werden können. Der ideale<br />
Durchmesser von einigen µm und die Ummantelung limitieren die physikalische Auf-<br />
lösung eines Faserbündels und die aktive optische Fläche, die der Lichtleitung zur Ver-<br />
fügung steht. Für Bildbündel in Faserendoskopen mit Arbeitsdurchmesser in der Grö-<br />
ßenordnung 0, 35 bis 4, 0mm werden zwischen 3.000 und 30.000 Einzelfasern verbaut.<br />
Diese begrenzte Faseranzahl im Bildbündel führt zu einer starken Unterabtastung der<br />
Bildinformation zwischen der Szene und dem Auge. Bei der Verwendung eines Bild-<br />
sensors als digitales Auge führt dieser anschließend noch zu einer Überabtastung, da<br />
für ihn meist eine höhere Auflösung gewählt werden muss, um den Verlust durch die<br />
Transformation zwischen dem hexagonalen (Faserbündel) und dem kartesischen (Ka-<br />
merasensor) Koordinatensystem zu reduzieren. Daraus resultiert eine wabenförmige<br />
Struktur, die über dem betrachteten oder aufgezeichneten Bild liegt.<br />
Schwierige Beleuchtung Der Lichtleiter zur Beleuchtung der Szene muss neben<br />
dem Bildleiter im flexiblen Abschnitt des Endoskops zum distalen Ende geführt wer-<br />
den (vgl. schematische Skizze in Abb. 2.2). An der Spitze des Endoskops tritt das<br />
transportierte Licht diffus aus dem Lichtleiter aus. Dadurch, dass die Beleuchtung<br />
mit der Endoskopspitze mitgeführt wird, entstehen zeitdynamische Spiegelungen an<br />
Wandpunkten des Hohlraums. Derartige Glanzlichteffekte spielen im Allgemeinen ei-<br />
ne bedeutende, oft positive Rolle für die Beobachtung von metallischen homogenen<br />
Oberflächen. Im Hinblick auf eine merkmalsbasierte Lokalisierung oder Bewegungs-<br />
schätzung wirken sie sich hier jedoch sehr negativ aus. Das liegt vor allem daran, dass<br />
die Reflexionen keine präzise Position wiedergeben. Die fehlenden Freiheitsgrade der<br />
Beleuchtungsführung wirken sich zudem einschränkend auf die Manövrierfähigkeit<br />
des flexiblen Endoskops aus.<br />
Vom Lehrstuhl für Optik an der Universität Erlangen-Nürnberg wurde im Rah-<br />
men eines DFG-Projekts [WSW04] eine spezielle Beleuchtung entwickelt [PWSH06],<br />
die es ermöglicht, die Anzahl und Qualität von beobachteten Merkmalen zu erhöhen.<br />
Der Beleuchtungsring an der Spitze eines starren Endoskops ist in mehrere Sektoren<br />
aufgeteilt, die jeweils separat ansteuerbar ausgeführt sind. Damit ist es möglich, in<br />
geringem zeitlichen Abstand mehrere Bilder der nahezu gleichen Szene zu erhalten,<br />
die aus minimal unterschiedlichen Richtungen beleuchtet wurden. Differenzbilder lie-<br />
fern Schatteninformation und können zur Steigerung der Merkmalsgüte beitragen. Ein
2.3. EIGENSCHAFTEN VON FASEROPTISCHEN SYSTEMEN 25<br />
ähnliches Prinzip verfolgt der Ansatz in [Arn06], wo die einzelnen Sektoren mit Licht<br />
unterschiedlicher Wellenlänge versorgt werden. So können nachträglich durch Tren-<br />
nung der Aufnahmen z. B. in den roten, den grünen und den blauen Kanal drei Bilder<br />
mit unterschiedlicher Beleuchtungsrichtung zu exakt der gleichen Beobachtungszeit<br />
gewonnen werden. Die beschriebenen Projekte wurden ihrerseits mit starren Endosko-<br />
pen durchgeführt, wo sich ein messbarer, wenn auch zu vernachlässigender Fortschritt<br />
zeigt. Aufgrund der deutlich schlechteren Bildqualität der hier verwendeten flexiblen<br />
Endoskope wird durch eine Stroboskop- oder Trennfarbbeleuchtung keine messbare<br />
Verbesserung der Erkennungsrate von Merkmalen erwartet.<br />
Geometrische Abbildungseigenschaften Endoskope enthalten standardmäßig eine<br />
weitwinkelige Optik, um in kleinen Hohlräumen ein möglichst breites Bildfeld zu ge-<br />
währleisten. Bei Endoskopen mit Durchmessern zwischen 0, 35 und 4, 0mm beträgt<br />
das Bildfeld typischerweise 60 ◦ bis 100 ◦ . Nachteile der verwendeten Miniaturoptiken<br />
sind geometrische Abbildungsfehler, darunter die Verzeichnung und die Bildfeldwöl-<br />
bung. Erstere führt zu einer tonnenförmigen Verzerrung der abgebildeten Objekte und<br />
kann durch geeignete Algorithmen kompensiert werden. Die Bildfeldwölbung bewirkt,<br />
dass das Objektiv das Bild nicht auf eine Ebene, sondern auf eine gewölbte Fläche<br />
abbildet. Der Brennpunkt von Strahlen eines Lichtpunktes ist dann von der Bildhö-<br />
he abhängig, was dazu führt, dass ein Bild nicht homogen scharf abgebildet werden<br />
kann. Wenn die Bildmitte scharf eingestellt wird, erscheint der Rand unscharf und um-<br />
gekehrt. Die Bildfeldwölbung kann durch spezielle Anordnung der Linsen oder einer<br />
gewölbten Ausführung des Kamerasensors reduziert werden, jedoch ist der technische<br />
Aufwand für ein akzeptables Verhältnis von Kosten zu Nutzen zu hoch. Gegen ei-<br />
ne aufwändige Anordnung mehrerer Linsen spricht auch eine längere Baugröße des<br />
starren Endes der Endoskopspitze, welche die Manövrierbarkeit weiter einschränken<br />
würde.<br />
Farbartefakte Viele Eigenschaften und Veränderungen in der Textur von Oberflä-<br />
chen werden über die Farbe detektiert und klassifiziert. Die Bedeutung und der Wert<br />
einer artefaktfreien Darstellung von kalibrierten Farbbildern durch ein Faserbündel ste-<br />
hen daher außer Frage. Zur Kalibrierung und Korrektur von Farben existieren eine<br />
Reihe von Arbeiten [VPS01, PCN98], die teilweise auch den Anwendungsbereich der<br />
(starren) Endoskopie adressieren [MNMW03, MPW06].<br />
Herkömmliche Einchip-Farbkameras rekonstruieren Farbbilder aus der Informa-<br />
tion einzelner farbgefilterter Elemente auf einem fotosensitiven Sensorfeld (vgl. Ab-
26 2.3. EIGENSCHAFTEN VON FASEROPTISCHEN SYSTEMEN<br />
Abbildung 2.6: Faserabbildung auf Farbfiltermosaik<br />
schn. 2.3.2). Dieses sog. Bayer-Pattern zeichnet sich durch eine Anordnung der Farb-<br />
filter für rote, grüne und blaue Zellen aus, die an die psychovisuelle Wahrnehmung des<br />
menschlichen Auges angepasst wurde. Durch die Rekonstruktion aus diesen Segmen-<br />
ten kann für eine bestimmte Position im Mittel ein entsprechender Farbwert wahrge-<br />
nommen werden. Wird ein farbiger Bereich eines Bilds ungleich auf die drei Grundfar-<br />
ben Rot, Grün und Blau abgebildet, so entstehen Farbartefakte. Diese Art von Farbar-<br />
tefakten ist besonders in Verbindung mit der Abbildung durch ein Faserbündel stark<br />
ausgeprägt. Hier werden akkumulierte Szenenbereiche als Lichtpunkte übertragen und<br />
gebündelt auf eine geringe Anzahl an Sensorelementen abgebildet (vgl. Abb. 2.6). Da-<br />
bei verdeckt das Wabenmuster einige Sensorbereiche und jeder Lichtpunkt wird diffus<br />
in Form einer Gauß-Verteilung auf einen Bereich abgebildet.<br />
Die Erfassung einer faseroptischen Farbabbildung mit der Einchip-Technik unter-<br />
liegt daher einem Kompromiss. Würde eine Faser direkt und ausschließlich mit einem<br />
Sensorelement verbunden werden, so könnte man seine Intensität zwar exakt bestim-<br />
men, jedoch könnte man aufgrund der spezifischen Farbfilterung des Sensorelements<br />
die Farbe des Lichtpunkts nicht mehr angeben. Um den Farbwert zu bestimmen, wird<br />
die Information möglichst vieler Sensorelemente benötigt, die den Lichtpunkt abtas-<br />
ten. In der Praxis wird die Auflösung des Kamerachips derart gewählt, dass eine Faser<br />
auf etwa 3×3 bis 7×7 Sensorelemente abgebildet wird. Doch gerade diese geringe An-<br />
zahl von Sensorelementen wird meist ungleichmäßig ausgeleuchtet. Das Ungleichge-<br />
wicht von stimulierten Sensorelementen führt folglich beim Demosaicing zu falscher<br />
Farbinformation für diese Faser. Normalerweise tritt dieser Effekt durch statistische<br />
Gleichverteilung nur als Randerscheinung auf, doch in der Faserbildverarbeitung mit<br />
den geschilderten Randbedingungen kann der störende Einfluss von unregelmäßigen<br />
Verdeckungen und Mikroschattierung durch reine Filterung nicht behoben werden (s.<br />
dazu auch die Ausführungen in Abschn. 2.5.4). Zur Veranschaulichung zeigt Abbil-<br />
dung 2.7 einen typischen Effekt dieser Farbartefakte. Die Aufnahme entstand mit dem<br />
flexiblen Endoskop E6 (vgl. Tab. 4.1) bei einer Bildapertur von ca. 265 Pixel.
2.3. EIGENSCHAFTEN VON FASEROPTISCHEN SYSTEMEN 27<br />
(a) (b) (c)<br />
(d) (e) (f)<br />
Abbildung 2.7: (a) Aufnahme einer fiberskopisch abgebildeten Szene durch eine Einchip-<br />
Kamera mit Farbfiltermosaik (Bayer-Pattern). (b,c) Vergrößerte Ausschnitte zur Visualisierung<br />
der wabenartigen Struktur des Faserbündels und des typischen Effekts von Farbartefakten<br />
durch Abtastung. Die mittels linearer Filterung aufbereitete Aufnahme (d) zeigt z.B. in Aus-<br />
schnitten (e) und (f) diagonal gestreifte Farbartefakte.<br />
Die Literatur präsentiert spezielle Verknüpfungen von Algorithmen der Bildver-<br />
arbeitung mit dem Prinzip des Demosaicing. Ein passendes Beispiel hierfür ist die<br />
Auflösungssteigerung mit Super Resolution. Wird sie in Verbindung mit Farbbildsen-<br />
soren angewendet, so kann das Wissen um die Bildentstehung durch Demosaicing di-<br />
rekt in die Berechnung der hoch aufgelösten Zielbilder einfließen. Farsiu et al. zeigen<br />
in [FEM06], dass sich dies vorteilhaft gegenüber einer separaten Anwendung (d.h.<br />
zuerst Demosaicing und anschließend Super Resolution) auswirkt. Die Verknüpfung<br />
von Demosaicing mit der speziellen Abbildung von Faserbündeln wird bislang in der<br />
Literatur nicht erwähnt und stellt damit einen wesentlichen Beitrag dieser Arbeit dar.<br />
Die vielversprechenden Ergebnisse bestätigen die Relevanz der Anwendung für diesen<br />
Bereich.
28 2.4. METHODEN DER BILDAUFBEREITUNG FÜR DIE ENDOSKOPIE<br />
2.4 Methoden der Bildaufbereitung für die Endoskopie<br />
2.4.1 Geometrische Kalibrierung und Entzerrung<br />
In Abschnitt 2.3.3 wurde der Einsatz von Optiken mit kurzer Brennweite für die En-<br />
doskopie motiviert. Aufgrund der starken tonnenförmigen Verzerrung spielt für eine<br />
metrische Nutzung von endoskopischen Bildern eine geeignete Entzerrung eine ent-<br />
scheidende Rolle (vgl. Abb. 2.8). Der Einfluss und die positiven Auswirkungen ei-<br />
ner Entzerrung auf die digitale Weiterverarbeitung von fiberskopischen Bildern wer-<br />
den u.a. in [WR07] untersucht. Rupp et al. konnten in [RWE06a] und [RWW06] eine<br />
quantitative Aussage über die Leistungsfähigkeit von Entzerrungsalgorithmen für den<br />
Anwendungsbereich der Endoskopie liefern. Dabei wurde nachgewiesen, dass sich der<br />
Kalibrierfehler nach faseroptischer Übertragung in etwa um den Faktor erhöht, um den<br />
die Auflösung durch die Faserabtastung reduziert wird. Eine messbare Auswirkung<br />
auf die Präzision durch eine zusätzliche tangentiale Entzerrung oder mehr als zwei<br />
Polynomfaktoren bei der radialen Entzerrung konnte nicht nachgewiesen werden. Es<br />
ist davon auszugehen, dass ein möglicher Effekt zwar durch weitere Untersuchungen<br />
nachweisbar wird, jedoch deutlich unterhalb der Größenordnung anderer Fehlerquel-<br />
len liegt.<br />
Die vorliegende Arbeit nutzt die Bilddaten im metrologischen 17 Sinn nur für eine<br />
Bewegungsschätzung von Merkmalen in Bildsequenzen zur Raumrekonstruktion und<br />
der damit möglichen Beurteilung der Aufbereitungsgüte anhand dieser Ergebnisse. Für<br />
diese Anwendungen müssen die Bilddaten verzerrungsfrei dargestellt werden. Auf die<br />
übrigen Auswertungen haben diese geometrischen Beeinträchtigungen keine Auswir-<br />
kung bzw. können sie durch geeignete Bearbeitungsschritte eines Abbildungsmodells<br />
umgangen werden.<br />
Zur 3D-Rekonstruktion wird die Software SynthEyes von Andersson Technologies<br />
[And07] eingesetzt. Sie erlaubt die räumliche Rekonstruktion einer Objektszene aus<br />
der zeitlichen Abfolge von monokularen Einzelaufnahmen. Zu diesem Zweck verfolgt<br />
sie markerlose 18 Objektpunkte in der Szene, analysiert daraus die Bewegung des Ka-<br />
merapfads und rekonstruiert die Position, insbesondere die Tiefe der Objektpunkte.<br />
Für die Vorverarbeitung der Bilddaten nutzt sie neben einer Helligkeits-, Kontrast- und<br />
Farbanpassung ein elliptisches Verzerrungsmodell [And05], das über den Verzerrungs-<br />
parameter ρ (in der Software unter dem Symbol k geführt) den folgenden Zusammen-<br />
17 Metrologie: Lehre von den Maßen, den Gewichten und den Maßsystemen.<br />
18 Markerlos: Ohne künstliche Kennzeichnung, z. B. durch Klebemarken
2.4. METHODEN DER BILDAUFBEREITUNG FÜR DIE ENDOSKOPIE 29<br />
(a) (b)<br />
Abbildung 2.8: Endoskopisch erfasste Aufnahme eines Schachbrettmusters zur Kalibrierung<br />
mit starker radialer Verzerrung (a). Anwendung des Algorithmus aus der freien Bibliothek von<br />
Intel [Int01] zur Entzerrung der Abbildung (b).<br />
hang zwischen unverzerrten Koordinaten (u, v) T und verzerrten Koordinaten (ũ, ˜v) T<br />
herstellt:<br />
<br />
ũ<br />
˜v<br />
= 1 + ρ · (γ 2 u 2 + v 2 <br />
u<br />
)<br />
v<br />
. (2.1)<br />
Der Parameter γ berücksichtigt das Abmessungsverhältnis der Sensorelemente, die<br />
das Bild abtasten, meist ist γ = 1. Zur Vereinfachung der Abbildungsgleichung wird<br />
angenommen, dass sich der optische Mittelpunkt im Zentrum des Bilds befindet. Für<br />
eine gegebene, durch Verzerrung beeinflusste Position (ũi, ˜vi) T wird iterativ, z. B. durch<br />
Minimierung des mittleren quadratischen Fehlers eine unverzerrte Koordinate (ui, vi) T<br />
approximiert:<br />
<br />
ui<br />
vi<br />
<br />
= argmin<br />
(u,v))<br />
<br />
<br />
<br />
ũ(u, v)<br />
−<br />
˜v(u, v)<br />
<br />
ũi<br />
˜vi<br />
<br />
2<br />
. (2.2)<br />
Zur Beschleunigung der Berechnung können die Ergebnisse z. B. für eine lineare oder<br />
kubische Interpolation in Form einer Lookup-Tabelle 19 bereitgehalten werden.<br />
In der Literatur finden sich zahllose weitere Ansätze zur geometrischen Kalibrie-<br />
rung von Kamerasystemen. Viele verwenden das Lochkameramodell 20 und unterschei-<br />
den sich lediglich in der intrinsischen Parametrisierung und den Verfahren zur Op-<br />
timierung. Tsai stellte bereits vor drei Jahrzehnten einen Ansatz vor, um handelsüb-<br />
liche Kameramodelle für metrologische Anwendungen einzusetzen [Tsa86, Tsa87].<br />
19Lookup-Tabelle: Vorgehen zur schnellen Bereithaltung von Zwischenergebnissen, indem Funktionswerte<br />
vorab ermittelt und im Speicher als Tabelle abgelegt werden.<br />
20Lochkameramodell: Abbildungsmodell, das von der verzerrungsfreien perspektivischen Projektion<br />
von Punkten einer Szene durch das optische Zentrum einer Kamera auf die Bildebene ausgeht.
30 2.4. METHODEN DER BILDAUFBEREITUNG FÜR DIE ENDOSKOPIE<br />
Das mittlerweile etablierte Vorgehen bestimmt durch eine effiziente Berechnung die<br />
Kameraposition und -orientierung (extrinsische Parameter) in einem Referenzkoordi-<br />
natensystem der beobachteten Objekte und berechnet Schätzwerte für die Brennwei-<br />
te und radiale Verzerrungen des Abbildungsmodells (intrinsische Parameter). Durch<br />
kombinierte Berechnung von intrinsischen und extrinsischen Parametern arbeitet der<br />
Algorithmus bei vergleichbarer Präzision ebenso stabil und dabei deutlich schneller,<br />
als vergleichbare Verfahren. Zhang und Helferty et al. beschreiben praktikable Vor-<br />
gehensweisen zur robusten Kalibrierung von Kamerasystemen und wenden ihre Ver-<br />
fahren auch auf den Bereich der starren Endoskopie an [Zha00, HZMH01]. Nach ei-<br />
ner geschlossen darstellbaren Initialisierung erfolgt eine statistische Optimierung über<br />
ein Maximum-Likelihood Kriterium. Heikkilä modelliert zusätzlich die perspektivi-<br />
sche Verzerrung von Merkmalen in der Szene, um bei deren Registrierung eine höhere<br />
Genauigkeit zu erzielen [HS96]. Smith et al. [SVM92] untersuchen den Einfluss der<br />
radialen Verzerrung in endoskopischen Bildern auf das Größenverhältnis von Objekten<br />
in Randbereichen der Apertur.<br />
2.4.2 Daten- und wissensgetriebene Algorithmen<br />
Die meisten integrierten Endoskopiesysteme im klinischen und industriellen Einsatz<br />
beinhalten eine rudimentäre Bildverarbeitung, um das Bild auf einem angeschlosse-<br />
nen Monitor für den Betrachter angenehm darzustellen. Dazu zählen die Anpassung<br />
von Helligkeit und Kontrast und die Balance der Farbzusammensetzung. Vogt et al.<br />
[VKNS03, Vog06] und Fischer et al. [FVLS04] gehen in ihren weiterführenden Arbei-<br />
ten zur Artefaktreduktion auch auf Reflexionen, Überbelichtung und dunkle Bildrän-<br />
der ein. Die Ausblendung, Dämpfung oder Aufhellung kann in Echtzeit durchgeführt<br />
werden, nachdem ein Initialisierungsschritt die Bildbereiche, die einer Korrektur be-<br />
dürfen, identifiziert hat und in einer Lookup-Tabelle bereithält. Die genannten Algo-<br />
rithmen beziehen die Information zur Steuerung der Aufbereitung ausschließlich aus<br />
den Bilddaten und werden deshalb zur Klasse der datengetriebenen Algorithmen zu-<br />
sammengefasst.<br />
Sog. wissensgetriebene Algorithmen bringen zur Aufbereitung von Einzelbildern<br />
szenenbasiertes Zusatzwissen ein. Dies kann beispielsweise Information über die Ob-<br />
jektgeometrie, Strukturinformation zur Kantenerhaltung oder die adaptive Gewichtung<br />
bei der Erhaltung von Details sein. Entscheidend für den Einsatz derartiger Algorith-<br />
men ist die zuverlässige Charakterisierung von Bildinhalten und die Sicherheit, dass<br />
dieses Vorwissen sich über den Zeitraum der Anwendung nicht ändert. Sonst ist eine<br />
adaptive Anpassung notwendig und die Komplexität steigt unverhältnismäßig an.
2.5. BILDRESTAURIERUNG FASEROPTISCHER EINZELAUFNAHMEN 31<br />
2.5 Bildrestaurierung faseroptischer Einzelaufnahmen<br />
Die bei der faseroptischen Übertragung durch Unter- und Überabtastung hervorgeru-<br />
fene Rasterstruktur kann zwar im Okular bei kleiner Apertur vom menschlichen Auge<br />
kompensiert werden, führt jedoch bei der digitalen Weiterverarbeitung der Bilddaten,<br />
z. B. zur räumlichen Rekonstruktion, zu erheblichen Fehlern. Dies hängt maßgeblich<br />
mit der Verarbeitung von Strukturen in Bildern zusammen, wobei sich Algorithmen<br />
aus der Computergrafik stark an der menschlichen Wahrnehmung orientieren. So wer-<br />
den Objektmerkmale in Bildern meist anhand ihrer Kontrast- oder Farbverhältnisse zur<br />
Umgebung lokalisiert und charakterisiert. Da die Faserstruktur selbst starke Kontraste<br />
in endoskopisch erfassten Bildern erzeugt, verfälscht und beeinträchtigt sie die compu-<br />
tergestützte Auswertung. Zur Verbesserung werden in der Literatur mehrere Ansätze<br />
genannt, von denen die wichtigsten hier im Überblick kritisch erläutert werden. Grund-<br />
legend werden die Verfahren nach ihrem Signalraum unterschieden, wobei nach einer<br />
rein optischen Vorgehensweise des Weichzeichnens zunächst in Abschnitt 2.5.2 der<br />
Ortsraum (oder auch Bildraum genannt) und anschließend in Abschnitt 2.5.3 der Orts-<br />
frequenzraum (kurz Frequenzraum) behandelt wird. Beide haben ihre Berechtigung,<br />
bietet doch jeder seine eigenen Vorzüge, wie Bearbeitungsgeschwindigkeit, Komplexi-<br />
tät des Algorithmus oder Toleranz gegenüber optischen Beeinträchtigungen. Abschlie-<br />
ßend wird mit Abschnitt 2.5.4 die eigenen Lösungsvorschläge motiviert, indem an-<br />
schaulich erläutert wird, welchen Schwierigkeiten eine herkömmliche Farbbildverar-<br />
beitung im Kontext der Faserbildrestaurierung ausgesetzt ist.<br />
2.5.1 Optisches Weichzeichnen<br />
An der Spitze des Endoskops wird das Abbild der Szene durch das Glasfaserbündel<br />
abgetastet. Die Filterung versucht, das so abgetastete Signal am Ende wieder zu re-<br />
staurieren. Um Alias 21 zu vermeiden, muss sichergestellt werden, dass eingangsseitig<br />
das Kriterium des Abtasttheorems erfüllt ist, d.h. das Bildsignal muss bandbegrenzt<br />
sein oder werden. In der Optik wird dies durch Weichzeichnen erreicht. Statt einer<br />
möglichst hoch aufgelösten Szene wird bewusst eine niedrigere Schärfe in Kauf ge-<br />
nommen, um Artefakte in der Rekonstruktion zu vermeiden. Weichzeichnung wird<br />
optisch auf zweierlei Weise erreicht:<br />
21 Alias oder Alias-Effekt: Fehler, die durch Verletzung des Abtasttheorems beim digitalen Abtasten<br />
von Signalen auftreten
32 2.5. BILDRESTAURIERUNG FASEROPTISCHER EINZELAUFNAHMEN<br />
Kamerafilter Eine pragmatische Lösung für Studioaufnahmen ist eine Glasschei-<br />
be, die angehaucht oder mit Vaseline bestrichen wurde. Der Effekt der Lichtstreu-<br />
ung erzeugt den Weichzeichner-Effekt, allerdings ist die Wiederholbarkeit des Effekts<br />
schwierig. Besser reproduzierbare Ergebnisse gelingen mit konfektionierten Filtern,<br />
die den Effekt durch strukturiertes angeschliffenes Glas erzielen, z. B. das Soft-FX-<br />
Filter oder das Pro-Mist-Filter [The07]. Diffusionsfilter und Pastellfilter haben einen<br />
bildweiten streuenden Effekt und dämpfen den Kontrast zwischen Hell und Dunkel.<br />
Spezielle Optiken Es gibt für den Zweck des Weichzeichnens spezielle Objektive,<br />
die sich den sonst unerwünschten Effekt der sphärischen Abberation zu Nutze machen.<br />
Wird dieser bei Objektiven übliche optische Abbildungsfehler nicht hinreichend korri-<br />
giert, so wird das eigentlich scharfe Abbild von einem unscharfen überlagert. Namhaf-<br />
te Vertreter sind das Imagon von Rodenstockite [Rod07], die DC-Nikkore 22 von Nikon<br />
[Nik07] oder das Varisoft von Minolta [Kon07].<br />
In der Dramaturgie [Das07] wird Weichzeichnen genutzt, um Einstellungen oder<br />
Sequenzen als Gedanken, Rückblick, Traum, oder Vergangenheit für den Beobachter<br />
sichtbar zu kennzeichnen. Für den Betrachter meist unbemerkt können auf diese Weise<br />
mit sanfter Einstellung bei Nahaufnahmen Altersfältchen in unruhiger Haut verborgen<br />
werden.<br />
2.5.2 Verfahren zur Rasterreduktion im Ortsraum<br />
Kalibrierung inkohärenter Bildbündel Bildbündel aus modernen Fertigungen zei-<br />
gen eine 100%-ige Kohärenz in der Anordnung ihrer Einzelfasern. Bevor diese Pro-<br />
duktionstechnik derart zuverlässig ausgereift war, wurden Verfahren zur Kalibrierung<br />
von lichtleitenden Faserbündeln entwickelt. Kalibrierung bezeichnet in diesem Fall die<br />
Zuordnung von eingangsseitigen zu ausgangsseitigen Bildfasern. Über eine Lookup-<br />
Tabelle können daraufhin die Abbildungen aus den übertragenen Bildpunkten rekon-<br />
struiert werden. Eikelmann et al. [EKP93] stellen für den Einsatz von Faserendoskopen<br />
in der Automatisierungstechnik einen semiautomatischen Ablauf dieser Kalibrierung<br />
vor. Das Verfahren zeigt seine Stärken in der Verwendung beliebiger Lichtleiter als<br />
Bildleiter (vgl. Abb. 2.9(a)), berücksichtigt allerdings keine subpixelgenaue 23 Lokali-<br />
sierung der Faserzentren. Trotzdem stellt es eine Variante dar, um unabhängig von der<br />
Wabenstruktur ein faseroptisches Abbild zu rekonstruieren.<br />
22 DC-Nikkore: Defocus Image Control, Nikkore mit gezielter Defokussierung<br />
23 subpixelgenau: Der Begriff wird hier für Berechnungen verwendet, die eine höhere Präzision als<br />
das Pixelraster verwenden.
2.5. BILDRESTAURIERUNG FASEROPTISCHER EINZELAUFNAHMEN 33<br />
(a) (b)<br />
(c) (d)<br />
Abbildung 2.9: (a) Schematische Skizze eines inkohärenten lichtleitenden Faserbündels (Abb.<br />
aus [EKP93]). (b) Ungeordnetes Abbild einer Geldmünze durch ein inkohärent lichtleitendes<br />
Faserbündel. (c) Geordnetes Abbild (107 × 107 Pixel) durch das kalibrierte Bildbündel. (d)<br />
Geordnetes Abbild (989 × 992 Pixel) mit flächenanteiliger Verteilung der Faserhelligkeiten.<br />
(Abb. (b-d) aus [Bro00])<br />
Optoelektronische Registrierung von Fasern Aufbauend auf der gerade vorge-<br />
stellten Arbeit präsentiert Bröcher [Bro00] ein verbessertes optoelektronisches Ver-<br />
fahren zur Registrierung der Fasern. Zur Zuordnung der Fasern wird eine automatische<br />
Streifenlichtprojektion mit binärer Codierung eingesetzt, welche den Aufwand der se-<br />
miautomatischen Kalibrierung von einer Stunde auf wenige Minuten reduziert. Dem<br />
Unterschied zwischen der hexagonalen Anordnung der Fasern und dem kartesischen<br />
Koordinatensystem des Bildsensors wird Rechnung getragen, indem die Faserinten-<br />
sitäten flächenanteilig auf ein Pixelgitter verteilt werden. Diese Art der Interpolation<br />
zeigt visuell zufriedenstellende Ergebnisse und wirkt sich im Fall ungenau geordneter<br />
Bildleiter positiv auf die wahrgenommene Bildqualität aus (vgl. Abb. 2.9 (b-d)). Die<br />
Nachteile ergeben sich aus dem nach wie vor hohen Aufwand der optoelektronischen
34 2.5. BILDRESTAURIERUNG FASEROPTISCHER EINZELAUFNAHMEN<br />
Registrierung und Indizierung der Fasern sowie der Ungenauigkeit in der Bestimmung<br />
der Faserposition.<br />
Interpolation in hexagonaler Arithmetik Die Anordnung von Glasfasern im Quer-<br />
schnitt eines Bildbündels zeigt eine homogene hexagonale Struktur. Deshalb liegt es<br />
nahe, mathematische Operationen direkt auf den gewonnenen strukturierten Bildern<br />
auszuführen, ohne vorher die Information in eine kartesische Darstellung zu inter-<br />
polieren. Die Vorteile im Bereich Repräsentation, Auflösung und Darstellbarkeit von<br />
Strukturen werden in mehreren Arbeiten genannt [KPS89, Nel89, Ehr93]. Bereits in<br />
den 80er Jahren wurden einfache Filter für hexagonale Strukturen entworfen und z. B.<br />
für hexagonal angeordnete Kamerasensoren vorgeschlagen [BCR + 01].<br />
Hexagonale Arithmetik könnte sich zur Beschleunigung von einzelnen Teilschritten<br />
in der Bildverarbeitung für Faserendoskope eignen, z. B. der Transformation in einen<br />
Frequenzraum [Ehr93], sofern die hexagonalen Bilddaten direkt von einem geeigneten<br />
Sensorchip abgegriffen werden. Allerdings wird kein bahnbrechender Vorteil erwar-<br />
tet, da die Komponenten, die für eine direkte hexagonale Abtastung, Verarbeitung und<br />
Darstellung benötigt werden, komplexer und deutlich teurer sind. Aus den genannten<br />
Nachteilen wird die hexagonale Arithmetik in den Algorithmen dieser Arbeit nicht<br />
weiter in Betracht gezogen.<br />
2.5.3 Ansätze zur Rasterreduktion im Ortsfrequenzraum<br />
Die Literatur kennt vielfältige Verfahren, störende Strukturen aus Bildern zu entfer-<br />
nen. Janssen [Jan00] gibt in seiner Arbeit einen Überblick über elementare Methoden<br />
zur Rasterreduktion. Diese umfassen parametrisierte Rechteckmasken, Bandpassfil-<br />
ter, Auflösungspyramiden und einen multidimensionalen Diffusionsalgorithmus. Die<br />
letzteren beiden wurden für spezielle Anwendungen zur faseroptischen Überwachung<br />
von Strömungsprozessen entworfen, lassen sich jedoch nicht direkt für die Fibersko-<br />
pie anwenden. Die genannten Verfahren sind stets auf eine manuelle Parametrisierung<br />
ausgelegt und erfordern deshalb entweder eine mehr oder weniger komplexe Initia-<br />
lisierungsphase oder liefern nur suboptimale Ergebnisse für verschiedene Typen von<br />
Endoskopen.<br />
Die Arbeiten von Dickens et al. [DHMB97, DHMB99] stehen dem Vorgehen zur<br />
spektralen Filterung nahe. In [DBM98] wird dazu manuell das Fourier-Spektrum ana-<br />
lysiert und ein ellipsenförmiger Ring erstellt, der als Bandpassfilter den deutlich sicht-<br />
baren Ring der hohen Frequenzen dämpft (vgl. Abb. 2.10). Die Arbeit berücksich-
2.5. BILDRESTAURIERUNG FASEROPTISCHER EINZELAUFNAHMEN 35<br />
(a) (b) (c)<br />
Abbildung 2.10: (a) Endoskopischer Blick auf Testbild (aus [DBM98]) mit (b) zugehörigem<br />
Spektrum. (c) Vorschlag von Dickens et al. zur Erstellung einer Filtermaske, um bandpassbe-<br />
grenzt hochfrequente Wabenstruktur zu dämpfen.<br />
tigt dabei keine periodischen Wiederholungen der Spektren, die auch außerhalb des<br />
erstellten Filterrings zu Frequenzanteilen führen. Höhere Frequenzen, die in diesem<br />
Bereich auftreten, müssen aufgrund von Überlegungen zur maximalen Abtastfrequenz<br />
des Faserbündels (s. Abschn. 3.2.1.1) ebenfalls unterdrückt werden. Als Farbfilterung<br />
wird im herkömmlichen Sinn die separate gleichartige Bearbeitung der einzelnen Farb-<br />
kanäle beschrieben (der Problematik dieses Vorgehens zur Farbbildbearbeitung ist der<br />
nächste Abschnitt gewidmet).<br />
Aslan et al. [AKH + 99] evaluieren Methoden zur Bildaufbereitung in kommerzi-<br />
ellen Endoskopiesystemen. Der digital fiberscope filter, der die Wabenstruktur durch<br />
einfache Erweiterung der Faserpunkte im Bild reduziert, wird nicht näher beschrieben,<br />
weshalb ein algorithmischer Vergleich für diese Arbeit nicht in Betracht kommt.<br />
Zusammenfassend wird bemerkt, dass die beschriebenen Arbeiten nie die detail-<br />
lierte Beschreibung der Algorithmen mit einer wissenschaftlichen Bewertung anhand<br />
objektiver Kriterien verknüpfen. Die Ansätze zur Filterung ähneln dem Vorgehen die-<br />
ser Arbeit im Spektralbereich, jedoch wird dort nichts zum Thema Automatisierung<br />
zur Wahl geeigneter Parameter geschrieben. Außerdem wird der Unterschied in der Fa-<br />
serstruktur zwischen Quarz und Glas nicht adressiert und daher steht die Optimierung<br />
für die homogene Wabenstruktur eines Glasfaserbündels aus. Diese beiden Aspekte<br />
werden in Abschnitt 3.2.1 aufgegriffen.<br />
2.5.4 Methoden zur Farbbildverarbeitung<br />
Die Diagnose von Organen bzw. die Inspektion von Bauteilen erfolgt häufig über ei-<br />
ne Beurteilung von Oberflächen. Zu den charakteristischen Textureigenschaften zählt
36 2.5. BILDRESTAURIERUNG FASEROPTISCHER EINZELAUFNAHMEN<br />
Abbildung 2.11: Triviale Anwendung eines Einkanal-Algorithmus auf ein Farbbild.<br />
insbesondere die Farbe. Für zuverlässige Diagnosen und Schadensfeststellungen ist es<br />
daher wünschenswert, eine möglichst unverfälschende Farbabbildung zu gewährleis-<br />
ten. Die bisher in diesem Kapitel vorgestellten Ansätze zur Rasterreduktion verändern<br />
die Intensitätsinformation, d.h. sie bearbeiten primär Kontraste und Strukturen in Grau-<br />
wertbildern. Die Ansätze werden jedoch meist auch für die Farbbildbearbeitung einge-<br />
setzt. Dazu wird, wie in Abbildung 2.11 veranschaulicht das Farbbild Î in die einzelnen<br />
Kanäle ÎR, ÎG und ÎB seiner Grundfarben Rot, Grün und Blau getrennt. Jeder Farbkanal<br />
wird dann als statistisch unabhängiges Intensitätsbild vom Algorithmus bearbeitet und<br />
liegt danach in restaurierter Form IR, IG und IB vor. Das restaurierte Farbbild setzt sich<br />
dann wie gewohnt aus der Kombination der Einzelbilder zusammen: I = [IR; IG; IB].<br />
Für Algorithmen, die auf Intensitätsbildern basieren, ist dieses Vorgehen für die Er-<br />
weiterung von ein- auf mehrkanalige Bilddaten prinzipiell möglich. Allerdings werden<br />
auf diese Weise diverse Abtasteffekte, die zwischen Bildbündel- und Sensoranordnung<br />
auftreten, vernachlässigt.<br />
Abbildung 2.7 zeigt das Resultat für den Vorgang der Filterung anhand einer faser-<br />
optischen Darstellung des MATLAB-Symbols. Die Aufnahme (d) zeigt das Resultat<br />
nach Glättung mit einem separierbaren 11 × 11-Gauß-Filter mit der Impulsantwortma-<br />
trix<br />
[0.11 0.25 0.46 0.71 0.92 1.00 0.92 0.71 0.46 0.25 0.11] .<br />
Alle Kanäle wurden separat gefiltert und danach zum Farbbild zusammengesetzt. Um<br />
die Problematik dieses Vorgehens in der Bearbeitung von Faserbildern zu verdeut-<br />
lichen, zeigen (e) und (f) der Abbildung 2.7 vergrößerte Ausschnitte des gefilterten<br />
Bilds. Die Beeinflussung des Filterergebnisses durch die Farbartefakte macht sich in<br />
diesem Fall als grün- und rotstichige diagonale Streifen von links oben nach rechts<br />
unten bemerkbar.<br />
Die Ursache für diesen Effekt beschreibt Abschnitt 2.3.3. Sie liegt in der asyn-<br />
chronen Abtastung zwischen Bildbündel und Farbfilter und erzeugt einen verfälschten<br />
Farbeindruck in lokalen Strukturen des Bilds, der auch durch eine nachträgliche Glät-
2.6. AUFLÖSUNGSSTEIGERUNG IN BEWEGTEN BILDSEQUENZEN 37<br />
tung nicht kompensiert werden kann. Ohne Zusatzwissen über den Aufbau des Sensors<br />
und das Zusammenwirken der Abtastvorgänge von Bildbündel und Farbfiltermosaik<br />
kann dieser Effekt nicht behoben werden. Abschnitt 3.3 beschäftigt sich mit der asyn-<br />
chronen Abtastung zwischen Bildbündel und Farbfilter und entwickelt einen Ansatz,<br />
um die daraus resultierenden Farbartefakte gänzlich zu umgehen.<br />
2.6 Auflösungssteigerung in bewegten Bildsequenzen<br />
Super Resolution 24 werden in der Bildverarbeitung Techniken genannt, die dabei hel-<br />
fen, die Auflösung von Bildern zu erhöhen. Im Gegensatz zu Algorithmen, die auf<br />
Einzelbildern arbeiten und in dieser Arbeit als statisch bezeichnet werden, erreichen<br />
jene dynamischen Verfahren ihr Ziel durch eine geschickte Kombination und Nutzung<br />
von Information zeitlich benachbarter und örtlich versetzter Bilder, in denen geeignete<br />
Bewegung vorhanden ist. Der Ausdruck dynamisch betont zugleich einen wesentli-<br />
chen Einflussfaktor, nämlich die variierende Anzahl von Einzelbildern, die zur Rekon-<br />
struktion des hoch aufgelösten Bilds herangezogen werden. Im Sprachgebrauch der<br />
Signalverarbeitung steht statisch auch für eine Intraframe-Codierung, also innerhalb<br />
eines Bilds und dynamisch für eine Interframe-Codierung, die also zwischen meh-<br />
reren Bildern stattfindet. In der Praxis werden Interframe-Verfahren meist mit einer<br />
Intraframe-Bearbeitung verknüpft.<br />
Die meisten Ansätze für Super Resolution sind dafür ausgelegt, die Größe von Bil-<br />
dern von ihrer ursprünglichen Größe N × M um einen definierten Faktor r auf rN × rM<br />
zu erhöhen. Die zugrunde liegenden Verfahren dürfen dabei nicht mit dem trivialen<br />
Vervielfachen oder der bilinearen oder bicubischen Interpolation von Bildpunkten ver-<br />
wechselt werden. Die letztgenannten Operationen zur Streckung eignen sich zwar zur<br />
Vergrößerung eines Bilds, sie erhöhen jedoch nicht seine tatsächliche Auflösung.<br />
Nachdem die technischen Grenzen einer Auflösungssteigerung durch Modifikati-<br />
on der Hardware, also des Kamerachips, sowie die Bedeutung der Bewegung als In-<br />
formationsquelle für Super Resolution erörtert sind, fasst dieses Kapitel die derzei-<br />
tigen Verfahren zusammen, die zur Auflösungssteigerung eingesetzt werden. Da die<br />
Einschränkungen für die Klasse der Frequenzraumverfahren und einiger Ortsraumver-<br />
fahren unter Berücksichtigung globaler Bewegung für die Endoskopie nicht getroffen<br />
werden können, wird abschließend die Idee der lokalen Ergänzung von Bildinhalten<br />
24 Super Resolution: Verfahren zur Erhöhung der Auflösung in bewegten Bildsequenzen
38 2.6. AUFLÖSUNGSSTEIGERUNG IN BEWEGTEN BILDSEQUENZEN<br />
beschrieben, die im eigenen Beitrag als praktikable Erweiterung der Interpolation von<br />
faseroptisch gewonnenen Bilddaten ausgeführt wird.<br />
2.6.1 Technische Grenzen<br />
Eine charakteristische Kenngröße von digitalen Kamerasensoren ist die Auflösung.<br />
Sie bezeichnet die Anzahl an fotosensitiven Elementen, mit denen eine Szene abge-<br />
tastet und als digitale Bildinformation gespeichert wird. Die Idee liegt nahe, einfach<br />
die Pixelgröße des Sensors ausreichend zu verkleinern. Auf einem Sensor mit einer<br />
bestimmten Ausdehnung finden so beliebig viele Elemente Platz und die Auflösung<br />
erreicht das gewünschte Maß. Leider reduziert die Miniaturisierung die Lichtmenge,<br />
die pro Sensorelement ausgewertet werden kann und vermindert damit das Signal-zu-<br />
Rausch-Verhältnis, was die Qualitätssteigerung schwächt oder gar kompensiert. Auch<br />
eine verlängerte Belichtungszeit löst das Problem nicht, da die Schärfe von bewegten<br />
Szenen auf eine kurze Abtastzeit angewiesen ist. Die heute erreichte Pixelabmessung<br />
von 40µm 2 wird als theoretisches Optimum für den sichtbaren Spektralbereich gese-<br />
hen.<br />
Eine Vergrößerung der Sensorfläche, um mehr Elemente unterzubringen, stößt auf<br />
zwei gravierende Probleme. Elektronisch gesehen führt sie zu einer Erhöhung der Auf-<br />
nahmekapazität und somit zu einer langsameren Ladungstransferrate beim Auslesen.<br />
Die Folge ist, wie bei der Belichtungszeit, eine steigende Unschärfe in der Darstel-<br />
lung. Optisch begrenzen geometrische Abbildungsfehler eine beliebige Vergrößerung<br />
der Sensorfläche. Der Effekt der Bildfeldwölbung tritt in der flexiblen Faserendoskopie<br />
sowohl an der distalen Optik als auch am Okular auf, wo die Abbildung über den Glas-<br />
Luft-Übergang auf das planparallel geschliffene Bildbündel erfolgt. Aufgrund des ho-<br />
hen technischen Aufwands sind keine Bestrebungen bekannt, beispielsweise mit einer<br />
Planfeldoptik die Bildfeldwölbung zu reduzieren.<br />
2.6.2 Bewegung als Informationsquelle<br />
Das Prinzip von Super-Resolution Verfahren wird bei genauerer Betrachtung des Ent-<br />
stehungsprozesses der degradierten Aufnahmen deutlich. Im Fall globaler Bewegung<br />
werden dazu mit Hilfe eines einfachen, dynamischen Beobachtungsmodells unter-<br />
schiedliche Störungen und physikalische Einflüsse nachgebildet, welche die Bildquali-<br />
tät negativ beeinflussen [FREM04b, PPK03]. Für die mathematische Beschreibung der<br />
Abbildung gehören dazu Rotation, Translation, Verzerrung, Unschärfe durch Bewe-
2.6. AUFLÖSUNGSSTEIGERUNG IN BEWEGTEN BILDSEQUENZEN 39<br />
gung oder falsches Fokussieren, Diskretisierung, Unterabtastung und Rauschen. Meist<br />
wird davon ausgegangen, dass die Verzerrung, die Unschärfe, sowie die Diskretisie-<br />
rung und Unterabtastung über die Sequenz konstant bleiben. Super Resolution ver-<br />
sucht nun, diesen Prozess rückwärts zu gehen. Ausgehend von einer Menge niedrig<br />
aufgelöster (Low resolution: LR-)Bilder LR Î soll die ursprüngliche Szene in Form des<br />
hochaufgelösten (High resolution: HR-)Bilds HR I annähernd restauriert werden. Typi-<br />
scherweise arbeiten die Algorithmen in drei Teilschritten.<br />
1. Zunächst werden die vorliegenden LR-Bilder in Bezug auf ein Referenzbild re-<br />
gistriert,<br />
2. anschließend wird im zweiten Schritt das HR-Bild aufgebaut, bevor<br />
3. abschließend der Unschärfeeffekt rückgängig gemacht wird und gegebenenfalls<br />
auftretende Rauscheffekte vermindert werden.<br />
Schritt zwei und drei sind algorithmisch häufig kaum zu trennen und unterscheiden<br />
sich stark je nach Lösungsansatz, wie später in den Abschnitten 2.6.4 und 2.6.5 im<br />
Überblick gezeigt wird. Zur Reduktion des Unschärfeeffekts in den LR-Eingangsbil-<br />
dern oder zur nachträglichen Verbesserung von kombinierten HR-Bildern eignet sich<br />
eine Wiener-Filterung unter Berücksichtigung oder Schätzung der Punktantwortfunk-<br />
tion des Abbildungssystems [EHO01].<br />
Besondere Beachtung findet an dieser Stelle der Registrierungsschritt (1.), dessen<br />
Ziel eine möglichst genaue Bestimmung der Bewegung zwischen zwei aufeinanderfol-<br />
genden Aufnahmen der Szene und damit der Parameter der Bewegung ist. Je nach Pro-<br />
blemstellung können unterschiedliche Bewegungsmuster vorliegen. Sie reichen von<br />
globalen linearen Bewegungen bis hin zu komplexen, lokal variierenden Zusammen-<br />
hängen. Die Registrierung ist dabei gleichzusetzen mit einer Bewegungskompensation<br />
mehrerer Bilder und spielt nicht nur als entscheidende Informationsquelle für die Auf-<br />
lösungssteigerung eine tragende Rolle. Auch zahlreiche andere Anwendungsgebiete in<br />
der Endoskopie, wie beispielsweise die Sichtstabilisierung oder die Objektverfolgung<br />
können davon profitieren:<br />
Stabilisierung der Sicht Eine dynamische Bewegungskompensation ermöglicht die<br />
automatische Nachführung von Objekten in einem Bildausschnitt oder die Reduzie-<br />
rung von menschlichen Zitterbewegungen. Die Information für die Stabilisierung des<br />
Sichtbereichs wird dazu ausschließlich aus der Bildfolge gewonnen und bedarf daher<br />
keiner weiteren mechanischen Konstruktionen oder Sensoren. Eine Übersicht zu An-<br />
wendungen in der Endoskopie findet sich in [Ort03, KWL05].
40 2.6. AUFLÖSUNGSSTEIGERUNG IN BEWEGTEN BILDSEQUENZEN<br />
Objekterkennung und -verfolgung Zahlreiche Anwendungen, wie beispielsweise<br />
Überwachungseinrichtungen oder Objektidentifizierung nutzen Algorithmen zur Ob-<br />
jekterkennung und -verfolgung. Dabei ist es wichtig, die Position eines Merkmals über<br />
mehrere Bilder hinweg stabil orten und zuordnen zu können. In der Endoskopie gibt es<br />
Ansätze, diese Technik für optische Positionier- und Greifeinrichtungen einzusetzen.<br />
Die gemeinsame kritische Anforderung der beiden Anwendungsfelder ist die sta-<br />
bile Registrierung von zeitlich versetzten Bildausschnitten, meist basierend auf einer<br />
robusten Detektion und Verfolgung von Merkmalen. Viele renommierte Artikel bestä-<br />
tigen diese Aussage in den folgenden oder ähnlichen Worten:<br />
[...] the performance of motion estimation is of paramount importance<br />
[...]. In fact, we offer the observation that difficulties in estimating moti-<br />
on represent the limiting factor in practical Super-Resolution. [...] incor-<br />
rect estimates of motion have disastrous implications on overall Super-<br />
Resolution performance.<br />
Farsiu et al. [FREM04a]<br />
The key to exploiting these multiple frames is accurate knowledge of<br />
the subpixel registration parameters for each frame. If the images are se-<br />
verely undersampled, we have found that traditional motion estimation<br />
techniques [...] may not provide the desired subpixel accuracy.<br />
Hardie et al. [HBA97]<br />
The motion parameters (projective model) of each frame with respect<br />
to a chosen reference are assumed to be known [...]<br />
Lertrattanapanich [LB02]<br />
Viele Autoren umgehen beim Entwurf ihrer Algorithmen diesen kritischen Aspekt, in-<br />
dem sie von einem bekannten Bewegungsmodell oder von bekannten Bewegungsvek-<br />
toren zwischen den Bildern ausgehen. Im Rahmen dieser Arbeit konnte die Schätzung<br />
und Präzision von Bewegungsparametern zwischen faseroptisch abgetasteten Aufnah-<br />
men untersucht werden und als Vorwissen in sequenzbasierte Ansätze eingebracht wer-<br />
den. Für die Auflösungssteigerung kommen im wesentlichen zwei Arten von Bewe-<br />
gungen in Frage:
2.6. AUFLÖSUNGSSTEIGERUNG IN BEWEGTEN BILDSEQUENZEN 41<br />
Mechanisch vorgegebene Bewegung Werden Bilder mit gebräuchlichen Einchip-<br />
Farbkameras aufgenommen, so leidet deren Auflösung unter der Farbfilterung der ein-<br />
zelnen Sensorelemente (vgl. Abschn. 2.3.2). Um diesen Verlust zu umgehen, stellt<br />
Howell eine Vorrichtung vor [HGN03], die den Kamerasensor mittels einer piezoelek-<br />
trisch verfahrbaren Minibühne um jeweils einen Pixel versetzt, um die verdeckten Bild-<br />
punkte einer bestimmten Farbe zu detektieren anstatt sie zu interpolieren. Diese Idee<br />
wird von weiteren Erfindern aufgegriffen und erweitert [BEZN05, Dum98], jedoch<br />
setzt der Einsatz einer solchen Hardware an der Spitze des Endoskops stets eine ge-<br />
wisse Baugröße voraus, was gegen die Nutzung und den Einsatz von Mikroendoskopen<br />
zur Inspektion von Hohlräumen mit minimalem Zugang spricht. Am proximalen En-<br />
de des Faserendoskops macht eine mechanische Vorrichtung zur Auflösungssteigerung<br />
keinen Sinn, da die Anzahl an Bildpunkten hier durch die Abtastung des Bildbündels<br />
begrenzt wird. Eine Verschiebung des Bildleiters gegenüber dem Kamerasensor bringt<br />
keinen Informationsgewinn.<br />
Natürliche und künstliche Eigenbewegung Der alternative Ansatz zur mechanisch<br />
vorgegebenen Bewegung ist die Nutzung der Eigenbewegung der Endoskopspitze.<br />
Diese existiert grundsätzlich durch die Vor-, Rück- und Seitwärtsbewegungen, kann<br />
aber auch zusätzlich bewusst herbeigeführt werden, indem das Endoskop z. B. mean-<br />
derförmig über die Szene bewegt wird. Ein weiterer Nutzen für diesen Zweck kann<br />
aus den sonst unerwünschten leichten Zitterbewegungen des Benutzers gezogen wer-<br />
den, die bei geeigneter zeitlicher Abtastung des Bilds Verschiebungen in der Größen-<br />
ordnung von Bruchteilen der Breite eines Pixel verursachen. Obwohl die Idee bei-<br />
spielsweise in einer Patentschrift der Mauna Kea Technologies als Möglichkeit zur<br />
Verbesserung verdeckter Faserbereiche genannt wird [AGF05], ist kein Hinweis auf<br />
eine mögliche Umsetzung für Anwendungen mit flexiblen Bildbündeln zu finden.<br />
2.6.3 Klassifikation der Verfahren<br />
Um im Gegensatz zur reinen Vergrößerung von Abbildungen durch Interpolation eine<br />
tatsächliche Steigerung der physikalischen Auflösung zu erreichen, können mehrere<br />
Bilder zeitlich und / oder örtlich miteinander verknüpft werden. Die bekannten Ver-<br />
fahren lassen sich bis auf wenige Ausnahmen wiederum nach ihrem Signalraum, näm-<br />
lich dem Orts- bzw. dem Frequenzraum unterscheiden. Hanselmann [Han07b] bietet<br />
einen guten Überblick über die aktuellen Arbeiten, gleichwohl sein Schwerpunkt auf<br />
der Verbesserung von Mikroskopiesystemen liegt und deshalb einige Annahmen über<br />
die Bildgewinnung nicht auf den Bereich der Endoskopie übertragen werden können.
42 2.6. AUFLÖSUNGSSTEIGERUNG IN BEWEGTEN BILDSEQUENZEN<br />
Weiterhin bieten die übergreifenden Arbeiten von Borman et al. [BS98] und Park et al.<br />
[PPK03] einen guten Überblick. Für die genannten Kategorien werden im Folgenden<br />
die zugrunde liegenden Ideen in Kürze vorgestellt.<br />
2.6.4 Verfahren im Frequenzraum<br />
Für Methoden im Frequenzraum gelten gegenüber denen im Ortsraum zumeist eine<br />
Reihe von Einschränkungen. Besonders kritisch für die Endoskopie ist die Forderung<br />
nach ausschließlich globalen Translationsbewegungen parallel zur Bildebene, was hin-<br />
gegen für Systeme aus dem Bereich der Astronomie, der Satellitenkartographie oder<br />
auch der Mikroskopie gegeben ist. Weiterhin können Rauschen und Blurring ebenfalls<br />
nur global betrachtet werden und das Einbringen von a-priori-Wissen über das gesuch-<br />
te HR-Bild ist nur bedingt möglich. Andererseits sind Frequenzraummethoden sehr<br />
leicht parallelisierbar und demzufolge für zeitkritische Anwendungen interessant.<br />
Ein klassischer Ansatz für den Frequenzraum stammt von Tsai und Huang aus dem<br />
Jahr 1984 [TH84] mit dem Ziel der Verbesserung von Aufnahmen, die aus konstanter<br />
Höhe von Fotosatelliten aufgenommen wurden. Für die mathematische Formulierung<br />
der Problemstellung und Lösung sei der Leser auf die originale Arbeit verwiesen. In<br />
[KH96] wird die Idee des Algorithmus mit einer überlagerten Anordnung von Spek-<br />
tren des zu rekonstruierenden Signals im eindimensionalen Fall veranschaulicht. Das<br />
Verfahren nutzt drei Eigenschaften der Fourier-Transformation:<br />
1. Das Verschiebungstheorem, welches besagt, dass im Frequenzraum eine Trans-<br />
lation durch eine lineare Phasenverschiebung beschrieben wird.<br />
2. Die Transformationsbeziehung, welche einen Zusammenhang herstellt zwischen<br />
den Koeffizienten der (unbekannten) kontinuierlichen Fourier-Transformation<br />
des HR-Bildes und den Koeffizienten der (bekannten) diskreten Fourier-Trans-<br />
formation der LR-Bilder.<br />
3. Die Bandbegrenzung, unter deren Einhaltung diskret abgetastete Signale bis zu<br />
einer maximalen Frequenz wiederhergestellt werden können.<br />
Tekalp et al. [TOS92] erweitern das Frequenzraumverfahren um ein Rauschmo-<br />
dell und berücksichtigen eine realistische Abbildungsunschärfe beim Abtastvorgang.<br />
Der rekursive Ansatz von Kim et al. [KBV90] formuliert die Auflösungssteigerung als<br />
Lösung eines überbestimmten Gleichungssystems auf Basis der Methode der kleinsten
2.6. AUFLÖSUNGSSTEIGERUNG IN BEWEGTEN BILDSEQUENZEN 43<br />
Quadrate. Später wird dieses Verfahren noch robuster gegenüber Registrierungsfehlern<br />
formuliert [KBV93].<br />
Wavelets Eine weitere Klasse von Super-Resolutions-Algorithmen basiert auf der<br />
Wavelet-Theorie. Wavelets sind mathematische Basisfunktionen, auf deren Grundla-<br />
ge ein Signal in Frequenzkomponenten zerlegt werden kann. Im Gegensatz zu peri-<br />
odischen Transformationen und hier insbesondere der Kurzzeit-Fourier-Transforma-<br />
tion STFT 25 variiert die Wavelet-Transformation die Orts-Frequenz-Auflösung, zu der<br />
Gabor bereits 1946 seine Theorie zur Auflösungsunschärfe aufstellte. Bei größerer<br />
Bandbreite ist so eine detailliertere Ortslokalisierung möglich und umgekehrt, was<br />
schon eher der menschlichen Wahrnehmung entspricht. Für die lokale Analyse von<br />
Signalen mit vielen unperiodischen Kanten und Sprüngen erweist sich die Wavelet-<br />
Transformation daher oft als vorteilhaft [CM05]. Die Wavelet-Analyse zur Auflösungs-<br />
steigerung wird in [WJNZ03] im Speziellen für Anwendungen aus der Astronomie<br />
sowie in [NM00] mit einer eher allgemeinen Motivation in Hinblick auf die militäri-<br />
sche Aufklärung und die zivile Überwachung oder Fahrzeugerkennung untersucht. Als<br />
Überblick zur Wavelet-basierten Auflösungssteigerung sei zudem auf die Arbeit von<br />
Chan et al. [CCSS03] verwiesen.<br />
2.6.5 Verfahren im Ortsraum<br />
Die vielfältigen Möglichkeiten aufgrund ihrer Formulierungen führen zu einer ver-<br />
gleichsweise großen Zahl an Ortsraumverfahren. Darunter fallen die Interpolation, die<br />
Simulationsmethode, die iterative Rückprojektion sowie mengentheoretische und sto-<br />
chastische Methoden. Auf weitere hybride Verfahren als Kombination der genannten<br />
Ansätze wird wegen des Umfangs nicht eingegangen.<br />
Interpolation Eine naheliegende und verbreitete Herangehensweise an das Rekon-<br />
struktionsproblem im Ortsraum ist die Interpolation. Anders als beim trivialen Fall<br />
der Streckung werden hierzu mehrere registrierte Aufnahmen der vorliegenden LR-<br />
Sequenz kombiniert, um den Informationsgehalt des HR-Bilds zu erhöhen. Eine häu-<br />
fig genutzte Technik ist die sog. Nächste-Nachbarn-Interpolation (Abbildung 2.12).<br />
Dabei werden die Pixelwerte der LR-Bilder den HR-Pixeln zugeordnet, die ihnen<br />
nach Positionierung gemäß den Verschiebevektoren und Skalierung mit dem Vergröße-<br />
rungsfaktor am nächsten liegen. Konkret bedeutet dies, dass jedes LR-Pixel auf genau<br />
25 STFT: (Short time Fourier transform) Kurzzeit- oder auch gefensterte Fourier-Transformation
44 2.6. AUFLÖSUNGSSTEIGERUNG IN BEWEGTEN BILDSEQUENZEN<br />
Abbildung 2.12: Nächste-Nachbarn-Interpolation: Ein um ein Drittel Pixel in x-Richtung ver-<br />
schobenes LR-Bild und dessen Lage auf dem dreifach feineren HR-Gitter. Für das HR-Bild<br />
werden mehrere unterschiedlich verschobene LR-Bilder benötigt, hier neun.<br />
ein HR-Pixel Einfluss hat. Alternativ kann man die LR-Pixelwerte auch anteilig und<br />
gewichtet auf die HR-Pixel verteilen. Ein LR-Pixel hat in diesem Fall einen nach sei-<br />
nem Abstand gewichteten Einfluss auf mehrere HR-Pixel. Mit dieser Technik kann<br />
man mit relativ geringem Rechenaufwand vergleichsweise gute Bilder generieren. Ei-<br />
ner zeitkritischen Anforderung kommt zudem zu Gute, dass die Anzahl der verwen-<br />
deten LR-Pixel je nach zur Verfügung stehender Zeit gewählt werden kann und keine<br />
Gesamtlösung berechnet werden muss. Jedoch machen sich bei diesem Ansatz fehler-<br />
haft eingefügte Pixel durch stark erhöhtes Rauschen bemerkbar.<br />
Simulationsmethode Mit der Simulationsmethode wird, wie der Name schon sagt,<br />
auf Grundlage eines geschätzten HR-Bilds durch ein Abbildungsmodell ein mögliches<br />
LR-Bild simuliert. Dieses wird mit den tatsächlich aufgenommenen LR-Bildern ver-<br />
glichen. Anschließend wird das geschätzte HR-Bild sukzessive entsprechend dem bei<br />
der Simulation aufgetretenen Fehler angepasst. Das zugrunde gelegte Beobachtungs-<br />
modell nutzt meist die in Abschnitt 2.6.2 genannten Komponenten. Häufig wird durch<br />
einen Regularisierungsterm die Möglichkeit gegeben, zusätzliches a-priori-Wissen ein-<br />
zubringen. Die in der Literatur vorgeschlagenen Methoden unterscheiden sich haupt-<br />
sächlich in der Wahl dieses Regularisierungsterms und der Modellierung des Beobach-<br />
tungsmodells. Grundlegende Arbeiten mit diesem Ansatz stammen von Farsiu, Milan-<br />
far und Nguyen et al. [FREM04b, NMG01]. Hauptkritikpunkt dieser Ansätze ist die<br />
Uneindeutigkeit der gefundenen Lösungen, die beispielsweise von der initialen Bild-<br />
schätzung abhängig sind.<br />
Iterative Rückprojektion 1991 wurde von Irani und Peleg [IP91] der Ansatz Ite-<br />
rative Back Projection vorgeschlagen. Ähnlich zur Simulationsmethode werden auch<br />
hier auf Grundlage einer initialen Schätzung für das HR-Bild HR I mehrere LR-Bilder
2.6. AUFLÖSUNGSSTEIGERUNG IN BEWEGTEN BILDSEQUENZEN 45<br />
LR Îk erzeugt und die jeweiligen Differenzen zur Korrektur der Schätzung für HR I ver-<br />
wendet. Das Ziel, die Minimierung der Signalenergie des Fehlers, wird hier iterativ<br />
durchgeführt, wobei auch bei diesem Verfahren je nach Wahl des zugehörigen Ver-<br />
gleichsoperators unterschiedliche Ergebnisse erzielt werden können. Die Lösung ist<br />
nicht eindeutig und das Einbringen von a-priori-Wissen schwierig.<br />
Stochastische Verfahren Stochastische Verfahren begünstigen das Einbringung von<br />
a-priori-Wissen über die gesuchte Lösung. Das Super-Resolution-Problem wird da-<br />
bei üblicherweise als MAP 26 -Schätzer formuliert. Eine MAP-Schätzung bildet auf Ba-<br />
sis einer unabhängigen Menge an Stichproben Hypothesen für die zugrunde liegen-<br />
de Verteilung. Als Lösung wird aus den Hypothesen die stochastisch signifikanteste<br />
Verteilung ausgewählt. Überträgt man die Formulierung auf das Super-Resolution-<br />
Problem, so wird nach dem HR-Bild HR I gesucht, das bei Vorliegen der LR-Bilder<br />
LR Îk (k ∈ {1; · · · ; NI}) am wahrscheinlichsten ist, also die a-posteriori Wahrschein-<br />
lichkeitsdichtefunktion P(I| LR Îk) maximiert:<br />
HR<br />
I = argmax P(I|<br />
I<br />
LR Î1, LR Î2, · · · , LR ÎNI) . (2.3)<br />
Da das zugehörige Minimierungsproblem der Optimierungsaufgabe der Simulations-<br />
methode ähnlich ist, sei an dieser Stelle lediglich auf die umfangreichen Arbeiten von<br />
Borman, Schultz und Stevenson [BS98, SS96], Hardie et al. [HTB + 97] und Shen et<br />
al. [SLZZ04] verwiesen. Ein großer Vorteil des MAP-Ansatzes liegt, bei geschickter<br />
Wahl des sog. Priors P(I), in der Eindeutigkeit der Lösung.<br />
2.6.6 Bedeutung für die Fiberskopie<br />
Der limitierende Faktor für die Auflösung von faseroptischen Systemen ist die An-<br />
zahl der Glasfasern im Bildbündel. Sie bestimmt den primären Informationsgehalt des<br />
vom Sensor überabgetasteten Abbilds. Der typischen Auflösung von verwendeten Ka-<br />
merasensoren von VGA (307.200 Pixel) bis XGA (786.432 Pixel) stehen 3.000 bis<br />
50.000 informationstragende Intensitätswerte aus Faserpunkten gegenüber. Die aufge-<br />
zeichneten Bilder wirken daher grundsätzlich unscharf bzw. detailarm. Das Ziel der<br />
Auflösungssteigerung im Kontext der Faserendoskopie ist daher nicht die Vergröße-<br />
rung von Bildern im Sinne einer Erhöhung der Bildpunkte, sondern die Steigerung<br />
der Anzahl von informationstragenden Bildpunkten. Dafür sind Ansätze prädestiniert,<br />
die in der Lage sind, unregelmäßige Gitterstrukturen zu überlagern oder zu ergänzen.<br />
26 MAP: (Maximum-a-posteriori) Ein Schätzverfahren, das Vorwissen mit einbezieht
46 2.6. AUFLÖSUNGSSTEIGERUNG IN BEWEGTEN BILDSEQUENZEN<br />
Der Vorgang des Überlagerns gibt ihnen auch die Bezeichnung Superposition 27 . Die<br />
Idee ist vergleichbar mit dem Verhalten des menschlichen Auges beim Blick durch ein<br />
Fliegengitter. Es nutzt lokal kleine Seitwärtsbewegungen, um durch Ergänzung zeit-<br />
weise verdeckter Sichtbereiche einen klareren, d.h. einen detailreicheren Eindruck zu<br />
gewinnen.<br />
Ein weiterer Grund, der für die lokale Ergänzung von Bildinhalten spricht, ist die<br />
starke Verzerrung durch die Weitwinkeloptik an der Spitze des Endoskops. Zwar könn-<br />
ten Bewegungen durch ein relativ einfaches Abbildungsmodell entzerrt werden und so<br />
eine einheitliche Bewegung auf einer bekannten Ebene in eine homogene bildweite<br />
Richtung entzerrt werden. Jedoch kann in der endoskopischen Abbildung nicht von der<br />
Vereinfachung ausgegangen werden, dass der Abstand der betrachteten Objektpunkte<br />
in der Szene untereinander deutlich geringer ist, als derjenige zur Sensorebene. Einen<br />
Mittelweg zwischen der individuellen Ergänzung von Gitterpunkten und der unrealis-<br />
tischen Annahme einer globalen Verschiebung kann man aus der Arbeit von Hardie<br />
et al. [HTB + 97] ableiten. Dort wird ein klassischer Ansatz zur Auflösungssteigerung<br />
kostengünstig nur für den segmentierten Bereich eines bewegten Objekts im Rahmen<br />
einer Überwachungskamera angewendet. Dieses semiglobale Vorgehen eignet sich je-<br />
doch nicht für den Einsatz von Endoskopen, die frei geführt werden und dicht an der<br />
Objektszene arbeiten.<br />
Erste Forschungsarbeiten tragen dazu bei, Verfahren zur aktiven Steigerung von<br />
Qualität und Auflösung bewegter Bildsequenzen durch Superposition (Überlagerung)<br />
für den Anwendungsbereich der flexiblen Endoskopie zu nutzen. Lertrattanapanich<br />
nutzt in seinem Ansatz [LB02] ein kontinuierliches Datengitter, aus dem das HR-Bild<br />
aufgebaut wird. Gleichwohl dieser Ansatz die Grundlage des in Abschnitt 3.5 auf den<br />
endoskopischen Anwendungsfall übertragenen Verfahrens darstellt, bleiben dennoch<br />
endoskopiespezifische Effekte unberücksichtigt. Darunter fallen die präzise Lokalisie-<br />
rung der als Datenpunkte benötigten Faserzentren, die Korrektur von Farbartefakten<br />
durch Abtastvorgänge zwischen Sensor und Faserbündel sowie eine präzise Bewe-<br />
gungsschätzung in der faseroptisch abgetasteten Bildsequenz.<br />
27 Superposition: Verfahren zur Auflösungsteigerung im Ortsbereich durch Überlagerung minimal<br />
versetzter Bildinhalte
3<br />
47<br />
Eigener Beitrag<br />
Aufbauend auf dem Stand der Technik beschreibt dieses Kapitel den relevanten eige-<br />
nen Beitrag, wobei die Einzelaspekte als Teil eines Ganzen gesehen werden müssen,<br />
nämlich der automatisierten Verbesserung von visueller Darstellung und digitaler Wei-<br />
terverwendung von Grauwert- und Farbbildern, die mit faseroptsichen Endoskopen ab-<br />
gebildet wurden. Bei den wissenschaftlichen Methoden und Untersuchungen handelt<br />
es sich um<br />
• ein geeignetes Abbildungsmodell für die Untersuchung und Evaluierung der fa-<br />
seroptischen Übertragung,<br />
• die erweiterten Restaurierungsansätze im Orts- und Frequenzraum zum Umgang<br />
mit der technisch bedingten Rasterstruktur,<br />
• die Reduzierung von Farbartefakten bei Verwendung handelsüblicher digitaler<br />
Kamerasensoren mit Farbfiltermosaik,<br />
• die Steigerung der physikalischen Auflösung von faseroptisch gewonnenen Auf-<br />
nahmen,<br />
• die Integration und den Einsatz der Verfahren in speziellen Anwendungen und<br />
• die Zusammenstellung und Definition von geeigneten Gütekriterien zur Evalu-<br />
ierung der Verbesserungen.<br />
3.1 Modellierung und Kalibrierung von Faseroptiken<br />
Die Abbildungseigenschaften einer Faseroptik wirken sich in vielerlei Hinsicht degra-<br />
dierend auf die resultierende Bildqualität aus (vgl. Abschn. 2.3.3). Verschiedene An-
48 3.1. MODELLIERUNG UND KALIBRIERUNG VON FASEROPTIKEN<br />
sätze in Abschnitt 3.2.1 und Abschnitt 3.2.2 dienen der bestmöglichen Wiederherstel-<br />
lung, also der Restaurierung eines wabenfreien Bilds. Abtastvorgänge und nichtlineare<br />
Effekte verursachen teilweise irreparable Veränderungen am Signal und verhindern da-<br />
mit die vollständige Wiederherstellung. Um so bedeutender ist daher eine Möglichkeit,<br />
die Ansätze untereinander bewerten zu können und quantitative Aussagen über deren<br />
Wirkung machen zu können.<br />
In Abschnitt 3.6 werden verschiedene Gütekriterien definiert, die sich dazu eignen,<br />
Qualitätsmerkmale und -unterschiede zu beurteilen. Die Kriterien lassen sich dabei<br />
in zwei übergeordnete Gruppen einteilen. Die einen beurteilen die Restaurierungsgü-<br />
te anhand von Bildmerkmalen, wie Kontrastübergängen oder künstlich geschaffenen<br />
Merkmalen, sowie anhand von sekundären Ergebnissen, wie der Streuung von rekon-<br />
struierten 3D-Punktwolken. Die andere Gruppe evaluiert die Ergebnisse im direkten<br />
Vergleich mit dem Ursprungsbild. Dazu gehören Differenz- und Ähnlichkeitsmaße.<br />
Um die Wirkung von einzelnen Modulen in der Bearbeitungskette eines komplexen<br />
Algorithmus im Sinne der zweiten Gruppe quantitativ besonders einfach und präzise<br />
bewerten zu können, muss die Grundwahrheit 1 bekannt sein. Das stellt die Endosko-<br />
pie und speziell die flexible Faserendoskopie vor das Problem, dass die ursprünglich<br />
unverfälschten Bilddaten nicht zugänglich sind. Um dies zu gewährleisten, müsste das<br />
Endoskopsystem durch eine äquivalente Optik ersetzt werden und die Szene mit den<br />
exakt gleichen optischen Parametern wiederholt aufgezeichnet werden. In der Praxis<br />
lässt sich das nicht realisieren.<br />
Einen Ausweg stellt die synthetische Generierung von Signalen durch ein entspre-<br />
chendes Abbildungsmodell dar. Dieses Modell muss die zu untersuchenden Effekte<br />
einer faseroptischen Abbildung nachbilden und sie auf ein definiertes Szenenbild, die<br />
Grundwahrheit, anwenden. Die Ergebnisse von diversen Bearbeitungsschritten können<br />
so durch geeignete Fehlermaße mit den ursprünglichen, d.h. den als richtig definierten<br />
Daten quantitativ evaluiert werden. Das Modell muss dabei einerseits alle relevanten<br />
Einflussgrößen berücksichtigen, soweit diese die Abbildung beeinflussen, und ande-<br />
rerseits sollte es nur so wenige Parameter wie möglich fordern, um die Anpassung des<br />
Modells an eine gegebene Umgebung nicht unnötig zu erschweren.<br />
Die faseroptische Abbildung kann in zwei Teilschritten betrachtet werden (vgl.<br />
Abb. 3.1), nämlich zum einen die Beeinträchtigung durch die optische Verzerrung und<br />
zum anderen die Abtastung und Rasterisierung durch das Bildbündel. Der erste Schritt<br />
wird an dieser Stelle übergangen, weil die geometrischen Beeinträchtigungen durch<br />
1 Grundwahrheit: (engl. ground truth) Ursprüngliche, unverfälschte Datenbasis, hier zum Vergleich<br />
nach Bildverarbeitungsschritten
3.1. MODELLIERUNG UND KALIBRIERUNG VON FASEROPTIKEN 49<br />
Abbildung 3.1: Ablauf der Modellierung einer faseroptischen Abbildung, wobei der erste Teil-<br />
schritt der optischen Verzerrung (gestrichelte Umrandung) übergangen wird.<br />
die distale Optik des Endoskops keine Auswirkungen auf die anschließende Rasterisie-<br />
rung der Bilddaten zeigen. Die quantitative Evaluierung, zu der das Abbildungsmodell<br />
dient, wird auf unverzerrten Bilddaten durchgeführt.<br />
3.1.1 Simulation der Bildübertragung durch Glasfaserbündel<br />
Ziel ist es, den Abbildungsprozess eines Glasfaserbündels nachzubilden, d.h. ein Sze-<br />
nenbild derart mit einem Wabenmuster zu kombinieren, so dass das Resultat dem be-<br />
trachteten Abbild im Okular des Endoskops entspricht. Dazu wird<br />
1. die Intensitätsverteilung der einzelnen Faserquerschnitte bestimmt,<br />
2. ein Muster der Wabenstruktur bereitgestellt,<br />
3. das Bild geeignet abgetastet, um die Intensitäten für die Faserzentren zu erhalten<br />
und damit<br />
4. das resultierende Abbild aufgebaut.<br />
Die Grundlagen für ein derartiges Vorgehen wurden mit Rupp et al. in [RWE06b]<br />
formuliert. Bislang wird dazu die Faserverteilung eines bekannten Endoskops aus ei-<br />
nem realen Weißbild entnommen und für die Rasterisierung einer Aufnahme verwen-<br />
det. In der vorliegenden Arbeit wird darüber hinaus eine Möglichkeit geschaffen, ein<br />
beliebiges Muster der Wabenstruktur künstlich bereitzustellen und damit ein Szenen-<br />
bild entsprechend zu modellieren. Die zugrunde liegende Intensitätsverteilung wird auf<br />
der Basis von physikalischen Grundlagen zur Faserübertragung automatisch parame-<br />
trisiert.
50 3.1. MODELLIERUNG UND KALIBRIERUNG VON FASEROPTIKEN<br />
3.1.1.1 Intensitätsverteilung<br />
Beim Betrieb einer Glasfaser als optischer Leiter zur Bildübertragung ist es erforder-<br />
lich, dass diese im Monomode-Modus arbeitet, d.h. im Querschnitt der Faser breitet<br />
sich nur eine Schwingung aus. Die normierte Frequenz V liefert eine Aussage darüber,<br />
wie viele Moden sich in der Faser ausbreiten. Sie ist über die numerische Apertur NA,<br />
den Kernradius rkern und die zu übertragende Wellenlänge λ definiert:<br />
V = 2π · NA · rkern<br />
λ<br />
Bis zur normierten Grenzfrequenz ˆV = 2, 41 ist nur eine einzige Mode ausgeprägt. Für<br />
diesen Fall wird die Intensitätsverteilung bei der Übertragung von sichtbarem Licht<br />
über eine Glasfaser mit guter Näherung durch eine 2D-Gauß-Verteilung beschrieben<br />
(vgl. [You00, Mit05]). Ein sog. Weißbild, d.h. die Aufnahme einer homogen ausge-<br />
leuchteten matten Fläche durch ein Endoskop zeigt für jede Bildfaser eine solche Ver-<br />
teilung in Form einer kleinen Grauwertglocke (vgl. Abb. 3.2(a)):<br />
g(x, y; a, µx, µy) = a · exp<br />
.<br />
<br />
− 2<br />
[(x − µx)<br />
rmod<br />
2 + (y − µy) 2 ]<br />
<br />
. (3.1)<br />
Der charakteristische Modenfeldradius rmod gibt den Abstand vom lichtleitenden Zen-<br />
trum an, an dem die Intensität auf etwa 13, 5% ihres Spitzenwertes abgefallen ist (vgl.<br />
Abb. 3.2(b)). Der Modenfeldradius ist bei Monomodefasern, wie sie unter anderem<br />
in der Bildbündelfertigung Verwendung finden, i. A. größer als der Kernradius. Daher<br />
erstreckt sich die ausbreitende Welle, wie in Abbildung 3.2(c) dargestellt, teilweise in<br />
den Mantelbereich. Der Modenfeldradius rmod, der Kernradius rkern und die normierte<br />
Frequenz hängen für V ≈ ˆV wie folgt zusammen:<br />
rmod ≈ rkern ·<br />
Aus dieser Beziehung lässt sich die Intensitätsverteilung im Querschnitt der Glasfasern<br />
2, 6<br />
V<br />
im Bildbündel parametrisieren und für die Modellierung nutzen.<br />
3.1.1.2 Anordnung der Faserpunkte<br />
Bevor die Modellierung des Signals durchgeführt werden kann, muss die Anordnung<br />
der einzelnen Intensitätsübertragungsfunktionen bekannt sein. Beim Blick durch ein<br />
Endoskop fällt der kreisförmige Ausschnitt, die sog. Apertur 2 (vgl. Abb. 3.3) auf.<br />
nimmt<br />
2 Apertur: Kreisförmiger Ausschnitt, den ein Betrachter durch das Okular eines Endoskops wahr-<br />
.
3.1. MODELLIERUNG UND KALIBRIERUNG VON FASEROPTIKEN 51<br />
(a) (b) (c)<br />
Abbildung 3.2: Intensitätsverteilung eines Lichtpunkts nach Übertragung durch einen Licht-<br />
leiter: (a) Angestrahlte Sensorelemente, (b) Gauss-Verteilung mit Kennzeichnung des Moden-<br />
feldradius rmod und (c) schemtischer Schnitt durch die Glasfaser.<br />
Dieser aktive Bereich stellt den sichtbaren Ausschnitt der Szene dar und auf ihn be-<br />
schränken sich auch anschließende algorithmische Berechnungen. Die Nutzung dieses<br />
Ausschnitts als ROI 3 führt sowohl zur Beschleunigung von Algorithmen, da diese nur<br />
einen Teilbereich der Bildpunkte bearbeiten müssen, als auch zum präziseren Vergleich<br />
von Ergebnissen einer Bildverbesserung gegenüber dem Originalbild, weil nur Bild-<br />
bereiche verglichen werden, für die eine Veränderung gewünscht und wahrgenommen<br />
wird. Die mit dem Symbol R bezeichnete ROI wird an vielen Stellen der Algorithmen<br />
berücksichtigt ohne explizit genannt zu werden. Oft wird der Radius der ROI wie in<br />
Abbildung 3.3(b) um wenige Prozent (hier 5%) kleiner als der Aperturradius gewählt,<br />
um verfälschende Randeffekte von Bildverarbeitungsschritten auszuschließen.<br />
Für das Abbildungsmodell muss die Apertur definiert werden, um darin eine vorge-<br />
gebene Faseranzahl dreiecksförmig anzuordnen (s. Abb. 3.3(c)). Als näherungsweise<br />
Geometrie wird die Kreisform verwendet. Eine mögliche minimale Abweichung in der<br />
Praxis hin zur Ellipse wird vernachlässigt, um die Parametrisierung auf den Radius rA<br />
der Apertur zu beschränken. Für die Anordnung der Faserzentren muss deren Abstand<br />
df, also die Kantenlänge der gebildeten Dreiecke, bekannt sein. Um diese zu ermitteln,<br />
wird das Verhältnis zwischen Faseranzahl NF und der Anzahl der gebildeten Dreiecke<br />
ND bestimmt. Innerhalb der Kreisfläche werden genau zwei Dreiecke von einem Fa-<br />
serzentrum gebildet , da die drei Eckpunkte einer Dreiecksfläche (hier p1, p2 und p3)<br />
zu je einem Sechstel an angrenzenden Flächen beteiligt sind. Das Verhältnis zwischen<br />
Dreiecken und Faserzentren ist demnach 2 : 1 und es gibt ND = 2 NF Dreiecke. Aus<br />
entsprechenden Überlegungen für den Rand der Apertur ergibt sich, dass hier bis auf<br />
3 ROI: (Region of interest) Berücksichtigter Bereich für Bildoperationen
52 3.1. MODELLIERUNG UND KALIBRIERUNG VON FASEROPTIKEN<br />
(a) (b) (c)<br />
Abbildung 3.3: (a) Faseroptische Aufnahme aus Abbildung 2.4 mit Markierung der Apertur.<br />
(b) Für die Bildverarbeitung und den Vergleich von Ergebnissen wird meist ein Ausschnitt<br />
der Apertur (hier 95% des Sichtradius) als ROI R definiert. (c) Hexagonale Anordnung der<br />
Faserzentren im Abstand df innerhalb der Apertur mit Radius rA.<br />
vernachlässigbar wenige Ausnahmen jeweils fünf Faserzentren zu nur sechs Dreiecken<br />
beitragen. Die Gesamtzahl aller Dreiecke in einer Kreisfläche mit dem Umfang 2 rA π<br />
beträgt mit dem Korrekturfaktor κ, der die aufwändige exakte Berechnung des kanti-<br />
gen statt kreisförmigen Verlaufs des Umfangs durch einen empirisch ermittelten Wert<br />
von etwa 0.95 ersetzt:<br />
ND = 2 · (NF − κ 2rAπ<br />
df<br />
) + 6<br />
· κ2rAπ<br />
5 df<br />
= 2 · NF − κ 8 rAπ<br />
5 df<br />
. (3.2)<br />
Dabei ist κ·2rAπ/df die Anzahl der Dreiecke am Rand der Apertur. Mit AD = d 2 f /4·√ 3,<br />
der Fläche eines Dreiecks, ergibt sich die Gesamtfläche aller Dreiecke aus ND · AD. Sie<br />
wird mit der Kreisfläche der Apertur, r 2 Aπ, gleichgesetzt:<br />
r 2 <br />
Aπ = 2 · Nf − κ 8<br />
<br />
rAπ<br />
5<br />
df<br />
· d2 √ f<br />
3 . (3.3)<br />
4<br />
Nach df umgestellt ergibt Gleichung (3.3) den (positiven) Faserabstand<br />
df = rA<br />
<br />
12 π κ + 2 36 κ<br />
30 NF<br />
2π2 <br />
√<br />
+ 150 π NF 3 . (3.4)<br />
Abbildung 3.4 trägt den Faserabstand df nach Gleichung (3.4) über der Faseran-<br />
zahl Nf zwischen 3.000 und 18.000 Fasern auf. Jeder Graph der Kurvenschar stellt<br />
das Ergebnis für einen bestimmten Aperturradius rA im Bereich von 140 bis 280 Pixel
3.1. MODELLIERUNG UND KALIBRIERUNG VON FASEROPTIKEN 53<br />
Abbildung 3.4: Der Abstand der Fasern innerhalb einer Apertur mit definiertem Radius bei<br />
einer bestimmten Faseranzahl.<br />
dar. Die Faserzentren werden daraus folgend hexagonal im Abstand df in der Kreisflä-<br />
che mit dem Radius rA angeordnet. Zusätzlich kann mit einem Winkel αs die Grund-<br />
orientierung gewählt werden. Mit dieser Vorzugsrichtung lässt sich die Rotation des<br />
Endoskopokulars gegenüber dem Kamerasensor simulieren. Die Transformation einer<br />
hexagonalen Faserkoordinate (m, n) T auf rechtwinkelige Koordinaten (x, y) T mit dem<br />
Offset (µx, µy) T und der Grundorientierung αs ergibt<br />
<br />
<br />
˜x(m, n)<br />
˜y(m, n)<br />
=<br />
cos αs − sin αs<br />
sin αs cos αs<br />
µx<br />
µy<br />
<br />
+<br />
<br />
df<br />
df/2<br />
0 √ 3df/2<br />
3.1.1.3 Abtastung und Aufbau des resultierenden Abbilds<br />
<br />
m<br />
n<br />
. (3.5)<br />
Das Szenenbild einfach mit der Kombination der Gauß-Funktionen zu gewichten, ent-<br />
spräche nicht dem physikalischen Vorgang der Abtastung durch das Faserbündel. In<br />
diesem Fall könnten hoch frequente Bildstrukturen über einzelne Faserquerschnitte<br />
übertragen werden. In der Realität stellt das Glasfaserbündel einen Zusammenschluss<br />
vieler winziger Helligkeitsakkumulatoren dar, die die Szene abtasten. Um diesen Ef-<br />
fekt nachzubilden, wird ein effektiver Anteil 4 der Sensorelemente ihrem jeweils nächst-<br />
gelegenen Faserzentrum zugeordnet. Für jede Faser werden nun die Helligkeiten aller<br />
zugehörigen Sensorelemente addiert und der Mittelwert gebildet. Dieser Vorgang fin-<br />
det beim Endoskop am distalen Ende statt, wo das Szenenbild durch die Optik auf den<br />
polierten Querschnitt des Bildbündels projiziert wird. Die so gewonnenen Mittelwerte<br />
der Helligkeiten werden den entsprechenden Verteilungen (vgl. Gl. (3.1)) als Scheitel-<br />
werte Î zugeordnet.<br />
4 vg. effektive Abtastfläche in Abschnitt 3.5.2
54 3.1. MODELLIERUNG UND KALIBRIERUNG VON FASEROPTIKEN<br />
(a) (b)<br />
(c) (d)<br />
Abbildung 3.5: Vergrößerte Ausschnitte der modellierten Abbildung eines USAF-Testbilds bei<br />
einem Aperturradius von 280 Pixel und (a) 5.000 Fasern mit einer Grundorientierung von 10 ◦<br />
, (b) 10.000 Fasern mit einer Grundorientierung von 0 ◦ , (c) 20.000 Fasern mit einer Grund-<br />
orientierung von 20 ◦ und (d) 25.000 Fasern mit einer Grundorientierung von 30 ◦ .<br />
Mit den bekannten Positionen (ˆx, ˆy) in der hexagonalen Anordnung (vgl. Gl. (3.5))<br />
und den Intensitäten a der Faserzentren wird nun eine Gesamtverteilung erstellt, indem<br />
Gleichung (3.1) mit geeigneter Parametrisierung für die Nachbarschaft jedes Faser-<br />
zentrums akkumuliert wird. Ein mögliches Übersprechen zwischen mehreren Fasern<br />
wird durch einen entsprechend erweiterten Definitionsbereich der einzelnen Gauß-<br />
Funktionen berücksichtigt. Bei der Summenbildung werden die Intensitätsfunktionen<br />
mit einem Durchmesser von 2 · df berücksichtigt:<br />
Î(x, y) = <br />
g(x, y; am,n, ˆx(m, n), ˆy(m, n)) .<br />
m,n<br />
Abbildung 3.5 zeigt exemplarisch vier vergrößerte Ausschnitte von modellierten Ab-<br />
bildungen eines USAF-Testbilds 5 , bei denen die Anzahl der Fasern im Bildleiter und<br />
die Grundorientierung variieren.<br />
3.1.2 Faseroptische Bildgebung mit Farbfiltermosaiken<br />
In der digitalen Endoskopie werden überwiegend Farbkameras mit Einchip-Techno-<br />
logie verwendet, die statt der visuellen Begutachtung am proximalen Ende des En-<br />
5 USAF-Testbild: (engl. US Air Force Resolution Test Chart) Testmuster zur Bestimmung der Auflösungsfähigkeit<br />
eines optischen Systems. Das Muster enthält Gruppen von je drei Linien in unterschiedlichen<br />
Auflösungsstufen.
3.1. MODELLIERUNG UND KALIBRIERUNG VON FASEROPTIKEN 55<br />
Abbildung 3.6: Ablauf der Modellierung zur synthetischen Generierung von farbabgetasteten<br />
Bilddaten einer faseroptisch abgebildeten Szene zwecks Evaluierung von Ergebnissen verschie-<br />
dener Algorithmen zur Bildaufbereitung.<br />
doskops, also hinter der Okularoptik montiert werden. Sie tastet das Abbild ab, das<br />
durch den flexiblen Bildleiter von der Optik an der Spitze des Endoskops zum Okular<br />
übertragen wird. Die Kamera verwendet intern einen Intensitätssensor, dessen einzel-<br />
ne Elemente in regelmäßiger Ordnung hinter verschiedenen Farbfiltern liegen. Im Fall<br />
des Bayer-Patterns sind dies die Farben Rot, Grün und Blau (vgl. Abschn. 2.3.2).<br />
In dieser Arbeit sollen unter anderem die Vorzüge von Algorithmen aufgezeigt wer-<br />
den, die direkt auf die farbkodierten Intensitätsdaten (Rohdaten) des Kamerasensors<br />
zugreifen. Bislang können diese Methoden hinsichtlich ihrer Leistungsfähigkeit nicht<br />
über Differenz- und Ähnlichkeitsmaße mit herkömmlichen Algorithmen, also solchen,<br />
die auf RGB-Farbbildern arbeiten, verglichen werden. Letztere werden bislang anhand<br />
von Farbbildern evaluiert, die separat in jedem Kanal mit der gleichen bzw. spektral<br />
angepassten Methode bearbeitet werden. Die Differenz oder Ähnlichkeit zum Origi-<br />
nal gibt Auskunft über die Qualität der Verbesserung durch den Algorithmus. Diese<br />
Ergebnisse können jedoch nicht auf den Vergleich mit Algorithmen angewendet wer-<br />
den, die zur Berechnung die Rohdaten verwenden. Das liegt an der Degradierung der<br />
Bilddaten durch den Abtastungsprozess des Farbfiltermosaiks, der die Ortsauflösung<br />
zu Gunsten der Repräsentation von Farbinformation reduziert. Mittels Demosaicing<br />
werden die Rohdaten wieder in Farbinformation überführt. Diesen Ablauf illustriert<br />
Abbildung 3.6.<br />
Um die gewünschten Vergleichsdaten abgreifen zu können, wird das Modell des fa-<br />
seroptischen Abbildungssystems um ein Modul zum Mosaicing 6 erweitert [WSZ07].<br />
Das entspricht in einem Einchip-Kamerasensor der Abtastung durch das Farbfilter-<br />
feld. Aus den verschiedenen Farbkanälen, die jeweils den Prozess der synthetischen<br />
Faserabbildung durchlaufen haben, werden in der durch das Farbfiltermosaik vorgege-<br />
6 Mosaicing: Abtastung von Bilddaten durch ein Farbfiltermosaik
56 3.1. MODELLIERUNG UND KALIBRIERUNG VON FASEROPTIKEN<br />
benen Ordnung die entsprechenden Intensitätswerte entnommen. Das daraus zusam-<br />
mengesetzte farbkodierte Intensitätsbild wird als Rohbild ˆR bezeichnet.<br />
Wie eingangs in diesem Abschnitt erwähnt, soll neben den Rohdaten ˆR auch ein<br />
vergleichbares Farbbild bereitgestellt werden, um herkömmliche Farbalgorithmen in<br />
die Bewertung mit einbeziehen zu können. Dieses Farbbild wird aus dem Rohbild<br />
mittels Demosaicing gewonnen (vgl. Abschn. 2.3.2).<br />
Der untere Bereich in Abbildung 3.6 veranschaulicht beispielhaft die Evaluierung<br />
von Ergebnisdifferenzen verschiedener Algorithmen zur Bildaufbereitung. Durch den<br />
Vergleich mit der Originalszene kann über Fehlermaße die Qualität der Bildrekon-<br />
struktion durch Filterung oder Interpolation auf den einzelnen Farbkanälen quantitativ<br />
bestimmt und verglichen werden. Aufgrund der bereitgestellten Rohdaten ist es nun<br />
insbesondere möglich, Ansätze in die Evaluierung mit einzubeziehen, deren Stärke in<br />
der Verarbeitung von Information aus den farbkodierten Intensitätsbildern liegt. Diese<br />
waren bislang auf die Rohdaten der Kamera angewiesen und konnten nicht direkt mit<br />
den Resultaten anderer Algorithmen verglichen werden.<br />
3.1.3 Einschränkungen<br />
Das beschriebene Faserabbildungsmodell berücksichtigt einige bekannte Effekte nicht,<br />
die bislang aufgrund ihrer Komplexität nicht modelliert werden können oder deren<br />
Einfluss näherungsweise vernachlässigbar ist.<br />
• Die chromatische Abberation bewirkt, dass Lichtstrahlen, die den gleichen Ur-<br />
sprung, aber eine unterschiedliche Wellenlänge haben, in abweichender Rich-<br />
tung abgelenkt werden. Dieser Effekt ähnelt der spektralen Spreizung von Licht<br />
beim Durchgang durch ein Prisma. Für die Wabenstruktur bedeutet dies eine<br />
leichte Verschiebung der einzelnen Faserzentren, die vom Bildmittelpunkt zu<br />
den Rändern hin zunimmt. Obwohl dieser Effekt nachweisbar ist, kann er durch<br />
eine individuelle Bestimmung von Farbfaktoren im Zuge der physikalisch moti-<br />
vierten Farbinterpolation kompensiert werden.<br />
• Einige Kamerasensoren sind in der Lage, die abgetasteten Farbwerte mit höhe-<br />
rer Auflösung, als den üblichen 8 Bit auszugeben. Das hier beschriebene Modell<br />
kann auf einfache Weise für die Bearbeitung höherwertiger Bilddaten erweitert<br />
werden. Der Einfachheit halber wird jedoch auf diesen allgemeinen Fall ver-<br />
zichtet und die Experimente und Ergebnisse werden mit 8 Bit durchgeführt und<br />
dargestellt.
3.1. MODELLIERUNG UND KALIBRIERUNG VON FASEROPTIKEN 57<br />
• Ohne einen Weißabgleich 7 kann es sein, dass die verschiedenen Farbkanäle in<br />
der Aufnahme eines Kamerasensors ungleich gewichtet sind. Dies wird impli-<br />
zit bei der Berechnung der Farbfaktoren für die Interpolation berücksichtigt und<br />
führt für schwache Werte zu hohem Rauschen, da der Wert für die resultieren-<br />
de Farbzusammensetzung unverhältnismäßig stark angehoben wird. Durch die<br />
Vorgabe einer homogenen weißen Fläche als Kalibrierbild für die Faserregis-<br />
trierung wird sichergestellt, dass alle Kanäle die gleiche Gewichtung haben. In<br />
der Praxis kann diese Vereinfachung mit einem entsprechenden Weissabgleich<br />
gerechtfertigt werden.<br />
• Die Schärfe der einzelnen Faserpunkte variiert in realen Aufnahmen besonders<br />
zu den Aperturrändern hin. Ursachen hierfür sind geometrische Abberation, so-<br />
wie Ungenauigkeiten und technische Begrenzungen in der Fertigung der Ver-<br />
bindungsteile zwischen Endoskop und Kamera. Mit hochwertigen Optiken und<br />
Adaptern sowie der Minimierung von Schnittstellen im Strahlengang zwischen<br />
den Komponenten konnte dieser Effekt nachweislich reduziert werden, sodass<br />
er beim Modell vernachlässigt werden konnte.<br />
3.1.4 Geometrische Kalibrierung zur Bildentzerrung<br />
Endoskope sind typischerweise mit weitwinkeligen Optiken versehen, um bei kleinem<br />
Arbeitsdurchmesser im Frontbereich trotzdem einen ausreichend großen Sichtbereich<br />
zu ermöglichen. Eine solche Weitwinkeloptik weist im einfachen Fall, d.h. ohne kom-<br />
plizierte und damit platzaufwändige optische Korrektur, eine starke, in erster Näherung<br />
radiale Verzerrung in dezentralen Stellen der Aufnahmen auf. Diese Verzerrung macht<br />
sich unter anderem bemerkbar, wenn die gewonnenen Bilddaten für eine räumliche<br />
Rekonstruktion herangezogen werden. In diesem Fall ist es besonders wichtig, eine<br />
adäquate Korrektur vorzunehmen.<br />
Intel stellt die freie Programmbibliothek OpenCV [Int01] zur Verfügung, die un-<br />
ter anderem eine Funktionalität zur Bildentzerrung für Kamerasysteme mit einfacher<br />
Linsenoptik zur Verfügung stellt. Sie nähert die intrinsischen Parameter<br />
• Brennweite,<br />
• Position der optischen Achse im Bild und<br />
7 Weißabgleich: Verfahren zur Korrektur der Gewichtung von Farbkanälen eines Kamerasensors be-<br />
züglich der Farbtemperatur des Lichtes am Aufnahmeort
58 3.1. MODELLIERUNG UND KALIBRIERUNG VON FASEROPTIKEN<br />
(a) (b)<br />
(c) (d) (e)<br />
Abbildung 3.7: (a,b) Endoskopische Aufnahme einer Bohrung mit feinkörniger Innenwandung.<br />
(c) Rekonstruierte 3D-Punktwolke zeigt trotz des konstanten Innendurchmessers eine konische<br />
Verzerrung. Die perspektivische Front- (d) und Rückansicht (e) aus gleicher Entfernung zum<br />
Schwerpunkt der 3D-Punktwolke verdeutlichen diesen Effekt.<br />
• Verzerrungsparameter, aufgeteilt in je zwei radiale Komponenten ρ1 und ρ2, so-<br />
wie zwei tangentiale Komponenten τ1 und τ2<br />
im Sinne minimaler quadratischer Fehler (geometrische Kalibrierung) durch Lösen<br />
eines hinreichend großen Gleichungssystems aus Abbildungsgleichungen geeichter<br />
Merkmale auf einem Kalibrierkörper. Abbildung 2.8 zeigt exemplarisch die endosko-<br />
pisch erfasste Aufnahme einer Kalibrierplatte und die entzerrte Darstellung.<br />
Der Gedanke ist naheliegend, das beschriebene Modell und den Algorithmus zur<br />
Entzerrung auf endoskopisches Bildmaterial anzuwenden, wie es in einigen Arbeiten<br />
bislang vorgeschlagen und angewendet wird [RWE07, RWW06, WSRW05]. Jedoch<br />
haben neuere Untersuchungen gezeigt, dass die Kalibrierung für das dahinter ange-<br />
nommene Verzerrungsmodell für die Endoskopie nicht ausreichend ist. Wie sich das<br />
auf die Ergebnisse von räumlichen Rekonstruktionen auswirkt, soll hier an einem ty-<br />
pischen Beispiel dargestellt werden. Die Bilddaten für die Rekonstruktion entstehen<br />
aus einer linearen Bewegung durch die Referenzbohrung RFN mit feinkörniger Innen-<br />
wandung (vgl. Tab. 4.3). Die Bohrung hat einen konstanten Innendurchmesser von<br />
8, 5mm und die Endoskopspitze wird mit einer Schrittweite von 0, 5mm durch die<br />
Bohrung geschoben. Zusätzlich zu den 98 verwendeten Einzelaufnahmen wird ein ge-<br />
eignetes Kalibriertarget aufgenommen, aus dem über Merkmalskorrespondenzen die<br />
intrinsischen Parameter bestimmt werden. Nachdem die Bilder mittels des OpenCV-
3.1. MODELLIERUNG UND KALIBRIERUNG VON FASEROPTIKEN 59<br />
Abbildung 3.8: Verlauf des Rückprojektionsfehlers für einen typischen Bereich des Verzer-<br />
rungsfaktors ρ bei Bearbeitung mit der Software SynthEyes (nach [Ste07]).<br />
Algorithmus auf der Basis der ermittelten Verzerrungsparameter entzerrt sind (vgl.<br />
Abb. 3.7(b)), wird daraus eine 3D-Punktwolke rekonstruiert. Abbildung 3.7(c) zeigt<br />
diese 3D-Punktwolke aus drei Blickrichtungen. Es fällt auf, dass die 3D-Punktwol-<br />
ke trotz des konstanten Innendurchmessers eine konische Verzerrung aufweist. Die<br />
perspektivische Front- und Rückansicht, welche die 3D-Punktwolke aus gleicher Ent-<br />
fernung zu ihrem Schwerpunkt darstellen, verdeutlichen diesen Effekt durch die unter-<br />
schiedliche Ausdehnung der projizierten Verteilung.<br />
Die integrierte automatische Vorverarbeitung der Rekonstruktionssoftware Synth-<br />
Eyes zeigt für endoskopische Bildsequenzen ähnliche Schwächen bezüglich Kalibrie-<br />
rung und Entzerrung. Zunächst wurde davon ausgegangen, dass es an dem vereinfach-<br />
ten Verzerrungsmodell der Software liegt. Dieses schränkt die intrinsischen Parameter<br />
auf eine Brennweite und einen radialen Verzerrungskoeffizient ρ ein. Über eine alter-<br />
native Methode zur Kalibrierung der Optik konnte dann aber bestätigt werden, dass<br />
SynthEyes für die Rekonstruktion von 3D-Modellen aus endoskopischen Bilddaten<br />
doch geeignet ist. Der Algorithmus gibt nämlich einen Wert für den Gesamtfehler an,<br />
der bei der Rückprojektion der triangulierten Objektpunkte auf die korrespondierenden<br />
Merkmale im 2D-Raum entsteht. Ohne das Einbringen von Zusatzinformation über die<br />
Objektgeometrie der Rekonstruktion führt die Minimierung dieses Fehlers zum opti-<br />
malen Verzerrungskoeffizient ˆρ. Für das genannte Beispiel der Bohrung, die mit dem<br />
Endoskop E6 (vgl. Tab. 4.1) über das Kameramodul K2 (vgl. Tab. 4.2) aufgezeichnet<br />
wurde, zeigt Abbildung 3.8 den Verlauf des Rückprojektionsfehlers für einen typi-<br />
schen Bereich des Verzerrungsfaktors. Mit dem Verzerrungsfaktor ˆρ = −0, 14 gelingt<br />
die sichtbar verzerrungsfreie Rekonstruktion des Zylinderkörpers (vgl. Abb. 3.44 auf<br />
S. 118). Aufgrund der unterschiedlichen Verzerrungsmodelle kann der Parameter ρ
60 3.2. RESTAURIERUNG EINZELNER INTENSITÄTSBILDER<br />
jedoch nicht direkt mit einem der Verzerrungskoeffizienten ρ1 bzw. ρ2 gleichgesetzt<br />
werden, was einen Vergleich der beiden Ansätze erschwert.<br />
3.2 Restaurierung einzelner Intensitätsbilder<br />
Diese Arbeit untersucht und erweitert zwei Ansätze zur Restaurierung von Einzel-<br />
bildern, nämlich die spektrale Filterung und die Interpolation. Sie eignen sich in be-<br />
sonderem Maße zur Reduktion der beschriebenen Rasterstruktur und werden für den<br />
automatisierten Betrieb im Anwendungsbereich der Faserendoskopie optimiert. Das<br />
beinhaltet, dass sie automatisch und unabhängig von Abmessungen und Faserdichte<br />
des Bildleiters sowie der Größe und Pixelanzahl des Bildsensors arbeiten müssen. Da<br />
sich die Rasterstruktur primär als Störung in der Helligkeit der Bilder auswirkt, werden<br />
die Verfahren zur Rasterreduktion zunächst auf dem Intensitätskanal beschrieben.<br />
Zwar wurde auch die Klasse der Wavelet-Transformationen als Unterkategorie der<br />
Frequenzverfahren für die Restaurierung von faseroptischen Aufnahmen untersucht,<br />
allerdings bescheinigen die Ergebnisse keinen nennenswerten Fortschritt gegenüber<br />
der Anwendung der Fourier-Theorie. Das kann mit der Periodizität in der Faseranord-<br />
nung erklärt werden, die relativ konstant in der gesamten Apertur auftritt. Eine Variati-<br />
on in der Orts-Frequenz-Auflösung, nach Art der Wavelet-Transformation erweist sich<br />
hier als nicht zielführend.<br />
Obwohl die Filterung für Grauwertbilder und damit auch für die merkmalsbasierte<br />
3D-Rekonstruktion bessere Ergebnisse zeigen wird, so hat doch auch die Interpolation<br />
als Verfahren im Ortsraum ihre positiven Alleinstellungsmerkmale. Die wichtigsten<br />
Aspekte aus Tabelle 3.1 sind hier kurz ausgeführt. Die Filterung zeigt generell eine<br />
glattere Restaurierung, d.h. ohne Artefakte an Kanten oder kontrastreichen Intensitäts-<br />
übergängen. Allerdings reduziert sie durch die Glättung über das Wabenmuster die<br />
mittlere Intensität, die mit Einfluss auf das Signal-zu-Rausch-Verhältnis nachträglich<br />
angehoben werden muss. Die Interpolation bietet die bessere Möglichkeit zur Korrek-<br />
tur von Farbstützstellen und die lokale Ergänzung von Bildinhalten zur Auflösungs-<br />
steigerung. Daher wird für die maschinelle Weiterverarbeitung, z. B. eine räumliche<br />
Rekonstruktion, die ihre Information zumeist aus Graustufenbildern entnimmt, tenden-<br />
ziell die Filterung präferiert. Für eine Texturierung von Rekonstruktionen oder aber<br />
überhaupt für die visuelle Darstellung und Anzeige von Endoskopiebildern wird die<br />
Interpolation mit der Erweiterung zur Berücksichtigung der Verteilung des Farbfilter-<br />
mosaiks auf dem Kamerasensor verwendet. Durch geschickte Kombination der beiden
3.2. RESTAURIERUNG EINZELNER INTENSITÄTSBILDER 61<br />
Ansätze ergeben sich weitere interessante Anwendungen, wie beispielsweise die Kom-<br />
pensation singulärer Faserdefekte (vgl. Abschn. 3.2.3).<br />
3.2.1 Filterung durch spektrale Maskierung<br />
Das Ziel der digitalen Vorverarbeitung von endoskopischem Bildmaterial ist einerseits<br />
die Verbesserung des subjektiven Empfindens beim Betrachten der Aufnahmen. Ande-<br />
rerseits sollen die Bild-Informationen für beabsichtigte Rekonstruktionsaufgaben mit<br />
Computern optimiert werden (vgl. Projektbeschreibung in [WSW04]). Abschnitt 2.3.1<br />
hat den Herstellungsprozess von Bildbündeln und die daraus resultierende Ausrichtung<br />
der Fasern im Querschnitt erklärt. Die bei der faseroptischen Übertragung durch Unter-<br />
und Überabtastung hervorgerufene Rasterstruktur kann zwar bei kleiner Apertur vom<br />
menschlichen Auge kompensiert werden, führt jedoch bei der Weiterverarbeitung der<br />
Bilddaten mittels Computern zwecks Rekonstruktion zu erheblichen Fehlern, da Algo-<br />
rithmen zur Objekterkennung und -verfolgung meist kontrastreiche Strukturen bestim-<br />
men und registrieren. Die abschnittsweise hexagonale Anordnung dieser Wabenstruk-<br />
tur motiviert eine Analyse und Bearbeitung derartig gewonnener Aufnahmen über das<br />
Fourier-Spektrum. Hier können gezielt periodische Anteile des Signals dargestellt und<br />
bearbeitet, z. B. separiert werden. In diesem Kapitel werden daher Filterverfahren im<br />
Frequenzbereich vorgestellt und verglichen.<br />
Abbildung 3.9 zeigt für einige charakteristische Aufnahmen ihr Frequenzspektrum,<br />
das je nach Herstellungsprozess des Bildbündels eine klare Struktur mit sechs sternför-<br />
mig verteilten Schwerpunkten (im Fall von Glasfasern: A, B, D, G, H, I, J) oder eine<br />
kreisförmige Verteilung (im Fall von Quarzfasern: C, E, F) zeigt.<br />
Bei der Dimensionierung der Filter treten zwei Anforderungen in Konkurrenz. Zum<br />
einen wird eine vollständige Reduktion der Wabenartefakte erwartet, was für eine star-<br />
ke Filterung, mit niedriger Grenzfrequenz spricht. Zum anderen bewirkt eine zu groß-<br />
zügig ausgelegte Glättung die unnötige Abschwächung wichtiger Details im Bild. Eine<br />
manuelle Parametrisierung stößt meist an ihre Grenzen, da entweder geschultes Per-<br />
sonal benötigt wird oder langwierige Konfigurationen durchprobiert werden müssen.<br />
Unter Berücksichtigung des Abtasttheorems von Nyquist und Shannon lässt sich ein<br />
adaptives Verfahren definieren, um geeignete Filter zur optimalen Eliminierung der<br />
Raster-Struktur automatisch zu erstellen [WRE + 06, WRWS05, WRM + 05]. Dadurch<br />
wird es möglich, innerhalb gewisser Grenzen, unabhängig von bautechnischen Para-<br />
metern eines flexiblen fiberskopischen Bildleitersystems, wie
62 3.2. RESTAURIERUNG EINZELNER INTENSITÄTSBILDER<br />
Tabelle 3.1: Vor- und Nachteile der Restaurierungsansätze Filterung und Interpolation.<br />
Filterung Interpolation<br />
Einsatzbereich<br />
Anwendbar für beliebige Kombinationen aus Endoskop und Kamerasystem<br />
Ablauf<br />
Restaurierung nach initialer Kalibrierung<br />
Signalraum<br />
Frequenzraum Ortsraum<br />
Prinzip<br />
Frequenzmaskierung unter Berücksichti-<br />
gung der Theorie des Nyquist-Shannon-<br />
Abtasttheorems zum Trennen von Bild-<br />
und Wabenstruktur<br />
Restaurierungsqualität<br />
Registriert die Fasern und nutzt deren In-<br />
tensitäten als Stützstellen zur Restaurie-<br />
rung der Bildinformation durch baryzen-<br />
trische Interpolation<br />
Höhere Unschärfe, weniger Artefakte Artefakte in Strukturen, nichtdifferenzier-<br />
bare Intensitätsübergänge<br />
Verfälschung von Helligkeit und Kontrast Ansätze zur Kantenerhaltung im Zuge der<br />
Auflösungssteigerung<br />
Globale Überlagerung von Bildern mög-<br />
lich, jedoch schwierig<br />
Farbe<br />
Separate Filterung der Farbkanäle, führt zu<br />
Artefakten<br />
Interpolation möglich<br />
Wirkungsvoll durch lokale Detailergän-<br />
zung<br />
Berücksichtigung der Anordnung des<br />
Farbfiltermosaiks auf dem Einchip-Sensor<br />
entfernt Farbartefakte<br />
Charakteristische Eigenschaften verschiedener Bildbündel<br />
Berücksichtigung der unterschiedlichen<br />
Faseranordnung<br />
Kalibrierung<br />
Keine Unterscheidung zwischen Glas- und<br />
Quarzfaser<br />
Kein homogenes Referenzbild notwendig Weißbild zur Faserregistrierung notwen-<br />
dig<br />
Sensibilität auf Versatz der Anordnung<br />
(kann durch Nachkalibrierung reduziert werden)<br />
Robust bei Kreismaske, bedingt sensibel<br />
bei Sternmaske<br />
Sehr anfällig auf Lageänderung der Faser-<br />
zentren
3.2. RESTAURIERUNG EINZELNER INTENSITÄTSBILDER 63<br />
Bild - A - Spektrum Bild - B - Spektrum<br />
Bild - C - Spektrum Bild - D - Spektrum<br />
Bild - E - Spektrum Bild - F - Spektrum<br />
Bild - G - Spektrum Bild - H - Spektrum<br />
Bild - I - Spektrum Bild - J - Spektrum<br />
Abbildung 3.9: Mit flexiblen Endoskopen aufgenommene Referenzbilder mit zugehörigen Fre-<br />
quenzspektren. A, B, D, G, H, I und J zeigen Aufnahmen mit Bildbündeln aus Glasfasern, C, E<br />
und F stellen Aufnahmen mit Bildbündeln aus Quarzfasern dar.
64 3.2. RESTAURIERUNG EINZELNER INTENSITÄTSBILDER<br />
• Arbeitsdurchmesser,<br />
• Faseranzahl,<br />
• Struktur des Bildleiterbündels und<br />
• Auflösung und Geometrie des eingesetzten Kamerasystems<br />
die Bildqualität sowohl für den visuellen Einsatz, als auch für die sich anschließenden<br />
Algorithmen zu optimieren.<br />
3.2.1.1 Transformation und Anwendung des Abtasttheorems zur Maskierung<br />
Die Darstellung einer diskretisierten Bildszene S durch ein flexibles Endoskop auf ei-<br />
nem Videosensor muss in zweierlei Hinsicht als Abtastung betrachtet werden. Einer-<br />
seits wird die übertragene Bildinformation einer betrachteten Szene durch den Bildlei-<br />
ter von der Anzahl der abschnittsweise regelmäßig angeordneten Fasern und deren Ab-<br />
stand df untereinander begrenzt (Unterabtastung). Andererseits besitzt auch der Sensor<br />
nur eine endliche Auflösung mit der Pixelbreite als Gitterkonstante, die in der gewähl-<br />
ten Konstellation allerdings deutlich feiner ist, als die des Bildleiters (Überabtastung).<br />
Aus der abschnittsweise symmetrischen Anordnung der Fasern im Abstand df re-<br />
sultiert im Fourier-Spektrum ein Frequenz-Anteil um den Bereich fs = 1/df (vgl.<br />
Abb. 3.11(c)). Der niederfrequente Anteil des übertragenen Bilds erstreckt sich um den<br />
Mittelpunkt des Spektrums (Gleichanteil). Gemäß dem Abtasttheorem von Nyquist<br />
(vgl. [GRS97]) darf dessen maximale Frequenz f0 die halbe Abtastfrequenz (nämlich<br />
durch das Raster der Glasfasern) nicht überschreiten, um bei der Abtastung keine Ver-<br />
luste zu erleiden: f0 = fs<br />
. Ist diese Bedingung erfüllt, können die Spektralbereiche von<br />
2<br />
Bild und Wabenmuster idealerweise mit einer im 2-dimensionalen zum Kreis erweiter-<br />
ten Rechteckfunktion (Filtermaske) mit der Grenzfrequenz f0 separiert werden. Dazu<br />
wird das strukturüberlagerte Eingangbild Î im Frequenzbereich elementweise mit die-<br />
ser Filtermaske M multipliziert (Operatorsymbol ⊙). Eine entsprechende Maske wird<br />
automatisch aus der spektralen Darstellung eines Referenzbilds Îref oder aus einer an-<br />
deren geeigneten faseroptischen Aufnahme Î generiert. Der zugehörige Operator M<br />
wird in den folgenden Abschnitten näher ausgeführt. Zur Transformation F wird die<br />
(inverse) schnelle Fourier-Transformation FFT verwendet. Formal entsteht damit das<br />
strukturfreie Bild I aus<br />
I(x, y) = F −1 η · F Î ⊙ M(i, j) <br />
mit 0 ≤ x, i < W, 0 ≤ y, j < H .<br />
(3.6)
3.2. RESTAURIERUNG EINZELNER INTENSITÄTSBILDER 65<br />
Der Faktor η dient der Energieerhaltung im Spektrum. Durch die Maskierung des<br />
Spektrums wird dessen Energie gesenkt. Der Verlust beträgt typischerweise zwischen<br />
1% und 5% und hängt vom Kontrast und der Dichte der Wabenstruktur, sowie deren<br />
Helligkeit gegenüber der Szene ab. Als Ausgleich wird der Faktor η bestimmt, der den<br />
Verlust bezüglich des Spektrums vor der Dämpfung angibt, und vor der Rücktransfor-<br />
mation in den Ortsraum mit dem Spektrum multipliziert:<br />
η =<br />
<br />
F Î 2<br />
<br />
F Î ⊙ M(i, j) 2<br />
. (3.7)<br />
Mit dem beschriebenen Ansatz kann die technisch bedingte Überlagerung einer<br />
Wabenstruktur in Aufnahmen mit flexiblen Endoskopen informationstheoretisch best-<br />
möglich reduziert werden. Andere Arbeiten in der Literatur verwenden Bandsperre-<br />
filter zur gezielten Dämpfung des Wabenmusters [DBM98]. Aus Überlegungen zur<br />
Übertragung von Bildinhalten über das Glasfaserbündel wird jedoch deutlich, dass<br />
Frequenzanteile ab und über der Grundfrequenz des Wabenmusters keine Bildinhal-<br />
te mehr tragen können, sondern auf spektrale Wiederholungen zurückzuführen sind<br />
(vgl. insbesondere Abb. 3.9, A und D).<br />
3.2.1.2 Maskengenerierung<br />
Ziel der Maskengenerierung ist die automatische Bereitstellung von geeigneten Fil-<br />
termasken, um die Wabenstruktur in endoskopisch erfassten Bildern bestmöglich zu<br />
entfernen und gleichzeitig die Bildinformation zu erhalten. Dazu müssen charakteris-<br />
tische Parameter, wie Grenzfrequenzen und Rotationswinkel aus dem Spektrum abge-<br />
leitet werden. In Abschnitt 2.3.1 sind die Unterschiede im Aufbau von Bildbündeln<br />
beschrieben, die sich auf die spektrale Darstellung der Abbildungen auswirken.<br />
Aus dem Spektrum F <br />
Îref eines initialen Bilds Îref, das hier nicht notwendigerweise<br />
durch Abbildung einer homogen weißen Fläche entstanden sein muss, wird die<br />
Information zur Erstellung der Maske M : {0; W −1}×{0; H −1} ↦→ {0.0; 1.0} abge-<br />
leitet, die unerwünschte Frequenzbereiche im Spektrum F Î von Endoskopbildern<br />
mit ähnlichem Wabenmuster unterdrückt:<br />
M(i, j) = M F Îref(x, y) , (3.8)<br />
mit 0 ≤ i, x < W, 0 ≤ j, y < H .
66 3.2. RESTAURIERUNG EINZELNER INTENSITÄTSBILDER<br />
Im Folgenden wird für die zwei grundlegenden Fälle, nämlich dem des Quarzfaser-<br />
bündels und dem des Glasfaserbündels, die Funktion des Operators M beschrieben,<br />
der dem Spektrum die notwendigen Parameter entnimmt und eine adäquate Binärmas-<br />
ke bzw. eine kontinuierliche Gewichtungsmaske erstellt. Die Abmessung der Maske<br />
entspricht jeweils den Dimensionen des (Referenz-)Bilds und wird lediglich intern zur<br />
schnelleren Berechnung mittels der Transformation F auf die nächst höhere Zweier-<br />
potenz aufgerundet (Operatorsymbol ⌈·⌉):<br />
WM = 2 ⌈log 2 W⌉ und (3.9)<br />
HM = 2 ⌈log 2 H⌉<br />
. (3.10)<br />
Obwohl die Breite W und die Höhe H eines Bilds im Allgemeinen voneinander<br />
abweichen, wird die Erstellung einer Maske der Einfachheit halber am Beispiel eines<br />
quadratischen Bilds (W = H) demonstriert. Gemäß den Gleichungen (3.9) und (3.10)<br />
werden typische Bildgrößen zwischen SVGA (800 × 600) und XGA (1024 × 768)<br />
intern aus Gründen höherer Effizienz auf die Dimension 1024 × 1024 erweitert, um<br />
Gebrauch von der schnellen Fourier-Transformation machen zu können.<br />
Masken für Quarzfaserbündel Bei Abbildungen durch ein Quarzfaserbündel zeigt<br />
das Spektrum typischerweise eine radialsymmetrische Verteilung der Frequenzantei-<br />
le (vgl. Abb. 3.10), welche durch das Wabenmuster erzeugt werden, da dieses zwar<br />
eine relativ konstante Periodizität zeigt, aber lediglich lokal einer hexagonalen Aus-<br />
richtung folgt. Der entscheidende Parameter neben der generellen Größe der Maske<br />
ist in diesem Fall die Hauptfrequenz fs der Wabenstruktur, die der doppelten Frequenz<br />
des maximal zu übertragenden Bildinhalts entspricht. Da der niederfrequente Bildan-<br />
teil meist keine klare Grenze zeigt, wird die letztgenannte Grenzfrequenz f0 über das<br />
kreisförmige Frequenzband der Wabenstruktur bestimmt, wobei fs = 2 · f0 gilt.<br />
Die zunächst triviale kreissymmetrische Maske MK entspricht im Eindimensiona-<br />
len dem Verlauf einer Rechteckfunktion mit der Grenzfrequenz f0:<br />
<br />
1, r < f0<br />
MQ(i, j) =<br />
0, sonst<br />
mit 0 ≤ i < W, 0 ≤ j < H und r = (i − W/2) 2 + (j − H/2) 2 .<br />
wobei der Gleichanteil im Spektrum 8 bei (W/2; H/2) liegt.<br />
(3.11)<br />
8 Vereinbarungsgemäß werden Spektren derart gespiegelt, dass der Gleichanteil im Zentrum liegt<br />
(DC-Flip). Eine visuelle Ausgabe und Darstellung erfolgt als Betragsspektrum.
3.2. RESTAURIERUNG EINZELNER INTENSITÄTSBILDER 67<br />
(a) (b) (c)<br />
(d) (e) (f)<br />
Abbildung 3.10: (a) Vergrößerter heller Ausschnitt (b) einer endoskopischen Aufnahme (a)<br />
die mit einem Bildbündel aus Quarzfasern übertragen wurde. (c) Fourier-Spektrum und (d)<br />
geeignete Kreismaske zur spektralen Filterung. (e,f) Beispiel der Rasterreduktion an einem<br />
Bildausschnitt, der in (a) gekennzeichnet ist.<br />
Masken für Glasfaserbündel Im Fall der Abbildung durch ein Glasfaserbündel<br />
zeigt das Spektrum typischerweise sechs Frequenzschwerpunkte, die von der homo-<br />
genen hexagonalen Anordnung des Wabenmusters herrühren (vgl. Abb. 3.11). Neben<br />
den bereits für das Spektrum des Quarzfaserbündels genannten Parametern kommt hier<br />
noch der Winkel αs ins Spiel, der die Rotationsvarianz der Frequenzverteilung charak-<br />
terisiert. Um die Vorteile der Konzentration in der Frequenzanordnung für die Filterung<br />
nutzen zu können, wird in diesem Fall eine sternförmige Maske MG erstellt, die dem<br />
eindimensionalen Verlauf einer Rechteckfunktion mit variabler Grenzfrequenz f0 · l<br />
entspricht. Der rotationsabhängige Parameter l erhöht dabei durch seinen Definitions-<br />
bereich 1 ± ζ mit ζ ≤ 1 die Grenzfrequenz f0 für Abschnitte zwischen den sechs<br />
Frequenzschwerpunkten der Wabenstruktur und verringert sie für Abschnitte in der<br />
Nähe der Frequenzschwerpunkte. αs wird als Winkel zwischen vertikaler Achse und<br />
der Verbindung zwischen dem Zentrum und dem ersten Spitzenwert in mathematisch<br />
positiver Richtung definiert (s. Abb. 3.11).
68 3.2. RESTAURIERUNG EINZELNER INTENSITÄTSBILDER<br />
(a) (b) (c)<br />
(d) (e) (f)<br />
Abbildung 3.11: (b) Vergrößerter heller Ausschnitt (a) einer endoskopischen Aufnahme nach<br />
Übertragung mit einem Bildbündel aus Glasfasern. (c) Fourier-Spektrum mit charakteristi-<br />
schen Größen und (d) geeignete Sternmaske zur spektralen Filterung. (e,f) Beispiel der Raster-<br />
reduktion an einem Bildausschnitt, der in (a) gekennzeichnet ist.<br />
MG(i, j) =<br />
mit<br />
und<br />
<br />
1, r < f0 · l(i, j)<br />
0, sonst<br />
0 ≤ i < W, 0 ≤ j < H<br />
l(i, j) = (1 − ζ) + cos 2 (3 · α + αs) · 2ζ <br />
, (3.12)<br />
wobei α den Winkel ∠(i, j) eines Frequenzpunktes (i, j) bezüglich der Spektrumsmitte<br />
und der vertikalen Achse i = 0 bezeichnet. Der Term cos 2 (3 · . . .) bewirkt die peri-<br />
odische Frequenzerweiterung, die sich in Form von sechs abgerundeten Sternspitzen<br />
äußert. Das Zusammenspiel von Gewichtungsterm 2 · ζ und Summand (1 − ζ) führt<br />
zur beschriebenen Sternform und sichert gleichzeitig eine konstante Gesamtfläche zwi-<br />
,
3.2. RESTAURIERUNG EINZELNER INTENSITÄTSBILDER 69<br />
(a) (b) (c) (d)<br />
Abbildung 3.12: Überblick über die vier Maskentypen, die zur Filterung von endoskopisch<br />
erfassten Aufnahmen aus deren Spektrum abgeleitet werden können: Kreisförmig mit hartem<br />
Übergang (a), kreisförmig mit weichem Übergang (b), sternförmig mit hartem Übergang (c)<br />
und sternförmig mit weichem Übergang (d).<br />
schen Stern und Kreis mit gleicher Grenzfrequenz f0. Die Äquivalenz der Flächen kann<br />
über das Kreisintegral gezeigt werden, nach dem gilt:<br />
2π f0<br />
0<br />
0<br />
r · (1 − ζ) + cos 2 (3 · α + αs ) · 2ζ dr dα = f 2 0 π .<br />
Weicher Übergang der Grenzfrequenz Vorteilhaft an der Maskengenerierung, wie<br />
sie in den vergangenen zwei Abschnitten beschrieben wurde, ist die Grenzfrequenz,<br />
die Frequenzen über einem fest definierten Wert f0 vollständig unterdrückt. Über die<br />
Signaltheorie kann diese Grenzfrequenz exakt so gewählt werden, dass periodische<br />
Anteile der Wabenstruktur unterdrückt werden und gleichzeitig der maximal mögliche<br />
Frequenzanteil der Bildinformation erhalten bleibt.<br />
Eine Tiefpassfilterung resultiert stets in einer Weichzeichnung von Strukturen im<br />
Ortsraum. Die Kreismaske ist in der Lage, mit einer harten Grenze die Bildfrequen-<br />
zen von denen der Wabenstruktur zu separieren. Parallel zu harten Kanten, z. B. durch<br />
kontrastreich ausgesteuerte Bildinhalte, ist im gefilterten Bild ein Überschwingen der<br />
Intensität zu beobachten (vgl. Abb. 3.13(f)). Diese Artefakte lassen sich durch die sinc-<br />
Funktion 9 erklären, mit der das Bild im Ortsraum gefaltet wird, wenn im Frequenzbe-<br />
reich eine Rechteckfunktion angesetzt wird. Um diesem Effekt im Ortsraum entgegen-<br />
zuwirken, müsste eine Gauß-Funktion verwendet werden, die sowohl im Orts- als auch<br />
im Frequenzbereich die gleichen Eigenschaften im Verlauf zeigt. Nachteil hierbei ist<br />
dann der unscharfe Übergang im Bereich der Grenzfrequenz. Bildanteile können nicht<br />
mehr klar von Strukturanteilen getrennt werden. Die Frequenzanteile werden im Über-<br />
gangsbereich um f0 zu beiden Seiten hin gedämpft.<br />
9 sinc-Funktion: (engl. sinus cardinalis) Die sincFunktion ist als sin(x)/x definiert und spielt in der<br />
Signalverarbeitung eine wichtige Rolle
70 3.2. RESTAURIERUNG EINZELNER INTENSITÄTSBILDER<br />
(a) (b)<br />
(c) (d) (e)<br />
(f) (g) (h)<br />
Abbildung 3.13: (a) Fiberskopische Aufnahme eines Schachbrettmusters mit kontrastreichen<br />
Übergängen sowie (b) ein vergrößerter Ausschnitt. (f) Gefilterter Ausschnitt mit (c) Maske ohne<br />
Glättung, in dem wellenartiges Überschwingen parallel zu hell-dunkel-Übergängen erkennbar<br />
ist. Gleicher Ausschnitt (g,h) mit weicher Maskierung, d.h. Maske (d,e) wird zunächst um den<br />
Faktor 0.1 (d) bzw. um 0.2 (e) geglättet. Dadurch reduziert sich der beschriebene Einschwing-<br />
effekt an den Kanten.<br />
Als Kompromiss wird deshalb der scharfe Rand der Maske durch Gauß-Glättung<br />
mit einem weichen Übergang versehen. Der bislang diskrete Definitionsbereich der<br />
Masken erweitert sich damit auf das kontinuierliche Intervall [0.0; 1.0]. Die Filterer-<br />
gebnisse hinterlassen insbesondere nach visuellen Gesichtspunkten, verglichen mit der
3.2. RESTAURIERUNG EINZELNER INTENSITÄTSBILDER 71<br />
harten Filterung einen besseren Eindruck. Abbildung 3.13(g) und Abbildung 3.13(h)<br />
zeigen das Filterergebnis nach Glättung der Maske um den Faktor 0.1 bzw. 0.2.<br />
3.2.2 Physikalisch motivierte Grauwertinterpolation<br />
Die Idee der Faserregistrierung [EKP93], zusammen mit einer flächenabhängigen Ge-<br />
wichtung der Intensitäten [Bro00] bildet die Grundlage für den Algorithmus zur phy-<br />
sikalisch motivierten Interpolation, wie er von Weisensel [Wei05] erstmals für einen<br />
pixelgenauen Ansatz zur Auflösungssteigerung umgesetzt und daraufhin mit Elter et al.<br />
optimiert wurde [ERW06]. Er beruht auf den physikalischen Eigenschaften der Licht-<br />
wellenübertragung von Glasfasern. Die Intensitätsverteilung über den Querschnitt ei-<br />
ner Faser entspricht in erster Näherung einer Normalverteilung und wird durch eine<br />
zweidimensionale Gauß-Verteilung modelliert (vgl. Abschn. 3.1.1.1). Der Algorith-<br />
mus arbeitet zweistufig. Zunächst wird auf einem leeren Bild mit hellem Hintergrund<br />
die Faserverteilung registriert und in Form eines Delaunay-Gitters gespeichert. Dieser<br />
Schritt ist rechenintensiv und wird lediglich bei veränderter Ausrichtung von Faser-<br />
querschnitt zu Kamerasensor durchgeführt. Im zweiten, für alle folgenden Aufnahmen<br />
durchzuführenden Schritt werden durch Interpolation zwischen den subpixelgenau be-<br />
stimmten Faserzentren wabenfreie Ausgangsbilder berechnet (vgl. Ablaufdiagramm in<br />
Abb. 3.14).<br />
Da die Faserregistrierung sehr empfindlich auf eine Verschiebung zwischen Faser-<br />
bündel und Bildsensor reagiert, kann eine sog. Nachkalibrierung die Anwendung des<br />
Verfahrens deutlich verbessern. Dazu registriert der Algorithmus in regelmäßigen Ab-<br />
ständen (z. B. alle drei bis fünf Bilder) in ausreichend beleuchteten Regionen der Auf-<br />
nahme eine mögliche Verschiebung und aktualisiert die gespeicherten Faserpositionen<br />
automatisch durch die geschätzte Bewegung. Diese Nachkalibrierung wird besonders<br />
unter Berücksichtigung der Beschleunigung durch zusätzliche Hardware interessant<br />
(vgl. Abschn. 3.4), die eine ausreichende Leerlaufzeit zwischen den Interpolationszy-<br />
klen ermöglicht.<br />
3.2.2.1 Faserregistrierung<br />
Ziel der Faserregistrierung ist die subpixelgenaue Bestimmung der projizierten Faser-<br />
mittelpunkte auf dem Bildsensor. Dazu wird ein heller, homogen ausgeleuchteter Be-<br />
reich, beispielsweise auf einem matten, weißen Kunststoff oder einem holzfreien Kar-<br />
ton mit dem Endoskop erfasst und als sog. Weißbild Îref gespeichert. Der dreistufige
72 3.2. RESTAURIERUNG EINZELNER INTENSITÄTSBILDER<br />
Abbildung 3.14: Ablaufdiagramm der physikalisch motivierten Interpolation.<br />
Abbildung 3.15: Ablaufdiagramm der Faserregistrierung als Kalibrierschritt der Interpolation<br />
(vgl. Abb. 3.14). Die möglichen Kandidaten für Faserzentren werden ihrer Wahrscheinlichkeit<br />
nach gewichtet, feinpositioniert und über ein Distanzkriterium zu einem Delaunay-Gitter zu-<br />
sammengefügt.<br />
Vorgang (vgl. Abb. 3.15) der Registrierung beginnt mit der Groblokalisierung von sog.<br />
Kandidatenpixel, die daraufhin nach ihrer Relevanz bewertet werden. Ein hoher Wert<br />
indiziert dabei die starke Ähnlichkeit mit einer symmetrischen Gauß-Verteilung, wel-<br />
che in erster Näherung die Intensitätsverteilung einer lichtleitenden Faser beschreibt.<br />
Im zweiten Schritt werden iterativ Gauß-Funktionen in die Helligkeitsverteilung ein-<br />
gepasst, wobei als Initialwert für die Position die Koordinaten der Kandidatenpixel<br />
verwendet werden. Abschließend werden die präzisierten Kandidatenpixel in abstei-<br />
gender Reihenfolge ihrer Relevanz und unter Berücksichtigung eines definierten Ab-<br />
standsmaßes einem Delaunay-Gitter hinzugefügt, das die Datenbasis für die Interpola-<br />
tion bildet. Der Vorgang der subpixelgenauen Registrierung ist Bestandteil der Erfin-<br />
dungsmeldung [EWR + 06].<br />
Glättung Der Algorithmus zur Auffindung von Faserzentren verlässt sich darauf,<br />
dass die Intensitätsverteilung vom Mittelpunkt der Faser aus streng monoton abfallend<br />
verläuft. Messungen haben gezeigt, dass die tatsächliche Verteilung jedoch durch Rau-<br />
schen der bildgebenden Elektronik Störungen aufweist, die sich in einigen Fällen bei<br />
der Detektion der Maxima negativ bemerkbar machen.
3.2. RESTAURIERUNG EINZELNER INTENSITÄTSBILDER 73<br />
(a)<br />
(b) (c)<br />
(d) (e)<br />
Abbildung 3.16: Größe (gekennzeichnet mit Quadraten) und Varianz (gekennzeichnet mit<br />
Punkten) der Impulsantwortmatrix in Abhängigkeit des geschätzten Faserabstands (a). Resul-<br />
tate des Maximumfilters (c) bzw. (e): auf den Originaldaten (b) bzw. auf den geglätteten Daten<br />
(d).<br />
Aus diesem Grund wird das Bild zunächst mit einer symmetrischen Gauß-Impuls-<br />
antwortmatrix der Größe Wk gefaltet. Der ungerade Wert Wk leitet sich aus dem ge-<br />
schätzten Faserabstand ˜df ab. Indem sie kleiner gewählt wird, als der Faserabstand,<br />
bleiben die strukturellen Eigenschaften der Intensitätsverteilung durch die Glättung er-<br />
halten. Die Standardabweichung σk der Impulsantwortmatrix zur Glättung wird derart<br />
gewählt, dass der minimale Wert am Rand der Impulsantwortmatrix einen maximalen<br />
Prozentsatz pσ = 5% des Spitzenwerts nicht übersteigt:<br />
σk =<br />
Wk−1<br />
4· √ − log 2 pσ<br />
0 sonst<br />
für Wk > 4<br />
Die geeignete Fensterbreite in Abhängigkeit von ˜df, als auch die Schwelle bei ˜df = 4,<br />
ab der eine Glättung als Vorverarbeitung durchgeführt wird, wurden empirisch festge-<br />
legt.<br />
Die beabsichtigte Wirkung zeigt sich bei relativ großen Faserabständen, bei denen<br />
der Maximumfilter durch die verrauschten Intensitätswerte sonst keine geschlossenen<br />
Kandidatenbereiche mehr liefern würde (vgl. Abb. 3.16 (c)). Durch die Glättung er-<br />
zielt der nun folgende Schritt zur Groblokalisierung von Kandidatenpixel geschlossene<br />
Kandidatenbereiche.<br />
.
74 3.2. RESTAURIERUNG EINZELNER INTENSITÄTSBILDER<br />
Groblokalisierung von Kandidatenpixel Der Algorithmus zur präzisen Bestim-<br />
mung der Faserposition kann prinzipiell für jede Position im Bild ausgeführt werden,<br />
erfordert jedoch einen hohen Rechenaufwand. Aus diesem Grund werden zunächst<br />
pixelgenau potenzielle Bildpunkte als sog. Kandidatenpixel ausgemacht.<br />
Dazu werden lokal helle Strukturen geortet, indem ein Fenster der Breite ˜df über<br />
das Bild gleitet und jeweils innerhalb dieser Nachbarschaftsumgebung N (x, y) die ma-<br />
ximale Intensität Îmax mit der minimalen Intensität Îmin verglichen wird. Übersteigt die-<br />
se Differenz eine festgelegte Schwelle mdist, so gilt die Koordinate (xmax; ymax) des<br />
ermittelten Maximums in der Umgebung N (x, y) als Kandidatenpixel:<br />
Pkand = <br />
(ˆx, ˆy)| Îmax − Îmin > mdist<br />
. (3.13)<br />
Dadurch, dass der Schwellwert auf die lokale Intensitätsdifferenz bezogen wird, be-<br />
rücksichtigt die Filterung simultan den sonst notwendigen Schritt einer Gradientenkor-<br />
rektur. Dieser ist erforderlich, da durch die eingeschränkte endoskopische Beleuchtung<br />
die Helligkeit im Bild zu den Rändern hin meist deutliche abfällt (vgl. Abschn. 2.3.3).<br />
Abbildung 3.16 (e) zeigt für das Ausgangsbild (d) das Resultat der Kandidatensuche,<br />
wobei jeder weiße Bildpunkt eine mögliche pixelgenaue Koordinate für ein Faserzen-<br />
trum darstellt.<br />
Die Bedeutung dieser Einschränkung des Suchraums soll an einem typischen Bei-<br />
spiel verdeutlicht werden. Ein Bild der Größe 1024×768 Pixel zeigt eine faseroptische<br />
Abbildung mit 30.000 Fasern (vgl. Abb. 3.17(a)). Innerhalb einer ROI, die mit einem<br />
Radius von 345 Pixel nahezu die gesamte sichtbare Apertur abdeckt, müssen von ur-<br />
sprünglich 374.145 möglichen Pixelpositionen dann nur noch 46.050 Kandidatenpixel<br />
(vgl. Abb. 3.17(c)) bearbeitet werden. Das entspricht einer Reduzierung auf weniger<br />
als 13%. Noch wirkungsvoller sind die Zahlen bei geringerer Faserdichte. Es wur-<br />
de überprüft, dass sich unter den Kandidatenpixel noch sämtliche richtigen Faserzen-<br />
tren befinden. Werden die Schritte A und B im Ablauf der Abbildung 3.15 übersprun-<br />
gen und dementsprechend ohne Vorselektion die Präzisierung und Triangulierung ab<br />
Schritt C auf allen möglichen Bildpunkten durchgeführt, so steigert dies die Berech-<br />
nungszeit für das oben verwendete Beispiel auf der eingesetzten Rechnerarchitektur<br />
um das 15-fache von 6, 3s auf 98, 7s, da die Präzisierung während der Triangulierung<br />
im Gegensatz zur Kandidatenselektion vergleichsweise rechenintensiv ist.<br />
Relevanzbewertung In diesem Schritt wird die Ähnlichkeit der Intensitätsverteilung<br />
in der Umgebung von Kandidatenpixel mit einer definierten Gauss-Verteilung bewer-
3.2. RESTAURIERUNG EINZELNER INTENSITÄTSBILDER 75<br />
(a) (b) (c)<br />
(d) (e) (f)<br />
Abbildung 3.17: Bestimmung von Kandidatenpixel zur Reduktion des Berechnungsaufwands<br />
für die Bestimmung von Faserzentren.<br />
tet. Dazu wird ein Template 10 T mit den diskreten Funktionswerten einer 2D-Gauß-<br />
Verteilung erstellt, deren Mittelwert auf dem Zentrum des Fensters liegt. Die Größe<br />
des Fensters entspricht dem abgerundeten geschätzten Faserabstands ˜df. Die Varianz<br />
der Gauß’schen Intensitätsverteilung wird wie im Abschnitt Glättung über das 5%-<br />
Kriterium festgelegt. Durch blockweisen Vergleich mit dem Template-Fenster wird<br />
nun zu jedem Kandidatenpixel pkand,i die Summe der quadratischen Differenz als Re-<br />
levanzfaktor 11 ϑ(pkand,i) berechnet:<br />
ϑ(pkand,i) = 1<br />
2 ˜df<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
N (pkand,i)<br />
<br />
<br />
<br />
2<br />
Î(x, y) · T(x, y) − T(x, y) <br />
<br />
<br />
, (3.14)<br />
wobei T(x, y) bzw. Î(x, y) die Intensitätswerte des Templates bzw. des Kalibrierbilds<br />
in der <br />
˜df × ˜df -Nachbarschaft N bezeichnen.<br />
Die Helligkeit der Kandidatenpixel in Abbildung 3.17(f) repräsentiert den Wert der<br />
Relevanzfaktoren als Beispiel für die Kandidatenpixel aus Abbildung 3.17(e).<br />
10 Template: Intensitätsmatrix, hier zum blockweisen Vergleich der Ähnlichkeit von Bildausschnitten<br />
11 Relevanzfaktor: Charakteristischer Wert für die Ähnlichkeit eines Bildausschnitts zu einer definier-<br />
ten Vergleichsgröße, hier einer Gauß-Funktion
76 3.2. RESTAURIERUNG EINZELNER INTENSITÄTSBILDER<br />
Präzisierung der Faserposition Nun werden die Faserpositionen und charakteristi-<br />
schen -eigenschaften an den ermittelten Kandidatenpixel präzisiert, indem die variable<br />
Gauß-Funktion<br />
<br />
2 (x − µx)<br />
g(x, y; v) = a · exp −<br />
2σ2 −<br />
x<br />
2 (y − µy)<br />
2σ 2 y<br />
(3.15)<br />
mit dem Parametervektor v = [µx, µy, σx, σy, a] durch nichtlineare Optimierung an<br />
die jeweilige Intensitätsverteilung in der lokalen Umgebung N angepasst wird. Als<br />
Resultat dieses iterativen Schritts liegen folgende detaillierte Informationen über die<br />
Gauß-Verteilung vor:<br />
• Mittelwert µx,µy: Faserzentrum<br />
• Varianz σx,σy: Breite der Lichtverteilung<br />
• Amplitude a: Intensitätsmaximum<br />
Für jedes Kandidatenpixel pkand,i wird Gleichung (3.15) mit der Pixelposition als Start-<br />
wert für die Nachbarschaft N (pi) durch nichtlineare Optimierung des Least-Square<br />
Problems 12 bezüglich des Parametervektors v angepasst:<br />
v = argmin r(pkand,i, u)<br />
u<br />
mit<br />
r(pkand,i, u) = <br />
N (pkand,i)<br />
g(x, y; u) − Î(x, y) 2<br />
Das Residuum r wird iterativ nach der Levenberg-Marquardt Methode minimiert.<br />
Falls die Optimierung innerhalb einer definierten Anzahl von Iterationen konvergiert,<br />
wird der Mittelwert µx,µy als subpixelgenaues Faserzentrum, die Amplitude a als Refe-<br />
renzwert für die Helligkeit, das verbleibende Residuum r als präzisierter Relevanzfak-<br />
tor und die Varianz σx,σy als charakteristische Größe zur nachträglichen Modellierung<br />
der lokalen Helligkeitsverteilung gespeichert. Kann die Optimierung für ein Kandi-<br />
datenpixel nicht abgeschlossen werden, so verbleibt der grobe Schätzwert des block-<br />
weisen Vergleichs als Relevanzfaktor, ebenso verbleibt die Faserposition, d.h. sie wird<br />
pixelgenau übernommen und als Helligkeit wird ein Schätzwert aus den umliegenden<br />
Bildpunkten ermittelt (vgl. Abschn. 3.2.2.2).<br />
In der Anwendung der Interpolation hat sich gezeigt, dass die Varianz der Inten-<br />
sitätsverteilung ohne Einschränkungen als symmetrisch betrachtet werden kann. Die<br />
drate<br />
12 Least-Square Problem: Näherung eines Gleichungssystems nach der Methode der kleinsten Qua-<br />
.
3.2. RESTAURIERUNG EINZELNER INTENSITÄTSBILDER 77<br />
(a) (b)<br />
(c) (d) (e)<br />
Abbildung 3.18: (a) Kandidatenpixel in vergrößertem Ausschnitt eines Kalibrierbilds (vgl.<br />
Abb. 3.17(c)). Pixelgenaue Positionen möglicher Faserzentren sind durch Quadrate markiert,<br />
wobei mit einem Kreuz diejenigen gekennzeichnet sind, die im Zuge der Triangulierung auf-<br />
grund des Distanzkriteriums unberücksichtigt bleiben. (b) Feinpositionierte Faserzentren. (c-e)<br />
Triangulierung der Faserzentren in drei Schritten.<br />
Verwendung nur einer Variablen für diese Charakterisierung vereinfacht und beschleu-<br />
nigt den Vorgang der Präzisierung.<br />
Bedingte Triangulierung nach absteigender Relevanz Der Bereich einer einzel-<br />
nen Faser kann auch nach der Reduzierung der Bildpunkte durch mehrere mögliche<br />
Kandidatenpixel beschrieben werden. Dabei ist es möglich, dass zwei oder gar mehre-<br />
re Kandidatenpixel durch die iterative Anpassung einer Gauß-Funktion auf denselben<br />
subpixelgenauen Punkt zu liegen kommen. Wichtig ist, dass lediglich ein Kandidaten-<br />
pixel pkand,i, nämlich dasjenige mit dem höchsten Relevanzfaktor ϑ(pkand,i), als Faser-<br />
zentrum berücksichtigt wird. Um dies sicherzustellen, werden die Kandidatenpixel ab-<br />
steigend bezüglich ihrer Relevanz einem geordneten Dreiecksgitter (Delaunay-Gitter)<br />
hinzugefügt. Damit nicht mehrere Kandidatenpixel aus dem Bereich einer einzelnen<br />
Faser hinzugefügt werden, weil sie alle einen höheren Relevanzfaktor aufweisen als<br />
ein Kandidatenpixel einer weiteren Faser, wird das Hinzufügen vom Abstand zu schon<br />
eingefügten Stützstellen abhängig gemacht. Diese Abstände liegen im gesamten Aper-<br />
turbereich in einem nahezu konstanten engen Bereich (vgl. Aufbau in Abschn. 2.3.1),<br />
für den in Abhängigkeit des geschätzten Faserabstands ˜df eine untere Schranke festge-
78 3.2. RESTAURIERUNG EINZELNER INTENSITÄTSBILDER<br />
legt werden kann: dmin = (1 − ζ) · ˜df. Die Toleranz, die durch den Parameter ζ gewährt<br />
wird, ist in der vorliegenden Implementierung auf etwa 5% gesetzt.<br />
Mit D k−1 , k < NF, liege eine Delaunay-Triangulierung vor, die bereits eine Menge<br />
an Gitterpunkten enthält (vgl. Abb. 3.17(c)). di bezeichne die NN Distanzen eines wei-<br />
teren präzisierten Kandidatenpixels pkand zu seinen NN nächstgelegenen Nachbarn pf ,n,<br />
n ≤ NN, im Gitter. Erfüllt der Kandidat die Bedingung di ≤ dmin∀pf ,n, so wird er dem<br />
Delaunay-Netz als weiteres Faserzentrum hinzugefügt (vgl. Abb. 3.17(d)). Durch die<br />
ausreichend homogen verteilte hexagonale Struktur der Faserzentren im endgültigen<br />
Gitter D NF , kurz D (vgl. Abb. 3.17(e)) bilden alle natürlichen Nachbarn auch gleich-<br />
zeitig die nächsten Nachbarn der Triangulierung und müssen daher in der Betrachtung<br />
von Nachbarschaftsverhältnissen nicht unterschieden werden.<br />
3.2.2.2 Interpolation<br />
Nach der subpixelgenauen Lokalisierung der Faserzentren bilden diese nun die Stützt-<br />
stellen für eine Interpolation aller dazwischenliegenden Bildpunkte. Dieser Vorgang<br />
wird für spätere Abschnitte mit dem Operator I symbolisiert. Unter der Annahme<br />
einer konstanten Verteilung der Fasern im Bildleiter bleibt sowohl der Mittelpunkt<br />
(µx, µy), als auch die Beschaffenheit der Helligkeitsverteilung, welche durch die Vari-<br />
anz (σx, σy) charakterisiert ist, für jede Faser konstant. Aus dem aktuellen Bild muss<br />
deshalb lediglich die Helligkeitsamplitude a bestimmt werden. Im Gegensatz zur itera-<br />
tiven initialen Berechnung der genannten konstanten Parameter, lässt sich die Amplitu-<br />
de für eine Faser mit dem Mittelpunkt (µx, µy) in expliziter Form in Abhängigkeit der<br />
benachbarten Intensitätswerte Î(x, y) angeben. Aufgrund bekannter Varianz der Gauß-<br />
Verteilung genügen wenige Intensitätswerte für eine hinreichend genaue Berechnung<br />
von a. Am Beispiel der Vierer-Nachbarschaft ABCD (vgl. Abb. 3.19) wird für den<br />
bekannten Intensitätsvektor i = Î(xA, yA), Î(xB, yB), Î(xC, yC), Î(xD, yD) T das lineare<br />
Gleichungssystem für die exponentielle Verteilung aufgestellt:<br />
i = a · m , (3.16)<br />
wobei m = (mA, mB, mC, mD) T den Vektor mit Exponentialtermen der Gauß-Vertei-<br />
lung bezeichnet, für den gilt:<br />
<br />
mk = exp − 1<br />
<br />
(µx − xk)<br />
2<br />
2<br />
σ 2 x<br />
+ (µy − yk) 2<br />
σ2 <br />
y<br />
für k = {A, B, C, D} .<br />
Zur Lösung der Gleichung (3.16) nach a kann die für Vektoren entartete Moore-<br />
Penrose-Inverse M + angewendet werden [BIG03]. Sie liefert das explizite Optimum
3.2. RESTAURIERUNG EINZELNER INTENSITÄTSBILDER 79<br />
⎧<br />
⎪⎨<br />
<br />
xA<br />
yA<br />
pI,A<br />
<br />
,<br />
<br />
xB<br />
yB<br />
pI,B<br />
<br />
,<br />
<br />
xC<br />
yC<br />
pI,C<br />
<br />
,<br />
<br />
xD<br />
yD<br />
⎪⎬<br />
=<br />
⎪⎩ ⎪⎭<br />
pI,D<br />
<br />
⌊µx⌋<br />
⌊µy⌋<br />
,<br />
⌈µx⌉<br />
⌊µy⌋<br />
,<br />
⌊µx⌋<br />
⌈µy⌉<br />
,<br />
⌈µx⌉<br />
⌈µy⌉<br />
Abbildung 3.19: Vierer-Nachbarschaft {pA, pB, pC, pD} eines Faserzentrums zur Berechnung<br />
der Amplitude in expliziter Form für die Interpolation.<br />
für den Parameter a hinsichtlich der minimalen euklidischen Norm für das aufgestellte<br />
System:<br />
a = i · m + mit m + = mT<br />
m T · m<br />
⎫<br />
. (3.17)<br />
Im Gegensatz zur initialen Registrierung der Fasern wird an die Interpolation die<br />
Anforderung einer Echtzeitverarbeitung der Bilddaten gestellt. Daher wird eine Look-<br />
up-Tabelle erstellt, die für jeden Bildpunkt pI die Information zur Gewichtung der NN<br />
beteiligten Stützstellen pf ,i mit i ∈ {1; . . . ; NN} bereitstellt, aus welchen sich die In-<br />
tensität I(pI) zusammensetzt. Statt einer relativ ungenauen linearen Kombination aus<br />
NN ≤ 2 Stützstellen, wird die Helligkeit I(pI) standardmäßig aus mindestens drei,<br />
nämlich den begrenzenden Eckpunkten des umschließenden Dreiecks gebildet. Das<br />
Prinzip der baryzentrischen, auch affin genannten Kombination gewichtet die Intensi-<br />
täten ai i ≤ NN der NN Stützstellen des einschließenden Dreiecks gemäß ihrer bary-<br />
zentrischen Koordinaten bi bezüglich des Bildpunkts pI:<br />
NN <br />
I(pI) = bi(pI) · ai .<br />
i=1<br />
Beispiel: Für NN = 3 lauten die baryzentrischen Koordinaten eines Bildpunkts pI be-<br />
züglich seiner drei umschließenden Stützstellen pf ,1, pf ,2 und pf ,3 mit den Koordinaten<br />
(x1; y1), (x2; y2) und (x3; y3)<br />
b1 = 1<br />
c (px(y2 − y3) + x2(y3 − py) + x3(py − y2)) (3.18)<br />
b2 = 1<br />
c (x1(py − y3) + px(y3 − y1) + x3(y1 − py)) (3.19)<br />
b3 = 1<br />
c (x1(y2 − py) + x2(py − y1) + px(y1 − y2)) (3.20)<br />
mit<br />
c = x1(y2 − y3) + x2(y3 − y1) + x3(y1 − y2) .
80 3.2. RESTAURIERUNG EINZELNER INTENSITÄTSBILDER<br />
(a) (b)<br />
(c) (d)<br />
Abbildung 3.20: Beispiel der physikalisch motivierten Interpolation an einem realen Bild des<br />
Hohlraums eines technischen Bauteils. Das Original (a) mit vergrößertem Ausschnitt (c), sowie<br />
das interpolierte Ergebnis (b) mit dem gleichen Ausschnitt (d).<br />
Als Beispiel für die Auswirkung der Interpolation auf das endoskopische Abbild<br />
des Hohlraums eines technischen Bauteils sind in Abbildung 3.20 das Originalbild (a)<br />
und das interpolierte Ergebnis (b) gegenübergestellt. Im vergrößerten Ausschnitt (c)<br />
des Originals sind deutlich die Wabenartefakte zu sehen, die nach der Interpolation<br />
aus dem Abbild (d) entfernt sind.<br />
Eine nichtlineare Gewichtung mit trigonometrischen oder polynomialen Funktio-<br />
nen, sowie eine intelligente Kombination von mehr als drei Stützstellen pro Bildpunkt<br />
ist angedacht, um glättend und gleichzeitig kantenerhaltend auf die Interpolation Ein-<br />
fluss zu nehmen (s. Ausblick).
3.2. RESTAURIERUNG EINZELNER INTENSITÄTSBILDER 81<br />
3.2.3 Anwendung zur Kompensation singulärer Faserdefekte<br />
Die gute Abbildungseigenschaft von flexiblen Endoskopen steht und fällt mit der Funk-<br />
tionsfähigkeit der Fasern im Bildbündel. Sowohl durch unsachgemäßen oder längeren<br />
Gebrauch unter hoher Beanspruchung, als auch durch schlechte Produktionsbedingun-<br />
gen kann ein Bildbündel Faserdefekte aufweisen. Diese äußern sich durch dunkle Stel-<br />
len in der Abbildung und repräsentieren jeweils eine gebrochene Faser, die also kein<br />
Licht mehr leitet.<br />
Angeregt durch eine Fragestellung eines Industriepartners wurde untersucht, in-<br />
wieweit ein degradiertes Bildbündel durch digitale Bildverarbeitung noch für (einge-<br />
schränkte) visuelle Kontrollen verwendet bzw. als preisgünstiges Gerät für den Hob-<br />
bybereich eingesetzt werden kann. Es zeigt sich, dass ein kombinierter Algorithmus,<br />
(a) (b)<br />
(c) (d)<br />
Abbildung 3.21: Gebrochene Fasern erzeugen singuläre Faserdefekte im Kalibrierbild (a). Bei-<br />
spielhafte Abbildung eines Firmenlogos durch das Endoskop (b). Filterung zur Eliminierung<br />
des Wabenmusters bewahrt dunkle Flecken (c). Gefilterte Interpolation entfernt Wabenmuster<br />
und Bildstörungen durch gebrochene Fasern (d).
82 3.3. ARTEFAKTREDUZIERENDE FARBINTERPOLATION<br />
bestehend aus Interpolation und Filterung prädestiniert ist, um einzelne Fehler auszu-<br />
gleichen und dadurch den visuellen Eindruck der abgebildeten Szene zu verbessern.<br />
Abbildung 3.21 zeigt die Anwendung der genannten Verfahren für ein Beispielbild.<br />
Im Kalibrierbild (a) und der direkten Aufnahme eines Firmenlogos mit dem Endoskop<br />
E11 (vgl. Tab. 4.1) sind (b) die gebrochenen Fasern in der sonst homogenen Waben-<br />
struktur deutlich zu erkennen. Die Anwendung der spektralen Maskierung durch eine<br />
sternförmige Tiefpassmaske (vgl. Abschn. 3.2.1) kann die Faserdefekte nicht beseiti-<br />
gen (c), da sie lokale Störungen in der Gitterstruktur nicht berücksichtigt. Wird jedoch<br />
zunächst die adaptive Interpolation (vgl. Abschn. 3.2.2) genutzt, so werden einzel-<br />
ne Bildstörungen toleriert und der Betrachter erhält einen fehlerfreien Eindruck der<br />
Szene (d). Die abschließende Filterung beseitigt Artefakte aus nicht differenzierbaren<br />
Intensitätsübergängen, die durch die Interpolation entstehen können. Eine quantitative<br />
Bewertung dieses kombinierten Vorgehens erfolgt in Abschnitt 4.4.<br />
3.3 Artefaktreduzierende Farbinterpolation<br />
Die Farbe ist ein bedeutendes Kriterium, wenn es um die optische Beurteilung von<br />
Objekt- und Objektflächeneigenschaften geht. In der Medizin spielt die Farbe von Tex-<br />
turen eine wichtige Rolle, wenn es z. B. um Gewebeveränderungen, Entzündungen und<br />
andere Auffälligkeiten z. B. auf Schleimhäuten geht. Daher ist es wichtig, die Verfah-<br />
ren zur Artefaktreduktion auch unter dem Aspekt der Farbe zu betrachten und zu erwei-<br />
tern. In den vorausgehenden Abschnitten wurde die Automatisierung für Algorithmen<br />
zur spektralen Filterung und der Interpolation aus kontinuierlichen Gittern beschrie-<br />
ben, die auf Basis von Intensitätsbildern arbeiten. Damit lassen sich positive Auswir-<br />
kungen auf die Qualität von Grauwertbildern und damit auf die Weiterverwendung<br />
z. B. für eine räumliche Rekonstruktion zeigen. Bei einer Visualisierung und optischen<br />
Bewertung der Bilddaten, sowie der Definition und Verarbeitung von Farbmerkmalen<br />
stoßen die herkömmlichen Ansätze auf Schwierigkeiten, wie Abschnitt 2.3.3 gezeigt<br />
hat.<br />
Mit dieser Arbeit wird eine wirksame Erweiterung zur artefaktfreien Bestimmung<br />
der Farbwerte an den registrierten Faserzentren vorgeschlagen. Sie verknüpft die In-<br />
terpolation aus dem subpixelgenauen Stützstellengitter mit dem Wissen um die An-<br />
ordnung des Mosaiks der Farbfilterelemente auf dem Bildsensor. Ein entsprechender<br />
Ansatz wurde als Erfindungsmeldung [WZ07] eingereicht. Die Anordnung der Farb-<br />
elemente kann dem Datenblatt des Kameramodells entnommen werden oder anhand<br />
einer Mosaikkalibrierung ermittelt werden. Indem direkt auf die sog. Rohdaten zuge-
3.3. ARTEFAKTREDUZIERENDE FARBINTERPOLATION 83<br />
Abbildung 3.22: Ablaufdiagramm der physikalisch motivierten Interpolation mit Erweiterung<br />
zur artefaktfreien Bestimmung der Farbwerte an den registrierten Faserzentren. Zur Verbesse-<br />
rung der Übersichtlichkeit ist der mögliche Schritt zur Nachkalibrierung ausgeblendet.<br />
griffen wird, kann der negative Einfluss des Demosaicing auf das Farbbild umgangen<br />
werden und die Farbwiedergabe mit implizitem Weißabgleich verbessert werden. Der<br />
Ablauf der stützstellenbasierten Interpolation aus Abschnitt 3.2.2 wird um die Zuwei-<br />
sung relevanter Sensorelemente, die Berechnung von Korrekturfaktoren für die Farb-<br />
verteilung und -gewichtung und die Farbbestimmung und -korrektur erweitert (vgl.<br />
Abb. 3.22).<br />
Demosaicing und Faserregistrierung Die im Abschnitt 3.2 zur stützstellenbasier-<br />
ten Interpolation beschriebene Faserregistrierung wird auf einem Intensitätsbild durch-<br />
geführt. Dazu werden die Rohdaten ˆRref des Weißbilds durch eine der Methoden aus<br />
Abschnitt 2.3.2 zu einem Grauwertbild konvertiert (Demosaicing). Die Faserregistrie-<br />
rung liefert eine geordnete Gitterstruktur D mit den subpixelgenauen Koordinaten des<br />
Schwerpunkts einer jeden Faser pf ,i, i ≤ NF.<br />
Zuweisung relevanter Sensorelemente Weil mehrere Sensorelemente SE(pf ) vom<br />
einfallenden Licht der Faser pf betroffen sind, werden diese Sensorelemente jeweils<br />
den Fasern mit der nächstliegenden Koordinate zugeordnet (vgl. Abb. 3.23). Dabei<br />
wird zunächst nicht berücksichtigt, mit welcher Intensität die einzelnen Sensorele-<br />
mente beitragen, sondern nur binär entschieden, welche Elemente auf welche Fasern<br />
Einfluss haben.
84 3.3. ARTEFAKTREDUZIERENDE FARBINTERPOLATION<br />
(a) (b)<br />
Abbildung 3.23: Vergrößerter Ausschnitt des Intensitätsbilds (a) und schematische Darstellung<br />
des Bayer-Pattern (b) um eine angedeutete Faser pf herum mit Markierung der zugewiesenen<br />
Sensorelemente SE.<br />
Korrekturfaktoren für Farbverteilung und -gewichtung Für jeden Farbkanal χ<br />
wird nun die Summe aller Intensitäten ˆRref der zugehörigen Sensorelemente im Roh-<br />
bild gebildet. Diese Summe wird als Kalibriersumme K bezeichnet:<br />
χ K(pf ) = <br />
SE(pf )<br />
χˆRref(pf ) mit χ ∈ {R, G, B} und pf ∈ D .<br />
Die Definition eines Referenzintensitätswerts ˆK(pf ) dient der Kompensation von glo-<br />
balen Helligkeitsgradienten und bietet eine Möglichkeit, die Berechnung des Aus-<br />
gangsbilds visuell realistischer zu skalieren. Ein guter Richtwert ist hier 90 − 95%<br />
der maximalen Helligkeit. Es ist auch möglich, den Wert an lokale Bildinhalte zu a-<br />
daptieren oder die mittlere Helligkeit einer normal beleuchteten Szene zu verwenden.<br />
Die Kalibriersumme wird auf den Referenzintensitätswert normiert und bildet so den<br />
Korrekturfaktor<br />
χ C(pf ) = ˆK(pf )<br />
χ K(pf ) mit χ ∈ {R, G, B} und pf ∈ D .<br />
Farbbestimmung und -korrektur Nach den initialen Phasen der Kalibrierung wer-<br />
den nun die Schritte zur Farbbestimmung und -korrektur auf einer ganzen Sequenz<br />
von Bildern durchgeführt, die entweder direkt von einer Kamera aufgenommen wer-<br />
den oder aus dem Speicher, z. B. einem Bildarchiv gelesen werden. O.B.d.A. werden<br />
die Schritte für ein einzelnes Bild ˆR der Sequenz beschrieben.<br />
Ähnlich der Summenbildung für die Korrekturfaktoren werden hier für alle zugehöri-<br />
gen Sensorelemente SE(pf ) einer Faser pf die Intensitäten aus dem zu bearbeitenden
3.4. NACHKALIBRIERUNG ZUR SYSTEMSTABILISIERUNG 85<br />
Bild ˆR entnommen und zur Summe E(pf ) summiert. Die Operation findet wiederum<br />
für alle Farbkanäle separat statt.<br />
χ<br />
E(pf ) = <br />
χˆR(pf ) mit χ ∈ {R, G, B} und pf ∈ D .<br />
SE(pf )<br />
Die korrigierte Intensität χ apf für den Farbkanal χ der Faser pf im aktuellen Bild ent-<br />
steht durch Multiplikation mit dem Korrekturfaktor χ E(pf ):<br />
χ apf =χ E(pf ) · χ C(pf ) mit χ ∈ {R, G, B} und pf ∈ D .<br />
Als angepasster Farbwert wird der Faser pf im Gitter D nun das Intensitätstripel apf =<br />
<br />
Rapf ,G apf ,B <br />
apf zugewiesen.<br />
Das beschriebene Vorgehen ist beispielhaft für die RGB-Repräsentation dargestellt,<br />
gleichwohl sich beliebige Anzahl und Arten von Farbkanälen auf diese Weise berück-<br />
sichtigen lassen. Bekannte Aufgabenstellungen aus dem industriellen Umfeld erfor-<br />
dern hier z. B. ein nicht sichtbares Spektrum im nahen infraroten Bereich, was für die<br />
Software algorithmisch problemlos handhabbar ist.<br />
Farbinterpolation Die Faserzentren pf des Gitters D werden um die korrigierten<br />
Farbwerte apf ergänzt und stehen daraufhin als Datenbasis für die baryzentrische Interpolation<br />
zur Verfügung. Für eine schnelle Bearbeitung werden die Nachbarschafts-<br />
beziehungen des Gitters sowie die zugehörigen Farbdaten in einer Lookup Tabelle vor-<br />
gehalten, aus der für jedes Sensorelement, das zwischen genau drei Faserzentren liegt,<br />
die nötige Information zur Restaurierung entnommen werden kann.<br />
3.4 Nachkalibrierung zur Systemstabilisierung<br />
Im Einsatz unterliegen Endoskopsysteme oft einer starken mechanischen Beanspru-<br />
chung. Die Verbindung zwischen dem Okular des Endoskops und dem Kamerasensor<br />
z. B. über eine mechanische Verschraubung oder einen Bajonettverschluss reagiert äu-<br />
ßerst sensibel auf solche Kräfte, da bereits eine kleine Verschiebung in der Größenord-<br />
nung weniger Mikrometer oder eine Drehbewegung um wenige Winkelsekunden zu<br />
einem Versatz des Bildbündels in der Größenordnung mehrerer Sensorelemente führt.<br />
Diese Veränderung wird hier als Dejustierung bezeichnet. Die Folge ist eine Verschie-<br />
bung der Faserzentren auf dem Bildsensor, die im Kalibrierschritt für die Interpolation<br />
registriert und gespeichert wurden (vgl. Abschn. 3.2.2). Dies hat massive Auswirkun-<br />
gen auf die Rekonstruktion, da die Berechnung der Lichtleiterintensitäten und -farben
86 3.4. NACHKALIBRIERUNG ZUR SYSTEMSTABILISIERUNG<br />
Ohne Nachkalibrierung<br />
(a) t = 0s (b) t = 1s (c) t = 2s (d) t = 3s<br />
Mit Nachkalibrierung<br />
(e) t = 0s (f) t = 1s (g) t = 2s (h) t = 3s<br />
Abbildung 3.24: Sequenz von restaurierten Bildern, die im zeitlichen Verlauf (von links nach<br />
rechts) einer Dejustierung durch Verdrehen der Verbindung zwischen Endoskop und Kamera<br />
unterzogen werden. Ohne zusätzliche Bearbeitungsschritte zeigt die Sequenz (a)-(d) deutliche<br />
Einbußen bezüglich Helligkeit und Struktur der Aufnahmen, wohingegen eine aktive Nachkali-<br />
brierung diese Effekte sichtbar reduziert (e)-(h).<br />
stark abhängig ist von der genauen Lichtleiterposition. In Abbildung 3.24 ist ein derar-<br />
tiger Vorgang im zeitlichen Verlauf dargestellt. Ohne zusätzliche Bearbeitungsschritte<br />
zeigt die Sequenz (a) bis (d) deutliche Einbußen bezüglich Helligkeit und Struktur der<br />
Aufnahmen, weil sich mit der Zeit die Faserpositionen verschieben, an deren Koordi-<br />
naten die Informationen aus dem Bild bestimmt werden.<br />
Prinzip der Nachkalibrierung Mit der Nachkalibrierung wird eine zeitdynamische<br />
Rückkopplung für die Kalibrierung entwickelt und vorgestellt, die während des Be-<br />
triebs eines Endoskops Korrekturen an den Kalibrierdaten vornehmen kann, um eine<br />
schleichende Dejustierung zu kompensieren. In Abschnitt 3.2.2 wurde die Kalibrie-<br />
rung als vergleichsweise zeitaufwändiger Vorgang beschrieben. Die Anforderungen<br />
der Nachkalibrierung sind jedoch nicht so hoch, wie die initiale Berechnung von cha-<br />
rakteristischen Parameter jeder einzelnen Faser, die zusätzlich in eine Nachbarschafts-<br />
beziehung gebracht werden müssen. Daher kann die Kalibrierung für die hier benötigte<br />
dynamische Nachführung vereinfacht werden.
3.4. NACHKALIBRIERUNG ZUR SYSTEMSTABILISIERUNG 87<br />
(a) (b) (c)<br />
Abbildung 3.25: (a) Individuelle Erkennung lokaler Verschiebungen von Faserzentren nach<br />
einer Dejustierung mit (b) vergrößerter Visualisierung eines einzelnen Bewegungsvektors. (c)<br />
Stabilisierung der Bewegung durch Optimierung mittels rigidem Bewegungsmodell.<br />
Aktualisierung der Faserpositionen Die Dejustierung eines Lichtleiters äußert sich<br />
dadurch, dass das Abbild seiner Lichtverteilung an einer verschobenen Stelle auf den<br />
Kamerasensor trifft. Um diese Verschiebung zu ermitteln, wird die Registrierung aus<br />
Abschnitt 3.2.2.1 erneut durchgeführt, diesmal jedoch in vereinfachter Form auf der<br />
Grafikkarte. Ein Schwellwert entscheidet darüber, ob sich die Intensitätsverteilung um<br />
die betrachtete Stelle herum für die Registrierung eignet. Dies ist im laufenden Betrieb<br />
nicht selbstverständlich, da eventuell durch zu starke Helligkeit die Faser übersteuert<br />
wiedergegeben wird oder sich die Faser durch zu geringe Ausleuchtung nicht ausrei-<br />
chend vom Hintergrund abhebt. Weiterhin ist entscheidend, dass sich die Faser seit der<br />
letzten Registrierung nicht zu weit entfernt hat, sonst wird die Lokalisierung fälsch-<br />
licherweise von den hellen Bereichen benachbarter Faserzentren beeinflusst. Sind die<br />
genannten Kriterien für die Umgebung einer Faser erfüllt, so wird die Registrierung<br />
durchgeführt. Als Ergebnis liegen aktualisierte Werte für die Faserpositionen vor.<br />
Rigides Bewegungsmodell zur Stabilisierung der detektierten Bewegung Durch<br />
eine geeignete Bildfrequenz kann sichergestellt werden, dass die Verschiebung zwi-<br />
schen jeweils zwei Bildern in der Größenordnung von wenigen Pixel bleibt. Im Ge-<br />
gensatz zur Bewegung von Objektmerkmalen in der Szene, die durch das Endoskop<br />
perspektivisch auf den Sensor abgebildet werden, kann die Dejustierung des Okular-<br />
adapters näherungsweise durch eine rigide Transformation beschrieben werden. Über<br />
ein entsprechendes Bewegungsmodell mit Translation und Rotation können die Para-<br />
meter der Verschiebungen, die im laufenden Betrieb nicht an allen Stellen zuverlässig<br />
erkannt werden können, stabiler bestimmt werden.
88 3.5. SUPERPOSITION IN FIBEROPTISCHEN BILDSEQUENZEN<br />
Schwierigkeit durch ungünstige Beleuchtung und homogenen Bildinhalt Die in-<br />
dividuelle Nachkalibrierung der einzelnen Faserzentren hat jedoch zwei nennenswerte<br />
Nachteile. Erstens unterliegt die lokale Erkennung einem gewissen Fehler, wie die<br />
Visualisierung der Bewegungsvektoren in Abbildung 3.25(a) zeigt. Eine wiederholte<br />
Kalibrierung schafft zwar in einigen Fällen Abhilfe, allerdings nur in den Bereichen, in<br />
denen eine aussagekräftige Verteilung vorliegt. Durch die zeitliche Dynamik von Über-<br />
steuerung oder Unterbelichtung in der Bildsequenz ist das jedoch oft nicht ausreichend<br />
möglich. Damit ist auch das zweite Problem angeschnitten, nämlich die Unsicherheit<br />
über die Beleuchtung und vor allem über den Inhalt einer endoskopischen Sequenz.<br />
Bleibt ein Ausschnitt über einen längeren Abschnitt unterbelichtet, können die dort<br />
befindlichen Lichtleiter möglicherweise keine Aktualisierung erfahren. In der Folge<br />
kann die Transformation soweit fortgeschritten sein, dass eine korrekte Bestimmung<br />
der Verschiebung nicht mehr möglich ist.<br />
Um dieses Problem in den Griff zu bekommen, werden durch Minimierung des<br />
quadratischen Fehlers aus den Einzelverschiebungen die Parameter für eine rigide<br />
Transformation bestimmt. Mit dieser Transformation werden sodann alle Lichtleiter-<br />
koordinaten aktualisiert, auch wenn diese gerade nicht zur Bestimmung der Bewe-<br />
gungsvektoren beitragen können. Die Visualisierung der Bewegungsvektoren zeigt die<br />
Stabilisierung der Bewegungen durch eine geringere Varianz in der Vektorgewichtung<br />
und -ausrichtung (vgl. Abb. 3.25(c)). Durch regelmäßige Aktualisierung der Faserzen-<br />
tren in den Gitterdaten arbeitet die Interpolation in der beabsichtigten Weise auch nach<br />
Dejustierungen, welche die genannten Grenzen einhalten und zeigt auch nach mehre-<br />
ren Schritten keine wahrnehmbaren Einbußen bezüglich der ursprünglichen Helligkeit<br />
und Struktur (vgl. (e) bis (h) in Abb. 3.24).<br />
3.5 Superposition in fiberoptischen Bildsequenzen<br />
Abschnitt 2.6 hat unter dem Begriff Super Resolution verschiedene Ansätze beschrie-<br />
ben, mit denen die Auflösung von Bildsequenzen gesteigert werden kann. Trotz viel-<br />
versprechender Verfahren im Bereich der Bearbeitung von Videobildern und einigen<br />
Bestrebungen, diese Methoden zur Bearbeitung unregulär abgetasteter Bilddaten zu<br />
übertragen (Superposition), existiert keine praktikable Umsetzung für die Anwendung<br />
mit Faseroptiken, wie sie unter anderem in der flexiblen Endoskopie eingesetzt werden.<br />
Dieser Abschnitt stellt ein erweitertes Verfahren vor, dass speziell für diesen Anwen-<br />
dungsbereich geeignet ist [WERW06, WRW06]. Zuerst wird die Wirkung von Super<br />
Resolution anhand des Informationsflusses veranschaulicht, danach werden das Prin-
3.5. SUPERPOSITION IN FIBEROPTISCHEN BILDSEQUENZEN 89<br />
(a) Einzelbild (statisch)<br />
(b) Bildsequenz (dynamisch)<br />
Abbildung 3.26: Informationsfluss der faseroptischen Abbildung. (a) Bei der Übertragung<br />
durch ein Faserbündel wird die Bildinformation durch Verdeckung und Verfälschung reduziert<br />
(Äquivokation). (b) Die Superposition nutzt die örtliche Korrelation innerhalb einer Bildse-<br />
quenz, um Anteile der verdeckten Bildinformation zurück zu gewinnen bzw. Verluste durch<br />
Strukturartefakte zu reduzieren.<br />
zip und die fundamentalen Voraussetzungen der Mehrfachabtastung durch Faserbündel<br />
erarbeitet. Im Anschluss werden die Vorteile des gewählten Verfahrens im Kontext der<br />
Endoskopie aufgelistet und daraufhin die konkrete Umsetzung in die Interpolation mit<br />
lokaler Bewegungsschätzung und Abbruchkriterien erläutert, bevor abschließend eine<br />
Erweiterung des Ansatzes für die Farbbildverarbeitung vorgeschlagen wird.<br />
3.5.1 Informationsgewinn durch Überlagerung<br />
Der Ansatz basiert auf dem Ortsraumverfahren der Interpolation. Die physikalisch<br />
motivierte Interpolation aus Abschnitt 3.2.2 bietet eine ideale Grundlage zur Über-<br />
lagerung von Bildinformation, da sie ein kontinuierliches Gitter mit Intensitätswerten<br />
zur Interpolation bereithält, das beliebig durch weitere Stützstellen erweitert werden<br />
kann. Durch Superposition, d.h. Überlagerung nichtredundanter Information zwischen<br />
mehreren Einzelaufnahmen können Strukturartefakten und der physikalische Informa-<br />
tionsgehalt der bearbeiteten faseroptischen Abbildungen erhöht werden [WWRW06].
90 3.5. SUPERPOSITION IN FIBEROPTISCHEN BILDSEQUENZEN<br />
Motiviert aus dem Gedanken der Transinformation veranschaulicht Abbildung 3.26<br />
den Effekt der Superposition auf den Informationsfluss gegenüber dem statischen Fall<br />
der faseroptischen Einzelbildübertragung. Bei der Übertragung durch ein Faserbündel<br />
wird die Bildinformation der Szene, H(X), durch Verdeckung aufgrund von Abtastung<br />
sowie durch Verfälschung aufgrund von Strukturartefakten und Farbmoiré reduziert.<br />
Dieser Anteil H(X|Y) wird Äquivokation genannt. Die Transinformation H(X; Y) ent-<br />
spricht der tatsächlich abgetasteten Information, die über die Fasern des Bildbündels<br />
übertragen werden. Im dynamischen Fall gelingt es unter bestimmten Voraussetzungen<br />
(s. folgender Abschnitt), durch geschickte Überlagerung zeitlich benachbarter, redun-<br />
danter Aufnahmen einen Teil der Äquivokation zurückzugewinnen und damit den An-<br />
teil der Transinformation zu erhöhen. Für die Abbildung bedeutet dies einen höheren<br />
Grad an Details bzw. Restaurierungsgüte.<br />
3.5.2 Prinzip und fundamentale Voraussetzung<br />
Das Prinzip der Superposition ähnelt dem menschlichen Verhalten beim Arbeiten mit<br />
einem Fiberskop oder beim Blick durch eine gitterartige Struktur. Kleine Seitwärtsbe-<br />
wegungen verbessern den Eindruck der betrachteten Szene und lassen offensichtlich<br />
mehr Details erkennen. Fundamentale Voraussetzung für dieses Prinzip ist eine effek-<br />
tive Abtastfläche, die kleiner ist, als die Gesamtfläche der Elemente, auf welche die<br />
Szene abgebildet wird. Dieser Zusammenhang wird im nächsten Abschnitt an einem<br />
anschaulichen Beispiel verdeutlicht.<br />
Weitere Bedingung für die praktische Anwendbarkeit von Superposition beim Be-<br />
trieb eines Geräts mit faseroptischer Übertragung sind geeignete Bewegungen, mit de-<br />
nen die distale Optik über oder durch die betrachtete Szene fährt oder geführt wird. Die<br />
entsprechenden Verschiebungen in den aufgezeichneten Abbildungen aus verschiede-<br />
nen Blickrichtungen müssen sich zwischen einer Mindest- und einer Maximaldistanz<br />
bewegen. Sind die Bewegungen zu gering, so liefert die Überlagerung von zugehöri-<br />
gen Bildausschnitten keine zusätzlichen Details. Ist der Betrag der Bewegungsvekto-<br />
ren zu groß, können sie zwischen aufeinander folgenden Bildern nicht mehr korrekt<br />
identifiziert werden und führen zu falscher Überlagerung. Auch zu kleine oder sich<br />
periodisch wiederholende Strukturen im Bild führen zu Fehlverhalten der eingesetzten<br />
Bewegungsschätzer. Die Bewegungsschätzung ist daher der zweite limitierende Faktor<br />
für den Erfolg und das Ergebnis der Detailsteigerung. Eine theoretische Abschätzung<br />
der Genauigkeit von Bewegungsschätzern für endoskopische Bilder ist jedoch nicht<br />
Inhalt dieser Arbeit.
3.5. SUPERPOSITION IN FIBEROPTISCHEN BILDSEQUENZEN 91<br />
(a) Ages<br />
(b) Aeff<br />
Abbildung 3.27: Veranschaulichung der (b) effektiven Fläche im Vergleich zur (a) gesamten<br />
Fläche (hier im Verhältnis 1/9).<br />
(a) Position 1 (b) Position 2 (c) Position 3 (d) Position 4<br />
Abbildung 3.28: Abtastung eines Schwarz-Weiß-Übergangs mit einem Feld aus neun Abtast-<br />
quadraten der Kantenlänge ∆d und damit der Gesamtfläche Ages(vgl. Abb. 3.27(a)). Jede Po-<br />
sition (1-4) zeigt das Abtastfeld nach einer horizontalen Verschiebung um den Abstand ∆d.<br />
3.5.2.1 Abtastung mit verringerter effektiver Fläche<br />
Effektive Abtastfläche Abbildung 3.27 zeigt zwei abgerundete Rechtecke, die je-<br />
weils eine quadratische Fläche der Größe Ages zeigen. In (a) ist die Fläche in neun<br />
Abtastquadrate der Breite ∆d aufgeteilt, welche zusammen die gesamte Fläche Ages =<br />
9∆d 2 ausfüllen. (b) zeigt ebenfalls neun Abtastquadrate, die jedoch jeweils nur ein<br />
Drittel der ursprünglichen Kantenlänge aufweisen. Die Summe dieser sogenannten ef-<br />
fektiven Abtastfläche Aeff beträgt hier demzufolge nur noch ein Neuntel der Fläche<br />
Ages:<br />
∆eff = Aeff<br />
Ages<br />
= 1<br />
∆d 2<br />
2 ∆d<br />
=<br />
3<br />
1<br />
9<br />
Abtastung mit gesamter Fläche In Abbildung 3.28 wird das Abtastfeld nun über<br />
einen Schwarz-Weiß-Übergang geschoben, der im horizontalen Helligkeitsverlauf ei-<br />
ne Stufenfunktion von Null auf Eins darstellt. Ähnlich wie bei der Faltung bekommt<br />
jedes Abtastquadrat als Helligkeit den überdeckten weißen Bereich, bezogen auf die<br />
Quadratfläche, zugeordnet. Aufgrund der gewählten Schritte im konstanten Abstand<br />
∆d bedeutet das den Wert Eins für vollständig im Weißen oder Null für vollständig<br />
im Schwarzen. In Analogie zu einer Faser im Bündel eines Bildleiters wird in jedem<br />
Schritt aus einem beliebigen, jedoch bezüglich der Fläche über die Schritte konstanten
92 3.5. SUPERPOSITION IN FIBEROPTISCHEN BILDSEQUENZEN<br />
(a) Position 2 1<br />
3<br />
(b) Position 2 2<br />
3<br />
Abbildung 3.29: Zusätzliche Abtastung des Schwarz-Weiß-Übergangs mit dem Feld aus neun<br />
Abtastquadraten der Kantenlänge ∆d (Gesamtfläche Ages) an zwei äquidistant verteilten Zwi-<br />
schenpositionen d/∆d = 2 1<br />
2<br />
3 und d/∆d = 2 3 .<br />
Abbildung 3.30: Funktion der Abtastwerte, die den einzelnen Schritten in Abbildung 3.28<br />
(Kennzeichnung: Raute) und Abbildung 3.29 (Kennzeichnung: Kreis) entnommen sind.<br />
Abtastquadrat der Helligkeitswert entnommen. Diese Werte bilden die rautenförmigen<br />
Stützstellen in Abbildung 3.30, die entsprechend der quadratischen Abtastfläche durch<br />
Linien zu einer stetigen Funktion verbunden sind.<br />
Zwischenabtastung mit gesamter Fläche Die beiden Zwischenschritte in Abbil-<br />
dung 3.29(a) und 3.29(b) zeigen die örtliche Verschiebung der Abtastquadrate um<br />
einen Bruchteil ihrer Kantenlänge und damit die Überabtastung des Übergangs von<br />
Schwarz nach Weiß. An den Stellen d/∆d = 2 1<br />
3<br />
und d/∆d = 2 2<br />
3<br />
wird damit der<br />
Verlauf in Abbildung 3.30 um zwei Werte erweitert, die jeweils mit einem Kreis ge-<br />
kennzeichnet sind. Die ungeraden Werte kommen, wie bereits beschrieben, durch den<br />
Anteil des abtastenden Quadrats zustande, der über der weißen Fläche liegt. Dem ste-<br />
tig erweiterten Kurvenverlauf ist zu entnehmen, dass die zusätzlich eingefügten Ab-<br />
tastwerte keine zusätzliche Information im Sinne einer Änderung des Signalverlaufs<br />
hinzufügen. Lediglich bei fehlerhafter Restaurierung des Signals aus den ursprünglich<br />
bekannten Stützstellen (Rauten) kann die Verschiebung einen Beitrag zur Korrektur<br />
des Signals hin zum korrekten Verlauf liefern.
3.5. SUPERPOSITION IN FIBEROPTISCHEN BILDSEQUENZEN 93<br />
(a) Position 1 (b) Position 2 (c) Position 3 (d) Position 4<br />
Abbildung 3.31: Abtastung eines Schwarz-Weiß-Übergangs mit einem Feld aus neun Abtast-<br />
quadraten der Kantenlänge ∆d/3 (vgl. Abb. 3.27(b)) und damit der effektiven Gesamtfläche<br />
Aeff = Ages/9. Jede Position (1-4) zeigt das Abtastfeld nach einer horizontalen Verschiebung<br />
um den Abstand ∆d.<br />
(a) Position 2 1<br />
3<br />
(b) Position 2 2<br />
3<br />
Abbildung 3.32: Zusätzliche Abtastung des Schwarz-Weiß-Übergangs mit dem Feld aus neun<br />
Abtastquadraten der effektiven Kantenlänge ∆d/9 (Effektive Gesamtfläche Ages/9) an zwei<br />
äquidistant verteilten Zwischenpositionen d/∆d = 2 1<br />
2<br />
3 und d/∆d = 2 3 .<br />
Abtastung mit effektiver Fläche Jetzt werden die gleichen Abtastschritte mit der<br />
verringerten Abtastfläche (vgl. Abb. 3.27(b)) vorgenommen. Abbildung 3.31 zeigt die<br />
Einzelschritte, die bis auf die geringere Fläche, welche den Funktionswert des Abtast-<br />
quadrats repräsentieren, mit denen aus Abbildung 3.28 übereinstimmen. Das spiegelt<br />
sich auch in den durch Rauten gekennzeichneten Stützstellen in Abbildung 3.33 wie-<br />
der.<br />
Zwischenabtastung mit effektiver Fläche Die beiden Zwischenschritte an den Ko-<br />
ordinaten d/∆d = 2 1<br />
2<br />
(vgl. Abb. 3.32(a)) und d/∆d = 2 (vgl. Abb. 3.32(b)) ergeben<br />
3 3<br />
für die betrachteten Abtaststellen andere Werte, als bei der Abtastung mit der Ge-<br />
samtfläche. Im Verlauf von Abbildung 3.33 führen die beiden Werte (Kennzeichnung:<br />
Kreis) zu einem schärferen Kurvenverlauf gegenüber der ursprünglichen gestrichelten<br />
Funktion. Die beiden Werte tragen damit zur Präzisierung der abgetasteten Stufenfunk-<br />
tion bei.<br />
Fazit Die Überlegungen zur Flächenabtastung zeigen, dass sich durch eine Reduzie-<br />
rung der effektiven Abtastbreite um den Faktor Drei und eine geeignete Zwischenab-<br />
tastung die Anzahl der informationstragenden Abtaststellen Nabtast in dieser Ortsrich-<br />
tung um den Faktor Drei steigern lässt. Für die betroffene Fläche kann entsprechend
94 3.5. SUPERPOSITION IN FIBEROPTISCHEN BILDSEQUENZEN<br />
Abbildung 3.33: Funktion der Abtastwerte, die den einzelnen Schritten in Abbildung 3.31<br />
(Kennzeichnung: Raute) und Abbildung 3.32 (Kennzeichnung: Kreis) entnommen sind.<br />
gezeigt werden, dass sich durch die Verringerung der effektiven Abtastfläche um den<br />
Faktor ∆eff die Anzahl der informationstragenden Abtaststellen Nabtast in diesem Be-<br />
reich um den Faktor 1<br />
∆eff<br />
erhöhen lässt. Damit ergibt sich folgender Zusammenhang:<br />
Abtastung mit effektiver Fläche<br />
Aeff = ∆eff · Ages<br />
Geeignete ⇓ Zwischenabtastung<br />
Erhöhung von Nabtast um Faktor 1<br />
∆eff<br />
(3.21)<br />
Wie man sich an der Visualisierung der Zwischenabtastungen in den Abbildungen 3.29<br />
und 3.32 veranschaulichen kann, tragen die gewählten Verschiebungen in optimaler<br />
Weise zu weiteren informationstragenden Stützstellen bei. Weder eine höhere Anzahl<br />
an Zwischenabtastungen noch eine andere Wahl der Abtastkoordinaten können zu wei-<br />
teren Informationen führen. Zwischenabtastungen in äquidistanten Abständen sind in<br />
der Praxis nur näherungsweise durch mechanische Hilfskonstruktionen zu realisieren.<br />
Die Problematik der Bewegungsschätzung wird in einem späteren Abschnitt aufgegrif-<br />
fen.<br />
3.5.2.2 Auswirkung der effektiven Fläche auf die Grenzen der Auflösungssteige-<br />
rung beim Faserbündel<br />
In einem Faserbündel beruht der Effekt einer effektiven Abtastfläche maßgeblich auf<br />
zwei Eigenschaften. Einerseits erzeugt die hexagonale Anordnung der kreisförmigen<br />
Querschnitte eines Glasfaserbündels Zwischenräume, wodurch die effektive Fläche<br />
bereits auf etwa 91% reduziert wird (vgl. Abb. 3.34(a)). Andererseits ist nach der<br />
sog. Kern-Mantel-Relation das Kernglas von einem Mantelmaterial mit höherem Bre-<br />
chungsindex umgeben (vgl. Abschn. 2.3.1), das seinerseits zwar eine geringe Lichtleit-
3.5. SUPERPOSITION IN FIBEROPTISCHEN BILDSEQUENZEN 95<br />
(a) (b)<br />
Abbildung 3.34: Schematischer Blick auf das Ende eines Faserbündels: (a) Kleine Zwischen-<br />
raumfläche bei großer effektiven Abtastfläche bzw. (b) vergleichsweise große Zwischenraum-<br />
fläche bei geringerer effektiver Abtastfläche.<br />
fähigkeit aufweist, allerdings den effektiven Durchmesser der Fasern gegenüber ihrem<br />
Abstand messbar reduziert.<br />
Aus Sicht des Anwenders steht die Möglichkeit der Auflösungssteigerung in Kon-<br />
kurrenz zu dem erreichbaren Signal-zu-Rausch-Verhältnis. Dieses wird durch die Ver-<br />
ringerung der Abtastfläche reduziert und es ist zu vermuten, dass ab einem bestimmten<br />
Punkt das verursachte Rauschen, z.B. der Kamera, den möglichen Gewinn durch eine<br />
Erhöhung der Anzahl der Abtastpunkte kompensiert. Die theoretischen Überlegungen<br />
zu einer optimalen Lösung sind allerdings nicht Gegenstand dieser Arbeit.<br />
Die Recherche in der Literatur bzw. die Nachfrage bei der Schott AG hat keine Hin-<br />
weise auf eine adäquate Angabe auf die beschriebene effektive Abtastfläche ergeben.<br />
Sofern sie zugänglich ist, liefert die Angabe des Kerndurchmessers der Einzelfaser<br />
nach dem mehrmaligen Prozess des Dünnziehens eine gute Näherung für diese Aussa-<br />
ge, falls davon ausgegangen wird, dass sich die Mantelstärke im Verhältnis zum Kern-<br />
durchmesser proportional verringert. Aufgrund der Transparenz des Mantelmaterials<br />
und wegen auftretenden Streulichts kann jedoch nicht unmittelbar vom Kerndurch-<br />
messer auf die effektive Abtastfläche geschlossen werden, wie Messungen bestätigen.<br />
Die Einflussfaktoren der Optik, der Beleuchtung und des Kamerasystems sind viel-<br />
fältig und beeinflussen die Kontrastübergänge in der Abbildung einer Szene auf ein-<br />
zelne Sensorelemente. Deshalb soll im Folgenden für die Endoskopie eine solche ef-<br />
fektive Abtastfläche definiert und bestimmt werden, die ohne optische Verluste ein<br />
äquivalentes Abtastverhalten zeigt, wie die Fasern des betrachteten Bildbündels. Auf-<br />
bauend auf dieser Simulation wird im Anschluss an diesen Abschnitt ein Messverfah-<br />
ren vorgeschlagen, mit dem der Faktor ∆eff für ein Faserbündel abgeschätzt werden
96 3.5. SUPERPOSITION IN FIBEROPTISCHEN BILDSEQUENZEN<br />
(a) (b) (c)<br />
Abbildung 3.35: Fiktives Experiment zur Abtastung eines Balkens durch eine einzelne Faser<br />
mit definiertem effektiven Durchmesser de (a). Kreisfunktion k(x) zur Bestimmung der anteili-<br />
gen Balkenfläche Ab in Abhängigkeit der Position des Balkens in der kreisförmigen Abtastfläche<br />
(b). Ausschnitt einer Dreiecksfläche mit Kennzeichnung des Anteils an der Zwischenraumfläche<br />
Az und dem Anteil an der effektiven Abtastfläche Aeff.<br />
kann. Mit dem ermittelten Faktor sind daraufhin Interpretationen möglich, inwiefern<br />
visuelle Verbesserungen in Bildsequenzen auf Korrekturen von Restaurierungsfehlern<br />
zurückzuführen sind bzw. welcher Anteil an zusätzlichen Abtaststellen tatsächlich auf<br />
zusätzliche Bildinformation zurückzuführen ist. Konkrete Ergebnisse über die Wir-<br />
kung des Verfahrens auf die Bildqualität können den definierten Szenarien und realen<br />
Messungen in Kapitel 4 entnommen werden.<br />
3.5.2.3 Simulation der Flächenabtastung mit effektiver Kreisfläche<br />
Das idealisierte 13 Flächenabtastverhalten einer Faser mit effektivem Radius de/2 wird<br />
durch die Schnittfläche eines schwarzen Balkens der Breite db mit einem Kreis (ef-<br />
fektive Abtastfläche) des Durchmessers de > 0 simuliert (vgl. Abb. 3.35(a)). Diese<br />
Schnittmenge verringert die Beleuchtungsstärke der hellen Kreisfläche um den ent-<br />
sprechenden Anteil des dunklen Balkens.<br />
Dazu definiere k(x, de) eine Kreisfunktion mit Radius de, deren Mittelpunkt bei<br />
(de/2; 0) liegt (vgl. Abb. 3.35(b)):<br />
k(x, de) = −x 2 + de x mit de > 0, 0 ≤ x ≤ de . (3.22)<br />
Die verbleibende normierte Kreisfläche Ab ist die Differenz aus Eins und dem dop-<br />
pelten Integral der Kreisfunktion k(x, de) innerhalb der Begrenzungen des Balkens,<br />
13 Hier: Ohne Unschärfe durch Optik und Übersprechen durch Streulicht
3.5. SUPERPOSITION IN FIBEROPTISCHEN BILDSEQUENZEN 97<br />
Abbildung 3.36: Idealer Verlauf der Beleuchtungsstärke am Eingang einer Faser mit effektivem<br />
Durchmesser de, wenn sie von einem dunklen Balken unterschiedlicher Breite db auf hellem<br />
Untergrund verdeckt wird.<br />
sofern sie im Definitionsbereich von Gleichung (3.22) liegen. Der integrierte Anteil<br />
der Kreisfläche ist auf die effektive Abtastfläche Amax = π de 2 /4 normiert:<br />
Ab(xb, db, de) = (3.23)<br />
= 1 − 2<br />
⎧ xb<br />
0<br />
⎪⎨<br />
·<br />
Amax<br />
⎪⎩<br />
k(x, de) dx für 0 ≤ xb ≤ de und db > xb<br />
Amax/2 für xb ≥ de und db ≥ xb<br />
de<br />
xb−db k(x, de) dx für xb > de und xb − de < db ≤ xb<br />
xb<br />
xb−db k(x, de)<br />
.<br />
dx für 0 < xb < de und 0 < db < xb<br />
0 sonst<br />
Für 0 ≤ xb < de und 0 ≤ db ≤ xb liegen die Integrationsgrenzen zwischen xb − db und<br />
xb und die verbleibende normierte Kreisfläche ergibt<br />
Ab(xb, db, de) = (3.24)<br />
1 − 1<br />
<br />
de 2 <br />
2 x − de<br />
arcsin + 2 (2 x − de) xb <br />
−x (x − de) .<br />
de 2 π<br />
de<br />
xb−db<br />
Abbildung 3.36 zeigt den Verlauf der verbleibenden normierten Kreisfläche Ab für<br />
mehrere Balkenbreiten db/de. Die Kurvenschar macht deutlich, dass für eine geeignete<br />
Balkenbreite db < de, möglichst im Bereich db = de/2, über das Minimum des je-<br />
weiligen Verlaufs eine Aussage über den effektiven Durchmesser de abgeleitet werden<br />
kann. Anschaulich liegt das Minimum an der Position, wo der schwarze Balken ge-
98 3.5. SUPERPOSITION IN FIBEROPTISCHEN BILDSEQUENZEN<br />
nau mittig im Kreis zu liegen kommt. Dieses Minimum Ab,min(db, de) beträgt für ein<br />
gewähltes Verhältnis von db und de mit xb ′ = de<br />
2<br />
+ db<br />
2<br />
Ab,min(db, de) = Ab (xb ′ , db, de) für 0 < db < de (3.25)<br />
Das Minimum Ab,min(db, de < db) beträgt 0, 0 und das Maximum Ab,max der Kurven-<br />
schar liegt generell bei 1, 0. Das Verhältnis δL wird als Quotient von Ab,min(db, de > db)<br />
zu Ab,max in Bezug auf Ab,min(db, de < db) definiert<br />
δL = Ab,min(db, de > db) − Ab,min(db, de < db)<br />
Ab,max − Ab,min(db, de < db)<br />
=<br />
=<br />
Ab,min(db, de > db) =<br />
1 − 1<br />
<br />
2 db<br />
de 2 π<br />
<br />
de 2 − db 2 + 2 de 2 <br />
db<br />
arcsin<br />
de<br />
= (3.26)<br />
<br />
für 0 < db < de .<br />
3.5.3 Messverfahren zur Bestimmung der effektiven Abtastfläche<br />
Da der entscheidende Parameter de den technischen Daten handelsüblicher Endoskope<br />
nicht zu entnehmen ist, wird hier eine Messmethode vorgeschlagen, mit der de abge-<br />
schätzt werden kann. Dazu wird das Abtastverhalten einzelner Fasern beim Überfahren<br />
von schwarzen Balken der Breite db analysiert.<br />
Mit dem Endoskop werden mehrere Bildfolgen eines geeigneten Referenzbalken-<br />
musters (s. Abb. 3.37) aufgenommen. Die Motorbühne, auf der das Balkenmuster liegt,<br />
wird in äquidistanten Abständen im submikrometerbereich verschoben. Da die Para-<br />
meter der optischen Linsen bzw. die Vergrößerungen im optischen Strahlengang des<br />
Endoskops und des Adapters zum Kamerasensor nicht bekannt sind, werden Abtast-<br />
werte aus dem Intensitätsbild des Kamerasensors nahe der optischen Achse entnom-<br />
men und es wird angenommen, dass die radiale Verzerrung (vgl. Abschnitt 2.4.1) die<br />
Bewegung in diesem Bereich nicht signifikant beeinflusst und sich die Bewegungen<br />
zwischen verfahrbarer Bühne, Endoskop und Kamera proportional verhalten. Für die<br />
Charakterisierung der Beleuchtungsstärke einer Faser wird das Mittel der hellsten neun<br />
Bildpunkte innerhalb der Gauss-Verteilung dieser Faser auf dem Intensitätsbild des<br />
Kamerasensors berechnet. Entsprechend den Überlegungen zur Lichtübertragung ei-<br />
ner Glasfaser (vgl. Abschn. 2.3.1) und der Veranschaulichung der Flächenintegration<br />
im vorausgegangenen Abschnitt wird davon ausgegangen, dass nicht die Struktur des<br />
abgebildeten dunklen Balkens, sondern nur die reduzierte Beleuchtungsstärke einen<br />
Einfluss auf die Intensität des austretenden Lichts am Ende einer Faser hat. Auf dem<br />
Sensor führt diese zu einer Gauss-förmigen Verteilung, die durch Integration durch die<br />
einzelnen Sensorelemente in quantisierte Intensitätswerte umgesetzt wird.
3.5. SUPERPOSITION IN FIBEROPTISCHEN BILDSEQUENZEN 99<br />
Abbildung 3.37: Referenzmuster mit dünnen schwarzen Balken unterschiedlicher Breite vor<br />
weißem Hintergrund.<br />
Abtastung eines breiten Balkens Die Messkurve eines breiten Balkens, hier mit<br />
einer Breite von 2.000µm (vgl. (c) in Abb. 3.38) startet bei Ab,max = 95, 1 und fällt<br />
aufgrund der Verdunkelung durch den schwarzen Balken auf das ausgeprägte Mini-<br />
mum bei Ab,min(2.000µm, de ≥ db) = 19, 4. Die Breite des dunklen Balkens ist so zu<br />
wählen, dass dieser auf dem Sensor mehrere Fasern überdeckt. Im Kurvenverlauf ist<br />
dies daran zu erkennen, dass die Intensität für einen gewissen Abschnitt auf dem Mini-<br />
mum verbleibt. Ist dies nicht gewährleistet, muss von Streulicht ausgegangen werden,<br />
das der weiße Bereich im Übergangsbereich auf den dunklen Balken wirft.<br />
Weiterhin kann aus dem Verlauf der zurückgelegte Weg eines Schritts der Motorbüh-<br />
ne bestimmt werden. Dazu werden an die abfallende bzw. an die aufsteigende Flanke<br />
Tangenten angepasst. Der Abstand der Schnittpunkte mit den horizontalen Geraden<br />
durch das Minimum Ab,min(2.000µm, de ≥ db) bzw. durch das Maximum Ab,max (vgl.<br />
Abb. 3.38) entspricht dem zurückgelegten Weg für die Balkenbreite von 2.000µm, hier<br />
5050 Schritte. Der Quotient aus Balkenbreite und Anzahl der benötigten Schritte er-<br />
gibt:<br />
2.000µm<br />
µm<br />
= 0, 396<br />
5.050 Schritte Schritt<br />
Der gemessene Wert von 0, 396 µm<br />
stimmt gut mit der Herstellerangabe von 0, 4µm<br />
Schritt<br />
überein.<br />
Abtastungen eines dünnen Balkens Für den dünnen Balken wird entsprechend den<br />
Erkenntnissen aus der Simulation eine Breite von 200µm gewählt. Aus dem Intensi-<br />
tätsbild des Kamerasensors werden nahe der horizontalen und vertikalen Mitte zwei<br />
in Bewegungsrichtung aneinandergrenzende Fasern ausgewählt. Die beiden Messkur-<br />
ven (a) und (b) in Abbildung 3.38 stellen den Intensitätsverlauf für diese Abtastpunkte<br />
dar. Sie zeigen vergleichbare Werte für Minimum und Maximum und sind unter Be-<br />
rücksichtigung von Bildrauschen und glättenden Einflüssen von Optik und Streulicht<br />
plausibel zu den simulierten Ergebnissen in Abbildung 3.36. Aus dem Verlauf (a) um<br />
die Sensorkoordinate (417;289) wird das Minimum Ab,min(2.000µm, de) = 58, 7 be-
100 3.5. SUPERPOSITION IN FIBEROPTISCHEN BILDSEQUENZEN<br />
Abbildung 3.38: Gemessenes Intensitätsprofil der Abtastung eines schwarzen Balkens der Brei-<br />
te db = 200µm bzw. db = 2.000µm in 7.500 Schritten der Motorbühne mit dem Glasfaseren-<br />
doskop E6 (vgl. Tab. 4.1)<br />
stimmt, wobei die zugehörige effektive Breite de noch nicht bekannt ist. Das Intensi-<br />
tätsverhältnis δL ergibt sich nach der Definition in Gleichung (3.26) zu<br />
δL =<br />
58, 7 − 19, 4<br />
95, 1 − 19, 4<br />
= 0, 519<br />
Durch numerische Iteration wird mit Gleichung (3.26) der Wert für de derart bestimmt,<br />
dass das Intensitätsverhältnis δL der daraus formulierten Funktion Ab(xb, 200µm, de)<br />
das Minimum bei eben 0, 519 zeigt. Abbildung 3.36 veranschaulicht das Ergebnis<br />
durch den Kurvenverlauf mit dem Verhältnis db/de = 0, 39.<br />
Übertragung der Messergebnisse in die Angabe effektive Fläche Mit den Parame-<br />
tern zur Faserdichte im Bildbündel, dem ermittelten Verhältnis db/de und der gewähl-<br />
ten Balkenbreite lässt sich jetzt die effektive Fläche berechnen. Beim verwendeten<br />
Endoskop liegen im Rahmen der Fertigungstoleranz 12.000 Fasern in einem Bündel-<br />
radius von 500µm, was mit Gleichung (3.4) einen Faserabstand von<br />
df = 8, 75µm<br />
ergibt. Wie sich in Abbildung 3.38 aus dem Abstand sf der beiden um einen Faserab-<br />
stand versetzten Messpunkte für den dünnen Balken entnehmen lässt, entspricht dieser<br />
Faserabstand einem Verfahrweg der Bühne in ihrem Bezugssystem von<br />
df| Bühne = 1.475 · 0, 396µm = 584µm .
3.5. SUPERPOSITION IN FIBEROPTISCHEN BILDSEQUENZEN 101<br />
Der effektive Durchmesser de berechnet sich im Bezugssystem der Bühne, wo der<br />
Balken eine Breite von db = 200µm zeigt, aus dem ermittelten Verhältnis db/de =<br />
0, 39 zu<br />
de| Bühne = 200µm<br />
0, 39<br />
= 513µm .<br />
Das ergibt ein Verhältnis von effektivem Durchmesser de zu Faserabstand df von<br />
de<br />
df<br />
= de| Bühne<br />
df| Bühne<br />
= 87, 8% .<br />
In Bezug auf die Querschnittsfläche des Faserbündels resultiert der effektive Durch-<br />
messer einer Faser in<br />
de = 87, 8% · df = 87, 8% · 8, 75µm = 7, 68µm .<br />
Die effektive Abtastfläche Aeff in Bezug auf die volle Fläche Aeff + Az beträgt für<br />
die definierten Längenangaben df und de (Kantenlänge des Dreiecks bzw. Radius der<br />
Kreisausschnitte in Abb. 3.35(c))<br />
Aeff<br />
Aeff + Az<br />
= 1<br />
2<br />
de 2 π<br />
df 2 √ 3<br />
= 69, 9% .<br />
Fazit Die Annahme, dass sich Super Resolution für Glasfaserbündel prinzipiell eig-<br />
net, konnte durch Simulation und Messung bestätigt werden. Die Effektivität der Auf-<br />
lösungssteigerung hängt neben dem Erfolg der Bewegungsschätzung maßgeblich von<br />
der effektiven Fläche des Faserbündels ab. Bei dem untersuchten handelsüblichen Ge-<br />
rät beträgt die effektive Fläche knapp 70% der Gesamtfläche. Die Qualität einer Auf-<br />
nahme in Form seiner informationstragenden Bildpunkte kann dadurch nach Gl. (3.21)<br />
durch äquidistante Zwischenabtastung um etwa 43% erhöht werden. Für die Aufnah-<br />
men mit der Endoskopanordnung aus diesem Abschnitt mit 12.000 Fasern bedeutet<br />
dies eine Erhöhung der Anzahl an informationstragenden Stützstellen von 12.000 auf<br />
max. 17.160. Bildverbesserungen, die darüber hinaus visuell wahrgenommen werden,<br />
beruhen, wie oben beschrieben, auf der Korrektur von Interpolationsartefakten.<br />
3.5.4 Vorteile der Superposition für die Endoskopie<br />
Der auf hexagonalähnliche Gitterstrukturen angepasste und optimierte Ansatz der Su-<br />
perposition hat eine Reihe von Vorzügen, die besonders den Anforderungen der Faser-<br />
endoskopie entgegenkommen.
102 3.5. SUPERPOSITION IN FIBEROPTISCHEN BILDSEQUENZEN<br />
Präzision Zur Komposition des hoch auflösenden Gitters werden statt interpolierten<br />
Aufnahmen (bedingt durch den Auflösungsunterschied zwischen Kamera und Faser-<br />
bündel) explizit die Helligkeiten der Faserzentren verwendet. Die Amplituden werden<br />
subpixelgenau durch eingepasste charakteristische Funktionen bestimmt.<br />
Robustheit Konstruktiv bedingte Unregelmäßigkeiten der Wabenstruktur haben kei-<br />
nen negativen Einfluss auf das Ergebnis. Die abschließende Interpolation berücksich-<br />
tigt die jeweils nächsten Nachbarn in baryzentrischer Gewichtung.<br />
Verzerrungstoleranz Das Verfahren toleriert nicht-globale Bewegungen, wie sie be-<br />
sonders bei weitwinkeligen Endoskopoptiken auftreten. Stark variierende und verzerrte<br />
Bewegungen abseits der optischen Achse müssen nicht perspektivisch modelliert wer-<br />
den. Zur Ergänzung des HR-Bilds können lokale Bildbereiche oder sogar nur einzelne<br />
Bildpunkte verwendet werden. So kann die Bewegungsdetektion auf lokalen Merkma-<br />
len arbeiten und bleibt nahezu unabhängig von globalen Bewegungsmustern. Letztere<br />
können gemäß den Ausführungen in Abschnitt 2.6.6 in der Endoskopie nur unter ge-<br />
wissen, meist unrealistischen Voraussetzungen modelliert werden.<br />
Komplexität Der Grad der Detailsteigerung kann bis zu seiner Grenze (vgl. Ab-<br />
schn. 3.5.2) flexibel gegen den erforderlichen Berechnungsaufwand eingetauscht wer-<br />
den, da mit Hilfe einer Bewegungsschätzung sukzessive weitere Bildbereiche unter-<br />
sucht bzw. ausgelassen werden können sowie weitere angrenzende Bilder mit ein- oder<br />
ausgeschlossen werden können.<br />
Stabilität Abgesehen von der hohen Störanfälligkeit aufgrund fehlerhafter Bewe-<br />
gungsvektoren gibt es keine Mehrdeutigkeiten beim Aufbau der resultierenden HR-<br />
Daten.<br />
3.5.5 Bewegungsschätzung<br />
In der Bildverarbeitung existieren viele Algorithmen zur Registrierung von Bildaus-<br />
schnitten oder ganzen Bildern. Ein guter Überblick ist im Rahmen der Algorithmen<br />
zur Auflösungssteigerung für die Mikroskopie in [Han07b] zu finden. Kann wie im An-<br />
wendungsfall der Endoskopie nicht von einer globalen Bewegung ausgegangen werden
3.5. SUPERPOSITION IN FIBEROPTISCHEN BILDSEQUENZEN 103<br />
oder lässt sich diese nicht zufriedenstellend modellieren, so bietet der merkmalsba-<br />
sierte KLT-Tracking-Ansatz zur Bewegungsdetektion von Kanade, Lucas und Tomasi<br />
[TK91, ST94, LK81] einen praktischen Ausweg. Er sieht vor, lokale Bereiche als af-<br />
fin transformierbar zu approximieren und diese in zeitlich benachbarten Bildern wie-<br />
der aufzufinden. Einzelne Bereiche werden dabei als Regionen um Merkmale betrach-<br />
tet, die in definiertem Mindestabstand gesucht und positioniert werden. Als Merkmale<br />
werden Bildbereiche mit hohem Kontrast im Sinne eines großen minimalen Eigenvek-<br />
tors in der Strukturmatrix in Betracht gezogen. Aufgabe des Tracking-Algorithmus ist<br />
es nun, die Verschiebungen dieser Merkmale in benachbarten Bildern subfasergenau<br />
zu schätzen. Der KLT-Tracker minimiert dazu die Abweichung zwischen variablen<br />
Bildausschnitten, um so im Fall begrenzter Bewegung zu einer Schätzung des Bewe-<br />
gungsvektors für dieses Merkmal zu gelangen.<br />
Merkmale werden meist über den Kontrast als Auffälligkeiten in der Textur oder<br />
Geometrie von Objekten definiert. Deshalb wirkt sich die kontrastreiche Wabenstruk-<br />
tur der Faseroptik störend auf die Merkmalssuche und -registrierung aus. Die verwen-<br />
deten Bildsequenzen werden daher für die Bewegungsschätzung vorab durch Filte-<br />
rung oder Interpolation (vgl. Abschn. 3.2) von den Strukturartefakten befreit. Weiter-<br />
hin müssen bestimmte Bildbereiche für die Wahl und Weiterverfolgung von Merk-<br />
malen ausgeschlossen werden. Das Einbringen dieses Vorwissens ist nötig, damit der<br />
Tracking-Algorithmus unterschiedliche Bildbereiche hinsichtlich deren Brauchbarkeit<br />
für den spezifischen Anwendungsfall unterscheiden kann. In inhaltslosen Bereichen<br />
außerhalb der Apertur dürfen ebenso wenig Merkmale gesetzt oder registriert werden,<br />
wie in der Nähe von zentralen Bereichen senkrecht zur Bewegungsachse, wo Merk-<br />
male zu geringe Verschiebungen aufweisen, falls das Endoskop beispielsweise in einer<br />
Bohrung geführt wird.<br />
3.5.6 Umsetzung und Integration in die Bildrestaurierung<br />
Der Ansatz zur Auflösungssteigerung ist eng in die physikalisch motivierte Interpola-<br />
tion aus Abschnitt 3.2.2 integriert. Die ergänzenden Schritte sind im Ablaufdiagramm<br />
in Abbildung 3.39 skizziert. Um die Übersichtlichkeit zu wahren, ist der Einfluss der<br />
Faserregistrierung auf die Aufbereitung (im Fall der Interpolation) sowie die mögliche<br />
Nachkalibrierung (vgl. Abb. 3.14) nicht mit in das Diagramm aufgenommen. Ohne<br />
Beschränkung der Allgemeinheit wird der Vorgang der Auflösungssteigerung für ein<br />
Basisbild LR Έn aus einer LR-Bildsequenz mit (NI + 1) Aufnahmen ausgeführt. Der<br />
Basisindex ˆn ist frei wählbar und unterteilt die Sequenz in einen zeitlich zurücklie-<br />
genden Abschnitt { LR Έn−z; . . . ; LR Έn−1} und einen zeitlich vorausliegenden Abschnitt
104 3.5. SUPERPOSITION IN FIBEROPTISCHEN BILDSEQUENZEN<br />
Abbildung 3.39: Ablauf der Auflösungssteigerung nach dem vorgestellten Verfahren. Aus der<br />
LR-Sequenz von Eingangsbildern wird das Intensitätsgitter des LR-Basisbilds durch Details<br />
der benachbarten Bilder ergänzt und durch Interpolation in das HR-Bild überführt. Für die<br />
Faserregistrierung wird wie bei der Interpolation ein separates Referenzbild ausgewertet.<br />
{ LR Έn+1; . . . ; LR Έn+v}. Ziel der Auflösungssteigerung ist die Ergänzung des Basisbilds<br />
um nichtredundante Details aus den z + v = NI benachbarten Bildern der LR-Sequenz,<br />
um durch abschließende HR-Interpolation ein korrespondierendes HR-Bild zu gene-<br />
rieren.<br />
Details der einzelnen Schritte:<br />
1. Faserregistrierung<br />
Nach einer adaptiven Vorverarbeitung der Bilddaten zur zuverlässigen Unter-<br />
scheidung der Faserzentren pf werden diese subpixelgenau lokalisiert und in<br />
Form eines triangulierten Datengitters D als Lookup-Tabelle bereitgestellt. Das<br />
Vorgehen dabei entspricht dem ersten Schritt der physikalisch motivierten Inter-<br />
polation in Abschnitt 3.2.2.1. Das LR-Gitter D hat definierte Nachbarschaftsbe-<br />
ziehungen, die ein nachträgliches Einfügen von weiteren Stützstellen an beliebi-<br />
gen Positionen erlauben.<br />
2. Bereitstellung des HR-Gitters<br />
In diesem Schritt wird ein kontinuierliches HR-Gitter mit Basiseinträgen aus D<br />
vorbereitet. Dazu wird das LR-Basisbild LR Έn an den Stützstellen pf ausgewertet.<br />
Die konstanten Parameter (Position µx, µy sowie Verteilungsform σx, σy) werden<br />
aus dem Schritt der Faserregistrierung übernommen. Lediglich die Amplituden<br />
müssen aus dem Basisbild bestimmt und den entsprechenden Pixel-Koordinaten
3.5. SUPERPOSITION IN FIBEROPTISCHEN BILDSEQUENZEN 105<br />
der triangulierten Datenstruktur aus Schritt 1 hinzugefügt werden. Das resul-<br />
tierende Datengitter Dˆn trägt den Index des Bilds mit den zugrunde liegenden<br />
Intensitäten, hier also ˆn.<br />
3. Aufbereitung der Eingangssequenz<br />
Für ein subpixelgenaues Ergebnis der nachfolgenden Bewegungsschätzung wird<br />
die Wabenstruktur aus den Bildern der Eingangssequenz entfernt. Obwohl sich<br />
aufgrund des bereitgestellten Gitters nach der Faserregistrierung die Interpola-<br />
tion als Verfahren anbietet, kommt alternativ auch die optimierte Filterung aus<br />
Abschnitt 3.2.1 in Frage.<br />
4. Lokale Bewegungsschätzung<br />
In der LR-Sequenz aus aufbereiteten Eingangsbildern werden nun gemeinsame<br />
Merkmale in Form von Bereichen mit hinreichender Ähnlichkeit gesucht. Dazu<br />
wird die in Abschnitt 3.5.5 beschriebene iterative Implementierung des KLT-<br />
Tracking-Ansatzes unter Nutzung von mehreren Auflösungsstufen genutzt. Die<br />
maximale Anzahl der verwendeten Merkmale wird auf NM beschränkt. Die ma-<br />
ximal NM · NI registrierten Vektoren der Bewegungungen werden als Punktpaare<br />
{pˆn,m; pn,m} gespeichert, wobei die erste Position das m-te Merkmal im Basis-<br />
bild (Index ˆn) und die zweite dieses im n-ten Bild der angrenzenden Sequenz<br />
bezeichnet.<br />
Für die Merkmalsregistrierung zeigt Abbildung 3.40 zwei unterschiedliche Track-<br />
ing-Modi, das direkte bzw. das sequentielle Vorgehen:<br />
• Direkt Die Merkmale werden alle aus dem Basisbild entnommen und<br />
die Korrespondenzfindung erfolgt direkt zu den einzelnen benachbarten<br />
Bildern. Der Vorteil ist eine höhere Präzision, da keine Folgefehler durch<br />
ungenaue Korrespondenzfindung auftreten können.<br />
• Sequentiell Die Merkmale werden einmalig im Basisbild bestimmt und<br />
sodann sukzessive in beide Richtungen der benachbarten Bilder weiter-<br />
verfolgt. Der Vorteil ist eine schnellere Bearbeitung und Auffindung von<br />
Merkmalen, da der Aufenthaltsort durch Bewegungsschätzung eingegrenzt<br />
werden kann. Des weiteren können größere Entfernungen von Merkmalen<br />
verfolgt werden, was im direkten Modus früher zu Schwierigkeiten führt.<br />
5. Erweiterung des HR-Gitters<br />
Für die NI diskrete LR-Bildern um das Basisbild herum werden nun von Stel-<br />
len sicher georteter Verschiebung die nächstliegenden Intensitäten an die bewe-<br />
gungsinvertierten Positionen als Stützstellen in das HR-Gitter eingebracht. Die
106 3.5. SUPERPOSITION IN FIBEROPTISCHEN BILDSEQUENZEN<br />
(a) Direkt<br />
(b) Sequentiell<br />
Abbildung 3.40: Veranschaulichung der unterschiedlichen Modi der Korrespondenzfindung.<br />
Beim direkten Vorgehen werden die Merkmale aus dem Basisbild unmittelbar zu den einzelnen<br />
Bildern registriert. Im sequentiellen Modus werden die Merkmale von Bild zu Bild in zeitlicher<br />
Abfolge weiterverfolgt.<br />
lokalen Bewegungsinformationen können auch dazu verwendet werden, ganze<br />
Gitterausschnitte bewegungskompensiert in das HR-Gitter einzufügen, wobei<br />
gegebenenfalls eine affine Verzerrung des Gitterbereichs berücksichtigt werden<br />
muss. In beiden Fällen werden die Gitterdichte und der Detailgehalt des Gitters<br />
erhöht.<br />
Formal wird die Ergänzung des HR-Gitters am Beispiel von drei nächsten Faser-<br />
zentren formuliert. Für jedes registrierte Merkmal pn,m werden die drei nächsten<br />
Nachbarn pf ,1, pf ,2 und pf ,3 im Gitter gewählt, weil für sie die Intensität der<br />
Stützstelle direkt bestimmbar ist. Die entsprechenden Positionen ˆpn,m im Ba-<br />
sisbild werden durch Subtraktion mit dem Bewegungsvektor (pn,m − pˆn,m) des<br />
registrierten Merkmalpaars gebildet:<br />
⎛ ⎞ ⎛ ⎞<br />
ˆp1 pf ,1<br />
⎜ ⎟ ⎜ ⎟<br />
⎝ˆp2⎠<br />
= ⎝pf<br />
,2⎠<br />
ˆp3<br />
n,m<br />
pf ,3<br />
n,m<br />
⎛ ⎞<br />
1 <br />
⎜ ⎟<br />
− ⎝1⎠<br />
·<br />
1<br />
pn,m − pˆn,m<br />
<br />
. (3.27)<br />
Jede bewegungskompensierte Stützstelle, die nicht auf eine bereits vorhande-<br />
ne Position abgebildet wird, trägt mit weiterer Abtastinformation zum Aufbau<br />
des HR-Bilds bei. Die in diesem Fall maximal 3 · NM zusätzlichen Intensitätsin-
3.5. SUPERPOSITION IN FIBEROPTISCHEN BILDSEQUENZEN 107<br />
(a) (b) (c)<br />
Abbildung 3.41: Wirkungsweise des vorgestellten Verfahrens der Auflösungssteigerung bei<br />
präziser Bewegungsschätzung in faseroptischen Aufnahmen. Bildausschnitt im Original (a),<br />
interpoliert (b) und als Superposition aus 10 benachbarten Aufnahmen (c).<br />
formationen für das Basisbild aus dem aktuellen Bild mit dem Index n werden<br />
als Menge R NM<br />
n zusammengefasst. Das resultierende HR-Gitter HR Dˆn setzt sich<br />
letztendlich aus der Vereinigung aller zusätzlichen Stützstellenmengen R mit<br />
dem Grundgitter Dˆn zusammen:<br />
6. HR 14 -Interpolation<br />
NI <br />
Dˆn ∪ R<br />
i=1<br />
NM<br />
i ↦→ HR Dˆn .<br />
Im letzten Schritt vereint sich der Ansatz der Auflösungssteigerung wieder mit<br />
der physikalisch motivierten Interpolation (Operatorsymbol I), indem das Gitter<br />
wiederum in eine kartesische Abbildung HR I (NI,NM) überführt wird:<br />
<br />
HR (NI,NM) HRDˆn<br />
I = I<br />
. (3.28)<br />
Der Unterschied liegt hier in der Datenbasis in Form des HR-Intensitätsgitters<br />
HR I (NI,NM) , das nach der Ergänzung nun eine vergleichsweise hohe Stützstellen-<br />
dichte aufweist. Der Superskript (NI, NM) in der Schreibweise des HR-Bilds ent-<br />
hält die Information über die Anzahl NI der einbezogenen benachbarten Bilder,<br />
sowie die Anahl NM der maximal gesetzten und registrierten Merkmale.<br />
Abbildung 3.41 zeigt am vergrößerten Ausschnitt einer Aufnahme durch ein Glas-<br />
faserendoskop die Wirkungsweise des Verfahrens. In 3.41(a) ist die Wabenstruktur<br />
deutlich zu erkennen, die in 3.41(b) durch Interpolation reduziert ist, um Bewegungen<br />
in der Sequenz besser detektieren zu können. 3.41(c) zeigt das Ergebnis der Superpo-<br />
sition nach sequentieller Überlagerung von Merkmalen aus 12 Aufnahmen.<br />
14 engl. High Resolution. Hier: mit hoher Auflösung
108 3.5. SUPERPOSITION IN FIBEROPTISCHEN BILDSEQUENZEN<br />
3.5.7 Abbruchkriterien<br />
Der dynamische Ansatz des Algorithmus kann zu einer unerwünscht langen Berech-<br />
nungszeit führen, sofern keine geeigneten Abbruchkriterien definiert werden. Solan-<br />
ge der Tracking-Algorithmus bestehende Merkmale in weiteren benachbarten Bildern<br />
auffindet oder weitere registrierbare Merkmale in den Bildern gesetzt werden können,<br />
lassen sich endlos weitere Stützstellen im Basisbild hinzufügen, obwohl diese entwe-<br />
der keine oder sogar falsche Information liefern. Da die Zuverlässigkeit und Präzision<br />
des Tracking-Algorithmus bei zu geringem Signal-zu-Rausch-Abstand bei der Wahl<br />
neuer Merkmale oder ihrer Registrierung in anderen Bildern an ihre Grenzen stößt,<br />
müssen andere sinnvolle Grenzen definiert werden.<br />
Aus diesem Grund werden zwei Abbruchkriterien definiert, bei deren Eintreten die<br />
Erweiterung des HR-Gitters gestoppt wird. Das ist zum einen eine maximale Berech-<br />
nungszeit- bzw. komplexität und zum anderen eine minimale Qualitätsverbesserung im<br />
HR-Bild. Für das erste Kriterium kann sowohl eine definierte Zeit als auch ein defi-<br />
nierter Merkmalsumfang in einer bestimmten Menge von Bildern in Betracht gezogen<br />
werden. Die Qualitätsverbesserung kann entweder über die Anzahl von zusätzlichen<br />
Details im HR-Datengitter oder über Differenzmaße im Vergleich zum LR-Bild über-<br />
prüft werden. Generell muss jedoch auf die grundsätzliche Grenze nach dem Prinzip<br />
der Flächenabtastung geachtet werden, wie sie in Abschnitt 3.5.2 untersucht und defi-<br />
niert wurde. Demnach bildet das Verhältnis zwischen effektiver Abtastfläche und der<br />
Gesamtfläche der Faseranordnung eine fundamentale Grenze für die Effektivität einer<br />
Bildüberlagerung hinsichtlich der Auflösungssteigerung.<br />
3.5.8 Erweiterung für Farbe<br />
Abschnitt 3.3 hat auf die Bedeutung der Farbe in der Endoskopie hingewiesen und<br />
einen Ansatz zur Struktur- und Artefaktreduktion für die Einzelbildrestaurierung prä-<br />
sentiert. Die besondere Berücksichtigung der physikalischen Anordnung von Farbfil-<br />
termosaiken in Einchip-Kameras in Kombination mit der Information über die subpi-<br />
xelgenaue Position von Faserabbildungen auf der Sensorfläche ermöglicht eine Kor-<br />
rektur der sonst verfälschten Farbanteile der einzelnen Faserbereiche.<br />
Da der Ansatz zur Auflösungssteigerung die Eingangsbilder lediglich an den subpi-<br />
xelgenau registrierten Stützstellen abtastet, um Information über den Abtastpunkt zu<br />
erhalten, kann die Farberweiterung hier direkt übernommen werden. Die triangulierte<br />
Datenstruktur enthält dann statt Grauwerten Farbwerte und die HR-Interpolation am<br />
Ende findet auf mehreren Kanälen statt. Wegen dem Umfang ist der Ansatz der Auflö-
3.6. DEFINITION VON GÜTEKRITERIEN ZUR EVALUIERUNG 109<br />
sungssteigerung hier nur für einkanalige Eingangbilder gezeigt, lässt sich jedoch wie<br />
beschrieben auf weitere Farbkanäle erweitern, sofern die Voraussetzungen für die Far-<br />
binterpolation, u.a. Zugriff auf Rohdaten der Kamera, gegeben sind.<br />
3.6 Definition von Gütekriterien zur Evaluierung<br />
Die Bewertung der Qualität von Bildverarbeitungsalgorithmen erfordert in der Regel<br />
einen inhaltlichen oder semantischen Vergleich eines errechneten Ergebnisbilds mit<br />
einem idealen Bild. Trotz zahlreicher Versuche in der Literatur ist die Methodik zur<br />
Evaluierung keinesfalls einheitlich. Prinzipielle Unterschiede existieren in der Wahl<br />
des Vergleichsbilds. Vorgeschlagen wird u. a., dieses als Grundwahrheit vor einer Mo-<br />
dellierung der betrachteten Effekte oder durch eine alternative Aufnahme mit einem<br />
definierten Referenzsystem bereitzustellen. Die Auswertung in diesem Kapitel wird<br />
darüber hinaus noch durch eine geometrische Analyse von Raumrekonstruktionen er-<br />
gänzt, die ein konkretes Forschungsgebiet in der Endoskopie darstellt.<br />
Zur objektiven Beurteilung der vorgestellten Verfahren werden unterschiedliche<br />
Gütekriterien definiert. Im Kontext dieser Arbeit spielen dabei in erster Linie visuell<br />
wahrnehmbare Veränderungen von Bildstrukturen eine Rolle. Die Möglichkeiten eines<br />
Vergleichs sind vielfältig und jeder Ansatz wird mehr oder weniger abweichende Er-<br />
gebnisse zeigen. Deshalb ist eine vollständige Betrachtung ausgeschlossen. Im Gegen-<br />
satz zur Auswertung von Grauwertbildern muss beim Vergleich von Farbbildern die<br />
Erweiterung des ursprünglichen Farbraums der Grundwahrheit berücksichtigt werden.<br />
Die zugehörigen Theorien und Ansätze erweiterter Metriken für Farbbilder [HPP04]<br />
würden den Rahmen dieser Arbeit sprengen und werden daher weiterführenden Unter-<br />
suchungen überlassen.<br />
Für die Auswertung werden einige Differenz- und Ähnlichkeitsmaße verwendet,<br />
die dem Standard in der Literatur folgen [Jai89, TV98, WBSS04, CV00]. Darüber hin-<br />
aus sind aus der Literatur noch eine Vielzahl weiterer Möglichkeiten bekannt, zwei Bil-<br />
der miteinander zu vergleichen [FBPD06]. Dazu zählen u.a. die normalisierte Kreuz-<br />
korrelation (NCC), die Merkmalsintensität (PI), die Gradientenkorrelation (GC) oder<br />
die Gradientendifferenz (GD). Speziell für den vorliegenden Anwendungskontext der<br />
Faserendoskopie wurde darüber hinaus ein Qualitätsindikator bezüglich Glättung und<br />
Detailerhaltung in USAF-Testbildern definiert sowie andererseits quantitative Aussa-<br />
gen aus der Raumrekonstruktion von zylinderartigen Objekten gezogen.
110 3.6. DEFINITION VON GÜTEKRITERIEN ZUR EVALUIERUNG<br />
3.6.1 Glättung vs. Detailerhaltung im USAF-Testbild (QSR)<br />
Die Verfahren zur Restaurierung von faseroptisch gewonnenen Bilddaten unterliegen<br />
stets einem Kompromiss zwischen Glättung und Detailerhaltung. Eine Untersuchung<br />
z. B. für die Filterung muss daher sowohl den positiven Effekt der Rasterreduktion<br />
als auch den unerwünschten Einfluss der Unschärfe berücksichtigen. Diese Dualität<br />
kann prädestiniert in der Abbildung des USAF-Testbilds ausgewertet werden. Dieses<br />
Auflösungsmuster zeigt quadratische Gruppen von Linienpaaren, die schneckenförmig<br />
immer schmäler und dichter angeordnet sind. Es wird ein Güteindikator QSR 15 defi-<br />
niert, der sich aus zwei Komponenten zusammensetzt, der varianzbasierten Glattheit<br />
QS und einer Rayleigh-ähnlichen Aussage zur Linientrennung QR. Der Einfluss der<br />
beiden Komponenten wird durch einen heuristisch bestimmten Gewichtungsfaktor γ<br />
vorgegeben. Die Werte für QS und QS werden aus der Kombination von bearbeiteter<br />
und unbearbeiteter Aufnahme des USAF-Testbilds, IUSAF bzw. ÎUSAF, bestimmt:<br />
• Varianzbasierte Glattheit QS<br />
Die Effektivität der Glättung wird über die Grauwertvarianz in einem bestimm-<br />
ten Evaluierungsbereich ΩS (vgl. Abb. 3.42) der Abbildung definiert, der in der<br />
ursprünglichen Szene einen konstanten Intensitätswert aufweist. Diese Varianz<br />
wird auf die verbleibende Wabenstruktur nach Anwendung der Filter zurück-<br />
geführt. Zur Mittelwertbildung wird gefordert, dass sich der Bildbereich über<br />
mehrere Fasern in der ungefilterten Version erstreckt. Als Indikator QS für die<br />
Glattheit wird die normalisierte Standardabweichung (Wertebereich [0; 1]) des<br />
Evaluierungsbereichs ΩS von Eins abgezogen. Mit σ0 bzw. µ0 als Standardab-<br />
weichung bzw. Mittelwert in der Region ΩS des ungefilterten Abbilds ÎUSAF(i, j)<br />
und σs bzw. µs als Standardabweichung bzw. Mittelwert in der gleichen Region<br />
des gefilterten Abbilds IUSAF(i, j) ist QS definiert als<br />
QS = 1 − σs<br />
<br />
<br />
<br />
= 1 − <br />
<br />
σ0<br />
<br />
ÎUSAF(i, j) − ˆµs<br />
(i,j)∈ΩS (IUSAF(i, j) − µs) 2<br />
(i,j)∈ΩS<br />
2<br />
(3.29)<br />
mit QS ∈ [0; 1] . (3.30)<br />
Ein hoher Wert von QS korrespondiert mit einer hohen Glattheit des betrachteten<br />
Ausschnitts.<br />
• Rayleigh-ähnliches Linienkriterium QR<br />
Der Evaluierungsbereich ΩR in Abbildung 3.42 ist senkrecht entlang derjenigen<br />
15 QSR: (Quality regarding smoothness and Rayleigh based criterion) Güteindikator, der über die<br />
Glättung (Smoothing) und eine Rayleigh basierte Detailerhaltung im USAF-Testbild definiert ist
3.6. DEFINITION VON GÜTEKRITERIEN ZUR EVALUIERUNG 111<br />
Abbildung 3.42: Testbild (oben) mit Abtastlinie ssl (unten) zur Veranschaulichung des Gütein-<br />
dikators QSR. Der Evaluierungsbereich ΩR verläuft senkrecht entlang der dichtesten Linien-<br />
gruppe, die noch ohne Zweideutigkeit bzw. Zerstörung durch Alias dargestellt wird und trägt<br />
zum Rayleigh-ähnlichen Kriterium zur Detailerhaltung bei. Der homogene Evaluierungsbe-<br />
reich ΩS wird genutzt, um die Varianz die Reststruktur bzw. die Glattheit der Faserstruktur zu<br />
bestimmen.<br />
Anordnung von Linienpaaren gewählt, in der sich sowohl noch sichtbar gut se-<br />
parierbare Linienpaare als auch schon fehlerhafte (von Alias gekennzeichnete)<br />
befinden. Aus diesem Bereich ΩR wird durch Reihenmittelung eine robuste Ab-<br />
tastlinie ssl(k) erzeugt (vgl. Abb. 3.42, unten). Die Anzahl der Spalten, ΩR,WR<br />
wird dabei in der Größenordnung eines Faserabstands in Sensorelementen ge-<br />
wählt:<br />
ssl(k) = 1<br />
<br />
WR<br />
j∈ΩR,WR (IUSAF(k, j)) für k ∈ ΩR,HR , (3.31)<br />
wobei ΩR,WR und ΩR,HR die Koordinaten der Pixel in einer der indizierten Reihen<br />
bzw. Spalten bezeichnen. Im Beispiel der Abbildung 3.42 sind in der Abtastlinie<br />
die ersten drei Paare ωR,1, ωR,2 und ωR,3 noch eindeutig trennbar, wobei die letz-<br />
ten beiden, ωR,4 und ωR,5 durch Alias einen fehlerhaften Verlauf zeigen. Aus den
112 3.6. DEFINITION VON GÜTEKRITERIEN ZUR EVALUIERUNG<br />
trennbaren Linienpaaren wird von demjenigen mit der höchsten Dichte (hier:<br />
ˆωR = ωR,3) der minimale und der maximale Wert bestimmt:<br />
ssl,min = min {ssl(k)}| k∈ˆωR und (3.32)<br />
ssl,max = max {ssl(k)}| k∈ˆωR . (3.33)<br />
Die Güte der Linientrennung QR wird in Anlehnung an das Rayleigh-Kriterium<br />
zur Separierbarkeit von Spektrallinien definiert. Es setzt die Differenz zwischen<br />
den beiden Werten der Gleichungen (3.32) und (3.33) ins Verhältnis zum Maxi-<br />
mum:<br />
QR = ssl,max − ssl,min<br />
ssl,max<br />
. (3.34)<br />
Die Gleichungen (3.30) und (3.34) bilden ihren charakteristischen Wert jeweils auf den<br />
Bereich [0; 1] ab. Mit ihnen wird der gewichtete Güteindikator QSR gebildet:<br />
QSR = γ · QS + (1 − γ) · QR mit 0 ≤ γ ≤ 1 . (3.35)<br />
γ gewichtet den Einfluss der Wabenreduktion gegenüber der Bedeutung der Detailer-<br />
haltung. Ein hoher Wert QSR indiziert ein gutes Ergebnis hinsichtlich der gewählten<br />
Gewichtung zwischen den genannten Einflussgrößen. Für γ = 1 bescheinigt ein hoher<br />
Wert QSR eine gute Detailerhaltung, ohne die Glättung zu berücksichtigen. Für γ = 0<br />
wird QSR lediglich vom Erfolg der Glättung beeinflusst. Als geeigneter wird daher ein<br />
Kompromiss zwischen Null und Eins gewählt (vgl. Abschn. 4.3).<br />
3.6.2 Differenzmaße<br />
Differenzmaße vergleichen im Kontext dieser Arbeit ein verändertes Bild punktwei-<br />
se mit dem ursprünglichen Szenenbild, der sog. Grundwahrheit. Weil der aufwändige<br />
und unpräzise Schritt der Bildregistrierung und der damit verbundenen Wahl eines<br />
geeigneten Ausschnitts nach der Transformation vermieden werden soll, setzen die-<br />
se Maße eine exakte örtliche Übereinstimmung von Bildinhalten zwischen Eingangs-<br />
und Ausgangsbild voraus. Da diese Voraussetzung zwischen der Objektszene und einer<br />
restaurierten Abbildung in der Realität nicht gegeben ist, werden die Effekte der Fa-<br />
serabbildung und die zugehörige Grundwahrheit mit dem Modell aus Abschnitt 3.1.1<br />
nachgebildet. Nach Aufbereitung mit den zu untersuchenden Verfahren können die<br />
Ergebnisse mit den Originaldaten verglichen werden (vgl. Abb. 3.43).
3.6. DEFINITION VON GÜTEKRITERIEN ZUR EVALUIERUNG 113<br />
Abbildung 3.43: Vorgehen zum Vergleich eines beliebigen Bilds, welches von dem Übertra-<br />
gungssystem unbeeinflusst bleibt, mit seinem aufbereiteten faseroptischen Modell.<br />
Mittlere Betragsdifferenz (MAD)<br />
Ein einfaches Maß zur Quantifizierung der Abweichung zweier Signale Î und I ist das<br />
Mittel der Summe aus den Beträgen der Differenzen ihrer Abtastwerte, auch MAD 16<br />
abgekürzt:<br />
MAD(Î, I) = 1<br />
|R|<br />
<br />
(x,y)∈R<br />
<br />
Î(x, y) − I(x, y) . (3.36)<br />
Hierbei ist |R| die Mächtigkeit der Menge R, also Anzahl der Pixel innerhalb des<br />
berücksichtigten Bereichs.<br />
Wurzel der mittleren quadratischen Abweichung (RMSE)<br />
Die Berechnung der MAD gewichtet alle einfließenden Fehler linear und toleriert da-<br />
mit im Vergleich zur quadratischen Gewichtung mehr Ausreißer in der Verteilung. Um<br />
diesen Effekt berücksichtigen und beobachten zu können, wird zusätzlich die Wurzel<br />
der mittleren quadratischen Abweichung (RMSE 17 ) für den Vergleich zwischen Szene<br />
I und Faserabbild Î herangezogen:<br />
RMSE(Î, I) = 1<br />
<br />
(Î(x, y) − I(x, y))<br />
|R|<br />
(x,y)∈R<br />
2 . (3.37)<br />
Die Wurzelfunktion in der Berechnung stellt ein aussagekräftigeres Ergebnis in der<br />
Einheit Grauwert sicher.<br />
16 MAD: (Mean absolute difference) Mittel der Summe aus den Beträgen der Differenzen<br />
17 RMSE: Root mean square error (Wurzel der mittleren quadratischen Abweichung)
114 3.6. DEFINITION VON GÜTEKRITERIEN ZUR EVALUIERUNG<br />
Spitzensignal-zu-Rausch-Verhältnis (PSNR)<br />
Auf der Basis des RMSE wird das Spitzensignal-zu-Rausch-Verhältnis (PSNR 18 ) de-<br />
finiert. Dazu wird der Fehler, hier als Rauschen interpretiert, ins Verhältnis zum Spit-<br />
zenwert des Signals gesetzt und logarithmisch ausgegeben:<br />
PSNR(Î, I) = 20 log 10<br />
Imax<br />
RMSE(Î, I)<br />
. (3.38)<br />
Für Grauwertbilder kann Imax bei einer Quantisierung von acht Bit maximal 255 betra-<br />
gen. Je größer die Ähnlichkeit der verglichenen Bilder Î und I ist, desto höher ist der<br />
in Dezibel (dB) gemessene PSNR-Wert.<br />
3.6.3 Ähnlichkeitsmaße<br />
Ähnlichkeitsmaße beurteilen den Bildinhalt nicht ausschließlich durch Differenzbil-<br />
dung einzelner Bildpunkte, sondern beziehen Strukturmittelwerte und statistische Hi-<br />
stogrammverteilungen in den Vergleich mit ein. Als Ähnlichkeitsmaß wird neben der<br />
strukturellen Ähnlichkeit auch die auf die Bildverarbeitung übertragene Definition der<br />
Transinformation verwendet. Erstere gewichtet die strukturellen Eigenschaften von<br />
Abbildungen im Gegensatz zu klassischen Differenzmaßen unter Berücksichtigung der<br />
psychovisuellen Wahrnehmung des Menschen. Die Transinformation verdeutlicht den<br />
Informationsverlust als statistischen Zusammenhang zwischen Eingangs- und Aus-<br />
gangsbild.<br />
Mittlere strukturelle Ähnlichkeit (MSSIM)<br />
Der Nachteil der Qualitätsmessung mittels MAD und PSNR ist, dass die Störungen<br />
im Bild nicht danach gewichtet werden, wie stark sie dem Betrachter auffallen. Daher<br />
wird als weiteres Maß zur Evaluierung die mittlere strukturelle Ähnlichkeit (MSSIM 19 )<br />
verwendet. Das menschliche visuelle System ist stark empfänglich für strukturelle In-<br />
formationen, die auf starken Kanten und hohen Auflösungen basieren.<br />
Bilder, die den gleichen RMSE zum Original besitzen, können im Auge des Be-<br />
trachters dennoch völlig anderer Qualität sein, da sie sich in ihrer Struktur unterschei-<br />
den. Um ein Qualitätsmaß angeben zu können, welches an das visuelle System des<br />
Menschen angepasst ist, wurde von Wang et al. [WBSS04] eine Methode entwickelt,<br />
18 PSNR: (Peak signal to noise ratio) Spitzensignal-zu-Rausch-Verhältnis<br />
19 MSSIM: (Mean structural similarity) Mittlere strukturelle Ähnlichkeit
3.6. DEFINITION VON GÜTEKRITERIEN ZUR EVALUIERUNG 115<br />
die zwei Bilder auf strukturelle Ähnlichkeit untersucht. Dabei wird davon ausgegan-<br />
gen, dass diese strukturelle Ähnlichkeit von lokalen Helligkeits- und Kontrastunter-<br />
schieden im Originalbild Î und dem bearbeiteten Bild I abhängt. Nach Wang et al.<br />
wird der Helligkeitsunterschied l(Î, I) und der Kontrastunterschied c(Î, I) in einer de-<br />
finierten Region zwischen den Bildern folgendermaßen bestimmt<br />
l(Î, I) =<br />
c(Î, I) =<br />
2 ˆµ µ + C1<br />
ˆµ 2 + µ 2 + C1<br />
2 ˆσ σ + C2<br />
ˆσ 2 + σ2 + C2<br />
(3.39)<br />
, (3.40)<br />
wobei die Helligkeit in der Region durch dessen Intensitätsmittelwert ˆµ (für Î) bzw. µ<br />
(für I) angegeben wird und der Kontrast die Standardabweichung ˆσ (für Î) bzw. σ (für<br />
I) vom Mittelwert beschreibt. Es gilt C1 = (K1 L) 2 und C2 = (K2 L) 2 . L bezeichnet den<br />
maximal möglichen Helligkeitswert im Bild (bei acht Bit Quantisierung beträgt dieser<br />
255) und K1 bzw. K2 sind Konstanten (
116 3.6. DEFINITION VON GÜTEKRITERIEN ZUR EVALUIERUNG<br />
Soweit nicht anders angegeben, wird für typische faserendoskopische Aufnahmen in<br />
dieser Arbeit eine Fensterdimension von WS = 8 verwendet und die Konstanten auf<br />
K1 = 0, 01 und K2 = 0, 03 gesetzt.<br />
Transinformation (TI)<br />
Aus der Informationstheorie kommt die Definition der Transinformation TI 20 . Sie gilt<br />
als ein Maß für die Stärke des statistischen Zusammenhangs zweier Zufallsgrößen und<br />
wird in der Einheit Bit angegeben. Dieses Entropie-basierte Maß, das in der Litera-<br />
tur auch unter dem Begriff der Mutual Information (MI) bekannt ist, findet auch im<br />
Bereich der Bildregistrierung Verwendung [CV00]. Hier werden die beiden zu ver-<br />
gleichenden Bilder als zwei Zufallsvariablen A = Î und B = I interpretiert. Der Grad<br />
der Abhängigkeit dieser Zufallsvariablen ist definiert als<br />
MI(A, B) = <br />
PA,B(a, b)<br />
PA,B(a, b) log2 PA(a)PB(b)<br />
a,b<br />
, (3.45)<br />
wobei A und B die Intensitätsverteilung der beiden zu vergleichenden Bilder beschrei-<br />
ben, PA(a) und PB(b) die Randverteilungen sind und PA,B(a, b) die zweidimensionale<br />
Wahrscheinlichkeitsverteilung von A und B ist. Letztere lassen sich sehr einfach auf<br />
der Basis von Histogrammen h berechnen, denn es gilt<br />
h(a, b)<br />
PA,B(a, b) = <br />
a,b h(a, b)<br />
PA(a) = <br />
PA,B(a, b)<br />
b<br />
PB(b) = <br />
PA,B(a, b) . (3.46)<br />
h ist hier ein zweidimensionales Histogramm in Abhängigkeit von A und B. Der Wert<br />
an der Position (a, b) gibt die Anzahl an Intensitätspaaren an, welche in A (Î) den Wert<br />
a und in B (I) den Wert b besitzen. Die Transinformation basiert auf der Entropiefunk-<br />
tion H, für die der Zusammenhang gilt:<br />
a<br />
MI(A, B) = H(A) + H(B) − H(A, B) . (3.47)<br />
Vergleicht man ein Bild der Intensitätsverteilung A mit sich selbst, so folgt<br />
MI(A, A) = H(A) + H(A) − H(A, A)<br />
= 2H(A) − H(A, A) = H(A) , (3.48)<br />
20 TI: (Transinformation) Statistisches Maß für den Zusammenhang von Zufallsgrößen
3.6. DEFINITION VON GÜTEKRITERIEN ZUR EVALUIERUNG 117<br />
da die gemeinsame Entropie von A und A gleich der Entropie von A ist. Der Wert für MI<br />
liegt folglich im Intervall [0, H(A)]. Ist eine Zufallsgröße vollständig durch die andere<br />
bestimmt, so gilt MI(A, B) = H(A), sind die Bilder hingegen unkorreliert zueinander,<br />
so gilt MI(A, B) = 0.<br />
3.6.4 Gütekriterien der Rekonstruktion von Raumpunkten<br />
Die bisher beschriebenen Gütekriterien haben keine weiterführende Auswertung der<br />
Bilddaten für eine anwendungsspezifische Verwendung berücksichtigt, sondern nur<br />
den Abstand zum Original oder die visuell wahrnehmbare Auflösung in bestimmten<br />
Bildbereichen auf verschiedene Weise verglichen. Als ein solches Ziel der Bildaufbe-<br />
reitung im Kontext einer konkreten Anwendung wird die 3D-Rekonstruktion aus einer<br />
Folge aufbereiteter Bilder untersucht. Dabei ist es unerheblich, welche visuelle Qua-<br />
lität die aufbereitete Bildfolge zeigt, sondern welche Präzision die Anwendung bzw.<br />
welche Güte das Resultat der räumlichen Rekonstruktion zeigt.<br />
Zur 3D-Rekonstruktion von Objekten wurde das Programm SynthEyes [And07]<br />
genutzt. Dies ist eine Anwendung aus dem Bereich der Filmindustrie zur nachträgli-<br />
chen räumlichen Darstellung und Erweiterung von Szenen aus Bildsequenzen. Sie lässt<br />
vielfältige manuelle Einstellungen zu und erlaubt den Zugriff und Export von wichti-<br />
gen (Zwischen-) Ergebnissen. Entscheidend für die Wahl dieses Programms ist u.a.<br />
die einfache verzerrungsfreie Darstellung der stark weitwinkelig verzeichneten Auf-<br />
nahmen aus endoskopischen Ansichten (vgl. Abschn. 2.4.1).<br />
Um die Auswirkungen von verschiedenen relevanten Methoden der Bildaufberei-<br />
tung (Filterung, Interpolation) zu untersuchen, werden diese auf künstlich faserstruk-<br />
turierte Bildsequenzen angewendet und die Ergebnisse der anschließenden 3D-Rekon-<br />
struktion mit denen auf Basis der originalen Bildsequenzen verglichen. Als Kriterien<br />
werden die Anzahl der lokalisierten Merkmale ausgewertet, der intern ermittelte Rück-<br />
projektionsfehler überprüft und die resultierende Geometrie mit der aufgenommenen<br />
Szene verglichen.<br />
Anzahl der Korrespondenzen<br />
Die Qualität einer 3D-Rekonstruktion wird unter anderem von der Anzahl der rekon-<br />
struierten 3D-Punkte beeinflusst, sofern diese eine gewisse Ortsauflösung einhalten.<br />
Eine höhere Dichte an rekonstruierten 3D-Punkten lässt eine detailreichere räumli-<br />
che Darstellung zu. Die resultierende 3D-Punktwolke (vgl. Abb. 3.44) wird in ihrer
118 3.6. DEFINITION VON GÜTEKRITERIEN ZUR EVALUIERUNG<br />
Abbildung 3.44: (a) Merkmalskorrespondenzen im Einzelbild beim endoskopischen Blick in<br />
eine Bohrung und (b) rekonstruierte 3D-Punktwolke aus der Bildsequenz.<br />
Dichte zunächst durch die Anzahl der Korrespondenzen in den einzelnen Aufnahmen<br />
bestimmt, da jede Korrespondenz einen potenziellen Raumpunkt liefert. Für die Dar-<br />
stellung einer Oberfläche können diese Raumpunkte in einem weiteren Schritt zu ei-<br />
nem Dreiecksnetz verknüpft werden. Für jedes Dreieck wird aus der (endoskopischen)<br />
Bildsequenz an der entsprechenden Stelle eine Textur berechnet und zugeordnet, so-<br />
dass ein Flächenmodell entsteht [TBM02]. Je höher die Anzahl an Korrespondenzen<br />
und damit die Anzahl der rekonstruierten 3D-Punkte ist, desto dichter und feiner ist<br />
auch das texturierte Flächenmodell.<br />
Um die Feinheit des Rekonstruktionsergebnisses der aufbereiteten Bildsequenzen<br />
zu untersuchen, wird die Anzahl der Korrespondenzen bei der vom Abbildungssystem<br />
unbeeinflussten (Î), bzw. der gefilterten und interpolierten Bildsequenz (I) untersucht.<br />
Unterscheidet sich die Anzahl der Korrespondenzen bei einer aufbereiteten Bildse-<br />
quenz deutlich von einer anders aufbereiteten Bildsequenz, so kann eine Aufberei-<br />
tungsmethode in Bezug auf die Feinheit des Rekonstruktionsergebnisses vorgezogen<br />
werden.<br />
Rückprojektionsfehler<br />
Der Rückprojektionsfehler beschreibt die Wurzel der mittleren quadratischen Abwei-<br />
chung der sog. Rückprojektion. Dazu werden die rekonstruierten Punkte im 3D-Raum<br />
auf Basis der geschätzten räumlichen Kalibrierdaten (Abbildungsmatrix) zurück auf<br />
die 2D-Ebene projiziert und dort mit den ursprünglichen Positionen der Korrespon-<br />
denzen in der jeweiligen Bildebene verglichen. SynthEyes optimiert die Raumpunkte<br />
aus den Korrespondenzen unter anderem nach diesem Kriterium und gibt nach dessen<br />
iterativer Berechnung den endgültigen Rückprojektionsfehler in Pixel aus. Der Rück-<br />
projektionsfehler ist ein Indikator für die mittlere Gesamtgüte der Rekonstruktion und
3.6. DEFINITION VON GÜTEKRITERIEN ZUR EVALUIERUNG 119<br />
führt laut SynthEyes über einem kritischen Grenzwert von 1.0 zu visuell unbefriedi-<br />
genden Ergebnissen.<br />
Achsenverhältnis und Projektionsgüte<br />
Eine weitere Möglichkeit, die Qualität der rekonstruierten 3D-Punktwolke anzugeben,<br />
ist der Vergleich dieser Punktwolke mit der bekannten Geometrie, in der die Bildse-<br />
quenz aufgenommen wurde. Im Kontext dieser Arbeit wurden beispielhaft zylinder-<br />
förmige Bohrungen (Hohlzylinder) verwendet, die mit Endoskopen entlang der Sym-<br />
metrieachse untersucht werden. Die einfache Struktur des Zylinders ermöglicht eine<br />
einfache Parametrisierung und eignet sich gut zur Mittelung einer definierten Menge<br />
an Punkten entlang der Symmetrieachse. Als Kriterium für die originalgetreue Wieder-<br />
gabe der Objektgeometrie wird zum einen die Streuung der rekonstruierten 3D-Punkte<br />
um die Zylinderwandung und zum anderen die Kreisförmigkeit der Punktmenge in der<br />
Projektion auf die Zylindergrundfläche ausgewertet. Für beide Größen muss zunächst<br />
der Kamerapfad festgelegt werden. Dies geschieht durch Angleichen einer Geraden<br />
an die geschätzten Kamerapunkte, die idealerweise auf einer Linie liegen. Die Norm<br />
dieser Gerade bildet die normierte Senkrechte n der beabsichtigten Projektionsebene.<br />
Ein Punkt r(x, y, z) wird senkrecht bezüglich n auf den Punkt ¯r(x, y, z) projiziert:<br />
¯r(x, y, z) = r(x, y, z) − (r(x, y, z) · n + d) · n (3.49)<br />
mit d = −¯r(x, y, z) · n .<br />
Um die Kreisförmigkeit des Querschnitts zu bestimmen, werden die 3D-Koordinaten<br />
eines bestimmten Abschnitts der Zylinderrekonstruktion auf die n-Ebene projiziert<br />
(vgl. Abb. 3.45). Durch Minimierung der Fehlerquadrate zu einer parametrisierten El-<br />
lipse wird deren Charakteristik, also der Mittelpunkt, die kleine Hauptachse ea, die<br />
große Hauptachse eb und die Orientierung im 2D-Koordinatensystem numerisch be-<br />
stimmt. Das Verhältnis ea/eb, also zwischen kleiner und großer Hauptachse gibt die<br />
Annäherung der Rekonstruktion des Zylinderquerschnitts an einen Kreis wieder, die<br />
bestenfalls ea/eb = 1, nämlich kreisförmig sein sollte. Als zweite Größe wird der mitt-<br />
lere euklidische Abstand dRek zwischen den NRek projizierten Datenpunkten und der<br />
parametrisierten Ellipse angegeben. Der Fehlerabstand δRek,i ist die minimierte eukli-<br />
dische Distanz zwischen der Koordinate (xi; yi) der Rekonstruktion und der entspre-<br />
chenden Koordinate (ui; vi) auf dem projizierten Zylinderquerschnitt:<br />
δRek,i = (xi − ûi) 2 + (yi − ˆvi) 2 (3.50)<br />
mit (ûi; ˆvi) = argmin[(xi<br />
− ui)<br />
(ui,vi)<br />
2 + (yi − vi) 2 ] .
120 3.6. DEFINITION VON GÜTEKRITERIEN ZUR EVALUIERUNG<br />
Abbildung 3.45: Die rekonstruierten Raumpunkte einer endoskopisch aufgenommenen Boh-<br />
rung werden auf eine Ebene senkrecht zum Bewegungspfad des Endoskops projiziert und durch<br />
die Parameter einer Ellipse beschrieben, aus [Ste07].<br />
Das Mittel über alle Fehlerabstände aus Gleichung (3.50) wird prozentual zum „Durch-<br />
messer“ (ea + eb) angegeben (vgl. Gl. (3.51)) und ist als Wert für die Abweichung der<br />
3D-Punkte um den rekonstruierten Zylinder ebenfalls ein Indikator für die Güte der<br />
Rekonstruktion:<br />
QREK = 1<br />
NREK<br />
·<br />
NREK <br />
i=1<br />
1<br />
δRek,i ·<br />
ea + eb<br />
. (3.51)<br />
Je geringer QREK ausfällt, desto präziser wurde die räumliche Darstellung der Boh-<br />
rung aus der aufbereiteten Bildsequenz rekonstruiert.<br />
3.6.5 Subjektive Evaluierung<br />
Die subjektive Bewertung von unterschiedlich aufbereiteten Bildern ist von Bedeu-<br />
tung, um den visuellen Eindruck bei der Darstellung auf einem optischen Ausgabege-<br />
rät zu beurteilen. Entscheidend ist dabei zu berücksichtigen, dass es sich um subjektive<br />
Wahrnehmungen handelt, die sich von Person zu Person und von Anwendungsgebiet<br />
zu Anwendungsgebiet unterscheiden können. In der Literatur gibt es unzählige Be-<br />
schreibungen zur Durchführung von subjektiven Vergleichstests für Bildmaterial. As-<br />
lan et al. evaluieren die von ihnen vorgeschlagenen Methoden zur Bildaufbereitung für<br />
Endoskopiesysteme anhand üblicher Signifikanztests [AKH + 99]. Sie basieren auf Um-<br />
fragen unter einer Menge von repräsentativen Personen, für diesen Zweck z. B. Ärz-<br />
te, welche die Endoskopie für ihren Beruf nutzen. Krüger et al. stellen in [KVH + 04]<br />
ein Evaluierungsschema zum Vergleich von Maßnahmen zur Bildverbesserung für die<br />
starre Endoskopie vor. Neben üblichen Kriterien, wie der Erkennbarkeit relevanter De-
3.6. DEFINITION VON GÜTEKRITERIEN ZUR EVALUIERUNG 121<br />
tails nach einer Helligkeits- und Kontrastanpassung wird in dieser Arbeit auch auf spe-<br />
zielle anwendungsspezifische Effekte der Endoskopie eingegangen, wie beispielsweise<br />
der Erfolg einer Glanzlichtreduktion.<br />
In dieser Arbeit werden für zwei Bereiche subjektive Bewertungen von visuellen<br />
Ergebnissen gesammelt und ausgewertet. Das ist zum einen die Studie zu Modi und<br />
Effektivität der Filterung in Abschnitt 4.3 und zum anderen die Beurteilung der spe-<br />
ziellen Aufbereitung von Farbbildern unter Verwendung der Rohdaten von Einchip-<br />
Farbsensoren (vgl. Abschn. 4.5). In beiden Fällen erscheint es wichtig, den subjek-<br />
tiven Eindruck der resultierenden Bilder zu bewerten, um die quantitativen Untersu-<br />
chungen zu bestätigen oder den Unterschied zwischen subjektiver Wahrnehmung und<br />
computerassistierter Weiterverarbeitung herauszustellen. Für den ersten Bereich wird<br />
eine repräsentative Stichprobe von Bildern bzw. Bild-Sequenzen mit den zu verglei-<br />
chenden Verfahren aufbereitet und in einer geeigneten Umgebung bereitgestellt, wo<br />
sie von fachkundigem Personal subjektiv an Hand definierter Kriterien, wie Glattheit,<br />
Detailerhaltung, Kontrast u.ä. beurteilt werden. Im Fall der Farbbildaufbereitung wird<br />
dadurch die visuelle Verbesserung hinsichtlich Farb- und Strukturartefakten untersucht<br />
und diskutiert.
4<br />
123<br />
Untersuchungen und<br />
Ergebnisse<br />
Die Ergebnisse der Bildaufbereitung werden mit aktuellen anerkannten Vergleichs-<br />
verfahren und Bewertungskriterien beurteilt. Durch die Wahl verschiedener Kriterien,<br />
nämlich geometrischer, visueller, differentieller und statistischer wird ein Höchstmaß<br />
an Objektivität erzielt.<br />
Die Vielfalt an Möglichkeiten zur Bewertung von Bearbeitungsschritten und deren<br />
Ergebnisse sind in der Bildverarbeitung grenzenlos. Einige Ergebnisse können nur im<br />
Kontext einer konkreten Anwendung richtig eingeschätzt werden. Andere Vergleichs-<br />
verfahren liefern große Unterschiede, je nachdem ob sie auf Grauwertbildern oder auf<br />
Farbbildern ausgeführt werden. Beim visuellen Vergleich werden Resultate von ver-<br />
schiedenen Personen unterschiedlich wahrgenommen. Je nach seinem Empfinden und<br />
seinem beruflichen oder fachlichen Hintergrund beurteilt jeder Mensch trotz objek-<br />
tiver Vorgaben Ergebnisse unterschiedlich. Im Gegensatz dazu können bei objektiven<br />
Vergleichen mittels Differenz- und Ähnlichkeitsmaßen selbst kleinste Unterschiede re-<br />
produzierbar quantifiziert werden, die allerdings keine unmittelbare Interpretation über<br />
die Semantik des Bildinhalts erlauben.<br />
Wie sich herausstellt, ist die Filterung der Interpolation bezüglich der Restaurie-<br />
rung von Strukturen überlegen. Das wirkt sich beispielsweise positiv auf Grauwertbil-<br />
der aus, die für eine 3D-Rekonstruktion aufbereitet werden. Abschnitt 4.2 zeigt diesen<br />
Unterschied am Vergleich von charakteristischen Kenngrößen des Verlaufs und des<br />
Resultats der Raumrekonstruktion. Speziell für den Ansatz der Filterung wird in Ab-<br />
schnitt 4.3 der Kompromiss zwischen der Glättung der Wabenstruktur und der Detail-<br />
erhaltung von Bildstruktur für verschiedene Filtermasken gegenüber manuell parame-<br />
trisierten Filtern aus der Literatur untersucht.<br />
Im Gegensatz zur Filterung erhält die Interpolation ihre Bedeutung wegen der Kor-<br />
rekturmöglichkeit von Farbartefakten. Die Theorie zum quantitativen Vergleich von
124 4.1. ÜBERSICHT ÜBER DIE VERWENDETEN GERÄTE<br />
Farbbildern (Farbmetrik, Farbabstände, Farbraumerweiterung, Farbraummodelle, vgl.<br />
Abschn. 3.6) gegenüber Grauwertbildern würde den Rahmen dieser Arbeit sprengen.<br />
Daher wird in Abschnitt 4.5 der Erfolg der Reduktion von Farbartefakten zielorientiert<br />
durch eine Gradientenvisualisierung bestätigt.<br />
Um die Strukturartefakte zu reduzieren, die der Ansatz der Interpolation mit sich<br />
bringt, wurde in Abschnitt 3.5 die Superposition vorgeschlagen. Abschnitt 4.6 zeigt<br />
den Fortschritt durch die Überlagerung von Bildsequenzen. Durch den visuellen Ver-<br />
gleich einer handregistrierten Referenzaufnahme mittels eines linsenoptischen Endo-<br />
skops mit den Resultaten der vorgeschlagenen Filterung können speziell die Grenzen<br />
der Wirkungsweise durch eine falsche Bewegungsschätzung und die effektive Abtast-<br />
fläche beobachtet werden (vgl. Abschn. 4.6.4).<br />
4.1 Übersicht über die verwendeten Geräte<br />
Um die Robustheit und Zuverlässigkeit der vorgestellten Verfahren zur Bildrestaurie-<br />
rung von faseroptischen Aufnahmen zu demonstrieren, wurde Bildmaterial mit unter-<br />
schiedlichen Kombinationen von Faserendoskopen und Kameras, sowie ausgewähl-<br />
ten Beleuchtungseinrichtungen und Adaptern erzeugt. An dieser Stelle wird daher ein<br />
Überblick über die verwendeten Hardware-Komponenten gegeben.<br />
Faserendoskope Tabelle 4.1 listet die Hersteller und technischen Daten der Faseren-<br />
doskope auf. Mit Ausnahme des Mikroendoskops E8 mit 0, 42mm und dem vergleichs-<br />
weise dicken Endoskop E10 aus der preisgünstigen Baureihe ValueLine von Schölly<br />
mit 6, 00mm reichen die Arbeitsdurchmesser der Endoskope von knapp einem bis vier<br />
Millimeter und decken damit den typischen Bereich von dünnen Faserendoskopen ab.<br />
Die Faseranzahl dieser Geräte liegt im Bereich zwischen 6.000 und 30.000 Fasern.<br />
Aus dieser Größenordnung ragt das Endoskop E8 aufgrund seines dünnen Bildleiters<br />
mit nur 3.000 und E9 mit seiner extrem geringen Faserdichte von 2.000 Fasern bei<br />
3, 2mm Arbeitsdurchmesser heraus. Der Preis von Endoskopen verhält sich abzüglich<br />
eines Grundbetrags nahezu linear zu ihrer Arbeitslänge. Diese liegt bei den verwen-<br />
deten Endoskopen zwischen knapp einem halben und gut einem Meter. Alle aufge-<br />
führten Endoskope besitzen einen 0 ◦ -Geradeausblick (im Gegensatz zu abgewinkelten<br />
Blickrichtungen zur gezielten Inspektion einer seitlichen Wandung o.ä.), unterschei-<br />
den sich jedoch im Hinblick auf den Öffnungswinkel. Dieser Wert liegt zwischen 45 ◦<br />
und 90 ◦ und charakterisiert die Weitwinkeleigenschaft des Endoskops. Die letzte Spal-<br />
te der Übersicht gibt das Material des Bildleiters an, das sich wie in Abschnitt 2.3.1
4.1. ÜBERSICHT ÜBER DIE VERWENDETEN GERÄTE 125<br />
Tabelle 4.1: Hersteller und technische Spezifikationen der verwendeten Faserendoskope. Alle<br />
Geräte sind mit 0 ◦ -Geradeausblick konfektioniert.<br />
Endo- Marke Arbeits- Faser- Arbeits- Öffnungs- Bildleiter<br />
skop durchmesser anzahl länge winkel a Material<br />
# [mm] [mm] [ ◦ -Grad]<br />
E1 Everest 0, 9 6.000 650 70 Quarz<br />
E2 Everest 4, 0 6.000 500 50 Glas<br />
E3 Olympus 1, 0 6.000 1.000 70 Quarz<br />
E4 Schölly 1, 0 6.000 500 70 Quarz<br />
E5 Storz 1, 0 6.000 1.000 60 Quarz<br />
E6 Schölly 3, 8 10.000 300 80 Glas<br />
E7 Schölly 3, 8 30.000 500 85 Quarz<br />
E8 Almikro 0, 42 3.000 1.000 70 Quarz<br />
E9 Naso 3, 2 2.000 300 n/a Glas<br />
E10 Schölly 6, 0 12.000 1.250 45 Glas<br />
E11 Schölly 0, 5 3.000 500 70 Glas<br />
a laut Hersteller<br />
beschrieben auf die Homogenität und den Kontrast von dessen Querschnittsstruktur<br />
auswirkt.<br />
Abbildung 4.1 zeigt für vier bauähnliche Faserendoskope mit rund einem Millime-<br />
ter Durchmesser (E1, E3, E4 und E5, vgl. Tab. 4.1) einen vergleichbaren Ausschnitt<br />
eines USAF-Testbilds. Die rechte Spalte gibt einen vergrößerten Ausschnitt wieder, in<br />
dem die unterschiedliche Qualität der Wabenstruktur deutlich wird. Die Aufnahmen<br />
entstammen einer Untersuchung mit dem Ziel, verschiedene Faserendoskope hinsicht-<br />
lich ihrer Bildqualität zu beurteilen. Aufgrund ihrer unterschiedlichen Arbeitslänge<br />
wird die Helligkeit ins Verhältnis zur Länge des Bildleiters gesetzt. Sowohl der vergrö-<br />
ßerte Ausschnitt der Faserabbildung (vgl. Spalte 2 in Abb. 4.1), als auch die zugehörige<br />
spektrale Verteilung der Bildfrequenzen (vgl. Spalte 3 in Abb. 4.1) gibt Auskunft über<br />
die Lichtleitfähigkeit und das Kontrastverhältnis in der Abbildung. Für vergleichende<br />
Untersuchungen in den folgenden Abschnitten kommen überwiegend Endoskope der<br />
Firma Schölly zum Einsatz, die ein akzeptables Preis-Leistungsverhältnis bei guten<br />
Werten für das Kontrastverhältnis und die Ortsfrequenzverteilung zeigen.
126 4.1. ÜBERSICHT ÜBER DIE VERWENDETEN GERÄTE<br />
(a) E1 - Everest<br />
(b) E3 - Olympus<br />
(c) E4 - Schölly<br />
(d) E5 - Storz<br />
Abbildung 4.1: Visueller Vergleich der Abbildungsgüte von verschiedenen bauähnlichen En-<br />
doskopen (vgl. Tab. 4.1). Der jeweils vergrößerte Ausschnitt in der zweiten Spalte lässt Un-<br />
terschiede im Kontrast und in der Faserstruktur erkennen, die sich auch im Spektrum in der<br />
dritten Spalte auswirken.
4.1. ÜBERSICHT ÜBER DIE VERWENDETEN GERÄTE 127<br />
Tabelle 4.2: Hersteller und technische Spezifikationen der verwendeten Kameras.<br />
Kamera Marke Bezeichnung Bus Sensor Anzahl an Pixel-<br />
# größe Pixel größe<br />
Grauwertkameras<br />
[Pixel 2 ] [µm 2 ]<br />
K1 AVT Marlin IEEE 1/2 ′′ 1392×1040 4, 65 2<br />
F-145B<br />
K2 AVT Dolphin IEEE 2/3 ′′ 1392×1040 6, 45 2<br />
F-145B<br />
K3 Jai CV-M10E CamLink 1/2 ′′ 782×582 9.9 2<br />
Farbkameras<br />
K4 AVT Dolphin IEEE 2/3 ′′ 1392×1040 6, 45 2<br />
F-145C<br />
Kameramodelle Zur Bildakquisition werden digitale Industriekameras eingesetzt<br />
(vgl. Tabelle 4.2), die sowohl technisch eine solide Verarbeitung aufweisen, als auch<br />
eine hohe Signalgüte in Bezug auf das Aufnahmeverhalten zeigen. Über ihre Schnitt-<br />
stelle (FireWire (IEEE 1394) bzw. CamLink) können aus den Grauwertkameras K1,<br />
K2 und K3 Intensitätsabbilder ausgelesen und abgespeichert werden. Die Farbkamera<br />
K4 führt intern bereits ein sog. Demosaicing durch und liefert das resultierende Farb-<br />
bild an den Rechner. Die farbkodierten Intensitätsdaten (Rohdaten) liegen ebenfalls<br />
abrufbereit im Kameraspeicher und können für eine alternative Aufbereitung abgeru-<br />
fen werden. Die Kamerasensoren haben eine maximale Auflösung von 782×582 bzw.<br />
1392×1040 Bildelementen bei einer quadratischen Grundfläche zwischen 4, 65 2 µm 2<br />
und 9.9 2 µm 2 je Einzelelement.<br />
TV-Adapter Das Endoskop wird mit dem Okular über einen sogenannten TV-Ad-<br />
apter mit dem Kamerasensor verbunden. Die Brennweite dieses Adapters bestimmt<br />
den Abbildungsmaßstab und muss an die jeweilige Sensorfläche (hier 1/2 ′′ oder 2/3 ′′ )<br />
angepasst werden, um die Apertur möglichst flächenfüllend auf die Sensorfläche ab-<br />
zubilden.<br />
Beleuchtungsquellen Um eine Szene adäquat aufnehmen zu können, die innerhalb<br />
eines geschlossenen Hohlraums liegt, ist eine Lichtquelle notwendig, die Licht über<br />
den flexiblen Lichtleiter an die Spitze des Endoskops liefert. Hierzu wird die Licht-<br />
quelle Flexilux 3000 von Schölly verwendet. Sie wird mit einer 100 Watt Halogen-
128 4.2. QUALITÄT VON 3D-REKONSTRUKTIONEN<br />
lampe betrieben, die nach einem Wärmeschutzglas eine Beleuchtungsstärke von 8, 8<br />
Mio. Lux am Eingang des Lichtleiters liefert. Für den mobilen Einsatz wird alternativ<br />
eine LED-Lichtquelle eingesetzt, die mit einem Akku direkt an das Endoskop montiert<br />
werden kann. Die LED-Handlichtquelle aus der Produktlinie ValueLine von Schölly<br />
hat eine Nominalleistung von 3,2 Watt und erzeugt am Lichtleitereingang eine Be-<br />
leuchtungsstärke von etwa 100.000 Lux.<br />
Um die Problematik der mitgeführten Beleuchtungsquelle (vgl. Abschn. 2.3.3) zu um-<br />
gehen, können freiliegende Objekte von externen Lichtquellen mit handelsüblichen<br />
Glühbirnen beleuchtet werden. Im Gegensatz zu diesem Auflicht kann ein transparen-<br />
tes Linien- oder Farbmuster auch durch ein diffuses sog. Durchlicht beleuchtet werden.<br />
Durch den Einsatz solcher Lichtkästen werden Reflexionen auf spiegelnden Testmus-<br />
tern vollständig vermieden.<br />
4.2 Qualität von 3D-Rekonstruktionen<br />
In der Motivation dieser Arbeit (vgl. Abschn. 1.2.3) wurde die räumliche Rekonstruk-<br />
tion von Objekten (beispielsweise Hohlräumen) aus einer faserendoskopischen Bild-<br />
folge als interessante und angestrebte Anwendung beschrieben. Die Effizienz und Ef-<br />
fektivität der Triangulierung sowie die Präzision der Punktverteilung einer 3D-Rekon-<br />
struktion spiegeln allerdings gleichermaßen die Qualität der verwendeten Bilddaten<br />
wieder, die dafür verwendet werden. In den folgenden Abschnitten wird der Einfluss<br />
der Aufbereitung dieser Aufnahmen durch die verschiedenen Ansätze zur Filterung<br />
(vgl. Abschn. 3.2.1) und Interpolation (vgl. Abschn. 3.2.2) auf das Ergebnis von 3D-<br />
Rekonstruktionen untersucht. Ausgewertet werden hierbei die Häufigkeit der wieder-<br />
gefundenen und korrespondierenden Merkmalsketten, der Rückprojektionsfehler im<br />
Triangulierungsprozess und letztendlich das Rekonstruktionsergebnis.<br />
4.2.1 Bildmaterial<br />
Als ein typisches Szenario für die Anwendung der Endoskopie im Kontext der industri-<br />
ellen Inspektion wird für dieses Evaluierungsszenario ein Endoskop senkrecht durch<br />
eine Bohrung mit konstantem Durchmesser geführt. Diese vergleichsweise einfache<br />
Parametrisierung dieses Testkörpers erlaubt eine Evaluierung der Rekonstruktionsgüte<br />
anhand der Streuung der rekonstruierten Raumpunkte in Bezug auf die Zylindergeo-<br />
metrie.
4.2. QUALITÄT VON 3D-REKONSTRUKTIONEN 129<br />
Tabelle 4.3 zeigt die Eigenschaften, den Umfang und weitere Details von sechs en-<br />
doskopisch erfassten Bildsequenzen, die als Grundlage für die 3D-Rekonstruktion ei-<br />
ner 3D-Punktwolke verwendet werden. Der vergrößerte Ausschnitt vor jeder Sequenz,<br />
die jeweils durch eine Einzelaufnahme dargestellt wird, zeigt die entsprechende Textur.<br />
Um in einem ersten Schritt mögliche Rausch- und Spiegelungseffekte auszuschließen,<br />
werden drei Sequenzen (SZK, SGB und SRT) künstlich generiert. Mit der frei verfüg-<br />
baren 3D-Grafik-Software Blender 1 wurde eine künstliche Rohrfahrt mit 150 Einzel-<br />
bildern der Dimension 800×600 simuliert. Die Texturen, die für die Zylinderwandung<br />
verwendet wurden, stammen aus der freien mediacastle-Datenbank 2 . Sie zeigen ei-<br />
ne verzinkte Metalloberfläche (SZK), eine kontrastarme matte Metallstruktur (SKA)<br />
und eine rostige Metalloberfläche (SRT). Die übrigen drei Sequenzen (RZK, RFN und<br />
RGB) zeigen reale Aufnahmen von Zylinderkörpern. Sie wurden anstelle eines faser-<br />
basierten mit einem starren Endoskop der Firma Storz mit vergleichbaren optischen<br />
Kenndaten (0 ◦ -Geradeausblick, Öffnungswinkel 100 ◦ ) aufgezeichnet. Die Sequenzen<br />
RZK und RFN enthalten 300 Bilder der Dimension 1024 × 768 einer verzinkten Me-<br />
tallröhre bzw. eines zylinderförmigen Hohlraums mit feinkörniger Sandoberfläche. Die<br />
Sequenz RGB stellt 78 Bilder der Dimension 800 × 600 bereit, die in einem zylinder-<br />
förmigen Hohlraum mit grober Sandkörnung aufgezeichnet wurden.<br />
Diese Basisdaten der sechs Bildsequenzen werden für die Untersuchung des Ef-<br />
fekts einer faserbasierten Bildübertragung mit einem typischen Wabenmuster model-<br />
liert (vgl. Abschn. 3.1.1). Das gewählte Bildbündel enthält 12.000 Fasern, die in einem<br />
Aperturradius von 280 Pixel angeordnet sind. Nach Aufbereitung mit den zu verglei-<br />
chenden Ansätzen, nämlich der automatischen Filterung und der faserbasierten Inter-<br />
polation werden die Bilddaten mit der Raumrekonstruktionssoftware SynthEyes bear-<br />
beitet und ausgewertet. Als Kriterium wird die Anzahl der Korrespondenzen vor der<br />
Modellierung und nach der Bildaufbereitung mit Filterung oder Interpolation unter-<br />
sucht. Eine Kette von Merkmalen wird dann als Korrespondenz definiert, wenn sie<br />
über mindestens zwölf Aufnahmen registriert, d.h. in den Bildern aufgefunden werden<br />
kann.<br />
4.2.2 Statistik der Merkmalskorrespondenzen<br />
Für die Triangulierung, also die Tiefenschätzung eines Punkts aus mindestens zwei<br />
verschiedenen Ansichten sind zuverlässig gewählte und registrierte Merkmale in meh-<br />
reren Bildern der Sequenz notwendig. Jede solche Kette von Korrespondenzen liefert<br />
1 Quelle: http://www.blender.org<br />
2 Quelle: http://www.mediacastle.de
130 4.2. QUALITÄT VON 3D-REKONSTRUKTIONEN<br />
Tabelle 4.3: Endoskopische Abbildungen von Hohlzylindern mit unterschiedlicher Oberflä-<br />
chentextur als Datenbasis für die Evaluierung der 3D-Rekonstruktion. Die vorletzte Spalte<br />
zeigt die Textur als vergrößerten Ausschnitt. Die letzte Spalte zeigt eine Einzelaufnahme der<br />
Bildsequenz. Die Bildreihen SZK, SKA und SRT sind rauschfrei simuliert, wohingegen RZK,<br />
RFN und RGB reale Aufnahmen von Zylinderkörpern zeigen.<br />
Kürzel Beschreibung Textur Einzelbild Anzahl<br />
SZK<br />
SKA<br />
SRT<br />
RZK<br />
RFN<br />
RGB<br />
Simulierte Textur einer<br />
verzinkten Metallober-<br />
fläche.<br />
Simulierte Textur ei-<br />
ner kontrastarmen mat-<br />
ten Metallstruktur.<br />
Simulierte Textur einer<br />
rostigen Metalloberflä-<br />
che.<br />
Reale Oberfläche ei-<br />
ner verzinkten Röhre<br />
(Innen-◦/ 16, 3mm).<br />
Reale Oberfläche mit<br />
feiner Sandkörnung<br />
(Innen-◦/ 8, 5mm).<br />
Reale Oberfläche mit<br />
grober Sandkörnung<br />
(Innen-◦/ 8, 2mm).<br />
Größe<br />
150<br />
800 × 600<br />
150<br />
800 × 600<br />
150<br />
800 × 600<br />
300<br />
1024 × 768<br />
300<br />
1024 × 768<br />
78<br />
1024 × 768
4.2. QUALITÄT VON 3D-REKONSTRUKTIONEN 131<br />
Tabelle 4.4: Anzahl von Korrespondenzen in einem vergleichbaren Ausschnitt gleicher Län-<br />
ge der Bildsequenzen aus Tabelle 4.3. Die drei Spalten zeigen die Ergebnisse für die Origi-<br />
nalqualität ohne Abtastung und für die beiden nach faseroptischer Abtastung restaurierten<br />
Versionen Filterung und Interpolation. Die prozentuale Angabe gibt das Verhältnis zur Anzahl<br />
im Original an.<br />
Sequenz Original Filterung Interpolation<br />
SZK 1.091 387 (35,5%) 210 (19,2%)<br />
SKA 804 144 (17,9%) 123 (15,3%)<br />
SRT 1.403 720 (51,3%) 362 (25,8%)<br />
RZK 2.098 189 (9,0%) 122 (5,8%)<br />
RFN 3.972 770 (19,4%) 179 (4,5%)<br />
RGB 3.411 1.033 (30,3%) 303 (8,9%)<br />
nach erfolgreicher Berechnung einen Raumpunkt, der sich aus der Verfolgung (engl.<br />
tracking) von geeigneten Merkmalen und Korrelationen über mehrere Bilder hinweg<br />
berechnet. Ob ein Punktmerkmal oder ein kleiner Bereich von benachbarten Bild-<br />
punkten zur Findung der Korrespondenz gewählt wird, entscheiden strukturelle Ei-<br />
genschaften in seiner Umgebung. Je höher die Anzahl der Korrespondenzen, bzw. der<br />
rekonstruierten 3D-Punkte, desto feiner wird die Triangulierung der 3D-Punktwolke<br />
und folglich das Rekonstruktionsergebnis ausfallen. In einer faseroptisch abgebilde-<br />
ten Bildsequenz können auch nach Aufbereitung durch Filterung oder Interpolation<br />
von SynthEyes nicht mehr so viele Merkmale lokalisiert werden, wie bei einer Abbil-<br />
dung mit starrem Endoskop. Durch die niedrige Auflösung und die Einbußen aufgrund<br />
geringerer Lichtleitfähigkeit werden hohe Frequenzen unterdrückt. Der Kontrast und<br />
die Schärfe von Begrenzungen charakteristischer Bildmerkmale werden reduziert und<br />
führen zu niedrigeren Erfolgen und schlechteren Ergebnissen der Registrierung.<br />
Tabelle 4.4 zeigt die Anzahl der detektierten Korrespondenzen für die verschiede-<br />
nen Bildsequenzen aus Tabelle 4.3. Die Spalte Original beinhaltet die Ergebnisse für<br />
die ursprüngliche Bildqualität ohne faseroptische Abbildung. Für die beiden Ansätze<br />
Filterung und Interpolation können die Resultate den letzen beiden Spalten entnom-<br />
men werden. Aufgrund großer Schwankungen in der Anzahl gewählter Merkmale in<br />
der Originalsequenz werden die Ergebnisse nach der Restaurierung auch prozentual<br />
im Verhältnis dazu angegeben.<br />
Wie erwartet werden bei allen Originalsequenzen am meisten Korrespondenzen ge-<br />
wonnen. Werden die Sequenzen einer faserbasierten Modellierung unterzogen, so ste-<br />
hen nach Filterung noch rund 10% bis 50% Korrespondenzen und nach Interpolation
132 4.2. QUALITÄT VON 3D-REKONSTRUKTIONEN<br />
Abbildung 4.2: Visualisierung der Statistik der Merkmalskorrespondenzen aus Tabelle 4.4.<br />
noch rund 5% bis 25% Korrespondenzen zur Verfügung. Ohne einen Restaurierungs-<br />
schritt konnten bei den durchgeführten Experimenten nicht genügend viele Ortsmerk-<br />
male über ausreichend viele Bilder hinweg registriert werden. Deshalb finden sich in<br />
Tabelle 4.4 darüber keine Angaben. Im Mittel können den Ergebnissen der Filterung<br />
also etwa doppelt so viele stabile Merkmale entnommen werden, wie den vergleichba-<br />
ren Resultaten der Interpolation.<br />
Gegenüber den simulierten Sequenzen SZK, SKA und SRT zeigen die realen Origi-<br />
nalaufnahmen RZK, RFN und RGB eine deutlich höhere Anzahl an Korrespondenzen.<br />
Das lässt sich primär auf den generell höheren Kontrast zurückführen. Weiterhin sind<br />
die Strukturen der realen Aufnahmen gröber und damit klarer voneinander separierbar.<br />
Die relativ wenigen Merkmale jedoch, die in den simulierten Aufnahmen berechnet<br />
werden, bleiben zu einem größeren Teil auch nach einer faseroptischen Abbildung als<br />
Korrespondenzen erhalten (vgl. prozentuale Angaben der Filterung und Interpolation<br />
in Tab. 4.4). Die Abwesenheit von Rauschen und die Konstanz von lokalen Intensitäten<br />
begünstigt die Merkmalsverfolgung auf den simulierten Daten. Die schlechtesten Er-<br />
gebnisse unter Verwendung von simulierten Daten liefert die Textur mit sehr geringem<br />
Kontrast, SKA. Hier stehen schon in der Originalqualität nur 804 Korrespondenzen zur<br />
Verfügung, was sich auf die Stabilität der Rekonstruktion negativ auswirkt, wie auch<br />
an den weiteren Ergebnissen zu Rückprojektionsfehler und Streuung ersichtlich wird.<br />
Unter den realen Daten zeigt die Textur mit grober Sandkörnung, RGB, die bes-<br />
ten Ergebnisse für restaurierte faseroptisch abgetastete Bilddaten. Obwohl die feine<br />
Sandkörnung RFN in der Originalqualität gut 16% mehr Korrespondenzen liefert, so<br />
verbleiben in den degradierten Bildern für RGB etwa 34% (1.033 zu 770) mehr Kor-
4.2. QUALITÄT VON 3D-REKONSTRUKTIONEN 133<br />
Tabelle 4.5: Rückprojektionsfehler in Pixel für die 3D-Rekonstruktion von 3D-Punktwolken<br />
aus den gewählten Korrespondenzen (vgl. Tab. 4.4) der verschiedenen Bildsequenzen aus Ta-<br />
belle 4.3. Die drei Spalten zeigen die Ergebnisse für die Rekonstruktion aus den Bilddaten<br />
mit Originalqualität ohne Abtastung und für die beiden nach faseroptischer Abtastung restau-<br />
rierten Sequenzen (Filterung und Interpolation). Die prozentuale Angabe gibt die Steigerung<br />
bezüglich des Fehlers im Original an.<br />
Sequenz Original Filterung Interpolation<br />
SZK 0,836 0,889 (3,0%) 0,895 (3,7%)<br />
SKA 0,680 1,130 (66,2%) 1,610 (136,8%)<br />
SRT 0,547 1,010 (84,6%) 1,023 (87,0%)<br />
RZK 0,587 0,678 (15,5%) 1,014 (72,7%)<br />
RFN 0,787 1,517 (92,8%) 1,641 (108,5%)<br />
RGB 0,832 0,977 (17,4%) 1,275 (53,2%)<br />
respondenzen, als für RFN, weil viele der feinen hell reflektierenden Punktmerkmale<br />
durch die mitgeführte Beleuchtung und durch die grobe Abtastung des Faserbündels<br />
Intensitätsschwankungen unterliegen und oft einem unpräzisen Weg folgen. Abhängig<br />
vom Material liegt das Verhältnis der Anzahlen von Korrespondenzen zwischen den<br />
interpolierten und den gefilterten Bildern bei gut der Hälfte bis knapp einem Drittel.<br />
Fazit: Generell lässt sich erkennen, dass die Textur, die Oberflächenbeschaffenheit<br />
und die Beleuchtung eine wesentliche Rolle bei der Wahl und Registrierung der Merk-<br />
male spielt. Die Simulation der faseroptischen Abbildung führt zu einer erheblichen<br />
Reduzierung der Anzahl an gefundenen Korrespondenzen. In Bezug auf die Statistik<br />
der Merkmalskorrespondenzen liefert von den Restaurierungsansätzen die Filterung<br />
durchweg die besseren Ergebnisse. Nach Interpolation stehen umso weniger Merkma-<br />
le als Korrespondenzen zur Verfügung, je höher der Kontrast in den Aufnahmen ist,<br />
der in der Originalqualität zunächst für eine große Menge an Korrespondenzen sorgt.<br />
4.2.3 Rückprojektionsfehler<br />
In Abschnitt 3.6.4 wurde der Rückprojektionsfehler als interne Messgröße des Re-<br />
konstruktionsprozesses beschrieben. SynthEyes bietet Zugriff auf dieses Gütekriteri-<br />
um und erlaubt so eine retrospektive Beurteilung dieses Vorgangs und eine Aussage<br />
darüber, wie sicher der Algorithmus im Mittel die 3D-Raumpunkte schätzen konnte.<br />
Der Rückprojektionsfehler fällt umso geringer aus, je länger die Merkmale über die
134 4.2. QUALITÄT VON 3D-REKONSTRUKTIONEN<br />
Abbildung 4.3: Visualisierung der Rückprojektionsfehler aus Tabelle 4.5.<br />
Bildsequenz verfolgt werden können. Längere Registrierungsabschnitte erlauben auch<br />
eine robustere Eliminierung von Ausreißern, die sich durch Restaurierungsfehler in<br />
die Bildsequenz einschleichen. Die Tiefenschätzung der Ortspunkte ist direkt abhän-<br />
gig von der Rekonstruktion des Kamerapfads. Dieser wird hier allerdings nicht zur<br />
Bewertung herangezogen. Wie die Statistik der Merkmalskorrespondenzen, so zeigt<br />
auch die Auswertung des Rückprojektionsfehlers (vgl. Tab. 4.5 und Abb. 4.3) eine<br />
Überlegenheit seitens der Filterung. Auf Basis der Originalqualität liegt der Rückpro-<br />
jektionsfehler bei allen Rekonstruktionen im Bereich von 0, 5 bis 0, 9 Pixel. SynthEyes<br />
gibt einen tolerierbaren Fehlerbereich bis 1.0 Pixel an. Die Werte über 1.0 für vie-<br />
le der Ergebnisse nach Restaurierung sind prinzipiell noch nicht bedenklich, da die<br />
Abtastung durch die Sensorelemente nicht mehr in der Größenordnung eines Pixels<br />
liegt, sondern maßgeblich durch die Abtastung durch das Faserbündel bestimmt wird.<br />
Für die vorliegende faseroptische Modellierung beträgt das Verhältnis von Faser- zu<br />
Pixelabstand etwa 4, 5 : 1. Vor diesem Hintergrund liegt der Rückprojektionsfehler<br />
nach Filterung bzw. Interpolation selbst bei den schlechtesten Ergebnissen, z. B. der<br />
Interpolation bei SKA bzw. RFN, nur um einen maximalen Faktor von 2, 37 über dem<br />
des Originals. Die genannten negativen Ausreißer der Interpolation lassen sich auch<br />
auf das jeweils schlechte Resultat in ihrer Gruppe bezüglich der Statistik der Merk-<br />
malskorrespondenzen zurückführen. Gemäß Tabelle 4.4 schneidet bei den simulierten<br />
Daten im Bereich Interpolation ebenfalls die Sequenz SKA und bei den realen Daten<br />
die Sequenz RFN am schlechtesten ab. Die geringe Anzahl an Korrespondenzen führt<br />
schließlich auf eine instabilere Rekonstruktion und folglich zu den hier beobachteten<br />
größeren Rückprojektionsfehlern.
4.2. QUALITÄT VON 3D-REKONSTRUKTIONEN 135<br />
Tabelle 4.6: Streuung der rekonstruierten 3D-Punkte von der zugrunde liegenden Szenengeo-<br />
metrie. Die gewählten Korrespondenzen (vgl. Tab. 4.4) entstammen den verschiedenen Bildse-<br />
quenzen aus Tabelle 4.3. Die drei Spalten zeigen die Ergebnisse für die Rekonstruktion aus den<br />
Bilddaten mit Originalqualität ohne Abtastung und für die beiden nach faseroptischer Abtas-<br />
tung restaurierten Sequenzen (Filterung und Interpolation).<br />
Sequenz Original Filterung Interpolation<br />
SZK 0,881 1,701 1,818<br />
SKA 0,968 2,167 3,672<br />
SRT 0,774 1,676 2,226<br />
RZK 1,337 2,665 2,180<br />
RFN 1,509 1,852 1,857<br />
RGB 1,294 1,839 1,569<br />
Fazit: Unter dem Aspekt der Rückprojektionsfehler erweist sich die Filterung für die<br />
Vorverarbeitung einer Bildsequenz zur 3D-Rekonstruktion gegenüber der Interpolati-<br />
on als besser geeignet. Diese Aussage deckt sich mit der Erkenntnis aus der Statistik<br />
der Merkmalskorrespondenzen. Für die berechneten Korrespondenzen, deren Anzahl<br />
bei den restaurierten Bilddaten deutlich geringer ist, liegen die Restaurierungsfehler<br />
in einer ähnlichen Größenordnung. Eine höhere Unsicherheit, die aufgrund der groben<br />
Abtastung der Bilddaten durch das Faserbündel erwartet wird, konnte nicht nachge-<br />
wiesen werden.<br />
4.2.4 Streuung und Achsenverhältnis<br />
In Abschnitt 3.6.4 wurde die Berechnung des Achsenverhältnisses und der Streuung als<br />
Gütekriterium für elliptische Gebilde beschrieben. Diese Kriterien basieren auf dem<br />
Wissen um die Geometrie der rekonstruierten Szene, in diesem Fall eines zylinderar-<br />
tigen Hohlraums. Für die Auswertung werden 120 rekonstruierte 3D-Raumpunkte mit<br />
dem geringsten Rückprojektionsfehler verwendet. Die parallel zum Kamerapfad auf ei-<br />
ne Querschnittsebene projizierten Raumpunkte werden mit dem Erwartungswert, näm-<br />
lich der Form und der Position eines Kreises verglichen (vgl. Tab. 4.6 und Abb. 4.4).<br />
Bei den realen Szenen RZK und RGB ist die Streuung überraschenderweise bei der<br />
Interpolation geringer (2, 2% bzw. 1, 6%), als bei der Filterung (2, 7% bzw. 1, 8%). Die-<br />
se Ergebnisse müssen allerdings vor dem Hintergrund des Achsenverhältnisses inter-<br />
pretiert werden, auf das im Rahmen dieser Arbeit nicht im Detail eingegangen werden
136 4.2. QUALITÄT VON 3D-REKONSTRUKTIONEN<br />
Abbildung 4.4: Visualisierung der Streuungsstatistik aus Tabelle 4.6.<br />
kann. Für die genannten Rekonstruktionen RZK und RGB weicht das Achsenverhältnis<br />
stärker von der Kreisform ab, als für die übrigen Datensätze [Ste07]. Für die anderen<br />
untersuchten Zylinder zeigt die Filterung bessere Ergebnisse, insbesondere bei den si-<br />
mulierten Bildsequenzen. Die Streuung auf Basis der relativ glatten Textur bei SKA<br />
ist bei der Filterung erheblich geringer, als bei der Interpolation. Die Ergebnisse der<br />
Filterung und Interpolation unterscheiden sich um etwa 1, 5%, was sich auf den relativ<br />
großen Rückprojektionsfehler bei der Interpolation zurückführen lässt (vgl. Tab. 4.5).<br />
Auffallend ist zudem, dass die Streuung für die realen Bilddaten RZK und RFN,<br />
sowie für die simulierten Bilddaten SKA vergleichsweise hoch ist. Obwohl die Textu-<br />
ren alle eine feine, meist kontrastarme Struktur aufweisen, ist ein Zusammenhang mit<br />
der Statistik der Merkmalskorrespondenzen in Tabelle 4.4 nicht ersichtlich, da die An-<br />
zahl der detektierten Korrespondenzen sehr unterschiedlich ausfällt. Allerdings zeigt<br />
sich eine Übereinstimmung zwischen der Streuung und der Kombination aus Rück-<br />
projektionsfehler und Anzahl der Korrespondenzen. Demnach zeigen für die einzel-<br />
nen Restaurierungsansätze die Bildsequenzen RZK, RFN bzw. SKA mit einem hohen<br />
Rückprojektionsfehler, kombiniert mit einer geringen Anzahl an Korrespondenzen, ei-<br />
ne besonders hohe Streuung. Eine qualitativ hochwertige Rekonstruktion gemessen<br />
an einer geringen Streuung setzt also gute Resultate in den vorausgehenden Gesichts-<br />
punkten voraus.<br />
Fazit: Die Untersuchung zur Streuung von 3D-Punkten der Rekonstruktionen lie-<br />
fert für sich keine eindeutige Präferenz für einen Restaurierungsansatz. Lediglich in<br />
Kombination mit den Ergebnissen der vorausgehenden Auswertungen zeigen die Wer-
4.3. MODI UND EFFEKTIVITÄT DER FILTERUNG 137<br />
te eine Übereinstimmung mit den bisherigen Aussagen. Tendenziell werden auch be-<br />
züglich der Streuung mit der Filterung bessere Ergebnisse erzielt. Wo dies nicht der<br />
Fall ist, können die Ausreißer dieser Statistik eindeutig auf andere Faktoren, wie z. B.<br />
eine vergleichsweise geringe Anzahl an Korrespondenzen oder einen hohen Rückpro-<br />
jektionsfehler zurückgeführt werden.<br />
4.3 Modi und Effektivität der Filterung<br />
Hier wird mit dem Güteindikator QSR aus Abschnitt 3.6.1 der geringe, aber nach-<br />
weisbare Unterschied zwischen den verschiedenen Maskentypen bei der automatisier-<br />
ten Filterung ausgewertet. Grundlage für die Evaluierung ist die Detailerhaltung und<br />
Glattheit im USAF-Testbild. Dabei werden die Ergebnisse auch mit den Werten einer<br />
manuellen Parametrisierung nach dem Stand der Technik verglichen.<br />
4.3.1 Filteransätze und Maskentypen<br />
Der Restaurierungsansatz im Frequenzraum (vgl. Abschn. 3.2.1) wird mit weiteren li-<br />
nearen (Gauss) und nicht-linearen Filteralgorithmen (Median) verglichen, wie sie im<br />
Artikel [SCG + 01] in der Zeitschrift Nature von Sanderson et al. für die Faserendo-<br />
skopie vorgeschlagen werden. Die Wirkung dieser Gruppe von Filtern gleicht dem<br />
optischen Weichzeichnen durch entsprechende Linsensysteme, wie sie häufig in han-<br />
delsüblichen Komponenten statt digitaler Bildverarbeitung zum Einsatz kommen.<br />
Tabelle 4.7 gibt einen Überblick über die sieben Filteransätze, die zusammen mit<br />
dem Originalbild acht zu vergleichende Ergebnisse liefern. Die vier möglichen Kom-<br />
binationen der spektralen Maskierung F1 bis F4 setzen sich aus der kreisförmigen<br />
bzw. der sternförmigen Maske sowie je einer Version mit harter Flanke bzw. einer mit<br />
geglättetem Grenzfrequenzübergang zusammen (vgl. Abschn. 3.2.1). Zum Vergleich<br />
werden der Median-Filter mit einer Fensterbreite von sieben Bildpunkten und je eine<br />
Faltung mit einer Gauss-Verteilung der Varianz σ = 1, 0 und σ = 2, 0 herangezogen.<br />
Bei der empirischen Wahl der fixen Parameter der Vergleichsfilter wurde darauf geach-<br />
tet, dass die Werte die charakteristische Größe der Faserstruktur widerspiegeln, d.h. die<br />
Fensterung des Median-Filters und der Einfluss der Gauss-Verteilung entspricht in et-<br />
wa der Größenordnung des mittleren Abstands der Fasern in der Abbildung.
138 4.3. MODI UND EFFEKTIVITÄT DER FILTERUNG<br />
Tabelle 4.7: Verschiedene Filtertypen und deren Spezifikationen, die für die Evaluierungen der<br />
Linientrennung im Auflösungsmuster verglichen werden. Die Einteilung der Filtertypen in die<br />
Gruppen 1 bis 3 dient der Auswertung der subjektiven Evaluierung.<br />
4.3.2 Bildmaterial<br />
# Filtertyp Spezifikation Filter-<br />
F0 Ohne Filterung Originalbild<br />
F1 Spektrale Maskierung Kreisform, Stufe 1<br />
F2 Spektrale Maskierung Kreisform, geglättet 1<br />
F3 Spektrale Maskierung Sternform, Stufe 1<br />
F4 Spektrale Maskierung Sternform, geglättet 1<br />
F5 Median-Filter Fensterbreite 7 2<br />
F6 Faltung mit Gauss σ = 1, 0 2<br />
F7 Faltung mit Gauss σ = 2, 0 3<br />
gruppe<br />
Für eine Auswertung mit dem beschriebenen Güteindikator aus Abschnitt 3.6.1 ist<br />
prinzipiell jedes Linienmuster geeignet, dass die folgenden beiden Anforderungen er-<br />
füllt. Einerseits muss es eine hinreichend große homogene Fläche zur Evaluierung der<br />
Glattheit bieten und andererseits eine ausreichende Menge an Liniengruppen in abge-<br />
stufter Dichte darstellen, um den Übergang zwischen visuell gut separierbar und feh-<br />
lerhaft abgetastet nutzen zu können. Dafür eignet sich das USAF-Testbild USF (vgl.<br />
Tab. 4.8).<br />
4.3.3 Resultate<br />
Abbildung 4.5 zeigt die beiden Evaluierungsbereiche ΩR und ΩS in den gefilterten<br />
Abbildern UF1 und UF2 des Linienmusters USF (vgl. Tab. 4.8). Sie dienen zur Be-<br />
rechnung der beiden Komponenten QS (Glattheit) und QR (Detailerhaltung), die ge-<br />
mäß Gleichung (3.35) (vgl. Abschn. 3.6.1) in die Restaurierungsgüte QSR einfließen.<br />
Tabelle 4.9 und Tabelle 4.10 listen die beiden Werte QS und QR zusammen mit der re-<br />
sultierenden Restaurationsgüte QSR auf. Der Gewichtungsfaktor γ kann anwendungs-<br />
spezifisch variiert werden. Ein geeigneter Richtwert für ein ausgeglichenes Verhältnis<br />
zwischen Detailerhaltung und Glattheit ist γ = 0, 5. Für eine optimierte Beurteilung<br />
der Glättung im Fall der wabenartigen Struktur von Faserbildleitern wird der Einfluss
4.3. MODI UND EFFEKTIVITÄT DER FILTERUNG 139<br />
Tabelle 4.8: USAF-Testbild für die kombinierte Evaluierung von Detailerhaltung und Glattheit<br />
USF<br />
UF1<br />
UF2<br />
USAF-Testbild zur Untersuchung der Auflösung<br />
von optischen Systemen. Die Dichte der in Grup-<br />
pen angeordneten Linienpaare nimmt mit steigen-<br />
dem Index zu.<br />
Abbildung des USAF-Testbilds USF mit dem Glas-<br />
faserendoskop E6 (vgl. Tab. 4.1).<br />
Abbildung des USAF-Testbilds USF mit dem<br />
Quarzfaserendoskop E4 (vgl. Tab. 4.1).<br />
(a) UF1 (b) UF2<br />
Abbildung 4.5: Gefilterte Abbilder des USAF-Testbilds (vgl. Tab. 4.8) mit markierten Evaluie-<br />
rungsbereichen ΩR für das Rayleigh-basierte Kriterium der Linienseparierbarkeit und ΩS für<br />
die Bestimmung der Glattheit.
140 4.3. MODI UND EFFEKTIVITÄT DER FILTERUNG<br />
Tabelle 4.9: Ergebnisse der Gütemessung für die Aufnahme UF1 des Linienmusters USF mit<br />
den Evaluierungsbereichen ΩR und ΩS aus Abbildung 4.5(a). Die Werte liegen im Bereich [0; 1]<br />
und es gilt: Je größer, desto besser. Jede Zeile repräsentiert einen Filteransatz aus Tabelle 4.7.<br />
Der Güteindikator QSR wird jeweils für zwei Gewichtungen (γ = 0, 5 und γ = 0, 8) der<br />
Komponenten QR (Detailerhaltung) und QS (Glattheit) angegeben.<br />
# Filtertyp QS QR QSR<br />
γ = 0, 5 γ = 0, 8<br />
F0 Ohne Filterung 0,000 0,473 0,237 0,0946<br />
F1 Spek. Mask., Kreis, Stufe 0,643 0,335 0,489 0,581<br />
F2 Spek. Mask., Kreis, weich 0,657 0,280 0,468 0,581<br />
F3 Spek. Mask., Stern, Stufe 0,627 0,308 0,468 0,563<br />
F4 Spek. Mask., Stern, weich 0,657 0,298 0,478 0,585<br />
F5 Median-Filter, Breite 7 0,504 0,145 0,325 0,432<br />
F6 Gauss-Faltung, σ = 1, 0 0,317 0,442 0,379 0,342<br />
F7 Gauss-Faltung, σ = 2, 0 0,667 0,222 0,445 0,578<br />
der Glättung durch einen höheren Gewichtungsfaktor, z. B. γ = 0, 8 verstärkt. Die letz-<br />
te Spalte der Tabellen zeigt die Restaurierungsgüte zusätzlich für diese Einstellung.<br />
Einige der Ergebnisse in Tabelle 4.9 sind besonders auffällig und werden hier kurz<br />
diskutiert:<br />
F1: Ohne Filterung Da Gleichung (3.30) zur Berechnung der Glattheit das unge-<br />
filterte Originalbild als Referenz verwendet, liegt der Wert QS für die Glattheit bei<br />
Null. Jedwede Anwendung eines Filters führt hier zu einer Senkung der Varianz im<br />
Evaluierungsbereich ΩS und damit zu einer Verbesserung, d.h. höheren positiven Wert<br />
QS. Dass eine Filterung stets zum Verwaschen von Details führt, ist an der Detailer-<br />
haltung r zu erkennen, die hier ihr Maximum zeigt. Im Ergebnis QSR schneiden beide<br />
Gewichtungen jedoch erwartungsgemäß vergleichsweise schlecht ab.<br />
F6: Gauss-Faltung mit σ = 1, 0 Die Gauss-Faltung mit einer Varianz von σ = 1, 0<br />
führt hier zu einer sehr hohen Detailerhaltung von QR = 0, 442. Dass der Filter jedoch<br />
für diese Aufnahme nicht gut parametrisiert sein kann, zeigt der schlechte Wert für die<br />
Glattheit, QS = 0, 317, und letztendlich das niedrige Resultat für QSR.
4.3. MODI UND EFFEKTIVITÄT DER FILTERUNG 141<br />
Tabelle 4.10: Ergebnisse der Gütemessung für die Aufnahme UF2 des Linienmusters USF mit<br />
den Evaluierungsbereichen ΩR und ΩS aus Abbildung 4.5(b). Die Werte liegen im Bereich [0; 1]<br />
und es gilt: Je größer, desto besser. Jede Zeile repräsentiert einen Filteransatz aus Tabelle 4.7.<br />
Der Güteindikator QSR wird jeweils für zwei Gewichtungen (γ = 0, 5 und γ = 0, 8) der<br />
Komponenten QR (Detailerhaltung) und QS (Glattheit) angegeben.<br />
# Filtertyp QS QR QSR<br />
γ = 0, 5 γ = 0, 8<br />
F0 Ohne Filterung 0,000 0,290 0,145 0,0579<br />
F1 Spek. Mask., Kreis, Stufe 0,285 0,265 0,275 0,281<br />
F2 Spek. Mask., Kreis, weich 0,285 0,267 0,276 0,281<br />
F3 Spek. Mask., Stern, Stufe 0,288 0,273 0,280 0,285<br />
F4 Spek. Mask., Stern, weich 0,288 0,273 0,280 0,285<br />
F5 Median-Filter, Breite 7 0,283 0,168 0,226 0,260<br />
F6 Gauss-Faltung, σ = 1, 0 0,259 0,247 0,253 0,257<br />
F7 Gauss-Faltung, σ = 2, 0 0,265 0,185 0,225 0,249<br />
F1 - F4: Spektrale Maskierung Dass die automatische spektrale Maskierung durch-<br />
gehend hohe bzw. die höchsten Werte erzielt, liegt an der hohen Glattheit s > 0, 6<br />
bei gleichzeitig durchschnittlicher Detailerhaltung dieses automatisch parametrisier-<br />
ten Ansatzes. Das wird auch später in der visuellen Bewertung (vgl. Abschn. 4.3.4)<br />
bestätigt. Die Wahl des Gewichtungsfaktors mit γ = 0.8 betont die positive Wirkung<br />
der Filter F1 bis F4. Allerdings ist der Gewinn durch die sternförmige Maske (F3,F4)<br />
nicht deutlich, wie zunächst aufgrund der charakteristischen Frequenzverteilung im<br />
Spektrum der homogenen Anordnung von Fasern im Querschnitt eines Glasfaserbün-<br />
dels (hier: Endoskop E6, vgl. Tab. 4.1) vermutet wurde.<br />
F7: Gauss-Faltung mit σ = 2, 0 Der Wert σ = 2, 0 für die Gauss-Faltung führt<br />
zu einem nahezu identischen Gütewert QSR = 0, 578, wie ihn die spektrale Filterung<br />
mit weicher Sternmaske (F4) zeigt (QSR = 0, 585). Das lässt auf eine nahezu optimale<br />
Wahl der Varianz für das Filter schließen. Der Nachteil zu den Ansätzen F1 bis F4 liegt<br />
hier, wie im Vergleich auch der Ansatz F6 zeigt, in der Notwendigkeit einer manuellen<br />
Parametrisierung und damit in der Ungewissheit über die optimale Lösung.<br />
Um den Rahmen dieser Auswertung nicht zu sprengen, werden hier lediglich zwei<br />
der untersuchten USAF-Abbildungen mit passenden Evaluierungsbereichen dargestellt<br />
und analysiert. Mit Tabelle 4.10 werden die Ergebnisse einer zweiten Aufnahme (UF2,<br />
vgl. Tab. 4.8) zum Vergleich gestellt. Obwohl sich die einzelnen Werte gegenüber den
142 4.3. MODI UND EFFEKTIVITÄT DER FILTERUNG<br />
entsprechenden Zahlen in Tabelle 4.9 unterscheiden, führen sie doch zu der gleichen<br />
Aussage und machen den Fortschritt durch die automatische Maskierung deutlich. Der<br />
vergleichsweise niedrige Kontrast in der ungefilterten Version von UF2 führt zu einer<br />
niedrigen Standardabweichung σ0 im Nenner von Gleichung (3.30) und damit zu ei-<br />
nem relativ niedrigen Wert QS für die Glattheit. Die Maximalwerte für die spektralen<br />
Maskierungen mit Sternmaske (F3,F4) liegen dicht an den entsprechenden Ergebnis-<br />
sen der Maskierungen mit Kreismaske, weil die zugrunde liegenden Aufnahmen mit<br />
dem Endoskop E4 (vgl. Tab. 4.1) abgebildet wurden. Dieses arbeitet mit einem Bild-<br />
leiter aus Quarzfasern, dessen Spektrum eine nahezu radialsymmetrische Verteilung<br />
zeigt und deshalb erwartungsgemäß auch ausreichend gut mit der Kreismaske bearbei-<br />
tet werden kann.<br />
4.3.4 Subjektive Bewertung<br />
Mit einer repräsentativen Stichprobe aus zwölf Szenen (vgl. Abb. 4.6), darunter kon-<br />
trastreiche Linien-, Punkt- und Kalibriermuster, aber auch zwei Innenansichten eines<br />
zylinderförmigen Hohlraums, wird die subjektive Wahrnehmung von Testpersonen be-<br />
züglich der Filteransätze aus Tabelle 4.7 untersucht.<br />
Jedes der zwölf Bilder wurde zum einen mit den entwickelten Verfahren zur au-<br />
tomatischen spektralen Maskierung mit optimierter Filtermaske für Quarz- und für<br />
Glasfaser aufbereitet (vgl. Tab. 4.7, Filtergruppe 1). Zum anderen werden die drei fest<br />
parametrisierten herkömmlichen Vergleichfilter der Filtergruppe 2 und 3 angewendet<br />
und die Ergebnisse sieben Testpersonen zur Beurteilung vorgelegt. Für jede der zwölf<br />
Abbildungen standen zusammen mit der originalen Aufnahme jeweils acht aufberei-<br />
tete Versionen zur Auswahl. Abbildung 4.7 zeigt beispielhaft für das Linienmuster<br />
(i) aus Abbildung 4.6 die Resultate der Aufbereitung, die zur Beurteilung allerdings<br />
auf einem Monitor begutachtet werden müssen. Die Personen wurden nach ihrer sub-<br />
jektiven Einschätzung bezüglich typischer Kriterien wie Kontrast und Detailerhaltung<br />
befragt und sollten das Resultat mit dem besten Kompromiss zwischen Wabenredukti-<br />
on und Detailerhaltung angeben. Wurden zwei Ergebnisse gleich gut eingeschätzt war<br />
eine Mehrfachnennung möglich. Die Auswahl erfolgte unter einheitlichen Licht- und<br />
Raumbedingungen und die Abbildungen wurden in Originalgröße auf einem Flach-<br />
bildschirm dargestellt.<br />
Tabelle 4.11 zeigt die Ergebnisse des visuellen Vergleichstests, nach den Testper-<br />
sonen gruppiert. Die oberste Zeile gibt den Mittelwert der Entscheidungen wieder.<br />
Die Filtergruppe 1 besteht aus den verschiedenen Typen der vorgeschlagenen spektra-
4.3. MODI UND EFFEKTIVITÄT DER FILTERUNG 143<br />
(a) (b) (c) (d) (e) (f)<br />
(g) (h) (i) (j) (k) (l)<br />
Abbildung 4.6: Repräsentative Stichprobe aus zwölf Szenen, zur Evaluierung der subjektiven<br />
Wahrnehmung hinsichtlich verschiedener<br />
len Maskierung mit automatischer Maskengenerierung (Filter F1 bis F4 in Tab. 4.7).<br />
Filtergruppe 2 setzt sich zusammen aus den herkömmlichen Filtern Median (F5) und<br />
Gauss mit σ = 1.0 (F6). Der Gaussfilter F7 mit σ = 2.0 wird separat als Filtergruppe 3<br />
angegeben, weil seine Parametrisierung in einigen Fällen zu ähnlich guten Ergebnissen<br />
führt, wie ein bestimmter Typ der spektralen Maskierung (s. Abschn. 4.3.3). Aufgrund<br />
der Ähnlichkeit der Filterergebnisse von F7 zu Resultaten aus der Filtergruppe 1 könn-<br />
ten die Entscheidungen für diesen Filter auch zur Filtergruppe 1 gerechnet werden. Der<br />
Unterschied zwischen den beiden Methoden liegt in der Unsicherheit der Wahl von Pa-<br />
rametern, die im Fall der vorgeschlagenen Ansätze automatisch berechnet werden, im<br />
herkömmlichen Fall jedoch manuell gewählt werden. Aber auch bei Unterscheidung<br />
aller Filtergruppen zeigt die Studie im Mittel eine Präferenz für die Filtergruppe 1 mit<br />
79% aller Entscheidungen. Nach Meinung der Testpersonen liefern damit die Varianten<br />
der vorgeschlagenen spektralen Filterung die besten Resultate.<br />
Eine detailiertere Betrachtung der Entscheidungen in Filtergruppe 1 (im Rahmen<br />
von diesem Abschnitt nicht weiter ausgeführt) liefert eine weitere interessante Erkennt-<br />
nis, durch welche die Theorie des Paragraphen Weicher Übergang der Grenzfrequenz<br />
in Abschnitt 3.2.1.2 bestätigt wird. Demnach wird für Aufnahmen mit Glasfaserbün-<br />
deln die Filterung mit geglätteter Sternmaske einer Bearbeitung mit hartem Grenz-<br />
frequenzübergang vorgezogen. Die Ausführungen im genannten Abschnitt über die<br />
Verknüpfung von Gauss-, Rechtecks- und Sinc-Funktionen zwischen Frequenz- und<br />
Ortsraum erklären diesen Sachverhalt.
144 4.3. MODI UND EFFEKTIVITÄT DER FILTERUNG<br />
(a) Original (b) F1 (c) F2 (d) F3<br />
(e) F4 (f) F5 (g) F6 (h) F7<br />
Abbildung 4.7: Filterresultate (F1 bis F7, vgl. Tab. 4.7) für den visuellen Vergleichstest am<br />
Beispiel des Linienmusters (i) aus Abbildung 4.6.<br />
Tabelle 4.11: Ergebnisse des Vergleichstests zur visuellen Wahrnehmung der Restaurierungs-<br />
güte verschiedener Filteransätze und -dimensionierungen (vgl. Tab. 4.7).<br />
Fazit: Zusammenfassend kann festgestellt werden, dass die automatische Filterung,<br />
wie sie in den entsprechenden Abschnitten des Kapitel 3 für die Faserendoskopie vor-<br />
gestellt werden, mit überwiegender Mehrheit die besten Ergebnisse liefert. Das gilt<br />
sowohl für die Resultate der subjektiven Wahrnehmung der befragten Testpersonen,<br />
als auch für die quantitativen Ergebnisse der Evaluierung anhand des eingeführten Gü-<br />
teindikators zur Wabenreduktion und Detailerhaltung im USAF-Testbild.
4.4. MODELLBASIERTER VERGLEICH VON FILTERUNG VS. INTERPOLATION 145<br />
4.4 Modellbasierter Vergleich von Filterung vs. Inter-<br />
polation<br />
Dieser Abschnitt vergleicht den Ansatz der Filterung und der Interpolation hinsicht-<br />
lich der Restaurierungsqualität bei unterschiedlicher Bildfrequenz und Faserdichte.<br />
Zur Evaluierung kommen datengetriebene Gütekriterien in Form von Differenz- und<br />
Ähnlichkeitsmaßen (vgl. Abschn. 3.6) zum Einsatz. Zu Beginn erhält der Leser einen<br />
Überblick über die gewählten Bilddaten für die Evaluierung.<br />
4.4.1 Bildmaterial<br />
Zur Untersuchung der Abbildungseigenschaften des Faserbündels und der Qualität<br />
verschiedener Restaurierungsansätze werden Bilder generiert, deren Intensitäten einen<br />
sinusartigen Verlauf um einen konstanten Mittelwert zeigen. Statt einer unübersichtli-<br />
chen Menge an Bildausschnitten mit unterschiedlichen Texturbeschaffenheiten kann so<br />
ein universelles Punktmuster mit variablem periodischen Intensitätsverlauf verwendet<br />
werden, um die Wirkung der Doppelabtastung durch Faserbündel und Kamerasensor<br />
gezielt auf bestimmte Grenzfrequenzen hin zu untersuchen. In der Nachrichtentechnik<br />
werden zu diesem Zweck sog. Wobblergeneratoren eingesetzt, also Frequenzgenerato-<br />
ren mit periodisch veränderlicher Signalfrequenz. Für die zweidimensionale Darstel-<br />
lung werden die Bilder sinusförmig in vertikaler und horizontaler Richtung moduliert.<br />
Gegenüber einem Linienmuster zeigt das so modulierte Punktmuster weniger Alias<br />
durch Vorzugsrichtungen im Zusammenspiel mit der hexagonalen Anordnung des Fa-<br />
serbündels.<br />
f definiere die Ortsfrequenz der Sinusfunktion in Linienpaare pro 1.000 Bildpunkte<br />
(LP/kPx), W bzw. H die Breite bzw. Höhe des Bilds und Amin bzw. Amax den minimalen<br />
bzw. maximalen Intensitätswert im Bild. Das Sinusbild SNS wird definiert als<br />
SNSf (x, y) = Amax<br />
<br />
− Amin 2 π f 2 π f<br />
· sin · x sin · y +<br />
2<br />
1000 1000 Amax + Amin<br />
2<br />
für 0 ≤ x ≤ W, 0 ≤ y ≤ H .<br />
Tabelle 4.12 zeigt beispielhaft zwei Sinusbilder der Größe 512 × 512 mit einer<br />
Ortsfrequenz von f = 30 LP/kPx bzw. f = 120 LP/kPx. Die Amplitude wird auf den<br />
Bereich von Amin = 20 bis Amax = 220 Graustufen (von möglichen 256 Graustufen)<br />
begrenzt, um bei der weiteren Bearbeitung Sättigungseffekte zu umgehen. Anschlie-<br />
ßend wird die Übertragung durch ein Bildbündel mit variabler Faserdichte simuliert.
146 4.4. MODELLBASIERTER VERGLEICH VON FILTERUNG VS. INTERPOLATION<br />
Tabelle 4.12: Sinusbilder für die Evaluierung der Restaurierungseigenschaften. Die linke Spal-<br />
te der Beispielbilder zeigt den Verlauf bei einer Frequenz von 30 LP/kPx, die rechte Spalte bei<br />
einer Frequenz von 120 LP/kPx. Die Zeilen unterscheiden sich hinsichtlich der Faserdichte<br />
im eingesetzten Bildbündel. In der Bezeichnung SNS [NF]<br />
f<br />
LP/kPx) und NF für die Faseranzahl (in Tausend).<br />
SNS30, SNS120<br />
SNS [3]<br />
30, SNS [3]<br />
120<br />
SNS [6]<br />
30, SNS [6]<br />
120<br />
SNS [12]<br />
30 , SNS [12]<br />
120<br />
Sinusförmiger Intensitäts-<br />
verlauf in vertikaler und<br />
horizontaler Richtung mit<br />
30 bzw. 120 LP/kPx.<br />
Abtastung von SNS30 bzw.<br />
SNS120 mit 3.000 Fasern.<br />
Abtastung von SNS30 bzw.<br />
SNS120 mit 6.000 Fasern.<br />
Abtastung von SNS30 bzw.<br />
SNS120 mit 12.000 Fasern.<br />
steht f für die Bildortsfrequenz (in<br />
30 LP/kPx 120 LP/kPx<br />
Die drei unteren Zeilen in Tabelle 4.12 zeigen das Ergebnis dieses Schritts für 3.000,<br />
6.000 und 12.000 Fasern bei einem Aperturradius von 240 Pixel und einer Vorzugsrichtung<br />
der Faseranordnung von 30 ◦ . Die Indizes f bzw. NF in der Bezeichnung SNS [NF]<br />
f<br />
stehen für Bildortsfrequenz f in LP/kPx bzw. für die Faseranzahl NF (in Tausend).<br />
4.4.2 Vergleichsmöglichkeit von Filterung und Interpolation<br />
Die Differenzmaße mittlere Betragsdifferenz (MAD) bzw. das verwandte Spitzensig-<br />
nal-zu-Rausch-Verhältnis (PSNR), sowie die Ähnlichkeitsmaße mittlere strukturelle<br />
Ähnlichkeit (MSSIM) bzw. die Transinformation (TI) zwischen originalen und aufbe-<br />
reiteten Bildern bieten einen direkten pixelweisen oder statistischen Vergleich in Be-<br />
zug auf die Restaurierungsgüte. Die Ansätze werden hinsichtlich der Variablen Bild-<br />
frequenz (vgl. Abschn. 4.4.3) und Faseranzahl (vgl. Abschn. 4.4.4) untersucht.
4.4. MODELLBASIERTER VERGLEICH VON FILTERUNG VS. INTERPOLATION 147<br />
Beim Vergleich der beiden Ansätze Filterung und Interpolation mit Differenz- und<br />
Ähnlichkeitsmaßen tritt eine gravierende Schwierigkeit auf. Über die genaue Position<br />
der Faserzentren gelingt es mit der Interpolation, unabhängig vom Wabenhintergrund<br />
die tatsächlichen Spitzenwerte der Helligkeit im Bild zu bestimmen. Der Aufbau des<br />
restaurierten Bilds erfolgt auf Basis dieser Information. Bei der Filterung hingegen<br />
werden die dunklen Strukturen des Wabenmusters mit den überwiegend helleren Bild-<br />
punkten verwaschen. Das Resultat ist eine grundsätzliche Minderung der Helligkeit im<br />
Bild, was einen intensitätsbasierten Differenzvergleich stark beeinflusst. Für die Evalu-<br />
ierung mit Differenzmaßen wird daher im Voraus die Bildhelligkeit l und der Kontrast<br />
c der gefilterten und interpolierten Bilder im Sinne des mittleren quadratischen Fehlers<br />
bestmöglich an die vorgegebene Szene S angeglichen. So kann gewährleistet werden,<br />
dass der pixelweise Vergleich der Bildunterschiede unabhängig von globalen Unter-<br />
schieden in Helligkeit und Kontrast erfolgt. Das Bild I, das zum Vergleich herangezo-<br />
gen wird, wird dementsprechend durch Addition von ˆl (Helligkeit) und Multiplikation<br />
mit ĉ (Kontrast) in Bezug auf die Originalszene korrigiert:<br />
<br />
ˆl, ĉ = argmin<br />
l,c<br />
<br />
(x,y)∈R<br />
|I(x, y) · c + l − S(x, y)| .<br />
4.4.3 Differenzgüte und Ähnlichkeit in Abhänigkeit der Bildfre-<br />
quenz<br />
Abbildung 4.8 vergleicht die Restaurierungsqualität bei einer konstanten Faserdich-<br />
te von 12.000 Fasern auf einer Apertur von 240 Pixel. Die Bildfrequenz variiert von<br />
20 bis 150 LP/kPx in Schritten von je fünf LP/kPx. Als Gütekriterien sind hier die<br />
mittlere Betragsdifferenz (MAD) und das Spitzen-Signal-zu-Rausch-Verhältnis (PS-<br />
NR) aufgetragen. Wie zu erwarten, steigt die MAD und sinkt das PSNR mit steigender<br />
Bildfrequenz, da bei konstanter Abtastung höhere Frequenzen zu steigenden Fehlern<br />
im restaurierten Ergebnis führen. Alle drei Ansätze der Aufbereitung starten bei ei-<br />
ner Bildfrequenz von 20 LP/kPx mit einer Abweichung von ungefähr 2, 5 Grauwer-<br />
ten bzw. einem PSNR von etwa 38, 3 dB. Auffällig stark springt die Abweichung bei<br />
der Filterung zwischen 95 und 100 LP/kPx von 15, 6 auf 25, 5 Grauwerte (im Weite-<br />
ren Qualitätssprung genannt; nähere Betrachtung folgt im nächsten Abschn.), bevor<br />
sie zwischen 25 und 26 Grauwerte in die Sättigung geht. Die Interpolation hingegen<br />
verhält sich kontinuierlicher, vor dem Sprung bei der Filterung zwar mit deutlich hö-<br />
herem Fehler, dafür ohne auffälligem Sprung bei etwa 100 LP/kPx und vergleichs-<br />
weise besseren Werten nach dem Einbruch der Filterung. Die Beobachtung lässt sich<br />
mit dem Theorem der Abtastung erklären, das für eine bestimmte Abtastfrequenz ei-
148 4.4. MODELLBASIERTER VERGLEICH VON FILTERUNG VS. INTERPOLATION<br />
ne Grenzfrequenz für die zu übertragenden Bildinhalte definiert. Gleichung (3.4) gibt<br />
den mittleren Faserabstand bei 12.000 Fasern innerhalb einer Apertur mit Radius 240<br />
Pixel mit 4, 2 Pixel an (vgl. Kurvenschar in Abb. 3.4). Die Periodenlänge zwischen<br />
zwei exakt abgetasteten hellen bzw. dunklen Punkten entspricht damit in guter Nähe-<br />
rung der beobachteten Grenzfrequenz. Die Analyse wird in Abbildung 4.9 durch zwei<br />
weitere Vergleichsmaße, der strukturellen Ähnlichkeit (MSSIM) und der statistischen<br />
Transinformation (TI) bestätigt. Am Verlauf der MSSIM lässt sich der dritte Ansatz,<br />
nämlich die kombinierte Anwendung von Interpolation und Filterung, wie sie in Ab-<br />
schnitt 3.2.3 vorgeschlagen wird, gut beurteilen. Sowohl vor dem Qualitätssprung, als<br />
auch nach diesem folgt die gestrichelte Kurve jeweils dem Ergebnis des schlechteren<br />
Ansatzes. Sinkt sie bereits zu Beginn von 100% mit der Kurve der Interpolation konti-<br />
nuierlich ab, so fällt sie am Qualitätssprung mit der Filterung auf das Sättigungsniveau<br />
zwischen 46% und 47% und bescheinigt damit diesem kombinierten Ansatz ein durch-<br />
weg schlechtes Ergebnis, verglichen mit den beiden einzelnen Verfahren.<br />
4.4.4 Differenzgüte und Ähnlichkeit in Abhängigkeit der Faseran-<br />
zahl<br />
Eine wichtige Fragestellung betrifft das Restaurierungsverhalten bestimmter Bildfre-<br />
quenzen unter variierender Faserdichte im Querschnitt des abtastenden Bildbündels.<br />
So kann in Abhängigkeit der Faseranzahl die Güte der Restaurierung untersucht wer-<br />
den. Für zwei Bildfrequenzen, nämlich 80 und 100 LP/kPx ist in den Abbildungen<br />
4.11, 4.12 und 4.13 die Differenz bzw. Ähnlichkeit für verschiedene Faseranzahlen von<br />
3.000 bis 18.000 Fasern aufgetragen. Der Kurvenverlauf in Abbildung 4.11 zeigt den<br />
Qualitätssprung und damit die Schwelle der strukturerhaltenden Restaurierung zwi-<br />
schen 8.000 und 9.000 Fasern. Zum Vergleich: Handelsübliche Endoskope verwenden<br />
meist Bildbündel mit mindestens 12.000 Fasern.<br />
Abbildung 4.10 veranschaulicht die Bedeutung und Auswirkung des Qualitäts-<br />
sprungs. Dazu sind für eine konstante Bildfrequenz von 80 LP/kPx die Bilddaten im<br />
kritischen Bereich zwischen 7.000 und 10.000 Fasern nebeneinander aufgereiht und<br />
mit einem vergrößerten Ausschnitt gekennzeichnet. (a) zeigt das originale Muster. (b)<br />
bis (e) zeigen die Originaldaten nach Abtastung durch das Bildbündel mit der entspre-<br />
chenden Faseranzahl: (b) 7.000, (c) 8.000, (d) 9.000 und (e) 10.000. (f) bis (i) sind<br />
die entsprechenden Resultate nach Filterung und (j) bis (m) die Ergebnisse nach In-<br />
terpolation. Bis zur Schwelle von 8.000 Fasern ist das Ergebnis der Filterung noch<br />
gravierend durch Aliaseffekte bestimmt (vgl. (b,c) Abb. 4.10). Erst ab 9.000 Fasern<br />
bleibt die Struktur des Punktmusters nach Filterung der Abtastung erhalten (vgl. (d,e)
4.4. MODELLBASIERTER VERGLEICH VON FILTERUNG VS. INTERPOLATION 149<br />
Abbildung 4.8: Vergleich der Restaurierungsqualität bei variabler Bildfrequenz. Die Filterung,<br />
die Interpolation und die hintereinander geschaltete Kombination aus beiden werden mit den<br />
Differenzmaßen MAD und PSNR (vgl. Abschn. 3.6.2) evaluiert. Als Bildmaterial wird ein uni-<br />
verselles Punktmuster verwendet, das für verschiedene Bildfrequenzen von 20 bis 150 LP/kPx<br />
generiert und mit konstanter Faserdichte (12.000 Fasern in 240 Pixel Aperturradius) abgebil-<br />
det wird.<br />
Abbildung 4.9: Vergleich der Restaurierungsqualität bei variabler Bildfrequenz. Die Filterung,<br />
die Interpolation und die hintereinander geschaltete Kombination aus beiden werden mit den<br />
Differenzmaßen MSSIM und TI (vgl. Abschn. 3.6.3) evaluiert. Als Bildmaterial wird ein uni-<br />
verselles Punktmuster verwendet, das für verschiedene Bildfrequenzen von 20 bis 150 LP/kPx<br />
generiert und mit konstanter Faserdichte (12.000 Fasern in 240 Pixel Aperturradius) abgebil-<br />
det wird.
150 4.4. MODELLBASIERTER VERGLEICH VON FILTERUNG VS. INTERPOLATION<br />
Abb. 4.10), was sich nach den betrachteten Differenz- und Ähnlichkeitsmaßen durch<br />
einen sprunghaften Anstieg der Restaurierungsqualität (Qualitätssprung) bemerkbar<br />
macht. Bei der Interpolation hingegen sind über den gesamten dargestellten Bereich<br />
Strukturartefakte zu erkennen. Dadurch dass einzelne Stützstellen jedoch in Bezug auf<br />
die Helligkeit korrekt detektiert werden, ergibt sich für die gewählten Gütemaße im<br />
Mittel ein Wert, der vor dem Qualitätssprung etwas über und danach deutlich unter<br />
dem der Filterung liegt.<br />
Bei der Betrachtung von höheren Strukturfrequenzen im Ausgangsbild steigt er-<br />
wartungsgemäß auch die Schwelle der Faseranzahl, ab der eine strukturerhaltende<br />
Restaurierung möglich ist. Abbildung 4.13 zeigt diesen Verlauf für ein universelles<br />
Punktmuster mit 100 LP/kPx. Bei der Schwelle zwischen 12.000 und 13.000 Fasern<br />
verbessert sich demnach die Qualität der Restaurierung für die Filterung gemessen an<br />
der MAD um über 25% und das PSNR steigt um über drei dB an. Wie bei der Variati-<br />
on der Bildfrequenzen, so tritt auch hier der Qualitätssprung nur bei der Filterung und<br />
dem kombinierten Ansatz auf. Für niedrige Faseranzahlen ist die Qualität der Interpo-<br />
lation besser als die der Filterung. Das liegt an dem stützstellenbasierten Prinzip der<br />
Interpolation, mit dem sie zwar zuverlässige Signalwerte an vorhandenen Faserzen-<br />
tren definieren kann, jedoch auf nicht optimale Weise, z.B. mit nicht differenzierbaren<br />
Verläufen zwischen diesen Stützstellen interpoliert.<br />
4.4.5 Fazit<br />
Beim direkten Vergleich von restaurierten Bildern mit ihrem Original muss der Ein-<br />
fluss durch die Schwelle der Strukturerhaltung beachtet werden. Sie gibt an, ab wel-<br />
cher Grenze die gemessenen Qualitätsunterschiede durch Aliaseffekte maßgeblich be-<br />
einflusst werden. Generell tritt diese Schwelle bei der Filterung dort am deutlichsten<br />
auf, wo das Abtasttheorem eine Grenzfrequenz für die Rekonstruktion eines Signals<br />
mit bestimmter Frequenz definiert. Bei der Interpolation nimmt die Qualität mit stei-<br />
gender Faserdichte bzw. sinkender Signalfrequenz kontinuierlicher zu, kommt global<br />
jedoch nicht an die Spitzenqualität der Filterung heran.<br />
Die Kombination der beiden Ansätze hat ihre Stärken in der lokalen Retuschierung<br />
von Faserdefekten und der Aufbereitung zur visuellen Darstellung von Aufnahmen<br />
mit preisgünstigen Bildleitern (vgl. Abschn. 3.2.3), zeigt jedoch im quantitativen Dif-<br />
ferenzvergleich die Schwächen beider Einzelverfahren und schneidet auf Basis aller<br />
Differenz- und Ähnlichkeitsmaße stets schlechter als die Filterung bzw. die Interpola-<br />
tion ab.
4.4. MODELLBASIERTER VERGLEICH VON FILTERUNG VS. INTERPOLATION 151<br />
(a) SNSorig<br />
(b) SNS7,80 (c) SNS8,80 (d) SNS9,80 (e) SNS10,80<br />
(f) SNS7,80, gefiltert (g) SNS8,80, gefiltert (h) SNS9,80, gefiltert (i) SNS10,80, gefiltert<br />
(j) SNS7,80, interpoliert<br />
(k) SNS8,80, interpoliert<br />
(l) SNS9,80, interpoliert<br />
(m) SNS10,80, interpoliert<br />
Abbildung 4.10: Visualisierung des Qualitätssprungs bei der Restaurierung durch Filterung.<br />
(a) zeigt das originale Muster mit vergrößertem Ausschnitt. (b) bis (e) zeigen die Originaldaten<br />
nach Abtastung durch verschieden dichte Faserbündel ((b): 7.000, (c): 8.000, (d): 9.000 und<br />
(e): 10.000). (f) bis (i) sind die entsprechenden Resultate nach Filterung und (j) bis (m) die<br />
Ergebnisse nach Interpolation.
152 4.4. MODELLBASIERTER VERGLEICH VON FILTERUNG VS. INTERPOLATION<br />
Abbildung 4.11: Vergleich der Restaurierungsqualität bei variabler Faseranzahl. Die Filte-<br />
rung, die Interpolation und die hintereinander geschaltete Kombination aus beiden werden mit<br />
den Differenzmaßen MAD und PSNR (vgl. Abschn. 3.6.2) evaluiert. Als Bildmaterial wird ein<br />
universelles Punktmuster mit 80 LP/kPx verwendet, das mit variabler Anzahl von 3.000 bis<br />
18.000 Fasern abgetastet ist.<br />
Abbildung 4.12: Vergleich der Restaurierungsqualität bei variabler Faseranzahl. Die Filte-<br />
rung, die Interpolation und die hintereinander geschaltete Kombination aus beiden werden mit<br />
den Differenzmaßen MSSIM und TI (vgl. Abschn. 3.6.3) evaluiert. Als Bildmaterial wird ein<br />
universelles Punktmuster mit 80 LP/kPx verwendet, das mit variabler Anzahl von 3.000 bis<br />
18.000 Fasern abgetastet ist.
4.5. EVALUIERUNG DER FARBBILDRESTAURIERUNG 153<br />
Abbildung 4.13: Vergleich der Restaurierungsqualität bei variabler Faseranzahl. Die Filte-<br />
rung, die Interpolation und die hintereinander geschaltete Kombination aus beiden werden mit<br />
den Differenzmaßen MAD und PSNR (vgl. Abschn. 3.6.2) evaluiert. Als Bildmaterial wird ein<br />
universelles Punktmuster mit 100 LP/kPx verwendet, das mit variabler Anzahl von 3.000 bis<br />
18.000 Fasern abgetastet ist.<br />
4.5 Evaluierung der Farbbildrestaurierung<br />
Die Erweiterung der Restaurierungsansätze auf Farbinformation berücksichtigt spe-<br />
ziell die Verteilung des Farbfiltermosaiks (z. B. Bayer-Pattern) auf dem Kamerasen-<br />
sor. Die darauf beruhende Rohdateninterpolation entfernt einerseits die Wabenstruk-<br />
tur aus den faseroptisch abgetasteten Aufnahmen. Andererseits können durch die in<br />
Abschnitt 3.3 beschriebene Technik das störende Farbmoiré und die Strukturartefakte<br />
umgangen werden, denen ein Ungleichgewicht in der Ausleuchtung des Kamerasen-<br />
sors aufgrund der faseroptischen Übertragung zugrunde liegt. Um die Auswirkungen<br />
des vorgestellten Verfahrens auf die Bildqualität an einem anwendungsnahen Beispiel<br />
zu verdeutlichen, wird in Abbildung 4.14(A1) ein Ausschnitt der menschlichen Haut<br />
gezeigt. Da faseroptische Endoskope vielfältig in medizinischen Untersuchungen von<br />
menschlichen Gewebe zum Einsatz kommen, ist die Haut ein typischer Vertreter sol-<br />
cher Oberflächen. Die Aufnahme erfolgte mit dem Endoskop E6 (vgl. Tab. 4.1) und<br />
der Kamera K4 (vgl. Tab. 4.2).<br />
In diesem Beispiel tasten die knapp 10.000 hexagonal angeordneten Fasern die<br />
texturierte Oberfläche im mittleren Abstand von df = 5, 2 Pixel (bei einer Standard-<br />
abweichung von 0, 65 Pixel) ab. Der für das Farbmoiré entscheidende Effekt hängt ab<br />
von der Dichte des Faserbündels, dem Abbildungsverhältnis des Faserbündels auf den<br />
Kamerasensor und der Größe eines einzelnen Sensorelements. Dieser mittlere Faser-
154 4.5. EVALUIERUNG DER FARBBILDRESTAURIERUNG<br />
abstand df liegt im typischen Bereich, wie er in Abschnitt 3.2.2 für die subpixelgenaue<br />
Restaurierung vorausgesetzt wird. Der Effekt konnte aber auch mit verschiedenen an-<br />
deren Konstellationen nachgewiesen und bearbeitet werden.<br />
Abbildung 4.14(a) zeigt die Sensordaten der faserendoskopischen Aufnahme ei-<br />
nes Hautbereichs mit der Auflösung 800 × 600 Bildpunkte in einer Bildapertur mit<br />
Durchmesser rA = 500 Bildpunkten. Für die Farbdarstellung wurden die Rohdaten der<br />
Kamera durch Demosaicing in drei mal acht Bit konvertiert, liegen jedoch dem Algor-<br />
tihmus auch in originaler Form (zwölf Bit Intensität) vor. Der markierte vergrößerte<br />
Ausschnitt (vgl. Abb. 4.14(b)) zeigt die hexagonale Wabenstruktur, die zur initialen<br />
Lokalisierung der Faserzellen für den Algorithmus möglichst scharf abgebildet wer-<br />
den muss. Durch die Farbinterpretation der einzelnen Sensorelemente (Bayer-Pattern)<br />
entsteht eine mosaikartige Verteilung der Farbinformation. Um die Präsenz und den<br />
Einfluss der unterschiedlichen Strukturierung in den vergrößerten Ausschnitten zu ver-<br />
deutlichen, die sowohl von den Hautrillen, als auch von der Wabenstruktur und dem<br />
Bayer-Pattern verursacht ist, wird mit dem Canny-Filter 3 [Can86] ein Gradientenbild<br />
vom Rotkanal erzeugt. Für eine vergleichbare Gegenüberstellung werden die Parame-<br />
ter des Filters für alle Strukturbilder konstant gehalten: σ = 1.0, δmin = 0, 047 und<br />
δmax = 0, 106 (Parameterbezeichnung s. [Can86]). Wie zu erwarten zeigt das entspre-<br />
chende Strukturbild der unbearbeiteten Aufnahme (vgl. Abb. 4.14(c)) feine homogene<br />
Gradienten, die hauptsächlich auf das periodische Wabenmuster des Faserbündels zu-<br />
rückgehen. Der Bildinhalt wird in diesem Ausschnitt nicht deutlich. Die Reihe von Ab-<br />
bildung 4.14(d) bis Abbildung 4.14(f) zeigt die gleichen Aufnahmen, nachdem sie mit<br />
der vorgestellten Filtermethode zur automatischen spektralen Maskierung aufbereitet<br />
und anschließend durch Weißabgleich, Kontrastanpassung und Tonwertanpassung op-<br />
timiert wurden. Aufgrund der Fehlinformation durch die Farbinterpretation auf dem<br />
Farbfiltermosaik kann die Farbzusammensetzung lokaler Bildbereiche nicht fehlerfrei<br />
rekonstruiert werden. Der Ausschnitt in Abbildung 4.14(e) zeigt diesen Effekt durch<br />
ein von links oben nach rechts unten verlaufendes Farbmuster, was durch die Überla-<br />
gerung der Gradienten von Hautstruktur und Farbmoiré in Abbildung 4.14(f) bestätigt<br />
wird. Die unterste Reihe in Abbildung 4.14 vermittelt den visuellen Fortschritt nach<br />
Aufbereitung mit der vorgestellten Rohdateninterpolation. Der vergrößerte Ausschnitt<br />
in Abbildung 4.14(h) zeigt nach wie vor sämtliche Strukturen der Hautoberfläche, aber<br />
die Überlagerung von Farbstreifen ist vollständig bereinigt, wie auch das Gradienten-<br />
bild (vgl. Abb. 4.14(i)) bestätigt. Ohne Artefaktstruktur sind wichtige Details in den<br />
Aufnahmen, z. B. die Rillen der Haut im Bereich von 400µm optisch zuverlässiger<br />
wahrnehmbar.<br />
3 Canny-Filter: Algorithmus zur Kantendetektion in Bildern
4.5. EVALUIERUNG DER FARBBILDRESTAURIERUNG 155<br />
(a) (b) (c)<br />
(d) (e) (f)<br />
(g) (h) (i)<br />
Abbildung 4.14: Sensordaten der faserendoskopischen Aufnahme eines Hautbereichs (a) mit<br />
markiertem vergrößertem Ausschnitt (b) und dem Strukturbild als Ergebnis einer Canny-<br />
Filterung des roten Farbkanals (c). Die Reihe (d-f) zeigt die gleichen Aufnahmen, nachdem<br />
sie mit den aktuellen Filtermethoden aufbereitet wurden. Die Reihe (g-i) vermittelt den visuel-<br />
len Fortschritt nach Aufbereitung mit der vorgestellten Rohdateninterpolation.
156 4.6. AUFLÖSUNGSSTEIGERUNG DURCH SUPERPOSITION<br />
Weiterer Vorteil bei dem vorgestellten Ansatz zur Farbinterpolation ist u.a. der im-<br />
plizite Weiß- und Schattenabgleich, d.h. eine manuelle Parametrisierung und weitere<br />
Vorverarbeitungsschritte entfallen und die Ergebnisse bleiben reproduzierbar. Statt ei-<br />
ner Tiefpassfilterung zur Mittelung der Farbbeiträge, was zu dem beobachteten Farb-<br />
moiré führt, nutzt der Ansatz die Kenntnis über die Position und Verteilung der Fasern<br />
und der Farbfilter, um subpixelgenau die Intensität und Farbzusammensetzung des Ori-<br />
ginalbilds zu restaurieren.<br />
4.6 Auflösungssteigerung durch Superposition<br />
Das in Abschnitt 3.5 ausgeführte Verfahren zur Steigerung der Auflösung von Bildse-<br />
quenzen wird in erster Linie durch zwei Einflussgrößen gesteuert. Das ist zum einen die<br />
Anzahl NI von benachbarten Bildern, die für die Erweiterung mit registrierten Merk-<br />
malen herangezogen werden und zum anderen die maximale Anzahl NM an Merkma-<br />
len, die jeweils aus den NI benachbarten Bildern in das Basisbild integriert werden. Ein<br />
Super Resolution Bild HR I erhält zur Kennzeichnung dieser Einflussgrößen das Super-<br />
skript (NI, NM), also HR I (NI,NM) . Abschnitt 4.6.2 untersucht die Superposition visuell,<br />
d.h. subjektiv durch einen Betrachter. Dies kann einerseits durch einen Vergleich der<br />
Ergebnisbilder mit dem herkömmlich aufgelösten Basisbild LR Έn erfolgen (ˆn indiziert<br />
das Basisbild), oder im Verhältnis zu anderen hoch aufgelösten Ergebnissen HR I (N′ I ,N′ M )<br />
mit N ′ I = NI oder N ′ M = NM ausgewertet werden. Abschnitt 4.6.3 diskutiert die Ergeb-<br />
nisse aus quantitativen Vergleichen auf der Basis von Differenz- und Ähnlichkeitsma-<br />
ßen. Soweit nicht anders angegeben, erfolgt in allen Analysen die Registrierung von<br />
Bildmerkmalen zur Verbesserung des Basisbilds datengetrieben, d.h. ohne Einbringen<br />
von Zusatzwissen über die Richtung und Schrittweite der Bewegung. Abschnitt 4.6.4<br />
vergleicht abschließend das Ergebnis der Superposition mit dem von Interpolation und<br />
Filterung. Hier werden an einem ausgewählten Beispiel die Herausforderungen und<br />
Grenzen der Superposition anschaulich verdeutlicht.<br />
4.6.1 Bildmaterial<br />
Die unterschiedlichen Bildinhalte und deren Strukturen im Bild spielen eine wichti-<br />
ge Rolle sowohl bei der Berechnung von Bewegungsvektorfeldern und damit die al-<br />
gorithmische Stabilität der Superposition, als auch für das subjektive Empfinden der<br />
resultierenden Bilder. Für den Vergleich werden deshalb vier Konstellationen mit un-<br />
terschiedlichen Oberflächen und Reflexionseigenschaften gewählt (vgl. Tab. 4.13). Die
4.6. AUFLÖSUNGSSTEIGERUNG DURCH SUPERPOSITION 157<br />
Konstellationen BST, LNA und ALU stellen künstliche Aufnahmen dar, d.h. sie wur-<br />
den zunächst von einer Kamera (ohne Endoskop) aufgezeichnet und daraufhin vom<br />
faseroptischen Abbildungsmodell derart mit einem Wabenmuster überlagert, dass die<br />
generierte Bildfolge einer meanderförmigen Bewegung des Faserendoskops entspricht.<br />
Die Größe beträgt jeweils 640×640 Pixel und die Apertur mit Radius 265 Pixel enthält<br />
8359 Faserzentren. Die Bildsequenz ZYL wurde entlang der Symmetrieachse eines zy-<br />
linderförmigen Hohlraums mit dem Endoskop E6 (vgl. Tab. 4.1) aufgenommen. Die<br />
matte Oberfläche des Zylinders zeigt zur Verdeutlichung des Effekts Schriftzeichen<br />
mit kontrastreichen Kanten. Die Bilddimension beträgt 700 × 700 Pixel, der Aper-<br />
turradius umfasst 268 Pixel und vom Algorithmus werden 9569 Faserzentren detek-<br />
tiert. Die Sequenz SPF zeigt eine Spielfigur (Schlumpf), um die das Faserendoskop E6<br />
frei herumgeführt wurde. Aufgrund seiner reflektierenden Oberfläche zeigt das Objekt<br />
mehrere Glanzstellen. Die Bilder werden mit einer Größe von 640 × 640 Pixel, einem<br />
Aperturradius von 367 Pixel und 8514 Fasern im sichtbaren Bildbereich bearbeitet. Im<br />
Folgenden werden die eingeführten Mnemoniks 4 BST, LNA, ALU, ZYL und SPF zur<br />
Beschreibung der Bildsequenzen und gleichermaßen für die Bezeichnung einzelner<br />
Bilder dieser Sequenzen verwendet.<br />
Der Vollständigkeit halber werden hier noch zwei interne Parameter des Tracking-<br />
Algorithmus genannt. Aufgrund der starken Unterabtastung durch die Kombination<br />
zwischen Faseroptik und Kamera wird für den blockweisen Vergleich der Bildaus-<br />
schnitte eine Fensterbreite von 25 gewählt und das Bildmaterial zusätzlich durch ein<br />
Gaussfilter mit der Varianz 2.0 geglättet.<br />
4.6.2 Visuelle Beurteilung<br />
Am Beispiel der Bildsequenzen BST, LNA und ALU soll die Kombination von meh-<br />
reren Einzelbildern zu einem detailreicheren Super Resolution Bild demonstriert wer-<br />
den. Den drei Szenen ist gemeinsam, dass sie aus rein translatorischen Verschiebungen<br />
durch Modellierung mit dem faseroptischen Abbildungsmodell generiert wurden.<br />
BST (vgl. Abb. 4.15) zeigt eine Szene mit einem Bleistift und einer Büroklammer<br />
vor homogenem Hintergrund (a,b). Die reine Interpolation (c) macht den Stufeneffekt<br />
durch die hexagonale Abtastung deutlich. Durch Überlagerung von mehreren zusätz-<br />
lichen Merkmalen aus benachbarten Bildern wird dieser Effekt sichtbar geringer. Der<br />
Ausschnitt (d) zeigt diese Verbesserung, wobei hier bis zu 5 6400 Merkmale aus sechs<br />
4 Mnemonik: Einprägsames Kurzzeichen eines Ausdrucks<br />
5 Die Formulierung bis zu wird in den visuellen Ergebnissen der Sequenz SPF näher erläutert.
158 4.6. AUFLÖSUNGSSTEIGERUNG DURCH SUPERPOSITION<br />
BST<br />
LNA<br />
ALU<br />
ZYL<br />
SPF<br />
VKT<br />
Tabelle 4.13: Szenenkonstellationen für die Evaluierung von Super Resolution<br />
Modellierte Abbildung mit dem Motiv Bleistift:<br />
Kontrastreiche Übergänge und große homogene<br />
Flächen.<br />
Modellierte Abbildung mit dem Motiv Lena: Stark<br />
strukturierte Grauschattierungen.<br />
Modellierte Abbildung einer gewölbten<br />
Aluminiumfolie mit Aufdruck<br />
Matte Oberfläche eines zylindrischen Hohlraums<br />
mit Schriftzeichen. Das Endoskop bewegt sich ent-<br />
lang der Symmetrieachse in den Hohlraum hinein.<br />
Reflektierende Oberfläche einer Spielfigur mit<br />
Glanzstellen. Das Faserendoskop wird frei um das<br />
Objekt herumbewegt.<br />
Abbildung einer Visitenkarte: Schriftzeichen mit<br />
hohem Kontrast. Viele homogene Flächen.<br />
benachbarten Bildern verwendet wurden. Die homogenen Bereiche und die kleinen<br />
dunklen Strukturen z. B. der Schriftränder erschweren die Registrierung von Punkt-<br />
merkmalen zwischen zwei Bildern, wie insbesondere der mittlere und obere Bereich<br />
des Ausschnitts (d) hinter der Büroklammer zeigt. Im unteren Bereich des aufbereite-<br />
ten Ausschnitts (d) kann die Degradierung durch die faseroptische Abtastung gegen-<br />
über der Originalaufnahme (e) weitgehend kompensiert werden.<br />
Die Aufbereitung des Fotomotivs in LNA (vgl. Abb. 4.16) wirkt auf den Betrachter<br />
in vielen Bereichen noch erfolgreicher, als dies bei BST der Fall ist. Das liegt an den<br />
stark strukturierten Grauschattierungen im linken Bereich des Ausschnitts, die dem Al-<br />
gorithmus eine präzise Bewegungsschätzung ermöglichen. (c) zeigt das Zwischener-<br />
gebnis nach Interpolation des Ausschnitts (b). Die starke Abstufung in den Haarsträh-
4.6. AUFLÖSUNGSSTEIGERUNG DURCH SUPERPOSITION 159<br />
(a) (b) (c) N = 0 (d) N=6,F=6400 (e) Orig<br />
Abbildung 4.15: Visuelles Ergebnis der Auflösungssteigerung für die Sequenz BST (vgl.<br />
Tab. 4.13). (b) zeigt den Ausschnitt aus (a), der durch faseroptische Abtastung aus der ori-<br />
ginalen Szene (e) modelliert wird. (c) zeigt das Ergebnis reiner Interpolation (NI = 0), wo-<br />
hingegen (d) aus der Kombination von max. 6400 Merkmalen aus sechs angrenzenden Bildern<br />
entstanden ist.<br />
(a) (b) (c) N = 0 (d) N = 8, F = 6400<br />
Abbildung 4.16: Visuelles Ergebnis der Auflösungssteigerung für die Sequenz LNA (vgl.<br />
Tab. 4.13). (b) zeigt einen Ausschnitt der faseroptisch modellierten Szene aus (a). (c) zeigt<br />
das Ergebnis reiner Interpolation (NI = 0). (d) ist das Resultat der Superposition mit max.<br />
6400 Merkmalen aus 8 angrenzenden Bildern der Sequenz.<br />
nen, den Wimpern und der Mundpartie sind auf den typischen Stufeneffekt zurück-<br />
zuführen. Für das hoch aufgelöste Ergebnis (d) wurden aus 8 benachbarten Aufnah-<br />
men maximal 6400 Merkmale kombiniert. Die genannten Bildbereiche sind sichtbar<br />
schärfer und der Verlauf der Konturen glatter, was dem Original verhältnismäßig nahe<br />
kommt.<br />
Die Auflösungssteigerung für die Sequenz ALU ist in Abbildung 4.17 veranschau-<br />
licht. Die Szene (a) stellt eine bedruckte Aluminiumfolie dar, aus der ein Ausschnitt (b)<br />
gewählt ist, der einen hellen Bereich mit wellenfömiger Schattierung (oben), das um-<br />
kreiste R mit relativ feinen Linienstrukturen (rechts) und einen Teil des großen Schrift-<br />
zugs ÜBERRASCHUNG zeigt. Die erste Zeile der Abbildung (a-d) ist analog zur Dar-<br />
stellung in Abbildung 4.16 aufgebaut, wobei hier der hochauflösende Ausschnitt (d)<br />
aus 10 Bildern kombiniert ist. An den Parametern dieses Ausschnitts (NI = 10, NM =
160 4.6. AUFLÖSUNGSSTEIGERUNG DURCH SUPERPOSITION<br />
6400) soll die Wahl und Registrierung der Merkmale genauer erläutert werden. Ent-<br />
sprechend der sequentiellen Bearbeitung der benachbarten Bilder (vgl. Abb. 3.40 in<br />
Abschn. 3.5.6) werden im Basisbild bis zu 6400 Merkmale gewählt, die daraufhin in<br />
beiden Richtungen der Bildsequenz verfolgt werden. Aufgrund von mangelndem Kon-<br />
trast kann selbst initial nicht immer die geforderte Maximalzahl an Merkmalen gefun-<br />
den werden. Weiterhin scheitert die Registrierung bei einigen Merkmalen im Verlauf<br />
der Bearbeitung der benachbarten Bilder, weil sie nicht wieder gefunden werden kön-<br />
nen. Deshalb nimmt die Anzahl der Merkmale, die aus den benachbarten Bildern in<br />
das Basisbild eingefügt werden können, mit zunehmender Entfernung zum Basisbild<br />
ab. Im konkreten Fall werden 5919 valide Merkmale im Basisbild gewählt, die darauf-<br />
hin für jeweils fünf Bilder in jeder Richtung weiterverfolgt werden. Mit jedem Schritt<br />
verringern sich die validen Merkmale, wie die folgenden beiden Zeilen für die zurück-<br />
liegenden bzw. die vorausliegenden Bilder (vgl. Abb. 3.40(b)) zeigen:<br />
Zurückliegende Bilder vom Index [ˆn − 5] bis zum Basisbild [ˆn]:<br />
[ˆn−5] [ˆn−4] [ˆn−3] [ˆn−2] [ˆn−1] [ˆn]<br />
5733<br />
−10<br />
−34<br />
−100<br />
−25<br />
−17<br />
← 5743 ← 5777 ← 5877 ← 5902 ← 5919<br />
Vorausliegende Bilder vom Basisbild [ˆn] bis zum Index [ˆn + 5]:<br />
Basisbild<br />
5919<br />
−43<br />
−41<br />
→ 5876 → 5835<br />
Basisbild<br />
−85<br />
−21<br />
−11<br />
→ 5750 → 5729 → 5708<br />
[ˆn] [ˆn+1] [ˆn+2] [ˆn+3] [ˆn+4] [ˆn+5]<br />
Wird einer der beiden Parameter NI bzw. NM konstant gehalten und der zweite va-<br />
riiert, so können zwei interessante Beobachtungen gemacht werden. Die Ausschnitte<br />
(e) bis (h) sind bei konstanter Anzahl NI = 6 für verschiedene maximale Anzahlen an<br />
Merkmalen NM ∈ {200; 800; 3200; 6400} bearbeitet. Für den Betrachter ist die Verbes-<br />
serung im Verlauf der Aufbereitung von (e) bis (h) erkennbar. Die Kanten der dicken<br />
Linien im linken unteren Bereich werden erst bei NM = 6400 dem Original entspre-<br />
chend glatt dargestellt. Wird hingegen die Anzahl der Merkmale konstant gehalten<br />
(NM = 3200, vgl. Ausschnitte (i) bis (l)), so scheint die Detailsteigerung über NI = 8<br />
(Ausschn. (k)) keinen Fortschritt mehr zu erzielen.<br />
Im Rahmen einer subjektiven Umfrage wurde der visuelle Eindruck einer Sättigung<br />
im Prozess der Detailanreicherung für zehn verschiedene Bildreihen protokolliert, die<br />
sukzessive mit max. NM = 1200 Merkmalen aus jeweils 0, 5, 10, 15, 20 bzw. 25 be-<br />
nachbarten Bildern pro Basisbild generiert wurden. Weiterhin wurden von den neun<br />
Testpersonen aus dem Bereich der Bildverarbeitung unsortierte Aufnahmen hinsicht-<br />
lich ihrer Detailtreue in eine aufsteigende Reihenfolge gebracht. Das Ergebnis dieser
4.6. AUFLÖSUNGSSTEIGERUNG DURCH SUPERPOSITION 161<br />
Studie bestätigt die deutliche Zunahme von Details (lesbare Schrift, Kanten) bei Kom-<br />
bination von fünf bis zehn fiberskopischen Einzelaufnahmen, wobei das Resultat stark<br />
vom Motiv und der Struktur in der Abbildung abhängt. Weiterer Aufwand zur Stei-<br />
gerung der Auflösung wird nur noch von deutlich weniger als 50% der Befragten als<br />
bemerkbar eingestuft. Dieser Effekt wird im nächsten Abschnitt auch noch durch quan-<br />
titative Analysen belegt.<br />
Die beschriebenen Experimente und Ergebnisse (BST, LNA, ALU) beruhen auf der<br />
Bearbeitung von künstlich faseroptisch modellierten Abbildungen, was unter anderem<br />
zu einer rein translatorischen Bewegung führt. Die Bildsequenz ZYL hingegen wurde<br />
mit einem Faserendoskop entlang der Symmetrieachse eines zylindrischen Hohlraums<br />
aufgezeichnet. Der vergrößerte Ausschnitt (a) in Abbildung 4.18 zeigt einen Teil des<br />
Schriftzugs der weitwinkelig verzerrten Ansicht der Hohlraumwandung (vgl. ZYL in<br />
Tab. 4.13). (b) stellt das Zwischenergebnis der Bildrestaurierung nach Interpolation<br />
dar (NI = 0) und damit die Grundlage für die Auflösungssteigerung, die durch Kom-<br />
bination von zehn benachbarten Aufnahmen (NI = 10) zum Resultat in Ausschnitt<br />
(c) gelangt. Dass die Konturen des Schriftzugs präziser erscheinen, ist eine Bestäti-<br />
gung, dass das umgesetzte Verfahren zur Superposition durch die lokale Ergänzung<br />
von Bilddetails prinzipiell auch für den endoskopischen Einsatz in zylinderförmigen<br />
Hohlräumen mit Vorschub in Blickrichtung geeignet ist. Eine größere Studie für diesen<br />
Einsatzbereich wurde bislang allerdings noch nicht durchgeführt und ausgewertet.<br />
In der industriellen Bildverarbeitung stellen sog. Glanzlichter eine große Heraus-<br />
forderung dar, weil sie beobachtungsvariant sind und Information verdecken. Mit der<br />
Sequenz SPF (vgl. Abb. 4.19) soll beispielhaft gezeigt werden, dass die Merkmals-<br />
findung und -registrierung selbst bei einer frei geführten Endoskopbewegung um ein<br />
reflektierendes Objekt brauchbare Ergebnisse liefert, um die Qualität von Einzelbil-<br />
dern durch Superposition zu steigern. Der Ausschnitt (c) zeigt das interpolierte Zwi-<br />
schenergebnis der Augenpartie der Spielfigur. Besonders am linken Auge (rechts un-<br />
ten im Ausschnitt) ist hier eine starke Störung des Kantenverlaufs zu erkennen, die auf<br />
Interpolationsartefakte zurückzuführen ist. Durch die Superposition von zusätzlichen<br />
Details aus sechs benachbarten Aufnahmen wird dieser Bereich sichtbar verbessert.<br />
Weiterhin werden der Kontrast und die Qualität der Darstellung von Reflexionsstel-<br />
len um Auge und Nase erhöht. An der Innenseite des rechten Auges sind hingegen<br />
kleine Störungen zu erkennen, die auf Ungenauigkeiten in der Merkmalsregistrierung<br />
zurückzuführen sind.
162 4.6. AUFLÖSUNGSSTEIGERUNG DURCH SUPERPOSITION<br />
(a) (b) Orig. (c) NI = 0 (d) NI = 10, NM = 6400<br />
(e) NI = 6, NM = 200 (f) NI = 6, NM = 800 (g) NI = 6, NM = 3200 (h) NI = 6, NM = 6400<br />
(i) NI = 2, NM = 3200 (j) NI = 4, NM = 3200 (k) NI = 8, NM = 3200 (l) NI = 10, NM = 3200<br />
Abbildung 4.17: Visuelles Ergebnis der Auflösungssteigerung für die Sequenz ALU (vgl.<br />
Tab. 4.13). (b) zeigt einen vergrößerten Ausschnitt aus (a). (c) Ergebnis der reinen Interpolation<br />
(N = 0), nachdem der Ausschnitt faseroptisch modelliert wurde. (d) Resultat der Superposition<br />
mit max. 6400 Merkmalen aus 8 angrenzenden Bildern der Sequenz. In der zweiten Reihe (e-h)<br />
wird bei konstanter Bildanzahl NI = 6 die Menge der Merkmale variiert, wohingegen in der<br />
dritten Reihe (i-k) die Anzahl der Merkmale konstant bei 3200 gehalten wird und die Anzahl<br />
der kombinierten Bilder variiert wird.<br />
(a) (b) NI = 0 (c) NI = 10<br />
Abbildung 4.18: Vergrößerter Ausschnitt einer faserendoskopischen Aufnahme beim Blick in<br />
einen zylinderförmigem Hohlraum mit Schriftzeichen (a). Zwischenergebnis der Bildrestau-<br />
rierung nach Interpolation (b). Superposition von zehn benachbarten Aufnahmen mit einer<br />
Verschiebung der Endoskopoptik entlang der Symmetrieachse des Hohlraums (c).
4.6. AUFLÖSUNGSSTEIGERUNG DURCH SUPERPOSITION 163<br />
(a) (b) (c) N = 0 (d) N = 6, F = 3200<br />
Abbildung 4.19: Visuelles Ergebnis der Auflösungssteigerung für die Sequenz SPF (vgl.<br />
Tab. 4.13). (b) zeigt einen Ausschnitt der realen faseroptischen Sequenz aus (a). (c) Ergebnis<br />
der reinen Interpolation (NI = 0). (d) Resultat der Superposition mit max. 3200 Merkmalen<br />
aus sechs angrenzenden Bildern der Sequenz.<br />
4.6.3 Direkter Differenzvergleich<br />
Aus der theoretischen Betrachtung des Flächenabtastverhaltens in Abschnitt 3.5.2 ist<br />
ein Grenzwert zu erwarten, den eine Bildverbesserung nicht überschreiten kann. Mit<br />
einem direkten Differenzvergleich mit dem Abstandsmaß MAD (vgl. Abschn. 3.6.2)<br />
wird dieser Effekt in diesem Abschnitt quantitativ beobachtet.<br />
Durch die modellbasierte Abtastung des Szenenbilds (Grundwahrheit) sind die Be-<br />
wegungen zwischen den Einzelaufnahmen zwar deterministisch vorgegeben, aber die<br />
Detektion und Registrierung von Merkmalen geschieht ohne dieses Vorwissen, um<br />
die Versuchsreihe möglichst realitätsnah zu halten. Für die Parameter NI = 6 und<br />
NM = 3200 veranschaulicht Abbildung 4.20 beispielhaft die Ortsvektoren der Ver-<br />
schiebungen für die registrierten Merkmale aus den sechs berücksichtigten Nachbar-<br />
bildern. Jeder Ortsvektor ist durch ein Kreuz an seinem Endpunkt repräsentiert. Der<br />
angegebene Index gibt die Position relativ zum Basisbild an. Negative Werte beziehen<br />
sich auf zeitlich zurückliegende Bilder, positive bezeichnen vorausliegende Bilder. Die<br />
Anzahl der Merkmale nimmt wie durch Überlegungen in Abschnitt 4.6.2 erwartet, mit<br />
steigendem Betrag des Index ab. Einzelne verstreute Kreuze stammen von Ausreißern,<br />
die demzufolge zu Fehlern in der Superposition führen. Je größer der Betrag von Be-<br />
wegungsvektoren ist, desto größer ist auch die Unschärfe in der Bewegungsschätzung.<br />
Eine theoretische Abschätzung dieser Beobachtung und Überlegungen zur Trennung<br />
der vielfältigen Einflüsse bleibt jedoch weiterführenden Arbeiten überlassen.
164 4.6. AUFLÖSUNGSSTEIGERUNG DURCH SUPERPOSITION<br />
Abbildung 4.20: Ortsvektoren der registrierten Bewegungen in den berücksichtigten Bildern<br />
für die Superposition der Sequenz ALU mit NI = 6 und NM = 3200 (vgl. Ausschnitt (g) in<br />
Abb. 4.17). Jeder Kreuzungspunkt steht für ermittelten Bewegungsvektor eines Merkmals. Für<br />
die Menge aller Vektoren eines Bildpaars gibt jeweils die Bezeichnung im Rechteck den Index<br />
des Bilds in der Sequenz (z. B. k-2 bezeichnet das zweite Bild vor dem definierten Basisbild)<br />
und den Umfang an Merkmalen an, die in diesem Bild registriert wurden.<br />
Um den relevanten Bereich der Parameter NI und NM zu untersuchen, wurde die<br />
Anzahl der Bilder zwischen 0 und 20 und die Menge der Merkmale in exponentiellen<br />
Schritten zwischen 200 und 6400 variiert:<br />
N = {0; 2; 4; 6; 8; 10; 12; 14; 16; 18; 20}<br />
F = {200; 400; 800; 1600; 3200; 6400} .<br />
Abbildung 4.21 zeigt die mittlere Betragssdifferenz (MAD) zwischen den superpo-<br />
sitionierten Bildern und der Grundwahrheit. Jede Kurve stellt die Ergebnisse für eine<br />
konstante Anzahl von benachbarten Bildern dar. Erwartungsgemäß sinkt die Differenz<br />
vom ursprünglich einheitlichen Wert MAD (NI,0) = MAD (0,NM) = 8, 67 desto schnel-<br />
ler, je mehr Bilder für die Kombination zur Verfügung stehen. Dies ist gleichbedeutend<br />
mit einer Artefaktreduktion oder einem Zuwachs an Detailinformation im Bild. Bei ge-<br />
nauer Betrachtung ist zu erkennen, dass die Kurven für NI ≥ 6 keinen großen Abstand<br />
untereinander mehr aufweisen. Da sich diese Tendenz auch für NI > 12 fortsetzt, sind<br />
in dieser Darstellung die entsprechenden Kurven der Übersichtlichkeit wegen nicht<br />
aufgeführt.
4.6. AUFLÖSUNGSSTEIGERUNG DURCH SUPERPOSITION 165<br />
MAD [Grauwerte]<br />
9<br />
8.5<br />
8<br />
7.5<br />
7<br />
6.5<br />
0 Bilder<br />
2 Bilder<br />
4 Bilder<br />
6 Bilder<br />
8 Bilder<br />
10 Bilder<br />
12 Bilder<br />
6<br />
0 1000 2000 3000 4000 5000 6000 7000<br />
Anzahl der Merkmale<br />
Abbildung 4.21: Mittlere Betragsdifferenz (MAD) der durch Superposition aufbereiteten ALU-<br />
Bilder (vgl. Abb. 4.17) zum Original. Jede Kurve stellt die Ergebnisse für eine konstante Anzahl<br />
von benachbarten Bildern dar.<br />
MAD [Grauwerte]<br />
9<br />
8.5<br />
8<br />
7.5<br />
7<br />
6.5<br />
6<br />
100 Merkmale<br />
200 Merkmale<br />
400 Merkmale<br />
800 Merkmale<br />
1600 Merkmale<br />
3200 Merkmale<br />
6400 Merkmale<br />
5.5<br />
0 2 4 6 8 10 12 14 16 18 20<br />
Anzahl berücksichtigter Bilder<br />
Abbildung 4.22: Mittlere Betragsdifferenz (MAD) der durch Superposition aufbereiteten ALU-<br />
Bilder (vgl. Abb. 4.17) zum Original. Jede Kurve stellt die Ergebnisse für eine konstante Anzahl<br />
an Merkmalen dar.
166 4.6. AUFLÖSUNGSSTEIGERUNG DURCH SUPERPOSITION<br />
Deutlicher wird der angedeutete Effekt der Sättigung bei der alternativen Darstel-<br />
lung der Abweichung zwischen Original und Rekonstruktion gemäß Abbildung 4.22.<br />
Hier steht jede Kurve für eine definierte Anzahl an Merkmalen. Bei allen Kurven ist<br />
eine deutliche Abnahme der Abweichung bis NI = 6 zu erkennen. Bis zu dieser An-<br />
zahl an zusätzlich berücksichtigten Bildern liegt die relative Abnahme der Abweichung<br />
MAD (NI,NM) bei mindestens 5%. Eine weitere Erhöhung von NI hat keinen relevanten<br />
Einfluss mehr auf die Steigerung der Bildqualität. Diese Beobachtung bestätigt den<br />
visuellen Eindruck der Sättigung bei der Verbesserung der Ausschnitte (i) bis (l) in<br />
Abbildung 4.17.<br />
Der beobachtete Effekt der Sättigung steht nicht im Widerspruch zur theoretischen<br />
Betrachtung des Flächenabtastverhaltens eines Glasfaserbündels (vgl. Abschn. 3.5).<br />
Allerdings können die konkreten Werte nicht alleine auf die effektive Abtastfläche zu-<br />
rückgeführt und damit quantitativ erklärt werden. Zu viele Einflussfaktoren treffen hier<br />
zusammen bzw. können nicht ausreichend voneinander getrennt werden. So nimmt<br />
beispielsweise die Anzahl an validen Merkmalen von Bild zu Bild ab, der Faserab-<br />
stand fließt in die Definition der zu interpolierenden Zwischenfläche ein und die Be-<br />
wegungsschätzung kann nicht ohne größeren Aufwand präzise evaluiert werden. Au-<br />
ßerdem müssen die unterschiedliche Auflösung und Anordnung zwischen Faserbündel<br />
und Kamerasensor sowie die gegebene Auflösungsgrenze durch die Ausgangsbildgrö-<br />
ße berücksichtigt werden. Für eine Absicherung und Verallgemeinerung dieser Aus-<br />
sagen sind weitere Untersuchungen notwendig, die jedoch den Rahmen dieser Arbeit<br />
überschreiten.<br />
4.6.4 Vergleich registrierter Aufnahmen zwischen starrem und fle-<br />
xiblem Endoskop<br />
Die Einführung in Abschnitt 3.1 schildert die Schwierigkeiten beim Versuch, eine Sze-<br />
ne gleichartig mit einem faseroptischen und einem linsenstarren Endoskop zu erfassen,<br />
um die Grundwahrheit für eine quantitative Auswertung zur Verfügung zu stellen. Um<br />
die Ansätze zur Filterung, der Interpolation und der Superposition trotzdem zumindest<br />
visuell mit der qualitativ hochwertigeren Aufnahme durch ein starres Endoskop ver-<br />
gleichen zu können, wird ein alternativer Weg gewählt. Dazu werden die Aufnahmen<br />
mit den verschiedenen Geräten so ähnlich wie möglich durchgeführt und anschließend<br />
eine Registrierung 6 durchgeführt.<br />
6 Registrierung: Hier: Geometrische Transformation von zwei oder mehreren Bildern einer Szene,<br />
um sie bestmöglichst in Übereinstimmung miteinander zu bringen
4.6. AUFLÖSUNGSSTEIGERUNG DURCH SUPERPOSITION 167<br />
(a) Original (Starr) (b) Registriert (Starr) (c) Original (Faser)<br />
(d) Filterung (e) Interpolation (f) Superposition<br />
Abbildung 4.23: Linsenstarre endoskopische Aufnahme (Motiv VKT, vgl. Tab. 4.13) mit starrem<br />
Endoskop (a), registrierter Ausschnitt (b) zu den Aufnahmen mit flexiblem Endoskop und ver-<br />
schiedene Aufbereitungen von vergleichbaren faseroptischen Abbildungen, die für den quanti-<br />
tativen Vergleich polynomial zueinander in Übereinstimmung gebracht sind: Originales Faser-<br />
bild (c), sowie das gefilterte (d), das interpolierte (e) und das superpositionierte (f) Ergebnis.<br />
Als Szene wird für die Aufnahme bewusst ein Motiv (VKT, vgl. Tab. 4.13) ge-<br />
wählt, bei dem die Superposition offensichtlich nicht in allen Bereichen zum Erfolg<br />
führt. So können an verschiedenen Bildbereichen die Auswirkungen der präzisen bzw.<br />
fehlerhaften Bewegungsschätzung in vergrößerten Ausschnitten gezeigt werden.<br />
Messungen haben gezeigt, dass die Anwendung von Abstands- und Ähnlichkeits-<br />
maßen auf Basis einer alternativen Aufnahme der Szene (hier mit einem zweiten En-<br />
doskop) keine zuverlässigen Aussagen über die Gesamtgüte erlauben. Das liegt einer-<br />
seits an den abweichenden Helligkeits- und Kontrastverteilungen, die durch die un-<br />
terschiedlichen optischen Beschaffenheiten der Aufnahmesysteme zustande kommen.<br />
Andererseits verursacht bereits ein kleiner Fehler in der Feinregistrierung einen relativ<br />
großen kummulativen Fehler in der Differenzbildung, wenn beispielsweise im Bereich<br />
von Hell-Dunkel-Übergängen die Grenzen verschoben überlagert werden.<br />
In Abbildung 4.23 sind die Aufnahmen und Resultate der Bildaufbereitung für das<br />
gewählte Motiv VKT visualisiert. (a) zeigt die Aufnahme mit dem starren Endoskop
168 4.6. AUFLÖSUNGSSTEIGERUNG DURCH SUPERPOSITION<br />
(a) A in Abb. 4.23(b) (b) A in Abb. 4.23(d) (c) A in Abb. 4.23(f)<br />
(d) B in Abb. 4.23(b) (e) B in Abb. 4.23(d) (f) B in Abb. 4.23(f)<br />
Abbildung 4.24: Vergrößerte Ausschnitte aus den Restaurierungsergebnissen (vgl. Abb. 4.23).<br />
(a) und (d) zeigen die Ausschnitte in der Aufnahme des starren Endoskops. Eine vergleichsweise<br />
präzise Bewegungsschätzung in Ausschnitt A führt zu einer Verbesserung der Darstellung durch<br />
Superposition (c) gegenüber der Filterung (b). Bei fehlerhafter Bewegungsschätzung sind im<br />
Ergebnis der Superposition (f) deutliche Bildstörungen zu erkennen.<br />
ohne Fasern und (c) gibt die faserendoskopische Aufnahme wieder. Trotz ähnlicher<br />
optischer Parameter der beiden Endoskopsysteme ist eine geometrische Abweichung<br />
der Bildinhalte (Verzerrung) in den Aufnahmen zu erkennen. Der Ausschnitt (a) wird<br />
deshalb erst zu den faseroptischen Aufnahmen registriert (b). (d) zeigt das Resultat<br />
nach Filterung, (e) gibt das Ergebnis der Interpolation wieder und (f) bezieht sich auf<br />
die Superposition von sechs benachbarten Bildern mit max. 1.800 Merkmalen.<br />
Eine Ursache für die Unzuverlässigkeit von Aussagen aus quantitativen Verglei-<br />
chen und die Unterschiede in der Aufbereitung werden besonders deutlich, wenn an<br />
zwei typischen Ausschnitten A und B (vgl. Abb. 4.23) die Bewegungsvektoren der<br />
korrespondierenden Merkmale unter die Lupe genommen werden und damit die ent-<br />
sprechenden vergrößerten Ausschnitte aus den aufbereiteten Bildern in Abbildung 4.24<br />
interpretiert werden. Abbildung 4.25 visualisiert diese Bewegungsvektoren von Merk-<br />
malen als Pfeile im Resultat der Filterung (vgl. Abb. 4.23(d)). Dabei bedeutet der Start-<br />
punkt jedes Pfeils die Position eines Merkmals im Basisbild und der Endpunkt gibt die<br />
geschätzte Position dieses Merkmals im benachbarten Bild an, das hier des Umfangs<br />
wegen nicht abgebildet ist. Mit dieser qualitativen Darstellung in Pfeilform kann das<br />
Ergebnis der Bewegungsschätzung in einer lokalen Umgebung interpretiert werden.
4.6. AUFLÖSUNGSSTEIGERUNG DURCH SUPERPOSITION 169<br />
(a) (b) Ausschnitt A (c) Ausschnitt B<br />
Abbildung 4.25: Korrespondenzen von Merkmalen, die als Pfeile im Resultat der Filterung<br />
(vgl. Abb. 4.23(d)) und zwei vergrößerten Ausschnitten A und B dargestellt sind.<br />
Die Richtung der Pfeile in Ausschnitt A (vgl. Abbildung 4.25(b)) ist unter Berück-<br />
sichtigung einer tolerierten Abweichung durch die radiale Verzerrung (Weitwinkelop-<br />
tik) relativ homogen. Entsprechend positiv wirkt sich die Überlagerung dieser Merk-<br />
male im Ergebnis der Superposition aus (vgl. Abb. 4.24(c)). Im Bereich A, also bei<br />
präziser Bewegungsschätzung, ist die Superposition der Filterung überlegen, die zwar<br />
das Signal glättet, jedoch keine Zwischenabtastwerte zur Präzisierung des Signals er-<br />
laubt.<br />
Bei den Richtungen der Pfeile in Ausschnitt B (vgl. Abbildung 4.25(c) ist unter-<br />
einander eine größere Abweichung zu beobachten. Der zugrundeliegende Algorithmus<br />
zeigt offensichtlich bei der Bewegungsschätzung Schwierigkeiten, die sich hier auch<br />
gravierend im visuellen Resultat niederschlagen (Abb. 4.24(f)). Die Filterung zeigt<br />
zwar ebenfalls in der Vergrößerung (Abb. 4.24(e)) Defizite, beispielsweise bei der Dar-<br />
stellung der geraden Geometrie des „l“, allerdings sind keine expliziten Störstellen zu<br />
beobachten, wie bei den falsch zugeordneten Bewegungsvektoren für die Superpositi-<br />
on im Bereich B (vgl. Abb. 4.25(c)).<br />
Fazit Es ist schwierig, für eine quantitative Aussage eine alternative reale Aufnahme<br />
als Grundwahrheit zu verwenden. Fehlerquellen liegen u.a. in der notwendigen geo-<br />
metrischen Transformation zur Registrierung und der Unsicherheit über die Gleicheit<br />
optischer Parameter. In Verbindung mit einer visuellen Interpretation erscheinen die<br />
Resultate jedoch plausibel. Die Präzision in den Ergebnissen der Bewegungsschätzung<br />
erklärt die Unter- oder Überlegenheit der Superposition gegenüber der Filterung und<br />
unterstreicht damit die Bedeutung dieser Einflussgröße.
170 4.7. ECHTZEIT-FÄHIGKEIT DER ANSÄTZE<br />
4.7 Echtzeit-Fähigkeit der Ansätze<br />
Der Begriff Echtzeit wird im Kontext dieser Arbeit für eine flüssige Darstellung aus<br />
Sicht eines menschlichen Betrachters verwendet, also mit einer Bildrate von etwa 20<br />
bis 30 Bildern pro Sekunde.<br />
Nicht alle in Kapitel 3 vorgestellten Komponenten erfordern eine Ausführung in<br />
Echtzeit: Die Fasermodellierung (vgl. Abschn. 3.1.1) dient lediglich quantitativen Un-<br />
tersuchungen und der initiale Kalibrierschritt für die Restaurierungsansätze muss im<br />
Vorfeld nur einmal durchgeführt werden (vgl. Abschn. 3.2.1.2 und Abschn. 3.2.2.1).<br />
Zeitkritisch sind hingegen die für jedes Bild notwendigen Operationen der Filterung<br />
(vgl. Abschn. 3.2.1.1), der Interpolation (vgl. Abschn. 3.2.2.2), der Farbkorrektur (vgl.<br />
Abschn. 3.3), der Überlagerung für Superposition (vgl. Abschn. 3.5.6) und evtl. einer<br />
Nachkalibrierung (vgl. Abschn. 3.4).<br />
Die eingangs geforderte Bildrate für Echtzeit wird von den derzeitigen Imple-<br />
mentierungen auf aktuellen Rechnern 7 bislang nicht erreicht. Die tatsächliche Bildrate<br />
hängt bei der Interpolation maßgeblich von der Anzahl der Bildpunkte im Ausgangs-<br />
bild ab, die aus den zur Verfügung stehenden Faserstützstellen interpoliert werden<br />
müssen. Für ein Auflösungsverhältnis von 800 × 600 Bildpunkten aus 12.000 Fasern<br />
erreicht der Algorithmus auf dem PC eine Bildrate zwischen drei und vier Bilder pro<br />
Sekunde. Das Überlagern von mehreren Bildern verlangsamt den Algorithmus über-<br />
proportional, da zusätzlich die Bewegungsschätzung durchgeführt werden muss und<br />
die sonst einmalig kalibrierte Gitterstruktur durch weitere Stützstellen sukzessive er-<br />
weitert werden muss. Die Qualitätssteigerung eines Bilds aus einer Sequenz von zehn<br />
Bildern erfordert für das genannte Auflösungsverhältnis derzeit eine Berechnungszeit<br />
von 15 bis 30 Sekunden, je nach Anzahl der Korrespondenzen, die zwischen den Bil-<br />
dern berücksichtigt werden.<br />
Um trotzdem eine Echtzeit-Bildrate zu erreichen, wird die zusätzliche Verwendung<br />
geeigneter Hardware-Komponenten vorgeschlagen. Am Beispiel der Interpolation mit<br />
Nachkalibrierung konnte eine Beschleunigung um den Faktor Zehn auf etwa 30 Bilder<br />
pro Sekunde erreicht werden [Hir07], indem die zeitkritischen Berechnungen von der<br />
Grafikkarte (GPU) unterstützt werden. Diese Hardware-Erweiterung ist fast in jedem<br />
handelsüblichen Arbeitsplatzrechner zu finden oder kostengünstig (200 − 400 Euro)<br />
nachzurüsten und kann mittlerweile durch eine effiziente Programmierschnittstelle für<br />
nahezu beliebige Operationen genutzt werden. Wird die Interpolation von der GPU<br />
7 Intel Core 2 Duo 1,86GHz, 1GB Arbeitsspeicher
4.7. ECHTZEIT-FÄHIGKEIT DER ANSÄTZE 171<br />
ausgeführt, bleibt für die Recheneinheit im Arbeitsplatzrechner (CPU) ausreichend<br />
Zeit, um im Abstand einiger Bilder jeweils die Nachkalibrierung durchzuführen.<br />
Eine weitere Möglichkeit zur Beschleunigung der Verfahren und Entlastung der<br />
CPU besteht in der Integration der Algorithmen auf einer sog. intelligenten Kame-<br />
ra, deren Hardware bereits programmierbare Bausteine enthält, die oft für grafische<br />
Rechenoperationen optimiert sind. Die SmartCam, eine Entwicklung des Fraunhofer<br />
IIS, bietet die Möglichkeit, Algorithmen zur Bildbearbeitung völlig autark von einem<br />
PC-basierten Rechensystem direkt in der Kamera durchzuführen.
5<br />
5.1 Zusammenfassung<br />
173<br />
Zusammenfassung und<br />
Ausblick<br />
Die Recherche von Anwendunggebieten in Medizin und Technik (vgl. Abschn. 2.2)<br />
zeigt die aktuelle Bedeutung der faseroptischen Endoskopie trotz Konkurrenz durch<br />
die qualitativ hochwertigere Videoendoskopie (vgl. Abschn. 1.2.1). Für die Analyse<br />
von Oberflächen in schwer zugänglichen Hohlräumen technischer und menschlicher<br />
Natur spielt die präzise Wiedergabe von Strukturen und Farbinformation eine große<br />
Rolle. Zur Darstellung auf einem Monitor oder für die Digitalisierung der Aufnahmen<br />
wird an das Okular eines Endoskops eine Farbkamera montiert (vgl. Abschn. 2.3.1).<br />
Speziell für Fiberskope wird zunächst das Abtastverhalten eines Bildleiters auf Ba-<br />
sis von Glasfasern untersucht und mit einem physikalisch motivierten Abbildungsmo-<br />
dell beschrieben (vgl. Abschn. 3.1.1). Die physikalischen Eigenschaften der Lichtüber-<br />
tragung einer einzelnen Glasfaser führen näherungsweise zu einer Gauss-förmigen In-<br />
tensitätsverteilung auf dem Kamerasensor (vgl. Abschn. 2.3.1). Aufgrund der hexago-<br />
nalen Bündelung vieler dieser Fasern erhält eine Abbildung nach Übertragung durch<br />
einen Bildleiter ein charakteristisches Wabenmuster. Als Folge wird die Homogeni-<br />
tät im Bild gestört und die ungleichmäßige Aktivierung von Bildelementen auf dem<br />
Farbmosaik des Sensors führt zu falschen Farbwerten (vgl. Abschn. 2.3.3). Das beein-<br />
trächtigt sowohl die menschliche visuelle Wahrnehmung, als auch die digitale Weiter-<br />
verarbeitung durch eine Maschine.<br />
Die Arbeit beschäftigt sich mit verschiedenen Verfahren, die es erlauben, faser-<br />
optisch gewonnene Aufnahmen automatisiert von der Wabenstruktur zu befreien sowie<br />
darüber hinaus ihre Bildqualität zu verbessern und partiell ihren Informationsgehalt zu<br />
steigern. Die Grundlage dazu bilden zwei Verfahren zur Restaurierung, und zwar die<br />
Filterung (vgl. Abschn. 3.2.1) und die Interpolation (vgl. Abschn. 3.2.2). Die Filterung
174 5.1. ZUSAMMENFASSUNG<br />
nutzt angepasste Frequenzmasken, um hochfrequente Signalanteile der Wabenstruktur<br />
vom Bildsignal zu trennen. Untersuchungen zeigen einen geringen, jedoch messba-<br />
ren Unterschied bei der Nutzung der rotationsvarianten und der -invarianten Form der<br />
Maske (vgl. Abschn. 4.3). Die Interpolation restauriert ein wabenfreies Bild aus subpi-<br />
xelgenau bestimmten Stützstellen, die jeweils eine Faserintensität repräsentieren. Für<br />
einen Vergleich dieser beiden Restaurierungsverfahren mit Hilfe von Differenz- und<br />
Ähnlichkeitsmaßen wird das eingangs beschriebene Modell der Faserbildübertragung<br />
genutzt, um die zugrunde liegende Szene als Grundwahrheit zur Verfügung zu stellen<br />
(vgl. Abschn. 3.1.1).<br />
Eine Stärke der Filterung liegt in der Möglichkeit, präzise Grenzfrequenzen für die<br />
Ermittlung der exakten Masken im Sinne einer optimalen Signalverarbeitung zu wäh-<br />
len. Die Bildrestaurierung kann mit einer rotationsvarianten Maske robust gegenüber<br />
Verschiebungen zwischen Endoskop und Kamera durchgeführt werden. Die resultie-<br />
renden Bilder zeigen im Vergleich mit interpolierten Aufnahmen kaum Strukturarte-<br />
fakte, da nach der Theorie der Filterung der bandbegrenzte Signalverlauf durch über-<br />
lagerte sinc-Funktionen rekonstruiert wird. Quantitative Auswertungen zeigen, dass<br />
gefilterte Bilder für solche Anwendungen prädestiniert sind, die auf Grauwertbildern<br />
basieren, wie z. B. eine Raumrekonstruktion aus monokularen Bildsequenzen. Vergli-<br />
chen mit der Interpolation berücksichtigt die Filterung jedoch nicht die Position und<br />
Helligkeit einzelner Faserzentren. Deshalb resultieren durch die Filterung Bilder mit<br />
geringerer Intensitätsdynamik und Moiré-artigen Farbartefakten.<br />
Die Interpolation ist dagegen in der Lage, diese Falschfarben zu korrigieren. Da-<br />
zu werden in einem Kalibrierschritt die Positionen der Faserzentren subpixelgenau<br />
bestimmt. Unter Berücksichtigung ihrer Abbildungseigenschaft kann damit für jede<br />
Faser der betroffene Bereich auf dem Farbmosaik des Kamerasensors analysiert und<br />
ein Korrekturfaktor berechnet werden. Mit diesem Korrekturfaktor kann dann einma-<br />
lig eine Wertetabelle angelegt werden und damit beliebige weitere Bilder hinsichtlich<br />
Farbe und globaler Schattierung korrigiert werden. Allerdings ist die Interpolation an-<br />
fällig auf Verschiebungen zwischen Endoskop und Kamera. Einen Ausweg stellt die<br />
sog. dynamische Nachkalibrierung dar, mit der die Positionen der Faserzentren bei<br />
Verschiebung nachgeführt werden können (vgl. Abschn. 3.4).<br />
Die durch die Interpolation eingebrachten Strukturartefakte können durch Zwi-<br />
schenabtastung reduziert werden. Dazu eignet sich ein adaptierter Ansatz zur Super-<br />
position (vgl. Abschn. 3.5), der nichtredundante Information aus zeitlich benachbarten<br />
Bildern zusammenführt. Theoretische Überlegungen zur Flächenabtastung einer Faser<br />
auf der Basis des verwendeten Abbildungsmodells zeigen die prinzipiellen Voraus-<br />
setzungen und Grenzen dieses Vorgehens (vgl. Abschn. 3.5.2). Dazu wird ein Mess-
5.2. AUSBLICK 175<br />
verfahren vorgeschlagen, um die entscheidende Größe, die sog. effektive Fläche ab-<br />
zuschätzen (vgl. Abschn. 3.5.3). Bei der Abbildung durch ein handelsübliches Glas-<br />
faserendoskop mit 12.000 Einzelfasern auf einen Sensor mit 640 × 480 Bildpunkten<br />
(VGA-Auflösung) beträgt der mittlere Faserabstand etwa vier Bildpunkte. Interpolierte<br />
Bildbereiche, die zwischen den Faserzentren liegen, können durch versetzte Abtastun-<br />
gen präzisiert werden. Darüber hinaus beträgt die mögliche Erhöhung der informati-<br />
onstragenden Bildpunkte, z.B. in Form einer dichteren oder größeren Darstellung des<br />
Bilds nach Gleichung (3.21) etwa 40%.<br />
Da die Superposition für faseroptisch erfasste Aufnahmen auf der vorhin beschrie-<br />
benen Interpolation basiert, vereint sie deren Vorteile der Farbkorrektur und faserge-<br />
nauen Intensitätsbestimmung mit der Möglichkeit, Strukturartefakte und Verdeckun-<br />
gen im Faserbild durch Kombination mehrerer Aufnahmen zu kompensieren. Mehrere<br />
Beispiele in Abschnitt 4.6 belegen den Fortschritt durch die Superposition, zeigen je-<br />
doch auch deren Grenzen (vgl. Abschn. 4.6.4), die in erster Linie von der Präzision<br />
der Bewegungsschätzung abhängen, die wiederum eine hohe Strukturdichte im Bild<br />
erfordert.<br />
5.2 Ausblick<br />
Die erzielten Ergebnisse aus der Verbesserung und Erweiterung von Ansätzen zur au-<br />
tomatischen Restaurierung und Auflösungssteigerung von faseroptischen Aufnahmen<br />
werfen eine ganze Reihe von interessanten Fragen und weiterführenden Ideen auf. Der<br />
folgende Ausblick motiviert Anknüpfungspunkte zu den erarbeiteten Aspekten und<br />
schildert abschließend die Herausforderungen und Einsatzmöglichkeiten der Verfah-<br />
ren in zwei zukünftigen Projekten.<br />
Kalibrierung Alle vorgestellten und erweiterten Verfahren, die auf der Interpola-<br />
tion von faseroptischen Bilddaten basieren, erfordern eine initiale Kalibrierung (vgl.<br />
Abschn. 3.2.2.1). Damit der Anwender, z. B. ein Arzt im Operationssaal,diesen Schritt<br />
unkompliziert und schnell durchführen kann, muss ein Kalibrierkörper geschaffen wer-<br />
den, der die Spitze des flexiblen Endoskops definiert aufnimmt und eine diffuse Be-<br />
leuchtungsatmosphäre schafft. Damit kann die Unsicherheit der manuellen Ausrich-<br />
tung und Belichtung der Endoskopoptik umgangen werden. Durch die homogene Be-<br />
leuchtung der Fasern im Querschnitt des Bildbündels kann die Qualität der interpolier-<br />
ten Bilder optimiert werden.
176 5.2. AUSBLICK<br />
Kameratechnik für medizinische Anwendungen Abschnitt 3.3 zeigt die Ursache<br />
und eine wirklungsvolle Maßnahme zur Reduzierung der Farbartefakte bei der Nut-<br />
zung von Farbkameras mit Farbfiltermosaik auf. In der Kameratechnik werden typi-<br />
scherweise die Verteilungen Rot-Grün-Grün-Blau oder Cyan-Gelb-Magenta-Grün ge-<br />
nutzt, weil sie der Sensibilität des menschlichen Auges am nähesten kommen. Für viele<br />
medizinische Anwendungen ist jedoch eine höhere Abtastung durch rote Farbelemen-<br />
te wünschenswert, also z. B. Rot-Grün-Blau-Rot. Diese Betonung der Wellenlänge des<br />
roten Lichts hätte eine bessere Farbdarstellung von Blut und körperinneren Gewebe-<br />
texturen zur Folge und würde sich damit positiv auf die Farbdarstellung von medizi-<br />
nisch relevanten Merkmalen auswirken. Allerdings darf der technische Aufwand nicht<br />
unterschätzt werden, der den Einsatz solcher Farbfilterfelder aufgrund einer geringen<br />
Stückzahl bei der Fertigung und dem Einsatz zunächst unwirtschaftlich macht.<br />
Lichtempfindlichkeit Bei der Inspektion von engen Hohlräumen bewegt sich die<br />
Spitze des Endoskops oft relativ stark in Richtung der Objektwand. Da die Beleuchtung<br />
an der Spitze des Endoskops mitgeführt wird, verhält sich die Intensität des reflektier-<br />
ten Lichts auf dem Kamerasensor in erster Näherung quadratisch zum Arbeitsabstand.<br />
Durch diese relativ großen Schwankungen in der Helligkeit erscheinen Aufnahmen oft<br />
unterbelichtet oder durch eine Überempfindlichkeit des Sensors überstrahlt. Für die au-<br />
tomatische Anwendung der Bildrestaurierung ist deshalb eine Rückkopplung notwen-<br />
dig, die eine Verstärkung oder Dämpfung in der Elektronik der Kamera automatisch<br />
reguliert (Moderne, teure Lichtquellen unterstützen eine entsprechende Rückkopplung<br />
sogar für die Lichtleistung). Bei der Filterung kann dies beispielsweise eine Schwelle<br />
bezüglich des bildweiten Mittelwerts sein, bei der Interpolation stehen dafür die Spit-<br />
zenwerte der registrierten Faserintensitäten zur Verfügung.<br />
Evaluierung Die beschriebenen Methoden und Kriterien zur Evaluierung decken ei-<br />
ne Reihe von Möglichkeiten zur Beurteilung der Qualität und Leistungsfähigkeit der<br />
Bildrestaurierung ab. Bei der anwendungsbezogenen Auswertung der 3D-Rekonstruk-<br />
tion wird eine einfache geometrische Struktur verwendet, um die resultierenden Ob-<br />
jektpunkte ins Verhältnis zur originalen räumlichen Struktur setzen zu können. Un-<br />
abhängig von der Objektstruktur könnte die Güte der Rekonstruktion auch über die<br />
Konstanz eines äquidistant geführten Kamerapfads bemessen werden. Hierfür muss<br />
sichergestellt werden, dass das Endoskop z. B. mit einem Roboter in konstanten Ab-<br />
ständen durch die Szene bewegt wird. Der rekonstruierte Kamerapfad kann folglich<br />
am Verlauf einer Geraden gemessen werden.
5.2. AUSBLICK 177<br />
Verbesserung der Interpolation Die Ansätze zur Interpolation (vgl. Abschn. 3.2.2)<br />
sowie deren Erweiterungen zur farbartefaktfreien Restaurierung (vgl. Abschn. 3.3) und<br />
Auflösungssteigerung (vgl. Abschn. 3.5) nutzen eine baryzentrische Gewichtung, um<br />
die möglicherweise ungleichverteilten Faserpunkte in eine kartesische Bildmatrix um-<br />
zurechnen. Bei dieser Interpolation entstehen gegenüber der Filterung Strukturartefak-<br />
te, da dem bandbegrenzten Signal stetige, jedoch undifferenzierbare Verläufe hinzuge-<br />
fügt werden. In Analogie zur Restaurierung eines eindimensionalen Signals mit sinc-<br />
Funktionen ist ein kombiniertes Verfahren vorstellbar, das die ermittelten Stützstellen<br />
durch geeignete 2d-Funktionen restauriert. Problematisch dabei scheint die ungleich-<br />
mäßige Abtastung und die Interferenz, die beim Überlagern von 2d-Sinc-Glocken ent-<br />
steht. Außerdem berücksichtigt die baryzentrische Gewichtung keinerlei Struktur der<br />
Bildinhalte außerhalb der unmittelbar angrenzenden Nachbarstützstellen. Ein Ansatz<br />
zur Kantenerhaltung könnte einen Beitrag zur schärferen Repräsentation von kontrast-<br />
reichen Verläufen innerhalb der Apertur liefern. Hierfür kann die Information von lo-<br />
kalen Gradienten zwischen den registrierten Stützstellen genutzt werden, die eine Aus-<br />
sage über die Vorzugsrichtung in der betrachteten Umgebung macht.<br />
Bislang wird jeder Bildpunkt mit einer Quantisierung von 8 Bit repräsentiert. Für die<br />
Faserregistrierung, die keinen zeitkritischen Vorgang in der Kette der Interpolation dar-<br />
stellt, wäre eine Berechnung auf Basis der qualitativ hochwertigsten, vom Sensor zur<br />
Verfügung gestellten Auflösung (z. B. 12 oder 14 Bit) denkbar. Es ist zu erwarten, dass<br />
dies das Signal-Rausch-Verhältnis erhöht und für die Fasercharakterisierung zu präzi-<br />
seren Parametern bezüglich Postition und Varianz der eingepassten Gauß-Verteilungen<br />
führt. Eine erste Untersuchung hat jedoch keine sichtbare Verbesserung in den restau-<br />
rierten Bildern ergeben, weshalb die Bestrebung in diese Richtung in dieser Arbeit<br />
nicht weiter verfolgt wurde.<br />
Abtastung und Messverfahren zur effektiven Abtastfläche Über die Theorie zur<br />
Flächenabtastung werden die Grenzen einer möglichen Auflösungsteigerung abge-<br />
schätzt. Eine entsprechende Betrachtung der Abtasttheorie für die hexagonale Arith-<br />
metik könnte Erkenntnisse zur Optimierung der Interpolation bringen. Es stellt sich die<br />
Frage, inwiefern sich die Theorie zur Rekonstruktion eines bandbegrenzt abgetasteten<br />
Signals auf die zweidimensionale Arithmetik mit hexagonaler Orientierung übertragen<br />
lässt. Dazu muss die Überlagerung zweidimensionaler sinc-Funktionen betrachtet und<br />
analysiert werden.<br />
Bei der Aufnahme von Messkurven zur Analyse des Flächenabtastverhaltens einer Fa-<br />
ser fällt der unterschiedliche Verlauf von abfallenden gegenüber ansteigenden Flanken<br />
auf. Diese Diskrepanz wird bislang auf das Streulicht zurückgeführt, das der helle auf
178 5.2. AUSBLICK<br />
den dunklen Bereich des Schwarz-Weiß-Übergangs wirft. Um die Simulation damit zu<br />
erweitern, muss diesem Effekt noch weiter nachgegangen werden.<br />
Beschleunigung In Abschnitt 3.4 wurde beschrieben, wie sich der Einsatz von han-<br />
delsüblicher Grafik-Hardware eignet, um die Bildrestaurierung zu beschleunigen. Auf-<br />
grund der hohen Parallelisierbarkeit der Algorithmen liegt ein großes Potenzial in der<br />
Nutzung dedizierter Hardware, wie z. B. einer Kombination aus FPGA und DSP oder<br />
eines eingebetteten Rechensystems. Durch eine solche Unterstützung wäre es auch<br />
denkbar, die Ausführungsgeschwindigkeit der Superposition in eine Größenordnung<br />
zu bringen, dass sich eine geringe Detailsteigerung bereits in Echtzeit erreichen lässt.<br />
Der derzeitige Algorithmus dient dem Nachweis der Machbarkeit und eignet sich in<br />
dieser Implementierung lediglich zur nachträglichen Aufbereitung von archivierten<br />
Bildsequenzen, die z. B. mobil im Feld aufgezeichnet wurden.<br />
Einsatz in Grenzflächen- und Bioverfahrenstechnik In der Medizintechnik und<br />
zunehmend auch in der Pharmazie spielen Membranen eine bedeutende Rolle. Unter<br />
anderen beschäftigt sich das Fraunhofer IGB mit sog. Hohlfasermembranen, die sich<br />
wegen des sehr günstigen Verhältnisses von Oberfläche zu Membranvolumen zuneh-<br />
mend durchsetzen. Seit Beginn dieser Entwicklung besteht ein starkes Interesse, den<br />
Zustand der Hohlfasern optisch zu überprüfen und die darin stattfindenden Prozesse<br />
während des Vorgangs zu beobachten und zu kontrollieren (vgl. Abb. 5.1). Ein minia-<br />
turisiertes faserbasiertes Endoskopsystem ist in der Lage, Messtechniken zu unterstüt-<br />
zen, die nicht nur eine fotografische oder mikroskopische Aufnahme der Innenober-<br />
flächen ermöglichen, sondern auch weitere Informationen über deren Beschaffenheit<br />
sammeln, z. B. über Temperaturmessungen, Materialspektroskopie oder Konzentrati-<br />
onsmessungen. Grundlage hierfür ist eine ausreichende Bildqualität der Mikroendo-<br />
skope mit vergleichsweise niedriger Faseranzahl, für die die vorgestellte Bildrestaurie-<br />
rung einen wichtigen Beitrag leisten kann. Neben den Anwendungen in der Medizin-<br />
technik und der Membrantechnik ist auch ein Einsatz in der Prozesskontrolle beim sog.<br />
Downstream Processing 1 innerhalb der Pharmaindustrie und Katalyseanwendungen in<br />
der Biochemie denkbar.<br />
Anwendung mit Bewegungsschätzung Die Minimal Invasive Chirurgie (MIC) gilt<br />
wegen des schonenden operativen Zugangs und verkürzten Aufenthaltszeiten der Pa-<br />
tienten zu den wichtigsten Methoden der modernen Chirurgie. Allerdings beeinträch-<br />
1 Downstream Processing: Verfahren zur Abtrennung eines Produktes aus der Produktlösung
5.2. AUSBLICK 179<br />
(a) (b)<br />
Abbildung 5.1: Querschnitt einer Hohlfasermembran, die zur Trennung von Wasserdampfmo-<br />
lekülen aus der Luft eingesetzt wird (Abb. mit freundlicher Genehmigung vom Fraunhofer IGB).<br />
Ein dünnes flexibles Endoskop mit einem Arbeitsdurchmesser von einem Millimeter ist zur<br />
Hälfte in eine poröse Hohlraummembran eingeführt (b). Durch das semitransparente Material<br />
der Röhre dringt das Licht der integrierten Beleuchtung nach außen.<br />
tigt der minimale Zugang die Wahrnehmungs- und Handlungsfähigkeit des Chirurgen<br />
und macht das Anwendungsspektrum der MIC von technischen Hilfsmitteln abhängig.<br />
Aktuell lassen sich aus medizinischer Sicht wesentlich mehr MIC-Eingriffe vorstel-<br />
len, als mit den vorhandenen technischen Hilfsmitteln praktisch ausführbar sind. Ein<br />
Beispiel sind sog. NOTES Eingriffe (Natural Orifice Trans-Endoscopic Surgery). Mit<br />
dem Forschungsprojekt Whole-O-Hand der Fraunhofer Gesellschaft sollen verschie-<br />
dene Technologien in ein MIC-Gesamtsystem integriert werden, das die bildbasierte<br />
Computer Assistierte Diagnose (CAD) mit den Funktionen intelligenter, miniaturisier-<br />
ter Assistenzsysteme verbindet. Die Navigation des Endoskops im Bauch des Patienten<br />
spielt beim Entwurf und der Umsetzung der Robotertechnik eine entscheidende Rolle.<br />
Mit den gewonnenen Erkenntnissen zur Bewegungsschätzung in faserendoskopischen<br />
Bildsequenzen können einerseits die Grenzen und Möglichkeiten der endoskopbasier-<br />
ten Navigation abgewogen werden. Andererseits eignet sich das Projekt, um an konkre-<br />
ten medizinischen Aufgabenstellungen und Gewebestrukturen an Oberflächen innerer<br />
Organe die Stabilität und Robustheit von Algorithmen zur lokalen Bewegungsschät-<br />
zung weiter zu evaluieren, was im Rahmen dieser Arbeit noch nicht möglich war.
Abbildungsverzeichnis<br />
181<br />
1.1 Flexible Endoskope . . . . . . . . . . . . . . . . . . . . . . . . . . . 1<br />
1.2 Flexibles Endoskop zur Inspektion technischer Hohlräume . . . . . . 2<br />
1.3 Flexible Endoskopie im Patienten . . . . . . . . . . . . . . . . . . . 3<br />
1.4 Abbildung eines Kalibriertargets durch ein flexibles Endoskop . . . . 7<br />
2.1 Faseroptische Lesehilfe . . . . . . . . . . . . . . . . . . . . . . . . . 12<br />
2.2 Schematischer Aufbau eines flexiblen Endoskops . . . . . . . . . . . 18<br />
2.3 Schematischer Schnitt durch eine optische Faser . . . . . . . . . . . . 19<br />
2.4 Wabenstruktur beim Bildbündel mit Quarzfasern . . . . . . . . . . . 21<br />
2.5 Farbfilter für Einchip-Kameras . . . . . . . . . . . . . . . . . . . . . 22<br />
2.6 Faserabbildung auf Farbfiltermosaik . . . . . . . . . . . . . . . . . . 26<br />
2.8 Entzerrung von endoskopischen Abbildungen . . . . . . . . . . . . . 29<br />
2.9 Kalibrierung inkohärenter Bildbündel . . . . . . . . . . . . . . . . . 33<br />
2.10 Filtermaske nach Dickens et al. . . . . . . . . . . . . . . . . . . . . . 35<br />
2.11 Primitive Farbbildverarbeitung . . . . . . . . . . . . . . . . . . . . . 36<br />
2.12 Nächste-Nachbarn-Interpolation . . . . . . . . . . . . . . . . . . . . 44<br />
3.1 Ablauf der Modellierung einer faseroptischen Abbildung . . . . . . . 49<br />
3.2 Intensitätsverteilung im Querschnitt einer Glasfaser . . . . . . . . . . 51<br />
3.3 Apertur, ROI und Anordnung der Faserzentren . . . . . . . . . . . . . 52
182 ABBILDUNGSVERZEICHNIS<br />
3.4 Faserabstand bei bestimmter Faseranzahl in definiertem Aperturkreis . 53<br />
3.5 Faseroptische Modellierungen eines USAF-Testbilds . . . . . . . . . 54<br />
3.7 Konische Verzerrung in der Rekonstruktion . . . . . . . . . . . . . . 58<br />
3.8 Optimierung des Verzerrungsfaktors . . . . . . . . . . . . . . . . . . 59<br />
3.9 Fiberskopisch erfasste Referenzbilder mit Frequenzspektren . . . . . 63<br />
3.10 Spektrale Filterung (Quarzfaser-Bildbündel) . . . . . . . . . . . . . . 67<br />
3.11 Spektrale Filterung (Glasfaser-Bildbündel) . . . . . . . . . . . . . . . 68<br />
3.12 Maskentypen zur Filterung von endoskopisch erfassten Aufnahmen . 69<br />
3.13 Auswirkung der Glättung von Filtermasken . . . . . . . . . . . . . . 70<br />
3.14 Ablaufdiagramm der physikalisch motivierten Interpolation . . . . . . 72<br />
3.15 Ablaufdiagramm der Faserregistrierung . . . . . . . . . . . . . . . . 72<br />
3.16 Größe und Varianz des Maximumfilters . . . . . . . . . . . . . . . . 73<br />
3.17 Kandidatenpixel zur Reduktion des Berechnungsaufwands . . . . . . 75<br />
3.18 Visualisierung der Kandidatenpixel . . . . . . . . . . . . . . . . . . . 77<br />
3.19 Vierer-Nachbarschaft eines Faserzentrums . . . . . . . . . . . . . . . 79<br />
3.20 Beispiel zur physikalisch motivierten Interpolation . . . . . . . . . . 80<br />
3.21 Kompensation von singulären Faserdefekten . . . . . . . . . . . . . . 81<br />
3.22 Ablauf der erweiterten Farbinterpolation . . . . . . . . . . . . . . . . 83<br />
3.23 Zuweisung von Sensorelementen zur Nachbarschaft einer Faser . . . 84<br />
3.24 Sequenz von rekonstruierten Bildern . . . . . . . . . . . . . . . . . . 86<br />
3.25 Visualisierung der Nachkalibrierung . . . . . . . . . . . . . . . . . . 87<br />
3.26 Informationsfluss und -rückgewinnung . . . . . . . . . . . . . . . . . 89<br />
3.27 Effektive Fläche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91<br />
3.28 Abtastung mit Gesamtfläche . . . . . . . . . . . . . . . . . . . . . . 91
ABBILDUNGSVERZEICHNIS 183<br />
3.29 Zwischenabtastung mit Gesamtfläche . . . . . . . . . . . . . . . . . 92<br />
3.30 Funktion der Abtastwerte bei Gesamtfläche . . . . . . . . . . . . . . 92<br />
3.31 Abtastung mit effektiver Fläche . . . . . . . . . . . . . . . . . . . . . 93<br />
3.32 Zwischenabtastung mit effektiver Fläche . . . . . . . . . . . . . . . . 93<br />
3.33 Funktion der Abtastwerte bei effektiver Fläche . . . . . . . . . . . . . 94<br />
3.34 Effektive Abtastfläche eines Faserbündels . . . . . . . . . . . . . . . 95<br />
3.35 Experiment zur Faserabtastung . . . . . . . . . . . . . . . . . . . . . 96<br />
3.36 Ideales Intensitätsprofil der Abtastung eines Balkens . . . . . . . . . 97<br />
3.37 Referenzmuster für Faserabtastprofil . . . . . . . . . . . . . . . . . . 99<br />
3.38 Ideales Intensitätsprofil der Abtastung eines Balkens . . . . . . . . . 100<br />
3.39 Ablauf der Auflösungssteigerung . . . . . . . . . . . . . . . . . . . . 104<br />
3.40 Modi der Korrespondenzfindung . . . . . . . . . . . . . . . . . . . . 106<br />
3.41 Super Resolution in faseroptischen Aufnahmen . . . . . . . . . . . . 107<br />
3.42 Testbild mit Abtastlinie für die Qualitätsmessung . . . . . . . . . . . 111<br />
3.43 Vorgehensweise zur objektiven Evaluierung mit Differenzmaß . . . . 113<br />
3.44 Merkmalskorrespondenzen und 3D-Punktwolke einer Bohrung . . . . 118<br />
3.45 Projektion einer zylindrischen 3D-Punktwolke . . . . . . . . . . . . . 120<br />
4.1 Visueller Vergleich der Abbildungsgüte . . . . . . . . . . . . . . . . 126<br />
4.2 Visualisierung der Statistik der Merkmalskorrespondenzen . . . . . . 132<br />
4.3 Visualisierung des Rückprojektionsfehler . . . . . . . . . . . . . . . 134<br />
4.4 Visualisierung der Streuungsstatistik . . . . . . . . . . . . . . . . . . 136<br />
4.5 Evaluierungsbereiche der untersuchten USAF-Abbildungen . . . . . . 139<br />
4.6 Stichprobe zur Bewertung subjektiver Wahrnehmung . . . . . . . . . 143<br />
4.7 Filterresultate für den visuellen Vergleichstest . . . . . . . . . . . . . 144
184 ABBILDUNGSVERZEICHNIS<br />
4.8 Vergleich der Restaurierung bei variabler Bildfrequenz 1 . . . . . . . 149<br />
4.9 Vergleich der Restaurierung bei variabler Bildfrequenz 2 . . . . . . . 149<br />
4.10 Visualisierung des Qualitätssprungs bei der Filterung . . . . . . . . . 151<br />
4.11 Vergleich der Restaurierung bei variabler Faseranzahl 1 . . . . . . . . 152<br />
4.12 Vergleich der Restaurierung bei variabler Faseranzahl 1 . . . . . . . . 152<br />
4.13 Vergleich der Restaurierung bei variabler Faseranzahl 1 . . . . . . . . 153<br />
4.14 Farbartefaktreduktion am Beispiel menschlicher Haut . . . . . . . . . 155<br />
4.15 Visuelles Ergebnis zur Sequenz BST . . . . . . . . . . . . . . . . . . 159<br />
4.16 Visuelles Ergebnis zur Sequenz LNA . . . . . . . . . . . . . . . . . . 159<br />
4.17 Visuelles Ergebnis zur Sequenz ALU . . . . . . . . . . . . . . . . . . 162<br />
4.18 Superposition für Bildsequenz in zylinderförmigem Hohlraum . . . . 162<br />
4.19 Visuelles Ergebnis zur Sequenz SPF . . . . . . . . . . . . . . . . . . 163<br />
4.20 Ortsvektoren von registrierten Bewegungen . . . . . . . . . . . . . . 164<br />
4.21 Superresolution mit konstanter Anzahl an Bildern . . . . . . . . . . . 165<br />
4.22 Superresolution mit konstanter Anzahl an Merkmalen . . . . . . . . . 165<br />
4.23 Superposition mit registrierter Endoskopaufnahme . . . . . . . . . . 167<br />
4.24 Vergrößerte Ausschnitte der Restaurierungsergebnisse . . . . . . . . . 168<br />
4.25 Merkmalskorrespondenzen für die Superposition . . . . . . . . . . . 169<br />
5.1 Einsatz der Mikroendoskopie in der Membrantechnik . . . . . . . . . 179
Tabellenverzeichnis<br />
185<br />
3.1 Vor- und Nachteile der Restaurierungsansätze . . . . . . . . . . . . . 62<br />
4.1 Hersteller und techn. Spezifikationen der verwendeten Endoskope . . 125<br />
4.2 Hersteller und techn. Spezifikationen der verwendeten Kameras . . . 127<br />
4.3 Texturen und endoskopische Abbildungen von Hohlzylindern . . . . . 130<br />
4.4 Anzahl von Korrespondenzen in verschiedenen Bildsequenzen . . . . 131<br />
4.5 Rückprojektionsfehler für verschiedene Bildsequenzen . . . . . . . . 133<br />
4.6 Streuung in der 3D-Rekonstruktion verschiedener Bildsequenzen . . . 135<br />
4.7 Filtertypen und -einstellungen für die Evaluierung der Linientrennung 138<br />
4.8 USAF-Linienmuster zur Evaluierung der Filterung . . . . . . . . . . 139<br />
4.9 Gütemessung zur Detailerhaltung und Glattheit für UF1 . . . . . . . . 140<br />
4.10 Gütemessung zur Detailerhaltung und Glattheit für UF2 . . . . . . . . 141<br />
4.11 Ergebnisse des visuellen Vergleichstests . . . . . . . . . . . . . . . . 144<br />
4.12 Sinusbilder für die Evaluierung der Restaurierungseigenschaften . . . 146<br />
4.13 Szenenkonstellationen für die Evaluierung von Super Resolution . . . 158
Glossar<br />
Alias oder Alias-Effekt Fehler, die durch Verletzung des Abtasttheorems beim digi-<br />
talen Abtasten von Signalen auftreten, Seite 31<br />
Apertur Kreisförmiger Ausschnitt, den ein Betrachter durch das Okular eines Endo-<br />
skops wahrnimmt, Seite 50<br />
Autoklavieren Verfahren zum Erreichen von Sterilität für Objekte (z. B. Instrumen-<br />
187<br />
te oder Nährmedien), die dazu unter Überdruck Wasserdampf oder speziellen<br />
Gasen ausgesetzt werden, Seite 13<br />
Bronchoskopie Spiegelung der Atemwege und des Lungenraums, Seite 16<br />
Canny-Filter Algorithmus zur Kantendetektion in Bildern, Seite 154<br />
DC-Nikkore Defocus Image Control, Nikkore mit gezielter Defokussierung, Seite 32<br />
Demosaicing Interpolation eines Farbbilds aus den einkanaligen farbkodierten Inten-<br />
sitätsdaten des Sensorfelds., Seite 23<br />
Downstream Processing Verfahren zur Abtrennung eines Produktes aus der Produkt-<br />
lösung, Seite 178<br />
Galaktographie Röntgenuntersuchung der Milchgänge, Seite 16<br />
Gastroenterologie Die Gastroenterologie befasst sich mit der Diagnostik, nichtopera-<br />
tiven Therapien (z. B. medikamentöse Therapien) und Prävention von Erkran-<br />
kungen des Magen-Darm-Trakts, Seite 2<br />
Grundwahrheit (engl. ground truth) Ursprüngliche, unverfälschte Datenbasis, hier<br />
zum Vergleich nach Bildverarbeitungsschritten, Seite 48<br />
Intraduktal Innerhalb des Milchgangs, Seite 16<br />
Least-Square Problem Näherung eines Gleichungssystems nach der Methode der<br />
kleinsten Quadrate, Seite 76
188<br />
Lochkameramodell Abbildungsmodell, das von der verzerrungsfreien perspektivi-<br />
schen Projektion von Punkten einer Szene durch das optische Zentrum einer<br />
Kamera auf die Bildebene ausgeht., Seite 29<br />
Lookup-Tabelle Vorgehen zur schnellen Bereithaltung von Zwischenergebnissen, in-<br />
dem Funktionswerte vorab ermittelt und im Speicher als Tabelle abgelegt wer-<br />
den., Seite 29<br />
Läsion Gewebeauffälligkeit, Seite 16<br />
MAD (Mean absolute difference) Mittel der Summe aus den Beträgen der Differen-<br />
zen, Seite 113<br />
Mammasonographie Ultraschalluntersuchung der Brust, Seite 16<br />
Mammographie Radiologische Untersuchung der Brust zur Früherkennung von Brust-<br />
krebs, Seite 16<br />
MAP (Maximum-a-posteriori) Ein Schätzverfahren, das Vorwissen mit einbezieht,<br />
Seite 45<br />
Markerlos Ohne künstliche Kennzeichnung, z. B. durch Klebemarken, Seite 28<br />
Metrologie Lehre von den Maßen, den Gewichten und den Maßsystemen., Seite 28<br />
Mnemonik Einprägsames Kurzzeichen eines Ausdrucks, Seite 157<br />
Modalitäten In der bildgebenden Medizin bezeichnen Modalitäten verschiedene Sig-<br />
nalarten (Licht, Ultraschall, Röntgenstrahlung, usw.), mit denen man Bilder<br />
vom menschlichen Körper gewinnt., Seite 5<br />
Monokular (lat. für einäugig) Hier: Mit einer einzigen Blickrichtung, Seite 14<br />
Mosaicing Abtastung von Bilddaten durch ein Farbfiltermosaik, Seite 55<br />
MSSIM (Mean structural similarity) Mittlere strukturelle Ähnlichkeit, Seite 114<br />
PSNR (Peak signal to noise ratio) Spitzensignal-zu-Rausch-Verhältnis, Seite 114<br />
QSR (Quality regarding smoothness and Rayleigh based criterion) Güteindikator, der<br />
über die Glättung (Smoothing) und eine Rayleigh basierte Detailerhaltung im<br />
USAF-Testbild definiert ist, Seite 110<br />
Registrierung Hier: Geometrische Transformation von zwei oder mehreren Bildern<br />
einer Szene, um sie bestmöglichst in Übereinstimmung miteinander zu bringen,<br />
Seite 166
Rektum (lat. rectum) Mastdarm, Seite 11<br />
Relevanzfaktor Charakteristischer Wert für die Ähnlichkeit eines Bildausschnitts zu<br />
einer definierten Vergleichsgröße, hier einer Gauß-Funktion, Seite 75<br />
RMSE Root mean square error (Wurzel der mittleren quadratischen Abweichung),<br />
Seite 113<br />
Rohdaten Farbsensoren mit Farbfiltermosaik berechnen die Farbwerte des resultie-<br />
renden Bilds aus farbkodierten Intensitätswerten, den sog. Rohdaten, Seite 22<br />
ROI (Region of interest) Berücksichtigter Bereich für Bildoperationen, Seite 51<br />
Sensorelement Einzelne lichtempfindliche Zelle aus der fotosensitiven Fläche (Ma-<br />
trix) eines Kamerasensors, Seite 21<br />
sinc-Funktion (engl. sinus cardinalis) Die sincFunktion ist als sin(x)/x definiert und<br />
spielt in der Signalverarbeitung eine wichtige Rolle , Seite 69<br />
Spekulum (lat. Speculum) Spiegel, Seite 11<br />
STFT (Short time Fourier transform) Kurzzeit- oder auch gefensterte Fourier-Trans-<br />
formation, Seite 43<br />
subpixelgenau Der Begriff wird hier für Berechnungen verwendet, die eine höhere<br />
Präzision als das Pixelraster verwenden., Seite 32<br />
Super Resolution Verfahren zur Erhöhung der Auflösung in bewegten Bildsequen-<br />
zen, Seite 37<br />
Superposition Verfahren zur Auflösungsteigerung im Ortsbereich durch Überlage-<br />
rung minimal versetzter Bildinhalte, Seite 46<br />
189<br />
Template Intensitätsmatrix, hier zum blockweisen Vergleich der Ähnlichkeit von Bild-<br />
ausschnitten, Seite 75<br />
TI (Transinformation) Statistisches Maß für den Zusammenhang von Zufallsgrö-<br />
ßen, Seite 116<br />
USAF-Testbild (engl. US Air Force Resolution Test Chart) Testmuster zur Bestim-<br />
mung der Auflösungsfähigkeit eines optischen Systems. Das Muster enthält<br />
Gruppen von je drei Linien in unterschiedlichen Auflösungsstufen., Seite 54<br />
Weißabgleich Verfahren zur Korrektur der Gewichtung von Farbkanälen eines Kame-<br />
rasensors bezüglich der Farbtemperatur des Lichtes am Aufnahmeort, Seite 57
190<br />
Zystoskop Gerät zur Spiegelung der Blase, Seite 11
Formelzeichen und Symbole<br />
Matrizen, Bilder, Gitternetze<br />
M(MQ / MG) Filtermaske im Spektralraum (für Quarzfaser / für Glasfaser)<br />
I Bildmatrix<br />
Î Faserendoskopisch erfasstes Szenenbild<br />
ˆR Rohdaten von Î<br />
Îref<br />
ˆRref<br />
Weißbild zur Kalibrierung<br />
Rohdaten des Weißbilds<br />
LR Î Niedrig aufgelöstes Eingangsbild<br />
HR I Hoch aufgelöstes Ausgangsbild<br />
S Diskretisierte Bildszene<br />
T Template zum Blockvergleich<br />
R Berücksichtigter Bereich für Bildoperationen<br />
N Pixelmenge eines lokalen Bildausschnitts<br />
D Delaunay Gitternetz<br />
ΩS<br />
ΩR<br />
Operatoren<br />
Evaluierungsbereich für Glattheit<br />
Evaluierungsbereich für Detailerhaltung<br />
⊙ Elementweise Multiplikation von Matrizen<br />
F Transformation in einen Frequenzraum<br />
I Interpolation basierend auf einer Menge an Stützstellen<br />
FFT Schnelle Fouriertransformation<br />
M Operator zur Erstellung von Filtermasken<br />
⌊x⌋ Abgerundeter Wert von x<br />
⌈x⌉ Aufgerundeter Wert von x<br />
x2 L2-Norm von x<br />
{a; b} Diskrete Wertemenge von a bis b<br />
[a; b] Kontinuierlicher Wertebereich von a bis b<br />
191
192<br />
Formelzeichen und Symbole<br />
mdist<br />
Grauwertschwelle des Maximumfilters<br />
ϑ Relevanzfaktor im Sinne der Güte einer Faserabbildung<br />
df<br />
˜df<br />
f0<br />
Faserabstand<br />
Geschätzter Faserabstand<br />
Grenzfrequenz<br />
NA Numerische Apertur<br />
ρ / τ Verzerrungsparameter (radial / tangential)<br />
γ Abmessungsverhältnis eines Sensorelements<br />
(x, y) T /(˜x, ˜y) T Un-/Verzerrte Koordinaten<br />
NI<br />
NM<br />
NF<br />
ND<br />
NN<br />
rkern<br />
Anzahl der Bilder<br />
Anzahl der Merkmale<br />
Anzahl der Fasern<br />
Anzahl der Dreiecke im Delaunay-Gitter<br />
Anzahl definierter Nachbarn einer Faser<br />
Kernradius einer Faser<br />
λ Wellenlänge<br />
V Normierte Frequenz<br />
ˆV Normierte Grenzfrequenz<br />
rmod<br />
rA<br />
αs<br />
Modenfeldradius<br />
Aperturradius<br />
W, H Breite, Höhe<br />
αtotal<br />
Grundorientierung der Faseranordnung<br />
Akzeptanzwinkel für die Totalreflexion in Glasfasern<br />
a Intensitätsamplitude<br />
pkand<br />
Pkand<br />
Wk<br />
σk<br />
pI<br />
pf ,i<br />
Kandidatenbildpunkt<br />
Menge von Kandidatenbildpunkten<br />
Größe der Impulsantwortmatrix zur Glättung<br />
Standardabweichung der Impulsantwortmatrix zur Glättung<br />
Bildpunkt<br />
Faserzentrum i<br />
SE Sensorelement<br />
b Barizentrische Koordinate
Verzeichnis der Fremdliteratur<br />
[AGF05] AYMERIC, PERCHANT, LE GOUALHER GEORGES und BERIER FREDERIC:<br />
193<br />
Method for processing an image acquired through a guide consisting of a plura-<br />
lity of optical fibers. Patent US2005207668, 2005.<br />
[AKH + 99] ASLAN, PETER, RAMSAY L. KUO, KIRS HAZEL, RICHARD K. BABYAN und<br />
GLENN M. PREMINGER: Advances in Digital Imaging during Endoscopic Sur-<br />
gery. Journal of Endourology, 13(4):251–255, Mai 1999.<br />
[Alm06] ALMIKRO GMBH: Entwicklung, Produktion und Vertrieb innovativer Produkte<br />
aus dem Bereich der Endoskopie für die Humanmedizin sowie für industrielle<br />
Anwendungen. http://www.almikro.de, Sep. 2006.<br />
[And05] ANDERSSON TECHNOLOGIES LLC: SynthEyes Lens Distortion Algorithm.<br />
http://www.ssontech.com/content/lensalg.htm, 2005.<br />
[And07] ANDERSSON TECHNOLOGIES LLC: SynthEyes 2007: 3-D Camera Tracking.<br />
http://www.ssontech.com/, 2007.<br />
[Arn06] ARNOLD, CORNELIA: Experimentelle Untersuchung unterschiedlicher Be-<br />
leuchtungstechniken für die automatische Bohrungsinspektion. Diplomarbeit,<br />
FH Jena und Fraunhofer IIS, 2006.<br />
[BCR + 01] BARONTI, S., A. CAPANNI, A. ROMOLI, L. SANTURRI und R. VITULLI: De-<br />
tector shape in hexagonal sampling grids. In: FUJISADA, H., J. B. LURIE<br />
und K. WEBER (Herausgeber): Proceedings SPIE, Sensors, Systems, and Next-<br />
Generation Satellites V, Hiroyuki Fujisada; Joan B. Lurie; Konradin Weber;<br />
Eds., Band 4540, Seiten 354–365, Dez. 2001.<br />
[BEZN05] BEN-EZRA, M., A. ZOMET und S.K. NAYAR: Video super-resolution using<br />
controlled subpixel detector shifts. In: IEEE Transactions on Pattern Analysis<br />
and Machine Intelligence, Band 27, Seiten 977 – 987, Juni 2005.<br />
[BIG03] BEN-ISRAEL, ADI und THOMAS N.E. GREVILLE: Generalized Inverses.<br />
Springer-Verlag, 2 Auflage, 2003.
194 VERZEICHNIS DER FREMDLITERATUR<br />
[Bro00] BROECHER, BENNO: Faseroptische Sensoren zur Prozessüberwachung in der<br />
Mikrosystemtechnik. Berichte aus der Produktionstechnik. Shaker, Aachen, 1.<br />
Auflage, 2000.<br />
[BS98] BORMAN, SEAN und ROBERT STEVENSON: Spatial Resolution Enhancement<br />
of Low-Resolution Image Sequences - A Comprehensive Review with Directi-<br />
ons for Future Research. Technischer Bericht, Laboratory for Image and Signal<br />
Analysis, 1998.<br />
[Can86] CANNY, J.: A computational approach to edge detection. IEEE Transaction on<br />
Pattern Analysis and Machine Intelligence, 8(6):679–698, Nov. 1986.<br />
[CCSS03] CHAN, RAYMOND H., TONY F. CHAN, LIXIN SHEN und ZUOWEI SHEN: Wa-<br />
velet Algorithms for High-Resolution Image Reconstruction. SIAM Journal on<br />
Scientific Computing, 24(4):1408–1432, 2003.<br />
[CM05] CHAUDHURI, SUBHASIS und JOSHI MANJUNATH: Motion-Free Super-<br />
Resolution. Springer-Verlag New York, Inc., Secaucus, 1. Auflage, 2005.<br />
[CV00] CHEN, HUA-MEI und PRAMOD K. VARSHNEY: A Pyramid Approach For Mul-<br />
timodality Image Registration Based On Mutual Information. Proceedings of the<br />
Third International Conf. on Information Fusion (FUSION), 1:9–15, Juli 2000.<br />
[Das07] DAS MOVIE-COLLEGE: Weichzeichner. http://www.movie-college.<br />
de/filmschule/kamera/weichzeichner.htm, Juli 2007.<br />
[DBM98] DICKENS, M.M., D.J. BORNHOP und S. MITRA: Removal of optical fiber in-<br />
terference in color micro-endoscopic images. In: Proceedings of 11th IEEE Sym-<br />
posium on Computer-Based Medical Systems, Seiten 246–251, Juni 1998.<br />
[DHMB97] DICKENS, MOLLY M., MICHAEL P. HOULNE, SUNANDA MITRA und DAR-<br />
RYL J. BORNHOP: Soft computing method for the removal of pixelation in micro-<br />
endoscopic images. In: BOSACCHI, BRUNO, JAMES C. BEZDEK und DAVID B.<br />
FOGEL (Herausgeber): Proceedings SPIE, Applications of Soft Computing, Band<br />
3165, Seiten 186–194, Okt. 1997.<br />
[DHMB99] DICKENS, MOLLY M., MICHAEL P. HOULNE, SUNANDA MITRA und DAR-<br />
RYL J. BORNHOP: Method for depixelating micro-endoscopic images. Optical<br />
Engineering, 38:1836–42, Nov. 1999.<br />
[Dum98] DUMAS, JEAN: Device to enhance imaging resolution. Patent US5712685, 1998.<br />
[EHO01] ELAD, MICHAEL und Y. HEL-OR: A Fast Super-Resolution Reconstruction Al-<br />
gorithm for Pure Translational Motion and Common Space-Invariant Blur. IEEE<br />
Transactions on Image Processing, 10(8):1187–1193, Aug. 2001.
VERZEICHNIS DER FREMDLITERATUR 195<br />
[Ehr93] EHRHARDT, J.C.: Hexagonal fast Fourier transform with rectangular output.<br />
IEEE Transactions on Signal Processing, 41(3):1469–1472, März 1993.<br />
[EKP93] EIKELMANN, E., S. KELLER und T. PFEIFER: Verfahren zur Darstellung eines<br />
in ein Lichtleiterbündel eingekoppelten Bildes. Patent DE4345278, 1993.<br />
[Eve07] EVEREST VIT GMBH: Homepage. http://www.everestvit.de, Juli<br />
2007.<br />
[Far04] FARSIU, SINA: Resolution Enhancement Software. http://www.cse.<br />
ucsc.edu/~milanfar/SR-Software.htm, 2004.<br />
[FBPD06] FELDMANN, TOBIAS, SAHLA BOUATTOUR, DIETRICH PAULUS und FRANK<br />
DEINZER: Kombination verschiedener Ähnlichkeitsmaße für die 2D/3D-<br />
Registrierung von Röntgenbildern mittels Demokratischer Integration. In: Bild-<br />
verarbeitung für die Medizin (BVM), Seiten 226–230. Springer Verlag, 2006.<br />
[FEM06] FARSIU, S., M. ELAD und P. MILANFAR: Multiframe demosaicing and super-<br />
resolution of color images. IEEE Transactions on Image Processing, 15(1):141–<br />
159, Jan. 2006.<br />
[Fib01] FIBER OPTICS SCHOTT AG: Fiber Characteristics. http:<br />
//www.schott.com/fiberoptics/english/download/25.<br />
01.01FiberChar.pdf, 2001.<br />
[Fib04] FIBER OPTICS SCHOTT AG: Industrial fiber optic components.<br />
http://www.schott.com/fiberoptics/english/download/<br />
industrial_fiber_optic_components_e_0904.pdf, 2004.<br />
[FREM04a] FARSIU, S., D. ROBINSON, M. ELAD und P. MILANFAR: Advances and Chal-<br />
lenges in Super-Resolution. International Journal of Imaging Systems and Tech-<br />
nology, 14(2):47–57, 2004.<br />
[FREM04b] FARSIU, SINA, DIRK ROBINSON, MICHAEL ELAD und PEYMAN MILANFAR:<br />
Fast and Robust Multi-Frame Super-Resolution. In: IEEE Transactions on Image<br />
Processing, Band 13, Seiten 1327–1344, Okt. 2004.<br />
[Fur01] FURTNER, UWE: Farbverarbeitung mit Bayer-Mosaic Sensoren. Technischer<br />
Bericht, MATRIX Vision GmbH, Aug. 2001.<br />
[FVLS04] FISCHER, BENEDICT, B. VAESSEN, THOMAS M. LEHMANN und KLAUS SPIT-<br />
ZER: Bildverbesserung endoskopischer Videosequenzen in Echtzeit. In: Bildver-<br />
arbeitung für die Medizin (BVM), Seiten 386 – 389, Heidelberg, 2004. Springer<br />
Verlag.
196 VERZEICHNIS DER FREMDLITERATUR<br />
[GOE + 05] GRUNWALD, S., R. OHLINGER, U. EULER, M. KIECHLE, B. PLATTNER,<br />
T. FISCHER, M.WARM, M. HAHN, V. R. JACOBS und S. PAEPKE: Minimalin-<br />
vasive Diagnostik sezernierender Brusterkrankungen durch Milchgangsendosko-<br />
pie. In: Endoskopie heute, Band 18, Seiten 186–189, 2005.<br />
[GPG + 04] GOUALHER, G. LE, A. PERCHANT, M. GENET, C. CAVÉ, B. VIELLEROBE,<br />
F. BÉRIER, B. ABRAT und N. AYACHE: Towards optical biopsies with an inte-<br />
grated fibered confocal fluorescence microscope. In: Medical Image Computing<br />
and Computer-Assisted Intervention (MICCAI), Band 2 der Reihe Lecture Notes<br />
in Computer Science, Seiten 761–68. Springer, 2004.<br />
[GRS97] GIROD, B., R. RABENSTEIN und A. STENGER: Einführung in die Systemtheo-<br />
rie. Teubner, Stuttgart, 1. Auflage, 1997.<br />
[Han07a] HANDELSBLATT: Gefahr durch Röntgenstrahlen unterschätzt. http://www.<br />
handelsblatt.com, Mai 2007.<br />
[Han07b] HANSELMANN, MICHAEL: High Resolution Microscopy. Diplomarbeit, Uni-<br />
versität Ulm und Fraunhofer IIS, 2007.<br />
[HBA97] HARDIE, R.C., K.J. BARNARD und E.E. ARMSTRONG: Joint MAP registration<br />
and high-resolution image estimation using a sequence of undersampled images.<br />
In: IEEE Transactions on Image Processing, Band 6, Seiten 1621–1633, Dez.<br />
1997.<br />
[HGN03] HOWELL, PAUL, WENDY R. GARBER und LUONG NGUYEN: Resolution-<br />
enhancement method for digital imaging. Patent US6570613, 2003.<br />
[Hir07] HIRSCHBECK, FRANZ: Beschleunigte Bildverbesserung für faseroptische Endo-<br />
skope mittels Grafikhardware. Diplomarbeit, Universität Erlangen und Fraunho-<br />
fer IIS, 2007.<br />
[HPP04] HONG, VINH, HENRYK PALUS und DIETRICH PAULUS: Edge Preserving Fil-<br />
ters on Color Images. In: International Conference on Computational Science,<br />
Seiten 34–40, 2004.<br />
[HS96] HEIKKILA, J. und O. SILVEN: Calibration procedure for short focal length off-<br />
the-shelf CCD cameras. In: Proceedings of the 13th International Conference<br />
on Pattern Recognition, Band 1, Seiten 166–170, Aug. 1996.<br />
[HTB + 97] HARDIE, RUSSELL C., TIMOTHY R. TUINSTRA, JOHN BOGNAR, KENNETH J.<br />
BARNARD und ERNEST ARMSTRONG: High Resolution Image Reconstruction<br />
from Digital Video with Global and Non-Global Scene Motion. International<br />
Conference on Image Processing, 1:153–156, Okt. 1997.
VERZEICHNIS DER FREMDLITERATUR 197<br />
[HZMH01] HELFERTY, J.P., C. ZHANG, G. MCLENNON und W.E. HIGGINS: Videoendos-<br />
copic distortion correction and its application to virtual guidance of endoscopy.<br />
IEEE Transactions on Medical Imaging, 20(7):605–17, 2001.<br />
[Int01] INTEL: Open Source Computer Vision Library. Reference Manual, 2001.<br />
[IP91] IRANI, M. und S. PELEG: Improving Resolution by Image Registration. Graphi-<br />
cal Models and Image Processing, 53(3):231–239, 1991.<br />
[Jai89] JAIN, ANIL K.: Fundamentals of digital image processing. Prentice-Hall, Inc.,<br />
Upper Saddle River, NJ, USA, 1989.<br />
[Jan00] JANSSEN, CHRISTIAN: Ein miniaturisiertes Endoskop-Stereomesssystem zur<br />
Strömungsvisualisierung in Kiesbetten. Diplomarbeit, Universität Heidelberg,<br />
2000.<br />
[Kar04] KARL STORZ GMBH: Rückblick Industriemesse Hannover vom 19.-<br />
24.04.2004. http://www.karlstorz.de/cps/rde/xchg/<br />
SID-0A010A01-6F236960/karlstorz/hs.xsl/239.htm, 2004.<br />
[Kar07] KARL STORZ GMBH: Homepage. http://www.karlstorz.de, Juli<br />
2007.<br />
[KBV90] KIM, S. P., N. K. BOSE und H. M. VALENZUELA: Recursive Reconstruction of<br />
High Resolution Image From Noisy Undersampled Multiframes. IEEE Transac-<br />
tions on Acoustics, Speech, and Signal Processing (TASSP), 38(6):1013–1027,<br />
Juni 1990.<br />
[KBV93] KIM, S. P., N. K. BOSE und H. M. VALENZUELA: Recursive Implementati-<br />
on of Total Least Squares Algorithm for Image Reconstruction from Noisy Un-<br />
dersampled Multiframes. IEEE Transactions on Acoustics, Speech, and Signal<br />
Processing (TASSP), 5:269–272, 1993.<br />
[KH96] KALTENBACHER, E. und R.C. HARDIE: High resolution infrared image recon-<br />
struction using multiple, lowresolution, aliased frames. Proceedings of National<br />
Aerospace and Electronics Conference (NAECON), 2:702–709, 1996.<br />
[Kon07] KONICA MINOLTA GMBH: Homepage. http://www.konicaminolta.<br />
de, Juli 2007.<br />
[KPS89] KAMGAR-PARSI, B. und III SANDER, W.A.: Quantization error in spatial<br />
sampling: comparison between square and hexagonal pixels. In: Proceedings of<br />
Conference on Computer Vision and Pattern Recognition (CVPR), Seiten 604–<br />
611. IEEE Computer Society, Juni 1989.
198 VERZEICHNIS DER FREMDLITERATUR<br />
[KVH + 04] KRÜGER, SOPHIE, FLORIAN VOGT, WERNER HOHENBERGER, DIETRICH<br />
PAULUS, HEINRICH NIEMANN und CHRISTOPH SCHICK: Evaluation of<br />
Computer-assisted Image Enhancement in Minimal Invasive Endoscopic Surge-<br />
ry. Methods Inf Med, 43(4):362–6, 2004.<br />
[KWL05] KOPPEL, DAN, YUAN-FANG WANG und HUA LEE: Robust and Real-Time<br />
Image Stabilization and Rectification. In: Seventh IEEE Workshops on Appli-<br />
cation of Computer Vision (WACV), Band 1, Seiten 350–355, Jan. 2005.<br />
[LB02] LERTRATTANAPANICH, S. und N.K. BOSE: High Resolution Image Formation<br />
From Low Resolution Frames Using Delaunay Triangulation. IEEE Transactions<br />
on Image Processing, 11(12):1427 – 1441, Dez. 2002.<br />
[LK81] LUCAS, BRUCE D. und TAKEO KANADE: An Iterative Image Registration Tech-<br />
nique with an Application to Stereo Vision. In: Proceedings of 7th International<br />
Joint Conference on Artificial Intelligence, Seiten 674–679, 1981.<br />
[Mit05] MITSCHKE, F.: Glasfasern: Physik und Technologie. Spektrum Akademischer<br />
Verlag, 1. Auflage, 2005.<br />
[MKT + 07] MORAL, A.I., M. E. KUNKEL, K. TINGELHOFF, M. RILK, I. WAGNER,<br />
K. W.G. EICHHORN, F. BOOTZ und F. M. WAHL: 3D Endoscopic Approach<br />
for Endonasal Sinus Surgery. In: 29th Annual International Conference of the<br />
IEEE Engineering in Medicine and Biology Society, Seiten 4683–6, Aug. 2007.<br />
[MNMW03] MÜNZENMAYER, CHRISTIAN, FREDERIC NAUJOKAT, STEFFEN MÜHLDOR-<br />
FER und THOMAS WITTENBERG: Enhanced Texture Analysis by Color Shading<br />
Correction. In: Proceedings des Workshops für Farbbildverarbeitung, Seiten<br />
35–42, 2003.<br />
[MPW06] MÜNZENMAYER, CHRISTIAN, DIETRICH PAULUS und THOMAS WITTEN-<br />
BERG: A Spectral Color Correction Framework for Medical Applications. IEEE<br />
Transactions for Biomedical Engineering, 53(2):254–265, Feb. 2006.<br />
[Nel89] NEL, A.L.: Hexagonal image processing. In: Proceedings of Conference on<br />
Communications and Signal Processing (COMSIG), Seiten 109–113, Juni 1989.<br />
[Nik07] NIKON GMBH: Homepage. http://www.nikon.de, Juli 2007.<br />
[NM00] NGUYEN, NHAT und PEYMAN MILANFAR: A wavelet-based interpolation-<br />
restoration method for superresolution (wavelet superresolution). Circuits, Sys-<br />
tems, and Signal Processing, 19(4):321–38, 2000.<br />
[NMG01] NGUYEN, NHAT, PEYMAN MILANFAR und GENE GOLUB: A Computationally<br />
Efficient Superresolution Image Reconstruction Algorithm. IEEE Transactions<br />
on Image Processing, 10(4):573–583, Apr. 2001.
VERZEICHNIS DER FREMDLITERATUR 199<br />
[Oly07] OLYMPUS GMBH: Homepage. http://www.olympus-europa.com/<br />
endoscopy, Juli 2007.<br />
[OPJ + 06] OHLINGER, R., S. PAEPKE, V. R. JACOBS, M. HAHN und S. GRUNWALD: Stel-<br />
lenwert der Duktoskopie in der Mammadiagnostik. Der Gynäkologe, 39(7):538–<br />
544, Juli 2006.<br />
[Ort03] ORTMAIER, TOBIAS JOHANNES: Motion Compensation in Minimally Invasive<br />
Robotic Surgery. Diplomarbeit, Universität München, 2003.<br />
[PCN98] PAULUS, DIETRICH, LASZLO CSINK und HEINRICH NIEMANN: Color Cluster<br />
Rotation. In: International Conference on Image Processing, Seiten 161–165,<br />
1998.<br />
[PLS85] PELLI, D. G., G. E. LEGGE und M. M. SCHLESKE: Psychophysics of reading<br />
(III): A fiberscope low-vision reading aid. Investigative Ophthalmology and Vi-<br />
sual Science, 26(5):751–763, Mai 1985.<br />
[Pol07] POLYDIAGNOST GMBH: Homepage. http://www.polydiagnost.com,<br />
Juli 2007.<br />
[PPK03] PARK, SUNG CHEOL, MIN KYU PARK und MOON GI KANG: Super-Resolution<br />
Image Reconstruction: A Technical Overview. IEEE Magazine on Signal Proces-<br />
sing, 20:21–36, Mai 2003.<br />
[PWSH06] POPP, ANTONIA, FRANK WOLFSGRUBER, INGO SCHOLZ und GERD HÄUS-<br />
LER: Endoskopische 3D-Rekonstruktion mit kohärenztheoretisch optimierter Be-<br />
leuchtung. In: Proceedings der Deutschen Gesellschaft für angewandte Optik<br />
e.V., 2006.<br />
[Ric07] RICHARD WOLF GMBH: Homepage. http://www.richard-wolf.com,<br />
Juli 2007.<br />
[Rod07] RODENSTOCK GMBH: Homepage. http://www.rodenstock.com, Juli<br />
2007.<br />
[RSBS02] RAMANATH, RAJEEV, WESLEY E. SNYDER, GRIFF L. BILBRO und WIL-<br />
LIAM A. SANDER: Demosaicking methods for Bayer color arrays. Journal of<br />
Electronic Imaging, 11:306–315, Juli 2002.<br />
[Ärz00] ÄRZTE ZEITUNG: Färben, sehen, schneiden - die chromoendoskopische<br />
Therapie. http://www.aerztezeitung.de/docs/2000/11/09/<br />
201a1002.asp, Nov. 2000.<br />
[SCG + 01] SANDERSON, S.L., A.Y. CHEER, J.S. GOODRICH, J.D. GRAZIANO und W.T.<br />
CALLAN: Crossbow filtration in suspension-feeding fishes. Nature, 412:439–40,<br />
2001.
200 VERZEICHNIS DER FREMDLITERATUR<br />
[Sch07a] SCHILINSKI, HELENA: Modellierung der faseroptischen Farbbildgebung mit<br />
Bayer Pattern zur Evaluierung von Verbesserungen an Algorithmen zur Bild-<br />
aufbereitung. Diplomarbeit, Universität Ulm und Fraunhofer IIS, 2007.<br />
[Sch07b] SCHÖLLY FIBEROPTIC GMBH: Homepage. http://www.schoelly.de,<br />
Juli 2007.<br />
[Sei03] SEITZ, K.: About Quality of Diagnostic Ultrasound - an Enduring Problem Be-<br />
tween Reality and Satire. Ultraschall in der Medizin, 24:375–376, 2003.<br />
[SLZZ04] SHEN, HUANFENG, PINGXIANG LI, LIANGPEI ZHANG und YINDI ZHAO: A<br />
MAP Algorithm to Super-Resolution Image Reconstruction. In: Proceedings of<br />
the Third International Conference on Image and Graphics (ICIG), Seiten 544–<br />
547, Washington, DC, USA, Dez. 2004. IEEE Computer Society.<br />
[SS96] SCHULTZ, RICHARD R. und ROBERT L. STEVENSON: Extraction of High-<br />
Resolution Frames from Video Sequences. IEEE Transaction on Image Proces-<br />
sing, 5(6):996–1011, Juni 1996.<br />
[SS07] SCHOLLMEYER, TH. und M. SCHOLLMEYER: Geschichte der Laparoskopie,<br />
2007. http://www.agendoskopie.de.<br />
[ST94] SHI, JIANBO und CARLO TOMASI: Good Features to Track. In: IEEE Con-<br />
ference on Computer, Vision and Pattern Recognition (CVPR), Seiten 593–600,<br />
Juni 1994.<br />
[Ste07] STEENKAMP, CHRISTINE: Konzept und Durchführung einer Evaluierung von<br />
Algorithmen zur Bildaufbereitung für faseroptische Systeme. Diplomarbeit, FH<br />
Remagen und Fraunhofer IIS, 2007.<br />
[SVM92] SMITH, W.E., N. VAKIL und S.A. MAISLIN: Correction of distortion in endos-<br />
cope images. IEEE Transactions on Medical Imaging, 11(3):117 – 122, 1992.<br />
[TBM02] THORMÄHLEN, T., H. BROSZIO und P.N. MEIER: Automatische 3D-<br />
Rekonstruktion aus endoskopischen Bildfolgen. In: Bildverarbeitung für die Me-<br />
dizin (BVM), Seiten 207–210. Springer-Verlag Heidelberg, 2002.<br />
[TH84] TSAI, ROBERT Y. und THOMAS S. HUANG: Multiframe Image Restoration and<br />
Registration. Advances in Computer Vision and Image Processing, Jai Press,<br />
1:317–339, 1984.<br />
[The07] THE TIFFEN COMPANY: Tiffen Camera Filters. http://www.tiffen.com,<br />
Juli 2007.<br />
[TK91] TOMASI, CARLO und TAKEO KANADE: Detection and Tracking of Point Fea-<br />
tures. Technischer Bericht CMU-CS-91-132, Carnegie Mellon University, Apr.<br />
1991.
VERZEICHNIS DER FREMDLITERATUR 201<br />
[TOS92] TEKALP, A. M., M. K. OZKAN und M. I. SEZAN: High-resolution Infra-<br />
red Image Reconstruction from Lower-resolution Image Sequences and Space-<br />
varying Image Restoration. IEEE International Conference on Acoustics,<br />
Speech, and Signal Processing (ICASSP), 3:169–172, 1992.<br />
[Tsa86] TSAI, ROGER Y.: An Efficient and Accurate Camera Calibration Technique for<br />
3D Machine Vision. In: Proceedings of IEEE Conference on Computer Vision<br />
and Pattern Recognition, Seiten 364–374, 1986.<br />
[Tsa87] TSAI, R.: A versatile camera calibration technique for high-accuracy 3D ma-<br />
chine vision metrology using off-the-shelf TV cameras and lenses. IEEE Journal<br />
of Robotics and Automation, 3(4):323–344, Aug. 1987.<br />
[TV98] TRUCCO, EMANUELE und ALESSANDRO VERRI: Introductory Techniques for<br />
3-D Computer Vision. Prentice Hall PTR, Upper Saddle River, NJ, USA, 1998.<br />
[Uni07] UNIVERSITÄTSKLINIKUM GIESSEN UND MARBURG GMBH: Chirurgi-<br />
sche Endoskopie. http://www.uniklinikum-giessen.de/ach/<br />
endoskopie.html, 2007.<br />
[VKNS03] VOGT, FLORIAN, SOPHIE KRÜGER, HEINRICH NIEMANN und CHRISTOPH<br />
SCHICK: A System for Real-Time Endosopic Image Enhancement. In: Medical<br />
Image Computing and Computer-Assisted Intervention (MICCAI), Lecture Notes<br />
in Computer Science, Seiten 356–363. Springer, 2003.<br />
[Vog06] VOGT, FLORIAN: Augmented Light Field Visualization and Real-Time Image<br />
Enhancement for Computer Assisted Endoscopic Surgery. Doktorarbeit, Techni-<br />
sche Fakultät der Universität Erlangen-Nürnberg, 2006.<br />
[VPS01] VOGT, FLORIAN, DIETRICH PAULUS und CHRISTOPH H. SCHICK: Fast Im-<br />
plmentation of Temporal Color Image Filtering. In: PAULUS, DIETRICH und<br />
JOACHIM DENZLER (Herausgeber): Proceedings des Workshops für Farbbild-<br />
verarbeitung, Seiten 89–98, 2001.<br />
[WBSS04] WANG, Z., A.C BOVIK, H.R. SKEIKH und E.P. SIMONCELLI: Image quality<br />
assessment: from error visibility to structural similarity. IEEE Transactions on<br />
Image Processings, 13(4):600–612, 2004.<br />
[Wei05] WEISENSEL, SANDRA: Auflösungssteigerung von endoskopischen Aufnahmen<br />
durch Nutzung der Bewegung in Bildsequenzen. Diplomarbeit, FH Schweinfurt<br />
und Fraunhofer IIS, Aug. 2005.<br />
[WJNZ03] WILLETT, R., I. H. JERMYN, R. NOWAK und J. ZERUBIA: Wavelet-Based<br />
Superresolution in Astronomy. In: Proceedings Astronomical Data Analysis Soft-<br />
ware and Systems, Okt. 2003.
202 VERZEICHNIS DER FREMDLITERATUR<br />
[You00] YOUNG, MATT: Optics and Lasers. Springer Verlag, 5. Auflage, 2000.<br />
[Zha00] ZHANG, ZHENGYOU: A Flexible New Technique for Camera Calibration. IEEE<br />
Transactions on Pattern Analysis and Machine Intelligence, 22(11):1330–1334,<br />
2000.
Literatur des Autors<br />
[*ERW06] ELTER, MATTHIAS, STEPHAN RUPP und CHRISTIAN WINTER: Physically<br />
203<br />
Motivated Reconstruction of Fiberscopic Images. In: Proceedings of the 18th<br />
International Conference on Pattern Recognition (ICPR), Band 3, Seiten 599–<br />
602, Washington, DC, USA, Aug. 2006. IEEE Computer Society.<br />
[*EWR + 06] ELTER, MATTHIAS, CHRISTIAN WINTER, STEPHAN RUPP, VOLKER DAUM,<br />
KLAUS SPINNLER und ROBERT COURONNE: Verfahren und Vorrich-<br />
tung zum Erzeugen einer strukturfreien fiberskopischen Aufnahme. Patent<br />
DE102006011707A1, 03 2006.<br />
[*MEW + 06] MÜNZENMAYER, CHRISTIAN, MATTHIAS ELTER, CHRISTIAN WINTER,<br />
STEPHAN RUPP und KLAUS SPINNLER: Rekonstruktion faseroptischer Bilder<br />
für die automatische Sichtprüfung. Fraunhofer Machine Vision Excellence, Juli<br />
2006.<br />
[*RWE06a] RUPP, STEPHAN, CHRISTIAN WINTER und MATTHIAS ELTER: Geometrische<br />
Kalibrierung von Faser-Endoskopen. In: 51. Jahrestagung der Deutschen Ge-<br />
sellschaft für Medizinische Informatik, Biometrie und Epidemologie (GMDS),<br />
Band 51, Seiten 315–316. Jütte-Messedruck Leipzig GmbH, Sep. 2006.<br />
[*RWE06b] RUPP, STEPHAN, CHRISTIAN WINTER und MATTHIAS ELTER: Untersuchun-<br />
gen zur Kalibrierung flexibler Endoskope durch Modellierung ihres faser-<br />
optischen Übertragungskanals. In: Biomedizinische Technik: Tagungsband Ge-<br />
meinsame Jahrestagung der Deutschen, Österreichischen und Schweizerischen<br />
Gesellschaften für Biomedizinische Technik, Seite 58. Walter de Gruyter GmbH<br />
& Co. KG, Berlin, Sep. 2006.<br />
[*RWE07] RUPP, STEPHAN, CHRISTIAN WINTER und MATTHIAS ELTER: Robust Esti-<br />
mation of Camera Parameters using Combinatorial Optimization. In: IASTED<br />
International Conference on Computer Graphics and Imaging (CGIM), Seiten<br />
185–190. ACTA Press, Anaheim/Calgary/Zurich, 2007.<br />
[*RWW06] RUPP, STEPHAN, CHRISTIAN WINTER und THOMAS WITTENBERG: Came-<br />
ra Calibration from Fiberscopic Views with Accuracy Evaluation. In: Bild-
204 LITERATUR DES AUTORS<br />
verarbeitung für die Medizin (BVM), Seiten 424–428, Heidelberg, März 2006.<br />
Springer, Berlin.<br />
[*SKW06] SPINNLER, KLAUS, ANDREAS KULESCHOW und CHRISTIAN WINTER: Au-<br />
tomatische Sichtprüfung von Innenflächen. Technischer Bericht, Fraunhofer<br />
Allianz Vision, Juni 2006.<br />
[*WERW06] WINTER, CHRISTIAN, MATTHIAS ELTER, STEPHAN RUPP und THOMAS<br />
WITTENBERG: Dynamic resolution enhancement for fiber optics. In: IASTED<br />
International Conference on Signal and Image Processing (SIP), 2006.<br />
[*WR07] WINTER, CHRISTIAN und STEPHAN RUPP: Impact of Undistortion and In-<br />
terpolation on Fiber Optic Tracking. In: IASTED International Conference<br />
on Signal Processing, Pattern Recognition, and Applications (SPPRA). ACTA<br />
Press, Anaheim/Calgary/Zurich, 2007.<br />
[*WRE + 06] WINTER, CHRISTIAN, STEPHAN RUPP, MATTHIAS ELTER, CHRISTIAN<br />
MÜNZENMAYER, HEINZ GERHÄUSER und THOMAS WITTENBERG: Automa-<br />
tic adaptive enhancement for images obtained with fiberscopic endoscopes. IE-<br />
EE Transactions on Biomedical Engineering, 53:2035–2046, Okt. 2006.<br />
[*WRM + 05] WINTER, CHRISTIAN, STEPHAN RUPP, CHRISTIAN MÜNZENMAYER,<br />
KLAUS SPINNLER, HEINZ GERHÄUSER und THOMAS WITTENBERG: Adap-<br />
tive Rasterreduktion durch spektrale Ausblendung in Aufnahmen von flexiblen<br />
Endoskopen. In: Bildverarbeitung für die Medizin (BVM), Seiten 45–49. Sprin-<br />
ger, Berlin, März 2005.<br />
[*WRW06] WINTER, CHRISTIAN, STEPHAN RUPP und THOMAS WITTENBERG: Super-<br />
position for Resolution Enhancement in Image Sequences Acquired by Fibers-<br />
copes. In: Biomedizinische Technik: Tagungsband Gemeinsame Jahrestagung<br />
der Deutschen, Österreichischen und Schweizerischen Gesellschaften für Bio-<br />
medizinische Technik. Walter de Gruyter GmbH & Co. KG, Berlin, 2006.<br />
[*WRWS05] WINTER, CHRISTIAN, STEPHAN RUPP, THOMAS WITTENBERG und KLAUS<br />
SPINNLER: Automatic adaptive removal of fiberscopic comb-structure by spec-<br />
tral masking. Computer Assisted Radiology and Surgery (CARS), 1(2):1283,<br />
Juni 2005.<br />
[*WSRW05] WINTER, CHRISTIAN, INGO SCHOLZ, STEPHAN RUPP und THOMAS WIT-<br />
TENBERG: Reconstruction of tubes from monocular fiberscopic images App-<br />
lication and first results. In: GREINER, GÜNTHER, JOACHIM HORNEGGER,<br />
HEINRICH NIEMANN und MARC STAMMINGER (Herausgeber): Vision, Mo-<br />
deling And Visualization 2005, Seiten 57–64, Berlin, Nov. 2005. Akademische<br />
Verlagsgesellschaft Aka GmbH.
LITERATUR DES AUTORS 205<br />
[*WSW04] WINTER, CHRISTIAN, KLAUS SPINNLER und THOMAS WITTENBERG: 3-D-<br />
Akquisition komplexer Hohlräume mit flexiblen Endoskopen. In: GERHÄU-<br />
SER, HEINZ (Herausgeber): 5 Jahre Lehrstuhl für Informationstechnik mit dem<br />
Schwerpunkt Kommunikationselektronik, Seiten 111–120, 2004.<br />
[*WSZ07] WINTER, CHRISTIAN, HELENA SCHILINSKI und THORSTEN ZERFASS: Mo-<br />
dellierung eines CCD-Bildsensors zur Evaluierung von Algorithmen zur Bild-<br />
aufbereitung in der Farbendoskopie. In: Workshop Farbbildverarbeitung, Sei-<br />
ten 43–53. Der Andere Verlag, Tönning, 2007.<br />
[*WWRW06] WINTER, CHRISTIAN, SANDRA WEISENSEL, STEPHAN RUPP und THOMAS<br />
WITTENBERG: Auflösungssteigerung von fiberskopischen Bildsequenzen im<br />
Ortsraum. In: Bildverarbeitung für die Medizin (BVM), Seiten 428–433, Hei-<br />
delberg, März 2006. Springer, Berlin.<br />
[*WWS + 06] WITTENBERG, THOMAS, CHRISTIAN WINTER, INGO SCHOLZ, STEPHAN<br />
RUPP, MARC STAMMINGER, KLAUS BUMM und CHRISTOPHER NIMSKY:<br />
3-D Reconstruction of the Sphenoid Sinus from Monocular Endoscopic Views:<br />
First results. In: Biomedizinische Technik: Tagungsband Gemeinsame Jahres-<br />
tagung der Deutschen, Österreichischen und Schweizerischen Gesellschaften<br />
für Biomedizinische Technik. Walter de Gruyter GmbH & Co. KG, Berlin, Sep.<br />
2006.<br />
[*WWWR06] WINTER, CHRISTIAN, SANDRA WEISENSEL, THOMAS WITTENBERG und<br />
STEPHAN RUPP: Verfahren und Vorrichtung zur Erzeugung eines hoch aufge-<br />
lösten Bildes für faseroptische Systeme. Patent DE102006004006B3, 01 2006.<br />
[*WZ07] WINTER, CHRISTIAN und THORSTEN ZERFASS: Korrektur der Farb-<br />
verschiebung in faseroptischen Abbildungssystemen. Patentanmeldung<br />
102007026595.8, Feb. 2007.
Lebenslauf<br />
Christian Winter, geboren 1978 in Regensburg, besuchte das Arnold-Gymnasium in<br />
Neustadt bei Coburg. Nach seinem Abitur (1997) und dem Grundwehrdienst begann er<br />
207<br />
1998 das Studium der Elektrotechnik an der Friedrich-Alexander-Universität Erlangen-<br />
Nürnberg. Ein achtmonatiger Aufenthalt in Princenton, USA, gewährte ihm Einblicke<br />
in die Forschung bei Siemens Cooperate Research. Er erhielt das Diplom in Elektro-<br />
technik im März 2004 und arbeitete anschließend als wissenschaftlicher Mitarbeiter<br />
am Lehrstuhl für Informationstechnik (LIKE). Ab Mai 2008 ist Christian Winter am<br />
Fraunhofer Institut für Integrierte Schaltungen (IIS) in Erlangen tätig.
Danksagung<br />
Die vorliegende Arbeit entstand während meiner Tätigkeit als wissenschaftlicher Mit-<br />
arbeiter am Lehrstuhl für Informationstechnik (LIKE) in Kooperation mit dem Fraun-<br />
hofer Institut für Integrierte Schaltungen (IIS) in Erlangen. Gefördert wurde sie im<br />
Rahmen des Sonderforschungsbereichs (SFB) 603 der Deutschen Forschungsgemein-<br />
209<br />
schaft (DFG) als Teilprojekt A7, das die faserendoskopische Rekonstruktion von schwer<br />
zugänglichen Hohlräumen zum Thema hatte. Für ihre Unterstützung möchte ich allen<br />
Kolleginnen und Kollegen des SFB 603, der Abteilung BMT und des Lehrstuhls für<br />
Informationstechnik danken, die in der zurückliegenden interessanten und lehrreichen<br />
Zeit zum Gelingen dieser Arbeit beigetragen haben.<br />
Besonderer Dank gilt<br />
• Prof. Dr.-Ing. Heinz Gerhäuser für die Betreuung der Arbeit als Doktorvater und<br />
für alle positive Kritik, die den Inhalt der Arbeit sehr bereichert haben,<br />
• Prof. Dr.-Ing. Dietrich Paulus für die inhaltlichen Beiträge im Rahmen seiner<br />
Funktion als Zweitgutachter,<br />
• Dr.-Ing. Thomas Wittenberg für sein Engagement als Mentor am Fraunhofer IIS,<br />
• Stephan Rupp, Thorsten Zerfaß und Matthias Elter für alle konstruktiven Dis-<br />
kussionen und Anregungen, sowie unser kollegiales Miteinander,<br />
• Sandra Weisensel, Andreas Siemon, Christine Steenkamp, Helena Schilinski und<br />
Franz Hirschbeck für ihre inhaltlichen Beiträge im Rahmen ihrer Mitarbeit,<br />
• Nives Berner und Michaela Beasly für ihre herzliche Art und organisatorische<br />
Unterstützung am Lehrstuhl für Informationstechnik,<br />
• meiner Familie sowie Annemarie Dieter, Johannes Simon und Sonja Bröning<br />
für alle hilfreichen Korrekturen an der Arbeit und die emotionale Unterstützung<br />
während der heißen Phase,<br />
• meinem Herrn und Gott für die Begabung und die Gesundheit für meine Arbeit.