30.08.2013 Aufrufe

Dokument 1.pdf - Opus

Dokument 1.pdf - Opus

Dokument 1.pdf - Opus

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

Automatische Bildrestaurierung<br />

für faseroptische Systeme<br />

am Beispiel von Fiberskopen<br />

Der Technischen Fakultät der<br />

Universität Erlangen-Nürnberg<br />

zur Erlangung des Grades<br />

DOKTOR-INGENIEUR<br />

vorgelegt von<br />

Christian Winter<br />

Erlangen — 2008


ii<br />

Als Dissertation genehmigt von<br />

der Technischen Fakultät der<br />

Universität Erlangen-Nürnberg<br />

Tag der Einreichung: 2. April 2008<br />

Tag der Promotion: 10. Juli 2008<br />

Dekan: Prof. Dr.-Ing. Johannes Huber<br />

Berichterstatter: Prof. Dr.-Ing. Heinz Gerhäuser<br />

Prof. Dr.-Ing. Dietrich Paulus


Kurzfassung<br />

Ein flexibles Endoskop mit einem Bildleiter aus Glasfasern wird als Fiberskop (Fa-<br />

serendoskop) bezeichnet. Der Einsatz solcher faseroptischen Abbildungssysteme er-<br />

möglicht eine im wörtlichen Sinn flexible Begutachtung schwer zugänglicher Hohlräu-<br />

me über kleinste Zugangswege. Faserendoskope spielen insbesondere in der medizi-<br />

nischen Diagnostik, Behandlung und Forschung, sowie in der industriellen Qualitäts-<br />

prüfung und Instandhaltung eine tragende Rolle. Gegenüber starren, linsenoptischen<br />

Endoskopen und Videoendoskopen zeigen sie eine deutlich geringere Abbildungsqua-<br />

lität. Diese resultiert aus der Abtastung der Szene durch das bildleitende Faserbündel<br />

mit einer relativ geringen Anzahl an Einzelfasern (Größenordnung: 3.000 bis 30.000)<br />

und äußert sich besonders in Struktur- und Farbartefakten. Um der störenden Waben-<br />

struktur entgegenzuwirken, wird bislang in der Praxis eine optische Defokussierung<br />

durchgeführt oder in der Literatur der Einsatz einfacher digitaler Filter vorgeschlagen.<br />

Für eine Weiterverwendung von fiberskopischen Bilddaten als Grundlage einer räum-<br />

lichen Rekonstruktion, Bildanalyse oder zur Bewegungsstabilisierung fehlen bislang<br />

wissenschaftliche Untersuchungen bzw. praktikable Umsetzungen.<br />

Diese Arbeit greift Aspekte aus der Signaltheorie auf, um die Hintergründe der<br />

Abtastvorgänge im Fall der Faserübertragung theoretisch zu untermauern. Neben der<br />

Erweiterung von Filteransätzen wird zusätzlich auch die Interpolation im Ortraum mit<br />

einer automatischen Parametrisierung vorgeschlagen. Obwohl ein Vergleich dieser bei-<br />

den Signalräume der Filterung im Fall von Grauwertbildern eine höhere Restaurie-<br />

rungsgüte bescheinigt, erlangt die Interpolation dennoch ihre Bedeutung, wenn es um<br />

die Reduzierung von Farbartefakten geht. Durch direkten Zugriff auf den Bildsensor<br />

und Auswertung der Sensordaten werden diese Farbartefakten mit einer Erweiterung<br />

der Interpolation umgangen. Außerdem können durch die registrierte Bewegung meh-<br />

rerer Einzelaufnahmen Artefakte der Interpolation reduziert werden. Mittels Erhöhung<br />

der Anzahl von Abtastwerten kann sogar die Auflösung der resultierenden Bilder ge-<br />

steigert werden. Die Grenze dieser Auflösungssteigerung wird in der vorliegenden Ar-<br />

beit theoretisch hergeleitet. Zudem wird ein Verfahren vorgeschlagen, wie diese Gren-<br />

ze für ein faseroptisches Bildbündel messtechnisch abgeschätzt werden kann.<br />

iii


iv<br />

Bei der Realisierung der Algorithmen wird besonderer Wert auf die breite Nutzbar-<br />

keit gelegt, insbesondere für verschiedene Kombinationen von Faserendoskopen und<br />

Kameras, die sich jeweils in ihren technischen Spezifikationen wie Auflösung, Grö-<br />

ße und Verwendungszweck unterscheiden können. Ein physikalisch motiviertes Ab-<br />

bildungsmodell der Glasfaserübertragung erlaubt die Bereitstellung von Bilddaten als<br />

Grundwahrheit für den unmittelbaren Vergleich zwischen originalen und aufbereiteten<br />

Bilddaten. Mit diesem Modell ist es auch möglich, die Sensordaten einer Einchip-<br />

Kamera zu simulieren, auf denen der vorgestellte Ansatz zur farbartefaktfreien Inter-<br />

polation basiert. Auf der Basis von definierten Vergleichskriterien und einer geeigneten<br />

Zusammenstellung von Referenzbildern werden die vorgestellten Verfahren evaluiert<br />

und wichtige Aussagen experimentell untermauert.


Abstract<br />

A flexible endoscope with a fiber bundle for optical transmission is called fibersco-<br />

pe. The application of such fiber optic devices allows, in the literal sense, a flexible<br />

investigation of hardly accessible hollow cavities via small entries. Fiber endoscopes<br />

play an important role particularly in medical diagnosis, therapy and research, as well<br />

as in industrial quality inspection and machine maintenance. Compared to rigid, lens<br />

based endoscopes and videoscopes they have a substantially lower imaging quality.<br />

This follows from sampling of the scene by the fiber based image transmission with a<br />

relatively small amount of single fibers (around 3.000 to 30.000) and results in struc-<br />

tural and color artefacts. Until now to avoid this the defoccusion of optics or simple<br />

digital filterung are stated as standard methods both in literature and practice. For fur-<br />

ther use of fiberscopic images, for instance for 3d-reconstruction, image analysis or<br />

motion compensation, scientific evaluation and feasible implementations are currently<br />

missing.<br />

This work makes use of signal theory to substantiate the background of sampling<br />

for fiber optic transmission. Besides the extension of filter approaches it also proposes<br />

the auto-parametrization for an interpolation approach. Although the comparison of<br />

these two signal spaces certifies better results to the filter approach as long as gray-<br />

scale images are used, the interpolation approach shows its superiority with respect to<br />

reduction of color artefacts. By directly accessing and analyzing the sensor signals the-<br />

se color artefacts are avoided. Furthermore it is possible to reduce structural artefacts<br />

of interpolation by merging sampling data of a tracked motion sequence and even to<br />

increase the resolution by a higher number of samples. In this work, the limit for the<br />

latter super resolution approach is derived from theory and a measurement procedure<br />

to estimate this limit for a given fiber bundle is proposed.<br />

Regarding the development of algorithms, a special focus is placed on a broad<br />

applicability, especially for different combinations of fiberscopes and cameras which<br />

may differ in their technical specifications like resolution, size and intended use. A<br />

physically motivated transmission model provides ground truth image data for a direct<br />

comparison between original and processed versions. The model also simulates the<br />

v


vi<br />

sensor data of a single chip camera for use with the proposed approach of interpolation<br />

without color artefacts. Based on the definition of certain criteria and an appropriate set<br />

of reference images, the proposed approaches are evaluated and important conclusions<br />

are experimentally emphasized.


Inhaltsverzeichnis<br />

1 Einleitung 1<br />

1.1 Bedeutung der Endoskopie . . . . . . . . . . . . . . . . . . . . . . . 2<br />

1.2 Problemstellung und Zielsetzung . . . . . . . . . . . . . . . . . . . . 4<br />

2 Stand der Technik 11<br />

2.1 Historischer Weg der flexiblen Endoskopie . . . . . . . . . . . . . . . 11<br />

2.2 Anwendungen mit Faseroptik . . . . . . . . . . . . . . . . . . . . . . 13<br />

2.3 Eigenschaften von faseroptischen Systemen . . . . . . . . . . . . . . 18<br />

2.4 Methoden der Bildaufbereitung für die Endoskopie . . . . . . . . . . 28<br />

2.5 Bildrestaurierung faseroptischer Einzelaufnahmen . . . . . . . . . . . 31<br />

2.6 Auflösungssteigerung in bewegten Bildsequenzen . . . . . . . . . . . 37<br />

3 Eigener Beitrag 47<br />

3.1 Modellierung und Kalibrierung von Faseroptiken . . . . . . . . . . . 47<br />

3.2 Restaurierung einzelner Intensitätsbilder . . . . . . . . . . . . . . . . 60<br />

3.3 Artefaktreduzierende Farbinterpolation . . . . . . . . . . . . . . . . . 82<br />

3.4 Nachkalibrierung zur Systemstabilisierung . . . . . . . . . . . . . . . 85<br />

3.5 Superposition in fiberoptischen Bildsequenzen . . . . . . . . . . . . . 88<br />

3.6 Definition von Gütekriterien zur Evaluierung . . . . . . . . . . . . . 109<br />

4 Untersuchungen und Ergebnisse 123<br />

4.1 Übersicht über die verwendeten Geräte . . . . . . . . . . . . . . . . . 124<br />

vii


viii<br />

4.2 Qualität von 3D-Rekonstruktionen . . . . . . . . . . . . . . . . . . . 128<br />

4.3 Modi und Effektivität der Filterung . . . . . . . . . . . . . . . . . . . 137<br />

4.4 Modellbasierter Vergleich von Filterung vs. Interpolation . . . . . . . 145<br />

4.5 Evaluierung der Farbbildrestaurierung . . . . . . . . . . . . . . . . . 153<br />

4.6 Auflösungssteigerung durch Superposition . . . . . . . . . . . . . . . 156<br />

4.7 Echtzeit-Fähigkeit der Ansätze . . . . . . . . . . . . . . . . . . . . . 170<br />

5 Zusammenfassung und Ausblick 173<br />

5.1 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . 173<br />

5.2 Ausblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175<br />

Abbildungs- und Tabellenverzeichnis 181<br />

Glossar, Formelzeichen und Symbole 187<br />

Literaturverzeichnis 193<br />

Lebenslauf 207


1<br />

1<br />

Einleitung<br />

In vielen Bereichen der medizinischen Diagnostik und Therapie, aber auch der in-<br />

dustriellen Inspektion und Instandhaltung spielt die visuelle Begutachtung von Ober-<br />

flächen eine tragende Rolle. Oft gelten hohe Anforderungen an Erkennungssicherheit<br />

und Prüfgenauigkeit. Viele kritische Stellen sind jedoch nicht immer auf einfache Wei-<br />

se zugänglich. Dabei kann es sich beispielsweise um medizinische Untersuchungen im<br />

Inneren des menschlichen Körpers oder um komplexe Prüfaufgaben an industriellen<br />

Hohlräumen handeln.<br />

Um eine Aussage über den Zustand von schwer zugänglichen Bereichen treffen zu<br />

können, sind unterschiedliche bildgebende Verfahren, wie z. B. Röntgenstrahlung, Ul-<br />

traschall, Magnetresonanz oder invasives Öffnen denkbar. Den genannten Modalitäten<br />

(a) (b)<br />

Abbildung 1.1: (a): Flexibles Endoskop zum medizinischen Einsatz als Naso-Pharyngoskop<br />

zur Betrachtung des Nasen- und Halsbereichs oder zur technischen Inspektion von Hohlräu-<br />

men (Abb. freundlich genehmigt von Schölly Fiberoptic GmbH). (b): Gastroskop zur optischen<br />

Diagnose im menschlichen Verdauungstrakt (Abb. freundlich genehmigt von Olympus Deutsch-<br />

land GmbH).


2 1.1. BEDEUTUNG DER ENDOSKOPIE<br />

(a) (b)<br />

Abbildung 1.2: Flexibles Endoskop (a) zur Inspektion technischer Hohlräume. Die Abbildung<br />

der feinen verwundenen Kühlkanäle (c) im Inneren einer industriellen Turbinenschaufel auf<br />

dem Prüfstand (b) erfordert einen Arbeitsdurchmesser des Geräts von höchstens 1mm. Abb.<br />

(a) mit freundlicher Genehmigung von Kurt Fuchs im Auftrag des Fraunhofer IIS.<br />

und Verfahren ist gemeinsam, dass sie entweder irreversible Veränderungen oder Be-<br />

schädigungen an den untersuchten Körpern hinterlassen oder die verwendete Strahlung<br />

eine Gefahr für das Gewebe darstellt, das ihr ausgesetzt wird. Durch metallische Ma-<br />

terialien sind oft verfälschende Reflexionen und Abschirmungen unvermeidlich. Um<br />

die beschriebenen Nachteile zu umgehen, werden oftmals flexible Endoskope (vgl.<br />

Abb. 1.1) eingesetzt, die eine visuelle Inspektion von Hohlräumen und teilweise sogar<br />

eine direkte Intervention unter Sichtbedingungen erlauben.<br />

1.1 Bedeutung der Endoskopie<br />

Das Universitätsklinikum Giessen und Marburg kommentiert die Bedeutung der En-<br />

doskopie für den Bereich der Gastroenterologie 1 mit der kurzen, aber prägnanten Be-<br />

merkung:<br />

Die Endoskopie ist die beste Methode, um Erkrankungen des Magen und<br />

des Darmes zu diagnostizieren. [Uni07]<br />

Auch die Ärzte Zeitung hebt die Anwendung der Endoskopie für den menschlichen<br />

Verdauungstrakt mit den Worten hervor:<br />

1 Gastroenterologie: Die Gastroenterologie befasst sich mit der Diagnostik, nichtoperativen Therapi-<br />

en (z. B. medikamentöse Therapien) und Prävention von Erkrankungen des Magen-Darm-Trakts


1.1. BEDEUTUNG DER ENDOSKOPIE 3<br />

(a) (b) (c)<br />

Abbildung 1.3: Schematische Darstellung der Endoskopführung für Untersuchungen im Pa-<br />

tienten: (a) Gastroskopie zur optischen Diagnose im oberen Verdauungstrakt, (b) Koloskopie<br />

zur Spiegelung des Dickdarms und (c) Bronchoskopie zur Untersuchung der Atemwege und der<br />

Lunge. Abb. von National Cancer Institute (Terese Winslow).<br />

Der Stellenwert der Endoskopie ist in der Gastroenterologie unverändert<br />

hoch. Sie ist nicht nur für die Diagnostik wichtig, sondern ermöglicht zu-<br />

nehmend ein zeitgleiches therapeutisches Vorgehen. Damit gewinnt sie<br />

auch für die Behandlung von Patienten mit Erkrankungen des Gastroin-<br />

testinaltraktes mehr und mehr an Bedeutung. [Ärz00]<br />

Im Rückblick der Industriemesse Hannover vom 19. bis 24. April 2004 ist von der Fir-<br />

ma Karl Storz Endoskope, einem führenden Endoskopiehersteller, über Entwicklungen<br />

für den industriellen Einsatz von Endoskopen zu lesen:<br />

Da der Trend zu immer kleineren und komplizierteren industriellen Bau-<br />

teilen anhält, wächst auch der Bedarf an solchen miniaturisierten, aber<br />

leistungsfähigen Prüfsystemen. Damit lassen sich auch kleinste Hohlräu-<br />

me kontrollieren, zum Beispiel in Turbinen [...]. Ein weiterer wesentlicher<br />

Vorteil liegt in der Vermessung der Schadensgröße. Für die industrielle<br />

Endoskopie ist dies ein erheblicher Fortschritt, denn wichtige Befunde<br />

sind so jederzeit verfügbar - bei Qualitätskontrollen oder Schadensana-<br />

lysen beispielsweise in der Luftfahrt ist dies natürlich von erheblicher Be-<br />

deutung. [Kar04]<br />

Weitere unzählige Aussagen in der Literatur und dem Internet schließen sich den<br />

exemplarisch aufgeführten Aussagen an und machen auf die große Bedeutung der En-<br />

doskopie in vielfältigen Bereichen aufmerksam. Die Erforschung und Weiterentwick-


4 1.2. PROBLEMSTELLUNG UND ZIELSETZUNG<br />

lung von endoskopischen Systemen wird damit in eindrücklicher Weise gerechtfertigt<br />

und gefordert.<br />

1.2 Problemstellung und Zielsetzung<br />

Vor der kritischen Betrachtung von Technik und Anwendung der Endoskopie werden<br />

in einem kurzen Abriss zunächst alternative Verfahren für die Hohlraumprüfung dis-<br />

kutiert. Deren schwierige oder unzureichende Handhabung motiviert den Einsatz fle-<br />

xibler Endoskope und begründet schließlich die Notwendigkeit der Thematik, welcher<br />

sich die vorliegende Arbeit widmet.<br />

1.2.1 Alternative Verfahren für die Hohlraumprüfung<br />

Die Vorzüge der Endoskopie als rein optisches Abbildungssystem zur Inspektion und<br />

Untersuchung lassen sich am besten an den differenzierten Nachteilen sonstiger bild-<br />

gebender Verfahren für diesen Anwendungsbereich aufzeigen, wobei die ersten drei<br />

Verfahren gar keine Möglichkeit zur Farbbildgebung bieten.<br />

• Röntgenstrahlung (CT) ist nur in eingeschränktem Maße und nur dort einsetz-<br />

bar, wo ausreichende Materialverträglichkeit gegeben ist, sowie eine Gewebe-<br />

schädigung ausgeschlossen oder toleriert werden kann. Des Weiteren spielt die<br />

ungewollte Abschirmung durch eine etwaige metallische Umgebung eine ent-<br />

scheidende Rolle bei der Entscheidung für dieses Medium. Das Handelsblatt<br />

verwies unlängst auf eine Studie, die den Umgang mit dieser Technik als zu<br />

sorglos kritisiert [Han07a].<br />

• Ultraschall (Sonographie) schneidet in der Qualität seiner Bildgebung auf-<br />

grund der geringeren Raumauflösung gegenüber dem CT und der niedrigeren<br />

Weichteil-Kontrastauflösung gegenüber dem MRT schlechter ab. Selbst erfahre-<br />

nen Experten gelingen selten vergleichbare Aufnahmen und Interpretationen mit<br />

diesem Medium [Sei03].<br />

• Magnetresonanz (MRT) ist äußerst sensibel auf Abschirmung durch ferroma-<br />

gnetische Metalle und eine Untersuchung oder Inspektion ist im Vergleich zu an-<br />

deren bildgebenden Verfahren relativ zeitaufwändig. Die Technik für diese Art<br />

der Bildgebung ist bautechnisch noch größer als beim CT, weshalb sich MRT<br />

für einen handlichen mobilen Einsatz nicht eignet.


1.2. PROBLEMSTELLUNG UND ZIELSETZUNG 5<br />

• Das invasive Öffnen eines Körpers oder Objekts ist stets mit einer Verletzung<br />

von Gewebe oder Material verbunden und stellt damit ein hohes Risiko für die<br />

anschließende Regenerierung dar. Bei technischen Anwendungen ist dieses Vor-<br />

gehen meist mit der Beschädigung oder Zerstörung von Bauteilen verbunden<br />

und daher ebenfalls unerwünscht.<br />

• Die Optische Inspektion von außen eignet sich primär nur für lineare Zugänge.<br />

Das bedeutet, dass eine Apparatur mit Abstand zum Objekt nur geradlinig nach<br />

vorne (0 ◦ -Optik) Einblick geben kann. Seitenwände oder gar verdeckte Bereiche<br />

in der Tiefe und abzweigende Hohlräume sind somit nur unter großem techni-<br />

schen Aufwand bzw. gar nicht inspizierbar.<br />

Den beschriebenen Modalitäten 2 ist gemein, dass sie entweder irreversible Verän-<br />

derungen oder Beschädigungen an den zu untersuchenden Körpern hervorrufen oder<br />

die verwendete Strahlung eine Gefahr für das Gewebe darstellt, das ihr ausgesetzt wird.<br />

Weiterhin stellen metallische Materialien nicht selten eine verfälschende Abschirmung<br />

dar. Ohne aktive Strahlung ist mit den meisten der genannten Verfahren kein vollstän-<br />

diger Einblick möglich.<br />

Konkurrenz durch Videoskopie Während der letzten zehn Jahre setzt sich auf dem<br />

Markt mehr und mehr ein weiterer flexibler Endoskoptyp durch: Das Videoskop. Die<br />

Lage des auf der Spitze des Videoskops angebrachten Sensorchips ist namensgebend<br />

für die Tip-Chip-Technologie. Die Bilddaten werden hier in elektronischer Form, und<br />

daher kostengünstig und robust zur auswertenden Einheit übermittelt. Vorteile sind<br />

die Möglichkeit einer höheren Auflösung und die Tatsache, dass die Bilder ohne Wa-<br />

benstruktur abgebildet werden können. Allerdings treten durch die Miniaturisierung<br />

der Optik und des Sensors mit Elementen in der Größenordnung 2µm teilweise star-<br />

ke Farbartefakte beim Betrachten texturierter Oberflächen auf. Weitere Nachteile der<br />

Videoendoskoptechnik sind die technischen Limitierungen für die Sensorabmessun-<br />

gen. Der minimale Arbeitsdurchmesser von derzeit knapp vier Millimeter macht sie<br />

für bestimmte Anwendungsgebiete ungeeignet, beispielsweise der Bronchoskopie an<br />

Kindern, wo entsprechend kleinere Durchmesser notwendig sind. Aufgrund von hohen<br />

Anschaffungskosten können sich nur wenige Ärzte in ihrer Praxis den Umstieg auf die<br />

digitale Videoendoskopie leisten, was eine flächendeckende Verbreitung z. B. unter<br />

niedergelassenen Ärzten verhindert. Bei bestimmten mobilen Anwendungen wird be-<br />

wusst weiterhin auf die bewährte und robuste Fasertechnolgie gesetzt. Faserbasierte<br />

2 Modalitäten: In der bildgebenden Medizin bezeichnen Modalitäten verschiedene Signalarten<br />

(Licht, Ultraschall, Röntgenstrahlung, usw.), mit denen man Bilder vom menschlichen Körper gewinnt.


6 1.2. PROBLEMSTELLUNG UND ZIELSETZUNG<br />

Geräte kommen zunächst ohne zusätzliche Elektronik aus und erweisen sich deshalb<br />

im Feldeinsatz als mobiler und robuster, als ein Videoskop, das in heutigen marktübli-<br />

chen Realisierungen an einen sog. Endoskopturm mit Steuerelektronik und -mechanik<br />

gebunden ist. Vergleichsweise hochwertige Kamerasensoren, die am Okular von En-<br />

doskopen montiert werden, kosten deutlich weniger bzw. lässt sich mit üblichen Indus-<br />

triekameras eine höhere Aufnahmequalität bzgl. Lichtempfindlichkeit und Signal-zu-<br />

Rausch-Verhältnis erzielen.<br />

Für viele existierende faserendoskopische Geräte (z. B. in Praxen niedergelassener<br />

Ärzte oder in Werk- und Prüfstätten des industriellen Umfelds) bedeutet daher eine<br />

automatisierte Bildrestaurierung zur verbesserten Darstellung von Einzelbildern, aber<br />

auch die Aufbereitung von archivierten Sequenzen einen enormen Mehrwert und eine<br />

Steigerung des wirtschaftlichen Nutzens durch bessere Anwendbarkeit in schwierigen<br />

Aufgabenbereichen.<br />

1.2.2 Flexible Faserendoskopie<br />

Auch wenn die faseroptische Endoskopie die meisten der im letzten Abschnitt geschil-<br />

derten Schwierigkeiten umgeht und sich deshalb für einen breiten Einsatz in Medizin<br />

und Industrie anbietet, stellt sie die Bildgebung doch vor große Herausforderungen.<br />

Um der detaillierten Recherche und Beschreibung dieser Probleme in Abschnitt 2.3.3<br />

nicht vorzugreifen, sei an dieser Stelle lediglich auf die eingeschränkte Bildqualität<br />

und die niedrige Auflösung hingewiesen, die sich auf viele digitale Anwendungen,<br />

aber auch auf die Darstellung auf Kontrollmonitoren negativ auswirken. Beim Blick<br />

durch ein Faserendoskop mit dem Auge macht sich dies durch eine sehr kleine Bild-<br />

größe bemerkbar, bei der die Faserstruktur nicht mehr erkennbar ist. Der Hersteller<br />

dimensioniert das Gerät nach dem Motto: Besser ein kleines gutes Bild, als ein großes<br />

undeutliches. Abbildung 1.4 zeigt diese Schwächen an zwei vergrößerten Ausschnitten<br />

eines Kalibriermusters, das durch ein Endoskop mit Glasfaserbündel betrachtet wird.<br />

In der Vergrößerung (b) und (c) ist deutlich die Beeinträchtigung durch eine grobe<br />

Rasterung zu erkennen, die beispielsweise eine direkte Weiterverarbeitung zur Merk-<br />

malserkennung oder räumlichen Rekonstruktion behindert bzw. unmöglich macht.<br />

Wo der im buchstäblichen Sinne flexiblere Einsatz nicht benötigt wird und der Vor-<br />

teil einer starren Hand-Auge-Transformation von größerem Nutzen ist, liegt die Präfe-<br />

renz eindeutig bei rigiden (starren) Endoskopen. Sie zeigen aufgrund der durchgehen-<br />

den linsenoptischen Bildübertragung eine wabenfreie Abbildung von deutlich höherer


1.2. PROBLEMSTELLUNG UND ZIELSETZUNG 7<br />

(a) (b) (c)<br />

Abbildung 1.4: Typische Abbildung eines Kalibriertargets durch ein flexibles Endoskop (a).<br />

Stark vergrößerte Ausschnitte zeigen die Wabenstruktur bei Verwendung eines Glasfaser-<br />

Endoskops (b,c).<br />

Güte. In der vorliegenden Arbeit wird dieser Bautyp teilweise als Vergleich für die<br />

erzielte Bildqualität mit flexiblen Geräten herangezogen.<br />

1.2.3 Motivation dieser Arbeit<br />

Konnten mit Abschnitt 1.2.1 die positiven Eigenschaften der Endoskopie als bildge-<br />

bendes Verfahren für viele Bereiche herausgestellt werden, so zeigt doch der Vergleich<br />

mit der qualitativ höherwertigen rigiden Endoskoptechnik bzw. den Videoendoskop-<br />

systemen, dass vor allem die schlechte Qualität (Beschreibung der Beeinträchtigun-<br />

gen s. Abschn. 2.3.3 auf S. 23) der übertragenen Bilddaten einen verbreiteten Einsatz<br />

von faseroptischen Geräten behindert. Die Beeinträchtigungen in der Darstellung von<br />

Details und hinsichtlich weiterführender (Farb-) Bildverarbeitung mit herkömmlichen<br />

Industriekameras werden dabei maßgeblich durch die architekturbedingte Faserstruk-<br />

tur hervorgerufen. Durch die gestörte Licht- und Bildübertragung entstehen Struktur-<br />

und Farbartefakte, die eine texturgetreue Abbildung und Darstellung von Szenen be-<br />

hindern.<br />

In Kapitel 2 werden zahlreiche Verfahren aus der Literatur vorgestellt und disku-<br />

tiert, die eine Aufbereitung von endoskopischen Bilddaten erlauben. Dabei handelt es<br />

sich zum einen um mechanische und optische Konstruktionen, die den visuellen Ein-<br />

druck der Bilder z. B. durch Weichzeichnung verbessern. Zum anderen werden in der<br />

Praxis Algorithmen der Bildbearbeitung eingesetzt, die entweder fest in ein System<br />

integriert werden, oder als Software der Bildaufbereitung für spezielle Anwendungen


8 1.2. PROBLEMSTELLUNG UND ZIELSETZUNG<br />

dienen. Es ist auffällig, dass die Umsetzung und konkrete Anwendung der Ansätze sel-<br />

ten eine automatische Parametrisierung unterstützen und sich deshalb nur für spezielle<br />

Kombinationen aus Kamera und Endoskop eignen. Außerdem finden sich in der ein-<br />

schlägigen Literatur keine zielführenden Bestrebungen, einen objektiven Vergleichs-<br />

maßstab für entwickelte und eingesetzte Methoden der Bildverbesserung zu schaffen.<br />

Die vorliegende Arbeit diskutiert die Herausforderungen, die sich beim Einsatz<br />

flexibler Endoskope bezüglich deren Bildqualität stellen, gibt einen Überblick über<br />

derzeitige Lösungsansätze und widmet sich auf dieser Grundlage zwei Aspekten:<br />

Methoden zur Bildaufbereitung Es werden Verfahren zur Restaurierung und Stei-<br />

gerung der Qualität von faseroptischen Abbildungen entwickelt und analysiert. Sowohl<br />

der Frequenz-, als auch der Ortsraum spielt dabei gleichermaßen eine bedeutende Rol-<br />

le, da beide Signalräume ihre Vorzüge in der Bearbeitung der Bilddaten zeigen. Für<br />

die Filterung werden verschiedene spektrale Maskentypen und die automatische Fest-<br />

legung optimaler Grenzfrequenzen untersucht. Für die Interpolation werden zwei neu-<br />

artige Ansätze vorgestellt. Dabei handelt es sich erstens um eine Möglichkeit, durch die<br />

registrierte Bewegung mehrerer Einzelaufnahmen Artefakte der Interpolation zu redu-<br />

zieren und durch Mehrfachabtastung sogar die Auflösung der resultierenden Bilder zu<br />

steigern. Für diese Auflösungssteigerung wird die theoretische Grenze hergeleitet und<br />

ein Verfahren vorgeschlagen, wie diese Grenze für ein faseroptisches Bildbündel mess-<br />

technisch abgeschätzt werden kann. Der zweite Ansatz behebt Farbartefakte durch un-<br />

gleich beleuchtete Bildsensoren, indem die Beleuchtungsschwerpunkte der Fasern und<br />

die Verteilung des Farbfiltermosaiks auf dem Farbsensor berücksichtigt werden. Durch<br />

geeignete Kombination von Methoden beider Signalräume ergeben sich weitere inter-<br />

essante Anwendungen, z. B. zur Kompensation singulärer Faserdefekte. Besonderer<br />

Wert wird dabei auf eine breite Nutzbarkeit der Algorithmen gelegt, also insbesondere<br />

für verschiedene Kombinationen von Endoskopen und Kameramodulen, die sich je-<br />

weils in ihren technischen Spezifikationen, wie Auflösung, Größe oder Verwendungs-<br />

zweck unterscheiden können.<br />

Modellbasierte Evaluierung Weiterhin wird mit dieser Arbeit erstmals ein Modell<br />

zur Nachbildung des Abbildungsprozesses einer fasergestützten Optik vorgestellt. Die<br />

synthetische Generierung der Faserstruktur berücksichtigt dabei die physikalischen<br />

Grundlagen der optischen Übertragung von sichtbarem Licht durch Faserbündel. Da-<br />

mit ist es möglich, vielen Methoden zur quantitativen Evaluierung der Aufbereitungs-<br />

qualität (u.a. Differenz- und Ähnlichkeitsmaße) die notwendige Grundwahrheit bereit-<br />

zustellen. Da der genannte Ansatz zur Kompensation von Farbartefakten die Rohdaten


1.2. PROBLEMSTELLUNG UND ZIELSETZUNG 9<br />

des Kamerasensors auswertet, wird auch diese Darstellungsform als Datenformat un-<br />

terstützt. So ist es möglich, auf einer gemeinsamen Datenbasis die unterschiedlichen<br />

Vorgehensweisen zu vergleichen und einen Standard zur Evaluierung von Algorithmen<br />

Dritter zu etablieren. Weiterhin wird die konkrete Anwendung der 3D-Rekonstruktion<br />

von parametrisierbaren Hohlräumen genutzt, um die Güte der Restaurierungsansätze<br />

zu beurteilen.<br />

Für viele existierende Geräte (z. B. in Praxen niedergelassener Ärzte) und aktuelle<br />

Anwendungsgebiete (vgl. Abschn. 2.2) kann eine automatisierte Bildrestaurierung zur<br />

verbesserten Darstellung von Einzelbildern, aber auch die Aufbereitung von archivier-<br />

ten Sequenzen einen enormen Mehrwert und eine Steigerung des wirtschaftlichen Nut-<br />

zens durch bessere Anwendbarkeit in schwierigen Aufgabenbereichen bedeuten. Mit<br />

den definierten Vergleichsmaßstäben soll eine Zusammenstellung von Referenzbildern<br />

mit bekannter Grundwahrheit als Evaluierungsstandard für bestehende und zukünftige<br />

Entwicklungen von Algorithmen für die faseroptische Bildverarbeitung etabliert wer-<br />

den.


2 Stand<br />

11<br />

der Technik<br />

2.1 Historischer Weg der flexiblen Endoskopie<br />

Die Ursprünge der modernen Endoskopie gehen auf medizinische Fragestellungen und<br />

Untersuchungen zurück [SS07]. Der Wunsch der Ärzte, menschliche Körperhöhlen<br />

oder -gänge zu untersuchen, um Erkrankungen zu erkennen und zu behandeln, ist sehr<br />

alt. Leicht zugängliche Körperhöhlen wie der Mund, das Rektum 1 oder auch die Schei-<br />

de wurden schon in der Antike mit Hilfe von Spekula 2 untersucht, was als der Beginn<br />

der starren Endoskopie gesehen wird. Bis ins 19. Jahrhundert stellte die Beleuchtung<br />

der dunklen Hohlräume eine der größten Herausforderungen dar. Bozzini publizierte<br />

im Jahre 1804 in einer kleinen Frankfurter Tageszeitung seine neue Erfindung eines<br />

Lichtleiters. Einen ausführlichen Bericht veröffentlichte er zwei Jahre später im Jour-<br />

nal der Praktischen Arzneikunde und Wundarzneikunst. Das Gerät besteht aus einem<br />

optischen Teil mit der Beleuchtungseinrichtung und einem mechanischen Teil, der sich<br />

der Anatomie der Körperöffnung anpasst. Mit dem Einsatz des Lichtleiters für urolo-<br />

gische Untersuchungen an Patienten fand die Endoskopie mit dem französischen Chir-<br />

urgen Desormeaux 1865 einen ersten Höhepunkt. Seine Instrumente bestanden aus<br />

einem System von Spiegeln und Linsen mit einer offenen Flamme als Lichtquelle. Die<br />

häufigste Komplikation bestand daher in Verbrennungen der Haut.<br />

Der nächste Meilenstein wurde mit der Erfindung der Glühlampe erreicht. Der Uro-<br />

loge Nitze präsentierte 1879 ein Zystoskop 3 mit verbesserter Prismen -und Spiegeltech-<br />

nik, das er mit einer bereits 1845 bekannten Platin-Glühlampe kombinierte. Das direkte<br />

Mitführen der Beleuchtung erlaubte eine wesentlich flexiblere und stärkere Ausleuch-<br />

1 Rektum: (lat. rectum) Mastdarm<br />

2 Spekulum: (lat. Speculum) Spiegel<br />

3 Zystoskop: Gerät zur Spiegelung der Blase


12 2.1. HISTORISCHER WEG DER FLEXIBLEN ENDOSKOPIE<br />

(a) (b)<br />

Abbildung 2.1: Kuriose Erfindung: Faseroptische Lesehilfe (nach Pelli [PLS85]).<br />

tung. Leider behob diese Technik noch nicht die Gefahr von Verbrennungen durch<br />

die Lichteinwirkung. Erst mit Einführung der Linsensysteme 1932 durch Schindler<br />

und Wolf und der damit verbundenen Entwicklung halbflexibler Endoskope wurde die<br />

Endoskopie ungefährlicher. Dennoch dauerte es noch weitere 25 Jahre, bis die Glasfa-<br />

sertechnologie in die Beleuchtungs- und Abbildungstechnik Einzug hielt. Hirschowitz<br />

stellt 1957 ein vollflexibles Endoskop vor, das sowohl für den Licht-, als auch für den<br />

Bildtransport Glasfasern verwendet. Ein solcher Bildleiter wird aus feinen Lichtleitern<br />

gefertigt, die nicht miteinander verschmolzen sind, sondern lose nebeneinander liegen.<br />

Die biegsamen Einzelfasern sind lediglich an Ein- und Ausgangsseite geometrisch ko-<br />

härent geordnet und fest eingefasst. Der detaillierte Aufbau und die technischen Ei-<br />

genschaften werden in Abschnitt 2.3 beschrieben. Faseroptiken werden anstatt einer<br />

konventionellen Abbildung mit optischen Linsen überall dort eingesetzt, wo es auf<br />

kleine Abmessungen und hohe Lichtstärke ankommt. Sie erlauben einen erweiterten<br />

Betrachtungsraum bei größerer Helligkeit.<br />

Kuriose Erfindungen<br />

Pelli stellte im Jahr 1985 eine optische Lesehilfe mit Glasfasertechnik vor [PLS85]. Sie<br />

vergrößert einen anvisierten Ausschnitt und leitet ihn durch ein flexibles Faserbündel<br />

(vgl. Abbildung 2.1(a)) an das Auge des Betrachters weiter. Abbildung 2.1(b) zeigt<br />

den praktischen Einsatz der Lesehilfe.


2.2. ANWENDUNGEN MIT FASEROPTIK 13<br />

2.2 Anwendungen mit Faseroptik<br />

Entsprechend den beiden Hauptanforderungen an die technische Ausführung der Ge-<br />

räte wird in der Endoskopie grundlegend zwischen medizinischen und industriellen<br />

Anwendungsgebieten unterschieden. Für Sterilisationszwecke in der Medizin und Bio-<br />

logie wird gefordert, dass wiederverwendete Komponenten, die in Kontakt mit Körper-<br />

flüssigkeiten treten, autoklaviert 4 werden können. Dies erfordert hohe Druckdichte und<br />

Säureverträglichkeit, was insbesondere an Klebestellen und Materialübergängen be-<br />

rücksichtigt werden muss. In der Industrie werden Endoskope häufig unter sehr rauhen<br />

Bedingungen eingesetzt, was wiederum eine hochwertige Ummantelung, z. B. in Form<br />

eines Metallgeflechts oder einer Teflonbeschichtung erforderlich macht. Widerstands-<br />

festigkeit und ein geringer Reibungskoeffizient für ruckfreie Bewegungen fördern den<br />

optimalen Einsatz im industriellen Umfeld. Die prädestinierten Einsatzgebiete faser-<br />

optischer Geräte sind Anwendungen, die einen extrem dünnen Arbeitsdurchmesser er-<br />

fordern. Hier können sie an Stellen vordringen, die sonst optisch nicht untersucht wer-<br />

den könnten. Eine präzisiere und farbgetreue Darstellung von Einzelbildern, aber auch<br />

die Aufbereitung von archivierten Sequenzen bedeutet einen ernormen Mehrwert und<br />

eine Steigerung des wirtschaftlichen Nutzens durch bessere Anwendbarkeit in schwie-<br />

rigen Aufgabenbereichen. Da große deutsche Endoskopiehersteller die Präsenz und<br />

Bedeutung der faseroptischen Endoskopie noch mindestens für einen Zeitraum von et-<br />

wa einem Jahrzehnt gewährleistet sehen, gilt dies auch für das wirtschaftliche Interesse<br />

an robusten und wirkungsvollen Verfahren zur Bildaufbereitung und -verarbeitung für<br />

diese Systeme. Die Endoskopie trägt wirtschaftlich und strategisch zu folgenden Punk-<br />

ten bei:<br />

• Kostenersparnis, da die meisten Aufgaben zerstörungsfrei durchgeführt wer-<br />

den können und ein Austausch von Teilen vermieden werden kann, die als in<br />

Ordnung befunden wurden<br />

• Vermeidung von Folgekosten, die durch einen zu späten Austausch von Teilen<br />

verursacht werden, welche fälschlicherweise als in Ordnung befunden wurden<br />

• Zeitersparnis, durch eine rasche Durchführung der Inspektionen und weil die<br />

Notwendigkeit von Folgearbeiten zuverlässiger bestimmt werden kann<br />

• Der Beweispflicht kann mittels <strong>Dokument</strong>ation durch Bild- und Video-Auf-<br />

zeichnung besser Rechnung getragen werden<br />

4 Autoklavieren: Verfahren zum Erreichen von Sterilität für Objekte (z. B. Instrumente oder Nährme-<br />

dien), die dazu unter Überdruck Wasserdampf oder speziellen Gasen ausgesetzt werden


14 2.2. ANWENDUNGEN MIT FASEROPTIK<br />

Neben den großen Endoskopieherstellern mit deutscher Niederlassung, Everest VIT<br />

GmbH [Eve07], Olympus GmbH [Oly07], Karl Storz GmbH [Kar07], Schölly Fibe-<br />

roptic GmbH [Sch07b] und Richard Wolf GmbH [Ric07] existiert noch eine Reihe<br />

von Firmen, die sich auf endoskopische Produkte für außergewöhnliche Anwendun-<br />

gen spezialisiert haben, wie beispielsweise Polydiagnost GmbH [Pol07] oder Almikro<br />

GmbH [Alm06]. Die Produktpaletten dieser Hersteller geben eine umfassende Über-<br />

sicht der vielfältigen und teilweise speziellen Einsatzgebiete von Mikroendoskopen<br />

mit fasergestützter Optik. Die folgenden beiden Abschnitte zeigen typische medizini-<br />

sche und industrielle Anwendungsfälle derartiger Endoskope auf.<br />

2.2.1 Industrieller Anwendungsbereich der Fiberskopie<br />

Entsprechend der Diagnose im medizinischen Umfeld ermöglicht die Endoskopie im<br />

industriellen Bereich die zerstörungsfreie Sichtprüfung, z. B. von Innenflächen und<br />

Hohlräumen [SKW06]. Dabei steht die Automatisierung einer zuverlässigen Qualitäts-<br />

kontrolle und Schadensanalyse im Vordergrund. Routineinspektionen, die von techni-<br />

schem Personal nicht selten fehlerbehaftet und schlecht rekonstruierbar durchgeführt<br />

werden, können so maschinell erledigt und die Ergebnisse quantitativ in elektroni-<br />

scher Form archiviert werden. Durch geeignete digitale Bildverarbeitung werden fase-<br />

roptisch aufgezeichnete Aufnahmen aufbereitet und verbessert [MEW + 06]. Eine wei-<br />

tere Möglichkeit zur Verbesserung der Darstellung besteht in der dreidimensionalen<br />

Darstellung von einfachen geometrischen Objekten, die aus den monokularen 5 An-<br />

sichten eines freigeführten Endoskops räumlich rekonstruiert wird [WSRW05]. Die<br />

Anwendungsfelder, aus denen derartige Anforderungen erwachsen sind vielfältig:<br />

Instandhaltung und Wartung Maschinenkomponenten, die ohne aufwändige De-<br />

montage nicht zugänglich sind oder im eingebauten Zustand nicht einsehbar sind, die<br />

jedoch eine tragende Rolle bezüglich Funktionsfähigkeit und Sicherheit spielen, müs-<br />

sen zuverlässig visuell inspiziert werden. Im Bereich der Automobiltechnik, in der<br />

Luftfahrt und der Kraftwerkstechnik müssen Getriebe, Generatoren, (Elektro-)Moto-<br />

ren, Hydraulikzylinder, Tanks, Rohrleitungen und Sondermaschinen inwendig über-<br />

prüft werden. Die endoskopische Begutachtung kann mit einer bebilderten Beschrei-<br />

bung eine konkrete Aussage über den Zustand von Oberflächen, Lagern, Verzahnun-<br />

gen, Planetenrädern und anderen Bauteilen liefern. Dies kann ein hilfreicher Befund<br />

sein, aus dem sich rechtzeitig eine entscheidende Handlungsempfehlung ableiten lässt.<br />

In vielen Fällen können so Materialfehler, Risse, Korrosionsschäden und Fremdkörper<br />

5 Monokular: (lat. für einäugig) Hier: Mit einer einzigen Blickrichtung


2.2. ANWENDUNGEN MIT FASEROPTIK 15<br />

mit Hilfe der Endoskopie in schwer zugänglichen Hohlräumen frühzeitig erkannt und<br />

meist ohne Beschädigung behoben werden.<br />

Unterstützung in der Produktionstechnik Die Miniaturisierung technischer Bau-<br />

teile schreitet immer weiter voran und stellt die damit verbundene Produktionstechnik<br />

vor immer neue Herausforderungen. Herstellungsprozesse müssen zu 100% überwacht<br />

werden und Vorrichtungen zum Greifen und Positionieren werden oft von moderner<br />

Bildverarbeitung unterstützt. Für Greifzangen, die aufgrund ihrer hohen Bewegungs-<br />

geschwindigkeit möglichst leicht sein müssen, wird die Optik zum Anvisieren und<br />

Kontrollieren des Greifablaufs durch eine Glasfaseroptik ersetzt, die das Bild flexibel<br />

an einen beliebigen Ort mit fest installierter Kamera überträgt. Mit dieser Technik kann<br />

die Trägheit von beweglichen Teilen reduziert und trotzdem eine optische Komponente<br />

gewährleistet werden.<br />

Zivilschutz, Verteidigungs- und Spionagetechnik Einsatztruppen der Polizei set-<br />

zen Endoskope zur gefahrlosen Lageprüfung von unsicheren Räumen, z. B. durch die<br />

Öffnung eines Schlüssellochs ein, bevor sie sich Zutritt verschaffen oder gewaltsa-<br />

me Maßnahmen einleiten. Aus dem Geheimdienst sind ähnliche Anwendungsfälle für<br />

Spionagetechnik bekannt. Das Militär setzt die Endoskopie nicht nur im Feld zur Ob-<br />

servation ein, sondern inspiziert auf diese Art, wie die Waffenindustrie, auch die Läufe<br />

ihrer Schusswaffen auf Beschädigungen. Zur Aufdeckung von Verdachtsmomenten im<br />

internationalen Warenhandel verwendet der Zoll Endoskope, um Einblick in schwie-<br />

rig zugängliche Hohlräume z. B. den Tank in Kraftfahrzeugen zu erhalten. Im Kata-<br />

strophenschutz werden Endoskope eingesetzt, um verschüttete oder eingeschlossene<br />

Personen aufzuspüren, ohne die einsturzgefährdete Umgebung zu beeinflussen.<br />

Archäologie, Bautenschutz und Denkmalpflege In der Archäologie, dem Bauten-<br />

schutz und der Denkmalpflege kommt die Endoskoptechnik zum Einsatz, wo Material<br />

erhalten werden muss, dessen Zustand jedoch eine Überprüfung unter Sicht verlangt.<br />

Dazu wird beispielsweise die Isolierung bei Altbauten inspiziert, Holzbauten auf et-<br />

waigen Schädlingsbefall hin untersucht oder große Denkmäler im hohlen Innenraum<br />

auf korrosive Schadensstellen geprüft.


16 2.2. ANWENDUNGEN MIT FASEROPTIK<br />

2.2.2 Medizinischer Einsatz von Fiberskopen<br />

Der Einsatz von flexiblen Endoskopen im menschlichen Körper erstreckt sich wort-<br />

wörtlich von Kopf bis Fuß und wird hier anhand von fünf typischen Beispielen ge-<br />

schildert. Einige Einsatzgebiete finden sich auch in der Veterinärmedizin wieder, wo<br />

für wertvolle Zuchttiere ein hoher Kosten- und Pflegeaufwand betrieben wird.<br />

Mamaskopie / Duktoskopie Zur Früherkennung von Brustkrebs in Milchkanälen,<br />

z. B. durch Läsionen 6 an der Milchgangswand, gibt die übliche Bildgebung mittels Ga-<br />

laktographie 7 , Mammographie 8 und duktusorientierter Mammasonographie 9 nur indi-<br />

rekte Information über den intraduktalen 10 Befund. Die Miniendoskopie mit einem<br />

Duktoskop von weniger als einem halben Millimeter Durchmesser bietet die Möglich-<br />

keit, intraduktal direkt zu diagnostizieren und unter Sicht eine Gewebeprobe zur Beur-<br />

teilung der Schadhaftigkeit zu entnehmen, um so bei der Entscheidung zur Durchfüh-<br />

rung bzw. Vermeidung einer operativen Entfernung des Milchgangs zu helfen. Durch<br />

die Verwendung von feinen Mikroendoskopen reduziert sich die Gefahr einer Gewebe-<br />

schädigung und die Belastung des Patienten durch Behandlungsfolgen werden gesenkt<br />

[GOE + 05, OPJ + 06].<br />

Dentalendoskopie Dentalendoskope dienen der Begutachtung und zur Unterstüt-<br />

zung bei Behandlungen und Operationen in der Kieferhöhle. Beispielsweise kann der<br />

Einblick in den freigelegten Kanal während einer Wurzelbehandlung Aufschluss dar-<br />

über geben, ob weitere versteckte Seitenkanäle vom Hauptkanal abzweigen. Bleiben<br />

diese unerkannt und werden nicht in die Behandlung mit eingeschlossen, neigen sie zur<br />

Entzündung und gefährden damit den mittelfristigen Erfolg der Behandlung. Ebenso<br />

kann während der Aufbereitung von Wurzelkanälen und Revisionen von Wurzelfül-<br />

lungen optisch sichergestellt werden, dass die Füllung die Randbereiche, die teilweise<br />

einen elliptischen Querschnitt und eine Torsion entlang der Längsachse zeigen, voll-<br />

ständig ausgefüllt.<br />

Bronchoskopie und Hals-Nasen-Ohren (HNO) Diagnostik Ziel der Bronchosko-<br />

pie 11 ist die Darstellung von Lumen und Schleimhaut sowie die Diagnostik, die Klas-<br />

6Läsion: Gewebeauffälligkeit<br />

7Galaktographie: Röntgenuntersuchung der Milchgänge<br />

8Mammographie: Radiologische Untersuchung der Brust zur Früherkennung von Brustkrebs<br />

9Mammasonographie: Ultraschalluntersuchung der Brust<br />

10Intraduktal: Innerhalb des Milchgangs<br />

11Bronchoskopie: Spiegelung der Atemwege und des Lungenraums


2.2. ANWENDUNGEN MIT FASEROPTIK 17<br />

sifizierung und die Therapie von Funktionsstörungen im Bronchialsystem. Durch die<br />

Miniaturisierung der Kameratechnik (s. Abschn. 1.2.1) kann die Bronchoskopie an<br />

einem erwachsenen Menschen üblicherweise mit einem Videoendoskop durchgeführt<br />

werden. Jedoch ist der Arzt bei vergleichsweise beengten Zugangswegen z. B. bei klei-<br />

nen Kindern oder beim Vordringen in feinere Lungenäste nach wie vor auf dünne Fa-<br />

serendoskope angewiesen. Je dünner das verwendete Endoskop ist, desto verträglicher<br />

und verletzungsfreier ist die Anwendung für den meist nur leicht sedierten Patienten.<br />

Das Gleiche gilt für die Ophtalmoskopie, welche die Möglichkeit bietet, Ablagerungen<br />

in Form von Tränensteinen oder das Ausmaß von Schleimhautentzündungen innerhalb<br />

der Tränenwege optisch zu diagnostizieren und durch Minibohrer und Laserwerkzeuge<br />

zu therapieren. Auch im Bereich der HNO werden dünne Endoskope eingesetzt, um<br />

enge anatomische Bereiche zur Diagnostik und Therapie optisch darzustellen.<br />

Choledochoskopie und Gynäkologie Die mikroendoskopische Darstellung von Lu-<br />

men und Schleimhaut erleichtert die Diagnostik, die Klassifizierung und die Therapie<br />

von Funktionsstörungen im Gallen- und Bauchspeicheldrüsensystem (Choledochosko-<br />

pie) bzw. im Bereich der Eileiter (Gynäkologie). Unter Sichtkontrolle können Laser-<br />

behandlungen und Biopsien sicherer und effizienter durchgeführt werden.<br />

Neurochirurgie Die zunehmende Bedeutung von dünnen Endoskopen wird auch in<br />

der Neurochirurgie untersucht. Über die Keilbeinhöhle kann der Chirurg mittels ei-<br />

ner Fräse, die endoskopisch gelenkt wird, zur Gehirnbasis (Hypophyse) vordringen,<br />

wo ein Auftreten von Tumoren relativ häufig beobachtet und behandelt wird. Einige<br />

Forschungsprojekte untersuchen, inwieweit sich eine 3D-Rekonstruktion der Keilbein-<br />

höhle aus monokularen Ansichten durch ein Endoskop zur Unterstützung der Naviga-<br />

tion bei einem derartigen Eingriff eignet. Neben einem derartigen Forschungsziel am<br />

Fraunhofer IIS [WWS + 06] widmen sich auch einige weitere Forschungsgruppen die-<br />

ser Fragestellung, z.B. [MKT + 07].<br />

Konfokale Fluoreszenzmikroskopie Le Goualher et al. [GPG + 04] verwenden einen<br />

flexiblen Bildleiter, um konfokal abgetastete Intensitätsdaten zur Auswertung an einen<br />

elektronischen Sensor zu leiten. Die Apparatur dient einer Anwendung zur optischen<br />

Biopsie. Die Algorithmen zur Bildaufbereitung entsprechen in Ansätzen denen zur<br />

Grauwertinterpolation (vgl. Abschn. 3.2.2) und wurden von Mauna Kea Technologies<br />

patentiert [AGF05]. Der Fokus der genannten Arbeit liegt auf der Gewinnung von In-<br />

tensitätsdaten mit hohem Störabstand und kann technisch bedingt bislang nicht auf<br />

eine Farbbildgebung erweitert werden.


18 2.3. EIGENSCHAFTEN VON FASEROPTISCHEN SYSTEMEN<br />

2.3 Eigenschaften von faseroptischen Systemen<br />

2.3.1 Aufbau<br />

Ihre Bezeichnung verdankt die flexible Endoskopie der Flexibilität des lichtleitenden<br />

Faserbündels, welches das projizierte Abbild einer Szene vom distalen 12 Ende des En-<br />

doskops zum Okular transportiert. Abbildung 2.2 zeigt den typischen Aufbau eines fle-<br />

xiblen Endoskops in einem schematischen Schnitt. Die Lichtquelle schickt über einen<br />

separaten Lichtleiter Kaltlicht an die Spitze des Endoskops, wo es diffus ausgestrahlt<br />

wird und die Szene beleuchtet, die sich meist im Dunkeln befindet.<br />

Vorteilhaft für den praktischen Einsatz des Endoskops ist die sog. Fixfokusoptik,<br />

d.h. eine Szene wird ab einem definierten Mindestabstand (Arbeitsabstand), meist im<br />

Bereich weniger Millimeter, bis ins Unendliche scharf wahrgenommen. Das interope-<br />

rative Scharfstellen der Abbildung wäre bei einem flexiblen Endoskop nicht möglich,<br />

da der Vorgang die Optik an der Spitze des Endoskops beeinflussen müsste und nicht<br />

am Okular nachgestellt werden kann, wie das bei starren linsenbasierten Geräten der<br />

Fall ist. Die Objektivlinsen verzerren das Bild nahezu fischaugenartig, da für ein breites<br />

Blickfeld eine Weitwinkeloptik verwendet wird. Durch Präzisionsfehler der miniatu-<br />

risierten Linsen treten hier zudem Unschärfe und Kontraststörungen in der Abbildung<br />

auf das Faserbündel auf.<br />

An der proximalen 13 Optik, dem sog. Okular, wird zur digitalen Weiterverarbeitung<br />

der Bilddaten ein Bildsensor angekoppelt, der das Abbild kartesisch abtastet und als<br />

diskrete Bildinformation zur Verfügung stellt. Die Verbindung erfolgt standardmäßig<br />

12 (lat. distare, Distanz) Beim Endoskop ist das entfernte Ende, also die Spitze gemeint, die sich,<br />

relativ zum Anwender, auf Distanz befindet.<br />

13 (lat. proximus, der nächste) Beim Endoskop ist die Seite mit dem Okular gemeint. Sie befindet sich<br />

in der Nähe des Anwenders.<br />

Abbildung 2.2: Schematischer Aufbau eines flexiblen Endoskops.


2.3. EIGENSCHAFTEN VON FASEROPTISCHEN SYSTEMEN 19<br />

(a) (b)<br />

Abbildung 2.3: (a) Schematischer Schnitt durch eine optische Faser mit Kern- und Mantelma-<br />

terial. Die optische Achse und ein totalreflektierter Lichtstrahl sind mit Pfeilen gekennzeichnet.<br />

(b) Durchmesser einer optischen Faser im Vergleich zu dem eines menschlichen Haars.<br />

durch einen sog. TV-Adapter, der auf der einen Seite einen Schnappverschluss für das<br />

Okular des Endoskops und auf der anderen Seite ein C-Mount-Gewinde für gängige<br />

Industriekameras zeigt. Ein Linsensystem stellt den richtigen Abbildungsmaßstab und<br />

Fokusabstand zwischen dem polierten Ende des Faserbündels und der Sensorfläche<br />

sicher. Die Qualität dieser TV-Adapter unterscheidet sich erheblich und beeinflusst die<br />

Abbildungsqualität maßgeblich.<br />

Aufgrund der elementaren Bedeutung des Lichtleiters im Endoskop werden dessen<br />

Aufbau und seine Eigenschaften nun im Detail beschrieben. Dazu wird von der ein-<br />

zelnen lichtleitenden Faser ausgegangen und darauf aufbauend die Zusammenfassung<br />

solcher Fasern zu einem Bildbündel betrachtet.<br />

Optische Fasern In einer Broschüre [Fib04] über den industriellen Einsatz optischer<br />

Bauteile wird der Aufbau und die Funktionsweise von lichtleitenden Fasern für die op-<br />

tische Signal- und Bildübertragung beschrieben. Jede Faser besteht aus einem Kern<br />

mit hohem Brechungsindex und dem sog. Cladding, einer Ummantelung mit niedri-<br />

gem Brechungsindex (vgl. Abb. 2.3). Lichtstrahlen, die relativ zur optischen Achse<br />

bis zu einem Akzeptanzwinkel αtotal in die Faser eintreten, werden durch interne To-<br />

talreflexion an das andere Ende geleitet. Sie folgen dem gekrümmten Verlauf der Fa-<br />

ser, sofern deren minimaler Biegeradius die Totalreflexion am Kern-Mantel-Übergang<br />

erlaubt. Die drei wichtigsten Eigenschaften, die eine Faser charakterisieren sind der<br />

Durchmesser, die numerische Apertur und die spektrale Transmission [Fib01].<br />

• Durchmesser<br />

Um für das Spektrum des sichtbaren Lichts die interne Totalreflexion zu gewähr-<br />

leisten, muss die Ummantelung eine minimale Wandstärke von 2µm aufweisen.<br />

Bei konstanter Mantelstärke kann die Effizienz der optischen Lichtübertragung<br />

durch Erhöhung des Kernradius rkern gesteigert werden. Dies führt jedoch zu


20 2.3. EIGENSCHAFTEN VON FASEROPTISCHEN SYSTEMEN<br />

einer geringeren mechanischen Flexibilität des Lichtleiters. Für optische Bild-<br />

bündel werden Fasern mit einem Durchmesser von 6 bis 15µm verwendet.<br />

• Numerische Apertur<br />

Die numerische Apertur NA einer optischen Faser ist abhängig von den beiden<br />

Brechungsindizes n1 bzw. n2 des Kernmaterials bzw. des Mantelmaterials, wobei<br />

n1 > n2 gilt. Mit dem Brechungsindex n0 der Umgebung außerhalb der Faser gilt<br />

die Beziehung:<br />

NA = n0 · sin αtotal =<br />

<br />

n 2 1 − n 2 2<br />

Alle Lichtstrahlen, die unter einem Winkel α ≤ αtotal auf das polierte Ende des<br />

Lichtleiters treffen, werden durch die Faser geleitet. Je größer die numerische<br />

Apertur ist, desto mehr Licht kann über die Faser transportiert werden.<br />

• Spektrale Transmission<br />

Durchläuft ein Lichtstrahl mit der Frequenz λ eine optische Faser, reduziert<br />

sich seine Intensität. Das Verhältnis zwischen Eingangs- und Ausgangsintensität<br />

wird als spektrale Transmission T(λ) bezeichnet. Sie hängt maßgeblich von den<br />

Absorbtionsverlusten im Kernglas, der nicht-idealen Totalreflexion am Kern-<br />

Mantel-Übergang und Verlusten beim Ein- und Auskoppeln des Lichtstrahls in<br />

die bzw. aus der Faser ab.<br />

Von der Faser zum Bildbündel Werden viele der beschriebenen optischen Fasern<br />

zusammengefasst, entsteht ein flexibler Lichtleiter. Die Anordnung der einzelnen Fa-<br />

sern ist dabei nicht zwangsläufig geordnet, was den Hauptunterschied zum optischen<br />

Bildleiter darstellt. Letzterer überträgt durch seine kohärent geordneten Fasern die<br />

abgetasteten Bildpunkte einer Szene, die auf die frontseitige Schnittfläche projiziert<br />

werden, nahezu ohne geometrische Verluste auf die rückseitige Schnittfläche. Da das<br />

Material der Ummantelung und der Zwischenräume zwischen den Fasern weniger<br />

Lichtintensität überträgt, als der Faserkern, erscheinen die übertragenen Lichtpunkte<br />

in einem sog. Wabenmuster. Die hexagonale Ausrichtung geht auf die Anordnung in<br />

der dichtesten Packungsform zurück. Die spektrale Transmission eines Faserbündels<br />

wird maßgeblich vom Typ und der Qualität des verwendeten Glasmaterials für Kern-<br />

und Mantelbereich, den Absorptionseigenschaften, der Packungsdichte und der Quali-<br />

tät der Abschlussfläche beeinflusst.<br />

Auswirkung von Material und Herstellungsprozess der Fasern Es gibt zwei un-<br />

terschiedliche Materialien und Herstellungsprozesse von Bildleitern auf Basis von Fa-<br />

sern. Glasfaserbündel zeigen aufgrund der ausgeprägten Kern-Mantel-Struktur in ih-<br />

.


2.3. EIGENSCHAFTEN VON FASEROPTISCHEN SYSTEMEN 21<br />

(a) (b)<br />

Abbildung 2.4: (a) Blick durch ein flexibles Endoskop auf ein Testbild. (b) Der vergrößerte Aus-<br />

schnitt zeigt die inhomogen ausgerichtete Struktur der Fasern, die hier aus einem Bildbündel<br />

aus Quarzfasern resultiert.<br />

rem Querschnitt eine bildweite Homogenität und besitzen klare Bildpunkte mit ei-<br />

ner ausgeprägten kontrastreichen, dunklen Umrandung, die bereits als Wabenstruk-<br />

tur beschrieben wurde (vgl. Abb. 1.4). Im Querschnitt eines Quarzbildleiters hinge-<br />

gen können einzelne Fasern unregelmäßige Querschnitte aufweisen und verschiedene<br />

Flächenabschnitte eine unterschiedliche Orientierung in der Anordnung besitzen (vgl.<br />

Abb. 2.4). Der Querschnitt einzelner Fasern kann von der Kreisform bis hin zu einer<br />

Tropfenform abweichen.<br />

2.3.2 Farbbildgebung<br />

Kamerasensoren bestehen prinzipiell aus einer großen Anzahl an lichtempfindlichen<br />

Sensorelementen 14 , die das Abbild einer Szene auf ihre Intensität abtasten. Zur Ak-<br />

quisition von Farbbildern unterscheidet man nach ihrem Prinzip zwischen Dreichip-<br />

Kameras und Einchip-Kameras. Der grundlegende Aufbau und die Funktionsweise<br />

sind in [Fur01] zusammengefasst. Demnach besitzen Dreichip-Kameras drei Intensi-<br />

tätssensorfelder, die ganzflächig mit unterschiedlichen Farbfiltern versehen und über<br />

ein Prisma pixelgenau registriert dieselbe Szene erfassen. Aus der spektralen Informa-<br />

tion der einzelnen Elemente kann durch diesen Aufbau die volle physikalische Auflö-<br />

sung für jeden Farbkanal gewährleistet werden.<br />

14 Sensorelement: Einzelne lichtempfindliche Zelle aus der fotosensitiven Fläche (Matrix) eines Ka-<br />

merasensors


22 2.3. EIGENSCHAFTEN VON FASEROPTISCHEN SYSTEMEN<br />

(a) (b) (c)<br />

Abbildung 2.5: Mosaikartige Filterfelder für die Verwendung in Einchip-Kameras. Die einzel-<br />

nen Farbfilter ermöglichen jedem Sensorelement, neben der Intensität auch die lokale Farbin-<br />

formation zu erfassen. (a) Complementary Color Mosaic mit den Komplementärfarben Cyan,<br />

Gelb, Magenta, sowie Grün. (b) Bayer-Pattern mit den Primärfarben Rot, zweifach Grün und<br />

Blau. (c) Indizierte Elemente für verschiedene Verfahren des Demosaicing auf dem Bayer-<br />

Pattern.<br />

Aus Kostengründen sind jedoch die Einchip- oder Single-Chip-Farbkameras we-<br />

sentlich verbreiteter als die Dreichip-Kameras. Einchip-Farbsensoren besitzen, wie der<br />

Name schon sagt, einen einzelnen Intensitätssensor, der mit einem speziellen Mosaik<br />

aus Farbfiltern versehen ist (vgl. Abb. 2.5). Diese Filter bewirken, dass einzelne Pixel<br />

jeweils auf einen ganz bestimmten Wellenlängenbereich des Lichtes reagieren. Da je-<br />

des Pixel mit seiner Intensität nur eine Farbkomponente repräsentiert, müssen jeweils<br />

die fehlenden Farbinformationen zur Darstellung als Farb-Pixel aus den angrenzenden<br />

Elementen bestimmt werden.<br />

Typische analoge Einchip-Farbkameras enthalten ein Farbfiltermosaik mit der Be-<br />

zeichnung Complementary Color Mosaic. Dabei wechseln sich pixelweise die Farben<br />

Cyan, Gelb, Magenta und Grün ab (vgl. Abb. 2.5(a)), wobei eine Konvertierung in<br />

YUV oder RGB meist bereits auf der Hardware durchgeführt werden kann. Im Be-<br />

reich der digitalen Kameratechnik findet man am häufigsten das sog. Bayer-Pattern<br />

oder Primary Color Mosaic. Hierbei handelt es sich um Farbfiltermosaike mit den<br />

Primärfarben Rot, Grün und Blau (vgl. Abb. 2.5(b)), wobei zur Erhaltung der Sym-<br />

metrie der Farbe Grün doppelt so viele Elemente zugewiesen sind wie den anderen<br />

beiden Farben, da das menschliche Auge das entsprechende Spektrum empfindlicher<br />

wahrnimmt. Einige Kameras stellen eine Schnittstelle bereit, um die farbspezifischen<br />

Intensitätsdaten auszulesen, die als Rohdaten 15 bzw. Primärdaten bezeichnet werden.<br />

Das ermöglicht die individuelle Berechnung des Farbbilds aus den Rohdaten, was als<br />

15 Rohdaten: Farbsensoren mit Farbfiltermosaik berechnen die Farbwerte des resultierenden Bilds aus<br />

farbkodierten Intensitätswerten, den sog. Rohdaten


2.3. EIGENSCHAFTEN VON FASEROPTISCHEN SYSTEMEN 23<br />

Demosaicing 16 bezeichnet wird. Im Rahmen dieser Arbeit wurden neben einfachen<br />

linearen Ansätzen, wie dem Demosaicing aus dem Grünkanal oder dem bilinearen<br />

Demosaicing auch komplexere Berechnungsvorschriften, wie dem gradientenbasierten<br />

Demosaicing nach Laroche-Prescott oder dem adaptiven Demosaicing nach Hamilton-<br />

Adams untersucht. Weil diese aufwändigeren Ansätze, wenn überhaupt, nur einen mar-<br />

ginalen Unterschied zu linearen Ansätzen zeigen, werden sie hier nicht ausführlich be-<br />

handelt, sondern können in [Sch07a, RSBS02] studiert werden. Die Stärken der meis-<br />

ten kantenerhaltenden Ansätze kommen für die Anwendung auf faseroptisch abgetas-<br />

teten Sensorabbildungen nicht zum Tragen, weil die kontrastreiche Faserstruktur die<br />

Gradienten mehr beeinflusst, als dies die dahinterliegenden Bildstrukturen vermögen.<br />

Viel mehr Sinn würde eine kantenerhaltende Berechnung im Zuge der Interpolation<br />

machen (vgl. Abschn. 5.2).<br />

Aus den genannten Gründen wird deshalb das Demosaicing für die Untersuchun-<br />

gen und Ergebnisse in Kapitel 4 linear aus dem Grünkanal durchgeführt, was trotz<br />

geringem Aufwand qualitativ ausreichende Ergebnisse liefert. Das Prinzip ist denk-<br />

bar einfach und berücksichtigt mit der Auslegung der Farbfilterverteilung, dass die<br />

menschliche optische Wahrnehmung am empfindlichsten auf den Spektralbereich des<br />

grünen Lichts reagiert. Die vergleichsweise hohe Auflösung der grün gefilterten Ele-<br />

mente gegenüber den roten und blauen prädestiniert diese als erste Näherung für das<br />

Intensitätsbild. Die fehlenden Intensitätswerte werden auf Basis der bereits bekannten<br />

grünen Elemente interpoliert. Dazu wird das resultierende Bild imaginär um den Ab-<br />

stand eines halben Pixel verschoben. Die neuen Intensitätswerte, durch vorgestellte In-<br />

dizes gekennzeichnet, berechnen sich für den beispielhaften Block in Abbildung 2.5(c)<br />

zu<br />

⎛ ⎞<br />

11I ⎜12<br />

⎜ I<br />

⎟<br />

⎜ ⎟<br />

⎝21I⎠<br />

22 I<br />

2.3.3 Beeinträchtigungen<br />

= 1<br />

2<br />

⎛ ⎞ ⎛<br />

1 1 0 0<br />

⎜<br />

⎜0<br />

1 0 1<br />

⎟ ⎜<br />

⎟ ⎜<br />

⎜ ⎟ ⎜<br />

⎝1<br />

0 1 0⎠<br />

⎝<br />

0 0 1 1<br />

Trotz des großen Marktes hat sich die Entwicklung der flexiblen Endoskopie über ge-<br />

wisse technische Einschränkungen noch nicht hinwegsetzen können. Dies sind zum<br />

einen konstruktiv bedingte Herausforderungen, wie die geringe Auflösung oder die<br />

schwierige Handhabung der Beleuchtung. Zum anderen ergeben sich finanzielle Gren-<br />

16 Demosaicing: Interpolation eines Farbbilds aus den einkanaligen farbkodierten Intensitätsdaten des<br />

Sensorfelds.<br />

G21<br />

G12<br />

G32<br />

G23<br />

⎞<br />

⎟<br />


24 2.3. EIGENSCHAFTEN VON FASEROPTISCHEN SYSTEMEN<br />

zen, die einem akzeptablen Verhältnis von Kosten zu Nutzen entgegenstehen. In diese<br />

Kategorie fällt die miniaturisierte Optik der Endoskope.<br />

Niedrige Auflösung und Abtastung In Abschnitt 2.3.1 wird beschrieben, dass op-<br />

tische Fasern nicht beliebig dünn gefertigt und verwendet werden können. Der ideale<br />

Durchmesser von einigen µm und die Ummantelung limitieren die physikalische Auf-<br />

lösung eines Faserbündels und die aktive optische Fläche, die der Lichtleitung zur Ver-<br />

fügung steht. Für Bildbündel in Faserendoskopen mit Arbeitsdurchmesser in der Grö-<br />

ßenordnung 0, 35 bis 4, 0mm werden zwischen 3.000 und 30.000 Einzelfasern verbaut.<br />

Diese begrenzte Faseranzahl im Bildbündel führt zu einer starken Unterabtastung der<br />

Bildinformation zwischen der Szene und dem Auge. Bei der Verwendung eines Bild-<br />

sensors als digitales Auge führt dieser anschließend noch zu einer Überabtastung, da<br />

für ihn meist eine höhere Auflösung gewählt werden muss, um den Verlust durch die<br />

Transformation zwischen dem hexagonalen (Faserbündel) und dem kartesischen (Ka-<br />

merasensor) Koordinatensystem zu reduzieren. Daraus resultiert eine wabenförmige<br />

Struktur, die über dem betrachteten oder aufgezeichneten Bild liegt.<br />

Schwierige Beleuchtung Der Lichtleiter zur Beleuchtung der Szene muss neben<br />

dem Bildleiter im flexiblen Abschnitt des Endoskops zum distalen Ende geführt wer-<br />

den (vgl. schematische Skizze in Abb. 2.2). An der Spitze des Endoskops tritt das<br />

transportierte Licht diffus aus dem Lichtleiter aus. Dadurch, dass die Beleuchtung<br />

mit der Endoskopspitze mitgeführt wird, entstehen zeitdynamische Spiegelungen an<br />

Wandpunkten des Hohlraums. Derartige Glanzlichteffekte spielen im Allgemeinen ei-<br />

ne bedeutende, oft positive Rolle für die Beobachtung von metallischen homogenen<br />

Oberflächen. Im Hinblick auf eine merkmalsbasierte Lokalisierung oder Bewegungs-<br />

schätzung wirken sie sich hier jedoch sehr negativ aus. Das liegt vor allem daran, dass<br />

die Reflexionen keine präzise Position wiedergeben. Die fehlenden Freiheitsgrade der<br />

Beleuchtungsführung wirken sich zudem einschränkend auf die Manövrierfähigkeit<br />

des flexiblen Endoskops aus.<br />

Vom Lehrstuhl für Optik an der Universität Erlangen-Nürnberg wurde im Rah-<br />

men eines DFG-Projekts [WSW04] eine spezielle Beleuchtung entwickelt [PWSH06],<br />

die es ermöglicht, die Anzahl und Qualität von beobachteten Merkmalen zu erhöhen.<br />

Der Beleuchtungsring an der Spitze eines starren Endoskops ist in mehrere Sektoren<br />

aufgeteilt, die jeweils separat ansteuerbar ausgeführt sind. Damit ist es möglich, in<br />

geringem zeitlichen Abstand mehrere Bilder der nahezu gleichen Szene zu erhalten,<br />

die aus minimal unterschiedlichen Richtungen beleuchtet wurden. Differenzbilder lie-<br />

fern Schatteninformation und können zur Steigerung der Merkmalsgüte beitragen. Ein


2.3. EIGENSCHAFTEN VON FASEROPTISCHEN SYSTEMEN 25<br />

ähnliches Prinzip verfolgt der Ansatz in [Arn06], wo die einzelnen Sektoren mit Licht<br />

unterschiedlicher Wellenlänge versorgt werden. So können nachträglich durch Tren-<br />

nung der Aufnahmen z. B. in den roten, den grünen und den blauen Kanal drei Bilder<br />

mit unterschiedlicher Beleuchtungsrichtung zu exakt der gleichen Beobachtungszeit<br />

gewonnen werden. Die beschriebenen Projekte wurden ihrerseits mit starren Endosko-<br />

pen durchgeführt, wo sich ein messbarer, wenn auch zu vernachlässigender Fortschritt<br />

zeigt. Aufgrund der deutlich schlechteren Bildqualität der hier verwendeten flexiblen<br />

Endoskope wird durch eine Stroboskop- oder Trennfarbbeleuchtung keine messbare<br />

Verbesserung der Erkennungsrate von Merkmalen erwartet.<br />

Geometrische Abbildungseigenschaften Endoskope enthalten standardmäßig eine<br />

weitwinkelige Optik, um in kleinen Hohlräumen ein möglichst breites Bildfeld zu ge-<br />

währleisten. Bei Endoskopen mit Durchmessern zwischen 0, 35 und 4, 0mm beträgt<br />

das Bildfeld typischerweise 60 ◦ bis 100 ◦ . Nachteile der verwendeten Miniaturoptiken<br />

sind geometrische Abbildungsfehler, darunter die Verzeichnung und die Bildfeldwöl-<br />

bung. Erstere führt zu einer tonnenförmigen Verzerrung der abgebildeten Objekte und<br />

kann durch geeignete Algorithmen kompensiert werden. Die Bildfeldwölbung bewirkt,<br />

dass das Objektiv das Bild nicht auf eine Ebene, sondern auf eine gewölbte Fläche<br />

abbildet. Der Brennpunkt von Strahlen eines Lichtpunktes ist dann von der Bildhö-<br />

he abhängig, was dazu führt, dass ein Bild nicht homogen scharf abgebildet werden<br />

kann. Wenn die Bildmitte scharf eingestellt wird, erscheint der Rand unscharf und um-<br />

gekehrt. Die Bildfeldwölbung kann durch spezielle Anordnung der Linsen oder einer<br />

gewölbten Ausführung des Kamerasensors reduziert werden, jedoch ist der technische<br />

Aufwand für ein akzeptables Verhältnis von Kosten zu Nutzen zu hoch. Gegen ei-<br />

ne aufwändige Anordnung mehrerer Linsen spricht auch eine längere Baugröße des<br />

starren Endes der Endoskopspitze, welche die Manövrierbarkeit weiter einschränken<br />

würde.<br />

Farbartefakte Viele Eigenschaften und Veränderungen in der Textur von Oberflä-<br />

chen werden über die Farbe detektiert und klassifiziert. Die Bedeutung und der Wert<br />

einer artefaktfreien Darstellung von kalibrierten Farbbildern durch ein Faserbündel ste-<br />

hen daher außer Frage. Zur Kalibrierung und Korrektur von Farben existieren eine<br />

Reihe von Arbeiten [VPS01, PCN98], die teilweise auch den Anwendungsbereich der<br />

(starren) Endoskopie adressieren [MNMW03, MPW06].<br />

Herkömmliche Einchip-Farbkameras rekonstruieren Farbbilder aus der Informa-<br />

tion einzelner farbgefilterter Elemente auf einem fotosensitiven Sensorfeld (vgl. Ab-


26 2.3. EIGENSCHAFTEN VON FASEROPTISCHEN SYSTEMEN<br />

Abbildung 2.6: Faserabbildung auf Farbfiltermosaik<br />

schn. 2.3.2). Dieses sog. Bayer-Pattern zeichnet sich durch eine Anordnung der Farb-<br />

filter für rote, grüne und blaue Zellen aus, die an die psychovisuelle Wahrnehmung des<br />

menschlichen Auges angepasst wurde. Durch die Rekonstruktion aus diesen Segmen-<br />

ten kann für eine bestimmte Position im Mittel ein entsprechender Farbwert wahrge-<br />

nommen werden. Wird ein farbiger Bereich eines Bilds ungleich auf die drei Grundfar-<br />

ben Rot, Grün und Blau abgebildet, so entstehen Farbartefakte. Diese Art von Farbar-<br />

tefakten ist besonders in Verbindung mit der Abbildung durch ein Faserbündel stark<br />

ausgeprägt. Hier werden akkumulierte Szenenbereiche als Lichtpunkte übertragen und<br />

gebündelt auf eine geringe Anzahl an Sensorelementen abgebildet (vgl. Abb. 2.6). Da-<br />

bei verdeckt das Wabenmuster einige Sensorbereiche und jeder Lichtpunkt wird diffus<br />

in Form einer Gauß-Verteilung auf einen Bereich abgebildet.<br />

Die Erfassung einer faseroptischen Farbabbildung mit der Einchip-Technik unter-<br />

liegt daher einem Kompromiss. Würde eine Faser direkt und ausschließlich mit einem<br />

Sensorelement verbunden werden, so könnte man seine Intensität zwar exakt bestim-<br />

men, jedoch könnte man aufgrund der spezifischen Farbfilterung des Sensorelements<br />

die Farbe des Lichtpunkts nicht mehr angeben. Um den Farbwert zu bestimmen, wird<br />

die Information möglichst vieler Sensorelemente benötigt, die den Lichtpunkt abtas-<br />

ten. In der Praxis wird die Auflösung des Kamerachips derart gewählt, dass eine Faser<br />

auf etwa 3×3 bis 7×7 Sensorelemente abgebildet wird. Doch gerade diese geringe An-<br />

zahl von Sensorelementen wird meist ungleichmäßig ausgeleuchtet. Das Ungleichge-<br />

wicht von stimulierten Sensorelementen führt folglich beim Demosaicing zu falscher<br />

Farbinformation für diese Faser. Normalerweise tritt dieser Effekt durch statistische<br />

Gleichverteilung nur als Randerscheinung auf, doch in der Faserbildverarbeitung mit<br />

den geschilderten Randbedingungen kann der störende Einfluss von unregelmäßigen<br />

Verdeckungen und Mikroschattierung durch reine Filterung nicht behoben werden (s.<br />

dazu auch die Ausführungen in Abschn. 2.5.4). Zur Veranschaulichung zeigt Abbil-<br />

dung 2.7 einen typischen Effekt dieser Farbartefakte. Die Aufnahme entstand mit dem<br />

flexiblen Endoskop E6 (vgl. Tab. 4.1) bei einer Bildapertur von ca. 265 Pixel.


2.3. EIGENSCHAFTEN VON FASEROPTISCHEN SYSTEMEN 27<br />

(a) (b) (c)<br />

(d) (e) (f)<br />

Abbildung 2.7: (a) Aufnahme einer fiberskopisch abgebildeten Szene durch eine Einchip-<br />

Kamera mit Farbfiltermosaik (Bayer-Pattern). (b,c) Vergrößerte Ausschnitte zur Visualisierung<br />

der wabenartigen Struktur des Faserbündels und des typischen Effekts von Farbartefakten<br />

durch Abtastung. Die mittels linearer Filterung aufbereitete Aufnahme (d) zeigt z.B. in Aus-<br />

schnitten (e) und (f) diagonal gestreifte Farbartefakte.<br />

Die Literatur präsentiert spezielle Verknüpfungen von Algorithmen der Bildver-<br />

arbeitung mit dem Prinzip des Demosaicing. Ein passendes Beispiel hierfür ist die<br />

Auflösungssteigerung mit Super Resolution. Wird sie in Verbindung mit Farbbildsen-<br />

soren angewendet, so kann das Wissen um die Bildentstehung durch Demosaicing di-<br />

rekt in die Berechnung der hoch aufgelösten Zielbilder einfließen. Farsiu et al. zeigen<br />

in [FEM06], dass sich dies vorteilhaft gegenüber einer separaten Anwendung (d.h.<br />

zuerst Demosaicing und anschließend Super Resolution) auswirkt. Die Verknüpfung<br />

von Demosaicing mit der speziellen Abbildung von Faserbündeln wird bislang in der<br />

Literatur nicht erwähnt und stellt damit einen wesentlichen Beitrag dieser Arbeit dar.<br />

Die vielversprechenden Ergebnisse bestätigen die Relevanz der Anwendung für diesen<br />

Bereich.


28 2.4. METHODEN DER BILDAUFBEREITUNG FÜR DIE ENDOSKOPIE<br />

2.4 Methoden der Bildaufbereitung für die Endoskopie<br />

2.4.1 Geometrische Kalibrierung und Entzerrung<br />

In Abschnitt 2.3.3 wurde der Einsatz von Optiken mit kurzer Brennweite für die En-<br />

doskopie motiviert. Aufgrund der starken tonnenförmigen Verzerrung spielt für eine<br />

metrische Nutzung von endoskopischen Bildern eine geeignete Entzerrung eine ent-<br />

scheidende Rolle (vgl. Abb. 2.8). Der Einfluss und die positiven Auswirkungen ei-<br />

ner Entzerrung auf die digitale Weiterverarbeitung von fiberskopischen Bildern wer-<br />

den u.a. in [WR07] untersucht. Rupp et al. konnten in [RWE06a] und [RWW06] eine<br />

quantitative Aussage über die Leistungsfähigkeit von Entzerrungsalgorithmen für den<br />

Anwendungsbereich der Endoskopie liefern. Dabei wurde nachgewiesen, dass sich der<br />

Kalibrierfehler nach faseroptischer Übertragung in etwa um den Faktor erhöht, um den<br />

die Auflösung durch die Faserabtastung reduziert wird. Eine messbare Auswirkung<br />

auf die Präzision durch eine zusätzliche tangentiale Entzerrung oder mehr als zwei<br />

Polynomfaktoren bei der radialen Entzerrung konnte nicht nachgewiesen werden. Es<br />

ist davon auszugehen, dass ein möglicher Effekt zwar durch weitere Untersuchungen<br />

nachweisbar wird, jedoch deutlich unterhalb der Größenordnung anderer Fehlerquel-<br />

len liegt.<br />

Die vorliegende Arbeit nutzt die Bilddaten im metrologischen 17 Sinn nur für eine<br />

Bewegungsschätzung von Merkmalen in Bildsequenzen zur Raumrekonstruktion und<br />

der damit möglichen Beurteilung der Aufbereitungsgüte anhand dieser Ergebnisse. Für<br />

diese Anwendungen müssen die Bilddaten verzerrungsfrei dargestellt werden. Auf die<br />

übrigen Auswertungen haben diese geometrischen Beeinträchtigungen keine Auswir-<br />

kung bzw. können sie durch geeignete Bearbeitungsschritte eines Abbildungsmodells<br />

umgangen werden.<br />

Zur 3D-Rekonstruktion wird die Software SynthEyes von Andersson Technologies<br />

[And07] eingesetzt. Sie erlaubt die räumliche Rekonstruktion einer Objektszene aus<br />

der zeitlichen Abfolge von monokularen Einzelaufnahmen. Zu diesem Zweck verfolgt<br />

sie markerlose 18 Objektpunkte in der Szene, analysiert daraus die Bewegung des Ka-<br />

merapfads und rekonstruiert die Position, insbesondere die Tiefe der Objektpunkte.<br />

Für die Vorverarbeitung der Bilddaten nutzt sie neben einer Helligkeits-, Kontrast- und<br />

Farbanpassung ein elliptisches Verzerrungsmodell [And05], das über den Verzerrungs-<br />

parameter ρ (in der Software unter dem Symbol k geführt) den folgenden Zusammen-<br />

17 Metrologie: Lehre von den Maßen, den Gewichten und den Maßsystemen.<br />

18 Markerlos: Ohne künstliche Kennzeichnung, z. B. durch Klebemarken


2.4. METHODEN DER BILDAUFBEREITUNG FÜR DIE ENDOSKOPIE 29<br />

(a) (b)<br />

Abbildung 2.8: Endoskopisch erfasste Aufnahme eines Schachbrettmusters zur Kalibrierung<br />

mit starker radialer Verzerrung (a). Anwendung des Algorithmus aus der freien Bibliothek von<br />

Intel [Int01] zur Entzerrung der Abbildung (b).<br />

hang zwischen unverzerrten Koordinaten (u, v) T und verzerrten Koordinaten (ũ, ˜v) T<br />

herstellt:<br />

<br />

ũ<br />

˜v<br />

= 1 + ρ · (γ 2 u 2 + v 2 <br />

u<br />

)<br />

v<br />

. (2.1)<br />

Der Parameter γ berücksichtigt das Abmessungsverhältnis der Sensorelemente, die<br />

das Bild abtasten, meist ist γ = 1. Zur Vereinfachung der Abbildungsgleichung wird<br />

angenommen, dass sich der optische Mittelpunkt im Zentrum des Bilds befindet. Für<br />

eine gegebene, durch Verzerrung beeinflusste Position (ũi, ˜vi) T wird iterativ, z. B. durch<br />

Minimierung des mittleren quadratischen Fehlers eine unverzerrte Koordinate (ui, vi) T<br />

approximiert:<br />

<br />

ui<br />

vi<br />

<br />

= argmin<br />

(u,v))<br />

<br />

<br />

<br />

ũ(u, v)<br />

−<br />

˜v(u, v)<br />

<br />

ũi<br />

˜vi<br />

<br />

2<br />

. (2.2)<br />

Zur Beschleunigung der Berechnung können die Ergebnisse z. B. für eine lineare oder<br />

kubische Interpolation in Form einer Lookup-Tabelle 19 bereitgehalten werden.<br />

In der Literatur finden sich zahllose weitere Ansätze zur geometrischen Kalibrie-<br />

rung von Kamerasystemen. Viele verwenden das Lochkameramodell 20 und unterschei-<br />

den sich lediglich in der intrinsischen Parametrisierung und den Verfahren zur Op-<br />

timierung. Tsai stellte bereits vor drei Jahrzehnten einen Ansatz vor, um handelsüb-<br />

liche Kameramodelle für metrologische Anwendungen einzusetzen [Tsa86, Tsa87].<br />

19Lookup-Tabelle: Vorgehen zur schnellen Bereithaltung von Zwischenergebnissen, indem Funktionswerte<br />

vorab ermittelt und im Speicher als Tabelle abgelegt werden.<br />

20Lochkameramodell: Abbildungsmodell, das von der verzerrungsfreien perspektivischen Projektion<br />

von Punkten einer Szene durch das optische Zentrum einer Kamera auf die Bildebene ausgeht.


30 2.4. METHODEN DER BILDAUFBEREITUNG FÜR DIE ENDOSKOPIE<br />

Das mittlerweile etablierte Vorgehen bestimmt durch eine effiziente Berechnung die<br />

Kameraposition und -orientierung (extrinsische Parameter) in einem Referenzkoordi-<br />

natensystem der beobachteten Objekte und berechnet Schätzwerte für die Brennwei-<br />

te und radiale Verzerrungen des Abbildungsmodells (intrinsische Parameter). Durch<br />

kombinierte Berechnung von intrinsischen und extrinsischen Parametern arbeitet der<br />

Algorithmus bei vergleichbarer Präzision ebenso stabil und dabei deutlich schneller,<br />

als vergleichbare Verfahren. Zhang und Helferty et al. beschreiben praktikable Vor-<br />

gehensweisen zur robusten Kalibrierung von Kamerasystemen und wenden ihre Ver-<br />

fahren auch auf den Bereich der starren Endoskopie an [Zha00, HZMH01]. Nach ei-<br />

ner geschlossen darstellbaren Initialisierung erfolgt eine statistische Optimierung über<br />

ein Maximum-Likelihood Kriterium. Heikkilä modelliert zusätzlich die perspektivi-<br />

sche Verzerrung von Merkmalen in der Szene, um bei deren Registrierung eine höhere<br />

Genauigkeit zu erzielen [HS96]. Smith et al. [SVM92] untersuchen den Einfluss der<br />

radialen Verzerrung in endoskopischen Bildern auf das Größenverhältnis von Objekten<br />

in Randbereichen der Apertur.<br />

2.4.2 Daten- und wissensgetriebene Algorithmen<br />

Die meisten integrierten Endoskopiesysteme im klinischen und industriellen Einsatz<br />

beinhalten eine rudimentäre Bildverarbeitung, um das Bild auf einem angeschlosse-<br />

nen Monitor für den Betrachter angenehm darzustellen. Dazu zählen die Anpassung<br />

von Helligkeit und Kontrast und die Balance der Farbzusammensetzung. Vogt et al.<br />

[VKNS03, Vog06] und Fischer et al. [FVLS04] gehen in ihren weiterführenden Arbei-<br />

ten zur Artefaktreduktion auch auf Reflexionen, Überbelichtung und dunkle Bildrän-<br />

der ein. Die Ausblendung, Dämpfung oder Aufhellung kann in Echtzeit durchgeführt<br />

werden, nachdem ein Initialisierungsschritt die Bildbereiche, die einer Korrektur be-<br />

dürfen, identifiziert hat und in einer Lookup-Tabelle bereithält. Die genannten Algo-<br />

rithmen beziehen die Information zur Steuerung der Aufbereitung ausschließlich aus<br />

den Bilddaten und werden deshalb zur Klasse der datengetriebenen Algorithmen zu-<br />

sammengefasst.<br />

Sog. wissensgetriebene Algorithmen bringen zur Aufbereitung von Einzelbildern<br />

szenenbasiertes Zusatzwissen ein. Dies kann beispielsweise Information über die Ob-<br />

jektgeometrie, Strukturinformation zur Kantenerhaltung oder die adaptive Gewichtung<br />

bei der Erhaltung von Details sein. Entscheidend für den Einsatz derartiger Algorith-<br />

men ist die zuverlässige Charakterisierung von Bildinhalten und die Sicherheit, dass<br />

dieses Vorwissen sich über den Zeitraum der Anwendung nicht ändert. Sonst ist eine<br />

adaptive Anpassung notwendig und die Komplexität steigt unverhältnismäßig an.


2.5. BILDRESTAURIERUNG FASEROPTISCHER EINZELAUFNAHMEN 31<br />

2.5 Bildrestaurierung faseroptischer Einzelaufnahmen<br />

Die bei der faseroptischen Übertragung durch Unter- und Überabtastung hervorgeru-<br />

fene Rasterstruktur kann zwar im Okular bei kleiner Apertur vom menschlichen Auge<br />

kompensiert werden, führt jedoch bei der digitalen Weiterverarbeitung der Bilddaten,<br />

z. B. zur räumlichen Rekonstruktion, zu erheblichen Fehlern. Dies hängt maßgeblich<br />

mit der Verarbeitung von Strukturen in Bildern zusammen, wobei sich Algorithmen<br />

aus der Computergrafik stark an der menschlichen Wahrnehmung orientieren. So wer-<br />

den Objektmerkmale in Bildern meist anhand ihrer Kontrast- oder Farbverhältnisse zur<br />

Umgebung lokalisiert und charakterisiert. Da die Faserstruktur selbst starke Kontraste<br />

in endoskopisch erfassten Bildern erzeugt, verfälscht und beeinträchtigt sie die compu-<br />

tergestützte Auswertung. Zur Verbesserung werden in der Literatur mehrere Ansätze<br />

genannt, von denen die wichtigsten hier im Überblick kritisch erläutert werden. Grund-<br />

legend werden die Verfahren nach ihrem Signalraum unterschieden, wobei nach einer<br />

rein optischen Vorgehensweise des Weichzeichnens zunächst in Abschnitt 2.5.2 der<br />

Ortsraum (oder auch Bildraum genannt) und anschließend in Abschnitt 2.5.3 der Orts-<br />

frequenzraum (kurz Frequenzraum) behandelt wird. Beide haben ihre Berechtigung,<br />

bietet doch jeder seine eigenen Vorzüge, wie Bearbeitungsgeschwindigkeit, Komplexi-<br />

tät des Algorithmus oder Toleranz gegenüber optischen Beeinträchtigungen. Abschlie-<br />

ßend wird mit Abschnitt 2.5.4 die eigenen Lösungsvorschläge motiviert, indem an-<br />

schaulich erläutert wird, welchen Schwierigkeiten eine herkömmliche Farbbildverar-<br />

beitung im Kontext der Faserbildrestaurierung ausgesetzt ist.<br />

2.5.1 Optisches Weichzeichnen<br />

An der Spitze des Endoskops wird das Abbild der Szene durch das Glasfaserbündel<br />

abgetastet. Die Filterung versucht, das so abgetastete Signal am Ende wieder zu re-<br />

staurieren. Um Alias 21 zu vermeiden, muss sichergestellt werden, dass eingangsseitig<br />

das Kriterium des Abtasttheorems erfüllt ist, d.h. das Bildsignal muss bandbegrenzt<br />

sein oder werden. In der Optik wird dies durch Weichzeichnen erreicht. Statt einer<br />

möglichst hoch aufgelösten Szene wird bewusst eine niedrigere Schärfe in Kauf ge-<br />

nommen, um Artefakte in der Rekonstruktion zu vermeiden. Weichzeichnung wird<br />

optisch auf zweierlei Weise erreicht:<br />

21 Alias oder Alias-Effekt: Fehler, die durch Verletzung des Abtasttheorems beim digitalen Abtasten<br />

von Signalen auftreten


32 2.5. BILDRESTAURIERUNG FASEROPTISCHER EINZELAUFNAHMEN<br />

Kamerafilter Eine pragmatische Lösung für Studioaufnahmen ist eine Glasschei-<br />

be, die angehaucht oder mit Vaseline bestrichen wurde. Der Effekt der Lichtstreu-<br />

ung erzeugt den Weichzeichner-Effekt, allerdings ist die Wiederholbarkeit des Effekts<br />

schwierig. Besser reproduzierbare Ergebnisse gelingen mit konfektionierten Filtern,<br />

die den Effekt durch strukturiertes angeschliffenes Glas erzielen, z. B. das Soft-FX-<br />

Filter oder das Pro-Mist-Filter [The07]. Diffusionsfilter und Pastellfilter haben einen<br />

bildweiten streuenden Effekt und dämpfen den Kontrast zwischen Hell und Dunkel.<br />

Spezielle Optiken Es gibt für den Zweck des Weichzeichnens spezielle Objektive,<br />

die sich den sonst unerwünschten Effekt der sphärischen Abberation zu Nutze machen.<br />

Wird dieser bei Objektiven übliche optische Abbildungsfehler nicht hinreichend korri-<br />

giert, so wird das eigentlich scharfe Abbild von einem unscharfen überlagert. Namhaf-<br />

te Vertreter sind das Imagon von Rodenstockite [Rod07], die DC-Nikkore 22 von Nikon<br />

[Nik07] oder das Varisoft von Minolta [Kon07].<br />

In der Dramaturgie [Das07] wird Weichzeichnen genutzt, um Einstellungen oder<br />

Sequenzen als Gedanken, Rückblick, Traum, oder Vergangenheit für den Beobachter<br />

sichtbar zu kennzeichnen. Für den Betrachter meist unbemerkt können auf diese Weise<br />

mit sanfter Einstellung bei Nahaufnahmen Altersfältchen in unruhiger Haut verborgen<br />

werden.<br />

2.5.2 Verfahren zur Rasterreduktion im Ortsraum<br />

Kalibrierung inkohärenter Bildbündel Bildbündel aus modernen Fertigungen zei-<br />

gen eine 100%-ige Kohärenz in der Anordnung ihrer Einzelfasern. Bevor diese Pro-<br />

duktionstechnik derart zuverlässig ausgereift war, wurden Verfahren zur Kalibrierung<br />

von lichtleitenden Faserbündeln entwickelt. Kalibrierung bezeichnet in diesem Fall die<br />

Zuordnung von eingangsseitigen zu ausgangsseitigen Bildfasern. Über eine Lookup-<br />

Tabelle können daraufhin die Abbildungen aus den übertragenen Bildpunkten rekon-<br />

struiert werden. Eikelmann et al. [EKP93] stellen für den Einsatz von Faserendoskopen<br />

in der Automatisierungstechnik einen semiautomatischen Ablauf dieser Kalibrierung<br />

vor. Das Verfahren zeigt seine Stärken in der Verwendung beliebiger Lichtleiter als<br />

Bildleiter (vgl. Abb. 2.9(a)), berücksichtigt allerdings keine subpixelgenaue 23 Lokali-<br />

sierung der Faserzentren. Trotzdem stellt es eine Variante dar, um unabhängig von der<br />

Wabenstruktur ein faseroptisches Abbild zu rekonstruieren.<br />

22 DC-Nikkore: Defocus Image Control, Nikkore mit gezielter Defokussierung<br />

23 subpixelgenau: Der Begriff wird hier für Berechnungen verwendet, die eine höhere Präzision als<br />

das Pixelraster verwenden.


2.5. BILDRESTAURIERUNG FASEROPTISCHER EINZELAUFNAHMEN 33<br />

(a) (b)<br />

(c) (d)<br />

Abbildung 2.9: (a) Schematische Skizze eines inkohärenten lichtleitenden Faserbündels (Abb.<br />

aus [EKP93]). (b) Ungeordnetes Abbild einer Geldmünze durch ein inkohärent lichtleitendes<br />

Faserbündel. (c) Geordnetes Abbild (107 × 107 Pixel) durch das kalibrierte Bildbündel. (d)<br />

Geordnetes Abbild (989 × 992 Pixel) mit flächenanteiliger Verteilung der Faserhelligkeiten.<br />

(Abb. (b-d) aus [Bro00])<br />

Optoelektronische Registrierung von Fasern Aufbauend auf der gerade vorge-<br />

stellten Arbeit präsentiert Bröcher [Bro00] ein verbessertes optoelektronisches Ver-<br />

fahren zur Registrierung der Fasern. Zur Zuordnung der Fasern wird eine automatische<br />

Streifenlichtprojektion mit binärer Codierung eingesetzt, welche den Aufwand der se-<br />

miautomatischen Kalibrierung von einer Stunde auf wenige Minuten reduziert. Dem<br />

Unterschied zwischen der hexagonalen Anordnung der Fasern und dem kartesischen<br />

Koordinatensystem des Bildsensors wird Rechnung getragen, indem die Faserinten-<br />

sitäten flächenanteilig auf ein Pixelgitter verteilt werden. Diese Art der Interpolation<br />

zeigt visuell zufriedenstellende Ergebnisse und wirkt sich im Fall ungenau geordneter<br />

Bildleiter positiv auf die wahrgenommene Bildqualität aus (vgl. Abb. 2.9 (b-d)). Die<br />

Nachteile ergeben sich aus dem nach wie vor hohen Aufwand der optoelektronischen


34 2.5. BILDRESTAURIERUNG FASEROPTISCHER EINZELAUFNAHMEN<br />

Registrierung und Indizierung der Fasern sowie der Ungenauigkeit in der Bestimmung<br />

der Faserposition.<br />

Interpolation in hexagonaler Arithmetik Die Anordnung von Glasfasern im Quer-<br />

schnitt eines Bildbündels zeigt eine homogene hexagonale Struktur. Deshalb liegt es<br />

nahe, mathematische Operationen direkt auf den gewonnenen strukturierten Bildern<br />

auszuführen, ohne vorher die Information in eine kartesische Darstellung zu inter-<br />

polieren. Die Vorteile im Bereich Repräsentation, Auflösung und Darstellbarkeit von<br />

Strukturen werden in mehreren Arbeiten genannt [KPS89, Nel89, Ehr93]. Bereits in<br />

den 80er Jahren wurden einfache Filter für hexagonale Strukturen entworfen und z. B.<br />

für hexagonal angeordnete Kamerasensoren vorgeschlagen [BCR + 01].<br />

Hexagonale Arithmetik könnte sich zur Beschleunigung von einzelnen Teilschritten<br />

in der Bildverarbeitung für Faserendoskope eignen, z. B. der Transformation in einen<br />

Frequenzraum [Ehr93], sofern die hexagonalen Bilddaten direkt von einem geeigneten<br />

Sensorchip abgegriffen werden. Allerdings wird kein bahnbrechender Vorteil erwar-<br />

tet, da die Komponenten, die für eine direkte hexagonale Abtastung, Verarbeitung und<br />

Darstellung benötigt werden, komplexer und deutlich teurer sind. Aus den genannten<br />

Nachteilen wird die hexagonale Arithmetik in den Algorithmen dieser Arbeit nicht<br />

weiter in Betracht gezogen.<br />

2.5.3 Ansätze zur Rasterreduktion im Ortsfrequenzraum<br />

Die Literatur kennt vielfältige Verfahren, störende Strukturen aus Bildern zu entfer-<br />

nen. Janssen [Jan00] gibt in seiner Arbeit einen Überblick über elementare Methoden<br />

zur Rasterreduktion. Diese umfassen parametrisierte Rechteckmasken, Bandpassfil-<br />

ter, Auflösungspyramiden und einen multidimensionalen Diffusionsalgorithmus. Die<br />

letzteren beiden wurden für spezielle Anwendungen zur faseroptischen Überwachung<br />

von Strömungsprozessen entworfen, lassen sich jedoch nicht direkt für die Fibersko-<br />

pie anwenden. Die genannten Verfahren sind stets auf eine manuelle Parametrisierung<br />

ausgelegt und erfordern deshalb entweder eine mehr oder weniger komplexe Initia-<br />

lisierungsphase oder liefern nur suboptimale Ergebnisse für verschiedene Typen von<br />

Endoskopen.<br />

Die Arbeiten von Dickens et al. [DHMB97, DHMB99] stehen dem Vorgehen zur<br />

spektralen Filterung nahe. In [DBM98] wird dazu manuell das Fourier-Spektrum ana-<br />

lysiert und ein ellipsenförmiger Ring erstellt, der als Bandpassfilter den deutlich sicht-<br />

baren Ring der hohen Frequenzen dämpft (vgl. Abb. 2.10). Die Arbeit berücksich-


2.5. BILDRESTAURIERUNG FASEROPTISCHER EINZELAUFNAHMEN 35<br />

(a) (b) (c)<br />

Abbildung 2.10: (a) Endoskopischer Blick auf Testbild (aus [DBM98]) mit (b) zugehörigem<br />

Spektrum. (c) Vorschlag von Dickens et al. zur Erstellung einer Filtermaske, um bandpassbe-<br />

grenzt hochfrequente Wabenstruktur zu dämpfen.<br />

tigt dabei keine periodischen Wiederholungen der Spektren, die auch außerhalb des<br />

erstellten Filterrings zu Frequenzanteilen führen. Höhere Frequenzen, die in diesem<br />

Bereich auftreten, müssen aufgrund von Überlegungen zur maximalen Abtastfrequenz<br />

des Faserbündels (s. Abschn. 3.2.1.1) ebenfalls unterdrückt werden. Als Farbfilterung<br />

wird im herkömmlichen Sinn die separate gleichartige Bearbeitung der einzelnen Farb-<br />

kanäle beschrieben (der Problematik dieses Vorgehens zur Farbbildbearbeitung ist der<br />

nächste Abschnitt gewidmet).<br />

Aslan et al. [AKH + 99] evaluieren Methoden zur Bildaufbereitung in kommerzi-<br />

ellen Endoskopiesystemen. Der digital fiberscope filter, der die Wabenstruktur durch<br />

einfache Erweiterung der Faserpunkte im Bild reduziert, wird nicht näher beschrieben,<br />

weshalb ein algorithmischer Vergleich für diese Arbeit nicht in Betracht kommt.<br />

Zusammenfassend wird bemerkt, dass die beschriebenen Arbeiten nie die detail-<br />

lierte Beschreibung der Algorithmen mit einer wissenschaftlichen Bewertung anhand<br />

objektiver Kriterien verknüpfen. Die Ansätze zur Filterung ähneln dem Vorgehen die-<br />

ser Arbeit im Spektralbereich, jedoch wird dort nichts zum Thema Automatisierung<br />

zur Wahl geeigneter Parameter geschrieben. Außerdem wird der Unterschied in der Fa-<br />

serstruktur zwischen Quarz und Glas nicht adressiert und daher steht die Optimierung<br />

für die homogene Wabenstruktur eines Glasfaserbündels aus. Diese beiden Aspekte<br />

werden in Abschnitt 3.2.1 aufgegriffen.<br />

2.5.4 Methoden zur Farbbildverarbeitung<br />

Die Diagnose von Organen bzw. die Inspektion von Bauteilen erfolgt häufig über ei-<br />

ne Beurteilung von Oberflächen. Zu den charakteristischen Textureigenschaften zählt


36 2.5. BILDRESTAURIERUNG FASEROPTISCHER EINZELAUFNAHMEN<br />

Abbildung 2.11: Triviale Anwendung eines Einkanal-Algorithmus auf ein Farbbild.<br />

insbesondere die Farbe. Für zuverlässige Diagnosen und Schadensfeststellungen ist es<br />

daher wünschenswert, eine möglichst unverfälschende Farbabbildung zu gewährleis-<br />

ten. Die bisher in diesem Kapitel vorgestellten Ansätze zur Rasterreduktion verändern<br />

die Intensitätsinformation, d.h. sie bearbeiten primär Kontraste und Strukturen in Grau-<br />

wertbildern. Die Ansätze werden jedoch meist auch für die Farbbildbearbeitung einge-<br />

setzt. Dazu wird, wie in Abbildung 2.11 veranschaulicht das Farbbild Î in die einzelnen<br />

Kanäle ÎR, ÎG und ÎB seiner Grundfarben Rot, Grün und Blau getrennt. Jeder Farbkanal<br />

wird dann als statistisch unabhängiges Intensitätsbild vom Algorithmus bearbeitet und<br />

liegt danach in restaurierter Form IR, IG und IB vor. Das restaurierte Farbbild setzt sich<br />

dann wie gewohnt aus der Kombination der Einzelbilder zusammen: I = [IR; IG; IB].<br />

Für Algorithmen, die auf Intensitätsbildern basieren, ist dieses Vorgehen für die Er-<br />

weiterung von ein- auf mehrkanalige Bilddaten prinzipiell möglich. Allerdings werden<br />

auf diese Weise diverse Abtasteffekte, die zwischen Bildbündel- und Sensoranordnung<br />

auftreten, vernachlässigt.<br />

Abbildung 2.7 zeigt das Resultat für den Vorgang der Filterung anhand einer faser-<br />

optischen Darstellung des MATLAB-Symbols. Die Aufnahme (d) zeigt das Resultat<br />

nach Glättung mit einem separierbaren 11 × 11-Gauß-Filter mit der Impulsantwortma-<br />

trix<br />

[0.11 0.25 0.46 0.71 0.92 1.00 0.92 0.71 0.46 0.25 0.11] .<br />

Alle Kanäle wurden separat gefiltert und danach zum Farbbild zusammengesetzt. Um<br />

die Problematik dieses Vorgehens in der Bearbeitung von Faserbildern zu verdeut-<br />

lichen, zeigen (e) und (f) der Abbildung 2.7 vergrößerte Ausschnitte des gefilterten<br />

Bilds. Die Beeinflussung des Filterergebnisses durch die Farbartefakte macht sich in<br />

diesem Fall als grün- und rotstichige diagonale Streifen von links oben nach rechts<br />

unten bemerkbar.<br />

Die Ursache für diesen Effekt beschreibt Abschnitt 2.3.3. Sie liegt in der asyn-<br />

chronen Abtastung zwischen Bildbündel und Farbfilter und erzeugt einen verfälschten<br />

Farbeindruck in lokalen Strukturen des Bilds, der auch durch eine nachträgliche Glät-


2.6. AUFLÖSUNGSSTEIGERUNG IN BEWEGTEN BILDSEQUENZEN 37<br />

tung nicht kompensiert werden kann. Ohne Zusatzwissen über den Aufbau des Sensors<br />

und das Zusammenwirken der Abtastvorgänge von Bildbündel und Farbfiltermosaik<br />

kann dieser Effekt nicht behoben werden. Abschnitt 3.3 beschäftigt sich mit der asyn-<br />

chronen Abtastung zwischen Bildbündel und Farbfilter und entwickelt einen Ansatz,<br />

um die daraus resultierenden Farbartefakte gänzlich zu umgehen.<br />

2.6 Auflösungssteigerung in bewegten Bildsequenzen<br />

Super Resolution 24 werden in der Bildverarbeitung Techniken genannt, die dabei hel-<br />

fen, die Auflösung von Bildern zu erhöhen. Im Gegensatz zu Algorithmen, die auf<br />

Einzelbildern arbeiten und in dieser Arbeit als statisch bezeichnet werden, erreichen<br />

jene dynamischen Verfahren ihr Ziel durch eine geschickte Kombination und Nutzung<br />

von Information zeitlich benachbarter und örtlich versetzter Bilder, in denen geeignete<br />

Bewegung vorhanden ist. Der Ausdruck dynamisch betont zugleich einen wesentli-<br />

chen Einflussfaktor, nämlich die variierende Anzahl von Einzelbildern, die zur Rekon-<br />

struktion des hoch aufgelösten Bilds herangezogen werden. Im Sprachgebrauch der<br />

Signalverarbeitung steht statisch auch für eine Intraframe-Codierung, also innerhalb<br />

eines Bilds und dynamisch für eine Interframe-Codierung, die also zwischen meh-<br />

reren Bildern stattfindet. In der Praxis werden Interframe-Verfahren meist mit einer<br />

Intraframe-Bearbeitung verknüpft.<br />

Die meisten Ansätze für Super Resolution sind dafür ausgelegt, die Größe von Bil-<br />

dern von ihrer ursprünglichen Größe N × M um einen definierten Faktor r auf rN × rM<br />

zu erhöhen. Die zugrunde liegenden Verfahren dürfen dabei nicht mit dem trivialen<br />

Vervielfachen oder der bilinearen oder bicubischen Interpolation von Bildpunkten ver-<br />

wechselt werden. Die letztgenannten Operationen zur Streckung eignen sich zwar zur<br />

Vergrößerung eines Bilds, sie erhöhen jedoch nicht seine tatsächliche Auflösung.<br />

Nachdem die technischen Grenzen einer Auflösungssteigerung durch Modifikati-<br />

on der Hardware, also des Kamerachips, sowie die Bedeutung der Bewegung als In-<br />

formationsquelle für Super Resolution erörtert sind, fasst dieses Kapitel die derzei-<br />

tigen Verfahren zusammen, die zur Auflösungssteigerung eingesetzt werden. Da die<br />

Einschränkungen für die Klasse der Frequenzraumverfahren und einiger Ortsraumver-<br />

fahren unter Berücksichtigung globaler Bewegung für die Endoskopie nicht getroffen<br />

werden können, wird abschließend die Idee der lokalen Ergänzung von Bildinhalten<br />

24 Super Resolution: Verfahren zur Erhöhung der Auflösung in bewegten Bildsequenzen


38 2.6. AUFLÖSUNGSSTEIGERUNG IN BEWEGTEN BILDSEQUENZEN<br />

beschrieben, die im eigenen Beitrag als praktikable Erweiterung der Interpolation von<br />

faseroptisch gewonnenen Bilddaten ausgeführt wird.<br />

2.6.1 Technische Grenzen<br />

Eine charakteristische Kenngröße von digitalen Kamerasensoren ist die Auflösung.<br />

Sie bezeichnet die Anzahl an fotosensitiven Elementen, mit denen eine Szene abge-<br />

tastet und als digitale Bildinformation gespeichert wird. Die Idee liegt nahe, einfach<br />

die Pixelgröße des Sensors ausreichend zu verkleinern. Auf einem Sensor mit einer<br />

bestimmten Ausdehnung finden so beliebig viele Elemente Platz und die Auflösung<br />

erreicht das gewünschte Maß. Leider reduziert die Miniaturisierung die Lichtmenge,<br />

die pro Sensorelement ausgewertet werden kann und vermindert damit das Signal-zu-<br />

Rausch-Verhältnis, was die Qualitätssteigerung schwächt oder gar kompensiert. Auch<br />

eine verlängerte Belichtungszeit löst das Problem nicht, da die Schärfe von bewegten<br />

Szenen auf eine kurze Abtastzeit angewiesen ist. Die heute erreichte Pixelabmessung<br />

von 40µm 2 wird als theoretisches Optimum für den sichtbaren Spektralbereich gese-<br />

hen.<br />

Eine Vergrößerung der Sensorfläche, um mehr Elemente unterzubringen, stößt auf<br />

zwei gravierende Probleme. Elektronisch gesehen führt sie zu einer Erhöhung der Auf-<br />

nahmekapazität und somit zu einer langsameren Ladungstransferrate beim Auslesen.<br />

Die Folge ist, wie bei der Belichtungszeit, eine steigende Unschärfe in der Darstel-<br />

lung. Optisch begrenzen geometrische Abbildungsfehler eine beliebige Vergrößerung<br />

der Sensorfläche. Der Effekt der Bildfeldwölbung tritt in der flexiblen Faserendoskopie<br />

sowohl an der distalen Optik als auch am Okular auf, wo die Abbildung über den Glas-<br />

Luft-Übergang auf das planparallel geschliffene Bildbündel erfolgt. Aufgrund des ho-<br />

hen technischen Aufwands sind keine Bestrebungen bekannt, beispielsweise mit einer<br />

Planfeldoptik die Bildfeldwölbung zu reduzieren.<br />

2.6.2 Bewegung als Informationsquelle<br />

Das Prinzip von Super-Resolution Verfahren wird bei genauerer Betrachtung des Ent-<br />

stehungsprozesses der degradierten Aufnahmen deutlich. Im Fall globaler Bewegung<br />

werden dazu mit Hilfe eines einfachen, dynamischen Beobachtungsmodells unter-<br />

schiedliche Störungen und physikalische Einflüsse nachgebildet, welche die Bildquali-<br />

tät negativ beeinflussen [FREM04b, PPK03]. Für die mathematische Beschreibung der<br />

Abbildung gehören dazu Rotation, Translation, Verzerrung, Unschärfe durch Bewe-


2.6. AUFLÖSUNGSSTEIGERUNG IN BEWEGTEN BILDSEQUENZEN 39<br />

gung oder falsches Fokussieren, Diskretisierung, Unterabtastung und Rauschen. Meist<br />

wird davon ausgegangen, dass die Verzerrung, die Unschärfe, sowie die Diskretisie-<br />

rung und Unterabtastung über die Sequenz konstant bleiben. Super Resolution ver-<br />

sucht nun, diesen Prozess rückwärts zu gehen. Ausgehend von einer Menge niedrig<br />

aufgelöster (Low resolution: LR-)Bilder LR Î soll die ursprüngliche Szene in Form des<br />

hochaufgelösten (High resolution: HR-)Bilds HR I annähernd restauriert werden. Typi-<br />

scherweise arbeiten die Algorithmen in drei Teilschritten.<br />

1. Zunächst werden die vorliegenden LR-Bilder in Bezug auf ein Referenzbild re-<br />

gistriert,<br />

2. anschließend wird im zweiten Schritt das HR-Bild aufgebaut, bevor<br />

3. abschließend der Unschärfeeffekt rückgängig gemacht wird und gegebenenfalls<br />

auftretende Rauscheffekte vermindert werden.<br />

Schritt zwei und drei sind algorithmisch häufig kaum zu trennen und unterscheiden<br />

sich stark je nach Lösungsansatz, wie später in den Abschnitten 2.6.4 und 2.6.5 im<br />

Überblick gezeigt wird. Zur Reduktion des Unschärfeeffekts in den LR-Eingangsbil-<br />

dern oder zur nachträglichen Verbesserung von kombinierten HR-Bildern eignet sich<br />

eine Wiener-Filterung unter Berücksichtigung oder Schätzung der Punktantwortfunk-<br />

tion des Abbildungssystems [EHO01].<br />

Besondere Beachtung findet an dieser Stelle der Registrierungsschritt (1.), dessen<br />

Ziel eine möglichst genaue Bestimmung der Bewegung zwischen zwei aufeinanderfol-<br />

genden Aufnahmen der Szene und damit der Parameter der Bewegung ist. Je nach Pro-<br />

blemstellung können unterschiedliche Bewegungsmuster vorliegen. Sie reichen von<br />

globalen linearen Bewegungen bis hin zu komplexen, lokal variierenden Zusammen-<br />

hängen. Die Registrierung ist dabei gleichzusetzen mit einer Bewegungskompensation<br />

mehrerer Bilder und spielt nicht nur als entscheidende Informationsquelle für die Auf-<br />

lösungssteigerung eine tragende Rolle. Auch zahlreiche andere Anwendungsgebiete in<br />

der Endoskopie, wie beispielsweise die Sichtstabilisierung oder die Objektverfolgung<br />

können davon profitieren:<br />

Stabilisierung der Sicht Eine dynamische Bewegungskompensation ermöglicht die<br />

automatische Nachführung von Objekten in einem Bildausschnitt oder die Reduzie-<br />

rung von menschlichen Zitterbewegungen. Die Information für die Stabilisierung des<br />

Sichtbereichs wird dazu ausschließlich aus der Bildfolge gewonnen und bedarf daher<br />

keiner weiteren mechanischen Konstruktionen oder Sensoren. Eine Übersicht zu An-<br />

wendungen in der Endoskopie findet sich in [Ort03, KWL05].


40 2.6. AUFLÖSUNGSSTEIGERUNG IN BEWEGTEN BILDSEQUENZEN<br />

Objekterkennung und -verfolgung Zahlreiche Anwendungen, wie beispielsweise<br />

Überwachungseinrichtungen oder Objektidentifizierung nutzen Algorithmen zur Ob-<br />

jekterkennung und -verfolgung. Dabei ist es wichtig, die Position eines Merkmals über<br />

mehrere Bilder hinweg stabil orten und zuordnen zu können. In der Endoskopie gibt es<br />

Ansätze, diese Technik für optische Positionier- und Greifeinrichtungen einzusetzen.<br />

Die gemeinsame kritische Anforderung der beiden Anwendungsfelder ist die sta-<br />

bile Registrierung von zeitlich versetzten Bildausschnitten, meist basierend auf einer<br />

robusten Detektion und Verfolgung von Merkmalen. Viele renommierte Artikel bestä-<br />

tigen diese Aussage in den folgenden oder ähnlichen Worten:<br />

[...] the performance of motion estimation is of paramount importance<br />

[...]. In fact, we offer the observation that difficulties in estimating moti-<br />

on represent the limiting factor in practical Super-Resolution. [...] incor-<br />

rect estimates of motion have disastrous implications on overall Super-<br />

Resolution performance.<br />

Farsiu et al. [FREM04a]<br />

The key to exploiting these multiple frames is accurate knowledge of<br />

the subpixel registration parameters for each frame. If the images are se-<br />

verely undersampled, we have found that traditional motion estimation<br />

techniques [...] may not provide the desired subpixel accuracy.<br />

Hardie et al. [HBA97]<br />

The motion parameters (projective model) of each frame with respect<br />

to a chosen reference are assumed to be known [...]<br />

Lertrattanapanich [LB02]<br />

Viele Autoren umgehen beim Entwurf ihrer Algorithmen diesen kritischen Aspekt, in-<br />

dem sie von einem bekannten Bewegungsmodell oder von bekannten Bewegungsvek-<br />

toren zwischen den Bildern ausgehen. Im Rahmen dieser Arbeit konnte die Schätzung<br />

und Präzision von Bewegungsparametern zwischen faseroptisch abgetasteten Aufnah-<br />

men untersucht werden und als Vorwissen in sequenzbasierte Ansätze eingebracht wer-<br />

den. Für die Auflösungssteigerung kommen im wesentlichen zwei Arten von Bewe-<br />

gungen in Frage:


2.6. AUFLÖSUNGSSTEIGERUNG IN BEWEGTEN BILDSEQUENZEN 41<br />

Mechanisch vorgegebene Bewegung Werden Bilder mit gebräuchlichen Einchip-<br />

Farbkameras aufgenommen, so leidet deren Auflösung unter der Farbfilterung der ein-<br />

zelnen Sensorelemente (vgl. Abschn. 2.3.2). Um diesen Verlust zu umgehen, stellt<br />

Howell eine Vorrichtung vor [HGN03], die den Kamerasensor mittels einer piezoelek-<br />

trisch verfahrbaren Minibühne um jeweils einen Pixel versetzt, um die verdeckten Bild-<br />

punkte einer bestimmten Farbe zu detektieren anstatt sie zu interpolieren. Diese Idee<br />

wird von weiteren Erfindern aufgegriffen und erweitert [BEZN05, Dum98], jedoch<br />

setzt der Einsatz einer solchen Hardware an der Spitze des Endoskops stets eine ge-<br />

wisse Baugröße voraus, was gegen die Nutzung und den Einsatz von Mikroendoskopen<br />

zur Inspektion von Hohlräumen mit minimalem Zugang spricht. Am proximalen En-<br />

de des Faserendoskops macht eine mechanische Vorrichtung zur Auflösungssteigerung<br />

keinen Sinn, da die Anzahl an Bildpunkten hier durch die Abtastung des Bildbündels<br />

begrenzt wird. Eine Verschiebung des Bildleiters gegenüber dem Kamerasensor bringt<br />

keinen Informationsgewinn.<br />

Natürliche und künstliche Eigenbewegung Der alternative Ansatz zur mechanisch<br />

vorgegebenen Bewegung ist die Nutzung der Eigenbewegung der Endoskopspitze.<br />

Diese existiert grundsätzlich durch die Vor-, Rück- und Seitwärtsbewegungen, kann<br />

aber auch zusätzlich bewusst herbeigeführt werden, indem das Endoskop z. B. mean-<br />

derförmig über die Szene bewegt wird. Ein weiterer Nutzen für diesen Zweck kann<br />

aus den sonst unerwünschten leichten Zitterbewegungen des Benutzers gezogen wer-<br />

den, die bei geeigneter zeitlicher Abtastung des Bilds Verschiebungen in der Größen-<br />

ordnung von Bruchteilen der Breite eines Pixel verursachen. Obwohl die Idee bei-<br />

spielsweise in einer Patentschrift der Mauna Kea Technologies als Möglichkeit zur<br />

Verbesserung verdeckter Faserbereiche genannt wird [AGF05], ist kein Hinweis auf<br />

eine mögliche Umsetzung für Anwendungen mit flexiblen Bildbündeln zu finden.<br />

2.6.3 Klassifikation der Verfahren<br />

Um im Gegensatz zur reinen Vergrößerung von Abbildungen durch Interpolation eine<br />

tatsächliche Steigerung der physikalischen Auflösung zu erreichen, können mehrere<br />

Bilder zeitlich und / oder örtlich miteinander verknüpft werden. Die bekannten Ver-<br />

fahren lassen sich bis auf wenige Ausnahmen wiederum nach ihrem Signalraum, näm-<br />

lich dem Orts- bzw. dem Frequenzraum unterscheiden. Hanselmann [Han07b] bietet<br />

einen guten Überblick über die aktuellen Arbeiten, gleichwohl sein Schwerpunkt auf<br />

der Verbesserung von Mikroskopiesystemen liegt und deshalb einige Annahmen über<br />

die Bildgewinnung nicht auf den Bereich der Endoskopie übertragen werden können.


42 2.6. AUFLÖSUNGSSTEIGERUNG IN BEWEGTEN BILDSEQUENZEN<br />

Weiterhin bieten die übergreifenden Arbeiten von Borman et al. [BS98] und Park et al.<br />

[PPK03] einen guten Überblick. Für die genannten Kategorien werden im Folgenden<br />

die zugrunde liegenden Ideen in Kürze vorgestellt.<br />

2.6.4 Verfahren im Frequenzraum<br />

Für Methoden im Frequenzraum gelten gegenüber denen im Ortsraum zumeist eine<br />

Reihe von Einschränkungen. Besonders kritisch für die Endoskopie ist die Forderung<br />

nach ausschließlich globalen Translationsbewegungen parallel zur Bildebene, was hin-<br />

gegen für Systeme aus dem Bereich der Astronomie, der Satellitenkartographie oder<br />

auch der Mikroskopie gegeben ist. Weiterhin können Rauschen und Blurring ebenfalls<br />

nur global betrachtet werden und das Einbringen von a-priori-Wissen über das gesuch-<br />

te HR-Bild ist nur bedingt möglich. Andererseits sind Frequenzraummethoden sehr<br />

leicht parallelisierbar und demzufolge für zeitkritische Anwendungen interessant.<br />

Ein klassischer Ansatz für den Frequenzraum stammt von Tsai und Huang aus dem<br />

Jahr 1984 [TH84] mit dem Ziel der Verbesserung von Aufnahmen, die aus konstanter<br />

Höhe von Fotosatelliten aufgenommen wurden. Für die mathematische Formulierung<br />

der Problemstellung und Lösung sei der Leser auf die originale Arbeit verwiesen. In<br />

[KH96] wird die Idee des Algorithmus mit einer überlagerten Anordnung von Spek-<br />

tren des zu rekonstruierenden Signals im eindimensionalen Fall veranschaulicht. Das<br />

Verfahren nutzt drei Eigenschaften der Fourier-Transformation:<br />

1. Das Verschiebungstheorem, welches besagt, dass im Frequenzraum eine Trans-<br />

lation durch eine lineare Phasenverschiebung beschrieben wird.<br />

2. Die Transformationsbeziehung, welche einen Zusammenhang herstellt zwischen<br />

den Koeffizienten der (unbekannten) kontinuierlichen Fourier-Transformation<br />

des HR-Bildes und den Koeffizienten der (bekannten) diskreten Fourier-Trans-<br />

formation der LR-Bilder.<br />

3. Die Bandbegrenzung, unter deren Einhaltung diskret abgetastete Signale bis zu<br />

einer maximalen Frequenz wiederhergestellt werden können.<br />

Tekalp et al. [TOS92] erweitern das Frequenzraumverfahren um ein Rauschmo-<br />

dell und berücksichtigen eine realistische Abbildungsunschärfe beim Abtastvorgang.<br />

Der rekursive Ansatz von Kim et al. [KBV90] formuliert die Auflösungssteigerung als<br />

Lösung eines überbestimmten Gleichungssystems auf Basis der Methode der kleinsten


2.6. AUFLÖSUNGSSTEIGERUNG IN BEWEGTEN BILDSEQUENZEN 43<br />

Quadrate. Später wird dieses Verfahren noch robuster gegenüber Registrierungsfehlern<br />

formuliert [KBV93].<br />

Wavelets Eine weitere Klasse von Super-Resolutions-Algorithmen basiert auf der<br />

Wavelet-Theorie. Wavelets sind mathematische Basisfunktionen, auf deren Grundla-<br />

ge ein Signal in Frequenzkomponenten zerlegt werden kann. Im Gegensatz zu peri-<br />

odischen Transformationen und hier insbesondere der Kurzzeit-Fourier-Transforma-<br />

tion STFT 25 variiert die Wavelet-Transformation die Orts-Frequenz-Auflösung, zu der<br />

Gabor bereits 1946 seine Theorie zur Auflösungsunschärfe aufstellte. Bei größerer<br />

Bandbreite ist so eine detailliertere Ortslokalisierung möglich und umgekehrt, was<br />

schon eher der menschlichen Wahrnehmung entspricht. Für die lokale Analyse von<br />

Signalen mit vielen unperiodischen Kanten und Sprüngen erweist sich die Wavelet-<br />

Transformation daher oft als vorteilhaft [CM05]. Die Wavelet-Analyse zur Auflösungs-<br />

steigerung wird in [WJNZ03] im Speziellen für Anwendungen aus der Astronomie<br />

sowie in [NM00] mit einer eher allgemeinen Motivation in Hinblick auf die militäri-<br />

sche Aufklärung und die zivile Überwachung oder Fahrzeugerkennung untersucht. Als<br />

Überblick zur Wavelet-basierten Auflösungssteigerung sei zudem auf die Arbeit von<br />

Chan et al. [CCSS03] verwiesen.<br />

2.6.5 Verfahren im Ortsraum<br />

Die vielfältigen Möglichkeiten aufgrund ihrer Formulierungen führen zu einer ver-<br />

gleichsweise großen Zahl an Ortsraumverfahren. Darunter fallen die Interpolation, die<br />

Simulationsmethode, die iterative Rückprojektion sowie mengentheoretische und sto-<br />

chastische Methoden. Auf weitere hybride Verfahren als Kombination der genannten<br />

Ansätze wird wegen des Umfangs nicht eingegangen.<br />

Interpolation Eine naheliegende und verbreitete Herangehensweise an das Rekon-<br />

struktionsproblem im Ortsraum ist die Interpolation. Anders als beim trivialen Fall<br />

der Streckung werden hierzu mehrere registrierte Aufnahmen der vorliegenden LR-<br />

Sequenz kombiniert, um den Informationsgehalt des HR-Bilds zu erhöhen. Eine häu-<br />

fig genutzte Technik ist die sog. Nächste-Nachbarn-Interpolation (Abbildung 2.12).<br />

Dabei werden die Pixelwerte der LR-Bilder den HR-Pixeln zugeordnet, die ihnen<br />

nach Positionierung gemäß den Verschiebevektoren und Skalierung mit dem Vergröße-<br />

rungsfaktor am nächsten liegen. Konkret bedeutet dies, dass jedes LR-Pixel auf genau<br />

25 STFT: (Short time Fourier transform) Kurzzeit- oder auch gefensterte Fourier-Transformation


44 2.6. AUFLÖSUNGSSTEIGERUNG IN BEWEGTEN BILDSEQUENZEN<br />

Abbildung 2.12: Nächste-Nachbarn-Interpolation: Ein um ein Drittel Pixel in x-Richtung ver-<br />

schobenes LR-Bild und dessen Lage auf dem dreifach feineren HR-Gitter. Für das HR-Bild<br />

werden mehrere unterschiedlich verschobene LR-Bilder benötigt, hier neun.<br />

ein HR-Pixel Einfluss hat. Alternativ kann man die LR-Pixelwerte auch anteilig und<br />

gewichtet auf die HR-Pixel verteilen. Ein LR-Pixel hat in diesem Fall einen nach sei-<br />

nem Abstand gewichteten Einfluss auf mehrere HR-Pixel. Mit dieser Technik kann<br />

man mit relativ geringem Rechenaufwand vergleichsweise gute Bilder generieren. Ei-<br />

ner zeitkritischen Anforderung kommt zudem zu Gute, dass die Anzahl der verwen-<br />

deten LR-Pixel je nach zur Verfügung stehender Zeit gewählt werden kann und keine<br />

Gesamtlösung berechnet werden muss. Jedoch machen sich bei diesem Ansatz fehler-<br />

haft eingefügte Pixel durch stark erhöhtes Rauschen bemerkbar.<br />

Simulationsmethode Mit der Simulationsmethode wird, wie der Name schon sagt,<br />

auf Grundlage eines geschätzten HR-Bilds durch ein Abbildungsmodell ein mögliches<br />

LR-Bild simuliert. Dieses wird mit den tatsächlich aufgenommenen LR-Bildern ver-<br />

glichen. Anschließend wird das geschätzte HR-Bild sukzessive entsprechend dem bei<br />

der Simulation aufgetretenen Fehler angepasst. Das zugrunde gelegte Beobachtungs-<br />

modell nutzt meist die in Abschnitt 2.6.2 genannten Komponenten. Häufig wird durch<br />

einen Regularisierungsterm die Möglichkeit gegeben, zusätzliches a-priori-Wissen ein-<br />

zubringen. Die in der Literatur vorgeschlagenen Methoden unterscheiden sich haupt-<br />

sächlich in der Wahl dieses Regularisierungsterms und der Modellierung des Beobach-<br />

tungsmodells. Grundlegende Arbeiten mit diesem Ansatz stammen von Farsiu, Milan-<br />

far und Nguyen et al. [FREM04b, NMG01]. Hauptkritikpunkt dieser Ansätze ist die<br />

Uneindeutigkeit der gefundenen Lösungen, die beispielsweise von der initialen Bild-<br />

schätzung abhängig sind.<br />

Iterative Rückprojektion 1991 wurde von Irani und Peleg [IP91] der Ansatz Ite-<br />

rative Back Projection vorgeschlagen. Ähnlich zur Simulationsmethode werden auch<br />

hier auf Grundlage einer initialen Schätzung für das HR-Bild HR I mehrere LR-Bilder


2.6. AUFLÖSUNGSSTEIGERUNG IN BEWEGTEN BILDSEQUENZEN 45<br />

LR Îk erzeugt und die jeweiligen Differenzen zur Korrektur der Schätzung für HR I ver-<br />

wendet. Das Ziel, die Minimierung der Signalenergie des Fehlers, wird hier iterativ<br />

durchgeführt, wobei auch bei diesem Verfahren je nach Wahl des zugehörigen Ver-<br />

gleichsoperators unterschiedliche Ergebnisse erzielt werden können. Die Lösung ist<br />

nicht eindeutig und das Einbringen von a-priori-Wissen schwierig.<br />

Stochastische Verfahren Stochastische Verfahren begünstigen das Einbringung von<br />

a-priori-Wissen über die gesuchte Lösung. Das Super-Resolution-Problem wird da-<br />

bei üblicherweise als MAP 26 -Schätzer formuliert. Eine MAP-Schätzung bildet auf Ba-<br />

sis einer unabhängigen Menge an Stichproben Hypothesen für die zugrunde liegen-<br />

de Verteilung. Als Lösung wird aus den Hypothesen die stochastisch signifikanteste<br />

Verteilung ausgewählt. Überträgt man die Formulierung auf das Super-Resolution-<br />

Problem, so wird nach dem HR-Bild HR I gesucht, das bei Vorliegen der LR-Bilder<br />

LR Îk (k ∈ {1; · · · ; NI}) am wahrscheinlichsten ist, also die a-posteriori Wahrschein-<br />

lichkeitsdichtefunktion P(I| LR Îk) maximiert:<br />

HR<br />

I = argmax P(I|<br />

I<br />

LR Î1, LR Î2, · · · , LR ÎNI) . (2.3)<br />

Da das zugehörige Minimierungsproblem der Optimierungsaufgabe der Simulations-<br />

methode ähnlich ist, sei an dieser Stelle lediglich auf die umfangreichen Arbeiten von<br />

Borman, Schultz und Stevenson [BS98, SS96], Hardie et al. [HTB + 97] und Shen et<br />

al. [SLZZ04] verwiesen. Ein großer Vorteil des MAP-Ansatzes liegt, bei geschickter<br />

Wahl des sog. Priors P(I), in der Eindeutigkeit der Lösung.<br />

2.6.6 Bedeutung für die Fiberskopie<br />

Der limitierende Faktor für die Auflösung von faseroptischen Systemen ist die An-<br />

zahl der Glasfasern im Bildbündel. Sie bestimmt den primären Informationsgehalt des<br />

vom Sensor überabgetasteten Abbilds. Der typischen Auflösung von verwendeten Ka-<br />

merasensoren von VGA (307.200 Pixel) bis XGA (786.432 Pixel) stehen 3.000 bis<br />

50.000 informationstragende Intensitätswerte aus Faserpunkten gegenüber. Die aufge-<br />

zeichneten Bilder wirken daher grundsätzlich unscharf bzw. detailarm. Das Ziel der<br />

Auflösungssteigerung im Kontext der Faserendoskopie ist daher nicht die Vergröße-<br />

rung von Bildern im Sinne einer Erhöhung der Bildpunkte, sondern die Steigerung<br />

der Anzahl von informationstragenden Bildpunkten. Dafür sind Ansätze prädestiniert,<br />

die in der Lage sind, unregelmäßige Gitterstrukturen zu überlagern oder zu ergänzen.<br />

26 MAP: (Maximum-a-posteriori) Ein Schätzverfahren, das Vorwissen mit einbezieht


46 2.6. AUFLÖSUNGSSTEIGERUNG IN BEWEGTEN BILDSEQUENZEN<br />

Der Vorgang des Überlagerns gibt ihnen auch die Bezeichnung Superposition 27 . Die<br />

Idee ist vergleichbar mit dem Verhalten des menschlichen Auges beim Blick durch ein<br />

Fliegengitter. Es nutzt lokal kleine Seitwärtsbewegungen, um durch Ergänzung zeit-<br />

weise verdeckter Sichtbereiche einen klareren, d.h. einen detailreicheren Eindruck zu<br />

gewinnen.<br />

Ein weiterer Grund, der für die lokale Ergänzung von Bildinhalten spricht, ist die<br />

starke Verzerrung durch die Weitwinkeloptik an der Spitze des Endoskops. Zwar könn-<br />

ten Bewegungen durch ein relativ einfaches Abbildungsmodell entzerrt werden und so<br />

eine einheitliche Bewegung auf einer bekannten Ebene in eine homogene bildweite<br />

Richtung entzerrt werden. Jedoch kann in der endoskopischen Abbildung nicht von der<br />

Vereinfachung ausgegangen werden, dass der Abstand der betrachteten Objektpunkte<br />

in der Szene untereinander deutlich geringer ist, als derjenige zur Sensorebene. Einen<br />

Mittelweg zwischen der individuellen Ergänzung von Gitterpunkten und der unrealis-<br />

tischen Annahme einer globalen Verschiebung kann man aus der Arbeit von Hardie<br />

et al. [HTB + 97] ableiten. Dort wird ein klassischer Ansatz zur Auflösungssteigerung<br />

kostengünstig nur für den segmentierten Bereich eines bewegten Objekts im Rahmen<br />

einer Überwachungskamera angewendet. Dieses semiglobale Vorgehen eignet sich je-<br />

doch nicht für den Einsatz von Endoskopen, die frei geführt werden und dicht an der<br />

Objektszene arbeiten.<br />

Erste Forschungsarbeiten tragen dazu bei, Verfahren zur aktiven Steigerung von<br />

Qualität und Auflösung bewegter Bildsequenzen durch Superposition (Überlagerung)<br />

für den Anwendungsbereich der flexiblen Endoskopie zu nutzen. Lertrattanapanich<br />

nutzt in seinem Ansatz [LB02] ein kontinuierliches Datengitter, aus dem das HR-Bild<br />

aufgebaut wird. Gleichwohl dieser Ansatz die Grundlage des in Abschnitt 3.5 auf den<br />

endoskopischen Anwendungsfall übertragenen Verfahrens darstellt, bleiben dennoch<br />

endoskopiespezifische Effekte unberücksichtigt. Darunter fallen die präzise Lokalisie-<br />

rung der als Datenpunkte benötigten Faserzentren, die Korrektur von Farbartefakten<br />

durch Abtastvorgänge zwischen Sensor und Faserbündel sowie eine präzise Bewe-<br />

gungsschätzung in der faseroptisch abgetasteten Bildsequenz.<br />

27 Superposition: Verfahren zur Auflösungsteigerung im Ortsbereich durch Überlagerung minimal<br />

versetzter Bildinhalte


3<br />

47<br />

Eigener Beitrag<br />

Aufbauend auf dem Stand der Technik beschreibt dieses Kapitel den relevanten eige-<br />

nen Beitrag, wobei die Einzelaspekte als Teil eines Ganzen gesehen werden müssen,<br />

nämlich der automatisierten Verbesserung von visueller Darstellung und digitaler Wei-<br />

terverwendung von Grauwert- und Farbbildern, die mit faseroptsichen Endoskopen ab-<br />

gebildet wurden. Bei den wissenschaftlichen Methoden und Untersuchungen handelt<br />

es sich um<br />

• ein geeignetes Abbildungsmodell für die Untersuchung und Evaluierung der fa-<br />

seroptischen Übertragung,<br />

• die erweiterten Restaurierungsansätze im Orts- und Frequenzraum zum Umgang<br />

mit der technisch bedingten Rasterstruktur,<br />

• die Reduzierung von Farbartefakten bei Verwendung handelsüblicher digitaler<br />

Kamerasensoren mit Farbfiltermosaik,<br />

• die Steigerung der physikalischen Auflösung von faseroptisch gewonnenen Auf-<br />

nahmen,<br />

• die Integration und den Einsatz der Verfahren in speziellen Anwendungen und<br />

• die Zusammenstellung und Definition von geeigneten Gütekriterien zur Evalu-<br />

ierung der Verbesserungen.<br />

3.1 Modellierung und Kalibrierung von Faseroptiken<br />

Die Abbildungseigenschaften einer Faseroptik wirken sich in vielerlei Hinsicht degra-<br />

dierend auf die resultierende Bildqualität aus (vgl. Abschn. 2.3.3). Verschiedene An-


48 3.1. MODELLIERUNG UND KALIBRIERUNG VON FASEROPTIKEN<br />

sätze in Abschnitt 3.2.1 und Abschnitt 3.2.2 dienen der bestmöglichen Wiederherstel-<br />

lung, also der Restaurierung eines wabenfreien Bilds. Abtastvorgänge und nichtlineare<br />

Effekte verursachen teilweise irreparable Veränderungen am Signal und verhindern da-<br />

mit die vollständige Wiederherstellung. Um so bedeutender ist daher eine Möglichkeit,<br />

die Ansätze untereinander bewerten zu können und quantitative Aussagen über deren<br />

Wirkung machen zu können.<br />

In Abschnitt 3.6 werden verschiedene Gütekriterien definiert, die sich dazu eignen,<br />

Qualitätsmerkmale und -unterschiede zu beurteilen. Die Kriterien lassen sich dabei<br />

in zwei übergeordnete Gruppen einteilen. Die einen beurteilen die Restaurierungsgü-<br />

te anhand von Bildmerkmalen, wie Kontrastübergängen oder künstlich geschaffenen<br />

Merkmalen, sowie anhand von sekundären Ergebnissen, wie der Streuung von rekon-<br />

struierten 3D-Punktwolken. Die andere Gruppe evaluiert die Ergebnisse im direkten<br />

Vergleich mit dem Ursprungsbild. Dazu gehören Differenz- und Ähnlichkeitsmaße.<br />

Um die Wirkung von einzelnen Modulen in der Bearbeitungskette eines komplexen<br />

Algorithmus im Sinne der zweiten Gruppe quantitativ besonders einfach und präzise<br />

bewerten zu können, muss die Grundwahrheit 1 bekannt sein. Das stellt die Endosko-<br />

pie und speziell die flexible Faserendoskopie vor das Problem, dass die ursprünglich<br />

unverfälschten Bilddaten nicht zugänglich sind. Um dies zu gewährleisten, müsste das<br />

Endoskopsystem durch eine äquivalente Optik ersetzt werden und die Szene mit den<br />

exakt gleichen optischen Parametern wiederholt aufgezeichnet werden. In der Praxis<br />

lässt sich das nicht realisieren.<br />

Einen Ausweg stellt die synthetische Generierung von Signalen durch ein entspre-<br />

chendes Abbildungsmodell dar. Dieses Modell muss die zu untersuchenden Effekte<br />

einer faseroptischen Abbildung nachbilden und sie auf ein definiertes Szenenbild, die<br />

Grundwahrheit, anwenden. Die Ergebnisse von diversen Bearbeitungsschritten können<br />

so durch geeignete Fehlermaße mit den ursprünglichen, d.h. den als richtig definierten<br />

Daten quantitativ evaluiert werden. Das Modell muss dabei einerseits alle relevanten<br />

Einflussgrößen berücksichtigen, soweit diese die Abbildung beeinflussen, und ande-<br />

rerseits sollte es nur so wenige Parameter wie möglich fordern, um die Anpassung des<br />

Modells an eine gegebene Umgebung nicht unnötig zu erschweren.<br />

Die faseroptische Abbildung kann in zwei Teilschritten betrachtet werden (vgl.<br />

Abb. 3.1), nämlich zum einen die Beeinträchtigung durch die optische Verzerrung und<br />

zum anderen die Abtastung und Rasterisierung durch das Bildbündel. Der erste Schritt<br />

wird an dieser Stelle übergangen, weil die geometrischen Beeinträchtigungen durch<br />

1 Grundwahrheit: (engl. ground truth) Ursprüngliche, unverfälschte Datenbasis, hier zum Vergleich<br />

nach Bildverarbeitungsschritten


3.1. MODELLIERUNG UND KALIBRIERUNG VON FASEROPTIKEN 49<br />

Abbildung 3.1: Ablauf der Modellierung einer faseroptischen Abbildung, wobei der erste Teil-<br />

schritt der optischen Verzerrung (gestrichelte Umrandung) übergangen wird.<br />

die distale Optik des Endoskops keine Auswirkungen auf die anschließende Rasterisie-<br />

rung der Bilddaten zeigen. Die quantitative Evaluierung, zu der das Abbildungsmodell<br />

dient, wird auf unverzerrten Bilddaten durchgeführt.<br />

3.1.1 Simulation der Bildübertragung durch Glasfaserbündel<br />

Ziel ist es, den Abbildungsprozess eines Glasfaserbündels nachzubilden, d.h. ein Sze-<br />

nenbild derart mit einem Wabenmuster zu kombinieren, so dass das Resultat dem be-<br />

trachteten Abbild im Okular des Endoskops entspricht. Dazu wird<br />

1. die Intensitätsverteilung der einzelnen Faserquerschnitte bestimmt,<br />

2. ein Muster der Wabenstruktur bereitgestellt,<br />

3. das Bild geeignet abgetastet, um die Intensitäten für die Faserzentren zu erhalten<br />

und damit<br />

4. das resultierende Abbild aufgebaut.<br />

Die Grundlagen für ein derartiges Vorgehen wurden mit Rupp et al. in [RWE06b]<br />

formuliert. Bislang wird dazu die Faserverteilung eines bekannten Endoskops aus ei-<br />

nem realen Weißbild entnommen und für die Rasterisierung einer Aufnahme verwen-<br />

det. In der vorliegenden Arbeit wird darüber hinaus eine Möglichkeit geschaffen, ein<br />

beliebiges Muster der Wabenstruktur künstlich bereitzustellen und damit ein Szenen-<br />

bild entsprechend zu modellieren. Die zugrunde liegende Intensitätsverteilung wird auf<br />

der Basis von physikalischen Grundlagen zur Faserübertragung automatisch parame-<br />

trisiert.


50 3.1. MODELLIERUNG UND KALIBRIERUNG VON FASEROPTIKEN<br />

3.1.1.1 Intensitätsverteilung<br />

Beim Betrieb einer Glasfaser als optischer Leiter zur Bildübertragung ist es erforder-<br />

lich, dass diese im Monomode-Modus arbeitet, d.h. im Querschnitt der Faser breitet<br />

sich nur eine Schwingung aus. Die normierte Frequenz V liefert eine Aussage darüber,<br />

wie viele Moden sich in der Faser ausbreiten. Sie ist über die numerische Apertur NA,<br />

den Kernradius rkern und die zu übertragende Wellenlänge λ definiert:<br />

V = 2π · NA · rkern<br />

λ<br />

Bis zur normierten Grenzfrequenz ˆV = 2, 41 ist nur eine einzige Mode ausgeprägt. Für<br />

diesen Fall wird die Intensitätsverteilung bei der Übertragung von sichtbarem Licht<br />

über eine Glasfaser mit guter Näherung durch eine 2D-Gauß-Verteilung beschrieben<br />

(vgl. [You00, Mit05]). Ein sog. Weißbild, d.h. die Aufnahme einer homogen ausge-<br />

leuchteten matten Fläche durch ein Endoskop zeigt für jede Bildfaser eine solche Ver-<br />

teilung in Form einer kleinen Grauwertglocke (vgl. Abb. 3.2(a)):<br />

g(x, y; a, µx, µy) = a · exp<br />

.<br />

<br />

− 2<br />

[(x − µx)<br />

rmod<br />

2 + (y − µy) 2 ]<br />

<br />

. (3.1)<br />

Der charakteristische Modenfeldradius rmod gibt den Abstand vom lichtleitenden Zen-<br />

trum an, an dem die Intensität auf etwa 13, 5% ihres Spitzenwertes abgefallen ist (vgl.<br />

Abb. 3.2(b)). Der Modenfeldradius ist bei Monomodefasern, wie sie unter anderem<br />

in der Bildbündelfertigung Verwendung finden, i. A. größer als der Kernradius. Daher<br />

erstreckt sich die ausbreitende Welle, wie in Abbildung 3.2(c) dargestellt, teilweise in<br />

den Mantelbereich. Der Modenfeldradius rmod, der Kernradius rkern und die normierte<br />

Frequenz hängen für V ≈ ˆV wie folgt zusammen:<br />

rmod ≈ rkern ·<br />

Aus dieser Beziehung lässt sich die Intensitätsverteilung im Querschnitt der Glasfasern<br />

2, 6<br />

V<br />

im Bildbündel parametrisieren und für die Modellierung nutzen.<br />

3.1.1.2 Anordnung der Faserpunkte<br />

Bevor die Modellierung des Signals durchgeführt werden kann, muss die Anordnung<br />

der einzelnen Intensitätsübertragungsfunktionen bekannt sein. Beim Blick durch ein<br />

Endoskop fällt der kreisförmige Ausschnitt, die sog. Apertur 2 (vgl. Abb. 3.3) auf.<br />

nimmt<br />

2 Apertur: Kreisförmiger Ausschnitt, den ein Betrachter durch das Okular eines Endoskops wahr-<br />

.


3.1. MODELLIERUNG UND KALIBRIERUNG VON FASEROPTIKEN 51<br />

(a) (b) (c)<br />

Abbildung 3.2: Intensitätsverteilung eines Lichtpunkts nach Übertragung durch einen Licht-<br />

leiter: (a) Angestrahlte Sensorelemente, (b) Gauss-Verteilung mit Kennzeichnung des Moden-<br />

feldradius rmod und (c) schemtischer Schnitt durch die Glasfaser.<br />

Dieser aktive Bereich stellt den sichtbaren Ausschnitt der Szene dar und auf ihn be-<br />

schränken sich auch anschließende algorithmische Berechnungen. Die Nutzung dieses<br />

Ausschnitts als ROI 3 führt sowohl zur Beschleunigung von Algorithmen, da diese nur<br />

einen Teilbereich der Bildpunkte bearbeiten müssen, als auch zum präziseren Vergleich<br />

von Ergebnissen einer Bildverbesserung gegenüber dem Originalbild, weil nur Bild-<br />

bereiche verglichen werden, für die eine Veränderung gewünscht und wahrgenommen<br />

wird. Die mit dem Symbol R bezeichnete ROI wird an vielen Stellen der Algorithmen<br />

berücksichtigt ohne explizit genannt zu werden. Oft wird der Radius der ROI wie in<br />

Abbildung 3.3(b) um wenige Prozent (hier 5%) kleiner als der Aperturradius gewählt,<br />

um verfälschende Randeffekte von Bildverarbeitungsschritten auszuschließen.<br />

Für das Abbildungsmodell muss die Apertur definiert werden, um darin eine vorge-<br />

gebene Faseranzahl dreiecksförmig anzuordnen (s. Abb. 3.3(c)). Als näherungsweise<br />

Geometrie wird die Kreisform verwendet. Eine mögliche minimale Abweichung in der<br />

Praxis hin zur Ellipse wird vernachlässigt, um die Parametrisierung auf den Radius rA<br />

der Apertur zu beschränken. Für die Anordnung der Faserzentren muss deren Abstand<br />

df, also die Kantenlänge der gebildeten Dreiecke, bekannt sein. Um diese zu ermitteln,<br />

wird das Verhältnis zwischen Faseranzahl NF und der Anzahl der gebildeten Dreiecke<br />

ND bestimmt. Innerhalb der Kreisfläche werden genau zwei Dreiecke von einem Fa-<br />

serzentrum gebildet , da die drei Eckpunkte einer Dreiecksfläche (hier p1, p2 und p3)<br />

zu je einem Sechstel an angrenzenden Flächen beteiligt sind. Das Verhältnis zwischen<br />

Dreiecken und Faserzentren ist demnach 2 : 1 und es gibt ND = 2 NF Dreiecke. Aus<br />

entsprechenden Überlegungen für den Rand der Apertur ergibt sich, dass hier bis auf<br />

3 ROI: (Region of interest) Berücksichtigter Bereich für Bildoperationen


52 3.1. MODELLIERUNG UND KALIBRIERUNG VON FASEROPTIKEN<br />

(a) (b) (c)<br />

Abbildung 3.3: (a) Faseroptische Aufnahme aus Abbildung 2.4 mit Markierung der Apertur.<br />

(b) Für die Bildverarbeitung und den Vergleich von Ergebnissen wird meist ein Ausschnitt<br />

der Apertur (hier 95% des Sichtradius) als ROI R definiert. (c) Hexagonale Anordnung der<br />

Faserzentren im Abstand df innerhalb der Apertur mit Radius rA.<br />

vernachlässigbar wenige Ausnahmen jeweils fünf Faserzentren zu nur sechs Dreiecken<br />

beitragen. Die Gesamtzahl aller Dreiecke in einer Kreisfläche mit dem Umfang 2 rA π<br />

beträgt mit dem Korrekturfaktor κ, der die aufwändige exakte Berechnung des kanti-<br />

gen statt kreisförmigen Verlaufs des Umfangs durch einen empirisch ermittelten Wert<br />

von etwa 0.95 ersetzt:<br />

ND = 2 · (NF − κ 2rAπ<br />

df<br />

) + 6<br />

· κ2rAπ<br />

5 df<br />

= 2 · NF − κ 8 rAπ<br />

5 df<br />

. (3.2)<br />

Dabei ist κ·2rAπ/df die Anzahl der Dreiecke am Rand der Apertur. Mit AD = d 2 f /4·√ 3,<br />

der Fläche eines Dreiecks, ergibt sich die Gesamtfläche aller Dreiecke aus ND · AD. Sie<br />

wird mit der Kreisfläche der Apertur, r 2 Aπ, gleichgesetzt:<br />

r 2 <br />

Aπ = 2 · Nf − κ 8<br />

<br />

rAπ<br />

5<br />

df<br />

· d2 √ f<br />

3 . (3.3)<br />

4<br />

Nach df umgestellt ergibt Gleichung (3.3) den (positiven) Faserabstand<br />

df = rA<br />

<br />

12 π κ + 2 36 κ<br />

30 NF<br />

2π2 <br />

√<br />

+ 150 π NF 3 . (3.4)<br />

Abbildung 3.4 trägt den Faserabstand df nach Gleichung (3.4) über der Faseran-<br />

zahl Nf zwischen 3.000 und 18.000 Fasern auf. Jeder Graph der Kurvenschar stellt<br />

das Ergebnis für einen bestimmten Aperturradius rA im Bereich von 140 bis 280 Pixel


3.1. MODELLIERUNG UND KALIBRIERUNG VON FASEROPTIKEN 53<br />

Abbildung 3.4: Der Abstand der Fasern innerhalb einer Apertur mit definiertem Radius bei<br />

einer bestimmten Faseranzahl.<br />

dar. Die Faserzentren werden daraus folgend hexagonal im Abstand df in der Kreisflä-<br />

che mit dem Radius rA angeordnet. Zusätzlich kann mit einem Winkel αs die Grund-<br />

orientierung gewählt werden. Mit dieser Vorzugsrichtung lässt sich die Rotation des<br />

Endoskopokulars gegenüber dem Kamerasensor simulieren. Die Transformation einer<br />

hexagonalen Faserkoordinate (m, n) T auf rechtwinkelige Koordinaten (x, y) T mit dem<br />

Offset (µx, µy) T und der Grundorientierung αs ergibt<br />

<br />

<br />

˜x(m, n)<br />

˜y(m, n)<br />

=<br />

cos αs − sin αs<br />

sin αs cos αs<br />

µx<br />

µy<br />

<br />

+<br />

<br />

df<br />

df/2<br />

0 √ 3df/2<br />

3.1.1.3 Abtastung und Aufbau des resultierenden Abbilds<br />

<br />

m<br />

n<br />

. (3.5)<br />

Das Szenenbild einfach mit der Kombination der Gauß-Funktionen zu gewichten, ent-<br />

spräche nicht dem physikalischen Vorgang der Abtastung durch das Faserbündel. In<br />

diesem Fall könnten hoch frequente Bildstrukturen über einzelne Faserquerschnitte<br />

übertragen werden. In der Realität stellt das Glasfaserbündel einen Zusammenschluss<br />

vieler winziger Helligkeitsakkumulatoren dar, die die Szene abtasten. Um diesen Ef-<br />

fekt nachzubilden, wird ein effektiver Anteil 4 der Sensorelemente ihrem jeweils nächst-<br />

gelegenen Faserzentrum zugeordnet. Für jede Faser werden nun die Helligkeiten aller<br />

zugehörigen Sensorelemente addiert und der Mittelwert gebildet. Dieser Vorgang fin-<br />

det beim Endoskop am distalen Ende statt, wo das Szenenbild durch die Optik auf den<br />

polierten Querschnitt des Bildbündels projiziert wird. Die so gewonnenen Mittelwerte<br />

der Helligkeiten werden den entsprechenden Verteilungen (vgl. Gl. (3.1)) als Scheitel-<br />

werte Î zugeordnet.<br />

4 vg. effektive Abtastfläche in Abschnitt 3.5.2


54 3.1. MODELLIERUNG UND KALIBRIERUNG VON FASEROPTIKEN<br />

(a) (b)<br />

(c) (d)<br />

Abbildung 3.5: Vergrößerte Ausschnitte der modellierten Abbildung eines USAF-Testbilds bei<br />

einem Aperturradius von 280 Pixel und (a) 5.000 Fasern mit einer Grundorientierung von 10 ◦<br />

, (b) 10.000 Fasern mit einer Grundorientierung von 0 ◦ , (c) 20.000 Fasern mit einer Grund-<br />

orientierung von 20 ◦ und (d) 25.000 Fasern mit einer Grundorientierung von 30 ◦ .<br />

Mit den bekannten Positionen (ˆx, ˆy) in der hexagonalen Anordnung (vgl. Gl. (3.5))<br />

und den Intensitäten a der Faserzentren wird nun eine Gesamtverteilung erstellt, indem<br />

Gleichung (3.1) mit geeigneter Parametrisierung für die Nachbarschaft jedes Faser-<br />

zentrums akkumuliert wird. Ein mögliches Übersprechen zwischen mehreren Fasern<br />

wird durch einen entsprechend erweiterten Definitionsbereich der einzelnen Gauß-<br />

Funktionen berücksichtigt. Bei der Summenbildung werden die Intensitätsfunktionen<br />

mit einem Durchmesser von 2 · df berücksichtigt:<br />

Î(x, y) = <br />

g(x, y; am,n, ˆx(m, n), ˆy(m, n)) .<br />

m,n<br />

Abbildung 3.5 zeigt exemplarisch vier vergrößerte Ausschnitte von modellierten Ab-<br />

bildungen eines USAF-Testbilds 5 , bei denen die Anzahl der Fasern im Bildleiter und<br />

die Grundorientierung variieren.<br />

3.1.2 Faseroptische Bildgebung mit Farbfiltermosaiken<br />

In der digitalen Endoskopie werden überwiegend Farbkameras mit Einchip-Techno-<br />

logie verwendet, die statt der visuellen Begutachtung am proximalen Ende des En-<br />

5 USAF-Testbild: (engl. US Air Force Resolution Test Chart) Testmuster zur Bestimmung der Auflösungsfähigkeit<br />

eines optischen Systems. Das Muster enthält Gruppen von je drei Linien in unterschiedlichen<br />

Auflösungsstufen.


3.1. MODELLIERUNG UND KALIBRIERUNG VON FASEROPTIKEN 55<br />

Abbildung 3.6: Ablauf der Modellierung zur synthetischen Generierung von farbabgetasteten<br />

Bilddaten einer faseroptisch abgebildeten Szene zwecks Evaluierung von Ergebnissen verschie-<br />

dener Algorithmen zur Bildaufbereitung.<br />

doskops, also hinter der Okularoptik montiert werden. Sie tastet das Abbild ab, das<br />

durch den flexiblen Bildleiter von der Optik an der Spitze des Endoskops zum Okular<br />

übertragen wird. Die Kamera verwendet intern einen Intensitätssensor, dessen einzel-<br />

ne Elemente in regelmäßiger Ordnung hinter verschiedenen Farbfiltern liegen. Im Fall<br />

des Bayer-Patterns sind dies die Farben Rot, Grün und Blau (vgl. Abschn. 2.3.2).<br />

In dieser Arbeit sollen unter anderem die Vorzüge von Algorithmen aufgezeigt wer-<br />

den, die direkt auf die farbkodierten Intensitätsdaten (Rohdaten) des Kamerasensors<br />

zugreifen. Bislang können diese Methoden hinsichtlich ihrer Leistungsfähigkeit nicht<br />

über Differenz- und Ähnlichkeitsmaße mit herkömmlichen Algorithmen, also solchen,<br />

die auf RGB-Farbbildern arbeiten, verglichen werden. Letztere werden bislang anhand<br />

von Farbbildern evaluiert, die separat in jedem Kanal mit der gleichen bzw. spektral<br />

angepassten Methode bearbeitet werden. Die Differenz oder Ähnlichkeit zum Origi-<br />

nal gibt Auskunft über die Qualität der Verbesserung durch den Algorithmus. Diese<br />

Ergebnisse können jedoch nicht auf den Vergleich mit Algorithmen angewendet wer-<br />

den, die zur Berechnung die Rohdaten verwenden. Das liegt an der Degradierung der<br />

Bilddaten durch den Abtastungsprozess des Farbfiltermosaiks, der die Ortsauflösung<br />

zu Gunsten der Repräsentation von Farbinformation reduziert. Mittels Demosaicing<br />

werden die Rohdaten wieder in Farbinformation überführt. Diesen Ablauf illustriert<br />

Abbildung 3.6.<br />

Um die gewünschten Vergleichsdaten abgreifen zu können, wird das Modell des fa-<br />

seroptischen Abbildungssystems um ein Modul zum Mosaicing 6 erweitert [WSZ07].<br />

Das entspricht in einem Einchip-Kamerasensor der Abtastung durch das Farbfilter-<br />

feld. Aus den verschiedenen Farbkanälen, die jeweils den Prozess der synthetischen<br />

Faserabbildung durchlaufen haben, werden in der durch das Farbfiltermosaik vorgege-<br />

6 Mosaicing: Abtastung von Bilddaten durch ein Farbfiltermosaik


56 3.1. MODELLIERUNG UND KALIBRIERUNG VON FASEROPTIKEN<br />

benen Ordnung die entsprechenden Intensitätswerte entnommen. Das daraus zusam-<br />

mengesetzte farbkodierte Intensitätsbild wird als Rohbild ˆR bezeichnet.<br />

Wie eingangs in diesem Abschnitt erwähnt, soll neben den Rohdaten ˆR auch ein<br />

vergleichbares Farbbild bereitgestellt werden, um herkömmliche Farbalgorithmen in<br />

die Bewertung mit einbeziehen zu können. Dieses Farbbild wird aus dem Rohbild<br />

mittels Demosaicing gewonnen (vgl. Abschn. 2.3.2).<br />

Der untere Bereich in Abbildung 3.6 veranschaulicht beispielhaft die Evaluierung<br />

von Ergebnisdifferenzen verschiedener Algorithmen zur Bildaufbereitung. Durch den<br />

Vergleich mit der Originalszene kann über Fehlermaße die Qualität der Bildrekon-<br />

struktion durch Filterung oder Interpolation auf den einzelnen Farbkanälen quantitativ<br />

bestimmt und verglichen werden. Aufgrund der bereitgestellten Rohdaten ist es nun<br />

insbesondere möglich, Ansätze in die Evaluierung mit einzubeziehen, deren Stärke in<br />

der Verarbeitung von Information aus den farbkodierten Intensitätsbildern liegt. Diese<br />

waren bislang auf die Rohdaten der Kamera angewiesen und konnten nicht direkt mit<br />

den Resultaten anderer Algorithmen verglichen werden.<br />

3.1.3 Einschränkungen<br />

Das beschriebene Faserabbildungsmodell berücksichtigt einige bekannte Effekte nicht,<br />

die bislang aufgrund ihrer Komplexität nicht modelliert werden können oder deren<br />

Einfluss näherungsweise vernachlässigbar ist.<br />

• Die chromatische Abberation bewirkt, dass Lichtstrahlen, die den gleichen Ur-<br />

sprung, aber eine unterschiedliche Wellenlänge haben, in abweichender Rich-<br />

tung abgelenkt werden. Dieser Effekt ähnelt der spektralen Spreizung von Licht<br />

beim Durchgang durch ein Prisma. Für die Wabenstruktur bedeutet dies eine<br />

leichte Verschiebung der einzelnen Faserzentren, die vom Bildmittelpunkt zu<br />

den Rändern hin zunimmt. Obwohl dieser Effekt nachweisbar ist, kann er durch<br />

eine individuelle Bestimmung von Farbfaktoren im Zuge der physikalisch moti-<br />

vierten Farbinterpolation kompensiert werden.<br />

• Einige Kamerasensoren sind in der Lage, die abgetasteten Farbwerte mit höhe-<br />

rer Auflösung, als den üblichen 8 Bit auszugeben. Das hier beschriebene Modell<br />

kann auf einfache Weise für die Bearbeitung höherwertiger Bilddaten erweitert<br />

werden. Der Einfachheit halber wird jedoch auf diesen allgemeinen Fall ver-<br />

zichtet und die Experimente und Ergebnisse werden mit 8 Bit durchgeführt und<br />

dargestellt.


3.1. MODELLIERUNG UND KALIBRIERUNG VON FASEROPTIKEN 57<br />

• Ohne einen Weißabgleich 7 kann es sein, dass die verschiedenen Farbkanäle in<br />

der Aufnahme eines Kamerasensors ungleich gewichtet sind. Dies wird impli-<br />

zit bei der Berechnung der Farbfaktoren für die Interpolation berücksichtigt und<br />

führt für schwache Werte zu hohem Rauschen, da der Wert für die resultieren-<br />

de Farbzusammensetzung unverhältnismäßig stark angehoben wird. Durch die<br />

Vorgabe einer homogenen weißen Fläche als Kalibrierbild für die Faserregis-<br />

trierung wird sichergestellt, dass alle Kanäle die gleiche Gewichtung haben. In<br />

der Praxis kann diese Vereinfachung mit einem entsprechenden Weissabgleich<br />

gerechtfertigt werden.<br />

• Die Schärfe der einzelnen Faserpunkte variiert in realen Aufnahmen besonders<br />

zu den Aperturrändern hin. Ursachen hierfür sind geometrische Abberation, so-<br />

wie Ungenauigkeiten und technische Begrenzungen in der Fertigung der Ver-<br />

bindungsteile zwischen Endoskop und Kamera. Mit hochwertigen Optiken und<br />

Adaptern sowie der Minimierung von Schnittstellen im Strahlengang zwischen<br />

den Komponenten konnte dieser Effekt nachweislich reduziert werden, sodass<br />

er beim Modell vernachlässigt werden konnte.<br />

3.1.4 Geometrische Kalibrierung zur Bildentzerrung<br />

Endoskope sind typischerweise mit weitwinkeligen Optiken versehen, um bei kleinem<br />

Arbeitsdurchmesser im Frontbereich trotzdem einen ausreichend großen Sichtbereich<br />

zu ermöglichen. Eine solche Weitwinkeloptik weist im einfachen Fall, d.h. ohne kom-<br />

plizierte und damit platzaufwändige optische Korrektur, eine starke, in erster Näherung<br />

radiale Verzerrung in dezentralen Stellen der Aufnahmen auf. Diese Verzerrung macht<br />

sich unter anderem bemerkbar, wenn die gewonnenen Bilddaten für eine räumliche<br />

Rekonstruktion herangezogen werden. In diesem Fall ist es besonders wichtig, eine<br />

adäquate Korrektur vorzunehmen.<br />

Intel stellt die freie Programmbibliothek OpenCV [Int01] zur Verfügung, die un-<br />

ter anderem eine Funktionalität zur Bildentzerrung für Kamerasysteme mit einfacher<br />

Linsenoptik zur Verfügung stellt. Sie nähert die intrinsischen Parameter<br />

• Brennweite,<br />

• Position der optischen Achse im Bild und<br />

7 Weißabgleich: Verfahren zur Korrektur der Gewichtung von Farbkanälen eines Kamerasensors be-<br />

züglich der Farbtemperatur des Lichtes am Aufnahmeort


58 3.1. MODELLIERUNG UND KALIBRIERUNG VON FASEROPTIKEN<br />

(a) (b)<br />

(c) (d) (e)<br />

Abbildung 3.7: (a,b) Endoskopische Aufnahme einer Bohrung mit feinkörniger Innenwandung.<br />

(c) Rekonstruierte 3D-Punktwolke zeigt trotz des konstanten Innendurchmessers eine konische<br />

Verzerrung. Die perspektivische Front- (d) und Rückansicht (e) aus gleicher Entfernung zum<br />

Schwerpunkt der 3D-Punktwolke verdeutlichen diesen Effekt.<br />

• Verzerrungsparameter, aufgeteilt in je zwei radiale Komponenten ρ1 und ρ2, so-<br />

wie zwei tangentiale Komponenten τ1 und τ2<br />

im Sinne minimaler quadratischer Fehler (geometrische Kalibrierung) durch Lösen<br />

eines hinreichend großen Gleichungssystems aus Abbildungsgleichungen geeichter<br />

Merkmale auf einem Kalibrierkörper. Abbildung 2.8 zeigt exemplarisch die endosko-<br />

pisch erfasste Aufnahme einer Kalibrierplatte und die entzerrte Darstellung.<br />

Der Gedanke ist naheliegend, das beschriebene Modell und den Algorithmus zur<br />

Entzerrung auf endoskopisches Bildmaterial anzuwenden, wie es in einigen Arbeiten<br />

bislang vorgeschlagen und angewendet wird [RWE07, RWW06, WSRW05]. Jedoch<br />

haben neuere Untersuchungen gezeigt, dass die Kalibrierung für das dahinter ange-<br />

nommene Verzerrungsmodell für die Endoskopie nicht ausreichend ist. Wie sich das<br />

auf die Ergebnisse von räumlichen Rekonstruktionen auswirkt, soll hier an einem ty-<br />

pischen Beispiel dargestellt werden. Die Bilddaten für die Rekonstruktion entstehen<br />

aus einer linearen Bewegung durch die Referenzbohrung RFN mit feinkörniger Innen-<br />

wandung (vgl. Tab. 4.3). Die Bohrung hat einen konstanten Innendurchmesser von<br />

8, 5mm und die Endoskopspitze wird mit einer Schrittweite von 0, 5mm durch die<br />

Bohrung geschoben. Zusätzlich zu den 98 verwendeten Einzelaufnahmen wird ein ge-<br />

eignetes Kalibriertarget aufgenommen, aus dem über Merkmalskorrespondenzen die<br />

intrinsischen Parameter bestimmt werden. Nachdem die Bilder mittels des OpenCV-


3.1. MODELLIERUNG UND KALIBRIERUNG VON FASEROPTIKEN 59<br />

Abbildung 3.8: Verlauf des Rückprojektionsfehlers für einen typischen Bereich des Verzer-<br />

rungsfaktors ρ bei Bearbeitung mit der Software SynthEyes (nach [Ste07]).<br />

Algorithmus auf der Basis der ermittelten Verzerrungsparameter entzerrt sind (vgl.<br />

Abb. 3.7(b)), wird daraus eine 3D-Punktwolke rekonstruiert. Abbildung 3.7(c) zeigt<br />

diese 3D-Punktwolke aus drei Blickrichtungen. Es fällt auf, dass die 3D-Punktwol-<br />

ke trotz des konstanten Innendurchmessers eine konische Verzerrung aufweist. Die<br />

perspektivische Front- und Rückansicht, welche die 3D-Punktwolke aus gleicher Ent-<br />

fernung zu ihrem Schwerpunkt darstellen, verdeutlichen diesen Effekt durch die unter-<br />

schiedliche Ausdehnung der projizierten Verteilung.<br />

Die integrierte automatische Vorverarbeitung der Rekonstruktionssoftware Synth-<br />

Eyes zeigt für endoskopische Bildsequenzen ähnliche Schwächen bezüglich Kalibrie-<br />

rung und Entzerrung. Zunächst wurde davon ausgegangen, dass es an dem vereinfach-<br />

ten Verzerrungsmodell der Software liegt. Dieses schränkt die intrinsischen Parameter<br />

auf eine Brennweite und einen radialen Verzerrungskoeffizient ρ ein. Über eine alter-<br />

native Methode zur Kalibrierung der Optik konnte dann aber bestätigt werden, dass<br />

SynthEyes für die Rekonstruktion von 3D-Modellen aus endoskopischen Bilddaten<br />

doch geeignet ist. Der Algorithmus gibt nämlich einen Wert für den Gesamtfehler an,<br />

der bei der Rückprojektion der triangulierten Objektpunkte auf die korrespondierenden<br />

Merkmale im 2D-Raum entsteht. Ohne das Einbringen von Zusatzinformation über die<br />

Objektgeometrie der Rekonstruktion führt die Minimierung dieses Fehlers zum opti-<br />

malen Verzerrungskoeffizient ˆρ. Für das genannte Beispiel der Bohrung, die mit dem<br />

Endoskop E6 (vgl. Tab. 4.1) über das Kameramodul K2 (vgl. Tab. 4.2) aufgezeichnet<br />

wurde, zeigt Abbildung 3.8 den Verlauf des Rückprojektionsfehlers für einen typi-<br />

schen Bereich des Verzerrungsfaktors. Mit dem Verzerrungsfaktor ˆρ = −0, 14 gelingt<br />

die sichtbar verzerrungsfreie Rekonstruktion des Zylinderkörpers (vgl. Abb. 3.44 auf<br />

S. 118). Aufgrund der unterschiedlichen Verzerrungsmodelle kann der Parameter ρ


60 3.2. RESTAURIERUNG EINZELNER INTENSITÄTSBILDER<br />

jedoch nicht direkt mit einem der Verzerrungskoeffizienten ρ1 bzw. ρ2 gleichgesetzt<br />

werden, was einen Vergleich der beiden Ansätze erschwert.<br />

3.2 Restaurierung einzelner Intensitätsbilder<br />

Diese Arbeit untersucht und erweitert zwei Ansätze zur Restaurierung von Einzel-<br />

bildern, nämlich die spektrale Filterung und die Interpolation. Sie eignen sich in be-<br />

sonderem Maße zur Reduktion der beschriebenen Rasterstruktur und werden für den<br />

automatisierten Betrieb im Anwendungsbereich der Faserendoskopie optimiert. Das<br />

beinhaltet, dass sie automatisch und unabhängig von Abmessungen und Faserdichte<br />

des Bildleiters sowie der Größe und Pixelanzahl des Bildsensors arbeiten müssen. Da<br />

sich die Rasterstruktur primär als Störung in der Helligkeit der Bilder auswirkt, werden<br />

die Verfahren zur Rasterreduktion zunächst auf dem Intensitätskanal beschrieben.<br />

Zwar wurde auch die Klasse der Wavelet-Transformationen als Unterkategorie der<br />

Frequenzverfahren für die Restaurierung von faseroptischen Aufnahmen untersucht,<br />

allerdings bescheinigen die Ergebnisse keinen nennenswerten Fortschritt gegenüber<br />

der Anwendung der Fourier-Theorie. Das kann mit der Periodizität in der Faseranord-<br />

nung erklärt werden, die relativ konstant in der gesamten Apertur auftritt. Eine Variati-<br />

on in der Orts-Frequenz-Auflösung, nach Art der Wavelet-Transformation erweist sich<br />

hier als nicht zielführend.<br />

Obwohl die Filterung für Grauwertbilder und damit auch für die merkmalsbasierte<br />

3D-Rekonstruktion bessere Ergebnisse zeigen wird, so hat doch auch die Interpolation<br />

als Verfahren im Ortsraum ihre positiven Alleinstellungsmerkmale. Die wichtigsten<br />

Aspekte aus Tabelle 3.1 sind hier kurz ausgeführt. Die Filterung zeigt generell eine<br />

glattere Restaurierung, d.h. ohne Artefakte an Kanten oder kontrastreichen Intensitäts-<br />

übergängen. Allerdings reduziert sie durch die Glättung über das Wabenmuster die<br />

mittlere Intensität, die mit Einfluss auf das Signal-zu-Rausch-Verhältnis nachträglich<br />

angehoben werden muss. Die Interpolation bietet die bessere Möglichkeit zur Korrek-<br />

tur von Farbstützstellen und die lokale Ergänzung von Bildinhalten zur Auflösungs-<br />

steigerung. Daher wird für die maschinelle Weiterverarbeitung, z. B. eine räumliche<br />

Rekonstruktion, die ihre Information zumeist aus Graustufenbildern entnimmt, tenden-<br />

ziell die Filterung präferiert. Für eine Texturierung von Rekonstruktionen oder aber<br />

überhaupt für die visuelle Darstellung und Anzeige von Endoskopiebildern wird die<br />

Interpolation mit der Erweiterung zur Berücksichtigung der Verteilung des Farbfilter-<br />

mosaiks auf dem Kamerasensor verwendet. Durch geschickte Kombination der beiden


3.2. RESTAURIERUNG EINZELNER INTENSITÄTSBILDER 61<br />

Ansätze ergeben sich weitere interessante Anwendungen, wie beispielsweise die Kom-<br />

pensation singulärer Faserdefekte (vgl. Abschn. 3.2.3).<br />

3.2.1 Filterung durch spektrale Maskierung<br />

Das Ziel der digitalen Vorverarbeitung von endoskopischem Bildmaterial ist einerseits<br />

die Verbesserung des subjektiven Empfindens beim Betrachten der Aufnahmen. Ande-<br />

rerseits sollen die Bild-Informationen für beabsichtigte Rekonstruktionsaufgaben mit<br />

Computern optimiert werden (vgl. Projektbeschreibung in [WSW04]). Abschnitt 2.3.1<br />

hat den Herstellungsprozess von Bildbündeln und die daraus resultierende Ausrichtung<br />

der Fasern im Querschnitt erklärt. Die bei der faseroptischen Übertragung durch Unter-<br />

und Überabtastung hervorgerufene Rasterstruktur kann zwar bei kleiner Apertur vom<br />

menschlichen Auge kompensiert werden, führt jedoch bei der Weiterverarbeitung der<br />

Bilddaten mittels Computern zwecks Rekonstruktion zu erheblichen Fehlern, da Algo-<br />

rithmen zur Objekterkennung und -verfolgung meist kontrastreiche Strukturen bestim-<br />

men und registrieren. Die abschnittsweise hexagonale Anordnung dieser Wabenstruk-<br />

tur motiviert eine Analyse und Bearbeitung derartig gewonnener Aufnahmen über das<br />

Fourier-Spektrum. Hier können gezielt periodische Anteile des Signals dargestellt und<br />

bearbeitet, z. B. separiert werden. In diesem Kapitel werden daher Filterverfahren im<br />

Frequenzbereich vorgestellt und verglichen.<br />

Abbildung 3.9 zeigt für einige charakteristische Aufnahmen ihr Frequenzspektrum,<br />

das je nach Herstellungsprozess des Bildbündels eine klare Struktur mit sechs sternför-<br />

mig verteilten Schwerpunkten (im Fall von Glasfasern: A, B, D, G, H, I, J) oder eine<br />

kreisförmige Verteilung (im Fall von Quarzfasern: C, E, F) zeigt.<br />

Bei der Dimensionierung der Filter treten zwei Anforderungen in Konkurrenz. Zum<br />

einen wird eine vollständige Reduktion der Wabenartefakte erwartet, was für eine star-<br />

ke Filterung, mit niedriger Grenzfrequenz spricht. Zum anderen bewirkt eine zu groß-<br />

zügig ausgelegte Glättung die unnötige Abschwächung wichtiger Details im Bild. Eine<br />

manuelle Parametrisierung stößt meist an ihre Grenzen, da entweder geschultes Per-<br />

sonal benötigt wird oder langwierige Konfigurationen durchprobiert werden müssen.<br />

Unter Berücksichtigung des Abtasttheorems von Nyquist und Shannon lässt sich ein<br />

adaptives Verfahren definieren, um geeignete Filter zur optimalen Eliminierung der<br />

Raster-Struktur automatisch zu erstellen [WRE + 06, WRWS05, WRM + 05]. Dadurch<br />

wird es möglich, innerhalb gewisser Grenzen, unabhängig von bautechnischen Para-<br />

metern eines flexiblen fiberskopischen Bildleitersystems, wie


62 3.2. RESTAURIERUNG EINZELNER INTENSITÄTSBILDER<br />

Tabelle 3.1: Vor- und Nachteile der Restaurierungsansätze Filterung und Interpolation.<br />

Filterung Interpolation<br />

Einsatzbereich<br />

Anwendbar für beliebige Kombinationen aus Endoskop und Kamerasystem<br />

Ablauf<br />

Restaurierung nach initialer Kalibrierung<br />

Signalraum<br />

Frequenzraum Ortsraum<br />

Prinzip<br />

Frequenzmaskierung unter Berücksichti-<br />

gung der Theorie des Nyquist-Shannon-<br />

Abtasttheorems zum Trennen von Bild-<br />

und Wabenstruktur<br />

Restaurierungsqualität<br />

Registriert die Fasern und nutzt deren In-<br />

tensitäten als Stützstellen zur Restaurie-<br />

rung der Bildinformation durch baryzen-<br />

trische Interpolation<br />

Höhere Unschärfe, weniger Artefakte Artefakte in Strukturen, nichtdifferenzier-<br />

bare Intensitätsübergänge<br />

Verfälschung von Helligkeit und Kontrast Ansätze zur Kantenerhaltung im Zuge der<br />

Auflösungssteigerung<br />

Globale Überlagerung von Bildern mög-<br />

lich, jedoch schwierig<br />

Farbe<br />

Separate Filterung der Farbkanäle, führt zu<br />

Artefakten<br />

Interpolation möglich<br />

Wirkungsvoll durch lokale Detailergän-<br />

zung<br />

Berücksichtigung der Anordnung des<br />

Farbfiltermosaiks auf dem Einchip-Sensor<br />

entfernt Farbartefakte<br />

Charakteristische Eigenschaften verschiedener Bildbündel<br />

Berücksichtigung der unterschiedlichen<br />

Faseranordnung<br />

Kalibrierung<br />

Keine Unterscheidung zwischen Glas- und<br />

Quarzfaser<br />

Kein homogenes Referenzbild notwendig Weißbild zur Faserregistrierung notwen-<br />

dig<br />

Sensibilität auf Versatz der Anordnung<br />

(kann durch Nachkalibrierung reduziert werden)<br />

Robust bei Kreismaske, bedingt sensibel<br />

bei Sternmaske<br />

Sehr anfällig auf Lageänderung der Faser-<br />

zentren


3.2. RESTAURIERUNG EINZELNER INTENSITÄTSBILDER 63<br />

Bild - A - Spektrum Bild - B - Spektrum<br />

Bild - C - Spektrum Bild - D - Spektrum<br />

Bild - E - Spektrum Bild - F - Spektrum<br />

Bild - G - Spektrum Bild - H - Spektrum<br />

Bild - I - Spektrum Bild - J - Spektrum<br />

Abbildung 3.9: Mit flexiblen Endoskopen aufgenommene Referenzbilder mit zugehörigen Fre-<br />

quenzspektren. A, B, D, G, H, I und J zeigen Aufnahmen mit Bildbündeln aus Glasfasern, C, E<br />

und F stellen Aufnahmen mit Bildbündeln aus Quarzfasern dar.


64 3.2. RESTAURIERUNG EINZELNER INTENSITÄTSBILDER<br />

• Arbeitsdurchmesser,<br />

• Faseranzahl,<br />

• Struktur des Bildleiterbündels und<br />

• Auflösung und Geometrie des eingesetzten Kamerasystems<br />

die Bildqualität sowohl für den visuellen Einsatz, als auch für die sich anschließenden<br />

Algorithmen zu optimieren.<br />

3.2.1.1 Transformation und Anwendung des Abtasttheorems zur Maskierung<br />

Die Darstellung einer diskretisierten Bildszene S durch ein flexibles Endoskop auf ei-<br />

nem Videosensor muss in zweierlei Hinsicht als Abtastung betrachtet werden. Einer-<br />

seits wird die übertragene Bildinformation einer betrachteten Szene durch den Bildlei-<br />

ter von der Anzahl der abschnittsweise regelmäßig angeordneten Fasern und deren Ab-<br />

stand df untereinander begrenzt (Unterabtastung). Andererseits besitzt auch der Sensor<br />

nur eine endliche Auflösung mit der Pixelbreite als Gitterkonstante, die in der gewähl-<br />

ten Konstellation allerdings deutlich feiner ist, als die des Bildleiters (Überabtastung).<br />

Aus der abschnittsweise symmetrischen Anordnung der Fasern im Abstand df re-<br />

sultiert im Fourier-Spektrum ein Frequenz-Anteil um den Bereich fs = 1/df (vgl.<br />

Abb. 3.11(c)). Der niederfrequente Anteil des übertragenen Bilds erstreckt sich um den<br />

Mittelpunkt des Spektrums (Gleichanteil). Gemäß dem Abtasttheorem von Nyquist<br />

(vgl. [GRS97]) darf dessen maximale Frequenz f0 die halbe Abtastfrequenz (nämlich<br />

durch das Raster der Glasfasern) nicht überschreiten, um bei der Abtastung keine Ver-<br />

luste zu erleiden: f0 = fs<br />

. Ist diese Bedingung erfüllt, können die Spektralbereiche von<br />

2<br />

Bild und Wabenmuster idealerweise mit einer im 2-dimensionalen zum Kreis erweiter-<br />

ten Rechteckfunktion (Filtermaske) mit der Grenzfrequenz f0 separiert werden. Dazu<br />

wird das strukturüberlagerte Eingangbild Î im Frequenzbereich elementweise mit die-<br />

ser Filtermaske M multipliziert (Operatorsymbol ⊙). Eine entsprechende Maske wird<br />

automatisch aus der spektralen Darstellung eines Referenzbilds Îref oder aus einer an-<br />

deren geeigneten faseroptischen Aufnahme Î generiert. Der zugehörige Operator M<br />

wird in den folgenden Abschnitten näher ausgeführt. Zur Transformation F wird die<br />

(inverse) schnelle Fourier-Transformation FFT verwendet. Formal entsteht damit das<br />

strukturfreie Bild I aus<br />

I(x, y) = F −1 η · F Î ⊙ M(i, j) <br />

mit 0 ≤ x, i < W, 0 ≤ y, j < H .<br />

(3.6)


3.2. RESTAURIERUNG EINZELNER INTENSITÄTSBILDER 65<br />

Der Faktor η dient der Energieerhaltung im Spektrum. Durch die Maskierung des<br />

Spektrums wird dessen Energie gesenkt. Der Verlust beträgt typischerweise zwischen<br />

1% und 5% und hängt vom Kontrast und der Dichte der Wabenstruktur, sowie deren<br />

Helligkeit gegenüber der Szene ab. Als Ausgleich wird der Faktor η bestimmt, der den<br />

Verlust bezüglich des Spektrums vor der Dämpfung angibt, und vor der Rücktransfor-<br />

mation in den Ortsraum mit dem Spektrum multipliziert:<br />

η =<br />

<br />

F Î 2<br />

<br />

F Î ⊙ M(i, j) 2<br />

. (3.7)<br />

Mit dem beschriebenen Ansatz kann die technisch bedingte Überlagerung einer<br />

Wabenstruktur in Aufnahmen mit flexiblen Endoskopen informationstheoretisch best-<br />

möglich reduziert werden. Andere Arbeiten in der Literatur verwenden Bandsperre-<br />

filter zur gezielten Dämpfung des Wabenmusters [DBM98]. Aus Überlegungen zur<br />

Übertragung von Bildinhalten über das Glasfaserbündel wird jedoch deutlich, dass<br />

Frequenzanteile ab und über der Grundfrequenz des Wabenmusters keine Bildinhal-<br />

te mehr tragen können, sondern auf spektrale Wiederholungen zurückzuführen sind<br />

(vgl. insbesondere Abb. 3.9, A und D).<br />

3.2.1.2 Maskengenerierung<br />

Ziel der Maskengenerierung ist die automatische Bereitstellung von geeigneten Fil-<br />

termasken, um die Wabenstruktur in endoskopisch erfassten Bildern bestmöglich zu<br />

entfernen und gleichzeitig die Bildinformation zu erhalten. Dazu müssen charakteris-<br />

tische Parameter, wie Grenzfrequenzen und Rotationswinkel aus dem Spektrum abge-<br />

leitet werden. In Abschnitt 2.3.1 sind die Unterschiede im Aufbau von Bildbündeln<br />

beschrieben, die sich auf die spektrale Darstellung der Abbildungen auswirken.<br />

Aus dem Spektrum F <br />

Îref eines initialen Bilds Îref, das hier nicht notwendigerweise<br />

durch Abbildung einer homogen weißen Fläche entstanden sein muss, wird die<br />

Information zur Erstellung der Maske M : {0; W −1}×{0; H −1} ↦→ {0.0; 1.0} abge-<br />

leitet, die unerwünschte Frequenzbereiche im Spektrum F Î von Endoskopbildern<br />

mit ähnlichem Wabenmuster unterdrückt:<br />

M(i, j) = M F Îref(x, y) , (3.8)<br />

mit 0 ≤ i, x < W, 0 ≤ j, y < H .


66 3.2. RESTAURIERUNG EINZELNER INTENSITÄTSBILDER<br />

Im Folgenden wird für die zwei grundlegenden Fälle, nämlich dem des Quarzfaser-<br />

bündels und dem des Glasfaserbündels, die Funktion des Operators M beschrieben,<br />

der dem Spektrum die notwendigen Parameter entnimmt und eine adäquate Binärmas-<br />

ke bzw. eine kontinuierliche Gewichtungsmaske erstellt. Die Abmessung der Maske<br />

entspricht jeweils den Dimensionen des (Referenz-)Bilds und wird lediglich intern zur<br />

schnelleren Berechnung mittels der Transformation F auf die nächst höhere Zweier-<br />

potenz aufgerundet (Operatorsymbol ⌈·⌉):<br />

WM = 2 ⌈log 2 W⌉ und (3.9)<br />

HM = 2 ⌈log 2 H⌉<br />

. (3.10)<br />

Obwohl die Breite W und die Höhe H eines Bilds im Allgemeinen voneinander<br />

abweichen, wird die Erstellung einer Maske der Einfachheit halber am Beispiel eines<br />

quadratischen Bilds (W = H) demonstriert. Gemäß den Gleichungen (3.9) und (3.10)<br />

werden typische Bildgrößen zwischen SVGA (800 × 600) und XGA (1024 × 768)<br />

intern aus Gründen höherer Effizienz auf die Dimension 1024 × 1024 erweitert, um<br />

Gebrauch von der schnellen Fourier-Transformation machen zu können.<br />

Masken für Quarzfaserbündel Bei Abbildungen durch ein Quarzfaserbündel zeigt<br />

das Spektrum typischerweise eine radialsymmetrische Verteilung der Frequenzantei-<br />

le (vgl. Abb. 3.10), welche durch das Wabenmuster erzeugt werden, da dieses zwar<br />

eine relativ konstante Periodizität zeigt, aber lediglich lokal einer hexagonalen Aus-<br />

richtung folgt. Der entscheidende Parameter neben der generellen Größe der Maske<br />

ist in diesem Fall die Hauptfrequenz fs der Wabenstruktur, die der doppelten Frequenz<br />

des maximal zu übertragenden Bildinhalts entspricht. Da der niederfrequente Bildan-<br />

teil meist keine klare Grenze zeigt, wird die letztgenannte Grenzfrequenz f0 über das<br />

kreisförmige Frequenzband der Wabenstruktur bestimmt, wobei fs = 2 · f0 gilt.<br />

Die zunächst triviale kreissymmetrische Maske MK entspricht im Eindimensiona-<br />

len dem Verlauf einer Rechteckfunktion mit der Grenzfrequenz f0:<br />

<br />

1, r < f0<br />

MQ(i, j) =<br />

0, sonst<br />

mit 0 ≤ i < W, 0 ≤ j < H und r = (i − W/2) 2 + (j − H/2) 2 .<br />

wobei der Gleichanteil im Spektrum 8 bei (W/2; H/2) liegt.<br />

(3.11)<br />

8 Vereinbarungsgemäß werden Spektren derart gespiegelt, dass der Gleichanteil im Zentrum liegt<br />

(DC-Flip). Eine visuelle Ausgabe und Darstellung erfolgt als Betragsspektrum.


3.2. RESTAURIERUNG EINZELNER INTENSITÄTSBILDER 67<br />

(a) (b) (c)<br />

(d) (e) (f)<br />

Abbildung 3.10: (a) Vergrößerter heller Ausschnitt (b) einer endoskopischen Aufnahme (a)<br />

die mit einem Bildbündel aus Quarzfasern übertragen wurde. (c) Fourier-Spektrum und (d)<br />

geeignete Kreismaske zur spektralen Filterung. (e,f) Beispiel der Rasterreduktion an einem<br />

Bildausschnitt, der in (a) gekennzeichnet ist.<br />

Masken für Glasfaserbündel Im Fall der Abbildung durch ein Glasfaserbündel<br />

zeigt das Spektrum typischerweise sechs Frequenzschwerpunkte, die von der homo-<br />

genen hexagonalen Anordnung des Wabenmusters herrühren (vgl. Abb. 3.11). Neben<br />

den bereits für das Spektrum des Quarzfaserbündels genannten Parametern kommt hier<br />

noch der Winkel αs ins Spiel, der die Rotationsvarianz der Frequenzverteilung charak-<br />

terisiert. Um die Vorteile der Konzentration in der Frequenzanordnung für die Filterung<br />

nutzen zu können, wird in diesem Fall eine sternförmige Maske MG erstellt, die dem<br />

eindimensionalen Verlauf einer Rechteckfunktion mit variabler Grenzfrequenz f0 · l<br />

entspricht. Der rotationsabhängige Parameter l erhöht dabei durch seinen Definitions-<br />

bereich 1 ± ζ mit ζ ≤ 1 die Grenzfrequenz f0 für Abschnitte zwischen den sechs<br />

Frequenzschwerpunkten der Wabenstruktur und verringert sie für Abschnitte in der<br />

Nähe der Frequenzschwerpunkte. αs wird als Winkel zwischen vertikaler Achse und<br />

der Verbindung zwischen dem Zentrum und dem ersten Spitzenwert in mathematisch<br />

positiver Richtung definiert (s. Abb. 3.11).


68 3.2. RESTAURIERUNG EINZELNER INTENSITÄTSBILDER<br />

(a) (b) (c)<br />

(d) (e) (f)<br />

Abbildung 3.11: (b) Vergrößerter heller Ausschnitt (a) einer endoskopischen Aufnahme nach<br />

Übertragung mit einem Bildbündel aus Glasfasern. (c) Fourier-Spektrum mit charakteristi-<br />

schen Größen und (d) geeignete Sternmaske zur spektralen Filterung. (e,f) Beispiel der Raster-<br />

reduktion an einem Bildausschnitt, der in (a) gekennzeichnet ist.<br />

MG(i, j) =<br />

mit<br />

und<br />

<br />

1, r < f0 · l(i, j)<br />

0, sonst<br />

0 ≤ i < W, 0 ≤ j < H<br />

l(i, j) = (1 − ζ) + cos 2 (3 · α + αs) · 2ζ <br />

, (3.12)<br />

wobei α den Winkel ∠(i, j) eines Frequenzpunktes (i, j) bezüglich der Spektrumsmitte<br />

und der vertikalen Achse i = 0 bezeichnet. Der Term cos 2 (3 · . . .) bewirkt die peri-<br />

odische Frequenzerweiterung, die sich in Form von sechs abgerundeten Sternspitzen<br />

äußert. Das Zusammenspiel von Gewichtungsterm 2 · ζ und Summand (1 − ζ) führt<br />

zur beschriebenen Sternform und sichert gleichzeitig eine konstante Gesamtfläche zwi-<br />

,


3.2. RESTAURIERUNG EINZELNER INTENSITÄTSBILDER 69<br />

(a) (b) (c) (d)<br />

Abbildung 3.12: Überblick über die vier Maskentypen, die zur Filterung von endoskopisch<br />

erfassten Aufnahmen aus deren Spektrum abgeleitet werden können: Kreisförmig mit hartem<br />

Übergang (a), kreisförmig mit weichem Übergang (b), sternförmig mit hartem Übergang (c)<br />

und sternförmig mit weichem Übergang (d).<br />

schen Stern und Kreis mit gleicher Grenzfrequenz f0. Die Äquivalenz der Flächen kann<br />

über das Kreisintegral gezeigt werden, nach dem gilt:<br />

2π f0<br />

0<br />

0<br />

r · (1 − ζ) + cos 2 (3 · α + αs ) · 2ζ dr dα = f 2 0 π .<br />

Weicher Übergang der Grenzfrequenz Vorteilhaft an der Maskengenerierung, wie<br />

sie in den vergangenen zwei Abschnitten beschrieben wurde, ist die Grenzfrequenz,<br />

die Frequenzen über einem fest definierten Wert f0 vollständig unterdrückt. Über die<br />

Signaltheorie kann diese Grenzfrequenz exakt so gewählt werden, dass periodische<br />

Anteile der Wabenstruktur unterdrückt werden und gleichzeitig der maximal mögliche<br />

Frequenzanteil der Bildinformation erhalten bleibt.<br />

Eine Tiefpassfilterung resultiert stets in einer Weichzeichnung von Strukturen im<br />

Ortsraum. Die Kreismaske ist in der Lage, mit einer harten Grenze die Bildfrequen-<br />

zen von denen der Wabenstruktur zu separieren. Parallel zu harten Kanten, z. B. durch<br />

kontrastreich ausgesteuerte Bildinhalte, ist im gefilterten Bild ein Überschwingen der<br />

Intensität zu beobachten (vgl. Abb. 3.13(f)). Diese Artefakte lassen sich durch die sinc-<br />

Funktion 9 erklären, mit der das Bild im Ortsraum gefaltet wird, wenn im Frequenzbe-<br />

reich eine Rechteckfunktion angesetzt wird. Um diesem Effekt im Ortsraum entgegen-<br />

zuwirken, müsste eine Gauß-Funktion verwendet werden, die sowohl im Orts- als auch<br />

im Frequenzbereich die gleichen Eigenschaften im Verlauf zeigt. Nachteil hierbei ist<br />

dann der unscharfe Übergang im Bereich der Grenzfrequenz. Bildanteile können nicht<br />

mehr klar von Strukturanteilen getrennt werden. Die Frequenzanteile werden im Über-<br />

gangsbereich um f0 zu beiden Seiten hin gedämpft.<br />

9 sinc-Funktion: (engl. sinus cardinalis) Die sincFunktion ist als sin(x)/x definiert und spielt in der<br />

Signalverarbeitung eine wichtige Rolle


70 3.2. RESTAURIERUNG EINZELNER INTENSITÄTSBILDER<br />

(a) (b)<br />

(c) (d) (e)<br />

(f) (g) (h)<br />

Abbildung 3.13: (a) Fiberskopische Aufnahme eines Schachbrettmusters mit kontrastreichen<br />

Übergängen sowie (b) ein vergrößerter Ausschnitt. (f) Gefilterter Ausschnitt mit (c) Maske ohne<br />

Glättung, in dem wellenartiges Überschwingen parallel zu hell-dunkel-Übergängen erkennbar<br />

ist. Gleicher Ausschnitt (g,h) mit weicher Maskierung, d.h. Maske (d,e) wird zunächst um den<br />

Faktor 0.1 (d) bzw. um 0.2 (e) geglättet. Dadurch reduziert sich der beschriebene Einschwing-<br />

effekt an den Kanten.<br />

Als Kompromiss wird deshalb der scharfe Rand der Maske durch Gauß-Glättung<br />

mit einem weichen Übergang versehen. Der bislang diskrete Definitionsbereich der<br />

Masken erweitert sich damit auf das kontinuierliche Intervall [0.0; 1.0]. Die Filterer-<br />

gebnisse hinterlassen insbesondere nach visuellen Gesichtspunkten, verglichen mit der


3.2. RESTAURIERUNG EINZELNER INTENSITÄTSBILDER 71<br />

harten Filterung einen besseren Eindruck. Abbildung 3.13(g) und Abbildung 3.13(h)<br />

zeigen das Filterergebnis nach Glättung der Maske um den Faktor 0.1 bzw. 0.2.<br />

3.2.2 Physikalisch motivierte Grauwertinterpolation<br />

Die Idee der Faserregistrierung [EKP93], zusammen mit einer flächenabhängigen Ge-<br />

wichtung der Intensitäten [Bro00] bildet die Grundlage für den Algorithmus zur phy-<br />

sikalisch motivierten Interpolation, wie er von Weisensel [Wei05] erstmals für einen<br />

pixelgenauen Ansatz zur Auflösungssteigerung umgesetzt und daraufhin mit Elter et al.<br />

optimiert wurde [ERW06]. Er beruht auf den physikalischen Eigenschaften der Licht-<br />

wellenübertragung von Glasfasern. Die Intensitätsverteilung über den Querschnitt ei-<br />

ner Faser entspricht in erster Näherung einer Normalverteilung und wird durch eine<br />

zweidimensionale Gauß-Verteilung modelliert (vgl. Abschn. 3.1.1.1). Der Algorith-<br />

mus arbeitet zweistufig. Zunächst wird auf einem leeren Bild mit hellem Hintergrund<br />

die Faserverteilung registriert und in Form eines Delaunay-Gitters gespeichert. Dieser<br />

Schritt ist rechenintensiv und wird lediglich bei veränderter Ausrichtung von Faser-<br />

querschnitt zu Kamerasensor durchgeführt. Im zweiten, für alle folgenden Aufnahmen<br />

durchzuführenden Schritt werden durch Interpolation zwischen den subpixelgenau be-<br />

stimmten Faserzentren wabenfreie Ausgangsbilder berechnet (vgl. Ablaufdiagramm in<br />

Abb. 3.14).<br />

Da die Faserregistrierung sehr empfindlich auf eine Verschiebung zwischen Faser-<br />

bündel und Bildsensor reagiert, kann eine sog. Nachkalibrierung die Anwendung des<br />

Verfahrens deutlich verbessern. Dazu registriert der Algorithmus in regelmäßigen Ab-<br />

ständen (z. B. alle drei bis fünf Bilder) in ausreichend beleuchteten Regionen der Auf-<br />

nahme eine mögliche Verschiebung und aktualisiert die gespeicherten Faserpositionen<br />

automatisch durch die geschätzte Bewegung. Diese Nachkalibrierung wird besonders<br />

unter Berücksichtigung der Beschleunigung durch zusätzliche Hardware interessant<br />

(vgl. Abschn. 3.4), die eine ausreichende Leerlaufzeit zwischen den Interpolationszy-<br />

klen ermöglicht.<br />

3.2.2.1 Faserregistrierung<br />

Ziel der Faserregistrierung ist die subpixelgenaue Bestimmung der projizierten Faser-<br />

mittelpunkte auf dem Bildsensor. Dazu wird ein heller, homogen ausgeleuchteter Be-<br />

reich, beispielsweise auf einem matten, weißen Kunststoff oder einem holzfreien Kar-<br />

ton mit dem Endoskop erfasst und als sog. Weißbild Îref gespeichert. Der dreistufige


72 3.2. RESTAURIERUNG EINZELNER INTENSITÄTSBILDER<br />

Abbildung 3.14: Ablaufdiagramm der physikalisch motivierten Interpolation.<br />

Abbildung 3.15: Ablaufdiagramm der Faserregistrierung als Kalibrierschritt der Interpolation<br />

(vgl. Abb. 3.14). Die möglichen Kandidaten für Faserzentren werden ihrer Wahrscheinlichkeit<br />

nach gewichtet, feinpositioniert und über ein Distanzkriterium zu einem Delaunay-Gitter zu-<br />

sammengefügt.<br />

Vorgang (vgl. Abb. 3.15) der Registrierung beginnt mit der Groblokalisierung von sog.<br />

Kandidatenpixel, die daraufhin nach ihrer Relevanz bewertet werden. Ein hoher Wert<br />

indiziert dabei die starke Ähnlichkeit mit einer symmetrischen Gauß-Verteilung, wel-<br />

che in erster Näherung die Intensitätsverteilung einer lichtleitenden Faser beschreibt.<br />

Im zweiten Schritt werden iterativ Gauß-Funktionen in die Helligkeitsverteilung ein-<br />

gepasst, wobei als Initialwert für die Position die Koordinaten der Kandidatenpixel<br />

verwendet werden. Abschließend werden die präzisierten Kandidatenpixel in abstei-<br />

gender Reihenfolge ihrer Relevanz und unter Berücksichtigung eines definierten Ab-<br />

standsmaßes einem Delaunay-Gitter hinzugefügt, das die Datenbasis für die Interpola-<br />

tion bildet. Der Vorgang der subpixelgenauen Registrierung ist Bestandteil der Erfin-<br />

dungsmeldung [EWR + 06].<br />

Glättung Der Algorithmus zur Auffindung von Faserzentren verlässt sich darauf,<br />

dass die Intensitätsverteilung vom Mittelpunkt der Faser aus streng monoton abfallend<br />

verläuft. Messungen haben gezeigt, dass die tatsächliche Verteilung jedoch durch Rau-<br />

schen der bildgebenden Elektronik Störungen aufweist, die sich in einigen Fällen bei<br />

der Detektion der Maxima negativ bemerkbar machen.


3.2. RESTAURIERUNG EINZELNER INTENSITÄTSBILDER 73<br />

(a)<br />

(b) (c)<br />

(d) (e)<br />

Abbildung 3.16: Größe (gekennzeichnet mit Quadraten) und Varianz (gekennzeichnet mit<br />

Punkten) der Impulsantwortmatrix in Abhängigkeit des geschätzten Faserabstands (a). Resul-<br />

tate des Maximumfilters (c) bzw. (e): auf den Originaldaten (b) bzw. auf den geglätteten Daten<br />

(d).<br />

Aus diesem Grund wird das Bild zunächst mit einer symmetrischen Gauß-Impuls-<br />

antwortmatrix der Größe Wk gefaltet. Der ungerade Wert Wk leitet sich aus dem ge-<br />

schätzten Faserabstand ˜df ab. Indem sie kleiner gewählt wird, als der Faserabstand,<br />

bleiben die strukturellen Eigenschaften der Intensitätsverteilung durch die Glättung er-<br />

halten. Die Standardabweichung σk der Impulsantwortmatrix zur Glättung wird derart<br />

gewählt, dass der minimale Wert am Rand der Impulsantwortmatrix einen maximalen<br />

Prozentsatz pσ = 5% des Spitzenwerts nicht übersteigt:<br />

σk =<br />

Wk−1<br />

4· √ − log 2 pσ<br />

0 sonst<br />

für Wk > 4<br />

Die geeignete Fensterbreite in Abhängigkeit von ˜df, als auch die Schwelle bei ˜df = 4,<br />

ab der eine Glättung als Vorverarbeitung durchgeführt wird, wurden empirisch festge-<br />

legt.<br />

Die beabsichtigte Wirkung zeigt sich bei relativ großen Faserabständen, bei denen<br />

der Maximumfilter durch die verrauschten Intensitätswerte sonst keine geschlossenen<br />

Kandidatenbereiche mehr liefern würde (vgl. Abb. 3.16 (c)). Durch die Glättung er-<br />

zielt der nun folgende Schritt zur Groblokalisierung von Kandidatenpixel geschlossene<br />

Kandidatenbereiche.<br />

.


74 3.2. RESTAURIERUNG EINZELNER INTENSITÄTSBILDER<br />

Groblokalisierung von Kandidatenpixel Der Algorithmus zur präzisen Bestim-<br />

mung der Faserposition kann prinzipiell für jede Position im Bild ausgeführt werden,<br />

erfordert jedoch einen hohen Rechenaufwand. Aus diesem Grund werden zunächst<br />

pixelgenau potenzielle Bildpunkte als sog. Kandidatenpixel ausgemacht.<br />

Dazu werden lokal helle Strukturen geortet, indem ein Fenster der Breite ˜df über<br />

das Bild gleitet und jeweils innerhalb dieser Nachbarschaftsumgebung N (x, y) die ma-<br />

ximale Intensität Îmax mit der minimalen Intensität Îmin verglichen wird. Übersteigt die-<br />

se Differenz eine festgelegte Schwelle mdist, so gilt die Koordinate (xmax; ymax) des<br />

ermittelten Maximums in der Umgebung N (x, y) als Kandidatenpixel:<br />

Pkand = <br />

(ˆx, ˆy)| Îmax − Îmin > mdist<br />

. (3.13)<br />

Dadurch, dass der Schwellwert auf die lokale Intensitätsdifferenz bezogen wird, be-<br />

rücksichtigt die Filterung simultan den sonst notwendigen Schritt einer Gradientenkor-<br />

rektur. Dieser ist erforderlich, da durch die eingeschränkte endoskopische Beleuchtung<br />

die Helligkeit im Bild zu den Rändern hin meist deutliche abfällt (vgl. Abschn. 2.3.3).<br />

Abbildung 3.16 (e) zeigt für das Ausgangsbild (d) das Resultat der Kandidatensuche,<br />

wobei jeder weiße Bildpunkt eine mögliche pixelgenaue Koordinate für ein Faserzen-<br />

trum darstellt.<br />

Die Bedeutung dieser Einschränkung des Suchraums soll an einem typischen Bei-<br />

spiel verdeutlicht werden. Ein Bild der Größe 1024×768 Pixel zeigt eine faseroptische<br />

Abbildung mit 30.000 Fasern (vgl. Abb. 3.17(a)). Innerhalb einer ROI, die mit einem<br />

Radius von 345 Pixel nahezu die gesamte sichtbare Apertur abdeckt, müssen von ur-<br />

sprünglich 374.145 möglichen Pixelpositionen dann nur noch 46.050 Kandidatenpixel<br />

(vgl. Abb. 3.17(c)) bearbeitet werden. Das entspricht einer Reduzierung auf weniger<br />

als 13%. Noch wirkungsvoller sind die Zahlen bei geringerer Faserdichte. Es wur-<br />

de überprüft, dass sich unter den Kandidatenpixel noch sämtliche richtigen Faserzen-<br />

tren befinden. Werden die Schritte A und B im Ablauf der Abbildung 3.15 übersprun-<br />

gen und dementsprechend ohne Vorselektion die Präzisierung und Triangulierung ab<br />

Schritt C auf allen möglichen Bildpunkten durchgeführt, so steigert dies die Berech-<br />

nungszeit für das oben verwendete Beispiel auf der eingesetzten Rechnerarchitektur<br />

um das 15-fache von 6, 3s auf 98, 7s, da die Präzisierung während der Triangulierung<br />

im Gegensatz zur Kandidatenselektion vergleichsweise rechenintensiv ist.<br />

Relevanzbewertung In diesem Schritt wird die Ähnlichkeit der Intensitätsverteilung<br />

in der Umgebung von Kandidatenpixel mit einer definierten Gauss-Verteilung bewer-


3.2. RESTAURIERUNG EINZELNER INTENSITÄTSBILDER 75<br />

(a) (b) (c)<br />

(d) (e) (f)<br />

Abbildung 3.17: Bestimmung von Kandidatenpixel zur Reduktion des Berechnungsaufwands<br />

für die Bestimmung von Faserzentren.<br />

tet. Dazu wird ein Template 10 T mit den diskreten Funktionswerten einer 2D-Gauß-<br />

Verteilung erstellt, deren Mittelwert auf dem Zentrum des Fensters liegt. Die Größe<br />

des Fensters entspricht dem abgerundeten geschätzten Faserabstands ˜df. Die Varianz<br />

der Gauß’schen Intensitätsverteilung wird wie im Abschnitt Glättung über das 5%-<br />

Kriterium festgelegt. Durch blockweisen Vergleich mit dem Template-Fenster wird<br />

nun zu jedem Kandidatenpixel pkand,i die Summe der quadratischen Differenz als Re-<br />

levanzfaktor 11 ϑ(pkand,i) berechnet:<br />

ϑ(pkand,i) = 1<br />

2 ˜df<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

N (pkand,i)<br />

<br />

<br />

<br />

2<br />

Î(x, y) · T(x, y) − T(x, y) <br />

<br />

<br />

, (3.14)<br />

wobei T(x, y) bzw. Î(x, y) die Intensitätswerte des Templates bzw. des Kalibrierbilds<br />

in der <br />

˜df × ˜df -Nachbarschaft N bezeichnen.<br />

Die Helligkeit der Kandidatenpixel in Abbildung 3.17(f) repräsentiert den Wert der<br />

Relevanzfaktoren als Beispiel für die Kandidatenpixel aus Abbildung 3.17(e).<br />

10 Template: Intensitätsmatrix, hier zum blockweisen Vergleich der Ähnlichkeit von Bildausschnitten<br />

11 Relevanzfaktor: Charakteristischer Wert für die Ähnlichkeit eines Bildausschnitts zu einer definier-<br />

ten Vergleichsgröße, hier einer Gauß-Funktion


76 3.2. RESTAURIERUNG EINZELNER INTENSITÄTSBILDER<br />

Präzisierung der Faserposition Nun werden die Faserpositionen und charakteristi-<br />

schen -eigenschaften an den ermittelten Kandidatenpixel präzisiert, indem die variable<br />

Gauß-Funktion<br />

<br />

2 (x − µx)<br />

g(x, y; v) = a · exp −<br />

2σ2 −<br />

x<br />

2 (y − µy)<br />

2σ 2 y<br />

(3.15)<br />

mit dem Parametervektor v = [µx, µy, σx, σy, a] durch nichtlineare Optimierung an<br />

die jeweilige Intensitätsverteilung in der lokalen Umgebung N angepasst wird. Als<br />

Resultat dieses iterativen Schritts liegen folgende detaillierte Informationen über die<br />

Gauß-Verteilung vor:<br />

• Mittelwert µx,µy: Faserzentrum<br />

• Varianz σx,σy: Breite der Lichtverteilung<br />

• Amplitude a: Intensitätsmaximum<br />

Für jedes Kandidatenpixel pkand,i wird Gleichung (3.15) mit der Pixelposition als Start-<br />

wert für die Nachbarschaft N (pi) durch nichtlineare Optimierung des Least-Square<br />

Problems 12 bezüglich des Parametervektors v angepasst:<br />

v = argmin r(pkand,i, u)<br />

u<br />

mit<br />

r(pkand,i, u) = <br />

N (pkand,i)<br />

g(x, y; u) − Î(x, y) 2<br />

Das Residuum r wird iterativ nach der Levenberg-Marquardt Methode minimiert.<br />

Falls die Optimierung innerhalb einer definierten Anzahl von Iterationen konvergiert,<br />

wird der Mittelwert µx,µy als subpixelgenaues Faserzentrum, die Amplitude a als Refe-<br />

renzwert für die Helligkeit, das verbleibende Residuum r als präzisierter Relevanzfak-<br />

tor und die Varianz σx,σy als charakteristische Größe zur nachträglichen Modellierung<br />

der lokalen Helligkeitsverteilung gespeichert. Kann die Optimierung für ein Kandi-<br />

datenpixel nicht abgeschlossen werden, so verbleibt der grobe Schätzwert des block-<br />

weisen Vergleichs als Relevanzfaktor, ebenso verbleibt die Faserposition, d.h. sie wird<br />

pixelgenau übernommen und als Helligkeit wird ein Schätzwert aus den umliegenden<br />

Bildpunkten ermittelt (vgl. Abschn. 3.2.2.2).<br />

In der Anwendung der Interpolation hat sich gezeigt, dass die Varianz der Inten-<br />

sitätsverteilung ohne Einschränkungen als symmetrisch betrachtet werden kann. Die<br />

drate<br />

12 Least-Square Problem: Näherung eines Gleichungssystems nach der Methode der kleinsten Qua-<br />

.


3.2. RESTAURIERUNG EINZELNER INTENSITÄTSBILDER 77<br />

(a) (b)<br />

(c) (d) (e)<br />

Abbildung 3.18: (a) Kandidatenpixel in vergrößertem Ausschnitt eines Kalibrierbilds (vgl.<br />

Abb. 3.17(c)). Pixelgenaue Positionen möglicher Faserzentren sind durch Quadrate markiert,<br />

wobei mit einem Kreuz diejenigen gekennzeichnet sind, die im Zuge der Triangulierung auf-<br />

grund des Distanzkriteriums unberücksichtigt bleiben. (b) Feinpositionierte Faserzentren. (c-e)<br />

Triangulierung der Faserzentren in drei Schritten.<br />

Verwendung nur einer Variablen für diese Charakterisierung vereinfacht und beschleu-<br />

nigt den Vorgang der Präzisierung.<br />

Bedingte Triangulierung nach absteigender Relevanz Der Bereich einer einzel-<br />

nen Faser kann auch nach der Reduzierung der Bildpunkte durch mehrere mögliche<br />

Kandidatenpixel beschrieben werden. Dabei ist es möglich, dass zwei oder gar mehre-<br />

re Kandidatenpixel durch die iterative Anpassung einer Gauß-Funktion auf denselben<br />

subpixelgenauen Punkt zu liegen kommen. Wichtig ist, dass lediglich ein Kandidaten-<br />

pixel pkand,i, nämlich dasjenige mit dem höchsten Relevanzfaktor ϑ(pkand,i), als Faser-<br />

zentrum berücksichtigt wird. Um dies sicherzustellen, werden die Kandidatenpixel ab-<br />

steigend bezüglich ihrer Relevanz einem geordneten Dreiecksgitter (Delaunay-Gitter)<br />

hinzugefügt. Damit nicht mehrere Kandidatenpixel aus dem Bereich einer einzelnen<br />

Faser hinzugefügt werden, weil sie alle einen höheren Relevanzfaktor aufweisen als<br />

ein Kandidatenpixel einer weiteren Faser, wird das Hinzufügen vom Abstand zu schon<br />

eingefügten Stützstellen abhängig gemacht. Diese Abstände liegen im gesamten Aper-<br />

turbereich in einem nahezu konstanten engen Bereich (vgl. Aufbau in Abschn. 2.3.1),<br />

für den in Abhängigkeit des geschätzten Faserabstands ˜df eine untere Schranke festge-


78 3.2. RESTAURIERUNG EINZELNER INTENSITÄTSBILDER<br />

legt werden kann: dmin = (1 − ζ) · ˜df. Die Toleranz, die durch den Parameter ζ gewährt<br />

wird, ist in der vorliegenden Implementierung auf etwa 5% gesetzt.<br />

Mit D k−1 , k < NF, liege eine Delaunay-Triangulierung vor, die bereits eine Menge<br />

an Gitterpunkten enthält (vgl. Abb. 3.17(c)). di bezeichne die NN Distanzen eines wei-<br />

teren präzisierten Kandidatenpixels pkand zu seinen NN nächstgelegenen Nachbarn pf ,n,<br />

n ≤ NN, im Gitter. Erfüllt der Kandidat die Bedingung di ≤ dmin∀pf ,n, so wird er dem<br />

Delaunay-Netz als weiteres Faserzentrum hinzugefügt (vgl. Abb. 3.17(d)). Durch die<br />

ausreichend homogen verteilte hexagonale Struktur der Faserzentren im endgültigen<br />

Gitter D NF , kurz D (vgl. Abb. 3.17(e)) bilden alle natürlichen Nachbarn auch gleich-<br />

zeitig die nächsten Nachbarn der Triangulierung und müssen daher in der Betrachtung<br />

von Nachbarschaftsverhältnissen nicht unterschieden werden.<br />

3.2.2.2 Interpolation<br />

Nach der subpixelgenauen Lokalisierung der Faserzentren bilden diese nun die Stützt-<br />

stellen für eine Interpolation aller dazwischenliegenden Bildpunkte. Dieser Vorgang<br />

wird für spätere Abschnitte mit dem Operator I symbolisiert. Unter der Annahme<br />

einer konstanten Verteilung der Fasern im Bildleiter bleibt sowohl der Mittelpunkt<br />

(µx, µy), als auch die Beschaffenheit der Helligkeitsverteilung, welche durch die Vari-<br />

anz (σx, σy) charakterisiert ist, für jede Faser konstant. Aus dem aktuellen Bild muss<br />

deshalb lediglich die Helligkeitsamplitude a bestimmt werden. Im Gegensatz zur itera-<br />

tiven initialen Berechnung der genannten konstanten Parameter, lässt sich die Amplitu-<br />

de für eine Faser mit dem Mittelpunkt (µx, µy) in expliziter Form in Abhängigkeit der<br />

benachbarten Intensitätswerte Î(x, y) angeben. Aufgrund bekannter Varianz der Gauß-<br />

Verteilung genügen wenige Intensitätswerte für eine hinreichend genaue Berechnung<br />

von a. Am Beispiel der Vierer-Nachbarschaft ABCD (vgl. Abb. 3.19) wird für den<br />

bekannten Intensitätsvektor i = Î(xA, yA), Î(xB, yB), Î(xC, yC), Î(xD, yD) T das lineare<br />

Gleichungssystem für die exponentielle Verteilung aufgestellt:<br />

i = a · m , (3.16)<br />

wobei m = (mA, mB, mC, mD) T den Vektor mit Exponentialtermen der Gauß-Vertei-<br />

lung bezeichnet, für den gilt:<br />

<br />

mk = exp − 1<br />

<br />

(µx − xk)<br />

2<br />

2<br />

σ 2 x<br />

+ (µy − yk) 2<br />

σ2 <br />

y<br />

für k = {A, B, C, D} .<br />

Zur Lösung der Gleichung (3.16) nach a kann die für Vektoren entartete Moore-<br />

Penrose-Inverse M + angewendet werden [BIG03]. Sie liefert das explizite Optimum


3.2. RESTAURIERUNG EINZELNER INTENSITÄTSBILDER 79<br />

⎧<br />

⎪⎨<br />

<br />

xA<br />

yA<br />

pI,A<br />

<br />

,<br />

<br />

xB<br />

yB<br />

pI,B<br />

<br />

,<br />

<br />

xC<br />

yC<br />

pI,C<br />

<br />

,<br />

<br />

xD<br />

yD<br />

⎪⎬<br />

=<br />

⎪⎩ ⎪⎭<br />

pI,D<br />

<br />

⌊µx⌋<br />

⌊µy⌋<br />

,<br />

⌈µx⌉<br />

⌊µy⌋<br />

,<br />

⌊µx⌋<br />

⌈µy⌉<br />

,<br />

⌈µx⌉<br />

⌈µy⌉<br />

Abbildung 3.19: Vierer-Nachbarschaft {pA, pB, pC, pD} eines Faserzentrums zur Berechnung<br />

der Amplitude in expliziter Form für die Interpolation.<br />

für den Parameter a hinsichtlich der minimalen euklidischen Norm für das aufgestellte<br />

System:<br />

a = i · m + mit m + = mT<br />

m T · m<br />

⎫<br />

. (3.17)<br />

Im Gegensatz zur initialen Registrierung der Fasern wird an die Interpolation die<br />

Anforderung einer Echtzeitverarbeitung der Bilddaten gestellt. Daher wird eine Look-<br />

up-Tabelle erstellt, die für jeden Bildpunkt pI die Information zur Gewichtung der NN<br />

beteiligten Stützstellen pf ,i mit i ∈ {1; . . . ; NN} bereitstellt, aus welchen sich die In-<br />

tensität I(pI) zusammensetzt. Statt einer relativ ungenauen linearen Kombination aus<br />

NN ≤ 2 Stützstellen, wird die Helligkeit I(pI) standardmäßig aus mindestens drei,<br />

nämlich den begrenzenden Eckpunkten des umschließenden Dreiecks gebildet. Das<br />

Prinzip der baryzentrischen, auch affin genannten Kombination gewichtet die Intensi-<br />

täten ai i ≤ NN der NN Stützstellen des einschließenden Dreiecks gemäß ihrer bary-<br />

zentrischen Koordinaten bi bezüglich des Bildpunkts pI:<br />

NN <br />

I(pI) = bi(pI) · ai .<br />

i=1<br />

Beispiel: Für NN = 3 lauten die baryzentrischen Koordinaten eines Bildpunkts pI be-<br />

züglich seiner drei umschließenden Stützstellen pf ,1, pf ,2 und pf ,3 mit den Koordinaten<br />

(x1; y1), (x2; y2) und (x3; y3)<br />

b1 = 1<br />

c (px(y2 − y3) + x2(y3 − py) + x3(py − y2)) (3.18)<br />

b2 = 1<br />

c (x1(py − y3) + px(y3 − y1) + x3(y1 − py)) (3.19)<br />

b3 = 1<br />

c (x1(y2 − py) + x2(py − y1) + px(y1 − y2)) (3.20)<br />

mit<br />

c = x1(y2 − y3) + x2(y3 − y1) + x3(y1 − y2) .


80 3.2. RESTAURIERUNG EINZELNER INTENSITÄTSBILDER<br />

(a) (b)<br />

(c) (d)<br />

Abbildung 3.20: Beispiel der physikalisch motivierten Interpolation an einem realen Bild des<br />

Hohlraums eines technischen Bauteils. Das Original (a) mit vergrößertem Ausschnitt (c), sowie<br />

das interpolierte Ergebnis (b) mit dem gleichen Ausschnitt (d).<br />

Als Beispiel für die Auswirkung der Interpolation auf das endoskopische Abbild<br />

des Hohlraums eines technischen Bauteils sind in Abbildung 3.20 das Originalbild (a)<br />

und das interpolierte Ergebnis (b) gegenübergestellt. Im vergrößerten Ausschnitt (c)<br />

des Originals sind deutlich die Wabenartefakte zu sehen, die nach der Interpolation<br />

aus dem Abbild (d) entfernt sind.<br />

Eine nichtlineare Gewichtung mit trigonometrischen oder polynomialen Funktio-<br />

nen, sowie eine intelligente Kombination von mehr als drei Stützstellen pro Bildpunkt<br />

ist angedacht, um glättend und gleichzeitig kantenerhaltend auf die Interpolation Ein-<br />

fluss zu nehmen (s. Ausblick).


3.2. RESTAURIERUNG EINZELNER INTENSITÄTSBILDER 81<br />

3.2.3 Anwendung zur Kompensation singulärer Faserdefekte<br />

Die gute Abbildungseigenschaft von flexiblen Endoskopen steht und fällt mit der Funk-<br />

tionsfähigkeit der Fasern im Bildbündel. Sowohl durch unsachgemäßen oder längeren<br />

Gebrauch unter hoher Beanspruchung, als auch durch schlechte Produktionsbedingun-<br />

gen kann ein Bildbündel Faserdefekte aufweisen. Diese äußern sich durch dunkle Stel-<br />

len in der Abbildung und repräsentieren jeweils eine gebrochene Faser, die also kein<br />

Licht mehr leitet.<br />

Angeregt durch eine Fragestellung eines Industriepartners wurde untersucht, in-<br />

wieweit ein degradiertes Bildbündel durch digitale Bildverarbeitung noch für (einge-<br />

schränkte) visuelle Kontrollen verwendet bzw. als preisgünstiges Gerät für den Hob-<br />

bybereich eingesetzt werden kann. Es zeigt sich, dass ein kombinierter Algorithmus,<br />

(a) (b)<br />

(c) (d)<br />

Abbildung 3.21: Gebrochene Fasern erzeugen singuläre Faserdefekte im Kalibrierbild (a). Bei-<br />

spielhafte Abbildung eines Firmenlogos durch das Endoskop (b). Filterung zur Eliminierung<br />

des Wabenmusters bewahrt dunkle Flecken (c). Gefilterte Interpolation entfernt Wabenmuster<br />

und Bildstörungen durch gebrochene Fasern (d).


82 3.3. ARTEFAKTREDUZIERENDE FARBINTERPOLATION<br />

bestehend aus Interpolation und Filterung prädestiniert ist, um einzelne Fehler auszu-<br />

gleichen und dadurch den visuellen Eindruck der abgebildeten Szene zu verbessern.<br />

Abbildung 3.21 zeigt die Anwendung der genannten Verfahren für ein Beispielbild.<br />

Im Kalibrierbild (a) und der direkten Aufnahme eines Firmenlogos mit dem Endoskop<br />

E11 (vgl. Tab. 4.1) sind (b) die gebrochenen Fasern in der sonst homogenen Waben-<br />

struktur deutlich zu erkennen. Die Anwendung der spektralen Maskierung durch eine<br />

sternförmige Tiefpassmaske (vgl. Abschn. 3.2.1) kann die Faserdefekte nicht beseiti-<br />

gen (c), da sie lokale Störungen in der Gitterstruktur nicht berücksichtigt. Wird jedoch<br />

zunächst die adaptive Interpolation (vgl. Abschn. 3.2.2) genutzt, so werden einzel-<br />

ne Bildstörungen toleriert und der Betrachter erhält einen fehlerfreien Eindruck der<br />

Szene (d). Die abschließende Filterung beseitigt Artefakte aus nicht differenzierbaren<br />

Intensitätsübergängen, die durch die Interpolation entstehen können. Eine quantitative<br />

Bewertung dieses kombinierten Vorgehens erfolgt in Abschnitt 4.4.<br />

3.3 Artefaktreduzierende Farbinterpolation<br />

Die Farbe ist ein bedeutendes Kriterium, wenn es um die optische Beurteilung von<br />

Objekt- und Objektflächeneigenschaften geht. In der Medizin spielt die Farbe von Tex-<br />

turen eine wichtige Rolle, wenn es z. B. um Gewebeveränderungen, Entzündungen und<br />

andere Auffälligkeiten z. B. auf Schleimhäuten geht. Daher ist es wichtig, die Verfah-<br />

ren zur Artefaktreduktion auch unter dem Aspekt der Farbe zu betrachten und zu erwei-<br />

tern. In den vorausgehenden Abschnitten wurde die Automatisierung für Algorithmen<br />

zur spektralen Filterung und der Interpolation aus kontinuierlichen Gittern beschrie-<br />

ben, die auf Basis von Intensitätsbildern arbeiten. Damit lassen sich positive Auswir-<br />

kungen auf die Qualität von Grauwertbildern und damit auf die Weiterverwendung<br />

z. B. für eine räumliche Rekonstruktion zeigen. Bei einer Visualisierung und optischen<br />

Bewertung der Bilddaten, sowie der Definition und Verarbeitung von Farbmerkmalen<br />

stoßen die herkömmlichen Ansätze auf Schwierigkeiten, wie Abschnitt 2.3.3 gezeigt<br />

hat.<br />

Mit dieser Arbeit wird eine wirksame Erweiterung zur artefaktfreien Bestimmung<br />

der Farbwerte an den registrierten Faserzentren vorgeschlagen. Sie verknüpft die In-<br />

terpolation aus dem subpixelgenauen Stützstellengitter mit dem Wissen um die An-<br />

ordnung des Mosaiks der Farbfilterelemente auf dem Bildsensor. Ein entsprechender<br />

Ansatz wurde als Erfindungsmeldung [WZ07] eingereicht. Die Anordnung der Farb-<br />

elemente kann dem Datenblatt des Kameramodells entnommen werden oder anhand<br />

einer Mosaikkalibrierung ermittelt werden. Indem direkt auf die sog. Rohdaten zuge-


3.3. ARTEFAKTREDUZIERENDE FARBINTERPOLATION 83<br />

Abbildung 3.22: Ablaufdiagramm der physikalisch motivierten Interpolation mit Erweiterung<br />

zur artefaktfreien Bestimmung der Farbwerte an den registrierten Faserzentren. Zur Verbesse-<br />

rung der Übersichtlichkeit ist der mögliche Schritt zur Nachkalibrierung ausgeblendet.<br />

griffen wird, kann der negative Einfluss des Demosaicing auf das Farbbild umgangen<br />

werden und die Farbwiedergabe mit implizitem Weißabgleich verbessert werden. Der<br />

Ablauf der stützstellenbasierten Interpolation aus Abschnitt 3.2.2 wird um die Zuwei-<br />

sung relevanter Sensorelemente, die Berechnung von Korrekturfaktoren für die Farb-<br />

verteilung und -gewichtung und die Farbbestimmung und -korrektur erweitert (vgl.<br />

Abb. 3.22).<br />

Demosaicing und Faserregistrierung Die im Abschnitt 3.2 zur stützstellenbasier-<br />

ten Interpolation beschriebene Faserregistrierung wird auf einem Intensitätsbild durch-<br />

geführt. Dazu werden die Rohdaten ˆRref des Weißbilds durch eine der Methoden aus<br />

Abschnitt 2.3.2 zu einem Grauwertbild konvertiert (Demosaicing). Die Faserregistrie-<br />

rung liefert eine geordnete Gitterstruktur D mit den subpixelgenauen Koordinaten des<br />

Schwerpunkts einer jeden Faser pf ,i, i ≤ NF.<br />

Zuweisung relevanter Sensorelemente Weil mehrere Sensorelemente SE(pf ) vom<br />

einfallenden Licht der Faser pf betroffen sind, werden diese Sensorelemente jeweils<br />

den Fasern mit der nächstliegenden Koordinate zugeordnet (vgl. Abb. 3.23). Dabei<br />

wird zunächst nicht berücksichtigt, mit welcher Intensität die einzelnen Sensorele-<br />

mente beitragen, sondern nur binär entschieden, welche Elemente auf welche Fasern<br />

Einfluss haben.


84 3.3. ARTEFAKTREDUZIERENDE FARBINTERPOLATION<br />

(a) (b)<br />

Abbildung 3.23: Vergrößerter Ausschnitt des Intensitätsbilds (a) und schematische Darstellung<br />

des Bayer-Pattern (b) um eine angedeutete Faser pf herum mit Markierung der zugewiesenen<br />

Sensorelemente SE.<br />

Korrekturfaktoren für Farbverteilung und -gewichtung Für jeden Farbkanal χ<br />

wird nun die Summe aller Intensitäten ˆRref der zugehörigen Sensorelemente im Roh-<br />

bild gebildet. Diese Summe wird als Kalibriersumme K bezeichnet:<br />

χ K(pf ) = <br />

SE(pf )<br />

χˆRref(pf ) mit χ ∈ {R, G, B} und pf ∈ D .<br />

Die Definition eines Referenzintensitätswerts ˆK(pf ) dient der Kompensation von glo-<br />

balen Helligkeitsgradienten und bietet eine Möglichkeit, die Berechnung des Aus-<br />

gangsbilds visuell realistischer zu skalieren. Ein guter Richtwert ist hier 90 − 95%<br />

der maximalen Helligkeit. Es ist auch möglich, den Wert an lokale Bildinhalte zu a-<br />

daptieren oder die mittlere Helligkeit einer normal beleuchteten Szene zu verwenden.<br />

Die Kalibriersumme wird auf den Referenzintensitätswert normiert und bildet so den<br />

Korrekturfaktor<br />

χ C(pf ) = ˆK(pf )<br />

χ K(pf ) mit χ ∈ {R, G, B} und pf ∈ D .<br />

Farbbestimmung und -korrektur Nach den initialen Phasen der Kalibrierung wer-<br />

den nun die Schritte zur Farbbestimmung und -korrektur auf einer ganzen Sequenz<br />

von Bildern durchgeführt, die entweder direkt von einer Kamera aufgenommen wer-<br />

den oder aus dem Speicher, z. B. einem Bildarchiv gelesen werden. O.B.d.A. werden<br />

die Schritte für ein einzelnes Bild ˆR der Sequenz beschrieben.<br />

Ähnlich der Summenbildung für die Korrekturfaktoren werden hier für alle zugehöri-<br />

gen Sensorelemente SE(pf ) einer Faser pf die Intensitäten aus dem zu bearbeitenden


3.4. NACHKALIBRIERUNG ZUR SYSTEMSTABILISIERUNG 85<br />

Bild ˆR entnommen und zur Summe E(pf ) summiert. Die Operation findet wiederum<br />

für alle Farbkanäle separat statt.<br />

χ<br />

E(pf ) = <br />

χˆR(pf ) mit χ ∈ {R, G, B} und pf ∈ D .<br />

SE(pf )<br />

Die korrigierte Intensität χ apf für den Farbkanal χ der Faser pf im aktuellen Bild ent-<br />

steht durch Multiplikation mit dem Korrekturfaktor χ E(pf ):<br />

χ apf =χ E(pf ) · χ C(pf ) mit χ ∈ {R, G, B} und pf ∈ D .<br />

Als angepasster Farbwert wird der Faser pf im Gitter D nun das Intensitätstripel apf =<br />

<br />

Rapf ,G apf ,B <br />

apf zugewiesen.<br />

Das beschriebene Vorgehen ist beispielhaft für die RGB-Repräsentation dargestellt,<br />

gleichwohl sich beliebige Anzahl und Arten von Farbkanälen auf diese Weise berück-<br />

sichtigen lassen. Bekannte Aufgabenstellungen aus dem industriellen Umfeld erfor-<br />

dern hier z. B. ein nicht sichtbares Spektrum im nahen infraroten Bereich, was für die<br />

Software algorithmisch problemlos handhabbar ist.<br />

Farbinterpolation Die Faserzentren pf des Gitters D werden um die korrigierten<br />

Farbwerte apf ergänzt und stehen daraufhin als Datenbasis für die baryzentrische Interpolation<br />

zur Verfügung. Für eine schnelle Bearbeitung werden die Nachbarschafts-<br />

beziehungen des Gitters sowie die zugehörigen Farbdaten in einer Lookup Tabelle vor-<br />

gehalten, aus der für jedes Sensorelement, das zwischen genau drei Faserzentren liegt,<br />

die nötige Information zur Restaurierung entnommen werden kann.<br />

3.4 Nachkalibrierung zur Systemstabilisierung<br />

Im Einsatz unterliegen Endoskopsysteme oft einer starken mechanischen Beanspru-<br />

chung. Die Verbindung zwischen dem Okular des Endoskops und dem Kamerasensor<br />

z. B. über eine mechanische Verschraubung oder einen Bajonettverschluss reagiert äu-<br />

ßerst sensibel auf solche Kräfte, da bereits eine kleine Verschiebung in der Größenord-<br />

nung weniger Mikrometer oder eine Drehbewegung um wenige Winkelsekunden zu<br />

einem Versatz des Bildbündels in der Größenordnung mehrerer Sensorelemente führt.<br />

Diese Veränderung wird hier als Dejustierung bezeichnet. Die Folge ist eine Verschie-<br />

bung der Faserzentren auf dem Bildsensor, die im Kalibrierschritt für die Interpolation<br />

registriert und gespeichert wurden (vgl. Abschn. 3.2.2). Dies hat massive Auswirkun-<br />

gen auf die Rekonstruktion, da die Berechnung der Lichtleiterintensitäten und -farben


86 3.4. NACHKALIBRIERUNG ZUR SYSTEMSTABILISIERUNG<br />

Ohne Nachkalibrierung<br />

(a) t = 0s (b) t = 1s (c) t = 2s (d) t = 3s<br />

Mit Nachkalibrierung<br />

(e) t = 0s (f) t = 1s (g) t = 2s (h) t = 3s<br />

Abbildung 3.24: Sequenz von restaurierten Bildern, die im zeitlichen Verlauf (von links nach<br />

rechts) einer Dejustierung durch Verdrehen der Verbindung zwischen Endoskop und Kamera<br />

unterzogen werden. Ohne zusätzliche Bearbeitungsschritte zeigt die Sequenz (a)-(d) deutliche<br />

Einbußen bezüglich Helligkeit und Struktur der Aufnahmen, wohingegen eine aktive Nachkali-<br />

brierung diese Effekte sichtbar reduziert (e)-(h).<br />

stark abhängig ist von der genauen Lichtleiterposition. In Abbildung 3.24 ist ein derar-<br />

tiger Vorgang im zeitlichen Verlauf dargestellt. Ohne zusätzliche Bearbeitungsschritte<br />

zeigt die Sequenz (a) bis (d) deutliche Einbußen bezüglich Helligkeit und Struktur der<br />

Aufnahmen, weil sich mit der Zeit die Faserpositionen verschieben, an deren Koordi-<br />

naten die Informationen aus dem Bild bestimmt werden.<br />

Prinzip der Nachkalibrierung Mit der Nachkalibrierung wird eine zeitdynamische<br />

Rückkopplung für die Kalibrierung entwickelt und vorgestellt, die während des Be-<br />

triebs eines Endoskops Korrekturen an den Kalibrierdaten vornehmen kann, um eine<br />

schleichende Dejustierung zu kompensieren. In Abschnitt 3.2.2 wurde die Kalibrie-<br />

rung als vergleichsweise zeitaufwändiger Vorgang beschrieben. Die Anforderungen<br />

der Nachkalibrierung sind jedoch nicht so hoch, wie die initiale Berechnung von cha-<br />

rakteristischen Parameter jeder einzelnen Faser, die zusätzlich in eine Nachbarschafts-<br />

beziehung gebracht werden müssen. Daher kann die Kalibrierung für die hier benötigte<br />

dynamische Nachführung vereinfacht werden.


3.4. NACHKALIBRIERUNG ZUR SYSTEMSTABILISIERUNG 87<br />

(a) (b) (c)<br />

Abbildung 3.25: (a) Individuelle Erkennung lokaler Verschiebungen von Faserzentren nach<br />

einer Dejustierung mit (b) vergrößerter Visualisierung eines einzelnen Bewegungsvektors. (c)<br />

Stabilisierung der Bewegung durch Optimierung mittels rigidem Bewegungsmodell.<br />

Aktualisierung der Faserpositionen Die Dejustierung eines Lichtleiters äußert sich<br />

dadurch, dass das Abbild seiner Lichtverteilung an einer verschobenen Stelle auf den<br />

Kamerasensor trifft. Um diese Verschiebung zu ermitteln, wird die Registrierung aus<br />

Abschnitt 3.2.2.1 erneut durchgeführt, diesmal jedoch in vereinfachter Form auf der<br />

Grafikkarte. Ein Schwellwert entscheidet darüber, ob sich die Intensitätsverteilung um<br />

die betrachtete Stelle herum für die Registrierung eignet. Dies ist im laufenden Betrieb<br />

nicht selbstverständlich, da eventuell durch zu starke Helligkeit die Faser übersteuert<br />

wiedergegeben wird oder sich die Faser durch zu geringe Ausleuchtung nicht ausrei-<br />

chend vom Hintergrund abhebt. Weiterhin ist entscheidend, dass sich die Faser seit der<br />

letzten Registrierung nicht zu weit entfernt hat, sonst wird die Lokalisierung fälsch-<br />

licherweise von den hellen Bereichen benachbarter Faserzentren beeinflusst. Sind die<br />

genannten Kriterien für die Umgebung einer Faser erfüllt, so wird die Registrierung<br />

durchgeführt. Als Ergebnis liegen aktualisierte Werte für die Faserpositionen vor.<br />

Rigides Bewegungsmodell zur Stabilisierung der detektierten Bewegung Durch<br />

eine geeignete Bildfrequenz kann sichergestellt werden, dass die Verschiebung zwi-<br />

schen jeweils zwei Bildern in der Größenordnung von wenigen Pixel bleibt. Im Ge-<br />

gensatz zur Bewegung von Objektmerkmalen in der Szene, die durch das Endoskop<br />

perspektivisch auf den Sensor abgebildet werden, kann die Dejustierung des Okular-<br />

adapters näherungsweise durch eine rigide Transformation beschrieben werden. Über<br />

ein entsprechendes Bewegungsmodell mit Translation und Rotation können die Para-<br />

meter der Verschiebungen, die im laufenden Betrieb nicht an allen Stellen zuverlässig<br />

erkannt werden können, stabiler bestimmt werden.


88 3.5. SUPERPOSITION IN FIBEROPTISCHEN BILDSEQUENZEN<br />

Schwierigkeit durch ungünstige Beleuchtung und homogenen Bildinhalt Die in-<br />

dividuelle Nachkalibrierung der einzelnen Faserzentren hat jedoch zwei nennenswerte<br />

Nachteile. Erstens unterliegt die lokale Erkennung einem gewissen Fehler, wie die<br />

Visualisierung der Bewegungsvektoren in Abbildung 3.25(a) zeigt. Eine wiederholte<br />

Kalibrierung schafft zwar in einigen Fällen Abhilfe, allerdings nur in den Bereichen, in<br />

denen eine aussagekräftige Verteilung vorliegt. Durch die zeitliche Dynamik von Über-<br />

steuerung oder Unterbelichtung in der Bildsequenz ist das jedoch oft nicht ausreichend<br />

möglich. Damit ist auch das zweite Problem angeschnitten, nämlich die Unsicherheit<br />

über die Beleuchtung und vor allem über den Inhalt einer endoskopischen Sequenz.<br />

Bleibt ein Ausschnitt über einen längeren Abschnitt unterbelichtet, können die dort<br />

befindlichen Lichtleiter möglicherweise keine Aktualisierung erfahren. In der Folge<br />

kann die Transformation soweit fortgeschritten sein, dass eine korrekte Bestimmung<br />

der Verschiebung nicht mehr möglich ist.<br />

Um dieses Problem in den Griff zu bekommen, werden durch Minimierung des<br />

quadratischen Fehlers aus den Einzelverschiebungen die Parameter für eine rigide<br />

Transformation bestimmt. Mit dieser Transformation werden sodann alle Lichtleiter-<br />

koordinaten aktualisiert, auch wenn diese gerade nicht zur Bestimmung der Bewe-<br />

gungsvektoren beitragen können. Die Visualisierung der Bewegungsvektoren zeigt die<br />

Stabilisierung der Bewegungen durch eine geringere Varianz in der Vektorgewichtung<br />

und -ausrichtung (vgl. Abb. 3.25(c)). Durch regelmäßige Aktualisierung der Faserzen-<br />

tren in den Gitterdaten arbeitet die Interpolation in der beabsichtigten Weise auch nach<br />

Dejustierungen, welche die genannten Grenzen einhalten und zeigt auch nach mehre-<br />

ren Schritten keine wahrnehmbaren Einbußen bezüglich der ursprünglichen Helligkeit<br />

und Struktur (vgl. (e) bis (h) in Abb. 3.24).<br />

3.5 Superposition in fiberoptischen Bildsequenzen<br />

Abschnitt 2.6 hat unter dem Begriff Super Resolution verschiedene Ansätze beschrie-<br />

ben, mit denen die Auflösung von Bildsequenzen gesteigert werden kann. Trotz viel-<br />

versprechender Verfahren im Bereich der Bearbeitung von Videobildern und einigen<br />

Bestrebungen, diese Methoden zur Bearbeitung unregulär abgetasteter Bilddaten zu<br />

übertragen (Superposition), existiert keine praktikable Umsetzung für die Anwendung<br />

mit Faseroptiken, wie sie unter anderem in der flexiblen Endoskopie eingesetzt werden.<br />

Dieser Abschnitt stellt ein erweitertes Verfahren vor, dass speziell für diesen Anwen-<br />

dungsbereich geeignet ist [WERW06, WRW06]. Zuerst wird die Wirkung von Super<br />

Resolution anhand des Informationsflusses veranschaulicht, danach werden das Prin-


3.5. SUPERPOSITION IN FIBEROPTISCHEN BILDSEQUENZEN 89<br />

(a) Einzelbild (statisch)<br />

(b) Bildsequenz (dynamisch)<br />

Abbildung 3.26: Informationsfluss der faseroptischen Abbildung. (a) Bei der Übertragung<br />

durch ein Faserbündel wird die Bildinformation durch Verdeckung und Verfälschung reduziert<br />

(Äquivokation). (b) Die Superposition nutzt die örtliche Korrelation innerhalb einer Bildse-<br />

quenz, um Anteile der verdeckten Bildinformation zurück zu gewinnen bzw. Verluste durch<br />

Strukturartefakte zu reduzieren.<br />

zip und die fundamentalen Voraussetzungen der Mehrfachabtastung durch Faserbündel<br />

erarbeitet. Im Anschluss werden die Vorteile des gewählten Verfahrens im Kontext der<br />

Endoskopie aufgelistet und daraufhin die konkrete Umsetzung in die Interpolation mit<br />

lokaler Bewegungsschätzung und Abbruchkriterien erläutert, bevor abschließend eine<br />

Erweiterung des Ansatzes für die Farbbildverarbeitung vorgeschlagen wird.<br />

3.5.1 Informationsgewinn durch Überlagerung<br />

Der Ansatz basiert auf dem Ortsraumverfahren der Interpolation. Die physikalisch<br />

motivierte Interpolation aus Abschnitt 3.2.2 bietet eine ideale Grundlage zur Über-<br />

lagerung von Bildinformation, da sie ein kontinuierliches Gitter mit Intensitätswerten<br />

zur Interpolation bereithält, das beliebig durch weitere Stützstellen erweitert werden<br />

kann. Durch Superposition, d.h. Überlagerung nichtredundanter Information zwischen<br />

mehreren Einzelaufnahmen können Strukturartefakten und der physikalische Informa-<br />

tionsgehalt der bearbeiteten faseroptischen Abbildungen erhöht werden [WWRW06].


90 3.5. SUPERPOSITION IN FIBEROPTISCHEN BILDSEQUENZEN<br />

Motiviert aus dem Gedanken der Transinformation veranschaulicht Abbildung 3.26<br />

den Effekt der Superposition auf den Informationsfluss gegenüber dem statischen Fall<br />

der faseroptischen Einzelbildübertragung. Bei der Übertragung durch ein Faserbündel<br />

wird die Bildinformation der Szene, H(X), durch Verdeckung aufgrund von Abtastung<br />

sowie durch Verfälschung aufgrund von Strukturartefakten und Farbmoiré reduziert.<br />

Dieser Anteil H(X|Y) wird Äquivokation genannt. Die Transinformation H(X; Y) ent-<br />

spricht der tatsächlich abgetasteten Information, die über die Fasern des Bildbündels<br />

übertragen werden. Im dynamischen Fall gelingt es unter bestimmten Voraussetzungen<br />

(s. folgender Abschnitt), durch geschickte Überlagerung zeitlich benachbarter, redun-<br />

danter Aufnahmen einen Teil der Äquivokation zurückzugewinnen und damit den An-<br />

teil der Transinformation zu erhöhen. Für die Abbildung bedeutet dies einen höheren<br />

Grad an Details bzw. Restaurierungsgüte.<br />

3.5.2 Prinzip und fundamentale Voraussetzung<br />

Das Prinzip der Superposition ähnelt dem menschlichen Verhalten beim Arbeiten mit<br />

einem Fiberskop oder beim Blick durch eine gitterartige Struktur. Kleine Seitwärtsbe-<br />

wegungen verbessern den Eindruck der betrachteten Szene und lassen offensichtlich<br />

mehr Details erkennen. Fundamentale Voraussetzung für dieses Prinzip ist eine effek-<br />

tive Abtastfläche, die kleiner ist, als die Gesamtfläche der Elemente, auf welche die<br />

Szene abgebildet wird. Dieser Zusammenhang wird im nächsten Abschnitt an einem<br />

anschaulichen Beispiel verdeutlicht.<br />

Weitere Bedingung für die praktische Anwendbarkeit von Superposition beim Be-<br />

trieb eines Geräts mit faseroptischer Übertragung sind geeignete Bewegungen, mit de-<br />

nen die distale Optik über oder durch die betrachtete Szene fährt oder geführt wird. Die<br />

entsprechenden Verschiebungen in den aufgezeichneten Abbildungen aus verschiede-<br />

nen Blickrichtungen müssen sich zwischen einer Mindest- und einer Maximaldistanz<br />

bewegen. Sind die Bewegungen zu gering, so liefert die Überlagerung von zugehöri-<br />

gen Bildausschnitten keine zusätzlichen Details. Ist der Betrag der Bewegungsvekto-<br />

ren zu groß, können sie zwischen aufeinander folgenden Bildern nicht mehr korrekt<br />

identifiziert werden und führen zu falscher Überlagerung. Auch zu kleine oder sich<br />

periodisch wiederholende Strukturen im Bild führen zu Fehlverhalten der eingesetzten<br />

Bewegungsschätzer. Die Bewegungsschätzung ist daher der zweite limitierende Faktor<br />

für den Erfolg und das Ergebnis der Detailsteigerung. Eine theoretische Abschätzung<br />

der Genauigkeit von Bewegungsschätzern für endoskopische Bilder ist jedoch nicht<br />

Inhalt dieser Arbeit.


3.5. SUPERPOSITION IN FIBEROPTISCHEN BILDSEQUENZEN 91<br />

(a) Ages<br />

(b) Aeff<br />

Abbildung 3.27: Veranschaulichung der (b) effektiven Fläche im Vergleich zur (a) gesamten<br />

Fläche (hier im Verhältnis 1/9).<br />

(a) Position 1 (b) Position 2 (c) Position 3 (d) Position 4<br />

Abbildung 3.28: Abtastung eines Schwarz-Weiß-Übergangs mit einem Feld aus neun Abtast-<br />

quadraten der Kantenlänge ∆d und damit der Gesamtfläche Ages(vgl. Abb. 3.27(a)). Jede Po-<br />

sition (1-4) zeigt das Abtastfeld nach einer horizontalen Verschiebung um den Abstand ∆d.<br />

3.5.2.1 Abtastung mit verringerter effektiver Fläche<br />

Effektive Abtastfläche Abbildung 3.27 zeigt zwei abgerundete Rechtecke, die je-<br />

weils eine quadratische Fläche der Größe Ages zeigen. In (a) ist die Fläche in neun<br />

Abtastquadrate der Breite ∆d aufgeteilt, welche zusammen die gesamte Fläche Ages =<br />

9∆d 2 ausfüllen. (b) zeigt ebenfalls neun Abtastquadrate, die jedoch jeweils nur ein<br />

Drittel der ursprünglichen Kantenlänge aufweisen. Die Summe dieser sogenannten ef-<br />

fektiven Abtastfläche Aeff beträgt hier demzufolge nur noch ein Neuntel der Fläche<br />

Ages:<br />

∆eff = Aeff<br />

Ages<br />

= 1<br />

∆d 2<br />

2 ∆d<br />

=<br />

3<br />

1<br />

9<br />

Abtastung mit gesamter Fläche In Abbildung 3.28 wird das Abtastfeld nun über<br />

einen Schwarz-Weiß-Übergang geschoben, der im horizontalen Helligkeitsverlauf ei-<br />

ne Stufenfunktion von Null auf Eins darstellt. Ähnlich wie bei der Faltung bekommt<br />

jedes Abtastquadrat als Helligkeit den überdeckten weißen Bereich, bezogen auf die<br />

Quadratfläche, zugeordnet. Aufgrund der gewählten Schritte im konstanten Abstand<br />

∆d bedeutet das den Wert Eins für vollständig im Weißen oder Null für vollständig<br />

im Schwarzen. In Analogie zu einer Faser im Bündel eines Bildleiters wird in jedem<br />

Schritt aus einem beliebigen, jedoch bezüglich der Fläche über die Schritte konstanten


92 3.5. SUPERPOSITION IN FIBEROPTISCHEN BILDSEQUENZEN<br />

(a) Position 2 1<br />

3<br />

(b) Position 2 2<br />

3<br />

Abbildung 3.29: Zusätzliche Abtastung des Schwarz-Weiß-Übergangs mit dem Feld aus neun<br />

Abtastquadraten der Kantenlänge ∆d (Gesamtfläche Ages) an zwei äquidistant verteilten Zwi-<br />

schenpositionen d/∆d = 2 1<br />

2<br />

3 und d/∆d = 2 3 .<br />

Abbildung 3.30: Funktion der Abtastwerte, die den einzelnen Schritten in Abbildung 3.28<br />

(Kennzeichnung: Raute) und Abbildung 3.29 (Kennzeichnung: Kreis) entnommen sind.<br />

Abtastquadrat der Helligkeitswert entnommen. Diese Werte bilden die rautenförmigen<br />

Stützstellen in Abbildung 3.30, die entsprechend der quadratischen Abtastfläche durch<br />

Linien zu einer stetigen Funktion verbunden sind.<br />

Zwischenabtastung mit gesamter Fläche Die beiden Zwischenschritte in Abbil-<br />

dung 3.29(a) und 3.29(b) zeigen die örtliche Verschiebung der Abtastquadrate um<br />

einen Bruchteil ihrer Kantenlänge und damit die Überabtastung des Übergangs von<br />

Schwarz nach Weiß. An den Stellen d/∆d = 2 1<br />

3<br />

und d/∆d = 2 2<br />

3<br />

wird damit der<br />

Verlauf in Abbildung 3.30 um zwei Werte erweitert, die jeweils mit einem Kreis ge-<br />

kennzeichnet sind. Die ungeraden Werte kommen, wie bereits beschrieben, durch den<br />

Anteil des abtastenden Quadrats zustande, der über der weißen Fläche liegt. Dem ste-<br />

tig erweiterten Kurvenverlauf ist zu entnehmen, dass die zusätzlich eingefügten Ab-<br />

tastwerte keine zusätzliche Information im Sinne einer Änderung des Signalverlaufs<br />

hinzufügen. Lediglich bei fehlerhafter Restaurierung des Signals aus den ursprünglich<br />

bekannten Stützstellen (Rauten) kann die Verschiebung einen Beitrag zur Korrektur<br />

des Signals hin zum korrekten Verlauf liefern.


3.5. SUPERPOSITION IN FIBEROPTISCHEN BILDSEQUENZEN 93<br />

(a) Position 1 (b) Position 2 (c) Position 3 (d) Position 4<br />

Abbildung 3.31: Abtastung eines Schwarz-Weiß-Übergangs mit einem Feld aus neun Abtast-<br />

quadraten der Kantenlänge ∆d/3 (vgl. Abb. 3.27(b)) und damit der effektiven Gesamtfläche<br />

Aeff = Ages/9. Jede Position (1-4) zeigt das Abtastfeld nach einer horizontalen Verschiebung<br />

um den Abstand ∆d.<br />

(a) Position 2 1<br />

3<br />

(b) Position 2 2<br />

3<br />

Abbildung 3.32: Zusätzliche Abtastung des Schwarz-Weiß-Übergangs mit dem Feld aus neun<br />

Abtastquadraten der effektiven Kantenlänge ∆d/9 (Effektive Gesamtfläche Ages/9) an zwei<br />

äquidistant verteilten Zwischenpositionen d/∆d = 2 1<br />

2<br />

3 und d/∆d = 2 3 .<br />

Abtastung mit effektiver Fläche Jetzt werden die gleichen Abtastschritte mit der<br />

verringerten Abtastfläche (vgl. Abb. 3.27(b)) vorgenommen. Abbildung 3.31 zeigt die<br />

Einzelschritte, die bis auf die geringere Fläche, welche den Funktionswert des Abtast-<br />

quadrats repräsentieren, mit denen aus Abbildung 3.28 übereinstimmen. Das spiegelt<br />

sich auch in den durch Rauten gekennzeichneten Stützstellen in Abbildung 3.33 wie-<br />

der.<br />

Zwischenabtastung mit effektiver Fläche Die beiden Zwischenschritte an den Ko-<br />

ordinaten d/∆d = 2 1<br />

2<br />

(vgl. Abb. 3.32(a)) und d/∆d = 2 (vgl. Abb. 3.32(b)) ergeben<br />

3 3<br />

für die betrachteten Abtaststellen andere Werte, als bei der Abtastung mit der Ge-<br />

samtfläche. Im Verlauf von Abbildung 3.33 führen die beiden Werte (Kennzeichnung:<br />

Kreis) zu einem schärferen Kurvenverlauf gegenüber der ursprünglichen gestrichelten<br />

Funktion. Die beiden Werte tragen damit zur Präzisierung der abgetasteten Stufenfunk-<br />

tion bei.<br />

Fazit Die Überlegungen zur Flächenabtastung zeigen, dass sich durch eine Reduzie-<br />

rung der effektiven Abtastbreite um den Faktor Drei und eine geeignete Zwischenab-<br />

tastung die Anzahl der informationstragenden Abtaststellen Nabtast in dieser Ortsrich-<br />

tung um den Faktor Drei steigern lässt. Für die betroffene Fläche kann entsprechend


94 3.5. SUPERPOSITION IN FIBEROPTISCHEN BILDSEQUENZEN<br />

Abbildung 3.33: Funktion der Abtastwerte, die den einzelnen Schritten in Abbildung 3.31<br />

(Kennzeichnung: Raute) und Abbildung 3.32 (Kennzeichnung: Kreis) entnommen sind.<br />

gezeigt werden, dass sich durch die Verringerung der effektiven Abtastfläche um den<br />

Faktor ∆eff die Anzahl der informationstragenden Abtaststellen Nabtast in diesem Be-<br />

reich um den Faktor 1<br />

∆eff<br />

erhöhen lässt. Damit ergibt sich folgender Zusammenhang:<br />

Abtastung mit effektiver Fläche<br />

Aeff = ∆eff · Ages<br />

Geeignete ⇓ Zwischenabtastung<br />

Erhöhung von Nabtast um Faktor 1<br />

∆eff<br />

(3.21)<br />

Wie man sich an der Visualisierung der Zwischenabtastungen in den Abbildungen 3.29<br />

und 3.32 veranschaulichen kann, tragen die gewählten Verschiebungen in optimaler<br />

Weise zu weiteren informationstragenden Stützstellen bei. Weder eine höhere Anzahl<br />

an Zwischenabtastungen noch eine andere Wahl der Abtastkoordinaten können zu wei-<br />

teren Informationen führen. Zwischenabtastungen in äquidistanten Abständen sind in<br />

der Praxis nur näherungsweise durch mechanische Hilfskonstruktionen zu realisieren.<br />

Die Problematik der Bewegungsschätzung wird in einem späteren Abschnitt aufgegrif-<br />

fen.<br />

3.5.2.2 Auswirkung der effektiven Fläche auf die Grenzen der Auflösungssteige-<br />

rung beim Faserbündel<br />

In einem Faserbündel beruht der Effekt einer effektiven Abtastfläche maßgeblich auf<br />

zwei Eigenschaften. Einerseits erzeugt die hexagonale Anordnung der kreisförmigen<br />

Querschnitte eines Glasfaserbündels Zwischenräume, wodurch die effektive Fläche<br />

bereits auf etwa 91% reduziert wird (vgl. Abb. 3.34(a)). Andererseits ist nach der<br />

sog. Kern-Mantel-Relation das Kernglas von einem Mantelmaterial mit höherem Bre-<br />

chungsindex umgeben (vgl. Abschn. 2.3.1), das seinerseits zwar eine geringe Lichtleit-


3.5. SUPERPOSITION IN FIBEROPTISCHEN BILDSEQUENZEN 95<br />

(a) (b)<br />

Abbildung 3.34: Schematischer Blick auf das Ende eines Faserbündels: (a) Kleine Zwischen-<br />

raumfläche bei großer effektiven Abtastfläche bzw. (b) vergleichsweise große Zwischenraum-<br />

fläche bei geringerer effektiver Abtastfläche.<br />

fähigkeit aufweist, allerdings den effektiven Durchmesser der Fasern gegenüber ihrem<br />

Abstand messbar reduziert.<br />

Aus Sicht des Anwenders steht die Möglichkeit der Auflösungssteigerung in Kon-<br />

kurrenz zu dem erreichbaren Signal-zu-Rausch-Verhältnis. Dieses wird durch die Ver-<br />

ringerung der Abtastfläche reduziert und es ist zu vermuten, dass ab einem bestimmten<br />

Punkt das verursachte Rauschen, z.B. der Kamera, den möglichen Gewinn durch eine<br />

Erhöhung der Anzahl der Abtastpunkte kompensiert. Die theoretischen Überlegungen<br />

zu einer optimalen Lösung sind allerdings nicht Gegenstand dieser Arbeit.<br />

Die Recherche in der Literatur bzw. die Nachfrage bei der Schott AG hat keine Hin-<br />

weise auf eine adäquate Angabe auf die beschriebene effektive Abtastfläche ergeben.<br />

Sofern sie zugänglich ist, liefert die Angabe des Kerndurchmessers der Einzelfaser<br />

nach dem mehrmaligen Prozess des Dünnziehens eine gute Näherung für diese Aussa-<br />

ge, falls davon ausgegangen wird, dass sich die Mantelstärke im Verhältnis zum Kern-<br />

durchmesser proportional verringert. Aufgrund der Transparenz des Mantelmaterials<br />

und wegen auftretenden Streulichts kann jedoch nicht unmittelbar vom Kerndurch-<br />

messer auf die effektive Abtastfläche geschlossen werden, wie Messungen bestätigen.<br />

Die Einflussfaktoren der Optik, der Beleuchtung und des Kamerasystems sind viel-<br />

fältig und beeinflussen die Kontrastübergänge in der Abbildung einer Szene auf ein-<br />

zelne Sensorelemente. Deshalb soll im Folgenden für die Endoskopie eine solche ef-<br />

fektive Abtastfläche definiert und bestimmt werden, die ohne optische Verluste ein<br />

äquivalentes Abtastverhalten zeigt, wie die Fasern des betrachteten Bildbündels. Auf-<br />

bauend auf dieser Simulation wird im Anschluss an diesen Abschnitt ein Messverfah-<br />

ren vorgeschlagen, mit dem der Faktor ∆eff für ein Faserbündel abgeschätzt werden


96 3.5. SUPERPOSITION IN FIBEROPTISCHEN BILDSEQUENZEN<br />

(a) (b) (c)<br />

Abbildung 3.35: Fiktives Experiment zur Abtastung eines Balkens durch eine einzelne Faser<br />

mit definiertem effektiven Durchmesser de (a). Kreisfunktion k(x) zur Bestimmung der anteili-<br />

gen Balkenfläche Ab in Abhängigkeit der Position des Balkens in der kreisförmigen Abtastfläche<br />

(b). Ausschnitt einer Dreiecksfläche mit Kennzeichnung des Anteils an der Zwischenraumfläche<br />

Az und dem Anteil an der effektiven Abtastfläche Aeff.<br />

kann. Mit dem ermittelten Faktor sind daraufhin Interpretationen möglich, inwiefern<br />

visuelle Verbesserungen in Bildsequenzen auf Korrekturen von Restaurierungsfehlern<br />

zurückzuführen sind bzw. welcher Anteil an zusätzlichen Abtaststellen tatsächlich auf<br />

zusätzliche Bildinformation zurückzuführen ist. Konkrete Ergebnisse über die Wir-<br />

kung des Verfahrens auf die Bildqualität können den definierten Szenarien und realen<br />

Messungen in Kapitel 4 entnommen werden.<br />

3.5.2.3 Simulation der Flächenabtastung mit effektiver Kreisfläche<br />

Das idealisierte 13 Flächenabtastverhalten einer Faser mit effektivem Radius de/2 wird<br />

durch die Schnittfläche eines schwarzen Balkens der Breite db mit einem Kreis (ef-<br />

fektive Abtastfläche) des Durchmessers de > 0 simuliert (vgl. Abb. 3.35(a)). Diese<br />

Schnittmenge verringert die Beleuchtungsstärke der hellen Kreisfläche um den ent-<br />

sprechenden Anteil des dunklen Balkens.<br />

Dazu definiere k(x, de) eine Kreisfunktion mit Radius de, deren Mittelpunkt bei<br />

(de/2; 0) liegt (vgl. Abb. 3.35(b)):<br />

k(x, de) = −x 2 + de x mit de > 0, 0 ≤ x ≤ de . (3.22)<br />

Die verbleibende normierte Kreisfläche Ab ist die Differenz aus Eins und dem dop-<br />

pelten Integral der Kreisfunktion k(x, de) innerhalb der Begrenzungen des Balkens,<br />

13 Hier: Ohne Unschärfe durch Optik und Übersprechen durch Streulicht


3.5. SUPERPOSITION IN FIBEROPTISCHEN BILDSEQUENZEN 97<br />

Abbildung 3.36: Idealer Verlauf der Beleuchtungsstärke am Eingang einer Faser mit effektivem<br />

Durchmesser de, wenn sie von einem dunklen Balken unterschiedlicher Breite db auf hellem<br />

Untergrund verdeckt wird.<br />

sofern sie im Definitionsbereich von Gleichung (3.22) liegen. Der integrierte Anteil<br />

der Kreisfläche ist auf die effektive Abtastfläche Amax = π de 2 /4 normiert:<br />

Ab(xb, db, de) = (3.23)<br />

= 1 − 2<br />

⎧ xb<br />

0<br />

⎪⎨<br />

·<br />

Amax<br />

⎪⎩<br />

k(x, de) dx für 0 ≤ xb ≤ de und db > xb<br />

Amax/2 für xb ≥ de und db ≥ xb<br />

de<br />

xb−db k(x, de) dx für xb > de und xb − de < db ≤ xb<br />

xb<br />

xb−db k(x, de)<br />

.<br />

dx für 0 < xb < de und 0 < db < xb<br />

0 sonst<br />

Für 0 ≤ xb < de und 0 ≤ db ≤ xb liegen die Integrationsgrenzen zwischen xb − db und<br />

xb und die verbleibende normierte Kreisfläche ergibt<br />

Ab(xb, db, de) = (3.24)<br />

1 − 1<br />

<br />

de 2 <br />

2 x − de<br />

arcsin + 2 (2 x − de) xb <br />

−x (x − de) .<br />

de 2 π<br />

de<br />

xb−db<br />

Abbildung 3.36 zeigt den Verlauf der verbleibenden normierten Kreisfläche Ab für<br />

mehrere Balkenbreiten db/de. Die Kurvenschar macht deutlich, dass für eine geeignete<br />

Balkenbreite db < de, möglichst im Bereich db = de/2, über das Minimum des je-<br />

weiligen Verlaufs eine Aussage über den effektiven Durchmesser de abgeleitet werden<br />

kann. Anschaulich liegt das Minimum an der Position, wo der schwarze Balken ge-


98 3.5. SUPERPOSITION IN FIBEROPTISCHEN BILDSEQUENZEN<br />

nau mittig im Kreis zu liegen kommt. Dieses Minimum Ab,min(db, de) beträgt für ein<br />

gewähltes Verhältnis von db und de mit xb ′ = de<br />

2<br />

+ db<br />

2<br />

Ab,min(db, de) = Ab (xb ′ , db, de) für 0 < db < de (3.25)<br />

Das Minimum Ab,min(db, de < db) beträgt 0, 0 und das Maximum Ab,max der Kurven-<br />

schar liegt generell bei 1, 0. Das Verhältnis δL wird als Quotient von Ab,min(db, de > db)<br />

zu Ab,max in Bezug auf Ab,min(db, de < db) definiert<br />

δL = Ab,min(db, de > db) − Ab,min(db, de < db)<br />

Ab,max − Ab,min(db, de < db)<br />

=<br />

=<br />

Ab,min(db, de > db) =<br />

1 − 1<br />

<br />

2 db<br />

de 2 π<br />

<br />

de 2 − db 2 + 2 de 2 <br />

db<br />

arcsin<br />

de<br />

= (3.26)<br />

<br />

für 0 < db < de .<br />

3.5.3 Messverfahren zur Bestimmung der effektiven Abtastfläche<br />

Da der entscheidende Parameter de den technischen Daten handelsüblicher Endoskope<br />

nicht zu entnehmen ist, wird hier eine Messmethode vorgeschlagen, mit der de abge-<br />

schätzt werden kann. Dazu wird das Abtastverhalten einzelner Fasern beim Überfahren<br />

von schwarzen Balken der Breite db analysiert.<br />

Mit dem Endoskop werden mehrere Bildfolgen eines geeigneten Referenzbalken-<br />

musters (s. Abb. 3.37) aufgenommen. Die Motorbühne, auf der das Balkenmuster liegt,<br />

wird in äquidistanten Abständen im submikrometerbereich verschoben. Da die Para-<br />

meter der optischen Linsen bzw. die Vergrößerungen im optischen Strahlengang des<br />

Endoskops und des Adapters zum Kamerasensor nicht bekannt sind, werden Abtast-<br />

werte aus dem Intensitätsbild des Kamerasensors nahe der optischen Achse entnom-<br />

men und es wird angenommen, dass die radiale Verzerrung (vgl. Abschnitt 2.4.1) die<br />

Bewegung in diesem Bereich nicht signifikant beeinflusst und sich die Bewegungen<br />

zwischen verfahrbarer Bühne, Endoskop und Kamera proportional verhalten. Für die<br />

Charakterisierung der Beleuchtungsstärke einer Faser wird das Mittel der hellsten neun<br />

Bildpunkte innerhalb der Gauss-Verteilung dieser Faser auf dem Intensitätsbild des<br />

Kamerasensors berechnet. Entsprechend den Überlegungen zur Lichtübertragung ei-<br />

ner Glasfaser (vgl. Abschn. 2.3.1) und der Veranschaulichung der Flächenintegration<br />

im vorausgegangenen Abschnitt wird davon ausgegangen, dass nicht die Struktur des<br />

abgebildeten dunklen Balkens, sondern nur die reduzierte Beleuchtungsstärke einen<br />

Einfluss auf die Intensität des austretenden Lichts am Ende einer Faser hat. Auf dem<br />

Sensor führt diese zu einer Gauss-förmigen Verteilung, die durch Integration durch die<br />

einzelnen Sensorelemente in quantisierte Intensitätswerte umgesetzt wird.


3.5. SUPERPOSITION IN FIBEROPTISCHEN BILDSEQUENZEN 99<br />

Abbildung 3.37: Referenzmuster mit dünnen schwarzen Balken unterschiedlicher Breite vor<br />

weißem Hintergrund.<br />

Abtastung eines breiten Balkens Die Messkurve eines breiten Balkens, hier mit<br />

einer Breite von 2.000µm (vgl. (c) in Abb. 3.38) startet bei Ab,max = 95, 1 und fällt<br />

aufgrund der Verdunkelung durch den schwarzen Balken auf das ausgeprägte Mini-<br />

mum bei Ab,min(2.000µm, de ≥ db) = 19, 4. Die Breite des dunklen Balkens ist so zu<br />

wählen, dass dieser auf dem Sensor mehrere Fasern überdeckt. Im Kurvenverlauf ist<br />

dies daran zu erkennen, dass die Intensität für einen gewissen Abschnitt auf dem Mini-<br />

mum verbleibt. Ist dies nicht gewährleistet, muss von Streulicht ausgegangen werden,<br />

das der weiße Bereich im Übergangsbereich auf den dunklen Balken wirft.<br />

Weiterhin kann aus dem Verlauf der zurückgelegte Weg eines Schritts der Motorbüh-<br />

ne bestimmt werden. Dazu werden an die abfallende bzw. an die aufsteigende Flanke<br />

Tangenten angepasst. Der Abstand der Schnittpunkte mit den horizontalen Geraden<br />

durch das Minimum Ab,min(2.000µm, de ≥ db) bzw. durch das Maximum Ab,max (vgl.<br />

Abb. 3.38) entspricht dem zurückgelegten Weg für die Balkenbreite von 2.000µm, hier<br />

5050 Schritte. Der Quotient aus Balkenbreite und Anzahl der benötigten Schritte er-<br />

gibt:<br />

2.000µm<br />

µm<br />

= 0, 396<br />

5.050 Schritte Schritt<br />

Der gemessene Wert von 0, 396 µm<br />

stimmt gut mit der Herstellerangabe von 0, 4µm<br />

Schritt<br />

überein.<br />

Abtastungen eines dünnen Balkens Für den dünnen Balken wird entsprechend den<br />

Erkenntnissen aus der Simulation eine Breite von 200µm gewählt. Aus dem Intensi-<br />

tätsbild des Kamerasensors werden nahe der horizontalen und vertikalen Mitte zwei<br />

in Bewegungsrichtung aneinandergrenzende Fasern ausgewählt. Die beiden Messkur-<br />

ven (a) und (b) in Abbildung 3.38 stellen den Intensitätsverlauf für diese Abtastpunkte<br />

dar. Sie zeigen vergleichbare Werte für Minimum und Maximum und sind unter Be-<br />

rücksichtigung von Bildrauschen und glättenden Einflüssen von Optik und Streulicht<br />

plausibel zu den simulierten Ergebnissen in Abbildung 3.36. Aus dem Verlauf (a) um<br />

die Sensorkoordinate (417;289) wird das Minimum Ab,min(2.000µm, de) = 58, 7 be-


100 3.5. SUPERPOSITION IN FIBEROPTISCHEN BILDSEQUENZEN<br />

Abbildung 3.38: Gemessenes Intensitätsprofil der Abtastung eines schwarzen Balkens der Brei-<br />

te db = 200µm bzw. db = 2.000µm in 7.500 Schritten der Motorbühne mit dem Glasfaseren-<br />

doskop E6 (vgl. Tab. 4.1)<br />

stimmt, wobei die zugehörige effektive Breite de noch nicht bekannt ist. Das Intensi-<br />

tätsverhältnis δL ergibt sich nach der Definition in Gleichung (3.26) zu<br />

δL =<br />

58, 7 − 19, 4<br />

95, 1 − 19, 4<br />

= 0, 519<br />

Durch numerische Iteration wird mit Gleichung (3.26) der Wert für de derart bestimmt,<br />

dass das Intensitätsverhältnis δL der daraus formulierten Funktion Ab(xb, 200µm, de)<br />

das Minimum bei eben 0, 519 zeigt. Abbildung 3.36 veranschaulicht das Ergebnis<br />

durch den Kurvenverlauf mit dem Verhältnis db/de = 0, 39.<br />

Übertragung der Messergebnisse in die Angabe effektive Fläche Mit den Parame-<br />

tern zur Faserdichte im Bildbündel, dem ermittelten Verhältnis db/de und der gewähl-<br />

ten Balkenbreite lässt sich jetzt die effektive Fläche berechnen. Beim verwendeten<br />

Endoskop liegen im Rahmen der Fertigungstoleranz 12.000 Fasern in einem Bündel-<br />

radius von 500µm, was mit Gleichung (3.4) einen Faserabstand von<br />

df = 8, 75µm<br />

ergibt. Wie sich in Abbildung 3.38 aus dem Abstand sf der beiden um einen Faserab-<br />

stand versetzten Messpunkte für den dünnen Balken entnehmen lässt, entspricht dieser<br />

Faserabstand einem Verfahrweg der Bühne in ihrem Bezugssystem von<br />

df| Bühne = 1.475 · 0, 396µm = 584µm .


3.5. SUPERPOSITION IN FIBEROPTISCHEN BILDSEQUENZEN 101<br />

Der effektive Durchmesser de berechnet sich im Bezugssystem der Bühne, wo der<br />

Balken eine Breite von db = 200µm zeigt, aus dem ermittelten Verhältnis db/de =<br />

0, 39 zu<br />

de| Bühne = 200µm<br />

0, 39<br />

= 513µm .<br />

Das ergibt ein Verhältnis von effektivem Durchmesser de zu Faserabstand df von<br />

de<br />

df<br />

= de| Bühne<br />

df| Bühne<br />

= 87, 8% .<br />

In Bezug auf die Querschnittsfläche des Faserbündels resultiert der effektive Durch-<br />

messer einer Faser in<br />

de = 87, 8% · df = 87, 8% · 8, 75µm = 7, 68µm .<br />

Die effektive Abtastfläche Aeff in Bezug auf die volle Fläche Aeff + Az beträgt für<br />

die definierten Längenangaben df und de (Kantenlänge des Dreiecks bzw. Radius der<br />

Kreisausschnitte in Abb. 3.35(c))<br />

Aeff<br />

Aeff + Az<br />

= 1<br />

2<br />

de 2 π<br />

df 2 √ 3<br />

= 69, 9% .<br />

Fazit Die Annahme, dass sich Super Resolution für Glasfaserbündel prinzipiell eig-<br />

net, konnte durch Simulation und Messung bestätigt werden. Die Effektivität der Auf-<br />

lösungssteigerung hängt neben dem Erfolg der Bewegungsschätzung maßgeblich von<br />

der effektiven Fläche des Faserbündels ab. Bei dem untersuchten handelsüblichen Ge-<br />

rät beträgt die effektive Fläche knapp 70% der Gesamtfläche. Die Qualität einer Auf-<br />

nahme in Form seiner informationstragenden Bildpunkte kann dadurch nach Gl. (3.21)<br />

durch äquidistante Zwischenabtastung um etwa 43% erhöht werden. Für die Aufnah-<br />

men mit der Endoskopanordnung aus diesem Abschnitt mit 12.000 Fasern bedeutet<br />

dies eine Erhöhung der Anzahl an informationstragenden Stützstellen von 12.000 auf<br />

max. 17.160. Bildverbesserungen, die darüber hinaus visuell wahrgenommen werden,<br />

beruhen, wie oben beschrieben, auf der Korrektur von Interpolationsartefakten.<br />

3.5.4 Vorteile der Superposition für die Endoskopie<br />

Der auf hexagonalähnliche Gitterstrukturen angepasste und optimierte Ansatz der Su-<br />

perposition hat eine Reihe von Vorzügen, die besonders den Anforderungen der Faser-<br />

endoskopie entgegenkommen.


102 3.5. SUPERPOSITION IN FIBEROPTISCHEN BILDSEQUENZEN<br />

Präzision Zur Komposition des hoch auflösenden Gitters werden statt interpolierten<br />

Aufnahmen (bedingt durch den Auflösungsunterschied zwischen Kamera und Faser-<br />

bündel) explizit die Helligkeiten der Faserzentren verwendet. Die Amplituden werden<br />

subpixelgenau durch eingepasste charakteristische Funktionen bestimmt.<br />

Robustheit Konstruktiv bedingte Unregelmäßigkeiten der Wabenstruktur haben kei-<br />

nen negativen Einfluss auf das Ergebnis. Die abschließende Interpolation berücksich-<br />

tigt die jeweils nächsten Nachbarn in baryzentrischer Gewichtung.<br />

Verzerrungstoleranz Das Verfahren toleriert nicht-globale Bewegungen, wie sie be-<br />

sonders bei weitwinkeligen Endoskopoptiken auftreten. Stark variierende und verzerrte<br />

Bewegungen abseits der optischen Achse müssen nicht perspektivisch modelliert wer-<br />

den. Zur Ergänzung des HR-Bilds können lokale Bildbereiche oder sogar nur einzelne<br />

Bildpunkte verwendet werden. So kann die Bewegungsdetektion auf lokalen Merkma-<br />

len arbeiten und bleibt nahezu unabhängig von globalen Bewegungsmustern. Letztere<br />

können gemäß den Ausführungen in Abschnitt 2.6.6 in der Endoskopie nur unter ge-<br />

wissen, meist unrealistischen Voraussetzungen modelliert werden.<br />

Komplexität Der Grad der Detailsteigerung kann bis zu seiner Grenze (vgl. Ab-<br />

schn. 3.5.2) flexibel gegen den erforderlichen Berechnungsaufwand eingetauscht wer-<br />

den, da mit Hilfe einer Bewegungsschätzung sukzessive weitere Bildbereiche unter-<br />

sucht bzw. ausgelassen werden können sowie weitere angrenzende Bilder mit ein- oder<br />

ausgeschlossen werden können.<br />

Stabilität Abgesehen von der hohen Störanfälligkeit aufgrund fehlerhafter Bewe-<br />

gungsvektoren gibt es keine Mehrdeutigkeiten beim Aufbau der resultierenden HR-<br />

Daten.<br />

3.5.5 Bewegungsschätzung<br />

In der Bildverarbeitung existieren viele Algorithmen zur Registrierung von Bildaus-<br />

schnitten oder ganzen Bildern. Ein guter Überblick ist im Rahmen der Algorithmen<br />

zur Auflösungssteigerung für die Mikroskopie in [Han07b] zu finden. Kann wie im An-<br />

wendungsfall der Endoskopie nicht von einer globalen Bewegung ausgegangen werden


3.5. SUPERPOSITION IN FIBEROPTISCHEN BILDSEQUENZEN 103<br />

oder lässt sich diese nicht zufriedenstellend modellieren, so bietet der merkmalsba-<br />

sierte KLT-Tracking-Ansatz zur Bewegungsdetektion von Kanade, Lucas und Tomasi<br />

[TK91, ST94, LK81] einen praktischen Ausweg. Er sieht vor, lokale Bereiche als af-<br />

fin transformierbar zu approximieren und diese in zeitlich benachbarten Bildern wie-<br />

der aufzufinden. Einzelne Bereiche werden dabei als Regionen um Merkmale betrach-<br />

tet, die in definiertem Mindestabstand gesucht und positioniert werden. Als Merkmale<br />

werden Bildbereiche mit hohem Kontrast im Sinne eines großen minimalen Eigenvek-<br />

tors in der Strukturmatrix in Betracht gezogen. Aufgabe des Tracking-Algorithmus ist<br />

es nun, die Verschiebungen dieser Merkmale in benachbarten Bildern subfasergenau<br />

zu schätzen. Der KLT-Tracker minimiert dazu die Abweichung zwischen variablen<br />

Bildausschnitten, um so im Fall begrenzter Bewegung zu einer Schätzung des Bewe-<br />

gungsvektors für dieses Merkmal zu gelangen.<br />

Merkmale werden meist über den Kontrast als Auffälligkeiten in der Textur oder<br />

Geometrie von Objekten definiert. Deshalb wirkt sich die kontrastreiche Wabenstruk-<br />

tur der Faseroptik störend auf die Merkmalssuche und -registrierung aus. Die verwen-<br />

deten Bildsequenzen werden daher für die Bewegungsschätzung vorab durch Filte-<br />

rung oder Interpolation (vgl. Abschn. 3.2) von den Strukturartefakten befreit. Weiter-<br />

hin müssen bestimmte Bildbereiche für die Wahl und Weiterverfolgung von Merk-<br />

malen ausgeschlossen werden. Das Einbringen dieses Vorwissens ist nötig, damit der<br />

Tracking-Algorithmus unterschiedliche Bildbereiche hinsichtlich deren Brauchbarkeit<br />

für den spezifischen Anwendungsfall unterscheiden kann. In inhaltslosen Bereichen<br />

außerhalb der Apertur dürfen ebenso wenig Merkmale gesetzt oder registriert werden,<br />

wie in der Nähe von zentralen Bereichen senkrecht zur Bewegungsachse, wo Merk-<br />

male zu geringe Verschiebungen aufweisen, falls das Endoskop beispielsweise in einer<br />

Bohrung geführt wird.<br />

3.5.6 Umsetzung und Integration in die Bildrestaurierung<br />

Der Ansatz zur Auflösungssteigerung ist eng in die physikalisch motivierte Interpola-<br />

tion aus Abschnitt 3.2.2 integriert. Die ergänzenden Schritte sind im Ablaufdiagramm<br />

in Abbildung 3.39 skizziert. Um die Übersichtlichkeit zu wahren, ist der Einfluss der<br />

Faserregistrierung auf die Aufbereitung (im Fall der Interpolation) sowie die mögliche<br />

Nachkalibrierung (vgl. Abb. 3.14) nicht mit in das Diagramm aufgenommen. Ohne<br />

Beschränkung der Allgemeinheit wird der Vorgang der Auflösungssteigerung für ein<br />

Basisbild LR Έn aus einer LR-Bildsequenz mit (NI + 1) Aufnahmen ausgeführt. Der<br />

Basisindex ˆn ist frei wählbar und unterteilt die Sequenz in einen zeitlich zurücklie-<br />

genden Abschnitt { LR Έn−z; . . . ; LR Έn−1} und einen zeitlich vorausliegenden Abschnitt


104 3.5. SUPERPOSITION IN FIBEROPTISCHEN BILDSEQUENZEN<br />

Abbildung 3.39: Ablauf der Auflösungssteigerung nach dem vorgestellten Verfahren. Aus der<br />

LR-Sequenz von Eingangsbildern wird das Intensitätsgitter des LR-Basisbilds durch Details<br />

der benachbarten Bilder ergänzt und durch Interpolation in das HR-Bild überführt. Für die<br />

Faserregistrierung wird wie bei der Interpolation ein separates Referenzbild ausgewertet.<br />

{ LR Έn+1; . . . ; LR Έn+v}. Ziel der Auflösungssteigerung ist die Ergänzung des Basisbilds<br />

um nichtredundante Details aus den z + v = NI benachbarten Bildern der LR-Sequenz,<br />

um durch abschließende HR-Interpolation ein korrespondierendes HR-Bild zu gene-<br />

rieren.<br />

Details der einzelnen Schritte:<br />

1. Faserregistrierung<br />

Nach einer adaptiven Vorverarbeitung der Bilddaten zur zuverlässigen Unter-<br />

scheidung der Faserzentren pf werden diese subpixelgenau lokalisiert und in<br />

Form eines triangulierten Datengitters D als Lookup-Tabelle bereitgestellt. Das<br />

Vorgehen dabei entspricht dem ersten Schritt der physikalisch motivierten Inter-<br />

polation in Abschnitt 3.2.2.1. Das LR-Gitter D hat definierte Nachbarschaftsbe-<br />

ziehungen, die ein nachträgliches Einfügen von weiteren Stützstellen an beliebi-<br />

gen Positionen erlauben.<br />

2. Bereitstellung des HR-Gitters<br />

In diesem Schritt wird ein kontinuierliches HR-Gitter mit Basiseinträgen aus D<br />

vorbereitet. Dazu wird das LR-Basisbild LR Έn an den Stützstellen pf ausgewertet.<br />

Die konstanten Parameter (Position µx, µy sowie Verteilungsform σx, σy) werden<br />

aus dem Schritt der Faserregistrierung übernommen. Lediglich die Amplituden<br />

müssen aus dem Basisbild bestimmt und den entsprechenden Pixel-Koordinaten


3.5. SUPERPOSITION IN FIBEROPTISCHEN BILDSEQUENZEN 105<br />

der triangulierten Datenstruktur aus Schritt 1 hinzugefügt werden. Das resul-<br />

tierende Datengitter Dˆn trägt den Index des Bilds mit den zugrunde liegenden<br />

Intensitäten, hier also ˆn.<br />

3. Aufbereitung der Eingangssequenz<br />

Für ein subpixelgenaues Ergebnis der nachfolgenden Bewegungsschätzung wird<br />

die Wabenstruktur aus den Bildern der Eingangssequenz entfernt. Obwohl sich<br />

aufgrund des bereitgestellten Gitters nach der Faserregistrierung die Interpola-<br />

tion als Verfahren anbietet, kommt alternativ auch die optimierte Filterung aus<br />

Abschnitt 3.2.1 in Frage.<br />

4. Lokale Bewegungsschätzung<br />

In der LR-Sequenz aus aufbereiteten Eingangsbildern werden nun gemeinsame<br />

Merkmale in Form von Bereichen mit hinreichender Ähnlichkeit gesucht. Dazu<br />

wird die in Abschnitt 3.5.5 beschriebene iterative Implementierung des KLT-<br />

Tracking-Ansatzes unter Nutzung von mehreren Auflösungsstufen genutzt. Die<br />

maximale Anzahl der verwendeten Merkmale wird auf NM beschränkt. Die ma-<br />

ximal NM · NI registrierten Vektoren der Bewegungungen werden als Punktpaare<br />

{pˆn,m; pn,m} gespeichert, wobei die erste Position das m-te Merkmal im Basis-<br />

bild (Index ˆn) und die zweite dieses im n-ten Bild der angrenzenden Sequenz<br />

bezeichnet.<br />

Für die Merkmalsregistrierung zeigt Abbildung 3.40 zwei unterschiedliche Track-<br />

ing-Modi, das direkte bzw. das sequentielle Vorgehen:<br />

• Direkt Die Merkmale werden alle aus dem Basisbild entnommen und<br />

die Korrespondenzfindung erfolgt direkt zu den einzelnen benachbarten<br />

Bildern. Der Vorteil ist eine höhere Präzision, da keine Folgefehler durch<br />

ungenaue Korrespondenzfindung auftreten können.<br />

• Sequentiell Die Merkmale werden einmalig im Basisbild bestimmt und<br />

sodann sukzessive in beide Richtungen der benachbarten Bilder weiter-<br />

verfolgt. Der Vorteil ist eine schnellere Bearbeitung und Auffindung von<br />

Merkmalen, da der Aufenthaltsort durch Bewegungsschätzung eingegrenzt<br />

werden kann. Des weiteren können größere Entfernungen von Merkmalen<br />

verfolgt werden, was im direkten Modus früher zu Schwierigkeiten führt.<br />

5. Erweiterung des HR-Gitters<br />

Für die NI diskrete LR-Bildern um das Basisbild herum werden nun von Stel-<br />

len sicher georteter Verschiebung die nächstliegenden Intensitäten an die bewe-<br />

gungsinvertierten Positionen als Stützstellen in das HR-Gitter eingebracht. Die


106 3.5. SUPERPOSITION IN FIBEROPTISCHEN BILDSEQUENZEN<br />

(a) Direkt<br />

(b) Sequentiell<br />

Abbildung 3.40: Veranschaulichung der unterschiedlichen Modi der Korrespondenzfindung.<br />

Beim direkten Vorgehen werden die Merkmale aus dem Basisbild unmittelbar zu den einzelnen<br />

Bildern registriert. Im sequentiellen Modus werden die Merkmale von Bild zu Bild in zeitlicher<br />

Abfolge weiterverfolgt.<br />

lokalen Bewegungsinformationen können auch dazu verwendet werden, ganze<br />

Gitterausschnitte bewegungskompensiert in das HR-Gitter einzufügen, wobei<br />

gegebenenfalls eine affine Verzerrung des Gitterbereichs berücksichtigt werden<br />

muss. In beiden Fällen werden die Gitterdichte und der Detailgehalt des Gitters<br />

erhöht.<br />

Formal wird die Ergänzung des HR-Gitters am Beispiel von drei nächsten Faser-<br />

zentren formuliert. Für jedes registrierte Merkmal pn,m werden die drei nächsten<br />

Nachbarn pf ,1, pf ,2 und pf ,3 im Gitter gewählt, weil für sie die Intensität der<br />

Stützstelle direkt bestimmbar ist. Die entsprechenden Positionen ˆpn,m im Ba-<br />

sisbild werden durch Subtraktion mit dem Bewegungsvektor (pn,m − pˆn,m) des<br />

registrierten Merkmalpaars gebildet:<br />

⎛ ⎞ ⎛ ⎞<br />

ˆp1 pf ,1<br />

⎜ ⎟ ⎜ ⎟<br />

⎝ˆp2⎠<br />

= ⎝pf<br />

,2⎠<br />

ˆp3<br />

n,m<br />

pf ,3<br />

n,m<br />

⎛ ⎞<br />

1 <br />

⎜ ⎟<br />

− ⎝1⎠<br />

·<br />

1<br />

pn,m − pˆn,m<br />

<br />

. (3.27)<br />

Jede bewegungskompensierte Stützstelle, die nicht auf eine bereits vorhande-<br />

ne Position abgebildet wird, trägt mit weiterer Abtastinformation zum Aufbau<br />

des HR-Bilds bei. Die in diesem Fall maximal 3 · NM zusätzlichen Intensitätsin-


3.5. SUPERPOSITION IN FIBEROPTISCHEN BILDSEQUENZEN 107<br />

(a) (b) (c)<br />

Abbildung 3.41: Wirkungsweise des vorgestellten Verfahrens der Auflösungssteigerung bei<br />

präziser Bewegungsschätzung in faseroptischen Aufnahmen. Bildausschnitt im Original (a),<br />

interpoliert (b) und als Superposition aus 10 benachbarten Aufnahmen (c).<br />

formationen für das Basisbild aus dem aktuellen Bild mit dem Index n werden<br />

als Menge R NM<br />

n zusammengefasst. Das resultierende HR-Gitter HR Dˆn setzt sich<br />

letztendlich aus der Vereinigung aller zusätzlichen Stützstellenmengen R mit<br />

dem Grundgitter Dˆn zusammen:<br />

6. HR 14 -Interpolation<br />

NI <br />

Dˆn ∪ R<br />

i=1<br />

NM<br />

i ↦→ HR Dˆn .<br />

Im letzten Schritt vereint sich der Ansatz der Auflösungssteigerung wieder mit<br />

der physikalisch motivierten Interpolation (Operatorsymbol I), indem das Gitter<br />

wiederum in eine kartesische Abbildung HR I (NI,NM) überführt wird:<br />

<br />

HR (NI,NM) HRDˆn<br />

I = I<br />

. (3.28)<br />

Der Unterschied liegt hier in der Datenbasis in Form des HR-Intensitätsgitters<br />

HR I (NI,NM) , das nach der Ergänzung nun eine vergleichsweise hohe Stützstellen-<br />

dichte aufweist. Der Superskript (NI, NM) in der Schreibweise des HR-Bilds ent-<br />

hält die Information über die Anzahl NI der einbezogenen benachbarten Bilder,<br />

sowie die Anahl NM der maximal gesetzten und registrierten Merkmale.<br />

Abbildung 3.41 zeigt am vergrößerten Ausschnitt einer Aufnahme durch ein Glas-<br />

faserendoskop die Wirkungsweise des Verfahrens. In 3.41(a) ist die Wabenstruktur<br />

deutlich zu erkennen, die in 3.41(b) durch Interpolation reduziert ist, um Bewegungen<br />

in der Sequenz besser detektieren zu können. 3.41(c) zeigt das Ergebnis der Superpo-<br />

sition nach sequentieller Überlagerung von Merkmalen aus 12 Aufnahmen.<br />

14 engl. High Resolution. Hier: mit hoher Auflösung


108 3.5. SUPERPOSITION IN FIBEROPTISCHEN BILDSEQUENZEN<br />

3.5.7 Abbruchkriterien<br />

Der dynamische Ansatz des Algorithmus kann zu einer unerwünscht langen Berech-<br />

nungszeit führen, sofern keine geeigneten Abbruchkriterien definiert werden. Solan-<br />

ge der Tracking-Algorithmus bestehende Merkmale in weiteren benachbarten Bildern<br />

auffindet oder weitere registrierbare Merkmale in den Bildern gesetzt werden können,<br />

lassen sich endlos weitere Stützstellen im Basisbild hinzufügen, obwohl diese entwe-<br />

der keine oder sogar falsche Information liefern. Da die Zuverlässigkeit und Präzision<br />

des Tracking-Algorithmus bei zu geringem Signal-zu-Rausch-Abstand bei der Wahl<br />

neuer Merkmale oder ihrer Registrierung in anderen Bildern an ihre Grenzen stößt,<br />

müssen andere sinnvolle Grenzen definiert werden.<br />

Aus diesem Grund werden zwei Abbruchkriterien definiert, bei deren Eintreten die<br />

Erweiterung des HR-Gitters gestoppt wird. Das ist zum einen eine maximale Berech-<br />

nungszeit- bzw. komplexität und zum anderen eine minimale Qualitätsverbesserung im<br />

HR-Bild. Für das erste Kriterium kann sowohl eine definierte Zeit als auch ein defi-<br />

nierter Merkmalsumfang in einer bestimmten Menge von Bildern in Betracht gezogen<br />

werden. Die Qualitätsverbesserung kann entweder über die Anzahl von zusätzlichen<br />

Details im HR-Datengitter oder über Differenzmaße im Vergleich zum LR-Bild über-<br />

prüft werden. Generell muss jedoch auf die grundsätzliche Grenze nach dem Prinzip<br />

der Flächenabtastung geachtet werden, wie sie in Abschnitt 3.5.2 untersucht und defi-<br />

niert wurde. Demnach bildet das Verhältnis zwischen effektiver Abtastfläche und der<br />

Gesamtfläche der Faseranordnung eine fundamentale Grenze für die Effektivität einer<br />

Bildüberlagerung hinsichtlich der Auflösungssteigerung.<br />

3.5.8 Erweiterung für Farbe<br />

Abschnitt 3.3 hat auf die Bedeutung der Farbe in der Endoskopie hingewiesen und<br />

einen Ansatz zur Struktur- und Artefaktreduktion für die Einzelbildrestaurierung prä-<br />

sentiert. Die besondere Berücksichtigung der physikalischen Anordnung von Farbfil-<br />

termosaiken in Einchip-Kameras in Kombination mit der Information über die subpi-<br />

xelgenaue Position von Faserabbildungen auf der Sensorfläche ermöglicht eine Kor-<br />

rektur der sonst verfälschten Farbanteile der einzelnen Faserbereiche.<br />

Da der Ansatz zur Auflösungssteigerung die Eingangsbilder lediglich an den subpi-<br />

xelgenau registrierten Stützstellen abtastet, um Information über den Abtastpunkt zu<br />

erhalten, kann die Farberweiterung hier direkt übernommen werden. Die triangulierte<br />

Datenstruktur enthält dann statt Grauwerten Farbwerte und die HR-Interpolation am<br />

Ende findet auf mehreren Kanälen statt. Wegen dem Umfang ist der Ansatz der Auflö-


3.6. DEFINITION VON GÜTEKRITERIEN ZUR EVALUIERUNG 109<br />

sungssteigerung hier nur für einkanalige Eingangbilder gezeigt, lässt sich jedoch wie<br />

beschrieben auf weitere Farbkanäle erweitern, sofern die Voraussetzungen für die Far-<br />

binterpolation, u.a. Zugriff auf Rohdaten der Kamera, gegeben sind.<br />

3.6 Definition von Gütekriterien zur Evaluierung<br />

Die Bewertung der Qualität von Bildverarbeitungsalgorithmen erfordert in der Regel<br />

einen inhaltlichen oder semantischen Vergleich eines errechneten Ergebnisbilds mit<br />

einem idealen Bild. Trotz zahlreicher Versuche in der Literatur ist die Methodik zur<br />

Evaluierung keinesfalls einheitlich. Prinzipielle Unterschiede existieren in der Wahl<br />

des Vergleichsbilds. Vorgeschlagen wird u. a., dieses als Grundwahrheit vor einer Mo-<br />

dellierung der betrachteten Effekte oder durch eine alternative Aufnahme mit einem<br />

definierten Referenzsystem bereitzustellen. Die Auswertung in diesem Kapitel wird<br />

darüber hinaus noch durch eine geometrische Analyse von Raumrekonstruktionen er-<br />

gänzt, die ein konkretes Forschungsgebiet in der Endoskopie darstellt.<br />

Zur objektiven Beurteilung der vorgestellten Verfahren werden unterschiedliche<br />

Gütekriterien definiert. Im Kontext dieser Arbeit spielen dabei in erster Linie visuell<br />

wahrnehmbare Veränderungen von Bildstrukturen eine Rolle. Die Möglichkeiten eines<br />

Vergleichs sind vielfältig und jeder Ansatz wird mehr oder weniger abweichende Er-<br />

gebnisse zeigen. Deshalb ist eine vollständige Betrachtung ausgeschlossen. Im Gegen-<br />

satz zur Auswertung von Grauwertbildern muss beim Vergleich von Farbbildern die<br />

Erweiterung des ursprünglichen Farbraums der Grundwahrheit berücksichtigt werden.<br />

Die zugehörigen Theorien und Ansätze erweiterter Metriken für Farbbilder [HPP04]<br />

würden den Rahmen dieser Arbeit sprengen und werden daher weiterführenden Unter-<br />

suchungen überlassen.<br />

Für die Auswertung werden einige Differenz- und Ähnlichkeitsmaße verwendet,<br />

die dem Standard in der Literatur folgen [Jai89, TV98, WBSS04, CV00]. Darüber hin-<br />

aus sind aus der Literatur noch eine Vielzahl weiterer Möglichkeiten bekannt, zwei Bil-<br />

der miteinander zu vergleichen [FBPD06]. Dazu zählen u.a. die normalisierte Kreuz-<br />

korrelation (NCC), die Merkmalsintensität (PI), die Gradientenkorrelation (GC) oder<br />

die Gradientendifferenz (GD). Speziell für den vorliegenden Anwendungskontext der<br />

Faserendoskopie wurde darüber hinaus ein Qualitätsindikator bezüglich Glättung und<br />

Detailerhaltung in USAF-Testbildern definiert sowie andererseits quantitative Aussa-<br />

gen aus der Raumrekonstruktion von zylinderartigen Objekten gezogen.


110 3.6. DEFINITION VON GÜTEKRITERIEN ZUR EVALUIERUNG<br />

3.6.1 Glättung vs. Detailerhaltung im USAF-Testbild (QSR)<br />

Die Verfahren zur Restaurierung von faseroptisch gewonnenen Bilddaten unterliegen<br />

stets einem Kompromiss zwischen Glättung und Detailerhaltung. Eine Untersuchung<br />

z. B. für die Filterung muss daher sowohl den positiven Effekt der Rasterreduktion<br />

als auch den unerwünschten Einfluss der Unschärfe berücksichtigen. Diese Dualität<br />

kann prädestiniert in der Abbildung des USAF-Testbilds ausgewertet werden. Dieses<br />

Auflösungsmuster zeigt quadratische Gruppen von Linienpaaren, die schneckenförmig<br />

immer schmäler und dichter angeordnet sind. Es wird ein Güteindikator QSR 15 defi-<br />

niert, der sich aus zwei Komponenten zusammensetzt, der varianzbasierten Glattheit<br />

QS und einer Rayleigh-ähnlichen Aussage zur Linientrennung QR. Der Einfluss der<br />

beiden Komponenten wird durch einen heuristisch bestimmten Gewichtungsfaktor γ<br />

vorgegeben. Die Werte für QS und QS werden aus der Kombination von bearbeiteter<br />

und unbearbeiteter Aufnahme des USAF-Testbilds, IUSAF bzw. ÎUSAF, bestimmt:<br />

• Varianzbasierte Glattheit QS<br />

Die Effektivität der Glättung wird über die Grauwertvarianz in einem bestimm-<br />

ten Evaluierungsbereich ΩS (vgl. Abb. 3.42) der Abbildung definiert, der in der<br />

ursprünglichen Szene einen konstanten Intensitätswert aufweist. Diese Varianz<br />

wird auf die verbleibende Wabenstruktur nach Anwendung der Filter zurück-<br />

geführt. Zur Mittelwertbildung wird gefordert, dass sich der Bildbereich über<br />

mehrere Fasern in der ungefilterten Version erstreckt. Als Indikator QS für die<br />

Glattheit wird die normalisierte Standardabweichung (Wertebereich [0; 1]) des<br />

Evaluierungsbereichs ΩS von Eins abgezogen. Mit σ0 bzw. µ0 als Standardab-<br />

weichung bzw. Mittelwert in der Region ΩS des ungefilterten Abbilds ÎUSAF(i, j)<br />

und σs bzw. µs als Standardabweichung bzw. Mittelwert in der gleichen Region<br />

des gefilterten Abbilds IUSAF(i, j) ist QS definiert als<br />

QS = 1 − σs<br />

<br />

<br />

<br />

= 1 − <br />

<br />

σ0<br />

<br />

ÎUSAF(i, j) − ˆµs<br />

(i,j)∈ΩS (IUSAF(i, j) − µs) 2<br />

(i,j)∈ΩS<br />

2<br />

(3.29)<br />

mit QS ∈ [0; 1] . (3.30)<br />

Ein hoher Wert von QS korrespondiert mit einer hohen Glattheit des betrachteten<br />

Ausschnitts.<br />

• Rayleigh-ähnliches Linienkriterium QR<br />

Der Evaluierungsbereich ΩR in Abbildung 3.42 ist senkrecht entlang derjenigen<br />

15 QSR: (Quality regarding smoothness and Rayleigh based criterion) Güteindikator, der über die<br />

Glättung (Smoothing) und eine Rayleigh basierte Detailerhaltung im USAF-Testbild definiert ist


3.6. DEFINITION VON GÜTEKRITERIEN ZUR EVALUIERUNG 111<br />

Abbildung 3.42: Testbild (oben) mit Abtastlinie ssl (unten) zur Veranschaulichung des Gütein-<br />

dikators QSR. Der Evaluierungsbereich ΩR verläuft senkrecht entlang der dichtesten Linien-<br />

gruppe, die noch ohne Zweideutigkeit bzw. Zerstörung durch Alias dargestellt wird und trägt<br />

zum Rayleigh-ähnlichen Kriterium zur Detailerhaltung bei. Der homogene Evaluierungsbe-<br />

reich ΩS wird genutzt, um die Varianz die Reststruktur bzw. die Glattheit der Faserstruktur zu<br />

bestimmen.<br />

Anordnung von Linienpaaren gewählt, in der sich sowohl noch sichtbar gut se-<br />

parierbare Linienpaare als auch schon fehlerhafte (von Alias gekennzeichnete)<br />

befinden. Aus diesem Bereich ΩR wird durch Reihenmittelung eine robuste Ab-<br />

tastlinie ssl(k) erzeugt (vgl. Abb. 3.42, unten). Die Anzahl der Spalten, ΩR,WR<br />

wird dabei in der Größenordnung eines Faserabstands in Sensorelementen ge-<br />

wählt:<br />

ssl(k) = 1<br />

<br />

WR<br />

j∈ΩR,WR (IUSAF(k, j)) für k ∈ ΩR,HR , (3.31)<br />

wobei ΩR,WR und ΩR,HR die Koordinaten der Pixel in einer der indizierten Reihen<br />

bzw. Spalten bezeichnen. Im Beispiel der Abbildung 3.42 sind in der Abtastlinie<br />

die ersten drei Paare ωR,1, ωR,2 und ωR,3 noch eindeutig trennbar, wobei die letz-<br />

ten beiden, ωR,4 und ωR,5 durch Alias einen fehlerhaften Verlauf zeigen. Aus den


112 3.6. DEFINITION VON GÜTEKRITERIEN ZUR EVALUIERUNG<br />

trennbaren Linienpaaren wird von demjenigen mit der höchsten Dichte (hier:<br />

ˆωR = ωR,3) der minimale und der maximale Wert bestimmt:<br />

ssl,min = min {ssl(k)}| k∈ˆωR und (3.32)<br />

ssl,max = max {ssl(k)}| k∈ˆωR . (3.33)<br />

Die Güte der Linientrennung QR wird in Anlehnung an das Rayleigh-Kriterium<br />

zur Separierbarkeit von Spektrallinien definiert. Es setzt die Differenz zwischen<br />

den beiden Werten der Gleichungen (3.32) und (3.33) ins Verhältnis zum Maxi-<br />

mum:<br />

QR = ssl,max − ssl,min<br />

ssl,max<br />

. (3.34)<br />

Die Gleichungen (3.30) und (3.34) bilden ihren charakteristischen Wert jeweils auf den<br />

Bereich [0; 1] ab. Mit ihnen wird der gewichtete Güteindikator QSR gebildet:<br />

QSR = γ · QS + (1 − γ) · QR mit 0 ≤ γ ≤ 1 . (3.35)<br />

γ gewichtet den Einfluss der Wabenreduktion gegenüber der Bedeutung der Detailer-<br />

haltung. Ein hoher Wert QSR indiziert ein gutes Ergebnis hinsichtlich der gewählten<br />

Gewichtung zwischen den genannten Einflussgrößen. Für γ = 1 bescheinigt ein hoher<br />

Wert QSR eine gute Detailerhaltung, ohne die Glättung zu berücksichtigen. Für γ = 0<br />

wird QSR lediglich vom Erfolg der Glättung beeinflusst. Als geeigneter wird daher ein<br />

Kompromiss zwischen Null und Eins gewählt (vgl. Abschn. 4.3).<br />

3.6.2 Differenzmaße<br />

Differenzmaße vergleichen im Kontext dieser Arbeit ein verändertes Bild punktwei-<br />

se mit dem ursprünglichen Szenenbild, der sog. Grundwahrheit. Weil der aufwändige<br />

und unpräzise Schritt der Bildregistrierung und der damit verbundenen Wahl eines<br />

geeigneten Ausschnitts nach der Transformation vermieden werden soll, setzen die-<br />

se Maße eine exakte örtliche Übereinstimmung von Bildinhalten zwischen Eingangs-<br />

und Ausgangsbild voraus. Da diese Voraussetzung zwischen der Objektszene und einer<br />

restaurierten Abbildung in der Realität nicht gegeben ist, werden die Effekte der Fa-<br />

serabbildung und die zugehörige Grundwahrheit mit dem Modell aus Abschnitt 3.1.1<br />

nachgebildet. Nach Aufbereitung mit den zu untersuchenden Verfahren können die<br />

Ergebnisse mit den Originaldaten verglichen werden (vgl. Abb. 3.43).


3.6. DEFINITION VON GÜTEKRITERIEN ZUR EVALUIERUNG 113<br />

Abbildung 3.43: Vorgehen zum Vergleich eines beliebigen Bilds, welches von dem Übertra-<br />

gungssystem unbeeinflusst bleibt, mit seinem aufbereiteten faseroptischen Modell.<br />

Mittlere Betragsdifferenz (MAD)<br />

Ein einfaches Maß zur Quantifizierung der Abweichung zweier Signale Î und I ist das<br />

Mittel der Summe aus den Beträgen der Differenzen ihrer Abtastwerte, auch MAD 16<br />

abgekürzt:<br />

MAD(Î, I) = 1<br />

|R|<br />

<br />

(x,y)∈R<br />

<br />

Î(x, y) − I(x, y) . (3.36)<br />

Hierbei ist |R| die Mächtigkeit der Menge R, also Anzahl der Pixel innerhalb des<br />

berücksichtigten Bereichs.<br />

Wurzel der mittleren quadratischen Abweichung (RMSE)<br />

Die Berechnung der MAD gewichtet alle einfließenden Fehler linear und toleriert da-<br />

mit im Vergleich zur quadratischen Gewichtung mehr Ausreißer in der Verteilung. Um<br />

diesen Effekt berücksichtigen und beobachten zu können, wird zusätzlich die Wurzel<br />

der mittleren quadratischen Abweichung (RMSE 17 ) für den Vergleich zwischen Szene<br />

I und Faserabbild Î herangezogen:<br />

RMSE(Î, I) = 1<br />

<br />

(Î(x, y) − I(x, y))<br />

|R|<br />

(x,y)∈R<br />

2 . (3.37)<br />

Die Wurzelfunktion in der Berechnung stellt ein aussagekräftigeres Ergebnis in der<br />

Einheit Grauwert sicher.<br />

16 MAD: (Mean absolute difference) Mittel der Summe aus den Beträgen der Differenzen<br />

17 RMSE: Root mean square error (Wurzel der mittleren quadratischen Abweichung)


114 3.6. DEFINITION VON GÜTEKRITERIEN ZUR EVALUIERUNG<br />

Spitzensignal-zu-Rausch-Verhältnis (PSNR)<br />

Auf der Basis des RMSE wird das Spitzensignal-zu-Rausch-Verhältnis (PSNR 18 ) de-<br />

finiert. Dazu wird der Fehler, hier als Rauschen interpretiert, ins Verhältnis zum Spit-<br />

zenwert des Signals gesetzt und logarithmisch ausgegeben:<br />

PSNR(Î, I) = 20 log 10<br />

Imax<br />

RMSE(Î, I)<br />

. (3.38)<br />

Für Grauwertbilder kann Imax bei einer Quantisierung von acht Bit maximal 255 betra-<br />

gen. Je größer die Ähnlichkeit der verglichenen Bilder Î und I ist, desto höher ist der<br />

in Dezibel (dB) gemessene PSNR-Wert.<br />

3.6.3 Ähnlichkeitsmaße<br />

Ähnlichkeitsmaße beurteilen den Bildinhalt nicht ausschließlich durch Differenzbil-<br />

dung einzelner Bildpunkte, sondern beziehen Strukturmittelwerte und statistische Hi-<br />

stogrammverteilungen in den Vergleich mit ein. Als Ähnlichkeitsmaß wird neben der<br />

strukturellen Ähnlichkeit auch die auf die Bildverarbeitung übertragene Definition der<br />

Transinformation verwendet. Erstere gewichtet die strukturellen Eigenschaften von<br />

Abbildungen im Gegensatz zu klassischen Differenzmaßen unter Berücksichtigung der<br />

psychovisuellen Wahrnehmung des Menschen. Die Transinformation verdeutlicht den<br />

Informationsverlust als statistischen Zusammenhang zwischen Eingangs- und Aus-<br />

gangsbild.<br />

Mittlere strukturelle Ähnlichkeit (MSSIM)<br />

Der Nachteil der Qualitätsmessung mittels MAD und PSNR ist, dass die Störungen<br />

im Bild nicht danach gewichtet werden, wie stark sie dem Betrachter auffallen. Daher<br />

wird als weiteres Maß zur Evaluierung die mittlere strukturelle Ähnlichkeit (MSSIM 19 )<br />

verwendet. Das menschliche visuelle System ist stark empfänglich für strukturelle In-<br />

formationen, die auf starken Kanten und hohen Auflösungen basieren.<br />

Bilder, die den gleichen RMSE zum Original besitzen, können im Auge des Be-<br />

trachters dennoch völlig anderer Qualität sein, da sie sich in ihrer Struktur unterschei-<br />

den. Um ein Qualitätsmaß angeben zu können, welches an das visuelle System des<br />

Menschen angepasst ist, wurde von Wang et al. [WBSS04] eine Methode entwickelt,<br />

18 PSNR: (Peak signal to noise ratio) Spitzensignal-zu-Rausch-Verhältnis<br />

19 MSSIM: (Mean structural similarity) Mittlere strukturelle Ähnlichkeit


3.6. DEFINITION VON GÜTEKRITERIEN ZUR EVALUIERUNG 115<br />

die zwei Bilder auf strukturelle Ähnlichkeit untersucht. Dabei wird davon ausgegan-<br />

gen, dass diese strukturelle Ähnlichkeit von lokalen Helligkeits- und Kontrastunter-<br />

schieden im Originalbild Î und dem bearbeiteten Bild I abhängt. Nach Wang et al.<br />

wird der Helligkeitsunterschied l(Î, I) und der Kontrastunterschied c(Î, I) in einer de-<br />

finierten Region zwischen den Bildern folgendermaßen bestimmt<br />

l(Î, I) =<br />

c(Î, I) =<br />

2 ˆµ µ + C1<br />

ˆµ 2 + µ 2 + C1<br />

2 ˆσ σ + C2<br />

ˆσ 2 + σ2 + C2<br />

(3.39)<br />

, (3.40)<br />

wobei die Helligkeit in der Region durch dessen Intensitätsmittelwert ˆµ (für Î) bzw. µ<br />

(für I) angegeben wird und der Kontrast die Standardabweichung ˆσ (für Î) bzw. σ (für<br />

I) vom Mittelwert beschreibt. Es gilt C1 = (K1 L) 2 und C2 = (K2 L) 2 . L bezeichnet den<br />

maximal möglichen Helligkeitswert im Bild (bei acht Bit Quantisierung beträgt dieser<br />

255) und K1 bzw. K2 sind Konstanten (


116 3.6. DEFINITION VON GÜTEKRITERIEN ZUR EVALUIERUNG<br />

Soweit nicht anders angegeben, wird für typische faserendoskopische Aufnahmen in<br />

dieser Arbeit eine Fensterdimension von WS = 8 verwendet und die Konstanten auf<br />

K1 = 0, 01 und K2 = 0, 03 gesetzt.<br />

Transinformation (TI)<br />

Aus der Informationstheorie kommt die Definition der Transinformation TI 20 . Sie gilt<br />

als ein Maß für die Stärke des statistischen Zusammenhangs zweier Zufallsgrößen und<br />

wird in der Einheit Bit angegeben. Dieses Entropie-basierte Maß, das in der Litera-<br />

tur auch unter dem Begriff der Mutual Information (MI) bekannt ist, findet auch im<br />

Bereich der Bildregistrierung Verwendung [CV00]. Hier werden die beiden zu ver-<br />

gleichenden Bilder als zwei Zufallsvariablen A = Î und B = I interpretiert. Der Grad<br />

der Abhängigkeit dieser Zufallsvariablen ist definiert als<br />

MI(A, B) = <br />

PA,B(a, b)<br />

PA,B(a, b) log2 PA(a)PB(b)<br />

a,b<br />

, (3.45)<br />

wobei A und B die Intensitätsverteilung der beiden zu vergleichenden Bilder beschrei-<br />

ben, PA(a) und PB(b) die Randverteilungen sind und PA,B(a, b) die zweidimensionale<br />

Wahrscheinlichkeitsverteilung von A und B ist. Letztere lassen sich sehr einfach auf<br />

der Basis von Histogrammen h berechnen, denn es gilt<br />

h(a, b)<br />

PA,B(a, b) = <br />

a,b h(a, b)<br />

PA(a) = <br />

PA,B(a, b)<br />

b<br />

PB(b) = <br />

PA,B(a, b) . (3.46)<br />

h ist hier ein zweidimensionales Histogramm in Abhängigkeit von A und B. Der Wert<br />

an der Position (a, b) gibt die Anzahl an Intensitätspaaren an, welche in A (Î) den Wert<br />

a und in B (I) den Wert b besitzen. Die Transinformation basiert auf der Entropiefunk-<br />

tion H, für die der Zusammenhang gilt:<br />

a<br />

MI(A, B) = H(A) + H(B) − H(A, B) . (3.47)<br />

Vergleicht man ein Bild der Intensitätsverteilung A mit sich selbst, so folgt<br />

MI(A, A) = H(A) + H(A) − H(A, A)<br />

= 2H(A) − H(A, A) = H(A) , (3.48)<br />

20 TI: (Transinformation) Statistisches Maß für den Zusammenhang von Zufallsgrößen


3.6. DEFINITION VON GÜTEKRITERIEN ZUR EVALUIERUNG 117<br />

da die gemeinsame Entropie von A und A gleich der Entropie von A ist. Der Wert für MI<br />

liegt folglich im Intervall [0, H(A)]. Ist eine Zufallsgröße vollständig durch die andere<br />

bestimmt, so gilt MI(A, B) = H(A), sind die Bilder hingegen unkorreliert zueinander,<br />

so gilt MI(A, B) = 0.<br />

3.6.4 Gütekriterien der Rekonstruktion von Raumpunkten<br />

Die bisher beschriebenen Gütekriterien haben keine weiterführende Auswertung der<br />

Bilddaten für eine anwendungsspezifische Verwendung berücksichtigt, sondern nur<br />

den Abstand zum Original oder die visuell wahrnehmbare Auflösung in bestimmten<br />

Bildbereichen auf verschiedene Weise verglichen. Als ein solches Ziel der Bildaufbe-<br />

reitung im Kontext einer konkreten Anwendung wird die 3D-Rekonstruktion aus einer<br />

Folge aufbereiteter Bilder untersucht. Dabei ist es unerheblich, welche visuelle Qua-<br />

lität die aufbereitete Bildfolge zeigt, sondern welche Präzision die Anwendung bzw.<br />

welche Güte das Resultat der räumlichen Rekonstruktion zeigt.<br />

Zur 3D-Rekonstruktion von Objekten wurde das Programm SynthEyes [And07]<br />

genutzt. Dies ist eine Anwendung aus dem Bereich der Filmindustrie zur nachträgli-<br />

chen räumlichen Darstellung und Erweiterung von Szenen aus Bildsequenzen. Sie lässt<br />

vielfältige manuelle Einstellungen zu und erlaubt den Zugriff und Export von wichti-<br />

gen (Zwischen-) Ergebnissen. Entscheidend für die Wahl dieses Programms ist u.a.<br />

die einfache verzerrungsfreie Darstellung der stark weitwinkelig verzeichneten Auf-<br />

nahmen aus endoskopischen Ansichten (vgl. Abschn. 2.4.1).<br />

Um die Auswirkungen von verschiedenen relevanten Methoden der Bildaufberei-<br />

tung (Filterung, Interpolation) zu untersuchen, werden diese auf künstlich faserstruk-<br />

turierte Bildsequenzen angewendet und die Ergebnisse der anschließenden 3D-Rekon-<br />

struktion mit denen auf Basis der originalen Bildsequenzen verglichen. Als Kriterien<br />

werden die Anzahl der lokalisierten Merkmale ausgewertet, der intern ermittelte Rück-<br />

projektionsfehler überprüft und die resultierende Geometrie mit der aufgenommenen<br />

Szene verglichen.<br />

Anzahl der Korrespondenzen<br />

Die Qualität einer 3D-Rekonstruktion wird unter anderem von der Anzahl der rekon-<br />

struierten 3D-Punkte beeinflusst, sofern diese eine gewisse Ortsauflösung einhalten.<br />

Eine höhere Dichte an rekonstruierten 3D-Punkten lässt eine detailreichere räumli-<br />

che Darstellung zu. Die resultierende 3D-Punktwolke (vgl. Abb. 3.44) wird in ihrer


118 3.6. DEFINITION VON GÜTEKRITERIEN ZUR EVALUIERUNG<br />

Abbildung 3.44: (a) Merkmalskorrespondenzen im Einzelbild beim endoskopischen Blick in<br />

eine Bohrung und (b) rekonstruierte 3D-Punktwolke aus der Bildsequenz.<br />

Dichte zunächst durch die Anzahl der Korrespondenzen in den einzelnen Aufnahmen<br />

bestimmt, da jede Korrespondenz einen potenziellen Raumpunkt liefert. Für die Dar-<br />

stellung einer Oberfläche können diese Raumpunkte in einem weiteren Schritt zu ei-<br />

nem Dreiecksnetz verknüpft werden. Für jedes Dreieck wird aus der (endoskopischen)<br />

Bildsequenz an der entsprechenden Stelle eine Textur berechnet und zugeordnet, so-<br />

dass ein Flächenmodell entsteht [TBM02]. Je höher die Anzahl an Korrespondenzen<br />

und damit die Anzahl der rekonstruierten 3D-Punkte ist, desto dichter und feiner ist<br />

auch das texturierte Flächenmodell.<br />

Um die Feinheit des Rekonstruktionsergebnisses der aufbereiteten Bildsequenzen<br />

zu untersuchen, wird die Anzahl der Korrespondenzen bei der vom Abbildungssystem<br />

unbeeinflussten (Î), bzw. der gefilterten und interpolierten Bildsequenz (I) untersucht.<br />

Unterscheidet sich die Anzahl der Korrespondenzen bei einer aufbereiteten Bildse-<br />

quenz deutlich von einer anders aufbereiteten Bildsequenz, so kann eine Aufberei-<br />

tungsmethode in Bezug auf die Feinheit des Rekonstruktionsergebnisses vorgezogen<br />

werden.<br />

Rückprojektionsfehler<br />

Der Rückprojektionsfehler beschreibt die Wurzel der mittleren quadratischen Abwei-<br />

chung der sog. Rückprojektion. Dazu werden die rekonstruierten Punkte im 3D-Raum<br />

auf Basis der geschätzten räumlichen Kalibrierdaten (Abbildungsmatrix) zurück auf<br />

die 2D-Ebene projiziert und dort mit den ursprünglichen Positionen der Korrespon-<br />

denzen in der jeweiligen Bildebene verglichen. SynthEyes optimiert die Raumpunkte<br />

aus den Korrespondenzen unter anderem nach diesem Kriterium und gibt nach dessen<br />

iterativer Berechnung den endgültigen Rückprojektionsfehler in Pixel aus. Der Rück-<br />

projektionsfehler ist ein Indikator für die mittlere Gesamtgüte der Rekonstruktion und


3.6. DEFINITION VON GÜTEKRITERIEN ZUR EVALUIERUNG 119<br />

führt laut SynthEyes über einem kritischen Grenzwert von 1.0 zu visuell unbefriedi-<br />

genden Ergebnissen.<br />

Achsenverhältnis und Projektionsgüte<br />

Eine weitere Möglichkeit, die Qualität der rekonstruierten 3D-Punktwolke anzugeben,<br />

ist der Vergleich dieser Punktwolke mit der bekannten Geometrie, in der die Bildse-<br />

quenz aufgenommen wurde. Im Kontext dieser Arbeit wurden beispielhaft zylinder-<br />

förmige Bohrungen (Hohlzylinder) verwendet, die mit Endoskopen entlang der Sym-<br />

metrieachse untersucht werden. Die einfache Struktur des Zylinders ermöglicht eine<br />

einfache Parametrisierung und eignet sich gut zur Mittelung einer definierten Menge<br />

an Punkten entlang der Symmetrieachse. Als Kriterium für die originalgetreue Wieder-<br />

gabe der Objektgeometrie wird zum einen die Streuung der rekonstruierten 3D-Punkte<br />

um die Zylinderwandung und zum anderen die Kreisförmigkeit der Punktmenge in der<br />

Projektion auf die Zylindergrundfläche ausgewertet. Für beide Größen muss zunächst<br />

der Kamerapfad festgelegt werden. Dies geschieht durch Angleichen einer Geraden<br />

an die geschätzten Kamerapunkte, die idealerweise auf einer Linie liegen. Die Norm<br />

dieser Gerade bildet die normierte Senkrechte n der beabsichtigten Projektionsebene.<br />

Ein Punkt r(x, y, z) wird senkrecht bezüglich n auf den Punkt ¯r(x, y, z) projiziert:<br />

¯r(x, y, z) = r(x, y, z) − (r(x, y, z) · n + d) · n (3.49)<br />

mit d = −¯r(x, y, z) · n .<br />

Um die Kreisförmigkeit des Querschnitts zu bestimmen, werden die 3D-Koordinaten<br />

eines bestimmten Abschnitts der Zylinderrekonstruktion auf die n-Ebene projiziert<br />

(vgl. Abb. 3.45). Durch Minimierung der Fehlerquadrate zu einer parametrisierten El-<br />

lipse wird deren Charakteristik, also der Mittelpunkt, die kleine Hauptachse ea, die<br />

große Hauptachse eb und die Orientierung im 2D-Koordinatensystem numerisch be-<br />

stimmt. Das Verhältnis ea/eb, also zwischen kleiner und großer Hauptachse gibt die<br />

Annäherung der Rekonstruktion des Zylinderquerschnitts an einen Kreis wieder, die<br />

bestenfalls ea/eb = 1, nämlich kreisförmig sein sollte. Als zweite Größe wird der mitt-<br />

lere euklidische Abstand dRek zwischen den NRek projizierten Datenpunkten und der<br />

parametrisierten Ellipse angegeben. Der Fehlerabstand δRek,i ist die minimierte eukli-<br />

dische Distanz zwischen der Koordinate (xi; yi) der Rekonstruktion und der entspre-<br />

chenden Koordinate (ui; vi) auf dem projizierten Zylinderquerschnitt:<br />

δRek,i = (xi − ûi) 2 + (yi − ˆvi) 2 (3.50)<br />

mit (ûi; ˆvi) = argmin[(xi<br />

− ui)<br />

(ui,vi)<br />

2 + (yi − vi) 2 ] .


120 3.6. DEFINITION VON GÜTEKRITERIEN ZUR EVALUIERUNG<br />

Abbildung 3.45: Die rekonstruierten Raumpunkte einer endoskopisch aufgenommenen Boh-<br />

rung werden auf eine Ebene senkrecht zum Bewegungspfad des Endoskops projiziert und durch<br />

die Parameter einer Ellipse beschrieben, aus [Ste07].<br />

Das Mittel über alle Fehlerabstände aus Gleichung (3.50) wird prozentual zum „Durch-<br />

messer“ (ea + eb) angegeben (vgl. Gl. (3.51)) und ist als Wert für die Abweichung der<br />

3D-Punkte um den rekonstruierten Zylinder ebenfalls ein Indikator für die Güte der<br />

Rekonstruktion:<br />

QREK = 1<br />

NREK<br />

·<br />

NREK <br />

i=1<br />

1<br />

δRek,i ·<br />

ea + eb<br />

. (3.51)<br />

Je geringer QREK ausfällt, desto präziser wurde die räumliche Darstellung der Boh-<br />

rung aus der aufbereiteten Bildsequenz rekonstruiert.<br />

3.6.5 Subjektive Evaluierung<br />

Die subjektive Bewertung von unterschiedlich aufbereiteten Bildern ist von Bedeu-<br />

tung, um den visuellen Eindruck bei der Darstellung auf einem optischen Ausgabege-<br />

rät zu beurteilen. Entscheidend ist dabei zu berücksichtigen, dass es sich um subjektive<br />

Wahrnehmungen handelt, die sich von Person zu Person und von Anwendungsgebiet<br />

zu Anwendungsgebiet unterscheiden können. In der Literatur gibt es unzählige Be-<br />

schreibungen zur Durchführung von subjektiven Vergleichstests für Bildmaterial. As-<br />

lan et al. evaluieren die von ihnen vorgeschlagenen Methoden zur Bildaufbereitung für<br />

Endoskopiesysteme anhand üblicher Signifikanztests [AKH + 99]. Sie basieren auf Um-<br />

fragen unter einer Menge von repräsentativen Personen, für diesen Zweck z. B. Ärz-<br />

te, welche die Endoskopie für ihren Beruf nutzen. Krüger et al. stellen in [KVH + 04]<br />

ein Evaluierungsschema zum Vergleich von Maßnahmen zur Bildverbesserung für die<br />

starre Endoskopie vor. Neben üblichen Kriterien, wie der Erkennbarkeit relevanter De-


3.6. DEFINITION VON GÜTEKRITERIEN ZUR EVALUIERUNG 121<br />

tails nach einer Helligkeits- und Kontrastanpassung wird in dieser Arbeit auch auf spe-<br />

zielle anwendungsspezifische Effekte der Endoskopie eingegangen, wie beispielsweise<br />

der Erfolg einer Glanzlichtreduktion.<br />

In dieser Arbeit werden für zwei Bereiche subjektive Bewertungen von visuellen<br />

Ergebnissen gesammelt und ausgewertet. Das ist zum einen die Studie zu Modi und<br />

Effektivität der Filterung in Abschnitt 4.3 und zum anderen die Beurteilung der spe-<br />

ziellen Aufbereitung von Farbbildern unter Verwendung der Rohdaten von Einchip-<br />

Farbsensoren (vgl. Abschn. 4.5). In beiden Fällen erscheint es wichtig, den subjek-<br />

tiven Eindruck der resultierenden Bilder zu bewerten, um die quantitativen Untersu-<br />

chungen zu bestätigen oder den Unterschied zwischen subjektiver Wahrnehmung und<br />

computerassistierter Weiterverarbeitung herauszustellen. Für den ersten Bereich wird<br />

eine repräsentative Stichprobe von Bildern bzw. Bild-Sequenzen mit den zu verglei-<br />

chenden Verfahren aufbereitet und in einer geeigneten Umgebung bereitgestellt, wo<br />

sie von fachkundigem Personal subjektiv an Hand definierter Kriterien, wie Glattheit,<br />

Detailerhaltung, Kontrast u.ä. beurteilt werden. Im Fall der Farbbildaufbereitung wird<br />

dadurch die visuelle Verbesserung hinsichtlich Farb- und Strukturartefakten untersucht<br />

und diskutiert.


4<br />

123<br />

Untersuchungen und<br />

Ergebnisse<br />

Die Ergebnisse der Bildaufbereitung werden mit aktuellen anerkannten Vergleichs-<br />

verfahren und Bewertungskriterien beurteilt. Durch die Wahl verschiedener Kriterien,<br />

nämlich geometrischer, visueller, differentieller und statistischer wird ein Höchstmaß<br />

an Objektivität erzielt.<br />

Die Vielfalt an Möglichkeiten zur Bewertung von Bearbeitungsschritten und deren<br />

Ergebnisse sind in der Bildverarbeitung grenzenlos. Einige Ergebnisse können nur im<br />

Kontext einer konkreten Anwendung richtig eingeschätzt werden. Andere Vergleichs-<br />

verfahren liefern große Unterschiede, je nachdem ob sie auf Grauwertbildern oder auf<br />

Farbbildern ausgeführt werden. Beim visuellen Vergleich werden Resultate von ver-<br />

schiedenen Personen unterschiedlich wahrgenommen. Je nach seinem Empfinden und<br />

seinem beruflichen oder fachlichen Hintergrund beurteilt jeder Mensch trotz objek-<br />

tiver Vorgaben Ergebnisse unterschiedlich. Im Gegensatz dazu können bei objektiven<br />

Vergleichen mittels Differenz- und Ähnlichkeitsmaßen selbst kleinste Unterschiede re-<br />

produzierbar quantifiziert werden, die allerdings keine unmittelbare Interpretation über<br />

die Semantik des Bildinhalts erlauben.<br />

Wie sich herausstellt, ist die Filterung der Interpolation bezüglich der Restaurie-<br />

rung von Strukturen überlegen. Das wirkt sich beispielsweise positiv auf Grauwertbil-<br />

der aus, die für eine 3D-Rekonstruktion aufbereitet werden. Abschnitt 4.2 zeigt diesen<br />

Unterschied am Vergleich von charakteristischen Kenngrößen des Verlaufs und des<br />

Resultats der Raumrekonstruktion. Speziell für den Ansatz der Filterung wird in Ab-<br />

schnitt 4.3 der Kompromiss zwischen der Glättung der Wabenstruktur und der Detail-<br />

erhaltung von Bildstruktur für verschiedene Filtermasken gegenüber manuell parame-<br />

trisierten Filtern aus der Literatur untersucht.<br />

Im Gegensatz zur Filterung erhält die Interpolation ihre Bedeutung wegen der Kor-<br />

rekturmöglichkeit von Farbartefakten. Die Theorie zum quantitativen Vergleich von


124 4.1. ÜBERSICHT ÜBER DIE VERWENDETEN GERÄTE<br />

Farbbildern (Farbmetrik, Farbabstände, Farbraumerweiterung, Farbraummodelle, vgl.<br />

Abschn. 3.6) gegenüber Grauwertbildern würde den Rahmen dieser Arbeit sprengen.<br />

Daher wird in Abschnitt 4.5 der Erfolg der Reduktion von Farbartefakten zielorientiert<br />

durch eine Gradientenvisualisierung bestätigt.<br />

Um die Strukturartefakte zu reduzieren, die der Ansatz der Interpolation mit sich<br />

bringt, wurde in Abschnitt 3.5 die Superposition vorgeschlagen. Abschnitt 4.6 zeigt<br />

den Fortschritt durch die Überlagerung von Bildsequenzen. Durch den visuellen Ver-<br />

gleich einer handregistrierten Referenzaufnahme mittels eines linsenoptischen Endo-<br />

skops mit den Resultaten der vorgeschlagenen Filterung können speziell die Grenzen<br />

der Wirkungsweise durch eine falsche Bewegungsschätzung und die effektive Abtast-<br />

fläche beobachtet werden (vgl. Abschn. 4.6.4).<br />

4.1 Übersicht über die verwendeten Geräte<br />

Um die Robustheit und Zuverlässigkeit der vorgestellten Verfahren zur Bildrestaurie-<br />

rung von faseroptischen Aufnahmen zu demonstrieren, wurde Bildmaterial mit unter-<br />

schiedlichen Kombinationen von Faserendoskopen und Kameras, sowie ausgewähl-<br />

ten Beleuchtungseinrichtungen und Adaptern erzeugt. An dieser Stelle wird daher ein<br />

Überblick über die verwendeten Hardware-Komponenten gegeben.<br />

Faserendoskope Tabelle 4.1 listet die Hersteller und technischen Daten der Faseren-<br />

doskope auf. Mit Ausnahme des Mikroendoskops E8 mit 0, 42mm und dem vergleichs-<br />

weise dicken Endoskop E10 aus der preisgünstigen Baureihe ValueLine von Schölly<br />

mit 6, 00mm reichen die Arbeitsdurchmesser der Endoskope von knapp einem bis vier<br />

Millimeter und decken damit den typischen Bereich von dünnen Faserendoskopen ab.<br />

Die Faseranzahl dieser Geräte liegt im Bereich zwischen 6.000 und 30.000 Fasern.<br />

Aus dieser Größenordnung ragt das Endoskop E8 aufgrund seines dünnen Bildleiters<br />

mit nur 3.000 und E9 mit seiner extrem geringen Faserdichte von 2.000 Fasern bei<br />

3, 2mm Arbeitsdurchmesser heraus. Der Preis von Endoskopen verhält sich abzüglich<br />

eines Grundbetrags nahezu linear zu ihrer Arbeitslänge. Diese liegt bei den verwen-<br />

deten Endoskopen zwischen knapp einem halben und gut einem Meter. Alle aufge-<br />

führten Endoskope besitzen einen 0 ◦ -Geradeausblick (im Gegensatz zu abgewinkelten<br />

Blickrichtungen zur gezielten Inspektion einer seitlichen Wandung o.ä.), unterschei-<br />

den sich jedoch im Hinblick auf den Öffnungswinkel. Dieser Wert liegt zwischen 45 ◦<br />

und 90 ◦ und charakterisiert die Weitwinkeleigenschaft des Endoskops. Die letzte Spal-<br />

te der Übersicht gibt das Material des Bildleiters an, das sich wie in Abschnitt 2.3.1


4.1. ÜBERSICHT ÜBER DIE VERWENDETEN GERÄTE 125<br />

Tabelle 4.1: Hersteller und technische Spezifikationen der verwendeten Faserendoskope. Alle<br />

Geräte sind mit 0 ◦ -Geradeausblick konfektioniert.<br />

Endo- Marke Arbeits- Faser- Arbeits- Öffnungs- Bildleiter<br />

skop durchmesser anzahl länge winkel a Material<br />

# [mm] [mm] [ ◦ -Grad]<br />

E1 Everest 0, 9 6.000 650 70 Quarz<br />

E2 Everest 4, 0 6.000 500 50 Glas<br />

E3 Olympus 1, 0 6.000 1.000 70 Quarz<br />

E4 Schölly 1, 0 6.000 500 70 Quarz<br />

E5 Storz 1, 0 6.000 1.000 60 Quarz<br />

E6 Schölly 3, 8 10.000 300 80 Glas<br />

E7 Schölly 3, 8 30.000 500 85 Quarz<br />

E8 Almikro 0, 42 3.000 1.000 70 Quarz<br />

E9 Naso 3, 2 2.000 300 n/a Glas<br />

E10 Schölly 6, 0 12.000 1.250 45 Glas<br />

E11 Schölly 0, 5 3.000 500 70 Glas<br />

a laut Hersteller<br />

beschrieben auf die Homogenität und den Kontrast von dessen Querschnittsstruktur<br />

auswirkt.<br />

Abbildung 4.1 zeigt für vier bauähnliche Faserendoskope mit rund einem Millime-<br />

ter Durchmesser (E1, E3, E4 und E5, vgl. Tab. 4.1) einen vergleichbaren Ausschnitt<br />

eines USAF-Testbilds. Die rechte Spalte gibt einen vergrößerten Ausschnitt wieder, in<br />

dem die unterschiedliche Qualität der Wabenstruktur deutlich wird. Die Aufnahmen<br />

entstammen einer Untersuchung mit dem Ziel, verschiedene Faserendoskope hinsicht-<br />

lich ihrer Bildqualität zu beurteilen. Aufgrund ihrer unterschiedlichen Arbeitslänge<br />

wird die Helligkeit ins Verhältnis zur Länge des Bildleiters gesetzt. Sowohl der vergrö-<br />

ßerte Ausschnitt der Faserabbildung (vgl. Spalte 2 in Abb. 4.1), als auch die zugehörige<br />

spektrale Verteilung der Bildfrequenzen (vgl. Spalte 3 in Abb. 4.1) gibt Auskunft über<br />

die Lichtleitfähigkeit und das Kontrastverhältnis in der Abbildung. Für vergleichende<br />

Untersuchungen in den folgenden Abschnitten kommen überwiegend Endoskope der<br />

Firma Schölly zum Einsatz, die ein akzeptables Preis-Leistungsverhältnis bei guten<br />

Werten für das Kontrastverhältnis und die Ortsfrequenzverteilung zeigen.


126 4.1. ÜBERSICHT ÜBER DIE VERWENDETEN GERÄTE<br />

(a) E1 - Everest<br />

(b) E3 - Olympus<br />

(c) E4 - Schölly<br />

(d) E5 - Storz<br />

Abbildung 4.1: Visueller Vergleich der Abbildungsgüte von verschiedenen bauähnlichen En-<br />

doskopen (vgl. Tab. 4.1). Der jeweils vergrößerte Ausschnitt in der zweiten Spalte lässt Un-<br />

terschiede im Kontrast und in der Faserstruktur erkennen, die sich auch im Spektrum in der<br />

dritten Spalte auswirken.


4.1. ÜBERSICHT ÜBER DIE VERWENDETEN GERÄTE 127<br />

Tabelle 4.2: Hersteller und technische Spezifikationen der verwendeten Kameras.<br />

Kamera Marke Bezeichnung Bus Sensor Anzahl an Pixel-<br />

# größe Pixel größe<br />

Grauwertkameras<br />

[Pixel 2 ] [µm 2 ]<br />

K1 AVT Marlin IEEE 1/2 ′′ 1392×1040 4, 65 2<br />

F-145B<br />

K2 AVT Dolphin IEEE 2/3 ′′ 1392×1040 6, 45 2<br />

F-145B<br />

K3 Jai CV-M10E CamLink 1/2 ′′ 782×582 9.9 2<br />

Farbkameras<br />

K4 AVT Dolphin IEEE 2/3 ′′ 1392×1040 6, 45 2<br />

F-145C<br />

Kameramodelle Zur Bildakquisition werden digitale Industriekameras eingesetzt<br />

(vgl. Tabelle 4.2), die sowohl technisch eine solide Verarbeitung aufweisen, als auch<br />

eine hohe Signalgüte in Bezug auf das Aufnahmeverhalten zeigen. Über ihre Schnitt-<br />

stelle (FireWire (IEEE 1394) bzw. CamLink) können aus den Grauwertkameras K1,<br />

K2 und K3 Intensitätsabbilder ausgelesen und abgespeichert werden. Die Farbkamera<br />

K4 führt intern bereits ein sog. Demosaicing durch und liefert das resultierende Farb-<br />

bild an den Rechner. Die farbkodierten Intensitätsdaten (Rohdaten) liegen ebenfalls<br />

abrufbereit im Kameraspeicher und können für eine alternative Aufbereitung abgeru-<br />

fen werden. Die Kamerasensoren haben eine maximale Auflösung von 782×582 bzw.<br />

1392×1040 Bildelementen bei einer quadratischen Grundfläche zwischen 4, 65 2 µm 2<br />

und 9.9 2 µm 2 je Einzelelement.<br />

TV-Adapter Das Endoskop wird mit dem Okular über einen sogenannten TV-Ad-<br />

apter mit dem Kamerasensor verbunden. Die Brennweite dieses Adapters bestimmt<br />

den Abbildungsmaßstab und muss an die jeweilige Sensorfläche (hier 1/2 ′′ oder 2/3 ′′ )<br />

angepasst werden, um die Apertur möglichst flächenfüllend auf die Sensorfläche ab-<br />

zubilden.<br />

Beleuchtungsquellen Um eine Szene adäquat aufnehmen zu können, die innerhalb<br />

eines geschlossenen Hohlraums liegt, ist eine Lichtquelle notwendig, die Licht über<br />

den flexiblen Lichtleiter an die Spitze des Endoskops liefert. Hierzu wird die Licht-<br />

quelle Flexilux 3000 von Schölly verwendet. Sie wird mit einer 100 Watt Halogen-


128 4.2. QUALITÄT VON 3D-REKONSTRUKTIONEN<br />

lampe betrieben, die nach einem Wärmeschutzglas eine Beleuchtungsstärke von 8, 8<br />

Mio. Lux am Eingang des Lichtleiters liefert. Für den mobilen Einsatz wird alternativ<br />

eine LED-Lichtquelle eingesetzt, die mit einem Akku direkt an das Endoskop montiert<br />

werden kann. Die LED-Handlichtquelle aus der Produktlinie ValueLine von Schölly<br />

hat eine Nominalleistung von 3,2 Watt und erzeugt am Lichtleitereingang eine Be-<br />

leuchtungsstärke von etwa 100.000 Lux.<br />

Um die Problematik der mitgeführten Beleuchtungsquelle (vgl. Abschn. 2.3.3) zu um-<br />

gehen, können freiliegende Objekte von externen Lichtquellen mit handelsüblichen<br />

Glühbirnen beleuchtet werden. Im Gegensatz zu diesem Auflicht kann ein transparen-<br />

tes Linien- oder Farbmuster auch durch ein diffuses sog. Durchlicht beleuchtet werden.<br />

Durch den Einsatz solcher Lichtkästen werden Reflexionen auf spiegelnden Testmus-<br />

tern vollständig vermieden.<br />

4.2 Qualität von 3D-Rekonstruktionen<br />

In der Motivation dieser Arbeit (vgl. Abschn. 1.2.3) wurde die räumliche Rekonstruk-<br />

tion von Objekten (beispielsweise Hohlräumen) aus einer faserendoskopischen Bild-<br />

folge als interessante und angestrebte Anwendung beschrieben. Die Effizienz und Ef-<br />

fektivität der Triangulierung sowie die Präzision der Punktverteilung einer 3D-Rekon-<br />

struktion spiegeln allerdings gleichermaßen die Qualität der verwendeten Bilddaten<br />

wieder, die dafür verwendet werden. In den folgenden Abschnitten wird der Einfluss<br />

der Aufbereitung dieser Aufnahmen durch die verschiedenen Ansätze zur Filterung<br />

(vgl. Abschn. 3.2.1) und Interpolation (vgl. Abschn. 3.2.2) auf das Ergebnis von 3D-<br />

Rekonstruktionen untersucht. Ausgewertet werden hierbei die Häufigkeit der wieder-<br />

gefundenen und korrespondierenden Merkmalsketten, der Rückprojektionsfehler im<br />

Triangulierungsprozess und letztendlich das Rekonstruktionsergebnis.<br />

4.2.1 Bildmaterial<br />

Als ein typisches Szenario für die Anwendung der Endoskopie im Kontext der industri-<br />

ellen Inspektion wird für dieses Evaluierungsszenario ein Endoskop senkrecht durch<br />

eine Bohrung mit konstantem Durchmesser geführt. Diese vergleichsweise einfache<br />

Parametrisierung dieses Testkörpers erlaubt eine Evaluierung der Rekonstruktionsgüte<br />

anhand der Streuung der rekonstruierten Raumpunkte in Bezug auf die Zylindergeo-<br />

metrie.


4.2. QUALITÄT VON 3D-REKONSTRUKTIONEN 129<br />

Tabelle 4.3 zeigt die Eigenschaften, den Umfang und weitere Details von sechs en-<br />

doskopisch erfassten Bildsequenzen, die als Grundlage für die 3D-Rekonstruktion ei-<br />

ner 3D-Punktwolke verwendet werden. Der vergrößerte Ausschnitt vor jeder Sequenz,<br />

die jeweils durch eine Einzelaufnahme dargestellt wird, zeigt die entsprechende Textur.<br />

Um in einem ersten Schritt mögliche Rausch- und Spiegelungseffekte auszuschließen,<br />

werden drei Sequenzen (SZK, SGB und SRT) künstlich generiert. Mit der frei verfüg-<br />

baren 3D-Grafik-Software Blender 1 wurde eine künstliche Rohrfahrt mit 150 Einzel-<br />

bildern der Dimension 800×600 simuliert. Die Texturen, die für die Zylinderwandung<br />

verwendet wurden, stammen aus der freien mediacastle-Datenbank 2 . Sie zeigen ei-<br />

ne verzinkte Metalloberfläche (SZK), eine kontrastarme matte Metallstruktur (SKA)<br />

und eine rostige Metalloberfläche (SRT). Die übrigen drei Sequenzen (RZK, RFN und<br />

RGB) zeigen reale Aufnahmen von Zylinderkörpern. Sie wurden anstelle eines faser-<br />

basierten mit einem starren Endoskop der Firma Storz mit vergleichbaren optischen<br />

Kenndaten (0 ◦ -Geradeausblick, Öffnungswinkel 100 ◦ ) aufgezeichnet. Die Sequenzen<br />

RZK und RFN enthalten 300 Bilder der Dimension 1024 × 768 einer verzinkten Me-<br />

tallröhre bzw. eines zylinderförmigen Hohlraums mit feinkörniger Sandoberfläche. Die<br />

Sequenz RGB stellt 78 Bilder der Dimension 800 × 600 bereit, die in einem zylinder-<br />

förmigen Hohlraum mit grober Sandkörnung aufgezeichnet wurden.<br />

Diese Basisdaten der sechs Bildsequenzen werden für die Untersuchung des Ef-<br />

fekts einer faserbasierten Bildübertragung mit einem typischen Wabenmuster model-<br />

liert (vgl. Abschn. 3.1.1). Das gewählte Bildbündel enthält 12.000 Fasern, die in einem<br />

Aperturradius von 280 Pixel angeordnet sind. Nach Aufbereitung mit den zu verglei-<br />

chenden Ansätzen, nämlich der automatischen Filterung und der faserbasierten Inter-<br />

polation werden die Bilddaten mit der Raumrekonstruktionssoftware SynthEyes bear-<br />

beitet und ausgewertet. Als Kriterium wird die Anzahl der Korrespondenzen vor der<br />

Modellierung und nach der Bildaufbereitung mit Filterung oder Interpolation unter-<br />

sucht. Eine Kette von Merkmalen wird dann als Korrespondenz definiert, wenn sie<br />

über mindestens zwölf Aufnahmen registriert, d.h. in den Bildern aufgefunden werden<br />

kann.<br />

4.2.2 Statistik der Merkmalskorrespondenzen<br />

Für die Triangulierung, also die Tiefenschätzung eines Punkts aus mindestens zwei<br />

verschiedenen Ansichten sind zuverlässig gewählte und registrierte Merkmale in meh-<br />

reren Bildern der Sequenz notwendig. Jede solche Kette von Korrespondenzen liefert<br />

1 Quelle: http://www.blender.org<br />

2 Quelle: http://www.mediacastle.de


130 4.2. QUALITÄT VON 3D-REKONSTRUKTIONEN<br />

Tabelle 4.3: Endoskopische Abbildungen von Hohlzylindern mit unterschiedlicher Oberflä-<br />

chentextur als Datenbasis für die Evaluierung der 3D-Rekonstruktion. Die vorletzte Spalte<br />

zeigt die Textur als vergrößerten Ausschnitt. Die letzte Spalte zeigt eine Einzelaufnahme der<br />

Bildsequenz. Die Bildreihen SZK, SKA und SRT sind rauschfrei simuliert, wohingegen RZK,<br />

RFN und RGB reale Aufnahmen von Zylinderkörpern zeigen.<br />

Kürzel Beschreibung Textur Einzelbild Anzahl<br />

SZK<br />

SKA<br />

SRT<br />

RZK<br />

RFN<br />

RGB<br />

Simulierte Textur einer<br />

verzinkten Metallober-<br />

fläche.<br />

Simulierte Textur ei-<br />

ner kontrastarmen mat-<br />

ten Metallstruktur.<br />

Simulierte Textur einer<br />

rostigen Metalloberflä-<br />

che.<br />

Reale Oberfläche ei-<br />

ner verzinkten Röhre<br />

(Innen-◦/ 16, 3mm).<br />

Reale Oberfläche mit<br />

feiner Sandkörnung<br />

(Innen-◦/ 8, 5mm).<br />

Reale Oberfläche mit<br />

grober Sandkörnung<br />

(Innen-◦/ 8, 2mm).<br />

Größe<br />

150<br />

800 × 600<br />

150<br />

800 × 600<br />

150<br />

800 × 600<br />

300<br />

1024 × 768<br />

300<br />

1024 × 768<br />

78<br />

1024 × 768


4.2. QUALITÄT VON 3D-REKONSTRUKTIONEN 131<br />

Tabelle 4.4: Anzahl von Korrespondenzen in einem vergleichbaren Ausschnitt gleicher Län-<br />

ge der Bildsequenzen aus Tabelle 4.3. Die drei Spalten zeigen die Ergebnisse für die Origi-<br />

nalqualität ohne Abtastung und für die beiden nach faseroptischer Abtastung restaurierten<br />

Versionen Filterung und Interpolation. Die prozentuale Angabe gibt das Verhältnis zur Anzahl<br />

im Original an.<br />

Sequenz Original Filterung Interpolation<br />

SZK 1.091 387 (35,5%) 210 (19,2%)<br />

SKA 804 144 (17,9%) 123 (15,3%)<br />

SRT 1.403 720 (51,3%) 362 (25,8%)<br />

RZK 2.098 189 (9,0%) 122 (5,8%)<br />

RFN 3.972 770 (19,4%) 179 (4,5%)<br />

RGB 3.411 1.033 (30,3%) 303 (8,9%)<br />

nach erfolgreicher Berechnung einen Raumpunkt, der sich aus der Verfolgung (engl.<br />

tracking) von geeigneten Merkmalen und Korrelationen über mehrere Bilder hinweg<br />

berechnet. Ob ein Punktmerkmal oder ein kleiner Bereich von benachbarten Bild-<br />

punkten zur Findung der Korrespondenz gewählt wird, entscheiden strukturelle Ei-<br />

genschaften in seiner Umgebung. Je höher die Anzahl der Korrespondenzen, bzw. der<br />

rekonstruierten 3D-Punkte, desto feiner wird die Triangulierung der 3D-Punktwolke<br />

und folglich das Rekonstruktionsergebnis ausfallen. In einer faseroptisch abgebilde-<br />

ten Bildsequenz können auch nach Aufbereitung durch Filterung oder Interpolation<br />

von SynthEyes nicht mehr so viele Merkmale lokalisiert werden, wie bei einer Abbil-<br />

dung mit starrem Endoskop. Durch die niedrige Auflösung und die Einbußen aufgrund<br />

geringerer Lichtleitfähigkeit werden hohe Frequenzen unterdrückt. Der Kontrast und<br />

die Schärfe von Begrenzungen charakteristischer Bildmerkmale werden reduziert und<br />

führen zu niedrigeren Erfolgen und schlechteren Ergebnissen der Registrierung.<br />

Tabelle 4.4 zeigt die Anzahl der detektierten Korrespondenzen für die verschiede-<br />

nen Bildsequenzen aus Tabelle 4.3. Die Spalte Original beinhaltet die Ergebnisse für<br />

die ursprüngliche Bildqualität ohne faseroptische Abbildung. Für die beiden Ansätze<br />

Filterung und Interpolation können die Resultate den letzen beiden Spalten entnom-<br />

men werden. Aufgrund großer Schwankungen in der Anzahl gewählter Merkmale in<br />

der Originalsequenz werden die Ergebnisse nach der Restaurierung auch prozentual<br />

im Verhältnis dazu angegeben.<br />

Wie erwartet werden bei allen Originalsequenzen am meisten Korrespondenzen ge-<br />

wonnen. Werden die Sequenzen einer faserbasierten Modellierung unterzogen, so ste-<br />

hen nach Filterung noch rund 10% bis 50% Korrespondenzen und nach Interpolation


132 4.2. QUALITÄT VON 3D-REKONSTRUKTIONEN<br />

Abbildung 4.2: Visualisierung der Statistik der Merkmalskorrespondenzen aus Tabelle 4.4.<br />

noch rund 5% bis 25% Korrespondenzen zur Verfügung. Ohne einen Restaurierungs-<br />

schritt konnten bei den durchgeführten Experimenten nicht genügend viele Ortsmerk-<br />

male über ausreichend viele Bilder hinweg registriert werden. Deshalb finden sich in<br />

Tabelle 4.4 darüber keine Angaben. Im Mittel können den Ergebnissen der Filterung<br />

also etwa doppelt so viele stabile Merkmale entnommen werden, wie den vergleichba-<br />

ren Resultaten der Interpolation.<br />

Gegenüber den simulierten Sequenzen SZK, SKA und SRT zeigen die realen Origi-<br />

nalaufnahmen RZK, RFN und RGB eine deutlich höhere Anzahl an Korrespondenzen.<br />

Das lässt sich primär auf den generell höheren Kontrast zurückführen. Weiterhin sind<br />

die Strukturen der realen Aufnahmen gröber und damit klarer voneinander separierbar.<br />

Die relativ wenigen Merkmale jedoch, die in den simulierten Aufnahmen berechnet<br />

werden, bleiben zu einem größeren Teil auch nach einer faseroptischen Abbildung als<br />

Korrespondenzen erhalten (vgl. prozentuale Angaben der Filterung und Interpolation<br />

in Tab. 4.4). Die Abwesenheit von Rauschen und die Konstanz von lokalen Intensitäten<br />

begünstigt die Merkmalsverfolgung auf den simulierten Daten. Die schlechtesten Er-<br />

gebnisse unter Verwendung von simulierten Daten liefert die Textur mit sehr geringem<br />

Kontrast, SKA. Hier stehen schon in der Originalqualität nur 804 Korrespondenzen zur<br />

Verfügung, was sich auf die Stabilität der Rekonstruktion negativ auswirkt, wie auch<br />

an den weiteren Ergebnissen zu Rückprojektionsfehler und Streuung ersichtlich wird.<br />

Unter den realen Daten zeigt die Textur mit grober Sandkörnung, RGB, die bes-<br />

ten Ergebnisse für restaurierte faseroptisch abgetastete Bilddaten. Obwohl die feine<br />

Sandkörnung RFN in der Originalqualität gut 16% mehr Korrespondenzen liefert, so<br />

verbleiben in den degradierten Bildern für RGB etwa 34% (1.033 zu 770) mehr Kor-


4.2. QUALITÄT VON 3D-REKONSTRUKTIONEN 133<br />

Tabelle 4.5: Rückprojektionsfehler in Pixel für die 3D-Rekonstruktion von 3D-Punktwolken<br />

aus den gewählten Korrespondenzen (vgl. Tab. 4.4) der verschiedenen Bildsequenzen aus Ta-<br />

belle 4.3. Die drei Spalten zeigen die Ergebnisse für die Rekonstruktion aus den Bilddaten<br />

mit Originalqualität ohne Abtastung und für die beiden nach faseroptischer Abtastung restau-<br />

rierten Sequenzen (Filterung und Interpolation). Die prozentuale Angabe gibt die Steigerung<br />

bezüglich des Fehlers im Original an.<br />

Sequenz Original Filterung Interpolation<br />

SZK 0,836 0,889 (3,0%) 0,895 (3,7%)<br />

SKA 0,680 1,130 (66,2%) 1,610 (136,8%)<br />

SRT 0,547 1,010 (84,6%) 1,023 (87,0%)<br />

RZK 0,587 0,678 (15,5%) 1,014 (72,7%)<br />

RFN 0,787 1,517 (92,8%) 1,641 (108,5%)<br />

RGB 0,832 0,977 (17,4%) 1,275 (53,2%)<br />

respondenzen, als für RFN, weil viele der feinen hell reflektierenden Punktmerkmale<br />

durch die mitgeführte Beleuchtung und durch die grobe Abtastung des Faserbündels<br />

Intensitätsschwankungen unterliegen und oft einem unpräzisen Weg folgen. Abhängig<br />

vom Material liegt das Verhältnis der Anzahlen von Korrespondenzen zwischen den<br />

interpolierten und den gefilterten Bildern bei gut der Hälfte bis knapp einem Drittel.<br />

Fazit: Generell lässt sich erkennen, dass die Textur, die Oberflächenbeschaffenheit<br />

und die Beleuchtung eine wesentliche Rolle bei der Wahl und Registrierung der Merk-<br />

male spielt. Die Simulation der faseroptischen Abbildung führt zu einer erheblichen<br />

Reduzierung der Anzahl an gefundenen Korrespondenzen. In Bezug auf die Statistik<br />

der Merkmalskorrespondenzen liefert von den Restaurierungsansätzen die Filterung<br />

durchweg die besseren Ergebnisse. Nach Interpolation stehen umso weniger Merkma-<br />

le als Korrespondenzen zur Verfügung, je höher der Kontrast in den Aufnahmen ist,<br />

der in der Originalqualität zunächst für eine große Menge an Korrespondenzen sorgt.<br />

4.2.3 Rückprojektionsfehler<br />

In Abschnitt 3.6.4 wurde der Rückprojektionsfehler als interne Messgröße des Re-<br />

konstruktionsprozesses beschrieben. SynthEyes bietet Zugriff auf dieses Gütekriteri-<br />

um und erlaubt so eine retrospektive Beurteilung dieses Vorgangs und eine Aussage<br />

darüber, wie sicher der Algorithmus im Mittel die 3D-Raumpunkte schätzen konnte.<br />

Der Rückprojektionsfehler fällt umso geringer aus, je länger die Merkmale über die


134 4.2. QUALITÄT VON 3D-REKONSTRUKTIONEN<br />

Abbildung 4.3: Visualisierung der Rückprojektionsfehler aus Tabelle 4.5.<br />

Bildsequenz verfolgt werden können. Längere Registrierungsabschnitte erlauben auch<br />

eine robustere Eliminierung von Ausreißern, die sich durch Restaurierungsfehler in<br />

die Bildsequenz einschleichen. Die Tiefenschätzung der Ortspunkte ist direkt abhän-<br />

gig von der Rekonstruktion des Kamerapfads. Dieser wird hier allerdings nicht zur<br />

Bewertung herangezogen. Wie die Statistik der Merkmalskorrespondenzen, so zeigt<br />

auch die Auswertung des Rückprojektionsfehlers (vgl. Tab. 4.5 und Abb. 4.3) eine<br />

Überlegenheit seitens der Filterung. Auf Basis der Originalqualität liegt der Rückpro-<br />

jektionsfehler bei allen Rekonstruktionen im Bereich von 0, 5 bis 0, 9 Pixel. SynthEyes<br />

gibt einen tolerierbaren Fehlerbereich bis 1.0 Pixel an. Die Werte über 1.0 für vie-<br />

le der Ergebnisse nach Restaurierung sind prinzipiell noch nicht bedenklich, da die<br />

Abtastung durch die Sensorelemente nicht mehr in der Größenordnung eines Pixels<br />

liegt, sondern maßgeblich durch die Abtastung durch das Faserbündel bestimmt wird.<br />

Für die vorliegende faseroptische Modellierung beträgt das Verhältnis von Faser- zu<br />

Pixelabstand etwa 4, 5 : 1. Vor diesem Hintergrund liegt der Rückprojektionsfehler<br />

nach Filterung bzw. Interpolation selbst bei den schlechtesten Ergebnissen, z. B. der<br />

Interpolation bei SKA bzw. RFN, nur um einen maximalen Faktor von 2, 37 über dem<br />

des Originals. Die genannten negativen Ausreißer der Interpolation lassen sich auch<br />

auf das jeweils schlechte Resultat in ihrer Gruppe bezüglich der Statistik der Merk-<br />

malskorrespondenzen zurückführen. Gemäß Tabelle 4.4 schneidet bei den simulierten<br />

Daten im Bereich Interpolation ebenfalls die Sequenz SKA und bei den realen Daten<br />

die Sequenz RFN am schlechtesten ab. Die geringe Anzahl an Korrespondenzen führt<br />

schließlich auf eine instabilere Rekonstruktion und folglich zu den hier beobachteten<br />

größeren Rückprojektionsfehlern.


4.2. QUALITÄT VON 3D-REKONSTRUKTIONEN 135<br />

Tabelle 4.6: Streuung der rekonstruierten 3D-Punkte von der zugrunde liegenden Szenengeo-<br />

metrie. Die gewählten Korrespondenzen (vgl. Tab. 4.4) entstammen den verschiedenen Bildse-<br />

quenzen aus Tabelle 4.3. Die drei Spalten zeigen die Ergebnisse für die Rekonstruktion aus den<br />

Bilddaten mit Originalqualität ohne Abtastung und für die beiden nach faseroptischer Abtas-<br />

tung restaurierten Sequenzen (Filterung und Interpolation).<br />

Sequenz Original Filterung Interpolation<br />

SZK 0,881 1,701 1,818<br />

SKA 0,968 2,167 3,672<br />

SRT 0,774 1,676 2,226<br />

RZK 1,337 2,665 2,180<br />

RFN 1,509 1,852 1,857<br />

RGB 1,294 1,839 1,569<br />

Fazit: Unter dem Aspekt der Rückprojektionsfehler erweist sich die Filterung für die<br />

Vorverarbeitung einer Bildsequenz zur 3D-Rekonstruktion gegenüber der Interpolati-<br />

on als besser geeignet. Diese Aussage deckt sich mit der Erkenntnis aus der Statistik<br />

der Merkmalskorrespondenzen. Für die berechneten Korrespondenzen, deren Anzahl<br />

bei den restaurierten Bilddaten deutlich geringer ist, liegen die Restaurierungsfehler<br />

in einer ähnlichen Größenordnung. Eine höhere Unsicherheit, die aufgrund der groben<br />

Abtastung der Bilddaten durch das Faserbündel erwartet wird, konnte nicht nachge-<br />

wiesen werden.<br />

4.2.4 Streuung und Achsenverhältnis<br />

In Abschnitt 3.6.4 wurde die Berechnung des Achsenverhältnisses und der Streuung als<br />

Gütekriterium für elliptische Gebilde beschrieben. Diese Kriterien basieren auf dem<br />

Wissen um die Geometrie der rekonstruierten Szene, in diesem Fall eines zylinderar-<br />

tigen Hohlraums. Für die Auswertung werden 120 rekonstruierte 3D-Raumpunkte mit<br />

dem geringsten Rückprojektionsfehler verwendet. Die parallel zum Kamerapfad auf ei-<br />

ne Querschnittsebene projizierten Raumpunkte werden mit dem Erwartungswert, näm-<br />

lich der Form und der Position eines Kreises verglichen (vgl. Tab. 4.6 und Abb. 4.4).<br />

Bei den realen Szenen RZK und RGB ist die Streuung überraschenderweise bei der<br />

Interpolation geringer (2, 2% bzw. 1, 6%), als bei der Filterung (2, 7% bzw. 1, 8%). Die-<br />

se Ergebnisse müssen allerdings vor dem Hintergrund des Achsenverhältnisses inter-<br />

pretiert werden, auf das im Rahmen dieser Arbeit nicht im Detail eingegangen werden


136 4.2. QUALITÄT VON 3D-REKONSTRUKTIONEN<br />

Abbildung 4.4: Visualisierung der Streuungsstatistik aus Tabelle 4.6.<br />

kann. Für die genannten Rekonstruktionen RZK und RGB weicht das Achsenverhältnis<br />

stärker von der Kreisform ab, als für die übrigen Datensätze [Ste07]. Für die anderen<br />

untersuchten Zylinder zeigt die Filterung bessere Ergebnisse, insbesondere bei den si-<br />

mulierten Bildsequenzen. Die Streuung auf Basis der relativ glatten Textur bei SKA<br />

ist bei der Filterung erheblich geringer, als bei der Interpolation. Die Ergebnisse der<br />

Filterung und Interpolation unterscheiden sich um etwa 1, 5%, was sich auf den relativ<br />

großen Rückprojektionsfehler bei der Interpolation zurückführen lässt (vgl. Tab. 4.5).<br />

Auffallend ist zudem, dass die Streuung für die realen Bilddaten RZK und RFN,<br />

sowie für die simulierten Bilddaten SKA vergleichsweise hoch ist. Obwohl die Textu-<br />

ren alle eine feine, meist kontrastarme Struktur aufweisen, ist ein Zusammenhang mit<br />

der Statistik der Merkmalskorrespondenzen in Tabelle 4.4 nicht ersichtlich, da die An-<br />

zahl der detektierten Korrespondenzen sehr unterschiedlich ausfällt. Allerdings zeigt<br />

sich eine Übereinstimmung zwischen der Streuung und der Kombination aus Rück-<br />

projektionsfehler und Anzahl der Korrespondenzen. Demnach zeigen für die einzel-<br />

nen Restaurierungsansätze die Bildsequenzen RZK, RFN bzw. SKA mit einem hohen<br />

Rückprojektionsfehler, kombiniert mit einer geringen Anzahl an Korrespondenzen, ei-<br />

ne besonders hohe Streuung. Eine qualitativ hochwertige Rekonstruktion gemessen<br />

an einer geringen Streuung setzt also gute Resultate in den vorausgehenden Gesichts-<br />

punkten voraus.<br />

Fazit: Die Untersuchung zur Streuung von 3D-Punkten der Rekonstruktionen lie-<br />

fert für sich keine eindeutige Präferenz für einen Restaurierungsansatz. Lediglich in<br />

Kombination mit den Ergebnissen der vorausgehenden Auswertungen zeigen die Wer-


4.3. MODI UND EFFEKTIVITÄT DER FILTERUNG 137<br />

te eine Übereinstimmung mit den bisherigen Aussagen. Tendenziell werden auch be-<br />

züglich der Streuung mit der Filterung bessere Ergebnisse erzielt. Wo dies nicht der<br />

Fall ist, können die Ausreißer dieser Statistik eindeutig auf andere Faktoren, wie z. B.<br />

eine vergleichsweise geringe Anzahl an Korrespondenzen oder einen hohen Rückpro-<br />

jektionsfehler zurückgeführt werden.<br />

4.3 Modi und Effektivität der Filterung<br />

Hier wird mit dem Güteindikator QSR aus Abschnitt 3.6.1 der geringe, aber nach-<br />

weisbare Unterschied zwischen den verschiedenen Maskentypen bei der automatisier-<br />

ten Filterung ausgewertet. Grundlage für die Evaluierung ist die Detailerhaltung und<br />

Glattheit im USAF-Testbild. Dabei werden die Ergebnisse auch mit den Werten einer<br />

manuellen Parametrisierung nach dem Stand der Technik verglichen.<br />

4.3.1 Filteransätze und Maskentypen<br />

Der Restaurierungsansatz im Frequenzraum (vgl. Abschn. 3.2.1) wird mit weiteren li-<br />

nearen (Gauss) und nicht-linearen Filteralgorithmen (Median) verglichen, wie sie im<br />

Artikel [SCG + 01] in der Zeitschrift Nature von Sanderson et al. für die Faserendo-<br />

skopie vorgeschlagen werden. Die Wirkung dieser Gruppe von Filtern gleicht dem<br />

optischen Weichzeichnen durch entsprechende Linsensysteme, wie sie häufig in han-<br />

delsüblichen Komponenten statt digitaler Bildverarbeitung zum Einsatz kommen.<br />

Tabelle 4.7 gibt einen Überblick über die sieben Filteransätze, die zusammen mit<br />

dem Originalbild acht zu vergleichende Ergebnisse liefern. Die vier möglichen Kom-<br />

binationen der spektralen Maskierung F1 bis F4 setzen sich aus der kreisförmigen<br />

bzw. der sternförmigen Maske sowie je einer Version mit harter Flanke bzw. einer mit<br />

geglättetem Grenzfrequenzübergang zusammen (vgl. Abschn. 3.2.1). Zum Vergleich<br />

werden der Median-Filter mit einer Fensterbreite von sieben Bildpunkten und je eine<br />

Faltung mit einer Gauss-Verteilung der Varianz σ = 1, 0 und σ = 2, 0 herangezogen.<br />

Bei der empirischen Wahl der fixen Parameter der Vergleichsfilter wurde darauf geach-<br />

tet, dass die Werte die charakteristische Größe der Faserstruktur widerspiegeln, d.h. die<br />

Fensterung des Median-Filters und der Einfluss der Gauss-Verteilung entspricht in et-<br />

wa der Größenordnung des mittleren Abstands der Fasern in der Abbildung.


138 4.3. MODI UND EFFEKTIVITÄT DER FILTERUNG<br />

Tabelle 4.7: Verschiedene Filtertypen und deren Spezifikationen, die für die Evaluierungen der<br />

Linientrennung im Auflösungsmuster verglichen werden. Die Einteilung der Filtertypen in die<br />

Gruppen 1 bis 3 dient der Auswertung der subjektiven Evaluierung.<br />

4.3.2 Bildmaterial<br />

# Filtertyp Spezifikation Filter-<br />

F0 Ohne Filterung Originalbild<br />

F1 Spektrale Maskierung Kreisform, Stufe 1<br />

F2 Spektrale Maskierung Kreisform, geglättet 1<br />

F3 Spektrale Maskierung Sternform, Stufe 1<br />

F4 Spektrale Maskierung Sternform, geglättet 1<br />

F5 Median-Filter Fensterbreite 7 2<br />

F6 Faltung mit Gauss σ = 1, 0 2<br />

F7 Faltung mit Gauss σ = 2, 0 3<br />

gruppe<br />

Für eine Auswertung mit dem beschriebenen Güteindikator aus Abschnitt 3.6.1 ist<br />

prinzipiell jedes Linienmuster geeignet, dass die folgenden beiden Anforderungen er-<br />

füllt. Einerseits muss es eine hinreichend große homogene Fläche zur Evaluierung der<br />

Glattheit bieten und andererseits eine ausreichende Menge an Liniengruppen in abge-<br />

stufter Dichte darstellen, um den Übergang zwischen visuell gut separierbar und feh-<br />

lerhaft abgetastet nutzen zu können. Dafür eignet sich das USAF-Testbild USF (vgl.<br />

Tab. 4.8).<br />

4.3.3 Resultate<br />

Abbildung 4.5 zeigt die beiden Evaluierungsbereiche ΩR und ΩS in den gefilterten<br />

Abbildern UF1 und UF2 des Linienmusters USF (vgl. Tab. 4.8). Sie dienen zur Be-<br />

rechnung der beiden Komponenten QS (Glattheit) und QR (Detailerhaltung), die ge-<br />

mäß Gleichung (3.35) (vgl. Abschn. 3.6.1) in die Restaurierungsgüte QSR einfließen.<br />

Tabelle 4.9 und Tabelle 4.10 listen die beiden Werte QS und QR zusammen mit der re-<br />

sultierenden Restaurationsgüte QSR auf. Der Gewichtungsfaktor γ kann anwendungs-<br />

spezifisch variiert werden. Ein geeigneter Richtwert für ein ausgeglichenes Verhältnis<br />

zwischen Detailerhaltung und Glattheit ist γ = 0, 5. Für eine optimierte Beurteilung<br />

der Glättung im Fall der wabenartigen Struktur von Faserbildleitern wird der Einfluss


4.3. MODI UND EFFEKTIVITÄT DER FILTERUNG 139<br />

Tabelle 4.8: USAF-Testbild für die kombinierte Evaluierung von Detailerhaltung und Glattheit<br />

USF<br />

UF1<br />

UF2<br />

USAF-Testbild zur Untersuchung der Auflösung<br />

von optischen Systemen. Die Dichte der in Grup-<br />

pen angeordneten Linienpaare nimmt mit steigen-<br />

dem Index zu.<br />

Abbildung des USAF-Testbilds USF mit dem Glas-<br />

faserendoskop E6 (vgl. Tab. 4.1).<br />

Abbildung des USAF-Testbilds USF mit dem<br />

Quarzfaserendoskop E4 (vgl. Tab. 4.1).<br />

(a) UF1 (b) UF2<br />

Abbildung 4.5: Gefilterte Abbilder des USAF-Testbilds (vgl. Tab. 4.8) mit markierten Evaluie-<br />

rungsbereichen ΩR für das Rayleigh-basierte Kriterium der Linienseparierbarkeit und ΩS für<br />

die Bestimmung der Glattheit.


140 4.3. MODI UND EFFEKTIVITÄT DER FILTERUNG<br />

Tabelle 4.9: Ergebnisse der Gütemessung für die Aufnahme UF1 des Linienmusters USF mit<br />

den Evaluierungsbereichen ΩR und ΩS aus Abbildung 4.5(a). Die Werte liegen im Bereich [0; 1]<br />

und es gilt: Je größer, desto besser. Jede Zeile repräsentiert einen Filteransatz aus Tabelle 4.7.<br />

Der Güteindikator QSR wird jeweils für zwei Gewichtungen (γ = 0, 5 und γ = 0, 8) der<br />

Komponenten QR (Detailerhaltung) und QS (Glattheit) angegeben.<br />

# Filtertyp QS QR QSR<br />

γ = 0, 5 γ = 0, 8<br />

F0 Ohne Filterung 0,000 0,473 0,237 0,0946<br />

F1 Spek. Mask., Kreis, Stufe 0,643 0,335 0,489 0,581<br />

F2 Spek. Mask., Kreis, weich 0,657 0,280 0,468 0,581<br />

F3 Spek. Mask., Stern, Stufe 0,627 0,308 0,468 0,563<br />

F4 Spek. Mask., Stern, weich 0,657 0,298 0,478 0,585<br />

F5 Median-Filter, Breite 7 0,504 0,145 0,325 0,432<br />

F6 Gauss-Faltung, σ = 1, 0 0,317 0,442 0,379 0,342<br />

F7 Gauss-Faltung, σ = 2, 0 0,667 0,222 0,445 0,578<br />

der Glättung durch einen höheren Gewichtungsfaktor, z. B. γ = 0, 8 verstärkt. Die letz-<br />

te Spalte der Tabellen zeigt die Restaurierungsgüte zusätzlich für diese Einstellung.<br />

Einige der Ergebnisse in Tabelle 4.9 sind besonders auffällig und werden hier kurz<br />

diskutiert:<br />

F1: Ohne Filterung Da Gleichung (3.30) zur Berechnung der Glattheit das unge-<br />

filterte Originalbild als Referenz verwendet, liegt der Wert QS für die Glattheit bei<br />

Null. Jedwede Anwendung eines Filters führt hier zu einer Senkung der Varianz im<br />

Evaluierungsbereich ΩS und damit zu einer Verbesserung, d.h. höheren positiven Wert<br />

QS. Dass eine Filterung stets zum Verwaschen von Details führt, ist an der Detailer-<br />

haltung r zu erkennen, die hier ihr Maximum zeigt. Im Ergebnis QSR schneiden beide<br />

Gewichtungen jedoch erwartungsgemäß vergleichsweise schlecht ab.<br />

F6: Gauss-Faltung mit σ = 1, 0 Die Gauss-Faltung mit einer Varianz von σ = 1, 0<br />

führt hier zu einer sehr hohen Detailerhaltung von QR = 0, 442. Dass der Filter jedoch<br />

für diese Aufnahme nicht gut parametrisiert sein kann, zeigt der schlechte Wert für die<br />

Glattheit, QS = 0, 317, und letztendlich das niedrige Resultat für QSR.


4.3. MODI UND EFFEKTIVITÄT DER FILTERUNG 141<br />

Tabelle 4.10: Ergebnisse der Gütemessung für die Aufnahme UF2 des Linienmusters USF mit<br />

den Evaluierungsbereichen ΩR und ΩS aus Abbildung 4.5(b). Die Werte liegen im Bereich [0; 1]<br />

und es gilt: Je größer, desto besser. Jede Zeile repräsentiert einen Filteransatz aus Tabelle 4.7.<br />

Der Güteindikator QSR wird jeweils für zwei Gewichtungen (γ = 0, 5 und γ = 0, 8) der<br />

Komponenten QR (Detailerhaltung) und QS (Glattheit) angegeben.<br />

# Filtertyp QS QR QSR<br />

γ = 0, 5 γ = 0, 8<br />

F0 Ohne Filterung 0,000 0,290 0,145 0,0579<br />

F1 Spek. Mask., Kreis, Stufe 0,285 0,265 0,275 0,281<br />

F2 Spek. Mask., Kreis, weich 0,285 0,267 0,276 0,281<br />

F3 Spek. Mask., Stern, Stufe 0,288 0,273 0,280 0,285<br />

F4 Spek. Mask., Stern, weich 0,288 0,273 0,280 0,285<br />

F5 Median-Filter, Breite 7 0,283 0,168 0,226 0,260<br />

F6 Gauss-Faltung, σ = 1, 0 0,259 0,247 0,253 0,257<br />

F7 Gauss-Faltung, σ = 2, 0 0,265 0,185 0,225 0,249<br />

F1 - F4: Spektrale Maskierung Dass die automatische spektrale Maskierung durch-<br />

gehend hohe bzw. die höchsten Werte erzielt, liegt an der hohen Glattheit s > 0, 6<br />

bei gleichzeitig durchschnittlicher Detailerhaltung dieses automatisch parametrisier-<br />

ten Ansatzes. Das wird auch später in der visuellen Bewertung (vgl. Abschn. 4.3.4)<br />

bestätigt. Die Wahl des Gewichtungsfaktors mit γ = 0.8 betont die positive Wirkung<br />

der Filter F1 bis F4. Allerdings ist der Gewinn durch die sternförmige Maske (F3,F4)<br />

nicht deutlich, wie zunächst aufgrund der charakteristischen Frequenzverteilung im<br />

Spektrum der homogenen Anordnung von Fasern im Querschnitt eines Glasfaserbün-<br />

dels (hier: Endoskop E6, vgl. Tab. 4.1) vermutet wurde.<br />

F7: Gauss-Faltung mit σ = 2, 0 Der Wert σ = 2, 0 für die Gauss-Faltung führt<br />

zu einem nahezu identischen Gütewert QSR = 0, 578, wie ihn die spektrale Filterung<br />

mit weicher Sternmaske (F4) zeigt (QSR = 0, 585). Das lässt auf eine nahezu optimale<br />

Wahl der Varianz für das Filter schließen. Der Nachteil zu den Ansätzen F1 bis F4 liegt<br />

hier, wie im Vergleich auch der Ansatz F6 zeigt, in der Notwendigkeit einer manuellen<br />

Parametrisierung und damit in der Ungewissheit über die optimale Lösung.<br />

Um den Rahmen dieser Auswertung nicht zu sprengen, werden hier lediglich zwei<br />

der untersuchten USAF-Abbildungen mit passenden Evaluierungsbereichen dargestellt<br />

und analysiert. Mit Tabelle 4.10 werden die Ergebnisse einer zweiten Aufnahme (UF2,<br />

vgl. Tab. 4.8) zum Vergleich gestellt. Obwohl sich die einzelnen Werte gegenüber den


142 4.3. MODI UND EFFEKTIVITÄT DER FILTERUNG<br />

entsprechenden Zahlen in Tabelle 4.9 unterscheiden, führen sie doch zu der gleichen<br />

Aussage und machen den Fortschritt durch die automatische Maskierung deutlich. Der<br />

vergleichsweise niedrige Kontrast in der ungefilterten Version von UF2 führt zu einer<br />

niedrigen Standardabweichung σ0 im Nenner von Gleichung (3.30) und damit zu ei-<br />

nem relativ niedrigen Wert QS für die Glattheit. Die Maximalwerte für die spektralen<br />

Maskierungen mit Sternmaske (F3,F4) liegen dicht an den entsprechenden Ergebnis-<br />

sen der Maskierungen mit Kreismaske, weil die zugrunde liegenden Aufnahmen mit<br />

dem Endoskop E4 (vgl. Tab. 4.1) abgebildet wurden. Dieses arbeitet mit einem Bild-<br />

leiter aus Quarzfasern, dessen Spektrum eine nahezu radialsymmetrische Verteilung<br />

zeigt und deshalb erwartungsgemäß auch ausreichend gut mit der Kreismaske bearbei-<br />

tet werden kann.<br />

4.3.4 Subjektive Bewertung<br />

Mit einer repräsentativen Stichprobe aus zwölf Szenen (vgl. Abb. 4.6), darunter kon-<br />

trastreiche Linien-, Punkt- und Kalibriermuster, aber auch zwei Innenansichten eines<br />

zylinderförmigen Hohlraums, wird die subjektive Wahrnehmung von Testpersonen be-<br />

züglich der Filteransätze aus Tabelle 4.7 untersucht.<br />

Jedes der zwölf Bilder wurde zum einen mit den entwickelten Verfahren zur au-<br />

tomatischen spektralen Maskierung mit optimierter Filtermaske für Quarz- und für<br />

Glasfaser aufbereitet (vgl. Tab. 4.7, Filtergruppe 1). Zum anderen werden die drei fest<br />

parametrisierten herkömmlichen Vergleichfilter der Filtergruppe 2 und 3 angewendet<br />

und die Ergebnisse sieben Testpersonen zur Beurteilung vorgelegt. Für jede der zwölf<br />

Abbildungen standen zusammen mit der originalen Aufnahme jeweils acht aufberei-<br />

tete Versionen zur Auswahl. Abbildung 4.7 zeigt beispielhaft für das Linienmuster<br />

(i) aus Abbildung 4.6 die Resultate der Aufbereitung, die zur Beurteilung allerdings<br />

auf einem Monitor begutachtet werden müssen. Die Personen wurden nach ihrer sub-<br />

jektiven Einschätzung bezüglich typischer Kriterien wie Kontrast und Detailerhaltung<br />

befragt und sollten das Resultat mit dem besten Kompromiss zwischen Wabenredukti-<br />

on und Detailerhaltung angeben. Wurden zwei Ergebnisse gleich gut eingeschätzt war<br />

eine Mehrfachnennung möglich. Die Auswahl erfolgte unter einheitlichen Licht- und<br />

Raumbedingungen und die Abbildungen wurden in Originalgröße auf einem Flach-<br />

bildschirm dargestellt.<br />

Tabelle 4.11 zeigt die Ergebnisse des visuellen Vergleichstests, nach den Testper-<br />

sonen gruppiert. Die oberste Zeile gibt den Mittelwert der Entscheidungen wieder.<br />

Die Filtergruppe 1 besteht aus den verschiedenen Typen der vorgeschlagenen spektra-


4.3. MODI UND EFFEKTIVITÄT DER FILTERUNG 143<br />

(a) (b) (c) (d) (e) (f)<br />

(g) (h) (i) (j) (k) (l)<br />

Abbildung 4.6: Repräsentative Stichprobe aus zwölf Szenen, zur Evaluierung der subjektiven<br />

Wahrnehmung hinsichtlich verschiedener<br />

len Maskierung mit automatischer Maskengenerierung (Filter F1 bis F4 in Tab. 4.7).<br />

Filtergruppe 2 setzt sich zusammen aus den herkömmlichen Filtern Median (F5) und<br />

Gauss mit σ = 1.0 (F6). Der Gaussfilter F7 mit σ = 2.0 wird separat als Filtergruppe 3<br />

angegeben, weil seine Parametrisierung in einigen Fällen zu ähnlich guten Ergebnissen<br />

führt, wie ein bestimmter Typ der spektralen Maskierung (s. Abschn. 4.3.3). Aufgrund<br />

der Ähnlichkeit der Filterergebnisse von F7 zu Resultaten aus der Filtergruppe 1 könn-<br />

ten die Entscheidungen für diesen Filter auch zur Filtergruppe 1 gerechnet werden. Der<br />

Unterschied zwischen den beiden Methoden liegt in der Unsicherheit der Wahl von Pa-<br />

rametern, die im Fall der vorgeschlagenen Ansätze automatisch berechnet werden, im<br />

herkömmlichen Fall jedoch manuell gewählt werden. Aber auch bei Unterscheidung<br />

aller Filtergruppen zeigt die Studie im Mittel eine Präferenz für die Filtergruppe 1 mit<br />

79% aller Entscheidungen. Nach Meinung der Testpersonen liefern damit die Varianten<br />

der vorgeschlagenen spektralen Filterung die besten Resultate.<br />

Eine detailiertere Betrachtung der Entscheidungen in Filtergruppe 1 (im Rahmen<br />

von diesem Abschnitt nicht weiter ausgeführt) liefert eine weitere interessante Erkennt-<br />

nis, durch welche die Theorie des Paragraphen Weicher Übergang der Grenzfrequenz<br />

in Abschnitt 3.2.1.2 bestätigt wird. Demnach wird für Aufnahmen mit Glasfaserbün-<br />

deln die Filterung mit geglätteter Sternmaske einer Bearbeitung mit hartem Grenz-<br />

frequenzübergang vorgezogen. Die Ausführungen im genannten Abschnitt über die<br />

Verknüpfung von Gauss-, Rechtecks- und Sinc-Funktionen zwischen Frequenz- und<br />

Ortsraum erklären diesen Sachverhalt.


144 4.3. MODI UND EFFEKTIVITÄT DER FILTERUNG<br />

(a) Original (b) F1 (c) F2 (d) F3<br />

(e) F4 (f) F5 (g) F6 (h) F7<br />

Abbildung 4.7: Filterresultate (F1 bis F7, vgl. Tab. 4.7) für den visuellen Vergleichstest am<br />

Beispiel des Linienmusters (i) aus Abbildung 4.6.<br />

Tabelle 4.11: Ergebnisse des Vergleichstests zur visuellen Wahrnehmung der Restaurierungs-<br />

güte verschiedener Filteransätze und -dimensionierungen (vgl. Tab. 4.7).<br />

Fazit: Zusammenfassend kann festgestellt werden, dass die automatische Filterung,<br />

wie sie in den entsprechenden Abschnitten des Kapitel 3 für die Faserendoskopie vor-<br />

gestellt werden, mit überwiegender Mehrheit die besten Ergebnisse liefert. Das gilt<br />

sowohl für die Resultate der subjektiven Wahrnehmung der befragten Testpersonen,<br />

als auch für die quantitativen Ergebnisse der Evaluierung anhand des eingeführten Gü-<br />

teindikators zur Wabenreduktion und Detailerhaltung im USAF-Testbild.


4.4. MODELLBASIERTER VERGLEICH VON FILTERUNG VS. INTERPOLATION 145<br />

4.4 Modellbasierter Vergleich von Filterung vs. Inter-<br />

polation<br />

Dieser Abschnitt vergleicht den Ansatz der Filterung und der Interpolation hinsicht-<br />

lich der Restaurierungsqualität bei unterschiedlicher Bildfrequenz und Faserdichte.<br />

Zur Evaluierung kommen datengetriebene Gütekriterien in Form von Differenz- und<br />

Ähnlichkeitsmaßen (vgl. Abschn. 3.6) zum Einsatz. Zu Beginn erhält der Leser einen<br />

Überblick über die gewählten Bilddaten für die Evaluierung.<br />

4.4.1 Bildmaterial<br />

Zur Untersuchung der Abbildungseigenschaften des Faserbündels und der Qualität<br />

verschiedener Restaurierungsansätze werden Bilder generiert, deren Intensitäten einen<br />

sinusartigen Verlauf um einen konstanten Mittelwert zeigen. Statt einer unübersichtli-<br />

chen Menge an Bildausschnitten mit unterschiedlichen Texturbeschaffenheiten kann so<br />

ein universelles Punktmuster mit variablem periodischen Intensitätsverlauf verwendet<br />

werden, um die Wirkung der Doppelabtastung durch Faserbündel und Kamerasensor<br />

gezielt auf bestimmte Grenzfrequenzen hin zu untersuchen. In der Nachrichtentechnik<br />

werden zu diesem Zweck sog. Wobblergeneratoren eingesetzt, also Frequenzgenerato-<br />

ren mit periodisch veränderlicher Signalfrequenz. Für die zweidimensionale Darstel-<br />

lung werden die Bilder sinusförmig in vertikaler und horizontaler Richtung moduliert.<br />

Gegenüber einem Linienmuster zeigt das so modulierte Punktmuster weniger Alias<br />

durch Vorzugsrichtungen im Zusammenspiel mit der hexagonalen Anordnung des Fa-<br />

serbündels.<br />

f definiere die Ortsfrequenz der Sinusfunktion in Linienpaare pro 1.000 Bildpunkte<br />

(LP/kPx), W bzw. H die Breite bzw. Höhe des Bilds und Amin bzw. Amax den minimalen<br />

bzw. maximalen Intensitätswert im Bild. Das Sinusbild SNS wird definiert als<br />

SNSf (x, y) = Amax<br />

<br />

− Amin 2 π f 2 π f<br />

· sin · x sin · y +<br />

2<br />

1000 1000 Amax + Amin<br />

2<br />

für 0 ≤ x ≤ W, 0 ≤ y ≤ H .<br />

Tabelle 4.12 zeigt beispielhaft zwei Sinusbilder der Größe 512 × 512 mit einer<br />

Ortsfrequenz von f = 30 LP/kPx bzw. f = 120 LP/kPx. Die Amplitude wird auf den<br />

Bereich von Amin = 20 bis Amax = 220 Graustufen (von möglichen 256 Graustufen)<br />

begrenzt, um bei der weiteren Bearbeitung Sättigungseffekte zu umgehen. Anschlie-<br />

ßend wird die Übertragung durch ein Bildbündel mit variabler Faserdichte simuliert.


146 4.4. MODELLBASIERTER VERGLEICH VON FILTERUNG VS. INTERPOLATION<br />

Tabelle 4.12: Sinusbilder für die Evaluierung der Restaurierungseigenschaften. Die linke Spal-<br />

te der Beispielbilder zeigt den Verlauf bei einer Frequenz von 30 LP/kPx, die rechte Spalte bei<br />

einer Frequenz von 120 LP/kPx. Die Zeilen unterscheiden sich hinsichtlich der Faserdichte<br />

im eingesetzten Bildbündel. In der Bezeichnung SNS [NF]<br />

f<br />

LP/kPx) und NF für die Faseranzahl (in Tausend).<br />

SNS30, SNS120<br />

SNS [3]<br />

30, SNS [3]<br />

120<br />

SNS [6]<br />

30, SNS [6]<br />

120<br />

SNS [12]<br />

30 , SNS [12]<br />

120<br />

Sinusförmiger Intensitäts-<br />

verlauf in vertikaler und<br />

horizontaler Richtung mit<br />

30 bzw. 120 LP/kPx.<br />

Abtastung von SNS30 bzw.<br />

SNS120 mit 3.000 Fasern.<br />

Abtastung von SNS30 bzw.<br />

SNS120 mit 6.000 Fasern.<br />

Abtastung von SNS30 bzw.<br />

SNS120 mit 12.000 Fasern.<br />

steht f für die Bildortsfrequenz (in<br />

30 LP/kPx 120 LP/kPx<br />

Die drei unteren Zeilen in Tabelle 4.12 zeigen das Ergebnis dieses Schritts für 3.000,<br />

6.000 und 12.000 Fasern bei einem Aperturradius von 240 Pixel und einer Vorzugsrichtung<br />

der Faseranordnung von 30 ◦ . Die Indizes f bzw. NF in der Bezeichnung SNS [NF]<br />

f<br />

stehen für Bildortsfrequenz f in LP/kPx bzw. für die Faseranzahl NF (in Tausend).<br />

4.4.2 Vergleichsmöglichkeit von Filterung und Interpolation<br />

Die Differenzmaße mittlere Betragsdifferenz (MAD) bzw. das verwandte Spitzensig-<br />

nal-zu-Rausch-Verhältnis (PSNR), sowie die Ähnlichkeitsmaße mittlere strukturelle<br />

Ähnlichkeit (MSSIM) bzw. die Transinformation (TI) zwischen originalen und aufbe-<br />

reiteten Bildern bieten einen direkten pixelweisen oder statistischen Vergleich in Be-<br />

zug auf die Restaurierungsgüte. Die Ansätze werden hinsichtlich der Variablen Bild-<br />

frequenz (vgl. Abschn. 4.4.3) und Faseranzahl (vgl. Abschn. 4.4.4) untersucht.


4.4. MODELLBASIERTER VERGLEICH VON FILTERUNG VS. INTERPOLATION 147<br />

Beim Vergleich der beiden Ansätze Filterung und Interpolation mit Differenz- und<br />

Ähnlichkeitsmaßen tritt eine gravierende Schwierigkeit auf. Über die genaue Position<br />

der Faserzentren gelingt es mit der Interpolation, unabhängig vom Wabenhintergrund<br />

die tatsächlichen Spitzenwerte der Helligkeit im Bild zu bestimmen. Der Aufbau des<br />

restaurierten Bilds erfolgt auf Basis dieser Information. Bei der Filterung hingegen<br />

werden die dunklen Strukturen des Wabenmusters mit den überwiegend helleren Bild-<br />

punkten verwaschen. Das Resultat ist eine grundsätzliche Minderung der Helligkeit im<br />

Bild, was einen intensitätsbasierten Differenzvergleich stark beeinflusst. Für die Evalu-<br />

ierung mit Differenzmaßen wird daher im Voraus die Bildhelligkeit l und der Kontrast<br />

c der gefilterten und interpolierten Bilder im Sinne des mittleren quadratischen Fehlers<br />

bestmöglich an die vorgegebene Szene S angeglichen. So kann gewährleistet werden,<br />

dass der pixelweise Vergleich der Bildunterschiede unabhängig von globalen Unter-<br />

schieden in Helligkeit und Kontrast erfolgt. Das Bild I, das zum Vergleich herangezo-<br />

gen wird, wird dementsprechend durch Addition von ˆl (Helligkeit) und Multiplikation<br />

mit ĉ (Kontrast) in Bezug auf die Originalszene korrigiert:<br />

<br />

ˆl, ĉ = argmin<br />

l,c<br />

<br />

(x,y)∈R<br />

|I(x, y) · c + l − S(x, y)| .<br />

4.4.3 Differenzgüte und Ähnlichkeit in Abhänigkeit der Bildfre-<br />

quenz<br />

Abbildung 4.8 vergleicht die Restaurierungsqualität bei einer konstanten Faserdich-<br />

te von 12.000 Fasern auf einer Apertur von 240 Pixel. Die Bildfrequenz variiert von<br />

20 bis 150 LP/kPx in Schritten von je fünf LP/kPx. Als Gütekriterien sind hier die<br />

mittlere Betragsdifferenz (MAD) und das Spitzen-Signal-zu-Rausch-Verhältnis (PS-<br />

NR) aufgetragen. Wie zu erwarten, steigt die MAD und sinkt das PSNR mit steigender<br />

Bildfrequenz, da bei konstanter Abtastung höhere Frequenzen zu steigenden Fehlern<br />

im restaurierten Ergebnis führen. Alle drei Ansätze der Aufbereitung starten bei ei-<br />

ner Bildfrequenz von 20 LP/kPx mit einer Abweichung von ungefähr 2, 5 Grauwer-<br />

ten bzw. einem PSNR von etwa 38, 3 dB. Auffällig stark springt die Abweichung bei<br />

der Filterung zwischen 95 und 100 LP/kPx von 15, 6 auf 25, 5 Grauwerte (im Weite-<br />

ren Qualitätssprung genannt; nähere Betrachtung folgt im nächsten Abschn.), bevor<br />

sie zwischen 25 und 26 Grauwerte in die Sättigung geht. Die Interpolation hingegen<br />

verhält sich kontinuierlicher, vor dem Sprung bei der Filterung zwar mit deutlich hö-<br />

herem Fehler, dafür ohne auffälligem Sprung bei etwa 100 LP/kPx und vergleichs-<br />

weise besseren Werten nach dem Einbruch der Filterung. Die Beobachtung lässt sich<br />

mit dem Theorem der Abtastung erklären, das für eine bestimmte Abtastfrequenz ei-


148 4.4. MODELLBASIERTER VERGLEICH VON FILTERUNG VS. INTERPOLATION<br />

ne Grenzfrequenz für die zu übertragenden Bildinhalte definiert. Gleichung (3.4) gibt<br />

den mittleren Faserabstand bei 12.000 Fasern innerhalb einer Apertur mit Radius 240<br />

Pixel mit 4, 2 Pixel an (vgl. Kurvenschar in Abb. 3.4). Die Periodenlänge zwischen<br />

zwei exakt abgetasteten hellen bzw. dunklen Punkten entspricht damit in guter Nähe-<br />

rung der beobachteten Grenzfrequenz. Die Analyse wird in Abbildung 4.9 durch zwei<br />

weitere Vergleichsmaße, der strukturellen Ähnlichkeit (MSSIM) und der statistischen<br />

Transinformation (TI) bestätigt. Am Verlauf der MSSIM lässt sich der dritte Ansatz,<br />

nämlich die kombinierte Anwendung von Interpolation und Filterung, wie sie in Ab-<br />

schnitt 3.2.3 vorgeschlagen wird, gut beurteilen. Sowohl vor dem Qualitätssprung, als<br />

auch nach diesem folgt die gestrichelte Kurve jeweils dem Ergebnis des schlechteren<br />

Ansatzes. Sinkt sie bereits zu Beginn von 100% mit der Kurve der Interpolation konti-<br />

nuierlich ab, so fällt sie am Qualitätssprung mit der Filterung auf das Sättigungsniveau<br />

zwischen 46% und 47% und bescheinigt damit diesem kombinierten Ansatz ein durch-<br />

weg schlechtes Ergebnis, verglichen mit den beiden einzelnen Verfahren.<br />

4.4.4 Differenzgüte und Ähnlichkeit in Abhängigkeit der Faseran-<br />

zahl<br />

Eine wichtige Fragestellung betrifft das Restaurierungsverhalten bestimmter Bildfre-<br />

quenzen unter variierender Faserdichte im Querschnitt des abtastenden Bildbündels.<br />

So kann in Abhängigkeit der Faseranzahl die Güte der Restaurierung untersucht wer-<br />

den. Für zwei Bildfrequenzen, nämlich 80 und 100 LP/kPx ist in den Abbildungen<br />

4.11, 4.12 und 4.13 die Differenz bzw. Ähnlichkeit für verschiedene Faseranzahlen von<br />

3.000 bis 18.000 Fasern aufgetragen. Der Kurvenverlauf in Abbildung 4.11 zeigt den<br />

Qualitätssprung und damit die Schwelle der strukturerhaltenden Restaurierung zwi-<br />

schen 8.000 und 9.000 Fasern. Zum Vergleich: Handelsübliche Endoskope verwenden<br />

meist Bildbündel mit mindestens 12.000 Fasern.<br />

Abbildung 4.10 veranschaulicht die Bedeutung und Auswirkung des Qualitäts-<br />

sprungs. Dazu sind für eine konstante Bildfrequenz von 80 LP/kPx die Bilddaten im<br />

kritischen Bereich zwischen 7.000 und 10.000 Fasern nebeneinander aufgereiht und<br />

mit einem vergrößerten Ausschnitt gekennzeichnet. (a) zeigt das originale Muster. (b)<br />

bis (e) zeigen die Originaldaten nach Abtastung durch das Bildbündel mit der entspre-<br />

chenden Faseranzahl: (b) 7.000, (c) 8.000, (d) 9.000 und (e) 10.000. (f) bis (i) sind<br />

die entsprechenden Resultate nach Filterung und (j) bis (m) die Ergebnisse nach In-<br />

terpolation. Bis zur Schwelle von 8.000 Fasern ist das Ergebnis der Filterung noch<br />

gravierend durch Aliaseffekte bestimmt (vgl. (b,c) Abb. 4.10). Erst ab 9.000 Fasern<br />

bleibt die Struktur des Punktmusters nach Filterung der Abtastung erhalten (vgl. (d,e)


4.4. MODELLBASIERTER VERGLEICH VON FILTERUNG VS. INTERPOLATION 149<br />

Abbildung 4.8: Vergleich der Restaurierungsqualität bei variabler Bildfrequenz. Die Filterung,<br />

die Interpolation und die hintereinander geschaltete Kombination aus beiden werden mit den<br />

Differenzmaßen MAD und PSNR (vgl. Abschn. 3.6.2) evaluiert. Als Bildmaterial wird ein uni-<br />

verselles Punktmuster verwendet, das für verschiedene Bildfrequenzen von 20 bis 150 LP/kPx<br />

generiert und mit konstanter Faserdichte (12.000 Fasern in 240 Pixel Aperturradius) abgebil-<br />

det wird.<br />

Abbildung 4.9: Vergleich der Restaurierungsqualität bei variabler Bildfrequenz. Die Filterung,<br />

die Interpolation und die hintereinander geschaltete Kombination aus beiden werden mit den<br />

Differenzmaßen MSSIM und TI (vgl. Abschn. 3.6.3) evaluiert. Als Bildmaterial wird ein uni-<br />

verselles Punktmuster verwendet, das für verschiedene Bildfrequenzen von 20 bis 150 LP/kPx<br />

generiert und mit konstanter Faserdichte (12.000 Fasern in 240 Pixel Aperturradius) abgebil-<br />

det wird.


150 4.4. MODELLBASIERTER VERGLEICH VON FILTERUNG VS. INTERPOLATION<br />

Abb. 4.10), was sich nach den betrachteten Differenz- und Ähnlichkeitsmaßen durch<br />

einen sprunghaften Anstieg der Restaurierungsqualität (Qualitätssprung) bemerkbar<br />

macht. Bei der Interpolation hingegen sind über den gesamten dargestellten Bereich<br />

Strukturartefakte zu erkennen. Dadurch dass einzelne Stützstellen jedoch in Bezug auf<br />

die Helligkeit korrekt detektiert werden, ergibt sich für die gewählten Gütemaße im<br />

Mittel ein Wert, der vor dem Qualitätssprung etwas über und danach deutlich unter<br />

dem der Filterung liegt.<br />

Bei der Betrachtung von höheren Strukturfrequenzen im Ausgangsbild steigt er-<br />

wartungsgemäß auch die Schwelle der Faseranzahl, ab der eine strukturerhaltende<br />

Restaurierung möglich ist. Abbildung 4.13 zeigt diesen Verlauf für ein universelles<br />

Punktmuster mit 100 LP/kPx. Bei der Schwelle zwischen 12.000 und 13.000 Fasern<br />

verbessert sich demnach die Qualität der Restaurierung für die Filterung gemessen an<br />

der MAD um über 25% und das PSNR steigt um über drei dB an. Wie bei der Variati-<br />

on der Bildfrequenzen, so tritt auch hier der Qualitätssprung nur bei der Filterung und<br />

dem kombinierten Ansatz auf. Für niedrige Faseranzahlen ist die Qualität der Interpo-<br />

lation besser als die der Filterung. Das liegt an dem stützstellenbasierten Prinzip der<br />

Interpolation, mit dem sie zwar zuverlässige Signalwerte an vorhandenen Faserzen-<br />

tren definieren kann, jedoch auf nicht optimale Weise, z.B. mit nicht differenzierbaren<br />

Verläufen zwischen diesen Stützstellen interpoliert.<br />

4.4.5 Fazit<br />

Beim direkten Vergleich von restaurierten Bildern mit ihrem Original muss der Ein-<br />

fluss durch die Schwelle der Strukturerhaltung beachtet werden. Sie gibt an, ab wel-<br />

cher Grenze die gemessenen Qualitätsunterschiede durch Aliaseffekte maßgeblich be-<br />

einflusst werden. Generell tritt diese Schwelle bei der Filterung dort am deutlichsten<br />

auf, wo das Abtasttheorem eine Grenzfrequenz für die Rekonstruktion eines Signals<br />

mit bestimmter Frequenz definiert. Bei der Interpolation nimmt die Qualität mit stei-<br />

gender Faserdichte bzw. sinkender Signalfrequenz kontinuierlicher zu, kommt global<br />

jedoch nicht an die Spitzenqualität der Filterung heran.<br />

Die Kombination der beiden Ansätze hat ihre Stärken in der lokalen Retuschierung<br />

von Faserdefekten und der Aufbereitung zur visuellen Darstellung von Aufnahmen<br />

mit preisgünstigen Bildleitern (vgl. Abschn. 3.2.3), zeigt jedoch im quantitativen Dif-<br />

ferenzvergleich die Schwächen beider Einzelverfahren und schneidet auf Basis aller<br />

Differenz- und Ähnlichkeitsmaße stets schlechter als die Filterung bzw. die Interpola-<br />

tion ab.


4.4. MODELLBASIERTER VERGLEICH VON FILTERUNG VS. INTERPOLATION 151<br />

(a) SNSorig<br />

(b) SNS7,80 (c) SNS8,80 (d) SNS9,80 (e) SNS10,80<br />

(f) SNS7,80, gefiltert (g) SNS8,80, gefiltert (h) SNS9,80, gefiltert (i) SNS10,80, gefiltert<br />

(j) SNS7,80, interpoliert<br />

(k) SNS8,80, interpoliert<br />

(l) SNS9,80, interpoliert<br />

(m) SNS10,80, interpoliert<br />

Abbildung 4.10: Visualisierung des Qualitätssprungs bei der Restaurierung durch Filterung.<br />

(a) zeigt das originale Muster mit vergrößertem Ausschnitt. (b) bis (e) zeigen die Originaldaten<br />

nach Abtastung durch verschieden dichte Faserbündel ((b): 7.000, (c): 8.000, (d): 9.000 und<br />

(e): 10.000). (f) bis (i) sind die entsprechenden Resultate nach Filterung und (j) bis (m) die<br />

Ergebnisse nach Interpolation.


152 4.4. MODELLBASIERTER VERGLEICH VON FILTERUNG VS. INTERPOLATION<br />

Abbildung 4.11: Vergleich der Restaurierungsqualität bei variabler Faseranzahl. Die Filte-<br />

rung, die Interpolation und die hintereinander geschaltete Kombination aus beiden werden mit<br />

den Differenzmaßen MAD und PSNR (vgl. Abschn. 3.6.2) evaluiert. Als Bildmaterial wird ein<br />

universelles Punktmuster mit 80 LP/kPx verwendet, das mit variabler Anzahl von 3.000 bis<br />

18.000 Fasern abgetastet ist.<br />

Abbildung 4.12: Vergleich der Restaurierungsqualität bei variabler Faseranzahl. Die Filte-<br />

rung, die Interpolation und die hintereinander geschaltete Kombination aus beiden werden mit<br />

den Differenzmaßen MSSIM und TI (vgl. Abschn. 3.6.3) evaluiert. Als Bildmaterial wird ein<br />

universelles Punktmuster mit 80 LP/kPx verwendet, das mit variabler Anzahl von 3.000 bis<br />

18.000 Fasern abgetastet ist.


4.5. EVALUIERUNG DER FARBBILDRESTAURIERUNG 153<br />

Abbildung 4.13: Vergleich der Restaurierungsqualität bei variabler Faseranzahl. Die Filte-<br />

rung, die Interpolation und die hintereinander geschaltete Kombination aus beiden werden mit<br />

den Differenzmaßen MAD und PSNR (vgl. Abschn. 3.6.2) evaluiert. Als Bildmaterial wird ein<br />

universelles Punktmuster mit 100 LP/kPx verwendet, das mit variabler Anzahl von 3.000 bis<br />

18.000 Fasern abgetastet ist.<br />

4.5 Evaluierung der Farbbildrestaurierung<br />

Die Erweiterung der Restaurierungsansätze auf Farbinformation berücksichtigt spe-<br />

ziell die Verteilung des Farbfiltermosaiks (z. B. Bayer-Pattern) auf dem Kamerasen-<br />

sor. Die darauf beruhende Rohdateninterpolation entfernt einerseits die Wabenstruk-<br />

tur aus den faseroptisch abgetasteten Aufnahmen. Andererseits können durch die in<br />

Abschnitt 3.3 beschriebene Technik das störende Farbmoiré und die Strukturartefakte<br />

umgangen werden, denen ein Ungleichgewicht in der Ausleuchtung des Kamerasen-<br />

sors aufgrund der faseroptischen Übertragung zugrunde liegt. Um die Auswirkungen<br />

des vorgestellten Verfahrens auf die Bildqualität an einem anwendungsnahen Beispiel<br />

zu verdeutlichen, wird in Abbildung 4.14(A1) ein Ausschnitt der menschlichen Haut<br />

gezeigt. Da faseroptische Endoskope vielfältig in medizinischen Untersuchungen von<br />

menschlichen Gewebe zum Einsatz kommen, ist die Haut ein typischer Vertreter sol-<br />

cher Oberflächen. Die Aufnahme erfolgte mit dem Endoskop E6 (vgl. Tab. 4.1) und<br />

der Kamera K4 (vgl. Tab. 4.2).<br />

In diesem Beispiel tasten die knapp 10.000 hexagonal angeordneten Fasern die<br />

texturierte Oberfläche im mittleren Abstand von df = 5, 2 Pixel (bei einer Standard-<br />

abweichung von 0, 65 Pixel) ab. Der für das Farbmoiré entscheidende Effekt hängt ab<br />

von der Dichte des Faserbündels, dem Abbildungsverhältnis des Faserbündels auf den<br />

Kamerasensor und der Größe eines einzelnen Sensorelements. Dieser mittlere Faser-


154 4.5. EVALUIERUNG DER FARBBILDRESTAURIERUNG<br />

abstand df liegt im typischen Bereich, wie er in Abschnitt 3.2.2 für die subpixelgenaue<br />

Restaurierung vorausgesetzt wird. Der Effekt konnte aber auch mit verschiedenen an-<br />

deren Konstellationen nachgewiesen und bearbeitet werden.<br />

Abbildung 4.14(a) zeigt die Sensordaten der faserendoskopischen Aufnahme ei-<br />

nes Hautbereichs mit der Auflösung 800 × 600 Bildpunkte in einer Bildapertur mit<br />

Durchmesser rA = 500 Bildpunkten. Für die Farbdarstellung wurden die Rohdaten der<br />

Kamera durch Demosaicing in drei mal acht Bit konvertiert, liegen jedoch dem Algor-<br />

tihmus auch in originaler Form (zwölf Bit Intensität) vor. Der markierte vergrößerte<br />

Ausschnitt (vgl. Abb. 4.14(b)) zeigt die hexagonale Wabenstruktur, die zur initialen<br />

Lokalisierung der Faserzellen für den Algorithmus möglichst scharf abgebildet wer-<br />

den muss. Durch die Farbinterpretation der einzelnen Sensorelemente (Bayer-Pattern)<br />

entsteht eine mosaikartige Verteilung der Farbinformation. Um die Präsenz und den<br />

Einfluss der unterschiedlichen Strukturierung in den vergrößerten Ausschnitten zu ver-<br />

deutlichen, die sowohl von den Hautrillen, als auch von der Wabenstruktur und dem<br />

Bayer-Pattern verursacht ist, wird mit dem Canny-Filter 3 [Can86] ein Gradientenbild<br />

vom Rotkanal erzeugt. Für eine vergleichbare Gegenüberstellung werden die Parame-<br />

ter des Filters für alle Strukturbilder konstant gehalten: σ = 1.0, δmin = 0, 047 und<br />

δmax = 0, 106 (Parameterbezeichnung s. [Can86]). Wie zu erwarten zeigt das entspre-<br />

chende Strukturbild der unbearbeiteten Aufnahme (vgl. Abb. 4.14(c)) feine homogene<br />

Gradienten, die hauptsächlich auf das periodische Wabenmuster des Faserbündels zu-<br />

rückgehen. Der Bildinhalt wird in diesem Ausschnitt nicht deutlich. Die Reihe von Ab-<br />

bildung 4.14(d) bis Abbildung 4.14(f) zeigt die gleichen Aufnahmen, nachdem sie mit<br />

der vorgestellten Filtermethode zur automatischen spektralen Maskierung aufbereitet<br />

und anschließend durch Weißabgleich, Kontrastanpassung und Tonwertanpassung op-<br />

timiert wurden. Aufgrund der Fehlinformation durch die Farbinterpretation auf dem<br />

Farbfiltermosaik kann die Farbzusammensetzung lokaler Bildbereiche nicht fehlerfrei<br />

rekonstruiert werden. Der Ausschnitt in Abbildung 4.14(e) zeigt diesen Effekt durch<br />

ein von links oben nach rechts unten verlaufendes Farbmuster, was durch die Überla-<br />

gerung der Gradienten von Hautstruktur und Farbmoiré in Abbildung 4.14(f) bestätigt<br />

wird. Die unterste Reihe in Abbildung 4.14 vermittelt den visuellen Fortschritt nach<br />

Aufbereitung mit der vorgestellten Rohdateninterpolation. Der vergrößerte Ausschnitt<br />

in Abbildung 4.14(h) zeigt nach wie vor sämtliche Strukturen der Hautoberfläche, aber<br />

die Überlagerung von Farbstreifen ist vollständig bereinigt, wie auch das Gradienten-<br />

bild (vgl. Abb. 4.14(i)) bestätigt. Ohne Artefaktstruktur sind wichtige Details in den<br />

Aufnahmen, z. B. die Rillen der Haut im Bereich von 400µm optisch zuverlässiger<br />

wahrnehmbar.<br />

3 Canny-Filter: Algorithmus zur Kantendetektion in Bildern


4.5. EVALUIERUNG DER FARBBILDRESTAURIERUNG 155<br />

(a) (b) (c)<br />

(d) (e) (f)<br />

(g) (h) (i)<br />

Abbildung 4.14: Sensordaten der faserendoskopischen Aufnahme eines Hautbereichs (a) mit<br />

markiertem vergrößertem Ausschnitt (b) und dem Strukturbild als Ergebnis einer Canny-<br />

Filterung des roten Farbkanals (c). Die Reihe (d-f) zeigt die gleichen Aufnahmen, nachdem<br />

sie mit den aktuellen Filtermethoden aufbereitet wurden. Die Reihe (g-i) vermittelt den visuel-<br />

len Fortschritt nach Aufbereitung mit der vorgestellten Rohdateninterpolation.


156 4.6. AUFLÖSUNGSSTEIGERUNG DURCH SUPERPOSITION<br />

Weiterer Vorteil bei dem vorgestellten Ansatz zur Farbinterpolation ist u.a. der im-<br />

plizite Weiß- und Schattenabgleich, d.h. eine manuelle Parametrisierung und weitere<br />

Vorverarbeitungsschritte entfallen und die Ergebnisse bleiben reproduzierbar. Statt ei-<br />

ner Tiefpassfilterung zur Mittelung der Farbbeiträge, was zu dem beobachteten Farb-<br />

moiré führt, nutzt der Ansatz die Kenntnis über die Position und Verteilung der Fasern<br />

und der Farbfilter, um subpixelgenau die Intensität und Farbzusammensetzung des Ori-<br />

ginalbilds zu restaurieren.<br />

4.6 Auflösungssteigerung durch Superposition<br />

Das in Abschnitt 3.5 ausgeführte Verfahren zur Steigerung der Auflösung von Bildse-<br />

quenzen wird in erster Linie durch zwei Einflussgrößen gesteuert. Das ist zum einen die<br />

Anzahl NI von benachbarten Bildern, die für die Erweiterung mit registrierten Merk-<br />

malen herangezogen werden und zum anderen die maximale Anzahl NM an Merkma-<br />

len, die jeweils aus den NI benachbarten Bildern in das Basisbild integriert werden. Ein<br />

Super Resolution Bild HR I erhält zur Kennzeichnung dieser Einflussgrößen das Super-<br />

skript (NI, NM), also HR I (NI,NM) . Abschnitt 4.6.2 untersucht die Superposition visuell,<br />

d.h. subjektiv durch einen Betrachter. Dies kann einerseits durch einen Vergleich der<br />

Ergebnisbilder mit dem herkömmlich aufgelösten Basisbild LR Έn erfolgen (ˆn indiziert<br />

das Basisbild), oder im Verhältnis zu anderen hoch aufgelösten Ergebnissen HR I (N′ I ,N′ M )<br />

mit N ′ I = NI oder N ′ M = NM ausgewertet werden. Abschnitt 4.6.3 diskutiert die Ergeb-<br />

nisse aus quantitativen Vergleichen auf der Basis von Differenz- und Ähnlichkeitsma-<br />

ßen. Soweit nicht anders angegeben, erfolgt in allen Analysen die Registrierung von<br />

Bildmerkmalen zur Verbesserung des Basisbilds datengetrieben, d.h. ohne Einbringen<br />

von Zusatzwissen über die Richtung und Schrittweite der Bewegung. Abschnitt 4.6.4<br />

vergleicht abschließend das Ergebnis der Superposition mit dem von Interpolation und<br />

Filterung. Hier werden an einem ausgewählten Beispiel die Herausforderungen und<br />

Grenzen der Superposition anschaulich verdeutlicht.<br />

4.6.1 Bildmaterial<br />

Die unterschiedlichen Bildinhalte und deren Strukturen im Bild spielen eine wichti-<br />

ge Rolle sowohl bei der Berechnung von Bewegungsvektorfeldern und damit die al-<br />

gorithmische Stabilität der Superposition, als auch für das subjektive Empfinden der<br />

resultierenden Bilder. Für den Vergleich werden deshalb vier Konstellationen mit un-<br />

terschiedlichen Oberflächen und Reflexionseigenschaften gewählt (vgl. Tab. 4.13). Die


4.6. AUFLÖSUNGSSTEIGERUNG DURCH SUPERPOSITION 157<br />

Konstellationen BST, LNA und ALU stellen künstliche Aufnahmen dar, d.h. sie wur-<br />

den zunächst von einer Kamera (ohne Endoskop) aufgezeichnet und daraufhin vom<br />

faseroptischen Abbildungsmodell derart mit einem Wabenmuster überlagert, dass die<br />

generierte Bildfolge einer meanderförmigen Bewegung des Faserendoskops entspricht.<br />

Die Größe beträgt jeweils 640×640 Pixel und die Apertur mit Radius 265 Pixel enthält<br />

8359 Faserzentren. Die Bildsequenz ZYL wurde entlang der Symmetrieachse eines zy-<br />

linderförmigen Hohlraums mit dem Endoskop E6 (vgl. Tab. 4.1) aufgenommen. Die<br />

matte Oberfläche des Zylinders zeigt zur Verdeutlichung des Effekts Schriftzeichen<br />

mit kontrastreichen Kanten. Die Bilddimension beträgt 700 × 700 Pixel, der Aper-<br />

turradius umfasst 268 Pixel und vom Algorithmus werden 9569 Faserzentren detek-<br />

tiert. Die Sequenz SPF zeigt eine Spielfigur (Schlumpf), um die das Faserendoskop E6<br />

frei herumgeführt wurde. Aufgrund seiner reflektierenden Oberfläche zeigt das Objekt<br />

mehrere Glanzstellen. Die Bilder werden mit einer Größe von 640 × 640 Pixel, einem<br />

Aperturradius von 367 Pixel und 8514 Fasern im sichtbaren Bildbereich bearbeitet. Im<br />

Folgenden werden die eingeführten Mnemoniks 4 BST, LNA, ALU, ZYL und SPF zur<br />

Beschreibung der Bildsequenzen und gleichermaßen für die Bezeichnung einzelner<br />

Bilder dieser Sequenzen verwendet.<br />

Der Vollständigkeit halber werden hier noch zwei interne Parameter des Tracking-<br />

Algorithmus genannt. Aufgrund der starken Unterabtastung durch die Kombination<br />

zwischen Faseroptik und Kamera wird für den blockweisen Vergleich der Bildaus-<br />

schnitte eine Fensterbreite von 25 gewählt und das Bildmaterial zusätzlich durch ein<br />

Gaussfilter mit der Varianz 2.0 geglättet.<br />

4.6.2 Visuelle Beurteilung<br />

Am Beispiel der Bildsequenzen BST, LNA und ALU soll die Kombination von meh-<br />

reren Einzelbildern zu einem detailreicheren Super Resolution Bild demonstriert wer-<br />

den. Den drei Szenen ist gemeinsam, dass sie aus rein translatorischen Verschiebungen<br />

durch Modellierung mit dem faseroptischen Abbildungsmodell generiert wurden.<br />

BST (vgl. Abb. 4.15) zeigt eine Szene mit einem Bleistift und einer Büroklammer<br />

vor homogenem Hintergrund (a,b). Die reine Interpolation (c) macht den Stufeneffekt<br />

durch die hexagonale Abtastung deutlich. Durch Überlagerung von mehreren zusätz-<br />

lichen Merkmalen aus benachbarten Bildern wird dieser Effekt sichtbar geringer. Der<br />

Ausschnitt (d) zeigt diese Verbesserung, wobei hier bis zu 5 6400 Merkmale aus sechs<br />

4 Mnemonik: Einprägsames Kurzzeichen eines Ausdrucks<br />

5 Die Formulierung bis zu wird in den visuellen Ergebnissen der Sequenz SPF näher erläutert.


158 4.6. AUFLÖSUNGSSTEIGERUNG DURCH SUPERPOSITION<br />

BST<br />

LNA<br />

ALU<br />

ZYL<br />

SPF<br />

VKT<br />

Tabelle 4.13: Szenenkonstellationen für die Evaluierung von Super Resolution<br />

Modellierte Abbildung mit dem Motiv Bleistift:<br />

Kontrastreiche Übergänge und große homogene<br />

Flächen.<br />

Modellierte Abbildung mit dem Motiv Lena: Stark<br />

strukturierte Grauschattierungen.<br />

Modellierte Abbildung einer gewölbten<br />

Aluminiumfolie mit Aufdruck<br />

Matte Oberfläche eines zylindrischen Hohlraums<br />

mit Schriftzeichen. Das Endoskop bewegt sich ent-<br />

lang der Symmetrieachse in den Hohlraum hinein.<br />

Reflektierende Oberfläche einer Spielfigur mit<br />

Glanzstellen. Das Faserendoskop wird frei um das<br />

Objekt herumbewegt.<br />

Abbildung einer Visitenkarte: Schriftzeichen mit<br />

hohem Kontrast. Viele homogene Flächen.<br />

benachbarten Bildern verwendet wurden. Die homogenen Bereiche und die kleinen<br />

dunklen Strukturen z. B. der Schriftränder erschweren die Registrierung von Punkt-<br />

merkmalen zwischen zwei Bildern, wie insbesondere der mittlere und obere Bereich<br />

des Ausschnitts (d) hinter der Büroklammer zeigt. Im unteren Bereich des aufbereite-<br />

ten Ausschnitts (d) kann die Degradierung durch die faseroptische Abtastung gegen-<br />

über der Originalaufnahme (e) weitgehend kompensiert werden.<br />

Die Aufbereitung des Fotomotivs in LNA (vgl. Abb. 4.16) wirkt auf den Betrachter<br />

in vielen Bereichen noch erfolgreicher, als dies bei BST der Fall ist. Das liegt an den<br />

stark strukturierten Grauschattierungen im linken Bereich des Ausschnitts, die dem Al-<br />

gorithmus eine präzise Bewegungsschätzung ermöglichen. (c) zeigt das Zwischener-<br />

gebnis nach Interpolation des Ausschnitts (b). Die starke Abstufung in den Haarsträh-


4.6. AUFLÖSUNGSSTEIGERUNG DURCH SUPERPOSITION 159<br />

(a) (b) (c) N = 0 (d) N=6,F=6400 (e) Orig<br />

Abbildung 4.15: Visuelles Ergebnis der Auflösungssteigerung für die Sequenz BST (vgl.<br />

Tab. 4.13). (b) zeigt den Ausschnitt aus (a), der durch faseroptische Abtastung aus der ori-<br />

ginalen Szene (e) modelliert wird. (c) zeigt das Ergebnis reiner Interpolation (NI = 0), wo-<br />

hingegen (d) aus der Kombination von max. 6400 Merkmalen aus sechs angrenzenden Bildern<br />

entstanden ist.<br />

(a) (b) (c) N = 0 (d) N = 8, F = 6400<br />

Abbildung 4.16: Visuelles Ergebnis der Auflösungssteigerung für die Sequenz LNA (vgl.<br />

Tab. 4.13). (b) zeigt einen Ausschnitt der faseroptisch modellierten Szene aus (a). (c) zeigt<br />

das Ergebnis reiner Interpolation (NI = 0). (d) ist das Resultat der Superposition mit max.<br />

6400 Merkmalen aus 8 angrenzenden Bildern der Sequenz.<br />

nen, den Wimpern und der Mundpartie sind auf den typischen Stufeneffekt zurück-<br />

zuführen. Für das hoch aufgelöste Ergebnis (d) wurden aus 8 benachbarten Aufnah-<br />

men maximal 6400 Merkmale kombiniert. Die genannten Bildbereiche sind sichtbar<br />

schärfer und der Verlauf der Konturen glatter, was dem Original verhältnismäßig nahe<br />

kommt.<br />

Die Auflösungssteigerung für die Sequenz ALU ist in Abbildung 4.17 veranschau-<br />

licht. Die Szene (a) stellt eine bedruckte Aluminiumfolie dar, aus der ein Ausschnitt (b)<br />

gewählt ist, der einen hellen Bereich mit wellenfömiger Schattierung (oben), das um-<br />

kreiste R mit relativ feinen Linienstrukturen (rechts) und einen Teil des großen Schrift-<br />

zugs ÜBERRASCHUNG zeigt. Die erste Zeile der Abbildung (a-d) ist analog zur Dar-<br />

stellung in Abbildung 4.16 aufgebaut, wobei hier der hochauflösende Ausschnitt (d)<br />

aus 10 Bildern kombiniert ist. An den Parametern dieses Ausschnitts (NI = 10, NM =


160 4.6. AUFLÖSUNGSSTEIGERUNG DURCH SUPERPOSITION<br />

6400) soll die Wahl und Registrierung der Merkmale genauer erläutert werden. Ent-<br />

sprechend der sequentiellen Bearbeitung der benachbarten Bilder (vgl. Abb. 3.40 in<br />

Abschn. 3.5.6) werden im Basisbild bis zu 6400 Merkmale gewählt, die daraufhin in<br />

beiden Richtungen der Bildsequenz verfolgt werden. Aufgrund von mangelndem Kon-<br />

trast kann selbst initial nicht immer die geforderte Maximalzahl an Merkmalen gefun-<br />

den werden. Weiterhin scheitert die Registrierung bei einigen Merkmalen im Verlauf<br />

der Bearbeitung der benachbarten Bilder, weil sie nicht wieder gefunden werden kön-<br />

nen. Deshalb nimmt die Anzahl der Merkmale, die aus den benachbarten Bildern in<br />

das Basisbild eingefügt werden können, mit zunehmender Entfernung zum Basisbild<br />

ab. Im konkreten Fall werden 5919 valide Merkmale im Basisbild gewählt, die darauf-<br />

hin für jeweils fünf Bilder in jeder Richtung weiterverfolgt werden. Mit jedem Schritt<br />

verringern sich die validen Merkmale, wie die folgenden beiden Zeilen für die zurück-<br />

liegenden bzw. die vorausliegenden Bilder (vgl. Abb. 3.40(b)) zeigen:<br />

Zurückliegende Bilder vom Index [ˆn − 5] bis zum Basisbild [ˆn]:<br />

[ˆn−5] [ˆn−4] [ˆn−3] [ˆn−2] [ˆn−1] [ˆn]<br />

5733<br />

−10<br />

−34<br />

−100<br />

−25<br />

−17<br />

← 5743 ← 5777 ← 5877 ← 5902 ← 5919<br />

Vorausliegende Bilder vom Basisbild [ˆn] bis zum Index [ˆn + 5]:<br />

Basisbild<br />

5919<br />

−43<br />

−41<br />

→ 5876 → 5835<br />

Basisbild<br />

−85<br />

−21<br />

−11<br />

→ 5750 → 5729 → 5708<br />

[ˆn] [ˆn+1] [ˆn+2] [ˆn+3] [ˆn+4] [ˆn+5]<br />

Wird einer der beiden Parameter NI bzw. NM konstant gehalten und der zweite va-<br />

riiert, so können zwei interessante Beobachtungen gemacht werden. Die Ausschnitte<br />

(e) bis (h) sind bei konstanter Anzahl NI = 6 für verschiedene maximale Anzahlen an<br />

Merkmalen NM ∈ {200; 800; 3200; 6400} bearbeitet. Für den Betrachter ist die Verbes-<br />

serung im Verlauf der Aufbereitung von (e) bis (h) erkennbar. Die Kanten der dicken<br />

Linien im linken unteren Bereich werden erst bei NM = 6400 dem Original entspre-<br />

chend glatt dargestellt. Wird hingegen die Anzahl der Merkmale konstant gehalten<br />

(NM = 3200, vgl. Ausschnitte (i) bis (l)), so scheint die Detailsteigerung über NI = 8<br />

(Ausschn. (k)) keinen Fortschritt mehr zu erzielen.<br />

Im Rahmen einer subjektiven Umfrage wurde der visuelle Eindruck einer Sättigung<br />

im Prozess der Detailanreicherung für zehn verschiedene Bildreihen protokolliert, die<br />

sukzessive mit max. NM = 1200 Merkmalen aus jeweils 0, 5, 10, 15, 20 bzw. 25 be-<br />

nachbarten Bildern pro Basisbild generiert wurden. Weiterhin wurden von den neun<br />

Testpersonen aus dem Bereich der Bildverarbeitung unsortierte Aufnahmen hinsicht-<br />

lich ihrer Detailtreue in eine aufsteigende Reihenfolge gebracht. Das Ergebnis dieser


4.6. AUFLÖSUNGSSTEIGERUNG DURCH SUPERPOSITION 161<br />

Studie bestätigt die deutliche Zunahme von Details (lesbare Schrift, Kanten) bei Kom-<br />

bination von fünf bis zehn fiberskopischen Einzelaufnahmen, wobei das Resultat stark<br />

vom Motiv und der Struktur in der Abbildung abhängt. Weiterer Aufwand zur Stei-<br />

gerung der Auflösung wird nur noch von deutlich weniger als 50% der Befragten als<br />

bemerkbar eingestuft. Dieser Effekt wird im nächsten Abschnitt auch noch durch quan-<br />

titative Analysen belegt.<br />

Die beschriebenen Experimente und Ergebnisse (BST, LNA, ALU) beruhen auf der<br />

Bearbeitung von künstlich faseroptisch modellierten Abbildungen, was unter anderem<br />

zu einer rein translatorischen Bewegung führt. Die Bildsequenz ZYL hingegen wurde<br />

mit einem Faserendoskop entlang der Symmetrieachse eines zylindrischen Hohlraums<br />

aufgezeichnet. Der vergrößerte Ausschnitt (a) in Abbildung 4.18 zeigt einen Teil des<br />

Schriftzugs der weitwinkelig verzerrten Ansicht der Hohlraumwandung (vgl. ZYL in<br />

Tab. 4.13). (b) stellt das Zwischenergebnis der Bildrestaurierung nach Interpolation<br />

dar (NI = 0) und damit die Grundlage für die Auflösungssteigerung, die durch Kom-<br />

bination von zehn benachbarten Aufnahmen (NI = 10) zum Resultat in Ausschnitt<br />

(c) gelangt. Dass die Konturen des Schriftzugs präziser erscheinen, ist eine Bestäti-<br />

gung, dass das umgesetzte Verfahren zur Superposition durch die lokale Ergänzung<br />

von Bilddetails prinzipiell auch für den endoskopischen Einsatz in zylinderförmigen<br />

Hohlräumen mit Vorschub in Blickrichtung geeignet ist. Eine größere Studie für diesen<br />

Einsatzbereich wurde bislang allerdings noch nicht durchgeführt und ausgewertet.<br />

In der industriellen Bildverarbeitung stellen sog. Glanzlichter eine große Heraus-<br />

forderung dar, weil sie beobachtungsvariant sind und Information verdecken. Mit der<br />

Sequenz SPF (vgl. Abb. 4.19) soll beispielhaft gezeigt werden, dass die Merkmals-<br />

findung und -registrierung selbst bei einer frei geführten Endoskopbewegung um ein<br />

reflektierendes Objekt brauchbare Ergebnisse liefert, um die Qualität von Einzelbil-<br />

dern durch Superposition zu steigern. Der Ausschnitt (c) zeigt das interpolierte Zwi-<br />

schenergebnis der Augenpartie der Spielfigur. Besonders am linken Auge (rechts un-<br />

ten im Ausschnitt) ist hier eine starke Störung des Kantenverlaufs zu erkennen, die auf<br />

Interpolationsartefakte zurückzuführen ist. Durch die Superposition von zusätzlichen<br />

Details aus sechs benachbarten Aufnahmen wird dieser Bereich sichtbar verbessert.<br />

Weiterhin werden der Kontrast und die Qualität der Darstellung von Reflexionsstel-<br />

len um Auge und Nase erhöht. An der Innenseite des rechten Auges sind hingegen<br />

kleine Störungen zu erkennen, die auf Ungenauigkeiten in der Merkmalsregistrierung<br />

zurückzuführen sind.


162 4.6. AUFLÖSUNGSSTEIGERUNG DURCH SUPERPOSITION<br />

(a) (b) Orig. (c) NI = 0 (d) NI = 10, NM = 6400<br />

(e) NI = 6, NM = 200 (f) NI = 6, NM = 800 (g) NI = 6, NM = 3200 (h) NI = 6, NM = 6400<br />

(i) NI = 2, NM = 3200 (j) NI = 4, NM = 3200 (k) NI = 8, NM = 3200 (l) NI = 10, NM = 3200<br />

Abbildung 4.17: Visuelles Ergebnis der Auflösungssteigerung für die Sequenz ALU (vgl.<br />

Tab. 4.13). (b) zeigt einen vergrößerten Ausschnitt aus (a). (c) Ergebnis der reinen Interpolation<br />

(N = 0), nachdem der Ausschnitt faseroptisch modelliert wurde. (d) Resultat der Superposition<br />

mit max. 6400 Merkmalen aus 8 angrenzenden Bildern der Sequenz. In der zweiten Reihe (e-h)<br />

wird bei konstanter Bildanzahl NI = 6 die Menge der Merkmale variiert, wohingegen in der<br />

dritten Reihe (i-k) die Anzahl der Merkmale konstant bei 3200 gehalten wird und die Anzahl<br />

der kombinierten Bilder variiert wird.<br />

(a) (b) NI = 0 (c) NI = 10<br />

Abbildung 4.18: Vergrößerter Ausschnitt einer faserendoskopischen Aufnahme beim Blick in<br />

einen zylinderförmigem Hohlraum mit Schriftzeichen (a). Zwischenergebnis der Bildrestau-<br />

rierung nach Interpolation (b). Superposition von zehn benachbarten Aufnahmen mit einer<br />

Verschiebung der Endoskopoptik entlang der Symmetrieachse des Hohlraums (c).


4.6. AUFLÖSUNGSSTEIGERUNG DURCH SUPERPOSITION 163<br />

(a) (b) (c) N = 0 (d) N = 6, F = 3200<br />

Abbildung 4.19: Visuelles Ergebnis der Auflösungssteigerung für die Sequenz SPF (vgl.<br />

Tab. 4.13). (b) zeigt einen Ausschnitt der realen faseroptischen Sequenz aus (a). (c) Ergebnis<br />

der reinen Interpolation (NI = 0). (d) Resultat der Superposition mit max. 3200 Merkmalen<br />

aus sechs angrenzenden Bildern der Sequenz.<br />

4.6.3 Direkter Differenzvergleich<br />

Aus der theoretischen Betrachtung des Flächenabtastverhaltens in Abschnitt 3.5.2 ist<br />

ein Grenzwert zu erwarten, den eine Bildverbesserung nicht überschreiten kann. Mit<br />

einem direkten Differenzvergleich mit dem Abstandsmaß MAD (vgl. Abschn. 3.6.2)<br />

wird dieser Effekt in diesem Abschnitt quantitativ beobachtet.<br />

Durch die modellbasierte Abtastung des Szenenbilds (Grundwahrheit) sind die Be-<br />

wegungen zwischen den Einzelaufnahmen zwar deterministisch vorgegeben, aber die<br />

Detektion und Registrierung von Merkmalen geschieht ohne dieses Vorwissen, um<br />

die Versuchsreihe möglichst realitätsnah zu halten. Für die Parameter NI = 6 und<br />

NM = 3200 veranschaulicht Abbildung 4.20 beispielhaft die Ortsvektoren der Ver-<br />

schiebungen für die registrierten Merkmale aus den sechs berücksichtigten Nachbar-<br />

bildern. Jeder Ortsvektor ist durch ein Kreuz an seinem Endpunkt repräsentiert. Der<br />

angegebene Index gibt die Position relativ zum Basisbild an. Negative Werte beziehen<br />

sich auf zeitlich zurückliegende Bilder, positive bezeichnen vorausliegende Bilder. Die<br />

Anzahl der Merkmale nimmt wie durch Überlegungen in Abschnitt 4.6.2 erwartet, mit<br />

steigendem Betrag des Index ab. Einzelne verstreute Kreuze stammen von Ausreißern,<br />

die demzufolge zu Fehlern in der Superposition führen. Je größer der Betrag von Be-<br />

wegungsvektoren ist, desto größer ist auch die Unschärfe in der Bewegungsschätzung.<br />

Eine theoretische Abschätzung dieser Beobachtung und Überlegungen zur Trennung<br />

der vielfältigen Einflüsse bleibt jedoch weiterführenden Arbeiten überlassen.


164 4.6. AUFLÖSUNGSSTEIGERUNG DURCH SUPERPOSITION<br />

Abbildung 4.20: Ortsvektoren der registrierten Bewegungen in den berücksichtigten Bildern<br />

für die Superposition der Sequenz ALU mit NI = 6 und NM = 3200 (vgl. Ausschnitt (g) in<br />

Abb. 4.17). Jeder Kreuzungspunkt steht für ermittelten Bewegungsvektor eines Merkmals. Für<br />

die Menge aller Vektoren eines Bildpaars gibt jeweils die Bezeichnung im Rechteck den Index<br />

des Bilds in der Sequenz (z. B. k-2 bezeichnet das zweite Bild vor dem definierten Basisbild)<br />

und den Umfang an Merkmalen an, die in diesem Bild registriert wurden.<br />

Um den relevanten Bereich der Parameter NI und NM zu untersuchen, wurde die<br />

Anzahl der Bilder zwischen 0 und 20 und die Menge der Merkmale in exponentiellen<br />

Schritten zwischen 200 und 6400 variiert:<br />

N = {0; 2; 4; 6; 8; 10; 12; 14; 16; 18; 20}<br />

F = {200; 400; 800; 1600; 3200; 6400} .<br />

Abbildung 4.21 zeigt die mittlere Betragssdifferenz (MAD) zwischen den superpo-<br />

sitionierten Bildern und der Grundwahrheit. Jede Kurve stellt die Ergebnisse für eine<br />

konstante Anzahl von benachbarten Bildern dar. Erwartungsgemäß sinkt die Differenz<br />

vom ursprünglich einheitlichen Wert MAD (NI,0) = MAD (0,NM) = 8, 67 desto schnel-<br />

ler, je mehr Bilder für die Kombination zur Verfügung stehen. Dies ist gleichbedeutend<br />

mit einer Artefaktreduktion oder einem Zuwachs an Detailinformation im Bild. Bei ge-<br />

nauer Betrachtung ist zu erkennen, dass die Kurven für NI ≥ 6 keinen großen Abstand<br />

untereinander mehr aufweisen. Da sich diese Tendenz auch für NI > 12 fortsetzt, sind<br />

in dieser Darstellung die entsprechenden Kurven der Übersichtlichkeit wegen nicht<br />

aufgeführt.


4.6. AUFLÖSUNGSSTEIGERUNG DURCH SUPERPOSITION 165<br />

MAD [Grauwerte]<br />

9<br />

8.5<br />

8<br />

7.5<br />

7<br />

6.5<br />

0 Bilder<br />

2 Bilder<br />

4 Bilder<br />

6 Bilder<br />

8 Bilder<br />

10 Bilder<br />

12 Bilder<br />

6<br />

0 1000 2000 3000 4000 5000 6000 7000<br />

Anzahl der Merkmale<br />

Abbildung 4.21: Mittlere Betragsdifferenz (MAD) der durch Superposition aufbereiteten ALU-<br />

Bilder (vgl. Abb. 4.17) zum Original. Jede Kurve stellt die Ergebnisse für eine konstante Anzahl<br />

von benachbarten Bildern dar.<br />

MAD [Grauwerte]<br />

9<br />

8.5<br />

8<br />

7.5<br />

7<br />

6.5<br />

6<br />

100 Merkmale<br />

200 Merkmale<br />

400 Merkmale<br />

800 Merkmale<br />

1600 Merkmale<br />

3200 Merkmale<br />

6400 Merkmale<br />

5.5<br />

0 2 4 6 8 10 12 14 16 18 20<br />

Anzahl berücksichtigter Bilder<br />

Abbildung 4.22: Mittlere Betragsdifferenz (MAD) der durch Superposition aufbereiteten ALU-<br />

Bilder (vgl. Abb. 4.17) zum Original. Jede Kurve stellt die Ergebnisse für eine konstante Anzahl<br />

an Merkmalen dar.


166 4.6. AUFLÖSUNGSSTEIGERUNG DURCH SUPERPOSITION<br />

Deutlicher wird der angedeutete Effekt der Sättigung bei der alternativen Darstel-<br />

lung der Abweichung zwischen Original und Rekonstruktion gemäß Abbildung 4.22.<br />

Hier steht jede Kurve für eine definierte Anzahl an Merkmalen. Bei allen Kurven ist<br />

eine deutliche Abnahme der Abweichung bis NI = 6 zu erkennen. Bis zu dieser An-<br />

zahl an zusätzlich berücksichtigten Bildern liegt die relative Abnahme der Abweichung<br />

MAD (NI,NM) bei mindestens 5%. Eine weitere Erhöhung von NI hat keinen relevanten<br />

Einfluss mehr auf die Steigerung der Bildqualität. Diese Beobachtung bestätigt den<br />

visuellen Eindruck der Sättigung bei der Verbesserung der Ausschnitte (i) bis (l) in<br />

Abbildung 4.17.<br />

Der beobachtete Effekt der Sättigung steht nicht im Widerspruch zur theoretischen<br />

Betrachtung des Flächenabtastverhaltens eines Glasfaserbündels (vgl. Abschn. 3.5).<br />

Allerdings können die konkreten Werte nicht alleine auf die effektive Abtastfläche zu-<br />

rückgeführt und damit quantitativ erklärt werden. Zu viele Einflussfaktoren treffen hier<br />

zusammen bzw. können nicht ausreichend voneinander getrennt werden. So nimmt<br />

beispielsweise die Anzahl an validen Merkmalen von Bild zu Bild ab, der Faserab-<br />

stand fließt in die Definition der zu interpolierenden Zwischenfläche ein und die Be-<br />

wegungsschätzung kann nicht ohne größeren Aufwand präzise evaluiert werden. Au-<br />

ßerdem müssen die unterschiedliche Auflösung und Anordnung zwischen Faserbündel<br />

und Kamerasensor sowie die gegebene Auflösungsgrenze durch die Ausgangsbildgrö-<br />

ße berücksichtigt werden. Für eine Absicherung und Verallgemeinerung dieser Aus-<br />

sagen sind weitere Untersuchungen notwendig, die jedoch den Rahmen dieser Arbeit<br />

überschreiten.<br />

4.6.4 Vergleich registrierter Aufnahmen zwischen starrem und fle-<br />

xiblem Endoskop<br />

Die Einführung in Abschnitt 3.1 schildert die Schwierigkeiten beim Versuch, eine Sze-<br />

ne gleichartig mit einem faseroptischen und einem linsenstarren Endoskop zu erfassen,<br />

um die Grundwahrheit für eine quantitative Auswertung zur Verfügung zu stellen. Um<br />

die Ansätze zur Filterung, der Interpolation und der Superposition trotzdem zumindest<br />

visuell mit der qualitativ hochwertigeren Aufnahme durch ein starres Endoskop ver-<br />

gleichen zu können, wird ein alternativer Weg gewählt. Dazu werden die Aufnahmen<br />

mit den verschiedenen Geräten so ähnlich wie möglich durchgeführt und anschließend<br />

eine Registrierung 6 durchgeführt.<br />

6 Registrierung: Hier: Geometrische Transformation von zwei oder mehreren Bildern einer Szene,<br />

um sie bestmöglichst in Übereinstimmung miteinander zu bringen


4.6. AUFLÖSUNGSSTEIGERUNG DURCH SUPERPOSITION 167<br />

(a) Original (Starr) (b) Registriert (Starr) (c) Original (Faser)<br />

(d) Filterung (e) Interpolation (f) Superposition<br />

Abbildung 4.23: Linsenstarre endoskopische Aufnahme (Motiv VKT, vgl. Tab. 4.13) mit starrem<br />

Endoskop (a), registrierter Ausschnitt (b) zu den Aufnahmen mit flexiblem Endoskop und ver-<br />

schiedene Aufbereitungen von vergleichbaren faseroptischen Abbildungen, die für den quanti-<br />

tativen Vergleich polynomial zueinander in Übereinstimmung gebracht sind: Originales Faser-<br />

bild (c), sowie das gefilterte (d), das interpolierte (e) und das superpositionierte (f) Ergebnis.<br />

Als Szene wird für die Aufnahme bewusst ein Motiv (VKT, vgl. Tab. 4.13) ge-<br />

wählt, bei dem die Superposition offensichtlich nicht in allen Bereichen zum Erfolg<br />

führt. So können an verschiedenen Bildbereichen die Auswirkungen der präzisen bzw.<br />

fehlerhaften Bewegungsschätzung in vergrößerten Ausschnitten gezeigt werden.<br />

Messungen haben gezeigt, dass die Anwendung von Abstands- und Ähnlichkeits-<br />

maßen auf Basis einer alternativen Aufnahme der Szene (hier mit einem zweiten En-<br />

doskop) keine zuverlässigen Aussagen über die Gesamtgüte erlauben. Das liegt einer-<br />

seits an den abweichenden Helligkeits- und Kontrastverteilungen, die durch die un-<br />

terschiedlichen optischen Beschaffenheiten der Aufnahmesysteme zustande kommen.<br />

Andererseits verursacht bereits ein kleiner Fehler in der Feinregistrierung einen relativ<br />

großen kummulativen Fehler in der Differenzbildung, wenn beispielsweise im Bereich<br />

von Hell-Dunkel-Übergängen die Grenzen verschoben überlagert werden.<br />

In Abbildung 4.23 sind die Aufnahmen und Resultate der Bildaufbereitung für das<br />

gewählte Motiv VKT visualisiert. (a) zeigt die Aufnahme mit dem starren Endoskop


168 4.6. AUFLÖSUNGSSTEIGERUNG DURCH SUPERPOSITION<br />

(a) A in Abb. 4.23(b) (b) A in Abb. 4.23(d) (c) A in Abb. 4.23(f)<br />

(d) B in Abb. 4.23(b) (e) B in Abb. 4.23(d) (f) B in Abb. 4.23(f)<br />

Abbildung 4.24: Vergrößerte Ausschnitte aus den Restaurierungsergebnissen (vgl. Abb. 4.23).<br />

(a) und (d) zeigen die Ausschnitte in der Aufnahme des starren Endoskops. Eine vergleichsweise<br />

präzise Bewegungsschätzung in Ausschnitt A führt zu einer Verbesserung der Darstellung durch<br />

Superposition (c) gegenüber der Filterung (b). Bei fehlerhafter Bewegungsschätzung sind im<br />

Ergebnis der Superposition (f) deutliche Bildstörungen zu erkennen.<br />

ohne Fasern und (c) gibt die faserendoskopische Aufnahme wieder. Trotz ähnlicher<br />

optischer Parameter der beiden Endoskopsysteme ist eine geometrische Abweichung<br />

der Bildinhalte (Verzerrung) in den Aufnahmen zu erkennen. Der Ausschnitt (a) wird<br />

deshalb erst zu den faseroptischen Aufnahmen registriert (b). (d) zeigt das Resultat<br />

nach Filterung, (e) gibt das Ergebnis der Interpolation wieder und (f) bezieht sich auf<br />

die Superposition von sechs benachbarten Bildern mit max. 1.800 Merkmalen.<br />

Eine Ursache für die Unzuverlässigkeit von Aussagen aus quantitativen Verglei-<br />

chen und die Unterschiede in der Aufbereitung werden besonders deutlich, wenn an<br />

zwei typischen Ausschnitten A und B (vgl. Abb. 4.23) die Bewegungsvektoren der<br />

korrespondierenden Merkmale unter die Lupe genommen werden und damit die ent-<br />

sprechenden vergrößerten Ausschnitte aus den aufbereiteten Bildern in Abbildung 4.24<br />

interpretiert werden. Abbildung 4.25 visualisiert diese Bewegungsvektoren von Merk-<br />

malen als Pfeile im Resultat der Filterung (vgl. Abb. 4.23(d)). Dabei bedeutet der Start-<br />

punkt jedes Pfeils die Position eines Merkmals im Basisbild und der Endpunkt gibt die<br />

geschätzte Position dieses Merkmals im benachbarten Bild an, das hier des Umfangs<br />

wegen nicht abgebildet ist. Mit dieser qualitativen Darstellung in Pfeilform kann das<br />

Ergebnis der Bewegungsschätzung in einer lokalen Umgebung interpretiert werden.


4.6. AUFLÖSUNGSSTEIGERUNG DURCH SUPERPOSITION 169<br />

(a) (b) Ausschnitt A (c) Ausschnitt B<br />

Abbildung 4.25: Korrespondenzen von Merkmalen, die als Pfeile im Resultat der Filterung<br />

(vgl. Abb. 4.23(d)) und zwei vergrößerten Ausschnitten A und B dargestellt sind.<br />

Die Richtung der Pfeile in Ausschnitt A (vgl. Abbildung 4.25(b)) ist unter Berück-<br />

sichtigung einer tolerierten Abweichung durch die radiale Verzerrung (Weitwinkelop-<br />

tik) relativ homogen. Entsprechend positiv wirkt sich die Überlagerung dieser Merk-<br />

male im Ergebnis der Superposition aus (vgl. Abb. 4.24(c)). Im Bereich A, also bei<br />

präziser Bewegungsschätzung, ist die Superposition der Filterung überlegen, die zwar<br />

das Signal glättet, jedoch keine Zwischenabtastwerte zur Präzisierung des Signals er-<br />

laubt.<br />

Bei den Richtungen der Pfeile in Ausschnitt B (vgl. Abbildung 4.25(c) ist unter-<br />

einander eine größere Abweichung zu beobachten. Der zugrundeliegende Algorithmus<br />

zeigt offensichtlich bei der Bewegungsschätzung Schwierigkeiten, die sich hier auch<br />

gravierend im visuellen Resultat niederschlagen (Abb. 4.24(f)). Die Filterung zeigt<br />

zwar ebenfalls in der Vergrößerung (Abb. 4.24(e)) Defizite, beispielsweise bei der Dar-<br />

stellung der geraden Geometrie des „l“, allerdings sind keine expliziten Störstellen zu<br />

beobachten, wie bei den falsch zugeordneten Bewegungsvektoren für die Superpositi-<br />

on im Bereich B (vgl. Abb. 4.25(c)).<br />

Fazit Es ist schwierig, für eine quantitative Aussage eine alternative reale Aufnahme<br />

als Grundwahrheit zu verwenden. Fehlerquellen liegen u.a. in der notwendigen geo-<br />

metrischen Transformation zur Registrierung und der Unsicherheit über die Gleicheit<br />

optischer Parameter. In Verbindung mit einer visuellen Interpretation erscheinen die<br />

Resultate jedoch plausibel. Die Präzision in den Ergebnissen der Bewegungsschätzung<br />

erklärt die Unter- oder Überlegenheit der Superposition gegenüber der Filterung und<br />

unterstreicht damit die Bedeutung dieser Einflussgröße.


170 4.7. ECHTZEIT-FÄHIGKEIT DER ANSÄTZE<br />

4.7 Echtzeit-Fähigkeit der Ansätze<br />

Der Begriff Echtzeit wird im Kontext dieser Arbeit für eine flüssige Darstellung aus<br />

Sicht eines menschlichen Betrachters verwendet, also mit einer Bildrate von etwa 20<br />

bis 30 Bildern pro Sekunde.<br />

Nicht alle in Kapitel 3 vorgestellten Komponenten erfordern eine Ausführung in<br />

Echtzeit: Die Fasermodellierung (vgl. Abschn. 3.1.1) dient lediglich quantitativen Un-<br />

tersuchungen und der initiale Kalibrierschritt für die Restaurierungsansätze muss im<br />

Vorfeld nur einmal durchgeführt werden (vgl. Abschn. 3.2.1.2 und Abschn. 3.2.2.1).<br />

Zeitkritisch sind hingegen die für jedes Bild notwendigen Operationen der Filterung<br />

(vgl. Abschn. 3.2.1.1), der Interpolation (vgl. Abschn. 3.2.2.2), der Farbkorrektur (vgl.<br />

Abschn. 3.3), der Überlagerung für Superposition (vgl. Abschn. 3.5.6) und evtl. einer<br />

Nachkalibrierung (vgl. Abschn. 3.4).<br />

Die eingangs geforderte Bildrate für Echtzeit wird von den derzeitigen Imple-<br />

mentierungen auf aktuellen Rechnern 7 bislang nicht erreicht. Die tatsächliche Bildrate<br />

hängt bei der Interpolation maßgeblich von der Anzahl der Bildpunkte im Ausgangs-<br />

bild ab, die aus den zur Verfügung stehenden Faserstützstellen interpoliert werden<br />

müssen. Für ein Auflösungsverhältnis von 800 × 600 Bildpunkten aus 12.000 Fasern<br />

erreicht der Algorithmus auf dem PC eine Bildrate zwischen drei und vier Bilder pro<br />

Sekunde. Das Überlagern von mehreren Bildern verlangsamt den Algorithmus über-<br />

proportional, da zusätzlich die Bewegungsschätzung durchgeführt werden muss und<br />

die sonst einmalig kalibrierte Gitterstruktur durch weitere Stützstellen sukzessive er-<br />

weitert werden muss. Die Qualitätssteigerung eines Bilds aus einer Sequenz von zehn<br />

Bildern erfordert für das genannte Auflösungsverhältnis derzeit eine Berechnungszeit<br />

von 15 bis 30 Sekunden, je nach Anzahl der Korrespondenzen, die zwischen den Bil-<br />

dern berücksichtigt werden.<br />

Um trotzdem eine Echtzeit-Bildrate zu erreichen, wird die zusätzliche Verwendung<br />

geeigneter Hardware-Komponenten vorgeschlagen. Am Beispiel der Interpolation mit<br />

Nachkalibrierung konnte eine Beschleunigung um den Faktor Zehn auf etwa 30 Bilder<br />

pro Sekunde erreicht werden [Hir07], indem die zeitkritischen Berechnungen von der<br />

Grafikkarte (GPU) unterstützt werden. Diese Hardware-Erweiterung ist fast in jedem<br />

handelsüblichen Arbeitsplatzrechner zu finden oder kostengünstig (200 − 400 Euro)<br />

nachzurüsten und kann mittlerweile durch eine effiziente Programmierschnittstelle für<br />

nahezu beliebige Operationen genutzt werden. Wird die Interpolation von der GPU<br />

7 Intel Core 2 Duo 1,86GHz, 1GB Arbeitsspeicher


4.7. ECHTZEIT-FÄHIGKEIT DER ANSÄTZE 171<br />

ausgeführt, bleibt für die Recheneinheit im Arbeitsplatzrechner (CPU) ausreichend<br />

Zeit, um im Abstand einiger Bilder jeweils die Nachkalibrierung durchzuführen.<br />

Eine weitere Möglichkeit zur Beschleunigung der Verfahren und Entlastung der<br />

CPU besteht in der Integration der Algorithmen auf einer sog. intelligenten Kame-<br />

ra, deren Hardware bereits programmierbare Bausteine enthält, die oft für grafische<br />

Rechenoperationen optimiert sind. Die SmartCam, eine Entwicklung des Fraunhofer<br />

IIS, bietet die Möglichkeit, Algorithmen zur Bildbearbeitung völlig autark von einem<br />

PC-basierten Rechensystem direkt in der Kamera durchzuführen.


5<br />

5.1 Zusammenfassung<br />

173<br />

Zusammenfassung und<br />

Ausblick<br />

Die Recherche von Anwendunggebieten in Medizin und Technik (vgl. Abschn. 2.2)<br />

zeigt die aktuelle Bedeutung der faseroptischen Endoskopie trotz Konkurrenz durch<br />

die qualitativ hochwertigere Videoendoskopie (vgl. Abschn. 1.2.1). Für die Analyse<br />

von Oberflächen in schwer zugänglichen Hohlräumen technischer und menschlicher<br />

Natur spielt die präzise Wiedergabe von Strukturen und Farbinformation eine große<br />

Rolle. Zur Darstellung auf einem Monitor oder für die Digitalisierung der Aufnahmen<br />

wird an das Okular eines Endoskops eine Farbkamera montiert (vgl. Abschn. 2.3.1).<br />

Speziell für Fiberskope wird zunächst das Abtastverhalten eines Bildleiters auf Ba-<br />

sis von Glasfasern untersucht und mit einem physikalisch motivierten Abbildungsmo-<br />

dell beschrieben (vgl. Abschn. 3.1.1). Die physikalischen Eigenschaften der Lichtüber-<br />

tragung einer einzelnen Glasfaser führen näherungsweise zu einer Gauss-förmigen In-<br />

tensitätsverteilung auf dem Kamerasensor (vgl. Abschn. 2.3.1). Aufgrund der hexago-<br />

nalen Bündelung vieler dieser Fasern erhält eine Abbildung nach Übertragung durch<br />

einen Bildleiter ein charakteristisches Wabenmuster. Als Folge wird die Homogeni-<br />

tät im Bild gestört und die ungleichmäßige Aktivierung von Bildelementen auf dem<br />

Farbmosaik des Sensors führt zu falschen Farbwerten (vgl. Abschn. 2.3.3). Das beein-<br />

trächtigt sowohl die menschliche visuelle Wahrnehmung, als auch die digitale Weiter-<br />

verarbeitung durch eine Maschine.<br />

Die Arbeit beschäftigt sich mit verschiedenen Verfahren, die es erlauben, faser-<br />

optisch gewonnene Aufnahmen automatisiert von der Wabenstruktur zu befreien sowie<br />

darüber hinaus ihre Bildqualität zu verbessern und partiell ihren Informationsgehalt zu<br />

steigern. Die Grundlage dazu bilden zwei Verfahren zur Restaurierung, und zwar die<br />

Filterung (vgl. Abschn. 3.2.1) und die Interpolation (vgl. Abschn. 3.2.2). Die Filterung


174 5.1. ZUSAMMENFASSUNG<br />

nutzt angepasste Frequenzmasken, um hochfrequente Signalanteile der Wabenstruktur<br />

vom Bildsignal zu trennen. Untersuchungen zeigen einen geringen, jedoch messba-<br />

ren Unterschied bei der Nutzung der rotationsvarianten und der -invarianten Form der<br />

Maske (vgl. Abschn. 4.3). Die Interpolation restauriert ein wabenfreies Bild aus subpi-<br />

xelgenau bestimmten Stützstellen, die jeweils eine Faserintensität repräsentieren. Für<br />

einen Vergleich dieser beiden Restaurierungsverfahren mit Hilfe von Differenz- und<br />

Ähnlichkeitsmaßen wird das eingangs beschriebene Modell der Faserbildübertragung<br />

genutzt, um die zugrunde liegende Szene als Grundwahrheit zur Verfügung zu stellen<br />

(vgl. Abschn. 3.1.1).<br />

Eine Stärke der Filterung liegt in der Möglichkeit, präzise Grenzfrequenzen für die<br />

Ermittlung der exakten Masken im Sinne einer optimalen Signalverarbeitung zu wäh-<br />

len. Die Bildrestaurierung kann mit einer rotationsvarianten Maske robust gegenüber<br />

Verschiebungen zwischen Endoskop und Kamera durchgeführt werden. Die resultie-<br />

renden Bilder zeigen im Vergleich mit interpolierten Aufnahmen kaum Strukturarte-<br />

fakte, da nach der Theorie der Filterung der bandbegrenzte Signalverlauf durch über-<br />

lagerte sinc-Funktionen rekonstruiert wird. Quantitative Auswertungen zeigen, dass<br />

gefilterte Bilder für solche Anwendungen prädestiniert sind, die auf Grauwertbildern<br />

basieren, wie z. B. eine Raumrekonstruktion aus monokularen Bildsequenzen. Vergli-<br />

chen mit der Interpolation berücksichtigt die Filterung jedoch nicht die Position und<br />

Helligkeit einzelner Faserzentren. Deshalb resultieren durch die Filterung Bilder mit<br />

geringerer Intensitätsdynamik und Moiré-artigen Farbartefakten.<br />

Die Interpolation ist dagegen in der Lage, diese Falschfarben zu korrigieren. Da-<br />

zu werden in einem Kalibrierschritt die Positionen der Faserzentren subpixelgenau<br />

bestimmt. Unter Berücksichtigung ihrer Abbildungseigenschaft kann damit für jede<br />

Faser der betroffene Bereich auf dem Farbmosaik des Kamerasensors analysiert und<br />

ein Korrekturfaktor berechnet werden. Mit diesem Korrekturfaktor kann dann einma-<br />

lig eine Wertetabelle angelegt werden und damit beliebige weitere Bilder hinsichtlich<br />

Farbe und globaler Schattierung korrigiert werden. Allerdings ist die Interpolation an-<br />

fällig auf Verschiebungen zwischen Endoskop und Kamera. Einen Ausweg stellt die<br />

sog. dynamische Nachkalibrierung dar, mit der die Positionen der Faserzentren bei<br />

Verschiebung nachgeführt werden können (vgl. Abschn. 3.4).<br />

Die durch die Interpolation eingebrachten Strukturartefakte können durch Zwi-<br />

schenabtastung reduziert werden. Dazu eignet sich ein adaptierter Ansatz zur Super-<br />

position (vgl. Abschn. 3.5), der nichtredundante Information aus zeitlich benachbarten<br />

Bildern zusammenführt. Theoretische Überlegungen zur Flächenabtastung einer Faser<br />

auf der Basis des verwendeten Abbildungsmodells zeigen die prinzipiellen Voraus-<br />

setzungen und Grenzen dieses Vorgehens (vgl. Abschn. 3.5.2). Dazu wird ein Mess-


5.2. AUSBLICK 175<br />

verfahren vorgeschlagen, um die entscheidende Größe, die sog. effektive Fläche ab-<br />

zuschätzen (vgl. Abschn. 3.5.3). Bei der Abbildung durch ein handelsübliches Glas-<br />

faserendoskop mit 12.000 Einzelfasern auf einen Sensor mit 640 × 480 Bildpunkten<br />

(VGA-Auflösung) beträgt der mittlere Faserabstand etwa vier Bildpunkte. Interpolierte<br />

Bildbereiche, die zwischen den Faserzentren liegen, können durch versetzte Abtastun-<br />

gen präzisiert werden. Darüber hinaus beträgt die mögliche Erhöhung der informati-<br />

onstragenden Bildpunkte, z.B. in Form einer dichteren oder größeren Darstellung des<br />

Bilds nach Gleichung (3.21) etwa 40%.<br />

Da die Superposition für faseroptisch erfasste Aufnahmen auf der vorhin beschrie-<br />

benen Interpolation basiert, vereint sie deren Vorteile der Farbkorrektur und faserge-<br />

nauen Intensitätsbestimmung mit der Möglichkeit, Strukturartefakte und Verdeckun-<br />

gen im Faserbild durch Kombination mehrerer Aufnahmen zu kompensieren. Mehrere<br />

Beispiele in Abschnitt 4.6 belegen den Fortschritt durch die Superposition, zeigen je-<br />

doch auch deren Grenzen (vgl. Abschn. 4.6.4), die in erster Linie von der Präzision<br />

der Bewegungsschätzung abhängen, die wiederum eine hohe Strukturdichte im Bild<br />

erfordert.<br />

5.2 Ausblick<br />

Die erzielten Ergebnisse aus der Verbesserung und Erweiterung von Ansätzen zur au-<br />

tomatischen Restaurierung und Auflösungssteigerung von faseroptischen Aufnahmen<br />

werfen eine ganze Reihe von interessanten Fragen und weiterführenden Ideen auf. Der<br />

folgende Ausblick motiviert Anknüpfungspunkte zu den erarbeiteten Aspekten und<br />

schildert abschließend die Herausforderungen und Einsatzmöglichkeiten der Verfah-<br />

ren in zwei zukünftigen Projekten.<br />

Kalibrierung Alle vorgestellten und erweiterten Verfahren, die auf der Interpola-<br />

tion von faseroptischen Bilddaten basieren, erfordern eine initiale Kalibrierung (vgl.<br />

Abschn. 3.2.2.1). Damit der Anwender, z. B. ein Arzt im Operationssaal,diesen Schritt<br />

unkompliziert und schnell durchführen kann, muss ein Kalibrierkörper geschaffen wer-<br />

den, der die Spitze des flexiblen Endoskops definiert aufnimmt und eine diffuse Be-<br />

leuchtungsatmosphäre schafft. Damit kann die Unsicherheit der manuellen Ausrich-<br />

tung und Belichtung der Endoskopoptik umgangen werden. Durch die homogene Be-<br />

leuchtung der Fasern im Querschnitt des Bildbündels kann die Qualität der interpolier-<br />

ten Bilder optimiert werden.


176 5.2. AUSBLICK<br />

Kameratechnik für medizinische Anwendungen Abschnitt 3.3 zeigt die Ursache<br />

und eine wirklungsvolle Maßnahme zur Reduzierung der Farbartefakte bei der Nut-<br />

zung von Farbkameras mit Farbfiltermosaik auf. In der Kameratechnik werden typi-<br />

scherweise die Verteilungen Rot-Grün-Grün-Blau oder Cyan-Gelb-Magenta-Grün ge-<br />

nutzt, weil sie der Sensibilität des menschlichen Auges am nähesten kommen. Für viele<br />

medizinische Anwendungen ist jedoch eine höhere Abtastung durch rote Farbelemen-<br />

te wünschenswert, also z. B. Rot-Grün-Blau-Rot. Diese Betonung der Wellenlänge des<br />

roten Lichts hätte eine bessere Farbdarstellung von Blut und körperinneren Gewebe-<br />

texturen zur Folge und würde sich damit positiv auf die Farbdarstellung von medizi-<br />

nisch relevanten Merkmalen auswirken. Allerdings darf der technische Aufwand nicht<br />

unterschätzt werden, der den Einsatz solcher Farbfilterfelder aufgrund einer geringen<br />

Stückzahl bei der Fertigung und dem Einsatz zunächst unwirtschaftlich macht.<br />

Lichtempfindlichkeit Bei der Inspektion von engen Hohlräumen bewegt sich die<br />

Spitze des Endoskops oft relativ stark in Richtung der Objektwand. Da die Beleuchtung<br />

an der Spitze des Endoskops mitgeführt wird, verhält sich die Intensität des reflektier-<br />

ten Lichts auf dem Kamerasensor in erster Näherung quadratisch zum Arbeitsabstand.<br />

Durch diese relativ großen Schwankungen in der Helligkeit erscheinen Aufnahmen oft<br />

unterbelichtet oder durch eine Überempfindlichkeit des Sensors überstrahlt. Für die au-<br />

tomatische Anwendung der Bildrestaurierung ist deshalb eine Rückkopplung notwen-<br />

dig, die eine Verstärkung oder Dämpfung in der Elektronik der Kamera automatisch<br />

reguliert (Moderne, teure Lichtquellen unterstützen eine entsprechende Rückkopplung<br />

sogar für die Lichtleistung). Bei der Filterung kann dies beispielsweise eine Schwelle<br />

bezüglich des bildweiten Mittelwerts sein, bei der Interpolation stehen dafür die Spit-<br />

zenwerte der registrierten Faserintensitäten zur Verfügung.<br />

Evaluierung Die beschriebenen Methoden und Kriterien zur Evaluierung decken ei-<br />

ne Reihe von Möglichkeiten zur Beurteilung der Qualität und Leistungsfähigkeit der<br />

Bildrestaurierung ab. Bei der anwendungsbezogenen Auswertung der 3D-Rekonstruk-<br />

tion wird eine einfache geometrische Struktur verwendet, um die resultierenden Ob-<br />

jektpunkte ins Verhältnis zur originalen räumlichen Struktur setzen zu können. Un-<br />

abhängig von der Objektstruktur könnte die Güte der Rekonstruktion auch über die<br />

Konstanz eines äquidistant geführten Kamerapfads bemessen werden. Hierfür muss<br />

sichergestellt werden, dass das Endoskop z. B. mit einem Roboter in konstanten Ab-<br />

ständen durch die Szene bewegt wird. Der rekonstruierte Kamerapfad kann folglich<br />

am Verlauf einer Geraden gemessen werden.


5.2. AUSBLICK 177<br />

Verbesserung der Interpolation Die Ansätze zur Interpolation (vgl. Abschn. 3.2.2)<br />

sowie deren Erweiterungen zur farbartefaktfreien Restaurierung (vgl. Abschn. 3.3) und<br />

Auflösungssteigerung (vgl. Abschn. 3.5) nutzen eine baryzentrische Gewichtung, um<br />

die möglicherweise ungleichverteilten Faserpunkte in eine kartesische Bildmatrix um-<br />

zurechnen. Bei dieser Interpolation entstehen gegenüber der Filterung Strukturartefak-<br />

te, da dem bandbegrenzten Signal stetige, jedoch undifferenzierbare Verläufe hinzuge-<br />

fügt werden. In Analogie zur Restaurierung eines eindimensionalen Signals mit sinc-<br />

Funktionen ist ein kombiniertes Verfahren vorstellbar, das die ermittelten Stützstellen<br />

durch geeignete 2d-Funktionen restauriert. Problematisch dabei scheint die ungleich-<br />

mäßige Abtastung und die Interferenz, die beim Überlagern von 2d-Sinc-Glocken ent-<br />

steht. Außerdem berücksichtigt die baryzentrische Gewichtung keinerlei Struktur der<br />

Bildinhalte außerhalb der unmittelbar angrenzenden Nachbarstützstellen. Ein Ansatz<br />

zur Kantenerhaltung könnte einen Beitrag zur schärferen Repräsentation von kontrast-<br />

reichen Verläufen innerhalb der Apertur liefern. Hierfür kann die Information von lo-<br />

kalen Gradienten zwischen den registrierten Stützstellen genutzt werden, die eine Aus-<br />

sage über die Vorzugsrichtung in der betrachteten Umgebung macht.<br />

Bislang wird jeder Bildpunkt mit einer Quantisierung von 8 Bit repräsentiert. Für die<br />

Faserregistrierung, die keinen zeitkritischen Vorgang in der Kette der Interpolation dar-<br />

stellt, wäre eine Berechnung auf Basis der qualitativ hochwertigsten, vom Sensor zur<br />

Verfügung gestellten Auflösung (z. B. 12 oder 14 Bit) denkbar. Es ist zu erwarten, dass<br />

dies das Signal-Rausch-Verhältnis erhöht und für die Fasercharakterisierung zu präzi-<br />

seren Parametern bezüglich Postition und Varianz der eingepassten Gauß-Verteilungen<br />

führt. Eine erste Untersuchung hat jedoch keine sichtbare Verbesserung in den restau-<br />

rierten Bildern ergeben, weshalb die Bestrebung in diese Richtung in dieser Arbeit<br />

nicht weiter verfolgt wurde.<br />

Abtastung und Messverfahren zur effektiven Abtastfläche Über die Theorie zur<br />

Flächenabtastung werden die Grenzen einer möglichen Auflösungsteigerung abge-<br />

schätzt. Eine entsprechende Betrachtung der Abtasttheorie für die hexagonale Arith-<br />

metik könnte Erkenntnisse zur Optimierung der Interpolation bringen. Es stellt sich die<br />

Frage, inwiefern sich die Theorie zur Rekonstruktion eines bandbegrenzt abgetasteten<br />

Signals auf die zweidimensionale Arithmetik mit hexagonaler Orientierung übertragen<br />

lässt. Dazu muss die Überlagerung zweidimensionaler sinc-Funktionen betrachtet und<br />

analysiert werden.<br />

Bei der Aufnahme von Messkurven zur Analyse des Flächenabtastverhaltens einer Fa-<br />

ser fällt der unterschiedliche Verlauf von abfallenden gegenüber ansteigenden Flanken<br />

auf. Diese Diskrepanz wird bislang auf das Streulicht zurückgeführt, das der helle auf


178 5.2. AUSBLICK<br />

den dunklen Bereich des Schwarz-Weiß-Übergangs wirft. Um die Simulation damit zu<br />

erweitern, muss diesem Effekt noch weiter nachgegangen werden.<br />

Beschleunigung In Abschnitt 3.4 wurde beschrieben, wie sich der Einsatz von han-<br />

delsüblicher Grafik-Hardware eignet, um die Bildrestaurierung zu beschleunigen. Auf-<br />

grund der hohen Parallelisierbarkeit der Algorithmen liegt ein großes Potenzial in der<br />

Nutzung dedizierter Hardware, wie z. B. einer Kombination aus FPGA und DSP oder<br />

eines eingebetteten Rechensystems. Durch eine solche Unterstützung wäre es auch<br />

denkbar, die Ausführungsgeschwindigkeit der Superposition in eine Größenordnung<br />

zu bringen, dass sich eine geringe Detailsteigerung bereits in Echtzeit erreichen lässt.<br />

Der derzeitige Algorithmus dient dem Nachweis der Machbarkeit und eignet sich in<br />

dieser Implementierung lediglich zur nachträglichen Aufbereitung von archivierten<br />

Bildsequenzen, die z. B. mobil im Feld aufgezeichnet wurden.<br />

Einsatz in Grenzflächen- und Bioverfahrenstechnik In der Medizintechnik und<br />

zunehmend auch in der Pharmazie spielen Membranen eine bedeutende Rolle. Unter<br />

anderen beschäftigt sich das Fraunhofer IGB mit sog. Hohlfasermembranen, die sich<br />

wegen des sehr günstigen Verhältnisses von Oberfläche zu Membranvolumen zuneh-<br />

mend durchsetzen. Seit Beginn dieser Entwicklung besteht ein starkes Interesse, den<br />

Zustand der Hohlfasern optisch zu überprüfen und die darin stattfindenden Prozesse<br />

während des Vorgangs zu beobachten und zu kontrollieren (vgl. Abb. 5.1). Ein minia-<br />

turisiertes faserbasiertes Endoskopsystem ist in der Lage, Messtechniken zu unterstüt-<br />

zen, die nicht nur eine fotografische oder mikroskopische Aufnahme der Innenober-<br />

flächen ermöglichen, sondern auch weitere Informationen über deren Beschaffenheit<br />

sammeln, z. B. über Temperaturmessungen, Materialspektroskopie oder Konzentrati-<br />

onsmessungen. Grundlage hierfür ist eine ausreichende Bildqualität der Mikroendo-<br />

skope mit vergleichsweise niedriger Faseranzahl, für die die vorgestellte Bildrestaurie-<br />

rung einen wichtigen Beitrag leisten kann. Neben den Anwendungen in der Medizin-<br />

technik und der Membrantechnik ist auch ein Einsatz in der Prozesskontrolle beim sog.<br />

Downstream Processing 1 innerhalb der Pharmaindustrie und Katalyseanwendungen in<br />

der Biochemie denkbar.<br />

Anwendung mit Bewegungsschätzung Die Minimal Invasive Chirurgie (MIC) gilt<br />

wegen des schonenden operativen Zugangs und verkürzten Aufenthaltszeiten der Pa-<br />

tienten zu den wichtigsten Methoden der modernen Chirurgie. Allerdings beeinträch-<br />

1 Downstream Processing: Verfahren zur Abtrennung eines Produktes aus der Produktlösung


5.2. AUSBLICK 179<br />

(a) (b)<br />

Abbildung 5.1: Querschnitt einer Hohlfasermembran, die zur Trennung von Wasserdampfmo-<br />

lekülen aus der Luft eingesetzt wird (Abb. mit freundlicher Genehmigung vom Fraunhofer IGB).<br />

Ein dünnes flexibles Endoskop mit einem Arbeitsdurchmesser von einem Millimeter ist zur<br />

Hälfte in eine poröse Hohlraummembran eingeführt (b). Durch das semitransparente Material<br />

der Röhre dringt das Licht der integrierten Beleuchtung nach außen.<br />

tigt der minimale Zugang die Wahrnehmungs- und Handlungsfähigkeit des Chirurgen<br />

und macht das Anwendungsspektrum der MIC von technischen Hilfsmitteln abhängig.<br />

Aktuell lassen sich aus medizinischer Sicht wesentlich mehr MIC-Eingriffe vorstel-<br />

len, als mit den vorhandenen technischen Hilfsmitteln praktisch ausführbar sind. Ein<br />

Beispiel sind sog. NOTES Eingriffe (Natural Orifice Trans-Endoscopic Surgery). Mit<br />

dem Forschungsprojekt Whole-O-Hand der Fraunhofer Gesellschaft sollen verschie-<br />

dene Technologien in ein MIC-Gesamtsystem integriert werden, das die bildbasierte<br />

Computer Assistierte Diagnose (CAD) mit den Funktionen intelligenter, miniaturisier-<br />

ter Assistenzsysteme verbindet. Die Navigation des Endoskops im Bauch des Patienten<br />

spielt beim Entwurf und der Umsetzung der Robotertechnik eine entscheidende Rolle.<br />

Mit den gewonnenen Erkenntnissen zur Bewegungsschätzung in faserendoskopischen<br />

Bildsequenzen können einerseits die Grenzen und Möglichkeiten der endoskopbasier-<br />

ten Navigation abgewogen werden. Andererseits eignet sich das Projekt, um an konkre-<br />

ten medizinischen Aufgabenstellungen und Gewebestrukturen an Oberflächen innerer<br />

Organe die Stabilität und Robustheit von Algorithmen zur lokalen Bewegungsschät-<br />

zung weiter zu evaluieren, was im Rahmen dieser Arbeit noch nicht möglich war.


Abbildungsverzeichnis<br />

181<br />

1.1 Flexible Endoskope . . . . . . . . . . . . . . . . . . . . . . . . . . . 1<br />

1.2 Flexibles Endoskop zur Inspektion technischer Hohlräume . . . . . . 2<br />

1.3 Flexible Endoskopie im Patienten . . . . . . . . . . . . . . . . . . . 3<br />

1.4 Abbildung eines Kalibriertargets durch ein flexibles Endoskop . . . . 7<br />

2.1 Faseroptische Lesehilfe . . . . . . . . . . . . . . . . . . . . . . . . . 12<br />

2.2 Schematischer Aufbau eines flexiblen Endoskops . . . . . . . . . . . 18<br />

2.3 Schematischer Schnitt durch eine optische Faser . . . . . . . . . . . . 19<br />

2.4 Wabenstruktur beim Bildbündel mit Quarzfasern . . . . . . . . . . . 21<br />

2.5 Farbfilter für Einchip-Kameras . . . . . . . . . . . . . . . . . . . . . 22<br />

2.6 Faserabbildung auf Farbfiltermosaik . . . . . . . . . . . . . . . . . . 26<br />

2.8 Entzerrung von endoskopischen Abbildungen . . . . . . . . . . . . . 29<br />

2.9 Kalibrierung inkohärenter Bildbündel . . . . . . . . . . . . . . . . . 33<br />

2.10 Filtermaske nach Dickens et al. . . . . . . . . . . . . . . . . . . . . . 35<br />

2.11 Primitive Farbbildverarbeitung . . . . . . . . . . . . . . . . . . . . . 36<br />

2.12 Nächste-Nachbarn-Interpolation . . . . . . . . . . . . . . . . . . . . 44<br />

3.1 Ablauf der Modellierung einer faseroptischen Abbildung . . . . . . . 49<br />

3.2 Intensitätsverteilung im Querschnitt einer Glasfaser . . . . . . . . . . 51<br />

3.3 Apertur, ROI und Anordnung der Faserzentren . . . . . . . . . . . . . 52


182 ABBILDUNGSVERZEICHNIS<br />

3.4 Faserabstand bei bestimmter Faseranzahl in definiertem Aperturkreis . 53<br />

3.5 Faseroptische Modellierungen eines USAF-Testbilds . . . . . . . . . 54<br />

3.7 Konische Verzerrung in der Rekonstruktion . . . . . . . . . . . . . . 58<br />

3.8 Optimierung des Verzerrungsfaktors . . . . . . . . . . . . . . . . . . 59<br />

3.9 Fiberskopisch erfasste Referenzbilder mit Frequenzspektren . . . . . 63<br />

3.10 Spektrale Filterung (Quarzfaser-Bildbündel) . . . . . . . . . . . . . . 67<br />

3.11 Spektrale Filterung (Glasfaser-Bildbündel) . . . . . . . . . . . . . . . 68<br />

3.12 Maskentypen zur Filterung von endoskopisch erfassten Aufnahmen . 69<br />

3.13 Auswirkung der Glättung von Filtermasken . . . . . . . . . . . . . . 70<br />

3.14 Ablaufdiagramm der physikalisch motivierten Interpolation . . . . . . 72<br />

3.15 Ablaufdiagramm der Faserregistrierung . . . . . . . . . . . . . . . . 72<br />

3.16 Größe und Varianz des Maximumfilters . . . . . . . . . . . . . . . . 73<br />

3.17 Kandidatenpixel zur Reduktion des Berechnungsaufwands . . . . . . 75<br />

3.18 Visualisierung der Kandidatenpixel . . . . . . . . . . . . . . . . . . . 77<br />

3.19 Vierer-Nachbarschaft eines Faserzentrums . . . . . . . . . . . . . . . 79<br />

3.20 Beispiel zur physikalisch motivierten Interpolation . . . . . . . . . . 80<br />

3.21 Kompensation von singulären Faserdefekten . . . . . . . . . . . . . . 81<br />

3.22 Ablauf der erweiterten Farbinterpolation . . . . . . . . . . . . . . . . 83<br />

3.23 Zuweisung von Sensorelementen zur Nachbarschaft einer Faser . . . 84<br />

3.24 Sequenz von rekonstruierten Bildern . . . . . . . . . . . . . . . . . . 86<br />

3.25 Visualisierung der Nachkalibrierung . . . . . . . . . . . . . . . . . . 87<br />

3.26 Informationsfluss und -rückgewinnung . . . . . . . . . . . . . . . . . 89<br />

3.27 Effektive Fläche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91<br />

3.28 Abtastung mit Gesamtfläche . . . . . . . . . . . . . . . . . . . . . . 91


ABBILDUNGSVERZEICHNIS 183<br />

3.29 Zwischenabtastung mit Gesamtfläche . . . . . . . . . . . . . . . . . 92<br />

3.30 Funktion der Abtastwerte bei Gesamtfläche . . . . . . . . . . . . . . 92<br />

3.31 Abtastung mit effektiver Fläche . . . . . . . . . . . . . . . . . . . . . 93<br />

3.32 Zwischenabtastung mit effektiver Fläche . . . . . . . . . . . . . . . . 93<br />

3.33 Funktion der Abtastwerte bei effektiver Fläche . . . . . . . . . . . . . 94<br />

3.34 Effektive Abtastfläche eines Faserbündels . . . . . . . . . . . . . . . 95<br />

3.35 Experiment zur Faserabtastung . . . . . . . . . . . . . . . . . . . . . 96<br />

3.36 Ideales Intensitätsprofil der Abtastung eines Balkens . . . . . . . . . 97<br />

3.37 Referenzmuster für Faserabtastprofil . . . . . . . . . . . . . . . . . . 99<br />

3.38 Ideales Intensitätsprofil der Abtastung eines Balkens . . . . . . . . . 100<br />

3.39 Ablauf der Auflösungssteigerung . . . . . . . . . . . . . . . . . . . . 104<br />

3.40 Modi der Korrespondenzfindung . . . . . . . . . . . . . . . . . . . . 106<br />

3.41 Super Resolution in faseroptischen Aufnahmen . . . . . . . . . . . . 107<br />

3.42 Testbild mit Abtastlinie für die Qualitätsmessung . . . . . . . . . . . 111<br />

3.43 Vorgehensweise zur objektiven Evaluierung mit Differenzmaß . . . . 113<br />

3.44 Merkmalskorrespondenzen und 3D-Punktwolke einer Bohrung . . . . 118<br />

3.45 Projektion einer zylindrischen 3D-Punktwolke . . . . . . . . . . . . . 120<br />

4.1 Visueller Vergleich der Abbildungsgüte . . . . . . . . . . . . . . . . 126<br />

4.2 Visualisierung der Statistik der Merkmalskorrespondenzen . . . . . . 132<br />

4.3 Visualisierung des Rückprojektionsfehler . . . . . . . . . . . . . . . 134<br />

4.4 Visualisierung der Streuungsstatistik . . . . . . . . . . . . . . . . . . 136<br />

4.5 Evaluierungsbereiche der untersuchten USAF-Abbildungen . . . . . . 139<br />

4.6 Stichprobe zur Bewertung subjektiver Wahrnehmung . . . . . . . . . 143<br />

4.7 Filterresultate für den visuellen Vergleichstest . . . . . . . . . . . . . 144


184 ABBILDUNGSVERZEICHNIS<br />

4.8 Vergleich der Restaurierung bei variabler Bildfrequenz 1 . . . . . . . 149<br />

4.9 Vergleich der Restaurierung bei variabler Bildfrequenz 2 . . . . . . . 149<br />

4.10 Visualisierung des Qualitätssprungs bei der Filterung . . . . . . . . . 151<br />

4.11 Vergleich der Restaurierung bei variabler Faseranzahl 1 . . . . . . . . 152<br />

4.12 Vergleich der Restaurierung bei variabler Faseranzahl 1 . . . . . . . . 152<br />

4.13 Vergleich der Restaurierung bei variabler Faseranzahl 1 . . . . . . . . 153<br />

4.14 Farbartefaktreduktion am Beispiel menschlicher Haut . . . . . . . . . 155<br />

4.15 Visuelles Ergebnis zur Sequenz BST . . . . . . . . . . . . . . . . . . 159<br />

4.16 Visuelles Ergebnis zur Sequenz LNA . . . . . . . . . . . . . . . . . . 159<br />

4.17 Visuelles Ergebnis zur Sequenz ALU . . . . . . . . . . . . . . . . . . 162<br />

4.18 Superposition für Bildsequenz in zylinderförmigem Hohlraum . . . . 162<br />

4.19 Visuelles Ergebnis zur Sequenz SPF . . . . . . . . . . . . . . . . . . 163<br />

4.20 Ortsvektoren von registrierten Bewegungen . . . . . . . . . . . . . . 164<br />

4.21 Superresolution mit konstanter Anzahl an Bildern . . . . . . . . . . . 165<br />

4.22 Superresolution mit konstanter Anzahl an Merkmalen . . . . . . . . . 165<br />

4.23 Superposition mit registrierter Endoskopaufnahme . . . . . . . . . . 167<br />

4.24 Vergrößerte Ausschnitte der Restaurierungsergebnisse . . . . . . . . . 168<br />

4.25 Merkmalskorrespondenzen für die Superposition . . . . . . . . . . . 169<br />

5.1 Einsatz der Mikroendoskopie in der Membrantechnik . . . . . . . . . 179


Tabellenverzeichnis<br />

185<br />

3.1 Vor- und Nachteile der Restaurierungsansätze . . . . . . . . . . . . . 62<br />

4.1 Hersteller und techn. Spezifikationen der verwendeten Endoskope . . 125<br />

4.2 Hersteller und techn. Spezifikationen der verwendeten Kameras . . . 127<br />

4.3 Texturen und endoskopische Abbildungen von Hohlzylindern . . . . . 130<br />

4.4 Anzahl von Korrespondenzen in verschiedenen Bildsequenzen . . . . 131<br />

4.5 Rückprojektionsfehler für verschiedene Bildsequenzen . . . . . . . . 133<br />

4.6 Streuung in der 3D-Rekonstruktion verschiedener Bildsequenzen . . . 135<br />

4.7 Filtertypen und -einstellungen für die Evaluierung der Linientrennung 138<br />

4.8 USAF-Linienmuster zur Evaluierung der Filterung . . . . . . . . . . 139<br />

4.9 Gütemessung zur Detailerhaltung und Glattheit für UF1 . . . . . . . . 140<br />

4.10 Gütemessung zur Detailerhaltung und Glattheit für UF2 . . . . . . . . 141<br />

4.11 Ergebnisse des visuellen Vergleichstests . . . . . . . . . . . . . . . . 144<br />

4.12 Sinusbilder für die Evaluierung der Restaurierungseigenschaften . . . 146<br />

4.13 Szenenkonstellationen für die Evaluierung von Super Resolution . . . 158


Glossar<br />

Alias oder Alias-Effekt Fehler, die durch Verletzung des Abtasttheorems beim digi-<br />

talen Abtasten von Signalen auftreten, Seite 31<br />

Apertur Kreisförmiger Ausschnitt, den ein Betrachter durch das Okular eines Endo-<br />

skops wahrnimmt, Seite 50<br />

Autoklavieren Verfahren zum Erreichen von Sterilität für Objekte (z. B. Instrumen-<br />

187<br />

te oder Nährmedien), die dazu unter Überdruck Wasserdampf oder speziellen<br />

Gasen ausgesetzt werden, Seite 13<br />

Bronchoskopie Spiegelung der Atemwege und des Lungenraums, Seite 16<br />

Canny-Filter Algorithmus zur Kantendetektion in Bildern, Seite 154<br />

DC-Nikkore Defocus Image Control, Nikkore mit gezielter Defokussierung, Seite 32<br />

Demosaicing Interpolation eines Farbbilds aus den einkanaligen farbkodierten Inten-<br />

sitätsdaten des Sensorfelds., Seite 23<br />

Downstream Processing Verfahren zur Abtrennung eines Produktes aus der Produkt-<br />

lösung, Seite 178<br />

Galaktographie Röntgenuntersuchung der Milchgänge, Seite 16<br />

Gastroenterologie Die Gastroenterologie befasst sich mit der Diagnostik, nichtopera-<br />

tiven Therapien (z. B. medikamentöse Therapien) und Prävention von Erkran-<br />

kungen des Magen-Darm-Trakts, Seite 2<br />

Grundwahrheit (engl. ground truth) Ursprüngliche, unverfälschte Datenbasis, hier<br />

zum Vergleich nach Bildverarbeitungsschritten, Seite 48<br />

Intraduktal Innerhalb des Milchgangs, Seite 16<br />

Least-Square Problem Näherung eines Gleichungssystems nach der Methode der<br />

kleinsten Quadrate, Seite 76


188<br />

Lochkameramodell Abbildungsmodell, das von der verzerrungsfreien perspektivi-<br />

schen Projektion von Punkten einer Szene durch das optische Zentrum einer<br />

Kamera auf die Bildebene ausgeht., Seite 29<br />

Lookup-Tabelle Vorgehen zur schnellen Bereithaltung von Zwischenergebnissen, in-<br />

dem Funktionswerte vorab ermittelt und im Speicher als Tabelle abgelegt wer-<br />

den., Seite 29<br />

Läsion Gewebeauffälligkeit, Seite 16<br />

MAD (Mean absolute difference) Mittel der Summe aus den Beträgen der Differen-<br />

zen, Seite 113<br />

Mammasonographie Ultraschalluntersuchung der Brust, Seite 16<br />

Mammographie Radiologische Untersuchung der Brust zur Früherkennung von Brust-<br />

krebs, Seite 16<br />

MAP (Maximum-a-posteriori) Ein Schätzverfahren, das Vorwissen mit einbezieht,<br />

Seite 45<br />

Markerlos Ohne künstliche Kennzeichnung, z. B. durch Klebemarken, Seite 28<br />

Metrologie Lehre von den Maßen, den Gewichten und den Maßsystemen., Seite 28<br />

Mnemonik Einprägsames Kurzzeichen eines Ausdrucks, Seite 157<br />

Modalitäten In der bildgebenden Medizin bezeichnen Modalitäten verschiedene Sig-<br />

nalarten (Licht, Ultraschall, Röntgenstrahlung, usw.), mit denen man Bilder<br />

vom menschlichen Körper gewinnt., Seite 5<br />

Monokular (lat. für einäugig) Hier: Mit einer einzigen Blickrichtung, Seite 14<br />

Mosaicing Abtastung von Bilddaten durch ein Farbfiltermosaik, Seite 55<br />

MSSIM (Mean structural similarity) Mittlere strukturelle Ähnlichkeit, Seite 114<br />

PSNR (Peak signal to noise ratio) Spitzensignal-zu-Rausch-Verhältnis, Seite 114<br />

QSR (Quality regarding smoothness and Rayleigh based criterion) Güteindikator, der<br />

über die Glättung (Smoothing) und eine Rayleigh basierte Detailerhaltung im<br />

USAF-Testbild definiert ist, Seite 110<br />

Registrierung Hier: Geometrische Transformation von zwei oder mehreren Bildern<br />

einer Szene, um sie bestmöglichst in Übereinstimmung miteinander zu bringen,<br />

Seite 166


Rektum (lat. rectum) Mastdarm, Seite 11<br />

Relevanzfaktor Charakteristischer Wert für die Ähnlichkeit eines Bildausschnitts zu<br />

einer definierten Vergleichsgröße, hier einer Gauß-Funktion, Seite 75<br />

RMSE Root mean square error (Wurzel der mittleren quadratischen Abweichung),<br />

Seite 113<br />

Rohdaten Farbsensoren mit Farbfiltermosaik berechnen die Farbwerte des resultie-<br />

renden Bilds aus farbkodierten Intensitätswerten, den sog. Rohdaten, Seite 22<br />

ROI (Region of interest) Berücksichtigter Bereich für Bildoperationen, Seite 51<br />

Sensorelement Einzelne lichtempfindliche Zelle aus der fotosensitiven Fläche (Ma-<br />

trix) eines Kamerasensors, Seite 21<br />

sinc-Funktion (engl. sinus cardinalis) Die sincFunktion ist als sin(x)/x definiert und<br />

spielt in der Signalverarbeitung eine wichtige Rolle , Seite 69<br />

Spekulum (lat. Speculum) Spiegel, Seite 11<br />

STFT (Short time Fourier transform) Kurzzeit- oder auch gefensterte Fourier-Trans-<br />

formation, Seite 43<br />

subpixelgenau Der Begriff wird hier für Berechnungen verwendet, die eine höhere<br />

Präzision als das Pixelraster verwenden., Seite 32<br />

Super Resolution Verfahren zur Erhöhung der Auflösung in bewegten Bildsequen-<br />

zen, Seite 37<br />

Superposition Verfahren zur Auflösungsteigerung im Ortsbereich durch Überlage-<br />

rung minimal versetzter Bildinhalte, Seite 46<br />

189<br />

Template Intensitätsmatrix, hier zum blockweisen Vergleich der Ähnlichkeit von Bild-<br />

ausschnitten, Seite 75<br />

TI (Transinformation) Statistisches Maß für den Zusammenhang von Zufallsgrö-<br />

ßen, Seite 116<br />

USAF-Testbild (engl. US Air Force Resolution Test Chart) Testmuster zur Bestim-<br />

mung der Auflösungsfähigkeit eines optischen Systems. Das Muster enthält<br />

Gruppen von je drei Linien in unterschiedlichen Auflösungsstufen., Seite 54<br />

Weißabgleich Verfahren zur Korrektur der Gewichtung von Farbkanälen eines Kame-<br />

rasensors bezüglich der Farbtemperatur des Lichtes am Aufnahmeort, Seite 57


190<br />

Zystoskop Gerät zur Spiegelung der Blase, Seite 11


Formelzeichen und Symbole<br />

Matrizen, Bilder, Gitternetze<br />

M(MQ / MG) Filtermaske im Spektralraum (für Quarzfaser / für Glasfaser)<br />

I Bildmatrix<br />

Î Faserendoskopisch erfasstes Szenenbild<br />

ˆR Rohdaten von Î<br />

Îref<br />

ˆRref<br />

Weißbild zur Kalibrierung<br />

Rohdaten des Weißbilds<br />

LR Î Niedrig aufgelöstes Eingangsbild<br />

HR I Hoch aufgelöstes Ausgangsbild<br />

S Diskretisierte Bildszene<br />

T Template zum Blockvergleich<br />

R Berücksichtigter Bereich für Bildoperationen<br />

N Pixelmenge eines lokalen Bildausschnitts<br />

D Delaunay Gitternetz<br />

ΩS<br />

ΩR<br />

Operatoren<br />

Evaluierungsbereich für Glattheit<br />

Evaluierungsbereich für Detailerhaltung<br />

⊙ Elementweise Multiplikation von Matrizen<br />

F Transformation in einen Frequenzraum<br />

I Interpolation basierend auf einer Menge an Stützstellen<br />

FFT Schnelle Fouriertransformation<br />

M Operator zur Erstellung von Filtermasken<br />

⌊x⌋ Abgerundeter Wert von x<br />

⌈x⌉ Aufgerundeter Wert von x<br />

x2 L2-Norm von x<br />

{a; b} Diskrete Wertemenge von a bis b<br />

[a; b] Kontinuierlicher Wertebereich von a bis b<br />

191


192<br />

Formelzeichen und Symbole<br />

mdist<br />

Grauwertschwelle des Maximumfilters<br />

ϑ Relevanzfaktor im Sinne der Güte einer Faserabbildung<br />

df<br />

˜df<br />

f0<br />

Faserabstand<br />

Geschätzter Faserabstand<br />

Grenzfrequenz<br />

NA Numerische Apertur<br />

ρ / τ Verzerrungsparameter (radial / tangential)<br />

γ Abmessungsverhältnis eines Sensorelements<br />

(x, y) T /(˜x, ˜y) T Un-/Verzerrte Koordinaten<br />

NI<br />

NM<br />

NF<br />

ND<br />

NN<br />

rkern<br />

Anzahl der Bilder<br />

Anzahl der Merkmale<br />

Anzahl der Fasern<br />

Anzahl der Dreiecke im Delaunay-Gitter<br />

Anzahl definierter Nachbarn einer Faser<br />

Kernradius einer Faser<br />

λ Wellenlänge<br />

V Normierte Frequenz<br />

ˆV Normierte Grenzfrequenz<br />

rmod<br />

rA<br />

αs<br />

Modenfeldradius<br />

Aperturradius<br />

W, H Breite, Höhe<br />

αtotal<br />

Grundorientierung der Faseranordnung<br />

Akzeptanzwinkel für die Totalreflexion in Glasfasern<br />

a Intensitätsamplitude<br />

pkand<br />

Pkand<br />

Wk<br />

σk<br />

pI<br />

pf ,i<br />

Kandidatenbildpunkt<br />

Menge von Kandidatenbildpunkten<br />

Größe der Impulsantwortmatrix zur Glättung<br />

Standardabweichung der Impulsantwortmatrix zur Glättung<br />

Bildpunkt<br />

Faserzentrum i<br />

SE Sensorelement<br />

b Barizentrische Koordinate


Verzeichnis der Fremdliteratur<br />

[AGF05] AYMERIC, PERCHANT, LE GOUALHER GEORGES und BERIER FREDERIC:<br />

193<br />

Method for processing an image acquired through a guide consisting of a plura-<br />

lity of optical fibers. Patent US2005207668, 2005.<br />

[AKH + 99] ASLAN, PETER, RAMSAY L. KUO, KIRS HAZEL, RICHARD K. BABYAN und<br />

GLENN M. PREMINGER: Advances in Digital Imaging during Endoscopic Sur-<br />

gery. Journal of Endourology, 13(4):251–255, Mai 1999.<br />

[Alm06] ALMIKRO GMBH: Entwicklung, Produktion und Vertrieb innovativer Produkte<br />

aus dem Bereich der Endoskopie für die Humanmedizin sowie für industrielle<br />

Anwendungen. http://www.almikro.de, Sep. 2006.<br />

[And05] ANDERSSON TECHNOLOGIES LLC: SynthEyes Lens Distortion Algorithm.<br />

http://www.ssontech.com/content/lensalg.htm, 2005.<br />

[And07] ANDERSSON TECHNOLOGIES LLC: SynthEyes 2007: 3-D Camera Tracking.<br />

http://www.ssontech.com/, 2007.<br />

[Arn06] ARNOLD, CORNELIA: Experimentelle Untersuchung unterschiedlicher Be-<br />

leuchtungstechniken für die automatische Bohrungsinspektion. Diplomarbeit,<br />

FH Jena und Fraunhofer IIS, 2006.<br />

[BCR + 01] BARONTI, S., A. CAPANNI, A. ROMOLI, L. SANTURRI und R. VITULLI: De-<br />

tector shape in hexagonal sampling grids. In: FUJISADA, H., J. B. LURIE<br />

und K. WEBER (Herausgeber): Proceedings SPIE, Sensors, Systems, and Next-<br />

Generation Satellites V, Hiroyuki Fujisada; Joan B. Lurie; Konradin Weber;<br />

Eds., Band 4540, Seiten 354–365, Dez. 2001.<br />

[BEZN05] BEN-EZRA, M., A. ZOMET und S.K. NAYAR: Video super-resolution using<br />

controlled subpixel detector shifts. In: IEEE Transactions on Pattern Analysis<br />

and Machine Intelligence, Band 27, Seiten 977 – 987, Juni 2005.<br />

[BIG03] BEN-ISRAEL, ADI und THOMAS N.E. GREVILLE: Generalized Inverses.<br />

Springer-Verlag, 2 Auflage, 2003.


194 VERZEICHNIS DER FREMDLITERATUR<br />

[Bro00] BROECHER, BENNO: Faseroptische Sensoren zur Prozessüberwachung in der<br />

Mikrosystemtechnik. Berichte aus der Produktionstechnik. Shaker, Aachen, 1.<br />

Auflage, 2000.<br />

[BS98] BORMAN, SEAN und ROBERT STEVENSON: Spatial Resolution Enhancement<br />

of Low-Resolution Image Sequences - A Comprehensive Review with Directi-<br />

ons for Future Research. Technischer Bericht, Laboratory for Image and Signal<br />

Analysis, 1998.<br />

[Can86] CANNY, J.: A computational approach to edge detection. IEEE Transaction on<br />

Pattern Analysis and Machine Intelligence, 8(6):679–698, Nov. 1986.<br />

[CCSS03] CHAN, RAYMOND H., TONY F. CHAN, LIXIN SHEN und ZUOWEI SHEN: Wa-<br />

velet Algorithms for High-Resolution Image Reconstruction. SIAM Journal on<br />

Scientific Computing, 24(4):1408–1432, 2003.<br />

[CM05] CHAUDHURI, SUBHASIS und JOSHI MANJUNATH: Motion-Free Super-<br />

Resolution. Springer-Verlag New York, Inc., Secaucus, 1. Auflage, 2005.<br />

[CV00] CHEN, HUA-MEI und PRAMOD K. VARSHNEY: A Pyramid Approach For Mul-<br />

timodality Image Registration Based On Mutual Information. Proceedings of the<br />

Third International Conf. on Information Fusion (FUSION), 1:9–15, Juli 2000.<br />

[Das07] DAS MOVIE-COLLEGE: Weichzeichner. http://www.movie-college.<br />

de/filmschule/kamera/weichzeichner.htm, Juli 2007.<br />

[DBM98] DICKENS, M.M., D.J. BORNHOP und S. MITRA: Removal of optical fiber in-<br />

terference in color micro-endoscopic images. In: Proceedings of 11th IEEE Sym-<br />

posium on Computer-Based Medical Systems, Seiten 246–251, Juni 1998.<br />

[DHMB97] DICKENS, MOLLY M., MICHAEL P. HOULNE, SUNANDA MITRA und DAR-<br />

RYL J. BORNHOP: Soft computing method for the removal of pixelation in micro-<br />

endoscopic images. In: BOSACCHI, BRUNO, JAMES C. BEZDEK und DAVID B.<br />

FOGEL (Herausgeber): Proceedings SPIE, Applications of Soft Computing, Band<br />

3165, Seiten 186–194, Okt. 1997.<br />

[DHMB99] DICKENS, MOLLY M., MICHAEL P. HOULNE, SUNANDA MITRA und DAR-<br />

RYL J. BORNHOP: Method for depixelating micro-endoscopic images. Optical<br />

Engineering, 38:1836–42, Nov. 1999.<br />

[Dum98] DUMAS, JEAN: Device to enhance imaging resolution. Patent US5712685, 1998.<br />

[EHO01] ELAD, MICHAEL und Y. HEL-OR: A Fast Super-Resolution Reconstruction Al-<br />

gorithm for Pure Translational Motion and Common Space-Invariant Blur. IEEE<br />

Transactions on Image Processing, 10(8):1187–1193, Aug. 2001.


VERZEICHNIS DER FREMDLITERATUR 195<br />

[Ehr93] EHRHARDT, J.C.: Hexagonal fast Fourier transform with rectangular output.<br />

IEEE Transactions on Signal Processing, 41(3):1469–1472, März 1993.<br />

[EKP93] EIKELMANN, E., S. KELLER und T. PFEIFER: Verfahren zur Darstellung eines<br />

in ein Lichtleiterbündel eingekoppelten Bildes. Patent DE4345278, 1993.<br />

[Eve07] EVEREST VIT GMBH: Homepage. http://www.everestvit.de, Juli<br />

2007.<br />

[Far04] FARSIU, SINA: Resolution Enhancement Software. http://www.cse.<br />

ucsc.edu/~milanfar/SR-Software.htm, 2004.<br />

[FBPD06] FELDMANN, TOBIAS, SAHLA BOUATTOUR, DIETRICH PAULUS und FRANK<br />

DEINZER: Kombination verschiedener Ähnlichkeitsmaße für die 2D/3D-<br />

Registrierung von Röntgenbildern mittels Demokratischer Integration. In: Bild-<br />

verarbeitung für die Medizin (BVM), Seiten 226–230. Springer Verlag, 2006.<br />

[FEM06] FARSIU, S., M. ELAD und P. MILANFAR: Multiframe demosaicing and super-<br />

resolution of color images. IEEE Transactions on Image Processing, 15(1):141–<br />

159, Jan. 2006.<br />

[Fib01] FIBER OPTICS SCHOTT AG: Fiber Characteristics. http:<br />

//www.schott.com/fiberoptics/english/download/25.<br />

01.01FiberChar.pdf, 2001.<br />

[Fib04] FIBER OPTICS SCHOTT AG: Industrial fiber optic components.<br />

http://www.schott.com/fiberoptics/english/download/<br />

industrial_fiber_optic_components_e_0904.pdf, 2004.<br />

[FREM04a] FARSIU, S., D. ROBINSON, M. ELAD und P. MILANFAR: Advances and Chal-<br />

lenges in Super-Resolution. International Journal of Imaging Systems and Tech-<br />

nology, 14(2):47–57, 2004.<br />

[FREM04b] FARSIU, SINA, DIRK ROBINSON, MICHAEL ELAD und PEYMAN MILANFAR:<br />

Fast and Robust Multi-Frame Super-Resolution. In: IEEE Transactions on Image<br />

Processing, Band 13, Seiten 1327–1344, Okt. 2004.<br />

[Fur01] FURTNER, UWE: Farbverarbeitung mit Bayer-Mosaic Sensoren. Technischer<br />

Bericht, MATRIX Vision GmbH, Aug. 2001.<br />

[FVLS04] FISCHER, BENEDICT, B. VAESSEN, THOMAS M. LEHMANN und KLAUS SPIT-<br />

ZER: Bildverbesserung endoskopischer Videosequenzen in Echtzeit. In: Bildver-<br />

arbeitung für die Medizin (BVM), Seiten 386 – 389, Heidelberg, 2004. Springer<br />

Verlag.


196 VERZEICHNIS DER FREMDLITERATUR<br />

[GOE + 05] GRUNWALD, S., R. OHLINGER, U. EULER, M. KIECHLE, B. PLATTNER,<br />

T. FISCHER, M.WARM, M. HAHN, V. R. JACOBS und S. PAEPKE: Minimalin-<br />

vasive Diagnostik sezernierender Brusterkrankungen durch Milchgangsendosko-<br />

pie. In: Endoskopie heute, Band 18, Seiten 186–189, 2005.<br />

[GPG + 04] GOUALHER, G. LE, A. PERCHANT, M. GENET, C. CAVÉ, B. VIELLEROBE,<br />

F. BÉRIER, B. ABRAT und N. AYACHE: Towards optical biopsies with an inte-<br />

grated fibered confocal fluorescence microscope. In: Medical Image Computing<br />

and Computer-Assisted Intervention (MICCAI), Band 2 der Reihe Lecture Notes<br />

in Computer Science, Seiten 761–68. Springer, 2004.<br />

[GRS97] GIROD, B., R. RABENSTEIN und A. STENGER: Einführung in die Systemtheo-<br />

rie. Teubner, Stuttgart, 1. Auflage, 1997.<br />

[Han07a] HANDELSBLATT: Gefahr durch Röntgenstrahlen unterschätzt. http://www.<br />

handelsblatt.com, Mai 2007.<br />

[Han07b] HANSELMANN, MICHAEL: High Resolution Microscopy. Diplomarbeit, Uni-<br />

versität Ulm und Fraunhofer IIS, 2007.<br />

[HBA97] HARDIE, R.C., K.J. BARNARD und E.E. ARMSTRONG: Joint MAP registration<br />

and high-resolution image estimation using a sequence of undersampled images.<br />

In: IEEE Transactions on Image Processing, Band 6, Seiten 1621–1633, Dez.<br />

1997.<br />

[HGN03] HOWELL, PAUL, WENDY R. GARBER und LUONG NGUYEN: Resolution-<br />

enhancement method for digital imaging. Patent US6570613, 2003.<br />

[Hir07] HIRSCHBECK, FRANZ: Beschleunigte Bildverbesserung für faseroptische Endo-<br />

skope mittels Grafikhardware. Diplomarbeit, Universität Erlangen und Fraunho-<br />

fer IIS, 2007.<br />

[HPP04] HONG, VINH, HENRYK PALUS und DIETRICH PAULUS: Edge Preserving Fil-<br />

ters on Color Images. In: International Conference on Computational Science,<br />

Seiten 34–40, 2004.<br />

[HS96] HEIKKILA, J. und O. SILVEN: Calibration procedure for short focal length off-<br />

the-shelf CCD cameras. In: Proceedings of the 13th International Conference<br />

on Pattern Recognition, Band 1, Seiten 166–170, Aug. 1996.<br />

[HTB + 97] HARDIE, RUSSELL C., TIMOTHY R. TUINSTRA, JOHN BOGNAR, KENNETH J.<br />

BARNARD und ERNEST ARMSTRONG: High Resolution Image Reconstruction<br />

from Digital Video with Global and Non-Global Scene Motion. International<br />

Conference on Image Processing, 1:153–156, Okt. 1997.


VERZEICHNIS DER FREMDLITERATUR 197<br />

[HZMH01] HELFERTY, J.P., C. ZHANG, G. MCLENNON und W.E. HIGGINS: Videoendos-<br />

copic distortion correction and its application to virtual guidance of endoscopy.<br />

IEEE Transactions on Medical Imaging, 20(7):605–17, 2001.<br />

[Int01] INTEL: Open Source Computer Vision Library. Reference Manual, 2001.<br />

[IP91] IRANI, M. und S. PELEG: Improving Resolution by Image Registration. Graphi-<br />

cal Models and Image Processing, 53(3):231–239, 1991.<br />

[Jai89] JAIN, ANIL K.: Fundamentals of digital image processing. Prentice-Hall, Inc.,<br />

Upper Saddle River, NJ, USA, 1989.<br />

[Jan00] JANSSEN, CHRISTIAN: Ein miniaturisiertes Endoskop-Stereomesssystem zur<br />

Strömungsvisualisierung in Kiesbetten. Diplomarbeit, Universität Heidelberg,<br />

2000.<br />

[Kar04] KARL STORZ GMBH: Rückblick Industriemesse Hannover vom 19.-<br />

24.04.2004. http://www.karlstorz.de/cps/rde/xchg/<br />

SID-0A010A01-6F236960/karlstorz/hs.xsl/239.htm, 2004.<br />

[Kar07] KARL STORZ GMBH: Homepage. http://www.karlstorz.de, Juli<br />

2007.<br />

[KBV90] KIM, S. P., N. K. BOSE und H. M. VALENZUELA: Recursive Reconstruction of<br />

High Resolution Image From Noisy Undersampled Multiframes. IEEE Transac-<br />

tions on Acoustics, Speech, and Signal Processing (TASSP), 38(6):1013–1027,<br />

Juni 1990.<br />

[KBV93] KIM, S. P., N. K. BOSE und H. M. VALENZUELA: Recursive Implementati-<br />

on of Total Least Squares Algorithm for Image Reconstruction from Noisy Un-<br />

dersampled Multiframes. IEEE Transactions on Acoustics, Speech, and Signal<br />

Processing (TASSP), 5:269–272, 1993.<br />

[KH96] KALTENBACHER, E. und R.C. HARDIE: High resolution infrared image recon-<br />

struction using multiple, lowresolution, aliased frames. Proceedings of National<br />

Aerospace and Electronics Conference (NAECON), 2:702–709, 1996.<br />

[Kon07] KONICA MINOLTA GMBH: Homepage. http://www.konicaminolta.<br />

de, Juli 2007.<br />

[KPS89] KAMGAR-PARSI, B. und III SANDER, W.A.: Quantization error in spatial<br />

sampling: comparison between square and hexagonal pixels. In: Proceedings of<br />

Conference on Computer Vision and Pattern Recognition (CVPR), Seiten 604–<br />

611. IEEE Computer Society, Juni 1989.


198 VERZEICHNIS DER FREMDLITERATUR<br />

[KVH + 04] KRÜGER, SOPHIE, FLORIAN VOGT, WERNER HOHENBERGER, DIETRICH<br />

PAULUS, HEINRICH NIEMANN und CHRISTOPH SCHICK: Evaluation of<br />

Computer-assisted Image Enhancement in Minimal Invasive Endoscopic Surge-<br />

ry. Methods Inf Med, 43(4):362–6, 2004.<br />

[KWL05] KOPPEL, DAN, YUAN-FANG WANG und HUA LEE: Robust and Real-Time<br />

Image Stabilization and Rectification. In: Seventh IEEE Workshops on Appli-<br />

cation of Computer Vision (WACV), Band 1, Seiten 350–355, Jan. 2005.<br />

[LB02] LERTRATTANAPANICH, S. und N.K. BOSE: High Resolution Image Formation<br />

From Low Resolution Frames Using Delaunay Triangulation. IEEE Transactions<br />

on Image Processing, 11(12):1427 – 1441, Dez. 2002.<br />

[LK81] LUCAS, BRUCE D. und TAKEO KANADE: An Iterative Image Registration Tech-<br />

nique with an Application to Stereo Vision. In: Proceedings of 7th International<br />

Joint Conference on Artificial Intelligence, Seiten 674–679, 1981.<br />

[Mit05] MITSCHKE, F.: Glasfasern: Physik und Technologie. Spektrum Akademischer<br />

Verlag, 1. Auflage, 2005.<br />

[MKT + 07] MORAL, A.I., M. E. KUNKEL, K. TINGELHOFF, M. RILK, I. WAGNER,<br />

K. W.G. EICHHORN, F. BOOTZ und F. M. WAHL: 3D Endoscopic Approach<br />

for Endonasal Sinus Surgery. In: 29th Annual International Conference of the<br />

IEEE Engineering in Medicine and Biology Society, Seiten 4683–6, Aug. 2007.<br />

[MNMW03] MÜNZENMAYER, CHRISTIAN, FREDERIC NAUJOKAT, STEFFEN MÜHLDOR-<br />

FER und THOMAS WITTENBERG: Enhanced Texture Analysis by Color Shading<br />

Correction. In: Proceedings des Workshops für Farbbildverarbeitung, Seiten<br />

35–42, 2003.<br />

[MPW06] MÜNZENMAYER, CHRISTIAN, DIETRICH PAULUS und THOMAS WITTEN-<br />

BERG: A Spectral Color Correction Framework for Medical Applications. IEEE<br />

Transactions for Biomedical Engineering, 53(2):254–265, Feb. 2006.<br />

[Nel89] NEL, A.L.: Hexagonal image processing. In: Proceedings of Conference on<br />

Communications and Signal Processing (COMSIG), Seiten 109–113, Juni 1989.<br />

[Nik07] NIKON GMBH: Homepage. http://www.nikon.de, Juli 2007.<br />

[NM00] NGUYEN, NHAT und PEYMAN MILANFAR: A wavelet-based interpolation-<br />

restoration method for superresolution (wavelet superresolution). Circuits, Sys-<br />

tems, and Signal Processing, 19(4):321–38, 2000.<br />

[NMG01] NGUYEN, NHAT, PEYMAN MILANFAR und GENE GOLUB: A Computationally<br />

Efficient Superresolution Image Reconstruction Algorithm. IEEE Transactions<br />

on Image Processing, 10(4):573–583, Apr. 2001.


VERZEICHNIS DER FREMDLITERATUR 199<br />

[Oly07] OLYMPUS GMBH: Homepage. http://www.olympus-europa.com/<br />

endoscopy, Juli 2007.<br />

[OPJ + 06] OHLINGER, R., S. PAEPKE, V. R. JACOBS, M. HAHN und S. GRUNWALD: Stel-<br />

lenwert der Duktoskopie in der Mammadiagnostik. Der Gynäkologe, 39(7):538–<br />

544, Juli 2006.<br />

[Ort03] ORTMAIER, TOBIAS JOHANNES: Motion Compensation in Minimally Invasive<br />

Robotic Surgery. Diplomarbeit, Universität München, 2003.<br />

[PCN98] PAULUS, DIETRICH, LASZLO CSINK und HEINRICH NIEMANN: Color Cluster<br />

Rotation. In: International Conference on Image Processing, Seiten 161–165,<br />

1998.<br />

[PLS85] PELLI, D. G., G. E. LEGGE und M. M. SCHLESKE: Psychophysics of reading<br />

(III): A fiberscope low-vision reading aid. Investigative Ophthalmology and Vi-<br />

sual Science, 26(5):751–763, Mai 1985.<br />

[Pol07] POLYDIAGNOST GMBH: Homepage. http://www.polydiagnost.com,<br />

Juli 2007.<br />

[PPK03] PARK, SUNG CHEOL, MIN KYU PARK und MOON GI KANG: Super-Resolution<br />

Image Reconstruction: A Technical Overview. IEEE Magazine on Signal Proces-<br />

sing, 20:21–36, Mai 2003.<br />

[PWSH06] POPP, ANTONIA, FRANK WOLFSGRUBER, INGO SCHOLZ und GERD HÄUS-<br />

LER: Endoskopische 3D-Rekonstruktion mit kohärenztheoretisch optimierter Be-<br />

leuchtung. In: Proceedings der Deutschen Gesellschaft für angewandte Optik<br />

e.V., 2006.<br />

[Ric07] RICHARD WOLF GMBH: Homepage. http://www.richard-wolf.com,<br />

Juli 2007.<br />

[Rod07] RODENSTOCK GMBH: Homepage. http://www.rodenstock.com, Juli<br />

2007.<br />

[RSBS02] RAMANATH, RAJEEV, WESLEY E. SNYDER, GRIFF L. BILBRO und WIL-<br />

LIAM A. SANDER: Demosaicking methods for Bayer color arrays. Journal of<br />

Electronic Imaging, 11:306–315, Juli 2002.<br />

[Ärz00] ÄRZTE ZEITUNG: Färben, sehen, schneiden - die chromoendoskopische<br />

Therapie. http://www.aerztezeitung.de/docs/2000/11/09/<br />

201a1002.asp, Nov. 2000.<br />

[SCG + 01] SANDERSON, S.L., A.Y. CHEER, J.S. GOODRICH, J.D. GRAZIANO und W.T.<br />

CALLAN: Crossbow filtration in suspension-feeding fishes. Nature, 412:439–40,<br />

2001.


200 VERZEICHNIS DER FREMDLITERATUR<br />

[Sch07a] SCHILINSKI, HELENA: Modellierung der faseroptischen Farbbildgebung mit<br />

Bayer Pattern zur Evaluierung von Verbesserungen an Algorithmen zur Bild-<br />

aufbereitung. Diplomarbeit, Universität Ulm und Fraunhofer IIS, 2007.<br />

[Sch07b] SCHÖLLY FIBEROPTIC GMBH: Homepage. http://www.schoelly.de,<br />

Juli 2007.<br />

[Sei03] SEITZ, K.: About Quality of Diagnostic Ultrasound - an Enduring Problem Be-<br />

tween Reality and Satire. Ultraschall in der Medizin, 24:375–376, 2003.<br />

[SLZZ04] SHEN, HUANFENG, PINGXIANG LI, LIANGPEI ZHANG und YINDI ZHAO: A<br />

MAP Algorithm to Super-Resolution Image Reconstruction. In: Proceedings of<br />

the Third International Conference on Image and Graphics (ICIG), Seiten 544–<br />

547, Washington, DC, USA, Dez. 2004. IEEE Computer Society.<br />

[SS96] SCHULTZ, RICHARD R. und ROBERT L. STEVENSON: Extraction of High-<br />

Resolution Frames from Video Sequences. IEEE Transaction on Image Proces-<br />

sing, 5(6):996–1011, Juni 1996.<br />

[SS07] SCHOLLMEYER, TH. und M. SCHOLLMEYER: Geschichte der Laparoskopie,<br />

2007. http://www.agendoskopie.de.<br />

[ST94] SHI, JIANBO und CARLO TOMASI: Good Features to Track. In: IEEE Con-<br />

ference on Computer, Vision and Pattern Recognition (CVPR), Seiten 593–600,<br />

Juni 1994.<br />

[Ste07] STEENKAMP, CHRISTINE: Konzept und Durchführung einer Evaluierung von<br />

Algorithmen zur Bildaufbereitung für faseroptische Systeme. Diplomarbeit, FH<br />

Remagen und Fraunhofer IIS, 2007.<br />

[SVM92] SMITH, W.E., N. VAKIL und S.A. MAISLIN: Correction of distortion in endos-<br />

cope images. IEEE Transactions on Medical Imaging, 11(3):117 – 122, 1992.<br />

[TBM02] THORMÄHLEN, T., H. BROSZIO und P.N. MEIER: Automatische 3D-<br />

Rekonstruktion aus endoskopischen Bildfolgen. In: Bildverarbeitung für die Me-<br />

dizin (BVM), Seiten 207–210. Springer-Verlag Heidelberg, 2002.<br />

[TH84] TSAI, ROBERT Y. und THOMAS S. HUANG: Multiframe Image Restoration and<br />

Registration. Advances in Computer Vision and Image Processing, Jai Press,<br />

1:317–339, 1984.<br />

[The07] THE TIFFEN COMPANY: Tiffen Camera Filters. http://www.tiffen.com,<br />

Juli 2007.<br />

[TK91] TOMASI, CARLO und TAKEO KANADE: Detection and Tracking of Point Fea-<br />

tures. Technischer Bericht CMU-CS-91-132, Carnegie Mellon University, Apr.<br />

1991.


VERZEICHNIS DER FREMDLITERATUR 201<br />

[TOS92] TEKALP, A. M., M. K. OZKAN und M. I. SEZAN: High-resolution Infra-<br />

red Image Reconstruction from Lower-resolution Image Sequences and Space-<br />

varying Image Restoration. IEEE International Conference on Acoustics,<br />

Speech, and Signal Processing (ICASSP), 3:169–172, 1992.<br />

[Tsa86] TSAI, ROGER Y.: An Efficient and Accurate Camera Calibration Technique for<br />

3D Machine Vision. In: Proceedings of IEEE Conference on Computer Vision<br />

and Pattern Recognition, Seiten 364–374, 1986.<br />

[Tsa87] TSAI, R.: A versatile camera calibration technique for high-accuracy 3D ma-<br />

chine vision metrology using off-the-shelf TV cameras and lenses. IEEE Journal<br />

of Robotics and Automation, 3(4):323–344, Aug. 1987.<br />

[TV98] TRUCCO, EMANUELE und ALESSANDRO VERRI: Introductory Techniques for<br />

3-D Computer Vision. Prentice Hall PTR, Upper Saddle River, NJ, USA, 1998.<br />

[Uni07] UNIVERSITÄTSKLINIKUM GIESSEN UND MARBURG GMBH: Chirurgi-<br />

sche Endoskopie. http://www.uniklinikum-giessen.de/ach/<br />

endoskopie.html, 2007.<br />

[VKNS03] VOGT, FLORIAN, SOPHIE KRÜGER, HEINRICH NIEMANN und CHRISTOPH<br />

SCHICK: A System for Real-Time Endosopic Image Enhancement. In: Medical<br />

Image Computing and Computer-Assisted Intervention (MICCAI), Lecture Notes<br />

in Computer Science, Seiten 356–363. Springer, 2003.<br />

[Vog06] VOGT, FLORIAN: Augmented Light Field Visualization and Real-Time Image<br />

Enhancement for Computer Assisted Endoscopic Surgery. Doktorarbeit, Techni-<br />

sche Fakultät der Universität Erlangen-Nürnberg, 2006.<br />

[VPS01] VOGT, FLORIAN, DIETRICH PAULUS und CHRISTOPH H. SCHICK: Fast Im-<br />

plmentation of Temporal Color Image Filtering. In: PAULUS, DIETRICH und<br />

JOACHIM DENZLER (Herausgeber): Proceedings des Workshops für Farbbild-<br />

verarbeitung, Seiten 89–98, 2001.<br />

[WBSS04] WANG, Z., A.C BOVIK, H.R. SKEIKH und E.P. SIMONCELLI: Image quality<br />

assessment: from error visibility to structural similarity. IEEE Transactions on<br />

Image Processings, 13(4):600–612, 2004.<br />

[Wei05] WEISENSEL, SANDRA: Auflösungssteigerung von endoskopischen Aufnahmen<br />

durch Nutzung der Bewegung in Bildsequenzen. Diplomarbeit, FH Schweinfurt<br />

und Fraunhofer IIS, Aug. 2005.<br />

[WJNZ03] WILLETT, R., I. H. JERMYN, R. NOWAK und J. ZERUBIA: Wavelet-Based<br />

Superresolution in Astronomy. In: Proceedings Astronomical Data Analysis Soft-<br />

ware and Systems, Okt. 2003.


202 VERZEICHNIS DER FREMDLITERATUR<br />

[You00] YOUNG, MATT: Optics and Lasers. Springer Verlag, 5. Auflage, 2000.<br />

[Zha00] ZHANG, ZHENGYOU: A Flexible New Technique for Camera Calibration. IEEE<br />

Transactions on Pattern Analysis and Machine Intelligence, 22(11):1330–1334,<br />

2000.


Literatur des Autors<br />

[*ERW06] ELTER, MATTHIAS, STEPHAN RUPP und CHRISTIAN WINTER: Physically<br />

203<br />

Motivated Reconstruction of Fiberscopic Images. In: Proceedings of the 18th<br />

International Conference on Pattern Recognition (ICPR), Band 3, Seiten 599–<br />

602, Washington, DC, USA, Aug. 2006. IEEE Computer Society.<br />

[*EWR + 06] ELTER, MATTHIAS, CHRISTIAN WINTER, STEPHAN RUPP, VOLKER DAUM,<br />

KLAUS SPINNLER und ROBERT COURONNE: Verfahren und Vorrich-<br />

tung zum Erzeugen einer strukturfreien fiberskopischen Aufnahme. Patent<br />

DE102006011707A1, 03 2006.<br />

[*MEW + 06] MÜNZENMAYER, CHRISTIAN, MATTHIAS ELTER, CHRISTIAN WINTER,<br />

STEPHAN RUPP und KLAUS SPINNLER: Rekonstruktion faseroptischer Bilder<br />

für die automatische Sichtprüfung. Fraunhofer Machine Vision Excellence, Juli<br />

2006.<br />

[*RWE06a] RUPP, STEPHAN, CHRISTIAN WINTER und MATTHIAS ELTER: Geometrische<br />

Kalibrierung von Faser-Endoskopen. In: 51. Jahrestagung der Deutschen Ge-<br />

sellschaft für Medizinische Informatik, Biometrie und Epidemologie (GMDS),<br />

Band 51, Seiten 315–316. Jütte-Messedruck Leipzig GmbH, Sep. 2006.<br />

[*RWE06b] RUPP, STEPHAN, CHRISTIAN WINTER und MATTHIAS ELTER: Untersuchun-<br />

gen zur Kalibrierung flexibler Endoskope durch Modellierung ihres faser-<br />

optischen Übertragungskanals. In: Biomedizinische Technik: Tagungsband Ge-<br />

meinsame Jahrestagung der Deutschen, Österreichischen und Schweizerischen<br />

Gesellschaften für Biomedizinische Technik, Seite 58. Walter de Gruyter GmbH<br />

& Co. KG, Berlin, Sep. 2006.<br />

[*RWE07] RUPP, STEPHAN, CHRISTIAN WINTER und MATTHIAS ELTER: Robust Esti-<br />

mation of Camera Parameters using Combinatorial Optimization. In: IASTED<br />

International Conference on Computer Graphics and Imaging (CGIM), Seiten<br />

185–190. ACTA Press, Anaheim/Calgary/Zurich, 2007.<br />

[*RWW06] RUPP, STEPHAN, CHRISTIAN WINTER und THOMAS WITTENBERG: Came-<br />

ra Calibration from Fiberscopic Views with Accuracy Evaluation. In: Bild-


204 LITERATUR DES AUTORS<br />

verarbeitung für die Medizin (BVM), Seiten 424–428, Heidelberg, März 2006.<br />

Springer, Berlin.<br />

[*SKW06] SPINNLER, KLAUS, ANDREAS KULESCHOW und CHRISTIAN WINTER: Au-<br />

tomatische Sichtprüfung von Innenflächen. Technischer Bericht, Fraunhofer<br />

Allianz Vision, Juni 2006.<br />

[*WERW06] WINTER, CHRISTIAN, MATTHIAS ELTER, STEPHAN RUPP und THOMAS<br />

WITTENBERG: Dynamic resolution enhancement for fiber optics. In: IASTED<br />

International Conference on Signal and Image Processing (SIP), 2006.<br />

[*WR07] WINTER, CHRISTIAN und STEPHAN RUPP: Impact of Undistortion and In-<br />

terpolation on Fiber Optic Tracking. In: IASTED International Conference<br />

on Signal Processing, Pattern Recognition, and Applications (SPPRA). ACTA<br />

Press, Anaheim/Calgary/Zurich, 2007.<br />

[*WRE + 06] WINTER, CHRISTIAN, STEPHAN RUPP, MATTHIAS ELTER, CHRISTIAN<br />

MÜNZENMAYER, HEINZ GERHÄUSER und THOMAS WITTENBERG: Automa-<br />

tic adaptive enhancement for images obtained with fiberscopic endoscopes. IE-<br />

EE Transactions on Biomedical Engineering, 53:2035–2046, Okt. 2006.<br />

[*WRM + 05] WINTER, CHRISTIAN, STEPHAN RUPP, CHRISTIAN MÜNZENMAYER,<br />

KLAUS SPINNLER, HEINZ GERHÄUSER und THOMAS WITTENBERG: Adap-<br />

tive Rasterreduktion durch spektrale Ausblendung in Aufnahmen von flexiblen<br />

Endoskopen. In: Bildverarbeitung für die Medizin (BVM), Seiten 45–49. Sprin-<br />

ger, Berlin, März 2005.<br />

[*WRW06] WINTER, CHRISTIAN, STEPHAN RUPP und THOMAS WITTENBERG: Super-<br />

position for Resolution Enhancement in Image Sequences Acquired by Fibers-<br />

copes. In: Biomedizinische Technik: Tagungsband Gemeinsame Jahrestagung<br />

der Deutschen, Österreichischen und Schweizerischen Gesellschaften für Bio-<br />

medizinische Technik. Walter de Gruyter GmbH & Co. KG, Berlin, 2006.<br />

[*WRWS05] WINTER, CHRISTIAN, STEPHAN RUPP, THOMAS WITTENBERG und KLAUS<br />

SPINNLER: Automatic adaptive removal of fiberscopic comb-structure by spec-<br />

tral masking. Computer Assisted Radiology and Surgery (CARS), 1(2):1283,<br />

Juni 2005.<br />

[*WSRW05] WINTER, CHRISTIAN, INGO SCHOLZ, STEPHAN RUPP und THOMAS WIT-<br />

TENBERG: Reconstruction of tubes from monocular fiberscopic images App-<br />

lication and first results. In: GREINER, GÜNTHER, JOACHIM HORNEGGER,<br />

HEINRICH NIEMANN und MARC STAMMINGER (Herausgeber): Vision, Mo-<br />

deling And Visualization 2005, Seiten 57–64, Berlin, Nov. 2005. Akademische<br />

Verlagsgesellschaft Aka GmbH.


LITERATUR DES AUTORS 205<br />

[*WSW04] WINTER, CHRISTIAN, KLAUS SPINNLER und THOMAS WITTENBERG: 3-D-<br />

Akquisition komplexer Hohlräume mit flexiblen Endoskopen. In: GERHÄU-<br />

SER, HEINZ (Herausgeber): 5 Jahre Lehrstuhl für Informationstechnik mit dem<br />

Schwerpunkt Kommunikationselektronik, Seiten 111–120, 2004.<br />

[*WSZ07] WINTER, CHRISTIAN, HELENA SCHILINSKI und THORSTEN ZERFASS: Mo-<br />

dellierung eines CCD-Bildsensors zur Evaluierung von Algorithmen zur Bild-<br />

aufbereitung in der Farbendoskopie. In: Workshop Farbbildverarbeitung, Sei-<br />

ten 43–53. Der Andere Verlag, Tönning, 2007.<br />

[*WWRW06] WINTER, CHRISTIAN, SANDRA WEISENSEL, STEPHAN RUPP und THOMAS<br />

WITTENBERG: Auflösungssteigerung von fiberskopischen Bildsequenzen im<br />

Ortsraum. In: Bildverarbeitung für die Medizin (BVM), Seiten 428–433, Hei-<br />

delberg, März 2006. Springer, Berlin.<br />

[*WWS + 06] WITTENBERG, THOMAS, CHRISTIAN WINTER, INGO SCHOLZ, STEPHAN<br />

RUPP, MARC STAMMINGER, KLAUS BUMM und CHRISTOPHER NIMSKY:<br />

3-D Reconstruction of the Sphenoid Sinus from Monocular Endoscopic Views:<br />

First results. In: Biomedizinische Technik: Tagungsband Gemeinsame Jahres-<br />

tagung der Deutschen, Österreichischen und Schweizerischen Gesellschaften<br />

für Biomedizinische Technik. Walter de Gruyter GmbH & Co. KG, Berlin, Sep.<br />

2006.<br />

[*WWWR06] WINTER, CHRISTIAN, SANDRA WEISENSEL, THOMAS WITTENBERG und<br />

STEPHAN RUPP: Verfahren und Vorrichtung zur Erzeugung eines hoch aufge-<br />

lösten Bildes für faseroptische Systeme. Patent DE102006004006B3, 01 2006.<br />

[*WZ07] WINTER, CHRISTIAN und THORSTEN ZERFASS: Korrektur der Farb-<br />

verschiebung in faseroptischen Abbildungssystemen. Patentanmeldung<br />

102007026595.8, Feb. 2007.


Lebenslauf<br />

Christian Winter, geboren 1978 in Regensburg, besuchte das Arnold-Gymnasium in<br />

Neustadt bei Coburg. Nach seinem Abitur (1997) und dem Grundwehrdienst begann er<br />

207<br />

1998 das Studium der Elektrotechnik an der Friedrich-Alexander-Universität Erlangen-<br />

Nürnberg. Ein achtmonatiger Aufenthalt in Princenton, USA, gewährte ihm Einblicke<br />

in die Forschung bei Siemens Cooperate Research. Er erhielt das Diplom in Elektro-<br />

technik im März 2004 und arbeitete anschließend als wissenschaftlicher Mitarbeiter<br />

am Lehrstuhl für Informationstechnik (LIKE). Ab Mai 2008 ist Christian Winter am<br />

Fraunhofer Institut für Integrierte Schaltungen (IIS) in Erlangen tätig.


Danksagung<br />

Die vorliegende Arbeit entstand während meiner Tätigkeit als wissenschaftlicher Mit-<br />

arbeiter am Lehrstuhl für Informationstechnik (LIKE) in Kooperation mit dem Fraun-<br />

hofer Institut für Integrierte Schaltungen (IIS) in Erlangen. Gefördert wurde sie im<br />

Rahmen des Sonderforschungsbereichs (SFB) 603 der Deutschen Forschungsgemein-<br />

209<br />

schaft (DFG) als Teilprojekt A7, das die faserendoskopische Rekonstruktion von schwer<br />

zugänglichen Hohlräumen zum Thema hatte. Für ihre Unterstützung möchte ich allen<br />

Kolleginnen und Kollegen des SFB 603, der Abteilung BMT und des Lehrstuhls für<br />

Informationstechnik danken, die in der zurückliegenden interessanten und lehrreichen<br />

Zeit zum Gelingen dieser Arbeit beigetragen haben.<br />

Besonderer Dank gilt<br />

• Prof. Dr.-Ing. Heinz Gerhäuser für die Betreuung der Arbeit als Doktorvater und<br />

für alle positive Kritik, die den Inhalt der Arbeit sehr bereichert haben,<br />

• Prof. Dr.-Ing. Dietrich Paulus für die inhaltlichen Beiträge im Rahmen seiner<br />

Funktion als Zweitgutachter,<br />

• Dr.-Ing. Thomas Wittenberg für sein Engagement als Mentor am Fraunhofer IIS,<br />

• Stephan Rupp, Thorsten Zerfaß und Matthias Elter für alle konstruktiven Dis-<br />

kussionen und Anregungen, sowie unser kollegiales Miteinander,<br />

• Sandra Weisensel, Andreas Siemon, Christine Steenkamp, Helena Schilinski und<br />

Franz Hirschbeck für ihre inhaltlichen Beiträge im Rahmen ihrer Mitarbeit,<br />

• Nives Berner und Michaela Beasly für ihre herzliche Art und organisatorische<br />

Unterstützung am Lehrstuhl für Informationstechnik,<br />

• meiner Familie sowie Annemarie Dieter, Johannes Simon und Sonja Bröning<br />

für alle hilfreichen Korrekturen an der Arbeit und die emotionale Unterstützung<br />

während der heißen Phase,<br />

• meinem Herrn und Gott für die Begabung und die Gesundheit für meine Arbeit.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!