28.01.2013 Aufrufe

Medizinische Bildverarbeitung - Inforakel

Medizinische Bildverarbeitung - Inforakel

Medizinische Bildverarbeitung - Inforakel

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

DHP<br />

<strong>Medizinische</strong> <strong>Bildverarbeitung</strong><br />

Eine Zusammenfassung der wichtigsten Vorlesungsthemen<br />

Dennis Holzhäuser<br />

9. Dezember 2008<br />

Institut für Computervisualistik<br />

Universität Koblenz-Landau<br />

Universitätsstraße 1, 56070 Koblenz<br />

holzhawi@uni-koblenz.de<br />

http://www.uni-koblenz.de/∼holzhawi


Inhaltsverzeichnis<br />

Vorwort iv<br />

1 Bildgebende Verfahren 1<br />

1.1 Übersicht . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1<br />

1.2 Röntgenologische Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1<br />

1.2.1 Bildgebung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1<br />

1.2.2 Röntgentechnik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3<br />

1.2.3 Diagnostik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5<br />

1.3 Magnetresonanztomographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7<br />

1.3.1 Bildgebung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7<br />

1.3.2 Diagnostik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7<br />

1.4 Nuklearmedizinische Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8<br />

1.4.1 Bildgebung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8<br />

1.4.2 Emissionstomographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9<br />

1.4.3 Diagnostik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9<br />

1.4.4 Andere funktionelle Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10<br />

1.5 Sonographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10<br />

1.5.1 Bildgebung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10<br />

1.5.2 Diagnostik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11<br />

2 Geometrische Grundlagen der Bilderzeugung 13<br />

2.1 Koordinatensysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13<br />

2.1.1 Übersicht der Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13<br />

2.1.2 Umrechnung der Koordinaten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14<br />

2.1.3 Projektionsmodelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14<br />

2.2 Kameraparameter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15<br />

2.2.1 Extrinsische Parameter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15<br />

2.2.2 Intrinsische Parameter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15<br />

2.2.3 Kamerakalibrierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16<br />

2.3 Epipolargeometrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16<br />

2.3.1 Terminologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16<br />

2.3.2 Die Essential-Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17<br />

2.3.3 Die Fundamental-Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17<br />

2.3.4 8-Punkte Algorithmus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17<br />

3 Modalitätsabhängige Bildverbesserung 19<br />

3.1 Motivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19<br />

3.1.1 Arten von Bildstörungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19<br />

3.1.2 Vorverarbeitung von Bildern . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20<br />

3.2 Radiale Verzerrungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20<br />

3.2.1 Mathematisches Modell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20<br />

3.2.2 Bilineare Interpolation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21<br />

3.3 Defektpixelinterpolation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21<br />

3.3.1 Interpolationsmethoden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21<br />

3.3.2 Interpolation mittels Bandbegrenzung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22<br />

3.4 Rauschunterdrückung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23<br />

3.4.1 Problemstellung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23


ii INHALTSVERZEICHNIS<br />

3.4.2 Bilateral Filter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23<br />

3.5 Beleuchtungskorrektur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24<br />

3.5.1 Beleuchtungsmodell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24<br />

3.5.2 Retrospektive Beleuchtungskorrektur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25<br />

3.5.3 Farbkorrektur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26<br />

4 Rekonstruktion von Schichtbildern 27<br />

4.1 Projektion eines Körpers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27<br />

4.1.1 Projektionsarten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27<br />

4.1.2 Mathematische Darstellung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28<br />

4.1.3 Radontransformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28<br />

4.2 Rekonstruktion mittels Fourier Slice und Rückprojektion . . . . . . . . . . . . . . . . . . . . . . . . . 28<br />

4.2.1 Prinzip der Rückprojektion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29<br />

4.2.2 Fourier Slice Theorem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29<br />

4.2.3 Filtered Backprojection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30<br />

4.3 Algebraische Rekonstruktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31<br />

4.3.1 Motivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31<br />

4.3.2 Projektion als lineares Gleichungssystem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32<br />

4.3.3 Kaczmarz Methode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33<br />

5 Bildregistrierung und Fusion 35<br />

5.1 Fusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35<br />

5.1.1 Unimodale Fusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35<br />

5.1.2 Multimodale Fusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36<br />

5.2 Registrierungsverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36<br />

5.2.1 Transformationsbasierte Registrierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36<br />

5.2.2 Intensitätsbasierte Registrierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36<br />

5.3 Blockmatching . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37<br />

5.3.1 Funktionsweise . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37<br />

5.3.2 Blockgröße und Ähnlichkeitsmaße . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37<br />

5.3.3 Anwendungsbeispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38<br />

5.4 Homographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38<br />

5.4.1 Projektive Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38<br />

5.4.2 Herleitung der Homographiematrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39<br />

5.4.3 Mapping . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40<br />

A Mathematische Grundlagen 43<br />

A.1 Vektoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43<br />

A.1.1 Skalar- und Kreuzprodukt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43<br />

A.1.2 Winkel zwischen Vektoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44<br />

A.2 Projektive Geometrie in 2D . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44<br />

A.2.1 Punkte und Linien in 2D . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44<br />

A.2.2 Dualitätsprinzip . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44<br />

A.3 Rigide Transformationen in 3D . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44<br />

A.3.1 Allgemeine Translation und Rotation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45<br />

A.3.2 Rotation nach Euler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45<br />

A.3.3 Rotation nach Rodrigues . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45<br />

A.4 Quaternionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46<br />

A.4.1 Multiplikation von Quaternionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46<br />

A.4.2 Rotation mit Quaternionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47<br />

A.5 Singulärwertzerlegung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47<br />

A.5.1 Definition der SVD . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47<br />

A.5.2 Rang einer Matrix erzwingen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47<br />

A.5.3 Nullraum einer Matrix bestimmen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48<br />

A.5.4 Lösung von überbestimmten Gleichungssystemen . . . . . . . . . . . . . . . . . . . . . . . . . 48<br />

B Physikalische Grundlagen 49<br />

B.1 Bohrsches Atommodell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49<br />

B.1.1 Aufbau und Struktur eines Atoms . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49


INHALTSVERZEICHNIS iii<br />

B.1.2 Atomarten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50<br />

B.2 Röntgenstrahlung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50<br />

B.2.1 Bremsstrahlung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50<br />

B.2.2 Wechselwirkung mit Materie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50<br />

B.3 Kernspin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52<br />

B.3.1 Präzession eines Atomkerns . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52<br />

B.3.2 Relaxation und FID . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52<br />

C Prüfungsprotokoll MedBV 53<br />

Abbildungsverzeichnis 55<br />

Literaturverzeichnis 56


iv INHALTSVERZEICHNIS


Vorwort<br />

Dieses Skript entstand während meiner Prüfungsvorbereitung des Studienschwerpunktes im Studiengang Computervisualistik<br />

(Prüfungsprotokoll siehe Anhang C). Es diente mir als Lernhilfe und Zusammenfassung des Inhaltes der<br />

Vorlesung <strong>Medizinische</strong> <strong>Bildverarbeitung</strong> im Wintersemester 2005/2006 bei Professor Paulus.<br />

Als Quellen und Lernmaterial dienten mir hauptsächlich die Folien der Vorlesung, Vorlesungsmitschriften und die<br />

Übungsinhalte. Weitere Quellen sowie verwendete Literatur sind im Literaturverzeichnis am Ende aufgeführt. Sehr<br />

geholfen haben mir auch die Prüfungsprotokolle anderer Prüflinge (denen ich an dieser Stelle danke!), die im <strong>Inforakel</strong><br />

unter www.inforakel.de zu finden sind.<br />

Ich habe mich bemüht alle verwendeten Bilder mit Quellenangaben zu versehen. Fehlen die Quellenangaben handelt es<br />

sich um eigene Bilder, oder aus den Übungsmaterialien (siehe [35]) entnommene Beispiele. Weitere Graphiken wurden<br />

von mir mit den Programmen Dia und Gimp, sowie Octave und GNUplot erstellt.<br />

Da es bisher kein Skript zur Vorlesung MedBV gab, habe ich mich entschlossen meine Handschriftlichen Notizen mit<br />

L ATEXin eine angemessene Form zu bringen. Das Ergebnis ist dieses Skript!<br />

Inhaltsübersicht<br />

Der Inhalt des Skripts gibt im wesentlichen die Themen der Prüfung wieder, wie sie in der Vorbesprechung mit Prof.<br />

Paulus festgelegt wurden. Die Prüfung beinhaltete alle Themen der Vorlesung, jedoch zu meiner Erleichterung ohne<br />

probabilistische Verfahren, welche in diesem Skript somit nicht zu finden sind.<br />

Hier nun eine kurze Übersicht der einzelnen Kapitel:<br />

Kapitel 1: Dieses Kapitel stellt die Wichtigsten bildgebenden Verfahren aus der Medizin vor, im Hinblick auf Technik<br />

und medizinische Fragestellung. 1<br />

Kapitel 2: Bevor es zu den eigentlichen Aufgaben der medizinischen <strong>Bildverarbeitung</strong> geht, behandelt dieses Kapitel<br />

die benötigten mathematischen Grundlagen. 2<br />

Kapitel 3: Hier werden die häufigst auftretenden Störeffekte in medizinischen Bildern und Methoden zur Verbesserung<br />

beschrieben.<br />

Kapitel 4: Dieses Kapitel beschreibt die mathematischen Grundlagen und die wichtigsten Rekontruktionsverfahren der<br />

Computertomographie.<br />

Kapitel 5: Fusion von medizinischen Bildern ist ein wichtiges Hilfsmittel. Hier werden die Grundlagen der Fusion und<br />

zwei Registrierungsverfahren behandelt.<br />

Anhang A: Die wichtigsten mathematischen Grundlagen zur Vorlesung sind hier wiederholt und werden durch weiterführende<br />

Quellenangaben ergänzt.<br />

Anhang B: Hier wird abschließend näher auf die physikalischen Grundlagen und Effekte der vorgestellten bildgebenden<br />

Verfahren eingegangen.<br />

Anhang C: Der letzte Abschnitt enthält das Prüfungsprotokoll meiner MedBV Prüfung (Studienschwerpunkt) bei Prof.<br />

Paulus, wie es im <strong>Inforakel</strong> veröffentlicht wurde.<br />

1 Die Nuklearmedizinischen Verfahren sind hier etwas umfangreicher behandelt als dies in der Vorlesung der Fall war.<br />

2 Dieses Kapitel ist im Prinzip eine Wiederholung der relevanten Themen aus der Vorlesung Struktur aus Bewegung.


vi INHALTSVERZEICHNIS<br />

Erklärung<br />

Dieses Skript entstand nach bestem Wissen und Gewissen als Prüfungsvorbereitung und war ausschließlich für den<br />

eigenen Gebrauch gedacht. Ich übernehme daher keine Garantie, bezüglich der Vollständigkeit, noch der Korrektheit der<br />

angegebenen Informationen. Im Nachhinein hat sich das Schreiben dieses Skripts und die intensive Aufarbeitung des<br />

Stoffes aber als überaus nützlich erwiesen.<br />

Da in der Prüfung das Verständnis zählt, kommt man dennoch nicht umhin, den Stoff selbst aufzuarbeiten und es empfiehlt<br />

sich, noch andere Quellen als dieses Skript zu konsultieren. Dies gilt insbesondere für den mathematischen Inhalt.<br />

Ferner ist es sinnvoll, die Übungsblätter zur Vorlesung durchzuarbeiten bzw. zu wiederholen.<br />

Anmerkungen und Hinweise auf gefundene Fehler sind willkommen und können ebenso wie etwaige Fragen an nachfolgende<br />

Emailadresse gerichtet werden.<br />

Dennis Holhäuser<br />

holzhawi@uni-koblenz.de


Kapitel 1<br />

Bildgebende Verfahren<br />

Dieses Kapitel stellt die wichtigsten bildgebenden Verfahren aus der Medizin vor. Dabei werden die Technik der Bilderzeugung,<br />

medizinische Fragestellungen, Anwendungsmöglichkeiten und Vor- sowie Nachteile der Verfahren erläutert.<br />

Eine mitunter ausführlichere Vorstellung der bildgebenden Verfahren findet man in [15] und [17].<br />

1.1 Übersicht<br />

Eine Übersicht der in der medizinischen <strong>Bildverarbeitung</strong> angewandten Bildmodalitäten gibt Tabelle 1.1. Auf die optischen<br />

Verfahren soll hier nicht näher eingegangen werden, da diese hinreichend in den Folien [25] beschrieben sind.<br />

Die Modalitäten lassen sich in statische und funktionelle Verfahren einteilen. Statische, wie Röntgen, CT und MRT,<br />

bilden den morphologischen 1 Zustand des Patienten ab, während funktionelle, wie PET und SPECT, die Funktionsweise<br />

des Metabolismus 2 , also den Weg eines Stoffes durch den Körper, darstellen.<br />

Verfahren Physikalisches Medium Methoden<br />

Optische Licht Endoskopie (siehe [30]), Virtuelle Endoskopie, Retina imaging<br />

Röntgenologische Röntgenstrahlung Röntgen, Computertomographie (CT), Angiographie,<br />

Digitale Substraktionsangiograhpie (DSA)<br />

Magnetresonanz Magnetische Felder Magnetresonanztomographie (MRT),<br />

Magnetresonazangiographie (MRA)<br />

Funktionelle Nukleare Strahlung Szintigraphie, Positronenemissionstomographie (PET),<br />

Single-Photon-Emission-Computertomographie (SPECT)<br />

Sonographie Schallwellen Ultraschall (US), Dopplerverfahren, 3D-Ultraschall<br />

1.2 Röntgenologische Verfahren<br />

Tabelle 1.1: Übersicht der Bildmodalitäten<br />

Eines der wichtigsten medizinischen Verfahren ist das Röntgen. Im Folgenden werden die Bildgebung mit Röntgenstrahlen<br />

und verschiedene technische Verfahren erläutert.<br />

1.2.1 Bildgebung<br />

Die 1895 von Wilhelm Konrad Röntgen entdecke Röntgenstrahlung vermag Körper zu durchleuchten und wird hinter<br />

dem Objekt mittels Leuchtfilmen detektiert. Dabei entsteht ein Abbild der gemessenen Strahlungsintensität, das Röntgenbild.<br />

1 Morphologie: Lehre von der Körper-, (Organ-) Form und Körperstruktur [26]<br />

2 Stoffwechsel synonym Metabolismus:, die gesamten Vorgänge des Abbaus und der Umwandlung von Substraten (Nahrungsstoff, Sauerstoff) sowie<br />

des Zerfalls und Ersatzes der Körperbestandteile, [26]


2 KAPITEL 1. BILDGEBENDE VERFAHREN<br />

Erzeugung der Röntgenstrahlung<br />

Röntgenstrahlen werden, wie in Abbildung 1.1 dargestellt, in luftleeren Röntgenröhren erzeugt. Dabei treten Elektronen<br />

aus der Kathode (Glühdraht) aus und werden zur Anode hin beschleunigt. Je höher die Angelegte Stromstärke ist, desto<br />

höher ist dabei die kinetische Energie der Elektronen. Beim Auftreffen der Elektronen wird ca. 1% Strahlung und 99%<br />

Wärme erzeugt.<br />

Beim Durchdringen eines Körpers werden die Röntgenstrahlen unterschiedlich stark absorbiert, was auf dem Film helle<br />

und dunkle Stellen hinterlässt. Wegen der Negativtechnik erscheinen Stellen mit starker Absorbtion weiss und Stellen<br />

mit schwacher Absorbtion schwarz.<br />

Absorbtion der Röntgenstrahlung<br />

Abbildung 1.1: Schematische Darstellung der Röntgenröhre aus [37]<br />

Röntgenstrahlen sind schädlich für lebendes Gewebe. Die angelegte Spannung in der Röhre wirkt sich auf die resultierende<br />

Strahlung aus. Man unterscheidet harte und weiche Röntgenstrahlen.<br />

• Harte Strahlung entspricht einer Röhrenspannung über 100 Kilovolt. Die entstehende, kurzwellige Strahlung wird<br />

nur von dichtem Gewebe absorbiert und sonst gestreut. Daher ist die Belastung für den Patienten eher gering.<br />

• Weiche Strahlung entspricht einer Röhrenspannung bis 100 Kilovolt. So entstehende, langwellige Strahlen werden<br />

auch von weichen Gewebe, also von mehreren Organen absorbiert und sind damit schädlicher für den Patienten.<br />

Die Absorbtion der Strahlen wird stärker bei<br />

• längerer Wellenlänge der Röntgensrahlen<br />

• höherer Ordnungszahl (siehe Anhang B.1) der durchquerten Materie<br />

• höherer Dichte und Dicke des Objektes<br />

Die physikalischen Grundlagen der Röntgenstrahlung sind Ansatzweise in Anhang B.2 beschrieben. Einen wesentlich<br />

tieferen Einblick in die Materie bietet [18].<br />

Bildqualität<br />

Maßgebend für scharfe und kontrastreiche Bilder ist Dosis, Streuung und die Härte der Strahlung. Wegen der Streung<br />

müssen höhere Dosen harter Strahlung eingesetzt werden.<br />

Durch Streuung verursachte Bildströrungen, können durch den Einsatz von Streustrahlenrastern, den sogenannten Kollimatoren,<br />

eingeschränkt werden. Dabei werden nur direkte Strahlen auf den Film durchgelassen, wie man in Abbildung<br />

1.2 sieht.


1.2. RÖNTGENOLOGISCHE VERFAHREN 3<br />

1.2.2 Röntgentechnik<br />

Abbildung 1.2: Funktionsweise eines Kollimators [18]<br />

Um die Strahlendosis und somit die Belastung für Patienten gering zu halten, ist es notwendig die Strahlen nach der<br />

Durchquerung eines Objektes, also die Bildinformation, zu verstärken. Dies ist die Aufgabe des Bildverstärkers. Ein<br />

anderer Ansatz der Bildverbesserung und somit der Schonung des Patienten stellt der Flatpanel dar.<br />

Bildverstärker<br />

Wie in Abbildung 1.3 zu sehen, wandelt der Bildverstärker die einfahlende Röntgenstrahlung in Licht um, welches wiederum<br />

durch die Photokathode Elektronen in die luftleere Röhre abgibt. Durch das anliegende elektrische Feld werden<br />

die Elektronen auf den Ausgang gebündelt und dort wieder in Licht umgewandelt, welches auf einen Film fällt und so<br />

ein Abbild erzeugt.<br />

Das elektrische Feld ist empfindlich gegenüber Magnetfeldern und das Eingangsfenster kann radiale Verzerrungen 3<br />

erzeugen, was den Bildverstärker insgesamt Fehleranfällig macht.<br />

Flatpanel<br />

Abbildung 1.3: Funktionsweise eines Bildverstärkers [25]<br />

Zwar teurer in der Anschaffung, aber mit höherem Kontrast und der Unempfindlichkeit gegenüber magnetischen Feldern<br />

ist der Flatpanel Detektor die bessere Wahl. Man unterscheidet bei den Flatpanel Detektoren zwischen direkter und<br />

indirekter Umwandlung der Röntgenstrahlen (siehe Abbildung 1.4).<br />

Anders als beim Bildverstärker, werden die Röntgenstrahlen beim direkten Flatpanel unmittelbar in Informationen umgewandelt.<br />

Bei den indirekten Flatpanel wird die Strahlung zunächst mittels eines Szintilators in Licht umgewandelt,<br />

welches dann mit einem CCD-Chip aufgenommen wird.<br />

Durch diese Art von Aufnahmetechnik hat der Flatpanel einige wesentliche Vorteile gegenüber dem Bildverstärker.<br />

3 Bei der Bildaufnahme entstehende Artefakte, wie die radiale Verzerrung, und Methoden der Bildverbesserung werden in Kapitel 3 behandelt.


4 KAPITEL 1. BILDGEBENDE VERFAHREN<br />

• Digitale Röntgenbilder in besserer Qualität<br />

Abbildung 1.4: Funktionsweise eines Flatpanels [25]<br />

• Einsparung des Films und somit Einsparung von Kosten<br />

• Keine Verschwendung von Röntgenstrahlen (Schonung des Patienten)<br />

• Optimierung des Klinikbetriebes<br />

C-Bogen und Biplane<br />

Der Flatpanel Detektor kann nur planare Bilder aufnehmen. Eine zweidimensionale Ansicht reicht aber manchmal nicht<br />

aus um eine Diagnose zu stellen. Erst die Aufnahme zweier Bilder aus unterschiedlichen Richtungen, ermöglicht einen<br />

dreidimensionalen Befund.<br />

Um Röntgenaufnahmen aus verschiedenen Richtungen zu machen, ohne den Patienten drehen zu wollen, benötigt man<br />

einen C-Bogen oder C-Arm (Abbildung 1.5a). Die Achse Röntgenstrahler–Detektor kann in zwei Richtungen (Roll- und<br />

Kippbewegung) rotiert werden.<br />

Der Nachteil bei dieser Methode ist die zeitliche Differenz zwischen den Aufnahmen. Das biplanare System hingegen<br />

vereint zwei C-Bögen (Abbildung 1.5b) und ermöglicht die gleichzeitige Aufnahme von zwei Röntgenbildern aus<br />

unterschiedlichen Perspektiven.<br />

(a) C-Arm (b) Biplane<br />

Abbildung 1.5: C-Arm und biplanares System [31]


1.2. RÖNTGENOLOGISCHE VERFAHREN 5<br />

Computertomographie<br />

(a) Testbild (b) Sinogramm<br />

Abbildung 1.6: Erstelltes Sinogramm (b) des Testbildes (a) aus [22]<br />

Mit den bisherigen Techniken können nur Bilder seitlich zur Längsachse des Patienten gemacht werden. Um ein axiales<br />

Schnittbild des Körpers zu bekommen, nutzt man die Computertomographie (CT). Tomographie (von griech. tomos =<br />

Scheibe) bezeichnet die Technik, einen Körper im Querschnitt darzustellen.<br />

Das Prinzip der CT ist einfach. Die Röntgenröhre rotiert um den Körper und nimmt aus jeder Position ein Zeilenbild,<br />

also eine Projektion des Körpers auf. Fügt man die Zeilen nacheinander in ein Bild, entsteht ein Sinogramm (siehe<br />

Abbildung 1.6b).<br />

Mit Hilfe spezieller Rekontruktionsverfahren wird aus den Zeilenbildern das Schnittbild errechnet. Wird der Patient<br />

zusätzlich verschoben, können mehrere aufeinander folgende Schichten zu einer dreidimensionalen Aufnahme zusammengefügt<br />

werden. In Kapitel 4 wird die Rekonstruktion von CT Bildern und deren mathematische Grundlage eingehend<br />

behandelt.<br />

1.2.3 Diagnostik<br />

Abbildung 1.7: Prinzip des CT [18]<br />

Die Röntgentechnik liefert hauptsächlichg morphologische Befunde z.B. für die Diagnose 4 von Frakturen 5 . In einem<br />

Röntgenbild sind dichte Strukturen und Hohlorgane, wie der Magen-Darmtrakt und Knochen besonders gut zu sehen.<br />

Demgegenüber steht die Schädlichkeit der Röntgenstrahlung für die Patienten.<br />

4 gr. diagnosis: Entscheidung, Erkennung und Benennung der Krankheit, Differentialdiagnose, Unterscheidung ähnlicher Krankheitsbilder [26]<br />

5 Knochenbruch; Kontinuitätsunterbrechung eines Knochens unter Bildung von Bruchstücken (Fragmenten) [26]


6 KAPITEL 1. BILDGEBENDE VERFAHREN<br />

Hounsfield-Skala<br />

Abbildung 1.8: Schwächungskoeffizienten von Gewebe, bezogen auf Wasser [18]<br />

Wie gut eine bestimmte Gewebeart im Röntgenbild zu sehen ist, ist bedingt durch ihren Schwächungskoeffizienten,<br />

der für den Grad an Absorbtion der Röntgenstrahlen steht. Der Schwächungskoeffizient wird in Hounsfield-Units (HU)<br />

angegeben. Alle Gewebearten lassen sich so in einer, nach Godfrey Hounsfield benannten, Hounsfield-Skala einordnen<br />

(siehe Abbildung 1.8). Die Werte beziehen sich auf Wasser mit 0 HU.<br />

Mammographie<br />

Die Mammographie, also die Durchleuchtung der weiblichen Brust, dient der Vorsorge und Diagnose krankhafter Veränderungen<br />

im Brustgewebe. Um weiches Gewebe differenziert darzustellen werden sehr weiche Strahlen eingesetzt<br />

(vgl. Abschnitt 1.2.1). Dadurch ist die Strahlenbelastung der Patientin relativ hoch.<br />

Angiographie<br />

In einer Angiographie werden Blutgefäße mit Hilfe eines Kontrastmittels röntgenologisch dargestellt. Kontrastmittel<br />

sind Stoffe mit hoher Absorbtionsrate, die sich im Röntgenbild besonders hervorheben. So können beispielsweise Ausweitungen<br />

von Blutgefäßen (Aneurismen) und Bildung von Blutpfropfen (Thrombosen) diagnostiziert und behandelt<br />

werden.<br />

Ein besonderes Verfahren zur Darstellung von Blutgefäßen im Kopf ist die Digital Substraction Angiography (DSA).<br />

Dabei dienen mehrere Bilder des Kopfes gemittelt als Maske (1.9a). Von einer gemittelten Bildreihe des Kopfes mit Kontrastmittel<br />

(1.9b), wird die Maske subtrahiert um ein Bild mit ausschließlich dargestellten Blutgefäßen (Angiogramm,<br />

siehe 1.9c) zu bekommen.<br />

(a) (b) (c)<br />

Abbildung 1.9: Digitale Substraktionsangiographie [25]


1.3. MAGNETRESONANZTOMOGRAPHIE 7<br />

1.3 Magnetresonanztomographie<br />

Ein ebenso wichtiges tomographisches Verfahren wie die CT, bildet die Magnetresonanztomographie (MRT). Allerdings<br />

basiert die MRT auf völlig anderen physikalischen Effekten als die CT und liefert somit auch andersartige Bilder. Diese<br />

physikalischen Effekte und die resultierende Bildgebung werden im Folgenden beschrieben.<br />

1.3.1 Bildgebung<br />

Die MRT nutzt den hohen Anteil an Wasser im menschlichen Organismus zur Bildgebung. Grundlage dafür ist die 1946<br />

von Felix Bloch und Edward M. Purcell entdeckte Kernmagnetische Resonanz. Durch Anlegen eines starken magnetischen<br />

Feldes richten sich die Wasserstoffatome im Körpergewebe aus. Mit Hilfe eines Hochfrequenzimpulses und der<br />

daraus resultierenden Resonanz lässt sich die Verteilung von Wasser im Körper darstellen.<br />

Resonanzerzeugung<br />

Ein Wasserstoffkern richtet sich aufgrund seines Eigendrehimpulses nach einem magnetischen Grundfeld aus 6 . Durch<br />

Anregung mit einem Hochfrequenzimpuls (HF-Impuls) wird die Ausrichtung des Kerns abgelenkt. Wird der HF-Impuls<br />

abgestellt richtet sich der Kern wieder parallel zum Grundfeld aus. Bei diesem Vorgang, der Relaxation, geben die<br />

Atomkerne ein Resonanzsignal, also eine geschwächte Form des HF-Impulses, ab. Dieses wird Free Induction Decay<br />

(FID) genannt. Anhand der Intensität des FID lässt sich die Dichte der Wasserstoffatome in einer bestimmten Region<br />

bestimmen.<br />

Technische Ausführung<br />

Es gibt verschiedene Arten von Magneten die zur Erzeugung der Magnetfelder eingesetzt werden. Neben dem Permanentmagnet<br />

und dem Normalleiter, ist der Supraleiter im Hinblick auf Bildgüte und Betriebskosten zu favorisieren [18].<br />

Er zeichnet sich durch hohe Stärke (bis zu 4 Tesla) und Stabilität des magnetischen Feldes aus. Dabei sind Magnetfelder<br />

in der Regel für den Patienten unschädlich 7 . Allerdings kann die Untersuchung eine hohe psychische Belastung<br />

darstellen, ausgelöst durch die räumliche Enge und der hohen Lautstärke (bis 140 Dezibel [17]) des Geräts.<br />

1.3.2 Diagnostik<br />

Die Bilder der Magnetresonanztomograhie zeichnen sich durch hohe Auflösung und der hervoragenden Darstellung von<br />

weichem Gewebe mit hohem Wasseranteil und anatomischer Struktur aus, wie Abbildung 1.10a verdeutlicht. Sie dienen<br />

daher als Refernz für nuklearmedizinische Bilder und werden auch zur Fusionierung herangezogen (siehe Kapitel 5.1).<br />

Es ist ausserdem möglich, Bewegung und Geschwindigkeit von Flüssigkeiten zu messen, was die Darstellung von Gefäßen,<br />

genannt Magnetresonanzangiographie (MRA) ermöglicht (siehe Abbildung 1.10b).<br />

(a) (b)<br />

Abbildung 1.10: Magnetresonanzverfahren [17]<br />

6 vielmehr richtet sich die Spinachse des Kerns aus (siehe Anhang B.3 Kernspin)<br />

7 Allerdings können Patienten mit Herzschrittmacher oder sonstigen metallenen Implantaten nicht untersucht werden.


8 KAPITEL 1. BILDGEBENDE VERFAHREN<br />

1.4 Nuklearmedizinische Verfahren<br />

Anders als bei den bisherigen strukturabbildenden Modalitäten wird bei den sogenannteb funktionellen Verfahren die<br />

Funktion des Körpers untersucht. Dies geschieht in der Nuklearmedizin mit Hilfe radioaktiver Substanzen. Eine genaue<br />

Erklärung der Verfahren und der Bildentstehung bietet [24]. Mehr physikalisch werden die radioaktiven Strahlungsprozesse<br />

in [18] geschildert.<br />

1.4.1 Bildgebung<br />

Für funktionelle Bildgebung werden radioaktive Nuklide, so genannte Radiopharmaka oder Tracer, in den Körper eingebracht,<br />

welche in den Stoffwechsel eingehen. Aufgrund des radioaktiven Zerfalls kann die Verteilung des Tracers und<br />

somit der Stoffwechsel sichtbar gemacht werden.<br />

Einbringen der Radiopharmaka<br />

Die Wahl der Nuklide und die Art der Verabreichung ist abhängig von der gewollten Abbildung. Sollen langfristige<br />

Wirkungen beobachtet werden, müssen Nuklide mit längerer Halbwertszeit gewählt werden, die sich weit im Körper<br />

verteilen können. Die Halbwertszeit liegt bei den meist verwendeten Nukliden im Bereich von 20 bis 110 Minuten. Je<br />

nach abzubildender Körperregion werden die Tracer injiziert, geschluckt oder inhaliert.<br />

Radioaktiver Zerfall<br />

Man unterscheidet in der Nuklearmedizin zwei Arten von radioaktivem Zerfall.<br />

• Photonenemittierender Zerfall: Beim Zerfall des Nuklides wird ein γ-Quant ausgestrahlt welches mit einer Anger-<br />

Kamera (γ-Kamera) detektiert werden kann. Diese Methode findet bei der Szintigraphie Verwendung.<br />

• Positronenemittierender Zerfall: Hier wird beim Zerfall ein Positron 8 emittiert. Trifft dieses auf ein Elektron,<br />

löschen sich beide gegenseitig aus. Dabei werden zwei γ-Quanten im Winkel von 180 ◦ ausgestrahlt.<br />

Anger-Kamera<br />

Die Anger-Kamera dient der Detektion von γ-Quanten. Abbildung 1.11a zeigt den Aufbau und die Funktionsweise einer<br />

Anger-Kamera. Beim Auftreffen der Quanten auf dem Szintillationskristall wird Licht erzeugt, welches durch darunter<br />

liegende Photomultiplier verstärkt wird und so ein Signal bildet. Wie bei den Röntgenstrahlen dient ein Kollimator zur<br />

Vermeidung von Streustrahlung.<br />

(a) (b)<br />

Abbildung 1.11: Aufbau einer Anger-Kamera (a) und PET Prinzip (b) [18]<br />

8 Ein Positron ist ein Elektron mit positiver Ladung e + (siehe Anhang B)


1.4. NUKLEARMEDIZINISCHE VERFAHREN 9<br />

1.4.2 Emissionstomographie<br />

In der Nuklearmedizin werden zwei tomographische Verfahren angewendet. Die Single-Photon-Emission-Computertomographie<br />

(SPECT) und die Positronenemissionstomographie (PET). Sie unterscheiden sich in der radioaktiven Zerfallsweise (s.o.)<br />

der verwendeten Tracer. Beide Verfahren sind im Folgenden beschrieben.<br />

Single-Photon-Emission-Computertomographie (SPECT)<br />

Ähnlich wie bei der Röntgen-CT wird bei der SPECT ein, um den Patienten rotierender, Detektor verwendet, um die<br />

emittierten Einzelphotonen (γ-Quanten) aufzufangen. Als Detektor fungiert hier allerdings eine Anger-Kamera. Mittels<br />

Rekonstruktion kann die Verteilung der Tracer im Schnittbild ermittelt werden.<br />

Positronenemissionstomographie (PET)<br />

Statt einer rotierenden Anger-Kamera verwendet man bei der PET einen Ring aus Detektoren, mit derselben Funktionsweise.<br />

Aufgrund der 180 ◦ Quantenemission können zwei gegenüberliegende Detektoren die Quanten gleichzeitig<br />

messen, wie Abbildung 1.11b zeigt. Dieses Ereignis nennt man echte Koinzidenz (vgl. Abbildung 1.12). Daneben gibt es<br />

noch zufällige Koinzidenzen und Einzelereignisse, welche zu Fehlern bei der Rekonstruktion und im Bild führen können<br />

(siehe [24]).<br />

1.4.3 Diagnostik<br />

(a) Koinzidenz (b) Einzelereignis (c) Zufallskoinzidenz<br />

Abbildung 1.12: Auftretende Koinzidenzen bei PET<br />

Funktionelle Verfahren werden eingesetzt um biochemische und physiologische Abläufe im Körper, und die am Metabolismus<br />

beteiligten Stoffe, abzubilden. Die Art des Tracers ist maßgebend, da verschiedene Nuklide sich in den einzelnen<br />

Gewebearten unterschiedlich stark anreichern und differenzierte Diagnosen ermöglichen.<br />

So können beispielsweise Tumore und deren Veränderungen im Laufe der Zeit für eine Therapiekontrolle dargestellt<br />

werden, wie Abbildung 1.13 verdeutlicht.<br />

(a) PET Scan (b) Verlaufskontrolle<br />

Abbildung 1.13: PET Scans aus [25]


10 KAPITEL 1. BILDGEBENDE VERFAHREN<br />

1.4.4 Andere funktionelle Verfahren<br />

Neben den Nuklearmedizinischen Verfahren gibt es noch die funktionelle Magnetresonanztomographie (fMRT). Die<br />

fMRT wird hauptsächlich zur Identifikation und Abbildung aktiver Hirnareale bei verschiedenen Tätigkeiten verwendet.<br />

Der Unterschied zur normalen MRT (Abschnitt 1.3) und den nuklearmedizinischen Verfahren besteht darin, das hier<br />

statt der Wasserverteilung, das Blutvorkommen ganz ohne Tracer gemessen wird. Aktive Hirnareale sind besser mit Blut<br />

versorgt und können so sichtbar gemacht werden (siehe Abbildung 1.14). Eine ausführliche Beschreibung findet man<br />

unter [10].<br />

1.5 Sonographie<br />

Abbildung 1.14: Funktionelle MRT [10]<br />

Sonographie ist ein unkompliziertes und gefahrloses bildgebendes Verfahren, wobei man sich mit Hilfe von Ultraschall<br />

ein Bild aus dem Körperinneren macht. Dieser Abschnitt erklärt die Prinzipien der Sonographie. Eine genauere Beschreibung<br />

mit den verschiedenen Darstellungsmodi wird in [18] gegeben.<br />

1.5.1 Bildgebung<br />

Abbildung 1.15 zeigt das Prinzip der Sonographie. Mit Hilfe eines Schallkopfes werden Ultraschallwellen ausgesendet,<br />

die von den Grenzschichten der verschiedenen Gewebearten unterschiedlich stark reflektiert werden (links im Bild).<br />

Diese reflektierten Wellen werden wieder empfangen und auf dem Bild entsprechend ihrer Stärke unterschiedlich hell<br />

dargestellt (rechts im Bild). Man erhält so einen Querschnitt durch die untersuchte Region.<br />

Dabei gilt: Je niedriger die Frequenz der Ultraschallwellen, desto weiter dringen sie ins Gewebe ein. Dadurch wird aber<br />

die Auflösung der Bilder schlechter. Es werden in der Regel Schallwellen mit einer Frequenz von 5 MHz bis 10 MHz<br />

verwendet. Eindringtiefe und Auflösung bilden in diesem Frequenzbereich einen guten Kompromiss [15].<br />

Abbildung 1.15: Prinzip der sonographischen Verfahren


1.5. SONOGRAPHIE 11<br />

1.5.2 Diagnostik<br />

Sonographie ist ein einfaches und für den Patienten völlig ungefährliches Verfahren. Bei der Handhabung gilt es allerdings<br />

gewisse Dinge zu beachten. Da Ultraschall an Knochen vollständig reflektiert wird, lassen sich dahinter liegende<br />

Strukturen, wie z.B. das Gehirn nicht abbilden 9 .<br />

Die Sonographie eignet sich somit besonders zur Darstellung von Organen und Weichteilen im Bauch und Brustbereich.<br />

Ein Nachteil ist allerdings die hohe Rauschanfälligkeit. Es erfordert eine gewisse Übung für die nicht triviale Deutung<br />

der Bilder und den Umgang mit dem Gerät.<br />

3D und 4D Sonographie<br />

Mit speziellen Schallköpfen ist es möglich dreidimansionale Abbilder zu erzeugen, um z.B. Missbildungen eines Fötus<br />

auszuschließen (siehe Abbildung 1.16a). Die Technik der Sonographie ist relativ einfach, dadurch können Bilder sofort<br />

in Echtzeit errechnet werden. So können Bewegungsabläufe direkt beobachtet werden. Als 4D Sonographie wird eine<br />

Videoaufnahme aus 3D Bildern bezeichnet.<br />

Doppler-Verfahren<br />

Bewegte Blutkörperchen reflektieren Schallwellen und erzeugen eine Frequenzverschiebung, welche als Dopplereffekt<br />

bezeichnet wird (Beschreibung siehe [18]). Mit Hilfe dieses Effektes lassen sich Durchblutungs- und Strömungsverhalten<br />

von Blutgefäßen untersuchen. Bei der sogenannten Echokardiographie wird die Fließgeschwindigkeit des Blutes in<br />

Falschfarben visualisiert (Abbildung 1.16b).<br />

(a) 3D Aufnahme (b) Echokardiographie [32]<br />

Abbildung 1.16: Sonographische Verfahren<br />

9 Bei Erwachsenen kann, aufgrund der geschlossenen Schädeldecke, keine Sonographie des Gehirnes durchgeführt werden. Bei Säuglingen und<br />

Kleinkindern ist dies jedoch möglich.


12 KAPITEL 1. BILDGEBENDE VERFAHREN


Kapitel 2<br />

Geometrische Grundlagen der<br />

Bilderzeugung<br />

Bevor es zu den eigentlichen Aufgaben der medizinischen <strong>Bildverarbeitung</strong> geht, behandelt dieses Kapitel die mathematischen<br />

und geometrischen Grundlagen. Dazu werden Koordinatensysteme, Kameraparameter und Projektionsmodelle<br />

kurz vorgestellt um anschließend die Epipolargeometrie zu beschreiben. Somit bildet dieses Kapitel eine knappe Wiederholung<br />

der, für die medizinische <strong>Bildverarbeitung</strong> benötigten Inhalte, aus der Vorlesung Struktur aus Bewegung.<br />

2.1 Koordinatensysteme<br />

Als Grundlage der <strong>Bildverarbeitung</strong> dienen verschiedene Koordinatensysteme. Im folgenden werden die für die Bildaufnahme<br />

mit einer Kamera relevanten Systeme, angefangen vom Objekt in der Welt, bis zum Pixel im fertigen Bild<br />

angesprochen, ferner die Transformation von einem System in das andere.<br />

2.1.1 Übersicht der Systeme<br />

Die bei der Bildaufnahme involvierten Koordinatensystem sind in Abbildung 2.1 verdeutlicht. Sie sind im Folgenden<br />

genauer beschrieben. Bedingt durch die Projektion 3D nach 2D, sind die Bild– und Pixelkoordinaten homogene Koordinaten<br />

aus P 2 , d.h. sie sind mit einer dritten homogenen Koordinate versehen.<br />

Weltkoordinaten: Punkt in der Welt p w ∈ R 3<br />

Kamerakoordinaten: Punkt im 3D Kamerakoordinatensystem p c ∈ R 3<br />

Bildkoordinaten: Punkt im 2D Bild, bezogen auf den Mittelpunkt (Hauptpunkt) p i ∈ P 2<br />

Pixelkoordinaten: Punkt im fertigen Bild bezogen auf linke, obere Ecke p p ∈ P 2<br />

Abbildung 2.1: Koordinatensysteme bei der Bildaufnahme


14 KAPITEL 2. GEOMETRISCHE GRUNDLAGEN DER BILDERZEUGUNG<br />

2.1.2 Umrechnung der Koordinaten<br />

Die Umrechnung zwischen den Koordinatensystemen geschieht im Allgemeinen mit Matrizen. So gibt es für jedes<br />

System eine Matrix um Punkte aus einem anderen System zu transformieren. Die Transformation von Welt– zu Pixelkoordinaten<br />

vollzieht sich in drei Schritten.<br />

Welt → Kamera: Weltkoordinaten lassen sich mit einer Rotation R und einer Translation t (extrinsische Kameraparameter,<br />

siehe Abschnitt 2.2.1) in Kamerakoordinaten überführen.<br />

p c = D p w<br />

� �<br />

R t<br />

mit D =<br />

wobei R ∈ R<br />

0 0 0 1<br />

3×3 , t ∈ R 3×1<br />

Kamera → Bild: Mitels einer Projektionsmatrix PProj lassen sich Punkte aus dem 3D Kamerakoordinatensystem auf<br />

eine 2D Bildfläche projezieren p i = PProj p c . Es gibt verschiedene Projektionsmodelle, die in Abschnitt 2.1.3<br />

kurz erläutert werden.<br />

Bild → Pixel: Die Umwandlung von Bildkoordinaten in Pixelkoordinaten, also dem letztlichen Bild geschieht mit Hilfe<br />

der intrinsischen Kameraparameter F , dx, dy, Hx, Hy und s (siehe Abschnitt 2.2.2).<br />

p p = K p i<br />

mit<br />

⎛<br />

K = ⎝ Kx<br />

0<br />

s<br />

Ky<br />

⎞<br />

Hx<br />

Hx⎠<br />

wobei Kx = F/dx, Ky = F/dy<br />

0 0 1<br />

Totale Projektion: Direkte Umwandlung eines Weltpunktes in Pixelkoordinaten wird als totale Projektion bezeichnet,<br />

wobei die oben genannten Matrizen der von rechts nach links aufmultipliziert werden.<br />

2.1.3 Projektionsmodelle<br />

p p = PTotal p w<br />

mit PTotal = K PProj D<br />

Hauptsächlich werden in der <strong>Bildverarbeitung</strong> drei Arten von Projektionen unterschieden: die orthographische, die<br />

perspektivische und die schwach perspektivische oder skaliert orthographische Projektion, die eine Mischung aus den<br />

beiden ersten Modellen ist (siehe dazu [21] und [20]). Abbildung 2.2 verdeutlicht grob den Unterschied zwischen der<br />

perspektivischen und der orthographischen Projektion.<br />

Orthographische Projektion<br />

(a) Orthographische Projektion (b) Perspektivische Projektion<br />

Abbildung 2.2: Unterschied zwischen orthographischer und perspektivischer Projektion<br />

Im Kamerakoordinatensystem beschreibt die Z-Achse die Entfernung zum optischen Zentrum der Kamera. Die orthographische<br />

Projektion bildet Punkte senkrecht auf die Bildebene ab, indem sie die Z-Koordinate der Punkte ignoriert<br />

(siehe Abb. 2.2a). Die Projektionsmatrix ist damit die Folgende:<br />

⎛<br />

⎛ ⎞ xc ⎞<br />

⎛ ⎞<br />

yi⎠ = POrtho<br />

1<br />

⎝ xi<br />

⎜<br />

⎜y<br />

⎝<br />

c<br />

zc ⎟<br />

1 0 0 0<br />

⎟<br />

⎠ mit POrtho = ⎝0 1 0 0⎠<br />

0 0 0 1<br />

1


2.2. KAMERAPARAMETER 15<br />

Perspektivische Projektion<br />

Perspektivische Projektion ist die häufigste Projektionsart (siehe Abb. 2.2b). Hier wird ein Punkt abhängig von seiner<br />

Z-Koordinate und der Brennweite F der Kamera, wie nachstehend gezeigt auf die Bildfläche projiziert.<br />

⎛<br />

⎝ xi<br />

⎞<br />

yi⎠ =<br />

1<br />

⎛<br />

⎝<br />

F<br />

zc xc F<br />

z c y c<br />

1<br />

Schwach perspektivische Projektion<br />

⎞ ⎛<br />

⎠ = ⎝ Fxc<br />

Fy c<br />

zc ⎛<br />

⎞ x<br />

⎜<br />

⎠ = PPersp ⎜<br />

⎝<br />

c<br />

yc zc ⎞<br />

⎛ ⎞<br />

⎟<br />

F 0 0 0<br />

⎟<br />

⎠ mit PPersp = ⎝0 F 0 0⎠<br />

0 0 1 0<br />

1<br />

Bei der schwach perspektivischen Projektion wird ein Punkt zunächst orthographisch auf eine Bildebene projiziert. Das<br />

Abbild wird danach perspektivisch auf eine zweite Bildebene projiziert. Insgesamt entspricht dies einer orthographischen<br />

Projektion mit einem Skalierungsfaktor k, wobei k < 1 gilt.<br />

⎛<br />

⎝ xi<br />

⎞<br />

yi⎠ =<br />

1<br />

⎛<br />

⎝<br />

F<br />

k xc<br />

F<br />

k yc<br />

1<br />

2.2 Kameraparameter<br />

⎞ ⎛<br />

⎠ = ⎝ Fxc<br />

Fy c<br />

kc ⎛<br />

⎞ x<br />

⎜<br />

⎠ = PWeak ⎜<br />

⎝<br />

c<br />

yc zc ⎞<br />

⎛ ⎞<br />

⎟<br />

F 0 0 0<br />

⎟<br />

⎠ mit PWeak = ⎝0 F 0 0⎠<br />

0 0 0 k<br />

1<br />

Als Kameraparameter werden diejenigen Parameter bezeichnet, die man benötigt um die Abbildung eines Punktes in<br />

Weltkoordinaten nach Pixelkoordinaten nachvollziehen zu können. Man unterscheidet intrinsische und extrinsische Parameter,<br />

je nachdem ob sie sich bei Bewegung der Kamera ändern.<br />

Die meisten Parameter sind unbekannt und müssen durch Kalibrierung (siehe Abschnitt 2.2.3) ermittelt werden. Andere,<br />

wie die Höhe und Breite der Pixel müssen aus der Kamerabeschreibung entnommen werden.<br />

2.2.1 Extrinsische Parameter<br />

Die extrinsischen Parameter beschreiben die Position im Raum und die räumliche Orientierung, also die Blickrichtung<br />

der Kamera. Diese Parameter ändern sich sobald die Kamera bewegt wird. Insgesamt gibt es 6 extrinsiche Parameter, 3<br />

für die Position und 3 für die Orientierung, die wie folgt zustande kommen:<br />

Position: Die Position wird durch einen Translationsvektor t = (x w , y w , z w ) ⊤ in Weltkoordinaten repräsentiert.<br />

Orientierung: Ausrichtung der Kamera wird als 3×3 Rotationsmatrix R = RxRyRz um die Raumachsen dargestellt 1 .<br />

2.2.2 Intrinsische Parameter<br />

Die intrinsischen Parameter ändern sich nicht, wenn die Kamera bewegt wird. Sie enthalten die technischen Daten die<br />

beim Mapping von Kamera- nach Pixelkoordinaten gebraucht werden.<br />

Brennweite: Die Brennweite der Kamera wird als F bezeichnet<br />

Hauptpunkt: Ursprung des Bildkoordinatensystemes 2 H = (Hx, Hy) ⊤<br />

Radiale Verzerrung: Die radiale Verzerrung wird durch die Parameter κ1 und κ2 beschrieben (siehe Abschnitt 3.2).<br />

Pixelgröße: Länge und Breite dx, dy eines Pixelelementes auf dem CCD Chip.<br />

Skew: Winkel s zwischen den Bildachsen. Bildachsen sind nicht immer orthogonal.<br />

1 Diese Form der Darstellung wird als Euler-Winkel Repräsentation bezeichnet (siehe Anhang A.3.1).<br />

2 Der Hauptpunkt ist durch den Schnittpunkt der optischen Achse mit der Bildebene gegeben.


16 KAPITEL 2. GEOMETRISCHE GRUNDLAGEN DER BILDERZEUGUNG<br />

2.2.3 Kamerakalibrierung<br />

Eine Kamera muss kalibriert werden um die intrinsischen Parameter Hx, Hy, κ1, κ2 und F zu bestimmen. Kalibriert<br />

wird mit Hilfe eines Kalibriermusters (Beispiele in Abbildung 2.3), um Punktkorrespondenzen zwischen Muster und<br />

Bild herzustellen. Aus mindestens 6 Punktepaaren wird ein Gleichunssystem aufgestellt, woraus dann die totale Projektionsmatrix<br />

PTotal ausgerechnet wird, welche die Parameter enthält. Eine genaue Beschreibung des Aufbaus des<br />

besagten Gleichungssystemes und der anzuwendenden Kalibrierungsalgorithmen kann man in [6] nachlesen.<br />

2.3 Epipolargeometrie<br />

(a) 3D-Punkt Muster (b) Muster für C-Bogen<br />

Abbildung 2.3: Kalibriermuster (aus [25])<br />

Epipolargeometrie befasst sich mit der Geometrie in einer Szene, die mit zwei Kameras gleichzeitig aufgenommen wird,<br />

was die Grundlage für Stereosehen ist [36]. Sind die Punkte der Szene größtenteils in beiden Bildern vorhanden, kann<br />

eine 3D Rekonstruktion nur aus den Punktkorrespondenzen erfolgen.<br />

Da die Epipolargeometrie und insbesondere die Herleitung der Matrizen in anderen Quellen (siehe [23] und [1]) bereits<br />

ausreichend behandelt wurde, sei hier nur kurz auf die Terminologie und die Eigenschaften der E und F Matrix<br />

eingegangen. Im Folgenden wird die Notation aus [11] verwendet.<br />

2.3.1 Terminologie<br />

Anhand eines Beispiels lassen sich die Grundlagen und die Terminologie der Epipolargeometrie erklären. In Abbildung<br />

2.4 sieht man die typische Szenerie mit zwei Kameras. Die Punkte C und C ′ markieren das Zentrum der Kameras.<br />

Ein Weltpunkt X ist als Bildpunkt x und x ′ in der Bildebene der jeweiligen Kamera abgebildet. Die unterschiedliche Lage<br />

der beiden Kameras ist durch den Translationsvektor t, auch Basislinie genannt, und die Rotationsmatrix R gegeben.<br />

Abbildung 2.4: Geometrische Zusammenhänge der Epipolargeomertrie


2.3. EPIPOLARGEOMETRIE 17<br />

Hieran lassen sich die folgenden Begriffe erklären:<br />

• Die epipolare Fläche π wird durch den Weltpunkt X und die Kamerazentren C und C ′ aufgespannt.<br />

• Die Epipole e und e ′ entsprechen den Schnittpunkten der Basislinie mit der Bildebene der jeweiligen Kamera.<br />

• Die Epipolarlinien l und l ′ werden durch die Schnittpunkte von π mit der jeweiligen Bildebene gebildet.<br />

2.3.2 Die Essential-Matrix<br />

Die Essential-Matrix E bildet einen Punkt x aus dem Bildkoordinatensystem der einen Kamera auf die zugehörige<br />

epipolare Linie l ′ des Bildes der anderen Kamera ab. Dabei gilt der nachfolgende Zusammenhang, bekannt als Epipolarbedingung.<br />

l ′⊤ = Ex ⇐⇒ l ⊤ = E ⊤ x ′ =⇒ x ′⊤ Ex = 0<br />

Die Linien l und l ′ sind in Form eines 3D Spaltenvektors dargestellt. Die E-Matrix enthält dabei die extrinsischen<br />

Parameter in der Form: E = R[t]× wobei E ∈ R 3×3 . Dabei ist [t]× die Kreuzproduktmatrix von t. Liniendarstellung<br />

und Kreuzproduktmatrizen sind in Anhang ?? erklärt.<br />

Folgende Eigenschaften beschreiben die Essential-Matrix:<br />

• Der Nullraum von E wird von t aufgespannt.<br />

• Multiplication mit einer Konstanten ändert nicht die Epipolarbedingung.<br />

• Als Produkt einer Rotationsmatrix mit Rang 3 und einer Kreuzproduktmatrix mit Rang 2, gilt rank(E) = 2<br />

• Die Essential-Matrix hat fünf Freiheitsgrade (DOF)<br />

• Es gilt weiter l ′ Ex = 0 und x ′⊤ El ⊤ = 0<br />

2.3.3 Die Fundamental-Matrix<br />

Neben den extrinsischen, enthält die Fundamental-Matrix noch die intrinsischen Kameraparameter in Form der oben<br />

beschriebenen K-Matrix, welche einen Punkt von Bild- nach Pixelkoordinaten berechnet. Es gilt x p = Kp i und somit<br />

x i = K −1 x p . Aus der Epipolarbedingung x ′⊤ Ex = 0 für Bildkoordinaten folgt dann für Pixelkoordinaten:<br />

(K −1 x ′ ) ⊤ EK −1 x = 0 ⇐⇒ x ′⊤ K −1⊤ EK −1 x = 0 mit (AB) ⊤ = B ⊤ A ⊤<br />

Für die Fundamental-Matrix F = K −1⊤ EK −1 gilt somit ebenfalls die Epipolarbedingung, aber in Pixelkoordinaten.<br />

So wird ein Pixel x der epipolaren Linie l ′ im anderen Bild zugewiesen:<br />

l ′⊤ = Fx ⇐⇒ l ⊤ = F ⊤ x ′ =⇒ x ′⊤ Fx = 0<br />

Folgende Eigenschaften beschreiben die Fundamental-Matrix:<br />

• Die Fundamental-Matrix F beinhaltet alle Kameraparameter<br />

• Sie mapt einen Punkt mit seiner epipolaren Linie in Pixelkoordinaten<br />

• Durch die E-Matrix bedingt, folgt rank(F) = 2<br />

• Die Fundamental-Matrix hat sieben Freiheitsgrade (DOF)<br />

• Es gilt ebenfalls l ′ Fx = 0 und x ′⊤ Fl ⊤ = 0<br />

• Alle epipolaren Linien eines Bildes schneiden sich im zugehörigen Epipol<br />

2.3.4 8-Punkte Algorithmus<br />

Um die Fundamental-Matrix zu berechnen, benötigt man mindestens acht Punktkorrespondenzen aus zwei Bildern.<br />

Diese werden dann mit dem 8-Punkte Algorithmus wie folgt verarbeitet. Zunächst muss die A-Matrix aus dem Gleichungssystem<br />

Af = 0 aufgestellt werden, wobei f die als Spaltenvektor geschriebene Fundamentalmatrix darstellt.


18 KAPITEL 2. GEOMETRISCHE GRUNDLAGEN DER BILDERZEUGUNG<br />

Damit Af = 0 lösbar ist, muss der Rang von A mittels SVD auf 8 gebracht werden (siehe Anhang A.5). Der Nullraum<br />

von A ergibt dann die F -Matrix, deren Rang 2 sein muss.<br />

Aus jeweils zwei korrespondierenden Punkten p1 = (x1, y1, 1) ⊤ und p2 = (x2, y2, 1) ⊤ und der Epipolarbedingung<br />

p ⊤ 1 Fp2 = 0 ergibt sich:<br />

x1x2F11 + x1y2F21 + x1F31 + y1x2F12 + y1y2F22 + y1F32 + x2F13 + y2F23 + F33 = 0<br />

Für n ≥ 8 Punktepaare bekommt man so jeweils einen Zeilenvektor ai mit i ∈ {1 . . .n}<br />

aif = 0 mit ai = (x1x2, x1y2, x1, y1x2, y1y2, y1, x2, y2, 1) f = (F11, F21, F31, F12, F22, F32, F13, F23, F33) ⊤<br />

Damit lautet das zu lösende Gleichungssystem:<br />

⎛ ⎞⎛<br />

a1<br />

⎜a2⎟<br />

⎜<br />

⎜ ⎟⎜<br />

⎜<br />

Af = a3⎟<br />

⎜<br />

⎜ ⎟⎜<br />

⎜ . ⎟⎜<br />

⎝ . ⎠⎝<br />

an<br />

F11<br />

F21<br />

F31<br />

.<br />

.<br />

F33<br />

⎞<br />

⎟ = 0 mit A ∈ R<br />

⎟<br />

⎠<br />

n×9


Kapitel 3<br />

Modalitätsabhängige Bildverbesserung<br />

Ein wichtiger Anteil der <strong>Bildverarbeitung</strong> in der Medizin besteht in der Aufbesserung von fehlerhaften Bildern, um<br />

den Ärzten die Diagnosestellung zu erleichtern. In diesem Kapitel werden die häufigst auftretenden Störeffekte und<br />

Methoden der Bildverbesserung beschrieben.<br />

3.1 Motivation<br />

Bei medizinischen, bildgebenden Verfahren zählt die Genauigkeit und die Fehlerfreiheit des aufgenommenen Bildes,<br />

um möglichst zuverlässig eine Diagnose stellen zu können. Daher ist es notwendig die Bilder so zu verbessern, dass<br />

man keine zusätzlichen Bildinformationen verliert. Im Folgenden werden die verschiedenen Arten von Bildstörungen<br />

aufgeführt und ein Beipiel für Bildverbesserung gegeben.<br />

3.1.1 Arten von Bildstörungen<br />

Es gibt verschiedene Arten von Bildstörungen oder Bildfehlern, die typischerweise bestimmten Bildmodalitäten zugeordnet<br />

werden können. Dies liegt hauptsächlich an der verwendeten Technik und den zugrundeliegenden, physikalischen<br />

Gegebenheiten.<br />

Zusammengefasst kann man die folgenden Arten von Fehlern beschreiben 1 :<br />

Verzerrungen: Gegenüber den anderen Fehlern ist hier das Bild als Ganzes betroffen. Meist liegt eine geometrische Deformation<br />

zugrunde, die beispielsweise auf die Linsenkrümmung einer Kamera zurückzuführen ist. Geometrische<br />

Verzerrungen treten meist in optischen Systemen auf.<br />

Unschärfe: Die Unschärfe (Blurring) eines Bildes bezieht sich auf das Fehlen von Pixeldetails und Kanten. Unschärfe<br />

wird auch als Verschmierung der Pixelinformationen bezeichnet. Besonders Bewegungsunschärfe (Motion blur)<br />

tritt bei Aufnahmen von bewegten Objekten, wie dem Herzen auf.<br />

Rauschen: Das Rauschen (Noise) ist meist auf zufällige Rauschsignale im physikalischen System zurückzuführen und<br />

kommt bei allen Modalitäten vor. Dieses Hintergrundrauschen kann durch äussere Einflüsse verstärkt werden und<br />

bedingt fehlerhafte Bildwerte.<br />

Defektpixel: Diese Art von Bildstörung entsteht durch technische Probleme, wie fehlerhafte Sensorelemente oder Kratzer<br />

im Linsensystem einer Kamera. Hier fehlt die eigentliche Information des Bildpunktes. Pixelfehler sind typisch<br />

für Flatpanel-Detektoren.<br />

Unterabtastung: Jeder Sensor kann durch seine Abtastrate nur ein begrenztes Maß an Auflösung bieten. Will man ein<br />

Objekt Aufnehmen das eine feinere Struktur besitzt, kommt es zur Unterabtastung. Als Resultat könnet Moiré und<br />

Aliasing Effekte entstehen. Unterabtastung ist ein Problem der Signalverarbeitung und sei nur am Rande erwähnt.<br />

1 Zusätzlich gibt es noch Beleuchtungsfehler, wie Glanzlichter oder dunkle Bereiche bei Endoskopischen Aufnahmen, die meist auf ungünstiger<br />

Oberflächenbeschaffung oder inhomogener Lichtverteilung basieren (siehe Abschnitt 3.5).


20 KAPITEL 3. MODALITÄTSABHÄNGIGE BILDVERBESSERUNG<br />

3.1.2 Vorverarbeitung von Bildern<br />

Die Bildverbesserung wird auch als Vorverarbeitung bezeichnet, da die Bilder vor der Inansichtnahme durch den Arzt<br />

verbessert werden müssen. Gleichzeitig will man eine optimale Aufbereitung der Bilder für spätere Datenverarbeitung<br />

erreichen.<br />

Abbildung 3.1 verdeutlicht mit einer Bildsequenz beispielhaft die einzelnen Verarbeitungsschritte zur Aufbesserung<br />

eines Röntgenbildes. Durch die Kontrastverstärkung wird das Bild heller und Strukturen besser sichtbar. Die Rauschunterdrückung<br />

bewirkt eine Glättung des Bildes. Flächige Bereiche erscheinen nun wesentlich homogener. Im dritten<br />

Schritt erfolgt eine Kantenaufbesserung, wodurch das Bild deutlich an Schärfe gewinnt.<br />

Abbildung 3.1: Vorverarbeitung am Beispiel einer Röntgenaufnahme (Bilder aus [25])<br />

3.2 Radiale Verzerrungen<br />

Radiale Verzerrungen wie in Abbildung 3.2, sind, je nachdem welches bildgebende Verfahren benutzt wird, unterschiedlich<br />

bedingt. Bei Röntgenbildverstärkern können sie durch das Erdmagnetfeld oder künstliche Felder ausgelöst werden.<br />

Meist entstehen radiale Verzerrungen durch konkave oder konvexe Eingangslinsen bei optischen Systemen.<br />

3.2.1 Mathematisches Modell<br />

Bei der radialen Verzerrung werden alle Bildpunkte um einen gewissen Betrag verschoben. Die Verschiebung eines<br />

Bildpunktes ist proportional abhängig von dessen Entfernung zum Zentrum der Verzerrung. Die radiale Verzerrung wird<br />

durch folgende Funktion beschrieben.<br />

�<br />

′ x<br />

y ′<br />

� � �<br />

x<br />

= L(˜r) mit Verzerrungsfaktor L(˜r) = 1 + κ1r + κ2r<br />

y<br />

2<br />

Dabei gilt<br />

• (x, y) ⊤ ist der ideale und (x ′ , y ′ ) ⊤ ist der verzerrte Bildpunkt.<br />

• (cx, cy) ⊤ sind die Koordinaten des Zentrums der radialen Verzerrung.<br />

• κ1 und κ2 beschreiben die Verzerrung (intrinsische Kameraparameter).<br />

• r ist die Entfernung eines Punktes zum Zentrum, mit r = � (x − cx) 2 + (y − cy) 2<br />

Sind die Parameter κ1 und κ2 bekannt, kann die Umkehrfunktion wie nachstehend gezeigt berechnet werden.<br />

�<br />

′ x<br />

y ′<br />

� � �<br />

x<br />

= L(˜r)<br />

y<br />

=⇒<br />

� �<br />

x<br />

y<br />

= 1<br />

L(˜r)<br />

� �<br />

′ x<br />

Abbildung 3.2b zeigt den Effekt der radialen Verzerrung ausgeführt auf einem idealen Bild (vgl. Abbildung 3.2a). Wird<br />

auf einem idealen Bild die Umkehrfunktion – also eine radiale Entzerrung – ausgeführt, entsteht Abbildung 3.2c.<br />

y ′


3.3. DEFEKTPIXELINTERPOLATION 21<br />

10<br />

5<br />

0<br />

-5<br />

-10<br />

-10 -5 0 5 10<br />

(a) Ideales Bild<br />

3.2.2 Bilineare Interpolation<br />

10<br />

8<br />

6<br />

4<br />

2<br />

0<br />

-2<br />

-4<br />

-6<br />

-8<br />

-10<br />

-10 -8 -6 -4 -2 0 2 4 6 8 10<br />

(b) Radiale Verzerrung<br />

Abbildung 3.2: Effekt der radialen Verzerrung<br />

15<br />

10<br />

5<br />

0<br />

-5<br />

-10<br />

-15<br />

-15 -10 -5 0 5 10 15<br />

(c) Radiale Entzerrung<br />

Es gilt bei der Implementierung der radialen Verzerrung etwas zu beachten. Da die verzerrten Bildpunkte meist nicht<br />

genau auf bestehende Pixelkoordinaten verschoben werden, müssen sie aus umliegenden Pixeln interpoliert werden. Ein<br />

einfaches und relativ gutes Verfahren dafür, bietet die bilineare Interpolation.<br />

Abbildung 3.3 verdeutlicht die Funktionsweise der Methode. Hier wird ein Pixel P aus den umliegenden Pixelwerten a,<br />

b, c und d interpoliert. Dabei sind x und y die Nachkommastellen der Koordinaten von P . Demnach wird der Pixelwert<br />

P wie folgt berechnet.<br />

P = z1(1 − y) + z2y mit z1 = a(1 − x) + dx und z2 = b(1 − x) + cx<br />

3.3 Defektpixelinterpolation<br />

Abbildung 3.3: Funktionsweise der bilinearen Interpolation<br />

Wie oben beschrieben, treten Defektpixel häufig bei Flatpanel-Rezeptoren auf. Dabei kann es sich um einzelne inaktive<br />

Pixel, Pixelcluster und sogar ganze Sensorzeilen oder Spalten handeln, gezeigt in Abbildung 3.4. Bei der Interpolation<br />

geht es darum, verlorene Informationen aufgrund der vorhandenen Daten anzunähern und nicht, sie wieder herzustellen.<br />

3.3.1 Interpolationsmethoden<br />

Grundsätzlich kann man defekte Pixel im Ortsraum oder im Frequenzraum eines Bildes interpolieren. Im Folgenden<br />

sind beide Möglichkeiten beschrieben und erklärt.<br />

Interpolation im Ortsraum<br />

Die Interpolation im Ortsraum eines Bildes geschieht durch Verrechnen der Pixelwerte im Umfeld des defekten Bereiches.<br />

Dafür verwendet man lineare oder nichtlineare Filter, wie z.B. den Median-Filter. Allerdings eignet sich diese<br />

Methode nur für sehr kleine defekte Bereiche. Die interpolierten Werte lassen das Bild zudem unnatürlich erscheinen.


22 KAPITEL 3. MODALITÄTSABHÄNGIGE BILDVERBESSERUNG<br />

Interpolation im Frequenzraum<br />

Abbildung 3.4: Beispiele für Defektpixel (Bilder aus [35])<br />

Mit Hilfe der Fouriertransformation (FT) lässt sich ein Bild vom Ortsraum in den Frequenzraum überführen. Bei der<br />

Interpolation im Frequenzraum benutzt man statt der Pixelwerte, die im Bild enthaltenen Frequenzen, um defekte Bereiche<br />

anzunähern. Gemäß dem Sampling-Theorem ist das ideale Bild auf ein bestimmtes Frequenzband begrenzt. Bei der<br />

Rücktransformation beschränkt man sich deshalb nur auf Frequenzen im besagten Band.<br />

3.3.2 Interpolation mittels Bandbegrenzung<br />

Im idealen Bild sind laut Sampling-Theorem keine hohen Frequenzen vorhanden. Anders als im gestörten Bild: hier<br />

sind durch die defekten Pixel starke Kanten und somit hohe Frequenzen gegeben. Diese Kanten können nun mit einem<br />

Low-Pass-Filter (LPF) herausgefiltert werden.<br />

Funktionsweise der Interpolation<br />

Abbildung 3.5 verdeutlicht einen Durchlauf der Interpolation mittels Bandbegrenzung. Als fehlerbehaftetes Bild dient<br />

die Aufnahme eines Sehnerves mit Zeilen- und Spaltendefekt 2 .<br />

Das Bild wird in den Frequenzraum überführt (FT), um dort die hohen Frequenzen auf Null zu setzen (Bandbreitenbegrenzung).<br />

Das Fourierbild mit den übrigen Frequenzen wird mittels inverser FT zurücktransformiert. Jetzt werden die<br />

defekten Bereiche durch Werte aus dem verbesserten Bild ersetzt. Dieser Ablauf wird solange wiederholt bis der Fehler<br />

unter einem Schwellwert liegt.<br />

Abbildung 3.5: Funktionsweise der Defektpixelinterpolation<br />

2 Siehe auch Abbildung 3.4 rechts. Das Fehlerbild wurde manuell aus Abbildung 3.6a erstellt.


3.4. RAUSCHUNTERDRÜCKUNG 23<br />

Ergebnis der Interpolation<br />

Vergleicht man das Idealbild (Abbildung 3.6a) mit dem interpolierten Bild nach 10 Iterationen (Abbildung 3.6b), sind<br />

mit dem bloßen Auge kaum noch Unterschiede auszumachen. Erst Abbildung 3.6c zeigt den verbleibenden Fehler als<br />

Differenzbild. Dunkle Stellen zeigen falsch interpolierte Werte an. Für diagnostische Zwecke liefert die Bandbreitenbegrenzung<br />

ein gut angenähertes Bild.<br />

(a) Ideales Bild (b) Interpoliertes Bild (c) Differenzbild<br />

3.4 Rauschunterdrückung<br />

Abbildung 3.6: Ergebnis der Defektpixelinterpolation<br />

Abgesehen vom physikalischen Hintergrundrauschen und technisch bedingtem Rauschen, z.B. verursacht durch Dunkelstrom<br />

3 , gilt es modalitätsbedingtes Rauschen zu entfernen. Vor Allem PET Bilder sind, aufgrund der verschiedenenen<br />

Koinzidenzen bei der Bildgebung (siehe Abschnitt 1.4.2), sehr rauschanfällig.<br />

3.4.1 Problemstellung<br />

Um Rauschen zu minimieren ist es wichtig, homogene Bildbereiche zu glätten und Kanten im Bild zu erhalten. Das<br />

Hauptproblem ist also, verrauschte, gleichmäßige Bereiche zu glätten, ohne dabei die Kanten im Bild zu glätten.<br />

Additives Rauschen lässt sich mit Hilfe von Low Pass Filtern in den Griff bekommen, falls die Frequenz des Rauschens<br />

gering ist. In [25] werden dazu der Low-Pass Domain Filter und der Low-Pass Range Filter vorgestellt. Bei PET Bildern<br />

ist aber keine niedrige Rauschfrequenz gegeben.<br />

Man geht von folgenden Annahmen aus:<br />

• Je näher zwei Bildpunkte zu einander liegen, desto höher ist die Wahrscheinlichkeit, das sie ähnliche Helligkeitswerte<br />

haben.<br />

• Wenn der Helligkeitsunterschied zweier Pixel hoch ist, dann ist die Wahrscheinlichkeit hoch das sie auch im<br />

idealen Bild unterschiedlich sind.<br />

3.4.2 Bilateral Filter<br />

Besser geeignet ist hier der Bilateral Filter von Tomasi und Manducci [8]. Nachstehende Formel definiert den Pixel<br />

h(x, y) nach der Rauschunterdrükung. Dabei ist (x, y) die Koordinate des Nachbarschaftszentrums und (µ, ν) deckt die<br />

Umgebung ab.<br />

h(x, y) =<br />

� +∞ � +∞<br />

−∞<br />

−∞<br />

f(x − µ, y − ν) c(x, y, µ, ν) s(f(x, y), f(µ, ν)) dµdν<br />

k(x, y)<br />

3 Als Dunkelstrom wird der Output bezeichnet den ein Sensor zurückliefert, obwohl er gegen äußere Einflüsse abgeschirmt ist, z.B. ein CCD-Chip<br />

bei völliger Dunkelheit.


24 KAPITEL 3. MODALITÄTSABHÄNGIGE BILDVERBESSERUNG<br />

Ferner gilt:<br />

• f(x, y) beschreibt einen Pixel des aufgenommenen, verrauschten Bildes<br />

• c(x, y, µ, ν) misst die geometrische Nähe zwischen den Koordinaten (x, y) und (µ, ν)<br />

• s(f(x, y), f(µ, ν)) misst die photometrische Ähnlichkeit der Pixel f(x, y) und f(µ, ν)<br />

• Die Normalisierungskonstante ist gegeben durch<br />

Nähe und Ähnlichkeit<br />

k(x, y) =<br />

� +∞ � +∞<br />

−∞<br />

−∞<br />

c(x, y, µ, ν) s(f(x, y), f(µ, ν)) dµdν<br />

Ausgehend von den Annahmen aus Abschnitt 3.4.1 benötig man Funktionen um die Nähe und Helligkeit, beziehungsweise<br />

die photometrische Ähnlichkeit zweier Pixel zu berechnen. Dies geschieht mit den oben vorgestellten Funktionen<br />

c (closeness) und s (similarity) wie folgt:<br />

c(x, y, µ, ν) = e −1 �<br />

�(x, ⊤ ⊤ y) − (µ, ν)<br />

2<br />

� ! 2 �<br />

σd<br />

s(f(x, y), f(µ, ν)) = e −1 �<br />

�f(x, y) − f(µ, ν)<br />

2<br />

� ! 2 �<br />

σr<br />

Pixel bis zu einer Distanz von σd und einem Farbunterschied von σr werden miteinander verrechnet. Die Parameter σd<br />

und σr sind somit frei wählbar.<br />

Ergebnis der Rauschunterdrückung<br />

Abbildung 3.7 zeigt am Beispiel einer Bildkante die Anwendung des bilateralen Filters. Ein verrauschter Bildauschnitt<br />

mit einer Kante ist in Abbildung 3.7a zu sehen. Abbildung 3.7b zeigt den selben Ausschnitt nach der Filterung mit<br />

σd = 5 Pixel und σr = 50 Grauwerte.<br />

3.5 Beleuchtungskorrektur<br />

(a) Verrauschtes Bild (b) Bild nach Filterung<br />

Abbildung 3.7: Rauschunterdrückung mit bilateralem Filter (aus [8])<br />

Beleuchtungskorrektur dient dazu Beleuchtungsartefakte wie Glanzlichter, falsch dargestellte Farben, Fehler im optischen<br />

Sensorsystem und ungünstige Lichtverhältnisse auszugleichen um damit die Bildqualität zu verbessern. Das dazu<br />

benutzte Modell und die angewendeten Korrekturmethoden werden in diesem Abschnitt behandelt.<br />

3.5.1 Beleuchtungsmodell<br />

Das zugrunde liegende Beleuchtungsmodell ist linear und somit leicht zu verstehen. Das fehlerhafte Bild g ergibt sich<br />

aus dem idealen Bild f, sowie einem multiplikativen Faktor γ, das Gain-Field, und einer additiven Komponente β, dem<br />

Bias-Field. Daraus ergibt sich folgende Formel:<br />

g(x, y) = f(x, y)γ(x, y) + βx, y


3.5. BELEUCHTUNGSKORREKTUR 25<br />

Ortsabhängige Beleuchtungsfehler<br />

Während das Bias-Field nur eine Helligkeitsverschiebung des Bildes bedingt, hat das Gain-Field zusätzlich Auswirkung<br />

auf den Bildkontrast, wie Abbildung 3.8 am Beispiel eines MR-Bildes zeigt. Im Gain-field (Abbildung 3.8b) wird die<br />

ungleiche Helligkeitsverteilung der MR Aufnahme deutlich. Das verbesserte Bild ist durch guten Kontrast und homogene<br />

Helligkeit gekennzeichnet.<br />

Systemabhängige Beleuchtungsfehler<br />

(a) Original MR Bild (b) Gain-Field (c) Verbessertes Bild<br />

Abbildung 3.8: Gain-Field in Magnetresonanz Bild (aus [25])<br />

Ausser den ortsabhängigen Fehler gibt es noch die systemabhängigen, technischen Fehler, die z.B. durch fehlerhafte<br />

Sensoren ausgelöst werden. Im allgemeinen geht man bei der Korrektur dieser Fehler wie folgt vor. Man nimmt zwei<br />

Referenzbilder auf. Eines zur Ermittlung des Dunkelstroms fb und ein Bild zum Weißabgleich fw. Die Abschäzung des<br />

idealen Bildes ˆ f ergibt sich als:<br />

ˆf(x, y) = C g(x, y) − fb(x, y)<br />

fw(x, y) − fb(x, y)<br />

3.5.2 Retrospektive Beleuchtungskorrektur<br />

mit Konstante C<br />

Bei Endoskopischen Bildern werden Beleuchtungsfehler meist durch die inhomogenen Oberflächen der Organe hervorgerufen<br />

und sind somit nicht systembedingt. Hier müssen andere Korrekturmethoden eingesetzt werden.<br />

Die Retrospective Beleuchtungskorrektur versucht die Beleuchtungskomponenten einzeln abzuschätzen um damit den<br />

Fehler herauszurechnen. Dabei stütz man sich auf die Annahme, das sich die störenden Effekte in einem Frequenzbereich<br />

unterhalb des interessanten Bildteils befinden.<br />

Annähern des Bias-Fields<br />

Man verwendet einen Low Pass Filter (LPF) um die additive Komponente anzunähern. Mit der angenäherten Komponente<br />

ˆ β kann nun wie folgt, eine simple Abschätzung des Bildes ohne Bias-Field durchgeführt werden. Durch die<br />

Normalisierungskonstante C wird der multiplikative Anteil ignoriert, mit C = E{ ˆ β(x, y)}.<br />

Annähern des Gain-Fields<br />

ˆf(x, y) = g(x, y) − ˆ β(x, y) + C wobei ˆ β(x, y) = LPF{g(x, y)}<br />

Um das Gain-Field eines Bildes abzuschätzen, sei das Bias-Field zu vernachlässigen. Durch Anwenden des Logarithmus<br />

kann das Gain-Field wie eine additive Komponente behandelt werden, wie die nachstehende Herleitung zeigt. Man kann<br />

nun das geschätzte Gain-Field ˆγ verwenden um das Bild zu verbessern.<br />

g(x, y) = f(x, y)γ(x, y) =⇒ log{g(x, y)} = log{f(x, y)} + log{γ(x, y)}<br />

=⇒<br />

ˆ f(x, y) = g(x, y)<br />

ˆγ(x, y)<br />

mit ˆγ(x, y) = exp{LPF{log{g(x, y)}}}


26 KAPITEL 3. MODALITÄTSABHÄNGIGE BILDVERBESSERUNG<br />

3.5.3 Farbkorrektur<br />

Beim Durchführen der Beleuchtungskorrektur auf Farbbildern, entsteht das Problem der Farbverschiebung, da Farbbilder<br />

in einen Rot-, einen Grün- und einen Blaukanal (RGB) aufgesplittet sind. Gesucht ist eine Möglichkeit, die Helligkeitsinformation<br />

getrennt von der Farbe zu bearbeiten, der YUV-Farbraum.<br />

YUV-Farbraum<br />

Der YUV-Farbraum wurde entwickelt um das Farbfernsehen mit alten Schwarzweiß-Geräten kompatibel zu machen.<br />

Dazu musste die Gesamthelligkeit getrennt von der Farbinformation gespeichert werden. So enthält der Y-Kanal nur die<br />

Luminanz, die Intensität des Bildes, während die Chrominanz, also die Farben in den Kanälen U und V enthalten sind.<br />

Ein weiterer Vorteil des YUV-Farbraums ist die lineare Konvertierung zum RGB-Farbraum. Die Konvertierung erfolgt<br />

durch nachstehende Matrixmultiplikationen:<br />

⎛<br />

⎝ Y<br />

⎞ ⎛<br />

U⎠<br />

= M ⎝<br />

V<br />

R<br />

⎞<br />

G⎠<br />

und<br />

⎛<br />

⎝<br />

B<br />

R<br />

⎞<br />

G⎠<br />

= M<br />

B<br />

−1<br />

⎛<br />

⎝ Y<br />

⎞<br />

U⎠<br />

mit<br />

⎛<br />

⎞<br />

0.299 0.587 0.114<br />

M = ⎝−0.147 −0.289 0.437⎠<br />

V<br />

0.615 −0.515 0.1<br />

Funktionsweise der Farbkorrektur<br />

Die einzelnen Schritte der Farbkorrektur sind in Abbildung 3.9 schematisch dargestellt. Nachdem das Bild nach YUV<br />

konvertiert wurde, wird ein LPF auf dem Y-Kanal angewendet und der Mittelwert C errechnet. Nach der Subtraktion der<br />

LPF und der Normalisierung wird das verbesserte Bild wieder nach RGB umgewandelt.<br />

Abbildung 3.9: Funktionsweise der Farbkorrektur<br />

Das korrigierte Bild fY UV ergibt sich also aus den Unveränderten gU und gV Kanälen, und dem, wie folgt berechneten<br />

gY Kanals des Ursprungsbildes. Abbildung 3.10 zeigt eine endoskopische Aufnahme vor und nach der beschriebenen<br />

Farbkorrektur.<br />

fY (x, y) = gY (x, y) − LPF{gY (x, y)} + C mit C = mean{LPF{gY (x, y)}}<br />

(a) Original Endoskopische Aufnahme (b) Farbkorrigierte Aufnahme<br />

Abbildung 3.10: Farbkorrektur einer Endoskopischen Aufnahme (aus [25])


Kapitel 4<br />

Rekonstruktion von Schichtbildern<br />

Tomographische Aufnahmen sind in der Medizin nicht mehr wegzudenken. Dieses Kapitel beschreibt die Rekonstruktion<br />

von einzelnen Zeilenbildern zu einem Gesamtbild. Dabei werden mathematische Grundlagen und die wichtigsten<br />

Rekontruktionsverfahren erklärt. Stellvertretend für alle anderen tomographischen Verfahren, soll im Folgenden die<br />

Computertomographie als Beipiel dienen. Einen interessanten Überblick der geschichtlichen Entwicklung von Computertomographen<br />

bietet [14].<br />

4.1 Projektion eines Körpers<br />

Bevor es zur eigentlichen Rekonstruktion geht, zeigt dieser Abschnitt, wie die Daten gewonnen werden, aus denen das<br />

Schnittbild (Slice) rekonstruiert werden soll. Beim CT rotiert das Aufnahmesystem um den Körper und nimmt Zeilenbilder<br />

aus verschiedenen Winkeln auf (vergleiche Abbildung 1.7). Diese Zeilenbilder sind eindimensionale Projektionen<br />

P zu einem Winkel θ.<br />

4.1.1 Projektionsarten<br />

Es gibt zwei unterschiedliche Projektionsarten um an diese Zeilenbilder zu gelangen, die parallele und die gefächerte<br />

Projektion. Der Unterschied wird in Abbildung 4.1 deutlich.<br />

• Bei der parallelen Projektion wird linear über die Länge der Projektion gescannt und danach um einen bestimmten<br />

Winkel gedreht. Dies ermöglicht eine leichte Rekonstruktion ist aber zeitaufwendig.<br />

• Bei der gefächerten Projektion laufen die Röntgenstrahlen von einem Punkt fächerförmig über das Definitionsgebiet.<br />

Dies geht schneller ist aber aufwendiger in der Rekonstruktion.<br />

(a) Parallele Projektion (b) Gefächerte Projektion<br />

Abbildung 4.1: Projektionsarten (aus [19])


28 KAPITEL 4. REKONSTRUKTION VON SCHICHTBILDERN<br />

4.1.2 Mathematische Darstellung<br />

Verfolgt man einen Röntgenstrahl durch den Körper stellt man fest, dass er an Intensität verliert. Der Körper eines<br />

Menschen besteht aus verschiedenen Gewebearten, die den Strahl unterschiedlich stark absorbieren und schwächen<br />

(siehe Houndsfield-Skala, Abbildung 1.8).<br />

Mathematisch wird dies als Linienintegral beschrieben. Ein Röntgenstrahl S durch einen Körper, ist definiert durch den<br />

Winkel θ und den Abstand ρ zum Ursprung des Definitionsbereiches (siehe Abbildung 4.2a). Entlang des Strahls wirken<br />

die Schwächungskoeffizienten µi mit der jeweiligen Größe si (siehe Abbildung 4.2b). Die Intensität I eines Strahles,<br />

(a) Liniendarstellung (b) Schwächungskoeffizienten<br />

Abbildung 4.2: Linienintegral durch einen Körper (aus [19])<br />

definiert durch θ und ρ, der einen Körper durchquert hat, lässt sich mit dem folgenden Linienintegral beschreiben. Dabei<br />

ist I0 die Anfangsintensität. Diskret versucht man das Linienintegral durch Summierung der Koeffizienten anzunähern.<br />

4.1.3 Radontransformation<br />

I(θ, ρ) = I0e − R µ(x,y)ds =⇒ I(θ, ρ) = I0e − P µisi<br />

Die Radontransformation ermöglicht es, eine beliebige, integrierbare Funktion f(x, y), durch alle geraden Linienintegrale<br />

P(θ, ρ) über das Definitionsgebiet zu beschreiben. Das ist genau was man haben will (vergleiche Abbildung 4.1).<br />

Nach [19] lässt sich aus dem Linienintegral, wie folgt die Radontransformation herleiten.<br />

−∞<br />

⇔<br />

I(θ, ρ) = I0e − R µ(x,y)ds I(θ, ρ)<br />

⇔ = e<br />

I0<br />

− R µ(x,y)ds<br />

I0<br />

I(θ, ρ) = eR µ(x,y)ds<br />

⇔ log( ) =<br />

I(θ, ρ)<br />

I0<br />

� ∞<br />

−∞<br />

µ(x, y)ds<br />

Nach Umwandlung der kartesischen Koordinaten (x, y) in die Polarkordinaten (θ, ρ) erhält man die Radontransformation.<br />

� ∞<br />

ˆg(ρ, θ) = µ(ρ cosθ − s sinθ, ρ sinθ + s cosθ)ds mit<br />

� � �<br />

ρ cosθ<br />

=<br />

s sinθ<br />

� � �<br />

−sinθ x<br />

cosθ y<br />

(4.1)<br />

Eine mehr mathematische und genauere Betrachtung der Radontransformation sowie deren Anwendung in der CT, insbesondere<br />

die Berechnung der Rückprojektion (mehr in Abschnitt 4.2), findet man in [33].<br />

4.2 Rekonstruktion mittels Fourier Slice und Rückprojektion<br />

Um aus den einzelnen Projektionen ein Bild zu rekonstruieren, muss man theoretisch die Inverse zur Radontransformation<br />

bestimmen. Praktisch geschieht dies mit Hilfe des Fourier Slice Theorems (FST) oder der Filtered Backprojection<br />

(FBP), die im Folgenden erklärt werden. Zunächst soll das Prinzip der Rekonstruktion durch Rückprojektion verdeutlicht<br />

werden.


4.2. REKONSTRUKTION MITTELS FOURIER SLICE UND RÜCKPROJEKTION 29<br />

4.2.1 Prinzip der Rückprojektion<br />

Projiziert man die Zeilenbilder entsprechend dem Winkel, in dem sie aufgenommen wurden, über die Bildfläche, so<br />

ergibt sich nach und nach der Querschnitt durch das Objekt. Abbildung 4.3 verdeutlich das Prinzip der Rückprojektion,<br />

indem die einzelnen Rekonstruktionsschritte eines Testbildes gezeigt werden.<br />

4.2.2 Fourier Slice Theorem<br />

(a) Muster (b) 1 Projektion (c) 4 Projektionen<br />

(d) 8 Projektionen (e) 30 Projektionen (f) 60 Projektionen<br />

Abbildung 4.3: Prinzip der Rückprojektion (aus [22])<br />

Das Fourier Slice Theorem macht sich eine mathematische Besonderheit der Radontransformation zu nutze. Wie in<br />

Abschnitt 4.1.3 erklärt, beschreibt die Radonstransformation das Zustande kommen einer Projektion P(θ, ρ) 1 von einem<br />

Bild f(x, y). Im Frequenzraum entspricht diese Projektion genau einer Bildzeile aus dem fouriertransformierten<br />

Eingangsbild.<br />

Mathematischer Zusammenhang<br />

Formell ausgedrückt, besagt das Fourier Slice Theorem: Ein Schnitt im Winkel θ durch das zweidimensionale Fourierspektrum<br />

F(u, v) von f(x, y) ist gleich der eindimensionalen Fouriertransformation Pθ(w) der Projektion pθ(s) [22].<br />

Abbildung 4.4 verdeutlicht diesen Zusammenhang zwischen Radon- und Fouriertransformation.<br />

Abbildung 4.4: Prinzip des Fourier Slice Theorems (aus [4])<br />

1 Im Folgenden wird die Projektion P(θ, ρ) als pθ(s) geschrieben (vgl. Abbildung 4.4).


30 KAPITEL 4. REKONSTRUKTION VON SCHICHTBILDERN<br />

Anwendung des Theorems<br />

Anstatt eine inverse Radontransformation zu suchen, geht man beim Fourier Slice Theorem den Umweg durch den Frequenzraum,<br />

wie Abbildung 4.5 zeigt. Man sammelt zunächst alle 1D fouriertransformieren Projektionen und fügt sie<br />

entsprechend ihrer Winkel, radial in eine Bildmatrix F(u, v) ein. Die Pixelkoordinaten müssen dabei aus den Polarkoordinaten<br />

interpoliert werden. Mittels inverser 2D-Fouriertransformation, wird im letzten Schritt aus der Bildmatrix das<br />

gesuchte Schichtbild rekonstruiert.<br />

1D<br />

Fourier-<br />

Transformation<br />

4.2.3 Filtered Backprojection<br />

gemessene<br />

Einzelprojektion<br />

sammeln aller<br />

Einzelprojektionen<br />

inverse<br />

Radontransformation<br />

Ortsraum<br />

Frequenzraum<br />

rekonstruiertes<br />

Bild<br />

interpolation in<br />

rechtwinklige<br />

Koordinaten<br />

Inverse 2D<br />

Fourier-<br />

Transformation<br />

Abbildung 4.5: Anwendung des Fourier Slice Theorems (nach [7])<br />

Bei der gefilterten Rückprojektion geht man nach dem oben vorgestellten Prinzip der Rückprojektion (Abschnitt 4.2.1)<br />

vor. Im Gegensatz zum Fourier Slice Theorem, wo erst alle Projektionen vorhanden sein müssen, kann die Rekonstruktion<br />

bei der gefilterten Rückprojektion schon während der Untersuchung, mit dem ersten Zeilenbild beginnen.<br />

Prinzip des Filterns<br />

Da echte Projektionsbilder nie so akkurat sind, wie im Beispiel gezeigt, sind real rekonstruierte Bilder fehlerbehaftet.<br />

Fehler und Artefakte können z.B. durch Sensorrauschen oder durch Bewegungen des Patienten während der Untersuchung<br />

versursacht werden. Durch diese Fehler in der Projektion wird das rekonstruierte Bild undeutlich und verschmiert.<br />

Abbildung 4.6a zeigt, wie sich die Fehler bei der Rückprojektion auswirken. Abhilfe schafft die Filterung der aufgenommenen<br />

Bildzeile vor der Rückprojektion. Hier werden die wesentlichen Bildteile verstärkt und die fehlerhaften Bereiche<br />

ausgefiltert, siehe Abbildung 4.6b.<br />

Angewandte Filter<br />

Die in [25] und [35] vorgestellten Filter sind der Shepp-Logan Filter und der RamLak Filter, welche nachstehend aufgeführt<br />

sind. Bei der Filterung wird rückwärts von einem Pixel auf die Projektion gezielt und der entsprechende Detektorwert<br />

interpoliert. Dabei gilt t ∈ [1..Nt], wobei Nt die Anzahl der Detektorelemente pro Sensorzeile darstellt.<br />

• Shepp-Logan Filter:<br />

g[t] =<br />

−2<br />

π(4t 2 − 1)


4.3. ALGEBRAISCHE REKONSTRUKTION 31<br />

• RamLak Filter:<br />

⎧<br />

⎪⎨<br />

π<br />

4 t = 0<br />

g[t] = 0<br />

⎪⎩ −1<br />

πt<br />

t gerade<br />

2 t ungerade<br />

(a) Ungefilterte Rückprojektion<br />

(b) Gefilterte Rückprojektion<br />

Abbildung 4.6: Gefilterte vs. ungefilterte Rückprojektion (aus [25])<br />

An den rekonstruierten Beispielbildern in Abbildung 4.7, können die Auswirkungen der Filter auf die Rückprojektion<br />

nachvollzogen werden (vgl. [35] Übungsblatt 8). Besonders deutlich ist hier die Verschmierung und Aufhellung im<br />

ungefilterten Bild zu erkennen.<br />

(a) Original (b) Kein Filter (c) Shepp-Logan (d) RamLak<br />

Abbildung 4.7: Angewandte Filter für gefilterte Rückprojektion ( Beispiel aus [35])<br />

4.3 Algebraische Rekonstruktion<br />

Bisher wurde die Rekonstruktion mit Hilfe der inversen Radontransformation beschrieben. Einen anderen Ansatz verfolgt<br />

die algebraische Rekonstruktion oder ART (Algebraische Rekonstruktionstechnik). Hier wird eine Projektion in<br />

Form eines linearen Gleichungssystemes beschrieben. Die Rekonstruktion läuft auf die Lösung dieses Gleichungssystemes<br />

hinaus, wie in diesem Abschnitt gezeigt wird.<br />

4.3.1 Motivation<br />

Bevor es zum LGS und dessen Lösung geht, soll zunächst eine Motivation gegeben werden. Im Folgenden werden dazu<br />

die Vorteile von ART gegenüber den restlichen Rekonstruktionsmethoden aufgeführt, und die zugrunde liegende Idee<br />

der algebraischen Rekonstruktion erläutert.<br />

Vorteile von ART<br />

Das Fourier Slice Theorem und die gefilterte Rückprojektion unterliegen gewissen Einschränkungen. So wird hier immer<br />

um ein und den selben Punkt rotiert und in immer gleichen Winkelabständen ein Bild aufgenommen, bis 180 Grad


32 KAPITEL 4. REKONSTRUKTION VON SCHICHTBILDERN<br />

abgetastet sind. Bei der algebraischen Rekonstruktion fallen die uniformen Winkel und die 180 Grad Einschränkung<br />

weg, wodurch sie bei Geräten mit begrenzter Beweglichkeit (z.B. C-Bögen) eingesetzt wird. Zudem benötigt man bei<br />

der algebraischen Methode nur eine geringe Anzahl an Projektionen und die Bildqualität ist häufig besser als von FBP<br />

[29].<br />

Grundidee von ART<br />

Um die Grundidee von ART zu verstehen muss man sich verdeutlichen, wie ein Strahl bei Durchquerung des Slices,<br />

das später auf dem CT Bild zu sehen ist, beinflusst wird. Man kann das Slice, wie in Abbildung 4.8, diskret als Pixelraster<br />

darstellen. Ein Strahl Pθ(t) wird demnach durch bestimmte Pixel verändert. Nach [29] liegen der algebraischen<br />

Rekonstruktion folgende Annahmen zugrunde 2 :<br />

• Grauwerte bzw. Dichte der Volumenelemente (Voxel) aus einem Körper sind Variablen.<br />

• Eine Projektion ergibt sich aus Linearkombinationen der unbekannten Voxelwerte (Lineares Gleichungssystem).<br />

• Rekonstruktion durch Lösen des LGS ergibt die gesuchten Voxelwerte.<br />

Abbildung 4.8: Modellierung einer Projektion für algebraische Rekonstruktion (aus [25])<br />

4.3.2 Projektion als lineares Gleichungssystem<br />

Als Ausgangswert für eine Rekonstruktion liegt der, unter dem Winkel θ, an Detektor t aufgenommene Wert Pθ(t) vor.<br />

Dieser ist abhängig von den berührten Pixelwerten f(x, y), die je nach größe der überstrichenen Fläche (siehe area in<br />

Abbildung 4.8) gewichtet werden.<br />

Gleichung der Projektion<br />

Eine Projektion wird bei der algebraischen Rekonstruktion durch die folgende Gleichung beschrieben:<br />

Dabei ist<br />

Pθ(t) =<br />

x�<br />

Nx<br />

y�<br />

wx,y,θ,t f(x, y)<br />

• wx,y,θ,t der Gewichtungsfaktor des Pixel an der Stelle (x, y) für Strahl t unter dem Winkel θ<br />

• x ∈ [0..Nx] mit Nx als die Bildbreite des rekonsturierten Bildes in Pixel<br />

• y ∈ [0..Ny] mit Ny als die Bildhöhe des rekonsturierten Bildes in Pixel<br />

Ny<br />

2 Die angesprochenen Pixelwerte werden hier als 3D Volumenelemente eines Körpers bezeichnet. Für die Problemstellung reicht allerdings eine<br />

diskrete, zweidimensionale Betrachtung eines Pixelrasters aus.


4.3. ALGEBRAISCHE REKONSTRUKTION 33<br />

Aufstellen des LGS<br />

Fasst man die Gesamtheit aller Pixel mit Ns = NxNy zusammmen und alle Projektionen unter einem Winkel als Nt, so<br />

lässt sich diese Formel wie folgt vereinfachen.<br />

Pi =<br />

j�<br />

wij fj mit i ∈ [0..Nt], j ∈ [0..Ns]<br />

Ns<br />

Daraus ergibt sich folgendes Gleichungssystem:<br />

⎛<br />

⎜<br />

⎝<br />

P1<br />

P2<br />

.<br />

PNt<br />

⎞<br />

⎛<br />

⎟<br />

⎠ =<br />

⎜<br />

⎝<br />

w11f1 + w12f2 + . . . + w1NsfNs<br />

w21f1 + w22f2 + . . . + w2NsfNs<br />

.<br />

wNt1f1 + wNt2f2 + . . . + wNtNsfNs<br />

Dies wiederum lässt sich zu einer Matrixmultiplikation umschreiben:<br />

⎛<br />

⎜<br />

⎝<br />

P1<br />

P2<br />

.<br />

PNt<br />

⎞<br />

⎟<br />

⎠ =<br />

⎛<br />

⎞⎛<br />

w11 w12 . . . w1Ns<br />

⎜ w21 w22 ⎜ . . . w2Ns<br />

⎟⎜<br />

⎟⎜<br />

⎜<br />

⎝<br />

.<br />

. . ..<br />

⎟⎜<br />

. ⎠⎝<br />

wNt1 wNt2 . . . wNtNs<br />

Es gilt nun die Pixelwerte im Spaltenvektor f zu rekonstruieren indem das LGS gelöst wird.<br />

Lösen des LGS<br />

Das entstandene LGS ist überbestimmt und besitzt zudem eine enorme Größe [29]. Für eine Aufnahme unter einem<br />

Winkel gibt es Ns Unbekannte und Nt Gleichungen. Ein solches Gleichungssystem ist mit den Standartmethoden, wie<br />

z.B. Gauss nicht mehr zu lösen. In der Praxis benötigt man iterative Methoden. Eine Möglichkeit bietet die Kaczmarz<br />

Methode, auf die im Folgenden eingegangen wird.<br />

4.3.3 Kaczmarz Methode<br />

Die 1937 vorgestellte Methode von Kaczmarz dient dazu, eine angenäherte Lösungen für linearen Gleichungssysteme<br />

der Form Au = f mit beliebiger A-Matrix zu finden. In diesem Abschnitt soll vor allem der Grundgedanke verdeutlicht<br />

und die Anwendung für ART gezeigt werden. Eine wesentlich ausführlichere Beschreibung der Methode ist in [16] zu<br />

finden.<br />

Idee<br />

Ein Bildraster mit Ns Pixeln besitzt Ns Freiheitsgrade. Der Vektor mit dem Bildinhalt f = (f1, f2, . . .fNs) ⊤ kann<br />

somit als Punkt im Ns-dimensionalen Raum repräsentiert werden. Dabei gilt:<br />

• Jede Gleichung der Art Pi = � j<br />

Ns wij fj beschreibt eine Hyperebene im Ns-dimensionalen Raum<br />

• Existiert eine Lösung des Gleichungssystems, schneiden sich alle Hyperebenen in einem Punkt f<br />

• Die Koordinaten f1, f2, . . .fNs des Schnittpunktes ensprechen den Pixelwerten des rekonstruierten Bildes<br />

Um den Schnittpunkt zu finden, wählt man einen Startvektor und projiziert diesen nacheinander rechtwinklig auf alle<br />

Hyperebenen. Der Startvektor nähert sich dabei iterativ dem gesuchten Vektor f an.<br />

Besonders effizient funktioniert dies, wenn die Hyperebenen rechtwinklig zueinander stehen, da der Vektor sich dann<br />

schnell approximiert. Sind die Winkel zwischen den Hyperebenen flach, dauert die Annäherung entsprechend länger.<br />

f1<br />

f2<br />

.<br />

fNs<br />

⎞<br />

⎟<br />

⎠<br />

⎞<br />

⎟<br />


34 KAPITEL 4. REKONSTRUKTION VON SCHICHTBILDERN<br />

Anwendung<br />

Für ein besseres Verständnis soll hier das Beispiel aus [25] (siehe Abbildung 4.9) erklärt werden. Aufgrund der begrenzten<br />

Darstellungsmöglichkeiten, besteht das gesuchte Bild aus nur zwei Pixeln f1 und f2, d.h. es wird ein Punkt in 2D<br />

gesucht. Demzufolge sind die Projektionsgleichungen nicht als Hyperebenen, sondern als Geraden im 2D zu verstehen.<br />

Abbildung 4.9 zeigt das oben genannte Beispiel mit den folgenden vier Projektionsgleichungen, welche als Geraden im<br />

Koordinatensystem 3 eingezeichnet sind:<br />

P1 = w11f1 + w12f2<br />

P2 = w21f1 + w22f2<br />

P3 = w31f1 + w32f2<br />

P4 = w41f1 + w42f2<br />

Die roten Punkte im Bild zeigen die schrittweise Annäherung des Lösungsvektors nach jeder Projektion an den gesuchten<br />

Schnittpunkt. Der Vektor kann zum Beispiel per Zufallswert initialisiert werden.<br />

Abbildung 4.9: Anwendung der Kaczmarz Methode (aus [25])<br />

3 Für jeden gesuchten Pixelwert f1 und f2 steht eine Achse des Koordinatensystems.


Kapitel 5<br />

Bildregistrierung und Fusion<br />

Dieses Kapitel befasst sich abschließend mit dem Problem der Fusionierung von verschiedenen Bildern und der damit<br />

verbundenen Bildregistrierung. Dazu werden verschiedene Registrierungsansätze und Verfahren vorgestellt. Weitere<br />

Verfahren und ausführlichere Erläuterungen findet man in [5] und [12].<br />

5.1 Fusion<br />

Verschiedene bildgebende Verfahren ermöglichen den Ärzten, spezielle und differenzierte Diagnosen zu erstellen. Manchmal<br />

ist es sinnvoll mehrere Quellen für eine bessere Diagnose zu nutzen und zum Beispiel morphologische und funktionelle<br />

Befunde zu vergleichen. Der Nutzen der Bildfusion in der Medizin wird an dem nachfolgend beschriebenen<br />

Beispiel klar.<br />

Fusioniert man ein CT (Abbildung 5.1a) mit einem PET-Scan des selben Bereiches (Abbildung 5.1b), hat man die<br />

Vorteile beider Modalitäten in einem Bild kombiniert (Abbildung 5.1c) und kann die stoffwechselaktiven Bereiche<br />

anhand des morphologischen Befundes identifizieren. Weitere Beispielbilder sind in [28] zu sehen.<br />

(a) CT (b) PET (c) Fusion von PET und CT<br />

Abbildung 5.1: Fusion von CT und PET Bildern (aus [12])<br />

Man unterscheidet zwei Arten von Bildfusion in der Medizin, die unimodale und die multimodale Fusion, welche im<br />

Folgenden genauer erklärt werden.<br />

5.1.1 Unimodale Fusion<br />

Unimodale Fusion bezeichnet die Fusion von zeitlich versetzten Bildern, die mit dem selben bildgebenden Verfahren<br />

aufgenommen wurden, um z.B. den Heilungsverlauf von Knochenbrüchen zu verfolgen oder eine Therapie zu kontrollieren.<br />

Die zeitliche Differenz zwischen den Aufnahmen bedingt, abhängig von ihrer Größe, mehrere Probleme für die<br />

Bildfusion: Abweichungen der Lagerung des Patienten, unterschiedliche Atemposition des Torax, Füllungszustand von<br />

Darm und Blase [28].


36 KAPITEL 5. BILDREGISTRIERUNG UND FUSION<br />

5.1.2 Multimodale Fusion<br />

Es gibt zwei Arten der multimodalen Fusion, also der Fusion zweier Bilder verschiedener Modalität. Die softwaretechnische<br />

Lösung versucht die Aufnahmen aus zwei Geräten mit Methoden der <strong>Bildverarbeitung</strong> zu fusionieren. Hier hat man<br />

auch das Problem der zeitlichen Differenz. Eine teurere aber wesentlich bessere Methode bietet die hardwaretechnische<br />

Lösung, welche die unterschiedlichen Modalitäten in einem Gerät technisch kombiniert. Hier gibt es keine Probleme<br />

durch zeitliche Differenz, die Bilder stimmen optimal überein und der Patient muss nur einmal untersucht werden.<br />

5.2 Registrierungsverfahren<br />

Im Allgemeinen geht man bei der Fusion von Bildern wie folgt vor: die Bilder werden verglichen (Matching, siehe<br />

Abschnitt 5.3) um Punktkorrespondenzen zu finden. Mit diesen Punkten kann dann eine Registrierung durchgeführt<br />

werden. Unter Registrierung versteht man die Berechnung einer Transformation, die zwei korrespondierende Bildinhalte<br />

in zwei verschiedene Koordinatensysteme abbildet [12].<br />

5.2.1 Transformationsbasierte Registrierung<br />

Bei den beschriebenen Transformationen kann es sich um vollkommen beliebige Verschiebungen, Verzerrungen und<br />

Verlagerungen handeln. Vereinfachend geht man von Transformationsmodellen aus, mit einer endlichen Anzahl an Modellparametern<br />

und Freiheitsgraden. Man unterscheidet die Folgenden:<br />

Translativ: Verschiebung um einen Vektor (2D −→ 2D)<br />

Rigide: (auch Starre Transformation) Translation und Rotation 1 (2D −→ 2D)<br />

Affine: Parallelitätserhaltende 2 Transformation (2D −→ 2D)<br />

Projektive: Veränderung des Blickwinkels (3D −→ 2D)<br />

Vollständig elastische: Verlagerung von Weichteilen benötigt weitere Freiheitsgrade (3D −→ 2D)<br />

Abbildung 5.2 verdeutlicht die, oben aufgeführten Transformationen von links nach rechts. Zusätzlich unterscheidet man<br />

lokale Transformationen, z.B. Verlagerung von einzelnen Bereichen, wie Knochen und Organe, und globale Transformationen,<br />

z.B. Positionsveränderung des Patienten. Bei der globalen Transformation bleiben die Einzelteile zueinander<br />

unverändert.<br />

Abbildung 5.2: Globale Transformationsmodelle für Bildregistrierung<br />

5.2.2 Intensitätsbasierte Registrierung<br />

Neben der transformationsbasierten gibt es noch die intensitätsabhängige Registrierung. Korrekt registrierte Bilder implizieren<br />

die höchste Wahrscheinlichkeit für die Abhängigkeit von abgestimmten Intensitätswerten (Helligkeit der Pixel).<br />

Die Transformation hatT eines Ausgangsbildes f mit dem zu registrierenden Bild g kann zum Beispiel mit der<br />

Ähnlichkeitsfunktion Sum of squared differences (SSD) abgeschätzt werden.<br />

�<br />

ˆT = argminT �fi,j − T {gi,j}� 2<br />

1 Mathematische Darstellungen von rigiden Transformationen insbesondere der Rotationen finden sich in Anhang A.3<br />

2 Parallele Kanten bleiben parallel bei Skalierung, Translation, Rotation, Scherung und Spiegelung (Affine Transformationen).<br />

i,j


5.3. BLOCKMATCHING 37<br />

5.3 Blockmatching<br />

Blockmatching ist ein intensitätsbasiertes Verfahren um einen Bildbereich (Block) in einem anderen Bild, über ein Ähnlichkeitsmaß<br />

zu lokalisieren. Hier wird nicht ein einzelner Punkt verglichen sondern die Bildstruktur innerhalb des<br />

Blockes.<br />

Man verwendet Blockmatching zum Beispiel zur Bewegungsdetektion in Kamerabildern, wie in [1] beschrieben. Die<br />

Koordinatendifferenz zweier korrespondierender Bildblöcke ergibt hier einen Verschiebungsvektor (Disparität). Blockmatching<br />

ist somit auf Transitionen beschränkt, kann also keine Rotation erkennen.<br />

5.3.1 Funktionsweise<br />

Hier soll nur der prinzipielle Ablauf des Algorithmus zum Auffinden korrespondierender Blöcke in zwei Bildern erklärt<br />

werden. Der Blockmatching Algorithmus besteht somit im Wesentlichen aus drei Schritten:<br />

1. Wahl eines Blockes B mit bestimmter Größe in einem Bild f<br />

2. Suche des ähnlichsten Blockes im Referenzbild g<br />

3. Vergleich der Blöcke über ein Ähnlichkeitsmaß<br />

Schritt 2 und 3 werden in einer Schleife über alle Pixel (x, y) ⊤ im Suchbereich 3 von g ausgeführt, so dass man am Ende<br />

für jede Position im Referenzbild einen bestimmten Ähnlichkeitswert erhält, je nachdem welche Ähnlichkeitsfunktion<br />

verwendet wurde. Ein Anwendungsbeispiel ist in Abbildung 5.3 zu sehen.<br />

5.3.2 Blockgröße und Ähnlichkeitsmaße<br />

Die Qualität des Blockmatchings von dem gewählten Ähnlichkeitsmaß ab. Die im Folgenden vorgestellten Ähnlichkeitsfunktionen<br />

sind aus [1] entnommen. Die Indizes i, j beschreiben die jeweilige Position im Block, während x, y die<br />

untersuchte Position im Referenzbild darstellt.<br />

Besonders wichtig für eine Registrierung ist zudem die Wahl einer entsprechenden Blockgröße. Je größer ein Block<br />

ist, umso höher ist die Wahrscheinlichkeit korrespondierende Blöcke zu finden. Andererseits sinkt der Rechenaufwand<br />

proportional zur Blockgröße.<br />

Squared Error (SE)<br />

Normalized cross correlation function (NCCF)<br />

SE(x, y) = �<br />

(f(i, j) − g(x + i, y + j)) 2<br />

i,j∈B<br />

i,j∈B<br />

Absolute Error / Displaced frame difference (DFD)<br />

�<br />

i,j∈B<br />

f(i, j)g(x + i, y + j)<br />

NCCF(x, y) = �<br />

�<br />

f(i, j) 2<br />

�<br />

�<br />

g(x + i, y + j) 2<br />

SE(x, y) = �<br />

i,j∈B<br />

i,j∈B<br />

|f(i, j) − g(x + i, y + j)|<br />

3 Damit der Block nicht über die Bildgrenze von g hinausragt, wird nur ein bestimmter Bildbereich abgesucht, wodurch sich auch der schwarze<br />

Rahmen in Abbildung 5.3b erklärt.


38 KAPITEL 5. BILDREGISTRIERUNG UND FUSION<br />

5.3.3 Anwendungsbeispiel<br />

An einem Beispiel zweier Bildausschnitte aus Abbildung 1.10a lässt sich der Blockmatching Algorithmus leicht erläutern.<br />

Zunächst sei in Abbildung 5.3a ein Bildbereich definiert, den es im Referenzbild 5.3c zu suchen gilt. Die<br />

Ähnlichkeitswerte, visualisiert in Abbildung 5.3b, wurden mittels Squared Error ermittelt. Je heller ein Pixel dieser<br />

Ähnlichkeitskarte ist, umso wahrscheinlicher befindet sich der korrespondierende Block an dieser Stelle (vgl. Position<br />

in Abbildung 5.3c).<br />

(a) Definierter Suchblock (b) Ähnlichkeitswerte (c) Gefundener Referenzblock<br />

5.4 Homographie<br />

Abbildung 5.3: Anwendung des Blockmatchingverfahrens<br />

Will man zwei Bilder fusionieren, die aus unterschiedlichen Blickwinkeln aufgenommen wurden, stören die unterschiedlichen<br />

perspektivischen Verzerrungen. Diese entstehen durch eine Projektion eines 3D Objektes auf eine 2D Bildebene,<br />

wie bei einer Kamera. Das Problem ist also, die entstandenen Verzerrungen wieder herauszurechnen um eine Fusion zu<br />

ermöglichen. Abbildung 5.4 zeigt das Ergebniss einer solchen Rückrechnung.<br />

5.4.1 Projektive Transformation<br />

(a) Verzerrtes Bild (b) Ähnlichkeitswerte<br />

Abbildung 5.4: Anwendung der Homographie<br />

Bei perspektivischen Verzerrungen handelt es sich um projektive Transformationen, die in Abschnitt 5.2.1 bereits vorgestellt<br />

wurden. Die projektive Transformation einer 2D Bildfläche wird auch als Homographie bezeichnet. Im Folgenden<br />

wird die Projektive Transformation und deren Rückrechnung verdeutlicht und genauer erklärt. Einen tieferen theoretischen<br />

und mathematischen Einblick in Homographien gewährt [11].


5.4. HOMOGRAPHIE 39<br />

Rückrechnung projektiver Transformation<br />

Nimmt man perspektivisch verzerrte Bildern aus einem bestimmten Blickwinkel mit einer Kamera auf, so scheinen die<br />

Verzerrungen aufgehoben zu sein. Daraus folgt, das man perspektivisch verzerrte bzw. projektiv transformierte Bilder<br />

durch erneute projektive Transformation entzerren kann. Dieser Effekt wird in Abbildung 5.5 verdeutlicht.<br />

Berechnung der Homographie<br />

Projektive Transformation<br />

Abbildung 5.5: Projektive Transformation<br />

Mathematisch entsteht eine projektive Transformation durch Multiplikation aller Bildpunkte, bzw. deren Koordinaten<br />

mit einer Homographiematrix H. Zwischen einem idealen Bildpunkt p und einem verzerrten Punkt p ′ ergibt sich das<br />

folgende Verhältnis.<br />

p ′ = Hp ⇐⇒ p = H −1 p ′<br />

Das Problem ist somit begrenzt auf die berechnung der korrekten Homographiematrix. Bei einer 3D-2D Projektion ist die<br />

Matrix mit PTotal gegeben (siehe Abschnitt 2.1) und enthält Rotation, Translation, Projektionsmatrix und intrinsischen<br />

Kameraparametern. Im Folgenden soll deshalb nur die 2D-2D Transformation betrachtet werden.<br />

5.4.2 Herleitung der Homographiematrix<br />

Einfacher kann eine 2D Homographiematrix über Punktkorrespondenzen hergeleitet werden. Man wähle vier verzerrte<br />

Punkte (siehe Abb. 5.4a) und deren gewünschte, ideale Positionen (siehe Abb. 5.4b) als korrespondierende Punkte aus.<br />

Dann gilt für jedes Punktepaar:<br />

p ′ = Hp mit H ∈ R 3×3<br />

und p ′ , p ∈ P 2<br />

In Worten: H ist eine 3 × 3 Matrix die den P 2 auf den P 2 abbildet und einen Pixel p an eine andere Position p ′<br />

transformiert.<br />

Aufstellen des Gleichungssystemes<br />

Aus dieser Gleichung lässt sich das Gleichungssystem wie folgt aufstellen. Da die Punkte jeweils eine homogene Koordinate<br />

besitzen, gilt p = (x, y, 1) ⊤ und p ′ = (x ′ , y ′ , k ′ ) ⊤ . Einsetzen und ausmultiplizieren liefert dann:<br />

⎛<br />

⎝ x′<br />

y ′<br />

k ′<br />

⎞ ⎛<br />

⎠ = ⎝ h11<br />

⎞ ⎛<br />

h12 h13<br />

h21 h22 h23⎠<br />

⎝<br />

h31 h32 h33<br />

x<br />

⎞ ⎛<br />

y⎠<br />

= ⎝<br />

1<br />

h11x<br />

⎞<br />

+ h12y + h13<br />

h21x + h22y + h23⎠<br />

h31x + h32y + h33<br />

Da p ′ noch ein 3D Vektor ist, muss er noch mit der homogenen Koordinate normalisiert, also durch k ′ geteilt werden.<br />

Demnach ergibt sich für x ′ und y ′ :<br />

x ′ = h11x + h12y + h13<br />

k ′<br />

y ′ = h21x + h22y + h23<br />

k ′<br />

⇒ h11x + h12y + h13 − x ′ k ′ = 0<br />

⇒ h21x + h22y + h23 − y ′ k ′ = 0


40 KAPITEL 5. BILDREGISTRIERUNG UND FUSION<br />

Durch Einsetzen von k ′ = h31x + h32y + h33 ergeben sich für eine Punktkorrespondenz folgende Gleichungen:<br />

h11x + h12y + h13 − x ′ (h31x + h32y + h33) = h11x + h12y + h13 − h31x ′ x + h32x ′ y + h33x ′ = 0<br />

h21x + h22y + h23 − y ′ (h31x + h32y + h33) = h21x + h22y + h23 − h31y ′ x + h32y ′ y + h33y ′ = 0<br />

Nullraumproblem<br />

Dies lässt sich durch Umformung als einfache Matrixmultiplikation zwischen einer Punktematrix und der, zu einem<br />

Spaltenvektor umgeformten Homographiematrix darstellen.<br />

⎛ ⎞<br />

h11<br />

�<br />

′ ′ ′<br />

x y 1 0 0 0 −x x −x y −x<br />

0 0 0 x y 1 −y ′ x −y ′ y −y ′<br />

� ⎜h12⎟<br />

⎜ ⎟<br />

⎜ ⎟ = 0<br />

⎝ . ⎠<br />

Die Lösung eines Gleichungssystemes der Art Ah = 0 wird über den Nullraum 4 von A, also h = null(A) berechnet.<br />

Dabei hat A bei n Punktepaaren die Dimension 2n × 9. Um das Gleichungsystem zu lösen muss A zusätzlich den<br />

Rang 8 haben, d.h. die Matrix muss aus 8 linear unabhängigen Vektoren bestehen. Um das zu gewährleisten dürfen die<br />

gewählten Punkte nicht kolinear sein.<br />

5.4.3 Mapping<br />

Das Transformieren von Bildpunkten mittels einer Homographiematrix wird als Mapping bezeichnet. Dabei wird einem<br />

Bildpunkt aus einem Bild f ′ im Bild f eine neue Position zugewiesen. Es gibt verschiedene Vorgehensweisen beim<br />

Mapping (siehe Abbildung 5.6), die im Folgenden vorgestellt werden.<br />

Forward mapping<br />

Beim Forward mapping wird in einer Schleife über alle Pixel p ′ des Ursprungbildes f ′ gegangen und der Farbwert an<br />

der transformierten Stelle im neuen Bild f gespeichert, wie nachstehende Formel verdeutlicht.<br />

∀p ′ ∈ f ′ : f(H −1 p ′ ) = f ′ (p ′ )<br />

Da der transformierte Punkt keine ganzzaligen Werte aufweist und somit selten im Pixelraster liegt, muss er gerundet<br />

werden, was aber zu Artefakten führt, da nicht jeder Pixel aus f bearbeitet wird. Die entstehenden Artefakte sind in<br />

Abbildung 5.6a gezeigt. Eine bessere Alternative ist das Backward mapping.<br />

Backward mapping<br />

Um Artefakte zu vermeiden, geht man beim Backward mapping umgekehrt vor. In einer Schleife über alle Pixel p aus<br />

dem neuen Bild f, wird der zugehörige Wert aus f ′ ermittelt. Obwohl der transformierte Punkt hier auch gerundet<br />

werden muss, entstehen diese Artefakte nicht, da in f ′ alle notwendigen Informationen vorhanden sind.<br />

∀p ∈ f : f(p) = f ′ (Hp)<br />

Abbildung 5.6b zeigt das Ergebnis des Backward mapping mit gerundeten Pixeln. Nur die Bildkanten weisen noch<br />

Unstetigkeiten auf.<br />

Backward mapping mit bilinearer Interpolation<br />

Noch bessere Ergebnisse liefert Backward mapping, wenn die Farbwerte mit der, in Abschnitt 3.2.2 vorgestellten, bilinearen<br />

Interpolation errechnet werden. Falls der gesuchte Pixel nicht im Raster liegt, wird der Farbwert aus den umliegenden<br />

Pixeln interpoliert. Das Ergebnis ist in Abbildung 5.6c zu sehen.<br />

4 Die Berechnung des Nullraum mittels SVD, wird in Anhang A.5.3 genauer beschrieben.<br />

h33


5.4. HOMOGRAPHIE 41<br />

(a) Forward mapping<br />

(b) Backward mapping<br />

(c) Bilineare Interpolation<br />

Abbildung 5.6: Ergebnisse unterschiedlicher Mapping Verfahren


42 KAPITEL 5. BILDREGISTRIERUNG UND FUSION


Anhang A<br />

Mathematische Grundlagen<br />

Der Vollständigkeit halber, werden in diesem Anhang kurz die mathematischen Grundlagen zur Vorlesung wiederholt.<br />

Da dies nur als kurzes Resumee zum Nachschlagen gedacht ist, empfiehlt es sich, insbesondere das Thema der linearen<br />

Algebra z.B. mit [3] selbst aufzuarbeiten. In [1] ist eine ausführliche Wiederholung des mathematischen Stoffes<br />

der Vorlesung SAB 1 zu finden. Des Weiteren sind in den folgenden Unterabschnitten entsprechende Literaturverweise<br />

untergebracht.<br />

A.1 Vektoren<br />

In diesem Abschnitt werden Berechnungen mit Vektoren, insbesondere das Skalarprodukt und das Kreuzprodukt wiederholt.<br />

Punkte in beliebig dimensionalen Räumen werden als Vektoren betrachtet. Als Ursprung des Vektors dient der<br />

Ursprung des entsprechenden Koordinatensystemes. Ein Punkt p im N-dimensionalen Raum wird als Spaltenvektor,<br />

also als Tupel mit N Elementen geschrieben 2 :<br />

A.1.1 Skalar- und Kreuzprodukt<br />

p = (p1, p2, . . .pN) ⊤ mit p ∈ R<br />

Das Skalarprodukt zweier 3D Vektoren u und v liefert eine reelle Zahl r, wobei immer r = 0 gilt, falls die Vektoren<br />

orthogonal zueinander sind. Es ist definiert als:<br />

⎛ ⎞ ⎛ ⎞<br />

r = u · v =<br />

⎝ u1<br />

u2<br />

u3<br />

⎠ ·<br />

⎝ v1<br />

v2<br />

v3<br />

⎠ = u1v1 + u2v2 + u3v3<br />

Das Kreuzprodukt zweier 3D Vektoren u und v liefert wiederum einen 3D Vektor w, der Senkrecht zu der von u und v<br />

ausgespannten Fläche steht. Es ist definiert als:<br />

⎛<br />

w = u × v = ⎝ u1<br />

⎞ ⎛<br />

⎠ × ⎝ v1<br />

⎞ ⎛<br />

⎠ = ⎝ u2v3<br />

⎞<br />

− u3v2<br />

⎠<br />

u2<br />

u3<br />

v2<br />

v3<br />

u3v1 − u1v3<br />

u1v2 − u2v1<br />

Es ist nicht kommutativ! Vielmehr gilt u × v = −(v × u). Alternativ kann das Kreuzprodukt wie folgt, auch als<br />

Matrixmultiplikation geschrieben werden:<br />

w = u × v = u[v]× mit<br />

⎛<br />

[v]× = ⎝ 0 −v3<br />

−v3 0<br />

⎞<br />

v2<br />

−v1⎠<br />

−v2 v1 0<br />

1 Die mathematischen Grundlagen zu Struktur aus Bewegung (SAB) und <strong>Medizinische</strong> <strong>Bildverarbeitung</strong> sind im großen und ganzen die selben.<br />

2 Da in der <strong>Bildverarbeitung</strong> nur 2D Flächen relevant sind, wird im Folgenden nur auf homogene Koordinaten mit 3 Elementen eingegangen (siehe<br />

Anhang A.2).


44 ANHANG A. MATHEMATISCHE GRUNDLAGEN<br />

A.1.2 Winkel zwischen Vektoren<br />

Der Winkel θ zwischen zwei Vektoren u und v aus dem R 3 steht wie folgt, in Relation zum Skalar- und Kreuzprodukt:<br />

�u × v� = �u��v�sinθ und u · v = �u��v�cosθ<br />

Für das Kreuzprodukt und das Skalarprodukt sowie für orthogonale Vektoren gilt ferner:<br />

A.2 Projektive Geometrie in 2D<br />

u ⊥ w ∧ v ⊥ w ⇐⇒ u · w = v · w = 0 ⇐⇒ w = u × v<br />

Dieser Abschnitt wiederholt die Grundlagen zur Projektiven Geometrie welche für die <strong>Bildverarbeitung</strong> relevant sind.<br />

Da mit Punkten und Linien in Bildern operiert wird, soll sich hier auf 2 Dimensionen beschränkt werden.<br />

A.2.1 Punkte und Linien in 2D<br />

Ein 2D Punkt p = (x, y) ⊤ aus R 2 wird repräsentiert durch eine homogene Koordinate ˜p = (wx, wy, w) ⊤ im projektiven<br />

Raum P 3 . Dabei ist w eine beliebige Konstante ungleich Null. Ein karthesischer Punkt aus R 2 kann somit durch<br />

hinzufügen eines dritten Elementes z = 0 zu einem idealen Punkt erweitert werden.<br />

Umgekehrt kann eine homogene Koordinate ˜p ∈ P 3 zu einem karthesischen Punkt q ∈ R 2 umgewandelt werden, indem<br />

durch das dritte Element geteilt wird. Dies funktioniert allerdings nicht mit sogenannten idealen Punkten, da diese im<br />

Unendlichen liegen!<br />

˜p = (p1, p2, p3) ⊤ =⇒ q =<br />

� �<br />

p1 p2<br />

⊤<br />

p3<br />

, p3<br />

Eine Linie in 2D wird durch die Gleichung ax+by+c = 0 dargestellt, wobei sie durch die Parameter a, b und c definiert<br />

wird. Sie kann als 3D Zeilenvektor l = (a, b, c) geschrieben werden. Für Linien im projektiven Raum gelten folgende<br />

Regeln:<br />

• Ein Punkt ˜p liegt auf der Linie l genau dann, wenn gilt l˜p = l ⊤ · ˜p = 0<br />

• Ein Punkt ˜p bildet den Schnittpunkt zweier Linien l1 und l2 genau dann, wenn gilt l1˜p = l2˜p = 0<br />

• Der Schnittpunkt ˜p zweier Linien l1 und l2 ist definiert durch ˜p = l ⊤ 1 × l⊤ 2<br />

• Zwei Punkte ˜p und ˜q definieren eine Linie l mit l = (˜p × ˜q) ⊤<br />

• Die Distanz eines Punktes ˜p senkrecht zu einer Linie l ist gegeben durch d(˜p, l) =<br />

A.2.2 Dualitätsprinzip<br />

l˜p<br />

w � a 2 + b 2<br />

In der projektiven Ebene gilt das so genannte Dualitätsprinzip. Es besagt, das jedes Theorem oder Axiom gültig bleibt,<br />

wenn man das Wort Linie durch Punkt und umgekehrt ersetzt. Beispielsweise gilt „ Zwei Punkte definieren eine Linie“<br />

ebenso wie „ Zwei Linien definieren einen Punkt“ (vgl. Formeln in Abschnitt A.2.1).<br />

Zwei Linien definieren einen Punkt indem sie sich schneiden. Eine Ausnahme sind parallele Linien im euklidischen<br />

Raum. Im projektiven Raum allerdings, liegt der Schnittpunkt zweier Parallelen im Unendlichen.<br />

A.3 Rigide Transformationen in 3D<br />

Allgemein lassen sich starre Transformationen durch eine Matrixmultiplikation ˜p = H˜q im P 4 darstellen, wobei ein<br />

Punkt ˜q ∈ R 4 auf einen Punkt ˜p ∈ R 4 abgebildet wird. Dabei ist in der Matrix H ∈ R 4×4 eine Rotationsmatrix und ein<br />

Translationsvektor enthalten.<br />

H =<br />

�<br />

R<br />

�<br />

t<br />

0 0 0 1<br />

wobei R ∈ R 3×3 , t ∈ R 3×1


A.3. RIGIDE TRANSFORMATIONEN IN 3D 45<br />

A.3.1 Allgemeine Translation und Rotation<br />

Eine Translation verschiebt einen Punkt p um einen Translationsvektor t. Dies lässt sich als Vektoraddition p ′ = p+t im<br />

R 3 schreiben, wobei gilt t = (t1, t2, t3) ⊤ . Im P 4 lässt sich dies, wie oben gezeigt, als Matrixmultiplikation schreiben,<br />

indem die Rotationsmatrix durch die Identitätsmatrix I3 ersetzt wird.<br />

p ′ = Hp mit<br />

�<br />

H =<br />

0<br />

I3<br />

0<br />

⎛<br />

� 1<br />

t ⎜<br />

= ⎜0<br />

0 1 ⎝0<br />

0 0<br />

1 0<br />

0 1<br />

⎞<br />

t1<br />

t2 ⎟<br />

t3⎠<br />

0 0 0 1<br />

Es gibt verschiedene Arten um Rotationen im dreidimensionalen Raum zu repräsentieren, auf die im Folgenden eingegangen<br />

wird. Man kann um die drei Achsen des Koordinatensystemes rotieren, genannt Euler/Winkel Repräsentation<br />

(siehe Abschnitt A.3.2) oder um eine beliebige Achse, genannt Achse/Winkel Repräsentation (siehe Abschnitt A.3.2).<br />

Ferner kann man Rotationen mittels Quaternionen beschreiben, wie in Abschnitt A.4.2 beschrieben.<br />

Bei den beiden ersten Repräsentationen wird die Rotationsmatrix jeweils anders gebildet. Dennoch zeichnen sich alle<br />

Rotationsmatrizen R durch die folgenden Eigenschaften aus:<br />

• Sie bestehen aus orthonormalen Spaltenvektoren und haben somit den Rang 3, d.h. sie sind invertierbar.<br />

• Die Transponierte multipliziert mit der Rotationsmatrix ergibt die Identitätsmatrix R ⊤ R = RR ⊤ = I3.<br />

• Die inverse ist gleich der transponierten Rotationsmatrix R −1 = R ⊤ .<br />

• Der Eigenvektor entspricht der Rotationsachse und die Determinante ist immer 1.<br />

A.3.2 Rotation nach Euler<br />

Bei der Euler/Winkel Repräsentation wird eine Rotation um eine beliebige Achse um dem Winkel α, durch drei Rotationen<br />

um die Achsen des Koordinatensystemes mit den entsprechenden Winkeln αx, αy und αz dargestellt. Die<br />

Rotationsmatrix ergibt sich als Produkt der x,y und z-Rotationsmatrizen:<br />

⎛<br />

1<br />

R = RxRyRz = ⎝0 0<br />

cos αx<br />

⎞ ⎛<br />

0<br />

−sin αx⎠<br />

⎝<br />

0 sin αx cos αx<br />

cos αx<br />

0<br />

0<br />

1<br />

⎞⎛<br />

−sin αx<br />

0 ⎠⎝<br />

sin αx 0 cos αx<br />

cos αx<br />

sin αx<br />

−sin αx<br />

cos αx<br />

⎞<br />

0<br />

0⎠<br />

0 0 1<br />

Wichtig ist hier die Einhaltung der Reihenfolge beim Multiplizieren, da die Matrixmultiplikation nicht kommutativ ist<br />

und unterschiedliche Ergebnisse die Folge sind.<br />

Eine Besonderheit ist der Gimbal Lock, der nur in dieser Repräsentation auftreten kann. So kann es vorkommen das nach<br />

einer Drehung zwei Raumachsen aufeinander liegen (z.B Drehung um 90 ◦ um die y-Achse ⇒ x- und z-Achse liegen<br />

aufeinander). Eine Nachfolgende Rotation um eine dieser Achsen ist dann nicht mehr eindeutig.<br />

A.3.3 Rotation nach Rodrigues<br />

Eine Lösung für das Gimbal Lock Problem bietet die Achse/Winkel Repräsentation. Statt um die Raumachsen zu rotieren,<br />

wird hier um einen beliebigen Vektor als Achse gedreht. Mit der Rodrigues-Formel lässt sich die Rotationsmatrix<br />

aus der Rotationsachse u, dargestellt als normierter Spaltenvektor, und dem Winkel θ berechnen.<br />

R = uu ⊤ + (I3 − uu ⊤ )cosθ + [u]×sinθ mit u = (u1, u2, u3) ⊤ , �u� = 1<br />

Abbildung A.1 verdeutlicht die Anwendung der Rodrigues-Formel. Hier wird ein Punkt v durch eine Rotation (Winkel<br />

θ um Achse u) auf Punkt v ′ abgebildet.


46 ANHANG A. MATHEMATISCHE GRUNDLAGEN<br />

A.4 Quaternionen<br />

Abbildung A.1: Anwendung der Rodrigues-Formel (siehe [25])<br />

Quaternionen können als Erweiterung von komplexen Zahlen angesehen werden. Neben der imaginären Zahl i gibt es<br />

bei den Quaternionen noch die imaginären Zahlen j und k. Für i, j und k gilt:<br />

ii = −1, jj = −1, kk = −1 und ij = −ji = k, jk = −kj = i, ki = −ik = j<br />

Ein Quaternion r ist eine lineare Kombination r = w + xi + yj + zk mit realen Zahlen w, x, y und z. Eine andere<br />

Notation ist r = (w, v) mit v = (x, y, z). Ähnlich zu den komplexen Zahlen gilt:<br />

• Das konjugierte Quaternion ergibt sich mit r = w − xi − yj − zk<br />

• Der Betrag eines Quaternions berechnet sich mit �r� = √ r ∗ r = � w 2 + x 2 + y 2 + z 2<br />

• Ein Quaternion mit Länge �r� = 1 wird als Einheitsquaternion bezeichnet<br />

• Für Einheitsquaternionen ist die Konjugierte gleich dem inversen Quaternion �r� = 1 ⇒ r = r −1<br />

A.4.1 Multiplikation von Quaternionen<br />

Die Multiplikation zweier Quaternionen r1 = (w1, v1) und r2 = (w2, v2) mit den Zeilenvektoren v1 = (x1, y1, z1) und<br />

v2 = (x2, y2, z2) ist definiert als:<br />

r1 ∗ r2 = (w1w2 + v1v ⊤ 2 , w1v2 + w2v1 + v1 × v2)<br />

Sie ist assoziativ aber nicht kommutativ. Das Kreuzprodukt zweier Zeilenvektoren ist beschrieben mit v1 × v2 = (v ⊤ 1 ×<br />

v ⊤ 2 ) ⊤ . Damit gilt:<br />

r1 ∗ r2 = (w1w2 + (x1, y1, z1)(x2, y2, z2) ⊤ , w1(x2, y2, z2) + w2(x1, y1, z1) + (x1, y1, z1) × (x2, y2, z2))<br />

⎛<br />

⎛ ⎞<br />

⎛⎛<br />

⎞ ⎛ ⎞⎞<br />

= ⎝w1w2 + (x1, y1, z1)<br />

⎝ x2<br />

y2<br />

z2<br />

⎠ , w1(x2, y2, z2) + w2(x1, y1, z1) + ⎝<br />

Ferner kann das Produkt von Quaternionen als Matrixmultiplikation r1 ∗r2 = r1[r2]∗ geschrieben werden. Ausgeschrieben<br />

erhält man für die Multiplikationsmatrix [r2]∗:<br />

⎛<br />

⎜<br />

[r2]∗ = ⎜<br />

⎝<br />

w2 x2 y2 z2<br />

−x2 w2 −z2 y2<br />

−y2 z2 w2 −x2<br />

−z2 −y2 x2 w2<br />

⎞<br />

⎟<br />

⎠<br />

⎝ x1<br />

y1<br />

z1<br />

⎠ ×<br />

⎝ x2<br />

y2<br />

z2<br />

⎠⎠<br />

⊤ ⎞<br />


A.5. SINGULÄRWERTZERLEGUNG 47<br />

A.4.2 Rotation mit Quaternionen<br />

Quaternionen bieten eine elegante Methode zur Berechnung von Rotationen im dreidimensionalen Raum, wie folgendes<br />

Beispiel zeigt. Sei p ∈ R 3 der zu rotierende Punkt, u ∈ R 3 die Rotationsachse als Vektor mit �u� = 1, und θ ∈ R der<br />

Drehwinkel. Dann lassen sich die Quaternionen p ′ und r wie folgt definieren:<br />

p ′ = (0, p ⊤ ) r = (cos θ<br />

, sinθ<br />

2 2 u⊤ )<br />

Damit lässt sich das Quaternion p ′ rot , welches den rotierten Punkt als Zeilenvektor enthält, berechnen:<br />

p ′ rot<br />

= r ∗ p ∗ r = r[p]∗[r]∗<br />

Es lassen sich beliebig viele Rotationen r1 . . . rn nacheinander ausführen, indem man sie, wie nachstehend zusammenfasst<br />

und wie oben gezeigt, auf einen Punkt anwendet.<br />

A.5 Singulärwertzerlegung<br />

r = r1 ∗ r2 ∗ · · · ∗ rn mit ri = (cos θi<br />

, sinθi<br />

2 2 u⊤i ), i ∈ {1 . . .n}<br />

Die meisten Problemstellungen in der linearen Algebra können, wenn auch nicht immer optimal, mit der Singulärwertzerlegung<br />

3 gelöst werden. Dieser Abschnitt beschreibt, wie mit der SVD der Rang und der Nullraum einer Matrix<br />

bestimmt, sowie lineare Gleichungssysteme gelöst werden können (siehe [20]). Einen tieferen Einblick bieten [25] und<br />

insbesondere [34]. Letzteres beschreibt ausserdem den Unterschied zwischen reduzierter und vollständiger SVD.<br />

A.5.1 Definition der SVD<br />

Jede Matrix A ∈ R m×n mit beliebigen m und n lässt sich in das Produkt A = UDV ⊤ zerlegen, wobei U ∈ R m×m ,<br />

V ∈ R n×n und D ∈ R m×n gilt. Ausgeschrieben sind die Matrizen U, D und V des Produktes, wie folgt aufgebaut:<br />

A = UDV ⊤ = � u1 u2 · · ·<br />

⎛<br />

σ1<br />

� ⎜ 0<br />

um ⎜ .<br />

⎝ .<br />

0<br />

σ2<br />

· · ·<br />

· · ·<br />

. ..<br />

⎞ ⎛<br />

0 v<br />

0 ⎟ ⎜<br />

⎟ ⎜<br />

. ⎟ ⎜<br />

. ⎠ ⎝<br />

0 0 · · · σp<br />

⊤ 1<br />

v⊤ ⎞<br />

⎟<br />

2 ⎟<br />

. ⎠<br />

• Die Spalten ui aus der Matrix U sind die Eigenvektoren von AA ⊤ , daraus folgt U ⊤ U = Ip (siehe [25]).<br />

• Die Diagonalmatrix D enthält die Singulärwerte σ1, σ2, . . . σp von A mit p = min(m, n). Für die Singulärwerte<br />

gilt σ1 ≥ σ2 ≥ · · · ≥ σp ≥ 0.<br />

• Die Spalten vi aus der Matrix V sind die Eigenvektoren von A ⊤ A, daraus folgt V ⊤ V = Ip (siehe [25]).<br />

A.5.2 Rang einer Matrix erzwingen<br />

Der Rang einer Matrix, also die Anzahl der linear unabhängigen Vektoren in einer Matrix, ist gleich der Anzahl der von<br />

Null verschiedenen Singulärwerte:<br />

Rang(A) = ♯{σi > 0}<br />

Um einen kleineren Rang als den tatsächlichen zu erzwingen, muss man nach der SVD die Diagonalmatrix anpassen,<br />

indem man solange alle Singulärwerte (beginnend beim kleinsten) auf Null setzt, bis der gewünschte Rang erreicht ist.<br />

Die Ergebnissmatrix A ′ = UD ′ V ⊤ mit der angepassten Matrix D ′ hat dann den gewünschten Rang.<br />

3 Engl.: Singular Value Decomposition (SVD)<br />

v ⊤ n


48 ANHANG A. MATHEMATISCHE GRUNDLAGEN<br />

A.5.3 Nullraum einer Matrix bestimmen<br />

Der Nullraum einer Matrix wird beispielsweise verwendet um ein LGS der Form Ah = 0 zu lösen. Er kann aus der<br />

V -Matrix der Singulärwertzerlegung konstruiert werden. Die Spaltenvektoren von V , deren zugehöriger Singulärwert<br />

gleich Null ist, spannen den Nullraum von A auf, wie das nachstehende Beispiel verdeutlicht:<br />

⎛<br />

⎞<br />

Sei A = U<br />

⎜<br />

⎝<br />

σ1 0 0 0<br />

0 σ2 0 0<br />

0 0 σ3 0<br />

0 0 0 σ4<br />

⎟<br />

⎠ V ⊤ mit σ1 > σ2 = σ3 = σ4 = 0 dann ist nullraum(A) = � �<br />

v2 v3 v4<br />

In der Praxis wird man Singulärwerte unter einem gewissen Schwellenwertes ε verwenden, da Singulärwerte nur im<br />

Idealfall gleich Null sind.<br />

A.5.4 Lösung von überbestimmten Gleichungssystemen<br />

Ein überbestimmtes Gleichungssystem der Form Ax = a zu lösen benötigt man die Pseudoinverse A + der Matrix A.<br />

Der Lösungsvektor x ergibt sich mit x = A + a. Diese Methode liefert die Lösung mit minimalem quadratischen Fehler.<br />

Man kann die SVD benutzen um die Pseudoinverse einer Matrix zu berechnen. Dazu ersetzt man in der Diagonalmatrix<br />

D alle Singulärwerte ungleich Null durch ihren Kehrwert und setzt die neue Diagonalmatrix D ′−1 in die SVD ein. Ist<br />

A = UDV ⊤ , dann ist die Pseudoinverse wie folgt zu berechnen:<br />

A + = V D ′−1 U ⊤ mit D ′−1 ⎛<br />

σ<br />

⎜<br />

= ⎜<br />

⎝<br />

′ 1 0 · · · 0<br />

0 σ ′ 2 · · · 0<br />

.<br />

. .. .<br />

0 0 · · · σ ′ ⎞<br />

⎟<br />

⎠<br />

p<br />

und σ′ �<br />

0 falls σi = 0<br />

i = 1<br />

σi<br />

falls σi �= 0


Anhang B<br />

Physikalische Grundlagen<br />

Zuletzt zeigt dieses Kapitel einige physikalische Details und Grundlagen, der im Vorfeld beschriebenen, medizinischen<br />

Verfahren, die für ein fundiertes Verständnis der Materie wichtig sind. Weiterführende und detailiertere Informationen<br />

hinsichtlich der Bildgebung und der Technik sind im zweiten Kapitel von [18] zu finden. Eine umfassende physikalische<br />

Betrachtung liefert hingegen Teil A aus [27].<br />

B.1 Bohrsches Atommodell<br />

Das 1913 von Niels Bohr entwickelte Atommodell dient der Beschreibung von physikalischen Vorgängen auf atomarer<br />

Ebene. Es gibt mittlerweile genauere und angepasste Modelle, wie das Orbitalmodell, doch für eine grundlegende<br />

Betrachtung genügt das im Folgenden dargestellte Konzept. Eine historische Betrachtung über die Entdeckungen und<br />

Entwicklungen des Atommodells, angefangen bei Dalton bis hin zu Schrödinger, liefert [2].<br />

B.1.1 Aufbau und Struktur eines Atoms<br />

Das Bohrsche Atommodell beinhaltet einen aus Protonen und Neutronen zusammengesetzten Atomkern und einer aus<br />

7 Elektronenschalen bestehenden Atomhülle. Dabei besitzen Protonen positive, und Elektronen negative Ladung. Neutronen<br />

sind Ladungsneutral. Jede Schale n entspricht einem bestimmten Energieniveau und kann bis zu 2n 2 Elektronen<br />

aufnehmen.<br />

Abbildung B.1 veranschaulicht das Bohrsche Atommodell am Beispiel des Wolfram-Atoms. Wie zu sehen, steigen die<br />

in Elektronenvolt (eV) angegebenen Energieniveaus der Schalen, in Kernnähe deutlich an.<br />

Abbildung B.1: Bohrsches Atommodell am Beispiel eines Wolfram-Atoms (aus [18])


50 ANHANG B. PHYSIKALISCHE GRUNDLAGEN<br />

Dazu sagen die Bohrschen Postulate folgendes aus:<br />

1. Elektronen können den Atomkern nur auf bestimmten Bahnen (Schalen) strahlungslos umlaufen.<br />

2. Der Übergang von einer kernferneren zu einer kernnäheren Bahn erfolgt sprunghaft und unter Abgabe eines Strahlungsquants.<br />

Das abgegebene Strahlungsquant besitzt dabei die Differenzenergie der beiden beschriebenen Schalen. Ebenso ist diese<br />

Energie nötig um ein Elektron in eine höhere Bahn zu heben.<br />

B.1.2 Atomarten<br />

Es gibt mehrere verschiedene Arten von Atomen, die im folgenden kurz erläutert werden sollen:<br />

Ionen: Als Ionen bezeichnet man elektrich geladene Teilchen, denen ein Elektron in der Hülle fehlt. Das Entfernen des<br />

Elektrons wird daher als Ionisation, und die dafür benötigte Energie als Ionisationsenergie bezeichnet.<br />

Nuklide: Atome mit der gleichen Anzahl an Neutronen wie Protonen, nennt man Nuklide. Sie entstehen bei Kernumwandlungen<br />

und werden in der Nuklearmedizin eingesetzt. Langlebige Nuklide bezeichnet man als Metastabil.<br />

Isotope: Als Isotope werden Atome mit gleicher Ordnungszahl 1 aber unterschiedlicher Massenzahl benannt. Ändert<br />

sich das Verhältnis der Anzahl von Protonen und Neutronen kann das Isotop instabil werden und unter Strahlung<br />

zerfallen. Man nennt es dann Radioisotop.<br />

B.2 Röntgenstrahlung<br />

Der natürliche Zerfall von instabilen Kernen unter Strahlungsabgabe wird als radioaktiver Zerfall bezeichnet. Dabei<br />

entstehen α-, β- und γ-Strahlung. Anders als α- und β-Strahlung gehören Röntgen- und γ-Strahlung zu den elektromagnetischen<br />

Wellen, wie Abbildung B.2 zeigt.<br />

B.2.1 Bremsstrahlung<br />

Die Entstehung der Röntgenstrahlung ist durch das Prinzip der Bremsstrahlung zu erklären. Schnelle Elektronen werden<br />

bei der Durchquerung einer Atomhülle durch die Anziehungskraft des Kerns gebremst und abgelenkt. Durch dieses<br />

Abbremsen verliert das Elektron einen bestimmten Betrag an kinetischer Energie, der als Röntgenstrahlung abgegeben<br />

wird. Je näher sich das Elektron am Kern befindet, desto höher ist die Energie der resultierenden Röntgenstrahlung (vgl.<br />

mit Energieniveaus aus Abb. B.1).<br />

B.2.2 Wechselwirkung mit Materie<br />

Im folgenden sollen die Effekte beschrieben werden, die auftreten können wenn Röntgenstrahlung auf Materie auftrifft.<br />

Abbildung B.3 verdeutlicht die beschriebenen Effekte im einzelnen. Der Einfachheit halber, wird nur ein Röntgenquant<br />

das auf ein Atom trifft, betrachtet.<br />

Angeregter Zustand: Durch Energiezugabe des Röntgenquants wird ein Elektron auf eine höhere Schale gehoben,<br />

sprich angeregt.<br />

Photoabsorbtion: Die Energiezugabe durch das Röntgenquant bewirkt das Herausschlagen eines Elektrones aus der<br />

Hülle (auch als Photoeffekt bekannt).<br />

Klassische Streuung: Das Röntgenquant wird beim Auftreffen abgelenkt und hat keinen Einfluss auf das Atom oder<br />

die Elektronen.<br />

Compton-Effekt: Klassische Streueung mit Energieabgabe. Hier bewirkt die Röntgenenergie ein herausgeschlagenes<br />

Elektron. Das Röntgenquant besitzt aber noch genug Energie und wird gleichzeitig abgelenkt.<br />

Paarbildung: Durch Wechselwirkung mit dem Atomkern wird ein Elektronen / Positronen 2 Paar gebildet<br />

1 Die Ordnungszahl eines Elementes entspricht der Anzahl der Protonen im Kern.<br />

2 Teilchen mit Elektronenmasse und positiver Ladung werden als Positronen bezeichnet.


B.2. RÖNTGENSTRAHLUNG 51<br />

Abbildung B.2: Frequenzen und Wellenlängen des elektromagnetischen Spektrums (aus [18])<br />

Abbildung B.3: Wechselwirkung von Röntgenstrahlen mit Materie (aus [18])


52 ANHANG B. PHYSIKALISCHE GRUNDLAGEN<br />

B.3 Kernspin<br />

Nach der ersten Maxwellschen Gleichung, erzeugt jedes sich zeitlich ändernde elektrisches Feld ein magnetisches Wirbelfeld<br />

(Durchflutungsgesetz). Demnach erzeugen Protonen aufgrund ihrer Eigendrehung (Spin) und ihrer positiven<br />

Ladung ebenfalls ein magnetisches Feld. Dies ist die Grundlage für weitere Ausführungen.<br />

B.3.1 Präzession eines Atomkerns<br />

Als Präzession wird in der Physik die resultierende Drehbewegung eines rotierenden Körpers aufgrund äusserer Krafteinwirkung<br />

bezeichnet. Bei rotierenden Kernen richtet sich die Spinachse parallel zu einem äusseren Magnetfeld B aus.<br />

Diese Bewegung entspricht der Präzessionsbewegung eines Kreisels im Gravitationsfeld der Erde, wie Abbildung B.4<br />

veranschaulicht.<br />

B.3.2 Relaxation und FID<br />

Abbildung B.4: Präzessionsbewegung eines Kerns und eines Kreisels (aus [18])<br />

Wirken hochfrequente Felder (HF) auf präzedierende Kerne, so kann das oben beschriebene, durch die Kerne erzeugte<br />

Magnetfeld um beliebige Winkel abgelenkt werden. Wird das HF abgeschaltet richten sich die Spinachsen wieder nach<br />

dem angelegten Magnetfeld B aus. Dieser Vorgang wird als Relaxation bezeichnet.<br />

Während der Relaxation geben die Kerne Energie in Form eines Resonanzsignals ab, genannt freier Induktionsabfall<br />

(FID 3 ). Die Intensität des FID stellt bei konstanter Feldstärke von B ein Maß für die Konzentration, also für die Dichte<br />

der präzedierenden Kerne dar. Dies bilded die Grundlage für Bildgebung mittels Kernspintomographie<br />

3 Engl. free induction decay (FID)


Anhang C<br />

Prüfungsprotokoll MedBV<br />

Prüfungsdatum: 7.11.2007<br />

Prüfer: Prof. Paulus<br />

Beisitzer: Peter Decker<br />

Prüfling: Dennis Holzhäuser<br />

eMail: holzhawi@uni-koblenz.de<br />

MedBV habe ich im Wintersemester 2005/2006 bei Prof. Paulus gehört, PCG im Sommersemester 2005 bei Prof. Müller<br />

und Programmierung im Wintersemester 2006/2007 bei Prof. Ebert. 1<br />

Ganz genau kann ich den Prüfungsverlauf natürlich nicht wiedergeben und ich gebe auch keine Versicherung für die<br />

Richtigkeit der folgenden Angaben.<br />

<strong>Medizinische</strong> <strong>Bildverarbeitung</strong><br />

Wir haben in der MedBV verschiedene Modalitäten. Welche Modalitäten haben wir behandelt?<br />

• Röntgenologische Verfahren: Durchleuchtung mit Röntgenstrahlung, verschieden Starke Absorbtion, Bildentstehung,<br />

CT, Flatpanel, C-Bogen, Biplanares System. . . (zu den anderen Modalitäten kam ich nicht mehr!)<br />

Ok, was macht denn so ein Biplanares System? Malen sie mal so ein Gerät auf!<br />

• Gleichzeitige Aufnahme von zwei Röntgenbildern unter einem Winkel von 90 Grad.<br />

• habe grobe Skizze gemacht<br />

Welche Detektoren können eingesetzt werden und was müssen wir machen bevor wir Bilder aufnehmen können?<br />

• Flatpanel und Bildverstärker. Vorher Kalibrierung.<br />

Man kann eine Leeraufnahme machen. Was nutzt man noch zur Kalibrierung?<br />

• Kalibriermuster um detektierte Punkte im Bild, mit den Punkten in der realen Welt zu vergleichen<br />

Wie funktioniert nun die Bildaufnahme?<br />

• Strahlen eingezeichnet, Absorbierte Strahlen erzeugen helle Stellen, Strahlen die am Körper vorbeigehen erscheinen<br />

schwarz im Bild<br />

Ok, sagen wir ein Strahl der das Objekt durchquert hat die Intensität I0. Was passiert dann damit?<br />

• Strahl wird beim Durchqueren des Körpers durch Abschwächungskoeffizienten µ0..µn geschwächt.<br />

• Darstellbar in einem Linienintegral über das Objekt, Radontransformation<br />

Was heißt das diskret?<br />

1 Da die Teile PCG und Programmierung nichts mit diesem Skript zu tun haben, findet sich hier nur der relevante MedBV Teil (siehe weiter [13])


54 ANHANG C. PRÜFUNGSPROTOKOLL MEDBV<br />

• Diskret? (Herr Paulus half nach: Sie haben doch ein Integral beschrieben. Das können wir so ohne weiteres nicht<br />

lösen. Also müssen wir diskretisieren) Aufsummieren der Koeffizienten um Integral anzunähern.<br />

Was macht man nun weiter mit der Radontransformation?<br />

• Rekonstruktion über Fourier-Slice Theorem oder gefilterte Rückprojektion.<br />

Was gibt es sonst noch?<br />

• Alegbraische Rekonstruktion, Bild gezeichnet, Formel aufgeschrieben<br />

• Projektion Pi ergibt sich aus der Summe aller Pixel fj gewichtet durch wij. Dabei ist wij = 1 wenn der Strahl i<br />

durch das Pixel j geht. Ansonsten Null.<br />

• Gleichungssystem lösen mit Kaczmarz-Methode 2<br />

Sie erwähnten vorhin den Flatpanel. Welche Artefakte gibt es da und was macht man dagegen?<br />

• Defekte Zeilen oder Pixel ⇒ Defect pixel interpolation<br />

• Annahme: Ideales Bild hat keine hohen Frequenzen, wie sie durch einen Defekt erzeugt werden.<br />

• Fehlerhaftes Bild in Frequenzraum überführen (2D Fouriertransformation), hohe Frequenzen ausschneiden, Rücktransformation<br />

erzeugt verbessertes Bild, defekten Bereich aus diesem ausschneiden und in fehlerhaftes Bild einfügen.<br />

Wiederholung bis Fehler gering<br />

Wo im Frequenzraum liegen denn die hohen Frequenzen?<br />

• Aussen. . .<br />

2 Eine gute Erklärung zur algebraischen Rekonstruktion und der Kaczmarz Methode findet man in [16]


Abbildungsverzeichnis<br />

1.1 Schematische Darstellung der Röntgenröhre aus [37] . . . . . . . . . . . . . . . . . . . . . . . . . . . 2<br />

1.2 Funktionsweise eines Kollimators [18] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3<br />

1.3 Funktionsweise eines Bildverstärkers [25] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3<br />

1.4 Funktionsweise eines Flatpanels [25] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4<br />

1.5 C-Arm und biplanares System [31] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4<br />

1.6 Erstelltes Sinogramm (b) des Testbildes (a) aus [22] . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5<br />

1.7 Prinzip des CT [18] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5<br />

1.8 Schwächungskoeffizienten von Gewebe, bezogen auf Wasser [18] . . . . . . . . . . . . . . . . . . . . 6<br />

1.9 Digitale Substraktionsangiographie [25] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6<br />

1.10 Magnetresonanzverfahren [17] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7<br />

1.11 Aufbau einer Anger-Kamera (a) und PET Prinzip (b) [18] . . . . . . . . . . . . . . . . . . . . . . . . . 8<br />

1.12 Auftretende Koinzidenzen bei PET . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9<br />

1.13 PET Scans aus [25] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9<br />

1.14 Funktionelle MRT [10] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10<br />

1.15 Prinzip der sonographischen Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10<br />

1.16 Sonographische Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11<br />

2.1 Koordinatensysteme bei der Bildaufnahme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13<br />

2.2 Unterschied zwischen orthographischer und perspektivischer Projektion . . . . . . . . . . . . . . . . . 14<br />

2.3 Kalibriermuster (aus [25]) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16<br />

2.4 Geometrische Zusammenhänge der Epipolargeomertrie . . . . . . . . . . . . . . . . . . . . . . . . . . 16<br />

3.1 Vorverarbeitung am Beispiel einer Röntgenaufnahme (Bilder aus [25]) . . . . . . . . . . . . . . . . . . 20<br />

3.2 Effekt der radialen Verzerrung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21<br />

3.3 Funktionsweise der bilinearen Interpolation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21<br />

3.4 Beispiele für Defektpixel (Bilder aus [35]) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22<br />

3.5 Funktionsweise der Defektpixelinterpolation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22<br />

3.6 Ergebnis der Defektpixelinterpolation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23<br />

3.7 Rauschunterdrückung mit bilateralem Filter (aus [8]) . . . . . . . . . . . . . . . . . . . . . . . . . . . 24<br />

3.8 Gain-Field in Magnetresonanz Bild (aus [25]) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25<br />

3.9 Funktionsweise der Farbkorrektur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26<br />

3.10 Farbkorrektur einer Endoskopischen Aufnahme (aus [25]) . . . . . . . . . . . . . . . . . . . . . . . . 26<br />

4.1 Projektionsarten (aus [19]) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27<br />

4.2 Linienintegral durch einen Körper (aus [19]) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28<br />

4.3 Prinzip der Rückprojektion (aus [22]) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29<br />

4.4 Prinzip des Fourier Slice Theorems (aus [4]) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29<br />

4.5 Anwendung des Fourier Slice Theorems (nach [7]) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30<br />

4.6 Gefilterte vs. ungefilterte Rückprojektion (aus [25]) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31<br />

4.7 Angewandte Filter für gefilterte Rückprojektion ( Beispiel aus [35]) . . . . . . . . . . . . . . . . . . . 31<br />

4.8 Modellierung einer Projektion für algebraische Rekonstruktion (aus [25]) . . . . . . . . . . . . . . . . 32<br />

4.9 Anwendung der Kaczmarz Methode (aus [25]) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34<br />

5.1 Fusion von CT und PET Bildern (aus [12]) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35<br />

5.2 Globale Transformationsmodelle für Bildregistrierung . . . . . . . . . . . . . . . . . . . . . . . . . . . 36<br />

5.3 Anwendung des Blockmatchingverfahrens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38<br />

5.4 Anwendung der Homographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38


56 ABBILDUNGSVERZEICHNIS<br />

5.5 Projektive Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39<br />

5.6 Ergebnisse unterschiedlicher Mapping Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41<br />

A.1 Anwendung der Rodrigues-Formel (siehe [25]) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46<br />

B.1 Bohrsches Atommodell am Beispiel eines Wolfram-Atoms (aus [18]) . . . . . . . . . . . . . . . . . . 49<br />

B.2 Frequenzen und Wellenlängen des elektromagnetischen Spektrums (aus [18]) . . . . . . . . . . . . . . 51<br />

B.3 Wechselwirkung von Röntgenstrahlen mit Materie (aus [18]) . . . . . . . . . . . . . . . . . . . . . . . 51<br />

B.4 Präzessionsbewegung eines Kerns und eines Kreisels (aus [18]) . . . . . . . . . . . . . . . . . . . . . . 52


Literaturverzeichnis<br />

[1] AMELING, Stefan: Struktur aus Bewegung. www.inforakel.de/Document/Details/doc00000310.<br />

Version: 2007. – Skript zur Vorlesung<br />

[2] Atomaufbau. Institut für Lebensmitteltechnologie und Biotechnologie (LMT), Universität Bonn.<br />

www.ilt.uni-bonn.de/www/LMT/studium/Studienunterlagen/bilder/Atomaufbau.pdf.<br />

Version: 2008. – Vorlesungsfolien<br />

[3] BEUTELSPACHER, Albrecht: Lineare Algebra – Eine Einführung in die Wissenschaft der Vektoren, Abbildungen<br />

und Matrizen. 5. Braunschweig, Wiesbaden : Vieweg Verlag, 2001<br />

[4] BONN, Matthias: Computertomographie. Universität Karlsruhe (TH).<br />

http://www.matze-bonn.de/informatik/Seminar_CT.pdf. Version: 2000. – Seminararbeit<br />

[5] BROWN, Lisa G.: A survey of image registration techniques. In: ACM Comput. Surv. 24 (1992), Nr. 4, S. 325–376<br />

[6] BRUNN, Caroline: Kamerakalibrierung. In: DRÖGE, Detlef (Hrsg.): Seminar Rekonstruktion aus Bildern. Universität<br />

Koblenz-Landau, 2004, S. 33–43<br />

[7] BURGERT, Oliver: <strong>Medizinische</strong> Planungs- und Simulationssysteme WS2005/2006, Vorlesung: Computertomographie<br />

et al. Innovation Center Computer Assisted Surgery (ICCAS), Universität Leipzig. nn. Version: 2005<br />

[8] C., Tomasi ; R., Manduchi: Bilateral Filtering for Gray and Color Images. In: Proceedings of the 1998 IEEE<br />

International Conference on Computer Vision, 1998<br />

[9] EATON, John W. ; BATEMAN, David ; HAUBERG, Soren: GNU Octave Manual Version 3, A high-level interactive<br />

language for numerical computations. 3. Bristol, United Kingdom: Network Theory Limited, 8 2008.<br />

http://www.network-theory.co.uk/docs/octave3/<br />

[10] Funktionelle Magnetresonanztomographie. fMRT-easy by C.M. Siedentopf. http://www.fmri-easy.de.<br />

Version: 2005<br />

[11] HARTLEY, Richerd ; ZISSERMAN, Andrew: Multiple View Geometry in Computer Vision. 2. Cambridge, UK :<br />

Cambridge University Press, 2003<br />

[12] HOFFMANN, Rebecca: Registrierungsverfahren. In: PAULUS, Dietrich (Hrsg.) ; BOUATTOUR, Sahla (Hrsg.):<br />

Hauptseminar <strong>Medizinische</strong> <strong>Bildverarbeitung</strong>. Universität Koblenz-Landau, 2003, S. 61–74<br />

[13] HOLZHÄUSER, Dennis: Prüfungsprotokoll in den Fächern MedBV, PCG und Programmierung.<br />

http://www.inforakel.de/. Version: 2007. – Document/Download/doc00000321/PruefungsprotokollPCGholzhawi.pdf<br />

[14] HOUNSFIELD, Godfrey: Computed Medical Imaging. Version: 1979.<br />

http://nobelprize.org/nobel_prizes/medicine/laureates/1979/hounsfield-lecture.pdf.<br />

In: LINDSTEN, Jan (Hrsg.): Nobel Lectures, Physiology or Medicine Bd. 1971-1980. World Scientific Publishing<br />

Co.<br />

[15] JACKEL, D.: Bildgebende Verfahren in der Medizin. Universität Rostock, Studiengang Informatik.<br />

http://wwwicg.informatik.uni-rostock.de/Lehre/CV2/script0304/01_Bildgebung.pdf.<br />

Version: 2003. – Folien zur Vorlesung Computer Vision 2<br />

[16] KAK, A.C. ; SLAYNEY, Malcolm: Principles of Computerized Tomographic Imaging. Society of Industrial and<br />

Applied Mathematics http://cobweb.ecn.purdue.edu/~malcolm/pct/CTI-ch07.pdf


58 LITERATURVERZEICHNIS<br />

[17] KURKA, Gerhard: Visualisierung und bildgebende Verfahren im medizinischen Bereich. Universität<br />

Linz, Studiengang Informatik. http://www.gup.uni-linz.ac.at/skcg/slides/Vis2006-4.pdf.<br />

Version: 2006. – Vorlesungsfolien<br />

[18] LEHMAN, Thomas ; OBERSCHELP, Walter ; PELIKAN, Erich ; REPGES, Rudolf: <strong>Bildverarbeitung</strong> für die Medizin<br />

– Grundlagen, Modelle, Methoden, Anwendungen. Springer Verlag, 1997<br />

[19] LEMPA, Thomas: Röntgen CT: Gefilterte Rückprojektion. In: PAULUS, Dietrich (Hrsg.) ; BOUATTOUR, Sahla<br />

(Hrsg.): Hauptseminar <strong>Medizinische</strong> <strong>Bildverarbeitung</strong>. Universität Koblenz-Landau, 2003, S. 19–32<br />

[20] LORENZ, Guido: Rechnersehen lernen. www.inforakel.de. Version: 2005. – Kleine Frage- und Antwort-<br />

Sammlung zu Rechnersehen<br />

[21] MARTIN, Michelle K.: Rechnersehen Skript. www.inforakel.de. Version: 2005. – Zusammenfassung des<br />

Vorlesungsstoffes<br />

[22] MEYER, Esther: Die Mathematik der Computertomographie. Universität. nn. Version: 2007. – Seminararbeit<br />

[23] MICHEL, Jochen: Epipolargeometrie. In: DRÖGE, Detlef (Hrsg.): Seminar Rekonstruktion aus Bildern. Universität<br />

Koblenz-Landau, 2004, S. 15–21<br />

[24] Positronen Emissions Tomographie. Wikipedia, Die freie Enzyklopädie.<br />

http://de.wikipedia.org/wiki/Positronen-Emissions-Tomographie. Version: 2007<br />

[25] PAULUS, Dietrich ; HORNEGGER, Joachim: Medical Image Processing. Universität Koblenz-Landau, Studiengang<br />

Computervisualistik. https://www.uni-koblenz.de/~paulus/idoc/medbvcompl.pdf.<br />

Version: 2004. – Folien zur Vorlesung MedBV<br />

[26] PSCHYREMBEL, Willibald (Hrsg.): Pschyrembel Klinisches Wörterbuch. 256. Berlin, New York : Walter de<br />

Gruyter Verlag, 1990<br />

[27] REISER, Maximilian ; KUHN, Fritz-Peter ; DEBUS, Jürgen: Radiologie. 2. Stuttgart : Georg Thieme Verlag, 2006<br />

[28] RÖMER, Wolfgang: Registrierung und Visualisierung von Bilddaten verschiedener bildgebender Verfahren. Nuklearmedizinische<br />

Klinik, Universitätsklinikum Erlangen. nn. Version: 2004<br />

[29] RÜDE, Ulrich: Algorithmik III, Algorithmen und Modelle für kontinurierliche Datenstrukturen, SS2007, Vorlesung:<br />

Matrixalgorithmen und Computertomographie. Institut für Informatik, Technische Fakultät Erlangen-Nürnberg.<br />

nn. Version: 2007<br />

[30] SCHAER, Philipp: Endoskopie. In: PAULUS, Dietrich (Hrsg.) ; BOUATTOUR, Sahla (Hrsg.): Hauptseminar <strong>Medizinische</strong><br />

<strong>Bildverarbeitung</strong>. Universität Koblenz-Landau, 2003, S. 93–106<br />

[31] Siemens Medical Solutions. Siemens AG. http://www.medical.siemens.com. Version: 2007<br />

[32] Internistischer Sonographieatlas. 2. <strong>Medizinische</strong> Abteilung / Albertinen-Krankenhaus Hamburg.<br />

http://www.sonographiebilder.de. Version: 2005<br />

[33] TOFT, Peter: The Radon Transform – Theory and Implementation, Department of Mathematical Modelling, Technical<br />

University of Denmark, Diss., 1996<br />

[34] TREFETHEN, Lloyd ; BAU, David: Numerical Linear Algebra. Society for Industrial and Applied Mathematics<br />

http://www.comlab.ox.ac.uk/nick.trefethen/text.html<br />

[35] Übung zur Vorlesung <strong>Medizinische</strong> <strong>Bildverarbeitung</strong> im WS2005/2006. Universität Koblenz-Landau, FB4.<br />

http://www.uni-koblenz.de/FB4/Institutes/ICV/AGPaulus/Teachings/. Version: 2007<br />

[36] WALBER, Tina: Stereo-Sehen. In: DRÖGE, Detlef (Hrsg.): Seminar Rekonstruktion aus Bildern. Universität<br />

Koblenz-Landau, 2004, S. 22–32<br />

[37] WÜRBEL, Verena: Bildgebende Verfahren in der Medizin. In: PAULUS, Dietrich (Hrsg.) ; BOUATTOUR, Sahla<br />

(Hrsg.): Hauptseminar <strong>Medizinische</strong> <strong>Bildverarbeitung</strong>. Universität Koblenz-Landau, 2003, S. 1–18

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!