Entwicklung eines portablen Stereo-Videoaufnahmesystems für die ...
Entwicklung eines portablen Stereo-Videoaufnahmesystems für die ...
Entwicklung eines portablen Stereo-Videoaufnahmesystems für die ...
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
TECHNISCHE UNIVERSITÄT DRESDEN<br />
FAKULTÄT INFORMATIK<br />
INSTITUT FÜR SOFTWARE- UND MULTIMEDIATECHNIK<br />
PROFESSUR FÜR COMPUTERGRAPHIK UND VISUALISIERUNG<br />
PROF. DR. STEFAN GUMHOLD<br />
Diplomarbeit<br />
zur Erlangung des akademischen Grades<br />
Diplom-Me<strong>die</strong>ninformatiker<br />
<strong>Entwicklung</strong> <strong>eines</strong> <strong>portablen</strong><br />
<strong>Stereo</strong>-<strong>Videoaufnahmesystems</strong> <strong>für</strong> <strong>die</strong> Präsentation<br />
auf einer <strong>Stereo</strong>projektionswand.<br />
Norbert Blenn<br />
(Geboren am 26. März 1981 in Burgstädt)<br />
Betreuer: Prof. Dr. rer. nat. Stefan Gumhold<br />
Dresden, 17. Juli 2007
Aufgabenstellung<br />
Ziel der Diplomarbeit ist <strong>die</strong> <strong>Entwicklung</strong> <strong>eines</strong> <strong>portablen</strong> <strong>Stereo</strong>-<strong>Videoaufnahmesystems</strong> <strong>für</strong> <strong>die</strong><br />
Präsentation auf der <strong>Stereo</strong>projektionswand des Lehrstuhls <strong>für</strong> Computergraphik und Visualisie-<br />
rung. Dazu sollen vorhandene Lösungen recherchiert und eine <strong>Stereo</strong>-Videokamera entwickelt<br />
werden. Die aufgenommenen <strong>Stereo</strong>-Videos sollen in einem passenden Datenformat gespeichert<br />
und wiedergegeben werden. Um <strong>die</strong>s zu realisieren sollte ein Framework geschaffen werden, wel-<br />
ches in weiteren Arbeiten am Lehrstuhl genutzt werden kann. Im Einzelnen sollen folgende Punkte<br />
in der Diplomarbeit verwirklicht werden:<br />
• Recherche existierender <strong>Stereo</strong>-Videoaufnahmesysteme,<br />
• Entwurf und Bau einer kostengünstigen <strong>Stereo</strong>-Videokamera,<br />
• <strong>Entwicklung</strong> einer effizienten Lösung zum Datentransfer von einer <strong>Stereo</strong>-Videokamera in<br />
ein <strong>Stereo</strong>videoformat,<br />
• <strong>Entwicklung</strong> <strong>eines</strong> <strong>Stereo</strong>-Videoplayers zur weiteren Nutzung am Lehrstuhl Computergra-<br />
phik und Visualisierung und<br />
• Aufnahme von Beispielstereovideos.
Selbstständigkeitserklärung<br />
Hiermit erkläre ich, dass ich <strong>die</strong> von mir am heutigen Tag dem Prüfungsausschuss der Fakultät<br />
Informatik eingereichte Diplomarbeit zum Thema:<br />
<strong>Entwicklung</strong> <strong>eines</strong> <strong>portablen</strong> <strong>Stereo</strong>-<strong>Videoaufnahmesystems</strong> <strong>für</strong> <strong>die</strong> Präsentation auf einer<br />
<strong>Stereo</strong>projektionswand.<br />
vollkommen selbstständig verfasst und keine anderen als <strong>die</strong> angegebenen Quellen und Hilfsmittel<br />
benutzt sowie Zitate kenntlich gemacht habe.<br />
Dresden, den 17. Juli 2007<br />
Norbert Blenn
Kurzfassung<br />
In <strong>die</strong>ser Diplomarbeit wurde ein Aufnahmesystem <strong>für</strong> <strong>die</strong> Produktion stereoskopischer Videos<br />
entwickelt und erprobt. Basierend auf zwei Highdefinition Video-Camcordern wurde eine mobile<br />
<strong>Stereo</strong>kamera konstruiert, welche eine hohe Bildqualität liefert. Die technischen Möglichkeiten<br />
und Einschränkungen <strong>die</strong>ses Aufnahmesystems wurden dabei genau untersucht. Weiterhin thema-<br />
tisiert <strong>die</strong>se Arbeit <strong>die</strong> Nachbearbeitung, Speicherung und Wiedergabe stereoskopischer Videos<br />
sowie Möglichkeiten des wissenschaftlichen Einsatzes der entwickelten Kamera.<br />
Zusätzlich wurden <strong>die</strong> zum Bildeindruck beitragenden physiologischen und geometrischen Para-<br />
meter untersucht und daraus <strong>die</strong> Grundlagen <strong>für</strong> <strong>die</strong> <strong>Entwicklung</strong> des Aufnahmesystems abgeleitet.<br />
Diese beinhaltet Aufnahmetechniken, Bildgestaltungsregeln, Schnittverfahren und Wiedergabe-<br />
hinweise. Durch <strong>die</strong> vorgestellten Grundlagen zur Erzeugung von stereoskopischen Videos soll es<br />
den Nutzern des Aufnahmesystems ermöglicht werden, solche Videos mit einer hohen Betrach-<br />
tungsqualität und vielen Weiterverarbeitungsmöglichkeiten zu erstellen.<br />
Abstract<br />
In this diploma thesis a recording system for stereoscopic video has been developed and proven.<br />
Based on two highdefinition video-camcorder a mobile stereo camera with a high image quality<br />
has been constructed. The technical abilities and restrictions of this recording system had been<br />
exactly analyzed. Furthermore topics of this thesis are the post processing, storage and playback<br />
of stereoscopic videos as well as the abilities of supervision work with the camera.<br />
The physiological and geometric parameters for the image perception have been evolved and rules<br />
for the production of stereo video are discussed. These rules contain image layout, recording<br />
techniques, procedures for cutting and hints for playback of stereoscopic video. This should allow<br />
the user of the recording system to produce stereoscopic video with a high image quality and many<br />
abilities for processing these videos.
Inhaltsverzeichnis<br />
1 Einleitung 5<br />
1.1 Aufbau <strong>die</strong>ser Arbeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6<br />
1.2 Die <strong>Stereo</strong>projektionsleinwand des Lehrstuhls <strong>für</strong> Computergrafik und Visualisie-<br />
rung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7<br />
1.3 Begriffserklärungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8<br />
2 Wahrnehmung, Aufnahme und Wiedergabe 10<br />
2.1 Vorgang der visuellen Wahrnehmung . . . . . . . . . . . . . . . . . . . . . . . . 10<br />
2.1.1 Ursache der räumlichen Wahrnehmung . . . . . . . . . . . . . . . . . . 11<br />
2.1.2 Berechnung der Parallaxe . . . . . . . . . . . . . . . . . . . . . . . . . 13<br />
2.1.3 Weitere optische Effekte . . . . . . . . . . . . . . . . . . . . . . . . . . 13<br />
2.2 Verfahren der Aufnahme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14<br />
2.2.1 Die Scheinfensterregel . . . . . . . . . . . . . . . . . . . . . . . . . . . 14<br />
2.2.2 Wahl der <strong>Stereo</strong>basis . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15<br />
2.2.3 Aufnahmemethoden . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17<br />
2.2.3.1 Die Verschiebetechnik . . . . . . . . . . . . . . . . . . . . . . 17<br />
2.2.3.2 Strahlenteilermethode . . . . . . . . . . . . . . . . . . . . . . 18<br />
2.2.3.3 Die <strong>Stereo</strong>kamera . . . . . . . . . . . . . . . . . . . . . . . . 19<br />
2.2.3.4 Einsatz Binokularer Kameras . . . . . . . . . . . . . . . . . . 19<br />
2.3 Wiedergabe stereoskopischer Bildinhalte . . . . . . . . . . . . . . . . . . . . . . 20<br />
2.3.1 Durch Konvergenz notwendige Schrägprojektion . . . . . . . . . . . . . 22<br />
2.3.1.1 Epipolargeometrie . . . . . . . . . . . . . . . . . . . . . . . . 23<br />
2.3.1.2 Schrägprojektion bei bekanntem Konvergenzwinkel . . . . . . 23<br />
2.3.1.3 Schrägprojektion bei unbekanntem Konvergenzwinkel . . . . . 29<br />
2.3.2 Berechnung des virtuellen Abstandes . . . . . . . . . . . . . . . . . . . 30<br />
2.3.3 Berechnung der virtuellen Tiefe . . . . . . . . . . . . . . . . . . . . . . 31<br />
2.3.4 Berechnung der Betrachterposition . . . . . . . . . . . . . . . . . . . . . 32<br />
2.3.5 Wiedergabemethoden . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32<br />
2.3.5.1 Head Mounted Displays . . . . . . . . . . . . . . . . . . . . . 32<br />
2.3.5.2 Polarisation . . . . . . . . . . . . . . . . . . . . . . . . . . . 33<br />
2.3.5.3 Schieltechniken . . . . . . . . . . . . . . . . . . . . . . . . . 33<br />
2.3.5.4 <strong>Stereo</strong>skop . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34<br />
2.3.5.5 LCDShutter-Brille . . . . . . . . . . . . . . . . . . . . . . . . 34<br />
2.3.5.6 Prismenbrille . . . . . . . . . . . . . . . . . . . . . . . . . . . 34<br />
2.3.5.7 Interferenzfiltertechnik . . . . . . . . . . . . . . . . . . . . . 35<br />
1
2.3.5.8 Prismen-Oberfläche . . . . . . . . . . . . . . . . . . . . . . . 35<br />
2.3.5.9 Anaglyphen Verfahren . . . . . . . . . . . . . . . . . . . . . . 36<br />
2.3.5.10 Pulfrich-Verfahren . . . . . . . . . . . . . . . . . . . . . . . . 36<br />
2.3.6 Mögliche Bildstörungen in stereoskopischem Video . . . . . . . . . . . 36<br />
2.3.6.1 Höhenfehler . . . . . . . . . . . . . . . . . . . . . . . . . . . 37<br />
2.3.6.2 Randlichtabfall . . . . . . . . . . . . . . . . . . . . . . . . . 37<br />
2.3.6.3 Verzeichnung . . . . . . . . . . . . . . . . . . . . . . . . . . 37<br />
2.3.6.4 Aberration . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38<br />
2.3.6.5 Krümmung der Tiefenebene . . . . . . . . . . . . . . . . . . . 38<br />
2.3.6.6 Nicht linearer Tiefeneindruck . . . . . . . . . . . . . . . . . . 39<br />
3 Existierende Aufnahmesysteme 40<br />
3.1 Kameras . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40<br />
3.1.1 <strong>Stereo</strong>videokamera . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40<br />
3.1.1.1 21st Century 3DVX3 . . . . . . . . . . . . . . . . . . . . . . 40<br />
3.1.1.2 Pace Fusion 3d . . . . . . . . . . . . . . . . . . . . . . . . . . 41<br />
3.1.1.3 TMP S3R 1080i 3D . . . . . . . . . . . . . . . . . . . . . . . 41<br />
3.1.2 Binokulare Kameras . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42<br />
3.1.2.1 Camcorder . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42<br />
3.1.2.2 Industriekameras . . . . . . . . . . . . . . . . . . . . . . . . . 43<br />
3.1.3 Strahlenteiler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44<br />
3.2 Existierende Software . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44<br />
3.2.1 Aufnahme & Enko<strong>die</strong>rung . . . . . . . . . . . . . . . . . . . . . . . . . 44<br />
3.2.1.1 3DCombine . . . . . . . . . . . . . . . . . . . . . . . . . . . 45<br />
3.2.1.2 <strong>Stereo</strong>scopic Multiplexer . . . . . . . . . . . . . . . . . . . . 45<br />
3.2.1.3 <strong>Stereo</strong> Movie Maker . . . . . . . . . . . . . . . . . . . . . . . 45<br />
3.2.2 Wiedergabe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45<br />
3.2.2.1 <strong>Stereo</strong> Movie Player . . . . . . . . . . . . . . . . . . . . . . . 46<br />
3.2.2.2 <strong>Stereo</strong>scopic Player . . . . . . . . . . . . . . . . . . . . . . . 46<br />
3.2.2.3 More3D SoftwareSuite . . . . . . . . . . . . . . . . . . . . . 46<br />
3.2.3 Weiterverarbeitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46<br />
4 Aufnahmesystem 48<br />
4.1 Kriterien zur Kameraauswahl . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48<br />
4.1.1 Digitale Formate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48<br />
4.1.2 Synchronisierung der Kameras . . . . . . . . . . . . . . . . . . . . . . . 50<br />
4.1.2.1 Genlock . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51<br />
4.1.2.2 LANC TM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51<br />
4.1.2.3 Control M . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52<br />
4.1.3 Anschlussmöglichkeit <strong>für</strong> Sensoren . . . . . . . . . . . . . . . . . . . . 52<br />
4.1.3.1 Ko<strong>die</strong>rung der Daten in einen Audiostrom . . . . . . . . . . . 52<br />
4.1.3.2 Ko<strong>die</strong>rung der Daten in das Bild . . . . . . . . . . . . . . . . 52<br />
2
4.1.3.3 Ko<strong>die</strong>rung der Daten in das Videoformat . . . . . . . . . . . . 53<br />
4.1.3.4 Aufnahme von Raumklang . . . . . . . . . . . . . . . . . . . 54<br />
4.1.4 Abmaße der Kameras . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54<br />
4.2 Genutzte Kameras . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55<br />
4.3 Befestigung zur Aufnahme und Justierung von zwei Kameras . . . . . . . . . . . 57<br />
4.3.1 Existierende Halterungen . . . . . . . . . . . . . . . . . . . . . . . . . . 57<br />
4.3.2 Verwendete Halterung . . . . . . . . . . . . . . . . . . . . . . . . . . . 58<br />
4.3.3 Justierung der <strong>Stereo</strong>kamera . . . . . . . . . . . . . . . . . . . . . . . . 61<br />
4.4 Fernbe<strong>die</strong>nung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63<br />
4.4.1 Existierende Be<strong>die</strong>neinheiten . . . . . . . . . . . . . . . . . . . . . . . . 63<br />
4.4.2 Verwendeter Controller . . . . . . . . . . . . . . . . . . . . . . . . . . . 65<br />
4.4.3 Messung der Synchonität . . . . . . . . . . . . . . . . . . . . . . . . . . 66<br />
4.5 GPS-Empfänger . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67<br />
4.6 Kameraparameter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68<br />
4.6.1 Interne Parameter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69<br />
4.6.2 Externe Parameter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71<br />
4.6.3 <strong>Stereo</strong>kalibrierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72<br />
4.6.4 Selbstkalibrierung von <strong>Stereo</strong>kameras . . . . . . . . . . . . . . . . . . . 75<br />
5 Datenverarbeitung 76<br />
5.1 DirectShow . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76<br />
5.1.1 Genutztes Videoformat . . . . . . . . . . . . . . . . . . . . . . . . . . . 79<br />
5.1.2 Rektifikation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81<br />
5.1.3 Transformation in das <strong>Stereo</strong>videoformat . . . . . . . . . . . . . . . . . 83<br />
5.1.4 Anaglyphe Wiedergabe . . . . . . . . . . . . . . . . . . . . . . . . . . . 84<br />
5.1.4.1 Echte Rot-Blau und Rot-Cyan Anaglyphen . . . . . . . . . . . 85<br />
5.1.4.2 Graustufen Anaglyphen . . . . . . . . . . . . . . . . . . . . . 86<br />
5.1.4.3 Farbige Anaglyphen . . . . . . . . . . . . . . . . . . . . . . . 86<br />
5.1.5 Zweibildschirm Wiedergabe . . . . . . . . . . . . . . . . . . . . . . . . 88<br />
5.1.6 Wiedergabe über den NVIDIA TM 3D <strong>Stereo</strong> Treiber . . . . . . . . . . . 89<br />
5.2 Gps-Daten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89<br />
5.3 Nachbearbeitung von <strong>Stereo</strong>videos . . . . . . . . . . . . . . . . . . . . . . . . . 90<br />
5.3.1 Einblenden von Titeln . . . . . . . . . . . . . . . . . . . . . . . . . . . 91<br />
5.3.2 Anwenden von Blend-Effekten . . . . . . . . . . . . . . . . . . . . . . . 91<br />
5.3.3 Überlagern von <strong>Stereo</strong>video mit Videoinhalten . . . . . . . . . . . . . . 91<br />
5.3.4 Kompression von <strong>Stereo</strong>video . . . . . . . . . . . . . . . . . . . . . . . 92<br />
6 Fazit 94<br />
6.1 Zusammenfassung der Arbeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94<br />
6.2 Mögliche Erweiterungen der <strong>Stereo</strong>kamera . . . . . . . . . . . . . . . . . . . . 95<br />
6.2.1 Aufnahme von <strong>Stereo</strong>panoramen . . . . . . . . . . . . . . . . . . . . . . 96<br />
6.2.2 Be<strong>die</strong>neinheit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97<br />
3
6.2.3 Halterung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97<br />
6.2.4 Sensordaten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98<br />
6.3 Forschungsfragen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99<br />
6.3.1 Datenverarbeitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99<br />
6.3.1.1 Aufnahme von <strong>Stereo</strong>videodaten . . . . . . . . . . . . . . . . 99<br />
6.3.1.2 Verarbeitung von <strong>Stereo</strong>videodaten . . . . . . . . . . . . . . . 100<br />
6.3.1.3 Speicherung von <strong>Stereo</strong>videodaten . . . . . . . . . . . . . . . 100<br />
6.3.1.4 Sensordaten . . . . . . . . . . . . . . . . . . . . . . . . . . . 100<br />
6.3.2 Verwendung stereoskopischer Aufnahmen . . . . . . . . . . . . . . . . . 101<br />
A Anhang I<br />
A.1 Hinweise zur Be<strong>die</strong>nung der <strong>Stereo</strong>videokamera . . . . . . . . . . . . . . . . . . I<br />
A.1.1 Aufnahmeregeln . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . I<br />
A.1.2 Be<strong>die</strong>neinheit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . I<br />
A.1.2.1 Stromversorgung . . . . . . . . . . . . . . . . . . . . . . . . II<br />
A.1.2.2 Einstellen des Konvergenzwinkels . . . . . . . . . . . . . . . II<br />
A.1.2.3 Anschluss der Einzelkameras . . . . . . . . . . . . . . . . . . II<br />
A.1.3 Anschluss <strong>eines</strong> Sensors . . . . . . . . . . . . . . . . . . . . . . . . . . II<br />
A.1.3.1 Funktionsübersicht der Fernbe<strong>die</strong>nung . . . . . . . . . . . . . III<br />
A.1.4 Anschluss an einen PC . . . . . . . . . . . . . . . . . . . . . . . . . . . III<br />
A.1.4.1 Programmierung der Fernbe<strong>die</strong>nung . . . . . . . . . . . . . . IV<br />
A.2 LANC Protokoll . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . VI<br />
A.3 Messung der Synchronität der Camcorder . . . . . . . . . . . . . . . . . . . . . VIII<br />
A.4 Kostenaufstellung <strong>für</strong> <strong>die</strong> entwickelte <strong>Stereo</strong>videokamera . . . . . . . . . . . . . IX<br />
Abkürzungsverzeichnis X<br />
Literaturverzeichnis XII<br />
Abbildungsverzeichnis XVII<br />
Tabellenverzeichnis XX<br />
4
1 Einleitung<br />
„Mit dem Zweiten sieht man besser.“<br />
Zitat des Zweiten Deutschen Fernsehens<br />
Menschen besitzen zwei Augen, mit welchen <strong>die</strong> Welt um sie herum wahrgenommen wird. Ein<br />
zweites Auge erweitert das Blickfeld des Menschen sehr stark.<br />
Durch den Abstand der Augen und deren Lage werden Objekte um uns herum aus zwei leicht<br />
verschiedenen Perspektiven wahrgenommen, da wir im Gegensatz zu einigen Tieren ein stereo-<br />
skopisches Blickfeld haben. Dies bedeutet, dass sich das Blickfeld unserer zwei Augen um ca.<br />
120 Grad überschneidet, wodurch unser Gehirn in der Lage ist, aus resultierenden perspektivi-<br />
schen Differenzen, <strong>die</strong> Entfernung von Gegenständen und deren Tiefe abzuschätzen.<br />
Diese Tatsache ist bereits Euklid von Alexandria 1 , 300 Jahre v. Chr. aufgefallen, der Maßbezie-<br />
hungen <strong>für</strong> <strong>die</strong> drei Dimensionen aufstellte. Circa 150 Jahre n. Chr. hat Galen 2 wohl als erster eine<br />
Erklärung des Zusammenwirkens beider Augen <strong>für</strong> <strong>die</strong> Entstehung des stereoskopischen Sehens<br />
gegeben. Wobei, „<strong>Stereo</strong>“ aus dem griechischen kommt und <strong>für</strong> „räumlich“ steht und „skopein“<br />
sich vom griechischen Wort <strong>für</strong> „Sehen“ ableitet.<br />
Mit der Erfindung der Fotographie konnte erstmals von echter „<strong>Stereo</strong>grafie“ gesprochen werden,<br />
wobei „graphein“ <strong>für</strong> schreiben steht. Es wurde von Malern des 16. und 17. Jahrhunderts, wel-<br />
che sich eingehend mit Perspektive und Raum befasst haben, mit meist unzureichenden Mitteln<br />
versucht, stereoskopische Halbbilder zu zeichnen. Jedoch erst <strong>die</strong> Fotographie ermöglichte eine<br />
exakte Darstellung.<br />
Nachdem am 19. August 1839 in der Akademie der Wissenschaften zu Paris das Daguerre’sche<br />
Verfahren zur Herstellung photographischer Bilder auf Silberschichten öffentlich bekannt gegeben<br />
war, lag es nahe, auch Doppelaufnahmen herzustellen. Die erste Deutsche Publikation stammt von<br />
Ludwig Moser, aus Königsberg, welcher über <strong>die</strong> neue Technik folgendes schrieb:<br />
„Als ich vor einigen Jahren mir dergleichen Bilder [<strong>Stereo</strong>skopien] anfertigte, war<br />
ich doch anfangs über deren Effekt im <strong>Stereo</strong>skop ungewiss. Da <strong>die</strong>se Bilder schon<br />
einzeln einen so guten perspektivischen Eindruck machen, so schien mir, dass derselbe<br />
hier nicht erheblich gesteigert werden könnte. Allein der erste Versuch hat mich <strong>eines</strong><br />
Andern belehrt; der perspektivische Eindruck auch des besten Bildes kommt kaum in<br />
Betracht gegen denjenigen, welchen zwei entsprechende Bilder im <strong>Stereo</strong>skop machen<br />
[Sch07]“.<br />
1<br />
griechisch: Eukleides; lateinisch Euclidus; * ca. 365 v. Chr. vermutlich in Alexandria oder Athen; †ca. 300 v. Chr.,<br />
griechischer Mathematiker.<br />
2<br />
Galenos von Pergamon (dt. Galen, lat. Claudius Galenus; * um 129 in Pergamon, †um 216 in Rom) war griechischer<br />
Arzt und Anatom.<br />
5
1.1. AUFBAU DIESER ARBEIT 6<br />
Diese Begeisterung <strong>für</strong> <strong>Stereo</strong>bilder existiert noch heute, was der Ansturm auf „3D-Kinos“ und <strong>die</strong><br />
Verbreitung <strong>die</strong>ser zeigt. Durch <strong>die</strong> Erfindung des Computers wurde <strong>die</strong> Möglichkeit geschaffen<br />
irreale Gegenstände wie sie nur <strong>die</strong> Malerei und Zeichnung hervorbrachten, mathematisch perfekt<br />
darzustellen. Somit ist es uns heutzutage möglich, virtuelle Objekte stereoskopisch darzustellen.<br />
Gerade im Bereich der Videospiele, Trick- und Animationsfilme ist <strong>die</strong>se Technik weit verbreitet.<br />
1.1 Aufbau <strong>die</strong>ser Arbeit<br />
Diese Arbeit gliedert sich durch <strong>die</strong> Einzelanforderungen der Aufgabenstellung in sechs Kapitel.<br />
Ein einführendes Kapitel enthält <strong>die</strong> Motivation, einige Begriffserläuterungen, welche <strong>für</strong><br />
das Verständnis der Arbeit von Bedeutung sind, sowie <strong>die</strong> Beschreibung der <strong>Stereo</strong>projekti-<br />
onsleinwand des Lehrstuhls <strong>für</strong> Computergrafik und Visualisierung.<br />
Das zweite Kapitel stellt Grundlagen der menschlichen Wahrnehmung, der Aufnahme und<br />
der Wiedergabe stereoskopischer Bildinhalte vor. In <strong>die</strong>sem Kapitel werden physikalische<br />
Größen bestimmt, welche den Sehvorgang beschreiben und auf technische Kameraparame-<br />
ter abgebildet. Es werden existierende stereoskopische Aufnahme und Wiedergabemetho-<br />
den vorgestellt sowie Probleme bei der Aufnahme und Wiedergabe erläutert.<br />
Das dritte Kapitel widmet sich der Erläuterung von existierenden Aufnahmesystemen und<br />
der Verifikation <strong>die</strong>ser gegenüber der Aufgabenstellung. Es werden aktuelle <strong>Stereo</strong>kameras<br />
und deren Funktionen vorgestellt. Ebenfalls wird existierende Software zur Bearbeitung und<br />
Wiedergabe von bewegten Raumbildern erläutert.<br />
Im vierten Kapitel wird das entwickelte Aufnahmesystem erläutert. Dabei wird beschrieben,<br />
welche Art einer <strong>Stereo</strong>kamera entworfen wurde und wie deren Einzelkameras ausgewählt<br />
wurden. Die Synchronisation und Verarbeitung von Sensorinformationen des <strong>Stereo</strong>systems<br />
sowie <strong>die</strong> <strong>Entwicklung</strong> der Halterung wird beschrieben. Abschließend wird erläutert, wie<br />
Kameraparameter bestimmt werden können und Beispielwerte gegeben.<br />
Im darauffolgenden Kapitel wird <strong>die</strong> Erstellung der Software beschrieben, <strong>die</strong> zur Verarbei-<br />
tung von <strong>Stereo</strong>videoaufnahmen entwickelt wurde. Es wird beschrieben wie verschiedene<br />
<strong>Stereo</strong>videoformate berechnet und verarbeitet werden können. Weiterhin wird der Umgang<br />
mit Sensordaten beschrieben und Empfehlungen <strong>für</strong> den Umgang mit <strong>Stereo</strong>videos gegeben.<br />
Ebenfalls wird ein Verfahren zur Komprimierung von Raumbildpaaren vorgestellt.<br />
Im Fazit wird <strong>die</strong> hier vorliegende Arbeit zusammengefasst und Anregungen <strong>für</strong> weiterfüh-<br />
rende Arbeiten gegeben. Mögliche Modifikationen und Erweiterungen der <strong>Stereo</strong>videoka-<br />
mera werden beschrieben und deren Einsatzmöglichkeiten erläutert.<br />
Der Anhang enthält Hinweise zur Be<strong>die</strong>nung der <strong>Stereo</strong>videokamera und eine Beschreibung<br />
des LANC Protokolls, welches von der entworfenen Fernbe<strong>die</strong>nung genutzt wird sowie eine<br />
Kostenaufstellung.
1.2. DIE STEREOPROJEKTIONSLEINWAND DES LEHRSTUHLS FÜR<br />
COMPUTERGRAFIK UND VISUALISIERUNG 7<br />
1.2 Die <strong>Stereo</strong>projektionsleinwand des Lehrstuhls <strong>für</strong><br />
Computergrafik und Visualisierung<br />
Bei der im Lehrstuhl Computergrafik und Visualisierung der Informatikfakultät an der Techni-<br />
schen Universität Dresden eingesetzten <strong>Stereo</strong>projektionsleinwand handelt es sich um eine polari-<br />
sationserhaltende Rückprojektionsleinwand, mit einer möglichen Bilddiagonale von ca. 122 Zoll<br />
(ca. 310 cm), auf der mit Hilfe von zwei Beamern projiziert wird, welche übereinander angeord-<br />
net und mit um 90 Grad verdrehten Polarisationsfiltern ausgestattet sind. Diese „Christie DS+26“<br />
Projektoren arbeiten mit einer Auflösung von 1400 × 1050 Pixel. Über einen Spiegel werden <strong>die</strong><br />
Bilder von hinten auf <strong>die</strong> in Abbildung 1.2 gezeigte Leinwand projiziert.<br />
Der verwendete Computer welcher <strong>die</strong> Projektoren ansteuert verfügt über einen 2,4Ghz DualCore<br />
Prozessor, der mit zwei Gigabyte Hauptspeicher und dem Betriebssystem „Microsoft Windows<br />
XP“ arbeitet. Bei den eingesetzten Grafikkarten werden zwei NVIDA Geforce 8800 GTX mit je-<br />
weils 768 Megabyte Speicher eingesetzt.<br />
Projiziert wird ein so genanntes Vektographenbild 3 . Dabei handelt es sich um ein <strong>Stereo</strong>bild mit<br />
ortsgleich überlagerten Bildern, <strong>die</strong> gegensinnig polarisiert sind. Das Vektographenbild ist das<br />
polarisationsoptische Gegenstück zum Anaglyphenbild (Rot-Grün Bild) welches in Kapitel 2.3.5.9<br />
beschrieben wird.<br />
Abbildung 1.1: Abbildung der <strong>Stereo</strong>projektionsleinwand des Lehrstuhls Computergrafik und Visualisierung<br />
3 Vektographenbilder werden mitunter auch dichroitische Jodbilder genannt.
1.3. BEGRIFFSERKLÄRUNGEN 8<br />
Abbildung 1.2: Abbildung der zwei Projektoren mit Polarisationsfiltern<br />
1.3 Begriffserklärungen<br />
Sehvokabular<br />
• Akkommodation: Optische Anpassung des Auges an verschiedene Entfernungen. Dabei<br />
wird mittels Muskeln <strong>die</strong> Form der Augenlinse, und damit ihre Brechkraft, zum Scharfstel-<br />
len verändert. Die Akkommodation entspricht der Entfernungseinstellung bei Kameras.<br />
• Disparität, auch retinale Disparität (Disparation), bedeutet Ungleichheit, Verschiedenheit<br />
von Bildpunkten welche durch Objekte, deren Position im Raum weiter oder näher als <strong>die</strong><br />
Fixationsentfernung ist, auf „disparaten“ (seitlich verschobenen) Netzhautstellen abgebildet<br />
werden.<br />
• Fovea: Netzhautgrube, <strong>die</strong> Stelle des schärfsten Sehens im Auge.<br />
• Halbbild: Einzelbild <strong>eines</strong> <strong>Stereo</strong>bildes.<br />
• Höhenfehler: Deckungsfehler entsprechender Halbbildpunke in senkrechter Erstreckung.<br />
• Korrespondenz: Netzhautpunkte, <strong>die</strong> im fusionierten Binokularsehen das gleiche Objekt in<br />
Fixationsentfernung im Sehfeld abbilden, heissen korrespon<strong>die</strong>rende Netzhautstellen. Stellt<br />
man sich <strong>die</strong> Netzhäute beider Augen so übereinanderliegend vor, dass sich <strong>die</strong> beiden Fo-<br />
veae decken, dann liegen korrespon<strong>die</strong>rende Netzhautstellen genau übereinander.<br />
• Raumbild: <strong>Stereo</strong>foto oder Bild mit räumlichen Tiefeneindruck.<br />
• <strong>Stereo</strong>bild: Bildpaar, zusammengestellt aus zwei parallaktisch verschiedenen, größtenteils<br />
inhaltsgleichen, stereoskopisch aufgenommen Halbbildern.
1.3. BEGRIFFSERKLÄRUNGEN 9<br />
• <strong>Stereo</strong>sehen: Tiefensehen oder räumliches Sehen, das auf der Auswertung der Disparität<br />
beruht.<br />
• Strabismus: Schielen; beständige oder ab und zu auftretende Fehlstellung der Augen.<br />
• Deviation: bezeichnet den horizontalen Abstand gleicher Bildelemente auf beiden Halbbil-<br />
dern <strong>eines</strong> Raumbildes zueinander. Stellt damit <strong>die</strong> Abbildung der Parallaxe dar.<br />
• Parallaxe: bezeichnet den Winkel zwischen zwei Geraden, <strong>die</strong> von verschiedenen Stand-<br />
orten auf einen Punkt (ein Objekt) gerichtet sind.<br />
• Vergenz: Gegensinnige Bewegung der Augen, um ein Sehobjekt auf korrespon<strong>die</strong>renden<br />
Netzhautstellen abzubilden.<br />
• Konvergenz: Augenbewegung zueinander hin zum Nahsehen, extrem beim einwärtigen<br />
Schielen
2 Wahrnehmung, Aufnahme und Wiedergabe<br />
In <strong>die</strong>sem Kapitel werden Grundlagen und verschiedene Verfahren zur Aufnahme- und Wiederga-<br />
be stereoskopischer Bildinhalte vorgestellt und zusammenfassend <strong>für</strong> den Einsatz im <strong>Stereo</strong>-Video<br />
Bereich verglichen.<br />
2.1 Vorgang der visuellen Wahrnehmung<br />
Das natürliche Sehen, <strong>die</strong> visuelle Wahrnehmung, basiert auf der Reizung lichtempfindlicher Zel-<br />
len auf den Photorezeptoren der Netzhaut durch Lichtstrahlen, welche von Objekten ausgesandt,<br />
gebeugt oder reflektiert werden. Bei den existierenden zwei Typen von Photorezeptoren sind Stäb-<br />
chen <strong>für</strong> Hell-Dunkel-Wahrnehmung und Zapfen <strong>für</strong> <strong>die</strong> Farbwahrnehmung zuständig. Betrachtet<br />
man nun ein Objekt, konvergieren <strong>die</strong> Achsen der Augen auf den fixierten Gegenstand (Konver-<br />
genzpunkt). Dabei drehen sich <strong>die</strong> Augen so, dass das Bild des fixierten Gegenstandes in <strong>die</strong> Fovea<br />
(Netzhautgrube) fällt, wo <strong>die</strong> <strong>für</strong> <strong>die</strong> Sehschärfe verantwortliche Zäpfchendichte am höchsten ist.<br />
Gekoppelt mit der Konvergenz ist <strong>die</strong> Akkomodation 1 der Augenlinsen auf den fixierten Gegen-<br />
stand. Konvergieren <strong>die</strong> Augen auf einen Gegenstand in einer anderen Tiefenebene, so ändert sich<br />
auch <strong>die</strong> Akkomodationsentfernung [Hes10].<br />
Durch Akkomodation und Konvergenz nimmt beim Betrachten <strong>eines</strong> Objektes jedes Auge einen<br />
geringfügig anderen Winkel ein. Das heißt, je weiter ein Objekt entfernt ist, desto paralleler sind<br />
<strong>die</strong> Augenachsen, wobei sich bei nahen Objekten <strong>die</strong>se kreuzen (Vergenz).<br />
Am dem Prozess der Tiefenwahrnehmung sind mehrere Faktoren beteiligt. Erfahrungswerte wie<br />
<strong>die</strong> Größe oder Verdeckung von Objekten, sowie physiologische Prozesse der Augen (Konver-<br />
genz) und retinale Prozesse (Disparation) sind <strong>die</strong> Hauptfaktoren, <strong>die</strong> vom Gehirn interpretiert<br />
werden, um eine Wahrnehmung von Tiefe zu erreichen.<br />
Tiefenwahrnehmung kann durch monokulare und binokulare Faktoren beschrieben werden. Dabei<br />
zeichnen sich monokulare Tiefeninformationen durch:<br />
• Überlappungen von Objekten,<br />
• Perspektivische Verzerrungen, d.h. Unterschiede bekannter Größenverhältnisse und <strong>die</strong> re-<br />
lative Lage zum Horizont,<br />
• Atmosphärische Perspektive, d.h. Nebel oder Dunst in der Ferne,<br />
• Schattenwurf von Objekten,<br />
1 Veränderung der Dicke der Linse durch den Ziliarmuskel, um von Objekten in verschiedener Distanz ein scharfes<br />
Bild zu erzeugen.<br />
10
2.1. VORGANG DER VISUELLEN WAHRNEHMUNG 11<br />
aus.<br />
• Oberflächenstuktur von Objekten,<br />
• Bewegungsparallaxe (entfernte Objekte bewegen sich scheinbar langsamer als nahe)<br />
Binokulare Tiefeninformationen werden von Gehirn durch folgende Faktoren wahrgenommen:<br />
• den Augenabstand und <strong>die</strong> durch <strong>die</strong>sen bedingte<br />
• Disparation (perspektivischer Unterschied zweier Bilder auf der Netzhaut)<br />
• Konvergenz.<br />
Diese binokularen Tiefeninformationen werden in der <strong>Stereo</strong>skopie genutzt um Raumbilder dar-<br />
zustellen und zu verarbeiten. Dabei werden über geometrische Beziehungen, welche im weiteren<br />
beschrieben werden, <strong>die</strong> einzelnen Parameter bestimmt.<br />
2.1.1 Ursache der räumlichen Wahrnehmung<br />
Die optischen Achsen der Augen konvergieren wie in Abbildung 2.1 dargestellt in der Konver-<br />
genzebene in Punkt N welcher im Auge auf der sogenannten Netzhautgrube bei N ′ dargestellt<br />
wird. Der Punkt N ′ wird dabei unter dem Konvergenzwinkel α1 wahrgenommen und alle ande-<br />
ren Punkte welche unter <strong>die</strong>sem Konvergenzwinkel gesehen werden, sind auf korrespon<strong>die</strong>renden<br />
Netzhautstellen abgebildet. Da der Punkt F ′ unter einem anderen Konvergenzwinkel gesehen wird<br />
(α2) wird <strong>die</strong>ser (F ′ ) auf nicht korrespon<strong>die</strong>renden Netzhautstellen abgebildet.<br />
Die Strecken qr, ql bilden den Abstand von F ′ − N ′ dar und werden als Querdisparation be-<br />
zeichnet. Man unterscheidet zwischen gekreuzter und nicht gekreuzter Querdisparation. Bei einer<br />
gekreuzten Querdisparation liegen betrachtete Objekte vor dem Horopter 2 und somit auf dem<br />
äußeren Randbereich der Netzhaut. Dies sind Punkte, welche hinter dem betrachteten Punkt lie-<br />
gen. Von ungekreuzter Querdisparation spricht man, wenn Objekte hinter der Horopterlinie liegen.<br />
Diese liegen auf den Betrachter bezogen näher als der Konvergenzpunkt und fallen somit auf den<br />
inneren Randbereich der Netzhaut. Die Querdisparation stellt keine direkt messbare Größe dar und<br />
wird daher über <strong>die</strong> stereoskopische Parallaxe definiert.<br />
2 Der Horopter ist definiert als der geometrische Ort <strong>für</strong> alle einfach gesehenen Raumpunkte
2.1. VORGANG DER VISUELLEN WAHRNEHMUNG 12<br />
b 0<br />
F’<br />
d’ l<br />
N’<br />
F’<br />
d’r<br />
N’<br />
rechtes<br />
Auge<br />
linkes<br />
Auge<br />
f 0<br />
<br />
2<br />
<br />
2<br />
a Fokussierte Entfernung<br />
α1, α2 Konvergenzwinkel<br />
d ′ r, d ′ l<br />
b0 Augenabstand<br />
δ Winkel der stereoskopischen Parallaxe<br />
Nahpunkt<br />
Konvergenzebene<br />
1 N 2 F<br />
p r<br />
e t<br />
a<br />
Objekt<br />
Abbildung 2.1: Querdisparation und Parallaxe<br />
Querdisparation linkes und rechtes Auge<br />
e Entfernung zum Nahpunkt<br />
f0 Brennweite<br />
F Fernpunkt<br />
F ′ Abbildung des Fernpunkt auf der Netzhaut<br />
N Nahpunkt in der Konvergenzebene (Konvergenzpunkt)<br />
N ′ Abbildung des Nahpunkt auf der Netzhaut<br />
pr, pl Deviation zwischen Nah- und Fernpunkt in der Konvergenzebene<br />
t räumliche Tiefe des Objektes<br />
p l<br />
Fernpunkt
2.1. VORGANG DER VISUELLEN WAHRNEHMUNG 13<br />
2.1.2 Berechnung der Parallaxe<br />
Die Parallaxe stellt den Winkel zwischen Nah- und Fernpunkt dar, der im Auge des Betrachters,<br />
<strong>die</strong> in Abbildung 2.1 dargestelle Disparation auf der Netzhaut erzeugt. Somit ist <strong>die</strong> Parallaxe eine<br />
messbare Größe <strong>für</strong> <strong>die</strong> Tiefenwahrnehmung.<br />
Für <strong>die</strong> Parallaxe (δ = α + β), welche als Winkel zwischen zwei Geraden (Blickachsen), <strong>die</strong> von<br />
verschiedenen Blickpunkten auf einen Punkt gerichtet sind, ergibt sich unter der Näherung <strong>für</strong><br />
kleine Winkel: tan(α + β) = tan(α) + tan(β), nach Abbildung 2.1:<br />
tan(δ) = b0<br />
e<br />
− b0<br />
e + t , tan(δ) = b0 · t<br />
e 2 + e · t<br />
Durch Anwendung <strong>eines</strong> Strahlensatzes in Abbildung 2.1 ist <strong>die</strong> Deviation p = pl + pr durch<br />
Gleichung 2.2 gegeben.<br />
An <strong>die</strong>sen Gleichungen ist zu sehen, dass:<br />
p = b0<br />
2<br />
b0 ( 2 · e)<br />
−<br />
e + t<br />
• <strong>die</strong> Genauigkeit der Tiefenunterscheidung δ mit der Größe des Abstandes b0 zunimmt<br />
• <strong>die</strong> Genauigkeit der Tiefenunterscheidung δ quadratisch mit der Entfernung e abnimmt<br />
• im Nahbereich <strong>die</strong> Tiefenwahrnehmung δ am größten ist<br />
(2.1)<br />
(2.2)<br />
• wenn der Abstand e → ∞ geht, ein räumliches Unterscheidungsvermögen nicht mehr ge-<br />
geben ist.<br />
Theoretisch können nach Formel 2.1 Gegenstände, <strong>die</strong> weit entfernt liegen (nahe ∞) noch räum-<br />
lich wahrgenommen werden. Praktisch ist <strong>die</strong> Tiefenwahrnehmung jedoch durch ein Mindestauflö-<br />
sungsvermögen von δ begrenzt, welches durch <strong>die</strong> Anzahl der auf der „Fovea Centralis“ 3 vorhandenen<br />
Zapfen gegeben ist. Nach Otto Vierling [Vie65] ist ein Wert von höchstens 5 minarc (ca. 0,0833<br />
Grad) realistisch, was bedeutet, dass bis zu einer Entfernung von ca. 50 Metern d ′ r und d ′ l ausge-<br />
wertet werden können.<br />
2.1.3 Weitere optische Effekte<br />
Durch <strong>die</strong> Möglichkeit bei Kameras <strong>die</strong> <strong>Stereo</strong>basis, <strong>die</strong> den Abstand beider Objektive darstellt,<br />
zu vergrößern, können durch den in Kaptitel 2.3.2 beschriebenen virtuellen Abstand zwei Effekte<br />
entstehen. Diese werden Liliputismus und Gigantismus genannt.<br />
Liliputismus tritt auf, wenn <strong>die</strong> <strong>Stereo</strong>basis vergrößert, und <strong>die</strong> virtuelle Entfernung dadurch gerin-<br />
ger wird. Das Objekt verschiebt sich in den Vordergrund und erscheint kleiner, da <strong>die</strong> Abbildungs-<br />
fläche auf der Netzhaut gleich bleibt. Es kommt also zu einer modellhaften Wirkung der Szenerie.<br />
Anwendung findet <strong>die</strong>ser Effekt in der Astronomie, um Entfernungen von Sternen zu berechnen,<br />
wobei <strong>die</strong> größte nutzbare <strong>Stereo</strong>basis, nämlich derzeit <strong>die</strong> zweier astronomischer Einheiten, dem<br />
3 Fovea Centralis (auch Netzhautgrube) Stelle des schärfsten Sehens
2.2. VERFAHREN DER AUFNAHME 14<br />
doppelten Abstand der Erde von der Sonne genutzt wird, um Parallaxen von Sternbildern aufzu-<br />
nehmen.<br />
Praktisch wird das Prinzip, bei der Aufnahme von weit entfernten Objekten, wie z.B. Gebirgen,<br />
genutzt. Hierbei zeigt eine <strong>Stereo</strong>basis im Augenabstand aus den in Kapitel 2.1.2 beschriebenen<br />
Gründen keinen Effekt.<br />
Bei Gigantismus handelt es sich um das Gegenteil von Liliputismus, wobei <strong>die</strong> <strong>Stereo</strong>basen klei-<br />
ner als der Augenabstand gewählt werden, hierdurch wird der Tiefeneindruck in den Hintergrund<br />
gebracht und <strong>die</strong> Tiefe sowie <strong>die</strong> Größe verstärkt. Somit können im Makrobereich eindrucksvolle<br />
Bilder erzeugt werden, da z.B. <strong>die</strong> Länge <strong>eines</strong> Grashalmes mehrere Meter zu haben scheint. Aus<br />
<strong>die</strong>sem Grund existieren <strong>Stereo</strong>mikroskope, welche sehr plastische Ansichten von beispielsweise<br />
Zellstrukturen erlauben[Her07].<br />
2.2 Verfahren der Aufnahme<br />
Um Bilder mit räumlicher Wirkung aufzunehmen, wird das „Sehen“ der menschlichen Augen<br />
nachgeahmt. Es werden zwei horizontal versetzte Bilder abgelichtet, wobei von zwei Kategorien<br />
der Aufnahme gesprochen werden kann. Einerseits wird mit einem Objektiv gearbeitet, welches<br />
auf einer Aufnahmefläche (z.B. Film oder Bildsensor) zwei Bilder nebeneinander darstellt (Mo-<br />
nokulare Aufnahme). Die zweite Variante ist <strong>die</strong> Verwendung von horizontal versetzt fixierten<br />
Kameras (Binokulare Aufnahme).<br />
2.2.1 Die Scheinfensterregel<br />
Bei der Wiedergabe von stereoskopischen Bildinhalten sieht der Zuschauer durch <strong>die</strong> Begrenzun-<br />
gen des Wiedergabegerätes (Fernseher, Monitor, Projektionswand) durch ein sogenanntes Schein-<br />
fenster. Durch <strong>die</strong> Ecken <strong>die</strong>ses Fensters und dem Betrachtungspunkt entsteht eine umgekippte<br />
Pyramide dargestellt in Abbildung 2.2, innerhalb <strong>die</strong>ser Objekte als realistisch wahrgenommen<br />
werden.<br />
Das eigentliche Scheinfenster ist bei der Wiedergabe nicht unbedingt auf der Projektionsfläche,<br />
sondern <strong>die</strong> Ebene in der <strong>die</strong> parallaktische Verschiebung der Einzelbilder Null ist. Bei der Auf-<br />
nahme ist <strong>die</strong>s <strong>die</strong> Ebene in der sich <strong>die</strong> Achsen der Kameras schneiden. Dabei tritt der Effekt<br />
auf, dass Objekte vor dem Scheinfenster eine positive und hinter dem Scheinfenster eine negative<br />
parallaktische Verschiebung aufweisen, was bedeutet, dass bei paralleler Ausrichtung der Kameras<br />
das Scheinfenster in theoretisch unendlicher 4 Entfernung liegt. Die „Scheinfensterregel“ besagt,<br />
dass alle Objekte in stereoskopischen Bildern aus ästhetischen Gründen hinter <strong>die</strong>sem Fenster<br />
liegen sollten, wobei Objekte ausgenommen sind, welche <strong>die</strong> Begrenzungen der Pyramide nicht<br />
überschreiten.<br />
4 Begrenzt durch das Auflösungsvermögen der Kameras
2.2. VERFAHREN DER AUFNAHME 15<br />
Objekt vor<br />
Scheinfenster mit<br />
positiver Parallaxe<br />
Objekt auf<br />
Scheinfenster<br />
Abbildung 2.2: <strong>Stereo</strong>skopisches Scheinfenster<br />
Objekt hinter<br />
Scheinfenster mit<br />
negativer Parallaxe<br />
Da <strong>die</strong>se Regel bei einer parallelen Aufnahme verletzt wird, werden <strong>die</strong> so aufgenommenen Bil-<br />
der links- oder rechtsseitig beschnitten, um bei der Wiedergabe das Fenster in den Vordergrund zu<br />
schieben. Dabei bleibt <strong>die</strong> Lage des Scheinfensters in Hinsicht auf <strong>die</strong> Objekte der abgelichteten<br />
Szene immer unverändert.<br />
In der <strong>Stereo</strong>fotografie wird <strong>die</strong>se Nachbearbeitung in Kauf genommen, da <strong>die</strong> bei der Aufnahme<br />
mit konvergierenden Kameraachsen entstehenden Effekte meist unerwünscht sind. Neben Trapez-<br />
verzerrungen kommt es bei <strong>die</strong>ser Aufnahmemethode dazu, dass Objekte <strong>die</strong> weit vor oder hinter<br />
der Konvergenzlinie liegen eine sehr große Deviation aufweisen, <strong>die</strong> beim Betrachten als unange-<br />
nehm empfunden wird.<br />
Bei Filmaufnahmen wird <strong>die</strong>se Methode jedoch öfters verwendet, um einen Auflösungsverlust<br />
aufgrund der Beschneidung zu vermeiden. Allerdings muß darauf geachtet werden, dass <strong>die</strong> ver-<br />
zerrungsbedingte vertikale Differenz so gering wie möglich gehalten wird.<br />
2.2.2 Wahl der <strong>Stereo</strong>basis<br />
Um bereits bei der Aufnahme korrekte Raumbilder erzeugen zu können, müssen Regeln der Wie-<br />
dergabe, welche in Kapitel 2.3.4 beschrieben werden berücksichtigt werden. Betrachter mit ei-<br />
nem durchschnittlichen „nomalen“ Augenabstand von 6,5 cm nehmen bei der Projektion lieber<br />
einen etwas übertriebenen aber nicht zu großen Tiefeneindruck wahr. Der zu große Tiefenein-
2.2. VERFAHREN DER AUFNAHME 16<br />
druck entsteht, wenn <strong>die</strong> in Abbildung 2.1 angegeben Winkel α1 und α2 eine maximale Differenz<br />
δ = α1 − α2 überschreiten, wodurch korrespon<strong>die</strong>rende Netzhautpunkte nichtmehr als solche<br />
wahrgenommen werden. Diese Regel der maximal zulässigen Parallaxe wird „70 Minuten Bedin-<br />
gung“ genannt [Her07]. Sie besagt, dass δ ≤ 70 ′ (70 ′ ≡ 1.17 ◦ ), also <strong>die</strong> Winkeldifferenz δ kleiner<br />
als 70 Bogenminuten sein sollte. Zur Berechnung wird hier Bildbreite wP in das Verhältnis zum<br />
Betrachtungsabstand eP mit Hilfe der Deviation auf dem Bildsensor pk gesetzt.<br />
pk<br />
wP<br />
= δ · eP<br />
Die Deviation auf dem Bildsensor pk ergibt sich nach Abbildung 2.1, da das Bild in einer Kamera<br />
auf einen ungekrümmten Bildsensor fällt, durch Anwendung des Strahlensatzes zu:<br />
wP<br />
pk = bk · fk<br />
e − bk · fk<br />
(e + t) = bk<br />
t<br />
· fk ·<br />
(e + t) · e<br />
Durch umstellen <strong>die</strong>ser Formel nach bk und Hinzunahme der Bildsensorbreite wk ergibt sich:<br />
bk = pk<br />
·<br />
fk<br />
(e + t) · e<br />
t<br />
= pk<br />
·<br />
wk<br />
wk e<br />
·<br />
fk 1 − ( e<br />
e+t )<br />
Durch Stu<strong>die</strong>n über von Probanden angenehm empfundene Betrachterpositionen wurden Werte <strong>für</strong><br />
eP gefunden, <strong>die</strong> durch das Verhältnis in Formel 2.3 unter der 70 Minuten Bedingung (α ≤ 1.17 ◦ )<br />
einen Wert <strong>für</strong> <strong>die</strong> maximale Deviation im Bild von wP<br />
30 ergaben [Wim04][Mad07]. Die Deviation<br />
in einem projizierten Raumbild sollte maximal 33,3% der Bildbreite betragen. Daraus ergibt sich<br />
nach Formel 2.5 <strong>für</strong> <strong>die</strong> Wahl der <strong>Stereo</strong>basis:<br />
bk = 1 wk e<br />
· ·<br />
30 fk 1 − e<br />
e+t<br />
wobei wk <strong>die</strong> Größe des Bildsensors und fk <strong>die</strong> Kamerabrennweite darstellt.<br />
Wenn der Horizont im Bild enthalten ist, also (e + t) → ∞ kann <strong>die</strong>se Formel zu:<br />
vereinfacht werden.<br />
bk = 1<br />
30 · wk · e<br />
fk<br />
Formel 2.6 und 2.7 entsprechen der BERCOVITZ Formel [Ber98] welche eine Fokussierungsent-<br />
fernung a berücksichtigt:<br />
bk = dMOF D · (<br />
(e + t) · e<br />
) · (<br />
t<br />
1<br />
fk<br />
(2.3)<br />
(2.4)<br />
(2.5)<br />
(2.6)<br />
(2.7)<br />
− 1<br />
) (2.8)<br />
a<br />
Bei <strong>die</strong>ser Formel ist dMOF D 5 <strong>die</strong> maximale Deviation auf dem Bildsensor oder dem Film, welche<br />
mit 1,2 mm als üblicher Wert <strong>für</strong> Kleinbildfotografie angegeben wird. Die BERCOVITZ Formel<br />
basiert auf der Vergrößerung der Tiefenschärfe („Depth of Field“). Hier wird <strong>die</strong> Kamera auf<br />
einen Punkt zwischen Nah- und Fernpunkt fokussiert, typischerweise <strong>die</strong> Entfernung a, um das<br />
5 MOF D Maximum on Film Deviation
2.2. VERFAHREN DER AUFNAHME 17<br />
Objekt mit möglichst gleichmäßiger Unschärfe in N ′ k und F ′ k<br />
darzustellen. Für den Fall, dass der<br />
Fernpunkt den Horizont enthält wird in Formel 2.8 e + t = ∞ und es ergibt sich, da <strong>für</strong> <strong>die</strong><br />
fokussierte Entfernung a das Doppelte der Entfernung zum Nahpunkt e angenommen wird, um<br />
Nah- und Fernpunkt gleich unscharf darzustellen:<br />
bk = dMOF D · ( e<br />
fk<br />
− 1<br />
) (2.9)<br />
2<br />
In <strong>die</strong>sem Fall kann es allerdings eine bessere Lösung sein, auf den Nahpunkt zu fokussieren.<br />
Unter der Annahme der Fernpunkt liegt immer im Unendlichen wird Formel 2.8 zu:<br />
bk = dMOF D · e · ( 1<br />
umformuliert wird, in <strong>die</strong>sem Fall ist a = e und somit:<br />
bk = dMOF D · ( e<br />
2.2.3 Aufnahmemethoden<br />
fk<br />
fk<br />
− 1<br />
) (2.10)<br />
a<br />
− 1) (2.11)<br />
Um stereoskopische Bilder aufzunehmen, existieren verschiedene Methoden, welche nachfolgend<br />
näher erläutert werden. Es existieren 4 Methoden Raumbilder zu erzeugen:<br />
1. <strong>die</strong> Verschiebetechnik,<br />
2. <strong>die</strong> Spiegeltechnik,<br />
3. <strong>die</strong> Verwendung einer <strong>Stereo</strong>kamera und<br />
4. <strong>die</strong> „Montage“ zweier monokularer Kameras.<br />
2.2.3.1 Die Verschiebetechnik<br />
Bei <strong>die</strong>ser Technik werden mit einer Kamera und einem Objektiv zwei Bilder nacheinander aufge-<br />
nommen. Hierbei wird <strong>die</strong> Kamera nach Aufnahme des ersten Bildes um eine bestimmte Länge,<br />
<strong>die</strong> <strong>Stereo</strong>basis b0, verschoben bevor das zweite Bild aufgenommen wird.<br />
Die Vorteile <strong>die</strong>ser Technik sind:<br />
• es sind keine zusätzlichen Hilfsmittel nötig (Verschiebeschlitten und Stativ sind allerdings<br />
von Vorteil)<br />
• es ist jede Kamera einsetzbar<br />
• <strong>die</strong> <strong>Stereo</strong>basis ist frei wählbar (kleine <strong>Stereo</strong>basen bei Makroaufnahmen und größere bei<br />
Landschaftsaufnahmen)<br />
Die Nachteile sind:<br />
• bewegte Objekte (Sport, Personen etc.) können nicht abgelichtet werden, da <strong>die</strong> große Auf-<br />
nahmedauer, welche durch das Verschieben der Kamera resultiert, keine Momentaufnahmen<br />
ermöglicht<br />
• beide Bilder sind eventuell nicht passgenau und erfordern eine Nachbearbeitung.
2.2. VERFAHREN DER AUFNAHME 18<br />
2.2.3.2 Strahlenteilermethode<br />
Bei <strong>die</strong>ser Technik wird vor dem Objektiv der Kamera ein Strahlenteiler, meist aus mehreren<br />
Spiegeln bestehend, befestigt. Durch <strong>die</strong>sen wird in einer Kamera auf dem Speichermedium direkt<br />
ein <strong>Stereo</strong>bildpaar produziert.<br />
Die Vorteile <strong>die</strong>ser Technik:<br />
• eventuell vorhandene Spiegelreflex- oder Digitalkameras mit Filtergewinde können genutzt<br />
werden<br />
• bewegte Objekte stellen kein Problem dar<br />
• geringer finanzieller Aufwand<br />
• es kann aus jedem aufgenommenen Bild ein Raumbild erzeugt werden<br />
• <strong>die</strong> Kalibrierung der Kameras gestaltet sich einfacher, da nur eine Brennweite und ein<br />
Hauptpunkt existiert<br />
Die Nachteile sind hingegen:<br />
• da ein horizontaler Versatz bei der Wiedergabe von Raumbildern gefordert ist, sind nur<br />
Hochkantbilder möglich. Wenn <strong>die</strong> Kamera gedreht und eine vertikale Deviation erzeugt<br />
wird, um Querformatige Bilder zu erzeugen, müssen <strong>die</strong>se Bilder mit einer horizontalen<br />
Deviation betrachtet werden. Dies bedeutet, dass das Raumbild um 90 ◦ gedreht werden<br />
muss.<br />
• es können Schatten, Aufhellungen und Spiegelungen entstehen<br />
• Bildpaare sind evtl. nicht gleich groß bzw. zeigen nicht zu 100% den gleichen Ausschnitt<br />
• eine Nachbearbeitung kann notwendig sein<br />
Radiale Spiegel Bei <strong>die</strong>ser Methode, welche einen Sonderfall der Strahlenteiler darstellt, wird<br />
ein konischer Spiegel am Objektiv befestigt. In der Mitte des aufgenommenen Bildes wird dadurch<br />
das fokussierte Objekt und gleichzeitig kreisförmig zum Rand eine radial verzerrte Aufnahme<br />
<strong>die</strong>ses Objekts abgebildet (siehe Abbildung 2.3).<br />
Die <strong>Stereo</strong>basis stellt hierbei das Doppelte des Abstands, des kleineren Kegelradius zum Objektiv<br />
dar. Durch <strong>die</strong>se Methode ist man nicht an Hochkantformate gebunden. Jedoch ist eine Aufnahme<br />
im Kleinbildformat nur durch Beschneidung des entstehenden Bildes möglich. Des Weiteren kön-<br />
nen so entstandene Bilder nicht direkt nach der <strong>Entwicklung</strong>, oder Übertragung auf einem Compu-<br />
ter betrachtet werden, da immer eine aufwendige Entzerrung notwendig ist. Allerdings können bei<br />
<strong>die</strong>ser Methode drei Bilder abgegriffen werden, wodurch es möglich wird <strong>die</strong>se Aufnahmetechnik<br />
in bildverarbeitenden Systemen zur Generierung von dreidimensionalen Flächen einzusetzen.
2.2. VERFAHREN DER AUFNAHME 19<br />
Abbildung 2.3: Radialer Spiegelvorsatz und aufgenommenes Bild mit eingezeichneten Strahlengängen<br />
aus [Naj05]<br />
2.2.3.3 Die <strong>Stereo</strong>kamera<br />
Bei einer <strong>Stereo</strong>kamera handelt es sich um eine Kamera mit zwei Objektiven. So werden bei<br />
Geräten, <strong>die</strong> einen Film nutzen, jeweils nebeneinander liegende Negative belichtet. Diese können<br />
nach der <strong>Entwicklung</strong> direkt mit einem <strong>Stereo</strong>skop betrachtet werden. Bei der Aufnahme von<br />
<strong>Stereo</strong>bildern mit digitaler Fototechnik sind zwei Bildsensoren erforderlich, <strong>die</strong> nach dem gleichen<br />
Prinzip wirken. Die Vorteile sind:<br />
• es kann wenig „falsch“ gemacht werden, da <strong>die</strong> Be<strong>die</strong>nung analog einer monokularen Ka-<br />
mera stattfindet und somit eine Justierung der optischen Achsen entfällt.<br />
• es wird ein Raumbild erzeugt, das direkt nach der <strong>Entwicklung</strong> oder Übertragung auf einen<br />
Computer stereoskopisch wahrgenommen werden kann, ohne vorherige Entzerrung.<br />
• <strong>die</strong> Geräte sind handlich, robust und kompakt<br />
• bewegte Objekte stellen kein Problem dar<br />
Die Nachteile von <strong>Stereo</strong>kameras sind:<br />
• eine meist nicht veränderbare <strong>Stereo</strong>basis<br />
• im Vergleich zu monokularen Kameras meist relativ preisintensiv<br />
• Bei einigen Bildformaten ist teilweise keine Laborentwicklung möglich, wodurch <strong>die</strong> Ent-<br />
wicklung höhere Kosten verursacht. Beim Einsatz von Digitalkameras stellt <strong>die</strong>s kein Pro-<br />
blem dar.<br />
2.2.3.4 Einsatz Binokularer Kameras<br />
Bei <strong>die</strong>ser Methode handelt es sich um <strong>die</strong> gebräuchlichste, da 2 Kameras nebeneinander montiert<br />
werden, was folgende Vorteile bringt:
2.3. WIEDERGABE STEREOSKOPISCHER BILDINHALTE 20<br />
• Da prinzipiell alle Systeme möglich sind kann eine <strong>Stereo</strong>aufnahme in genau der gewünsch-<br />
ten Qualität, zu den gewünschten Kosten realisiert werden.<br />
• Die <strong>Stereo</strong>basis kann variabel gewählt werden<br />
• bewegte Objekte stellen kein Problem dar<br />
• Quer- und Hochformataufnahmen sind möglich<br />
Die Nachteile sind:<br />
• Meist gestaltet sich das gleichzeitige Auslösen beider Kameras problematisch<br />
• eine <strong>Stereo</strong>basis unter 6cm ist bei vielen Systemen, bedingt durch <strong>die</strong> Außenmaße der Ka-<br />
meras, nicht möglich.<br />
2.3 Wiedergabe stereoskopischer Bildinhalte<br />
Die Wiedergabe der <strong>Stereo</strong>bilder, egal mit welchem Verfahren sie aufgenommen wurden, zielt<br />
immer darauf ab, jedem Auge ein Bild zu zuführen. Dies muss in der richtigen Reihenfolge ge-<br />
schehen, also das linke Bild dem linken Auge und das rechte Bild dem rechten Auge, um den<br />
<strong>Stereo</strong>-Effekt wahrzunehmen.<br />
Man unterscheidet hier zwischen Verfahren ohne Hilfsmittel, wie dem Parallelblick oder dem<br />
Kreuzblick und den Methoden welche Hilfsmittel in Form von Brillen oder Spiegeln benötigen.<br />
Hierzu zählen: <strong>die</strong> Anaglyphenverfahren, der Pulfrich-Effekt, der Einsatz von Shutter- und polari-<br />
sierten Brillen.<br />
Um bestimmen zu können, wie ein virtuelles Objekt bei der Wiedergabe erscheint, werden im Fol-<br />
genden verschiedene Größen berechnet. In Abbildung 2.4 auf Seite 21, wird der gesamte Vorgang<br />
der Aufnahme und Wiedergabe skizziert ist und <strong>die</strong> zugehörigen Größen dargestellt.<br />
Die in Abbildung 2.4 gezeigten Größen sind:<br />
F Fernpunkt<br />
N Nahpunkt / Konvergenzpunkt<br />
pl, pr Deviation zwischen Nah- und Fernpunkt in der Konvergenzebene<br />
N ′ lk , N ′ rk<br />
F ′<br />
lk , F ′ rk<br />
t Tiefe des Objektes<br />
a Abstand zum Objekt<br />
e Entfernung zum Nahpunkt / Konvergenzpunkt<br />
δ Winkel der Parallaxe<br />
bk <strong>Stereo</strong>basis der Kameras<br />
γ Konvergenzwinkel<br />
Abbild des Nahpunktes in der linken und rechten Kamera<br />
Abbild des Fernpunktes in der linken und rechten Kamera
2.3. WIEDERGABE STEREOSKOPISCHER BILDINHALTE 21<br />
Aufnahme<br />
der Kameras<br />
Projektion auf<br />
Wiedergabemedium<br />
Abbildung<br />
im Auge<br />
Bildsensorebene<br />
linke<br />
Kamera<br />
Projektionsfläche<br />
linkes<br />
Auge<br />
Netzhaut<br />
N’ lk<br />
N’ lkt<br />
N’ l<br />
F’<br />
lk<br />
l<br />
2<br />
N<br />
F P<br />
N P<br />
bk<br />
b<br />
F<br />
2<br />
1<br />
2<br />
F’<br />
rk<br />
N’ rk<br />
N’<br />
d’ F’<br />
F’ r d’ r N’r<br />
l<br />
Abbildung 2.4: <strong>Stereo</strong>skopische Aufnahme und Wiedergabe<br />
p r<br />
<br />
dk 2<br />
pP 2<br />
0<br />
p l<br />
eP<br />
rkt<br />
t<br />
e<br />
kf<br />
k<br />
f P<br />
a<br />
rechte<br />
Kamera<br />
tvirt<br />
evirt<br />
f 0<br />
a P<br />
rechtes<br />
Auge<br />
avirt
2.3. WIEDERGABE STEREOSKOPISCHER BILDINHALTE 22<br />
N ′ lkt , N ′ rkt<br />
Transformierter Nahpunkt in der linken und rechten Kamera<br />
dk Deviation in der Aufnahmeebene<br />
fk Brennweite der Kameras<br />
fP Brennweite des Projektors<br />
aP Abstand Projektor, Projektionsfläche<br />
α2, α1 Konvergenzwinkel des Nah und Fernpunktes<br />
tvirt virtuelle Tiefe des projizierten Bildes<br />
FP projizierter Fernpunkt<br />
NP projizierter Nahpunkt<br />
pP Deviation im projizierten Bild<br />
eP Abstand Betrachter Projektionsfläche<br />
evirt virtuelle Entfernung zum Konvergenzpunkt<br />
avirt virtueller Abstand des Objektes<br />
b0 <strong>Stereo</strong>basis der menschlichen Augen<br />
f0 Brennweite der menschlichen Augen<br />
N ′ l , N ′ r Abbildung des Nahpunktes auf der linken und rechten Netzhaut<br />
N ′ l , F ′ r Abbildung des Fernpunktes auf der linken und rechten Netzhaut<br />
d ′ l , d′ r Disparation im linken und rechten Auge des Betrachters<br />
In <strong>die</strong>ser Abbildung stellen N und F den Nah- und Fernpunkt dar, <strong>die</strong> mittels <strong>eines</strong> Lochkame-<br />
ramodells 6 auf der Bildsensorebene abgebildet werden. Dabei stellt γ den Konvergenzwinkel der<br />
Kameras dar, welcher <strong>für</strong> <strong>die</strong> Berechnung einer im Folgenden beschriebenen Berichtigungsfunk-<br />
tion notwendig ist. Die Berichtigung, auch Rektifikation genannt basiert auf den Grundlagen der<br />
Epipolargeometrie. Dabei wird das aufgenommene Bild in der Bildsensorebene soweit transfor-<br />
miert, dass eine anschliessende parallele Projektion mit Hilfe von zwei Projektoren auf <strong>die</strong> Pro-<br />
jektionsfläche erfolgen kann. Auf <strong>die</strong>ser wird das Raumbild mit den virtuellen Größen (<strong>die</strong> Werte<br />
mit Indizies: virt) dargestellt. Im unteren Teil der Darstellung ist <strong>die</strong> Abbildung im menschlichen<br />
Auge schematisch dargestellt.<br />
2.3.1 Durch Konvergenz notwendige Schrägprojektion<br />
Aus Abbildung 2.4 ist an der Bildsensorebene ersichtlich, dass bei konvergierender Ausrichtung<br />
der Kameraachsen ein Winkel γ entsteht welcher zur Folge hat, dass zum einen das Scheinfenster,<br />
beschrieben in Kapitel 2.2.1, in der Tiefe der Konvergenzline (Konvergenzebene bei paralleler<br />
Aufnahme) auftritt und zum anderen das aufgenomme Bild trapezförmig verzerrt werden muss<br />
6 Eine Lochkamera ist das einfachste Gerät, mit dem sich optische Abbildungen erzeugen lassen
2.3. WIEDERGABE STEREOSKOPISCHER BILDINHALTE 23<br />
(Schrägprojektion). Die Notwendigkeit <strong>für</strong> <strong>die</strong>se „Entzerrung“ liegt darin begründet, dass <strong>die</strong> Tra-<br />
pezverzerrung welche durch konvergierende Kameraachsen entsteht, einen Höhenfehler erzeugt,<br />
welcher aus Abbildung 2.6a) ersichtlich wird. Dieser erzeugt ein Unbehagen beim Betrachter.<br />
2.3.1.1 Epipolargeometrie<br />
Bei konvergenter Aufnahme bezeichnet man <strong>die</strong> geometrischen Grundlagen der räumlichen An-<br />
ordnung der Kameras und des aufzunehmenden Objekts als Epipolargeometrie. In <strong>die</strong>sem Teil-<br />
gebiet der projektiven Geometrie werden, wie in Abbildung 2.5 dargestellt, Geraden auf welchen<br />
korrespon<strong>die</strong>rende Bildpunkte liegen als Epipolare Linien und <strong>die</strong>, durch <strong>die</strong> Kamerapositionen<br />
und den Raumpunkt aufgespannte Ebene als Epipolarebene bezeichnet. Hier fließen intrinsische<br />
und extrinsische Parameter wie Brennweite der Kamera, Bildzentrum, Rotation und Translation<br />
der Bildebenen ein.<br />
Diese Geometrie <strong>die</strong>nt dem Ziel, korrespon<strong>die</strong>rende Bildpunkte zu finden und durch Berechnung<br />
deren Deviation, Entfernungen und Winkel aus dem Raumbild zu erhalten. So kann zum Beispiel<br />
ein Tiefenbild erzeugt werden.<br />
Grundgedanke der Epipolargeometrie ist, dass ein dreidimensionaler Punkt M in den Bildebenen<br />
S1 und S2 <strong>die</strong> Abbildungen m1 und m2 liefert. Weiterhin liegt <strong>für</strong> jeden Punkt auf dem optischen<br />
Strahl von m1 nach M der korrespon<strong>die</strong>rende Punkt auf der Epipolarlinie I1.<br />
Durch <strong>die</strong>se Tatsache reduziert sich <strong>die</strong> Suche nach korrespon<strong>die</strong>renden Bildpunkten auf eine li-<br />
neare Suche entlang der Epipolarlinie. Wenn <strong>die</strong> Epipolarlinien berechnet werden ergibt sich ein<br />
weiterer Vorteil, welcher das Problem der Schrägprojektion löst. Liegen alle Epipolarlinien im<br />
Bild parallel, kann <strong>die</strong>ses wieder parallel projiziert werden.<br />
Abgesehen von radialen und anderen Verzerrungen bei Aufnahme von Raumbildern entstehen bei<br />
der parallelen Justage der Kameras Bilder in denen <strong>die</strong> Epipolarlinien parallel sind. Bei konver-<br />
genter Aufnahme müssen <strong>die</strong>se Bilder jedoch transformiert werden. Hier spricht man von einer<br />
Rektifikation.<br />
Da es an der, in <strong>die</strong>ser Arbeit entwickelten Kamera möglich ist den Konvergenzwinkel zu bestim-<br />
men, wird im Folgenden eine Rektifikation <strong>für</strong> bekannte Konvergenzwinkel beschrieben. Für den<br />
Fall, dass der Konvergenzwinkel nicht bekannt ist, kann <strong>die</strong>ser durch Suchen der Punkte m1 und<br />
m2 und bestimmen der Epipolarlinie berechnet werden.<br />
2.3.1.2 Schrägprojektion bei bekanntem Konvergenzwinkel<br />
In [Lac95], [Yan95] und [Koc93] ist der Effekt der Schrägprojektion (Keystoning) beschrieben<br />
und Lösungen wie ihm entgegengewirkt werden kann werden erläutert.<br />
Das Problem besteht nun darin, wie <strong>die</strong> Pixel der originalen Aufnahmeebene S in <strong>die</strong> korrigierte
2.3. WIEDERGABE STEREOSKOPISCHER BILDINHALTE 24<br />
M<br />
m<br />
1<br />
K<br />
1<br />
Abbildung 2.5: Epipolargeometrie nach [ATV00]<br />
Ebene S ′ transformiert werden müssen. Dabei werden folgende Transformationen der Koordina-<br />
tensysteme, wie in Abbildung 2.4 zu sehen, benötigt:<br />
(X0, Y0, Z0) → (Xk (l,r) , Yk (l,r) ) → (X S ′ (l,r) , Y S ′ (l,r) ) → (Xp (l,r) , Yp (l,r) ) → (Xv, Yv, Zv) (2.12)<br />
Dabei stehen X,Y und Z <strong>für</strong> Koordinaten im Raum, und <strong>die</strong> Indizes 0 <strong>für</strong> reale Größen, kl und kr<br />
<strong>für</strong> Koordinaten der linken und rechten Kamera (siehe Abbildung 2.7), pl <strong>für</strong> <strong>die</strong> Bildkoordinaten<br />
im linken projizierten und pr im rechten projizierten Bild, sowie v <strong>für</strong> <strong>die</strong> virtuellen Größen im<br />
Raumbild.<br />
Vorerst werden Bildstörungen durch <strong>die</strong> Optik der Kameras und der Projektoren, wie z.B. radiale 7<br />
oder tangentiale 8 Verzerrungen, nicht betrachtet.<br />
Für <strong>die</strong> erste Transformation aus dem Objektraum in Koordinaten der Bildsensoren sei fk <strong>die</strong><br />
Brennweite, bk <strong>die</strong> <strong>Stereo</strong>basis und γ der Konvergenzwinkel.<br />
Sei Z0 <strong>die</strong> Entfernung zum Objektpunkt, X0 der horizontale Abstand des Objektpunktes von der<br />
7<br />
Durch sphärische Oberfläche der Linsen und dem dadurch entstehenden Unterschied der Brennweite zum Rand des<br />
Bildes, resultierende Verzerrung.<br />
8<br />
Im Vergleich zur radialen Verzerrung sehr geringe, durch Dezentralisierung der Objektivlinsen hervorgerufene Ver-<br />
zerrung.<br />
I1<br />
S<br />
1<br />
m<br />
2<br />
S<br />
2<br />
K<br />
2
2.3. WIEDERGABE STEREOSKOPISCHER BILDINHALTE 25<br />
a)<br />
c)<br />
Z<br />
k<br />
X k<br />
linke<br />
Kamera<br />
F’<br />
lk<br />
p r<br />
N<br />
α β<br />
bk<br />
F<br />
δ Z0 δ<br />
2<br />
2<br />
N’ lk F’<br />
γ<br />
d k<br />
2<br />
p l<br />
X 0<br />
rk<br />
vertikale<br />
Parallaxe<br />
N’<br />
linkes<br />
Bild<br />
rechtes<br />
Bild<br />
rk<br />
t<br />
e<br />
kf<br />
k<br />
a<br />
rechte<br />
Kamera<br />
S<br />
S<br />
rechtes<br />
Bild<br />
linkes<br />
Bild<br />
Z<br />
k<br />
b)<br />
d)<br />
X k<br />
linke<br />
Kamera<br />
N’ lk<br />
F’<br />
lk<br />
p r<br />
N<br />
bk<br />
F<br />
α β<br />
δ Z0 δ<br />
2<br />
2<br />
dk 2<br />
p l<br />
X 0<br />
h<br />
F’<br />
rk<br />
N’<br />
rk<br />
linkes<br />
Bild<br />
rechtes<br />
Bild<br />
t<br />
e<br />
kf<br />
k<br />
a<br />
rechte<br />
Kamera<br />
Abbildung 2.6: Aufnahme mit konvergierenden und parallelen Kameraachsen a) Abbildung der<br />
konvergenten Aufnahme, b) Abbildung der parallelen Aufnahme, c) Konvergente<br />
Kameraachsen (Epipolargeometrie), d) parallele Kameraachsen (Standard <strong>Stereo</strong>geometrie)<br />
optischen Achse der <strong>Stereo</strong>kamera 9 und Y0 <strong>die</strong> Höhe des Objektpunktes. Die Winkel α und β<br />
(siehe Abbildung 2.6c) und d)) ergeben den Konvergenzwinkel α1 = α + β <strong>eines</strong> Objektpunktes<br />
und werden wie folgt berechnet:<br />
bk<br />
2 α = arctan<br />
bk<br />
2 β = arctan<br />
+ X0<br />
, (2.13)<br />
Z0<br />
− X0<br />
. (2.14)<br />
Da der Winkel ∠ICOkl = ∠F CG = α − γ ist, kann Xkl direkt über <strong>die</strong> trigonometrische Bezie-<br />
hung des Tangens berechnet werden.<br />
Weiterhin ist Ykl<br />
Y0<br />
Z0<br />
IC<br />
Z0<br />
= und CG =<br />
CG cosα . Die Abbildung des Objektpunktes auf dem Bildsensor<br />
wird durch folgende Gleichungen gegeben:<br />
9 Die optische Achse der <strong>Stereo</strong>kamera liegt senkrecht zur <strong>Stereo</strong>basis genau bei b K<br />
2
2.3. WIEDERGABE STEREOSKOPISCHER BILDINHALTE 26<br />
S<br />
I<br />
Ykl<br />
m<br />
X<br />
kl<br />
O<br />
kl<br />
C<br />
<br />
F<br />
M<br />
E<br />
O X<br />
<br />
Y0<br />
G Z<br />
H<br />
Abbildung 2.7: Bestimmung der Koordinaten <strong>eines</strong> Objektpunktes <strong>für</strong> den linken Bildsensor nach<br />
[Lac95] wobei COkl = fk, CH = X0, MG = Y0, GH = Z0, ∠CEO =<br />
∠CGH = α und ∠CF O = γ ist.<br />
Xkl = fk · tan(α − γ), (2.15)<br />
Xkr = fk · tan(β − γ), (2.16)<br />
Ykl = Y0 · fk · cosα<br />
,<br />
Z0 · cos(α − γ)<br />
(2.17)<br />
Ykr = Y0 · fk · cosβ<br />
Z0 · cos(β − γ)<br />
(2.18)<br />
Die Indizies kl und kr beschreiben den Bildsensor der linken, beziehungsweise der rechten Kame-<br />
ra.<br />
Die Transformation in Projektionskoordinaten erfolgt über <strong>die</strong> Multiplikation mit dem Vergröße-<br />
rungsfaktor der Projektoren welcher sich durch <strong>die</strong> Projektorbrennweite fP und den Abstand zur<br />
Projektionsfläche aP durch Formel 2.19 ergibt.<br />
V = aP<br />
fP<br />
0<br />
0<br />
(2.19)<br />
Xpl = V · XS (2.20)<br />
Xpr = V · XS (2.21)<br />
Ypl = V · YS (2.22)<br />
Ypr = V · YS (2.23)
2.3. WIEDERGABE STEREOSKOPISCHER BILDINHALTE 27<br />
Des Weiteren fehlt hier eine Funktion g1(Xkl,r , Ykl,r , Zkl,r ), um <strong>die</strong> ermittelten Koordinaten des<br />
Ok(X, Y ) in das Op(X, Y ) Koordinatensystem zu transformieren <strong>die</strong> sicherstellt, dass auch bei<br />
konvergenter Aufnahme keine vertikale Parallaxe auftritt. Im Einzelnen müssen XS ′ und YS ′, also<br />
<strong>die</strong> Koordinaten der berichtigten Kamerasensordaten, welche in OPr,l (X, Y )10 liegen ermittelt<br />
werden.<br />
Hier<strong>für</strong> kann das in [Lac95] beschriebene Verfahren mit bekanntem Konvergenzwinkel γ, gezeigt<br />
in Abbildung 2.8, genutzt werden. Dabei transformiert eine Projektion das Bild in <strong>die</strong>se zur Ste-<br />
reobasis parallele Ebene und eine Skalierung bewirkt eine Korrektur der Breite des Bildes.<br />
a) b)<br />
ω<br />
H<br />
B<br />
F<br />
O<br />
C C<br />
γ<br />
O’<br />
A<br />
G<br />
E<br />
S<br />
S’<br />
Q’ Q<br />
Abbildung 2.8: Finden der linken korrigierten Ebene S’ bei Schrägprojektion (nach [Lac95]),<br />
a)zweidimensionale Abbildung b)dreidimensionale Abbildung<br />
Die Breite des Bildsensors sei wk, fk <strong>die</strong> Kamerabrennweite und 2ϖ der Öffnungswinkel der<br />
Kamera. Da der Öffnungswinkel der Kamera von der Brennweite abhängt, gilt <strong>die</strong> Beziehung:<br />
ω<br />
X<br />
F<br />
O’<br />
γ<br />
O<br />
P’<br />
ϖ = arctan( wk<br />
) (2.24)<br />
2 · fk<br />
Die korrigierte Ebene und <strong>die</strong> optische Achse der Kamera treffen sich bei O ′ . Daraus resultierend<br />
gelten <strong>die</strong> nachfolgenden Verhältnisse, da <strong>die</strong> Breite des in <strong>die</strong> korrigierte Bildebene projizierten<br />
Bildes (EF ) gleich der Sensorbreite wk ist.<br />
10 Der Index Pr,l beschreibt <strong>die</strong> linke oder rechte Diaebene des Projektors oder bei Beamern <strong>die</strong> Ebene der TFT- oder<br />
LCD-Matrix.<br />
A<br />
P<br />
E
2.3. WIEDERGABE STEREOSKOPISCHER BILDINHALTE 28<br />
OG = wk · cos(ϖ)<br />
2 · cos(γ + ϖ)<br />
OH = wk · cos(ϖ)<br />
2 · cos(γ − ϖ)<br />
GH = wk<br />
2<br />
(2.25)<br />
(2.26)<br />
1<br />
· cosϖ · (<br />
cos(γ + ϖ) +<br />
1<br />
) (2.27)<br />
cos(γ − ϖ)<br />
Die Breite des berichtigten Bildes EF in S ′ ist gleich der Bildsensorbreite, weswegen der Abstand<br />
zu <strong>die</strong>ser Ebene CO ′ wie folgt berechnet wird:<br />
CO ′ 2 · fk<br />
=<br />
1 cosϖ( cos(ϖ+γ) +<br />
1<br />
cos(ϖ−γ) )<br />
(2.28)<br />
Unter der Vorraussetzung, dass <strong>die</strong> Sensorebene in OS und <strong>die</strong> Projektor-TFT-Ebene in OS ′ <strong>die</strong><br />
korrigierte Ebene darstellt, gilt <strong>für</strong> <strong>die</strong> Projektion gegen den Uhrzeigersinn (des linken Bildes)<br />
folgende Beziehung:<br />
YS ′<br />
YS<br />
= XS ′ · cosγ<br />
XS ′ =<br />
YS ′ =<br />
=<br />
XS<br />
CO′ − XS ′ · sinγ<br />
fk<br />
CO ′<br />
· XS<br />
(2.30)<br />
fK · cosγ + XS · sinγ<br />
CO ′ · cosγ<br />
· YS<br />
(2.31)<br />
fK · cosγ + XS · sinγ<br />
Dieses System ist identisch zu einem parallelen System, mit einer theoretischen Brennweite<br />
f ′ = CO ′ · cosγ, weswegen keine vertikale Parallaxe auftritt.<br />
(2.29)<br />
Wie in Abbildung 2.8 zu sehen, ist O ′ nicht mehr in der Mitte der korrigierten Ebene. Durch <strong>die</strong>sen<br />
Umstand müssen <strong>die</strong> „neuen“ Koordinaten der Bildgrenzen X 1 und X 2 errechnet werden.<br />
X 1 kl =<br />
X 2 kl =<br />
CO ′ · wk<br />
2(fk · cosγ − wk<br />
2 · sinγ)<br />
CO ′ · wk<br />
2(fk · cosγ + wk<br />
2 · sinγ)<br />
(2.32)<br />
(2.33)<br />
Die berichtigte Abbildung S ′ hat eine Deviation (dk), welche durch <strong>die</strong> Position der Ebene, der<br />
Brennweite, der Breite der Sensoren und dem Winkel zwischen korrigierter und Aufnahme-Ebene,<br />
bestimmt ist.<br />
dk = CO ′ · cosγ +<br />
4 · f 2 k<br />
Im Weiteren tritt durch Formel 2.28 <strong>die</strong> Beschränkung<br />
auf.<br />
CO ′ · w2 k · tanγ<br />
cosγ(1 + tanϖtanγ)(1 − tanϖtanγ)<br />
γ + ϖ = π<br />
2<br />
(2.34)<br />
(2.35)
2.3. WIEDERGABE STEREOSKOPISCHER BILDINHALTE 29<br />
Für <strong>die</strong> finale Transformation in Raumbildkoordinaten ergibt sich durch den Augenabstand des<br />
Betrachters (b0) und der Deviaton im Bild pP (vgl. Abbildung 2.4):<br />
Xv = b0 · (Xpl + Xpr)<br />
2 · (b0 − (pP ))<br />
Yv = b0 · YS<br />
b0 − pP<br />
Zv = b0 · V<br />
b0 − pP<br />
2.3.1.3 Schrägprojektion bei unbekanntem Konvergenzwinkel<br />
(2.36)<br />
(2.37)<br />
(2.38)<br />
Im Fall, dass der Konvergenzwinkel nicht bekannt ist oder in nicht ausreichender Genauigkeit zur<br />
Verfügung steht, kann <strong>die</strong>ser über das im Folgenden dargestelle Verfahren ermittelt werden.<br />
Für jeden Punkt m1 des linken Bildes liegt der Punkt m2 (vgl. Kapitel 2.3.1.1) im rechten Bild auf<br />
der Epipolarlinie I1. Um den Konvergenzwinkel γ bestimmen zu können, wird zu dem bekannten<br />
Punkt m1 über eine ähnlichkeitsfunktion F (m1, m2) der Punkt im rechten Bild gesucht [Ber04].<br />
Diese Funktion kann beispielsweise nach Ähnlichen Farbwerten oder Helligkeitswerten suchen.<br />
Der Punkt m2 ist dabei der, der <strong>die</strong> Funktion F (m1, m2) minimiert. Die Summe der Funktion<br />
F (m1, m2) über alle Punke im linken Bild wird geringer, wenn γ ′ nahe des Konvergenzwinkels γ<br />
liegt. Somit ist der optimale Konvergenzwinkel durch Gleichung 2.39 bestimmbar.<br />
γ ′ <br />
= argminγ F (m1, m2(γ)) (2.39)<br />
m1<br />
Diese Funktion kann beschleunigt werden, indem nicht zu jedem Punkt m1 der passende Punkt<br />
m2 gesucht wird, sondern nur bestimmte Regionen des Bildes „abgesucht“ werden.<br />
Für <strong>die</strong>sen Ansatz existieren [Ber04, nach] zwei prinzipielle Methoden:<br />
1. Merkmalbasierte Methoden<br />
2. Flächenbasierte Methoden<br />
Bei den merkmalbasierten Methoden werden in den Einzelbildern des <strong>Stereo</strong>bildpaares Merkmale<br />
gesucht, welche:<br />
• Kanten,<br />
• Kurven,<br />
• und Ecken<br />
sein können. Die Identifizierung <strong>die</strong>ser Merkmale ist robuster gegenüber dem Finden von Intensi-<br />
täten.<br />
Die flächenbasierten Methoden vergleichen Regionen aufgrund von Farb- und Helligkeitswerten.<br />
Diese Variante eigenet sich besonders <strong>für</strong> Landschaftskarten, Satellitenaufnahmen und anderen
2.3. WIEDERGABE STEREOSKOPISCHER BILDINHALTE 30<br />
Bildinformationen, bei welchen vorrangig weiche Übergänge zwischen Farbflächen auftreten.<br />
Ein weiterer Ansatz zur Bestimmung des Konvergenzwinkels nutzt <strong>die</strong> später in Kapitel 4.6 be-<br />
schriebene <strong>Stereo</strong>kamerakalibrierung, bei der durch eine Kalibrierung beider Einzelkameras <strong>die</strong><br />
Weltkoordinatensysteme in <strong>die</strong> Kamerkoordinatensysteme überführt werden. In <strong>die</strong>sem Fall geben<br />
<strong>die</strong> externen Parameter der Kalibrierung <strong>die</strong> Lage der Camcorder zueinander an. Dieser Ansatz er-<br />
fordert allerdings bei Änderung des Konvergenzwinkels während der Aufnahme eine Kalibrierung<br />
<strong>für</strong> jede mögliche Brennweite, was sehr umfangreich ist und somit zur Auffindung von Epipolar-<br />
linien nur in begrenztem Maße zu empfehlen ist. Dies bedeutet, <strong>für</strong> eine festgelegte Brennweite<br />
und Fokussierung ist <strong>die</strong>se Art der Bestimmung von γ erfolgreich.<br />
2.3.2 Berechnung des virtuellen Abstandes<br />
Der virtuelle Abstand <strong>eines</strong> Objektes bei der Wiedergabe gibt an, in welcher Entfernung sich das<br />
virtuelle Objekt (siehe Abbildung 2.9) zu befinden scheint.<br />
virtuelles<br />
Objekt<br />
Wiedergabeebene<br />
Projektor Projektor<br />
dk<br />
p P<br />
b 0<br />
dk<br />
2 2<br />
Abbildung 2.9: Schematische Darstellung der Projektion <strong>eines</strong> virtuellen Objektes.<br />
Dieser Abstand hängt von mehreren Faktoren ab und ist in der Regel nicht gleich der Entfernung<br />
des Objektes von der Kamera bei der Aufnahme. Um <strong>die</strong>sen zu berechnen kann Abbildung 2.1<br />
genutzt werden, da hierbei <strong>die</strong> Abbildung auf dem Bildsensor der Kamera analog der im mensch-<br />
lichen Auge verläuft [Her07].<br />
Die virtuelle Entfernung (avirt) hängt von der Größe der Projektion ab. Dabei sei der Abstand des<br />
Betrachters zum Wiedergabemedium eP , der Augenabstand b0 und <strong>die</strong> Deviation der wiedergege-<br />
eP<br />
t<br />
f 0<br />
virt<br />
a<br />
virt
2.3. WIEDERGABE STEREOSKOPISCHER BILDINHALTE 31<br />
benen Bilder pP wodurch sich <strong>die</strong> Beziehung in Formel 2.40 ergibt.<br />
avirt = b0 · eP<br />
2 · pP<br />
(2.40)<br />
Zur Berechnung der Deviation der projizierten Bilder (pP ) wird der Vergrößerungsfaktor (V ) aus<br />
Formel 2.19 benötigt, welcher das Größenverhältnis zwischen Wiedergabeabbildung und Abbil-<br />
dung auf dem Bildsensor einer Kamera angibt.<br />
Die Deviation dk auf den Bildsensoren der Kameras errechnet sich durch<br />
dk = bk · fk<br />
2 · a<br />
wodurch <strong>die</strong> Deviation pP auf der Projektionfläche<br />
pP = V · dk = aP<br />
ist. Werden <strong>die</strong>se Formeln nun in Formel 2.40 eingesetzt, ergibt sich als virtueller Abstand<br />
avirt = b0 · eP<br />
2 · pP<br />
2.3.3 Berechnung der virtuellen Tiefe<br />
fP<br />
· dk<br />
= b0 · fP · eP<br />
bk · fk · aP<br />
(2.41)<br />
(2.42)<br />
· a (2.43)<br />
Die virtuelle Tiefe beschreibt, wie groß der Tiefeneindruck des dargestellten Objektes ist. Bei-<br />
spielsweise sollen meist bei der Darstellung von Kugeln oder anderen runden Objekten <strong>die</strong>se nicht<br />
durch eine übertriebene Tiefenwirkung, elliptisch dargestellt werden.<br />
Ausgehend von der Abbildungsgröße des Objektes im Auge des Betrachters h0 und nach Abbil-<br />
dung 2.9 kann <strong>die</strong> virtuelle Objektgröße gvirt über <strong>die</strong> Höhe h0 und <strong>die</strong> virtuelle Tiefe tvirt über<br />
<strong>die</strong> Deviation beschrieben werden.<br />
Es sei<br />
· gobj<br />
(2.44)<br />
a<br />
<strong>die</strong> Höhe der Objektabbildung im Auge des Betrachters wobei hobj <strong>die</strong> reale Objekthöhe bezeich-<br />
h0 = f0<br />
net. Durch Umstellen <strong>die</strong>ser Formel <strong>für</strong> virtuelle Werte ergibt sich:<br />
h0 = f0<br />
· gvirt<br />
avirt<br />
was sich durch den Vergleich mit den Formeln 2.40, 2.19, 2.41, 2.42 und 2.43 zu:<br />
gvirt = fk · avirt · aP<br />
fP · eP · a · gobj = b0<br />
umstellen läßt. Die virtuelle Objekttiefe tvirt kann durch<br />
d = b0 · f0<br />
a 2 virt<br />
also der Deviation ermittelt werden, welche sich nach:<br />
umstellen lässt.<br />
· tvirt<br />
tvirt = bk · fk · a 2 virt<br />
bK<br />
· gobj<br />
(2.45)<br />
(2.46)<br />
(2.47)<br />
· aP<br />
b0 · fP · eP · a2 · t (2.48)
2.3. WIEDERGABE STEREOSKOPISCHER BILDINHALTE 32<br />
2.3.4 Berechnung der Betrachterposition<br />
Für den optimalen Betrachtungsabstand vom projizierten <strong>Stereo</strong>bild, welcher theoretisch jener ist,<br />
bei dem dargestellte Objekte gleich wahrgenommen werden, existieren zwei Ansätze.<br />
Zum einen der orthostereoskopische, also formtreue und zum anderen der Ansatz der form- und<br />
größentreuen Abbildung, auch tautostereoskopische Abbildung genannt [Her07].<br />
Dabei tritt eine tautostereoskopische Abbildung nur auf, wenn b0 = bk und gleichzeitig<br />
fP · eP<br />
fk · aP<br />
= eP<br />
V · fk<br />
= 1 (2.49)<br />
gilt. Um prinzipiell gleiche Winkel δ zu erreichen muss <strong>die</strong> Aufnahmebasis bk gleich dem Augen-<br />
abstand sein. Desweiteren, wie in Formel 2.49 gezeigt, muss das Verhältnis der Entfernungen von<br />
Projektor und Betrachter zur Projektionsebene stimmen. So lässt sich der Betrachtungsabstand<br />
einer tautostereoskopischen Abbildung ePtauto nach Formel 2.50 bestimmen.<br />
ePtauto = fk · aP<br />
fP<br />
Für eine orthostereoskopische Abbildung gilt:<br />
fP · eP<br />
fk · aP<br />
= V · fk<br />
(2.50)<br />
= 1 (2.51)<br />
da hier <strong>die</strong> Bedingung <strong>für</strong> <strong>die</strong> <strong>Stereo</strong>basis nicht zu beachten ist. Dies liegt darin begründet, dass bei<br />
Veränderungen der <strong>Stereo</strong>basis, wie in Kapitel 2.1.3 beschrieben, eine Größenveränderung auftritt,<br />
jedoch keine Formveränderung. Weiter bedeutet <strong>die</strong>s, dass Personen, <strong>die</strong> weiter von der Projek-<br />
tionsfläche entfernt sind, eine größere virtuelle Tiefe wahrnehmen, da <strong>die</strong> virtuelle Größe gleich<br />
bleibt. Ebenso wie Personen, <strong>die</strong> sich näher an der Projektionsfläche befinden, einen flacheren<br />
Tiefeneindruck erfahren.<br />
In der Praxis stellte sich jedoch heraus, dass subjektive Kriterien einfließen [Pas87].<br />
2.3.5 Wiedergabemethoden<br />
Die Wiedergabe stereoskopischer Bildinhalte kann über vielfältige Methoden realisiert werden<br />
welche hier der Vollständigkeit halber gegeben werden sollen. Da <strong>die</strong> Wiedergabe der <strong>Stereo</strong>vi-<br />
deos mit der entwickelten <strong>Stereo</strong>videokamera ein Teil der Aufgabenstellung <strong>die</strong>ser Diplomarbeit<br />
darstellt.<br />
Im Allgemeinen wird zwischen der Wiedergabe auf einem Bildschirm und der auf mehreren Bild-<br />
schirmen (mit Hilfe von Projektoren) unterschieden. Diese Varianten werden im Folgenden kurz<br />
erläutert.<br />
2.3.5.1 Head Mounted Displays<br />
Bei Head Mounted Displays (HMD), oder auch Videobrille genannt, handelt es sich um ein tragba-<br />
res Gerät ähnlich einer Brille, welches mit Hilfe von zwei kleinen Bildschirmen Raumbilder dar-<br />
stellt. Moderne HMDs sind mit einem Virtual retinal display (VRD) ausgestattet. Diese Technik
2.3. WIEDERGABE STEREOSKOPISCHER BILDINHALTE 33<br />
projiziert ein Bild direkt auf <strong>die</strong> Netzhaut. Zusammen mit einer transparenten bzw. transluzenten<br />
Brille kann das Auge <strong>die</strong> Umgebung sowie <strong>die</strong> Darstellungen der Brille gleichzeitig erfassen. Ein<br />
weiterer Vorteil ist, dass das Bild skaliert werden kann und somit das gesamte Blickfeld ausgenutzt<br />
wird [Wik07b].<br />
2.3.5.2 Polarisation<br />
Die Polarisationstechnik unterscheidet sich durch den Einsatz von linearer und zirkularer Polari-<br />
sation.<br />
Bei der linearen Polarisation werden Bilder mit einem <strong>Stereo</strong>-Diaprojektor oder zwei Beamern<br />
auf eine Leinwand projiziert, wobei beide Objektive mit um 90 Grad versetzten Polarisations-<br />
filtern bestückt werden. Die Zuschauer bekommen Polarisationsbrillen, <strong>die</strong> beide Bilder wieder<br />
voneinander trennen. Dabei können <strong>die</strong> Einzelbilder leicht abgedunkelt durch <strong>die</strong> Filter, ohne<br />
Farbeinschränkungen betrachtet werden. Es wird keinerlei Übung benötigt, um den <strong>Stereo</strong>effekt<br />
wahrzunehmen. Allerdings verschwindet der <strong>Stereo</strong>effekt, wenn der Kopf geneigt wird, da <strong>die</strong><br />
Bilder in <strong>die</strong>sem Fall nicht mehr getrennt werden. Diese Projektionsmethode ist heutzutage <strong>die</strong><br />
am weitesten verbreitetste. Zum einen, da polarisierte Brillen relativ preisgünstig erhältlich sind<br />
zum anderen, da <strong>die</strong> Verwendung von zirkularer Polarisation nur in den mittleren Wellenlängen<br />
des sichtbaren Lichtes optimal eingesetzt werden kann. Bei relativ hohen, oder niedrigen Wellen-<br />
längen müssen hier Geisterbilder in Kauf genommen werden.<br />
Zirkulare Polarisation wird erreicht, indem eine linear polarisierte Lichtwelle durch einen Kristall<br />
geleitet wird, in welchem <strong>die</strong> Fortpflanzungsgeschwindigkeit des Lichtes von der Schwingungs-<br />
achse <strong>eines</strong> elektrischen Feldes abhängt. Ist das Licht vor dem Kristall parallel oder waagrecht<br />
zur optischen Achse polarisiert, so geschieht entweder gar nichts oder es wird <strong>die</strong> gesamte Welle<br />
etwas gebremst. Schwingt das Licht im 45 ◦ -Winkel zur optischen Achse, so ergibt sich rechtszir-<br />
kulares Licht. Beim Winkel von −45 ◦ dreht sich das Licht genau in <strong>die</strong> andere Richtung, es wird<br />
also linkszirkular [Weh07].<br />
2.3.5.3 Schieltechniken<br />
Parallelblick Bei dem Parallelblick wird versucht mit den Augen auf einen weit entfernten<br />
Punkt zu konvergieren, sodaß <strong>die</strong> Augenachsen nahezu parallel verlaufen. In <strong>die</strong>sem Zustand muss<br />
der Betrachter nun auf zwei Bilder vor sich akkomo<strong>die</strong>ren (scharfstellen) und es ergibt sich ein vir-<br />
tuelles drittes Bild zwischen den beiden betrachteten, welches über stereoskopische Tiefe verfügt.<br />
Dieses Methode ist durch <strong>die</strong> unnatürliche Betrachtungsweise sehr unangenehm und kann nicht<br />
über längere Zeit vollzogen werden. Außerdem muss <strong>die</strong>se Methode trainiert werden, was bei<br />
erfolgreicher Erlernung den Vorteil bietet, ohne jegliche Hilfsmittel Raumbilder wahrzunehmen.<br />
Kreuzblick Ähnlich dem Parallelblick ist <strong>die</strong> Methode des Kreuzblickes. Dabei konvergieren<br />
<strong>die</strong> Augen des Betrachters auf einen sehr nahen Punkt und akkomo<strong>die</strong>ren auf einen weiter weg
2.3. WIEDERGABE STEREOSKOPISCHER BILDINHALTE 34<br />
liegenden Punkt. So sieht das linke Auge das rechte Bild und das rechte Auge das linke Bild.<br />
Auch bei <strong>die</strong>ser Methode entsteht ein drittes virtuelles Raumbild in der Mitte.<br />
2.3.5.4 <strong>Stereo</strong>skop<br />
Das <strong>Stereo</strong>skop ist vergleichbar mit einem Feldstecher, in dem <strong>die</strong> Bilder als Positivfilme (Dia)<br />
eingelegt werden. Durch Linsen werden <strong>die</strong> Bilder etwas vergrößert und jedes Auge sieht genau<br />
ein Bild. Dieses Hilfsmittel ist <strong>eines</strong> der ältesten Geräte zur Betrachtung von stereoskopischen<br />
Aufnahmen, welches <strong>die</strong> Methode des Parallelblickes realisiert und <strong>die</strong>se unterstützt.<br />
2.3.5.5 LCDShutter-Brille<br />
Eine Shutterbrille ist ein zur Betrachtung von <strong>Stereo</strong>graphiken auf einem Monitor eingesetztes<br />
Gerät. Der Computer gibt abwechselnd das linke und rechte Bild aus und steuert eine Brille mit<br />
Flüssigkristallscheiben an. Dabei wird im gleichen Takt der Bilder jeweils eine Seite undurchsich-<br />
tig. Dieses Verfahren reduziert <strong>die</strong> Bildwiederholrate effektiv auf <strong>die</strong> Hälfte. Die Auflösung des<br />
Monitors kann voll genutzt werden und man benötigt keinerlei Übung. Bei Bildwiederholraten von<br />
mehr als 100 Hz. ist eine flimmerfreie Wiedergabe möglich, worin <strong>die</strong> Einsatzbegrenzung liegt,<br />
da z.Zt. lediglich Röhrenmonitore einen ausreichend schnellen Bildaufbau ermöglichen um Shut-<br />
terbrillen einzusetzen. Bei LCD Bildschirmen reagieren <strong>die</strong> Flüssigkristalle nicht schnell genug<br />
auf den Wechsel zwischen rechtem und linkem Bild, was Störbilder zur Folge hat. Shutterbrillen<br />
können im Pageflipping Modus betrieben werden, dabei wird abwechselnd ein linkes- und rechtes<br />
Vollbild dargestellt. Ein weiterer Modus <strong>die</strong>ser Technik ist der Interlaced Modus, wobei auf Röh-<br />
renmonitoren der Bildaufbau durch Halbbilder genutzt wird. Es wird hier immer ein linkes und<br />
rechtes Halbbild abwechselnd dargestellt, wobei <strong>die</strong> Auflösung pro dargestelltem Bild halbiert<br />
wird, aber eine Bildwiederholrate von ca. 60 Hz. ausreicht um Raumbilder darzustellen. Wenn <strong>die</strong><br />
Wiedergabe im Interlaced Modus nicht unterstützt wird, kann das Lineblanking Verfahren genutzt<br />
werden, bei dem in ein Vollbild verschachtelte Halbbilder der zwei Ansichten ko<strong>die</strong>rt werden, der<br />
Controller der Shutterbrille übernimmt <strong>die</strong> Interlaced-Darstellung. Als viertes Verfahren existiert<br />
das Synchdoubling Verfahren wobei <strong>die</strong> Halbbilder der linken und rechten Ansicht übereinan-<br />
der an den Shuttercontroller gesendet werden, welcher nach der Darstellung des oberen Teils ein<br />
Synchronsignal sendet, wodurch der Elektronenstrahl wieder an den Nullpunkt der Monitorröhre<br />
gebracht wird und das untere Halbbild darstellt. Dabei kann durch fehlerhafte Synchronsignale ein<br />
Höhenversatz entstehen, was zur Folge hat, daß das System nicht verbreitet eingesetzt wird.<br />
2.3.5.6 Prismenbrille<br />
Bei dem Einsatz von Prismenbrillen, auch KMQ nach den Initialen der Erfinder 11 genannt, werden<br />
beide Bilder übereinander gelegt. Vorteil <strong>die</strong>ser Technik ist, dass keine Filter benötigt werden und<br />
auch keine besondere Projektionsfläche notwendig ist. Eine Prismenbrille, <strong>die</strong> das Licht auf beiden<br />
11 Dr. Christoph Koschnitzke, Reiner Mehnert und Dr. Peter Quick
2.3. WIEDERGABE STEREOSKOPISCHER BILDINHALTE 35<br />
Seiten unterschiedlich bricht führt jedem Auge ein Bild zu. Dabei werden <strong>die</strong>se allerdings leicht<br />
gestaucht und es können an kontrastreichen Stellen des Bildes farbige Säume entstehen. Außerdem<br />
ist ein fest definierter Abstand zum Bild einzuhalten, der von Größe und Abstand der <strong>Stereo</strong>bilder<br />
abhängt [Qui07].<br />
2.3.5.7 Interferenzfiltertechnik<br />
Die Interferenzfiltertechnik oder Wellenlängenmultiplex arbeitet nach einem Farbbandpass Ver-<br />
fahren mit kammartig verschachtelten Bandpässen (siehe Abbildung 2.10). Hierbei werden <strong>die</strong><br />
Bilder <strong>für</strong> das linke und rechte Auge mit Grundfarben unterschiedlicher Wellenlänge projiziert<br />
z.B.<br />
linkes Auge: rot 629nm, grün 532nm, blau 446nm<br />
rechts Auge: rot 615nm, grün 518nm, blau 432nm<br />
Abbildung 2.10: Funktionsprinzip der Infitec Interferenzfiltertechnik aus [Dai07]<br />
Bei <strong>die</strong>ser Betrachtungstechnik ist der Kopf beliebig neigbar und es wird keine Spezial-Leinwand<br />
benötigt. Die Brillen und Filter sind jedoch vergleichsweise teuer und man muss leichte Farbver-<br />
fälschungen je Auge (rosa/hellgrün) in Kauf nehmen [Dai07].<br />
2.3.5.8 Prismen-Oberfläche<br />
Eine Prismen-Oberfläche, auch Lenticular genannt, wird z.B. bei <strong>Stereo</strong>postkarten eingesetzt. Bei-<br />
de Bilder werden spaltenversetzt nebeneinander unter einer geriffelten Folie platziert. Dabei wird<br />
immer zwischen Spalten des linken und rechten Bildes gewechselt. Durch <strong>die</strong> schmalen Prismen
2.3. WIEDERGABE STEREOSKOPISCHER BILDINHALTE 36<br />
schaut das rechte Auge auf <strong>die</strong> Streifen des rechten Bildes, analog das linke Auge. Diese Tech-<br />
nik wird meist mit mehr als zwei Bildern noch verbessert. So existieren beispielsweise Monitore,<br />
welche fünf Ansichten, meist von synthetischen Bildinhalten, darstellen. Nachteil ist, dass bei Pro-<br />
jektion von <strong>Stereo</strong>fotos drei Zwischenbilder interpoliert werden. Das führt zu Qualitätseinbußen<br />
und somit zu einer geringeren darstellbaren Auflösung der Bildschirme [Inc07b].<br />
2.3.5.9 Anaglyphen Verfahren<br />
Beim anaglyphen Verfahren werden <strong>die</strong> Teilbilder unterschiedlich eingefärbt und übereinander<br />
gelegt. Die Trennung der Bilder <strong>für</strong> jedes Auge wird durch Farbfolien realisiert, wobei <strong>die</strong> Primär-<br />
farben Rot, Blau, oder Grün verwendet werden. Anaglyphen sind mit jedem Medium kompatibel,<br />
werden aber durch entstehende Farbverfälschungen nicht im Videobereich genutzt. Hier kommt<br />
hinzu, dass Farbko<strong>die</strong>rungsverfahren, welche im Fernseh- und Videobereich verwendet werden,<br />
nicht <strong>für</strong> <strong>die</strong> Darstellung von Anaglyphen geeignet sind. Meist werden Rot-Blau-, oder Rot-Grün-<br />
Brillen eingesetzt, wobei <strong>die</strong> Kanaltrennung bei Rot-Blau Brillen durch <strong>die</strong> größere Farbdifferenz<br />
effizienter ist.<br />
Echte Anaglyphenbilder können keine Farben reproduzieren, deshalb <strong>die</strong>nen hierbei meist Grau-<br />
stufenbilder als Vorlage.<br />
Zum zweiten existieren graue Anaglyphen, <strong>die</strong> sich durch <strong>die</strong> Verwendung aller drei Primärfarben<br />
auszeichnen. Für das rechte Bild werden grüner und blauer Kanal genutzt und mit einem Cyan<br />
Filter betrachtet. Für das linke Bild wird der rote Kanal verwendet. Dadurch wird das Raumbild<br />
heller und farbneutraler, enthält aber auch geringe Störbilder.<br />
Als drittes existieren farbige Anaglyphen, welche eine geringe Farbwiedergabe erlauben. Dabei<br />
werden grüne und blaue Farbanteile gut wahrgenommen, da sie einem Auge zugeführt werden,<br />
und rote eher schwach gesehen.<br />
2.3.5.10 Pulfrich-Verfahren<br />
Bei dem Pulfrich Verfahren handelt es sich um ein quasistereoskopisches Verfahren, welches eine<br />
Dunkel-Hell-Brille nutzt. Durch den Effekt, dass das Gehirn dunkle Bilder später wahrnimmt als<br />
helle und <strong>die</strong> rechte Seite der Brille abgedunkelt ist, wirkt eine Filmsequenz, bei der sich <strong>die</strong> Ka-<br />
mera von rechts nach links bewegt, durch <strong>die</strong> Brille betrachtet, dreidimensional. Das linke Auge<br />
sieht das aktuelle Bild, während das rechte Auge ein dunkleres Bild sieht, welches zeitversetzt<br />
wahrgenommen wird. Diese auch von diversen Fernsehsendern präsentierte Variante funktioniert<br />
nur bei seitlichen Kamerafahrten. Bewegt sich <strong>die</strong> Kamera nicht, wird kein Raumbild wahrgenom-<br />
men.<br />
2.3.6 Mögliche Bildstörungen in stereoskopischem Video<br />
Zu der im Kapitel 2.3.1 beschriebenen Korrektur von konvergenten Aufnahmen kommen noch<br />
andere Störungen hinzu, welche nachfolgend erwähnt und kurz erläutert werden sollen.
2.3. WIEDERGABE STEREOSKOPISCHER BILDINHALTE 37<br />
2.3.6.1 Höhenfehler<br />
Höhenfehler entstehen wenn <strong>die</strong> <strong>Stereo</strong>kamera bei der Aufnahme nicht Horizontal ausgerichtet<br />
wurde oder <strong>die</strong> ptischen Achsen der <strong>Stereo</strong>kamera vertikal divergieren. Sie resultieren in Raum-<br />
bildern welche stereoscopisch nicht wahrgenommen werden können, da ein „normalsehendes“<br />
menschliches Auge und das „verarbeitende“ Gehirn bei vertikalen Differenzen korrespon<strong>die</strong>ren-<br />
der Bildpunkte keine Zuordnung <strong>die</strong>ser treffen kann.<br />
Zur Eliminierung von Höhenfehlern ist ein Filtermechanismus denkbar, welcher <strong>die</strong> bei der Auf-<br />
nahme eventuell entstandenen Höhenfehler zur Laufzeit korrigiert. Dazu müsste ein Algorithmus<br />
implementiert werden, der markante Bereiche in beiden Bildern sucht und deren Höhe angleicht.<br />
Dieser Algorithmus könnte Höhenfehler durch Verkippung eliminieren. Für den Fall, dass <strong>die</strong><br />
optischen Kameraachsen bei der Aufnahme nicht vertikal parallel ausgerichtet sind kann <strong>die</strong>ser<br />
Algorithmus keine Lösung liefern da bei <strong>die</strong>sen Aufnahmen der Höhenfehler abhängig von der<br />
Entfernung des Objektpunktes ist.<br />
2.3.6.2 Randlichtabfall<br />
Weiterhin sollten Fehler bei der Projektion behoben werden. Beispielsweise entsteht bei jeder Pro-<br />
jektion ein heller Fleck, der durch den natürlichen Randlichtabfall bedingt ist. Dies bedeutet, dass<br />
um <strong>die</strong> Achse, <strong>die</strong> zwischen Betrachter und Projektor entsteht, ein helleres Bild projiziert wird.<br />
Das sogenannte „Cos 4 -Gesetz“, siehe [DAK06], beschreibt <strong>die</strong>sen Effekt, der in Abbildung 2.11<br />
gezeigt ist. Die Eliminierung <strong>eines</strong> solchen Randlichtabfalls erfolgt über eine transparente Maske,<br />
welche den helleren Bereich so abdunkelt, dass das komplette Bild eine gleichmäßige Helligkeit<br />
hat. Die einfachste Methode solch eine Maske zu generieren, besteht in der Aufnahme einer Pro-<br />
jektion <strong>eines</strong> weißen Bildes mit einer analogen Kamera. Das Negativ <strong>die</strong>ses Fotos wird nach der<br />
<strong>Entwicklung</strong> vor eine Projektor-Bildebene gebracht und eliminiert somit den Randlichteffekt. Bei<br />
Nutzung <strong>eines</strong> Computers kann <strong>die</strong>se Maske als Alphamaske über das zu projizierende Bild ge-<br />
legt werden. Allerdings tritt der Effekt, wie erwähnt, relativ zum Betrachter auf, weswegen eine<br />
optimale Transformation nur durch Tracking des Betrachters möglich ist.<br />
2.3.6.3 Verzeichnung<br />
Bei Verzeichnung handelt es sich um Abbildungsfehler optischer Systeme welche durch <strong>die</strong> un-<br />
terschiedliche Dicke der Linsen zustande kommt. Da konvexe Linsen zum Rand hin dünner sind<br />
als in der Mitte (und konkave Linsen zum Rand hin dicker als in der Mitte) kommt es zu Brenn-<br />
weitenunterschieden. Diese bewirken eine kissenförmige (oder tonnenförmige) Verzeichnung.<br />
Zur Berichtigung <strong>die</strong>ser Verzerrungen wird ein kalibriertes Muster benötigt, welches nach der Ab-<br />
lichtung mit dem aufgenommenen Bild verglichen wird. Bei der Elimination von Verzeichnungen<br />
von Projektoren kann <strong>die</strong>se Methode ebenfalls verwendet werden. So kann eine Transformation
2.3. WIEDERGABE STEREOSKOPISCHER BILDINHALTE 38<br />
a) b) c)<br />
Abbildung 2.11: Randlichtabfall bei Nutzung von Projektoren. a) Mittige Projektion b) Schrägprojektion<br />
c) Schrägprojektion auf spezielle Leinwand<br />
aufgestellt werden, <strong>die</strong> eine Kamera „kalibriert“. Hier wird ein bekanntes Muster projiziert und<br />
von einer bereits kalibrierten Kamera wieder aufgenommen.<br />
2.3.6.4 Aberration<br />
Aberration beschreibt den Effekt, dass Lichtstrahlen sich hinter einer Linse nicht in einem Punkt<br />
treffen. Dabei unterscheidet man zwischen chromatischer Aberration und sphärischer Aberration.<br />
Die chromatische Aberration (auch Farbsaum) ist ein Abbildungsfehler optischer Linsen welcher<br />
von der Wellenlänge des Lichtes abhängt. Licht verschiedener Wellenlängen wird, durch unter-<br />
schiedliche Brechung in einer Linse, in verschiedenen Punkten fokussiert.<br />
Eine Korrektur <strong>die</strong>ses Effektes ist nur während der Aufnahme möglich indem Linsen verschiede-<br />
ner Glassorten verwendet werden und so, durch <strong>die</strong> unterschiedlichen Brechzahlen der Linsen, <strong>die</strong><br />
Farbanteile zusammenfallen.<br />
Bei der sphärischen Aberration tritt der Effekt auf, dass bei Linsenoberflächen, welche eine Ku-<br />
gelfläche beschreiben, <strong>die</strong> Bündelung parallel eintreffender Strahlen in einem Brennpunkt nur <strong>für</strong><br />
achsennahe Lichtstrahlen gegeben ist. Dadurch wird das scharfe „Kernbild“ von einem unscharfen<br />
Bild überlagert. Dieser Effekt kann ebenfalls nur bei der Aufnahme durch Wählen einer „größe-<br />
ren“ Blende oder dem Einsatz von asphärischen Linsen mit parabelförmigem Querschnitt behoben<br />
werden.<br />
2.3.6.5 Krümmung der Tiefenebene<br />
Bei konvergenter Aufnahme von <strong>Stereo</strong>videos kommt es, wie in Abbildung 2.12 a) dargestellt zu<br />
einer Krümmung der Tiefenebenen. Das Resultat <strong>die</strong>ser Verzerrung führt dazu, dass Objekte am
2.3. WIEDERGABE STEREOSKOPISCHER BILDINHALTE 39<br />
c)<br />
Zi (m)<br />
a) b)<br />
8 9<br />
Zo (m)<br />
Abbildung 2.12: Schematische Darstellung einer a) konvergenten Aufnahme, b) parallelen Aufnahme<br />
und des c) nicht linearen Tiefeneindruck. Nach [Koc93]<br />
Rand der Szene weiter entfernt als Objekte in der Mitte dargestellt werden. Bei Bewegungen der<br />
Kamera kann <strong>die</strong>ser Effekt sehr unangenehm wirken. Im Vergleich dazu ist in Abbildung 2.12 b)<br />
eine parallel aufgenommene Szene schematisch dargestellt, bei welcher <strong>die</strong> Tiefenebenen parallel<br />
zur Projektionsebene abgelichtet werden.<br />
2.3.6.6 Nicht linearer Tiefeneindruck<br />
In Abbildung 2.12 c) ist der Zusammenhang zwischen Objektabstand und Bildabstand <strong>für</strong> <strong>die</strong> in<br />
Abbildung 2.12 a) und b) dargestellten Situationen gezeigt. Dabei ist <strong>die</strong> Konvergenzebene bzw.<br />
Konvergenzlinie bei einem Meter aufgetragen. Bei dem Vergleich der schematischen Darstellun-<br />
gen 2.12 a), b) und c) ist zu erkennen, dass der Tiefeneindruck vor dem Konvergenzpunkt gedehnt<br />
und hinter <strong>die</strong>sem, bis ins unendliche, gestaucht wird. Daraus resultiert ein Fehleindruck in der<br />
räumlichen Tiefe und der Geschwindigkeitswahrnehmung.
3 Existierende Aufnahmesysteme<br />
Im Bereich der <strong>Stereo</strong>videokameras existieren verschiedene kommerzielle Produkte, <strong>die</strong> in <strong>die</strong>sem<br />
Kapitel vorgestellt werden. Dabei wird auf existierende Kamerahardware und Software eingegan-<br />
gen.<br />
3.1 Kameras<br />
Die existierenden Kameras zur Aufnahme von stereoskopischen Videos sind, wie in Kapitel 2.2.3.3<br />
beschrieben, in zwei Gruppen einzuteilen:<br />
• <strong>Stereo</strong>videokameras, welche zwei Objektive in einem Kamerakörper besitzen und<br />
• Kamerasysteme, welche aus zwei oder mehreren Einzelkameras bestehen, <strong>die</strong> zusammen<br />
als <strong>Stereo</strong>aufnahmesystem arbeiten und als binokulare Kameras bezeichnet werden.<br />
3.1.1 <strong>Stereo</strong>videokamera<br />
Wie in Kapitel 2.2.3.3 beschrieben, handelt es sich bei einer <strong>Stereo</strong>videokamera um eine Kamera<br />
mit 2 Objektiven. Einige Produkte <strong>die</strong>ser Kategorie werden im Folgen genannt und erklärt.<br />
3.1.1.1 21st Century 3DVX3<br />
„21st Century 3D“ entwickelte 2004 eine Kamera namens „3DVX3“. Diese verfügt über zwei 100<br />
Gigabyte Festplatten, auf welchen circa eine Stunde unkomprimierte Videodaten aufgezeichnet<br />
werden können.<br />
Diese werden mit 10 Bit pro Farbkanal, 24 Vollbildern pro Sekunde und einer maximalen Auf-<br />
lösung von 1280 × 720 Pixeln pro <strong>Stereo</strong>teilbild gespeichert. Die interne Aufnahme erfolgt mit<br />
jeweils 3 CCD 1 Chips, <strong>die</strong> ihre Daten an zwei interne MacOS X 2,8 Ghz Prozessoren weitergeben.<br />
Diese Prozessoren besitzen zwei Gigabyte Arbeitsspeicher und zur Zwischenpufferung der Daten<br />
acht Gigabyte Flashspeicher [CD07].<br />
Zum Einsatz am Lehrstuhl Computergrafik und Visualisierung ist <strong>die</strong>se Kamera ungeeignet, da<br />
<strong>die</strong> maximale Auflösung der Kamera trotz des hohen technischen Aufwands geringer ist als <strong>die</strong><br />
1 Ein „Charge-coupled Device“ (ladungsgekoppeltes Bauteil) ist ein elektronisches Bauteil, welches wie ein Schieberegister<br />
arbeitet. Das einfallende Licht überträgt durch einen inneren photoelektrischen Effekt seine Energie auf <strong>die</strong><br />
Elektronen <strong>eines</strong> Halbleiters wodurch es möglich wird ein digitales Bild abzugreifen.<br />
40
3.1. KAMERAS 41<br />
Abbildung 3.1: 21st Century 3DVX3 Kamera [CD07]<br />
in der Aufgabenstellung geforderte High Definition Video Auflösung von 1440 × 1050 Pixel. Im<br />
Weiteren ist es, wie bei allen <strong>Stereo</strong>videokameras <strong>die</strong>ser Katergorie, nicht möglich <strong>die</strong> <strong>Stereo</strong>basis<br />
zu verändern.<br />
3.1.1.2 Pace Fusion 3d<br />
Das „Pace Fusion 3D“ wird zur Zeit genutzt, um Sportereignisse, wie zum Beispiel <strong>die</strong> „Natio-<br />
nal Basketball League“ in den USA, in „3D High Definition“ aufzunehmen. Die Fähigkeit, den<br />
Konvergenzwinkel der Objektive zu verändern, bezeichnet Pace als „Dynamic Convergence R○ “.<br />
Dabei sind geringe Konvergenzwinkel von 0 ◦ bis 5 ◦ durch manuelles Justieren möglich. Eine Ver-<br />
stellung der <strong>Stereo</strong>basis ist bei <strong>die</strong>ser Kamera nicht möglich [Pac07].<br />
3.1.1.3 TMP S3R 1080i 3D<br />
Die von der „TMP Media Group“ angebotene Schulterkamera „S3R 1080i 3D“ unterstützt das<br />
High Definition Video Format in der 1080i Spezifikation. Dies bedeutet, dass <strong>die</strong> Kamera mit ei-<br />
ner Auflösung von 1440 × 1080 Pixel und 50 Bildern pro Minute Interlaced Bilddaten speichern<br />
kann.<br />
Die <strong>Stereo</strong>basis sowie der Konvergenzwinkel können nicht variabel eingestellt werden.<br />
Eine weitere Betrachtung der Eignung im Sinne der Aufgabenstellung erübrigt sich, da der ange-<br />
gebene Preis der Kamera mit 70.000 Euro nicht als preisgünstig im Rahmen der Aufgabenstellung<br />
bezeichnet werden kann [Med07]. Die Preise der anderen genannten <strong>Stereo</strong>videokameras konnten<br />
nicht ermittelt werden. Da <strong>die</strong>se Geräte allerdings nur in Verbindung mit Personal gemietet wer-<br />
den können liegt <strong>die</strong> Annahme nicht fern, dass der angegebene Preis von 70.000 Euro <strong>die</strong> untere<br />
Grenze der Preislage bildet. 2<br />
2 Annahme des Autors
3.1. KAMERAS 42<br />
Abbildung 3.2: <strong>Stereo</strong>kamera basierend auf zwei Mini-DV Camcordern [DFS07]<br />
3.1.2 Binokulare Kameras<br />
Bei der Verwendung von zwei separaten Kameras in einem <strong>Stereo</strong>videosystem spricht man von<br />
einem binokularen <strong>Stereo</strong>system. Diese Katergorie besteht aus zwei Gruppen, welche sich in der<br />
Bauart der verwendeten Kameras unterscheiden. In der einen Gruppe werden handelsübliche Cam-<br />
corder verwendet und in der anderen sogenannte Industriekameras.<br />
3.1.2.1 Camcorder<br />
Camcorder besitzen den Nachteil, daß bei hoher Auflösung wie z.B. High Definition Video <strong>die</strong><br />
Video- sowie Audiodaten komprimiert werden, um <strong>die</strong>se auf dem Speichermedium unterbringen<br />
zu können. Bei den verwendeten Kompressionsformaten handelt es sich immer um verlustbehaf-<br />
tete Verfahren, welche <strong>die</strong> Bildqualität vermindern. Als weiterer Nachteil von Camcordern wird<br />
<strong>die</strong> Technik zur Synchronisation gesehen, da <strong>die</strong> Genlocktechnologie (siehe Kapitel 4.1.2.1) nur<br />
an hochwertigen somit preisintensiven und in den Abmaßen großen Kameras zu finden ist.<br />
Die existierenden binokularen <strong>Stereo</strong>video Kamerassysteme nutzen daher Sony- Digital Videoka-<br />
meras welche über das in Kapitel 4.1.2.2 beschriebene LANC TM Protokoll verfügen. In Abbildung<br />
3.2 ist eine solche binokulare <strong>Stereo</strong>kamera dargestellt.<br />
Diese Kamera basiert auf zwei über das „LANC“ Protokoll synchronisierte Sony DCR-HC96E<br />
Camcorder. Durch <strong>die</strong> feste Montage <strong>die</strong>ser auf eine Metallplatte ist keine Änderung der <strong>Stereo</strong>ba-<br />
sis oder der Konvergenz möglich. Dieser Aufbau ist aufgrund der Bauweise typisch <strong>für</strong> binokulare<br />
<strong>Stereo</strong>kameras zum Einsatz im Heimbereich, da eine einmalig beim Bau der Kamera ausgeführte<br />
Justierung nur im Rahmen von Materialtoleranzen schwankt. Umso mehr Freiheitsgrade <strong>für</strong> <strong>die</strong><br />
Justierung der Kameras geschaffen werden, desto schwieriger und komplizierter wird der Um-<br />
gang mit <strong>die</strong>ser. Da <strong>für</strong> fast alle Einstellungen bei der Aufnahme stereoskopischer Videos, <strong>die</strong>
3.1. KAMERAS 43<br />
Standardgeometrie, sprich <strong>die</strong> parallele Ausrichtung der Kameras genutzt wird, stellt <strong>die</strong>s keine<br />
schwerwiegende Einschränkung dar.<br />
Für den wissenschaftlichen Einsatz im Rahmen der Aufgabenstellung <strong>die</strong>ser Arbeit und der wei-<br />
teren Verwendung der Kamera sollten jedoch so viele Freiheitsgrade wie möglich an der Kamera<br />
realisiert werden.<br />
3.1.2.2 Industriekameras<br />
Industriekameras haben den Nachteil, dass sie keine Speicherung der Daten in der Kamera ermög-<br />
lichen, sodaß externe Speicherme<strong>die</strong>n verwendet werden müssen. Ebenfalls wird der Ton nicht<br />
direkt von der Kamera aufgenommen. Deswegen ist es notwendig, bei einem mobilen Einsatz ein<br />
Aufnahmegerät <strong>für</strong> <strong>die</strong> Videodaten, sowie ein weiteres <strong>für</strong> <strong>die</strong> Speicherung von Audiodaten mitzu-<br />
führen. Zusätzlich muss eine Stromversorgung <strong>für</strong> <strong>die</strong>se Geräte und <strong>die</strong> Kameras vorhanden sein.<br />
Ein weiterer Nachteil liegt in den Objektiven von Industriekameras, <strong>die</strong> meist manuell be<strong>die</strong>nt<br />
werden müssen, um <strong>die</strong> Brennweite und <strong>die</strong> Fokussierung einzustellen. Somit müssen hier weitere<br />
Aufwendungen zur Synchronisierung <strong>die</strong>ser Werte getroffen werden.<br />
Als Vorteil der Industriekameras ist zu sehen, dass eine Synchronisierung der Aufnahme durch<br />
einfaches Verbinden der Kameras oder durch Anlegen <strong>eines</strong> Synchronisationssignales erledigt ist.<br />
Weiterhin sind Industriekameras in ihren Abmaßen, im Vergleich zu Camcordern, verhältnismäßig<br />
klein, was geringe <strong>Stereo</strong>basen ermöglicht.<br />
Abbildung 3.3: <strong>Stereo</strong>kamera basierend auf zwei Industriekameras [Rub07]<br />
Durch <strong>die</strong> Nachteile bei der Speicherung der Daten und <strong>die</strong> dadurch entstehenden Probleme im<br />
mobilen Einsatz wird hier nicht weiter auf Industriekameras eingegangen.
3.2. EXISTIERENDE SOFTWARE 44<br />
3.1.3 Strahlenteiler<br />
Der Einsatz von Strahlenteilern, welche in Kapitel 2.2.3.2 beschrieben werden, wird im Video-<br />
bereich durch den Verlust der halben Auflösung bei der Verwendung einer Kamera nicht genutzt.<br />
Eine effektivere Variante bildet ein Vorsatz <strong>für</strong> ein Objektiv, welcher <strong>die</strong> Aufnahme von linker<br />
und rechter Ansicht <strong>eines</strong> <strong>Stereo</strong>bildpaares nacheinander ermöglicht. Dabei rotiert ein Spiegel vor<br />
dem Objektiv, der das Lichtstahlenbündel jedes zweiten Bildes über einen zweiten Spiegel lenkt.<br />
Die <strong>Stereo</strong>basis stellt dabei der Abstand der beiden Spiegel dar. In Abbildung 3.4 ist ein solcher<br />
Adapter der Firma „NuView“ dargestellt.<br />
Abbildung 3.4: NuView Adapter zur zeitsequentiellen Aufnahme von <strong>Stereo</strong>bildpaaren [IDS07]<br />
Der Nachteil <strong>die</strong>ser Methode ist durch <strong>die</strong> halbierte Bildrate begründet. Halbierung der Bildrate<br />
bei Aufnahme im Interlaced 3 Modus bedeutet weitergehend, daß <strong>die</strong> Auflösung in vertikaler Rich-<br />
tung halbiert wird. Bei Aufnahme im progressiven 4 Modus kann solch ein Adapter nicht genutzt<br />
werden, da <strong>die</strong> Bildwiederholrate zu gering ist. Das Aufzeichnen von Einzelbildern ist mit <strong>die</strong>sem<br />
Gerät nicht möglich. Die <strong>Stereo</strong>basis kann nicht verändert werden, jedoch kann <strong>die</strong> Konvergenz<br />
der optischen Achsen durch Verschieben des Spiegels eingestellt werden.<br />
3.2 Existierende Software<br />
Aus dem Bereich der Software zur Ver- und Bearbeitung von stereoskopischen Videos werden im<br />
Folgenden einige Programme vorgestellt und deren Funktionen beschrieben.<br />
3.2.1 Aufnahme & Enko<strong>die</strong>rung<br />
Da <strong>die</strong> Aufnahme von stereoskopischen Videos auf verschiedene Arten erfolgen kann (siehe Ka-<br />
pitel 2.2) sind zur Umko<strong>die</strong>rung in <strong>die</strong> jeweiligen Betrachtungsformate (siehe Kapitel 2.3.5) ver-<br />
schiedene Anwendungen verfügbar. Gerade im Bereich der <strong>Stereo</strong>fotografie existiert eine Vielzahl<br />
3 Bei Aufnahme im Interlaced Modus wird jede zweite Zeile des Bildes mit doppelter Bildfrequenz aufgezeichnet.<br />
4 Bei progressiver Aufnahme werden Vollbilder aufgenommen.
3.2. EXISTIERENDE SOFTWARE 45<br />
von Softwareprodukten zur Erstellung von Anaglyphenbildern. Im Videobereich begrenzt sich <strong>die</strong><br />
Produktvielfalt Menge auf vier Anwendungen. Diese sind der „<strong>Stereo</strong>scopic Multiplexer“ von<br />
der Firma „WimmerSoft“ [Wim07], „<strong>Stereo</strong> Movie Maker“ [Sut07], „3DCombine“ [inc07a] und<br />
„More3D SoftwareSuite“ [Gmb07]. Diese werden im Weiteren genauer beschrieben.<br />
3.2.1.1 3DCombine<br />
3DCombine wird als eine „Shareware“ 5 vertrieben, welche das .AVI-Format lesen und <strong>Stereo</strong>vi-<br />
deos im Anaglyph, Side-by-Side (Nebeneinander) und Übereinander Format erzeugen kann. Eine<br />
spezielle Funktion <strong>die</strong>ser Software ist <strong>die</strong> Erstellung von Tiefenkarten [inc07a].<br />
Die Software ist allerdings nicht ausreichend robust, da es des öfteren zu Fehlern und Program-<br />
mabstürzen kommt. Dies liegt an der Inkompatibilität mit verschiedenen Videocodecs und Bild-<br />
formaten.<br />
3.2.1.2 <strong>Stereo</strong>scopic Multiplexer<br />
Bei dem „<strong>Stereo</strong>scopic Multiplexer“ Version 0.5.2 der Firma „WimmerSoft“ handelt es sich um<br />
einen lizenzpflichtigen Treiber 6 zur Aufnahme stereoskopischer Videos. Dieser nimmt von ver-<br />
schiedenen Eingabequellen (Digital Video, Firewire, USB Kameras oder Videodateien) Daten<br />
entgegen und gibt sie im Side-by-Side (Nebeneinander) Format weiter. Die Software arbeitet sehr<br />
robust und hat bei Tests keine Fehler gezeigt.<br />
3.2.1.3 <strong>Stereo</strong> Movie Maker<br />
Bei dem „<strong>Stereo</strong> Movie Maker“ Version 0.93 handelt es sich um eine Freeware 7 , welche separa-<br />
te oder <strong>Stereo</strong>videos öffnen und anschließend umko<strong>die</strong>ren kann. Dabei wird <strong>die</strong> Erstellung von<br />
Anaglyph-, Side-by-Side-, Übereinander- sowie Interlaced Formaten unterstützt. Der Anschluss<br />
zweier Kameras wird nicht unterstützt.<br />
3.2.2 Wiedergabe<br />
Bei der Wiedergabe stereoskopischer Videos können je nach <strong>Stereo</strong>videoformat verschiedene An-<br />
wendungen genutzt werden. So kann ein im Anaglyphenformat abgespeichertes Video ohne spe-<br />
zielle Software abgespielt werden. Die Wiedergabe von Videos im Side-by-Side Format auf zwei<br />
übereinander justierten Beamern bedingt bei Verwendung von Grafikkarten, welche das Erweitern<br />
des Desktops und des dazugehörigen Overlayspeichers 8 erlauben, keiner weiteren Vorverarbei-<br />
tung.<br />
5 Shareware eine Vertriebsform von Software, bei der <strong>die</strong> jeweilige Software vor dem Kauf getestet werden kann.<br />
6 Bei einem Treiber handelt es sich um eine Software zum Zugriff auf Hardwarekomponenten.<br />
7 Freeware bezeichnet Software welche <strong>für</strong> Privatanwendungen kostenlos zu nutzen ist.<br />
8 Overlayspeicher wird der Teil des Physikalischen Speichers <strong>eines</strong> Computers genannt in welchem Bildinformation (<br />
meist in dem Bildwiederholspeicher der Grafikkarte) geschrieben werden um <strong>die</strong>se direkt auf ein Projektionsgerät<br />
auszugeben.
3.2. EXISTIERENDE SOFTWARE 46<br />
Da nicht vorhergesehen werden kann, in welchem Format der Endverbraucher <strong>Stereo</strong>videos ab-<br />
spielt, werden <strong>die</strong>se Videos meist im Side-by-Side oder Übereinanderformat gespeichert, da in<br />
<strong>die</strong>sen Formaten keine Qualitätseinbußen entstehen. Aus <strong>die</strong>sem Grund ist es bei der Wiederga-<br />
be von <strong>Stereo</strong>videos erforderlich eine Konvertierung in <strong>die</strong> in Kapitel 2.3.5 dargestellten Formate<br />
durchzuführen. Einige, zu <strong>die</strong>sem Zweck nutzbare Software, wird im Folgenden erläutert.<br />
3.2.2.1 <strong>Stereo</strong> Movie Player<br />
Der „<strong>Stereo</strong> Movie Player, Version 0.27“, [Sut07] wird von dem gleichen Autor als Freeware<br />
zur Verfügung gestellt, der den „<strong>Stereo</strong> Movie Maker“ entwickelt hat. Dieser Player unterstützt<br />
als Eingabevideoformate das Side-by-Side, Übereinander und Interlaced Format. Die Ausgabe<br />
ist hierbei als Anaglyphen, Parallelblick, Kreuzblick, Interlaced (vertikal) <strong>für</strong> 3D Monitore und<br />
Zeitsequentiell <strong>für</strong> Shutterbrillen möglich.<br />
Beim Test <strong>die</strong>ses Players erzeugte <strong>die</strong> Software einige Fehler. So wurden beispielsweise zwei<br />
Monitore nicht erkannt und verschiedene Videoformate konnten nicht abgespielt werden.<br />
3.2.2.2 <strong>Stereo</strong>scopic Player<br />
Bei der lizenzpflichtigen Software „<strong>Stereo</strong>scopic Player“ Version 1.1 [Wim07], welche von Peter<br />
Wimmer [Wim04] in Rahmen einer Diplomarbeit erstellt wurde, handelt es sich um einen robusten<br />
Player, der alle z.Zt. existierenden Darstellungsformen von <strong>Stereo</strong>video unterstützt. So werden<br />
Eingabeformate im Side-by-Side, Übereinander, Interlaced Format und in separaten Videodateien<br />
bei der Wiedergabe in Anaglyphen, Zweibildschirmausgabe, vertikal oder horizontal Interlaced<br />
oder <strong>für</strong> den NVIDIA R○ <strong>Stereo</strong>treiber transformiert.<br />
3.2.2.3 More3D SoftwareSuite<br />
Bei der komerziellen Software „More3d SoftwareSuite“ handelt es sich um eine Lizenzpflichtige<br />
Software, welche es ermöglicht bei OpenGL und DirectX basierter Software direkt <strong>Stereo</strong>ansich-<br />
ten zu gernerieren und <strong>die</strong>se anzuzeigen. Diese SoftwareSuite enthält „moreVideo“, eine Software<br />
zur Wiedergabe von <strong>Stereo</strong>videos. Laut Webseite [Gmb07] handelt es sich dabei um ein univer-<br />
selles Programm zur Wiedergabe von 3D-Filmen unterschiedlichster Formate. Unterstützt werden<br />
das Side-by-Side, Übereinander, Interlaced-Format und in separaten Videodateien abgespeicherte<br />
Ansichten.<br />
3.2.3 Weiterverarbeitung<br />
Für das Gebiet der Verarbeitung von stereoskopischen Videos existieren aktuell, außer kleineren<br />
Softwareprojekten von Universitäten und herkömmlicher Software <strong>für</strong> <strong>die</strong> Videobearbeitung, kei-<br />
ne Anwendungen. Der Nachteil der herkömmlichen Videobearbeitungssoftware ist, dass <strong>die</strong> in der
3.2. EXISTIERENDE SOFTWARE 47<br />
<strong>Stereo</strong>skopie notwendigen Bearbeitungsoperationen, wie beispielsweise das Ändern der Deviati-<br />
on im Bild oder das Hinzufügen <strong>eines</strong> Titels, nicht unterstützt werden und nur sehr umständlich<br />
durchgeführt werden können.<br />
Ideal wäre hier <strong>die</strong> <strong>Entwicklung</strong> einer Videobearbeitungsanwendung, <strong>die</strong> ein direktes Manipu-<br />
lieren von <strong>Stereo</strong>videos erlaubt und <strong>die</strong> in Kapitel 5.3 genannten Richtlinien zur Editierung von<br />
<strong>Stereo</strong>videos einhält.
4 Aufnahmesystem<br />
Aufgabe im Rahmen <strong>die</strong>ser Arbeit ist <strong>die</strong> kostengünstige <strong>Entwicklung</strong> einer <strong>Stereo</strong>videokamera.<br />
Die dazu durchgeführten Aufwendungen werden in <strong>die</strong>sem Kapitel erläutert. Es wird beschrieben,<br />
welche Kriterien der Auswahl der Kameras vorangegangen sind. Diese werden gegeneinander und<br />
gegenüber der Aufgabenstellung verifiziert und verglichen.<br />
4.1 Kriterien zur Kameraauswahl<br />
Für <strong>die</strong> Auswahl der Kameras wurden aufgrund der Aufgabenstellung und den technischen Mög-<br />
lichkeiten der Wiedergabe auf der <strong>Stereo</strong>projektionswand des Lehrstuhls CGV folgende Kriterien<br />
festgesetzt:<br />
• digitale Speicherung der Bilddaten,<br />
• Eine Auflösung von 1400 Pixel × 1050 Pixel (SXGA+ 1 ),<br />
• Möglichkeit der Synchronisierung beider Kameras,<br />
• Anschlussmöglichkeit <strong>für</strong> Sensoren,<br />
• preisgünstige, aber leistungsfähige Kameras,<br />
• möglichst kleine Abmaße der Kameras.<br />
4.1.1 Digitale Formate<br />
Die Speicherung der Daten wird bei aktuellen Kameras fast ausschließlich digital angeboten, wo-<br />
bei Unterschiede bei den verwendeten Aufnahmeme<strong>die</strong>n, sowie der Komprimierung der Daten be-<br />
stehen. Es kommen zur Zeit Digital Betacam, DV-Kassetten, Flashdrives, Festplatten oder DVD’s<br />
zum Einsatz, wobei das am meisten genutzte Komprimierungsverfahren MPEG2 ist. Eine Auf-<br />
listung der von den verschiedenen Datenträgern genutzten Komprimierung ist in Tabelle 4.1 er-<br />
sichtlich.<br />
Die Auflösung von 1400 × 1050 Pixel entspricht der Auflösung der zur Wiedergabe eingesetzten<br />
Beamer. Diese Rasterung ist ähnlich den im Folgenden beschriebenen „High Definition“-Formaten<br />
(HD-Formaten).<br />
1 Super Extended Graphics Array Plus<br />
48
4.1. KRITERIEN ZUR KAMERAAUSWAHL 49<br />
Format Datenträger Kompression Datenrate Kompressionsrate<br />
HDV DV-Kassetten MPEG2 25 Mbps MP@H-14<br />
DVD bei 1080i Sampling:<br />
Flashdrives 19 Mbps 4:2:0<br />
Festplatten bei 720p<br />
Digital DV mittels <strong>eines</strong> 3,125 MByte/sec 5:1<br />
Video Mini-DV JPEG-ähnlichen (25 Mbit/se)<br />
DVCAM Verfahren einzeln<br />
Digital8 co<strong>die</strong>rte Bilder<br />
AVCHD Festplatte MPEG-4 25 Mbps<br />
DVD, Blue-ray AVC/H.264<br />
Flash-Speicher<br />
Betacam SX Metall- MPEG-2 44 Mbps 10:1<br />
partikel- Sampling:4:2:2<br />
band 8-Bit-Auflösung<br />
Profile@MainLevel<br />
(4:2:2P@ML)<br />
DVCAM DV MPEG2 24 MBit/s 5:1<br />
(bzw. mini-DV)<br />
Digital Video Magnetbänder MPEG-2 28,2 Mbit/s<br />
Home System<br />
HDCAM HDCAM-Band YCbCr311, 440 Mbit/s 8-Bit-3:1:1<br />
HDCAM-SR Band YCbCr 422<br />
Festplatte RGB444->MPEG4.<br />
Tabelle 4.1: HDV taugliche Aufnahmeme<strong>die</strong>n und deren Formate.<br />
• „High Definition Video“, kurz HDV stellt eine <strong>Entwicklung</strong> von Sony und JVC dar. Es han-<br />
delt sich um ein Videoformat <strong>für</strong> gehobene Ansprüche im Amateurbereich, da <strong>die</strong> Nachbear-<br />
beitung und Speicherung der Datenraten von ca. 19Mbps <strong>für</strong> Standard-PCs noch realisierbar<br />
sind. Die Aufzeichnung erfolgt in einem der zwei möglichen Formate:<br />
1. HDV 720p: 1280 × 720 Pixel mit den Frameraten 25p 2 , 30p, 50p oder 60p sowie<br />
optional 24p<br />
2. HDV 1080i: 1440 × 1080 Pixel mit den Frameraten 50i 3 und 60i sowie optional 24p,<br />
25p oder 30p.<br />
• „Digital Video“ (DV) ist der Oberbegriff <strong>für</strong> den DV-Standard, der 1994 eingeführt wurde.<br />
Seit der Markteinführung 1996 entwickelte sich DV durch einen großen Markt an Endge-<br />
räten rasant, wobei sich ein sehr gutes Preis-Leistungs-Verhältnis gebildet hat. Vor allem<br />
Mini-DV etablierte sich <strong>für</strong> den Heim- und semiprofessionellen Bereich.<br />
• „Advanced Video Codec High Definition“ (AVCHD) stellt ein digitales Aufzeichnungsfor-<br />
mat <strong>für</strong> Camcorder dar. Dieser Standard wurde gemeinsam von Panasonic und SONY am<br />
11. Mai 2006 vorgestellt und wird bereits von vielen Produkten eingesetzt. Zur Kompression<br />
der Videosignale wird der hocheffiziente MPEG-4 AVC/H.264 Standard zur Videokompres-<br />
sion verwendet.<br />
• „Betacam SX“ ist ein professionelles digitales Videoformat, das mit einer Datenreduktion<br />
2 p steht <strong>für</strong> Progressiv und bezeichnet eine Speicherung von Vollbildern<br />
3 i steht <strong>für</strong> Interlaced und bezeichnet eine Speicherung von Halbbildern
4.1. KRITERIEN ZUR KAMERAAUSWAHL 50<br />
im Faktor 10:1 nach MPEG-2 <strong>die</strong> abgetasteten Komponentensignale komprimiert. Das For-<br />
mat ist eine Weiterentwicklung von Betacam SP, dem heutzutage meistgenutzten analogen,<br />
professionellen 1/2 Zoll MAZ 4 -Format.<br />
• „DVCAM“ ist eine von Sony hergestellte professionelle Variante von DV (Digital Video).<br />
Die veränderten Merkmale, gegenüber dem im Amateurbereich eingesetzten Digital Video,<br />
sind <strong>die</strong> Spurbreite von 10 µm auf 15 µm und eine nahezu doppelte Bandgeschwindigkeit<br />
(2,8 cm/s gegenüber DV mit 1,9 cm/s), woraus eine verkürzte Kassettenlaufzeit resultiert<br />
aber auch eine geringere Fehlerquote auf den Bändern. Daraus ergibt sich, dass <strong>die</strong> gleichen<br />
Informationen auf ca. doppelt so viel Band geschrieben werden können.<br />
• „Digital Video Home System“ (kurz DVHS) ist ein Nachfolger von VHS 5 . Die Aufzeich-<br />
nung erfolgt digital im MPEG-2 Format auf einer DVHS Kassette welche 44,4 Gigabyte<br />
Daten speichern kann. Neben den üblichen Fernsehauflösungen NTSC und PAL beherrscht<br />
DVHS auch <strong>die</strong> Aufzeichnung von HDTV-Filmen. Das Format wurde 1997 von JVC in<br />
Zusammenarbeit mit Hitachi, Matsushita und Philips entwickelt.<br />
• „HDCAM“ wurde 1997 von Sony entwickelt und ist der HD-Nachfolger von Digital Be-<br />
tacam (Betacam SX). Das Format etablierte sich schnell und wird vor allem als Ersatz<br />
<strong>für</strong> 35mm Filme in Serien- und Kinoproduktionen eingesetzt. HDCAM Kameras zeichnen<br />
1920×1080 Pixel bei 24, 25, 30 und 100 Bildern/Sekunde auf.<br />
4.1.2 Synchronisierung der Kameras<br />
Die Synchronisierung der Kameras ist in Hinsicht auf <strong>die</strong> Weiterverarbeitung der digitalen Daten<br />
im Rechner und bei der Wiedergabe <strong>die</strong>ser wichtig, um unötigen Aufwand bei der Nachbearbei-<br />
tung der Bilddaten zu verhindern. Dies bedeutet, dass <strong>die</strong> Daten von Kameras, welche zum Bei-<br />
spiel nicht synchron gestartet wurden, im nachhinein bearbeitet werden müssen, um den exakten<br />
Startzeitpunkt <strong>für</strong> <strong>die</strong> Wiedergabe zu finden. Desweiteren führen Fertigungstoleranzen dazu, dass<br />
<strong>die</strong> kamerainternen Oszillatoren, welche <strong>für</strong> <strong>die</strong> Aufnahmegeschwindigkeit zuständig sind, leicht<br />
divergieren. Dadurch kommt es zu dem Effekt, dass <strong>die</strong> Kameras unterschiedlich viele Bilder in<br />
der gleichen Zeit aufnehmen. Diese Disparität S kann mit der nachstehenden Formel 4.1 berech-<br />
net werden. Hierbei seien: f1 <strong>die</strong> Frequenz der ersten Kamera und f2 <strong>die</strong> Frequenz der zweiten<br />
Kamera, t sei <strong>die</strong> Zeit in der <strong>die</strong> Kameras parallel laufen, und S0 <strong>die</strong> Differenz der Einschaltzeit-<br />
punkte.<br />
S = f1 − f2<br />
t + S0<br />
(4.1)<br />
f1<br />
Unter der Annahme, dass Kamera 1 mit 25,000 Hz und Kamera 2 mit 25,001 Hz läuft und beide<br />
exakt zeitgleich gestartet wurden, beträgt <strong>die</strong> Differenz beider Kameraoszillatoren nach einer Mi-<br />
nute 2,4 ms. Nach 17 Minuten würde demzufolge ein Unterschied von 40,8 ms auftreten, woraus<br />
man schließen kann, daß Kamera 2 ein Bild mehr aufgenommen hätte.<br />
Die Auswirkungen <strong>die</strong>ser Synchronisationsfehler stellen sich in <strong>die</strong>sem Fall so dar, dass bei der<br />
4 MAZ- Magnetische Aufzeichnung<br />
5 VHS- Video Home System
4.1. KRITERIEN ZUR KAMERAAUSWAHL 51<br />
Nachbearbeitung immer auf Synchronität der Datenströme zu achten ist, da sonst gegebenenfalls<br />
Audiospuren nicht mehr synchron zum Video ablaufen und der Tiefeneindruck der <strong>Stereo</strong>projek-<br />
tion verloren geht.<br />
Um <strong>die</strong>s zu vermeiden wird in Studio-Umgebungen das GENLOCK (Generator Locking) System<br />
einsetzt.<br />
4.1.2.1 Genlock<br />
Dieses System ermöglicht es Videosignalquellen durch einen äußeren Takt zu steuern. Ohne <strong>die</strong>se<br />
Synchronisation würde das Umschalten zwischen den Geräten zu einer kurzen Bildunstabilität<br />
führen, wie sie z.B. beim Umschalten <strong>eines</strong> Fernsehsenders auftritt. Der Fernseher benötigt hierbei<br />
eine geringe Zeit um sich auf <strong>die</strong> Frequenz des Videosignals einzustellen.<br />
Die vier Hauptaufgaben, <strong>die</strong> man mit dem Genlock-System erreichen kann sind:<br />
• vertikale Synchronisation,<br />
• horizontale Synchronisation,<br />
• Bildsynchronisation,<br />
• und Farbsynchronisation.<br />
4.1.2.2 LANC TM<br />
Ein weiteres System, welches zwar ursprünglich nicht zur Synchronisation, sondern vornehmlich<br />
zur Fernsteuerung von Kameras gedacht war, ist das LANC TM (auch „control L“ genannt) Pro-<br />
tokoll. Es handelt sich um ein von Sony entwickeltes Protokoll, welches den gleichnamigen An-<br />
schluss an Sony Kameras nutzt und zur kabelgebunden Kommunikation zwischen Fernbe<strong>die</strong>nung<br />
und Kamera konzipiert ist. Einsatz findet es meist in Unterwassergehäusen oder an Helmkameras.<br />
Desweiteren existieren zusätzlich das Sony Infrared Remote Control System (SIRCS/CTRL-S),<br />
das <strong>die</strong> Funktion der Fernbe<strong>die</strong>nung über Infrarot ermöglicht, und das S-LINK/CTRL-A(II) Sy-<br />
stem, das ein zweiadriges bidirektionales Bussystem darstellt, an das mehrere Geräte gleichzeitig<br />
angeschlossen sein können.<br />
Über <strong>die</strong> LANC TM Schnittstelle erhält der Camcorder Steuerbefehle und gibt Zählerstand, Lauf-<br />
werkstatus und andere Daten zurück [Boe07].<br />
Alle Einstellungen der Firmware <strong>eines</strong> Camcorders, können durch Verändern von Informationen,<br />
welche auf 16 Seiten (0-F) im Speicher bestehend aus 256 Adressen (00-FF) mit 8-Bit Daten ab-<br />
gelegt werden, erreicht werden. Im Anhang auf Seite VIII in Tabelle A.1 sind <strong>die</strong> Parameter <strong>die</strong>ses<br />
Protokolls dargestellt.<br />
So kann bei Kameras, <strong>die</strong> <strong>die</strong>se Funktion unterstützen der interne Oszillator der Kamera und damit<br />
<strong>die</strong> Frequenz auf einer bestimmten Seite und Adresse abgefragt und teilweise eingestellt werden.<br />
Außerdem können „normale“ Fern<strong>die</strong>nungsbefehle an <strong>die</strong> Kamera gesendet werden, so beispiels-<br />
weise Signale zum Ein und Ausschalten, Zoom, Aufnahme und zur Veränderung der Fokussierung.
4.1. KRITERIEN ZUR KAMERAAUSWAHL 52<br />
4.1.2.3 Control M<br />
Das „Control M“ Protokoll ist von Panasonic entwickelt worden und arbeitet prinzipiell nach dem<br />
gleichen Prinzip wie das LANC TM Protokoll. Trotzdem sind beide zueinander inkompatibel, da<br />
der Datensatz des „Control M“ Protokolls nicht alle Funktionen der Camcorder Firmware unter-<br />
stützt. Die Kommunikation mit der Kamera, welche bei „Control M“ über einen 5 poligen Stecker<br />
und beim „LANC TM “ über einen 2,5mm Klinkenstecker vollzogen wird, unterscheidet sich bis<br />
auf das Vorhandensein <strong>eines</strong> Anschlusses <strong>für</strong> Steuersignale zwischen der Fernbe<strong>die</strong>nung und der<br />
Kamera, welche bei Panasonic nicht existieren.<br />
4.1.3 Anschlussmöglichkeit <strong>für</strong> Sensoren<br />
Die zu entwickelnde <strong>Stereo</strong>videokamera soll über eine Anschlussmöglichkeit <strong>für</strong> weitere Senso-<br />
ren verfügen. Vorstellbar sind hier Möglichkeiten zur Nutzung von GPS- oder Höhensensoren,<br />
Kompass oder Beschleunigungsmessern.<br />
Da es bei einer mobilen Kamera nicht empfehlenswert ist, einen PC mitzuführen, wäre <strong>die</strong> Mög-<br />
lichkeit, Daten in einen Audiokanal in Videobildern oder in das Kompressionsformat zu schreiben,<br />
neben der externen Speicherung direkt im Sensor, auf einem PDA oder Mobiltelefon, zu erwägen.<br />
Dabei hat <strong>die</strong> Speicherung im Aufnahmevideo den Vorteil, dass <strong>die</strong>ses ohne zusätzliche Bearbei-<br />
tung weitergegeben werden kann. Bei einer externen Speicherung müssen demgegenüber Video<br />
und Sensordaten stets nachträglich zusammengeführt werden. Dabei ergibt sich als weiteres Pro-<br />
blem, dass es sehr aufwendig ist, Video, Audio und Sensordaten zu synchronisieren.<br />
Die verschiedenen Varianten der Speicherung direkt im Aufnahmevideo werden nachfolgend kurz<br />
erläutert.<br />
4.1.3.1 Ko<strong>die</strong>rung der Daten in einen Audiostrom<br />
In Abbildung 4.1 ist eine Möglichkeit ersichtlich, welche über einen sogenannten „Datenschuh“<br />
<strong>die</strong> von einem GPS Sensor gelieferten Informationen und <strong>die</strong> Ausrichtung des Kompasses an einen<br />
digitalen Audiokanal der Kamera übergibt. Diese Daten werden anschließend nach der Übertra-<br />
gung auf einen Computer wieder entschlüsselt und können weiter verwendet werden.<br />
Wenn nach der Aufnahme <strong>die</strong> Audiospur abgespielt wird, erkennt man sehr große Ähnlichkeiten<br />
mit dem Geräusch, welches ein Modem zur Übertragung von Daten erzeugt. Auf <strong>die</strong>se Art und<br />
Weise können verschiedene Arten von Sensoren an den Kameras befestigt werden und ihre Daten<br />
in einen der Audiokanäle ko<strong>die</strong>ren, welche in einem Nachbereitungsverfahren wieder deko<strong>die</strong>rt<br />
werden können.<br />
4.1.3.2 Ko<strong>die</strong>rung der Daten in das Bild<br />
Bei <strong>die</strong>ser Methode werden, wie in Abbildung 4.2 gezeigt, Daten als „Bild im Bild“ dargestellt.<br />
Der Nachteil <strong>die</strong>ser Variante ist, daß <strong>die</strong>se Information ohne Bildverluste nicht wieder entfernt
4.1. KRITERIEN ZUR KAMERAAUSWAHL 53<br />
Abbildung 4.1: VMS-X: Aufnahme der GPS Informationen durch einen „Active Interface<br />
Shoe R○ “ [RHS07]<br />
werden können und Videoinformationen „hinter“ der Schrift verloren gehen. Ebenfalls ist nach-<br />
trägliche Nutzung der Daten sehr kompliziert, da <strong>die</strong>se, wie erwähnt, als Bild im Bild gespeichert<br />
werden. Zur Auswertung <strong>die</strong>ser Daten müsste bei der vollautomatischen Nachbearbeitung eine<br />
Texterkennung erfolgen, welche sehr rechenintensiv ist.<br />
Abbildung 4.2: Model VED-M: Annotieren von Videobildern mit GPS Informationen [PS07]<br />
4.1.3.3 Ko<strong>die</strong>rung der Daten in das Videoformat<br />
Bei der Ko<strong>die</strong>rung in das Videoformat wird ausgenutzt, dass aktuelle Kameras das aufgenommene<br />
HD-Video nach der Aufnahme immer in verschiedene Codecs komprimieren. (vgl. Tabelle 4.1)<br />
Dabei kann beim MPEG-4 Containerformat, Teil 17 (nach ISO/IEC 14496-17 [ISO04]) das „Ti-<br />
med Text subtitle format“ genutzt werden. Dieses erlaubt im Gegensatz zum MPEG-2 oder MPEG-
4.1. KRITERIEN ZUR KAMERAAUSWAHL 54<br />
1 Standard Untertitel als textbasierte Daten im Container zu speichern, anstatt <strong>die</strong>se in einer sepa-<br />
raten bildbasierten Datei abzulegen.<br />
Bei <strong>die</strong>ser Variante muss an dem zwischen der aufnehmenden und der speichernden Instanz lie-<br />
genden Komprimierungsalgorithmus angesetzt werden. Hierin liegt das Hauptproblem <strong>die</strong>ser Va-<br />
riante, dass eine Hardwareimplementierung des Algorithmus in einer Kamera nicht realisierbar<br />
ist.<br />
4.1.3.4 Aufnahme von Raumklang<br />
Für <strong>die</strong> Aufnahme von Raumklang wurde im Rahmen <strong>die</strong>ser Arbeit ein Aufnahmesystem ent-<br />
wickelt, welches über vier Kondensatormikrofone verfügt. Diese sind in einer Styroporschicht mit<br />
Akustikdämmung eingepasst wie in Abbildung 4.3 zu sehen ist. Dazu werden <strong>die</strong> Audiodaten des<br />
linken und rechten Kanals in den <strong>Stereo</strong>-Eingang der linken Kamera und <strong>die</strong> Informationen des<br />
vorderen und hinteren Mikrofons in <strong>die</strong> rechte Kamera eingespielt und im Audiokanal des Video-<br />
containerformates gespeichert. Bei der Übertragung der Daten auf einen PC können <strong>die</strong>se Daten<br />
wieder als Raumklang zusammengeführt werden.<br />
Abbildung 4.3: Vierkanal Surround Mikrofon (Eigenentwicklung)<br />
4.1.4 Abmaße der Kameras<br />
Um mit der <strong>Stereo</strong>videokamera Aufnahmen zu ermöglichen, welche einen kurzen Objektabstand<br />
benötigen, muss es möglich sein, <strong>die</strong> <strong>Stereo</strong>basis klein wählen zu können. Dazu wurden <strong>die</strong> in<br />
Tabelle 4.2 angegebenen Werte <strong>für</strong> Höhe, Breite und Länge gegeneinander verglichen. Wie in Ka-<br />
pitel 2.2.2 erklärt, beträgt <strong>die</strong> „normale“ <strong>Stereo</strong>basis ca. 6cm. Dieser Wert wird von den jeweili-<br />
gen Mittelpunkten der Kameraobjektive bestimmt. Ideal wäre also zwei Kameras deren Objektive<br />
einen kleinen Radius besitzen und <strong>die</strong> es ermöglicht <strong>die</strong> Objektive ohne Abstand nebeneinander<br />
zu montieren. Das heißt im weiteren sollten, sofern austauschbare Datenträger genutzt werden, <strong>die</strong><br />
Wechselme<strong>die</strong>n von jeweils gegenübergesetzten Seiten, oder von oben / unten in den Camcorder<br />
eingelegt werden können.
4.2. GENUTZTE KAMERAS 55<br />
4.2 Genutzte Kameras<br />
Zu den erwähnten Kriterien sollte der Kostenfaktor noch hinzugezogen werden, da <strong>die</strong>ser bei der<br />
Anschaffung von zwei identischen Kameras einen wesentlichen Einfluss besitzt. Es können durch<br />
den Kauf zweier Kameras aus dem Consumer-Bereich Einsparungen getroffen werden, da <strong>die</strong>se<br />
zwar in Fertigung und Funktionen nicht den Ansprüchen von professionellen Kameras entspre-<br />
chen, jedoch der Aufgabenstellung <strong>die</strong>ser Arbeit durchaus gerecht werden.<br />
Professionelle Videokameralösungen wurden durch <strong>die</strong> erwähnten Kriterien fast alle ausgeschlos-<br />
sen, da zum einen der Preisfaktor und zum anderen <strong>die</strong> Abmaße <strong>die</strong>ser Systeme, auch unter den<br />
Vorteilen der höheren Funktionalität, besseren Verarbeitung und höheren Qualität, mit den am An-<br />
fang <strong>die</strong>ses Kapitels getroffenen Kriterien unvereinbar sind. Dies hat zur Auswirkung, dass eine<br />
Synchronisation über das Genlock System nicht realisiert werden konnte, da lediglich <strong>die</strong> profes-<br />
sionellen Kameras über eine solche Schnittstelle verfügen. Aus <strong>die</strong>sem Grund wurden Camcorder<br />
im semi-professionellen Bereich gesucht, wobei lediglich <strong>die</strong> Produkte von Sony über eine Mög-<br />
lichkeit der Synchronisierung über LANC TM verfügen. Die HDV-Kameras von Panasonic verfü-<br />
gen nicht über den in Kapitel 4.1.2.3 beschriebenen 5-Pin Anschluss.<br />
Zur Auswahl standen folgende Sony Camcorder:<br />
– mit Mini-DV/HDV Band Aufnahme: HDR-HC1, HDR-HC3, HDR-HC5, HDR-HC7,<br />
– mit Festplatten Aufnahme: HDR-SR1,<br />
– und mit DVD Aufnahme: HDR-UX1, UX3, UX7.<br />
Beim Vergleich der Camcorder wurden <strong>die</strong> am Anfang (siehe Kapitel 4.1) aufgezeigten Kriterien<br />
gegenüber den Kameras genauer verifiziert und vertieft.<br />
So wurde z.B. <strong>die</strong> Aufnahmedauer in HDV Auflösung als Kriterium hinzugezogen. Wie in Tabel-<br />
le 4.2 zu sehen besitzen nicht alle Kameras einen Mikrofonanschluss. Dieser ist jedoch <strong>für</strong> <strong>die</strong><br />
Aufnahme von Surround Sound durch <strong>die</strong> Nutzung des selbst entwickelten kostengünstigen Mi-<br />
krofons, welches in Kapitel 4.1.3.4 beschrieben ist, notwendig.<br />
Des Weiteren ist das AVCHD Format sehr rechenintensiv. Laut der Be<strong>die</strong>nungsanleitung der Sony<br />
HDR-SR1 ist ein Pentium 4 mit mindestens 2,8 GHz <strong>für</strong> das Betrachten von High Definition<br />
Video im Advanced Video Codec <strong>die</strong> Mindestanforderung. Empfohlen wird ein Pentium 4 mit<br />
mindestens 3,6 Ghz oder ein Intel CoreDuo 1,66 Ghz. Zu beachten ist, dass <strong>die</strong>se Angaben <strong>für</strong><br />
<strong>die</strong> Wiedergabe <strong>eines</strong> Videos gelten und nicht <strong>für</strong> eine Bearbeitung der aufgenommen Daten. Um<br />
<strong>die</strong>se Berechnungen in einer angenehmen Geschwindigkeit durchzuführen ist eine höhere Perfor-<br />
manz des Verarbeitungssystems notwendig.<br />
So kann es nicht als Vorteil angesehen werden, dass Videodaten nicht mehr von dem Camcorder<br />
überspielt werden müssen, wie es bei DV oder Mini-DV der Fall ist, sondern über einen USB2.0<br />
Anschluss kopiert werden können. Der Einsatz von Kameras mit der Möglichkeit auf DVDs auf-<br />
zunehmen empfiehlt sich ebenfalls nicht, da hier <strong>die</strong> begrenzte Aufnahmedauer in High Definition<br />
Video dem Einsatzgebiet der <strong>Stereo</strong>skopie nicht entsprechen. Weiterhin ist es mit den vorgestellten<br />
DVD-Rekordern nicht möglich einen Farbabgleich der Kameras zu realisieren.
4.2. GENUTZTE KAMERAS 56<br />
HDR- HDR- HDR- HDR- HDR- HDR- HDR- HDR-<br />
HC1 HC3 HC5 HC7 SR1 UX1 UX3 UX7<br />
Videoformate MiniDV / MiniDV / MiniDV / MiniDV / AVCHD AVCHD AVCHD AVCHD<br />
HDV HDV HDV HDV<br />
Aufzeichnungs- MiniDV/ MiniDV/ MiniDV/ MiniDV/ eingebaute MiniDVD/ MiniDVD/ MiniDVD/<br />
medium HDV- HDV- HDV- HDV- Festplatte MiniDVD- MiniDVD- MiniDVD-<br />
Band Band Band Band<br />
DL 8cm DL 8cm DL 8cm<br />
Aufnahmedauer Sony Sony Sony Sony 30 GB MiniDVD- MiniDVD- MiniDVDvon<br />
High DVM 63 DVM 63 DVM 63 DVM 63 Festplatte DL, ca.30- DL, ca.30- DL, ca.30-<br />
Quality HDV HDV - HDV - HDV - HDV- - ca. vier Minuten Minuten Minuten<br />
auf Medium ca. 63 ca. 63 ca. 63 ca. 63 Stunden<br />
Minuten Minuten Minuten Minuten<br />
Video- HDV HDV HDV HDV AVCHD AVCHD AVCHD AVCHD<br />
auflösungen 1440×1080 1440×1080 1440×1080 1440×1080 1440×1080 1440×1080 1440×1080 1440×1080<br />
MiniDV MiniDV MiniDV MiniDV MPEG2 SD SD SD<br />
720×576 720×576 720×576 720×576 720×756 720×576 720×576 720×576<br />
Maximale<br />
Bitrate<br />
25 MBit/s 25 MBit/s 25 MBit/s 25 MBit/s 15 MBit/s 12 MBit/s 12 MBit/s 12 MBit/s<br />
Kompressions- DV DV DV DV MPEG2 MPEG4 MPEG4 MPEG4<br />
format MPEG2 MPEG2 MPEG2 MPEG2 MPEG4<br />
Bildstabilisator elektronisch elektronisch elektronisch optisch elektronisch elektronisch elektronisch optisch<br />
effektive Pixel 1.486.000 1.067.000 1.080.000 1.710.000 1.076.000 1.076.000 1.080.000 1.710.000<br />
4:3 Pixel Pixel Pixel Pixel Pixel Pixel Pixel Pixel<br />
effektive Pixel 1.983.000 1.434.000 1.434.000 2.280.000 1.434.000 1.434.000 1.430.000 2.280.000<br />
16:9 Pixel Pixel Pixel Pixel Pixel Pixel Pixel Pixel<br />
Minimale<br />
Shutterzeit 1<br />
10.000 automatisch automatisch automatisch 425 425 800 500<br />
t<br />
Schärfe<br />
regelbar<br />
Ja Ja Ja Ja Nein Nein Nein Nein<br />
Farbe regelbar Ja Ja Ja Ja Nein Nein Nein Nein<br />
HDMI Ausgang Nein Ja Ja Ja Ja Ja Ja Ja<br />
USB USB 1.1 USB 2.0 USB 2.0 USB 2.0 USB 2.0 USB 2.0 USB 2.0 USB 2.0<br />
Mikrofon/<br />
Audio-In<br />
Miniklinke Nein Nein Miniklinke Miniklinke Miniklinke Nein Nein<br />
Kopfhörer Miniklinke Nein Miniklinke Miniklinke Miniklinke Miniklinke Nein Nein<br />
LANCTM Ja Ja Ja Ja Ja Ja Ja Ja<br />
Gewicht (mit<br />
Akku)<br />
780 g 600 g 600 g 550 g 740 g 740 g 740 g 650 g<br />
Höhe 71 mm 82 mm 82 mm 82 mm 78 mm 76 mm 87 mm 82 mm<br />
Breite 94 mm 78 mm 82 mm 82 mm 84 mm 89 mm 72 mm 82 mm<br />
Tiefe 188 mm 139 mm 134 mm 138 mm 165 mm 165 mm 142 mm 138 mm<br />
Manuelle<br />
Blende<br />
Ja Ja Ja Ja Ja Ja Nein Ja<br />
Focus-<br />
Umschalter<br />
Ja Ja Ja Ja Nein Nein Nein Nein<br />
Blende<br />
Feststellen<br />
Ja Nein Nein Nein Nein Nein Nein Nein<br />
Audioformate 2×48kHz 2×48kHz 2×48kHz 2×48kHz AC-3 Dol- AC-3 Dol- AC-3 Dol- AC-3 Dol-<br />
bei HD 16bit 16bit 16bit 16bit by Digital by Digital by Digital by Digital<br />
Aufnahme MPEG 1 MPEG 1 MPEG 1 MPEG 1 5.1 640 5.1 640 5.1 640 5.1 640<br />
kbit max. kbit max. kbit max. kbit max.<br />
Manuelle<br />
Audio<br />
Aussteuerung<br />
Ja Nein Nein Nein Nein Nein Nein Nein<br />
Tabelle 4.2: Vergleich von Sony Camcordern.<br />
Die Wahl fiel auf Kameras mit festplattenbasierter Aufnahme „Sony HDR-SR1“, da „HDR-HC3“<br />
und „HDR-HC5“ keinen analogen Mikrofoneingang bieten. Gegenüber der „HDR-HC1“ über-<br />
zeugt <strong>die</strong>se Kamera durch ein geringeres Gewicht (beim Einsatz von 2 Kameras insgesamt 300<br />
Gramm), eine höhere Anzahl von effektiven Pixeln und ein durch ACVHD komprimiertes Bild,<br />
welches weniger Artefakte als MPEG-2 ko<strong>die</strong>rte Daten aufweist.
4.3. BEFESTIGUNG ZUR AUFNAHME UND JUSTIERUNG VON ZWEI KAMERAS 57<br />
4.3 Befestigung zur Aufnahme und Justierung von zwei<br />
Kameras<br />
An <strong>die</strong> Befestigung der Kameras stellten sich folgende Anforderungen:<br />
• Die Kameras sollten genau justiert werden können<br />
• es soll möglich sein größere <strong>Stereo</strong>basen einzustellen (b0 > 7cm)<br />
• Möglichkeit der Einstellung der Konvergenz der Camcorder<br />
• weistestgehende Maximierung der Portabilität<br />
• Vorhandensein einer Reihe von Befestigungspunkten <strong>für</strong> weitere Sensoren, wie z.B. Mikro-<br />
fon oder GPS-Empfänger<br />
• Anschlussmöglichkeit <strong>für</strong> einen genormten Stativkopf<br />
Im Folgenden wird erläutert welche Lösungen im kommerziellen Bereich existieren und wie sich<br />
<strong>die</strong>se auf <strong>die</strong> Anforderungen bezogen eignen. Es wird eine selbstentwickelte Halterung vorgestellt<br />
und eine eigenentworfene Software zur Justierung und Messung vorgestellt.<br />
4.3.1 Existierende Halterungen<br />
Im Bereich der <strong>Stereo</strong>fotografie existieren eine Reihe von Befestigungssystemen, welche kurz<br />
vorgestellt werden.<br />
• Heavy Duty Slide Bars [Pro07c]<br />
• Fixed - Twin Vertical Mount [Pro07b]<br />
• Adjustable - Twin Vertical Mount [Pro07a]<br />
• ste-fra R○ CAM (Abbildung 4.4) [Blo07]<br />
• Twin Camera Bar [PTJE07]<br />
• 3D Camera Slidebar [GMR07]<br />
• SpaceBar [Sta07]<br />
Die genannten Systeme bieten alle eine Befestigung zweier Kameras nebeneinander, wobei bei<br />
dem „Fixed - Twin Vertical Mount“ und der „3D Camera Slidebar“ <strong>die</strong> Kameras im Hochformat<br />
nebeneinander justiert werden. Die anderen Lösungen ermöglichen horizontale Ausrichtungen.<br />
Die Befestigung wird bei allen Halterungen durch Stativschrauben realisiert. Wie in Abbildung<br />
4.4 zu sehen ist, sind <strong>die</strong> meisten existierenden Halterungen nicht <strong>für</strong> einen <strong>portablen</strong> Einsatz kon-<br />
zipiert.<br />
Deswegen und um eine große Variabilität der Aufnahmesituationen zu begünstigen, wurde eine<br />
Halterung selbst entworfen, wobei Wert auf eine variable <strong>Stereo</strong>basis, <strong>die</strong> Montagemöglichkeit<br />
der Camcorder in vertikaler sowie horizontaler Lage und <strong>die</strong> Portabilität gelegt wurde. Diese Hal-<br />
terung ist in Abbildung 4.8 zu sehen.
4.3. BEFESTIGUNG ZUR AUFNAHME UND JUSTIERUNG VON ZWEI KAMERAS 58<br />
4.3.2 Verwendete Halterung<br />
Abbildung 4.4: ste-fra R○ CAM: Halterung <strong>für</strong> 2 Kameras<br />
Die maximale <strong>Stereo</strong>basis der entwickelten Fassung ist durch <strong>die</strong> Portabilität begrenzt und wurde<br />
mit einem Bereich von 6 cm bis 60 cm so gewählt, dass nach Formel 4.2 Aufnahmen mit guter<br />
Tiefenwirkung bei einer Brennweite von 50 mm zwischen 0,5 und 1000 Meter möglich sind.<br />
b0 = d<br />
f ·<br />
aN<br />
1 − aN<br />
aF<br />
Hierbei stellt b0 <strong>die</strong> <strong>Stereo</strong>basis, d <strong>die</strong> Deviation, f <strong>die</strong> Brennweite, aN den Abstand zum Nah-<br />
punkt und aF den Abstand zum Fernpunkt dar (vgl. [Her07]).<br />
Um <strong>Stereo</strong>basen unter 8,2 cm nutzen zu können, muss <strong>die</strong> linke Kamera um 90 Grad nach rechts<br />
und <strong>die</strong> rechte um -90 Grad nach links gedreht werden, sodaß <strong>die</strong> optischen Achsen genau ent-<br />
gegengesetzt stehen. Anschliessend wird eine prototypische Spiegelkonstruktion zwischen den<br />
Kameras eingesetzt, welche geringere <strong>Stereo</strong>basen ermöglicht. Die geringste <strong>Stereo</strong>basis, bei wel-<br />
cher <strong>Stereo</strong>teilbilder mit einer Auflösung von 1440×1080 Pixeln abgelichtet werden können, liegt<br />
bei minimaler Brennweite von 5,1mm, bei 6cm, begründet durch den Objektivdurchmesser von 3<br />
cm. Diese Justierung ist in Abbildung 4.6 schematisch dargestellt. Ein in <strong>die</strong>ser Konstellation auf-<br />
genommenes <strong>Stereo</strong>bildpaar ist in Abbildung 4.7 dargestellt.<br />
Für <strong>die</strong>se Justierung der Kameras, ist es notwendig <strong>die</strong> Konvergenz sehr genau einstellen zu kön-<br />
nen. Deswegen wurde eine Halterung entworfen, welche einen Spielwinkel von maximal 20 ′ also<br />
0, 33 ◦ (nach [IG07]) aufweist. In Abbildung 4.5 ist <strong>die</strong>ser Halterungsenturf dargestellt.<br />
Diese Halterung würde eine sehr genaue Justierung der <strong>Stereo</strong>videokamera erlauben. Jedoch wie-<br />
gen <strong>die</strong> Winkelgetriebe je ca. 2,77kg was der Portabilität der Kamera entgegenspricht. Im Weiteren<br />
liegt der Preis der abgebildeten Teile der Halterung bei 1536,59 Euro. Aus <strong>die</strong>sen Gründen mus-<br />
ste eine Alternative gefunden werden, welche auf Kosten der Jusitierungsgenauigkeit über zwei<br />
Servomotoren verfügt. Diese Motoren wiegen je 146 Gramm, kosten zusammen 129,90 Euro und<br />
haben eine Winkelgenauigkeit von 0,85 Grad.<br />
Durch <strong>die</strong> elektronische Steuerung <strong>die</strong>ser Motoren ergibt sich wiederum der Vorteil, dass in even-<br />
(4.2)
4.3. BEFESTIGUNG ZUR AUFNAHME UND JUSTIERUNG VON ZWEI KAMERAS 59<br />
Abbildung 4.5: Entwurf einer Kamerahalterung mit Winkelgetrieben.<br />
tuellen Erweiterungen der <strong>Stereo</strong>videokamera <strong>die</strong> Ansteuerung der Servos in Kombination mit<br />
der Fokusierungselektronik der Kameras geschehen kann, wodurch der menschliche Sehvorgang<br />
optimaler nachgebildet werden kann.<br />
b 0<br />
Kamera 1 Spiegel<br />
Kamera 2<br />
Abbildung 4.6: Schematische Darstellung der Justierung um <strong>Stereo</strong>basen unter 8,2 cm zu erreichen.<br />
Die Halterung ist in Abbildung 4.8 gezeigt.<br />
Des Weiteren verfügt <strong>die</strong> Halterung über zwei Griffe, welche einen sehr guten Umgang mit der<br />
<strong>Stereo</strong>kamera ermöglichen sowie einen Gurt, der das Gewicht der Kamera gleichmäßig auf <strong>die</strong><br />
Schultern des Nutzers verteilt. Sensoren sowie <strong>die</strong> Be<strong>die</strong>neinheit sind gut erreichbar auf der Vor-
4.3. BEFESTIGUNG ZUR AUFNAHME UND JUSTIERUNG VON ZWEI KAMERAS 60<br />
Abbildung 4.7: Abbildung <strong>eines</strong> <strong>Stereo</strong>bildpaares mit einer <strong>Stereo</strong>basis von 6 cm.<br />
Abbildung 4.8: Halterung der Einzelkameras an der <strong>Stereo</strong>kamera und Be<strong>die</strong>neinheit<br />
derseite angeordnet. Über der Be<strong>die</strong>neinheit befindet sich eine Wasserwaage, <strong>die</strong> eine genaue ho-<br />
rizontale Ausrichtung der Kamera ermöglicht.<br />
Als Erweiterung <strong>die</strong>ser Halterung wird <strong>die</strong> Benutzung einer sogenannten „Steadycam“, also ei-<br />
nem „tragbaren Schwebe-Kamera-Stabilisier-Systems“, empfohlen. Das Prinzip <strong>die</strong>ses Systems<br />
ist durch ein Gegengewicht, welches dem der Kameras entspricht und einem frei gelagerten Hand-<br />
griff, <strong>die</strong> Kameras „schwebend“ von eventuellem Zittern der kameranutzenden Person zu trennen.
4.3. BEFESTIGUNG ZUR AUFNAHME UND JUSTIERUNG VON ZWEI KAMERAS 61<br />
4.3.3 Justierung der <strong>Stereo</strong>kamera<br />
Es ist darauf zu achten, dass <strong>die</strong> Kameraachsen sich in der gleichen horizontalen Ebene befinden.<br />
Nach [Alb92] ist eine maximale Bildhöhendiffernenz von 1% zulässig. Diese kann durch Formel<br />
4.3 berechnet werden.<br />
αkipp = arctan( hSensor/100<br />
) (4.3)<br />
bKamera<br />
Nach <strong>die</strong>ser Formel ergibt sich <strong>für</strong> eine Sensorhöhe von 5,08mm und einer <strong>Stereo</strong>basis von 68,5mm<br />
ein maximaler Verkippungswinkel von ca. 0, 04 ◦ . Dies bedeutet, dass auf eine exakte horizontale<br />
Ausrichtung der Kamera geachtet werden muss.<br />
In <strong>die</strong>ser Formel ist, bKamera <strong>die</strong> <strong>Stereo</strong>basis, hSensor <strong>die</strong> Höhe des Bildsensors und αkipp der<br />
berechnete maximale Kippwinkel. Ein Kippen der einzelnen Kameras auf der Halterung ist aus<br />
Gründen der Stabilität nicht möglich.<br />
Zur exakt parallelen Justierung der Camcorder wurde eine Software entwickelt, welche auf einem<br />
Monitor oder der <strong>Stereo</strong>projektionswand ein Linienraster erzeugt. Die Ausgabe des Programms ist<br />
in Abbildung 4.9 zu sehen. Als Eingabe wird <strong>die</strong> <strong>Stereo</strong>basis sowie entweder <strong>die</strong> Breite und Höhe<br />
oder <strong>die</strong> Länge der Bildschirmdiagonale in Zoll benötigt.<br />
Mit <strong>die</strong>sen Eingaben wird ein 10 mm Raster erzeugt, sowie zwei Kreuze, <strong>die</strong> im exakten Ab-<br />
stand der <strong>Stereo</strong>basis mittig dargestellt werden. Die <strong>Stereo</strong>kamera wird nun vor <strong>die</strong>sem Rasterbild<br />
aufgestellt und so justiert, dass <strong>die</strong> Mittelpunkte der Kreuze bei jeder Brennweite, jeweils den<br />
Mittelpunkten der von den Kameras erfassten Bilder entsprechen. Ist <strong>die</strong>s der Fall und liegen <strong>die</strong><br />
optischen Achsen in gleicher Höhe verlassen <strong>die</strong> Linien des jeweiligen Kreuzes das Bild in den<br />
„Ecken“ der Kamerasucher.<br />
Zusätzlich wird am linken und rechten Rand der Projektionsfläche ein 5 Pixel Raster erzeugt,<br />
welches dazu verwendet werden kann, um <strong>die</strong> Synchronität der Grafikkartenausgänge und der<br />
Camcorder zu testen. In Abbildung 4.10 ist eine Aufnahme zweier Monitore zu sehen, welche<br />
synchron angesteuert werden.<br />
Um <strong>die</strong>s durchzuführen wird das Programm ausgeführt, wärend <strong>die</strong> Ausgänge der Grafikkarte<br />
„geklont“ werden. Das bedeutet, dass auf beiden Ausgängen ein und dasselbe Bild ausgegeben<br />
wird. Als Ausgabemedium müssen nun zwei Röhrenmonitore oder -fernseher angeschlossen wer-<br />
den, um den technischen Bildaufbau, mittels Zeilensprung der Elektronenröhre, nutzen zu können.<br />
Nun kann das Bild der beiden Monitore mit einer Digitalkamera oder einem Camcorder abfoto-<br />
grafiert werden, wobei <strong>die</strong> Belichtungszeit der Aufnahme mindestens so groß wie das Doppelte<br />
der Frequenz der Monitore sein sollte. Empfohlen wird ein Wert von ca. vierfacher Frequenz. So<br />
sollte beispielsweise bei einem Fernseher mit 50 Hz <strong>die</strong> Belichtungszeit kleiner als 1<br />
200s sein.<br />
Genutzt wird der Effekt der „Balkenbildung“ beim Abfilmen der Röhrengeräte, da <strong>die</strong> Monitore<br />
sich auf <strong>die</strong> Frequenz der Grafikkarte einstellen. Sind <strong>die</strong> Ausgänge <strong>die</strong>ser Grafikkarte synchron,
4.3. BEFESTIGUNG ZUR AUFNAHME UND JUSTIERUNG VON ZWEI KAMERAS 62<br />
Abbildung 4.9: Ausgabe des Justierungsprogrammes<br />
Abbildung 4.10: Anwendung des Tesprogramms um <strong>die</strong> synchronität der Grafikkartenausgänge<br />
zu testen.<br />
befinden sich <strong>die</strong> Grenzen der Balken auf gleicher Höhe im Bild. Falls Asynchronität besteht, sind<br />
<strong>die</strong> Balken auf unterschiedlichen Höhen zu sehen. Durch Zählen der Pixelstreifen kann mit Formel<br />
4.4 näherungsweise bestimmt werden, wie groß <strong>die</strong> Asynchonität ist.
4.4. FERNBEDIENUNG 63<br />
ta ≈<br />
1<br />
f<br />
hm<br />
Hierbei ist ta <strong>die</strong> Zeitdifferenz der Bilder, f <strong>die</strong> Frequenz des Ausgabegerätes, hm <strong>die</strong> Anzahl ver-<br />
tikaler Bildpunkte und hz <strong>die</strong> Differenz der Balken in Pixeln. Allerdings muss beachtet werden,<br />
dass nur geringe Differenzen bestimmt werden können. Für den Fall von ta ≥ 1<br />
f<br />
falsche Ergebnisse. 6<br />
· hz<br />
(4.4)<br />
liefert Formel 4.4<br />
Sollte <strong>die</strong> Grafikkarte eine Differenz im Bildaufbau erzeugen, kann <strong>die</strong>s durch Einstellen des ver-<br />
tikalen Synchronisierungssignals Vsynch) behoben werden. Eventuell sollten Parameter der Auf-<br />
lösung und Bildwiederholrate gesenkt werden.<br />
Zur Messung der Synchronität der Kameras, kann <strong>die</strong>ser Aufbau ebenfalls genutzt werden. Wenn<br />
<strong>die</strong> Belichtungsdauer unter der Dauer <strong>eines</strong> Bildaufbauzykluses liegt ( 2<br />
f ), sind auf dem aufgenommenen<br />
Video schwarze Balken sichtbar. Sind beide Kameras synchonisiert, ist auf beiden<br />
Aufnahmen der Balken auf gleicher Höhe des Monitors sichtbar, ansonsten kann aus dem Hö-<br />
henunterschied der Balken auf <strong>die</strong> zeitlichen Differenz der Aufnahmezeitpunkte rückgerechnet<br />
werden.<br />
4.4 Fernbe<strong>die</strong>nung<br />
Zur synchronen Be<strong>die</strong>nung der Kameras wurde eine Be<strong>die</strong>neinheit benötigt. Die Kriterien, welche<br />
an <strong>die</strong> Funktionalität <strong>die</strong>ser Fernbe<strong>die</strong>nung gestellt werden, sind nachfolgend aufgezählt.<br />
• Möglichkeit des parallelen Einschalten der Camcorder, um <strong>die</strong> internen Oszillatoren mög-<br />
lichst synchron betreiben zu können<br />
• ein halbbildgenaues Auslösen der Aufnahme und Wiedergabe um bei der Nachbearbeitung<br />
keine Kosten zur Behebung von Asynchronität aufwenden zu müssen und um <strong>die</strong> Fotofunk-<br />
tion der Kameras nutzen zu können,<br />
• <strong>die</strong> Be<strong>die</strong>nung von Fokussierung, Blenden und Zoom mittels der Fernsteuerung<br />
• Anzeige der Asynchronität (da es technisch nicht möglich ist, zwei getrennte Geräte 100%<br />
zu synchronisieren, sollten Unterschiede der „timing-signale“ visualisiert werden)<br />
Wie im Kapitel 4.1.2 beschrieben existieren mehrere Ansätze eine solche Fernbe<strong>die</strong>nung zu reali-<br />
sieren.<br />
4.4.1 Existierende Be<strong>die</strong>neinheiten<br />
Wie im Kapitel 4.2 beschrieben wird <strong>die</strong> Synchronisierung der Camcorder über das Sony LANC TM<br />
Protokoll angestrebt.<br />
6 Man kann annehmen, dass ein Versatz von mehr als einem Bild technisch nicht möglich ist, wodurch der Fall ta ≥ 1<br />
f<br />
nicht auftritt.
4.4. FERNBEDIENUNG 64<br />
Abbildung 4.11: LANC Shepherd: Fernbe<strong>die</strong>nung zur Steuerung zweier Kameras über das LANC<br />
Protokoll [Cro07]<br />
Produkte <strong>die</strong> <strong>die</strong>ses System unterstützen sind Folgende:<br />
• stefra R○ LANC [Die07],<br />
• LANC Shepherd [Cro07],<br />
• und 3D LANC Master [Vra06].<br />
Bei allen Lösungen handelt es sich um kabelgebundene Fernbe<strong>die</strong>nungen, <strong>die</strong> sich in ihren Funk-<br />
tionen ähneln. So bieten alle ein zeitgleiches Einschalten der Camcorder, paralleles Auslösen der<br />
Aufnahme und <strong>die</strong> Be<strong>die</strong>nung der Brennweitenveränderung.<br />
Besonderheiten von „stefra R○ LANC“ sind:<br />
• 8 Zoomgeschwindigkeiten mit sanftem Anfahren und Abbremsen<br />
• Autofocus ein/aus - Push Autofokus und Manueller Fokus<br />
• Modus-Wechsel zwischen Camcorder und Fotokamera<br />
• Zeitrafferaufnahme bei Nutzung der Fotofunktion<br />
„LANC Shepherd“ (Abbildung 4.11) hat folgende Funktionen:<br />
• Display zur Anzeige der Timingunterschiede in Millisekunden,<br />
• Einstellen der Belichtungszeit und eine sehr einfache Be<strong>die</strong>nung.<br />
„3D LANC Master“ bietet <strong>die</strong> umfangreichsten Funktionen, <strong>die</strong> alle vorher genannten einschlie-<br />
ßen. Desweiteren kann <strong>die</strong>ses Gerät <strong>die</strong> Synchronität bei älteren Camcordern im Betrieb beein-<br />
flussen. Das bedeutet, dass beim Betrieb bestimmter Sony Kameras mit <strong>die</strong>sem Controller <strong>die</strong><br />
Möglichkeit besteht, <strong>die</strong> internen Oszillatoren zu beeinflussen, wodurch das Problem, dass <strong>die</strong><br />
Oszillatoren nicht synchron arbeiten, umgangen werden kann.
4.4. FERNBEDIENUNG 65<br />
Abbildung 4.12: 3DLANCMaster: selbst entwickelte Fernbe<strong>die</strong>nung nach Anleitung von [Vra06]<br />
4.4.2 Verwendeter Controller<br />
Aus den im vorherigen Kapitel genannten Gründen sowie der Tatsache, dass „3D LANC Master“<br />
[Vra06] ein Open Source Projekt, mit frei verfügbaren Bau- und <strong>Entwicklung</strong>splänen sowie der<br />
Firmware als Quellcode darstellt und somit erhebliche Anschaffungskosten vermindert werden<br />
konnten, wurde <strong>die</strong>se Fernbe<strong>die</strong>nung entwickelt.<br />
Dabei wurde in der Fakultätswerkstatt <strong>für</strong> Elektrotechnik eine Leiterplatte angefertigt und ansch-<br />
liessend bestückt. Die in Abbildung 4.12 dargestellte Fernbe<strong>die</strong>nung wird über zwei Kabel mit<br />
2,5mm Klinkensteckern mit den Kameras verbunden.<br />
Der Funktionsumfang der Fernbe<strong>die</strong>nung umfasst <strong>für</strong> beide Kameras folgende Eigenschaften:<br />
• Veränderung der Brennweite<br />
• synchrones Auslösen der Foto- und Videoaufnahme<br />
• anzeigen der zeitlichen Differenz beider Camcorder in µ Sekunden<br />
• anzeigen einer empfohlenen Belichtungszeit in 1<br />
s<br />
• synchrones Ein- und Ausschalten der Kameras<br />
• Veränderung der Fokussierung<br />
• Anzeige des Batteriestandes der Fernbe<strong>die</strong>nung<br />
Da <strong>die</strong> Ansteuerung der Stellmotoren <strong>für</strong> Zoom und Fokus nicht in der Lage sind Werte wie weit<br />
fokussiert oder gezoomt werden soll zu verarbeiten, können <strong>die</strong>se lediglich synchron gestartet und<br />
gestoppt werden. Durch Fabrikationstoleranzen tritt allerdings der Fall auf, dass bei zeitlich gleich<br />
langer Aktivierung <strong>die</strong>ser Motoren ein unterschiedlicher Endwert auftritt. Daher sollten <strong>für</strong> den<br />
Fall, dass manuell fokussiert oder <strong>die</strong> Brennweite verändert wird, <strong>die</strong>se Motoren immer wieder in<br />
Grundposition gebracht werden. So kann verhindert werden, dass <strong>die</strong> erwähnten geringen Fehler<br />
sich summieren und erheblicher Aufwand bei der Nachbearbeitung, oder im schlimmsten Fall bei
4.4. FERNBEDIENUNG 66<br />
schlecht fokussierten Aufnahmen der Totalausfall der Aufnahme vermieden wird.<br />
Zusätzlich ist es möglich <strong>die</strong> Fernbe<strong>die</strong>nung an den seriellen Port <strong>eines</strong> PC anzuschließen, wobei<br />
einerseits eine zeitliche Differenz beider Camcorder grafisch dargestellt werden kann. Anderer-<br />
seits können interne Einstellungen der Fernbe<strong>die</strong>nung und der Kameras verändert werden. Die<br />
Veränderung von Kameraparametern wird nicht empfohlen, da dadurch <strong>die</strong> Funktion der Camcor-<br />
der nichtmehr sichergestellt werden kann. Dieser Fall kann auftreten, da bei jedem Einschalten<br />
einer Kamera, <strong>die</strong>se einen Hashwert 7 über der internen Firmware bildet, und somit Veränderun-<br />
gen erkennt. Wird solch eine Änderung erkannt, symbolisiert <strong>die</strong> Kamera <strong>die</strong>ses durch <strong>die</strong> Anzeige<br />
<strong>eines</strong> Fehlercodes und stellt ihre Funktion ein, was eine Reparatur des Camcorders in einer Ser-<br />
vicezentrale erforderlich macht.<br />
Zur Änderung von Fernbe<strong>die</strong>nungsparametern solle <strong>die</strong> im Anhang auf Seite VIII abgedruckte<br />
Tabelle mit Parametern des LANC R○ Protokoll hinzugezogen werden. So kann über <strong>die</strong> Software<br />
„3D LANC Communicator“, welche sich auf der, der Arbeit beiliegenden CD befindet, <strong>die</strong> Dauer<br />
des Einschaltimpulses, eine Verzögerung des Einschaltimpulses, <strong>die</strong> Zoomgeschwindigkeit und<br />
<strong>die</strong> Dauer des Ausschaltimpulses verändert werden. Das verzögerte Einschalten übernimmt <strong>die</strong><br />
Funktion der korrektur von Asynchronitäten der Kameras durch verzögertes Einschalten.<br />
Es besteht ebenfalls <strong>die</strong> Möglichkeit <strong>die</strong> Fernbe<strong>die</strong>nung mit eigenen Kommandos zu program-<br />
mieren. Dazu müssen Steuerbefehle <strong>die</strong> in Tabelle A.1 ersichtlich sind, auf <strong>die</strong> Variablen „Com-<br />
mand[X]: Camcorder“, {X | 1,2,3,4}, geschrieben werden.<br />
Eine Änderung des Quellcodes der Fernbe<strong>die</strong>nung ist möglich, wird aber aus dem oben beschrie-<br />
ben Grund, der Änderung von Firmwareparametern, nicht empfohlen. Dazu muss das Gehäuse der<br />
Fernsteuerung geöffnet werden und über ein Programmierinterface, das an der Fernsteuerungs-<br />
platine angebracht wird, kann der Mikroprozessor durch eine Programmierschnittstelle, <strong>die</strong> im<br />
Anhang auf Seite IV in Kapitel A.1.4.1 beschrieben wird, überschrieben werden.<br />
4.4.3 Messung der Synchonität<br />
Die entwickelte Fernbe<strong>die</strong>nung unterstützt <strong>die</strong> Funktion, über eine Nullmodemverbindung mit ei-<br />
nem Computer Daten über <strong>die</strong> Synchronität der Einzelkameras auszuwerten.<br />
Für <strong>die</strong> genutzten Kameras ist in Abbildung 4.13 ein Diagramm zu sehen, bei welchem <strong>die</strong> Or-<br />
dinate den Differenzwert der timing Signale beider Kameras in Mikrosekunden und <strong>die</strong> Abszisse<br />
<strong>die</strong> Zeitachse in Sekunden darstellt.<br />
1<br />
Hier ist zu sehen, dass ein zeitlicher Versatz von 3600 µ-Sekunden (0,0036s = 277,78s) nach 3000<br />
Sekunden (50 Minuten) auftritt.<br />
Da <strong>die</strong> Aufnahmedauer maximal 1<br />
50 Sekunden bei Aufnahme im Format „HDV-1080 50i“ beträgt,<br />
ist <strong>die</strong>ser Wert bei der Aufnahme von langsamen Bewegungen akzeptabel, da bei einer Belichtungszeit<br />
von 1<br />
60 Sekunden, also einer Zeitspanne von 0,016s, beide Bilder bei der Differenz (+/-<br />
7 Eine Hash-Funktion erzeugt zu einer großen Eingabemenge eine kleine Zielmenge.
4.5. GPS-EMPFÄNGER 67<br />
Abbildung 4.13: Diagramm des zeitlichen Verlaufs der Synchronität beider Camcorder. Die X-<br />
Achse stellt <strong>die</strong> abgelaufene Zeit in Sekunden und <strong>die</strong> Y-Achse <strong>die</strong> Differenz der<br />
Timingsignale zwischen den Camcordern in µ-Sekunden dar.<br />
0,0036s) innerhalb <strong>die</strong>ser liegen und somit <strong>die</strong> Bildinformationen in beiden Bildern zu finden sind.<br />
Im Weiteren ist bei der Nutzung der Standardstromversorgung der Camcorder (Akkumulator vom<br />
Typ „Sony NP-FM50“ mit 1180 mAh) <strong>die</strong> Kapazität bei ausgeklapptem Bildschirm nach ca. einer<br />
Stunde so startk verringert, dass der Camcorder seine Funktion einstellt. Aus <strong>die</strong>sem Grund wurde<br />
<strong>die</strong> Messung nach 70 Minuten gestoppt. Einige Werte der Messung sind im Anhang auf Seite VIII<br />
in Tabelle A.2 dargestellt.<br />
4.5 GPS-Empfänger<br />
Um Sensordaten synchron in einem <strong>Stereo</strong>-Video unterzubringen, wurden Lösungen gesucht, wel-<br />
che:<br />
• <strong>die</strong> Daten, entweder in einem MPEG-4 Standard, z.B. dem „Timed Text subtitle format“<br />
oder in einem Audiokanal des Videos speichern und es ermöglichen<br />
• <strong>die</strong> Daten den Einzelbildern des Filmes zuzuordnen und nachträglich zu verarbeiten.<br />
Wie in Kapitel 4.1.3 beschrieben existieren verschiedene Varianten der Speicherung von Daten.<br />
Begründet dadurch, dass eine Ko<strong>die</strong>rung in das Videobild unerwünscht ist und <strong>die</strong> Ko<strong>die</strong>rung in<br />
das MPEG Format technisch nicht möglich ist, wurde <strong>die</strong> Ko<strong>die</strong>rung in einen Audiokanal der<br />
Kamera genutzt. Da durch <strong>die</strong>se Nutzung ein <strong>für</strong> Audiodaten nutzbarer Kanal der beiden Kame-<br />
ras wegfällt, kann das 4 Kanal Surround Mirkofon bei Anschluss <strong>eines</strong> Sensors nicht mehr voll<br />
genutzt werden. Um <strong>die</strong>sen Nachteil zu beheben kann in späteren Arbeiten ein Verfahren der En-<br />
ko<strong>die</strong>rung von Audio und Sensordaten in einen Kanal geschaffen werden oder <strong>die</strong> Nutzung <strong>eines</strong><br />
digitalen „Daten-Schuh“ (vgl. Kapitel 4.1.3.1) erwogen werden.<br />
Ein System, welches GPS-Daten in einen Audiokanal ko<strong>die</strong>ren kann, ist in Abbildung 4.1 zu se-<br />
hen. Allerdings ist <strong>die</strong> gezeigte Lösung „VMS-X“ nur in der Lage GPS-Daten von einer begrenz-<br />
ten Anzahl von GPS-Empfangsgeräten zu verarbeiten, weswegen <strong>die</strong> nachfolgend beschriebene
4.6. KAMERAPARAMETER 68<br />
Variante zur Anwendung kommt.<br />
Um nicht „Global Positioning“ Daten als alleinige Sensorinformationen nutzen zu können, wurde<br />
eine Lösung gesucht, welche jegliche Art serieller Daten in einen Audiokanal ko<strong>die</strong>ren kann. Zur<br />
Bewältigung <strong>die</strong>ses Problems fand sich im Amateurfunk eine Lösung, welche genutzt wird um<br />
serielle Daten ohne Verbindungsaufbau über vorhandene Funksysteme zu senden. Dieses System<br />
ist weitläufig als „Packet Radio“ bekannt. Dabei werden digitale Informationen in kleine Pakete<br />
aufgeteilt und über handelsübliche UKW-Funkgeräte ausgesandt.<br />
Die Ko<strong>die</strong>rung der Daten übernimmt ein Mikroprozessor, der eingehende Daten ähnlich <strong>eines</strong><br />
DTMF-Modulators 8 in verschiedene Frequenzen übersetzt. Von <strong>die</strong>sem können Daten mit 4800<br />
Baud verarbeitet werden. In Abbildung 4.14 ist <strong>die</strong>ser Übersetzer in montierter Form zu sehen.<br />
Abbildung 4.14: TinyTrak3: Konverter zur Transformation serieller Daten in Audiodaten.<br />
Dieser Aufbau ermöglicht den Anschluss jeglicher Sensorik, welche serielle Daten ausgibt. Der in<br />
<strong>die</strong>ser Arbeit genutzte GPS-Empfänger (siehe Abbildung 4.15) liefert Daten in <strong>die</strong>ser Form. Da-<br />
bei werden genormte „NMEA 9 “ Daten vom Empfänger an den Mikrochip übergeben und von <strong>die</strong>-<br />
sem umgewandelt. Die Deko<strong>die</strong>rung erfolgt indem ein Soundkartenmodem installiert wird. Dieses<br />
kann <strong>die</strong> Audiodaten direkt aus der Audiodatei oder über <strong>die</strong> Soundkarte des PC deko<strong>die</strong>ren und<br />
an eine Anwendung als serielle Daten weitergeben. In weiteren Arbeiten kann eine Möglichkeit<br />
geschaffen werden <strong>die</strong>se Daten bei der Videonachbearbeitung direkt zu verarbeiten.<br />
4.6 Kameraparameter<br />
Zur weiteren Verarbeitung der Kameradaten, sind Kalibrierungsgrößen von Interesse, <strong>die</strong> hier dar-<br />
gestellt werden. Es werden <strong>die</strong> Abbildungseigenschaften der Kameras und <strong>die</strong> internen und exter-<br />
8<br />
DTMF-Modulatoren finden meist Anwendung in Telefonen zur Realisierung des Tonwahlverfahrens/Mehrfrequenzwahlverfahren.<br />
9<br />
Der NMEA Standard spezifiziert Übertragungsrichtlinien. Hauptanwendung ist <strong>die</strong> Weitergabe von Positionsdaten.
4.6. KAMERAPARAMETER 69<br />
Abbildung 4.15: GPS-Maus: serieller Global Positioning System Empfänger.<br />
nen Parameter bestimmt.<br />
Externe Parameter geben <strong>die</strong> Lage der Kamera bezüglich <strong>eines</strong> globalen Koordinatensystems an,<br />
wohingegen interne Parameter <strong>die</strong> Abbildung der Weltkoordinatenpunkte vom lokalen Kamerako-<br />
ordinatensystem in das Bild beschreiben.<br />
4.6.1 Interne Parameter<br />
Die internen Parameter der Kamera:<br />
• <strong>die</strong> Brennweite f,<br />
• der Hauptpunkt px, py(Punkt auf dem Bildsensor welcher auf der optischen Achse der Ka-<br />
mera liegt)<br />
• <strong>die</strong> Kippung s0 (Der Winkel zwischen den Achsen der Pixel in X und Y Richtung. Dieser<br />
ist durch <strong>die</strong> industrielle Fertigung von CCD oder CMOS Sensoren gleich Null)<br />
• <strong>die</strong> Verzerrungen (radiale und tangentiale)<br />
• ein Pixelfehler (der Fehler zwischen homogenen Pixelkoordinaten)<br />
Diese inneren Parameter lassen sich nach Formel 4.5 bestimmen.<br />
⎛ ⎞<br />
⎛ ⎞ ⎡<br />
⎤ XK<br />
˜x fx s0 px 0 ⎜ ⎟<br />
⎜ ⎟ ⎢<br />
⎥ ⎜YK<br />
⎟<br />
⎝ ˜y ⎠ = ⎣ 0 fy py 0⎦<br />
· ⎜ ⎟<br />
⎜ ⎟<br />
⎝ZK<br />
⎠<br />
˜w 0 0 1 0<br />
1<br />
, xb = ˜x<br />
˜w , yb = ˜y<br />
˜w<br />
(4.5)
4.6. KAMERAPARAMETER 70<br />
Diese Formel wird durch den in Verhältnis 4.6 gezeigten Strahlensatz gebildet, welcher den drei-<br />
dimensionalen Punkt (XK, YK, ZK) T im Kamerakoordinatensystem in den Bildpunkt (xb, yb) T<br />
transformiert:<br />
YK<br />
ZK<br />
XK<br />
ZK<br />
= yb<br />
fk<br />
= xb<br />
fk<br />
Da der Mittelpunkt des Bildkoordinatensystems, der Punkt in welchem <strong>die</strong> optische Achse senk-<br />
recht auf der Bildebene steht, in Pixelkoordinaten nicht bei (0, 0) T liegt, werden in Formel 4.5<br />
<strong>die</strong> Verschiebung des sogenannten Hauptpunktes um px und py eingeführt. Die zwei Brennweiten<br />
fx und fy können durch <strong>die</strong> Kamerabrennweite fk und das Seitenverhältnis des aufgenommenen<br />
Bildes ersetzt werden.<br />
In Abbildung 4.16 ist <strong>die</strong> Kalibrieriung nach [Zha98] <strong>für</strong> eine der beiden Einzelkameras des Ste-<br />
reosystems dargestellt.<br />
Abbildung 4.16: Kamerakalibrierung nach [Zha98] der linken Kamera des <strong>Stereo</strong>systems <strong>für</strong> <strong>die</strong><br />
geringste Brennweite.<br />
Es wurden aus einem Video 12 Bilder extrahiert, auf denen das abgebildete Schachbrettmuster in<br />
verschiedenen Winkeln zu sehen ist. Aus <strong>die</strong>sen ergaben sich <strong>für</strong> <strong>die</strong> Matrix in Formel 4.5:<br />
• fx - 1675.564<br />
• fy - 2435.8177<br />
• s0 - 4.51<br />
• px - 726.42<br />
(4.6)<br />
(4.7)
4.6. KAMERAPARAMETER 71<br />
• py - 620.15<br />
Wenn <strong>die</strong>se Werte interpretiert werden, ist zu erkennen, dass der Hauptpunkt der Kamera nicht ge-<br />
nau in der Mitte des Sensors bei pm(x, y) = p(720, 540), sondern bei pH(x, y) = p ′ (726.42, 620.15)<br />
zu finden ist.<br />
Der Wert <strong>für</strong> s0, <strong>die</strong> Verdrehung der Ordinate gegen <strong>die</strong> Abszisse, berechnet sich zu vier Grad,<br />
was technisch nicht möglich ist, da bei der industriellen Fertigung von Bildsensoren keine solche<br />
Verdrehung auftritt. Diese Fehlberechnung tritt auf, da sich das Verfahren nach [Zha98] iterativ<br />
an <strong>die</strong> korrekten Werte annähert. Im Weiteren kann nicht exakt bestimmt werden, ob das zur Be-<br />
rechnung genutzte Muster in den Bilddaten in ausreichend verschiedenen Positionen abgelichtet<br />
wurde.<br />
Die Brennweiten in X und Y Richtung ergeben ein Seitenverhältnis, welches mit ca. 13 : 9 zwi-<br />
schen dem 16 : 9 und 4 : 3 Format liegt. Dies ist der Fall, da im Breitbildformat 16 : 9 aufgenom-<br />
men wird, allerdings mit einer geringeren Auflösung in horizontaler Richtung als in vertikaler. Da<br />
<strong>die</strong> Kameras Videobilder mit 1440 × 1080 Bildpunkten im 16 : 9 Format speichern, kommt es zu<br />
<strong>die</strong>sem Format.<br />
Die in Abbildung 4.16 dargestellten Werte <strong>für</strong> k0 und k1 können genutzt werden, um Parameter<br />
der radialen und tangentialen Bildverzerrungen, welche durch <strong>die</strong> Linsen im Objektiv entstehen<br />
können, zu berechnen.<br />
4.6.2 Externe Parameter<br />
Zur Kalibrierung der Kamera werden Werte benötigt, von denen sowohl <strong>die</strong> dreidimensionalen als<br />
auch <strong>die</strong> zweidimensionalen Koordinaten bekannt sind. Somit gehört zu einer Kamerakalibrierung<br />
<strong>die</strong> Transformation zwischen dem Kamerakoordinatensystem und dem in Weltkoordinaten befind-<br />
lichen Kalibrierkörper.<br />
Die externen Kameraparamter sind:<br />
• <strong>die</strong> drei Rotationen Rx, Ry, Rz zwischen den Weltkoordinaten und dem Kamerakoordina-<br />
tensystem,<br />
• und <strong>die</strong> drei Translationen Tx, Ty, Tz zur Transformation der Weltkoordinaten in das Kame-<br />
rakoordinatensystem.<br />
In homogenen Koordinaten ist <strong>die</strong> Beziehung zwischen Weltkoordinaten (X, Y, Z) und den Koor-<br />
dinaten im Kamerasystem durch:<br />
⎛ ⎞ ⎛ ⎞ ⎛<br />
XK<br />
˜<br />
X − Xc<br />
⎜<br />
⎝ ˜ ⎟ ⎜ ⎟ ⎜<br />
⎠ = R · ⎝ Y − Yc ⎠ , C = ⎝<br />
Z − Zc<br />
YK<br />
˜<br />
ZK<br />
Xc<br />
Yc<br />
Zc<br />
⎞<br />
⎟<br />
⎠ (4.8)
4.6. KAMERAPARAMETER 72<br />
gegeben. Gleichung 4.5 erweitert sich damit zu:<br />
⎛ ⎞ ⎡<br />
˜x fx<br />
⎜ ⎟ ⎢<br />
⎝ ˜y ⎠ = ⎣ 0<br />
˜w 0<br />
0<br />
fy<br />
0<br />
px<br />
py<br />
1<br />
⎛ ⎞<br />
⎤<br />
X<br />
0<br />
⎜ ⎟<br />
⎥<br />
⎜<br />
0⎦<br />
· R[I − C] ⎜<br />
Y ⎟<br />
⎜<br />
⎝Z<br />
⎟<br />
⎠<br />
0<br />
1<br />
Wobei I <strong>die</strong> 3 × 3 Einheitsmatrix, R ∈ SO3 <strong>die</strong> Rotationsmatrix und C das Zentrum, genauer den<br />
Mittelpunkt des Aufnahmesensors, darstellt.<br />
In Abbildung 4.17 sind alle bei der Abbildung beteiligten Koordinatensysteme dargestellt.<br />
Z<br />
K<br />
C<br />
R,t<br />
X<br />
K<br />
zi<br />
xi<br />
y<br />
b<br />
x b<br />
f<br />
p<br />
Z<br />
Abbildung 4.17: Koordinatensysteme bei der Abbildung nach [Som05]<br />
4.6.3 <strong>Stereo</strong>kalibrierung<br />
Zur Kalibrierung der einzelnen Camcorder der <strong>Stereo</strong>kamera wird das Verfahren von Zhang [Zha98]<br />
verwendet, welches in der „Open Computer Vision Library“ [Int06] als Implementierung zur Ver-<br />
fügung steht. Dabei wird als Kalibriermuster eine Ebene verwendet, welche in mehreren Ori-<br />
entierungen aufgenommen wird. Auf <strong>die</strong>ser Ebene ist ein Schachbrettmuster angebracht, dessen<br />
Kreuzungspunkte detektiert und in eine Reihenfolge gebracht werden, sodaß <strong>die</strong> 3D Koordina-<br />
ten einfach zugewiesen werden können. Für eine genauere Beschreibung des Verfahrens sei auf<br />
[Zha98] verwiesen.<br />
Z<br />
Y<br />
K<br />
X<br />
(4.9)
4.6. KAMERAPARAMETER 73<br />
Abbildung 4.18: Kalibrierungsaufnahme mit Schachbrettmuster einer Einzelkamera des <strong>Stereo</strong>systems.<br />
Bei der Kamerakalibrierung liegt das globale Koordinatensystem <strong>für</strong> jedes aufgenommene Bild in<br />
einer Ecke des Kalibriermusters (Schachbrettmuster). Dies ist <strong>für</strong> den Einsatz bei <strong>Stereo</strong>kameras<br />
ungünstig, da in <strong>die</strong>sem Fall nur <strong>die</strong> Beschreibung der Transformation zwischen den einzelnen<br />
Kamerabildern von Relevanz ist.<br />
Bei dem in [Mü02] verwendeten Verfahren wird deswegen das globale Koordinatensystem so<br />
transformiert, dass es mit dem Kamerakoordinatensystem einer Kamera übereinstimmt. Ist <strong>die</strong>s<br />
der Fall entsprechen <strong>die</strong> externen Parameter der jeweils anderen Kamera der Transformation zwi-<br />
schen beiden Kameras.<br />
Wird <strong>die</strong> linke Kamera als Bezugssystem gewählt ergibt sich <strong>die</strong> Transformation wie in Abbildung<br />
4.19 gezeigt zu:<br />
X ′ = RLX + tL<br />
(4.10)<br />
Das transformierte Koordinatensystem der linken Kamera X ′ berechnet sich durch Rotation RL<br />
und Translation tL aus dem ermittelten globalen Koordinatensystem. Dadurch ergeben sich <strong>für</strong> <strong>die</strong><br />
Kamerakoordinaten:<br />
XL = KL(RLX + tL) (4.11)<br />
= KLX ′<br />
(4.12)
4.6. KAMERAPARAMETER 74<br />
R , t<br />
L0 L0<br />
R , t<br />
L1 L1<br />
R , t<br />
R0 R0<br />
X X<br />
R , t<br />
R1 R1<br />
R , t<br />
L1 L1<br />
R , t<br />
L0 L0<br />
R , t<br />
RL RL<br />
Abbildung 4.19: Transformation des globalen Koordinatensystems in das Koordinatensystem der<br />
linken Kamera (nach [Mü02])<br />
und<br />
XR = KR(RRX + tR) (4.13)<br />
= KR(RRR −1<br />
L (X′ − tl) + tR) (4.14)<br />
= KR(RRR −1<br />
L X′ + tR − RRR −1<br />
L tL) (4.15)<br />
Die daraus ableitbare Rotation und Translation zwischen den Kameras ist:<br />
RRL = RRR −1<br />
L<br />
tRL = tR − RRR −1<br />
L tL<br />
(4.16)<br />
(4.17)<br />
Da sich <strong>die</strong> gemessenen Werte von Bildpaar zu Bildpaar aufgrund der Auflösungseinschränkung 10<br />
leicht unterscheiden, sollten sie aus mehreren Paaren gemittelt werden. Dabei können <strong>die</strong> Trans-<br />
lationsvektoren komponentenweise gemittelt werden. Von Rotationsmatrizen kann kein Mittel ge-<br />
bildet werden, weshalb <strong>die</strong> minimalen Parameter, also <strong>die</strong> Vektoren <strong>für</strong> X−, Y − und Z−Richtung<br />
gemittelt und anschliessend wieder in Matrizenform gebracht werden müssen.<br />
Im einzelnen erfolgt <strong>die</strong> <strong>Stereo</strong>kalibrierung nach [Mü02] in folgenden Schritten:<br />
1. Aufnahme von n <strong>Stereo</strong>bildern<br />
2. Getrennte Kalibrierung der linken und rechten Kamera mit dem Algorithmus nach [Zha98]<br />
3. Bestimmung der Transformation zwischen den einzelnen Kameras der <strong>Stereo</strong>kamera<br />
10 Auflösungseinschränkung bedeutet, dass Aufgrund von Pixelgröße und Anzahl der Pixel keine genauen Messungen<br />
im Bild erfolgen können.
4.6. KAMERAPARAMETER 75<br />
4. Optimierung über alle Parameter der Kalibrierung mit Hilfe <strong>eines</strong> linearen Fehlerminimierungs-<br />
algorithmus aufgrund der Auflösungsbeschränkungen<br />
5. Ausgabe der Kalibrierungsmatrizen der Kamera<br />
4.6.4 Selbstkalibrierung von <strong>Stereo</strong>kameras<br />
Bei der Selbstkalibrierung wird eine Kamera ohne Objektrauminformationen (im vorangestellten<br />
Unterkapitel stellte <strong>die</strong>s das Schachbrett dar) kalibriert. Dazu können werden unter der Annahme,<br />
dass sich es sich bei den zwei Aufnahmen <strong>eines</strong> <strong>Stereo</strong>bildpaares um Bilder handelt, welche mit<br />
identischen Kameras und weiter mit identischen Kameraparametern aufgenommen sind, korre-<br />
spon<strong>die</strong>rende Bildpunkte gesucht und weiterverarbeitet.<br />
Da es sehr kompliziert und umständlich sein kann, korrespon<strong>die</strong>rende Bildpunkte zu finden, ohne<br />
<strong>die</strong>se zu markieren, setzt [AP95] darauf, einen bewegten Punkt in einer <strong>Stereo</strong>szenerie zu erfassen<br />
und <strong>die</strong>sen bei seiner Bewegung durch das <strong>Stereo</strong>bildpaar zu verfolgen. Dadurch können alle ge-<br />
forderten Parameter durch eine Schnittpunktanalyse der Strahlenschnitte generiert werden.<br />
Diese Variante der Kalibrierung ist somit nur <strong>für</strong> Situationen einsetzbar, in denen erfassbare Be-<br />
wegungen ablaufen. Da in <strong>die</strong>ser Arbeit der Konvergenzwinkel bestimmbar und <strong>die</strong> Änderung des<br />
Konvergenzwinkels wärhend der Aufnahme möglich ist wird <strong>die</strong>se Art der Kalibrierung in <strong>die</strong>ser<br />
Diplomarbeit nicht genutzt, da <strong>die</strong> Kalibrierung der Einzelkameras nach [Zha98] sehr rechenin-<br />
tensiv ist. Die Änderung des Konvergenzwinkels bei der Aufnahme von <strong>Stereo</strong>videos kann durch<br />
<strong>die</strong>se Kalibrierung nicht in Echtzeit erfolgen, weswegen <strong>die</strong>se Methode nicht angewendet wurde.
5 Datenverarbeitung<br />
In <strong>die</strong>sem Kapitel wird auf Techniken und Algorithmen der Datenverarbeitung von <strong>Stereo</strong>videos<br />
eingegangen und es werden <strong>die</strong>se erläutert. Es werden Implementationen der notwendigen Trans-<br />
formationen, wie in Kapitel 2.3.1 beschrieben, erläutert und genauer auf <strong>die</strong> Videobearbeitung im<br />
Betriebsystem Windows eingegangen.<br />
Unter Windows existieren aktuell zwei Programmierschnittstellen um Video zu bearbeiten. Diese<br />
sind „Video for Windows“ (VfW) und „DirectShow“ (auch DShow).<br />
Video for Windows ist eine Programmierschnittstelle, welche es erlaubt Videosignale zu ko-<br />
<strong>die</strong>ren und zu deko<strong>die</strong>ren, sowie Daten von Aufnahmegeräten einzulesen [Wik07a]. Diese Schnitt-<br />
stelle wurde Anfang der 90’er Jahre entwickelt und ist somit relativ alt. Sie wird, auch da <strong>die</strong><br />
Anbindung an Aufnahmegeräte immer mehr durch WDM-Treiber geregelt wird, von der neueren<br />
DirectShow API abgelöst. Die VfW-Schnittstelle verfügt über keine Pufferung der Daten und kei-<br />
ner Synchronisation zwischen Audio- und Videodaten, was zu einer ruckelnden Wiedergabe und<br />
Jitter 1 führt.<br />
DirectShow ist eine Schnittstelle über welche Audio und Video Daten Verarbeitet werden kön-<br />
nen. Diese wurde ursprünglich als „ActiveMovie“ und später über „DirectX“ vertrieben, wobei es<br />
sich um eine Sammlung von Schnittstellen handelt, <strong>die</strong> <strong>für</strong> multimediaintensive Anwendungen<br />
entwickelt wurden. Mittlerweile ist DirectShow Bestandteil der „Windows Platform-SDK“ und<br />
verdrängt immer mehr <strong>die</strong> VfW-Schnittstelle.<br />
5.1 DirectShow<br />
DirectShow ersetzt, wie beschrieben, <strong>die</strong> ältere „Video for Windows“ Schnittstelle und basiert auf<br />
dem Component Object Model (COM). Basierend auf Filtern können über <strong>die</strong>se API Me<strong>die</strong>ndaten<br />
verarbeitet werden. Das Pendant von DirectShow <strong>für</strong> MacOS ist Apple’s QuickTime.<br />
Durch auf Filtern basierende Architektur ist es möglich Graphen zu erstellen, bei denen Filter<br />
<strong>die</strong> Position von Transitionen einnehmen. Es kann also ähnlich der Modellierung mit Petrinetzen<br />
1 Jitter (engl. „Fluktuation“ oder „Schwankung“) durch Ungenauigkeiten in der synchronen Abtastung von Signalen<br />
entstehende Schwankung der Signalamplitude.<br />
76
5.1. DIRECTSHOW 77<br />
ein Abarbeitungsworkflow erstellt werden. In Abbildung 5.1 ist solch ein Graph dargestellt, der<br />
eine Me<strong>die</strong>ndatei als Eingabe nutzt. Diese Eingabe, ebenfalls als DirectShow Filter implementiert,<br />
öffnet <strong>die</strong> Datei und übergibt deren Inhalt an den nächstfolgenden Filter.<br />
Abbildung 5.1: Darstellung <strong>eines</strong> DirectShow Filtergraphen im Programm Graphedit.<br />
In <strong>die</strong>sem Beispiel nimmt der „AVI Splitter“ Filter <strong>die</strong> Daten entgegen und trennt den Bildinforma-<br />
tionsstrom vom Audiostrom. Die Bildinformationen werden daraufhin von einem Filter deko<strong>die</strong>rt,<br />
nachfolgend in ein Anaglyphenbild umgewandelt und nach Konvertierung in <strong>die</strong> aktuelle Farbqua-<br />
lität der Windowsoberfläche von einem Render Filter ausgegeben. Der Audiostrom wird ebenfalls<br />
deko<strong>die</strong>rt und an <strong>die</strong> Soundkarte übergeben.<br />
Wie in Abbildung 5.1 zu sehen ist, besitzen Filter sogenannte Pins, welche zur Ein- und Ausgabe<br />
der Daten genutzt werden.<br />
Es existieren grundsätzlich drei Arten von DirectShow Filtern:<br />
1. Quellfilter<br />
2. Verarbeitungsfilter<br />
3. Ausgabefilter<br />
Quellfilter besitzen einen oder mehrere Ausgabepins, aber keinen Eingabepin. Sie werden genutzt,<br />
um Daten von Me<strong>die</strong>nquellen zu beziehen, wie z.B. einer TV-Karte, einer Videodatei, <strong>eines</strong> Stre-<br />
ams über das Internet, oder sie generieren einen Me<strong>die</strong>nstrom, wie z.B. ein Visualisierungsfilter,<br />
welcher Farbsignale generiert.<br />
Verarbeitungsfilter besitzen sowohl Eingabe- wie auch Ausgabepins. Ihre Aufgabe ist es, Daten zu<br />
manipulieren, zu teilen oder zusammenzuführen und <strong>die</strong>se anschließend weiterzugeben.<br />
Ausgabefilter besitzen einen oder mehrere Eingabe- aber keine Ausgabepins, da ihre Hauptaufga-<br />
be darin besteht, Daten an Hardware, wie z.B. <strong>die</strong> Grafikkarte, <strong>die</strong> Soundkarte oder <strong>die</strong> Festplatte<br />
weiterzuleiten.
5.1. DIRECTSHOW 78<br />
Um Filter in einer Anwendung nutzen zu können existiert der „Filtergraph Manager“. Diese Struk-<br />
tur kontrolliert den Datenfluss und fügt, falls benötigt, automatisch passende Filter ein. Dabei<br />
werden installierte Filter anhand ihrer Ein- und Ausgabepins, welche akzeptierte Datentypen spe-<br />
zifizieren, gesucht und eingefügt.<br />
Dieser Filtergraph Manager bietet nach außen hin <strong>die</strong> zwei Interfaces „IMediaControl“ und „IMe-<br />
diaSeeking“, zum Steuern des Me<strong>die</strong>nstroms (Start, Stop, Pause, an Punkt springen, ...).<br />
Die eigentlichen Me<strong>die</strong>ndaten werden dabei durch „IMediaSample“ referenziert, welches einen<br />
Pointer zum Speicherbereich der Me<strong>die</strong>ndaten darstellt und Informationen zu <strong>die</strong>sen Daten ent-<br />
hält. Dieses Sample wird durch den Filtergraphen „gereicht“, was im weiteren bedeutet, dass <strong>die</strong><br />
Daten in ihrem Speicherbereich verbleiben und so ein unnötiges und zeitaufwendiges Kopieren<br />
vermieden werden kann.<br />
Wenn sich zwei Filter, das heisst der Ausgabepin des vorgeschalteten und ein Eingabepin des nach-<br />
geschalteten Filters, verbinden, tauschen <strong>die</strong> Pins der beiden Filter <strong>die</strong> unterstützten Me<strong>die</strong>ntypen<br />
über eine „AM_MEDIA_TYPE“ Struktur aus. Diese Typen sind in Klassen eingeteilt, so zum<br />
Beispiel Video oder Audio. Diese Klassen auch „major media type“ genannt besitzen Unterklas-<br />
sen, <strong>die</strong> „sub media types“ genannt werden, wie z.B. bei der Oberklasse Video, RGB-8, RGB-24,<br />
RGB-32, YVUV. So kann genau spezifiziert werden, welches Ein und Ausgabeformat ein Filter<br />
unterstützt. Das Me<strong>die</strong>ntypenkonstrukt besitzt im Weiteren Informationen über <strong>die</strong> Kompression,<br />
<strong>die</strong> Größe <strong>eines</strong> Me<strong>die</strong>nsamples, den Typ der Me<strong>die</strong>n (z.B. DVINFO oder MPEG2), sowie einen<br />
Zeiger auf den Speicherbereich der Me<strong>die</strong>ndaten.<br />
Wenn eine Verbindung aufgebaut werden soll, listet ein Pin seine bevorzugten Me<strong>die</strong>ntypen auf<br />
und fordert <strong>die</strong> Typen des anderen Pins an. Mit <strong>die</strong>sen Informationen wird versucht eine Verbin-<br />
dung aufzubauen. Dabei können auch Verbindungen aufgebaut werden, <strong>die</strong> nicht auf den bevor-<br />
zugten Me<strong>die</strong>nypen basieren.<br />
In Abbildung 5.2 sind alle am Me<strong>die</strong>ntypenaustausch beteiligten Objekte dargestellt.<br />
Der Datentransport zwischen DirectShow Filtern kann auf zwei verschiedene Arten durchgeführt<br />
werden. Einerseits wird vom „lokalen Speichertransport“ und zum anderen vom „Hardware Trans-<br />
port“ gesprochen.<br />
„Lokaler Speichertransport“ bedeutet, dass der Speicher, in welchem <strong>die</strong> vom Filter genutzten und<br />
benötigten Daten abgelegt werden, sich im Hauptspeicher des Rechners oder im Hauptspeicher<br />
der Grafikkarte befindet.<br />
Von „Hardware Transport“ spricht man, wenn Me<strong>die</strong>ndaten in Speicherbereichen auf diverser<br />
Hardware, wie zum Beispiel einer Fernsehkarte, verbleiben.<br />
Die am häufigsten genutzte Transportvariante ist der Lokale Speichertransport, bei welchem Spei-<br />
cheradressen über <strong>die</strong> Pins (Anschlüsse) verschiedener Filter übergeben werden. In <strong>die</strong>sem Sinne<br />
spricht man von dem „Push-Modell“, wenn Zeiger auf Speicherbereiche weitergereicht werden<br />
und von dem „Pull-Modell“, wenn der Empfänger-Filter <strong>die</strong>se anfordert. Der Speicherbereich, in<br />
welchem <strong>die</strong> sogenannten „Media Sample’s“ liegen, wird vom Ausgabepin des im Graph vorher<br />
liegenden Filters alloziert.
5.1. DIRECTSHOW 79<br />
Filter A Outpit Pin Input Pin Filter B<br />
IMediaSample<br />
GetMediaType()<br />
GetPointer()<br />
GetSitze()<br />
(...)<br />
BYTE** ppBuffer<br />
Me<strong>die</strong>n Daten<br />
(Bild/Audio Samples)<br />
0100101000110010<br />
0101011101001001<br />
1010011110100111<br />
Memory Allocator<br />
(Speicherverwaltung)<br />
Media Sample<br />
(IMediaSample)<br />
Media Sample<br />
(IMediaSample)<br />
Memory Buffer Memory Buffer<br />
AM_MEDIA_TYPE Struktur<br />
GUID majortype;<br />
GUID subtype;<br />
BOOL bFixedSizeSamples;<br />
BOOL bTemporalCompression;<br />
ULONG ISampleSitze;<br />
GUID Formattype;<br />
ULONG cbFormat;<br />
BYTE pbFormat;<br />
VIDEOINFOHEADER Struktur<br />
BITMAPINFOHEADER bmiHeader;<br />
BITMAPINFOHEADER Struktur<br />
LONG biWidth;<br />
LONG biHeight;<br />
DWORD biCompression;<br />
(...)<br />
oder<br />
WAVEFORMATEX Struktur<br />
WORD wFormatTag;<br />
WORD mChannels;<br />
WORD wBitsPerSample;<br />
(...)<br />
MEDIATYPE_Audio<br />
MEDIATYPE_Video<br />
MEDIATYPE_Midi<br />
MEDIATYPE_Text<br />
...<br />
GUID_NULL<br />
MEDIASUBTYPE_IJPG<br />
MEDIASUBTYPE_QTMovie<br />
MEDIASUBTYPE_RGB555<br />
...<br />
GUID_NULL<br />
MEDIASUBTYPE_PCM<br />
MEDIASUBTYPE_MPEG2_AUDIO<br />
MEDIASUBTYPE_DOLBY_AC3<br />
...<br />
GUID_NULL<br />
GUID_NULL<br />
Abbildung 5.2: Darstellung der Speicherverwaltung und Me<strong>die</strong>ntypenvermittlung nach [Lüd05]<br />
5.1.1 Genutztes Videoformat<br />
Voraussetzung einer Wiedergabe stereoskopischer Bildinhalte ist immer das Vorhandensein von<br />
der linken und rechten Ansicht <strong>eines</strong> Objektes. In der Datenverarbeitung werden demzufolge Me-<br />
<strong>die</strong>ndaten benötigt, welche <strong>die</strong>se beiden Ansichten enthalten oder separate Me<strong>die</strong>ndateien, welche<br />
in Referenz stehen, um ein Raumbild zu erzeugen.<br />
Grundlage sollte ein Format sein welches den Zugriff auf beide Ansichten des <strong>Stereo</strong>bildpaares<br />
ermöglicht und gut zu verarbeiten ist. Durch <strong>die</strong>sen Fakt ist das Anaglyphenformat absolut unge-<br />
eignet. Anaglyphen beinhalten zwar beide Ansichten aber ein nachträglicher Zugriff auf <strong>die</strong> linke<br />
oder <strong>die</strong> rechte Ansicht des Raumbildes ist nicht voll möglich. Weitergehend kann ein Anaglyphen<br />
Format nur schlecht komprimiert werden, da <strong>die</strong> meisten Codecs eine Farbraumreduzierung durch-<br />
führen welche den Raumeindruck im Anaglyphenbild vermindern oder gar ganz zerstören können.<br />
Der Einsatz separater Me<strong>die</strong>ndateien ist <strong>für</strong> <strong>die</strong> direkte Wiedergabe geeignet, da <strong>die</strong>se unmittelbar<br />
von den genutzten Kameras (vgl. Kapitel 4.2) bezogen und den Projektoren zugeführt werden kön-<br />
nen. Bei einer verarbeitenden Instanz zwischen Me<strong>die</strong>nströmen und Projektoren ist Mehraufwand<br />
erforderlich, um mehrere separate Daten zu verwalten.
5.1. DIRECTSHOW 80<br />
Wie in Kapitel 5.3 beschrieben ist ein <strong>Stereo</strong>videoformat, welches <strong>die</strong> rechte und <strong>die</strong> linke Ansicht<br />
in einem Datenstrom vereint, gut geeignet falls eine Nachbearbeitung gewünscht ist. Für <strong>die</strong>ses<br />
Format sind verschiedene Anordnungen der Ansichten denkbar, wie zum Beispiel ein „übereinan-<br />
der“ Format, bei welchem linke und rechte Ansicht übereinander in einer Video Datei gespeichert<br />
sind. Oder ein „Side-by-Side“ Format bei welchem linke und rechte Ansicht nebeneinander ange-<br />
ordnet sind. In <strong>die</strong>sem Format kann, wenn <strong>die</strong> linke Ansicht, rechts und <strong>die</strong> rechte Ansicht links<br />
gespeichert wird, das Format im Kreuzblick betrachtet werden. Ist <strong>die</strong> Anordnung andersherum,<br />
also linkes Video links und rechtes Video rechts kann das <strong>Stereo</strong>bildpaar im Parallelblick betrach-<br />
tet werden.<br />
Desweiteren können bei Ursprungsvideos im interlaced Format <strong>die</strong>se in ein progressives Format<br />
(„doppeltes Interlaced“) gebracht werden, in welchem z.B. gerade Zeilen das linke Bild und unge-<br />
rade Zeilen das rechte Bild enthalten. Diese Variante ist besonders <strong>für</strong> das Betrachten der Raum-<br />
bilder mit einer Shutterbrille (vgl. Kapitel 2.3.5.5) geeignet. Dabei wird der Zeilensprung <strong>eines</strong><br />
Röhrenfernsehers genutzt, bei dem funktionsbedingt <strong>die</strong> Halbbilder nacheinander gezeigt werden.<br />
Der Nachteil des Interlacedverfahren besteht im weiteren in der Komprimierung des Formates, da<br />
nur verlustfreie Codecs oder Kompressionsverfahren, <strong>die</strong> gerade und ungerade Bildzeilen trennen,<br />
zur Anwendung kommen dürfen.<br />
In den in <strong>die</strong>ser Arbeit geschaffenen Implementierungen wurde ein „Side-by-Side Format“, zu<br />
sehen in Abbildung 5.3, genutzt, welches zum einen leichter und schneller zu verarbeiten ist als<br />
das Interlaced Format und zum anderen <strong>die</strong> volle Auflösung der Videos ermöglicht.<br />
Abbildung 5.3: Darstellung des „Side-by-Side Formates“.<br />
Bei <strong>die</strong>sem Format sind das linke und rechte Videobild in einer Me<strong>die</strong>ndatei mit doppelter hori-<br />
zontaler Breite gespeichert. Dies ermöglicht <strong>die</strong> Ver- und Bearbeitung einer <strong>Stereo</strong>videosequenz,<br />
analog <strong>eines</strong> monoskopischen Videos.<br />
Weiter ist <strong>die</strong>ses Format auch ohne Raumbildtechnik betrachtbar, da es im Gegensatz zum Zei-<br />
lenweise verschachtelten „doppelten Interlaced“-Video möglich ist, durch Skalierung jeweils das<br />
linke oder rechte Videobild einzeln darzustellen.
5.1. DIRECTSHOW 81<br />
5.1.2 Rektifikation<br />
Die Rektifikation des Tiefenbildes geschieht nach den in Kapitel 2.3.1 genannten Formeln. Dabei<br />
wird durch Nutzung des Aufnahmewinkels der Kameras das Original einer Trapezverzerrung un-<br />
terzogen. Die Berechnungsvorschrift <strong>für</strong> Pixel des linken berichtigten Bildes ergeben sich durch<br />
<strong>die</strong> Formeln 2.30 und 2.31aus Kapitel 2.3.1.2 welche zur Übersicht nocheinmal dargestellt sind.<br />
XS ′ l =<br />
YS ′ l =<br />
und <strong>die</strong> des rechten Bildes durch:<br />
Dabei sind<br />
XS ′ r =<br />
YS ′ r =<br />
2·fK<br />
1<br />
cosϖ( cos(ϖ+γ) +<br />
1<br />
cos(ϖ−γ) )<br />
fK · cosγ + XSl · sinγ<br />
2·fK<br />
1<br />
cosϖ( cos(ϖ+γ) +<br />
1<br />
cos(ϖ−γ)<br />
· XSl<br />
(5.1)<br />
· cosγ<br />
)<br />
· YSl<br />
fK · cosγ + XSl · sinγ<br />
2·fK<br />
1<br />
cosϖ( cos(ϖ+γ) +<br />
1<br />
cos(ϖ−γ) )<br />
· XSr<br />
(5.3)<br />
fK · cosγ − XSr · sinγ<br />
2·fK<br />
1<br />
cosϖ( cos(ϖ+γ) +<br />
1<br />
cos(ϖ−γ)<br />
· cosγ<br />
)<br />
· YSr<br />
fK · cosγ − XSr · sinγ<br />
• XS ′ l und YS ′ l, <strong>die</strong> Koordinaten des zu projizierenden Bildes<br />
• XSl und YSr, <strong>die</strong> Koordinaten des aufgenommenen Bildes<br />
• fK, <strong>die</strong> Brennweite der Kameras<br />
• ϖ, der Öffnungswinkel der Kameras<br />
• γ, der Konvergenzwinkel der Kameras<br />
Der Unterschied zwischen den Formeln 5.1 und 5.3 liegt in der Drehrichtung der Bilder begründet.<br />
Zur Entzerrung konvergent aufgenommener <strong>Stereo</strong>bilder muss das linke Bild gegen den Uhrzei-<br />
gersinn und das rechte Bild im Uhrzeigersinn gedreht werden. Wie zu sehen ist, handelt es sich bei<br />
<strong>die</strong>ser Transformation um eine Funktion, welche eine lineare Komplexität besitzt, wodurch <strong>die</strong>se<br />
zur Laufzeit der Software durchgeführt werden kann.<br />
In Abbildung 5.4 (oben) ist eine rektifizierte Szenerie zu sehen, welche mit 12 Grad Konvergenz<br />
aufgenommen wurde. Der Konvergenzpunkt liegt auf der Pflanze. In Abbildung 5.4 (unten), ist<br />
<strong>die</strong> gleiche Szenerie ohne Berichtigung dargestellt.<br />
Der Einsatz des entwickelten Transformationsfilters ist in Abbildung 5.5 bei der Nutzung mit dem<br />
Programm „Graphedit“ dargstellt.<br />
Es wird ein <strong>Stereo</strong>video im Side-by-Side Format durch den ersten Filter geöffnet und nach dem<br />
Trennen der Audiokanäle vom Videostrom und der Dekoprimierung der Daten an den ZRektFilter<br />
(5.2)<br />
(5.4)
5.1. DIRECTSHOW 82<br />
Abbildung 5.4: Berichtigte (oben) und originale Szenerie (unten) einer konvergenten Aufnahme<br />
mit 12 Grad Konvergenzwinkel in Anaglyphentechnik (Rot-Grün)<br />
übergeben. Dieser wendet <strong>die</strong> oben beschriebene Transformation mit Hilfe der im Eigenschaften-<br />
dialog angegebenen Parameter an und übergibt das Resultat an einen Videoausgabefilter.
5.1. DIRECTSHOW 83<br />
Abbildung 5.5: Darstellung des Filtergraphen bei Verwendung des Rektifizierungsfilters.<br />
5.1.3 Transformation in das <strong>Stereo</strong>videoformat<br />
Um ein <strong>Stereo</strong>video von Webkameras oder den Videodaten der Kameras im Side-by-Side Format<br />
zu erzeugen, ist ein DirectShow Filter notwendig, welcher über zwei Eingabe- und einen Aus-<br />
gabepin verfügt. Diesem werden über <strong>die</strong> Eingabepins <strong>die</strong> Me<strong>die</strong>ndaten der rechten und linken<br />
Videoquelle übergeben, <strong>die</strong> anschließend in das gewünschte Format geschrieben werden.<br />
In Abbildung 5.6 ist <strong>die</strong>ser Vorgang anhand des Filtergraphen dargstellt.<br />
Abbildung 5.6: Darstellung des Filtergraphen bei Verwendung <strong>eines</strong> dualen Eingabefilters.<br />
Hierbei werden <strong>die</strong> linke und rechte Datei von Directshow-Filtern geöffnet und nach der Tren-<br />
nung von Audio- und Videostrom und Dekomprimierung der Videodaten dem dualen Eingabe-
5.1. DIRECTSHOW 84<br />
filter übergeben. Dieser erzeugt <strong>die</strong> Ausgabe von einem Videobild, in dem <strong>die</strong> Eingabedaten im<br />
<strong>Stereo</strong>videoformat vereint sind. Dieses kann nachfolgend weiterverarbeitet, gespeichert oder wie-<br />
dergegeben werden.<br />
5.1.4 Anaglyphe Wiedergabe<br />
Für <strong>die</strong> Wiedergabe von anaglyphen Bildern wurde ein Filter entwickelt, welcher ein <strong>Stereo</strong>video<br />
im Side-by-Side Format (linkes Videobild links, rechtes Videobild rechts) als Eingabe akzeptiert<br />
und ein Anaglyphbild ausgibt.<br />
Dieser Filter ermöglicht es über den in Abbildung 5.7 gezeigten Dialog:<br />
• in Rot-Cyan,<br />
– echte-,<br />
– graue- und<br />
– farbige Anaglyphen darzustellen,<br />
• in Rot-Blau ebenfalls,<br />
– echte Anaglyphen,<br />
• sowie in Blau-Gelb<br />
– echte Anaglyphen darzustellen.<br />
Abbildung 5.7: Darstellung des Filtergraphen zur Nutzung des Anaglyph Transform Filters und<br />
dessen Einstellungsdialog.
5.1. DIRECTSHOW 85<br />
Der Anaglyphtransformationsfilter erwartet als Eingabe ein <strong>Stereo</strong>video im „Side-by-Side For-<br />
mat“ und erzeugt ein anaglyphes Ausgabebild je nach Einstellung im Eigenschaftendialog des<br />
Filters.<br />
Dabei wurden <strong>die</strong> erzeugten Daten nach folgenden Formeln berechnet:<br />
5.1.4.1 Echte Rot-Blau und Rot-Cyan Anaglyphen<br />
Für eine Konvertierung der Echtfarbenvideobilder in Graustufenbilder wird aufgrund der unter-<br />
schiedlichen Empfindlichkeit der Augen auf <strong>die</strong> Grundfarben <strong>die</strong> folgende Berechnung nach [Bar07]<br />
genutzt:<br />
Y = 0, 2990 · R + 0, 5870 · G + 0, 1140 · B (5.5)<br />
Hier ist Y <strong>die</strong> Luminanz (Helligkeitswert) und R,G,B <strong>die</strong> Farbwerte des Echtfarbenbildes. Diese<br />
Berechnung entspricht der ITU-R 2 Empfehlung 601, welche Standards zur Berechnung von Hel-<br />
ligkeitswerten spezifiziert. Es existieren des weiteren <strong>die</strong> SMPTE 3 240 M Empfehlung, dargestellt<br />
in Formel 5.6, und <strong>die</strong> ITU-R Empfehlung 709, <strong>die</strong> in Formel 5.7 dargestellt wird.<br />
Y = 0, 2120 · R + 0, 7010 · G + 0, 0870 · B (5.6)<br />
Y = 0, 2125 · R + 0, 7145 · G + 0, 0721 · B (5.7)<br />
Da echte Anaglyphen keine Farben enthalten, werden sie durch <strong>die</strong>se Berechnung in Graustu-<br />
fenbilder umgewandelt und zusammengefügt. Somit ergibt sich <strong>für</strong> Anaglyphen in Rot-Blau-<br />
Ko<strong>die</strong>rung unter Nutzung von Formel 5.5:<br />
⎛<br />
⎜<br />
⎝<br />
ra<br />
ga<br />
ba<br />
⎞ ⎛<br />
⎞ ⎛<br />
0, 299 0, 587 0, 114<br />
⎟ ⎜<br />
⎟ ⎜<br />
⎠ = ⎝ 0 0 0 ⎠ · ⎝<br />
0 0 0<br />
r1<br />
g1<br />
b1<br />
⎞<br />
⎛<br />
⎟ ⎜<br />
⎠ + ⎝<br />
0 0 0<br />
0 0 0<br />
0, 299 0, 587 0, 114<br />
⎞<br />
⎛<br />
⎟ ⎜<br />
⎠ · ⎝<br />
Wobei <strong>die</strong> Indizes a <strong>für</strong> Anaglyph stehen, 1 und 2 <strong>für</strong> das Linke und Rechte Ausgangsbild.<br />
r2<br />
g2<br />
b2<br />
⎞<br />
⎟<br />
⎠ (5.8)<br />
Zur Erstellung von echten Rot-Cyan-Anaglyphen wird eine ähnliche Formel genutzt, welche nach<br />
gleichem Prinzip arbeitet:<br />
⎛ ⎞ ⎛<br />
ra 0, 299<br />
⎜ ⎟ ⎜<br />
⎝ ⎠ = ⎝ 0<br />
0, 587<br />
0<br />
⎞ ⎛<br />
0, 114<br />
⎟ ⎜<br />
0 ⎠ · ⎝<br />
ga<br />
ba<br />
0 0 0<br />
r1<br />
g1<br />
b1<br />
⎞ ⎛<br />
⎞ ⎛<br />
0 0 0<br />
⎟ ⎜<br />
⎟ ⎜<br />
⎠ + ⎝0,<br />
299 0, 587 0, 114⎠<br />
· ⎝<br />
0 0 0<br />
r2<br />
g2<br />
b2<br />
⎞<br />
⎟<br />
⎠ (5.9)<br />
2 Die „International Telecommunikation Union - Radiocommunication“ (Internationale Fernmeldeunion) ist eine Unterorganisation<br />
der Vereinten Nationen und <strong>die</strong> einzige Organisation, <strong>die</strong> sich offiziell und weltweit mit technischen<br />
Aspekten der Telekommunikation beschäftigt.<br />
3 Die „Society of Motion Picture and Television Engineers“ ist ein internationaler Verband aus dem Bereich der professionellen<br />
Film- und vor allem Videotechnik in welchem fast alle Herstellerfirmen aus dem Bereich der Videotechnik<br />
Mitglied sind.
5.1. DIRECTSHOW 86<br />
5.1.4.2 Graustufen Anaglyphen<br />
Abbildung 5.8: Echtes Rot-Cyan Anaglyphenbild<br />
Graustufen Anaglyphen erleichtern <strong>die</strong> Betrachtung, da alle Farben verwendet werden und das<br />
Anaglyphenbild dadurch heller erscheint. Nach Formel 5.5 ergibt sich:<br />
⎛<br />
⎜<br />
⎝<br />
ra<br />
ga<br />
ba<br />
⎞ ⎛<br />
⎞ ⎛<br />
0, 299 0, 587 0, 114<br />
⎟ ⎜<br />
⎟ ⎜<br />
⎠ = ⎝ 0 0 0 ⎠ · ⎝<br />
0 0 0<br />
r1<br />
g1<br />
b1<br />
⎞ ⎛<br />
⎞ ⎛<br />
0 0 0<br />
⎟ ⎜<br />
⎟ ⎜<br />
⎠ + ⎝0,<br />
299 0, 587 0, 114⎠<br />
· ⎝<br />
0, 299 0, 587 0, 114<br />
r2<br />
g2<br />
b2<br />
⎞<br />
⎟<br />
⎠ (5.10)<br />
Durch <strong>die</strong>se Berechnung steigt allerdings auch der Anteil an Geisterbildern, da keine 100% Ka-<br />
naltrennung erfolgt.<br />
5.1.4.3 Farbige Anaglyphen<br />
Farbige Anaglyphen erlauben eine Wiedergabe, <strong>die</strong> nicht in Echtfarben aber mit geringfügig rea-<br />
lerer Wirkung als Echte-Anaglyphenbilder wirkt. Da<strong>für</strong> können <strong>die</strong> jeweiligen Farbanteile direkt<br />
zusammengeführt werden. Hier tritt der oben beschriebenen Effekt auf, dass durch <strong>die</strong> unterschied-<br />
liche Sensitivität des Auges <strong>für</strong> Grundfarben <strong>die</strong>se bei Betrachtung <strong>eines</strong> Anaglyphenbildes nicht<br />
korrekt aufgenommen werden können. Im speziellen werden rote Farbtöne nur gering wahrge-<br />
nommen, weswegen es sich anbietet den Rotanteil <strong>eines</strong> Bildes, aus dem Blau- und Grünanteil zu<br />
ermitteln. Dabei werden <strong>die</strong> Farbwerte ad<strong>die</strong>rt und das geometrische Mittel gebildet. Somit ergibt<br />
sich:
5.1. DIRECTSHOW 87<br />
⎛<br />
⎜<br />
⎝<br />
ra<br />
ga<br />
ba<br />
Abbildung 5.9: Graues Anaglyphen Bild.<br />
⎞ ⎛<br />
⎞ ⎛<br />
0 0, 831 0, 161<br />
⎟ ⎜<br />
⎟ ⎜<br />
⎠ = ⎝0<br />
0 0 ⎠ · ⎝<br />
0 0 0<br />
r1<br />
g1<br />
b1<br />
⎞ ⎛ ⎞ ⎛<br />
0 0 0<br />
⎟ ⎜ ⎟ ⎜<br />
⎠ + ⎝0<br />
1 0⎠<br />
· ⎝<br />
0 0 1<br />
Abbildung 5.10: Farbiges Anaglyphen Bild.<br />
r2<br />
g2<br />
b2<br />
⎞<br />
⎟<br />
⎠ (5.11)
5.1. DIRECTSHOW 88<br />
5.1.5 Zweibildschirm Wiedergabe<br />
Bei der Zweibildschirm Wiedergabe muss unterschieden werden unter den in Kapitel 2.3.5 darge-<br />
stellten Methoden, zwischen:<br />
• Headmounted Displays und<br />
• der Polarisationstechnik.<br />
Die Unterschiede finden sich in der technischen Realisierung. So sollte z.B. beim Einsatz von<br />
zwei Projektoren welche ein linkes und ein rechtes Bild „übereinander“ projizieren eine Korrektur<br />
des in Kapitel 2.3.6 beschriebenen Randlichtabfalls erfolgen. Dies kann beim Einsatz von Head<br />
Mounted Display (HMD) vernachlässigt werden, da hier <strong>die</strong> beiden Diplays nur wenig bis gar<br />
keinen Randlichtabfall erzeugen.<br />
Allgemein müssen bei der Zweibildschirmausgabe und einer konvergenten Aufnahme, <strong>die</strong> Bilder<br />
rektifiziert werden und anschließend an <strong>die</strong> Grafikkarte übergeben werden. Hierbei ist es notwen-<br />
dig, dass eine Grafikkarte mit mehreren Ausgängen oder zwei Grafikkarten im Rechnersystem<br />
vorhanden sind. Dabei wird das linke Bild im Vollbildmodus auf dem linken Projektor ausgege-<br />
ben und das rechte Bild auf dem rechten.<br />
Unter Nutzung von DirektShow wurde ein Renderingfilter implementiert, welcher als Eingabe<br />
ein <strong>Stereo</strong>video im Side-by-Side Format akzeptiert und <strong>die</strong>ses so aufbearbeitet, dass <strong>die</strong> oben<br />
beschriebene Vorraussetzungen erfüllt sind. Um <strong>die</strong>sen „Z<strong>Stereo</strong>Renderer“ genannten Filter zu<br />
nutzen muss der Treiber der Grafikkarte auf „Horizontal Span“ gestellt werden, sodaß auf beiden<br />
Projektoren oder Bildschirmen ein gemeinsamer Abreitsplatz eingerichtet ist. Die Verwendung des<br />
<strong>Stereo</strong>renderer-Filters ist in Abbildung 5.11 dargestellt. Hier ist zu sehen, wie der Transformations-<br />
zusammen mit dem Wiedergabefilter arbeitet.<br />
Abbildung 5.11: Darstellung <strong>eines</strong> Filtergraphen bei Verwendung des <strong>Stereo</strong>wiedergabefilters
5.2. GPS-DATEN 89<br />
5.1.6 Wiedergabe über den NVIDIA TM 3D <strong>Stereo</strong> Treiber<br />
Eine weitere Möglichkeit der Wiedergabe stereoskopischer Bildinhalte, <strong>die</strong> mit sehr hoher Ge-<br />
schwindigkeit genutzt werden kann, ist <strong>die</strong> einzelnen Ansichten <strong>eines</strong> Raumbildes direkt über <strong>die</strong><br />
Grafikkarte darzustellen. Dabei liegt der Vorteil darin, dass Berechnungen nicht auf dem Haupt-<br />
prozessor (CPU) sondern auf dem Grafikprozessor (GPU) durchgeführt werden und somit <strong>die</strong> Ka-<br />
pazitäten des Computers besser verteilt werden. Zu <strong>die</strong>sem Zweck existiert von NVIDIA TM ein<br />
Treiberaufsatz, welcher <strong>für</strong> Direct3D R○ oder OpenGL R○ basierte Grafiken Raumbilder erzeugen<br />
kann. Für <strong>die</strong> Installation, Be<strong>die</strong>nung und Einstellung <strong>die</strong>ses Treibers sei auf [NVI01] verwiesen.<br />
Die Kompatibilität <strong>die</strong>ses Treiberaufsatzes ist auf einige wenige NVIDIA TM Grafikkarten be-<br />
schränkt, weshalb bei der Implementation auf <strong>die</strong>sen verzichtet wurde.<br />
5.2 Gps-Daten<br />
GPS-Daten werden von dem in Kapitel 4.5 beschriebenen Aufbau in einen Audiokanal ko<strong>die</strong>rt<br />
und per Software wieder deko<strong>die</strong>rt. Diese Daten sind im NMEA Format, welches im Folgenden<br />
kurz erläutert wird, gespeichert.<br />
Eine Sequenz der Daten im NMEA-Format hat folgenden Aufbau:<br />
$GPRMC,hhmmss.ss,A,llll.ll,a,yyyyy.yy,a,x.x,x.x,ddmmyy,x.x,E,a*hh<br />
1. = Uhrzeit der Positionsbestimmung (hhmmss.ss),<br />
2. = Empfängerwarnung (A = Daten OK, V = Warnung),<br />
3. = Breitengrad (llll.ll),<br />
4. = Nördlich oder Südlich (a),<br />
5. = Längengrad (yyyyy.yy),<br />
6. = Östlicher oder Westlicher Breitengrad (a),<br />
7. = Geschwindigkeit über Grund (Knoten x.x),<br />
8. = wahrer Kurs (ohne Bewegung 0 x.x),<br />
9. = Datum (ddmmyy),<br />
10. = magnetische Deklination in Grad (x.x),<br />
11. = Ost oder West (E),<br />
12. = Modus (a,d,e,n,s) *<br />
13. = Prüfsumme (hh)
5.3. NACHBEARBEITUNG VON STEREOVIDEOS 90<br />
Um <strong>die</strong>ses Format aus dem Audiokanal der Kamera wieder zu extrahieren wird <strong>die</strong>, auf der <strong>die</strong>ser<br />
Arbeit beiliegenden CD enthalte Software „Flexnet32-soundmodem“ genutzt. Diese freie Softwa-<br />
re emuliert ein 4800 Baud Modem über <strong>die</strong> Soundkarte des Computers. Dabei werden <strong>die</strong> Ge-<br />
räusche, welche durch „Tiny-Trak 3 Plus“ (siehe Kapitel 4.5) in einen Audiokanal ko<strong>die</strong>rt wurden<br />
durch <strong>die</strong> Soundkarte abgespielt und von dem „emulierten Modem“ deko<strong>die</strong>rt. In Abbildung 5.12<br />
ist <strong>die</strong> Oberfläche <strong>die</strong>ser Software beim Deko<strong>die</strong>ren gezeigt.<br />
Abbildung 5.12: Screenshot der Anwendung Flexnet-Soundmodem<br />
Hier sind im oberen Teil der Anwendung <strong>die</strong> empfangenen Global Positioning Daten dargestellt<br />
sowie allgemeine statistische Metadaten. Diese ermöglichen es Probleme, <strong>die</strong> beispielsweise bei<br />
der Zwischenkomprimierung aufgetreten sind zu erkennen. In solch einem „Fehlerfall“ werden<br />
erkennbare Bitmuster gebildet welche im unteren Teil der Anwendung zu sehen sind. Wenn bei-<br />
spielsweise <strong>die</strong> Aufnahmelautstärke zu gering war, werden keine Daten deko<strong>die</strong>rt und nur Nullen<br />
dargestellt.<br />
5.3 Nachbearbeitung von <strong>Stereo</strong>videos<br />
Da sich gezeigt hat, dass <strong>die</strong> Nachbearbeitung von <strong>Stereo</strong>videos im Gegensatz zur Bearbeitung<br />
„einfacher“ Videodaten sehr komplex ist, wird hier eine Vorgehensweise beschrieben, <strong>die</strong> den<br />
Aufwand so gering als möglich gestalten soll.<br />
Als erstes sollten <strong>die</strong> zwei Videostöme in ein Side-by-Side, oder übereinander Format gebracht<br />
werden. Damit ist sichergestellt, dass später durch weiteres Bearbeiten kein Höhenversatz oder<br />
Änderungen der Deviation auftreten können. Desweiteren reduzieren sich Probleme beim Schnitt<br />
der Videodaten, da nicht zwei, sondern lediglich eine Datei geschnitten wird. Diese Vorgehens-<br />
weise hat sich auch bei längeren und damit größeren Videos bewährt, da der zusätzliche Zeitauf-
5.3. NACHBEARBEITUNG VON STEREOVIDEOS 91<br />
wand durch Verarbeiten <strong>eines</strong> Videoformates mit doppelter Breite oder Höhe, geringer als bei, der<br />
Editierung zweier Videos ist. Zudem ist in jedem Verarbeitungsschritt eine Kontrolle des stereo-<br />
skopischen Effektes möglich.<br />
Ein zweiter Vorteil <strong>die</strong>ser Herangehensweise ist, dass alle virtuellen Größen im Vorfeld fixiert<br />
werden. Im Allgemeinen kann im Vorfeld, selbst bei sehr großem Vertrauen in <strong>die</strong> Halterung und<br />
<strong>die</strong> Fernbe<strong>die</strong>nung der Kameras nicht vorhergesehen werden, ob und wie groß <strong>die</strong> Justierungspa-<br />
rameter der Einzelvideos bezogen auf Höhenversatz und Deviation im <strong>Stereo</strong>video sind.<br />
5.3.1 Einblenden von Titeln<br />
Beim Einblenden von Titeln muss darauf geachtet werden, dass <strong>die</strong>se nicht ungewollt von vir-<br />
tuellen Objekten durchstoßen werden. Deswegen ist <strong>für</strong> einfache Titel eine Platzierung vor weit<br />
entfernten, unbewegten Objekten am sinnvollsten.<br />
Titel werden durch Erstellen von Bilddaten erzeugt, <strong>die</strong> über alpha-Werte oder Bluescreen Techni-<br />
ken über Einzelbilder des Videos gelegt werden. Dabei sollte das Titelbild <strong>die</strong> gleiche Auflösung<br />
und Größe des <strong>Stereo</strong>videos besitzen, um Fehler bei der Justierung zu vermeiden. Wenn virtuelle<br />
Tiefe im Titel erwünscht ist, wird empfohlen, <strong>die</strong>s mit Renderingprogrammen wie z.B. „3D Studio<br />
Max“, „Maya“, „Blender“ oder „POV-ray“ zu realisieren und durch Videobearbeitungssoftware zu<br />
bearbeiten.<br />
5.3.2 Anwenden von Blend-Effekten<br />
In vielen Situationen beim Schnitt von Videodaten ist es erwünscht, Szenenübergänge durch den<br />
Einsatz von Blenden zu realisieren. Dabei ist zu beachten, dass ein <strong>Stereo</strong>video vom Schnittpro-<br />
gramm als „normales Video“ behandelt wird. Das bedeutet bei Blendeffekten, welche rechts oder<br />
linksseitiges „fahren“ oder „schieben“ realisieren, können leicht Fehler im Raumbild erzeugt wer-<br />
den.<br />
Keine Fehler treten bei der Nutzung von diffusen Blenden oder je nach <strong>Stereo</strong>format genutzte<br />
Überblendeffekte, welche senkrecht zur Anordnung der Bilder im <strong>Stereo</strong>video eingesetzt werden,<br />
auf. Im weiteren bedeutet <strong>die</strong>s, dass ein Überblenden von links oder rechts bei einem <strong>Stereo</strong>video<br />
im übereinander Format eingesetzt werden kann, jedoch im nebeneinander Format (Side-by-Side)<br />
einen <strong>für</strong> den Betrachter unangenehmen Effekt erzielt.<br />
5.3.3 Überlagern von <strong>Stereo</strong>video mit Videoinhalten<br />
Prinzipiell kann in einem <strong>Stereo</strong>video genauso verfahren werden, wie in monoskopischem Video.<br />
Bluescreen Elemente können genutzt werden genauso wie Alphablenden. Es ist darauf zu achten,<br />
das nachträglich eingefügte Elemente <strong>die</strong> Grundregeln der <strong>Stereo</strong>skopie, wie z.B. <strong>die</strong> 70 Minuten<br />
Regel (Kapitel 2.2.2) nicht verletzen oder Höhenversatz erzeugen. Veränderungen der virtuellen<br />
Tiefe, der <strong>Stereo</strong>basis oder anderen filmerischen Techniken ist keine Beschränkung gesetzt.<br />
Zur Realisierung beispielsweise einer Bluescreen Einblendung wird ebenfalls empfohlen, den
5.3. NACHBEARBEITUNG VON STEREOVIDEOS 92<br />
Abbildung 5.13: Ko<strong>die</strong>rung von mehreren Ansichten <strong>eines</strong> Bildes durch eine Tiefenkarte aus<br />
[Gir01], a) Erzeugung der Tiefenkarte b) Berechnung einer Ansicht durch eine<br />
Tiefenkarte<br />
Inhalt nicht in <strong>die</strong> einzelnen Videoströme <strong>für</strong> das linke und rechte Bild einzufügen, sondern<br />
hier <strong>Stereo</strong>video- in <strong>Stereo</strong>video einzufügen. Die dadurch verlängerte Bearbeitungszeit durch den<br />
Schnittplatz steht in geringerem Kontrast als <strong>die</strong> Ausrichtung der Einzelvideos, da deren nachträg-<br />
liche Ausrichtung im <strong>Stereo</strong>format nicht exakt vorhergesehen werden kann.<br />
5.3.4 Kompression von <strong>Stereo</strong>video<br />
<strong>Stereo</strong>skopische Videos können in separaten Me<strong>die</strong>ndateien, im Side-by-Side oder übereinander<br />
Format mit jedem beliebigen Videocodec komprimiert werden. Ein <strong>für</strong> <strong>Stereo</strong>bildpaare optimier-<br />
ter frei zugänglicher Codec existiert jedoch nicht, weswegen ein Kompressionsverfahren welches<br />
ausnutzt, dass sich <strong>die</strong> rechte und linke Ansicht des <strong>Stereo</strong>bildpaares stark ähneln, hier erwünscht<br />
wäre.<br />
Einer der ersten Ansätze mehrere Ansichten einer Szenerie zu ko<strong>die</strong>ren nutzte eine Differenzkar-<br />
te, sodaß ein Bild und <strong>die</strong>se Karte gespeichert werden mussten und nicht zwei Vollfarbenbilder<br />
[Mic86]. Dieser Ansatz findet sich in vielen aktuellen Arbeiten wieder. In Abbildung 5.13 ist ei-<br />
ne Abbildung aus [Gir01] zu sehen, welche das Prinzip der En- und Deko<strong>die</strong>rung von mehreren<br />
Ansichten verdeutlicht.<br />
Dieser Algorithmus macht sich zu Nutze, dass in stereoskopischen Ansichten viele Punkte der<br />
abgelichteten Szenerie in beiden Bildern an verschiedenen Positionen vorhanden sind. Aus <strong>die</strong>ser<br />
Differenz, welche der Deviation entspricht kann ein Tiefenbild berechnet werden. In [Gir01] wer-<br />
den dazu <strong>die</strong> Bilder in Blöcke aufgeteilt und miteinander verglichen. Das entstandene Tiefenbild<br />
muss anschließend verlustfrei gespeichert werden. Hier bietet sich durch <strong>die</strong> Aufteilung in Blöcke<br />
eine Lauflängenko<strong>die</strong>rung an. Bei der Deko<strong>die</strong>rung kann aus einer Ansicht und dem Tiefenbild<br />
<strong>die</strong> zweite Ansicht rekonstruiert werden.<br />
Der Kompressionsfaktor kann noch erhöht werden, wenn nicht nur <strong>die</strong> räumlichen Differenzen<br />
betrachtet werden, sondern auch <strong>die</strong> temporalen [Vik03]. Wenn eine MPEG Ko<strong>die</strong>rung zur Hilfe<br />
genommen wird, bei der das erste I-Bild unabhängig komprimiert wird und im folgenden durch
5.3. NACHBEARBEITUNG VON STEREOVIDEOS 93<br />
pixelweise Subtraktion vom ersten nur <strong>die</strong> Differenzen gespeichert werden (P-Bild), können P-<br />
Bilder höher komprimiert werden als I-Bilder. Eine noch höhere Kompressionsrate wird erzielt,<br />
wenn nicht Differenzen sondern Bewegungsvektoren gespeichert werden, <strong>die</strong> angeben in welche<br />
Richtung sich ein Pixel „bewegt“. Im MPEG-2 Standard wird noch eine dritte Art von Bildern ge-<br />
nutzt (B-Bild), welche typischerweise zwei Referenzen speichern. Eine zum vorherigen Bild, und<br />
eine zum nachfolgenden Bild. Dadurch kann der Enko<strong>die</strong>rer <strong>die</strong> optimale Vorhersage <strong>für</strong> jeden<br />
Block treffen, was <strong>die</strong> Effizienz steigert.<br />
Somit ist das Verfahren der temporalen Komprimierung ähnlich des der räumlichen Komprimie-<br />
rung.<br />
Linke<br />
Ansicht<br />
Rechte<br />
Ansicht<br />
I<br />
B<br />
B B<br />
B<br />
P B B P<br />
B B<br />
B B<br />
Abbildung 5.14: Folge von I,P, und B- Bildern bei der Kompression von stereoskopischen Video<br />
(nach [Vik03])<br />
In Abbildung 5.14 ist der Aufbau des in [Vik03] entwickelten Codecs dargestellt. Die linke Ansicht<br />
wird dabei in herkömmlicher Weise komprimiert, wohingegen <strong>die</strong> rechte Ansicht durch B-Bilder<br />
repräsentiert wird. Diese können am höchsten komprimiert werden und ermöglichen <strong>die</strong> Referen-<br />
zierung von Bildern der linken und rechten Ansicht.<br />
Die „Motion Picture Experts Group“ stellt einen freien Codec <strong>für</strong> Bildungszwecke zur Verfügung.<br />
Dieser heißt „Test Model 5“ (TM5) und kann von der Webseite der MPEG [MPE01] bezogen<br />
werden. Eine Implementation des Codecs von [Vik03] ist auf der, <strong>die</strong>ser Arbeit beiliegenden CD<br />
zu finden.<br />
B
6 Fazit<br />
In <strong>die</strong>sem Kapitel werden <strong>die</strong> Ergebnisse <strong>die</strong>ser Diplomarbeit in einem Überblick zusammenge-<br />
fasst und mögliche Erweiterungen der Kamera vorgestellt.<br />
6.1 Zusammenfassung der Arbeit<br />
Als Ergebnis der Arbeit existieren verschiedene DirectShow Filter zur Be- und Verarbeitung von<br />
<strong>Stereo</strong>videos, sowie Beispielvideos, welche auf der beiliegenden CD zu finden sind und <strong>die</strong> in<br />
Kapitel 4 beschriebene Kamera, welche sich durch eine hohe Anzahl an Freiheitsgraden in Hin-<br />
sicht auf stereoskopische Bilderstellung auszeichnet. Beispielsweise kann neben der synchronen<br />
Aufnahmefunktion<br />
• <strong>die</strong> <strong>Stereo</strong>basis verändert werden,<br />
• <strong>die</strong> Ausrichtung der optischen Achsen der Einzelkameras bei der Aufnahme verändert wer-<br />
den,<br />
• synchron gezoomt und fokussiert werden<br />
• Sensorinformationen Bildsynchron gespeichert werden und<br />
• <strong>die</strong> <strong>Stereo</strong>kamera mobil eingesetzt werden.<br />
Durch <strong>die</strong>se Funktionen wurde eine mobile <strong>Stereo</strong>videokamera erschaffen, <strong>die</strong> im Vergleich mit<br />
den in Kapitel 3.1 vorgestellten Systemen, einen höheren Funktionsumfang bei geringerem Ko-<br />
stenaufwand realisiert.<br />
Eine Aufstellung der Kosten <strong>für</strong> <strong>die</strong> <strong>Stereo</strong>videokameras ist im Anhang <strong>die</strong>ser Diplomarbeit auf<br />
Seite IX in Tabelle A.3 dargestellt. Die dort angegebenen Kosten liegen im Vergleich, zu den im<br />
Kapitel 3.1 vorgestellten <strong>Stereo</strong>videokameras, welche 70.000 Euro und mehr 1 kosten, deutlich<br />
niedriger.<br />
Der Vergleich mit den vorgestellten binokularen Kameras ist nicht direkt möglich. Durch den oben<br />
beschriebenen, deutlich höheren Funktionsumfang und höhere Auflösung des entwickelten <strong>Stereo</strong>-<br />
videokamera Systems.<br />
Durch <strong>die</strong> entwickelte <strong>Stereo</strong>videokamera (vgl. Abbildung 6.1) ist es möglich den menschlichen<br />
Sehvorgang sehr naturgetreu nachzuempfinden. Die Möglichkeit den Konvergenzwinkel bei der<br />
1 Annahme des Autors, da nur der Preis von „TMP S3R 1080i 3D“ ermittelt werden konnte. Da <strong>die</strong> anderen Systeme,<br />
“Pace Fusion 3d“ und „21st Century 3DVX3“ nur mit Be<strong>die</strong>npersonal gemietet werden können wird der Anschaffungspreis<br />
als sehr hoch angenommen.<br />
94
6.2. MÖGLICHE ERWEITERUNGEN DER STEREOKAMERA 95<br />
Abbildung 6.1: Abbildung des Sterovideokamerasystems<br />
Aufnahme von Sterovideos zu ändern und <strong>die</strong> Projektion auf der <strong>Stereo</strong>projektionleinwand des<br />
Lehrstuhls Computergrafik und Visualisierung, welche durch <strong>die</strong> große Bilddiagonale <strong>die</strong> Projek-<br />
tion in Originalgröße ermöglicht, wird <strong>die</strong> Möglichkeit geboten originale Eindrücke zu vermitteln.<br />
Zusammen mit der entwickelten Software, welche <strong>die</strong> Berichtigung und Projektion, von konver-<br />
gent und parallel aufgenommenen Szenarien <strong>für</strong> <strong>die</strong> parallele Projektion ermöglicht, ist somit ein<br />
<strong>Stereo</strong>videosystem entstanden, das in <strong>die</strong>ser Art aktuell einzigartig ist.<br />
Durch <strong>die</strong> Annotation von Videodaten mit GPS Informationen wurden weitere Wissenschaftliche<br />
Arbeiten ermöglicht.<br />
Die entwickelten DirectShow Filter (siehe Kapitel 5.1) sind auf der, der Arbeit beiliegenden CD<br />
inklusive dem benötigten Quelltext enthalten. Dieser Quellcode kann im Sinne der Aufgabenstel-<br />
lung von weiteren Arbeiten genutzt werden. Eine einfache Anwendung, welche den Einsatz von<br />
Filtern demonstriert ist ebenfalls auf der beiliegenden CD zu finden.<br />
6.2 Mögliche Erweiterungen der <strong>Stereo</strong>kamera<br />
An der entwickelten <strong>Stereo</strong>kamera können im Rahmen weiterer Arbeiten <strong>die</strong> im Folgenden be-<br />
schriebenen Erweiterungen getroffen werden. Diese stellen lediglich einen Teil der denkbaren<br />
Modifikationen dar, welche in erster Linie zur Nachempfindung des menschlichen Sehvorgangs<br />
genutzt werden können.
6.2. MÖGLICHE ERWEITERUNGEN DER STEREOKAMERA 96<br />
6.2.1 Aufnahme von <strong>Stereo</strong>panoramen<br />
Die Aufnahme von Panoramen erfolgt heutzutage meist nur als Fotografien, da der Herstellungs-<br />
prozess als auch <strong>die</strong> Wiedergabe <strong>die</strong>ser Rundblicke sehr aufwendig ist. Für <strong>die</strong> Wiedergabe auf<br />
einer planen Fläche, wie beispielsweise einem Monitor, existieren so genannte Schaufenster-<br />
Ansichten von Panoramen, bei welchen der Betrachter einen Teil des Bildes sieht, und in <strong>die</strong>sem<br />
in drei Richtungen navigieren kann. Dabei kann nach rechts und links oder oben und unten „ge-<br />
schaut“ und durch Pixelvergrößerungsalgorithmen gezoomt werden. Das flache Panorama, das zur<br />
korrekten Wiedergabe kugelförmig um den Betrachter herum projiziert werden müsste, erscheint<br />
über <strong>die</strong> Beschneidung durch das „Schaufenster“ korrekt.<br />
Somit ist es möglich 360 ◦ × 180 ◦ Panoramen wiederzugeben. Die Aufnahme solcher Panoramen<br />
erfolgt in der Fotografie entweder durch Erzeugen von Ablichtungen, welche sich in einem be-<br />
stimmten Bereich überlappen und später durch Softwarelösungen „zusammenmontiert“ werden,<br />
oder durch Nutzung einer Panoramakugel wie in Abbildung 6.2 dargestellt.<br />
Abbildung 6.2: Panorama Aufnahme mit Hilfe einer gestauchten Halbkugel (nach [Naj05])<br />
Bei <strong>die</strong>ser handelt es sich um eine gestauchte Halbkugel, welche 360 ◦ × 90 ◦ Panoramen durch<br />
spätere Entzerrung ermöglicht. Bei dem Einsatz einer Vollkugel kann ein ca. 360 ◦ × 130 ◦ Pan-<br />
orama (auch Sphärisches Panorama genannt) erzeugt werden. Die Bildinformation am „Rand“ der<br />
abgelichteten Kugel ist sehr hoch, weshalb der Einsatz von Digitalkameras durch <strong>die</strong> meist zu ge-<br />
ringe Auflösung keine guten Ergebnisse produziert.<br />
Ein entzerrtes Bild <strong>die</strong>ser abgelichteten Sphären wird „equirectangulares Bild“ genannt, welches<br />
<strong>die</strong> doppelte Breite des aufgenommenen Bildes hat, und eine Rundumsicht ermöglicht. Die be-<br />
kannteste Anwendung einer equirectangularen Projektion ist <strong>die</strong> Abbildung der „Weltkarte“ auf<br />
einer ebenen Fläche. Für eine genauere Beschreibung der Equirectangularen Projektion sei auf<br />
[Eli07] verwiesen.<br />
Als Erweiterung der <strong>Stereo</strong>kamera könnten durch Anbringen zweier Kugeln vor den Objekti-
6.2. MÖGLICHE ERWEITERUNGEN DER STEREOKAMERA 97<br />
ven <strong>Stereo</strong>videopanoramen aufgenommen werden, <strong>die</strong> gerade in der Terrainvisualisierung oder<br />
in Computerspielen eingesetzt werden könnten. In Computerspielen würde dadurch ein sehr ho-<br />
her Grad an Realismus erreicht und <strong>die</strong> Modellierung der Spielfläche wird erleichtert, da eine<br />
Aufwendige Modellierung des Spielfeldes im Besonderen in Randbereichen in denen ein Avatar<br />
(Spielfigur) nicht agieren kann, vermieden wird.<br />
<strong>Stereo</strong>panoramen als Videos hätten einen besonderen Reiz wenn sie in Rundumprojektionsräu-<br />
men, wiedergegeben (Cave) werden.<br />
6.2.2 Be<strong>die</strong>neinheit<br />
Die Be<strong>die</strong>neinheit kann in der Hinsicht verbessert werden, dass eine Ansteuerung der Servomo-<br />
toren, z.B. beim Ändern der Fokussierung, über <strong>die</strong> Fernbe<strong>die</strong>nung gelöst werden könnte. Der<br />
entstehende Effekt beschreibt den menschlichen Sehvorgang besser, bei dem <strong>die</strong> Achsen der Au-<br />
gen ebenfalls auf das fokussierte Objekt konvergieren. Zur Realisierung <strong>die</strong>ser Erweiterung müs-<br />
ste der in der Be<strong>die</strong>neinheit vorhandene „Servo-Differenzierbaustein 2 “, sowie der ebenfalls in der<br />
Be<strong>die</strong>neinheit angeordnete Generator <strong>für</strong> das Steuersignal der Servomotoren, mit der Hauptpla-<br />
tine der Fernbe<strong>die</strong>nung gekoppelt werden. Eventuell ist eine Neukonzipierung des Layoutes der<br />
Platine in Betracht zu ziehen.<br />
Weiterhin wäre eine Erweiterung der Be<strong>die</strong>neinheit um <strong>die</strong> Funktion des Vergrößern oder Ver-<br />
kleinern der <strong>Stereo</strong>basis denkbar, <strong>die</strong> ebenfalls eine Layoutänderung der Fernbe<strong>die</strong>nungsplatine<br />
erfordert. Diese Funktion erfordert weiterhin eine Veränderung der Kamerahalterung um Steue-<br />
rungsmöglichkeiten der <strong>Stereo</strong>basis wie in Kapitel 6.2.3 beschrieben wird. Hintergrund <strong>die</strong>ser<br />
Modifikation ist es, einerseits <strong>die</strong> <strong>Stereo</strong>basis während der Aufnahme zu verändern und anderer-<br />
seits <strong>die</strong>se an bestehende Funktionen wie z.B. <strong>die</strong> Fokussierung oder <strong>die</strong> Brennweitenänderung<br />
zu koppeln. Dadurch ist es möglich beim Vergrößern und Verkleinern der <strong>Stereo</strong>basis zusammen<br />
mit der Ansteuerung der Fokussierung, <strong>die</strong> Konvergenzlinie bei konvergenter Aufnahme gleich zu<br />
halten.<br />
Somit könnten multiperspektivische Aufnahmen von einem Objekt durchgeführt werden.<br />
6.2.3 Halterung<br />
An der Halterung der beiden Einzelkameras der <strong>Stereo</strong>kamera können zum einen Verbesserungen<br />
in Hinsicht auf Be<strong>die</strong>nbarkeit und Portabilität zum anderen Erweiterungen der Funktionalität ge-<br />
troffen werden.<br />
Die Portabilität der <strong>Stereo</strong>kamera kann neben der Reduzierung des Gewichtes, z.B. durch das<br />
Tragen der Stromversorgung in einem Rucksack, durch Nutzung <strong>eines</strong> „Steadycam“ Systemes<br />
2 Der „Servo-Differenzierbaustein“ ermöglicht <strong>die</strong> gegensätzliche Ansteuerung und eine Differenzierung der Schritt-<br />
weite der Servomotoren
6.2. MÖGLICHE ERWEITERUNGEN DER STEREOKAMERA 98<br />
(auch Schwebestativ genannt) wie in Abbildung 6.3 gezeigt, verbessert werden. Dieses nutzt das<br />
Trägheitsmoment einer großen Masse (der <strong>Stereo</strong>kamera), um Kipp- und Neigestabilität zu ga-<br />
rantieren. Außerdem wird <strong>die</strong> direkte Verbindung zwischen der kameraführenden Person und der<br />
Kamera entkoppelt.<br />
Abbildung 6.3: Schwebestativ<br />
Da ein Kameraschwebestativ wie in Abbildung 6.3 gezeigt ist, sehr preisintensiv ist (ca. 17.000<br />
Euro [Vid07]), kann <strong>die</strong>s auch selbst entwickelt werden. Dazu sei auf <strong>die</strong> Anleitung in [Eng07]<br />
verwiesen.<br />
Eine weitere praktische Modifikation der Halterung kann durch das Befestigen <strong>eines</strong> Kontroll-<br />
monitors an der Halterung erreicht werden. An <strong>die</strong>sem müssten über eine Schaltung <strong>die</strong> Kameras<br />
angeschlossen werden, über <strong>die</strong> <strong>die</strong> aufgenommenen Bilder direkt, z.B. in Anaglyphendarstellung,<br />
betrachtet werden können. Die da<strong>für</strong> notwendige Schaltung müsste <strong>die</strong> Signale der Farbkompo-<br />
nenten beider Kameras als Eingabe verwenden und ein Anaglyphenbild ausgeben. Dieses kann<br />
anschließend beispielsweise mit einem <strong>portablen</strong> TFT-Monitor betrachtet werden.<br />
Eine Verringerung des Kameragewichts ist durch Modifikation der Halterung möglich. Beispiels-<br />
weise kann <strong>die</strong> Halterung aus Kohlefasern gefertigt werden. Im Rahmen <strong>die</strong>ser Diplomarbeit wur-<br />
de auf solch eine Halterung aus Kostengründen verzichtet.<br />
6.2.4 Sensordaten<br />
Für den Einsatz von Sensordaten, welche synchron zu Videoteilbildern gespeichert werden, könn-<br />
ten verschiedene Anpassungen durchgeführt werden.<br />
Falls eine genauere Positionsbestimmung der <strong>Stereo</strong>kamera gewünscht ist, kann das „Differential<br />
Global Positioning System“ (DGPS) genutzt werden. Dieses bezeichnet das Verfahren, zwei oder<br />
mehr GPS-Empfänger zur Steigerung der absoluten Positionsgenauigkeit einzusetzen. Es werden<br />
<strong>die</strong> Koordinatendifferenzen zwischen den Empfangsstationen bestimmt, wodurch ein Großteil der<br />
Fehlereinflüsse eliminiert werden kann. Durch <strong>die</strong>ses Verfahren ist es möglich, <strong>die</strong> Genauigkeit
6.3. FORSCHUNGSFRAGEN 99<br />
der Positionsbestimmung auf unter einen Zentimeter zu steigern.<br />
Mit DGPS-Empfängern können ortsfeste Referenzstationen genutzt werden, von welchen <strong>die</strong> geo-<br />
grafische Position mit sehr hoher Genauigkeit bekannt ist. Der gemessene Entfernungsfehler zum<br />
Satelliten und dessen zeitliche Änderung wird <strong>für</strong> jeden empfangenen GPS-Satelliten von <strong>die</strong>ser<br />
Station bestimmt und an alle DGPS-Empfänger der Region übermittelt. Zur Kalibrierung <strong>die</strong>ses<br />
Systems in Deutschland wird meist der Satellitenpositionierungs<strong>die</strong>nst der deutschen Landesver-<br />
messung (SAPOS) verwendet, welcher Korrekturdaten über verschiedene Netze, wie beispiels-<br />
weise GSM, Funk, Telefon oder Internet zur Verfügung stellt.<br />
Zur Nutzung anderer Sensordaten müssten <strong>die</strong> Anschlussmöglichkeiten an das in Kapitel 4.5 vor-<br />
gestellte „TinyTrak3“ verändert und <strong>die</strong> Firmware des Mikroprozessors angepasst werden. Zu<br />
<strong>die</strong>sem Zweck sei auf das „OpenTracker+“ Projekt [N1V05] verwiesen, bei welchem Firmwa-<br />
re und Platinenlayout zur Verfügung gestellt werden. OpenTracker+ arbeitet nach dem gleichen<br />
Prinzip wie TinyTrak3 und wird als OpenSource Projekt geführt. In weiteren Arbeiten könnte eine<br />
Firmware entwickelt werden, <strong>die</strong> es durch Komprimierung oder Umko<strong>die</strong>rung der Sensordaten<br />
ermöglicht, Daten von zwei oder mehr Sensoren in den Audiokanal zu ko<strong>die</strong>ren oder <strong>die</strong>se mit<br />
den vom Mikrofon aufgenommen Audiodaten mischt, um <strong>die</strong> Verwendung von allen vier Audio-<br />
kanälen zu garantieren.<br />
6.3 Forschungsfragen<br />
Mit der entwickelten Kamera können viele verschiedene wissenschaftliche Arbeiten durchgeführt<br />
werden. Diese beziehen sich auf das komplette Gebiet der stereoskopischen Aufnahme, Verarbei-<br />
tung und Wiedergabe von Daten.<br />
Einige notwendige Arbeiten werden nachfolgend vorgestellt und sollen einen Anstoß <strong>für</strong> eventuell<br />
folgende Arbeiten bilden.<br />
6.3.1 Datenverarbeitung<br />
Im Rahmen der Datenverarbeitung stereoskopischer Bildinhalte und der Verarbeitung von Sensor-<br />
daten existieren keine oder nur unzulängliche Softwarelösungen.<br />
6.3.1.1 Aufnahme von <strong>Stereo</strong>videodaten<br />
Die Aufnahme von <strong>Stereo</strong>videos erfolgt aktuell meist nach Standardgeometrie, also der paralle-<br />
len Ausrichtung der optischen Kameraachsen. Wie in Kapitel 2.2.1 beschrieben, muss bei <strong>die</strong>ser<br />
Justierung das entstandene Raumbild rechts und links beschnitten werden. Bei einer konvergen-<br />
ten Aufnahme ist <strong>die</strong>s nicht der Fall, allerdings muss hier eine Schrägprojektion, wie in Kapitel<br />
2.3.1 beschrieben, durchgeführt werden. In <strong>die</strong>ser Arbeit wurde vorgestellt, wie <strong>die</strong>se anhand <strong>eines</strong><br />
bekannten Konvergenzwinkels durchgeführt wird. Da der Konvergenzwinkel bei einer Schrägpro-<br />
jektion (auch Rektifizierung genannt) nicht immer bekannt ist, existieren Verfahren, welche <strong>die</strong>-
6.3. FORSCHUNGSFRAGEN 100<br />
sen Winkel anhand von Bilddaten errechnen. Die echtzeitfähige Anwendung <strong>die</strong>ser Verfahren ist<br />
aktuell nicht möglich und sollte, gerade bei einem sich ändernden Konvergenzwinkel erforscht<br />
werden. Die in solch einer Arbeit entstehenden Grundlagen sind <strong>für</strong> den Bereich der Photogame-<br />
trie im Zusammenhang mit multiperspektivischen Bildern sehr interessant, da zur Erzeugung von<br />
Tiefenkarten rektifizierte Bildinformationen <strong>die</strong> Ausgangslage bilden.<br />
6.3.1.2 Verarbeitung von <strong>Stereo</strong>videodaten<br />
Gerade im Bereich der Videobildverarbeitung von Raumbildern wird Software benötigt <strong>die</strong>, das<br />
Schneiden und Bearbeiten der verschiedenen <strong>Stereo</strong>videoformate unterstützt. Wie in Kapitel 5.3<br />
beschrieben, ist <strong>die</strong> Verwendung von herkömmlichen Videobearbeitungsprogrammen <strong>für</strong> den Ein-<br />
satz an Raumbildinformationen unzulänglich.<br />
Wünschenswert wären Lösungen, <strong>die</strong> folgende Punkte verwirklichen.<br />
• <strong>die</strong> Synchronisierung von <strong>Stereo</strong>videos anhand verschiedener Algorithmen vereinfacht (z.B.<br />
durch Kantenfindungsverfahren)<br />
• das Hinzufügen von Titeln mit Unterstützung der Positionierung in der Tiefe<br />
• <strong>die</strong> Erstellung von Tiefenkarten realisiert, um künstliche Objekte oder weitere Raumbilder<br />
mit den aufgenommenen Daten zusammenzuführen können<br />
• <strong>die</strong> Verwendung von Blenden jeglicher Art unterstützt<br />
• <strong>die</strong> Komprimierung von <strong>Stereo</strong>videos nach dem im Kapitel 5.3.4 vorgestellten Verfahren<br />
realisiert<br />
• <strong>die</strong> Abbildung von Sensordaten ermöglicht, beispielsweise von GPS-Daten als Mini-Landkarte<br />
im Bild<br />
6.3.1.3 Speicherung von <strong>Stereo</strong>videodaten<br />
Die Speicherung von <strong>Stereo</strong>bildpaaren wird aktuell durch <strong>die</strong> gleichen Verfahren realisiert wie<br />
<strong>die</strong> Speicherung von monoskopischem Video. Wie in Kapitel 5.3.4 erläutert, kann <strong>die</strong>s effektiver<br />
durch Ausnutzung von Similaritäten in den Einzelbildern des <strong>Stereo</strong>bildpaares erfolgen. In <strong>die</strong>ser<br />
Hinsicht sollten Komprimierungs- und Dekomprimierungsalgorithmen entworfen werden, welche<br />
<strong>die</strong> Speicherung und damit auch <strong>die</strong> Übertragung von stereo- und multiperspektivischem Video<br />
optimieren.<br />
6.3.1.4 Sensordaten<br />
In Bezug auf <strong>die</strong> Datenverarbeitung und <strong>die</strong> Einbettung von Daten in Videoströme sind sehr viele<br />
Forschungsansätze denkbar. So zum Beispiel <strong>die</strong> Annotierung von Videos durch weitere Informa-<br />
tionen nach Ansätzen der Augmented Reality. Hier könnten Sensordaten genutzt werden, um auf<br />
den Anwendungsfall passende Daten anzuzeigen. So könnte ein Navigationsystem, welches ein
6.3. FORSCHUNGSFRAGEN 101<br />
Sportler <strong>für</strong> das Training zu einem Fahrradmarathon verwendet, durch Daten über den physischen<br />
Zustand des Nutzers eine schwerere oder leichtere Streckenführung berechnet.<br />
Durch stereoskopische Bildinformationen könnte in <strong>die</strong>sem Fall im Vorfeld <strong>die</strong> Oberfläche der<br />
Straße und deren Breite bestimmt werden, wodurch <strong>die</strong> Navigation noch exakter zugeschnitten<br />
werden kann.<br />
Um <strong>die</strong>ses futuristische Szenario realisieren zu können sind dem Stand der Forschung noch einige<br />
Arbeiten vorausgesetzt. Bei <strong>die</strong>sen sollten Filtermechanismen entwickelt werden, <strong>die</strong> <strong>die</strong> aufge-<br />
nommenen Daten in der gewünschten Darstellungsvariante verarbeiten und visualisieren.<br />
6.3.2 Verwendung stereoskopischer Aufnahmen<br />
<strong>Stereo</strong>skopische oder multiperspektivische Aufnahmen können in vielen Einsatzbereichen hilf-<br />
reich sein. So werden Multisensorsysteme beispielsweise aktuell in der Automobilproduktion<br />
in Prototypen eingesetzt, <strong>die</strong> ohne Einwirkung des Fahrers Einparken, Warnungen signalisieren,<br />
wenn <strong>die</strong> Fahrspur verlassen wird oder sich gar gänzlich ohne Fahrer im öffentlichen Raum bewe-<br />
gen.<br />
Desweiteren kann <strong>die</strong> in Raumbildern enthaltene Tiefeninformation genutzt werden, um Personen<br />
oder Gesten [Hof05] zu erkennen, was im Bereich der Mensch-Computer-Interaktion ein großes<br />
Forschungsgebiet darstellt. In <strong>die</strong>sem Zusammenhang ist <strong>die</strong> Visualisierung von dreidimensiona-<br />
len Daten und <strong>die</strong> Interaktion mit <strong>die</strong>sen ein großes Forschungsgebiet.<br />
Die Anwendungen einer <strong>Stereo</strong>kamera im Bereich <strong>die</strong>ses Erfassens von räumlichen Informationen<br />
liegen auf der Hand. Die durch stereoskopische Aufnahmen gesammelten Tiefenbilder könnten<br />
beispielsweise über <strong>die</strong> Verknüpfung mit GPS-Daten dreidimensionale Abbildungen der aufge-<br />
nommenen Szenarios erzeugen und im Bereich der Terrainmodellierung eingesetzt werden. Die<br />
Erstellung von dreidimensionalen Punktwolken durch <strong>die</strong> Verarbeitung von <strong>Stereo</strong>videoinforma-<br />
tionen können bei der Berechnung physikalischer Eigenschaften von beispielsweise Stoffen, Pa-<br />
pier, Flüssigkeiten oder Gasen genutzt werden. Auch <strong>die</strong> GPS-Navigation kann durch Unterstüt-<br />
zung von stereoskopischen Ansichten verbessert werden. So wäre ein System vorstellbar, welches<br />
nach dem Ansatz der Augmented Reality stereoskopische Ansichten, <strong>die</strong> durch stereoskopisches<br />
Video erzeugt werden könnten, direkt zur Navigation von Fahrzeugen und Fußgängern eingesetzt<br />
werden.<br />
Aufgrund <strong>die</strong>ser und weiterer Nutzungsmöglichkeiten <strong>für</strong> <strong>Stereo</strong>videokameras ist das Gebiet der<br />
multiperspektivischen Sensordatenerfassung, -verarbeitung und -speicherung ein interessantes The-<br />
ma <strong>für</strong> weitere Arbeiten.
A Anhang<br />
A.1 Hinweise zur Be<strong>die</strong>nung der <strong>Stereo</strong>videokamera<br />
Die Be<strong>die</strong>nung der entwickelten <strong>Stereo</strong>videokamera unterscheidet sich im technischen Verständ-<br />
nis nicht von der Handhabung <strong>eines</strong> Camcorders. Allerdings sind einige Aufnahmeregeln, welche<br />
an verschiedenen Stellen in der Diplomarbeit genannt wurden, zu beachten. Diese werden hier<br />
neben einigen Hinweisen zur Be<strong>die</strong>nung und Handhabung genannt.<br />
Vor der Benutzung der <strong>Stereo</strong>videokamera ist <strong>die</strong> Be<strong>die</strong>nungsanleitung der Einzelkameras, sowie<br />
<strong>die</strong>se Diplomarbeit zu konsultieren.<br />
A.1.1 Aufnahmeregeln<br />
Bei der Aufnahme von stereoskopischen Bildern ist zu beachten, dass <strong>die</strong> Tiefeninformation in<br />
einem Raumbild bestimmte Grenzen nicht überschreiten darf.<br />
Da das menschliche Gehirn nur begrenzte Tiefeninformationen verarbeiten kann, begrenzt sich<br />
<strong>die</strong> in einem <strong>Stereo</strong>bild enthaltene Tiefe. Eine Verletzung <strong>die</strong>ser Regel kann dazu führen, dass<br />
ein Tiefenbild nicht mehr als <strong>die</strong>ses wahrgenommen werden kann, sondern beide Einzelbilder zu<br />
sehen sind, was ein großes Unbehagen erzielt.<br />
Wie in Kapitel 2.1 beschrieben wird der Wert, welcher <strong>die</strong> Tiefeninformation beschreibt, Deviation<br />
genannt. Diese sollte nicht größer als 1<br />
30 der Bildbreite sein. Dieser Wert folgt der 70′ Minutenregel<br />
welche in Kapitel 2.2.2 beschrieben wird. Aus <strong>die</strong>ser kann eine einfache Bedingung abgeleitet<br />
werden, sodaß bei paralleler Ausrichtung der Kameras <strong>die</strong>se Regel immer eingehalten wird. Diese<br />
ist in Formel A.1<br />
Entfernung zum Nahpunkt ≥ <strong>Stereo</strong>basis · Brennweite (A.1)<br />
Die einzelnen Größen sind in Abbildung 2.4 erläutert.<br />
A.1.2 Be<strong>die</strong>neinheit<br />
Die Be<strong>die</strong>neinheit besteht aus der Fernbe<strong>die</strong>nung <strong>für</strong> <strong>die</strong> <strong>Stereo</strong>kamera, dem Gerät zur Verarbei-<br />
tung der Sensordaten und der Steuerungseinheit <strong>für</strong> <strong>die</strong> Servomotoren.<br />
I
A.1. HINWEISE ZUR BEDIENUNG DER STEREOVIDEOKAMERA II<br />
A.1.2.1 Stromversorgung<br />
Beide Geräte (Fernbe<strong>die</strong>nung und Sensorverarbeitungsbaustein) besitzen eigenständige Stomver-<br />
sorgungen. So wird <strong>die</strong> Fernbe<strong>die</strong>nung durch drei Batterien vom Typ AAA (LR03), und das GPS-<br />
Datenverarbeitende Gerät durch einen 9V Block versorgt. Da <strong>die</strong> Fernbe<strong>die</strong>nung, wenn sie an <strong>die</strong><br />
Kameras angeschlossen ist, durch Betätigen des Schalters <strong>für</strong> <strong>die</strong> externe Stromversorgung von<br />
den Kameras gespeist wird, ist ein Batteriewechsel nicht allzu oft notwendig. Deswegen sind <strong>die</strong><br />
drei Batterien der Fernbe<strong>die</strong>nung, in der Be<strong>die</strong>neinheit unter dem Display zufinden.<br />
Da der GPS-Empfänger einen höheren Stromverbrauch hat, ist dessen 9V-Block im Batteriefach<br />
am gut zugänglichen Tragegurt der Kamera angebracht.<br />
Die Servomotoren zur Steuerung der Kamerastellung werden über vier AA (LR06) Batterien be-<br />
trieben, <strong>die</strong> ebenfalls am Gurt der Kamera befestigt sind. Der Einsatz von wiederaufladbaren Ak-<br />
kus ist möglich und wird aufgrund der Kostenfaktoren von Batterien empfohlen.<br />
A.1.2.2 Einstellen des Konvergenzwinkels<br />
Der Konvergenzwinkel der <strong>Stereo</strong>kamera kann durch Betätigung des Drehreglers auf der Be-<br />
<strong>die</strong>neinheit verändert werden. Dabei ist darauf zu achten, dass bei geringen <strong>Stereo</strong>basen ab be-<br />
stimmten Konvergenzwinkeln <strong>die</strong> Kameras zusammenstoßen können. Da <strong>die</strong> Servomotoren eine<br />
hohe Leistung von 190N/cm besitzen, d.H. eine Kraft von 19 KG im Drehradius von einem Zen-<br />
timeter, können durch <strong>die</strong>se Kräfte <strong>die</strong> Einzelkameras beschädigt werden.<br />
Aus <strong>die</strong>sem Grund sollte vor jeder Inbetriebnahme der Drehregler auf der Be<strong>die</strong>neinheit maximal<br />
in Uhrzeigerrichtung gereht werden.<br />
A.1.2.3 Anschluss der Einzelkameras<br />
Der Anschluss der Einzelkameras an <strong>die</strong> Be<strong>die</strong>neinheit erfolgt über ein Y-förmiges Kabel, dass<br />
an einem Ende einen D-SUB9 Stecker und auf der anderen Seite zwei 2,5mm Klinkenstecker be-<br />
sitzt. Die Klinkenstecker werden in <strong>die</strong> mit „Remote“ gekennzeichneten Buchsen an den Kameras<br />
gesteckt und der D-SUB9 Stecker wird an der Be<strong>die</strong>neinheit mit dem, mit „Kameras“ gekenn-<br />
zeichneten Anschluss, verbunden.<br />
Es ist darauf zu achten, daß <strong>die</strong>ses Kabel nicht mit dem Anschluss des GPS-Sensors verbunden<br />
wird, da <strong>die</strong>ser mit einer höheren Spannung betrieben wird, welche Fehlfunktionen in den Kame-<br />
ras auslösen kann.<br />
A.1.3 Anschluss <strong>eines</strong> Sensors<br />
Der GPS-Empfänger wird mit dem DSub9 Stecker an der Be<strong>die</strong>neinheit mit dem, mit GPS-<br />
Empfänger bezeichneten Anschluss, verbunden. Wenn der Schalter an der rechten Seite der Be-<br />
<strong>die</strong>neinheit betätigt wird, leuchtet eine Status-LED durch eine Öffnung auf der Oberfläche der
A.1. HINWEISE ZUR BEDIENUNG DER STEREOVIDEOKAMERA III<br />
Be<strong>die</strong>neinheit, welche mit Power gekennzeichnet ist. Die darunter befindlichen Anzeigen signali-<br />
sieren:<br />
• Trägersignal erkannt (wird nicht verwendet)<br />
• gültige GPS- Daten werden empfangen<br />
• Daten werden in den Audiokanal geschrieben.<br />
A.1.3.1 Funktionsübersicht der Fernbe<strong>die</strong>nung<br />
Die Handhabnung der Fernbe<strong>die</strong>nung erfolgt nach dem Einschalten durch den „AN/AUS“ Schal-<br />
ter durch <strong>die</strong> vier Taster über dem Display.<br />
Im Display werden in der oberen Zeile <strong>die</strong> Funktionen angezeigt, und bei verbundenen Kameras<br />
in der zweiten Zeile <strong>die</strong> zeitliche Differenz (Shift) der Kamerasoszillatoren in µ Sekunden. In der<br />
zweiten Zeile auf der rechten Seite wird angezeigt, wie der Ladestand der Fernbe<strong>die</strong>nungsbatteri-<br />
en ist. Dabei bedeutet ein Wert über fünf, dass <strong>die</strong> Batterien voll sind, ein Wert von drei oder vier<br />
bedeutet eine normale Kapazität und ein geringerer Wetr als drei deutet auf leere Batterien hin.<br />
Falls <strong>die</strong> Kapazität zu gering wird, wird in der oberen Zeile „empty battery“ angezeigt.<br />
Die Funktionen der Fernbe<strong>die</strong>nung werden durch das Drücken der vier Taster ausgeführt. Da-<br />
bei sind <strong>die</strong> linken drei Taster Funktionstaster, der rechte Knopf wechselt Programme und besitzt<br />
eine Shift Funktion. Das bedeuet, das <strong>die</strong> initial existierenden Funktionen von Hereinzoomen,<br />
Herauszoomen und Aufnahme starten/beenden durch Drücken des rechten Knopfes gewechselt<br />
werden können. Durch einmaliges Drücken werden <strong>die</strong> Funktionen umgestellt und mit den drei<br />
linken Tastern können <strong>die</strong> Menüfunktionen der Kameras ausgewählt werden. Durch zweimaliges<br />
Drücken werden selbst belegbare Funktionen aktiviert. In jeder Programmauswahlstufe ist durch<br />
ein Drücken und Halten des rechten Tasters <strong>die</strong> Shiftfunktion aktiv, welche weitere Funktionen<br />
wie beispielsweise im Initialzustand das Ein/Ausschalten ermöglicht. Eine ebenfalls hinter der<br />
Shiftfunktion verborgene Resetfunktion kann genutzt werden, um <strong>die</strong> Einzelkameras kurz aus-<br />
und gleich wieder einzuschalten, um den Synchronlauf der Camcorder zu starten.<br />
Die weiteren Funktionen sind in der Be<strong>die</strong>nungsanleitung welche sich auf der, der Arbeit beilie-<br />
genden CD befindet, beschrieben.<br />
A.1.4 Anschluss an einen PC<br />
Über ein serielles Nullmodemkabel kann <strong>die</strong> Be<strong>die</strong>neinheit mit einem PC verbunden werden.<br />
Wenn Änderungen an der Fernbe<strong>die</strong>nung wie beispielsweise <strong>die</strong> Konfiguration der frei belegba-<br />
ren Funktionen oder das Auslesen von Daten sowie <strong>die</strong> grafische Darstellung einer Kurve, welche<br />
zeitabhängig <strong>die</strong> Synchronität der Kameras anzeigt, gewünscht wird, kann das Nullmodemkabel<br />
auf der rechten Seite der Be<strong>die</strong>neinheit mit dem, mit PC gekennzeichneten Anschluss verbunden<br />
werden. Über <strong>die</strong> Software „3D-Lanc Communicator“ können dann <strong>die</strong> erwünschten Modifikatio-<br />
nen durchgeführt werden.
A.1. HINWEISE ZUR BEDIENUNG DER STEREOVIDEOKAMERA IV<br />
Soll <strong>die</strong> Ko<strong>die</strong>rung der GPS-Daten verändert werden, kann ein Nullmodemkabel mit dem An-<br />
schluss des GPS-Empfängers verbunden werden und über <strong>die</strong> Software „TinyTrakConfig“ ver-<br />
schiedene Einstellungen getroffen werden.<br />
Die notwendigen Anwendungen befinden sich auf der CD, welche <strong>die</strong>ser Arbeit beiliegt.<br />
A.1.4.1 Programmierung der Fernbe<strong>die</strong>nung<br />
Es besteht <strong>die</strong> Möglichkeit einzelne Funktionen der Fernbe<strong>die</strong>nung zu verändern. Der dazu benö-<br />
tigte Quellcode der Fernbe<strong>die</strong>nung befindet sich auf der der Arbeit beiliegenden CD. Die Program-<br />
mierung erfolgt über ein der Kamera beiliegendes Programmierkabel (vgl. Abbildung A.1.4.1),<br />
welches an den parallelen Anschluss <strong>eines</strong> Computers und an <strong>die</strong> Programmierschnittstelle der<br />
Fernbe<strong>die</strong>nungsplatine angeschlossen wird. Um an <strong>die</strong> Programmierschnittstelle der Fernbe<strong>die</strong>-<br />
nungsplatine zu gelangen müssen <strong>die</strong> vier Schrauben, welche an den Ecken des Displays zu finden<br />
sind, gelöst werden und <strong>die</strong> Leiterplatte samt Display und Schaltern aus der Be<strong>die</strong>neinheit genom-<br />
men werden. Die Programmierschnittstelle befindet sich rechts auf der Platine, wobei der strom-<br />
führende Pin der unterste ist. Es ist darauf zu achten, dass es sich um eine ISP-Programmierung<br />
handelt, bei der der Mikrokontroller nicht über den Programmieranschluss, sondern über <strong>die</strong> eige-<br />
ne Stomversorgung versorgt wird.<br />
Abbildung A.1: Abbildung des Programmierkabels zum Ändern der Fernbe<strong>die</strong>nungsfirmware
A.1. HINWEISE ZUR BEDIENUNG DER STEREOVIDEOKAMERA V<br />
Epilepsiewarnung<br />
Bei einem sehr geringen Anteil der Bevölkerung können Fernsehbilder oder<br />
Videospiele, <strong>die</strong> Lichtblitze enthalten, epileptische Anfälle auslösen.<br />
Folgende Personenkreise sollten vor der Benutzung <strong>eines</strong> <strong>Stereo</strong>skopiesystems<br />
ärztlichen Rat einholen:<br />
• Kinder unter 5 Jahren<br />
• Personen, in deren Verwandtschaft bereits Fälle von Epilepsie aufgetreten sind<br />
• oder <strong>die</strong> selber an Epilepsie leiden<br />
• Personen, bei denen das Betrachten von Lichtblitzeffekten in der Vergangenheit<br />
schon einmal epileptische Anfälle oder Sinnesstörungen ausgelöst hat.
A.2. LANC PROTOKOLL VI<br />
A.2 LANC Protokoll<br />
Sony LANC TM Protokoll Parameter<br />
Adresse Wert Adresse Wert<br />
0 program 1 78 AUX<br />
2 program 2 7A slow +<br />
4 program 3 7C slow -<br />
6 program 4 7E<br />
8 program 5 80<br />
0A program 6 82 display mode<br />
0C program 7 84 menu up<br />
0E program 8 86 menu down<br />
10 program 9 88 tracking/fine +<br />
12 program 0 (10: SL-HF950 MKII) 8A tracking/fine -<br />
14 program 11 (SL-HF950 MKII) 8C counter reset<br />
16 enter, program 12 (SL-HF950 MKII) 8E zero mem<br />
18 program 13 90 index mark<br />
1A program 14 92 index erase<br />
1C program 15 94 shuttle edit +<br />
1E program 16 96 shuttle edit -<br />
20 program + 98 data code or goto<br />
22 program - 99 data code or recording parameters<br />
24 9A menu<br />
28 x2 9E input select<br />
2A power (or viewfinder) off A0<br />
2B photo write A2 execute<br />
2C eject A4 quick timer<br />
2E main/sub A6 index<br />
30 stop A8<br />
32 pause AA<br />
33 start/stop AC index search +<br />
34 play AE index search -<br />
35 tele (only CCD-V90) B0 tape speed<br />
36 rew B2 goto zero / tape return (not DV)<br />
37 wide (only CCD-V90) B4 counter display, data screen<br />
38 fwd B6 open/close (SL-HF950), replay (FauHaEss)<br />
39 photo capture B8 timer display<br />
3A rec BA<br />
3C rec-pause (some devices) BC<br />
3E BD date display off<br />
40 still BE<br />
42 BF date display on<br />
44 x1/10 C0 timer set<br />
46 x1/5 (sometimes: vis. scan) C2 menu right, next<br />
48 C4 menu left<br />
4A x14 C6 timer clear<br />
4C x9 C8 timer check<br />
4E tracking auto/manual CA timer record<br />
50 search - CC<br />
52 search + CE<br />
54 TV/VTR D0 audio dub<br />
58 D4 edit assemble<br />
5A VTR D6 edit mark<br />
5B date search / photo search / photo scan D8 synchro edit<br />
5E power off DC digital off (VCR), print (DV)<br />
60 rev frame DE speed +<br />
62 fwd frame E0 speed -<br />
64 E2 stop motion<br />
65 edit-search - E4<br />
66 x1 E6<br />
67 edit-search + E8 channel scan / flash motion<br />
69 rec-review (not i.e. TR-2200) EC voice boost<br />
6C sleep F0<br />
6E tracking normal F2<br />
74 rew+play F8 digital scan<br />
Auf nächster Seite fortgesetzt. . .
A.2. LANC PROTOKOLL VII<br />
Sony LANC TM Protokoll Parameter<br />
Adresse Wert Adresse Wert<br />
76 FA high-speed-rew<br />
FC still/shuttle (EV-S880)<br />
Sub-Command in Byte 0:<br />
0010 1000 (bin)<br />
The following table shows the actual<br />
Command-Codes to the device.<br />
Only valid with the corresponding Sub-<br />
Command in Byte 0.<br />
0 variable speed zoom Tele: slowest speed<br />
2 variable speed zoom Tele: faster than 00<br />
4 variable speed zoom Tele: faster than 02<br />
6 variable speed zoom Tele: faster than 04<br />
8 variable speed zoom Tele: faster than 06<br />
0A variable speed zoom Tele: faster than 08<br />
0C variable speed zoom Tele: faster than 0A<br />
0E variable speed zoom Tele: fastest speed<br />
10 variable speed zoom Wide: slowest speed<br />
12 variable speed zoom Wide: faster than 10<br />
14 variable speed zoom Wide: faster than 12<br />
16 variable speed zoom Wide: faster than 14<br />
18 variable speed zoom Wide: faster than 16<br />
1A variable speed zoom Wide: faster than 18<br />
1C variable speed zoom Wide: faster than 1A<br />
1E variable speed zoom Wide: fastest speed<br />
25 Fader<br />
27 rec start (DV)<br />
29 rec stop (DV)<br />
30 variable speed zoom Tele (avoiding digital<br />
zoom, some cameras): slowest speed<br />
32 variable speed zoom Tele (avoiding digital<br />
zoom, some cameras): faster than 30<br />
34 variable speed zoom Tele (avoiding digital<br />
zoom, some cameras): faster than 32<br />
35 Zoom Tele slow (working all cameras since<br />
approx. 1996)<br />
36 variable speed zoom Tele (avoiding digital<br />
zoom, some cameras): faster than 34<br />
37 Zoom Wide slow (working all cameras since<br />
approx. 1996)<br />
38 variable speed zoom Tele (avoiding digital<br />
zoom, some cameras): faster than 36<br />
39 Zoom Tele fast (working all cameras since<br />
approx. 1996)<br />
3A variable speed zoom Tele (avoiding digital<br />
zoom, some cameras): faster than 38<br />
3B Zoom Wide fast (working all cameras since<br />
approx. 1996)<br />
3C variable speed zoom Tele (avoiding digital<br />
zoom, some cameras): faster than 3A<br />
3E variable speed zoom Tele (avoiding digital<br />
zoom, some cameras): fastest speed<br />
41 Auto-Focus on/off (not if there is a real<br />
switch at the camera)<br />
45 Focus manual far<br />
47 Focus manual near<br />
49 White balance toggle (not if white balance is<br />
selected via menu)<br />
4B Backlight (not DV)<br />
51 Backlight (DV)<br />
53 Exposure<br />
61 Shutter<br />
77 White balance reset (not if white balance is<br />
selected via menu)<br />
85 Memory impose (models of the early 90’s)<br />
Auf nächster Seite fortgesetzt. . .
A.3. MESSUNG DER SYNCHRONITÄT DER CAMCORDER VIII<br />
Sony LANC TM Protokoll Parameter<br />
Adresse Wert Adresse Wert<br />
87 Color / Mode (models of the early 90’s)<br />
89 Superimpose (models of the early 90’s)<br />
Tabelle A.1: Steuerbefehle des LANC Protokoll nach [Boe07]<br />
Abbildung A.2: LANC Belegung des 2,5mm Klinken Steckers und LANC Symbol<br />
A.3 Messung der Synchronität der Camcorder<br />
Zeit Versatz Zeit Versatz<br />
s µs s µs<br />
0 19 660 278<br />
10 17 900 446<br />
20 28 1200 710<br />
30 28 1500 1043<br />
40 29 1800 1440<br />
50 32 2100 1892<br />
60 36 2400 2410<br />
90 36 2700 2987<br />
120 45 3000 3626<br />
180 63 3300 4325<br />
240 84 3600 5044<br />
300 98 3900 5743<br />
420 156 4200 6467<br />
540 208<br />
Tabelle A.2: Messdaten der Synchronität der Camcorder (Auszug)
A.4. KOSTENAUFSTELLUNG FÜR DIE ENTWICKELTE STEREOVIDEOKAMERA IX<br />
A.4 Kostenaufstellung <strong>für</strong> <strong>die</strong> entwickelte <strong>Stereo</strong>videokamera<br />
Anzahl Preis<br />
Kameras Sony HDR-SR1E 2 2499,98 Euro<br />
Halterung:<br />
Halterungsrahmen 1 61,22 Euro<br />
Servomotoren 2 129,90 Euro<br />
Servo Differenzierbaustein 1 24,20 Euro<br />
Aluminium Platten 2 3,38 Euro<br />
diverse Schrauben ca. 60 22,7 Euro<br />
Winkel und Griffe je 2 11,87 Euro<br />
Befestigungsmaterial 2,76 Euro<br />
Schnellwechseladapter 2 121,55 Euro<br />
Be<strong>die</strong>neinheit:<br />
Wendelpotentiometer: 1<br />
Audiokabel und Stecker 3 10,47 Euro<br />
Verlängerungskabel 2 6,98 Euro<br />
TinyTrak3Plus Bausatz 1 83,40 Euro<br />
GPS-Empfänger 1 49,95 Euro<br />
Adapterkabel fuer GPS Empfänger 1 11,45 Euro<br />
Bauelemente der Fernbe<strong>die</strong>nung ca. 90 89,23 Euro<br />
Diverse Batterien 12 16,9 Euro<br />
Summe: 3145,94 Euro<br />
Tabelle A.3: Kosten <strong>für</strong> <strong>die</strong> <strong>Stereo</strong>videokamera incl. 19% MwSt.
A.4. KOSTENAUFSTELLUNG FÜR DIE ENTWICKELTE STEREOVIDEOKAMERA X<br />
Abkürzungsverzeichnis<br />
µs Mikrosekunde<br />
AP I Advanced Programming Interface (Programmierschnittstelle)<br />
AP RS Automatic Positioning/Packet Reporting System<br />
AV CHD Advanced Video Codec High Definition<br />
BAS Bild Austast-Synchron Signal<br />
bspw. beispielsweise<br />
ca. circa<br />
cm Zentimeter<br />
CP U Central Processing Unit, (Hauptprozessor)<br />
DivX Digital Video Express<br />
DT MF Dual Tone Multiple Frequency (Doppeltonmehrfequenz, Mehrfrequenz-<br />
wahlverfahren)<br />
DV Digital Video<br />
DV B Digital Video Broadcasting<br />
DV I Digital Visual Interface<br />
EXIF Exchangeable Image File Format<br />
F BAS Farb-Bild-Austast-Synchron-Signal<br />
ggf. gegebenenfalls<br />
GHz Giga Herz<br />
GP S Global Positioning System<br />
GP U Graphic Processing Unit, (Grafikprozessor)<br />
HDMI High Definition Multimedia Interface<br />
HDT V High Definition Television<br />
HDV High Definition Video<br />
Hz Herz (Einheit der Frequenz)<br />
ISO International Organization for Standardization<br />
IT U International Telecommunikation Union<br />
IT U − R International Telecommunikation Union - Radiocommunication<br />
kbit Kilobit<br />
LANC Local Application Control Bus System<br />
LP/SP Aufnahme long play/standard play (Bandgeschwindigkeit bei der Aufnahme)<br />
m Meter<br />
MAZ Magnetische Aufzeichnung<br />
Mbps Megabit pro Sekunde (Datenübertragungsrate)
A.4. KOSTENAUFSTELLUNG FÜR DIE ENTWICKELTE STEREOVIDEOKAMERA XI<br />
MOF D Maximum on film deviation, Maximale Deviation auf dem Film (Bild-<br />
sensor)<br />
MP 3 MPEG-1 Audio Layer 3 (Dateiformat zur verlustbehafteten Audiokom-<br />
pression)<br />
MP EG Moving Picture Experts Group<br />
MP EG − 4 Standardisiertes Containerformat der MPEG<br />
ms Millisekunde<br />
NMEA National Marine Electronics Association<br />
NT SC National Television System Committee<br />
Ogg Container Dateiformat <strong>für</strong> Multimedia-Dateien<br />
OGM Ogg Media<br />
P AL Phase Alternating Line<br />
P C Personal Computer<br />
P DA Personal Digital Assistant<br />
S − V ideo Separate Video<br />
SCART Syndicat des Constructeurs d’Appareils Radiorécepteurs et Téléviseurs<br />
SDI Serial Digital Interface<br />
SMP T E Society of Motion Picture and Television Engineers<br />
T BC Time Base Corrector<br />
UKW Ultrakurzwelle<br />
V CR Video Cassette Recorder<br />
V DR Video Disk Rekorder (Harddiskrekorder, Festplattenrekorder)<br />
V ESA Video Electronics Standards Association<br />
V fW Video for Windows<br />
vgl. vergleiche<br />
V HS Video Home System<br />
V T R Video Tape Recorder<br />
W DM Windows Driver Model - (Treiberschnittstelle)<br />
XML Extendet Markup Language<br />
z.B. zum Beispiel<br />
z.Zt. zur Zeit
Literaturverzeichnis XII<br />
Literaturverzeichnis<br />
[Alb92] ALBERT, S. Pastoor M. Wöpking J. Fournier T.: Digital stereoscopic imaging & app-<br />
lications. 1992. – Report of a DISTIMA Project, RACE 2- R2045, DISTIMA Deliver-<br />
able 26<br />
[AP95] AZARBAYEJANI, A. ; PENTLAND, A.: Camera selfcalibration from one point cor-<br />
respondence. 1995. – MIT media laboratory, perceptual computing technical report<br />
Nr.341, 1995.<br />
[ATV00] A. FUSIELLO ; TRUCCO, E. ; VERRI, A.: A Compact Algorithm for Rectification of<br />
<strong>Stereo</strong> Pairs. In: Machine Vision and Applications 12 (2000), Nr. 1, S. 16–22<br />
[Bar07] BARTHEL, Prof. Dr. Kai U.: Farbsysteme (2). PDF. 2007. – http:<br />
//www.f4.fhtw-berlin.de/~barthel/veranstaltungen/SS07/<br />
Mete1/vorlesungen/Farbsysteme.pdf [Stand:21.05.2007]<br />
[Ber98] BERCOVITZ, J.: Image-Side Perspective and <strong>Stereo</strong>scopy. Paper. 1998. – in <strong>Stereo</strong>s-<br />
copic Displays and Virtual Reality Systems V, S. Fisher, J. Merritt, M. Bolas, Editors,<br />
Proceedings of the SPIE vol. 3295, Lawrence Berkeley National Laboratory, Berkeley,<br />
CA<br />
[Ber04] BERGER, Klaus: Einführender Vergleich in <strong>die</strong> Korrespondenzanalyse. 2004. – For-<br />
schungsbericht. Technische Universität Wien, Proseminar „Grundlagen wissenschaft-<br />
lichen Arbeitens“<br />
[Blo07] BLOOS, Werner: ste-fra R○CAM. Webseite. 2007. – http://www.digi-dat.de/<br />
produkte/ [Stand:12.05.2007]<br />
[Boe07] BOEHMEL, Manfred: SONY Protokolle. Webseite. 2007. – http://www.<br />
boehmel.de/protocl.htm [Stand:12.02.2007]<br />
[CD07] 21ST CENTURY 3D: 21st Century 3D: 3DVX3.5, Adds Hyperstereo and Solid<br />
State Recording. (2007). – http://www.21stcentury3d.com/press/<br />
pr-070130-3dvx35.html [Stand:02.06.2007]<br />
[Cro07] CROCKETT, R.: LANC Shepherd, Wired Remote for <strong>Stereo</strong> Video and Digital <strong>Stereo</strong><br />
Photography. Webseite. 2007. – http://www.ledametrix.com/lancshep/<br />
index.html [Stand:10.04.2007]<br />
[Dai07] DAIMLERCHRYSLER, Infitec: DaimlerChrysler, Infitec, Wellenlängenmultiplex Vi-<br />
sualisierungssysteme, 2007. – http://www.infitec.net/infitec.pdf<br />
[Stand:02.04.2007]
Literaturverzeichnis XIII<br />
[DAK06] DOUGLAS A. KERR, P.E. Derivation of the „Cosine Fourth“ Law for Falloff of Illu-<br />
minance Across a Camera Image. Paper. 2006<br />
[DFS07] 3D-FOTO-SHOP: 3D Foto Shop, 3D- Ausrüstungen, 3D Grafiken, 3D Bil-<br />
der, 3D-Kameras. Webseite. 2007. – http://www.3d-foto-shop.de/<br />
pi-615054883.htm?categoryId=7 [Stand:02.06.2007]<br />
[Die07] DIENSTLEISTUNGEN, Digi D.: Digi Dat, Dienstleistungen - Anlagen - Technik.<br />
Webseite. 2007. – http://www.digi-dat.de/produkte/index.html#<br />
stefraLANC [Stand:10.04.2007]<br />
[Eli07] ELIASON, Eric: The EQUIRECTANGULAR projection. Webseite. 2007.<br />
– http://hirise-pds.lpl.arizona.edu/PDS/CATALOG/DSMAP.CAT<br />
[Stand: 20.06.2007]<br />
[Eng07] ENGLUND, Malin: The Ultimate Homebuild Stabilizers. Webseite. 2007. – http:<br />
//www.cafepress.com/stabilizer [Stand: 12.06.2007]<br />
[Gir01] GIRODB, Marcus Magnora Peter Eiserta B.: Multi-View Image Coding with Depth<br />
Maps and 3-D Geometry for Prediction, 2001. – Telecommunications Laboratory, Uni-<br />
versity of Erlangen-Nuremberg, Informations Systems Laboratory, Stanford University<br />
[Gmb07] MORE3D GMBH: More3d SoftwareSuite, MoreVideo. Webseite. 2007. – http:<br />
//www.more3d.de/german/morevideo_d.htm [Stand:15.05.2007]<br />
[GMR07] GRAPHIC MEDIA RESEARCH, Cannon F.: 3D Camera Slidebar. Webseite. 2007. –<br />
http://www.pokescope.com/cameras/ [Stand:12.05.2007]<br />
[Her07] HERBIG, Gerhard P.: Infos rund um <strong>die</strong> <strong>Stereo</strong>skopie und <strong>Stereo</strong>fotografie. Websei-<br />
te. 2007. – http://www.herbig-3d.de/german/stereofotografie_<br />
frame.htm?own [Stand:30.03.2007]<br />
[Hes10] HESS, Carl: Die Reaktion und Akkomodation des menschlichen Auges und ihre Anoma-<br />
lien. 3. neubearb. Auflage. 1910<br />
[Hof05] HOFMANN, O.P. Burmeister M.G. Litza M. Nitschke U.: Synchronous stereo-video and<br />
biosignal recording - a basic setup for Human-Computer-Interface applications. 2005.<br />
– In: IEEE Proceedings of the 2nd Int’l Conference on Neural Engineering<br />
[IDS07] IO DISPLAY SYSTEMS, LLC: NuView Camcorder Adapter. Webseite.<br />
2007. – http://i-glassesonline.stores.yahoo.net/nuview.html<br />
[Stand:15.06.2007]<br />
[IG07] ITEM INDUSTRIETECHNIK GMBH: item, Online Katalog, Winkelgetriebe WG 180 ◦ D.<br />
2007. – http://catalog.item-international.com/Onlinekatalog/<br />
?sprache=DE [Stand:25.06.2007]<br />
[inc07a] INC., 3DCombine: 3DCombine. Webseite. 2007. – http://www.3dcombine.<br />
com/ [Stand:12.06.2007]
Literaturverzeichnis XIV<br />
[Inc07b] INC., Spatial V.: Spatial View, SVI 19” Series - the Affordable. PDF. 2007.<br />
– http://www.spatialview.com/products.cfm?cat=100&id=190<br />
[Stand:02.04.2007]<br />
[Int06] INTEL, Corporation: Open Source Computer Vision Library. Webseite. 2006.<br />
– http://www.intel.com/technology/computing/opencv/index.<br />
htm, [Stand 20.06.2007]<br />
[ISO04] ISO/IEC 14496, Information technology – Coding of audio-visual objects, 2004.<br />
– http://www.iso.org/iso/en/StandardsQueryFormHandler.<br />
StandardsQueryFormHandler?scope=CATALOGUE&sortOrder=<br />
ISO&committee=ALL&isoDocType=ALL&title=true&keyword=14496<br />
[Stand: 08.06.2007]<br />
[Koc93] KOCH, A. Woods T. Docherty R.: Image Distortions in <strong>Stereo</strong>scopic Video Systems.<br />
1993. – in <strong>Stereo</strong>scopic Displays and Applications IV, John O. Merrit, Scott S. Fisher,<br />
Editors, Proc. SPIE 1915, pp. 36-48, 1993.<br />
[Lac95] LACOTTE, B.: Elimination of keystone and crosstalk effects in stereoscopic video,<br />
1995. – in stereoscopic video, Tech. Rep. 95-31, INRS-Telecommunications, Universite<br />
du Quebec, Institut national de la recherche scientique<br />
[Lüd05] LÜDTKE, Robin: Multimediaschnittstelle Microsoft DirectShow, Bergakademie Frei-<br />
berg, Diplomarbeit, 2005<br />
[Mad07] MADDY, R.: PuppetKites.net,Depth of Field/Circle of Confusion an Indicator of Op-<br />
timum Deviation? Webseite. 2007. – http://www.puppetkites.net/blog/<br />
archives/31 [Stand:02.04.2007]<br />
[Med07] MEDIAGROUP, TMP: TMP Mediagroup 3D Produktion in 3D <strong>Stereo</strong>- Virtuelle<br />
Realität- 3D Filmproduktion- Powerwall. Webseite. 2007. – http://www.<br />
tmp-mediagroup.de/ [Stand:02.06.2007]<br />
[Mic86] MICHAEL, Lukacs: Predictive coding of multi-viewpoint image sets. 1986. – Proc. on<br />
ICASSP 86<br />
[MPE01] MPEG.ORG: Motion Picture Experts Group, Test Model 5. 2001. – http://www.<br />
mpeg.org/MPEG/MSSG/#source [Stand:4.06.2007]<br />
[Mü02] MÜHLMANN, Dipl.-Ing. K.: Design und Implementierung <strong>eines</strong> Systems zur schnellen<br />
Rekonstruktion dreidimensionaler Modelle aus <strong>Stereo</strong>bildern, Diss., 2002. – Universi-<br />
tät Mannheim, Fakultät <strong>für</strong> Mathematik und Informatik<br />
[N1V05] N1VG.NET: OpenTracker Projekt. Webseite. 2005. – http://n1vg.net/<br />
opentracker/ [Stand:19.06.2007]<br />
[Naj05] NAJAR, K.: Computational Cameras: Convergence of Optics and Software, 2005. –<br />
International Conference on Computer Graphics and Interactive Techniques, Boston,<br />
Massachusetts, Article No. 6
Literaturverzeichnis XV<br />
[NVI01] NVIDIA, Corporation: DRIVERS FOR WINDOWS, NVIDIA 3D <strong>Stereo</strong> User’s Guide,<br />
Revision 2.0. (NVIDIA Webseite). 2001. – http://www.nvidia.de/object/<br />
LO_20011212_3592.html [Stand:29.05.2007]<br />
[Pac07] PACE: Pace Fusion 3d camera system. Webseite. 2007. – http://www.pacehd.<br />
com/ [Stand:02.06.2007]<br />
[Pas87] PASTOOR, Siegmund: Bevorzugte Betrachtungsbedingungen bei großformatigem 2D-<br />
und 3D-Standbildern. Psychooptische Begründung <strong>für</strong> einen 3DTV Standard. 1.Aufla-<br />
ge. 1987<br />
[Pro07a] PRODUCTS, Berezin <strong>Stereo</strong> P.: Adjustable - Twin Vertical Mount. Websei-<br />
te. 2007. – http://www.berezin.com/3d/slidebars.htm#Photo3D<br />
[Stand:12.05.2007]<br />
[Pro07b] PRODUCTS, Berezin <strong>Stereo</strong> P.: Fixed - Twin Vertical Mount. Webseite. 2007. – http:<br />
//www.berezin.com/3d/slidebars.htm#Photo3D [Stand:12.05.2007]<br />
[Pro07c] PRODUCTS, Berezin <strong>Stereo</strong> P.: Heavy Duty Slide Bars. Webseite. 2007. – http:<br />
//www.berezin.com/3d/slidebars.htm#Photo3D [Stand:12.05.2007]<br />
[PS07] PHOTO-SONICS, Inc.: Photo-Sonics Inc., V-Data Video Accessories. Webseite. 2007.<br />
– http://photosonics.com/Sales_HTLM/Downloads/VED-M_Data_<br />
Sheet.pdf [Stand:13.02.2007]<br />
[PTJE07] PHOTO TOOLS JASPER ENGINEERING, California: Twin Camera Bar. Websei-<br />
te. 2007. – http://www.stereoscopy.com/jasper/twin-bar.html<br />
[Stand:12.05.2007]<br />
[Qui07] QUICK, Dr. P.: KMQ In <strong>die</strong> 3. Dimension. Webseite. 2007. – http://<br />
www.kmq3d.de/In_<strong>die</strong>_3__Dimension/in_<strong>die</strong>_3__dimension.html<br />
[Stand:02.04.2007]<br />
[RHS07] RED HEN SYSTEMS, Inc.: Red Hen Systems, Video Collection Hardware - VMS-X.<br />
Webseite. 2007. – http://www.redhensystems.com/products/video_<br />
collection_hardware/default.asp?sm=1 [Stand:12.02.2007]<br />
[Rub07] RUBIO, David: DR-3D Home, David Rubio Discussion Forum. Webseite. 2007. –<br />
http://www.davidrubio3d.com/ [Stand:02.06.2007]<br />
[Sch05] SCHÖNFELD, Jochen: Die <strong>Stereo</strong>skopie, Zu ihrer Geschichte und ihrem medialen Kon-<br />
text, Fakultät <strong>für</strong> Kulturwissenschaften der Universität Tübingen, Kunsthistorisches In-<br />
stitut, Diplomarbeit, 2005<br />
[Sch07] SCHULTE, D.: Welt der <strong>Stereo</strong>skopie. Webseite. 2007. – http://www.<br />
stereoskopie.com/<strong>Stereo</strong>skopie__Theorie_und_Prax/Aus_der_<br />
Fruhgeschichte_der_Ste/body_aus_der_fruhgeschichte_der_<br />
ste.html [Stand:13.04.2007]
Literaturverzeichnis XVI<br />
[Som05] SOMIESKI, Katharina: Aufbau <strong>eines</strong> Forschungsplatzes <strong>für</strong> <strong>die</strong> geometrische <strong>Stereo</strong>-<br />
analyse, Technische Universität Dresden, Institut <strong>für</strong> künstliche Intelligenz, Lehrstuhl<br />
Erkennende Systeme und Bildverarbeitung, Diplomarbeit, 2005<br />
[Sta07] STARKS, Michael: SpaceBar. Webseite. 2007. – http://www.3dmagic.com/<br />
catalog/solidcamhd.html [Stand:12.05.2007]<br />
[Sut07] SUTO, Masuji: <strong>Stereo</strong>Movie Maker. Webseite. 2007. – http://stereo.jpn.<br />
org/eng/stvmkr/ [Stand:12.06.2007]<br />
[Vid07] VIDEO, B&H P.: Steadicam F24VLBHS Flyer-24 Camera Stabilizer (NTSC/PAL) with<br />
V-Lock Mount. 2007. –<br />
B&H Photo Video New York, N.Y. 10001http://www.bhphotovideo.com/c/<br />
product/446403-REG/Steadicam_F24VLBHS_F24VLBHS_Flyer_24_<br />
Camera_Stabilizer.html/kw/STF24IDXBPCV [Stand: 12.06.2007]<br />
[Vie65] VIERLING, Otto: Die <strong>Stereo</strong>skopie in der Photographie und Kinematographie. 1.Auf-<br />
lage. 1965<br />
[Vik03] VIKTOR, Nordling: Efficient Compression of <strong>Stereo</strong>scopic Video Using the MPEG<br />
Standard, Royal Institute of Technology, SE-100 44 Stockholm, Sweden, Diplomarbeit,<br />
2003<br />
[Vra06] VRANCIC, D.: 3D Lanc Master, LANC remote controller for stereoscopic camcorders<br />
/ still cameras, Department of Systems and Control, J. Stefan Institute, Ljubljana, Di-<br />
plomarbeit, 2006<br />
[Weh07] WEHRLI, P.: Polarisation von Licht. Webseite. 2007. – http:<br />
//homepage.hispeed.ch/philipp.wehrli/Physik/Klassische_<br />
Physik/Polarisation_von_Licht/polarisation_von_licht.html<br />
[Stand:02.04.2007]<br />
[Wik07a] WIKIPEDIA: Wikipedia, Die freie Enzyklopä<strong>die</strong>, Video for Windows. Webseite.<br />
2007. – http://de.wikipedia.org/w/index.php?title=Video_for_<br />
Windows&oldid=19305333 [Stand:15.05.2007]<br />
[Wik07b] WIKIPEDIA: Wikipedia, Die freie Enzyklopä<strong>die</strong>, VR-Helm. Webseite. 2007.<br />
– http://de.wikipedia.org/w/index.php?title=VR-Helm&oldid=<br />
27012018 [Stand:02.04.2007]<br />
[Wim04] WIMMER, Dipl. Ing. P.: Aufnahme und Wiedergabe stereoskopischer Videos im Anwen-<br />
dungsbereich der Telekooperation, Johannes Kepler Universität Linz, Diss., 2004<br />
[Wim07] WIMMER, Peter: 3dtv.at, <strong>Stereo</strong>scopic Multiplexer und <strong>Stereo</strong>scopic Player. Webseite.<br />
2007. – http://www.3dtv.at [Stand:12.06.2007]<br />
[Yan95] YANG, Cheng H.: Geometric Models in <strong>Stereo</strong>scopic Video, 1995. – Universite du<br />
Quebec, Institut national de la recherche scientifique, in INRS-Telecommunications<br />
[Zha98] ZHANG, Zhengyou: A Flexible New Technique for Camera Calibration., 1998. – Tech-<br />
nischer Bericht MSR-TR-98-71, Microsoft Research
Abbildungsverzeichnis XVII<br />
Abbildungsverzeichnis<br />
1.1 Abbildung der <strong>Stereo</strong>projektionsleinwand des Lehrstuhls Computergrafik und Vi-<br />
sualisierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7<br />
1.2 Abbildung der zwei Projektoren mit Polarisationsfiltern . . . . . . . . . . . . . . 8<br />
2.1 Querdisparation und Parallaxe . . . . . . . . . . . . . . . . . . . . . . . . . . . 12<br />
2.2 <strong>Stereo</strong>skopisches Scheinfenster . . . . . . . . . . . . . . . . . . . . . . . . . . . 15<br />
2.3 Radialer Spiegelvorsatz und aufgenommenes Bild mit eingezeichneten Strahlen-<br />
gängen aus [Naj05] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19<br />
2.4 <strong>Stereo</strong>skopische Aufnahme und Wiedergabe . . . . . . . . . . . . . . . . . . . . 21<br />
2.5 Epipolargeometrie nach [ATV00] . . . . . . . . . . . . . . . . . . . . . . . . . . 24<br />
2.6 Aufnahme mit konvergierenden und parallelen Kameraachsen . . . . . . . . . . 25<br />
2.7 Bestimmung der Koordinaten <strong>eines</strong> Objektpunktes <strong>für</strong> den linken Bildsensor nach<br />
[Lac95] wobei COkl = fk, CH = X0, MG = Y0, GH = Z0, ∠CEO =<br />
∠CGH = α und ∠CF O = γ ist. . . . . . . . . . . . . . . . . . . . . . . . . . 26<br />
2.8 Finden der linken korrigierten Ebene S’ bei Schrägprojektion (nach [Lac95]),<br />
a)zweidimensionale Abbildung b)dreidimensionale Abbildung . . . . . . . . . . 27<br />
2.9 Schematische Darstellung der Projektion <strong>eines</strong> virtuellen Objektes. . . . . . . . . 30<br />
2.10 Funktionsprinzip der Infitec Interferenzfiltertechnik aus [Dai07] . . . . . . . . . 35<br />
2.11 Randlichtabfall bei Nutzung von Projektoren. a) Mittige Projektion b) Schrägpro-<br />
jektion c) Schrägprojektion auf spezielle Leinwand . . . . . . . . . . . . . . . . 38<br />
2.12 Schematische Darstellung einer a) konvergenten Aufnahme, b) parallelen Aufnah-<br />
me und des c) nicht linearen Tiefeneindruck. Nach [Koc93] . . . . . . . . . . . 39<br />
3.1 21st Century 3DVX3 Kamera [CD07] . . . . . . . . . . . . . . . . . . . . . . . 41<br />
3.2 <strong>Stereo</strong>kamera basierend auf zwei Mini-DV Camcordern [DFS07] . . . . . . . . . 42<br />
3.3 <strong>Stereo</strong>kamera basierend auf zwei Industriekameras [Rub07] . . . . . . . . . . . 43<br />
3.4 NuView Adapter zur zeitsequentiellen Aufnahme von <strong>Stereo</strong>bildpaaren [IDS07] . 44<br />
4.1 VMS-X: Aufnahme der GPS Informationen durch einen „Active Interface Shoe R○ “<br />
[RHS07] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53<br />
4.2 Model VED-M: Annotieren von Videobildern mit GPS Informationen [PS07] . . 53<br />
4.3 Vierkanal Surround Mikrofon (Eigenentwicklung) . . . . . . . . . . . . . . . . . 54<br />
4.4 ste-fra R○ CAM: Halterung <strong>für</strong> 2 Kameras . . . . . . . . . . . . . . . . . . . . . 58<br />
4.5 Entwurf einer Kamerahalterung mit Winkelgetrieben. . . . . . . . . . . . . . . . 59<br />
4.6 Schematische Darstellung der Justierung um <strong>Stereo</strong>basen unter 8,2 cm zu erreichen. 59
Abbildungsverzeichnis XVIII<br />
4.7 Abbildung <strong>eines</strong> <strong>Stereo</strong>bildpaares mit einer <strong>Stereo</strong>basis von 6 cm. . . . . . . . . 60<br />
4.8 Halterung der Einzelkameras an der <strong>Stereo</strong>kamera und Be<strong>die</strong>neinheit . . . . . . . 60<br />
4.9 Ausgabe des Justierungsprogrammes . . . . . . . . . . . . . . . . . . . . . . . . 62<br />
4.10 Anwendung des Tesprogramms um <strong>die</strong> synchronität der Grafikkartenausgänge zu<br />
testen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62<br />
4.11 LANC Shepherd: Fernbe<strong>die</strong>nung zur Steuerung zweier Kameras über das LANC<br />
Protokoll [Cro07] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64<br />
4.12 3DLANCMaster: selbst entwickelte Fernbe<strong>die</strong>nung nach Anleitung von [Vra06] . 65<br />
4.13 Diagramm des zeitlichen Verlaufs der Synchronität beider Camcorder. Die X-<br />
Achse stellt <strong>die</strong> abgelaufene Zeit in Sekunden und <strong>die</strong> Y-Achse <strong>die</strong> Differenz der<br />
Timingsignale zwischen den Camcordern in µ-Sekunden dar. . . . . . . . . . . . 67<br />
4.14 TinyTrak3: Konverter zur Transformation serieller Daten in Audiodaten. . . . . . 68<br />
4.15 GPS-Maus: serieller Global Positioning System Empfänger. . . . . . . . . . . . 69<br />
4.16 Kamerakalibrierung nach [Zha98] der linken Kamera des <strong>Stereo</strong>systems <strong>für</strong> <strong>die</strong><br />
geringste Brennweite. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70<br />
4.17 Koordinatensysteme bei der Abbildung nach [Som05] . . . . . . . . . . . . . . . 72<br />
4.18 Kalibrierungsaufnahme mit Schachbrettmuster einer Einzelkamera des <strong>Stereo</strong>sy-<br />
stems. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73<br />
4.19 Transformation des globalen Koordinatensystems in das Koordinatensystem der<br />
linken Kamera (nach [Mü02]) . . . . . . . . . . . . . . . . . . . . . . . . . . . 74<br />
5.1 Darstellung <strong>eines</strong> DirectShow Filtergraphen im Programm Graphedit. . . . . . . 77<br />
5.2 Darstellung der Speicherverwaltung und Me<strong>die</strong>ntypenvermittlung nach [Lüd05] . 79<br />
5.3 Darstellung des „Side-by-Side Formates“. . . . . . . . . . . . . . . . . . . . . . 80<br />
5.4 Berichtigte (oben) und originale Szenerie (unten) einer konvergenten Aufnahme<br />
mit 12 Grad Konvergenzwinkel in Anaglyphentechnik (Rot-Grün) . . . . . . . . 82<br />
5.5 Darstellung des Filtergraphen bei Verwendung des Rektifizierungsfilters. . . . . . 83<br />
5.6 Darstellung des Filtergraphen bei Verwendung <strong>eines</strong> dualen Eingabefilters. . . . . 83<br />
5.7 Darstellung des Filtergraphen zur Nutzung des Anaglyph Transform Filters und<br />
dessen Einstellungsdialog. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84<br />
5.8 Echtes Rot-Cyan Anaglyphenbild . . . . . . . . . . . . . . . . . . . . . . . . . 86<br />
5.9 Graues Anaglyphen Bild. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87<br />
5.10 Farbiges Anaglyphen Bild. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87<br />
5.11 Darstellung <strong>eines</strong> Filtergraphen bei Verwendung des <strong>Stereo</strong>wiedergabefilters . . . 88<br />
5.12 Screenshot der Anwendung Flexnet-Soundmodem . . . . . . . . . . . . . . . . . 90<br />
5.13 Ko<strong>die</strong>rung von mehreren Ansichten <strong>eines</strong> Bildes durch eine Tiefenkarte aus [Gir01],<br />
a) Erzeugung der Tiefenkarte b) Berechnung einer Ansicht durch eine Tiefenkarte 92<br />
5.14 Folge von I,P, und B- Bildern bei der Kompression von stereoskopischen Video<br />
(nach [Vik03]) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93<br />
6.1 Abbildung des Sterovideokamerasystems . . . . . . . . . . . . . . . . . . . . . 95<br />
6.2 Panorama Aufnahme mit Hilfe einer gestauchten Halbkugel (nach [Naj05]) . . . 96
Abbildungsverzeichnis XIX<br />
6.3 Schwebestativ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98<br />
A.1 Abbildung des Programmierkabels zum Ändern der Fernbe<strong>die</strong>nungsfirmware . . IV<br />
A.2 LANC Belegung des 2,5mm Klinken Steckers und LANC Symbol . . . . . . . . VIII
Tabellenverzeichnis XX<br />
Tabellenverzeichnis<br />
4.1 HDV taugliche Aufnahmeme<strong>die</strong>n und deren Formate. . . . . . . . . . . . . . . . 49<br />
4.2 Vergleich von Sony Camcordern. . . . . . . . . . . . . . . . . . . . . . . . . . . 56<br />
A.1 Steuerbefehle des LANC Protokoll nach [Boe07] . . . . . . . . . . . . . . . . . VIII<br />
A.2 Messdaten der Synchronität der Camcorder (Auszug) . . . . . . . . . . . . . . . VIII<br />
A.3 Kosten <strong>für</strong> <strong>die</strong> <strong>Stereo</strong>videokamera incl. 19% MwSt. . . . . . . . . . . . . . . . . IX
Danksagung<br />
XXI<br />
Hiermit möchte ich mich bei allen Beteiligten <strong>für</strong> <strong>die</strong> Unterstützung im Zeitraum der Erstellung<br />
der Diplomarbeit bedanken.<br />
Besonderer Dank gilt Herrn Prof. Dr. Gumhold <strong>für</strong> <strong>die</strong> interessante Aufgabenstellung und <strong>die</strong> Be-<br />
treuung <strong>die</strong>ser Arbeit.<br />
Weiteren Dank möchte ich dem Lehrstuhl Computergrafik und Visualisierung an der Informatik-<br />
fakultät der TU-Dresden <strong>für</strong> <strong>die</strong> Möglichket der Realisierung der Diplomarbeit sowie der Bereit-<br />
stellung der Technik aussprechen.<br />
Einen besonderen Dank an Thomas Melde und Robert Weser, <strong>die</strong>n mich in elektrotechnischen<br />
Fragen unterstützt haben.<br />
Nicht zuletzt danke ich meinen Eltern, <strong>die</strong> mir das Studium erst ermöglicht haben, meinem Bru-<br />
der und allen meinen Freunden <strong>für</strong> ihre Unterstützung und ihr Verständnis da<strong>für</strong>, dass ich in den<br />
letzten Monaten nicht immer Zeit <strong>für</strong> sie hatte.
Erklärungen zum Urheberrecht<br />
XXII<br />
• „ACVHD“ und das „ACVHD“- Logo sind Markenzeichen der Matsushita Electric Industrial<br />
Co., Ltd und der Sony Corporation.<br />
• „Dolby“ und das Doppel-D-Symbol sind Marken von Dolby Laboraties.<br />
• „Microsoft“, „Windows“, „DirectX“ und „DirectShow“ sind Markenzeichen oder eingetra-<br />
gene Markenzeichen der Microsoft Corporation in den USA und in anderen Ländern.<br />
• „MacOS“ und „QuickTime“ sind Markenzeichen oder eingetragene Markenzeichen der Ap-<br />
ple Inc. in den USA und in anderen Ländern.<br />
• „HDMI“, das HDMI-Logo und „High-Definition Multimedia Interface“ sind Markenzei-<br />
chen oder eingetragene Markenzeichen von HDMI Licensing LLC.<br />
• „Intel“, „Intel Core“ und „Pentium“ sind Markenzeichen der Intel Corporation oder ihrer<br />
Tochtergesellschaften in den USA und anderen Ländern.<br />
• „Adobe“ und „Adobe Reader“ sind Markenzeichen der Adobe Systems Incorporated.<br />
• „Christie“ und „Christie DS+26“ sind Markenzeichen oder eingetragene Markenzeichen der<br />
Christie Digital Systems, Inc.<br />
• „3D Studio Max“, „3ds Max“ und „Maya“ sind Markenzeichen oder eingetragene Marken-<br />
zeichen der Autodesk Incorporated in den USA und in anderen Ländern.<br />
• „NVIDIA“, das NVIDIA-Logo, „Forceware“ und „Quadro“ sind Markenzeichen oder ein-<br />
getragene Markenzeichen der NVIDIA Corporation.<br />
• “Wrigley’s“ und „Wirgley’s Spearmint“ sind Markenzeichen oder eingetragene Markenzei-<br />
chen der Wirgley Corporation oder ihrer Tochtergesellschaften in den USA und anderen<br />
Ländern.<br />
Alle anderen in <strong>die</strong>sem Dokument erwähnten Produktnamen können Markenzeichen oder einge-<br />
tragene Markenzeichen der jeweiligen Eigentümer sein. Nicht alle Markenzeichen und eingetra-<br />
gene Markenzeichen sind mit R○ oder TM gekennzeichnet, was nicht zu der Annahme berechtigt,<br />
<strong>die</strong>se Namen seien im Sinne der Warenzeichen- und Markenschutz- Gesetzgebung als frei zu be-<br />
trachten und dürften daher von jedermann benutzt werden.