01.05.2013 Aufrufe

Entwicklung eines portablen Stereo-Videoaufnahmesystems für die ...

Entwicklung eines portablen Stereo-Videoaufnahmesystems für die ...

Entwicklung eines portablen Stereo-Videoaufnahmesystems für die ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

TECHNISCHE UNIVERSITÄT DRESDEN<br />

FAKULTÄT INFORMATIK<br />

INSTITUT FÜR SOFTWARE- UND MULTIMEDIATECHNIK<br />

PROFESSUR FÜR COMPUTERGRAPHIK UND VISUALISIERUNG<br />

PROF. DR. STEFAN GUMHOLD<br />

Diplomarbeit<br />

zur Erlangung des akademischen Grades<br />

Diplom-Me<strong>die</strong>ninformatiker<br />

<strong>Entwicklung</strong> <strong>eines</strong> <strong>portablen</strong><br />

<strong>Stereo</strong>-<strong>Videoaufnahmesystems</strong> <strong>für</strong> <strong>die</strong> Präsentation<br />

auf einer <strong>Stereo</strong>projektionswand.<br />

Norbert Blenn<br />

(Geboren am 26. März 1981 in Burgstädt)<br />

Betreuer: Prof. Dr. rer. nat. Stefan Gumhold<br />

Dresden, 17. Juli 2007


Aufgabenstellung<br />

Ziel der Diplomarbeit ist <strong>die</strong> <strong>Entwicklung</strong> <strong>eines</strong> <strong>portablen</strong> <strong>Stereo</strong>-<strong>Videoaufnahmesystems</strong> <strong>für</strong> <strong>die</strong><br />

Präsentation auf der <strong>Stereo</strong>projektionswand des Lehrstuhls <strong>für</strong> Computergraphik und Visualisie-<br />

rung. Dazu sollen vorhandene Lösungen recherchiert und eine <strong>Stereo</strong>-Videokamera entwickelt<br />

werden. Die aufgenommenen <strong>Stereo</strong>-Videos sollen in einem passenden Datenformat gespeichert<br />

und wiedergegeben werden. Um <strong>die</strong>s zu realisieren sollte ein Framework geschaffen werden, wel-<br />

ches in weiteren Arbeiten am Lehrstuhl genutzt werden kann. Im Einzelnen sollen folgende Punkte<br />

in der Diplomarbeit verwirklicht werden:<br />

• Recherche existierender <strong>Stereo</strong>-Videoaufnahmesysteme,<br />

• Entwurf und Bau einer kostengünstigen <strong>Stereo</strong>-Videokamera,<br />

• <strong>Entwicklung</strong> einer effizienten Lösung zum Datentransfer von einer <strong>Stereo</strong>-Videokamera in<br />

ein <strong>Stereo</strong>videoformat,<br />

• <strong>Entwicklung</strong> <strong>eines</strong> <strong>Stereo</strong>-Videoplayers zur weiteren Nutzung am Lehrstuhl Computergra-<br />

phik und Visualisierung und<br />

• Aufnahme von Beispielstereovideos.


Selbstständigkeitserklärung<br />

Hiermit erkläre ich, dass ich <strong>die</strong> von mir am heutigen Tag dem Prüfungsausschuss der Fakultät<br />

Informatik eingereichte Diplomarbeit zum Thema:<br />

<strong>Entwicklung</strong> <strong>eines</strong> <strong>portablen</strong> <strong>Stereo</strong>-<strong>Videoaufnahmesystems</strong> <strong>für</strong> <strong>die</strong> Präsentation auf einer<br />

<strong>Stereo</strong>projektionswand.<br />

vollkommen selbstständig verfasst und keine anderen als <strong>die</strong> angegebenen Quellen und Hilfsmittel<br />

benutzt sowie Zitate kenntlich gemacht habe.<br />

Dresden, den 17. Juli 2007<br />

Norbert Blenn


Kurzfassung<br />

In <strong>die</strong>ser Diplomarbeit wurde ein Aufnahmesystem <strong>für</strong> <strong>die</strong> Produktion stereoskopischer Videos<br />

entwickelt und erprobt. Basierend auf zwei Highdefinition Video-Camcordern wurde eine mobile<br />

<strong>Stereo</strong>kamera konstruiert, welche eine hohe Bildqualität liefert. Die technischen Möglichkeiten<br />

und Einschränkungen <strong>die</strong>ses Aufnahmesystems wurden dabei genau untersucht. Weiterhin thema-<br />

tisiert <strong>die</strong>se Arbeit <strong>die</strong> Nachbearbeitung, Speicherung und Wiedergabe stereoskopischer Videos<br />

sowie Möglichkeiten des wissenschaftlichen Einsatzes der entwickelten Kamera.<br />

Zusätzlich wurden <strong>die</strong> zum Bildeindruck beitragenden physiologischen und geometrischen Para-<br />

meter untersucht und daraus <strong>die</strong> Grundlagen <strong>für</strong> <strong>die</strong> <strong>Entwicklung</strong> des Aufnahmesystems abgeleitet.<br />

Diese beinhaltet Aufnahmetechniken, Bildgestaltungsregeln, Schnittverfahren und Wiedergabe-<br />

hinweise. Durch <strong>die</strong> vorgestellten Grundlagen zur Erzeugung von stereoskopischen Videos soll es<br />

den Nutzern des Aufnahmesystems ermöglicht werden, solche Videos mit einer hohen Betrach-<br />

tungsqualität und vielen Weiterverarbeitungsmöglichkeiten zu erstellen.<br />

Abstract<br />

In this diploma thesis a recording system for stereoscopic video has been developed and proven.<br />

Based on two highdefinition video-camcorder a mobile stereo camera with a high image quality<br />

has been constructed. The technical abilities and restrictions of this recording system had been<br />

exactly analyzed. Furthermore topics of this thesis are the post processing, storage and playback<br />

of stereoscopic videos as well as the abilities of supervision work with the camera.<br />

The physiological and geometric parameters for the image perception have been evolved and rules<br />

for the production of stereo video are discussed. These rules contain image layout, recording<br />

techniques, procedures for cutting and hints for playback of stereoscopic video. This should allow<br />

the user of the recording system to produce stereoscopic video with a high image quality and many<br />

abilities for processing these videos.


Inhaltsverzeichnis<br />

1 Einleitung 5<br />

1.1 Aufbau <strong>die</strong>ser Arbeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6<br />

1.2 Die <strong>Stereo</strong>projektionsleinwand des Lehrstuhls <strong>für</strong> Computergrafik und Visualisie-<br />

rung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7<br />

1.3 Begriffserklärungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8<br />

2 Wahrnehmung, Aufnahme und Wiedergabe 10<br />

2.1 Vorgang der visuellen Wahrnehmung . . . . . . . . . . . . . . . . . . . . . . . . 10<br />

2.1.1 Ursache der räumlichen Wahrnehmung . . . . . . . . . . . . . . . . . . 11<br />

2.1.2 Berechnung der Parallaxe . . . . . . . . . . . . . . . . . . . . . . . . . 13<br />

2.1.3 Weitere optische Effekte . . . . . . . . . . . . . . . . . . . . . . . . . . 13<br />

2.2 Verfahren der Aufnahme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14<br />

2.2.1 Die Scheinfensterregel . . . . . . . . . . . . . . . . . . . . . . . . . . . 14<br />

2.2.2 Wahl der <strong>Stereo</strong>basis . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15<br />

2.2.3 Aufnahmemethoden . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17<br />

2.2.3.1 Die Verschiebetechnik . . . . . . . . . . . . . . . . . . . . . . 17<br />

2.2.3.2 Strahlenteilermethode . . . . . . . . . . . . . . . . . . . . . . 18<br />

2.2.3.3 Die <strong>Stereo</strong>kamera . . . . . . . . . . . . . . . . . . . . . . . . 19<br />

2.2.3.4 Einsatz Binokularer Kameras . . . . . . . . . . . . . . . . . . 19<br />

2.3 Wiedergabe stereoskopischer Bildinhalte . . . . . . . . . . . . . . . . . . . . . . 20<br />

2.3.1 Durch Konvergenz notwendige Schrägprojektion . . . . . . . . . . . . . 22<br />

2.3.1.1 Epipolargeometrie . . . . . . . . . . . . . . . . . . . . . . . . 23<br />

2.3.1.2 Schrägprojektion bei bekanntem Konvergenzwinkel . . . . . . 23<br />

2.3.1.3 Schrägprojektion bei unbekanntem Konvergenzwinkel . . . . . 29<br />

2.3.2 Berechnung des virtuellen Abstandes . . . . . . . . . . . . . . . . . . . 30<br />

2.3.3 Berechnung der virtuellen Tiefe . . . . . . . . . . . . . . . . . . . . . . 31<br />

2.3.4 Berechnung der Betrachterposition . . . . . . . . . . . . . . . . . . . . . 32<br />

2.3.5 Wiedergabemethoden . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32<br />

2.3.5.1 Head Mounted Displays . . . . . . . . . . . . . . . . . . . . . 32<br />

2.3.5.2 Polarisation . . . . . . . . . . . . . . . . . . . . . . . . . . . 33<br />

2.3.5.3 Schieltechniken . . . . . . . . . . . . . . . . . . . . . . . . . 33<br />

2.3.5.4 <strong>Stereo</strong>skop . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34<br />

2.3.5.5 LCDShutter-Brille . . . . . . . . . . . . . . . . . . . . . . . . 34<br />

2.3.5.6 Prismenbrille . . . . . . . . . . . . . . . . . . . . . . . . . . . 34<br />

2.3.5.7 Interferenzfiltertechnik . . . . . . . . . . . . . . . . . . . . . 35<br />

1


2.3.5.8 Prismen-Oberfläche . . . . . . . . . . . . . . . . . . . . . . . 35<br />

2.3.5.9 Anaglyphen Verfahren . . . . . . . . . . . . . . . . . . . . . . 36<br />

2.3.5.10 Pulfrich-Verfahren . . . . . . . . . . . . . . . . . . . . . . . . 36<br />

2.3.6 Mögliche Bildstörungen in stereoskopischem Video . . . . . . . . . . . 36<br />

2.3.6.1 Höhenfehler . . . . . . . . . . . . . . . . . . . . . . . . . . . 37<br />

2.3.6.2 Randlichtabfall . . . . . . . . . . . . . . . . . . . . . . . . . 37<br />

2.3.6.3 Verzeichnung . . . . . . . . . . . . . . . . . . . . . . . . . . 37<br />

2.3.6.4 Aberration . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38<br />

2.3.6.5 Krümmung der Tiefenebene . . . . . . . . . . . . . . . . . . . 38<br />

2.3.6.6 Nicht linearer Tiefeneindruck . . . . . . . . . . . . . . . . . . 39<br />

3 Existierende Aufnahmesysteme 40<br />

3.1 Kameras . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40<br />

3.1.1 <strong>Stereo</strong>videokamera . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40<br />

3.1.1.1 21st Century 3DVX3 . . . . . . . . . . . . . . . . . . . . . . 40<br />

3.1.1.2 Pace Fusion 3d . . . . . . . . . . . . . . . . . . . . . . . . . . 41<br />

3.1.1.3 TMP S3R 1080i 3D . . . . . . . . . . . . . . . . . . . . . . . 41<br />

3.1.2 Binokulare Kameras . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42<br />

3.1.2.1 Camcorder . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42<br />

3.1.2.2 Industriekameras . . . . . . . . . . . . . . . . . . . . . . . . . 43<br />

3.1.3 Strahlenteiler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44<br />

3.2 Existierende Software . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44<br />

3.2.1 Aufnahme & Enko<strong>die</strong>rung . . . . . . . . . . . . . . . . . . . . . . . . . 44<br />

3.2.1.1 3DCombine . . . . . . . . . . . . . . . . . . . . . . . . . . . 45<br />

3.2.1.2 <strong>Stereo</strong>scopic Multiplexer . . . . . . . . . . . . . . . . . . . . 45<br />

3.2.1.3 <strong>Stereo</strong> Movie Maker . . . . . . . . . . . . . . . . . . . . . . . 45<br />

3.2.2 Wiedergabe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45<br />

3.2.2.1 <strong>Stereo</strong> Movie Player . . . . . . . . . . . . . . . . . . . . . . . 46<br />

3.2.2.2 <strong>Stereo</strong>scopic Player . . . . . . . . . . . . . . . . . . . . . . . 46<br />

3.2.2.3 More3D SoftwareSuite . . . . . . . . . . . . . . . . . . . . . 46<br />

3.2.3 Weiterverarbeitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46<br />

4 Aufnahmesystem 48<br />

4.1 Kriterien zur Kameraauswahl . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48<br />

4.1.1 Digitale Formate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48<br />

4.1.2 Synchronisierung der Kameras . . . . . . . . . . . . . . . . . . . . . . . 50<br />

4.1.2.1 Genlock . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51<br />

4.1.2.2 LANC TM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51<br />

4.1.2.3 Control M . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52<br />

4.1.3 Anschlussmöglichkeit <strong>für</strong> Sensoren . . . . . . . . . . . . . . . . . . . . 52<br />

4.1.3.1 Ko<strong>die</strong>rung der Daten in einen Audiostrom . . . . . . . . . . . 52<br />

4.1.3.2 Ko<strong>die</strong>rung der Daten in das Bild . . . . . . . . . . . . . . . . 52<br />

2


4.1.3.3 Ko<strong>die</strong>rung der Daten in das Videoformat . . . . . . . . . . . . 53<br />

4.1.3.4 Aufnahme von Raumklang . . . . . . . . . . . . . . . . . . . 54<br />

4.1.4 Abmaße der Kameras . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54<br />

4.2 Genutzte Kameras . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55<br />

4.3 Befestigung zur Aufnahme und Justierung von zwei Kameras . . . . . . . . . . . 57<br />

4.3.1 Existierende Halterungen . . . . . . . . . . . . . . . . . . . . . . . . . . 57<br />

4.3.2 Verwendete Halterung . . . . . . . . . . . . . . . . . . . . . . . . . . . 58<br />

4.3.3 Justierung der <strong>Stereo</strong>kamera . . . . . . . . . . . . . . . . . . . . . . . . 61<br />

4.4 Fernbe<strong>die</strong>nung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63<br />

4.4.1 Existierende Be<strong>die</strong>neinheiten . . . . . . . . . . . . . . . . . . . . . . . . 63<br />

4.4.2 Verwendeter Controller . . . . . . . . . . . . . . . . . . . . . . . . . . . 65<br />

4.4.3 Messung der Synchonität . . . . . . . . . . . . . . . . . . . . . . . . . . 66<br />

4.5 GPS-Empfänger . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67<br />

4.6 Kameraparameter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68<br />

4.6.1 Interne Parameter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69<br />

4.6.2 Externe Parameter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71<br />

4.6.3 <strong>Stereo</strong>kalibrierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72<br />

4.6.4 Selbstkalibrierung von <strong>Stereo</strong>kameras . . . . . . . . . . . . . . . . . . . 75<br />

5 Datenverarbeitung 76<br />

5.1 DirectShow . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76<br />

5.1.1 Genutztes Videoformat . . . . . . . . . . . . . . . . . . . . . . . . . . . 79<br />

5.1.2 Rektifikation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81<br />

5.1.3 Transformation in das <strong>Stereo</strong>videoformat . . . . . . . . . . . . . . . . . 83<br />

5.1.4 Anaglyphe Wiedergabe . . . . . . . . . . . . . . . . . . . . . . . . . . . 84<br />

5.1.4.1 Echte Rot-Blau und Rot-Cyan Anaglyphen . . . . . . . . . . . 85<br />

5.1.4.2 Graustufen Anaglyphen . . . . . . . . . . . . . . . . . . . . . 86<br />

5.1.4.3 Farbige Anaglyphen . . . . . . . . . . . . . . . . . . . . . . . 86<br />

5.1.5 Zweibildschirm Wiedergabe . . . . . . . . . . . . . . . . . . . . . . . . 88<br />

5.1.6 Wiedergabe über den NVIDIA TM 3D <strong>Stereo</strong> Treiber . . . . . . . . . . . 89<br />

5.2 Gps-Daten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89<br />

5.3 Nachbearbeitung von <strong>Stereo</strong>videos . . . . . . . . . . . . . . . . . . . . . . . . . 90<br />

5.3.1 Einblenden von Titeln . . . . . . . . . . . . . . . . . . . . . . . . . . . 91<br />

5.3.2 Anwenden von Blend-Effekten . . . . . . . . . . . . . . . . . . . . . . . 91<br />

5.3.3 Überlagern von <strong>Stereo</strong>video mit Videoinhalten . . . . . . . . . . . . . . 91<br />

5.3.4 Kompression von <strong>Stereo</strong>video . . . . . . . . . . . . . . . . . . . . . . . 92<br />

6 Fazit 94<br />

6.1 Zusammenfassung der Arbeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94<br />

6.2 Mögliche Erweiterungen der <strong>Stereo</strong>kamera . . . . . . . . . . . . . . . . . . . . 95<br />

6.2.1 Aufnahme von <strong>Stereo</strong>panoramen . . . . . . . . . . . . . . . . . . . . . . 96<br />

6.2.2 Be<strong>die</strong>neinheit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97<br />

3


6.2.3 Halterung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97<br />

6.2.4 Sensordaten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98<br />

6.3 Forschungsfragen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99<br />

6.3.1 Datenverarbeitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99<br />

6.3.1.1 Aufnahme von <strong>Stereo</strong>videodaten . . . . . . . . . . . . . . . . 99<br />

6.3.1.2 Verarbeitung von <strong>Stereo</strong>videodaten . . . . . . . . . . . . . . . 100<br />

6.3.1.3 Speicherung von <strong>Stereo</strong>videodaten . . . . . . . . . . . . . . . 100<br />

6.3.1.4 Sensordaten . . . . . . . . . . . . . . . . . . . . . . . . . . . 100<br />

6.3.2 Verwendung stereoskopischer Aufnahmen . . . . . . . . . . . . . . . . . 101<br />

A Anhang I<br />

A.1 Hinweise zur Be<strong>die</strong>nung der <strong>Stereo</strong>videokamera . . . . . . . . . . . . . . . . . . I<br />

A.1.1 Aufnahmeregeln . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . I<br />

A.1.2 Be<strong>die</strong>neinheit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . I<br />

A.1.2.1 Stromversorgung . . . . . . . . . . . . . . . . . . . . . . . . II<br />

A.1.2.2 Einstellen des Konvergenzwinkels . . . . . . . . . . . . . . . II<br />

A.1.2.3 Anschluss der Einzelkameras . . . . . . . . . . . . . . . . . . II<br />

A.1.3 Anschluss <strong>eines</strong> Sensors . . . . . . . . . . . . . . . . . . . . . . . . . . II<br />

A.1.3.1 Funktionsübersicht der Fernbe<strong>die</strong>nung . . . . . . . . . . . . . III<br />

A.1.4 Anschluss an einen PC . . . . . . . . . . . . . . . . . . . . . . . . . . . III<br />

A.1.4.1 Programmierung der Fernbe<strong>die</strong>nung . . . . . . . . . . . . . . IV<br />

A.2 LANC Protokoll . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . VI<br />

A.3 Messung der Synchronität der Camcorder . . . . . . . . . . . . . . . . . . . . . VIII<br />

A.4 Kostenaufstellung <strong>für</strong> <strong>die</strong> entwickelte <strong>Stereo</strong>videokamera . . . . . . . . . . . . . IX<br />

Abkürzungsverzeichnis X<br />

Literaturverzeichnis XII<br />

Abbildungsverzeichnis XVII<br />

Tabellenverzeichnis XX<br />

4


1 Einleitung<br />

„Mit dem Zweiten sieht man besser.“<br />

Zitat des Zweiten Deutschen Fernsehens<br />

Menschen besitzen zwei Augen, mit welchen <strong>die</strong> Welt um sie herum wahrgenommen wird. Ein<br />

zweites Auge erweitert das Blickfeld des Menschen sehr stark.<br />

Durch den Abstand der Augen und deren Lage werden Objekte um uns herum aus zwei leicht<br />

verschiedenen Perspektiven wahrgenommen, da wir im Gegensatz zu einigen Tieren ein stereo-<br />

skopisches Blickfeld haben. Dies bedeutet, dass sich das Blickfeld unserer zwei Augen um ca.<br />

120 Grad überschneidet, wodurch unser Gehirn in der Lage ist, aus resultierenden perspektivi-<br />

schen Differenzen, <strong>die</strong> Entfernung von Gegenständen und deren Tiefe abzuschätzen.<br />

Diese Tatsache ist bereits Euklid von Alexandria 1 , 300 Jahre v. Chr. aufgefallen, der Maßbezie-<br />

hungen <strong>für</strong> <strong>die</strong> drei Dimensionen aufstellte. Circa 150 Jahre n. Chr. hat Galen 2 wohl als erster eine<br />

Erklärung des Zusammenwirkens beider Augen <strong>für</strong> <strong>die</strong> Entstehung des stereoskopischen Sehens<br />

gegeben. Wobei, „<strong>Stereo</strong>“ aus dem griechischen kommt und <strong>für</strong> „räumlich“ steht und „skopein“<br />

sich vom griechischen Wort <strong>für</strong> „Sehen“ ableitet.<br />

Mit der Erfindung der Fotographie konnte erstmals von echter „<strong>Stereo</strong>grafie“ gesprochen werden,<br />

wobei „graphein“ <strong>für</strong> schreiben steht. Es wurde von Malern des 16. und 17. Jahrhunderts, wel-<br />

che sich eingehend mit Perspektive und Raum befasst haben, mit meist unzureichenden Mitteln<br />

versucht, stereoskopische Halbbilder zu zeichnen. Jedoch erst <strong>die</strong> Fotographie ermöglichte eine<br />

exakte Darstellung.<br />

Nachdem am 19. August 1839 in der Akademie der Wissenschaften zu Paris das Daguerre’sche<br />

Verfahren zur Herstellung photographischer Bilder auf Silberschichten öffentlich bekannt gegeben<br />

war, lag es nahe, auch Doppelaufnahmen herzustellen. Die erste Deutsche Publikation stammt von<br />

Ludwig Moser, aus Königsberg, welcher über <strong>die</strong> neue Technik folgendes schrieb:<br />

„Als ich vor einigen Jahren mir dergleichen Bilder [<strong>Stereo</strong>skopien] anfertigte, war<br />

ich doch anfangs über deren Effekt im <strong>Stereo</strong>skop ungewiss. Da <strong>die</strong>se Bilder schon<br />

einzeln einen so guten perspektivischen Eindruck machen, so schien mir, dass derselbe<br />

hier nicht erheblich gesteigert werden könnte. Allein der erste Versuch hat mich <strong>eines</strong><br />

Andern belehrt; der perspektivische Eindruck auch des besten Bildes kommt kaum in<br />

Betracht gegen denjenigen, welchen zwei entsprechende Bilder im <strong>Stereo</strong>skop machen<br />

[Sch07]“.<br />

1<br />

griechisch: Eukleides; lateinisch Euclidus; * ca. 365 v. Chr. vermutlich in Alexandria oder Athen; †ca. 300 v. Chr.,<br />

griechischer Mathematiker.<br />

2<br />

Galenos von Pergamon (dt. Galen, lat. Claudius Galenus; * um 129 in Pergamon, †um 216 in Rom) war griechischer<br />

Arzt und Anatom.<br />

5


1.1. AUFBAU DIESER ARBEIT 6<br />

Diese Begeisterung <strong>für</strong> <strong>Stereo</strong>bilder existiert noch heute, was der Ansturm auf „3D-Kinos“ und <strong>die</strong><br />

Verbreitung <strong>die</strong>ser zeigt. Durch <strong>die</strong> Erfindung des Computers wurde <strong>die</strong> Möglichkeit geschaffen<br />

irreale Gegenstände wie sie nur <strong>die</strong> Malerei und Zeichnung hervorbrachten, mathematisch perfekt<br />

darzustellen. Somit ist es uns heutzutage möglich, virtuelle Objekte stereoskopisch darzustellen.<br />

Gerade im Bereich der Videospiele, Trick- und Animationsfilme ist <strong>die</strong>se Technik weit verbreitet.<br />

1.1 Aufbau <strong>die</strong>ser Arbeit<br />

Diese Arbeit gliedert sich durch <strong>die</strong> Einzelanforderungen der Aufgabenstellung in sechs Kapitel.<br />

Ein einführendes Kapitel enthält <strong>die</strong> Motivation, einige Begriffserläuterungen, welche <strong>für</strong><br />

das Verständnis der Arbeit von Bedeutung sind, sowie <strong>die</strong> Beschreibung der <strong>Stereo</strong>projekti-<br />

onsleinwand des Lehrstuhls <strong>für</strong> Computergrafik und Visualisierung.<br />

Das zweite Kapitel stellt Grundlagen der menschlichen Wahrnehmung, der Aufnahme und<br />

der Wiedergabe stereoskopischer Bildinhalte vor. In <strong>die</strong>sem Kapitel werden physikalische<br />

Größen bestimmt, welche den Sehvorgang beschreiben und auf technische Kameraparame-<br />

ter abgebildet. Es werden existierende stereoskopische Aufnahme und Wiedergabemetho-<br />

den vorgestellt sowie Probleme bei der Aufnahme und Wiedergabe erläutert.<br />

Das dritte Kapitel widmet sich der Erläuterung von existierenden Aufnahmesystemen und<br />

der Verifikation <strong>die</strong>ser gegenüber der Aufgabenstellung. Es werden aktuelle <strong>Stereo</strong>kameras<br />

und deren Funktionen vorgestellt. Ebenfalls wird existierende Software zur Bearbeitung und<br />

Wiedergabe von bewegten Raumbildern erläutert.<br />

Im vierten Kapitel wird das entwickelte Aufnahmesystem erläutert. Dabei wird beschrieben,<br />

welche Art einer <strong>Stereo</strong>kamera entworfen wurde und wie deren Einzelkameras ausgewählt<br />

wurden. Die Synchronisation und Verarbeitung von Sensorinformationen des <strong>Stereo</strong>systems<br />

sowie <strong>die</strong> <strong>Entwicklung</strong> der Halterung wird beschrieben. Abschließend wird erläutert, wie<br />

Kameraparameter bestimmt werden können und Beispielwerte gegeben.<br />

Im darauffolgenden Kapitel wird <strong>die</strong> Erstellung der Software beschrieben, <strong>die</strong> zur Verarbei-<br />

tung von <strong>Stereo</strong>videoaufnahmen entwickelt wurde. Es wird beschrieben wie verschiedene<br />

<strong>Stereo</strong>videoformate berechnet und verarbeitet werden können. Weiterhin wird der Umgang<br />

mit Sensordaten beschrieben und Empfehlungen <strong>für</strong> den Umgang mit <strong>Stereo</strong>videos gegeben.<br />

Ebenfalls wird ein Verfahren zur Komprimierung von Raumbildpaaren vorgestellt.<br />

Im Fazit wird <strong>die</strong> hier vorliegende Arbeit zusammengefasst und Anregungen <strong>für</strong> weiterfüh-<br />

rende Arbeiten gegeben. Mögliche Modifikationen und Erweiterungen der <strong>Stereo</strong>videoka-<br />

mera werden beschrieben und deren Einsatzmöglichkeiten erläutert.<br />

Der Anhang enthält Hinweise zur Be<strong>die</strong>nung der <strong>Stereo</strong>videokamera und eine Beschreibung<br />

des LANC Protokolls, welches von der entworfenen Fernbe<strong>die</strong>nung genutzt wird sowie eine<br />

Kostenaufstellung.


1.2. DIE STEREOPROJEKTIONSLEINWAND DES LEHRSTUHLS FÜR<br />

COMPUTERGRAFIK UND VISUALISIERUNG 7<br />

1.2 Die <strong>Stereo</strong>projektionsleinwand des Lehrstuhls <strong>für</strong><br />

Computergrafik und Visualisierung<br />

Bei der im Lehrstuhl Computergrafik und Visualisierung der Informatikfakultät an der Techni-<br />

schen Universität Dresden eingesetzten <strong>Stereo</strong>projektionsleinwand handelt es sich um eine polari-<br />

sationserhaltende Rückprojektionsleinwand, mit einer möglichen Bilddiagonale von ca. 122 Zoll<br />

(ca. 310 cm), auf der mit Hilfe von zwei Beamern projiziert wird, welche übereinander angeord-<br />

net und mit um 90 Grad verdrehten Polarisationsfiltern ausgestattet sind. Diese „Christie DS+26“<br />

Projektoren arbeiten mit einer Auflösung von 1400 × 1050 Pixel. Über einen Spiegel werden <strong>die</strong><br />

Bilder von hinten auf <strong>die</strong> in Abbildung 1.2 gezeigte Leinwand projiziert.<br />

Der verwendete Computer welcher <strong>die</strong> Projektoren ansteuert verfügt über einen 2,4Ghz DualCore<br />

Prozessor, der mit zwei Gigabyte Hauptspeicher und dem Betriebssystem „Microsoft Windows<br />

XP“ arbeitet. Bei den eingesetzten Grafikkarten werden zwei NVIDA Geforce 8800 GTX mit je-<br />

weils 768 Megabyte Speicher eingesetzt.<br />

Projiziert wird ein so genanntes Vektographenbild 3 . Dabei handelt es sich um ein <strong>Stereo</strong>bild mit<br />

ortsgleich überlagerten Bildern, <strong>die</strong> gegensinnig polarisiert sind. Das Vektographenbild ist das<br />

polarisationsoptische Gegenstück zum Anaglyphenbild (Rot-Grün Bild) welches in Kapitel 2.3.5.9<br />

beschrieben wird.<br />

Abbildung 1.1: Abbildung der <strong>Stereo</strong>projektionsleinwand des Lehrstuhls Computergrafik und Visualisierung<br />

3 Vektographenbilder werden mitunter auch dichroitische Jodbilder genannt.


1.3. BEGRIFFSERKLÄRUNGEN 8<br />

Abbildung 1.2: Abbildung der zwei Projektoren mit Polarisationsfiltern<br />

1.3 Begriffserklärungen<br />

Sehvokabular<br />

• Akkommodation: Optische Anpassung des Auges an verschiedene Entfernungen. Dabei<br />

wird mittels Muskeln <strong>die</strong> Form der Augenlinse, und damit ihre Brechkraft, zum Scharfstel-<br />

len verändert. Die Akkommodation entspricht der Entfernungseinstellung bei Kameras.<br />

• Disparität, auch retinale Disparität (Disparation), bedeutet Ungleichheit, Verschiedenheit<br />

von Bildpunkten welche durch Objekte, deren Position im Raum weiter oder näher als <strong>die</strong><br />

Fixationsentfernung ist, auf „disparaten“ (seitlich verschobenen) Netzhautstellen abgebildet<br />

werden.<br />

• Fovea: Netzhautgrube, <strong>die</strong> Stelle des schärfsten Sehens im Auge.<br />

• Halbbild: Einzelbild <strong>eines</strong> <strong>Stereo</strong>bildes.<br />

• Höhenfehler: Deckungsfehler entsprechender Halbbildpunke in senkrechter Erstreckung.<br />

• Korrespondenz: Netzhautpunkte, <strong>die</strong> im fusionierten Binokularsehen das gleiche Objekt in<br />

Fixationsentfernung im Sehfeld abbilden, heissen korrespon<strong>die</strong>rende Netzhautstellen. Stellt<br />

man sich <strong>die</strong> Netzhäute beider Augen so übereinanderliegend vor, dass sich <strong>die</strong> beiden Fo-<br />

veae decken, dann liegen korrespon<strong>die</strong>rende Netzhautstellen genau übereinander.<br />

• Raumbild: <strong>Stereo</strong>foto oder Bild mit räumlichen Tiefeneindruck.<br />

• <strong>Stereo</strong>bild: Bildpaar, zusammengestellt aus zwei parallaktisch verschiedenen, größtenteils<br />

inhaltsgleichen, stereoskopisch aufgenommen Halbbildern.


1.3. BEGRIFFSERKLÄRUNGEN 9<br />

• <strong>Stereo</strong>sehen: Tiefensehen oder räumliches Sehen, das auf der Auswertung der Disparität<br />

beruht.<br />

• Strabismus: Schielen; beständige oder ab und zu auftretende Fehlstellung der Augen.<br />

• Deviation: bezeichnet den horizontalen Abstand gleicher Bildelemente auf beiden Halbbil-<br />

dern <strong>eines</strong> Raumbildes zueinander. Stellt damit <strong>die</strong> Abbildung der Parallaxe dar.<br />

• Parallaxe: bezeichnet den Winkel zwischen zwei Geraden, <strong>die</strong> von verschiedenen Stand-<br />

orten auf einen Punkt (ein Objekt) gerichtet sind.<br />

• Vergenz: Gegensinnige Bewegung der Augen, um ein Sehobjekt auf korrespon<strong>die</strong>renden<br />

Netzhautstellen abzubilden.<br />

• Konvergenz: Augenbewegung zueinander hin zum Nahsehen, extrem beim einwärtigen<br />

Schielen


2 Wahrnehmung, Aufnahme und Wiedergabe<br />

In <strong>die</strong>sem Kapitel werden Grundlagen und verschiedene Verfahren zur Aufnahme- und Wiederga-<br />

be stereoskopischer Bildinhalte vorgestellt und zusammenfassend <strong>für</strong> den Einsatz im <strong>Stereo</strong>-Video<br />

Bereich verglichen.<br />

2.1 Vorgang der visuellen Wahrnehmung<br />

Das natürliche Sehen, <strong>die</strong> visuelle Wahrnehmung, basiert auf der Reizung lichtempfindlicher Zel-<br />

len auf den Photorezeptoren der Netzhaut durch Lichtstrahlen, welche von Objekten ausgesandt,<br />

gebeugt oder reflektiert werden. Bei den existierenden zwei Typen von Photorezeptoren sind Stäb-<br />

chen <strong>für</strong> Hell-Dunkel-Wahrnehmung und Zapfen <strong>für</strong> <strong>die</strong> Farbwahrnehmung zuständig. Betrachtet<br />

man nun ein Objekt, konvergieren <strong>die</strong> Achsen der Augen auf den fixierten Gegenstand (Konver-<br />

genzpunkt). Dabei drehen sich <strong>die</strong> Augen so, dass das Bild des fixierten Gegenstandes in <strong>die</strong> Fovea<br />

(Netzhautgrube) fällt, wo <strong>die</strong> <strong>für</strong> <strong>die</strong> Sehschärfe verantwortliche Zäpfchendichte am höchsten ist.<br />

Gekoppelt mit der Konvergenz ist <strong>die</strong> Akkomodation 1 der Augenlinsen auf den fixierten Gegen-<br />

stand. Konvergieren <strong>die</strong> Augen auf einen Gegenstand in einer anderen Tiefenebene, so ändert sich<br />

auch <strong>die</strong> Akkomodationsentfernung [Hes10].<br />

Durch Akkomodation und Konvergenz nimmt beim Betrachten <strong>eines</strong> Objektes jedes Auge einen<br />

geringfügig anderen Winkel ein. Das heißt, je weiter ein Objekt entfernt ist, desto paralleler sind<br />

<strong>die</strong> Augenachsen, wobei sich bei nahen Objekten <strong>die</strong>se kreuzen (Vergenz).<br />

Am dem Prozess der Tiefenwahrnehmung sind mehrere Faktoren beteiligt. Erfahrungswerte wie<br />

<strong>die</strong> Größe oder Verdeckung von Objekten, sowie physiologische Prozesse der Augen (Konver-<br />

genz) und retinale Prozesse (Disparation) sind <strong>die</strong> Hauptfaktoren, <strong>die</strong> vom Gehirn interpretiert<br />

werden, um eine Wahrnehmung von Tiefe zu erreichen.<br />

Tiefenwahrnehmung kann durch monokulare und binokulare Faktoren beschrieben werden. Dabei<br />

zeichnen sich monokulare Tiefeninformationen durch:<br />

• Überlappungen von Objekten,<br />

• Perspektivische Verzerrungen, d.h. Unterschiede bekannter Größenverhältnisse und <strong>die</strong> re-<br />

lative Lage zum Horizont,<br />

• Atmosphärische Perspektive, d.h. Nebel oder Dunst in der Ferne,<br />

• Schattenwurf von Objekten,<br />

1 Veränderung der Dicke der Linse durch den Ziliarmuskel, um von Objekten in verschiedener Distanz ein scharfes<br />

Bild zu erzeugen.<br />

10


2.1. VORGANG DER VISUELLEN WAHRNEHMUNG 11<br />

aus.<br />

• Oberflächenstuktur von Objekten,<br />

• Bewegungsparallaxe (entfernte Objekte bewegen sich scheinbar langsamer als nahe)<br />

Binokulare Tiefeninformationen werden von Gehirn durch folgende Faktoren wahrgenommen:<br />

• den Augenabstand und <strong>die</strong> durch <strong>die</strong>sen bedingte<br />

• Disparation (perspektivischer Unterschied zweier Bilder auf der Netzhaut)<br />

• Konvergenz.<br />

Diese binokularen Tiefeninformationen werden in der <strong>Stereo</strong>skopie genutzt um Raumbilder dar-<br />

zustellen und zu verarbeiten. Dabei werden über geometrische Beziehungen, welche im weiteren<br />

beschrieben werden, <strong>die</strong> einzelnen Parameter bestimmt.<br />

2.1.1 Ursache der räumlichen Wahrnehmung<br />

Die optischen Achsen der Augen konvergieren wie in Abbildung 2.1 dargestellt in der Konver-<br />

genzebene in Punkt N welcher im Auge auf der sogenannten Netzhautgrube bei N ′ dargestellt<br />

wird. Der Punkt N ′ wird dabei unter dem Konvergenzwinkel α1 wahrgenommen und alle ande-<br />

ren Punkte welche unter <strong>die</strong>sem Konvergenzwinkel gesehen werden, sind auf korrespon<strong>die</strong>renden<br />

Netzhautstellen abgebildet. Da der Punkt F ′ unter einem anderen Konvergenzwinkel gesehen wird<br />

(α2) wird <strong>die</strong>ser (F ′ ) auf nicht korrespon<strong>die</strong>renden Netzhautstellen abgebildet.<br />

Die Strecken qr, ql bilden den Abstand von F ′ − N ′ dar und werden als Querdisparation be-<br />

zeichnet. Man unterscheidet zwischen gekreuzter und nicht gekreuzter Querdisparation. Bei einer<br />

gekreuzten Querdisparation liegen betrachtete Objekte vor dem Horopter 2 und somit auf dem<br />

äußeren Randbereich der Netzhaut. Dies sind Punkte, welche hinter dem betrachteten Punkt lie-<br />

gen. Von ungekreuzter Querdisparation spricht man, wenn Objekte hinter der Horopterlinie liegen.<br />

Diese liegen auf den Betrachter bezogen näher als der Konvergenzpunkt und fallen somit auf den<br />

inneren Randbereich der Netzhaut. Die Querdisparation stellt keine direkt messbare Größe dar und<br />

wird daher über <strong>die</strong> stereoskopische Parallaxe definiert.<br />

2 Der Horopter ist definiert als der geometrische Ort <strong>für</strong> alle einfach gesehenen Raumpunkte


2.1. VORGANG DER VISUELLEN WAHRNEHMUNG 12<br />

b 0<br />

F’<br />

d’ l<br />

N’<br />

F’<br />

d’r<br />

N’<br />

rechtes<br />

Auge<br />

linkes<br />

Auge<br />

f 0<br />

<br />

2<br />

<br />

2<br />

a Fokussierte Entfernung<br />

α1, α2 Konvergenzwinkel<br />

d ′ r, d ′ l<br />

b0 Augenabstand<br />

δ Winkel der stereoskopischen Parallaxe<br />

Nahpunkt<br />

Konvergenzebene<br />

1 N 2 F<br />

p r<br />

e t<br />

a<br />

Objekt<br />

Abbildung 2.1: Querdisparation und Parallaxe<br />

Querdisparation linkes und rechtes Auge<br />

e Entfernung zum Nahpunkt<br />

f0 Brennweite<br />

F Fernpunkt<br />

F ′ Abbildung des Fernpunkt auf der Netzhaut<br />

N Nahpunkt in der Konvergenzebene (Konvergenzpunkt)<br />

N ′ Abbildung des Nahpunkt auf der Netzhaut<br />

pr, pl Deviation zwischen Nah- und Fernpunkt in der Konvergenzebene<br />

t räumliche Tiefe des Objektes<br />

p l<br />

Fernpunkt


2.1. VORGANG DER VISUELLEN WAHRNEHMUNG 13<br />

2.1.2 Berechnung der Parallaxe<br />

Die Parallaxe stellt den Winkel zwischen Nah- und Fernpunkt dar, der im Auge des Betrachters,<br />

<strong>die</strong> in Abbildung 2.1 dargestelle Disparation auf der Netzhaut erzeugt. Somit ist <strong>die</strong> Parallaxe eine<br />

messbare Größe <strong>für</strong> <strong>die</strong> Tiefenwahrnehmung.<br />

Für <strong>die</strong> Parallaxe (δ = α + β), welche als Winkel zwischen zwei Geraden (Blickachsen), <strong>die</strong> von<br />

verschiedenen Blickpunkten auf einen Punkt gerichtet sind, ergibt sich unter der Näherung <strong>für</strong><br />

kleine Winkel: tan(α + β) = tan(α) + tan(β), nach Abbildung 2.1:<br />

tan(δ) = b0<br />

e<br />

− b0<br />

e + t , tan(δ) = b0 · t<br />

e 2 + e · t<br />

Durch Anwendung <strong>eines</strong> Strahlensatzes in Abbildung 2.1 ist <strong>die</strong> Deviation p = pl + pr durch<br />

Gleichung 2.2 gegeben.<br />

An <strong>die</strong>sen Gleichungen ist zu sehen, dass:<br />

p = b0<br />

2<br />

b0 ( 2 · e)<br />

−<br />

e + t<br />

• <strong>die</strong> Genauigkeit der Tiefenunterscheidung δ mit der Größe des Abstandes b0 zunimmt<br />

• <strong>die</strong> Genauigkeit der Tiefenunterscheidung δ quadratisch mit der Entfernung e abnimmt<br />

• im Nahbereich <strong>die</strong> Tiefenwahrnehmung δ am größten ist<br />

(2.1)<br />

(2.2)<br />

• wenn der Abstand e → ∞ geht, ein räumliches Unterscheidungsvermögen nicht mehr ge-<br />

geben ist.<br />

Theoretisch können nach Formel 2.1 Gegenstände, <strong>die</strong> weit entfernt liegen (nahe ∞) noch räum-<br />

lich wahrgenommen werden. Praktisch ist <strong>die</strong> Tiefenwahrnehmung jedoch durch ein Mindestauflö-<br />

sungsvermögen von δ begrenzt, welches durch <strong>die</strong> Anzahl der auf der „Fovea Centralis“ 3 vorhandenen<br />

Zapfen gegeben ist. Nach Otto Vierling [Vie65] ist ein Wert von höchstens 5 minarc (ca. 0,0833<br />

Grad) realistisch, was bedeutet, dass bis zu einer Entfernung von ca. 50 Metern d ′ r und d ′ l ausge-<br />

wertet werden können.<br />

2.1.3 Weitere optische Effekte<br />

Durch <strong>die</strong> Möglichkeit bei Kameras <strong>die</strong> <strong>Stereo</strong>basis, <strong>die</strong> den Abstand beider Objektive darstellt,<br />

zu vergrößern, können durch den in Kaptitel 2.3.2 beschriebenen virtuellen Abstand zwei Effekte<br />

entstehen. Diese werden Liliputismus und Gigantismus genannt.<br />

Liliputismus tritt auf, wenn <strong>die</strong> <strong>Stereo</strong>basis vergrößert, und <strong>die</strong> virtuelle Entfernung dadurch gerin-<br />

ger wird. Das Objekt verschiebt sich in den Vordergrund und erscheint kleiner, da <strong>die</strong> Abbildungs-<br />

fläche auf der Netzhaut gleich bleibt. Es kommt also zu einer modellhaften Wirkung der Szenerie.<br />

Anwendung findet <strong>die</strong>ser Effekt in der Astronomie, um Entfernungen von Sternen zu berechnen,<br />

wobei <strong>die</strong> größte nutzbare <strong>Stereo</strong>basis, nämlich derzeit <strong>die</strong> zweier astronomischer Einheiten, dem<br />

3 Fovea Centralis (auch Netzhautgrube) Stelle des schärfsten Sehens


2.2. VERFAHREN DER AUFNAHME 14<br />

doppelten Abstand der Erde von der Sonne genutzt wird, um Parallaxen von Sternbildern aufzu-<br />

nehmen.<br />

Praktisch wird das Prinzip, bei der Aufnahme von weit entfernten Objekten, wie z.B. Gebirgen,<br />

genutzt. Hierbei zeigt eine <strong>Stereo</strong>basis im Augenabstand aus den in Kapitel 2.1.2 beschriebenen<br />

Gründen keinen Effekt.<br />

Bei Gigantismus handelt es sich um das Gegenteil von Liliputismus, wobei <strong>die</strong> <strong>Stereo</strong>basen klei-<br />

ner als der Augenabstand gewählt werden, hierdurch wird der Tiefeneindruck in den Hintergrund<br />

gebracht und <strong>die</strong> Tiefe sowie <strong>die</strong> Größe verstärkt. Somit können im Makrobereich eindrucksvolle<br />

Bilder erzeugt werden, da z.B. <strong>die</strong> Länge <strong>eines</strong> Grashalmes mehrere Meter zu haben scheint. Aus<br />

<strong>die</strong>sem Grund existieren <strong>Stereo</strong>mikroskope, welche sehr plastische Ansichten von beispielsweise<br />

Zellstrukturen erlauben[Her07].<br />

2.2 Verfahren der Aufnahme<br />

Um Bilder mit räumlicher Wirkung aufzunehmen, wird das „Sehen“ der menschlichen Augen<br />

nachgeahmt. Es werden zwei horizontal versetzte Bilder abgelichtet, wobei von zwei Kategorien<br />

der Aufnahme gesprochen werden kann. Einerseits wird mit einem Objektiv gearbeitet, welches<br />

auf einer Aufnahmefläche (z.B. Film oder Bildsensor) zwei Bilder nebeneinander darstellt (Mo-<br />

nokulare Aufnahme). Die zweite Variante ist <strong>die</strong> Verwendung von horizontal versetzt fixierten<br />

Kameras (Binokulare Aufnahme).<br />

2.2.1 Die Scheinfensterregel<br />

Bei der Wiedergabe von stereoskopischen Bildinhalten sieht der Zuschauer durch <strong>die</strong> Begrenzun-<br />

gen des Wiedergabegerätes (Fernseher, Monitor, Projektionswand) durch ein sogenanntes Schein-<br />

fenster. Durch <strong>die</strong> Ecken <strong>die</strong>ses Fensters und dem Betrachtungspunkt entsteht eine umgekippte<br />

Pyramide dargestellt in Abbildung 2.2, innerhalb <strong>die</strong>ser Objekte als realistisch wahrgenommen<br />

werden.<br />

Das eigentliche Scheinfenster ist bei der Wiedergabe nicht unbedingt auf der Projektionsfläche,<br />

sondern <strong>die</strong> Ebene in der <strong>die</strong> parallaktische Verschiebung der Einzelbilder Null ist. Bei der Auf-<br />

nahme ist <strong>die</strong>s <strong>die</strong> Ebene in der sich <strong>die</strong> Achsen der Kameras schneiden. Dabei tritt der Effekt<br />

auf, dass Objekte vor dem Scheinfenster eine positive und hinter dem Scheinfenster eine negative<br />

parallaktische Verschiebung aufweisen, was bedeutet, dass bei paralleler Ausrichtung der Kameras<br />

das Scheinfenster in theoretisch unendlicher 4 Entfernung liegt. Die „Scheinfensterregel“ besagt,<br />

dass alle Objekte in stereoskopischen Bildern aus ästhetischen Gründen hinter <strong>die</strong>sem Fenster<br />

liegen sollten, wobei Objekte ausgenommen sind, welche <strong>die</strong> Begrenzungen der Pyramide nicht<br />

überschreiten.<br />

4 Begrenzt durch das Auflösungsvermögen der Kameras


2.2. VERFAHREN DER AUFNAHME 15<br />

Objekt vor<br />

Scheinfenster mit<br />

positiver Parallaxe<br />

Objekt auf<br />

Scheinfenster<br />

Abbildung 2.2: <strong>Stereo</strong>skopisches Scheinfenster<br />

Objekt hinter<br />

Scheinfenster mit<br />

negativer Parallaxe<br />

Da <strong>die</strong>se Regel bei einer parallelen Aufnahme verletzt wird, werden <strong>die</strong> so aufgenommenen Bil-<br />

der links- oder rechtsseitig beschnitten, um bei der Wiedergabe das Fenster in den Vordergrund zu<br />

schieben. Dabei bleibt <strong>die</strong> Lage des Scheinfensters in Hinsicht auf <strong>die</strong> Objekte der abgelichteten<br />

Szene immer unverändert.<br />

In der <strong>Stereo</strong>fotografie wird <strong>die</strong>se Nachbearbeitung in Kauf genommen, da <strong>die</strong> bei der Aufnahme<br />

mit konvergierenden Kameraachsen entstehenden Effekte meist unerwünscht sind. Neben Trapez-<br />

verzerrungen kommt es bei <strong>die</strong>ser Aufnahmemethode dazu, dass Objekte <strong>die</strong> weit vor oder hinter<br />

der Konvergenzlinie liegen eine sehr große Deviation aufweisen, <strong>die</strong> beim Betrachten als unange-<br />

nehm empfunden wird.<br />

Bei Filmaufnahmen wird <strong>die</strong>se Methode jedoch öfters verwendet, um einen Auflösungsverlust<br />

aufgrund der Beschneidung zu vermeiden. Allerdings muß darauf geachtet werden, dass <strong>die</strong> ver-<br />

zerrungsbedingte vertikale Differenz so gering wie möglich gehalten wird.<br />

2.2.2 Wahl der <strong>Stereo</strong>basis<br />

Um bereits bei der Aufnahme korrekte Raumbilder erzeugen zu können, müssen Regeln der Wie-<br />

dergabe, welche in Kapitel 2.3.4 beschrieben werden berücksichtigt werden. Betrachter mit ei-<br />

nem durchschnittlichen „nomalen“ Augenabstand von 6,5 cm nehmen bei der Projektion lieber<br />

einen etwas übertriebenen aber nicht zu großen Tiefeneindruck wahr. Der zu große Tiefenein-


2.2. VERFAHREN DER AUFNAHME 16<br />

druck entsteht, wenn <strong>die</strong> in Abbildung 2.1 angegeben Winkel α1 und α2 eine maximale Differenz<br />

δ = α1 − α2 überschreiten, wodurch korrespon<strong>die</strong>rende Netzhautpunkte nichtmehr als solche<br />

wahrgenommen werden. Diese Regel der maximal zulässigen Parallaxe wird „70 Minuten Bedin-<br />

gung“ genannt [Her07]. Sie besagt, dass δ ≤ 70 ′ (70 ′ ≡ 1.17 ◦ ), also <strong>die</strong> Winkeldifferenz δ kleiner<br />

als 70 Bogenminuten sein sollte. Zur Berechnung wird hier Bildbreite wP in das Verhältnis zum<br />

Betrachtungsabstand eP mit Hilfe der Deviation auf dem Bildsensor pk gesetzt.<br />

pk<br />

wP<br />

= δ · eP<br />

Die Deviation auf dem Bildsensor pk ergibt sich nach Abbildung 2.1, da das Bild in einer Kamera<br />

auf einen ungekrümmten Bildsensor fällt, durch Anwendung des Strahlensatzes zu:<br />

wP<br />

pk = bk · fk<br />

e − bk · fk<br />

(e + t) = bk<br />

t<br />

· fk ·<br />

(e + t) · e<br />

Durch umstellen <strong>die</strong>ser Formel nach bk und Hinzunahme der Bildsensorbreite wk ergibt sich:<br />

bk = pk<br />

·<br />

fk<br />

(e + t) · e<br />

t<br />

= pk<br />

·<br />

wk<br />

wk e<br />

·<br />

fk 1 − ( e<br />

e+t )<br />

Durch Stu<strong>die</strong>n über von Probanden angenehm empfundene Betrachterpositionen wurden Werte <strong>für</strong><br />

eP gefunden, <strong>die</strong> durch das Verhältnis in Formel 2.3 unter der 70 Minuten Bedingung (α ≤ 1.17 ◦ )<br />

einen Wert <strong>für</strong> <strong>die</strong> maximale Deviation im Bild von wP<br />

30 ergaben [Wim04][Mad07]. Die Deviation<br />

in einem projizierten Raumbild sollte maximal 33,3% der Bildbreite betragen. Daraus ergibt sich<br />

nach Formel 2.5 <strong>für</strong> <strong>die</strong> Wahl der <strong>Stereo</strong>basis:<br />

bk = 1 wk e<br />

· ·<br />

30 fk 1 − e<br />

e+t<br />

wobei wk <strong>die</strong> Größe des Bildsensors und fk <strong>die</strong> Kamerabrennweite darstellt.<br />

Wenn der Horizont im Bild enthalten ist, also (e + t) → ∞ kann <strong>die</strong>se Formel zu:<br />

vereinfacht werden.<br />

bk = 1<br />

30 · wk · e<br />

fk<br />

Formel 2.6 und 2.7 entsprechen der BERCOVITZ Formel [Ber98] welche eine Fokussierungsent-<br />

fernung a berücksichtigt:<br />

bk = dMOF D · (<br />

(e + t) · e<br />

) · (<br />

t<br />

1<br />

fk<br />

(2.3)<br />

(2.4)<br />

(2.5)<br />

(2.6)<br />

(2.7)<br />

− 1<br />

) (2.8)<br />

a<br />

Bei <strong>die</strong>ser Formel ist dMOF D 5 <strong>die</strong> maximale Deviation auf dem Bildsensor oder dem Film, welche<br />

mit 1,2 mm als üblicher Wert <strong>für</strong> Kleinbildfotografie angegeben wird. Die BERCOVITZ Formel<br />

basiert auf der Vergrößerung der Tiefenschärfe („Depth of Field“). Hier wird <strong>die</strong> Kamera auf<br />

einen Punkt zwischen Nah- und Fernpunkt fokussiert, typischerweise <strong>die</strong> Entfernung a, um das<br />

5 MOF D Maximum on Film Deviation


2.2. VERFAHREN DER AUFNAHME 17<br />

Objekt mit möglichst gleichmäßiger Unschärfe in N ′ k und F ′ k<br />

darzustellen. Für den Fall, dass der<br />

Fernpunkt den Horizont enthält wird in Formel 2.8 e + t = ∞ und es ergibt sich, da <strong>für</strong> <strong>die</strong><br />

fokussierte Entfernung a das Doppelte der Entfernung zum Nahpunkt e angenommen wird, um<br />

Nah- und Fernpunkt gleich unscharf darzustellen:<br />

bk = dMOF D · ( e<br />

fk<br />

− 1<br />

) (2.9)<br />

2<br />

In <strong>die</strong>sem Fall kann es allerdings eine bessere Lösung sein, auf den Nahpunkt zu fokussieren.<br />

Unter der Annahme der Fernpunkt liegt immer im Unendlichen wird Formel 2.8 zu:<br />

bk = dMOF D · e · ( 1<br />

umformuliert wird, in <strong>die</strong>sem Fall ist a = e und somit:<br />

bk = dMOF D · ( e<br />

2.2.3 Aufnahmemethoden<br />

fk<br />

fk<br />

− 1<br />

) (2.10)<br />

a<br />

− 1) (2.11)<br />

Um stereoskopische Bilder aufzunehmen, existieren verschiedene Methoden, welche nachfolgend<br />

näher erläutert werden. Es existieren 4 Methoden Raumbilder zu erzeugen:<br />

1. <strong>die</strong> Verschiebetechnik,<br />

2. <strong>die</strong> Spiegeltechnik,<br />

3. <strong>die</strong> Verwendung einer <strong>Stereo</strong>kamera und<br />

4. <strong>die</strong> „Montage“ zweier monokularer Kameras.<br />

2.2.3.1 Die Verschiebetechnik<br />

Bei <strong>die</strong>ser Technik werden mit einer Kamera und einem Objektiv zwei Bilder nacheinander aufge-<br />

nommen. Hierbei wird <strong>die</strong> Kamera nach Aufnahme des ersten Bildes um eine bestimmte Länge,<br />

<strong>die</strong> <strong>Stereo</strong>basis b0, verschoben bevor das zweite Bild aufgenommen wird.<br />

Die Vorteile <strong>die</strong>ser Technik sind:<br />

• es sind keine zusätzlichen Hilfsmittel nötig (Verschiebeschlitten und Stativ sind allerdings<br />

von Vorteil)<br />

• es ist jede Kamera einsetzbar<br />

• <strong>die</strong> <strong>Stereo</strong>basis ist frei wählbar (kleine <strong>Stereo</strong>basen bei Makroaufnahmen und größere bei<br />

Landschaftsaufnahmen)<br />

Die Nachteile sind:<br />

• bewegte Objekte (Sport, Personen etc.) können nicht abgelichtet werden, da <strong>die</strong> große Auf-<br />

nahmedauer, welche durch das Verschieben der Kamera resultiert, keine Momentaufnahmen<br />

ermöglicht<br />

• beide Bilder sind eventuell nicht passgenau und erfordern eine Nachbearbeitung.


2.2. VERFAHREN DER AUFNAHME 18<br />

2.2.3.2 Strahlenteilermethode<br />

Bei <strong>die</strong>ser Technik wird vor dem Objektiv der Kamera ein Strahlenteiler, meist aus mehreren<br />

Spiegeln bestehend, befestigt. Durch <strong>die</strong>sen wird in einer Kamera auf dem Speichermedium direkt<br />

ein <strong>Stereo</strong>bildpaar produziert.<br />

Die Vorteile <strong>die</strong>ser Technik:<br />

• eventuell vorhandene Spiegelreflex- oder Digitalkameras mit Filtergewinde können genutzt<br />

werden<br />

• bewegte Objekte stellen kein Problem dar<br />

• geringer finanzieller Aufwand<br />

• es kann aus jedem aufgenommenen Bild ein Raumbild erzeugt werden<br />

• <strong>die</strong> Kalibrierung der Kameras gestaltet sich einfacher, da nur eine Brennweite und ein<br />

Hauptpunkt existiert<br />

Die Nachteile sind hingegen:<br />

• da ein horizontaler Versatz bei der Wiedergabe von Raumbildern gefordert ist, sind nur<br />

Hochkantbilder möglich. Wenn <strong>die</strong> Kamera gedreht und eine vertikale Deviation erzeugt<br />

wird, um Querformatige Bilder zu erzeugen, müssen <strong>die</strong>se Bilder mit einer horizontalen<br />

Deviation betrachtet werden. Dies bedeutet, dass das Raumbild um 90 ◦ gedreht werden<br />

muss.<br />

• es können Schatten, Aufhellungen und Spiegelungen entstehen<br />

• Bildpaare sind evtl. nicht gleich groß bzw. zeigen nicht zu 100% den gleichen Ausschnitt<br />

• eine Nachbearbeitung kann notwendig sein<br />

Radiale Spiegel Bei <strong>die</strong>ser Methode, welche einen Sonderfall der Strahlenteiler darstellt, wird<br />

ein konischer Spiegel am Objektiv befestigt. In der Mitte des aufgenommenen Bildes wird dadurch<br />

das fokussierte Objekt und gleichzeitig kreisförmig zum Rand eine radial verzerrte Aufnahme<br />

<strong>die</strong>ses Objekts abgebildet (siehe Abbildung 2.3).<br />

Die <strong>Stereo</strong>basis stellt hierbei das Doppelte des Abstands, des kleineren Kegelradius zum Objektiv<br />

dar. Durch <strong>die</strong>se Methode ist man nicht an Hochkantformate gebunden. Jedoch ist eine Aufnahme<br />

im Kleinbildformat nur durch Beschneidung des entstehenden Bildes möglich. Des Weiteren kön-<br />

nen so entstandene Bilder nicht direkt nach der <strong>Entwicklung</strong>, oder Übertragung auf einem Compu-<br />

ter betrachtet werden, da immer eine aufwendige Entzerrung notwendig ist. Allerdings können bei<br />

<strong>die</strong>ser Methode drei Bilder abgegriffen werden, wodurch es möglich wird <strong>die</strong>se Aufnahmetechnik<br />

in bildverarbeitenden Systemen zur Generierung von dreidimensionalen Flächen einzusetzen.


2.2. VERFAHREN DER AUFNAHME 19<br />

Abbildung 2.3: Radialer Spiegelvorsatz und aufgenommenes Bild mit eingezeichneten Strahlengängen<br />

aus [Naj05]<br />

2.2.3.3 Die <strong>Stereo</strong>kamera<br />

Bei einer <strong>Stereo</strong>kamera handelt es sich um eine Kamera mit zwei Objektiven. So werden bei<br />

Geräten, <strong>die</strong> einen Film nutzen, jeweils nebeneinander liegende Negative belichtet. Diese können<br />

nach der <strong>Entwicklung</strong> direkt mit einem <strong>Stereo</strong>skop betrachtet werden. Bei der Aufnahme von<br />

<strong>Stereo</strong>bildern mit digitaler Fototechnik sind zwei Bildsensoren erforderlich, <strong>die</strong> nach dem gleichen<br />

Prinzip wirken. Die Vorteile sind:<br />

• es kann wenig „falsch“ gemacht werden, da <strong>die</strong> Be<strong>die</strong>nung analog einer monokularen Ka-<br />

mera stattfindet und somit eine Justierung der optischen Achsen entfällt.<br />

• es wird ein Raumbild erzeugt, das direkt nach der <strong>Entwicklung</strong> oder Übertragung auf einen<br />

Computer stereoskopisch wahrgenommen werden kann, ohne vorherige Entzerrung.<br />

• <strong>die</strong> Geräte sind handlich, robust und kompakt<br />

• bewegte Objekte stellen kein Problem dar<br />

Die Nachteile von <strong>Stereo</strong>kameras sind:<br />

• eine meist nicht veränderbare <strong>Stereo</strong>basis<br />

• im Vergleich zu monokularen Kameras meist relativ preisintensiv<br />

• Bei einigen Bildformaten ist teilweise keine Laborentwicklung möglich, wodurch <strong>die</strong> Ent-<br />

wicklung höhere Kosten verursacht. Beim Einsatz von Digitalkameras stellt <strong>die</strong>s kein Pro-<br />

blem dar.<br />

2.2.3.4 Einsatz Binokularer Kameras<br />

Bei <strong>die</strong>ser Methode handelt es sich um <strong>die</strong> gebräuchlichste, da 2 Kameras nebeneinander montiert<br />

werden, was folgende Vorteile bringt:


2.3. WIEDERGABE STEREOSKOPISCHER BILDINHALTE 20<br />

• Da prinzipiell alle Systeme möglich sind kann eine <strong>Stereo</strong>aufnahme in genau der gewünsch-<br />

ten Qualität, zu den gewünschten Kosten realisiert werden.<br />

• Die <strong>Stereo</strong>basis kann variabel gewählt werden<br />

• bewegte Objekte stellen kein Problem dar<br />

• Quer- und Hochformataufnahmen sind möglich<br />

Die Nachteile sind:<br />

• Meist gestaltet sich das gleichzeitige Auslösen beider Kameras problematisch<br />

• eine <strong>Stereo</strong>basis unter 6cm ist bei vielen Systemen, bedingt durch <strong>die</strong> Außenmaße der Ka-<br />

meras, nicht möglich.<br />

2.3 Wiedergabe stereoskopischer Bildinhalte<br />

Die Wiedergabe der <strong>Stereo</strong>bilder, egal mit welchem Verfahren sie aufgenommen wurden, zielt<br />

immer darauf ab, jedem Auge ein Bild zu zuführen. Dies muss in der richtigen Reihenfolge ge-<br />

schehen, also das linke Bild dem linken Auge und das rechte Bild dem rechten Auge, um den<br />

<strong>Stereo</strong>-Effekt wahrzunehmen.<br />

Man unterscheidet hier zwischen Verfahren ohne Hilfsmittel, wie dem Parallelblick oder dem<br />

Kreuzblick und den Methoden welche Hilfsmittel in Form von Brillen oder Spiegeln benötigen.<br />

Hierzu zählen: <strong>die</strong> Anaglyphenverfahren, der Pulfrich-Effekt, der Einsatz von Shutter- und polari-<br />

sierten Brillen.<br />

Um bestimmen zu können, wie ein virtuelles Objekt bei der Wiedergabe erscheint, werden im Fol-<br />

genden verschiedene Größen berechnet. In Abbildung 2.4 auf Seite 21, wird der gesamte Vorgang<br />

der Aufnahme und Wiedergabe skizziert ist und <strong>die</strong> zugehörigen Größen dargestellt.<br />

Die in Abbildung 2.4 gezeigten Größen sind:<br />

F Fernpunkt<br />

N Nahpunkt / Konvergenzpunkt<br />

pl, pr Deviation zwischen Nah- und Fernpunkt in der Konvergenzebene<br />

N ′ lk , N ′ rk<br />

F ′<br />

lk , F ′ rk<br />

t Tiefe des Objektes<br />

a Abstand zum Objekt<br />

e Entfernung zum Nahpunkt / Konvergenzpunkt<br />

δ Winkel der Parallaxe<br />

bk <strong>Stereo</strong>basis der Kameras<br />

γ Konvergenzwinkel<br />

Abbild des Nahpunktes in der linken und rechten Kamera<br />

Abbild des Fernpunktes in der linken und rechten Kamera


2.3. WIEDERGABE STEREOSKOPISCHER BILDINHALTE 21<br />

Aufnahme<br />

der Kameras<br />

Projektion auf<br />

Wiedergabemedium<br />

Abbildung<br />

im Auge<br />

Bildsensorebene<br />

linke<br />

Kamera<br />

Projektionsfläche<br />

linkes<br />

Auge<br />

Netzhaut<br />

N’ lk<br />

N’ lkt<br />

N’ l<br />

F’<br />

lk<br />

l<br />

2<br />

N<br />

F P<br />

N P<br />

bk<br />

b<br />

F<br />

2<br />

1<br />

2<br />

F’<br />

rk<br />

N’ rk<br />

N’<br />

d’ F’<br />

F’ r d’ r N’r<br />

l<br />

Abbildung 2.4: <strong>Stereo</strong>skopische Aufnahme und Wiedergabe<br />

p r<br />

<br />

dk 2<br />

pP 2<br />

0<br />

p l<br />

eP<br />

rkt<br />

t<br />

e<br />

kf<br />

k<br />

f P<br />

a<br />

rechte<br />

Kamera<br />

tvirt<br />

evirt<br />

f 0<br />

a P<br />

rechtes<br />

Auge<br />

avirt


2.3. WIEDERGABE STEREOSKOPISCHER BILDINHALTE 22<br />

N ′ lkt , N ′ rkt<br />

Transformierter Nahpunkt in der linken und rechten Kamera<br />

dk Deviation in der Aufnahmeebene<br />

fk Brennweite der Kameras<br />

fP Brennweite des Projektors<br />

aP Abstand Projektor, Projektionsfläche<br />

α2, α1 Konvergenzwinkel des Nah und Fernpunktes<br />

tvirt virtuelle Tiefe des projizierten Bildes<br />

FP projizierter Fernpunkt<br />

NP projizierter Nahpunkt<br />

pP Deviation im projizierten Bild<br />

eP Abstand Betrachter Projektionsfläche<br />

evirt virtuelle Entfernung zum Konvergenzpunkt<br />

avirt virtueller Abstand des Objektes<br />

b0 <strong>Stereo</strong>basis der menschlichen Augen<br />

f0 Brennweite der menschlichen Augen<br />

N ′ l , N ′ r Abbildung des Nahpunktes auf der linken und rechten Netzhaut<br />

N ′ l , F ′ r Abbildung des Fernpunktes auf der linken und rechten Netzhaut<br />

d ′ l , d′ r Disparation im linken und rechten Auge des Betrachters<br />

In <strong>die</strong>ser Abbildung stellen N und F den Nah- und Fernpunkt dar, <strong>die</strong> mittels <strong>eines</strong> Lochkame-<br />

ramodells 6 auf der Bildsensorebene abgebildet werden. Dabei stellt γ den Konvergenzwinkel der<br />

Kameras dar, welcher <strong>für</strong> <strong>die</strong> Berechnung einer im Folgenden beschriebenen Berichtigungsfunk-<br />

tion notwendig ist. Die Berichtigung, auch Rektifikation genannt basiert auf den Grundlagen der<br />

Epipolargeometrie. Dabei wird das aufgenommene Bild in der Bildsensorebene soweit transfor-<br />

miert, dass eine anschliessende parallele Projektion mit Hilfe von zwei Projektoren auf <strong>die</strong> Pro-<br />

jektionsfläche erfolgen kann. Auf <strong>die</strong>ser wird das Raumbild mit den virtuellen Größen (<strong>die</strong> Werte<br />

mit Indizies: virt) dargestellt. Im unteren Teil der Darstellung ist <strong>die</strong> Abbildung im menschlichen<br />

Auge schematisch dargestellt.<br />

2.3.1 Durch Konvergenz notwendige Schrägprojektion<br />

Aus Abbildung 2.4 ist an der Bildsensorebene ersichtlich, dass bei konvergierender Ausrichtung<br />

der Kameraachsen ein Winkel γ entsteht welcher zur Folge hat, dass zum einen das Scheinfenster,<br />

beschrieben in Kapitel 2.2.1, in der Tiefe der Konvergenzline (Konvergenzebene bei paralleler<br />

Aufnahme) auftritt und zum anderen das aufgenomme Bild trapezförmig verzerrt werden muss<br />

6 Eine Lochkamera ist das einfachste Gerät, mit dem sich optische Abbildungen erzeugen lassen


2.3. WIEDERGABE STEREOSKOPISCHER BILDINHALTE 23<br />

(Schrägprojektion). Die Notwendigkeit <strong>für</strong> <strong>die</strong>se „Entzerrung“ liegt darin begründet, dass <strong>die</strong> Tra-<br />

pezverzerrung welche durch konvergierende Kameraachsen entsteht, einen Höhenfehler erzeugt,<br />

welcher aus Abbildung 2.6a) ersichtlich wird. Dieser erzeugt ein Unbehagen beim Betrachter.<br />

2.3.1.1 Epipolargeometrie<br />

Bei konvergenter Aufnahme bezeichnet man <strong>die</strong> geometrischen Grundlagen der räumlichen An-<br />

ordnung der Kameras und des aufzunehmenden Objekts als Epipolargeometrie. In <strong>die</strong>sem Teil-<br />

gebiet der projektiven Geometrie werden, wie in Abbildung 2.5 dargestellt, Geraden auf welchen<br />

korrespon<strong>die</strong>rende Bildpunkte liegen als Epipolare Linien und <strong>die</strong>, durch <strong>die</strong> Kamerapositionen<br />

und den Raumpunkt aufgespannte Ebene als Epipolarebene bezeichnet. Hier fließen intrinsische<br />

und extrinsische Parameter wie Brennweite der Kamera, Bildzentrum, Rotation und Translation<br />

der Bildebenen ein.<br />

Diese Geometrie <strong>die</strong>nt dem Ziel, korrespon<strong>die</strong>rende Bildpunkte zu finden und durch Berechnung<br />

deren Deviation, Entfernungen und Winkel aus dem Raumbild zu erhalten. So kann zum Beispiel<br />

ein Tiefenbild erzeugt werden.<br />

Grundgedanke der Epipolargeometrie ist, dass ein dreidimensionaler Punkt M in den Bildebenen<br />

S1 und S2 <strong>die</strong> Abbildungen m1 und m2 liefert. Weiterhin liegt <strong>für</strong> jeden Punkt auf dem optischen<br />

Strahl von m1 nach M der korrespon<strong>die</strong>rende Punkt auf der Epipolarlinie I1.<br />

Durch <strong>die</strong>se Tatsache reduziert sich <strong>die</strong> Suche nach korrespon<strong>die</strong>renden Bildpunkten auf eine li-<br />

neare Suche entlang der Epipolarlinie. Wenn <strong>die</strong> Epipolarlinien berechnet werden ergibt sich ein<br />

weiterer Vorteil, welcher das Problem der Schrägprojektion löst. Liegen alle Epipolarlinien im<br />

Bild parallel, kann <strong>die</strong>ses wieder parallel projiziert werden.<br />

Abgesehen von radialen und anderen Verzerrungen bei Aufnahme von Raumbildern entstehen bei<br />

der parallelen Justage der Kameras Bilder in denen <strong>die</strong> Epipolarlinien parallel sind. Bei konver-<br />

genter Aufnahme müssen <strong>die</strong>se Bilder jedoch transformiert werden. Hier spricht man von einer<br />

Rektifikation.<br />

Da es an der, in <strong>die</strong>ser Arbeit entwickelten Kamera möglich ist den Konvergenzwinkel zu bestim-<br />

men, wird im Folgenden eine Rektifikation <strong>für</strong> bekannte Konvergenzwinkel beschrieben. Für den<br />

Fall, dass der Konvergenzwinkel nicht bekannt ist, kann <strong>die</strong>ser durch Suchen der Punkte m1 und<br />

m2 und bestimmen der Epipolarlinie berechnet werden.<br />

2.3.1.2 Schrägprojektion bei bekanntem Konvergenzwinkel<br />

In [Lac95], [Yan95] und [Koc93] ist der Effekt der Schrägprojektion (Keystoning) beschrieben<br />

und Lösungen wie ihm entgegengewirkt werden kann werden erläutert.<br />

Das Problem besteht nun darin, wie <strong>die</strong> Pixel der originalen Aufnahmeebene S in <strong>die</strong> korrigierte


2.3. WIEDERGABE STEREOSKOPISCHER BILDINHALTE 24<br />

M<br />

m<br />

1<br />

K<br />

1<br />

Abbildung 2.5: Epipolargeometrie nach [ATV00]<br />

Ebene S ′ transformiert werden müssen. Dabei werden folgende Transformationen der Koordina-<br />

tensysteme, wie in Abbildung 2.4 zu sehen, benötigt:<br />

(X0, Y0, Z0) → (Xk (l,r) , Yk (l,r) ) → (X S ′ (l,r) , Y S ′ (l,r) ) → (Xp (l,r) , Yp (l,r) ) → (Xv, Yv, Zv) (2.12)<br />

Dabei stehen X,Y und Z <strong>für</strong> Koordinaten im Raum, und <strong>die</strong> Indizes 0 <strong>für</strong> reale Größen, kl und kr<br />

<strong>für</strong> Koordinaten der linken und rechten Kamera (siehe Abbildung 2.7), pl <strong>für</strong> <strong>die</strong> Bildkoordinaten<br />

im linken projizierten und pr im rechten projizierten Bild, sowie v <strong>für</strong> <strong>die</strong> virtuellen Größen im<br />

Raumbild.<br />

Vorerst werden Bildstörungen durch <strong>die</strong> Optik der Kameras und der Projektoren, wie z.B. radiale 7<br />

oder tangentiale 8 Verzerrungen, nicht betrachtet.<br />

Für <strong>die</strong> erste Transformation aus dem Objektraum in Koordinaten der Bildsensoren sei fk <strong>die</strong><br />

Brennweite, bk <strong>die</strong> <strong>Stereo</strong>basis und γ der Konvergenzwinkel.<br />

Sei Z0 <strong>die</strong> Entfernung zum Objektpunkt, X0 der horizontale Abstand des Objektpunktes von der<br />

7<br />

Durch sphärische Oberfläche der Linsen und dem dadurch entstehenden Unterschied der Brennweite zum Rand des<br />

Bildes, resultierende Verzerrung.<br />

8<br />

Im Vergleich zur radialen Verzerrung sehr geringe, durch Dezentralisierung der Objektivlinsen hervorgerufene Ver-<br />

zerrung.<br />

I1<br />

S<br />

1<br />

m<br />

2<br />

S<br />

2<br />

K<br />

2


2.3. WIEDERGABE STEREOSKOPISCHER BILDINHALTE 25<br />

a)<br />

c)<br />

Z<br />

k<br />

X k<br />

linke<br />

Kamera<br />

F’<br />

lk<br />

p r<br />

N<br />

α β<br />

bk<br />

F<br />

δ Z0 δ<br />

2<br />

2<br />

N’ lk F’<br />

γ<br />

d k<br />

2<br />

p l<br />

X 0<br />

rk<br />

vertikale<br />

Parallaxe<br />

N’<br />

linkes<br />

Bild<br />

rechtes<br />

Bild<br />

rk<br />

t<br />

e<br />

kf<br />

k<br />

a<br />

rechte<br />

Kamera<br />

S<br />

S<br />

rechtes<br />

Bild<br />

linkes<br />

Bild<br />

Z<br />

k<br />

b)<br />

d)<br />

X k<br />

linke<br />

Kamera<br />

N’ lk<br />

F’<br />

lk<br />

p r<br />

N<br />

bk<br />

F<br />

α β<br />

δ Z0 δ<br />

2<br />

2<br />

dk 2<br />

p l<br />

X 0<br />

h<br />

F’<br />

rk<br />

N’<br />

rk<br />

linkes<br />

Bild<br />

rechtes<br />

Bild<br />

t<br />

e<br />

kf<br />

k<br />

a<br />

rechte<br />

Kamera<br />

Abbildung 2.6: Aufnahme mit konvergierenden und parallelen Kameraachsen a) Abbildung der<br />

konvergenten Aufnahme, b) Abbildung der parallelen Aufnahme, c) Konvergente<br />

Kameraachsen (Epipolargeometrie), d) parallele Kameraachsen (Standard <strong>Stereo</strong>geometrie)<br />

optischen Achse der <strong>Stereo</strong>kamera 9 und Y0 <strong>die</strong> Höhe des Objektpunktes. Die Winkel α und β<br />

(siehe Abbildung 2.6c) und d)) ergeben den Konvergenzwinkel α1 = α + β <strong>eines</strong> Objektpunktes<br />

und werden wie folgt berechnet:<br />

bk<br />

2 α = arctan<br />

bk<br />

2 β = arctan<br />

+ X0<br />

, (2.13)<br />

Z0<br />

− X0<br />

. (2.14)<br />

Da der Winkel ∠ICOkl = ∠F CG = α − γ ist, kann Xkl direkt über <strong>die</strong> trigonometrische Bezie-<br />

hung des Tangens berechnet werden.<br />

Weiterhin ist Ykl<br />

Y0<br />

Z0<br />

IC<br />

Z0<br />

= und CG =<br />

CG cosα . Die Abbildung des Objektpunktes auf dem Bildsensor<br />

wird durch folgende Gleichungen gegeben:<br />

9 Die optische Achse der <strong>Stereo</strong>kamera liegt senkrecht zur <strong>Stereo</strong>basis genau bei b K<br />

2


2.3. WIEDERGABE STEREOSKOPISCHER BILDINHALTE 26<br />

S<br />

I<br />

Ykl<br />

m<br />

X<br />

kl<br />

O<br />

kl<br />

C<br />

<br />

F<br />

M<br />

E<br />

O X<br />

<br />

Y0<br />

G Z<br />

H<br />

Abbildung 2.7: Bestimmung der Koordinaten <strong>eines</strong> Objektpunktes <strong>für</strong> den linken Bildsensor nach<br />

[Lac95] wobei COkl = fk, CH = X0, MG = Y0, GH = Z0, ∠CEO =<br />

∠CGH = α und ∠CF O = γ ist.<br />

Xkl = fk · tan(α − γ), (2.15)<br />

Xkr = fk · tan(β − γ), (2.16)<br />

Ykl = Y0 · fk · cosα<br />

,<br />

Z0 · cos(α − γ)<br />

(2.17)<br />

Ykr = Y0 · fk · cosβ<br />

Z0 · cos(β − γ)<br />

(2.18)<br />

Die Indizies kl und kr beschreiben den Bildsensor der linken, beziehungsweise der rechten Kame-<br />

ra.<br />

Die Transformation in Projektionskoordinaten erfolgt über <strong>die</strong> Multiplikation mit dem Vergröße-<br />

rungsfaktor der Projektoren welcher sich durch <strong>die</strong> Projektorbrennweite fP und den Abstand zur<br />

Projektionsfläche aP durch Formel 2.19 ergibt.<br />

V = aP<br />

fP<br />

0<br />

0<br />

(2.19)<br />

Xpl = V · XS (2.20)<br />

Xpr = V · XS (2.21)<br />

Ypl = V · YS (2.22)<br />

Ypr = V · YS (2.23)


2.3. WIEDERGABE STEREOSKOPISCHER BILDINHALTE 27<br />

Des Weiteren fehlt hier eine Funktion g1(Xkl,r , Ykl,r , Zkl,r ), um <strong>die</strong> ermittelten Koordinaten des<br />

Ok(X, Y ) in das Op(X, Y ) Koordinatensystem zu transformieren <strong>die</strong> sicherstellt, dass auch bei<br />

konvergenter Aufnahme keine vertikale Parallaxe auftritt. Im Einzelnen müssen XS ′ und YS ′, also<br />

<strong>die</strong> Koordinaten der berichtigten Kamerasensordaten, welche in OPr,l (X, Y )10 liegen ermittelt<br />

werden.<br />

Hier<strong>für</strong> kann das in [Lac95] beschriebene Verfahren mit bekanntem Konvergenzwinkel γ, gezeigt<br />

in Abbildung 2.8, genutzt werden. Dabei transformiert eine Projektion das Bild in <strong>die</strong>se zur Ste-<br />

reobasis parallele Ebene und eine Skalierung bewirkt eine Korrektur der Breite des Bildes.<br />

a) b)<br />

ω<br />

H<br />

B<br />

F<br />

O<br />

C C<br />

γ<br />

O’<br />

A<br />

G<br />

E<br />

S<br />

S’<br />

Q’ Q<br />

Abbildung 2.8: Finden der linken korrigierten Ebene S’ bei Schrägprojektion (nach [Lac95]),<br />

a)zweidimensionale Abbildung b)dreidimensionale Abbildung<br />

Die Breite des Bildsensors sei wk, fk <strong>die</strong> Kamerabrennweite und 2ϖ der Öffnungswinkel der<br />

Kamera. Da der Öffnungswinkel der Kamera von der Brennweite abhängt, gilt <strong>die</strong> Beziehung:<br />

ω<br />

X<br />

F<br />

O’<br />

γ<br />

O<br />

P’<br />

ϖ = arctan( wk<br />

) (2.24)<br />

2 · fk<br />

Die korrigierte Ebene und <strong>die</strong> optische Achse der Kamera treffen sich bei O ′ . Daraus resultierend<br />

gelten <strong>die</strong> nachfolgenden Verhältnisse, da <strong>die</strong> Breite des in <strong>die</strong> korrigierte Bildebene projizierten<br />

Bildes (EF ) gleich der Sensorbreite wk ist.<br />

10 Der Index Pr,l beschreibt <strong>die</strong> linke oder rechte Diaebene des Projektors oder bei Beamern <strong>die</strong> Ebene der TFT- oder<br />

LCD-Matrix.<br />

A<br />

P<br />

E


2.3. WIEDERGABE STEREOSKOPISCHER BILDINHALTE 28<br />

OG = wk · cos(ϖ)<br />

2 · cos(γ + ϖ)<br />

OH = wk · cos(ϖ)<br />

2 · cos(γ − ϖ)<br />

GH = wk<br />

2<br />

(2.25)<br />

(2.26)<br />

1<br />

· cosϖ · (<br />

cos(γ + ϖ) +<br />

1<br />

) (2.27)<br />

cos(γ − ϖ)<br />

Die Breite des berichtigten Bildes EF in S ′ ist gleich der Bildsensorbreite, weswegen der Abstand<br />

zu <strong>die</strong>ser Ebene CO ′ wie folgt berechnet wird:<br />

CO ′ 2 · fk<br />

=<br />

1 cosϖ( cos(ϖ+γ) +<br />

1<br />

cos(ϖ−γ) )<br />

(2.28)<br />

Unter der Vorraussetzung, dass <strong>die</strong> Sensorebene in OS und <strong>die</strong> Projektor-TFT-Ebene in OS ′ <strong>die</strong><br />

korrigierte Ebene darstellt, gilt <strong>für</strong> <strong>die</strong> Projektion gegen den Uhrzeigersinn (des linken Bildes)<br />

folgende Beziehung:<br />

YS ′<br />

YS<br />

= XS ′ · cosγ<br />

XS ′ =<br />

YS ′ =<br />

=<br />

XS<br />

CO′ − XS ′ · sinγ<br />

fk<br />

CO ′<br />

· XS<br />

(2.30)<br />

fK · cosγ + XS · sinγ<br />

CO ′ · cosγ<br />

· YS<br />

(2.31)<br />

fK · cosγ + XS · sinγ<br />

Dieses System ist identisch zu einem parallelen System, mit einer theoretischen Brennweite<br />

f ′ = CO ′ · cosγ, weswegen keine vertikale Parallaxe auftritt.<br />

(2.29)<br />

Wie in Abbildung 2.8 zu sehen, ist O ′ nicht mehr in der Mitte der korrigierten Ebene. Durch <strong>die</strong>sen<br />

Umstand müssen <strong>die</strong> „neuen“ Koordinaten der Bildgrenzen X 1 und X 2 errechnet werden.<br />

X 1 kl =<br />

X 2 kl =<br />

CO ′ · wk<br />

2(fk · cosγ − wk<br />

2 · sinγ)<br />

CO ′ · wk<br />

2(fk · cosγ + wk<br />

2 · sinγ)<br />

(2.32)<br />

(2.33)<br />

Die berichtigte Abbildung S ′ hat eine Deviation (dk), welche durch <strong>die</strong> Position der Ebene, der<br />

Brennweite, der Breite der Sensoren und dem Winkel zwischen korrigierter und Aufnahme-Ebene,<br />

bestimmt ist.<br />

dk = CO ′ · cosγ +<br />

4 · f 2 k<br />

Im Weiteren tritt durch Formel 2.28 <strong>die</strong> Beschränkung<br />

auf.<br />

CO ′ · w2 k · tanγ<br />

cosγ(1 + tanϖtanγ)(1 − tanϖtanγ)<br />

γ + ϖ = π<br />

2<br />

(2.34)<br />

(2.35)


2.3. WIEDERGABE STEREOSKOPISCHER BILDINHALTE 29<br />

Für <strong>die</strong> finale Transformation in Raumbildkoordinaten ergibt sich durch den Augenabstand des<br />

Betrachters (b0) und der Deviaton im Bild pP (vgl. Abbildung 2.4):<br />

Xv = b0 · (Xpl + Xpr)<br />

2 · (b0 − (pP ))<br />

Yv = b0 · YS<br />

b0 − pP<br />

Zv = b0 · V<br />

b0 − pP<br />

2.3.1.3 Schrägprojektion bei unbekanntem Konvergenzwinkel<br />

(2.36)<br />

(2.37)<br />

(2.38)<br />

Im Fall, dass der Konvergenzwinkel nicht bekannt ist oder in nicht ausreichender Genauigkeit zur<br />

Verfügung steht, kann <strong>die</strong>ser über das im Folgenden dargestelle Verfahren ermittelt werden.<br />

Für jeden Punkt m1 des linken Bildes liegt der Punkt m2 (vgl. Kapitel 2.3.1.1) im rechten Bild auf<br />

der Epipolarlinie I1. Um den Konvergenzwinkel γ bestimmen zu können, wird zu dem bekannten<br />

Punkt m1 über eine ähnlichkeitsfunktion F (m1, m2) der Punkt im rechten Bild gesucht [Ber04].<br />

Diese Funktion kann beispielsweise nach Ähnlichen Farbwerten oder Helligkeitswerten suchen.<br />

Der Punkt m2 ist dabei der, der <strong>die</strong> Funktion F (m1, m2) minimiert. Die Summe der Funktion<br />

F (m1, m2) über alle Punke im linken Bild wird geringer, wenn γ ′ nahe des Konvergenzwinkels γ<br />

liegt. Somit ist der optimale Konvergenzwinkel durch Gleichung 2.39 bestimmbar.<br />

γ ′ <br />

= argminγ F (m1, m2(γ)) (2.39)<br />

m1<br />

Diese Funktion kann beschleunigt werden, indem nicht zu jedem Punkt m1 der passende Punkt<br />

m2 gesucht wird, sondern nur bestimmte Regionen des Bildes „abgesucht“ werden.<br />

Für <strong>die</strong>sen Ansatz existieren [Ber04, nach] zwei prinzipielle Methoden:<br />

1. Merkmalbasierte Methoden<br />

2. Flächenbasierte Methoden<br />

Bei den merkmalbasierten Methoden werden in den Einzelbildern des <strong>Stereo</strong>bildpaares Merkmale<br />

gesucht, welche:<br />

• Kanten,<br />

• Kurven,<br />

• und Ecken<br />

sein können. Die Identifizierung <strong>die</strong>ser Merkmale ist robuster gegenüber dem Finden von Intensi-<br />

täten.<br />

Die flächenbasierten Methoden vergleichen Regionen aufgrund von Farb- und Helligkeitswerten.<br />

Diese Variante eigenet sich besonders <strong>für</strong> Landschaftskarten, Satellitenaufnahmen und anderen


2.3. WIEDERGABE STEREOSKOPISCHER BILDINHALTE 30<br />

Bildinformationen, bei welchen vorrangig weiche Übergänge zwischen Farbflächen auftreten.<br />

Ein weiterer Ansatz zur Bestimmung des Konvergenzwinkels nutzt <strong>die</strong> später in Kapitel 4.6 be-<br />

schriebene <strong>Stereo</strong>kamerakalibrierung, bei der durch eine Kalibrierung beider Einzelkameras <strong>die</strong><br />

Weltkoordinatensysteme in <strong>die</strong> Kamerkoordinatensysteme überführt werden. In <strong>die</strong>sem Fall geben<br />

<strong>die</strong> externen Parameter der Kalibrierung <strong>die</strong> Lage der Camcorder zueinander an. Dieser Ansatz er-<br />

fordert allerdings bei Änderung des Konvergenzwinkels während der Aufnahme eine Kalibrierung<br />

<strong>für</strong> jede mögliche Brennweite, was sehr umfangreich ist und somit zur Auffindung von Epipolar-<br />

linien nur in begrenztem Maße zu empfehlen ist. Dies bedeutet, <strong>für</strong> eine festgelegte Brennweite<br />

und Fokussierung ist <strong>die</strong>se Art der Bestimmung von γ erfolgreich.<br />

2.3.2 Berechnung des virtuellen Abstandes<br />

Der virtuelle Abstand <strong>eines</strong> Objektes bei der Wiedergabe gibt an, in welcher Entfernung sich das<br />

virtuelle Objekt (siehe Abbildung 2.9) zu befinden scheint.<br />

virtuelles<br />

Objekt<br />

Wiedergabeebene<br />

Projektor Projektor<br />

dk<br />

p P<br />

b 0<br />

dk<br />

2 2<br />

Abbildung 2.9: Schematische Darstellung der Projektion <strong>eines</strong> virtuellen Objektes.<br />

Dieser Abstand hängt von mehreren Faktoren ab und ist in der Regel nicht gleich der Entfernung<br />

des Objektes von der Kamera bei der Aufnahme. Um <strong>die</strong>sen zu berechnen kann Abbildung 2.1<br />

genutzt werden, da hierbei <strong>die</strong> Abbildung auf dem Bildsensor der Kamera analog der im mensch-<br />

lichen Auge verläuft [Her07].<br />

Die virtuelle Entfernung (avirt) hängt von der Größe der Projektion ab. Dabei sei der Abstand des<br />

Betrachters zum Wiedergabemedium eP , der Augenabstand b0 und <strong>die</strong> Deviation der wiedergege-<br />

eP<br />

t<br />

f 0<br />

virt<br />

a<br />

virt


2.3. WIEDERGABE STEREOSKOPISCHER BILDINHALTE 31<br />

benen Bilder pP wodurch sich <strong>die</strong> Beziehung in Formel 2.40 ergibt.<br />

avirt = b0 · eP<br />

2 · pP<br />

(2.40)<br />

Zur Berechnung der Deviation der projizierten Bilder (pP ) wird der Vergrößerungsfaktor (V ) aus<br />

Formel 2.19 benötigt, welcher das Größenverhältnis zwischen Wiedergabeabbildung und Abbil-<br />

dung auf dem Bildsensor einer Kamera angibt.<br />

Die Deviation dk auf den Bildsensoren der Kameras errechnet sich durch<br />

dk = bk · fk<br />

2 · a<br />

wodurch <strong>die</strong> Deviation pP auf der Projektionfläche<br />

pP = V · dk = aP<br />

ist. Werden <strong>die</strong>se Formeln nun in Formel 2.40 eingesetzt, ergibt sich als virtueller Abstand<br />

avirt = b0 · eP<br />

2 · pP<br />

2.3.3 Berechnung der virtuellen Tiefe<br />

fP<br />

· dk<br />

= b0 · fP · eP<br />

bk · fk · aP<br />

(2.41)<br />

(2.42)<br />

· a (2.43)<br />

Die virtuelle Tiefe beschreibt, wie groß der Tiefeneindruck des dargestellten Objektes ist. Bei-<br />

spielsweise sollen meist bei der Darstellung von Kugeln oder anderen runden Objekten <strong>die</strong>se nicht<br />

durch eine übertriebene Tiefenwirkung, elliptisch dargestellt werden.<br />

Ausgehend von der Abbildungsgröße des Objektes im Auge des Betrachters h0 und nach Abbil-<br />

dung 2.9 kann <strong>die</strong> virtuelle Objektgröße gvirt über <strong>die</strong> Höhe h0 und <strong>die</strong> virtuelle Tiefe tvirt über<br />

<strong>die</strong> Deviation beschrieben werden.<br />

Es sei<br />

· gobj<br />

(2.44)<br />

a<br />

<strong>die</strong> Höhe der Objektabbildung im Auge des Betrachters wobei hobj <strong>die</strong> reale Objekthöhe bezeich-<br />

h0 = f0<br />

net. Durch Umstellen <strong>die</strong>ser Formel <strong>für</strong> virtuelle Werte ergibt sich:<br />

h0 = f0<br />

· gvirt<br />

avirt<br />

was sich durch den Vergleich mit den Formeln 2.40, 2.19, 2.41, 2.42 und 2.43 zu:<br />

gvirt = fk · avirt · aP<br />

fP · eP · a · gobj = b0<br />

umstellen läßt. Die virtuelle Objekttiefe tvirt kann durch<br />

d = b0 · f0<br />

a 2 virt<br />

also der Deviation ermittelt werden, welche sich nach:<br />

umstellen lässt.<br />

· tvirt<br />

tvirt = bk · fk · a 2 virt<br />

bK<br />

· gobj<br />

(2.45)<br />

(2.46)<br />

(2.47)<br />

· aP<br />

b0 · fP · eP · a2 · t (2.48)


2.3. WIEDERGABE STEREOSKOPISCHER BILDINHALTE 32<br />

2.3.4 Berechnung der Betrachterposition<br />

Für den optimalen Betrachtungsabstand vom projizierten <strong>Stereo</strong>bild, welcher theoretisch jener ist,<br />

bei dem dargestellte Objekte gleich wahrgenommen werden, existieren zwei Ansätze.<br />

Zum einen der orthostereoskopische, also formtreue und zum anderen der Ansatz der form- und<br />

größentreuen Abbildung, auch tautostereoskopische Abbildung genannt [Her07].<br />

Dabei tritt eine tautostereoskopische Abbildung nur auf, wenn b0 = bk und gleichzeitig<br />

fP · eP<br />

fk · aP<br />

= eP<br />

V · fk<br />

= 1 (2.49)<br />

gilt. Um prinzipiell gleiche Winkel δ zu erreichen muss <strong>die</strong> Aufnahmebasis bk gleich dem Augen-<br />

abstand sein. Desweiteren, wie in Formel 2.49 gezeigt, muss das Verhältnis der Entfernungen von<br />

Projektor und Betrachter zur Projektionsebene stimmen. So lässt sich der Betrachtungsabstand<br />

einer tautostereoskopischen Abbildung ePtauto nach Formel 2.50 bestimmen.<br />

ePtauto = fk · aP<br />

fP<br />

Für eine orthostereoskopische Abbildung gilt:<br />

fP · eP<br />

fk · aP<br />

= V · fk<br />

(2.50)<br />

= 1 (2.51)<br />

da hier <strong>die</strong> Bedingung <strong>für</strong> <strong>die</strong> <strong>Stereo</strong>basis nicht zu beachten ist. Dies liegt darin begründet, dass bei<br />

Veränderungen der <strong>Stereo</strong>basis, wie in Kapitel 2.1.3 beschrieben, eine Größenveränderung auftritt,<br />

jedoch keine Formveränderung. Weiter bedeutet <strong>die</strong>s, dass Personen, <strong>die</strong> weiter von der Projek-<br />

tionsfläche entfernt sind, eine größere virtuelle Tiefe wahrnehmen, da <strong>die</strong> virtuelle Größe gleich<br />

bleibt. Ebenso wie Personen, <strong>die</strong> sich näher an der Projektionsfläche befinden, einen flacheren<br />

Tiefeneindruck erfahren.<br />

In der Praxis stellte sich jedoch heraus, dass subjektive Kriterien einfließen [Pas87].<br />

2.3.5 Wiedergabemethoden<br />

Die Wiedergabe stereoskopischer Bildinhalte kann über vielfältige Methoden realisiert werden<br />

welche hier der Vollständigkeit halber gegeben werden sollen. Da <strong>die</strong> Wiedergabe der <strong>Stereo</strong>vi-<br />

deos mit der entwickelten <strong>Stereo</strong>videokamera ein Teil der Aufgabenstellung <strong>die</strong>ser Diplomarbeit<br />

darstellt.<br />

Im Allgemeinen wird zwischen der Wiedergabe auf einem Bildschirm und der auf mehreren Bild-<br />

schirmen (mit Hilfe von Projektoren) unterschieden. Diese Varianten werden im Folgenden kurz<br />

erläutert.<br />

2.3.5.1 Head Mounted Displays<br />

Bei Head Mounted Displays (HMD), oder auch Videobrille genannt, handelt es sich um ein tragba-<br />

res Gerät ähnlich einer Brille, welches mit Hilfe von zwei kleinen Bildschirmen Raumbilder dar-<br />

stellt. Moderne HMDs sind mit einem Virtual retinal display (VRD) ausgestattet. Diese Technik


2.3. WIEDERGABE STEREOSKOPISCHER BILDINHALTE 33<br />

projiziert ein Bild direkt auf <strong>die</strong> Netzhaut. Zusammen mit einer transparenten bzw. transluzenten<br />

Brille kann das Auge <strong>die</strong> Umgebung sowie <strong>die</strong> Darstellungen der Brille gleichzeitig erfassen. Ein<br />

weiterer Vorteil ist, dass das Bild skaliert werden kann und somit das gesamte Blickfeld ausgenutzt<br />

wird [Wik07b].<br />

2.3.5.2 Polarisation<br />

Die Polarisationstechnik unterscheidet sich durch den Einsatz von linearer und zirkularer Polari-<br />

sation.<br />

Bei der linearen Polarisation werden Bilder mit einem <strong>Stereo</strong>-Diaprojektor oder zwei Beamern<br />

auf eine Leinwand projiziert, wobei beide Objektive mit um 90 Grad versetzten Polarisations-<br />

filtern bestückt werden. Die Zuschauer bekommen Polarisationsbrillen, <strong>die</strong> beide Bilder wieder<br />

voneinander trennen. Dabei können <strong>die</strong> Einzelbilder leicht abgedunkelt durch <strong>die</strong> Filter, ohne<br />

Farbeinschränkungen betrachtet werden. Es wird keinerlei Übung benötigt, um den <strong>Stereo</strong>effekt<br />

wahrzunehmen. Allerdings verschwindet der <strong>Stereo</strong>effekt, wenn der Kopf geneigt wird, da <strong>die</strong><br />

Bilder in <strong>die</strong>sem Fall nicht mehr getrennt werden. Diese Projektionsmethode ist heutzutage <strong>die</strong><br />

am weitesten verbreitetste. Zum einen, da polarisierte Brillen relativ preisgünstig erhältlich sind<br />

zum anderen, da <strong>die</strong> Verwendung von zirkularer Polarisation nur in den mittleren Wellenlängen<br />

des sichtbaren Lichtes optimal eingesetzt werden kann. Bei relativ hohen, oder niedrigen Wellen-<br />

längen müssen hier Geisterbilder in Kauf genommen werden.<br />

Zirkulare Polarisation wird erreicht, indem eine linear polarisierte Lichtwelle durch einen Kristall<br />

geleitet wird, in welchem <strong>die</strong> Fortpflanzungsgeschwindigkeit des Lichtes von der Schwingungs-<br />

achse <strong>eines</strong> elektrischen Feldes abhängt. Ist das Licht vor dem Kristall parallel oder waagrecht<br />

zur optischen Achse polarisiert, so geschieht entweder gar nichts oder es wird <strong>die</strong> gesamte Welle<br />

etwas gebremst. Schwingt das Licht im 45 ◦ -Winkel zur optischen Achse, so ergibt sich rechtszir-<br />

kulares Licht. Beim Winkel von −45 ◦ dreht sich das Licht genau in <strong>die</strong> andere Richtung, es wird<br />

also linkszirkular [Weh07].<br />

2.3.5.3 Schieltechniken<br />

Parallelblick Bei dem Parallelblick wird versucht mit den Augen auf einen weit entfernten<br />

Punkt zu konvergieren, sodaß <strong>die</strong> Augenachsen nahezu parallel verlaufen. In <strong>die</strong>sem Zustand muss<br />

der Betrachter nun auf zwei Bilder vor sich akkomo<strong>die</strong>ren (scharfstellen) und es ergibt sich ein vir-<br />

tuelles drittes Bild zwischen den beiden betrachteten, welches über stereoskopische Tiefe verfügt.<br />

Dieses Methode ist durch <strong>die</strong> unnatürliche Betrachtungsweise sehr unangenehm und kann nicht<br />

über längere Zeit vollzogen werden. Außerdem muss <strong>die</strong>se Methode trainiert werden, was bei<br />

erfolgreicher Erlernung den Vorteil bietet, ohne jegliche Hilfsmittel Raumbilder wahrzunehmen.<br />

Kreuzblick Ähnlich dem Parallelblick ist <strong>die</strong> Methode des Kreuzblickes. Dabei konvergieren<br />

<strong>die</strong> Augen des Betrachters auf einen sehr nahen Punkt und akkomo<strong>die</strong>ren auf einen weiter weg


2.3. WIEDERGABE STEREOSKOPISCHER BILDINHALTE 34<br />

liegenden Punkt. So sieht das linke Auge das rechte Bild und das rechte Auge das linke Bild.<br />

Auch bei <strong>die</strong>ser Methode entsteht ein drittes virtuelles Raumbild in der Mitte.<br />

2.3.5.4 <strong>Stereo</strong>skop<br />

Das <strong>Stereo</strong>skop ist vergleichbar mit einem Feldstecher, in dem <strong>die</strong> Bilder als Positivfilme (Dia)<br />

eingelegt werden. Durch Linsen werden <strong>die</strong> Bilder etwas vergrößert und jedes Auge sieht genau<br />

ein Bild. Dieses Hilfsmittel ist <strong>eines</strong> der ältesten Geräte zur Betrachtung von stereoskopischen<br />

Aufnahmen, welches <strong>die</strong> Methode des Parallelblickes realisiert und <strong>die</strong>se unterstützt.<br />

2.3.5.5 LCDShutter-Brille<br />

Eine Shutterbrille ist ein zur Betrachtung von <strong>Stereo</strong>graphiken auf einem Monitor eingesetztes<br />

Gerät. Der Computer gibt abwechselnd das linke und rechte Bild aus und steuert eine Brille mit<br />

Flüssigkristallscheiben an. Dabei wird im gleichen Takt der Bilder jeweils eine Seite undurchsich-<br />

tig. Dieses Verfahren reduziert <strong>die</strong> Bildwiederholrate effektiv auf <strong>die</strong> Hälfte. Die Auflösung des<br />

Monitors kann voll genutzt werden und man benötigt keinerlei Übung. Bei Bildwiederholraten von<br />

mehr als 100 Hz. ist eine flimmerfreie Wiedergabe möglich, worin <strong>die</strong> Einsatzbegrenzung liegt,<br />

da z.Zt. lediglich Röhrenmonitore einen ausreichend schnellen Bildaufbau ermöglichen um Shut-<br />

terbrillen einzusetzen. Bei LCD Bildschirmen reagieren <strong>die</strong> Flüssigkristalle nicht schnell genug<br />

auf den Wechsel zwischen rechtem und linkem Bild, was Störbilder zur Folge hat. Shutterbrillen<br />

können im Pageflipping Modus betrieben werden, dabei wird abwechselnd ein linkes- und rechtes<br />

Vollbild dargestellt. Ein weiterer Modus <strong>die</strong>ser Technik ist der Interlaced Modus, wobei auf Röh-<br />

renmonitoren der Bildaufbau durch Halbbilder genutzt wird. Es wird hier immer ein linkes und<br />

rechtes Halbbild abwechselnd dargestellt, wobei <strong>die</strong> Auflösung pro dargestelltem Bild halbiert<br />

wird, aber eine Bildwiederholrate von ca. 60 Hz. ausreicht um Raumbilder darzustellen. Wenn <strong>die</strong><br />

Wiedergabe im Interlaced Modus nicht unterstützt wird, kann das Lineblanking Verfahren genutzt<br />

werden, bei dem in ein Vollbild verschachtelte Halbbilder der zwei Ansichten ko<strong>die</strong>rt werden, der<br />

Controller der Shutterbrille übernimmt <strong>die</strong> Interlaced-Darstellung. Als viertes Verfahren existiert<br />

das Synchdoubling Verfahren wobei <strong>die</strong> Halbbilder der linken und rechten Ansicht übereinan-<br />

der an den Shuttercontroller gesendet werden, welcher nach der Darstellung des oberen Teils ein<br />

Synchronsignal sendet, wodurch der Elektronenstrahl wieder an den Nullpunkt der Monitorröhre<br />

gebracht wird und das untere Halbbild darstellt. Dabei kann durch fehlerhafte Synchronsignale ein<br />

Höhenversatz entstehen, was zur Folge hat, daß das System nicht verbreitet eingesetzt wird.<br />

2.3.5.6 Prismenbrille<br />

Bei dem Einsatz von Prismenbrillen, auch KMQ nach den Initialen der Erfinder 11 genannt, werden<br />

beide Bilder übereinander gelegt. Vorteil <strong>die</strong>ser Technik ist, dass keine Filter benötigt werden und<br />

auch keine besondere Projektionsfläche notwendig ist. Eine Prismenbrille, <strong>die</strong> das Licht auf beiden<br />

11 Dr. Christoph Koschnitzke, Reiner Mehnert und Dr. Peter Quick


2.3. WIEDERGABE STEREOSKOPISCHER BILDINHALTE 35<br />

Seiten unterschiedlich bricht führt jedem Auge ein Bild zu. Dabei werden <strong>die</strong>se allerdings leicht<br />

gestaucht und es können an kontrastreichen Stellen des Bildes farbige Säume entstehen. Außerdem<br />

ist ein fest definierter Abstand zum Bild einzuhalten, der von Größe und Abstand der <strong>Stereo</strong>bilder<br />

abhängt [Qui07].<br />

2.3.5.7 Interferenzfiltertechnik<br />

Die Interferenzfiltertechnik oder Wellenlängenmultiplex arbeitet nach einem Farbbandpass Ver-<br />

fahren mit kammartig verschachtelten Bandpässen (siehe Abbildung 2.10). Hierbei werden <strong>die</strong><br />

Bilder <strong>für</strong> das linke und rechte Auge mit Grundfarben unterschiedlicher Wellenlänge projiziert<br />

z.B.<br />

linkes Auge: rot 629nm, grün 532nm, blau 446nm<br />

rechts Auge: rot 615nm, grün 518nm, blau 432nm<br />

Abbildung 2.10: Funktionsprinzip der Infitec Interferenzfiltertechnik aus [Dai07]<br />

Bei <strong>die</strong>ser Betrachtungstechnik ist der Kopf beliebig neigbar und es wird keine Spezial-Leinwand<br />

benötigt. Die Brillen und Filter sind jedoch vergleichsweise teuer und man muss leichte Farbver-<br />

fälschungen je Auge (rosa/hellgrün) in Kauf nehmen [Dai07].<br />

2.3.5.8 Prismen-Oberfläche<br />

Eine Prismen-Oberfläche, auch Lenticular genannt, wird z.B. bei <strong>Stereo</strong>postkarten eingesetzt. Bei-<br />

de Bilder werden spaltenversetzt nebeneinander unter einer geriffelten Folie platziert. Dabei wird<br />

immer zwischen Spalten des linken und rechten Bildes gewechselt. Durch <strong>die</strong> schmalen Prismen


2.3. WIEDERGABE STEREOSKOPISCHER BILDINHALTE 36<br />

schaut das rechte Auge auf <strong>die</strong> Streifen des rechten Bildes, analog das linke Auge. Diese Tech-<br />

nik wird meist mit mehr als zwei Bildern noch verbessert. So existieren beispielsweise Monitore,<br />

welche fünf Ansichten, meist von synthetischen Bildinhalten, darstellen. Nachteil ist, dass bei Pro-<br />

jektion von <strong>Stereo</strong>fotos drei Zwischenbilder interpoliert werden. Das führt zu Qualitätseinbußen<br />

und somit zu einer geringeren darstellbaren Auflösung der Bildschirme [Inc07b].<br />

2.3.5.9 Anaglyphen Verfahren<br />

Beim anaglyphen Verfahren werden <strong>die</strong> Teilbilder unterschiedlich eingefärbt und übereinander<br />

gelegt. Die Trennung der Bilder <strong>für</strong> jedes Auge wird durch Farbfolien realisiert, wobei <strong>die</strong> Primär-<br />

farben Rot, Blau, oder Grün verwendet werden. Anaglyphen sind mit jedem Medium kompatibel,<br />

werden aber durch entstehende Farbverfälschungen nicht im Videobereich genutzt. Hier kommt<br />

hinzu, dass Farbko<strong>die</strong>rungsverfahren, welche im Fernseh- und Videobereich verwendet werden,<br />

nicht <strong>für</strong> <strong>die</strong> Darstellung von Anaglyphen geeignet sind. Meist werden Rot-Blau-, oder Rot-Grün-<br />

Brillen eingesetzt, wobei <strong>die</strong> Kanaltrennung bei Rot-Blau Brillen durch <strong>die</strong> größere Farbdifferenz<br />

effizienter ist.<br />

Echte Anaglyphenbilder können keine Farben reproduzieren, deshalb <strong>die</strong>nen hierbei meist Grau-<br />

stufenbilder als Vorlage.<br />

Zum zweiten existieren graue Anaglyphen, <strong>die</strong> sich durch <strong>die</strong> Verwendung aller drei Primärfarben<br />

auszeichnen. Für das rechte Bild werden grüner und blauer Kanal genutzt und mit einem Cyan<br />

Filter betrachtet. Für das linke Bild wird der rote Kanal verwendet. Dadurch wird das Raumbild<br />

heller und farbneutraler, enthält aber auch geringe Störbilder.<br />

Als drittes existieren farbige Anaglyphen, welche eine geringe Farbwiedergabe erlauben. Dabei<br />

werden grüne und blaue Farbanteile gut wahrgenommen, da sie einem Auge zugeführt werden,<br />

und rote eher schwach gesehen.<br />

2.3.5.10 Pulfrich-Verfahren<br />

Bei dem Pulfrich Verfahren handelt es sich um ein quasistereoskopisches Verfahren, welches eine<br />

Dunkel-Hell-Brille nutzt. Durch den Effekt, dass das Gehirn dunkle Bilder später wahrnimmt als<br />

helle und <strong>die</strong> rechte Seite der Brille abgedunkelt ist, wirkt eine Filmsequenz, bei der sich <strong>die</strong> Ka-<br />

mera von rechts nach links bewegt, durch <strong>die</strong> Brille betrachtet, dreidimensional. Das linke Auge<br />

sieht das aktuelle Bild, während das rechte Auge ein dunkleres Bild sieht, welches zeitversetzt<br />

wahrgenommen wird. Diese auch von diversen Fernsehsendern präsentierte Variante funktioniert<br />

nur bei seitlichen Kamerafahrten. Bewegt sich <strong>die</strong> Kamera nicht, wird kein Raumbild wahrgenom-<br />

men.<br />

2.3.6 Mögliche Bildstörungen in stereoskopischem Video<br />

Zu der im Kapitel 2.3.1 beschriebenen Korrektur von konvergenten Aufnahmen kommen noch<br />

andere Störungen hinzu, welche nachfolgend erwähnt und kurz erläutert werden sollen.


2.3. WIEDERGABE STEREOSKOPISCHER BILDINHALTE 37<br />

2.3.6.1 Höhenfehler<br />

Höhenfehler entstehen wenn <strong>die</strong> <strong>Stereo</strong>kamera bei der Aufnahme nicht Horizontal ausgerichtet<br />

wurde oder <strong>die</strong> ptischen Achsen der <strong>Stereo</strong>kamera vertikal divergieren. Sie resultieren in Raum-<br />

bildern welche stereoscopisch nicht wahrgenommen werden können, da ein „normalsehendes“<br />

menschliches Auge und das „verarbeitende“ Gehirn bei vertikalen Differenzen korrespon<strong>die</strong>ren-<br />

der Bildpunkte keine Zuordnung <strong>die</strong>ser treffen kann.<br />

Zur Eliminierung von Höhenfehlern ist ein Filtermechanismus denkbar, welcher <strong>die</strong> bei der Auf-<br />

nahme eventuell entstandenen Höhenfehler zur Laufzeit korrigiert. Dazu müsste ein Algorithmus<br />

implementiert werden, der markante Bereiche in beiden Bildern sucht und deren Höhe angleicht.<br />

Dieser Algorithmus könnte Höhenfehler durch Verkippung eliminieren. Für den Fall, dass <strong>die</strong><br />

optischen Kameraachsen bei der Aufnahme nicht vertikal parallel ausgerichtet sind kann <strong>die</strong>ser<br />

Algorithmus keine Lösung liefern da bei <strong>die</strong>sen Aufnahmen der Höhenfehler abhängig von der<br />

Entfernung des Objektpunktes ist.<br />

2.3.6.2 Randlichtabfall<br />

Weiterhin sollten Fehler bei der Projektion behoben werden. Beispielsweise entsteht bei jeder Pro-<br />

jektion ein heller Fleck, der durch den natürlichen Randlichtabfall bedingt ist. Dies bedeutet, dass<br />

um <strong>die</strong> Achse, <strong>die</strong> zwischen Betrachter und Projektor entsteht, ein helleres Bild projiziert wird.<br />

Das sogenannte „Cos 4 -Gesetz“, siehe [DAK06], beschreibt <strong>die</strong>sen Effekt, der in Abbildung 2.11<br />

gezeigt ist. Die Eliminierung <strong>eines</strong> solchen Randlichtabfalls erfolgt über eine transparente Maske,<br />

welche den helleren Bereich so abdunkelt, dass das komplette Bild eine gleichmäßige Helligkeit<br />

hat. Die einfachste Methode solch eine Maske zu generieren, besteht in der Aufnahme einer Pro-<br />

jektion <strong>eines</strong> weißen Bildes mit einer analogen Kamera. Das Negativ <strong>die</strong>ses Fotos wird nach der<br />

<strong>Entwicklung</strong> vor eine Projektor-Bildebene gebracht und eliminiert somit den Randlichteffekt. Bei<br />

Nutzung <strong>eines</strong> Computers kann <strong>die</strong>se Maske als Alphamaske über das zu projizierende Bild ge-<br />

legt werden. Allerdings tritt der Effekt, wie erwähnt, relativ zum Betrachter auf, weswegen eine<br />

optimale Transformation nur durch Tracking des Betrachters möglich ist.<br />

2.3.6.3 Verzeichnung<br />

Bei Verzeichnung handelt es sich um Abbildungsfehler optischer Systeme welche durch <strong>die</strong> un-<br />

terschiedliche Dicke der Linsen zustande kommt. Da konvexe Linsen zum Rand hin dünner sind<br />

als in der Mitte (und konkave Linsen zum Rand hin dicker als in der Mitte) kommt es zu Brenn-<br />

weitenunterschieden. Diese bewirken eine kissenförmige (oder tonnenförmige) Verzeichnung.<br />

Zur Berichtigung <strong>die</strong>ser Verzerrungen wird ein kalibriertes Muster benötigt, welches nach der Ab-<br />

lichtung mit dem aufgenommenen Bild verglichen wird. Bei der Elimination von Verzeichnungen<br />

von Projektoren kann <strong>die</strong>se Methode ebenfalls verwendet werden. So kann eine Transformation


2.3. WIEDERGABE STEREOSKOPISCHER BILDINHALTE 38<br />

a) b) c)<br />

Abbildung 2.11: Randlichtabfall bei Nutzung von Projektoren. a) Mittige Projektion b) Schrägprojektion<br />

c) Schrägprojektion auf spezielle Leinwand<br />

aufgestellt werden, <strong>die</strong> eine Kamera „kalibriert“. Hier wird ein bekanntes Muster projiziert und<br />

von einer bereits kalibrierten Kamera wieder aufgenommen.<br />

2.3.6.4 Aberration<br />

Aberration beschreibt den Effekt, dass Lichtstrahlen sich hinter einer Linse nicht in einem Punkt<br />

treffen. Dabei unterscheidet man zwischen chromatischer Aberration und sphärischer Aberration.<br />

Die chromatische Aberration (auch Farbsaum) ist ein Abbildungsfehler optischer Linsen welcher<br />

von der Wellenlänge des Lichtes abhängt. Licht verschiedener Wellenlängen wird, durch unter-<br />

schiedliche Brechung in einer Linse, in verschiedenen Punkten fokussiert.<br />

Eine Korrektur <strong>die</strong>ses Effektes ist nur während der Aufnahme möglich indem Linsen verschiede-<br />

ner Glassorten verwendet werden und so, durch <strong>die</strong> unterschiedlichen Brechzahlen der Linsen, <strong>die</strong><br />

Farbanteile zusammenfallen.<br />

Bei der sphärischen Aberration tritt der Effekt auf, dass bei Linsenoberflächen, welche eine Ku-<br />

gelfläche beschreiben, <strong>die</strong> Bündelung parallel eintreffender Strahlen in einem Brennpunkt nur <strong>für</strong><br />

achsennahe Lichtstrahlen gegeben ist. Dadurch wird das scharfe „Kernbild“ von einem unscharfen<br />

Bild überlagert. Dieser Effekt kann ebenfalls nur bei der Aufnahme durch Wählen einer „größe-<br />

ren“ Blende oder dem Einsatz von asphärischen Linsen mit parabelförmigem Querschnitt behoben<br />

werden.<br />

2.3.6.5 Krümmung der Tiefenebene<br />

Bei konvergenter Aufnahme von <strong>Stereo</strong>videos kommt es, wie in Abbildung 2.12 a) dargestellt zu<br />

einer Krümmung der Tiefenebenen. Das Resultat <strong>die</strong>ser Verzerrung führt dazu, dass Objekte am


2.3. WIEDERGABE STEREOSKOPISCHER BILDINHALTE 39<br />

c)<br />

Zi (m)<br />

a) b)<br />

8 9<br />

Zo (m)<br />

Abbildung 2.12: Schematische Darstellung einer a) konvergenten Aufnahme, b) parallelen Aufnahme<br />

und des c) nicht linearen Tiefeneindruck. Nach [Koc93]<br />

Rand der Szene weiter entfernt als Objekte in der Mitte dargestellt werden. Bei Bewegungen der<br />

Kamera kann <strong>die</strong>ser Effekt sehr unangenehm wirken. Im Vergleich dazu ist in Abbildung 2.12 b)<br />

eine parallel aufgenommene Szene schematisch dargestellt, bei welcher <strong>die</strong> Tiefenebenen parallel<br />

zur Projektionsebene abgelichtet werden.<br />

2.3.6.6 Nicht linearer Tiefeneindruck<br />

In Abbildung 2.12 c) ist der Zusammenhang zwischen Objektabstand und Bildabstand <strong>für</strong> <strong>die</strong> in<br />

Abbildung 2.12 a) und b) dargestellten Situationen gezeigt. Dabei ist <strong>die</strong> Konvergenzebene bzw.<br />

Konvergenzlinie bei einem Meter aufgetragen. Bei dem Vergleich der schematischen Darstellun-<br />

gen 2.12 a), b) und c) ist zu erkennen, dass der Tiefeneindruck vor dem Konvergenzpunkt gedehnt<br />

und hinter <strong>die</strong>sem, bis ins unendliche, gestaucht wird. Daraus resultiert ein Fehleindruck in der<br />

räumlichen Tiefe und der Geschwindigkeitswahrnehmung.


3 Existierende Aufnahmesysteme<br />

Im Bereich der <strong>Stereo</strong>videokameras existieren verschiedene kommerzielle Produkte, <strong>die</strong> in <strong>die</strong>sem<br />

Kapitel vorgestellt werden. Dabei wird auf existierende Kamerahardware und Software eingegan-<br />

gen.<br />

3.1 Kameras<br />

Die existierenden Kameras zur Aufnahme von stereoskopischen Videos sind, wie in Kapitel 2.2.3.3<br />

beschrieben, in zwei Gruppen einzuteilen:<br />

• <strong>Stereo</strong>videokameras, welche zwei Objektive in einem Kamerakörper besitzen und<br />

• Kamerasysteme, welche aus zwei oder mehreren Einzelkameras bestehen, <strong>die</strong> zusammen<br />

als <strong>Stereo</strong>aufnahmesystem arbeiten und als binokulare Kameras bezeichnet werden.<br />

3.1.1 <strong>Stereo</strong>videokamera<br />

Wie in Kapitel 2.2.3.3 beschrieben, handelt es sich bei einer <strong>Stereo</strong>videokamera um eine Kamera<br />

mit 2 Objektiven. Einige Produkte <strong>die</strong>ser Kategorie werden im Folgen genannt und erklärt.<br />

3.1.1.1 21st Century 3DVX3<br />

„21st Century 3D“ entwickelte 2004 eine Kamera namens „3DVX3“. Diese verfügt über zwei 100<br />

Gigabyte Festplatten, auf welchen circa eine Stunde unkomprimierte Videodaten aufgezeichnet<br />

werden können.<br />

Diese werden mit 10 Bit pro Farbkanal, 24 Vollbildern pro Sekunde und einer maximalen Auf-<br />

lösung von 1280 × 720 Pixeln pro <strong>Stereo</strong>teilbild gespeichert. Die interne Aufnahme erfolgt mit<br />

jeweils 3 CCD 1 Chips, <strong>die</strong> ihre Daten an zwei interne MacOS X 2,8 Ghz Prozessoren weitergeben.<br />

Diese Prozessoren besitzen zwei Gigabyte Arbeitsspeicher und zur Zwischenpufferung der Daten<br />

acht Gigabyte Flashspeicher [CD07].<br />

Zum Einsatz am Lehrstuhl Computergrafik und Visualisierung ist <strong>die</strong>se Kamera ungeeignet, da<br />

<strong>die</strong> maximale Auflösung der Kamera trotz des hohen technischen Aufwands geringer ist als <strong>die</strong><br />

1 Ein „Charge-coupled Device“ (ladungsgekoppeltes Bauteil) ist ein elektronisches Bauteil, welches wie ein Schieberegister<br />

arbeitet. Das einfallende Licht überträgt durch einen inneren photoelektrischen Effekt seine Energie auf <strong>die</strong><br />

Elektronen <strong>eines</strong> Halbleiters wodurch es möglich wird ein digitales Bild abzugreifen.<br />

40


3.1. KAMERAS 41<br />

Abbildung 3.1: 21st Century 3DVX3 Kamera [CD07]<br />

in der Aufgabenstellung geforderte High Definition Video Auflösung von 1440 × 1050 Pixel. Im<br />

Weiteren ist es, wie bei allen <strong>Stereo</strong>videokameras <strong>die</strong>ser Katergorie, nicht möglich <strong>die</strong> <strong>Stereo</strong>basis<br />

zu verändern.<br />

3.1.1.2 Pace Fusion 3d<br />

Das „Pace Fusion 3D“ wird zur Zeit genutzt, um Sportereignisse, wie zum Beispiel <strong>die</strong> „Natio-<br />

nal Basketball League“ in den USA, in „3D High Definition“ aufzunehmen. Die Fähigkeit, den<br />

Konvergenzwinkel der Objektive zu verändern, bezeichnet Pace als „Dynamic Convergence R○ “.<br />

Dabei sind geringe Konvergenzwinkel von 0 ◦ bis 5 ◦ durch manuelles Justieren möglich. Eine Ver-<br />

stellung der <strong>Stereo</strong>basis ist bei <strong>die</strong>ser Kamera nicht möglich [Pac07].<br />

3.1.1.3 TMP S3R 1080i 3D<br />

Die von der „TMP Media Group“ angebotene Schulterkamera „S3R 1080i 3D“ unterstützt das<br />

High Definition Video Format in der 1080i Spezifikation. Dies bedeutet, dass <strong>die</strong> Kamera mit ei-<br />

ner Auflösung von 1440 × 1080 Pixel und 50 Bildern pro Minute Interlaced Bilddaten speichern<br />

kann.<br />

Die <strong>Stereo</strong>basis sowie der Konvergenzwinkel können nicht variabel eingestellt werden.<br />

Eine weitere Betrachtung der Eignung im Sinne der Aufgabenstellung erübrigt sich, da der ange-<br />

gebene Preis der Kamera mit 70.000 Euro nicht als preisgünstig im Rahmen der Aufgabenstellung<br />

bezeichnet werden kann [Med07]. Die Preise der anderen genannten <strong>Stereo</strong>videokameras konnten<br />

nicht ermittelt werden. Da <strong>die</strong>se Geräte allerdings nur in Verbindung mit Personal gemietet wer-<br />

den können liegt <strong>die</strong> Annahme nicht fern, dass der angegebene Preis von 70.000 Euro <strong>die</strong> untere<br />

Grenze der Preislage bildet. 2<br />

2 Annahme des Autors


3.1. KAMERAS 42<br />

Abbildung 3.2: <strong>Stereo</strong>kamera basierend auf zwei Mini-DV Camcordern [DFS07]<br />

3.1.2 Binokulare Kameras<br />

Bei der Verwendung von zwei separaten Kameras in einem <strong>Stereo</strong>videosystem spricht man von<br />

einem binokularen <strong>Stereo</strong>system. Diese Katergorie besteht aus zwei Gruppen, welche sich in der<br />

Bauart der verwendeten Kameras unterscheiden. In der einen Gruppe werden handelsübliche Cam-<br />

corder verwendet und in der anderen sogenannte Industriekameras.<br />

3.1.2.1 Camcorder<br />

Camcorder besitzen den Nachteil, daß bei hoher Auflösung wie z.B. High Definition Video <strong>die</strong><br />

Video- sowie Audiodaten komprimiert werden, um <strong>die</strong>se auf dem Speichermedium unterbringen<br />

zu können. Bei den verwendeten Kompressionsformaten handelt es sich immer um verlustbehaf-<br />

tete Verfahren, welche <strong>die</strong> Bildqualität vermindern. Als weiterer Nachteil von Camcordern wird<br />

<strong>die</strong> Technik zur Synchronisation gesehen, da <strong>die</strong> Genlocktechnologie (siehe Kapitel 4.1.2.1) nur<br />

an hochwertigen somit preisintensiven und in den Abmaßen großen Kameras zu finden ist.<br />

Die existierenden binokularen <strong>Stereo</strong>video Kamerassysteme nutzen daher Sony- Digital Videoka-<br />

meras welche über das in Kapitel 4.1.2.2 beschriebene LANC TM Protokoll verfügen. In Abbildung<br />

3.2 ist eine solche binokulare <strong>Stereo</strong>kamera dargestellt.<br />

Diese Kamera basiert auf zwei über das „LANC“ Protokoll synchronisierte Sony DCR-HC96E<br />

Camcorder. Durch <strong>die</strong> feste Montage <strong>die</strong>ser auf eine Metallplatte ist keine Änderung der <strong>Stereo</strong>ba-<br />

sis oder der Konvergenz möglich. Dieser Aufbau ist aufgrund der Bauweise typisch <strong>für</strong> binokulare<br />

<strong>Stereo</strong>kameras zum Einsatz im Heimbereich, da eine einmalig beim Bau der Kamera ausgeführte<br />

Justierung nur im Rahmen von Materialtoleranzen schwankt. Umso mehr Freiheitsgrade <strong>für</strong> <strong>die</strong><br />

Justierung der Kameras geschaffen werden, desto schwieriger und komplizierter wird der Um-<br />

gang mit <strong>die</strong>ser. Da <strong>für</strong> fast alle Einstellungen bei der Aufnahme stereoskopischer Videos, <strong>die</strong>


3.1. KAMERAS 43<br />

Standardgeometrie, sprich <strong>die</strong> parallele Ausrichtung der Kameras genutzt wird, stellt <strong>die</strong>s keine<br />

schwerwiegende Einschränkung dar.<br />

Für den wissenschaftlichen Einsatz im Rahmen der Aufgabenstellung <strong>die</strong>ser Arbeit und der wei-<br />

teren Verwendung der Kamera sollten jedoch so viele Freiheitsgrade wie möglich an der Kamera<br />

realisiert werden.<br />

3.1.2.2 Industriekameras<br />

Industriekameras haben den Nachteil, dass sie keine Speicherung der Daten in der Kamera ermög-<br />

lichen, sodaß externe Speicherme<strong>die</strong>n verwendet werden müssen. Ebenfalls wird der Ton nicht<br />

direkt von der Kamera aufgenommen. Deswegen ist es notwendig, bei einem mobilen Einsatz ein<br />

Aufnahmegerät <strong>für</strong> <strong>die</strong> Videodaten, sowie ein weiteres <strong>für</strong> <strong>die</strong> Speicherung von Audiodaten mitzu-<br />

führen. Zusätzlich muss eine Stromversorgung <strong>für</strong> <strong>die</strong>se Geräte und <strong>die</strong> Kameras vorhanden sein.<br />

Ein weiterer Nachteil liegt in den Objektiven von Industriekameras, <strong>die</strong> meist manuell be<strong>die</strong>nt<br />

werden müssen, um <strong>die</strong> Brennweite und <strong>die</strong> Fokussierung einzustellen. Somit müssen hier weitere<br />

Aufwendungen zur Synchronisierung <strong>die</strong>ser Werte getroffen werden.<br />

Als Vorteil der Industriekameras ist zu sehen, dass eine Synchronisierung der Aufnahme durch<br />

einfaches Verbinden der Kameras oder durch Anlegen <strong>eines</strong> Synchronisationssignales erledigt ist.<br />

Weiterhin sind Industriekameras in ihren Abmaßen, im Vergleich zu Camcordern, verhältnismäßig<br />

klein, was geringe <strong>Stereo</strong>basen ermöglicht.<br />

Abbildung 3.3: <strong>Stereo</strong>kamera basierend auf zwei Industriekameras [Rub07]<br />

Durch <strong>die</strong> Nachteile bei der Speicherung der Daten und <strong>die</strong> dadurch entstehenden Probleme im<br />

mobilen Einsatz wird hier nicht weiter auf Industriekameras eingegangen.


3.2. EXISTIERENDE SOFTWARE 44<br />

3.1.3 Strahlenteiler<br />

Der Einsatz von Strahlenteilern, welche in Kapitel 2.2.3.2 beschrieben werden, wird im Video-<br />

bereich durch den Verlust der halben Auflösung bei der Verwendung einer Kamera nicht genutzt.<br />

Eine effektivere Variante bildet ein Vorsatz <strong>für</strong> ein Objektiv, welcher <strong>die</strong> Aufnahme von linker<br />

und rechter Ansicht <strong>eines</strong> <strong>Stereo</strong>bildpaares nacheinander ermöglicht. Dabei rotiert ein Spiegel vor<br />

dem Objektiv, der das Lichtstahlenbündel jedes zweiten Bildes über einen zweiten Spiegel lenkt.<br />

Die <strong>Stereo</strong>basis stellt dabei der Abstand der beiden Spiegel dar. In Abbildung 3.4 ist ein solcher<br />

Adapter der Firma „NuView“ dargestellt.<br />

Abbildung 3.4: NuView Adapter zur zeitsequentiellen Aufnahme von <strong>Stereo</strong>bildpaaren [IDS07]<br />

Der Nachteil <strong>die</strong>ser Methode ist durch <strong>die</strong> halbierte Bildrate begründet. Halbierung der Bildrate<br />

bei Aufnahme im Interlaced 3 Modus bedeutet weitergehend, daß <strong>die</strong> Auflösung in vertikaler Rich-<br />

tung halbiert wird. Bei Aufnahme im progressiven 4 Modus kann solch ein Adapter nicht genutzt<br />

werden, da <strong>die</strong> Bildwiederholrate zu gering ist. Das Aufzeichnen von Einzelbildern ist mit <strong>die</strong>sem<br />

Gerät nicht möglich. Die <strong>Stereo</strong>basis kann nicht verändert werden, jedoch kann <strong>die</strong> Konvergenz<br />

der optischen Achsen durch Verschieben des Spiegels eingestellt werden.<br />

3.2 Existierende Software<br />

Aus dem Bereich der Software zur Ver- und Bearbeitung von stereoskopischen Videos werden im<br />

Folgenden einige Programme vorgestellt und deren Funktionen beschrieben.<br />

3.2.1 Aufnahme & Enko<strong>die</strong>rung<br />

Da <strong>die</strong> Aufnahme von stereoskopischen Videos auf verschiedene Arten erfolgen kann (siehe Ka-<br />

pitel 2.2) sind zur Umko<strong>die</strong>rung in <strong>die</strong> jeweiligen Betrachtungsformate (siehe Kapitel 2.3.5) ver-<br />

schiedene Anwendungen verfügbar. Gerade im Bereich der <strong>Stereo</strong>fotografie existiert eine Vielzahl<br />

3 Bei Aufnahme im Interlaced Modus wird jede zweite Zeile des Bildes mit doppelter Bildfrequenz aufgezeichnet.<br />

4 Bei progressiver Aufnahme werden Vollbilder aufgenommen.


3.2. EXISTIERENDE SOFTWARE 45<br />

von Softwareprodukten zur Erstellung von Anaglyphenbildern. Im Videobereich begrenzt sich <strong>die</strong><br />

Produktvielfalt Menge auf vier Anwendungen. Diese sind der „<strong>Stereo</strong>scopic Multiplexer“ von<br />

der Firma „WimmerSoft“ [Wim07], „<strong>Stereo</strong> Movie Maker“ [Sut07], „3DCombine“ [inc07a] und<br />

„More3D SoftwareSuite“ [Gmb07]. Diese werden im Weiteren genauer beschrieben.<br />

3.2.1.1 3DCombine<br />

3DCombine wird als eine „Shareware“ 5 vertrieben, welche das .AVI-Format lesen und <strong>Stereo</strong>vi-<br />

deos im Anaglyph, Side-by-Side (Nebeneinander) und Übereinander Format erzeugen kann. Eine<br />

spezielle Funktion <strong>die</strong>ser Software ist <strong>die</strong> Erstellung von Tiefenkarten [inc07a].<br />

Die Software ist allerdings nicht ausreichend robust, da es des öfteren zu Fehlern und Program-<br />

mabstürzen kommt. Dies liegt an der Inkompatibilität mit verschiedenen Videocodecs und Bild-<br />

formaten.<br />

3.2.1.2 <strong>Stereo</strong>scopic Multiplexer<br />

Bei dem „<strong>Stereo</strong>scopic Multiplexer“ Version 0.5.2 der Firma „WimmerSoft“ handelt es sich um<br />

einen lizenzpflichtigen Treiber 6 zur Aufnahme stereoskopischer Videos. Dieser nimmt von ver-<br />

schiedenen Eingabequellen (Digital Video, Firewire, USB Kameras oder Videodateien) Daten<br />

entgegen und gibt sie im Side-by-Side (Nebeneinander) Format weiter. Die Software arbeitet sehr<br />

robust und hat bei Tests keine Fehler gezeigt.<br />

3.2.1.3 <strong>Stereo</strong> Movie Maker<br />

Bei dem „<strong>Stereo</strong> Movie Maker“ Version 0.93 handelt es sich um eine Freeware 7 , welche separa-<br />

te oder <strong>Stereo</strong>videos öffnen und anschließend umko<strong>die</strong>ren kann. Dabei wird <strong>die</strong> Erstellung von<br />

Anaglyph-, Side-by-Side-, Übereinander- sowie Interlaced Formaten unterstützt. Der Anschluss<br />

zweier Kameras wird nicht unterstützt.<br />

3.2.2 Wiedergabe<br />

Bei der Wiedergabe stereoskopischer Videos können je nach <strong>Stereo</strong>videoformat verschiedene An-<br />

wendungen genutzt werden. So kann ein im Anaglyphenformat abgespeichertes Video ohne spe-<br />

zielle Software abgespielt werden. Die Wiedergabe von Videos im Side-by-Side Format auf zwei<br />

übereinander justierten Beamern bedingt bei Verwendung von Grafikkarten, welche das Erweitern<br />

des Desktops und des dazugehörigen Overlayspeichers 8 erlauben, keiner weiteren Vorverarbei-<br />

tung.<br />

5 Shareware eine Vertriebsform von Software, bei der <strong>die</strong> jeweilige Software vor dem Kauf getestet werden kann.<br />

6 Bei einem Treiber handelt es sich um eine Software zum Zugriff auf Hardwarekomponenten.<br />

7 Freeware bezeichnet Software welche <strong>für</strong> Privatanwendungen kostenlos zu nutzen ist.<br />

8 Overlayspeicher wird der Teil des Physikalischen Speichers <strong>eines</strong> Computers genannt in welchem Bildinformation (<br />

meist in dem Bildwiederholspeicher der Grafikkarte) geschrieben werden um <strong>die</strong>se direkt auf ein Projektionsgerät<br />

auszugeben.


3.2. EXISTIERENDE SOFTWARE 46<br />

Da nicht vorhergesehen werden kann, in welchem Format der Endverbraucher <strong>Stereo</strong>videos ab-<br />

spielt, werden <strong>die</strong>se Videos meist im Side-by-Side oder Übereinanderformat gespeichert, da in<br />

<strong>die</strong>sen Formaten keine Qualitätseinbußen entstehen. Aus <strong>die</strong>sem Grund ist es bei der Wiederga-<br />

be von <strong>Stereo</strong>videos erforderlich eine Konvertierung in <strong>die</strong> in Kapitel 2.3.5 dargestellten Formate<br />

durchzuführen. Einige, zu <strong>die</strong>sem Zweck nutzbare Software, wird im Folgenden erläutert.<br />

3.2.2.1 <strong>Stereo</strong> Movie Player<br />

Der „<strong>Stereo</strong> Movie Player, Version 0.27“, [Sut07] wird von dem gleichen Autor als Freeware<br />

zur Verfügung gestellt, der den „<strong>Stereo</strong> Movie Maker“ entwickelt hat. Dieser Player unterstützt<br />

als Eingabevideoformate das Side-by-Side, Übereinander und Interlaced Format. Die Ausgabe<br />

ist hierbei als Anaglyphen, Parallelblick, Kreuzblick, Interlaced (vertikal) <strong>für</strong> 3D Monitore und<br />

Zeitsequentiell <strong>für</strong> Shutterbrillen möglich.<br />

Beim Test <strong>die</strong>ses Players erzeugte <strong>die</strong> Software einige Fehler. So wurden beispielsweise zwei<br />

Monitore nicht erkannt und verschiedene Videoformate konnten nicht abgespielt werden.<br />

3.2.2.2 <strong>Stereo</strong>scopic Player<br />

Bei der lizenzpflichtigen Software „<strong>Stereo</strong>scopic Player“ Version 1.1 [Wim07], welche von Peter<br />

Wimmer [Wim04] in Rahmen einer Diplomarbeit erstellt wurde, handelt es sich um einen robusten<br />

Player, der alle z.Zt. existierenden Darstellungsformen von <strong>Stereo</strong>video unterstützt. So werden<br />

Eingabeformate im Side-by-Side, Übereinander, Interlaced Format und in separaten Videodateien<br />

bei der Wiedergabe in Anaglyphen, Zweibildschirmausgabe, vertikal oder horizontal Interlaced<br />

oder <strong>für</strong> den NVIDIA R○ <strong>Stereo</strong>treiber transformiert.<br />

3.2.2.3 More3D SoftwareSuite<br />

Bei der komerziellen Software „More3d SoftwareSuite“ handelt es sich um eine Lizenzpflichtige<br />

Software, welche es ermöglicht bei OpenGL und DirectX basierter Software direkt <strong>Stereo</strong>ansich-<br />

ten zu gernerieren und <strong>die</strong>se anzuzeigen. Diese SoftwareSuite enthält „moreVideo“, eine Software<br />

zur Wiedergabe von <strong>Stereo</strong>videos. Laut Webseite [Gmb07] handelt es sich dabei um ein univer-<br />

selles Programm zur Wiedergabe von 3D-Filmen unterschiedlichster Formate. Unterstützt werden<br />

das Side-by-Side, Übereinander, Interlaced-Format und in separaten Videodateien abgespeicherte<br />

Ansichten.<br />

3.2.3 Weiterverarbeitung<br />

Für das Gebiet der Verarbeitung von stereoskopischen Videos existieren aktuell, außer kleineren<br />

Softwareprojekten von Universitäten und herkömmlicher Software <strong>für</strong> <strong>die</strong> Videobearbeitung, kei-<br />

ne Anwendungen. Der Nachteil der herkömmlichen Videobearbeitungssoftware ist, dass <strong>die</strong> in der


3.2. EXISTIERENDE SOFTWARE 47<br />

<strong>Stereo</strong>skopie notwendigen Bearbeitungsoperationen, wie beispielsweise das Ändern der Deviati-<br />

on im Bild oder das Hinzufügen <strong>eines</strong> Titels, nicht unterstützt werden und nur sehr umständlich<br />

durchgeführt werden können.<br />

Ideal wäre hier <strong>die</strong> <strong>Entwicklung</strong> einer Videobearbeitungsanwendung, <strong>die</strong> ein direktes Manipu-<br />

lieren von <strong>Stereo</strong>videos erlaubt und <strong>die</strong> in Kapitel 5.3 genannten Richtlinien zur Editierung von<br />

<strong>Stereo</strong>videos einhält.


4 Aufnahmesystem<br />

Aufgabe im Rahmen <strong>die</strong>ser Arbeit ist <strong>die</strong> kostengünstige <strong>Entwicklung</strong> einer <strong>Stereo</strong>videokamera.<br />

Die dazu durchgeführten Aufwendungen werden in <strong>die</strong>sem Kapitel erläutert. Es wird beschrieben,<br />

welche Kriterien der Auswahl der Kameras vorangegangen sind. Diese werden gegeneinander und<br />

gegenüber der Aufgabenstellung verifiziert und verglichen.<br />

4.1 Kriterien zur Kameraauswahl<br />

Für <strong>die</strong> Auswahl der Kameras wurden aufgrund der Aufgabenstellung und den technischen Mög-<br />

lichkeiten der Wiedergabe auf der <strong>Stereo</strong>projektionswand des Lehrstuhls CGV folgende Kriterien<br />

festgesetzt:<br />

• digitale Speicherung der Bilddaten,<br />

• Eine Auflösung von 1400 Pixel × 1050 Pixel (SXGA+ 1 ),<br />

• Möglichkeit der Synchronisierung beider Kameras,<br />

• Anschlussmöglichkeit <strong>für</strong> Sensoren,<br />

• preisgünstige, aber leistungsfähige Kameras,<br />

• möglichst kleine Abmaße der Kameras.<br />

4.1.1 Digitale Formate<br />

Die Speicherung der Daten wird bei aktuellen Kameras fast ausschließlich digital angeboten, wo-<br />

bei Unterschiede bei den verwendeten Aufnahmeme<strong>die</strong>n, sowie der Komprimierung der Daten be-<br />

stehen. Es kommen zur Zeit Digital Betacam, DV-Kassetten, Flashdrives, Festplatten oder DVD’s<br />

zum Einsatz, wobei das am meisten genutzte Komprimierungsverfahren MPEG2 ist. Eine Auf-<br />

listung der von den verschiedenen Datenträgern genutzten Komprimierung ist in Tabelle 4.1 er-<br />

sichtlich.<br />

Die Auflösung von 1400 × 1050 Pixel entspricht der Auflösung der zur Wiedergabe eingesetzten<br />

Beamer. Diese Rasterung ist ähnlich den im Folgenden beschriebenen „High Definition“-Formaten<br />

(HD-Formaten).<br />

1 Super Extended Graphics Array Plus<br />

48


4.1. KRITERIEN ZUR KAMERAAUSWAHL 49<br />

Format Datenträger Kompression Datenrate Kompressionsrate<br />

HDV DV-Kassetten MPEG2 25 Mbps MP@H-14<br />

DVD bei 1080i Sampling:<br />

Flashdrives 19 Mbps 4:2:0<br />

Festplatten bei 720p<br />

Digital DV mittels <strong>eines</strong> 3,125 MByte/sec 5:1<br />

Video Mini-DV JPEG-ähnlichen (25 Mbit/se)<br />

DVCAM Verfahren einzeln<br />

Digital8 co<strong>die</strong>rte Bilder<br />

AVCHD Festplatte MPEG-4 25 Mbps<br />

DVD, Blue-ray AVC/H.264<br />

Flash-Speicher<br />

Betacam SX Metall- MPEG-2 44 Mbps 10:1<br />

partikel- Sampling:4:2:2<br />

band 8-Bit-Auflösung<br />

Profile@MainLevel<br />

(4:2:2P@ML)<br />

DVCAM DV MPEG2 24 MBit/s 5:1<br />

(bzw. mini-DV)<br />

Digital Video Magnetbänder MPEG-2 28,2 Mbit/s<br />

Home System<br />

HDCAM HDCAM-Band YCbCr311, 440 Mbit/s 8-Bit-3:1:1<br />

HDCAM-SR Band YCbCr 422<br />

Festplatte RGB444->MPEG4.<br />

Tabelle 4.1: HDV taugliche Aufnahmeme<strong>die</strong>n und deren Formate.<br />

• „High Definition Video“, kurz HDV stellt eine <strong>Entwicklung</strong> von Sony und JVC dar. Es han-<br />

delt sich um ein Videoformat <strong>für</strong> gehobene Ansprüche im Amateurbereich, da <strong>die</strong> Nachbear-<br />

beitung und Speicherung der Datenraten von ca. 19Mbps <strong>für</strong> Standard-PCs noch realisierbar<br />

sind. Die Aufzeichnung erfolgt in einem der zwei möglichen Formate:<br />

1. HDV 720p: 1280 × 720 Pixel mit den Frameraten 25p 2 , 30p, 50p oder 60p sowie<br />

optional 24p<br />

2. HDV 1080i: 1440 × 1080 Pixel mit den Frameraten 50i 3 und 60i sowie optional 24p,<br />

25p oder 30p.<br />

• „Digital Video“ (DV) ist der Oberbegriff <strong>für</strong> den DV-Standard, der 1994 eingeführt wurde.<br />

Seit der Markteinführung 1996 entwickelte sich DV durch einen großen Markt an Endge-<br />

räten rasant, wobei sich ein sehr gutes Preis-Leistungs-Verhältnis gebildet hat. Vor allem<br />

Mini-DV etablierte sich <strong>für</strong> den Heim- und semiprofessionellen Bereich.<br />

• „Advanced Video Codec High Definition“ (AVCHD) stellt ein digitales Aufzeichnungsfor-<br />

mat <strong>für</strong> Camcorder dar. Dieser Standard wurde gemeinsam von Panasonic und SONY am<br />

11. Mai 2006 vorgestellt und wird bereits von vielen Produkten eingesetzt. Zur Kompression<br />

der Videosignale wird der hocheffiziente MPEG-4 AVC/H.264 Standard zur Videokompres-<br />

sion verwendet.<br />

• „Betacam SX“ ist ein professionelles digitales Videoformat, das mit einer Datenreduktion<br />

2 p steht <strong>für</strong> Progressiv und bezeichnet eine Speicherung von Vollbildern<br />

3 i steht <strong>für</strong> Interlaced und bezeichnet eine Speicherung von Halbbildern


4.1. KRITERIEN ZUR KAMERAAUSWAHL 50<br />

im Faktor 10:1 nach MPEG-2 <strong>die</strong> abgetasteten Komponentensignale komprimiert. Das For-<br />

mat ist eine Weiterentwicklung von Betacam SP, dem heutzutage meistgenutzten analogen,<br />

professionellen 1/2 Zoll MAZ 4 -Format.<br />

• „DVCAM“ ist eine von Sony hergestellte professionelle Variante von DV (Digital Video).<br />

Die veränderten Merkmale, gegenüber dem im Amateurbereich eingesetzten Digital Video,<br />

sind <strong>die</strong> Spurbreite von 10 µm auf 15 µm und eine nahezu doppelte Bandgeschwindigkeit<br />

(2,8 cm/s gegenüber DV mit 1,9 cm/s), woraus eine verkürzte Kassettenlaufzeit resultiert<br />

aber auch eine geringere Fehlerquote auf den Bändern. Daraus ergibt sich, dass <strong>die</strong> gleichen<br />

Informationen auf ca. doppelt so viel Band geschrieben werden können.<br />

• „Digital Video Home System“ (kurz DVHS) ist ein Nachfolger von VHS 5 . Die Aufzeich-<br />

nung erfolgt digital im MPEG-2 Format auf einer DVHS Kassette welche 44,4 Gigabyte<br />

Daten speichern kann. Neben den üblichen Fernsehauflösungen NTSC und PAL beherrscht<br />

DVHS auch <strong>die</strong> Aufzeichnung von HDTV-Filmen. Das Format wurde 1997 von JVC in<br />

Zusammenarbeit mit Hitachi, Matsushita und Philips entwickelt.<br />

• „HDCAM“ wurde 1997 von Sony entwickelt und ist der HD-Nachfolger von Digital Be-<br />

tacam (Betacam SX). Das Format etablierte sich schnell und wird vor allem als Ersatz<br />

<strong>für</strong> 35mm Filme in Serien- und Kinoproduktionen eingesetzt. HDCAM Kameras zeichnen<br />

1920×1080 Pixel bei 24, 25, 30 und 100 Bildern/Sekunde auf.<br />

4.1.2 Synchronisierung der Kameras<br />

Die Synchronisierung der Kameras ist in Hinsicht auf <strong>die</strong> Weiterverarbeitung der digitalen Daten<br />

im Rechner und bei der Wiedergabe <strong>die</strong>ser wichtig, um unötigen Aufwand bei der Nachbearbei-<br />

tung der Bilddaten zu verhindern. Dies bedeutet, dass <strong>die</strong> Daten von Kameras, welche zum Bei-<br />

spiel nicht synchron gestartet wurden, im nachhinein bearbeitet werden müssen, um den exakten<br />

Startzeitpunkt <strong>für</strong> <strong>die</strong> Wiedergabe zu finden. Desweiteren führen Fertigungstoleranzen dazu, dass<br />

<strong>die</strong> kamerainternen Oszillatoren, welche <strong>für</strong> <strong>die</strong> Aufnahmegeschwindigkeit zuständig sind, leicht<br />

divergieren. Dadurch kommt es zu dem Effekt, dass <strong>die</strong> Kameras unterschiedlich viele Bilder in<br />

der gleichen Zeit aufnehmen. Diese Disparität S kann mit der nachstehenden Formel 4.1 berech-<br />

net werden. Hierbei seien: f1 <strong>die</strong> Frequenz der ersten Kamera und f2 <strong>die</strong> Frequenz der zweiten<br />

Kamera, t sei <strong>die</strong> Zeit in der <strong>die</strong> Kameras parallel laufen, und S0 <strong>die</strong> Differenz der Einschaltzeit-<br />

punkte.<br />

S = f1 − f2<br />

t + S0<br />

(4.1)<br />

f1<br />

Unter der Annahme, dass Kamera 1 mit 25,000 Hz und Kamera 2 mit 25,001 Hz läuft und beide<br />

exakt zeitgleich gestartet wurden, beträgt <strong>die</strong> Differenz beider Kameraoszillatoren nach einer Mi-<br />

nute 2,4 ms. Nach 17 Minuten würde demzufolge ein Unterschied von 40,8 ms auftreten, woraus<br />

man schließen kann, daß Kamera 2 ein Bild mehr aufgenommen hätte.<br />

Die Auswirkungen <strong>die</strong>ser Synchronisationsfehler stellen sich in <strong>die</strong>sem Fall so dar, dass bei der<br />

4 MAZ- Magnetische Aufzeichnung<br />

5 VHS- Video Home System


4.1. KRITERIEN ZUR KAMERAAUSWAHL 51<br />

Nachbearbeitung immer auf Synchronität der Datenströme zu achten ist, da sonst gegebenenfalls<br />

Audiospuren nicht mehr synchron zum Video ablaufen und der Tiefeneindruck der <strong>Stereo</strong>projek-<br />

tion verloren geht.<br />

Um <strong>die</strong>s zu vermeiden wird in Studio-Umgebungen das GENLOCK (Generator Locking) System<br />

einsetzt.<br />

4.1.2.1 Genlock<br />

Dieses System ermöglicht es Videosignalquellen durch einen äußeren Takt zu steuern. Ohne <strong>die</strong>se<br />

Synchronisation würde das Umschalten zwischen den Geräten zu einer kurzen Bildunstabilität<br />

führen, wie sie z.B. beim Umschalten <strong>eines</strong> Fernsehsenders auftritt. Der Fernseher benötigt hierbei<br />

eine geringe Zeit um sich auf <strong>die</strong> Frequenz des Videosignals einzustellen.<br />

Die vier Hauptaufgaben, <strong>die</strong> man mit dem Genlock-System erreichen kann sind:<br />

• vertikale Synchronisation,<br />

• horizontale Synchronisation,<br />

• Bildsynchronisation,<br />

• und Farbsynchronisation.<br />

4.1.2.2 LANC TM<br />

Ein weiteres System, welches zwar ursprünglich nicht zur Synchronisation, sondern vornehmlich<br />

zur Fernsteuerung von Kameras gedacht war, ist das LANC TM (auch „control L“ genannt) Pro-<br />

tokoll. Es handelt sich um ein von Sony entwickeltes Protokoll, welches den gleichnamigen An-<br />

schluss an Sony Kameras nutzt und zur kabelgebunden Kommunikation zwischen Fernbe<strong>die</strong>nung<br />

und Kamera konzipiert ist. Einsatz findet es meist in Unterwassergehäusen oder an Helmkameras.<br />

Desweiteren existieren zusätzlich das Sony Infrared Remote Control System (SIRCS/CTRL-S),<br />

das <strong>die</strong> Funktion der Fernbe<strong>die</strong>nung über Infrarot ermöglicht, und das S-LINK/CTRL-A(II) Sy-<br />

stem, das ein zweiadriges bidirektionales Bussystem darstellt, an das mehrere Geräte gleichzeitig<br />

angeschlossen sein können.<br />

Über <strong>die</strong> LANC TM Schnittstelle erhält der Camcorder Steuerbefehle und gibt Zählerstand, Lauf-<br />

werkstatus und andere Daten zurück [Boe07].<br />

Alle Einstellungen der Firmware <strong>eines</strong> Camcorders, können durch Verändern von Informationen,<br />

welche auf 16 Seiten (0-F) im Speicher bestehend aus 256 Adressen (00-FF) mit 8-Bit Daten ab-<br />

gelegt werden, erreicht werden. Im Anhang auf Seite VIII in Tabelle A.1 sind <strong>die</strong> Parameter <strong>die</strong>ses<br />

Protokolls dargestellt.<br />

So kann bei Kameras, <strong>die</strong> <strong>die</strong>se Funktion unterstützen der interne Oszillator der Kamera und damit<br />

<strong>die</strong> Frequenz auf einer bestimmten Seite und Adresse abgefragt und teilweise eingestellt werden.<br />

Außerdem können „normale“ Fern<strong>die</strong>nungsbefehle an <strong>die</strong> Kamera gesendet werden, so beispiels-<br />

weise Signale zum Ein und Ausschalten, Zoom, Aufnahme und zur Veränderung der Fokussierung.


4.1. KRITERIEN ZUR KAMERAAUSWAHL 52<br />

4.1.2.3 Control M<br />

Das „Control M“ Protokoll ist von Panasonic entwickelt worden und arbeitet prinzipiell nach dem<br />

gleichen Prinzip wie das LANC TM Protokoll. Trotzdem sind beide zueinander inkompatibel, da<br />

der Datensatz des „Control M“ Protokolls nicht alle Funktionen der Camcorder Firmware unter-<br />

stützt. Die Kommunikation mit der Kamera, welche bei „Control M“ über einen 5 poligen Stecker<br />

und beim „LANC TM “ über einen 2,5mm Klinkenstecker vollzogen wird, unterscheidet sich bis<br />

auf das Vorhandensein <strong>eines</strong> Anschlusses <strong>für</strong> Steuersignale zwischen der Fernbe<strong>die</strong>nung und der<br />

Kamera, welche bei Panasonic nicht existieren.<br />

4.1.3 Anschlussmöglichkeit <strong>für</strong> Sensoren<br />

Die zu entwickelnde <strong>Stereo</strong>videokamera soll über eine Anschlussmöglichkeit <strong>für</strong> weitere Senso-<br />

ren verfügen. Vorstellbar sind hier Möglichkeiten zur Nutzung von GPS- oder Höhensensoren,<br />

Kompass oder Beschleunigungsmessern.<br />

Da es bei einer mobilen Kamera nicht empfehlenswert ist, einen PC mitzuführen, wäre <strong>die</strong> Mög-<br />

lichkeit, Daten in einen Audiokanal in Videobildern oder in das Kompressionsformat zu schreiben,<br />

neben der externen Speicherung direkt im Sensor, auf einem PDA oder Mobiltelefon, zu erwägen.<br />

Dabei hat <strong>die</strong> Speicherung im Aufnahmevideo den Vorteil, dass <strong>die</strong>ses ohne zusätzliche Bearbei-<br />

tung weitergegeben werden kann. Bei einer externen Speicherung müssen demgegenüber Video<br />

und Sensordaten stets nachträglich zusammengeführt werden. Dabei ergibt sich als weiteres Pro-<br />

blem, dass es sehr aufwendig ist, Video, Audio und Sensordaten zu synchronisieren.<br />

Die verschiedenen Varianten der Speicherung direkt im Aufnahmevideo werden nachfolgend kurz<br />

erläutert.<br />

4.1.3.1 Ko<strong>die</strong>rung der Daten in einen Audiostrom<br />

In Abbildung 4.1 ist eine Möglichkeit ersichtlich, welche über einen sogenannten „Datenschuh“<br />

<strong>die</strong> von einem GPS Sensor gelieferten Informationen und <strong>die</strong> Ausrichtung des Kompasses an einen<br />

digitalen Audiokanal der Kamera übergibt. Diese Daten werden anschließend nach der Übertra-<br />

gung auf einen Computer wieder entschlüsselt und können weiter verwendet werden.<br />

Wenn nach der Aufnahme <strong>die</strong> Audiospur abgespielt wird, erkennt man sehr große Ähnlichkeiten<br />

mit dem Geräusch, welches ein Modem zur Übertragung von Daten erzeugt. Auf <strong>die</strong>se Art und<br />

Weise können verschiedene Arten von Sensoren an den Kameras befestigt werden und ihre Daten<br />

in einen der Audiokanäle ko<strong>die</strong>ren, welche in einem Nachbereitungsverfahren wieder deko<strong>die</strong>rt<br />

werden können.<br />

4.1.3.2 Ko<strong>die</strong>rung der Daten in das Bild<br />

Bei <strong>die</strong>ser Methode werden, wie in Abbildung 4.2 gezeigt, Daten als „Bild im Bild“ dargestellt.<br />

Der Nachteil <strong>die</strong>ser Variante ist, daß <strong>die</strong>se Information ohne Bildverluste nicht wieder entfernt


4.1. KRITERIEN ZUR KAMERAAUSWAHL 53<br />

Abbildung 4.1: VMS-X: Aufnahme der GPS Informationen durch einen „Active Interface<br />

Shoe R○ “ [RHS07]<br />

werden können und Videoinformationen „hinter“ der Schrift verloren gehen. Ebenfalls ist nach-<br />

trägliche Nutzung der Daten sehr kompliziert, da <strong>die</strong>se, wie erwähnt, als Bild im Bild gespeichert<br />

werden. Zur Auswertung <strong>die</strong>ser Daten müsste bei der vollautomatischen Nachbearbeitung eine<br />

Texterkennung erfolgen, welche sehr rechenintensiv ist.<br />

Abbildung 4.2: Model VED-M: Annotieren von Videobildern mit GPS Informationen [PS07]<br />

4.1.3.3 Ko<strong>die</strong>rung der Daten in das Videoformat<br />

Bei der Ko<strong>die</strong>rung in das Videoformat wird ausgenutzt, dass aktuelle Kameras das aufgenommene<br />

HD-Video nach der Aufnahme immer in verschiedene Codecs komprimieren. (vgl. Tabelle 4.1)<br />

Dabei kann beim MPEG-4 Containerformat, Teil 17 (nach ISO/IEC 14496-17 [ISO04]) das „Ti-<br />

med Text subtitle format“ genutzt werden. Dieses erlaubt im Gegensatz zum MPEG-2 oder MPEG-


4.1. KRITERIEN ZUR KAMERAAUSWAHL 54<br />

1 Standard Untertitel als textbasierte Daten im Container zu speichern, anstatt <strong>die</strong>se in einer sepa-<br />

raten bildbasierten Datei abzulegen.<br />

Bei <strong>die</strong>ser Variante muss an dem zwischen der aufnehmenden und der speichernden Instanz lie-<br />

genden Komprimierungsalgorithmus angesetzt werden. Hierin liegt das Hauptproblem <strong>die</strong>ser Va-<br />

riante, dass eine Hardwareimplementierung des Algorithmus in einer Kamera nicht realisierbar<br />

ist.<br />

4.1.3.4 Aufnahme von Raumklang<br />

Für <strong>die</strong> Aufnahme von Raumklang wurde im Rahmen <strong>die</strong>ser Arbeit ein Aufnahmesystem ent-<br />

wickelt, welches über vier Kondensatormikrofone verfügt. Diese sind in einer Styroporschicht mit<br />

Akustikdämmung eingepasst wie in Abbildung 4.3 zu sehen ist. Dazu werden <strong>die</strong> Audiodaten des<br />

linken und rechten Kanals in den <strong>Stereo</strong>-Eingang der linken Kamera und <strong>die</strong> Informationen des<br />

vorderen und hinteren Mikrofons in <strong>die</strong> rechte Kamera eingespielt und im Audiokanal des Video-<br />

containerformates gespeichert. Bei der Übertragung der Daten auf einen PC können <strong>die</strong>se Daten<br />

wieder als Raumklang zusammengeführt werden.<br />

Abbildung 4.3: Vierkanal Surround Mikrofon (Eigenentwicklung)<br />

4.1.4 Abmaße der Kameras<br />

Um mit der <strong>Stereo</strong>videokamera Aufnahmen zu ermöglichen, welche einen kurzen Objektabstand<br />

benötigen, muss es möglich sein, <strong>die</strong> <strong>Stereo</strong>basis klein wählen zu können. Dazu wurden <strong>die</strong> in<br />

Tabelle 4.2 angegebenen Werte <strong>für</strong> Höhe, Breite und Länge gegeneinander verglichen. Wie in Ka-<br />

pitel 2.2.2 erklärt, beträgt <strong>die</strong> „normale“ <strong>Stereo</strong>basis ca. 6cm. Dieser Wert wird von den jeweili-<br />

gen Mittelpunkten der Kameraobjektive bestimmt. Ideal wäre also zwei Kameras deren Objektive<br />

einen kleinen Radius besitzen und <strong>die</strong> es ermöglicht <strong>die</strong> Objektive ohne Abstand nebeneinander<br />

zu montieren. Das heißt im weiteren sollten, sofern austauschbare Datenträger genutzt werden, <strong>die</strong><br />

Wechselme<strong>die</strong>n von jeweils gegenübergesetzten Seiten, oder von oben / unten in den Camcorder<br />

eingelegt werden können.


4.2. GENUTZTE KAMERAS 55<br />

4.2 Genutzte Kameras<br />

Zu den erwähnten Kriterien sollte der Kostenfaktor noch hinzugezogen werden, da <strong>die</strong>ser bei der<br />

Anschaffung von zwei identischen Kameras einen wesentlichen Einfluss besitzt. Es können durch<br />

den Kauf zweier Kameras aus dem Consumer-Bereich Einsparungen getroffen werden, da <strong>die</strong>se<br />

zwar in Fertigung und Funktionen nicht den Ansprüchen von professionellen Kameras entspre-<br />

chen, jedoch der Aufgabenstellung <strong>die</strong>ser Arbeit durchaus gerecht werden.<br />

Professionelle Videokameralösungen wurden durch <strong>die</strong> erwähnten Kriterien fast alle ausgeschlos-<br />

sen, da zum einen der Preisfaktor und zum anderen <strong>die</strong> Abmaße <strong>die</strong>ser Systeme, auch unter den<br />

Vorteilen der höheren Funktionalität, besseren Verarbeitung und höheren Qualität, mit den am An-<br />

fang <strong>die</strong>ses Kapitels getroffenen Kriterien unvereinbar sind. Dies hat zur Auswirkung, dass eine<br />

Synchronisation über das Genlock System nicht realisiert werden konnte, da lediglich <strong>die</strong> profes-<br />

sionellen Kameras über eine solche Schnittstelle verfügen. Aus <strong>die</strong>sem Grund wurden Camcorder<br />

im semi-professionellen Bereich gesucht, wobei lediglich <strong>die</strong> Produkte von Sony über eine Mög-<br />

lichkeit der Synchronisierung über LANC TM verfügen. Die HDV-Kameras von Panasonic verfü-<br />

gen nicht über den in Kapitel 4.1.2.3 beschriebenen 5-Pin Anschluss.<br />

Zur Auswahl standen folgende Sony Camcorder:<br />

– mit Mini-DV/HDV Band Aufnahme: HDR-HC1, HDR-HC3, HDR-HC5, HDR-HC7,<br />

– mit Festplatten Aufnahme: HDR-SR1,<br />

– und mit DVD Aufnahme: HDR-UX1, UX3, UX7.<br />

Beim Vergleich der Camcorder wurden <strong>die</strong> am Anfang (siehe Kapitel 4.1) aufgezeigten Kriterien<br />

gegenüber den Kameras genauer verifiziert und vertieft.<br />

So wurde z.B. <strong>die</strong> Aufnahmedauer in HDV Auflösung als Kriterium hinzugezogen. Wie in Tabel-<br />

le 4.2 zu sehen besitzen nicht alle Kameras einen Mikrofonanschluss. Dieser ist jedoch <strong>für</strong> <strong>die</strong><br />

Aufnahme von Surround Sound durch <strong>die</strong> Nutzung des selbst entwickelten kostengünstigen Mi-<br />

krofons, welches in Kapitel 4.1.3.4 beschrieben ist, notwendig.<br />

Des Weiteren ist das AVCHD Format sehr rechenintensiv. Laut der Be<strong>die</strong>nungsanleitung der Sony<br />

HDR-SR1 ist ein Pentium 4 mit mindestens 2,8 GHz <strong>für</strong> das Betrachten von High Definition<br />

Video im Advanced Video Codec <strong>die</strong> Mindestanforderung. Empfohlen wird ein Pentium 4 mit<br />

mindestens 3,6 Ghz oder ein Intel CoreDuo 1,66 Ghz. Zu beachten ist, dass <strong>die</strong>se Angaben <strong>für</strong><br />

<strong>die</strong> Wiedergabe <strong>eines</strong> Videos gelten und nicht <strong>für</strong> eine Bearbeitung der aufgenommen Daten. Um<br />

<strong>die</strong>se Berechnungen in einer angenehmen Geschwindigkeit durchzuführen ist eine höhere Perfor-<br />

manz des Verarbeitungssystems notwendig.<br />

So kann es nicht als Vorteil angesehen werden, dass Videodaten nicht mehr von dem Camcorder<br />

überspielt werden müssen, wie es bei DV oder Mini-DV der Fall ist, sondern über einen USB2.0<br />

Anschluss kopiert werden können. Der Einsatz von Kameras mit der Möglichkeit auf DVDs auf-<br />

zunehmen empfiehlt sich ebenfalls nicht, da hier <strong>die</strong> begrenzte Aufnahmedauer in High Definition<br />

Video dem Einsatzgebiet der <strong>Stereo</strong>skopie nicht entsprechen. Weiterhin ist es mit den vorgestellten<br />

DVD-Rekordern nicht möglich einen Farbabgleich der Kameras zu realisieren.


4.2. GENUTZTE KAMERAS 56<br />

HDR- HDR- HDR- HDR- HDR- HDR- HDR- HDR-<br />

HC1 HC3 HC5 HC7 SR1 UX1 UX3 UX7<br />

Videoformate MiniDV / MiniDV / MiniDV / MiniDV / AVCHD AVCHD AVCHD AVCHD<br />

HDV HDV HDV HDV<br />

Aufzeichnungs- MiniDV/ MiniDV/ MiniDV/ MiniDV/ eingebaute MiniDVD/ MiniDVD/ MiniDVD/<br />

medium HDV- HDV- HDV- HDV- Festplatte MiniDVD- MiniDVD- MiniDVD-<br />

Band Band Band Band<br />

DL 8cm DL 8cm DL 8cm<br />

Aufnahmedauer Sony Sony Sony Sony 30 GB MiniDVD- MiniDVD- MiniDVDvon<br />

High DVM 63 DVM 63 DVM 63 DVM 63 Festplatte DL, ca.30- DL, ca.30- DL, ca.30-<br />

Quality HDV HDV - HDV - HDV - HDV- - ca. vier Minuten Minuten Minuten<br />

auf Medium ca. 63 ca. 63 ca. 63 ca. 63 Stunden<br />

Minuten Minuten Minuten Minuten<br />

Video- HDV HDV HDV HDV AVCHD AVCHD AVCHD AVCHD<br />

auflösungen 1440×1080 1440×1080 1440×1080 1440×1080 1440×1080 1440×1080 1440×1080 1440×1080<br />

MiniDV MiniDV MiniDV MiniDV MPEG2 SD SD SD<br />

720×576 720×576 720×576 720×576 720×756 720×576 720×576 720×576<br />

Maximale<br />

Bitrate<br />

25 MBit/s 25 MBit/s 25 MBit/s 25 MBit/s 15 MBit/s 12 MBit/s 12 MBit/s 12 MBit/s<br />

Kompressions- DV DV DV DV MPEG2 MPEG4 MPEG4 MPEG4<br />

format MPEG2 MPEG2 MPEG2 MPEG2 MPEG4<br />

Bildstabilisator elektronisch elektronisch elektronisch optisch elektronisch elektronisch elektronisch optisch<br />

effektive Pixel 1.486.000 1.067.000 1.080.000 1.710.000 1.076.000 1.076.000 1.080.000 1.710.000<br />

4:3 Pixel Pixel Pixel Pixel Pixel Pixel Pixel Pixel<br />

effektive Pixel 1.983.000 1.434.000 1.434.000 2.280.000 1.434.000 1.434.000 1.430.000 2.280.000<br />

16:9 Pixel Pixel Pixel Pixel Pixel Pixel Pixel Pixel<br />

Minimale<br />

Shutterzeit 1<br />

10.000 automatisch automatisch automatisch 425 425 800 500<br />

t<br />

Schärfe<br />

regelbar<br />

Ja Ja Ja Ja Nein Nein Nein Nein<br />

Farbe regelbar Ja Ja Ja Ja Nein Nein Nein Nein<br />

HDMI Ausgang Nein Ja Ja Ja Ja Ja Ja Ja<br />

USB USB 1.1 USB 2.0 USB 2.0 USB 2.0 USB 2.0 USB 2.0 USB 2.0 USB 2.0<br />

Mikrofon/<br />

Audio-In<br />

Miniklinke Nein Nein Miniklinke Miniklinke Miniklinke Nein Nein<br />

Kopfhörer Miniklinke Nein Miniklinke Miniklinke Miniklinke Miniklinke Nein Nein<br />

LANCTM Ja Ja Ja Ja Ja Ja Ja Ja<br />

Gewicht (mit<br />

Akku)<br />

780 g 600 g 600 g 550 g 740 g 740 g 740 g 650 g<br />

Höhe 71 mm 82 mm 82 mm 82 mm 78 mm 76 mm 87 mm 82 mm<br />

Breite 94 mm 78 mm 82 mm 82 mm 84 mm 89 mm 72 mm 82 mm<br />

Tiefe 188 mm 139 mm 134 mm 138 mm 165 mm 165 mm 142 mm 138 mm<br />

Manuelle<br />

Blende<br />

Ja Ja Ja Ja Ja Ja Nein Ja<br />

Focus-<br />

Umschalter<br />

Ja Ja Ja Ja Nein Nein Nein Nein<br />

Blende<br />

Feststellen<br />

Ja Nein Nein Nein Nein Nein Nein Nein<br />

Audioformate 2×48kHz 2×48kHz 2×48kHz 2×48kHz AC-3 Dol- AC-3 Dol- AC-3 Dol- AC-3 Dol-<br />

bei HD 16bit 16bit 16bit 16bit by Digital by Digital by Digital by Digital<br />

Aufnahme MPEG 1 MPEG 1 MPEG 1 MPEG 1 5.1 640 5.1 640 5.1 640 5.1 640<br />

kbit max. kbit max. kbit max. kbit max.<br />

Manuelle<br />

Audio<br />

Aussteuerung<br />

Ja Nein Nein Nein Nein Nein Nein Nein<br />

Tabelle 4.2: Vergleich von Sony Camcordern.<br />

Die Wahl fiel auf Kameras mit festplattenbasierter Aufnahme „Sony HDR-SR1“, da „HDR-HC3“<br />

und „HDR-HC5“ keinen analogen Mikrofoneingang bieten. Gegenüber der „HDR-HC1“ über-<br />

zeugt <strong>die</strong>se Kamera durch ein geringeres Gewicht (beim Einsatz von 2 Kameras insgesamt 300<br />

Gramm), eine höhere Anzahl von effektiven Pixeln und ein durch ACVHD komprimiertes Bild,<br />

welches weniger Artefakte als MPEG-2 ko<strong>die</strong>rte Daten aufweist.


4.3. BEFESTIGUNG ZUR AUFNAHME UND JUSTIERUNG VON ZWEI KAMERAS 57<br />

4.3 Befestigung zur Aufnahme und Justierung von zwei<br />

Kameras<br />

An <strong>die</strong> Befestigung der Kameras stellten sich folgende Anforderungen:<br />

• Die Kameras sollten genau justiert werden können<br />

• es soll möglich sein größere <strong>Stereo</strong>basen einzustellen (b0 > 7cm)<br />

• Möglichkeit der Einstellung der Konvergenz der Camcorder<br />

• weistestgehende Maximierung der Portabilität<br />

• Vorhandensein einer Reihe von Befestigungspunkten <strong>für</strong> weitere Sensoren, wie z.B. Mikro-<br />

fon oder GPS-Empfänger<br />

• Anschlussmöglichkeit <strong>für</strong> einen genormten Stativkopf<br />

Im Folgenden wird erläutert welche Lösungen im kommerziellen Bereich existieren und wie sich<br />

<strong>die</strong>se auf <strong>die</strong> Anforderungen bezogen eignen. Es wird eine selbstentwickelte Halterung vorgestellt<br />

und eine eigenentworfene Software zur Justierung und Messung vorgestellt.<br />

4.3.1 Existierende Halterungen<br />

Im Bereich der <strong>Stereo</strong>fotografie existieren eine Reihe von Befestigungssystemen, welche kurz<br />

vorgestellt werden.<br />

• Heavy Duty Slide Bars [Pro07c]<br />

• Fixed - Twin Vertical Mount [Pro07b]<br />

• Adjustable - Twin Vertical Mount [Pro07a]<br />

• ste-fra R○ CAM (Abbildung 4.4) [Blo07]<br />

• Twin Camera Bar [PTJE07]<br />

• 3D Camera Slidebar [GMR07]<br />

• SpaceBar [Sta07]<br />

Die genannten Systeme bieten alle eine Befestigung zweier Kameras nebeneinander, wobei bei<br />

dem „Fixed - Twin Vertical Mount“ und der „3D Camera Slidebar“ <strong>die</strong> Kameras im Hochformat<br />

nebeneinander justiert werden. Die anderen Lösungen ermöglichen horizontale Ausrichtungen.<br />

Die Befestigung wird bei allen Halterungen durch Stativschrauben realisiert. Wie in Abbildung<br />

4.4 zu sehen ist, sind <strong>die</strong> meisten existierenden Halterungen nicht <strong>für</strong> einen <strong>portablen</strong> Einsatz kon-<br />

zipiert.<br />

Deswegen und um eine große Variabilität der Aufnahmesituationen zu begünstigen, wurde eine<br />

Halterung selbst entworfen, wobei Wert auf eine variable <strong>Stereo</strong>basis, <strong>die</strong> Montagemöglichkeit<br />

der Camcorder in vertikaler sowie horizontaler Lage und <strong>die</strong> Portabilität gelegt wurde. Diese Hal-<br />

terung ist in Abbildung 4.8 zu sehen.


4.3. BEFESTIGUNG ZUR AUFNAHME UND JUSTIERUNG VON ZWEI KAMERAS 58<br />

4.3.2 Verwendete Halterung<br />

Abbildung 4.4: ste-fra R○ CAM: Halterung <strong>für</strong> 2 Kameras<br />

Die maximale <strong>Stereo</strong>basis der entwickelten Fassung ist durch <strong>die</strong> Portabilität begrenzt und wurde<br />

mit einem Bereich von 6 cm bis 60 cm so gewählt, dass nach Formel 4.2 Aufnahmen mit guter<br />

Tiefenwirkung bei einer Brennweite von 50 mm zwischen 0,5 und 1000 Meter möglich sind.<br />

b0 = d<br />

f ·<br />

aN<br />

1 − aN<br />

aF<br />

Hierbei stellt b0 <strong>die</strong> <strong>Stereo</strong>basis, d <strong>die</strong> Deviation, f <strong>die</strong> Brennweite, aN den Abstand zum Nah-<br />

punkt und aF den Abstand zum Fernpunkt dar (vgl. [Her07]).<br />

Um <strong>Stereo</strong>basen unter 8,2 cm nutzen zu können, muss <strong>die</strong> linke Kamera um 90 Grad nach rechts<br />

und <strong>die</strong> rechte um -90 Grad nach links gedreht werden, sodaß <strong>die</strong> optischen Achsen genau ent-<br />

gegengesetzt stehen. Anschliessend wird eine prototypische Spiegelkonstruktion zwischen den<br />

Kameras eingesetzt, welche geringere <strong>Stereo</strong>basen ermöglicht. Die geringste <strong>Stereo</strong>basis, bei wel-<br />

cher <strong>Stereo</strong>teilbilder mit einer Auflösung von 1440×1080 Pixeln abgelichtet werden können, liegt<br />

bei minimaler Brennweite von 5,1mm, bei 6cm, begründet durch den Objektivdurchmesser von 3<br />

cm. Diese Justierung ist in Abbildung 4.6 schematisch dargestellt. Ein in <strong>die</strong>ser Konstellation auf-<br />

genommenes <strong>Stereo</strong>bildpaar ist in Abbildung 4.7 dargestellt.<br />

Für <strong>die</strong>se Justierung der Kameras, ist es notwendig <strong>die</strong> Konvergenz sehr genau einstellen zu kön-<br />

nen. Deswegen wurde eine Halterung entworfen, welche einen Spielwinkel von maximal 20 ′ also<br />

0, 33 ◦ (nach [IG07]) aufweist. In Abbildung 4.5 ist <strong>die</strong>ser Halterungsenturf dargestellt.<br />

Diese Halterung würde eine sehr genaue Justierung der <strong>Stereo</strong>videokamera erlauben. Jedoch wie-<br />

gen <strong>die</strong> Winkelgetriebe je ca. 2,77kg was der Portabilität der Kamera entgegenspricht. Im Weiteren<br />

liegt der Preis der abgebildeten Teile der Halterung bei 1536,59 Euro. Aus <strong>die</strong>sen Gründen mus-<br />

ste eine Alternative gefunden werden, welche auf Kosten der Jusitierungsgenauigkeit über zwei<br />

Servomotoren verfügt. Diese Motoren wiegen je 146 Gramm, kosten zusammen 129,90 Euro und<br />

haben eine Winkelgenauigkeit von 0,85 Grad.<br />

Durch <strong>die</strong> elektronische Steuerung <strong>die</strong>ser Motoren ergibt sich wiederum der Vorteil, dass in even-<br />

(4.2)


4.3. BEFESTIGUNG ZUR AUFNAHME UND JUSTIERUNG VON ZWEI KAMERAS 59<br />

Abbildung 4.5: Entwurf einer Kamerahalterung mit Winkelgetrieben.<br />

tuellen Erweiterungen der <strong>Stereo</strong>videokamera <strong>die</strong> Ansteuerung der Servos in Kombination mit<br />

der Fokusierungselektronik der Kameras geschehen kann, wodurch der menschliche Sehvorgang<br />

optimaler nachgebildet werden kann.<br />

b 0<br />

Kamera 1 Spiegel<br />

Kamera 2<br />

Abbildung 4.6: Schematische Darstellung der Justierung um <strong>Stereo</strong>basen unter 8,2 cm zu erreichen.<br />

Die Halterung ist in Abbildung 4.8 gezeigt.<br />

Des Weiteren verfügt <strong>die</strong> Halterung über zwei Griffe, welche einen sehr guten Umgang mit der<br />

<strong>Stereo</strong>kamera ermöglichen sowie einen Gurt, der das Gewicht der Kamera gleichmäßig auf <strong>die</strong><br />

Schultern des Nutzers verteilt. Sensoren sowie <strong>die</strong> Be<strong>die</strong>neinheit sind gut erreichbar auf der Vor-


4.3. BEFESTIGUNG ZUR AUFNAHME UND JUSTIERUNG VON ZWEI KAMERAS 60<br />

Abbildung 4.7: Abbildung <strong>eines</strong> <strong>Stereo</strong>bildpaares mit einer <strong>Stereo</strong>basis von 6 cm.<br />

Abbildung 4.8: Halterung der Einzelkameras an der <strong>Stereo</strong>kamera und Be<strong>die</strong>neinheit<br />

derseite angeordnet. Über der Be<strong>die</strong>neinheit befindet sich eine Wasserwaage, <strong>die</strong> eine genaue ho-<br />

rizontale Ausrichtung der Kamera ermöglicht.<br />

Als Erweiterung <strong>die</strong>ser Halterung wird <strong>die</strong> Benutzung einer sogenannten „Steadycam“, also ei-<br />

nem „tragbaren Schwebe-Kamera-Stabilisier-Systems“, empfohlen. Das Prinzip <strong>die</strong>ses Systems<br />

ist durch ein Gegengewicht, welches dem der Kameras entspricht und einem frei gelagerten Hand-<br />

griff, <strong>die</strong> Kameras „schwebend“ von eventuellem Zittern der kameranutzenden Person zu trennen.


4.3. BEFESTIGUNG ZUR AUFNAHME UND JUSTIERUNG VON ZWEI KAMERAS 61<br />

4.3.3 Justierung der <strong>Stereo</strong>kamera<br />

Es ist darauf zu achten, dass <strong>die</strong> Kameraachsen sich in der gleichen horizontalen Ebene befinden.<br />

Nach [Alb92] ist eine maximale Bildhöhendiffernenz von 1% zulässig. Diese kann durch Formel<br />

4.3 berechnet werden.<br />

αkipp = arctan( hSensor/100<br />

) (4.3)<br />

bKamera<br />

Nach <strong>die</strong>ser Formel ergibt sich <strong>für</strong> eine Sensorhöhe von 5,08mm und einer <strong>Stereo</strong>basis von 68,5mm<br />

ein maximaler Verkippungswinkel von ca. 0, 04 ◦ . Dies bedeutet, dass auf eine exakte horizontale<br />

Ausrichtung der Kamera geachtet werden muss.<br />

In <strong>die</strong>ser Formel ist, bKamera <strong>die</strong> <strong>Stereo</strong>basis, hSensor <strong>die</strong> Höhe des Bildsensors und αkipp der<br />

berechnete maximale Kippwinkel. Ein Kippen der einzelnen Kameras auf der Halterung ist aus<br />

Gründen der Stabilität nicht möglich.<br />

Zur exakt parallelen Justierung der Camcorder wurde eine Software entwickelt, welche auf einem<br />

Monitor oder der <strong>Stereo</strong>projektionswand ein Linienraster erzeugt. Die Ausgabe des Programms ist<br />

in Abbildung 4.9 zu sehen. Als Eingabe wird <strong>die</strong> <strong>Stereo</strong>basis sowie entweder <strong>die</strong> Breite und Höhe<br />

oder <strong>die</strong> Länge der Bildschirmdiagonale in Zoll benötigt.<br />

Mit <strong>die</strong>sen Eingaben wird ein 10 mm Raster erzeugt, sowie zwei Kreuze, <strong>die</strong> im exakten Ab-<br />

stand der <strong>Stereo</strong>basis mittig dargestellt werden. Die <strong>Stereo</strong>kamera wird nun vor <strong>die</strong>sem Rasterbild<br />

aufgestellt und so justiert, dass <strong>die</strong> Mittelpunkte der Kreuze bei jeder Brennweite, jeweils den<br />

Mittelpunkten der von den Kameras erfassten Bilder entsprechen. Ist <strong>die</strong>s der Fall und liegen <strong>die</strong><br />

optischen Achsen in gleicher Höhe verlassen <strong>die</strong> Linien des jeweiligen Kreuzes das Bild in den<br />

„Ecken“ der Kamerasucher.<br />

Zusätzlich wird am linken und rechten Rand der Projektionsfläche ein 5 Pixel Raster erzeugt,<br />

welches dazu verwendet werden kann, um <strong>die</strong> Synchronität der Grafikkartenausgänge und der<br />

Camcorder zu testen. In Abbildung 4.10 ist eine Aufnahme zweier Monitore zu sehen, welche<br />

synchron angesteuert werden.<br />

Um <strong>die</strong>s durchzuführen wird das Programm ausgeführt, wärend <strong>die</strong> Ausgänge der Grafikkarte<br />

„geklont“ werden. Das bedeutet, dass auf beiden Ausgängen ein und dasselbe Bild ausgegeben<br />

wird. Als Ausgabemedium müssen nun zwei Röhrenmonitore oder -fernseher angeschlossen wer-<br />

den, um den technischen Bildaufbau, mittels Zeilensprung der Elektronenröhre, nutzen zu können.<br />

Nun kann das Bild der beiden Monitore mit einer Digitalkamera oder einem Camcorder abfoto-<br />

grafiert werden, wobei <strong>die</strong> Belichtungszeit der Aufnahme mindestens so groß wie das Doppelte<br />

der Frequenz der Monitore sein sollte. Empfohlen wird ein Wert von ca. vierfacher Frequenz. So<br />

sollte beispielsweise bei einem Fernseher mit 50 Hz <strong>die</strong> Belichtungszeit kleiner als 1<br />

200s sein.<br />

Genutzt wird der Effekt der „Balkenbildung“ beim Abfilmen der Röhrengeräte, da <strong>die</strong> Monitore<br />

sich auf <strong>die</strong> Frequenz der Grafikkarte einstellen. Sind <strong>die</strong> Ausgänge <strong>die</strong>ser Grafikkarte synchron,


4.3. BEFESTIGUNG ZUR AUFNAHME UND JUSTIERUNG VON ZWEI KAMERAS 62<br />

Abbildung 4.9: Ausgabe des Justierungsprogrammes<br />

Abbildung 4.10: Anwendung des Tesprogramms um <strong>die</strong> synchronität der Grafikkartenausgänge<br />

zu testen.<br />

befinden sich <strong>die</strong> Grenzen der Balken auf gleicher Höhe im Bild. Falls Asynchronität besteht, sind<br />

<strong>die</strong> Balken auf unterschiedlichen Höhen zu sehen. Durch Zählen der Pixelstreifen kann mit Formel<br />

4.4 näherungsweise bestimmt werden, wie groß <strong>die</strong> Asynchonität ist.


4.4. FERNBEDIENUNG 63<br />

ta ≈<br />

1<br />

f<br />

hm<br />

Hierbei ist ta <strong>die</strong> Zeitdifferenz der Bilder, f <strong>die</strong> Frequenz des Ausgabegerätes, hm <strong>die</strong> Anzahl ver-<br />

tikaler Bildpunkte und hz <strong>die</strong> Differenz der Balken in Pixeln. Allerdings muss beachtet werden,<br />

dass nur geringe Differenzen bestimmt werden können. Für den Fall von ta ≥ 1<br />

f<br />

falsche Ergebnisse. 6<br />

· hz<br />

(4.4)<br />

liefert Formel 4.4<br />

Sollte <strong>die</strong> Grafikkarte eine Differenz im Bildaufbau erzeugen, kann <strong>die</strong>s durch Einstellen des ver-<br />

tikalen Synchronisierungssignals Vsynch) behoben werden. Eventuell sollten Parameter der Auf-<br />

lösung und Bildwiederholrate gesenkt werden.<br />

Zur Messung der Synchronität der Kameras, kann <strong>die</strong>ser Aufbau ebenfalls genutzt werden. Wenn<br />

<strong>die</strong> Belichtungsdauer unter der Dauer <strong>eines</strong> Bildaufbauzykluses liegt ( 2<br />

f ), sind auf dem aufgenommenen<br />

Video schwarze Balken sichtbar. Sind beide Kameras synchonisiert, ist auf beiden<br />

Aufnahmen der Balken auf gleicher Höhe des Monitors sichtbar, ansonsten kann aus dem Hö-<br />

henunterschied der Balken auf <strong>die</strong> zeitlichen Differenz der Aufnahmezeitpunkte rückgerechnet<br />

werden.<br />

4.4 Fernbe<strong>die</strong>nung<br />

Zur synchronen Be<strong>die</strong>nung der Kameras wurde eine Be<strong>die</strong>neinheit benötigt. Die Kriterien, welche<br />

an <strong>die</strong> Funktionalität <strong>die</strong>ser Fernbe<strong>die</strong>nung gestellt werden, sind nachfolgend aufgezählt.<br />

• Möglichkeit des parallelen Einschalten der Camcorder, um <strong>die</strong> internen Oszillatoren mög-<br />

lichst synchron betreiben zu können<br />

• ein halbbildgenaues Auslösen der Aufnahme und Wiedergabe um bei der Nachbearbeitung<br />

keine Kosten zur Behebung von Asynchronität aufwenden zu müssen und um <strong>die</strong> Fotofunk-<br />

tion der Kameras nutzen zu können,<br />

• <strong>die</strong> Be<strong>die</strong>nung von Fokussierung, Blenden und Zoom mittels der Fernsteuerung<br />

• Anzeige der Asynchronität (da es technisch nicht möglich ist, zwei getrennte Geräte 100%<br />

zu synchronisieren, sollten Unterschiede der „timing-signale“ visualisiert werden)<br />

Wie im Kapitel 4.1.2 beschrieben existieren mehrere Ansätze eine solche Fernbe<strong>die</strong>nung zu reali-<br />

sieren.<br />

4.4.1 Existierende Be<strong>die</strong>neinheiten<br />

Wie im Kapitel 4.2 beschrieben wird <strong>die</strong> Synchronisierung der Camcorder über das Sony LANC TM<br />

Protokoll angestrebt.<br />

6 Man kann annehmen, dass ein Versatz von mehr als einem Bild technisch nicht möglich ist, wodurch der Fall ta ≥ 1<br />

f<br />

nicht auftritt.


4.4. FERNBEDIENUNG 64<br />

Abbildung 4.11: LANC Shepherd: Fernbe<strong>die</strong>nung zur Steuerung zweier Kameras über das LANC<br />

Protokoll [Cro07]<br />

Produkte <strong>die</strong> <strong>die</strong>ses System unterstützen sind Folgende:<br />

• stefra R○ LANC [Die07],<br />

• LANC Shepherd [Cro07],<br />

• und 3D LANC Master [Vra06].<br />

Bei allen Lösungen handelt es sich um kabelgebundene Fernbe<strong>die</strong>nungen, <strong>die</strong> sich in ihren Funk-<br />

tionen ähneln. So bieten alle ein zeitgleiches Einschalten der Camcorder, paralleles Auslösen der<br />

Aufnahme und <strong>die</strong> Be<strong>die</strong>nung der Brennweitenveränderung.<br />

Besonderheiten von „stefra R○ LANC“ sind:<br />

• 8 Zoomgeschwindigkeiten mit sanftem Anfahren und Abbremsen<br />

• Autofocus ein/aus - Push Autofokus und Manueller Fokus<br />

• Modus-Wechsel zwischen Camcorder und Fotokamera<br />

• Zeitrafferaufnahme bei Nutzung der Fotofunktion<br />

„LANC Shepherd“ (Abbildung 4.11) hat folgende Funktionen:<br />

• Display zur Anzeige der Timingunterschiede in Millisekunden,<br />

• Einstellen der Belichtungszeit und eine sehr einfache Be<strong>die</strong>nung.<br />

„3D LANC Master“ bietet <strong>die</strong> umfangreichsten Funktionen, <strong>die</strong> alle vorher genannten einschlie-<br />

ßen. Desweiteren kann <strong>die</strong>ses Gerät <strong>die</strong> Synchronität bei älteren Camcordern im Betrieb beein-<br />

flussen. Das bedeutet, dass beim Betrieb bestimmter Sony Kameras mit <strong>die</strong>sem Controller <strong>die</strong><br />

Möglichkeit besteht, <strong>die</strong> internen Oszillatoren zu beeinflussen, wodurch das Problem, dass <strong>die</strong><br />

Oszillatoren nicht synchron arbeiten, umgangen werden kann.


4.4. FERNBEDIENUNG 65<br />

Abbildung 4.12: 3DLANCMaster: selbst entwickelte Fernbe<strong>die</strong>nung nach Anleitung von [Vra06]<br />

4.4.2 Verwendeter Controller<br />

Aus den im vorherigen Kapitel genannten Gründen sowie der Tatsache, dass „3D LANC Master“<br />

[Vra06] ein Open Source Projekt, mit frei verfügbaren Bau- und <strong>Entwicklung</strong>splänen sowie der<br />

Firmware als Quellcode darstellt und somit erhebliche Anschaffungskosten vermindert werden<br />

konnten, wurde <strong>die</strong>se Fernbe<strong>die</strong>nung entwickelt.<br />

Dabei wurde in der Fakultätswerkstatt <strong>für</strong> Elektrotechnik eine Leiterplatte angefertigt und ansch-<br />

liessend bestückt. Die in Abbildung 4.12 dargestellte Fernbe<strong>die</strong>nung wird über zwei Kabel mit<br />

2,5mm Klinkensteckern mit den Kameras verbunden.<br />

Der Funktionsumfang der Fernbe<strong>die</strong>nung umfasst <strong>für</strong> beide Kameras folgende Eigenschaften:<br />

• Veränderung der Brennweite<br />

• synchrones Auslösen der Foto- und Videoaufnahme<br />

• anzeigen der zeitlichen Differenz beider Camcorder in µ Sekunden<br />

• anzeigen einer empfohlenen Belichtungszeit in 1<br />

s<br />

• synchrones Ein- und Ausschalten der Kameras<br />

• Veränderung der Fokussierung<br />

• Anzeige des Batteriestandes der Fernbe<strong>die</strong>nung<br />

Da <strong>die</strong> Ansteuerung der Stellmotoren <strong>für</strong> Zoom und Fokus nicht in der Lage sind Werte wie weit<br />

fokussiert oder gezoomt werden soll zu verarbeiten, können <strong>die</strong>se lediglich synchron gestartet und<br />

gestoppt werden. Durch Fabrikationstoleranzen tritt allerdings der Fall auf, dass bei zeitlich gleich<br />

langer Aktivierung <strong>die</strong>ser Motoren ein unterschiedlicher Endwert auftritt. Daher sollten <strong>für</strong> den<br />

Fall, dass manuell fokussiert oder <strong>die</strong> Brennweite verändert wird, <strong>die</strong>se Motoren immer wieder in<br />

Grundposition gebracht werden. So kann verhindert werden, dass <strong>die</strong> erwähnten geringen Fehler<br />

sich summieren und erheblicher Aufwand bei der Nachbearbeitung, oder im schlimmsten Fall bei


4.4. FERNBEDIENUNG 66<br />

schlecht fokussierten Aufnahmen der Totalausfall der Aufnahme vermieden wird.<br />

Zusätzlich ist es möglich <strong>die</strong> Fernbe<strong>die</strong>nung an den seriellen Port <strong>eines</strong> PC anzuschließen, wobei<br />

einerseits eine zeitliche Differenz beider Camcorder grafisch dargestellt werden kann. Anderer-<br />

seits können interne Einstellungen der Fernbe<strong>die</strong>nung und der Kameras verändert werden. Die<br />

Veränderung von Kameraparametern wird nicht empfohlen, da dadurch <strong>die</strong> Funktion der Camcor-<br />

der nichtmehr sichergestellt werden kann. Dieser Fall kann auftreten, da bei jedem Einschalten<br />

einer Kamera, <strong>die</strong>se einen Hashwert 7 über der internen Firmware bildet, und somit Veränderun-<br />

gen erkennt. Wird solch eine Änderung erkannt, symbolisiert <strong>die</strong> Kamera <strong>die</strong>ses durch <strong>die</strong> Anzeige<br />

<strong>eines</strong> Fehlercodes und stellt ihre Funktion ein, was eine Reparatur des Camcorders in einer Ser-<br />

vicezentrale erforderlich macht.<br />

Zur Änderung von Fernbe<strong>die</strong>nungsparametern solle <strong>die</strong> im Anhang auf Seite VIII abgedruckte<br />

Tabelle mit Parametern des LANC R○ Protokoll hinzugezogen werden. So kann über <strong>die</strong> Software<br />

„3D LANC Communicator“, welche sich auf der, der Arbeit beiliegenden CD befindet, <strong>die</strong> Dauer<br />

des Einschaltimpulses, eine Verzögerung des Einschaltimpulses, <strong>die</strong> Zoomgeschwindigkeit und<br />

<strong>die</strong> Dauer des Ausschaltimpulses verändert werden. Das verzögerte Einschalten übernimmt <strong>die</strong><br />

Funktion der korrektur von Asynchronitäten der Kameras durch verzögertes Einschalten.<br />

Es besteht ebenfalls <strong>die</strong> Möglichkeit <strong>die</strong> Fernbe<strong>die</strong>nung mit eigenen Kommandos zu program-<br />

mieren. Dazu müssen Steuerbefehle <strong>die</strong> in Tabelle A.1 ersichtlich sind, auf <strong>die</strong> Variablen „Com-<br />

mand[X]: Camcorder“, {X | 1,2,3,4}, geschrieben werden.<br />

Eine Änderung des Quellcodes der Fernbe<strong>die</strong>nung ist möglich, wird aber aus dem oben beschrie-<br />

ben Grund, der Änderung von Firmwareparametern, nicht empfohlen. Dazu muss das Gehäuse der<br />

Fernsteuerung geöffnet werden und über ein Programmierinterface, das an der Fernsteuerungs-<br />

platine angebracht wird, kann der Mikroprozessor durch eine Programmierschnittstelle, <strong>die</strong> im<br />

Anhang auf Seite IV in Kapitel A.1.4.1 beschrieben wird, überschrieben werden.<br />

4.4.3 Messung der Synchonität<br />

Die entwickelte Fernbe<strong>die</strong>nung unterstützt <strong>die</strong> Funktion, über eine Nullmodemverbindung mit ei-<br />

nem Computer Daten über <strong>die</strong> Synchronität der Einzelkameras auszuwerten.<br />

Für <strong>die</strong> genutzten Kameras ist in Abbildung 4.13 ein Diagramm zu sehen, bei welchem <strong>die</strong> Or-<br />

dinate den Differenzwert der timing Signale beider Kameras in Mikrosekunden und <strong>die</strong> Abszisse<br />

<strong>die</strong> Zeitachse in Sekunden darstellt.<br />

1<br />

Hier ist zu sehen, dass ein zeitlicher Versatz von 3600 µ-Sekunden (0,0036s = 277,78s) nach 3000<br />

Sekunden (50 Minuten) auftritt.<br />

Da <strong>die</strong> Aufnahmedauer maximal 1<br />

50 Sekunden bei Aufnahme im Format „HDV-1080 50i“ beträgt,<br />

ist <strong>die</strong>ser Wert bei der Aufnahme von langsamen Bewegungen akzeptabel, da bei einer Belichtungszeit<br />

von 1<br />

60 Sekunden, also einer Zeitspanne von 0,016s, beide Bilder bei der Differenz (+/-<br />

7 Eine Hash-Funktion erzeugt zu einer großen Eingabemenge eine kleine Zielmenge.


4.5. GPS-EMPFÄNGER 67<br />

Abbildung 4.13: Diagramm des zeitlichen Verlaufs der Synchronität beider Camcorder. Die X-<br />

Achse stellt <strong>die</strong> abgelaufene Zeit in Sekunden und <strong>die</strong> Y-Achse <strong>die</strong> Differenz der<br />

Timingsignale zwischen den Camcordern in µ-Sekunden dar.<br />

0,0036s) innerhalb <strong>die</strong>ser liegen und somit <strong>die</strong> Bildinformationen in beiden Bildern zu finden sind.<br />

Im Weiteren ist bei der Nutzung der Standardstromversorgung der Camcorder (Akkumulator vom<br />

Typ „Sony NP-FM50“ mit 1180 mAh) <strong>die</strong> Kapazität bei ausgeklapptem Bildschirm nach ca. einer<br />

Stunde so startk verringert, dass der Camcorder seine Funktion einstellt. Aus <strong>die</strong>sem Grund wurde<br />

<strong>die</strong> Messung nach 70 Minuten gestoppt. Einige Werte der Messung sind im Anhang auf Seite VIII<br />

in Tabelle A.2 dargestellt.<br />

4.5 GPS-Empfänger<br />

Um Sensordaten synchron in einem <strong>Stereo</strong>-Video unterzubringen, wurden Lösungen gesucht, wel-<br />

che:<br />

• <strong>die</strong> Daten, entweder in einem MPEG-4 Standard, z.B. dem „Timed Text subtitle format“<br />

oder in einem Audiokanal des Videos speichern und es ermöglichen<br />

• <strong>die</strong> Daten den Einzelbildern des Filmes zuzuordnen und nachträglich zu verarbeiten.<br />

Wie in Kapitel 4.1.3 beschrieben existieren verschiedene Varianten der Speicherung von Daten.<br />

Begründet dadurch, dass eine Ko<strong>die</strong>rung in das Videobild unerwünscht ist und <strong>die</strong> Ko<strong>die</strong>rung in<br />

das MPEG Format technisch nicht möglich ist, wurde <strong>die</strong> Ko<strong>die</strong>rung in einen Audiokanal der<br />

Kamera genutzt. Da durch <strong>die</strong>se Nutzung ein <strong>für</strong> Audiodaten nutzbarer Kanal der beiden Kame-<br />

ras wegfällt, kann das 4 Kanal Surround Mirkofon bei Anschluss <strong>eines</strong> Sensors nicht mehr voll<br />

genutzt werden. Um <strong>die</strong>sen Nachteil zu beheben kann in späteren Arbeiten ein Verfahren der En-<br />

ko<strong>die</strong>rung von Audio und Sensordaten in einen Kanal geschaffen werden oder <strong>die</strong> Nutzung <strong>eines</strong><br />

digitalen „Daten-Schuh“ (vgl. Kapitel 4.1.3.1) erwogen werden.<br />

Ein System, welches GPS-Daten in einen Audiokanal ko<strong>die</strong>ren kann, ist in Abbildung 4.1 zu se-<br />

hen. Allerdings ist <strong>die</strong> gezeigte Lösung „VMS-X“ nur in der Lage GPS-Daten von einer begrenz-<br />

ten Anzahl von GPS-Empfangsgeräten zu verarbeiten, weswegen <strong>die</strong> nachfolgend beschriebene


4.6. KAMERAPARAMETER 68<br />

Variante zur Anwendung kommt.<br />

Um nicht „Global Positioning“ Daten als alleinige Sensorinformationen nutzen zu können, wurde<br />

eine Lösung gesucht, welche jegliche Art serieller Daten in einen Audiokanal ko<strong>die</strong>ren kann. Zur<br />

Bewältigung <strong>die</strong>ses Problems fand sich im Amateurfunk eine Lösung, welche genutzt wird um<br />

serielle Daten ohne Verbindungsaufbau über vorhandene Funksysteme zu senden. Dieses System<br />

ist weitläufig als „Packet Radio“ bekannt. Dabei werden digitale Informationen in kleine Pakete<br />

aufgeteilt und über handelsübliche UKW-Funkgeräte ausgesandt.<br />

Die Ko<strong>die</strong>rung der Daten übernimmt ein Mikroprozessor, der eingehende Daten ähnlich <strong>eines</strong><br />

DTMF-Modulators 8 in verschiedene Frequenzen übersetzt. Von <strong>die</strong>sem können Daten mit 4800<br />

Baud verarbeitet werden. In Abbildung 4.14 ist <strong>die</strong>ser Übersetzer in montierter Form zu sehen.<br />

Abbildung 4.14: TinyTrak3: Konverter zur Transformation serieller Daten in Audiodaten.<br />

Dieser Aufbau ermöglicht den Anschluss jeglicher Sensorik, welche serielle Daten ausgibt. Der in<br />

<strong>die</strong>ser Arbeit genutzte GPS-Empfänger (siehe Abbildung 4.15) liefert Daten in <strong>die</strong>ser Form. Da-<br />

bei werden genormte „NMEA 9 “ Daten vom Empfänger an den Mikrochip übergeben und von <strong>die</strong>-<br />

sem umgewandelt. Die Deko<strong>die</strong>rung erfolgt indem ein Soundkartenmodem installiert wird. Dieses<br />

kann <strong>die</strong> Audiodaten direkt aus der Audiodatei oder über <strong>die</strong> Soundkarte des PC deko<strong>die</strong>ren und<br />

an eine Anwendung als serielle Daten weitergeben. In weiteren Arbeiten kann eine Möglichkeit<br />

geschaffen werden <strong>die</strong>se Daten bei der Videonachbearbeitung direkt zu verarbeiten.<br />

4.6 Kameraparameter<br />

Zur weiteren Verarbeitung der Kameradaten, sind Kalibrierungsgrößen von Interesse, <strong>die</strong> hier dar-<br />

gestellt werden. Es werden <strong>die</strong> Abbildungseigenschaften der Kameras und <strong>die</strong> internen und exter-<br />

8<br />

DTMF-Modulatoren finden meist Anwendung in Telefonen zur Realisierung des Tonwahlverfahrens/Mehrfrequenzwahlverfahren.<br />

9<br />

Der NMEA Standard spezifiziert Übertragungsrichtlinien. Hauptanwendung ist <strong>die</strong> Weitergabe von Positionsdaten.


4.6. KAMERAPARAMETER 69<br />

Abbildung 4.15: GPS-Maus: serieller Global Positioning System Empfänger.<br />

nen Parameter bestimmt.<br />

Externe Parameter geben <strong>die</strong> Lage der Kamera bezüglich <strong>eines</strong> globalen Koordinatensystems an,<br />

wohingegen interne Parameter <strong>die</strong> Abbildung der Weltkoordinatenpunkte vom lokalen Kamerako-<br />

ordinatensystem in das Bild beschreiben.<br />

4.6.1 Interne Parameter<br />

Die internen Parameter der Kamera:<br />

• <strong>die</strong> Brennweite f,<br />

• der Hauptpunkt px, py(Punkt auf dem Bildsensor welcher auf der optischen Achse der Ka-<br />

mera liegt)<br />

• <strong>die</strong> Kippung s0 (Der Winkel zwischen den Achsen der Pixel in X und Y Richtung. Dieser<br />

ist durch <strong>die</strong> industrielle Fertigung von CCD oder CMOS Sensoren gleich Null)<br />

• <strong>die</strong> Verzerrungen (radiale und tangentiale)<br />

• ein Pixelfehler (der Fehler zwischen homogenen Pixelkoordinaten)<br />

Diese inneren Parameter lassen sich nach Formel 4.5 bestimmen.<br />

⎛ ⎞<br />

⎛ ⎞ ⎡<br />

⎤ XK<br />

˜x fx s0 px 0 ⎜ ⎟<br />

⎜ ⎟ ⎢<br />

⎥ ⎜YK<br />

⎟<br />

⎝ ˜y ⎠ = ⎣ 0 fy py 0⎦<br />

· ⎜ ⎟<br />

⎜ ⎟<br />

⎝ZK<br />

⎠<br />

˜w 0 0 1 0<br />

1<br />

, xb = ˜x<br />

˜w , yb = ˜y<br />

˜w<br />

(4.5)


4.6. KAMERAPARAMETER 70<br />

Diese Formel wird durch den in Verhältnis 4.6 gezeigten Strahlensatz gebildet, welcher den drei-<br />

dimensionalen Punkt (XK, YK, ZK) T im Kamerakoordinatensystem in den Bildpunkt (xb, yb) T<br />

transformiert:<br />

YK<br />

ZK<br />

XK<br />

ZK<br />

= yb<br />

fk<br />

= xb<br />

fk<br />

Da der Mittelpunkt des Bildkoordinatensystems, der Punkt in welchem <strong>die</strong> optische Achse senk-<br />

recht auf der Bildebene steht, in Pixelkoordinaten nicht bei (0, 0) T liegt, werden in Formel 4.5<br />

<strong>die</strong> Verschiebung des sogenannten Hauptpunktes um px und py eingeführt. Die zwei Brennweiten<br />

fx und fy können durch <strong>die</strong> Kamerabrennweite fk und das Seitenverhältnis des aufgenommenen<br />

Bildes ersetzt werden.<br />

In Abbildung 4.16 ist <strong>die</strong> Kalibrieriung nach [Zha98] <strong>für</strong> eine der beiden Einzelkameras des Ste-<br />

reosystems dargestellt.<br />

Abbildung 4.16: Kamerakalibrierung nach [Zha98] der linken Kamera des <strong>Stereo</strong>systems <strong>für</strong> <strong>die</strong><br />

geringste Brennweite.<br />

Es wurden aus einem Video 12 Bilder extrahiert, auf denen das abgebildete Schachbrettmuster in<br />

verschiedenen Winkeln zu sehen ist. Aus <strong>die</strong>sen ergaben sich <strong>für</strong> <strong>die</strong> Matrix in Formel 4.5:<br />

• fx - 1675.564<br />

• fy - 2435.8177<br />

• s0 - 4.51<br />

• px - 726.42<br />

(4.6)<br />

(4.7)


4.6. KAMERAPARAMETER 71<br />

• py - 620.15<br />

Wenn <strong>die</strong>se Werte interpretiert werden, ist zu erkennen, dass der Hauptpunkt der Kamera nicht ge-<br />

nau in der Mitte des Sensors bei pm(x, y) = p(720, 540), sondern bei pH(x, y) = p ′ (726.42, 620.15)<br />

zu finden ist.<br />

Der Wert <strong>für</strong> s0, <strong>die</strong> Verdrehung der Ordinate gegen <strong>die</strong> Abszisse, berechnet sich zu vier Grad,<br />

was technisch nicht möglich ist, da bei der industriellen Fertigung von Bildsensoren keine solche<br />

Verdrehung auftritt. Diese Fehlberechnung tritt auf, da sich das Verfahren nach [Zha98] iterativ<br />

an <strong>die</strong> korrekten Werte annähert. Im Weiteren kann nicht exakt bestimmt werden, ob das zur Be-<br />

rechnung genutzte Muster in den Bilddaten in ausreichend verschiedenen Positionen abgelichtet<br />

wurde.<br />

Die Brennweiten in X und Y Richtung ergeben ein Seitenverhältnis, welches mit ca. 13 : 9 zwi-<br />

schen dem 16 : 9 und 4 : 3 Format liegt. Dies ist der Fall, da im Breitbildformat 16 : 9 aufgenom-<br />

men wird, allerdings mit einer geringeren Auflösung in horizontaler Richtung als in vertikaler. Da<br />

<strong>die</strong> Kameras Videobilder mit 1440 × 1080 Bildpunkten im 16 : 9 Format speichern, kommt es zu<br />

<strong>die</strong>sem Format.<br />

Die in Abbildung 4.16 dargestellten Werte <strong>für</strong> k0 und k1 können genutzt werden, um Parameter<br />

der radialen und tangentialen Bildverzerrungen, welche durch <strong>die</strong> Linsen im Objektiv entstehen<br />

können, zu berechnen.<br />

4.6.2 Externe Parameter<br />

Zur Kalibrierung der Kamera werden Werte benötigt, von denen sowohl <strong>die</strong> dreidimensionalen als<br />

auch <strong>die</strong> zweidimensionalen Koordinaten bekannt sind. Somit gehört zu einer Kamerakalibrierung<br />

<strong>die</strong> Transformation zwischen dem Kamerakoordinatensystem und dem in Weltkoordinaten befind-<br />

lichen Kalibrierkörper.<br />

Die externen Kameraparamter sind:<br />

• <strong>die</strong> drei Rotationen Rx, Ry, Rz zwischen den Weltkoordinaten und dem Kamerakoordina-<br />

tensystem,<br />

• und <strong>die</strong> drei Translationen Tx, Ty, Tz zur Transformation der Weltkoordinaten in das Kame-<br />

rakoordinatensystem.<br />

In homogenen Koordinaten ist <strong>die</strong> Beziehung zwischen Weltkoordinaten (X, Y, Z) und den Koor-<br />

dinaten im Kamerasystem durch:<br />

⎛ ⎞ ⎛ ⎞ ⎛<br />

XK<br />

˜<br />

X − Xc<br />

⎜<br />

⎝ ˜ ⎟ ⎜ ⎟ ⎜<br />

⎠ = R · ⎝ Y − Yc ⎠ , C = ⎝<br />

Z − Zc<br />

YK<br />

˜<br />

ZK<br />

Xc<br />

Yc<br />

Zc<br />

⎞<br />

⎟<br />

⎠ (4.8)


4.6. KAMERAPARAMETER 72<br />

gegeben. Gleichung 4.5 erweitert sich damit zu:<br />

⎛ ⎞ ⎡<br />

˜x fx<br />

⎜ ⎟ ⎢<br />

⎝ ˜y ⎠ = ⎣ 0<br />

˜w 0<br />

0<br />

fy<br />

0<br />

px<br />

py<br />

1<br />

⎛ ⎞<br />

⎤<br />

X<br />

0<br />

⎜ ⎟<br />

⎥<br />

⎜<br />

0⎦<br />

· R[I − C] ⎜<br />

Y ⎟<br />

⎜<br />

⎝Z<br />

⎟<br />

⎠<br />

0<br />

1<br />

Wobei I <strong>die</strong> 3 × 3 Einheitsmatrix, R ∈ SO3 <strong>die</strong> Rotationsmatrix und C das Zentrum, genauer den<br />

Mittelpunkt des Aufnahmesensors, darstellt.<br />

In Abbildung 4.17 sind alle bei der Abbildung beteiligten Koordinatensysteme dargestellt.<br />

Z<br />

K<br />

C<br />

R,t<br />

X<br />

K<br />

zi<br />

xi<br />

y<br />

b<br />

x b<br />

f<br />

p<br />

Z<br />

Abbildung 4.17: Koordinatensysteme bei der Abbildung nach [Som05]<br />

4.6.3 <strong>Stereo</strong>kalibrierung<br />

Zur Kalibrierung der einzelnen Camcorder der <strong>Stereo</strong>kamera wird das Verfahren von Zhang [Zha98]<br />

verwendet, welches in der „Open Computer Vision Library“ [Int06] als Implementierung zur Ver-<br />

fügung steht. Dabei wird als Kalibriermuster eine Ebene verwendet, welche in mehreren Ori-<br />

entierungen aufgenommen wird. Auf <strong>die</strong>ser Ebene ist ein Schachbrettmuster angebracht, dessen<br />

Kreuzungspunkte detektiert und in eine Reihenfolge gebracht werden, sodaß <strong>die</strong> 3D Koordina-<br />

ten einfach zugewiesen werden können. Für eine genauere Beschreibung des Verfahrens sei auf<br />

[Zha98] verwiesen.<br />

Z<br />

Y<br />

K<br />

X<br />

(4.9)


4.6. KAMERAPARAMETER 73<br />

Abbildung 4.18: Kalibrierungsaufnahme mit Schachbrettmuster einer Einzelkamera des <strong>Stereo</strong>systems.<br />

Bei der Kamerakalibrierung liegt das globale Koordinatensystem <strong>für</strong> jedes aufgenommene Bild in<br />

einer Ecke des Kalibriermusters (Schachbrettmuster). Dies ist <strong>für</strong> den Einsatz bei <strong>Stereo</strong>kameras<br />

ungünstig, da in <strong>die</strong>sem Fall nur <strong>die</strong> Beschreibung der Transformation zwischen den einzelnen<br />

Kamerabildern von Relevanz ist.<br />

Bei dem in [Mü02] verwendeten Verfahren wird deswegen das globale Koordinatensystem so<br />

transformiert, dass es mit dem Kamerakoordinatensystem einer Kamera übereinstimmt. Ist <strong>die</strong>s<br />

der Fall entsprechen <strong>die</strong> externen Parameter der jeweils anderen Kamera der Transformation zwi-<br />

schen beiden Kameras.<br />

Wird <strong>die</strong> linke Kamera als Bezugssystem gewählt ergibt sich <strong>die</strong> Transformation wie in Abbildung<br />

4.19 gezeigt zu:<br />

X ′ = RLX + tL<br />

(4.10)<br />

Das transformierte Koordinatensystem der linken Kamera X ′ berechnet sich durch Rotation RL<br />

und Translation tL aus dem ermittelten globalen Koordinatensystem. Dadurch ergeben sich <strong>für</strong> <strong>die</strong><br />

Kamerakoordinaten:<br />

XL = KL(RLX + tL) (4.11)<br />

= KLX ′<br />

(4.12)


4.6. KAMERAPARAMETER 74<br />

R , t<br />

L0 L0<br />

R , t<br />

L1 L1<br />

R , t<br />

R0 R0<br />

X X<br />

R , t<br />

R1 R1<br />

R , t<br />

L1 L1<br />

R , t<br />

L0 L0<br />

R , t<br />

RL RL<br />

Abbildung 4.19: Transformation des globalen Koordinatensystems in das Koordinatensystem der<br />

linken Kamera (nach [Mü02])<br />

und<br />

XR = KR(RRX + tR) (4.13)<br />

= KR(RRR −1<br />

L (X′ − tl) + tR) (4.14)<br />

= KR(RRR −1<br />

L X′ + tR − RRR −1<br />

L tL) (4.15)<br />

Die daraus ableitbare Rotation und Translation zwischen den Kameras ist:<br />

RRL = RRR −1<br />

L<br />

tRL = tR − RRR −1<br />

L tL<br />

(4.16)<br />

(4.17)<br />

Da sich <strong>die</strong> gemessenen Werte von Bildpaar zu Bildpaar aufgrund der Auflösungseinschränkung 10<br />

leicht unterscheiden, sollten sie aus mehreren Paaren gemittelt werden. Dabei können <strong>die</strong> Trans-<br />

lationsvektoren komponentenweise gemittelt werden. Von Rotationsmatrizen kann kein Mittel ge-<br />

bildet werden, weshalb <strong>die</strong> minimalen Parameter, also <strong>die</strong> Vektoren <strong>für</strong> X−, Y − und Z−Richtung<br />

gemittelt und anschliessend wieder in Matrizenform gebracht werden müssen.<br />

Im einzelnen erfolgt <strong>die</strong> <strong>Stereo</strong>kalibrierung nach [Mü02] in folgenden Schritten:<br />

1. Aufnahme von n <strong>Stereo</strong>bildern<br />

2. Getrennte Kalibrierung der linken und rechten Kamera mit dem Algorithmus nach [Zha98]<br />

3. Bestimmung der Transformation zwischen den einzelnen Kameras der <strong>Stereo</strong>kamera<br />

10 Auflösungseinschränkung bedeutet, dass Aufgrund von Pixelgröße und Anzahl der Pixel keine genauen Messungen<br />

im Bild erfolgen können.


4.6. KAMERAPARAMETER 75<br />

4. Optimierung über alle Parameter der Kalibrierung mit Hilfe <strong>eines</strong> linearen Fehlerminimierungs-<br />

algorithmus aufgrund der Auflösungsbeschränkungen<br />

5. Ausgabe der Kalibrierungsmatrizen der Kamera<br />

4.6.4 Selbstkalibrierung von <strong>Stereo</strong>kameras<br />

Bei der Selbstkalibrierung wird eine Kamera ohne Objektrauminformationen (im vorangestellten<br />

Unterkapitel stellte <strong>die</strong>s das Schachbrett dar) kalibriert. Dazu können werden unter der Annahme,<br />

dass sich es sich bei den zwei Aufnahmen <strong>eines</strong> <strong>Stereo</strong>bildpaares um Bilder handelt, welche mit<br />

identischen Kameras und weiter mit identischen Kameraparametern aufgenommen sind, korre-<br />

spon<strong>die</strong>rende Bildpunkte gesucht und weiterverarbeitet.<br />

Da es sehr kompliziert und umständlich sein kann, korrespon<strong>die</strong>rende Bildpunkte zu finden, ohne<br />

<strong>die</strong>se zu markieren, setzt [AP95] darauf, einen bewegten Punkt in einer <strong>Stereo</strong>szenerie zu erfassen<br />

und <strong>die</strong>sen bei seiner Bewegung durch das <strong>Stereo</strong>bildpaar zu verfolgen. Dadurch können alle ge-<br />

forderten Parameter durch eine Schnittpunktanalyse der Strahlenschnitte generiert werden.<br />

Diese Variante der Kalibrierung ist somit nur <strong>für</strong> Situationen einsetzbar, in denen erfassbare Be-<br />

wegungen ablaufen. Da in <strong>die</strong>ser Arbeit der Konvergenzwinkel bestimmbar und <strong>die</strong> Änderung des<br />

Konvergenzwinkels wärhend der Aufnahme möglich ist wird <strong>die</strong>se Art der Kalibrierung in <strong>die</strong>ser<br />

Diplomarbeit nicht genutzt, da <strong>die</strong> Kalibrierung der Einzelkameras nach [Zha98] sehr rechenin-<br />

tensiv ist. Die Änderung des Konvergenzwinkels bei der Aufnahme von <strong>Stereo</strong>videos kann durch<br />

<strong>die</strong>se Kalibrierung nicht in Echtzeit erfolgen, weswegen <strong>die</strong>se Methode nicht angewendet wurde.


5 Datenverarbeitung<br />

In <strong>die</strong>sem Kapitel wird auf Techniken und Algorithmen der Datenverarbeitung von <strong>Stereo</strong>videos<br />

eingegangen und es werden <strong>die</strong>se erläutert. Es werden Implementationen der notwendigen Trans-<br />

formationen, wie in Kapitel 2.3.1 beschrieben, erläutert und genauer auf <strong>die</strong> Videobearbeitung im<br />

Betriebsystem Windows eingegangen.<br />

Unter Windows existieren aktuell zwei Programmierschnittstellen um Video zu bearbeiten. Diese<br />

sind „Video for Windows“ (VfW) und „DirectShow“ (auch DShow).<br />

Video for Windows ist eine Programmierschnittstelle, welche es erlaubt Videosignale zu ko-<br />

<strong>die</strong>ren und zu deko<strong>die</strong>ren, sowie Daten von Aufnahmegeräten einzulesen [Wik07a]. Diese Schnitt-<br />

stelle wurde Anfang der 90’er Jahre entwickelt und ist somit relativ alt. Sie wird, auch da <strong>die</strong><br />

Anbindung an Aufnahmegeräte immer mehr durch WDM-Treiber geregelt wird, von der neueren<br />

DirectShow API abgelöst. Die VfW-Schnittstelle verfügt über keine Pufferung der Daten und kei-<br />

ner Synchronisation zwischen Audio- und Videodaten, was zu einer ruckelnden Wiedergabe und<br />

Jitter 1 führt.<br />

DirectShow ist eine Schnittstelle über welche Audio und Video Daten Verarbeitet werden kön-<br />

nen. Diese wurde ursprünglich als „ActiveMovie“ und später über „DirectX“ vertrieben, wobei es<br />

sich um eine Sammlung von Schnittstellen handelt, <strong>die</strong> <strong>für</strong> multimediaintensive Anwendungen<br />

entwickelt wurden. Mittlerweile ist DirectShow Bestandteil der „Windows Platform-SDK“ und<br />

verdrängt immer mehr <strong>die</strong> VfW-Schnittstelle.<br />

5.1 DirectShow<br />

DirectShow ersetzt, wie beschrieben, <strong>die</strong> ältere „Video for Windows“ Schnittstelle und basiert auf<br />

dem Component Object Model (COM). Basierend auf Filtern können über <strong>die</strong>se API Me<strong>die</strong>ndaten<br />

verarbeitet werden. Das Pendant von DirectShow <strong>für</strong> MacOS ist Apple’s QuickTime.<br />

Durch auf Filtern basierende Architektur ist es möglich Graphen zu erstellen, bei denen Filter<br />

<strong>die</strong> Position von Transitionen einnehmen. Es kann also ähnlich der Modellierung mit Petrinetzen<br />

1 Jitter (engl. „Fluktuation“ oder „Schwankung“) durch Ungenauigkeiten in der synchronen Abtastung von Signalen<br />

entstehende Schwankung der Signalamplitude.<br />

76


5.1. DIRECTSHOW 77<br />

ein Abarbeitungsworkflow erstellt werden. In Abbildung 5.1 ist solch ein Graph dargestellt, der<br />

eine Me<strong>die</strong>ndatei als Eingabe nutzt. Diese Eingabe, ebenfalls als DirectShow Filter implementiert,<br />

öffnet <strong>die</strong> Datei und übergibt deren Inhalt an den nächstfolgenden Filter.<br />

Abbildung 5.1: Darstellung <strong>eines</strong> DirectShow Filtergraphen im Programm Graphedit.<br />

In <strong>die</strong>sem Beispiel nimmt der „AVI Splitter“ Filter <strong>die</strong> Daten entgegen und trennt den Bildinforma-<br />

tionsstrom vom Audiostrom. Die Bildinformationen werden daraufhin von einem Filter deko<strong>die</strong>rt,<br />

nachfolgend in ein Anaglyphenbild umgewandelt und nach Konvertierung in <strong>die</strong> aktuelle Farbqua-<br />

lität der Windowsoberfläche von einem Render Filter ausgegeben. Der Audiostrom wird ebenfalls<br />

deko<strong>die</strong>rt und an <strong>die</strong> Soundkarte übergeben.<br />

Wie in Abbildung 5.1 zu sehen ist, besitzen Filter sogenannte Pins, welche zur Ein- und Ausgabe<br />

der Daten genutzt werden.<br />

Es existieren grundsätzlich drei Arten von DirectShow Filtern:<br />

1. Quellfilter<br />

2. Verarbeitungsfilter<br />

3. Ausgabefilter<br />

Quellfilter besitzen einen oder mehrere Ausgabepins, aber keinen Eingabepin. Sie werden genutzt,<br />

um Daten von Me<strong>die</strong>nquellen zu beziehen, wie z.B. einer TV-Karte, einer Videodatei, <strong>eines</strong> Stre-<br />

ams über das Internet, oder sie generieren einen Me<strong>die</strong>nstrom, wie z.B. ein Visualisierungsfilter,<br />

welcher Farbsignale generiert.<br />

Verarbeitungsfilter besitzen sowohl Eingabe- wie auch Ausgabepins. Ihre Aufgabe ist es, Daten zu<br />

manipulieren, zu teilen oder zusammenzuführen und <strong>die</strong>se anschließend weiterzugeben.<br />

Ausgabefilter besitzen einen oder mehrere Eingabe- aber keine Ausgabepins, da ihre Hauptaufga-<br />

be darin besteht, Daten an Hardware, wie z.B. <strong>die</strong> Grafikkarte, <strong>die</strong> Soundkarte oder <strong>die</strong> Festplatte<br />

weiterzuleiten.


5.1. DIRECTSHOW 78<br />

Um Filter in einer Anwendung nutzen zu können existiert der „Filtergraph Manager“. Diese Struk-<br />

tur kontrolliert den Datenfluss und fügt, falls benötigt, automatisch passende Filter ein. Dabei<br />

werden installierte Filter anhand ihrer Ein- und Ausgabepins, welche akzeptierte Datentypen spe-<br />

zifizieren, gesucht und eingefügt.<br />

Dieser Filtergraph Manager bietet nach außen hin <strong>die</strong> zwei Interfaces „IMediaControl“ und „IMe-<br />

diaSeeking“, zum Steuern des Me<strong>die</strong>nstroms (Start, Stop, Pause, an Punkt springen, ...).<br />

Die eigentlichen Me<strong>die</strong>ndaten werden dabei durch „IMediaSample“ referenziert, welches einen<br />

Pointer zum Speicherbereich der Me<strong>die</strong>ndaten darstellt und Informationen zu <strong>die</strong>sen Daten ent-<br />

hält. Dieses Sample wird durch den Filtergraphen „gereicht“, was im weiteren bedeutet, dass <strong>die</strong><br />

Daten in ihrem Speicherbereich verbleiben und so ein unnötiges und zeitaufwendiges Kopieren<br />

vermieden werden kann.<br />

Wenn sich zwei Filter, das heisst der Ausgabepin des vorgeschalteten und ein Eingabepin des nach-<br />

geschalteten Filters, verbinden, tauschen <strong>die</strong> Pins der beiden Filter <strong>die</strong> unterstützten Me<strong>die</strong>ntypen<br />

über eine „AM_MEDIA_TYPE“ Struktur aus. Diese Typen sind in Klassen eingeteilt, so zum<br />

Beispiel Video oder Audio. Diese Klassen auch „major media type“ genannt besitzen Unterklas-<br />

sen, <strong>die</strong> „sub media types“ genannt werden, wie z.B. bei der Oberklasse Video, RGB-8, RGB-24,<br />

RGB-32, YVUV. So kann genau spezifiziert werden, welches Ein und Ausgabeformat ein Filter<br />

unterstützt. Das Me<strong>die</strong>ntypenkonstrukt besitzt im Weiteren Informationen über <strong>die</strong> Kompression,<br />

<strong>die</strong> Größe <strong>eines</strong> Me<strong>die</strong>nsamples, den Typ der Me<strong>die</strong>n (z.B. DVINFO oder MPEG2), sowie einen<br />

Zeiger auf den Speicherbereich der Me<strong>die</strong>ndaten.<br />

Wenn eine Verbindung aufgebaut werden soll, listet ein Pin seine bevorzugten Me<strong>die</strong>ntypen auf<br />

und fordert <strong>die</strong> Typen des anderen Pins an. Mit <strong>die</strong>sen Informationen wird versucht eine Verbin-<br />

dung aufzubauen. Dabei können auch Verbindungen aufgebaut werden, <strong>die</strong> nicht auf den bevor-<br />

zugten Me<strong>die</strong>nypen basieren.<br />

In Abbildung 5.2 sind alle am Me<strong>die</strong>ntypenaustausch beteiligten Objekte dargestellt.<br />

Der Datentransport zwischen DirectShow Filtern kann auf zwei verschiedene Arten durchgeführt<br />

werden. Einerseits wird vom „lokalen Speichertransport“ und zum anderen vom „Hardware Trans-<br />

port“ gesprochen.<br />

„Lokaler Speichertransport“ bedeutet, dass der Speicher, in welchem <strong>die</strong> vom Filter genutzten und<br />

benötigten Daten abgelegt werden, sich im Hauptspeicher des Rechners oder im Hauptspeicher<br />

der Grafikkarte befindet.<br />

Von „Hardware Transport“ spricht man, wenn Me<strong>die</strong>ndaten in Speicherbereichen auf diverser<br />

Hardware, wie zum Beispiel einer Fernsehkarte, verbleiben.<br />

Die am häufigsten genutzte Transportvariante ist der Lokale Speichertransport, bei welchem Spei-<br />

cheradressen über <strong>die</strong> Pins (Anschlüsse) verschiedener Filter übergeben werden. In <strong>die</strong>sem Sinne<br />

spricht man von dem „Push-Modell“, wenn Zeiger auf Speicherbereiche weitergereicht werden<br />

und von dem „Pull-Modell“, wenn der Empfänger-Filter <strong>die</strong>se anfordert. Der Speicherbereich, in<br />

welchem <strong>die</strong> sogenannten „Media Sample’s“ liegen, wird vom Ausgabepin des im Graph vorher<br />

liegenden Filters alloziert.


5.1. DIRECTSHOW 79<br />

Filter A Outpit Pin Input Pin Filter B<br />

IMediaSample<br />

GetMediaType()<br />

GetPointer()<br />

GetSitze()<br />

(...)<br />

BYTE** ppBuffer<br />

Me<strong>die</strong>n Daten<br />

(Bild/Audio Samples)<br />

0100101000110010<br />

0101011101001001<br />

1010011110100111<br />

Memory Allocator<br />

(Speicherverwaltung)<br />

Media Sample<br />

(IMediaSample)<br />

Media Sample<br />

(IMediaSample)<br />

Memory Buffer Memory Buffer<br />

AM_MEDIA_TYPE Struktur<br />

GUID majortype;<br />

GUID subtype;<br />

BOOL bFixedSizeSamples;<br />

BOOL bTemporalCompression;<br />

ULONG ISampleSitze;<br />

GUID Formattype;<br />

ULONG cbFormat;<br />

BYTE pbFormat;<br />

VIDEOINFOHEADER Struktur<br />

BITMAPINFOHEADER bmiHeader;<br />

BITMAPINFOHEADER Struktur<br />

LONG biWidth;<br />

LONG biHeight;<br />

DWORD biCompression;<br />

(...)<br />

oder<br />

WAVEFORMATEX Struktur<br />

WORD wFormatTag;<br />

WORD mChannels;<br />

WORD wBitsPerSample;<br />

(...)<br />

MEDIATYPE_Audio<br />

MEDIATYPE_Video<br />

MEDIATYPE_Midi<br />

MEDIATYPE_Text<br />

...<br />

GUID_NULL<br />

MEDIASUBTYPE_IJPG<br />

MEDIASUBTYPE_QTMovie<br />

MEDIASUBTYPE_RGB555<br />

...<br />

GUID_NULL<br />

MEDIASUBTYPE_PCM<br />

MEDIASUBTYPE_MPEG2_AUDIO<br />

MEDIASUBTYPE_DOLBY_AC3<br />

...<br />

GUID_NULL<br />

GUID_NULL<br />

Abbildung 5.2: Darstellung der Speicherverwaltung und Me<strong>die</strong>ntypenvermittlung nach [Lüd05]<br />

5.1.1 Genutztes Videoformat<br />

Voraussetzung einer Wiedergabe stereoskopischer Bildinhalte ist immer das Vorhandensein von<br />

der linken und rechten Ansicht <strong>eines</strong> Objektes. In der Datenverarbeitung werden demzufolge Me-<br />

<strong>die</strong>ndaten benötigt, welche <strong>die</strong>se beiden Ansichten enthalten oder separate Me<strong>die</strong>ndateien, welche<br />

in Referenz stehen, um ein Raumbild zu erzeugen.<br />

Grundlage sollte ein Format sein welches den Zugriff auf beide Ansichten des <strong>Stereo</strong>bildpaares<br />

ermöglicht und gut zu verarbeiten ist. Durch <strong>die</strong>sen Fakt ist das Anaglyphenformat absolut unge-<br />

eignet. Anaglyphen beinhalten zwar beide Ansichten aber ein nachträglicher Zugriff auf <strong>die</strong> linke<br />

oder <strong>die</strong> rechte Ansicht des Raumbildes ist nicht voll möglich. Weitergehend kann ein Anaglyphen<br />

Format nur schlecht komprimiert werden, da <strong>die</strong> meisten Codecs eine Farbraumreduzierung durch-<br />

führen welche den Raumeindruck im Anaglyphenbild vermindern oder gar ganz zerstören können.<br />

Der Einsatz separater Me<strong>die</strong>ndateien ist <strong>für</strong> <strong>die</strong> direkte Wiedergabe geeignet, da <strong>die</strong>se unmittelbar<br />

von den genutzten Kameras (vgl. Kapitel 4.2) bezogen und den Projektoren zugeführt werden kön-<br />

nen. Bei einer verarbeitenden Instanz zwischen Me<strong>die</strong>nströmen und Projektoren ist Mehraufwand<br />

erforderlich, um mehrere separate Daten zu verwalten.


5.1. DIRECTSHOW 80<br />

Wie in Kapitel 5.3 beschrieben ist ein <strong>Stereo</strong>videoformat, welches <strong>die</strong> rechte und <strong>die</strong> linke Ansicht<br />

in einem Datenstrom vereint, gut geeignet falls eine Nachbearbeitung gewünscht ist. Für <strong>die</strong>ses<br />

Format sind verschiedene Anordnungen der Ansichten denkbar, wie zum Beispiel ein „übereinan-<br />

der“ Format, bei welchem linke und rechte Ansicht übereinander in einer Video Datei gespeichert<br />

sind. Oder ein „Side-by-Side“ Format bei welchem linke und rechte Ansicht nebeneinander ange-<br />

ordnet sind. In <strong>die</strong>sem Format kann, wenn <strong>die</strong> linke Ansicht, rechts und <strong>die</strong> rechte Ansicht links<br />

gespeichert wird, das Format im Kreuzblick betrachtet werden. Ist <strong>die</strong> Anordnung andersherum,<br />

also linkes Video links und rechtes Video rechts kann das <strong>Stereo</strong>bildpaar im Parallelblick betrach-<br />

tet werden.<br />

Desweiteren können bei Ursprungsvideos im interlaced Format <strong>die</strong>se in ein progressives Format<br />

(„doppeltes Interlaced“) gebracht werden, in welchem z.B. gerade Zeilen das linke Bild und unge-<br />

rade Zeilen das rechte Bild enthalten. Diese Variante ist besonders <strong>für</strong> das Betrachten der Raum-<br />

bilder mit einer Shutterbrille (vgl. Kapitel 2.3.5.5) geeignet. Dabei wird der Zeilensprung <strong>eines</strong><br />

Röhrenfernsehers genutzt, bei dem funktionsbedingt <strong>die</strong> Halbbilder nacheinander gezeigt werden.<br />

Der Nachteil des Interlacedverfahren besteht im weiteren in der Komprimierung des Formates, da<br />

nur verlustfreie Codecs oder Kompressionsverfahren, <strong>die</strong> gerade und ungerade Bildzeilen trennen,<br />

zur Anwendung kommen dürfen.<br />

In den in <strong>die</strong>ser Arbeit geschaffenen Implementierungen wurde ein „Side-by-Side Format“, zu<br />

sehen in Abbildung 5.3, genutzt, welches zum einen leichter und schneller zu verarbeiten ist als<br />

das Interlaced Format und zum anderen <strong>die</strong> volle Auflösung der Videos ermöglicht.<br />

Abbildung 5.3: Darstellung des „Side-by-Side Formates“.<br />

Bei <strong>die</strong>sem Format sind das linke und rechte Videobild in einer Me<strong>die</strong>ndatei mit doppelter hori-<br />

zontaler Breite gespeichert. Dies ermöglicht <strong>die</strong> Ver- und Bearbeitung einer <strong>Stereo</strong>videosequenz,<br />

analog <strong>eines</strong> monoskopischen Videos.<br />

Weiter ist <strong>die</strong>ses Format auch ohne Raumbildtechnik betrachtbar, da es im Gegensatz zum Zei-<br />

lenweise verschachtelten „doppelten Interlaced“-Video möglich ist, durch Skalierung jeweils das<br />

linke oder rechte Videobild einzeln darzustellen.


5.1. DIRECTSHOW 81<br />

5.1.2 Rektifikation<br />

Die Rektifikation des Tiefenbildes geschieht nach den in Kapitel 2.3.1 genannten Formeln. Dabei<br />

wird durch Nutzung des Aufnahmewinkels der Kameras das Original einer Trapezverzerrung un-<br />

terzogen. Die Berechnungsvorschrift <strong>für</strong> Pixel des linken berichtigten Bildes ergeben sich durch<br />

<strong>die</strong> Formeln 2.30 und 2.31aus Kapitel 2.3.1.2 welche zur Übersicht nocheinmal dargestellt sind.<br />

XS ′ l =<br />

YS ′ l =<br />

und <strong>die</strong> des rechten Bildes durch:<br />

Dabei sind<br />

XS ′ r =<br />

YS ′ r =<br />

2·fK<br />

1<br />

cosϖ( cos(ϖ+γ) +<br />

1<br />

cos(ϖ−γ) )<br />

fK · cosγ + XSl · sinγ<br />

2·fK<br />

1<br />

cosϖ( cos(ϖ+γ) +<br />

1<br />

cos(ϖ−γ)<br />

· XSl<br />

(5.1)<br />

· cosγ<br />

)<br />

· YSl<br />

fK · cosγ + XSl · sinγ<br />

2·fK<br />

1<br />

cosϖ( cos(ϖ+γ) +<br />

1<br />

cos(ϖ−γ) )<br />

· XSr<br />

(5.3)<br />

fK · cosγ − XSr · sinγ<br />

2·fK<br />

1<br />

cosϖ( cos(ϖ+γ) +<br />

1<br />

cos(ϖ−γ)<br />

· cosγ<br />

)<br />

· YSr<br />

fK · cosγ − XSr · sinγ<br />

• XS ′ l und YS ′ l, <strong>die</strong> Koordinaten des zu projizierenden Bildes<br />

• XSl und YSr, <strong>die</strong> Koordinaten des aufgenommenen Bildes<br />

• fK, <strong>die</strong> Brennweite der Kameras<br />

• ϖ, der Öffnungswinkel der Kameras<br />

• γ, der Konvergenzwinkel der Kameras<br />

Der Unterschied zwischen den Formeln 5.1 und 5.3 liegt in der Drehrichtung der Bilder begründet.<br />

Zur Entzerrung konvergent aufgenommener <strong>Stereo</strong>bilder muss das linke Bild gegen den Uhrzei-<br />

gersinn und das rechte Bild im Uhrzeigersinn gedreht werden. Wie zu sehen ist, handelt es sich bei<br />

<strong>die</strong>ser Transformation um eine Funktion, welche eine lineare Komplexität besitzt, wodurch <strong>die</strong>se<br />

zur Laufzeit der Software durchgeführt werden kann.<br />

In Abbildung 5.4 (oben) ist eine rektifizierte Szenerie zu sehen, welche mit 12 Grad Konvergenz<br />

aufgenommen wurde. Der Konvergenzpunkt liegt auf der Pflanze. In Abbildung 5.4 (unten), ist<br />

<strong>die</strong> gleiche Szenerie ohne Berichtigung dargestellt.<br />

Der Einsatz des entwickelten Transformationsfilters ist in Abbildung 5.5 bei der Nutzung mit dem<br />

Programm „Graphedit“ dargstellt.<br />

Es wird ein <strong>Stereo</strong>video im Side-by-Side Format durch den ersten Filter geöffnet und nach dem<br />

Trennen der Audiokanäle vom Videostrom und der Dekoprimierung der Daten an den ZRektFilter<br />

(5.2)<br />

(5.4)


5.1. DIRECTSHOW 82<br />

Abbildung 5.4: Berichtigte (oben) und originale Szenerie (unten) einer konvergenten Aufnahme<br />

mit 12 Grad Konvergenzwinkel in Anaglyphentechnik (Rot-Grün)<br />

übergeben. Dieser wendet <strong>die</strong> oben beschriebene Transformation mit Hilfe der im Eigenschaften-<br />

dialog angegebenen Parameter an und übergibt das Resultat an einen Videoausgabefilter.


5.1. DIRECTSHOW 83<br />

Abbildung 5.5: Darstellung des Filtergraphen bei Verwendung des Rektifizierungsfilters.<br />

5.1.3 Transformation in das <strong>Stereo</strong>videoformat<br />

Um ein <strong>Stereo</strong>video von Webkameras oder den Videodaten der Kameras im Side-by-Side Format<br />

zu erzeugen, ist ein DirectShow Filter notwendig, welcher über zwei Eingabe- und einen Aus-<br />

gabepin verfügt. Diesem werden über <strong>die</strong> Eingabepins <strong>die</strong> Me<strong>die</strong>ndaten der rechten und linken<br />

Videoquelle übergeben, <strong>die</strong> anschließend in das gewünschte Format geschrieben werden.<br />

In Abbildung 5.6 ist <strong>die</strong>ser Vorgang anhand des Filtergraphen dargstellt.<br />

Abbildung 5.6: Darstellung des Filtergraphen bei Verwendung <strong>eines</strong> dualen Eingabefilters.<br />

Hierbei werden <strong>die</strong> linke und rechte Datei von Directshow-Filtern geöffnet und nach der Tren-<br />

nung von Audio- und Videostrom und Dekomprimierung der Videodaten dem dualen Eingabe-


5.1. DIRECTSHOW 84<br />

filter übergeben. Dieser erzeugt <strong>die</strong> Ausgabe von einem Videobild, in dem <strong>die</strong> Eingabedaten im<br />

<strong>Stereo</strong>videoformat vereint sind. Dieses kann nachfolgend weiterverarbeitet, gespeichert oder wie-<br />

dergegeben werden.<br />

5.1.4 Anaglyphe Wiedergabe<br />

Für <strong>die</strong> Wiedergabe von anaglyphen Bildern wurde ein Filter entwickelt, welcher ein <strong>Stereo</strong>video<br />

im Side-by-Side Format (linkes Videobild links, rechtes Videobild rechts) als Eingabe akzeptiert<br />

und ein Anaglyphbild ausgibt.<br />

Dieser Filter ermöglicht es über den in Abbildung 5.7 gezeigten Dialog:<br />

• in Rot-Cyan,<br />

– echte-,<br />

– graue- und<br />

– farbige Anaglyphen darzustellen,<br />

• in Rot-Blau ebenfalls,<br />

– echte Anaglyphen,<br />

• sowie in Blau-Gelb<br />

– echte Anaglyphen darzustellen.<br />

Abbildung 5.7: Darstellung des Filtergraphen zur Nutzung des Anaglyph Transform Filters und<br />

dessen Einstellungsdialog.


5.1. DIRECTSHOW 85<br />

Der Anaglyphtransformationsfilter erwartet als Eingabe ein <strong>Stereo</strong>video im „Side-by-Side For-<br />

mat“ und erzeugt ein anaglyphes Ausgabebild je nach Einstellung im Eigenschaftendialog des<br />

Filters.<br />

Dabei wurden <strong>die</strong> erzeugten Daten nach folgenden Formeln berechnet:<br />

5.1.4.1 Echte Rot-Blau und Rot-Cyan Anaglyphen<br />

Für eine Konvertierung der Echtfarbenvideobilder in Graustufenbilder wird aufgrund der unter-<br />

schiedlichen Empfindlichkeit der Augen auf <strong>die</strong> Grundfarben <strong>die</strong> folgende Berechnung nach [Bar07]<br />

genutzt:<br />

Y = 0, 2990 · R + 0, 5870 · G + 0, 1140 · B (5.5)<br />

Hier ist Y <strong>die</strong> Luminanz (Helligkeitswert) und R,G,B <strong>die</strong> Farbwerte des Echtfarbenbildes. Diese<br />

Berechnung entspricht der ITU-R 2 Empfehlung 601, welche Standards zur Berechnung von Hel-<br />

ligkeitswerten spezifiziert. Es existieren des weiteren <strong>die</strong> SMPTE 3 240 M Empfehlung, dargestellt<br />

in Formel 5.6, und <strong>die</strong> ITU-R Empfehlung 709, <strong>die</strong> in Formel 5.7 dargestellt wird.<br />

Y = 0, 2120 · R + 0, 7010 · G + 0, 0870 · B (5.6)<br />

Y = 0, 2125 · R + 0, 7145 · G + 0, 0721 · B (5.7)<br />

Da echte Anaglyphen keine Farben enthalten, werden sie durch <strong>die</strong>se Berechnung in Graustu-<br />

fenbilder umgewandelt und zusammengefügt. Somit ergibt sich <strong>für</strong> Anaglyphen in Rot-Blau-<br />

Ko<strong>die</strong>rung unter Nutzung von Formel 5.5:<br />

⎛<br />

⎜<br />

⎝<br />

ra<br />

ga<br />

ba<br />

⎞ ⎛<br />

⎞ ⎛<br />

0, 299 0, 587 0, 114<br />

⎟ ⎜<br />

⎟ ⎜<br />

⎠ = ⎝ 0 0 0 ⎠ · ⎝<br />

0 0 0<br />

r1<br />

g1<br />

b1<br />

⎞<br />

⎛<br />

⎟ ⎜<br />

⎠ + ⎝<br />

0 0 0<br />

0 0 0<br />

0, 299 0, 587 0, 114<br />

⎞<br />

⎛<br />

⎟ ⎜<br />

⎠ · ⎝<br />

Wobei <strong>die</strong> Indizes a <strong>für</strong> Anaglyph stehen, 1 und 2 <strong>für</strong> das Linke und Rechte Ausgangsbild.<br />

r2<br />

g2<br />

b2<br />

⎞<br />

⎟<br />

⎠ (5.8)<br />

Zur Erstellung von echten Rot-Cyan-Anaglyphen wird eine ähnliche Formel genutzt, welche nach<br />

gleichem Prinzip arbeitet:<br />

⎛ ⎞ ⎛<br />

ra 0, 299<br />

⎜ ⎟ ⎜<br />

⎝ ⎠ = ⎝ 0<br />

0, 587<br />

0<br />

⎞ ⎛<br />

0, 114<br />

⎟ ⎜<br />

0 ⎠ · ⎝<br />

ga<br />

ba<br />

0 0 0<br />

r1<br />

g1<br />

b1<br />

⎞ ⎛<br />

⎞ ⎛<br />

0 0 0<br />

⎟ ⎜<br />

⎟ ⎜<br />

⎠ + ⎝0,<br />

299 0, 587 0, 114⎠<br />

· ⎝<br />

0 0 0<br />

r2<br />

g2<br />

b2<br />

⎞<br />

⎟<br />

⎠ (5.9)<br />

2 Die „International Telecommunikation Union - Radiocommunication“ (Internationale Fernmeldeunion) ist eine Unterorganisation<br />

der Vereinten Nationen und <strong>die</strong> einzige Organisation, <strong>die</strong> sich offiziell und weltweit mit technischen<br />

Aspekten der Telekommunikation beschäftigt.<br />

3 Die „Society of Motion Picture and Television Engineers“ ist ein internationaler Verband aus dem Bereich der professionellen<br />

Film- und vor allem Videotechnik in welchem fast alle Herstellerfirmen aus dem Bereich der Videotechnik<br />

Mitglied sind.


5.1. DIRECTSHOW 86<br />

5.1.4.2 Graustufen Anaglyphen<br />

Abbildung 5.8: Echtes Rot-Cyan Anaglyphenbild<br />

Graustufen Anaglyphen erleichtern <strong>die</strong> Betrachtung, da alle Farben verwendet werden und das<br />

Anaglyphenbild dadurch heller erscheint. Nach Formel 5.5 ergibt sich:<br />

⎛<br />

⎜<br />

⎝<br />

ra<br />

ga<br />

ba<br />

⎞ ⎛<br />

⎞ ⎛<br />

0, 299 0, 587 0, 114<br />

⎟ ⎜<br />

⎟ ⎜<br />

⎠ = ⎝ 0 0 0 ⎠ · ⎝<br />

0 0 0<br />

r1<br />

g1<br />

b1<br />

⎞ ⎛<br />

⎞ ⎛<br />

0 0 0<br />

⎟ ⎜<br />

⎟ ⎜<br />

⎠ + ⎝0,<br />

299 0, 587 0, 114⎠<br />

· ⎝<br />

0, 299 0, 587 0, 114<br />

r2<br />

g2<br />

b2<br />

⎞<br />

⎟<br />

⎠ (5.10)<br />

Durch <strong>die</strong>se Berechnung steigt allerdings auch der Anteil an Geisterbildern, da keine 100% Ka-<br />

naltrennung erfolgt.<br />

5.1.4.3 Farbige Anaglyphen<br />

Farbige Anaglyphen erlauben eine Wiedergabe, <strong>die</strong> nicht in Echtfarben aber mit geringfügig rea-<br />

lerer Wirkung als Echte-Anaglyphenbilder wirkt. Da<strong>für</strong> können <strong>die</strong> jeweiligen Farbanteile direkt<br />

zusammengeführt werden. Hier tritt der oben beschriebenen Effekt auf, dass durch <strong>die</strong> unterschied-<br />

liche Sensitivität des Auges <strong>für</strong> Grundfarben <strong>die</strong>se bei Betrachtung <strong>eines</strong> Anaglyphenbildes nicht<br />

korrekt aufgenommen werden können. Im speziellen werden rote Farbtöne nur gering wahrge-<br />

nommen, weswegen es sich anbietet den Rotanteil <strong>eines</strong> Bildes, aus dem Blau- und Grünanteil zu<br />

ermitteln. Dabei werden <strong>die</strong> Farbwerte ad<strong>die</strong>rt und das geometrische Mittel gebildet. Somit ergibt<br />

sich:


5.1. DIRECTSHOW 87<br />

⎛<br />

⎜<br />

⎝<br />

ra<br />

ga<br />

ba<br />

Abbildung 5.9: Graues Anaglyphen Bild.<br />

⎞ ⎛<br />

⎞ ⎛<br />

0 0, 831 0, 161<br />

⎟ ⎜<br />

⎟ ⎜<br />

⎠ = ⎝0<br />

0 0 ⎠ · ⎝<br />

0 0 0<br />

r1<br />

g1<br />

b1<br />

⎞ ⎛ ⎞ ⎛<br />

0 0 0<br />

⎟ ⎜ ⎟ ⎜<br />

⎠ + ⎝0<br />

1 0⎠<br />

· ⎝<br />

0 0 1<br />

Abbildung 5.10: Farbiges Anaglyphen Bild.<br />

r2<br />

g2<br />

b2<br />

⎞<br />

⎟<br />

⎠ (5.11)


5.1. DIRECTSHOW 88<br />

5.1.5 Zweibildschirm Wiedergabe<br />

Bei der Zweibildschirm Wiedergabe muss unterschieden werden unter den in Kapitel 2.3.5 darge-<br />

stellten Methoden, zwischen:<br />

• Headmounted Displays und<br />

• der Polarisationstechnik.<br />

Die Unterschiede finden sich in der technischen Realisierung. So sollte z.B. beim Einsatz von<br />

zwei Projektoren welche ein linkes und ein rechtes Bild „übereinander“ projizieren eine Korrektur<br />

des in Kapitel 2.3.6 beschriebenen Randlichtabfalls erfolgen. Dies kann beim Einsatz von Head<br />

Mounted Display (HMD) vernachlässigt werden, da hier <strong>die</strong> beiden Diplays nur wenig bis gar<br />

keinen Randlichtabfall erzeugen.<br />

Allgemein müssen bei der Zweibildschirmausgabe und einer konvergenten Aufnahme, <strong>die</strong> Bilder<br />

rektifiziert werden und anschließend an <strong>die</strong> Grafikkarte übergeben werden. Hierbei ist es notwen-<br />

dig, dass eine Grafikkarte mit mehreren Ausgängen oder zwei Grafikkarten im Rechnersystem<br />

vorhanden sind. Dabei wird das linke Bild im Vollbildmodus auf dem linken Projektor ausgege-<br />

ben und das rechte Bild auf dem rechten.<br />

Unter Nutzung von DirektShow wurde ein Renderingfilter implementiert, welcher als Eingabe<br />

ein <strong>Stereo</strong>video im Side-by-Side Format akzeptiert und <strong>die</strong>ses so aufbearbeitet, dass <strong>die</strong> oben<br />

beschriebene Vorraussetzungen erfüllt sind. Um <strong>die</strong>sen „Z<strong>Stereo</strong>Renderer“ genannten Filter zu<br />

nutzen muss der Treiber der Grafikkarte auf „Horizontal Span“ gestellt werden, sodaß auf beiden<br />

Projektoren oder Bildschirmen ein gemeinsamer Abreitsplatz eingerichtet ist. Die Verwendung des<br />

<strong>Stereo</strong>renderer-Filters ist in Abbildung 5.11 dargestellt. Hier ist zu sehen, wie der Transformations-<br />

zusammen mit dem Wiedergabefilter arbeitet.<br />

Abbildung 5.11: Darstellung <strong>eines</strong> Filtergraphen bei Verwendung des <strong>Stereo</strong>wiedergabefilters


5.2. GPS-DATEN 89<br />

5.1.6 Wiedergabe über den NVIDIA TM 3D <strong>Stereo</strong> Treiber<br />

Eine weitere Möglichkeit der Wiedergabe stereoskopischer Bildinhalte, <strong>die</strong> mit sehr hoher Ge-<br />

schwindigkeit genutzt werden kann, ist <strong>die</strong> einzelnen Ansichten <strong>eines</strong> Raumbildes direkt über <strong>die</strong><br />

Grafikkarte darzustellen. Dabei liegt der Vorteil darin, dass Berechnungen nicht auf dem Haupt-<br />

prozessor (CPU) sondern auf dem Grafikprozessor (GPU) durchgeführt werden und somit <strong>die</strong> Ka-<br />

pazitäten des Computers besser verteilt werden. Zu <strong>die</strong>sem Zweck existiert von NVIDIA TM ein<br />

Treiberaufsatz, welcher <strong>für</strong> Direct3D R○ oder OpenGL R○ basierte Grafiken Raumbilder erzeugen<br />

kann. Für <strong>die</strong> Installation, Be<strong>die</strong>nung und Einstellung <strong>die</strong>ses Treibers sei auf [NVI01] verwiesen.<br />

Die Kompatibilität <strong>die</strong>ses Treiberaufsatzes ist auf einige wenige NVIDIA TM Grafikkarten be-<br />

schränkt, weshalb bei der Implementation auf <strong>die</strong>sen verzichtet wurde.<br />

5.2 Gps-Daten<br />

GPS-Daten werden von dem in Kapitel 4.5 beschriebenen Aufbau in einen Audiokanal ko<strong>die</strong>rt<br />

und per Software wieder deko<strong>die</strong>rt. Diese Daten sind im NMEA Format, welches im Folgenden<br />

kurz erläutert wird, gespeichert.<br />

Eine Sequenz der Daten im NMEA-Format hat folgenden Aufbau:<br />

$GPRMC,hhmmss.ss,A,llll.ll,a,yyyyy.yy,a,x.x,x.x,ddmmyy,x.x,E,a*hh<br />

1. = Uhrzeit der Positionsbestimmung (hhmmss.ss),<br />

2. = Empfängerwarnung (A = Daten OK, V = Warnung),<br />

3. = Breitengrad (llll.ll),<br />

4. = Nördlich oder Südlich (a),<br />

5. = Längengrad (yyyyy.yy),<br />

6. = Östlicher oder Westlicher Breitengrad (a),<br />

7. = Geschwindigkeit über Grund (Knoten x.x),<br />

8. = wahrer Kurs (ohne Bewegung 0 x.x),<br />

9. = Datum (ddmmyy),<br />

10. = magnetische Deklination in Grad (x.x),<br />

11. = Ost oder West (E),<br />

12. = Modus (a,d,e,n,s) *<br />

13. = Prüfsumme (hh)


5.3. NACHBEARBEITUNG VON STEREOVIDEOS 90<br />

Um <strong>die</strong>ses Format aus dem Audiokanal der Kamera wieder zu extrahieren wird <strong>die</strong>, auf der <strong>die</strong>ser<br />

Arbeit beiliegenden CD enthalte Software „Flexnet32-soundmodem“ genutzt. Diese freie Softwa-<br />

re emuliert ein 4800 Baud Modem über <strong>die</strong> Soundkarte des Computers. Dabei werden <strong>die</strong> Ge-<br />

räusche, welche durch „Tiny-Trak 3 Plus“ (siehe Kapitel 4.5) in einen Audiokanal ko<strong>die</strong>rt wurden<br />

durch <strong>die</strong> Soundkarte abgespielt und von dem „emulierten Modem“ deko<strong>die</strong>rt. In Abbildung 5.12<br />

ist <strong>die</strong> Oberfläche <strong>die</strong>ser Software beim Deko<strong>die</strong>ren gezeigt.<br />

Abbildung 5.12: Screenshot der Anwendung Flexnet-Soundmodem<br />

Hier sind im oberen Teil der Anwendung <strong>die</strong> empfangenen Global Positioning Daten dargestellt<br />

sowie allgemeine statistische Metadaten. Diese ermöglichen es Probleme, <strong>die</strong> beispielsweise bei<br />

der Zwischenkomprimierung aufgetreten sind zu erkennen. In solch einem „Fehlerfall“ werden<br />

erkennbare Bitmuster gebildet welche im unteren Teil der Anwendung zu sehen sind. Wenn bei-<br />

spielsweise <strong>die</strong> Aufnahmelautstärke zu gering war, werden keine Daten deko<strong>die</strong>rt und nur Nullen<br />

dargestellt.<br />

5.3 Nachbearbeitung von <strong>Stereo</strong>videos<br />

Da sich gezeigt hat, dass <strong>die</strong> Nachbearbeitung von <strong>Stereo</strong>videos im Gegensatz zur Bearbeitung<br />

„einfacher“ Videodaten sehr komplex ist, wird hier eine Vorgehensweise beschrieben, <strong>die</strong> den<br />

Aufwand so gering als möglich gestalten soll.<br />

Als erstes sollten <strong>die</strong> zwei Videostöme in ein Side-by-Side, oder übereinander Format gebracht<br />

werden. Damit ist sichergestellt, dass später durch weiteres Bearbeiten kein Höhenversatz oder<br />

Änderungen der Deviation auftreten können. Desweiteren reduzieren sich Probleme beim Schnitt<br />

der Videodaten, da nicht zwei, sondern lediglich eine Datei geschnitten wird. Diese Vorgehens-<br />

weise hat sich auch bei längeren und damit größeren Videos bewährt, da der zusätzliche Zeitauf-


5.3. NACHBEARBEITUNG VON STEREOVIDEOS 91<br />

wand durch Verarbeiten <strong>eines</strong> Videoformates mit doppelter Breite oder Höhe, geringer als bei, der<br />

Editierung zweier Videos ist. Zudem ist in jedem Verarbeitungsschritt eine Kontrolle des stereo-<br />

skopischen Effektes möglich.<br />

Ein zweiter Vorteil <strong>die</strong>ser Herangehensweise ist, dass alle virtuellen Größen im Vorfeld fixiert<br />

werden. Im Allgemeinen kann im Vorfeld, selbst bei sehr großem Vertrauen in <strong>die</strong> Halterung und<br />

<strong>die</strong> Fernbe<strong>die</strong>nung der Kameras nicht vorhergesehen werden, ob und wie groß <strong>die</strong> Justierungspa-<br />

rameter der Einzelvideos bezogen auf Höhenversatz und Deviation im <strong>Stereo</strong>video sind.<br />

5.3.1 Einblenden von Titeln<br />

Beim Einblenden von Titeln muss darauf geachtet werden, dass <strong>die</strong>se nicht ungewollt von vir-<br />

tuellen Objekten durchstoßen werden. Deswegen ist <strong>für</strong> einfache Titel eine Platzierung vor weit<br />

entfernten, unbewegten Objekten am sinnvollsten.<br />

Titel werden durch Erstellen von Bilddaten erzeugt, <strong>die</strong> über alpha-Werte oder Bluescreen Techni-<br />

ken über Einzelbilder des Videos gelegt werden. Dabei sollte das Titelbild <strong>die</strong> gleiche Auflösung<br />

und Größe des <strong>Stereo</strong>videos besitzen, um Fehler bei der Justierung zu vermeiden. Wenn virtuelle<br />

Tiefe im Titel erwünscht ist, wird empfohlen, <strong>die</strong>s mit Renderingprogrammen wie z.B. „3D Studio<br />

Max“, „Maya“, „Blender“ oder „POV-ray“ zu realisieren und durch Videobearbeitungssoftware zu<br />

bearbeiten.<br />

5.3.2 Anwenden von Blend-Effekten<br />

In vielen Situationen beim Schnitt von Videodaten ist es erwünscht, Szenenübergänge durch den<br />

Einsatz von Blenden zu realisieren. Dabei ist zu beachten, dass ein <strong>Stereo</strong>video vom Schnittpro-<br />

gramm als „normales Video“ behandelt wird. Das bedeutet bei Blendeffekten, welche rechts oder<br />

linksseitiges „fahren“ oder „schieben“ realisieren, können leicht Fehler im Raumbild erzeugt wer-<br />

den.<br />

Keine Fehler treten bei der Nutzung von diffusen Blenden oder je nach <strong>Stereo</strong>format genutzte<br />

Überblendeffekte, welche senkrecht zur Anordnung der Bilder im <strong>Stereo</strong>video eingesetzt werden,<br />

auf. Im weiteren bedeutet <strong>die</strong>s, dass ein Überblenden von links oder rechts bei einem <strong>Stereo</strong>video<br />

im übereinander Format eingesetzt werden kann, jedoch im nebeneinander Format (Side-by-Side)<br />

einen <strong>für</strong> den Betrachter unangenehmen Effekt erzielt.<br />

5.3.3 Überlagern von <strong>Stereo</strong>video mit Videoinhalten<br />

Prinzipiell kann in einem <strong>Stereo</strong>video genauso verfahren werden, wie in monoskopischem Video.<br />

Bluescreen Elemente können genutzt werden genauso wie Alphablenden. Es ist darauf zu achten,<br />

das nachträglich eingefügte Elemente <strong>die</strong> Grundregeln der <strong>Stereo</strong>skopie, wie z.B. <strong>die</strong> 70 Minuten<br />

Regel (Kapitel 2.2.2) nicht verletzen oder Höhenversatz erzeugen. Veränderungen der virtuellen<br />

Tiefe, der <strong>Stereo</strong>basis oder anderen filmerischen Techniken ist keine Beschränkung gesetzt.<br />

Zur Realisierung beispielsweise einer Bluescreen Einblendung wird ebenfalls empfohlen, den


5.3. NACHBEARBEITUNG VON STEREOVIDEOS 92<br />

Abbildung 5.13: Ko<strong>die</strong>rung von mehreren Ansichten <strong>eines</strong> Bildes durch eine Tiefenkarte aus<br />

[Gir01], a) Erzeugung der Tiefenkarte b) Berechnung einer Ansicht durch eine<br />

Tiefenkarte<br />

Inhalt nicht in <strong>die</strong> einzelnen Videoströme <strong>für</strong> das linke und rechte Bild einzufügen, sondern<br />

hier <strong>Stereo</strong>video- in <strong>Stereo</strong>video einzufügen. Die dadurch verlängerte Bearbeitungszeit durch den<br />

Schnittplatz steht in geringerem Kontrast als <strong>die</strong> Ausrichtung der Einzelvideos, da deren nachträg-<br />

liche Ausrichtung im <strong>Stereo</strong>format nicht exakt vorhergesehen werden kann.<br />

5.3.4 Kompression von <strong>Stereo</strong>video<br />

<strong>Stereo</strong>skopische Videos können in separaten Me<strong>die</strong>ndateien, im Side-by-Side oder übereinander<br />

Format mit jedem beliebigen Videocodec komprimiert werden. Ein <strong>für</strong> <strong>Stereo</strong>bildpaare optimier-<br />

ter frei zugänglicher Codec existiert jedoch nicht, weswegen ein Kompressionsverfahren welches<br />

ausnutzt, dass sich <strong>die</strong> rechte und linke Ansicht des <strong>Stereo</strong>bildpaares stark ähneln, hier erwünscht<br />

wäre.<br />

Einer der ersten Ansätze mehrere Ansichten einer Szenerie zu ko<strong>die</strong>ren nutzte eine Differenzkar-<br />

te, sodaß ein Bild und <strong>die</strong>se Karte gespeichert werden mussten und nicht zwei Vollfarbenbilder<br />

[Mic86]. Dieser Ansatz findet sich in vielen aktuellen Arbeiten wieder. In Abbildung 5.13 ist ei-<br />

ne Abbildung aus [Gir01] zu sehen, welche das Prinzip der En- und Deko<strong>die</strong>rung von mehreren<br />

Ansichten verdeutlicht.<br />

Dieser Algorithmus macht sich zu Nutze, dass in stereoskopischen Ansichten viele Punkte der<br />

abgelichteten Szenerie in beiden Bildern an verschiedenen Positionen vorhanden sind. Aus <strong>die</strong>ser<br />

Differenz, welche der Deviation entspricht kann ein Tiefenbild berechnet werden. In [Gir01] wer-<br />

den dazu <strong>die</strong> Bilder in Blöcke aufgeteilt und miteinander verglichen. Das entstandene Tiefenbild<br />

muss anschließend verlustfrei gespeichert werden. Hier bietet sich durch <strong>die</strong> Aufteilung in Blöcke<br />

eine Lauflängenko<strong>die</strong>rung an. Bei der Deko<strong>die</strong>rung kann aus einer Ansicht und dem Tiefenbild<br />

<strong>die</strong> zweite Ansicht rekonstruiert werden.<br />

Der Kompressionsfaktor kann noch erhöht werden, wenn nicht nur <strong>die</strong> räumlichen Differenzen<br />

betrachtet werden, sondern auch <strong>die</strong> temporalen [Vik03]. Wenn eine MPEG Ko<strong>die</strong>rung zur Hilfe<br />

genommen wird, bei der das erste I-Bild unabhängig komprimiert wird und im folgenden durch


5.3. NACHBEARBEITUNG VON STEREOVIDEOS 93<br />

pixelweise Subtraktion vom ersten nur <strong>die</strong> Differenzen gespeichert werden (P-Bild), können P-<br />

Bilder höher komprimiert werden als I-Bilder. Eine noch höhere Kompressionsrate wird erzielt,<br />

wenn nicht Differenzen sondern Bewegungsvektoren gespeichert werden, <strong>die</strong> angeben in welche<br />

Richtung sich ein Pixel „bewegt“. Im MPEG-2 Standard wird noch eine dritte Art von Bildern ge-<br />

nutzt (B-Bild), welche typischerweise zwei Referenzen speichern. Eine zum vorherigen Bild, und<br />

eine zum nachfolgenden Bild. Dadurch kann der Enko<strong>die</strong>rer <strong>die</strong> optimale Vorhersage <strong>für</strong> jeden<br />

Block treffen, was <strong>die</strong> Effizienz steigert.<br />

Somit ist das Verfahren der temporalen Komprimierung ähnlich des der räumlichen Komprimie-<br />

rung.<br />

Linke<br />

Ansicht<br />

Rechte<br />

Ansicht<br />

I<br />

B<br />

B B<br />

B<br />

P B B P<br />

B B<br />

B B<br />

Abbildung 5.14: Folge von I,P, und B- Bildern bei der Kompression von stereoskopischen Video<br />

(nach [Vik03])<br />

In Abbildung 5.14 ist der Aufbau des in [Vik03] entwickelten Codecs dargestellt. Die linke Ansicht<br />

wird dabei in herkömmlicher Weise komprimiert, wohingegen <strong>die</strong> rechte Ansicht durch B-Bilder<br />

repräsentiert wird. Diese können am höchsten komprimiert werden und ermöglichen <strong>die</strong> Referen-<br />

zierung von Bildern der linken und rechten Ansicht.<br />

Die „Motion Picture Experts Group“ stellt einen freien Codec <strong>für</strong> Bildungszwecke zur Verfügung.<br />

Dieser heißt „Test Model 5“ (TM5) und kann von der Webseite der MPEG [MPE01] bezogen<br />

werden. Eine Implementation des Codecs von [Vik03] ist auf der, <strong>die</strong>ser Arbeit beiliegenden CD<br />

zu finden.<br />

B


6 Fazit<br />

In <strong>die</strong>sem Kapitel werden <strong>die</strong> Ergebnisse <strong>die</strong>ser Diplomarbeit in einem Überblick zusammenge-<br />

fasst und mögliche Erweiterungen der Kamera vorgestellt.<br />

6.1 Zusammenfassung der Arbeit<br />

Als Ergebnis der Arbeit existieren verschiedene DirectShow Filter zur Be- und Verarbeitung von<br />

<strong>Stereo</strong>videos, sowie Beispielvideos, welche auf der beiliegenden CD zu finden sind und <strong>die</strong> in<br />

Kapitel 4 beschriebene Kamera, welche sich durch eine hohe Anzahl an Freiheitsgraden in Hin-<br />

sicht auf stereoskopische Bilderstellung auszeichnet. Beispielsweise kann neben der synchronen<br />

Aufnahmefunktion<br />

• <strong>die</strong> <strong>Stereo</strong>basis verändert werden,<br />

• <strong>die</strong> Ausrichtung der optischen Achsen der Einzelkameras bei der Aufnahme verändert wer-<br />

den,<br />

• synchron gezoomt und fokussiert werden<br />

• Sensorinformationen Bildsynchron gespeichert werden und<br />

• <strong>die</strong> <strong>Stereo</strong>kamera mobil eingesetzt werden.<br />

Durch <strong>die</strong>se Funktionen wurde eine mobile <strong>Stereo</strong>videokamera erschaffen, <strong>die</strong> im Vergleich mit<br />

den in Kapitel 3.1 vorgestellten Systemen, einen höheren Funktionsumfang bei geringerem Ko-<br />

stenaufwand realisiert.<br />

Eine Aufstellung der Kosten <strong>für</strong> <strong>die</strong> <strong>Stereo</strong>videokameras ist im Anhang <strong>die</strong>ser Diplomarbeit auf<br />

Seite IX in Tabelle A.3 dargestellt. Die dort angegebenen Kosten liegen im Vergleich, zu den im<br />

Kapitel 3.1 vorgestellten <strong>Stereo</strong>videokameras, welche 70.000 Euro und mehr 1 kosten, deutlich<br />

niedriger.<br />

Der Vergleich mit den vorgestellten binokularen Kameras ist nicht direkt möglich. Durch den oben<br />

beschriebenen, deutlich höheren Funktionsumfang und höhere Auflösung des entwickelten <strong>Stereo</strong>-<br />

videokamera Systems.<br />

Durch <strong>die</strong> entwickelte <strong>Stereo</strong>videokamera (vgl. Abbildung 6.1) ist es möglich den menschlichen<br />

Sehvorgang sehr naturgetreu nachzuempfinden. Die Möglichkeit den Konvergenzwinkel bei der<br />

1 Annahme des Autors, da nur der Preis von „TMP S3R 1080i 3D“ ermittelt werden konnte. Da <strong>die</strong> anderen Systeme,<br />

“Pace Fusion 3d“ und „21st Century 3DVX3“ nur mit Be<strong>die</strong>npersonal gemietet werden können wird der Anschaffungspreis<br />

als sehr hoch angenommen.<br />

94


6.2. MÖGLICHE ERWEITERUNGEN DER STEREOKAMERA 95<br />

Abbildung 6.1: Abbildung des Sterovideokamerasystems<br />

Aufnahme von Sterovideos zu ändern und <strong>die</strong> Projektion auf der <strong>Stereo</strong>projektionleinwand des<br />

Lehrstuhls Computergrafik und Visualisierung, welche durch <strong>die</strong> große Bilddiagonale <strong>die</strong> Projek-<br />

tion in Originalgröße ermöglicht, wird <strong>die</strong> Möglichkeit geboten originale Eindrücke zu vermitteln.<br />

Zusammen mit der entwickelten Software, welche <strong>die</strong> Berichtigung und Projektion, von konver-<br />

gent und parallel aufgenommenen Szenarien <strong>für</strong> <strong>die</strong> parallele Projektion ermöglicht, ist somit ein<br />

<strong>Stereo</strong>videosystem entstanden, das in <strong>die</strong>ser Art aktuell einzigartig ist.<br />

Durch <strong>die</strong> Annotation von Videodaten mit GPS Informationen wurden weitere Wissenschaftliche<br />

Arbeiten ermöglicht.<br />

Die entwickelten DirectShow Filter (siehe Kapitel 5.1) sind auf der, der Arbeit beiliegenden CD<br />

inklusive dem benötigten Quelltext enthalten. Dieser Quellcode kann im Sinne der Aufgabenstel-<br />

lung von weiteren Arbeiten genutzt werden. Eine einfache Anwendung, welche den Einsatz von<br />

Filtern demonstriert ist ebenfalls auf der beiliegenden CD zu finden.<br />

6.2 Mögliche Erweiterungen der <strong>Stereo</strong>kamera<br />

An der entwickelten <strong>Stereo</strong>kamera können im Rahmen weiterer Arbeiten <strong>die</strong> im Folgenden be-<br />

schriebenen Erweiterungen getroffen werden. Diese stellen lediglich einen Teil der denkbaren<br />

Modifikationen dar, welche in erster Linie zur Nachempfindung des menschlichen Sehvorgangs<br />

genutzt werden können.


6.2. MÖGLICHE ERWEITERUNGEN DER STEREOKAMERA 96<br />

6.2.1 Aufnahme von <strong>Stereo</strong>panoramen<br />

Die Aufnahme von Panoramen erfolgt heutzutage meist nur als Fotografien, da der Herstellungs-<br />

prozess als auch <strong>die</strong> Wiedergabe <strong>die</strong>ser Rundblicke sehr aufwendig ist. Für <strong>die</strong> Wiedergabe auf<br />

einer planen Fläche, wie beispielsweise einem Monitor, existieren so genannte Schaufenster-<br />

Ansichten von Panoramen, bei welchen der Betrachter einen Teil des Bildes sieht, und in <strong>die</strong>sem<br />

in drei Richtungen navigieren kann. Dabei kann nach rechts und links oder oben und unten „ge-<br />

schaut“ und durch Pixelvergrößerungsalgorithmen gezoomt werden. Das flache Panorama, das zur<br />

korrekten Wiedergabe kugelförmig um den Betrachter herum projiziert werden müsste, erscheint<br />

über <strong>die</strong> Beschneidung durch das „Schaufenster“ korrekt.<br />

Somit ist es möglich 360 ◦ × 180 ◦ Panoramen wiederzugeben. Die Aufnahme solcher Panoramen<br />

erfolgt in der Fotografie entweder durch Erzeugen von Ablichtungen, welche sich in einem be-<br />

stimmten Bereich überlappen und später durch Softwarelösungen „zusammenmontiert“ werden,<br />

oder durch Nutzung einer Panoramakugel wie in Abbildung 6.2 dargestellt.<br />

Abbildung 6.2: Panorama Aufnahme mit Hilfe einer gestauchten Halbkugel (nach [Naj05])<br />

Bei <strong>die</strong>ser handelt es sich um eine gestauchte Halbkugel, welche 360 ◦ × 90 ◦ Panoramen durch<br />

spätere Entzerrung ermöglicht. Bei dem Einsatz einer Vollkugel kann ein ca. 360 ◦ × 130 ◦ Pan-<br />

orama (auch Sphärisches Panorama genannt) erzeugt werden. Die Bildinformation am „Rand“ der<br />

abgelichteten Kugel ist sehr hoch, weshalb der Einsatz von Digitalkameras durch <strong>die</strong> meist zu ge-<br />

ringe Auflösung keine guten Ergebnisse produziert.<br />

Ein entzerrtes Bild <strong>die</strong>ser abgelichteten Sphären wird „equirectangulares Bild“ genannt, welches<br />

<strong>die</strong> doppelte Breite des aufgenommenen Bildes hat, und eine Rundumsicht ermöglicht. Die be-<br />

kannteste Anwendung einer equirectangularen Projektion ist <strong>die</strong> Abbildung der „Weltkarte“ auf<br />

einer ebenen Fläche. Für eine genauere Beschreibung der Equirectangularen Projektion sei auf<br />

[Eli07] verwiesen.<br />

Als Erweiterung der <strong>Stereo</strong>kamera könnten durch Anbringen zweier Kugeln vor den Objekti-


6.2. MÖGLICHE ERWEITERUNGEN DER STEREOKAMERA 97<br />

ven <strong>Stereo</strong>videopanoramen aufgenommen werden, <strong>die</strong> gerade in der Terrainvisualisierung oder<br />

in Computerspielen eingesetzt werden könnten. In Computerspielen würde dadurch ein sehr ho-<br />

her Grad an Realismus erreicht und <strong>die</strong> Modellierung der Spielfläche wird erleichtert, da eine<br />

Aufwendige Modellierung des Spielfeldes im Besonderen in Randbereichen in denen ein Avatar<br />

(Spielfigur) nicht agieren kann, vermieden wird.<br />

<strong>Stereo</strong>panoramen als Videos hätten einen besonderen Reiz wenn sie in Rundumprojektionsräu-<br />

men, wiedergegeben (Cave) werden.<br />

6.2.2 Be<strong>die</strong>neinheit<br />

Die Be<strong>die</strong>neinheit kann in der Hinsicht verbessert werden, dass eine Ansteuerung der Servomo-<br />

toren, z.B. beim Ändern der Fokussierung, über <strong>die</strong> Fernbe<strong>die</strong>nung gelöst werden könnte. Der<br />

entstehende Effekt beschreibt den menschlichen Sehvorgang besser, bei dem <strong>die</strong> Achsen der Au-<br />

gen ebenfalls auf das fokussierte Objekt konvergieren. Zur Realisierung <strong>die</strong>ser Erweiterung müs-<br />

ste der in der Be<strong>die</strong>neinheit vorhandene „Servo-Differenzierbaustein 2 “, sowie der ebenfalls in der<br />

Be<strong>die</strong>neinheit angeordnete Generator <strong>für</strong> das Steuersignal der Servomotoren, mit der Hauptpla-<br />

tine der Fernbe<strong>die</strong>nung gekoppelt werden. Eventuell ist eine Neukonzipierung des Layoutes der<br />

Platine in Betracht zu ziehen.<br />

Weiterhin wäre eine Erweiterung der Be<strong>die</strong>neinheit um <strong>die</strong> Funktion des Vergrößern oder Ver-<br />

kleinern der <strong>Stereo</strong>basis denkbar, <strong>die</strong> ebenfalls eine Layoutänderung der Fernbe<strong>die</strong>nungsplatine<br />

erfordert. Diese Funktion erfordert weiterhin eine Veränderung der Kamerahalterung um Steue-<br />

rungsmöglichkeiten der <strong>Stereo</strong>basis wie in Kapitel 6.2.3 beschrieben wird. Hintergrund <strong>die</strong>ser<br />

Modifikation ist es, einerseits <strong>die</strong> <strong>Stereo</strong>basis während der Aufnahme zu verändern und anderer-<br />

seits <strong>die</strong>se an bestehende Funktionen wie z.B. <strong>die</strong> Fokussierung oder <strong>die</strong> Brennweitenänderung<br />

zu koppeln. Dadurch ist es möglich beim Vergrößern und Verkleinern der <strong>Stereo</strong>basis zusammen<br />

mit der Ansteuerung der Fokussierung, <strong>die</strong> Konvergenzlinie bei konvergenter Aufnahme gleich zu<br />

halten.<br />

Somit könnten multiperspektivische Aufnahmen von einem Objekt durchgeführt werden.<br />

6.2.3 Halterung<br />

An der Halterung der beiden Einzelkameras der <strong>Stereo</strong>kamera können zum einen Verbesserungen<br />

in Hinsicht auf Be<strong>die</strong>nbarkeit und Portabilität zum anderen Erweiterungen der Funktionalität ge-<br />

troffen werden.<br />

Die Portabilität der <strong>Stereo</strong>kamera kann neben der Reduzierung des Gewichtes, z.B. durch das<br />

Tragen der Stromversorgung in einem Rucksack, durch Nutzung <strong>eines</strong> „Steadycam“ Systemes<br />

2 Der „Servo-Differenzierbaustein“ ermöglicht <strong>die</strong> gegensätzliche Ansteuerung und eine Differenzierung der Schritt-<br />

weite der Servomotoren


6.2. MÖGLICHE ERWEITERUNGEN DER STEREOKAMERA 98<br />

(auch Schwebestativ genannt) wie in Abbildung 6.3 gezeigt, verbessert werden. Dieses nutzt das<br />

Trägheitsmoment einer großen Masse (der <strong>Stereo</strong>kamera), um Kipp- und Neigestabilität zu ga-<br />

rantieren. Außerdem wird <strong>die</strong> direkte Verbindung zwischen der kameraführenden Person und der<br />

Kamera entkoppelt.<br />

Abbildung 6.3: Schwebestativ<br />

Da ein Kameraschwebestativ wie in Abbildung 6.3 gezeigt ist, sehr preisintensiv ist (ca. 17.000<br />

Euro [Vid07]), kann <strong>die</strong>s auch selbst entwickelt werden. Dazu sei auf <strong>die</strong> Anleitung in [Eng07]<br />

verwiesen.<br />

Eine weitere praktische Modifikation der Halterung kann durch das Befestigen <strong>eines</strong> Kontroll-<br />

monitors an der Halterung erreicht werden. An <strong>die</strong>sem müssten über eine Schaltung <strong>die</strong> Kameras<br />

angeschlossen werden, über <strong>die</strong> <strong>die</strong> aufgenommenen Bilder direkt, z.B. in Anaglyphendarstellung,<br />

betrachtet werden können. Die da<strong>für</strong> notwendige Schaltung müsste <strong>die</strong> Signale der Farbkompo-<br />

nenten beider Kameras als Eingabe verwenden und ein Anaglyphenbild ausgeben. Dieses kann<br />

anschließend beispielsweise mit einem <strong>portablen</strong> TFT-Monitor betrachtet werden.<br />

Eine Verringerung des Kameragewichts ist durch Modifikation der Halterung möglich. Beispiels-<br />

weise kann <strong>die</strong> Halterung aus Kohlefasern gefertigt werden. Im Rahmen <strong>die</strong>ser Diplomarbeit wur-<br />

de auf solch eine Halterung aus Kostengründen verzichtet.<br />

6.2.4 Sensordaten<br />

Für den Einsatz von Sensordaten, welche synchron zu Videoteilbildern gespeichert werden, könn-<br />

ten verschiedene Anpassungen durchgeführt werden.<br />

Falls eine genauere Positionsbestimmung der <strong>Stereo</strong>kamera gewünscht ist, kann das „Differential<br />

Global Positioning System“ (DGPS) genutzt werden. Dieses bezeichnet das Verfahren, zwei oder<br />

mehr GPS-Empfänger zur Steigerung der absoluten Positionsgenauigkeit einzusetzen. Es werden<br />

<strong>die</strong> Koordinatendifferenzen zwischen den Empfangsstationen bestimmt, wodurch ein Großteil der<br />

Fehlereinflüsse eliminiert werden kann. Durch <strong>die</strong>ses Verfahren ist es möglich, <strong>die</strong> Genauigkeit


6.3. FORSCHUNGSFRAGEN 99<br />

der Positionsbestimmung auf unter einen Zentimeter zu steigern.<br />

Mit DGPS-Empfängern können ortsfeste Referenzstationen genutzt werden, von welchen <strong>die</strong> geo-<br />

grafische Position mit sehr hoher Genauigkeit bekannt ist. Der gemessene Entfernungsfehler zum<br />

Satelliten und dessen zeitliche Änderung wird <strong>für</strong> jeden empfangenen GPS-Satelliten von <strong>die</strong>ser<br />

Station bestimmt und an alle DGPS-Empfänger der Region übermittelt. Zur Kalibrierung <strong>die</strong>ses<br />

Systems in Deutschland wird meist der Satellitenpositionierungs<strong>die</strong>nst der deutschen Landesver-<br />

messung (SAPOS) verwendet, welcher Korrekturdaten über verschiedene Netze, wie beispiels-<br />

weise GSM, Funk, Telefon oder Internet zur Verfügung stellt.<br />

Zur Nutzung anderer Sensordaten müssten <strong>die</strong> Anschlussmöglichkeiten an das in Kapitel 4.5 vor-<br />

gestellte „TinyTrak3“ verändert und <strong>die</strong> Firmware des Mikroprozessors angepasst werden. Zu<br />

<strong>die</strong>sem Zweck sei auf das „OpenTracker+“ Projekt [N1V05] verwiesen, bei welchem Firmwa-<br />

re und Platinenlayout zur Verfügung gestellt werden. OpenTracker+ arbeitet nach dem gleichen<br />

Prinzip wie TinyTrak3 und wird als OpenSource Projekt geführt. In weiteren Arbeiten könnte eine<br />

Firmware entwickelt werden, <strong>die</strong> es durch Komprimierung oder Umko<strong>die</strong>rung der Sensordaten<br />

ermöglicht, Daten von zwei oder mehr Sensoren in den Audiokanal zu ko<strong>die</strong>ren oder <strong>die</strong>se mit<br />

den vom Mikrofon aufgenommen Audiodaten mischt, um <strong>die</strong> Verwendung von allen vier Audio-<br />

kanälen zu garantieren.<br />

6.3 Forschungsfragen<br />

Mit der entwickelten Kamera können viele verschiedene wissenschaftliche Arbeiten durchgeführt<br />

werden. Diese beziehen sich auf das komplette Gebiet der stereoskopischen Aufnahme, Verarbei-<br />

tung und Wiedergabe von Daten.<br />

Einige notwendige Arbeiten werden nachfolgend vorgestellt und sollen einen Anstoß <strong>für</strong> eventuell<br />

folgende Arbeiten bilden.<br />

6.3.1 Datenverarbeitung<br />

Im Rahmen der Datenverarbeitung stereoskopischer Bildinhalte und der Verarbeitung von Sensor-<br />

daten existieren keine oder nur unzulängliche Softwarelösungen.<br />

6.3.1.1 Aufnahme von <strong>Stereo</strong>videodaten<br />

Die Aufnahme von <strong>Stereo</strong>videos erfolgt aktuell meist nach Standardgeometrie, also der paralle-<br />

len Ausrichtung der optischen Kameraachsen. Wie in Kapitel 2.2.1 beschrieben, muss bei <strong>die</strong>ser<br />

Justierung das entstandene Raumbild rechts und links beschnitten werden. Bei einer konvergen-<br />

ten Aufnahme ist <strong>die</strong>s nicht der Fall, allerdings muss hier eine Schrägprojektion, wie in Kapitel<br />

2.3.1 beschrieben, durchgeführt werden. In <strong>die</strong>ser Arbeit wurde vorgestellt, wie <strong>die</strong>se anhand <strong>eines</strong><br />

bekannten Konvergenzwinkels durchgeführt wird. Da der Konvergenzwinkel bei einer Schrägpro-<br />

jektion (auch Rektifizierung genannt) nicht immer bekannt ist, existieren Verfahren, welche <strong>die</strong>-


6.3. FORSCHUNGSFRAGEN 100<br />

sen Winkel anhand von Bilddaten errechnen. Die echtzeitfähige Anwendung <strong>die</strong>ser Verfahren ist<br />

aktuell nicht möglich und sollte, gerade bei einem sich ändernden Konvergenzwinkel erforscht<br />

werden. Die in solch einer Arbeit entstehenden Grundlagen sind <strong>für</strong> den Bereich der Photogame-<br />

trie im Zusammenhang mit multiperspektivischen Bildern sehr interessant, da zur Erzeugung von<br />

Tiefenkarten rektifizierte Bildinformationen <strong>die</strong> Ausgangslage bilden.<br />

6.3.1.2 Verarbeitung von <strong>Stereo</strong>videodaten<br />

Gerade im Bereich der Videobildverarbeitung von Raumbildern wird Software benötigt <strong>die</strong>, das<br />

Schneiden und Bearbeiten der verschiedenen <strong>Stereo</strong>videoformate unterstützt. Wie in Kapitel 5.3<br />

beschrieben, ist <strong>die</strong> Verwendung von herkömmlichen Videobearbeitungsprogrammen <strong>für</strong> den Ein-<br />

satz an Raumbildinformationen unzulänglich.<br />

Wünschenswert wären Lösungen, <strong>die</strong> folgende Punkte verwirklichen.<br />

• <strong>die</strong> Synchronisierung von <strong>Stereo</strong>videos anhand verschiedener Algorithmen vereinfacht (z.B.<br />

durch Kantenfindungsverfahren)<br />

• das Hinzufügen von Titeln mit Unterstützung der Positionierung in der Tiefe<br />

• <strong>die</strong> Erstellung von Tiefenkarten realisiert, um künstliche Objekte oder weitere Raumbilder<br />

mit den aufgenommenen Daten zusammenzuführen können<br />

• <strong>die</strong> Verwendung von Blenden jeglicher Art unterstützt<br />

• <strong>die</strong> Komprimierung von <strong>Stereo</strong>videos nach dem im Kapitel 5.3.4 vorgestellten Verfahren<br />

realisiert<br />

• <strong>die</strong> Abbildung von Sensordaten ermöglicht, beispielsweise von GPS-Daten als Mini-Landkarte<br />

im Bild<br />

6.3.1.3 Speicherung von <strong>Stereo</strong>videodaten<br />

Die Speicherung von <strong>Stereo</strong>bildpaaren wird aktuell durch <strong>die</strong> gleichen Verfahren realisiert wie<br />

<strong>die</strong> Speicherung von monoskopischem Video. Wie in Kapitel 5.3.4 erläutert, kann <strong>die</strong>s effektiver<br />

durch Ausnutzung von Similaritäten in den Einzelbildern des <strong>Stereo</strong>bildpaares erfolgen. In <strong>die</strong>ser<br />

Hinsicht sollten Komprimierungs- und Dekomprimierungsalgorithmen entworfen werden, welche<br />

<strong>die</strong> Speicherung und damit auch <strong>die</strong> Übertragung von stereo- und multiperspektivischem Video<br />

optimieren.<br />

6.3.1.4 Sensordaten<br />

In Bezug auf <strong>die</strong> Datenverarbeitung und <strong>die</strong> Einbettung von Daten in Videoströme sind sehr viele<br />

Forschungsansätze denkbar. So zum Beispiel <strong>die</strong> Annotierung von Videos durch weitere Informa-<br />

tionen nach Ansätzen der Augmented Reality. Hier könnten Sensordaten genutzt werden, um auf<br />

den Anwendungsfall passende Daten anzuzeigen. So könnte ein Navigationsystem, welches ein


6.3. FORSCHUNGSFRAGEN 101<br />

Sportler <strong>für</strong> das Training zu einem Fahrradmarathon verwendet, durch Daten über den physischen<br />

Zustand des Nutzers eine schwerere oder leichtere Streckenführung berechnet.<br />

Durch stereoskopische Bildinformationen könnte in <strong>die</strong>sem Fall im Vorfeld <strong>die</strong> Oberfläche der<br />

Straße und deren Breite bestimmt werden, wodurch <strong>die</strong> Navigation noch exakter zugeschnitten<br />

werden kann.<br />

Um <strong>die</strong>ses futuristische Szenario realisieren zu können sind dem Stand der Forschung noch einige<br />

Arbeiten vorausgesetzt. Bei <strong>die</strong>sen sollten Filtermechanismen entwickelt werden, <strong>die</strong> <strong>die</strong> aufge-<br />

nommenen Daten in der gewünschten Darstellungsvariante verarbeiten und visualisieren.<br />

6.3.2 Verwendung stereoskopischer Aufnahmen<br />

<strong>Stereo</strong>skopische oder multiperspektivische Aufnahmen können in vielen Einsatzbereichen hilf-<br />

reich sein. So werden Multisensorsysteme beispielsweise aktuell in der Automobilproduktion<br />

in Prototypen eingesetzt, <strong>die</strong> ohne Einwirkung des Fahrers Einparken, Warnungen signalisieren,<br />

wenn <strong>die</strong> Fahrspur verlassen wird oder sich gar gänzlich ohne Fahrer im öffentlichen Raum bewe-<br />

gen.<br />

Desweiteren kann <strong>die</strong> in Raumbildern enthaltene Tiefeninformation genutzt werden, um Personen<br />

oder Gesten [Hof05] zu erkennen, was im Bereich der Mensch-Computer-Interaktion ein großes<br />

Forschungsgebiet darstellt. In <strong>die</strong>sem Zusammenhang ist <strong>die</strong> Visualisierung von dreidimensiona-<br />

len Daten und <strong>die</strong> Interaktion mit <strong>die</strong>sen ein großes Forschungsgebiet.<br />

Die Anwendungen einer <strong>Stereo</strong>kamera im Bereich <strong>die</strong>ses Erfassens von räumlichen Informationen<br />

liegen auf der Hand. Die durch stereoskopische Aufnahmen gesammelten Tiefenbilder könnten<br />

beispielsweise über <strong>die</strong> Verknüpfung mit GPS-Daten dreidimensionale Abbildungen der aufge-<br />

nommenen Szenarios erzeugen und im Bereich der Terrainmodellierung eingesetzt werden. Die<br />

Erstellung von dreidimensionalen Punktwolken durch <strong>die</strong> Verarbeitung von <strong>Stereo</strong>videoinforma-<br />

tionen können bei der Berechnung physikalischer Eigenschaften von beispielsweise Stoffen, Pa-<br />

pier, Flüssigkeiten oder Gasen genutzt werden. Auch <strong>die</strong> GPS-Navigation kann durch Unterstüt-<br />

zung von stereoskopischen Ansichten verbessert werden. So wäre ein System vorstellbar, welches<br />

nach dem Ansatz der Augmented Reality stereoskopische Ansichten, <strong>die</strong> durch stereoskopisches<br />

Video erzeugt werden könnten, direkt zur Navigation von Fahrzeugen und Fußgängern eingesetzt<br />

werden.<br />

Aufgrund <strong>die</strong>ser und weiterer Nutzungsmöglichkeiten <strong>für</strong> <strong>Stereo</strong>videokameras ist das Gebiet der<br />

multiperspektivischen Sensordatenerfassung, -verarbeitung und -speicherung ein interessantes The-<br />

ma <strong>für</strong> weitere Arbeiten.


A Anhang<br />

A.1 Hinweise zur Be<strong>die</strong>nung der <strong>Stereo</strong>videokamera<br />

Die Be<strong>die</strong>nung der entwickelten <strong>Stereo</strong>videokamera unterscheidet sich im technischen Verständ-<br />

nis nicht von der Handhabung <strong>eines</strong> Camcorders. Allerdings sind einige Aufnahmeregeln, welche<br />

an verschiedenen Stellen in der Diplomarbeit genannt wurden, zu beachten. Diese werden hier<br />

neben einigen Hinweisen zur Be<strong>die</strong>nung und Handhabung genannt.<br />

Vor der Benutzung der <strong>Stereo</strong>videokamera ist <strong>die</strong> Be<strong>die</strong>nungsanleitung der Einzelkameras, sowie<br />

<strong>die</strong>se Diplomarbeit zu konsultieren.<br />

A.1.1 Aufnahmeregeln<br />

Bei der Aufnahme von stereoskopischen Bildern ist zu beachten, dass <strong>die</strong> Tiefeninformation in<br />

einem Raumbild bestimmte Grenzen nicht überschreiten darf.<br />

Da das menschliche Gehirn nur begrenzte Tiefeninformationen verarbeiten kann, begrenzt sich<br />

<strong>die</strong> in einem <strong>Stereo</strong>bild enthaltene Tiefe. Eine Verletzung <strong>die</strong>ser Regel kann dazu führen, dass<br />

ein Tiefenbild nicht mehr als <strong>die</strong>ses wahrgenommen werden kann, sondern beide Einzelbilder zu<br />

sehen sind, was ein großes Unbehagen erzielt.<br />

Wie in Kapitel 2.1 beschrieben wird der Wert, welcher <strong>die</strong> Tiefeninformation beschreibt, Deviation<br />

genannt. Diese sollte nicht größer als 1<br />

30 der Bildbreite sein. Dieser Wert folgt der 70′ Minutenregel<br />

welche in Kapitel 2.2.2 beschrieben wird. Aus <strong>die</strong>ser kann eine einfache Bedingung abgeleitet<br />

werden, sodaß bei paralleler Ausrichtung der Kameras <strong>die</strong>se Regel immer eingehalten wird. Diese<br />

ist in Formel A.1<br />

Entfernung zum Nahpunkt ≥ <strong>Stereo</strong>basis · Brennweite (A.1)<br />

Die einzelnen Größen sind in Abbildung 2.4 erläutert.<br />

A.1.2 Be<strong>die</strong>neinheit<br />

Die Be<strong>die</strong>neinheit besteht aus der Fernbe<strong>die</strong>nung <strong>für</strong> <strong>die</strong> <strong>Stereo</strong>kamera, dem Gerät zur Verarbei-<br />

tung der Sensordaten und der Steuerungseinheit <strong>für</strong> <strong>die</strong> Servomotoren.<br />

I


A.1. HINWEISE ZUR BEDIENUNG DER STEREOVIDEOKAMERA II<br />

A.1.2.1 Stromversorgung<br />

Beide Geräte (Fernbe<strong>die</strong>nung und Sensorverarbeitungsbaustein) besitzen eigenständige Stomver-<br />

sorgungen. So wird <strong>die</strong> Fernbe<strong>die</strong>nung durch drei Batterien vom Typ AAA (LR03), und das GPS-<br />

Datenverarbeitende Gerät durch einen 9V Block versorgt. Da <strong>die</strong> Fernbe<strong>die</strong>nung, wenn sie an <strong>die</strong><br />

Kameras angeschlossen ist, durch Betätigen des Schalters <strong>für</strong> <strong>die</strong> externe Stromversorgung von<br />

den Kameras gespeist wird, ist ein Batteriewechsel nicht allzu oft notwendig. Deswegen sind <strong>die</strong><br />

drei Batterien der Fernbe<strong>die</strong>nung, in der Be<strong>die</strong>neinheit unter dem Display zufinden.<br />

Da der GPS-Empfänger einen höheren Stromverbrauch hat, ist dessen 9V-Block im Batteriefach<br />

am gut zugänglichen Tragegurt der Kamera angebracht.<br />

Die Servomotoren zur Steuerung der Kamerastellung werden über vier AA (LR06) Batterien be-<br />

trieben, <strong>die</strong> ebenfalls am Gurt der Kamera befestigt sind. Der Einsatz von wiederaufladbaren Ak-<br />

kus ist möglich und wird aufgrund der Kostenfaktoren von Batterien empfohlen.<br />

A.1.2.2 Einstellen des Konvergenzwinkels<br />

Der Konvergenzwinkel der <strong>Stereo</strong>kamera kann durch Betätigung des Drehreglers auf der Be-<br />

<strong>die</strong>neinheit verändert werden. Dabei ist darauf zu achten, dass bei geringen <strong>Stereo</strong>basen ab be-<br />

stimmten Konvergenzwinkeln <strong>die</strong> Kameras zusammenstoßen können. Da <strong>die</strong> Servomotoren eine<br />

hohe Leistung von 190N/cm besitzen, d.H. eine Kraft von 19 KG im Drehradius von einem Zen-<br />

timeter, können durch <strong>die</strong>se Kräfte <strong>die</strong> Einzelkameras beschädigt werden.<br />

Aus <strong>die</strong>sem Grund sollte vor jeder Inbetriebnahme der Drehregler auf der Be<strong>die</strong>neinheit maximal<br />

in Uhrzeigerrichtung gereht werden.<br />

A.1.2.3 Anschluss der Einzelkameras<br />

Der Anschluss der Einzelkameras an <strong>die</strong> Be<strong>die</strong>neinheit erfolgt über ein Y-förmiges Kabel, dass<br />

an einem Ende einen D-SUB9 Stecker und auf der anderen Seite zwei 2,5mm Klinkenstecker be-<br />

sitzt. Die Klinkenstecker werden in <strong>die</strong> mit „Remote“ gekennzeichneten Buchsen an den Kameras<br />

gesteckt und der D-SUB9 Stecker wird an der Be<strong>die</strong>neinheit mit dem, mit „Kameras“ gekenn-<br />

zeichneten Anschluss, verbunden.<br />

Es ist darauf zu achten, daß <strong>die</strong>ses Kabel nicht mit dem Anschluss des GPS-Sensors verbunden<br />

wird, da <strong>die</strong>ser mit einer höheren Spannung betrieben wird, welche Fehlfunktionen in den Kame-<br />

ras auslösen kann.<br />

A.1.3 Anschluss <strong>eines</strong> Sensors<br />

Der GPS-Empfänger wird mit dem DSub9 Stecker an der Be<strong>die</strong>neinheit mit dem, mit GPS-<br />

Empfänger bezeichneten Anschluss, verbunden. Wenn der Schalter an der rechten Seite der Be-<br />

<strong>die</strong>neinheit betätigt wird, leuchtet eine Status-LED durch eine Öffnung auf der Oberfläche der


A.1. HINWEISE ZUR BEDIENUNG DER STEREOVIDEOKAMERA III<br />

Be<strong>die</strong>neinheit, welche mit Power gekennzeichnet ist. Die darunter befindlichen Anzeigen signali-<br />

sieren:<br />

• Trägersignal erkannt (wird nicht verwendet)<br />

• gültige GPS- Daten werden empfangen<br />

• Daten werden in den Audiokanal geschrieben.<br />

A.1.3.1 Funktionsübersicht der Fernbe<strong>die</strong>nung<br />

Die Handhabnung der Fernbe<strong>die</strong>nung erfolgt nach dem Einschalten durch den „AN/AUS“ Schal-<br />

ter durch <strong>die</strong> vier Taster über dem Display.<br />

Im Display werden in der oberen Zeile <strong>die</strong> Funktionen angezeigt, und bei verbundenen Kameras<br />

in der zweiten Zeile <strong>die</strong> zeitliche Differenz (Shift) der Kamerasoszillatoren in µ Sekunden. In der<br />

zweiten Zeile auf der rechten Seite wird angezeigt, wie der Ladestand der Fernbe<strong>die</strong>nungsbatteri-<br />

en ist. Dabei bedeutet ein Wert über fünf, dass <strong>die</strong> Batterien voll sind, ein Wert von drei oder vier<br />

bedeutet eine normale Kapazität und ein geringerer Wetr als drei deutet auf leere Batterien hin.<br />

Falls <strong>die</strong> Kapazität zu gering wird, wird in der oberen Zeile „empty battery“ angezeigt.<br />

Die Funktionen der Fernbe<strong>die</strong>nung werden durch das Drücken der vier Taster ausgeführt. Da-<br />

bei sind <strong>die</strong> linken drei Taster Funktionstaster, der rechte Knopf wechselt Programme und besitzt<br />

eine Shift Funktion. Das bedeuet, das <strong>die</strong> initial existierenden Funktionen von Hereinzoomen,<br />

Herauszoomen und Aufnahme starten/beenden durch Drücken des rechten Knopfes gewechselt<br />

werden können. Durch einmaliges Drücken werden <strong>die</strong> Funktionen umgestellt und mit den drei<br />

linken Tastern können <strong>die</strong> Menüfunktionen der Kameras ausgewählt werden. Durch zweimaliges<br />

Drücken werden selbst belegbare Funktionen aktiviert. In jeder Programmauswahlstufe ist durch<br />

ein Drücken und Halten des rechten Tasters <strong>die</strong> Shiftfunktion aktiv, welche weitere Funktionen<br />

wie beispielsweise im Initialzustand das Ein/Ausschalten ermöglicht. Eine ebenfalls hinter der<br />

Shiftfunktion verborgene Resetfunktion kann genutzt werden, um <strong>die</strong> Einzelkameras kurz aus-<br />

und gleich wieder einzuschalten, um den Synchronlauf der Camcorder zu starten.<br />

Die weiteren Funktionen sind in der Be<strong>die</strong>nungsanleitung welche sich auf der, der Arbeit beilie-<br />

genden CD befindet, beschrieben.<br />

A.1.4 Anschluss an einen PC<br />

Über ein serielles Nullmodemkabel kann <strong>die</strong> Be<strong>die</strong>neinheit mit einem PC verbunden werden.<br />

Wenn Änderungen an der Fernbe<strong>die</strong>nung wie beispielsweise <strong>die</strong> Konfiguration der frei belegba-<br />

ren Funktionen oder das Auslesen von Daten sowie <strong>die</strong> grafische Darstellung einer Kurve, welche<br />

zeitabhängig <strong>die</strong> Synchronität der Kameras anzeigt, gewünscht wird, kann das Nullmodemkabel<br />

auf der rechten Seite der Be<strong>die</strong>neinheit mit dem, mit PC gekennzeichneten Anschluss verbunden<br />

werden. Über <strong>die</strong> Software „3D-Lanc Communicator“ können dann <strong>die</strong> erwünschten Modifikatio-<br />

nen durchgeführt werden.


A.1. HINWEISE ZUR BEDIENUNG DER STEREOVIDEOKAMERA IV<br />

Soll <strong>die</strong> Ko<strong>die</strong>rung der GPS-Daten verändert werden, kann ein Nullmodemkabel mit dem An-<br />

schluss des GPS-Empfängers verbunden werden und über <strong>die</strong> Software „TinyTrakConfig“ ver-<br />

schiedene Einstellungen getroffen werden.<br />

Die notwendigen Anwendungen befinden sich auf der CD, welche <strong>die</strong>ser Arbeit beiliegt.<br />

A.1.4.1 Programmierung der Fernbe<strong>die</strong>nung<br />

Es besteht <strong>die</strong> Möglichkeit einzelne Funktionen der Fernbe<strong>die</strong>nung zu verändern. Der dazu benö-<br />

tigte Quellcode der Fernbe<strong>die</strong>nung befindet sich auf der der Arbeit beiliegenden CD. Die Program-<br />

mierung erfolgt über ein der Kamera beiliegendes Programmierkabel (vgl. Abbildung A.1.4.1),<br />

welches an den parallelen Anschluss <strong>eines</strong> Computers und an <strong>die</strong> Programmierschnittstelle der<br />

Fernbe<strong>die</strong>nungsplatine angeschlossen wird. Um an <strong>die</strong> Programmierschnittstelle der Fernbe<strong>die</strong>-<br />

nungsplatine zu gelangen müssen <strong>die</strong> vier Schrauben, welche an den Ecken des Displays zu finden<br />

sind, gelöst werden und <strong>die</strong> Leiterplatte samt Display und Schaltern aus der Be<strong>die</strong>neinheit genom-<br />

men werden. Die Programmierschnittstelle befindet sich rechts auf der Platine, wobei der strom-<br />

führende Pin der unterste ist. Es ist darauf zu achten, dass es sich um eine ISP-Programmierung<br />

handelt, bei der der Mikrokontroller nicht über den Programmieranschluss, sondern über <strong>die</strong> eige-<br />

ne Stomversorgung versorgt wird.<br />

Abbildung A.1: Abbildung des Programmierkabels zum Ändern der Fernbe<strong>die</strong>nungsfirmware


A.1. HINWEISE ZUR BEDIENUNG DER STEREOVIDEOKAMERA V<br />

Epilepsiewarnung<br />

Bei einem sehr geringen Anteil der Bevölkerung können Fernsehbilder oder<br />

Videospiele, <strong>die</strong> Lichtblitze enthalten, epileptische Anfälle auslösen.<br />

Folgende Personenkreise sollten vor der Benutzung <strong>eines</strong> <strong>Stereo</strong>skopiesystems<br />

ärztlichen Rat einholen:<br />

• Kinder unter 5 Jahren<br />

• Personen, in deren Verwandtschaft bereits Fälle von Epilepsie aufgetreten sind<br />

• oder <strong>die</strong> selber an Epilepsie leiden<br />

• Personen, bei denen das Betrachten von Lichtblitzeffekten in der Vergangenheit<br />

schon einmal epileptische Anfälle oder Sinnesstörungen ausgelöst hat.


A.2. LANC PROTOKOLL VI<br />

A.2 LANC Protokoll<br />

Sony LANC TM Protokoll Parameter<br />

Adresse Wert Adresse Wert<br />

0 program 1 78 AUX<br />

2 program 2 7A slow +<br />

4 program 3 7C slow -<br />

6 program 4 7E<br />

8 program 5 80<br />

0A program 6 82 display mode<br />

0C program 7 84 menu up<br />

0E program 8 86 menu down<br />

10 program 9 88 tracking/fine +<br />

12 program 0 (10: SL-HF950 MKII) 8A tracking/fine -<br />

14 program 11 (SL-HF950 MKII) 8C counter reset<br />

16 enter, program 12 (SL-HF950 MKII) 8E zero mem<br />

18 program 13 90 index mark<br />

1A program 14 92 index erase<br />

1C program 15 94 shuttle edit +<br />

1E program 16 96 shuttle edit -<br />

20 program + 98 data code or goto<br />

22 program - 99 data code or recording parameters<br />

24 9A menu<br />

28 x2 9E input select<br />

2A power (or viewfinder) off A0<br />

2B photo write A2 execute<br />

2C eject A4 quick timer<br />

2E main/sub A6 index<br />

30 stop A8<br />

32 pause AA<br />

33 start/stop AC index search +<br />

34 play AE index search -<br />

35 tele (only CCD-V90) B0 tape speed<br />

36 rew B2 goto zero / tape return (not DV)<br />

37 wide (only CCD-V90) B4 counter display, data screen<br />

38 fwd B6 open/close (SL-HF950), replay (FauHaEss)<br />

39 photo capture B8 timer display<br />

3A rec BA<br />

3C rec-pause (some devices) BC<br />

3E BD date display off<br />

40 still BE<br />

42 BF date display on<br />

44 x1/10 C0 timer set<br />

46 x1/5 (sometimes: vis. scan) C2 menu right, next<br />

48 C4 menu left<br />

4A x14 C6 timer clear<br />

4C x9 C8 timer check<br />

4E tracking auto/manual CA timer record<br />

50 search - CC<br />

52 search + CE<br />

54 TV/VTR D0 audio dub<br />

58 D4 edit assemble<br />

5A VTR D6 edit mark<br />

5B date search / photo search / photo scan D8 synchro edit<br />

5E power off DC digital off (VCR), print (DV)<br />

60 rev frame DE speed +<br />

62 fwd frame E0 speed -<br />

64 E2 stop motion<br />

65 edit-search - E4<br />

66 x1 E6<br />

67 edit-search + E8 channel scan / flash motion<br />

69 rec-review (not i.e. TR-2200) EC voice boost<br />

6C sleep F0<br />

6E tracking normal F2<br />

74 rew+play F8 digital scan<br />

Auf nächster Seite fortgesetzt. . .


A.2. LANC PROTOKOLL VII<br />

Sony LANC TM Protokoll Parameter<br />

Adresse Wert Adresse Wert<br />

76 FA high-speed-rew<br />

FC still/shuttle (EV-S880)<br />

Sub-Command in Byte 0:<br />

0010 1000 (bin)<br />

The following table shows the actual<br />

Command-Codes to the device.<br />

Only valid with the corresponding Sub-<br />

Command in Byte 0.<br />

0 variable speed zoom Tele: slowest speed<br />

2 variable speed zoom Tele: faster than 00<br />

4 variable speed zoom Tele: faster than 02<br />

6 variable speed zoom Tele: faster than 04<br />

8 variable speed zoom Tele: faster than 06<br />

0A variable speed zoom Tele: faster than 08<br />

0C variable speed zoom Tele: faster than 0A<br />

0E variable speed zoom Tele: fastest speed<br />

10 variable speed zoom Wide: slowest speed<br />

12 variable speed zoom Wide: faster than 10<br />

14 variable speed zoom Wide: faster than 12<br />

16 variable speed zoom Wide: faster than 14<br />

18 variable speed zoom Wide: faster than 16<br />

1A variable speed zoom Wide: faster than 18<br />

1C variable speed zoom Wide: faster than 1A<br />

1E variable speed zoom Wide: fastest speed<br />

25 Fader<br />

27 rec start (DV)<br />

29 rec stop (DV)<br />

30 variable speed zoom Tele (avoiding digital<br />

zoom, some cameras): slowest speed<br />

32 variable speed zoom Tele (avoiding digital<br />

zoom, some cameras): faster than 30<br />

34 variable speed zoom Tele (avoiding digital<br />

zoom, some cameras): faster than 32<br />

35 Zoom Tele slow (working all cameras since<br />

approx. 1996)<br />

36 variable speed zoom Tele (avoiding digital<br />

zoom, some cameras): faster than 34<br />

37 Zoom Wide slow (working all cameras since<br />

approx. 1996)<br />

38 variable speed zoom Tele (avoiding digital<br />

zoom, some cameras): faster than 36<br />

39 Zoom Tele fast (working all cameras since<br />

approx. 1996)<br />

3A variable speed zoom Tele (avoiding digital<br />

zoom, some cameras): faster than 38<br />

3B Zoom Wide fast (working all cameras since<br />

approx. 1996)<br />

3C variable speed zoom Tele (avoiding digital<br />

zoom, some cameras): faster than 3A<br />

3E variable speed zoom Tele (avoiding digital<br />

zoom, some cameras): fastest speed<br />

41 Auto-Focus on/off (not if there is a real<br />

switch at the camera)<br />

45 Focus manual far<br />

47 Focus manual near<br />

49 White balance toggle (not if white balance is<br />

selected via menu)<br />

4B Backlight (not DV)<br />

51 Backlight (DV)<br />

53 Exposure<br />

61 Shutter<br />

77 White balance reset (not if white balance is<br />

selected via menu)<br />

85 Memory impose (models of the early 90’s)<br />

Auf nächster Seite fortgesetzt. . .


A.3. MESSUNG DER SYNCHRONITÄT DER CAMCORDER VIII<br />

Sony LANC TM Protokoll Parameter<br />

Adresse Wert Adresse Wert<br />

87 Color / Mode (models of the early 90’s)<br />

89 Superimpose (models of the early 90’s)<br />

Tabelle A.1: Steuerbefehle des LANC Protokoll nach [Boe07]<br />

Abbildung A.2: LANC Belegung des 2,5mm Klinken Steckers und LANC Symbol<br />

A.3 Messung der Synchronität der Camcorder<br />

Zeit Versatz Zeit Versatz<br />

s µs s µs<br />

0 19 660 278<br />

10 17 900 446<br />

20 28 1200 710<br />

30 28 1500 1043<br />

40 29 1800 1440<br />

50 32 2100 1892<br />

60 36 2400 2410<br />

90 36 2700 2987<br />

120 45 3000 3626<br />

180 63 3300 4325<br />

240 84 3600 5044<br />

300 98 3900 5743<br />

420 156 4200 6467<br />

540 208<br />

Tabelle A.2: Messdaten der Synchronität der Camcorder (Auszug)


A.4. KOSTENAUFSTELLUNG FÜR DIE ENTWICKELTE STEREOVIDEOKAMERA IX<br />

A.4 Kostenaufstellung <strong>für</strong> <strong>die</strong> entwickelte <strong>Stereo</strong>videokamera<br />

Anzahl Preis<br />

Kameras Sony HDR-SR1E 2 2499,98 Euro<br />

Halterung:<br />

Halterungsrahmen 1 61,22 Euro<br />

Servomotoren 2 129,90 Euro<br />

Servo Differenzierbaustein 1 24,20 Euro<br />

Aluminium Platten 2 3,38 Euro<br />

diverse Schrauben ca. 60 22,7 Euro<br />

Winkel und Griffe je 2 11,87 Euro<br />

Befestigungsmaterial 2,76 Euro<br />

Schnellwechseladapter 2 121,55 Euro<br />

Be<strong>die</strong>neinheit:<br />

Wendelpotentiometer: 1<br />

Audiokabel und Stecker 3 10,47 Euro<br />

Verlängerungskabel 2 6,98 Euro<br />

TinyTrak3Plus Bausatz 1 83,40 Euro<br />

GPS-Empfänger 1 49,95 Euro<br />

Adapterkabel fuer GPS Empfänger 1 11,45 Euro<br />

Bauelemente der Fernbe<strong>die</strong>nung ca. 90 89,23 Euro<br />

Diverse Batterien 12 16,9 Euro<br />

Summe: 3145,94 Euro<br />

Tabelle A.3: Kosten <strong>für</strong> <strong>die</strong> <strong>Stereo</strong>videokamera incl. 19% MwSt.


A.4. KOSTENAUFSTELLUNG FÜR DIE ENTWICKELTE STEREOVIDEOKAMERA X<br />

Abkürzungsverzeichnis<br />

µs Mikrosekunde<br />

AP I Advanced Programming Interface (Programmierschnittstelle)<br />

AP RS Automatic Positioning/Packet Reporting System<br />

AV CHD Advanced Video Codec High Definition<br />

BAS Bild Austast-Synchron Signal<br />

bspw. beispielsweise<br />

ca. circa<br />

cm Zentimeter<br />

CP U Central Processing Unit, (Hauptprozessor)<br />

DivX Digital Video Express<br />

DT MF Dual Tone Multiple Frequency (Doppeltonmehrfequenz, Mehrfrequenz-<br />

wahlverfahren)<br />

DV Digital Video<br />

DV B Digital Video Broadcasting<br />

DV I Digital Visual Interface<br />

EXIF Exchangeable Image File Format<br />

F BAS Farb-Bild-Austast-Synchron-Signal<br />

ggf. gegebenenfalls<br />

GHz Giga Herz<br />

GP S Global Positioning System<br />

GP U Graphic Processing Unit, (Grafikprozessor)<br />

HDMI High Definition Multimedia Interface<br />

HDT V High Definition Television<br />

HDV High Definition Video<br />

Hz Herz (Einheit der Frequenz)<br />

ISO International Organization for Standardization<br />

IT U International Telecommunikation Union<br />

IT U − R International Telecommunikation Union - Radiocommunication<br />

kbit Kilobit<br />

LANC Local Application Control Bus System<br />

LP/SP Aufnahme long play/standard play (Bandgeschwindigkeit bei der Aufnahme)<br />

m Meter<br />

MAZ Magnetische Aufzeichnung<br />

Mbps Megabit pro Sekunde (Datenübertragungsrate)


A.4. KOSTENAUFSTELLUNG FÜR DIE ENTWICKELTE STEREOVIDEOKAMERA XI<br />

MOF D Maximum on film deviation, Maximale Deviation auf dem Film (Bild-<br />

sensor)<br />

MP 3 MPEG-1 Audio Layer 3 (Dateiformat zur verlustbehafteten Audiokom-<br />

pression)<br />

MP EG Moving Picture Experts Group<br />

MP EG − 4 Standardisiertes Containerformat der MPEG<br />

ms Millisekunde<br />

NMEA National Marine Electronics Association<br />

NT SC National Television System Committee<br />

Ogg Container Dateiformat <strong>für</strong> Multimedia-Dateien<br />

OGM Ogg Media<br />

P AL Phase Alternating Line<br />

P C Personal Computer<br />

P DA Personal Digital Assistant<br />

S − V ideo Separate Video<br />

SCART Syndicat des Constructeurs d’Appareils Radiorécepteurs et Téléviseurs<br />

SDI Serial Digital Interface<br />

SMP T E Society of Motion Picture and Television Engineers<br />

T BC Time Base Corrector<br />

UKW Ultrakurzwelle<br />

V CR Video Cassette Recorder<br />

V DR Video Disk Rekorder (Harddiskrekorder, Festplattenrekorder)<br />

V ESA Video Electronics Standards Association<br />

V fW Video for Windows<br />

vgl. vergleiche<br />

V HS Video Home System<br />

V T R Video Tape Recorder<br />

W DM Windows Driver Model - (Treiberschnittstelle)<br />

XML Extendet Markup Language<br />

z.B. zum Beispiel<br />

z.Zt. zur Zeit


Literaturverzeichnis XII<br />

Literaturverzeichnis<br />

[Alb92] ALBERT, S. Pastoor M. Wöpking J. Fournier T.: Digital stereoscopic imaging & app-<br />

lications. 1992. – Report of a DISTIMA Project, RACE 2- R2045, DISTIMA Deliver-<br />

able 26<br />

[AP95] AZARBAYEJANI, A. ; PENTLAND, A.: Camera selfcalibration from one point cor-<br />

respondence. 1995. – MIT media laboratory, perceptual computing technical report<br />

Nr.341, 1995.<br />

[ATV00] A. FUSIELLO ; TRUCCO, E. ; VERRI, A.: A Compact Algorithm for Rectification of<br />

<strong>Stereo</strong> Pairs. In: Machine Vision and Applications 12 (2000), Nr. 1, S. 16–22<br />

[Bar07] BARTHEL, Prof. Dr. Kai U.: Farbsysteme (2). PDF. 2007. – http:<br />

//www.f4.fhtw-berlin.de/~barthel/veranstaltungen/SS07/<br />

Mete1/vorlesungen/Farbsysteme.pdf [Stand:21.05.2007]<br />

[Ber98] BERCOVITZ, J.: Image-Side Perspective and <strong>Stereo</strong>scopy. Paper. 1998. – in <strong>Stereo</strong>s-<br />

copic Displays and Virtual Reality Systems V, S. Fisher, J. Merritt, M. Bolas, Editors,<br />

Proceedings of the SPIE vol. 3295, Lawrence Berkeley National Laboratory, Berkeley,<br />

CA<br />

[Ber04] BERGER, Klaus: Einführender Vergleich in <strong>die</strong> Korrespondenzanalyse. 2004. – For-<br />

schungsbericht. Technische Universität Wien, Proseminar „Grundlagen wissenschaft-<br />

lichen Arbeitens“<br />

[Blo07] BLOOS, Werner: ste-fra R○CAM. Webseite. 2007. – http://www.digi-dat.de/<br />

produkte/ [Stand:12.05.2007]<br />

[Boe07] BOEHMEL, Manfred: SONY Protokolle. Webseite. 2007. – http://www.<br />

boehmel.de/protocl.htm [Stand:12.02.2007]<br />

[CD07] 21ST CENTURY 3D: 21st Century 3D: 3DVX3.5, Adds Hyperstereo and Solid<br />

State Recording. (2007). – http://www.21stcentury3d.com/press/<br />

pr-070130-3dvx35.html [Stand:02.06.2007]<br />

[Cro07] CROCKETT, R.: LANC Shepherd, Wired Remote for <strong>Stereo</strong> Video and Digital <strong>Stereo</strong><br />

Photography. Webseite. 2007. – http://www.ledametrix.com/lancshep/<br />

index.html [Stand:10.04.2007]<br />

[Dai07] DAIMLERCHRYSLER, Infitec: DaimlerChrysler, Infitec, Wellenlängenmultiplex Vi-<br />

sualisierungssysteme, 2007. – http://www.infitec.net/infitec.pdf<br />

[Stand:02.04.2007]


Literaturverzeichnis XIII<br />

[DAK06] DOUGLAS A. KERR, P.E. Derivation of the „Cosine Fourth“ Law for Falloff of Illu-<br />

minance Across a Camera Image. Paper. 2006<br />

[DFS07] 3D-FOTO-SHOP: 3D Foto Shop, 3D- Ausrüstungen, 3D Grafiken, 3D Bil-<br />

der, 3D-Kameras. Webseite. 2007. – http://www.3d-foto-shop.de/<br />

pi-615054883.htm?categoryId=7 [Stand:02.06.2007]<br />

[Die07] DIENSTLEISTUNGEN, Digi D.: Digi Dat, Dienstleistungen - Anlagen - Technik.<br />

Webseite. 2007. – http://www.digi-dat.de/produkte/index.html#<br />

stefraLANC [Stand:10.04.2007]<br />

[Eli07] ELIASON, Eric: The EQUIRECTANGULAR projection. Webseite. 2007.<br />

– http://hirise-pds.lpl.arizona.edu/PDS/CATALOG/DSMAP.CAT<br />

[Stand: 20.06.2007]<br />

[Eng07] ENGLUND, Malin: The Ultimate Homebuild Stabilizers. Webseite. 2007. – http:<br />

//www.cafepress.com/stabilizer [Stand: 12.06.2007]<br />

[Gir01] GIRODB, Marcus Magnora Peter Eiserta B.: Multi-View Image Coding with Depth<br />

Maps and 3-D Geometry for Prediction, 2001. – Telecommunications Laboratory, Uni-<br />

versity of Erlangen-Nuremberg, Informations Systems Laboratory, Stanford University<br />

[Gmb07] MORE3D GMBH: More3d SoftwareSuite, MoreVideo. Webseite. 2007. – http:<br />

//www.more3d.de/german/morevideo_d.htm [Stand:15.05.2007]<br />

[GMR07] GRAPHIC MEDIA RESEARCH, Cannon F.: 3D Camera Slidebar. Webseite. 2007. –<br />

http://www.pokescope.com/cameras/ [Stand:12.05.2007]<br />

[Her07] HERBIG, Gerhard P.: Infos rund um <strong>die</strong> <strong>Stereo</strong>skopie und <strong>Stereo</strong>fotografie. Websei-<br />

te. 2007. – http://www.herbig-3d.de/german/stereofotografie_<br />

frame.htm?own [Stand:30.03.2007]<br />

[Hes10] HESS, Carl: Die Reaktion und Akkomodation des menschlichen Auges und ihre Anoma-<br />

lien. 3. neubearb. Auflage. 1910<br />

[Hof05] HOFMANN, O.P. Burmeister M.G. Litza M. Nitschke U.: Synchronous stereo-video and<br />

biosignal recording - a basic setup for Human-Computer-Interface applications. 2005.<br />

– In: IEEE Proceedings of the 2nd Int’l Conference on Neural Engineering<br />

[IDS07] IO DISPLAY SYSTEMS, LLC: NuView Camcorder Adapter. Webseite.<br />

2007. – http://i-glassesonline.stores.yahoo.net/nuview.html<br />

[Stand:15.06.2007]<br />

[IG07] ITEM INDUSTRIETECHNIK GMBH: item, Online Katalog, Winkelgetriebe WG 180 ◦ D.<br />

2007. – http://catalog.item-international.com/Onlinekatalog/<br />

?sprache=DE [Stand:25.06.2007]<br />

[inc07a] INC., 3DCombine: 3DCombine. Webseite. 2007. – http://www.3dcombine.<br />

com/ [Stand:12.06.2007]


Literaturverzeichnis XIV<br />

[Inc07b] INC., Spatial V.: Spatial View, SVI 19” Series - the Affordable. PDF. 2007.<br />

– http://www.spatialview.com/products.cfm?cat=100&id=190<br />

[Stand:02.04.2007]<br />

[Int06] INTEL, Corporation: Open Source Computer Vision Library. Webseite. 2006.<br />

– http://www.intel.com/technology/computing/opencv/index.<br />

htm, [Stand 20.06.2007]<br />

[ISO04] ISO/IEC 14496, Information technology – Coding of audio-visual objects, 2004.<br />

– http://www.iso.org/iso/en/StandardsQueryFormHandler.<br />

StandardsQueryFormHandler?scope=CATALOGUE&sortOrder=<br />

ISO&committee=ALL&isoDocType=ALL&title=true&keyword=14496<br />

[Stand: 08.06.2007]<br />

[Koc93] KOCH, A. Woods T. Docherty R.: Image Distortions in <strong>Stereo</strong>scopic Video Systems.<br />

1993. – in <strong>Stereo</strong>scopic Displays and Applications IV, John O. Merrit, Scott S. Fisher,<br />

Editors, Proc. SPIE 1915, pp. 36-48, 1993.<br />

[Lac95] LACOTTE, B.: Elimination of keystone and crosstalk effects in stereoscopic video,<br />

1995. – in stereoscopic video, Tech. Rep. 95-31, INRS-Telecommunications, Universite<br />

du Quebec, Institut national de la recherche scientique<br />

[Lüd05] LÜDTKE, Robin: Multimediaschnittstelle Microsoft DirectShow, Bergakademie Frei-<br />

berg, Diplomarbeit, 2005<br />

[Mad07] MADDY, R.: PuppetKites.net,Depth of Field/Circle of Confusion an Indicator of Op-<br />

timum Deviation? Webseite. 2007. – http://www.puppetkites.net/blog/<br />

archives/31 [Stand:02.04.2007]<br />

[Med07] MEDIAGROUP, TMP: TMP Mediagroup 3D Produktion in 3D <strong>Stereo</strong>- Virtuelle<br />

Realität- 3D Filmproduktion- Powerwall. Webseite. 2007. – http://www.<br />

tmp-mediagroup.de/ [Stand:02.06.2007]<br />

[Mic86] MICHAEL, Lukacs: Predictive coding of multi-viewpoint image sets. 1986. – Proc. on<br />

ICASSP 86<br />

[MPE01] MPEG.ORG: Motion Picture Experts Group, Test Model 5. 2001. – http://www.<br />

mpeg.org/MPEG/MSSG/#source [Stand:4.06.2007]<br />

[Mü02] MÜHLMANN, Dipl.-Ing. K.: Design und Implementierung <strong>eines</strong> Systems zur schnellen<br />

Rekonstruktion dreidimensionaler Modelle aus <strong>Stereo</strong>bildern, Diss., 2002. – Universi-<br />

tät Mannheim, Fakultät <strong>für</strong> Mathematik und Informatik<br />

[N1V05] N1VG.NET: OpenTracker Projekt. Webseite. 2005. – http://n1vg.net/<br />

opentracker/ [Stand:19.06.2007]<br />

[Naj05] NAJAR, K.: Computational Cameras: Convergence of Optics and Software, 2005. –<br />

International Conference on Computer Graphics and Interactive Techniques, Boston,<br />

Massachusetts, Article No. 6


Literaturverzeichnis XV<br />

[NVI01] NVIDIA, Corporation: DRIVERS FOR WINDOWS, NVIDIA 3D <strong>Stereo</strong> User’s Guide,<br />

Revision 2.0. (NVIDIA Webseite). 2001. – http://www.nvidia.de/object/<br />

LO_20011212_3592.html [Stand:29.05.2007]<br />

[Pac07] PACE: Pace Fusion 3d camera system. Webseite. 2007. – http://www.pacehd.<br />

com/ [Stand:02.06.2007]<br />

[Pas87] PASTOOR, Siegmund: Bevorzugte Betrachtungsbedingungen bei großformatigem 2D-<br />

und 3D-Standbildern. Psychooptische Begründung <strong>für</strong> einen 3DTV Standard. 1.Aufla-<br />

ge. 1987<br />

[Pro07a] PRODUCTS, Berezin <strong>Stereo</strong> P.: Adjustable - Twin Vertical Mount. Websei-<br />

te. 2007. – http://www.berezin.com/3d/slidebars.htm#Photo3D<br />

[Stand:12.05.2007]<br />

[Pro07b] PRODUCTS, Berezin <strong>Stereo</strong> P.: Fixed - Twin Vertical Mount. Webseite. 2007. – http:<br />

//www.berezin.com/3d/slidebars.htm#Photo3D [Stand:12.05.2007]<br />

[Pro07c] PRODUCTS, Berezin <strong>Stereo</strong> P.: Heavy Duty Slide Bars. Webseite. 2007. – http:<br />

//www.berezin.com/3d/slidebars.htm#Photo3D [Stand:12.05.2007]<br />

[PS07] PHOTO-SONICS, Inc.: Photo-Sonics Inc., V-Data Video Accessories. Webseite. 2007.<br />

– http://photosonics.com/Sales_HTLM/Downloads/VED-M_Data_<br />

Sheet.pdf [Stand:13.02.2007]<br />

[PTJE07] PHOTO TOOLS JASPER ENGINEERING, California: Twin Camera Bar. Websei-<br />

te. 2007. – http://www.stereoscopy.com/jasper/twin-bar.html<br />

[Stand:12.05.2007]<br />

[Qui07] QUICK, Dr. P.: KMQ In <strong>die</strong> 3. Dimension. Webseite. 2007. – http://<br />

www.kmq3d.de/In_<strong>die</strong>_3__Dimension/in_<strong>die</strong>_3__dimension.html<br />

[Stand:02.04.2007]<br />

[RHS07] RED HEN SYSTEMS, Inc.: Red Hen Systems, Video Collection Hardware - VMS-X.<br />

Webseite. 2007. – http://www.redhensystems.com/products/video_<br />

collection_hardware/default.asp?sm=1 [Stand:12.02.2007]<br />

[Rub07] RUBIO, David: DR-3D Home, David Rubio Discussion Forum. Webseite. 2007. –<br />

http://www.davidrubio3d.com/ [Stand:02.06.2007]<br />

[Sch05] SCHÖNFELD, Jochen: Die <strong>Stereo</strong>skopie, Zu ihrer Geschichte und ihrem medialen Kon-<br />

text, Fakultät <strong>für</strong> Kulturwissenschaften der Universität Tübingen, Kunsthistorisches In-<br />

stitut, Diplomarbeit, 2005<br />

[Sch07] SCHULTE, D.: Welt der <strong>Stereo</strong>skopie. Webseite. 2007. – http://www.<br />

stereoskopie.com/<strong>Stereo</strong>skopie__Theorie_und_Prax/Aus_der_<br />

Fruhgeschichte_der_Ste/body_aus_der_fruhgeschichte_der_<br />

ste.html [Stand:13.04.2007]


Literaturverzeichnis XVI<br />

[Som05] SOMIESKI, Katharina: Aufbau <strong>eines</strong> Forschungsplatzes <strong>für</strong> <strong>die</strong> geometrische <strong>Stereo</strong>-<br />

analyse, Technische Universität Dresden, Institut <strong>für</strong> künstliche Intelligenz, Lehrstuhl<br />

Erkennende Systeme und Bildverarbeitung, Diplomarbeit, 2005<br />

[Sta07] STARKS, Michael: SpaceBar. Webseite. 2007. – http://www.3dmagic.com/<br />

catalog/solidcamhd.html [Stand:12.05.2007]<br />

[Sut07] SUTO, Masuji: <strong>Stereo</strong>Movie Maker. Webseite. 2007. – http://stereo.jpn.<br />

org/eng/stvmkr/ [Stand:12.06.2007]<br />

[Vid07] VIDEO, B&H P.: Steadicam F24VLBHS Flyer-24 Camera Stabilizer (NTSC/PAL) with<br />

V-Lock Mount. 2007. –<br />

B&H Photo Video New York, N.Y. 10001http://www.bhphotovideo.com/c/<br />

product/446403-REG/Steadicam_F24VLBHS_F24VLBHS_Flyer_24_<br />

Camera_Stabilizer.html/kw/STF24IDXBPCV [Stand: 12.06.2007]<br />

[Vie65] VIERLING, Otto: Die <strong>Stereo</strong>skopie in der Photographie und Kinematographie. 1.Auf-<br />

lage. 1965<br />

[Vik03] VIKTOR, Nordling: Efficient Compression of <strong>Stereo</strong>scopic Video Using the MPEG<br />

Standard, Royal Institute of Technology, SE-100 44 Stockholm, Sweden, Diplomarbeit,<br />

2003<br />

[Vra06] VRANCIC, D.: 3D Lanc Master, LANC remote controller for stereoscopic camcorders<br />

/ still cameras, Department of Systems and Control, J. Stefan Institute, Ljubljana, Di-<br />

plomarbeit, 2006<br />

[Weh07] WEHRLI, P.: Polarisation von Licht. Webseite. 2007. – http:<br />

//homepage.hispeed.ch/philipp.wehrli/Physik/Klassische_<br />

Physik/Polarisation_von_Licht/polarisation_von_licht.html<br />

[Stand:02.04.2007]<br />

[Wik07a] WIKIPEDIA: Wikipedia, Die freie Enzyklopä<strong>die</strong>, Video for Windows. Webseite.<br />

2007. – http://de.wikipedia.org/w/index.php?title=Video_for_<br />

Windows&oldid=19305333 [Stand:15.05.2007]<br />

[Wik07b] WIKIPEDIA: Wikipedia, Die freie Enzyklopä<strong>die</strong>, VR-Helm. Webseite. 2007.<br />

– http://de.wikipedia.org/w/index.php?title=VR-Helm&oldid=<br />

27012018 [Stand:02.04.2007]<br />

[Wim04] WIMMER, Dipl. Ing. P.: Aufnahme und Wiedergabe stereoskopischer Videos im Anwen-<br />

dungsbereich der Telekooperation, Johannes Kepler Universität Linz, Diss., 2004<br />

[Wim07] WIMMER, Peter: 3dtv.at, <strong>Stereo</strong>scopic Multiplexer und <strong>Stereo</strong>scopic Player. Webseite.<br />

2007. – http://www.3dtv.at [Stand:12.06.2007]<br />

[Yan95] YANG, Cheng H.: Geometric Models in <strong>Stereo</strong>scopic Video, 1995. – Universite du<br />

Quebec, Institut national de la recherche scientifique, in INRS-Telecommunications<br />

[Zha98] ZHANG, Zhengyou: A Flexible New Technique for Camera Calibration., 1998. – Tech-<br />

nischer Bericht MSR-TR-98-71, Microsoft Research


Abbildungsverzeichnis XVII<br />

Abbildungsverzeichnis<br />

1.1 Abbildung der <strong>Stereo</strong>projektionsleinwand des Lehrstuhls Computergrafik und Vi-<br />

sualisierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7<br />

1.2 Abbildung der zwei Projektoren mit Polarisationsfiltern . . . . . . . . . . . . . . 8<br />

2.1 Querdisparation und Parallaxe . . . . . . . . . . . . . . . . . . . . . . . . . . . 12<br />

2.2 <strong>Stereo</strong>skopisches Scheinfenster . . . . . . . . . . . . . . . . . . . . . . . . . . . 15<br />

2.3 Radialer Spiegelvorsatz und aufgenommenes Bild mit eingezeichneten Strahlen-<br />

gängen aus [Naj05] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19<br />

2.4 <strong>Stereo</strong>skopische Aufnahme und Wiedergabe . . . . . . . . . . . . . . . . . . . . 21<br />

2.5 Epipolargeometrie nach [ATV00] . . . . . . . . . . . . . . . . . . . . . . . . . . 24<br />

2.6 Aufnahme mit konvergierenden und parallelen Kameraachsen . . . . . . . . . . 25<br />

2.7 Bestimmung der Koordinaten <strong>eines</strong> Objektpunktes <strong>für</strong> den linken Bildsensor nach<br />

[Lac95] wobei COkl = fk, CH = X0, MG = Y0, GH = Z0, ∠CEO =<br />

∠CGH = α und ∠CF O = γ ist. . . . . . . . . . . . . . . . . . . . . . . . . . 26<br />

2.8 Finden der linken korrigierten Ebene S’ bei Schrägprojektion (nach [Lac95]),<br />

a)zweidimensionale Abbildung b)dreidimensionale Abbildung . . . . . . . . . . 27<br />

2.9 Schematische Darstellung der Projektion <strong>eines</strong> virtuellen Objektes. . . . . . . . . 30<br />

2.10 Funktionsprinzip der Infitec Interferenzfiltertechnik aus [Dai07] . . . . . . . . . 35<br />

2.11 Randlichtabfall bei Nutzung von Projektoren. a) Mittige Projektion b) Schrägpro-<br />

jektion c) Schrägprojektion auf spezielle Leinwand . . . . . . . . . . . . . . . . 38<br />

2.12 Schematische Darstellung einer a) konvergenten Aufnahme, b) parallelen Aufnah-<br />

me und des c) nicht linearen Tiefeneindruck. Nach [Koc93] . . . . . . . . . . . 39<br />

3.1 21st Century 3DVX3 Kamera [CD07] . . . . . . . . . . . . . . . . . . . . . . . 41<br />

3.2 <strong>Stereo</strong>kamera basierend auf zwei Mini-DV Camcordern [DFS07] . . . . . . . . . 42<br />

3.3 <strong>Stereo</strong>kamera basierend auf zwei Industriekameras [Rub07] . . . . . . . . . . . 43<br />

3.4 NuView Adapter zur zeitsequentiellen Aufnahme von <strong>Stereo</strong>bildpaaren [IDS07] . 44<br />

4.1 VMS-X: Aufnahme der GPS Informationen durch einen „Active Interface Shoe R○ “<br />

[RHS07] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53<br />

4.2 Model VED-M: Annotieren von Videobildern mit GPS Informationen [PS07] . . 53<br />

4.3 Vierkanal Surround Mikrofon (Eigenentwicklung) . . . . . . . . . . . . . . . . . 54<br />

4.4 ste-fra R○ CAM: Halterung <strong>für</strong> 2 Kameras . . . . . . . . . . . . . . . . . . . . . 58<br />

4.5 Entwurf einer Kamerahalterung mit Winkelgetrieben. . . . . . . . . . . . . . . . 59<br />

4.6 Schematische Darstellung der Justierung um <strong>Stereo</strong>basen unter 8,2 cm zu erreichen. 59


Abbildungsverzeichnis XVIII<br />

4.7 Abbildung <strong>eines</strong> <strong>Stereo</strong>bildpaares mit einer <strong>Stereo</strong>basis von 6 cm. . . . . . . . . 60<br />

4.8 Halterung der Einzelkameras an der <strong>Stereo</strong>kamera und Be<strong>die</strong>neinheit . . . . . . . 60<br />

4.9 Ausgabe des Justierungsprogrammes . . . . . . . . . . . . . . . . . . . . . . . . 62<br />

4.10 Anwendung des Tesprogramms um <strong>die</strong> synchronität der Grafikkartenausgänge zu<br />

testen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62<br />

4.11 LANC Shepherd: Fernbe<strong>die</strong>nung zur Steuerung zweier Kameras über das LANC<br />

Protokoll [Cro07] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64<br />

4.12 3DLANCMaster: selbst entwickelte Fernbe<strong>die</strong>nung nach Anleitung von [Vra06] . 65<br />

4.13 Diagramm des zeitlichen Verlaufs der Synchronität beider Camcorder. Die X-<br />

Achse stellt <strong>die</strong> abgelaufene Zeit in Sekunden und <strong>die</strong> Y-Achse <strong>die</strong> Differenz der<br />

Timingsignale zwischen den Camcordern in µ-Sekunden dar. . . . . . . . . . . . 67<br />

4.14 TinyTrak3: Konverter zur Transformation serieller Daten in Audiodaten. . . . . . 68<br />

4.15 GPS-Maus: serieller Global Positioning System Empfänger. . . . . . . . . . . . 69<br />

4.16 Kamerakalibrierung nach [Zha98] der linken Kamera des <strong>Stereo</strong>systems <strong>für</strong> <strong>die</strong><br />

geringste Brennweite. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70<br />

4.17 Koordinatensysteme bei der Abbildung nach [Som05] . . . . . . . . . . . . . . . 72<br />

4.18 Kalibrierungsaufnahme mit Schachbrettmuster einer Einzelkamera des <strong>Stereo</strong>sy-<br />

stems. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73<br />

4.19 Transformation des globalen Koordinatensystems in das Koordinatensystem der<br />

linken Kamera (nach [Mü02]) . . . . . . . . . . . . . . . . . . . . . . . . . . . 74<br />

5.1 Darstellung <strong>eines</strong> DirectShow Filtergraphen im Programm Graphedit. . . . . . . 77<br />

5.2 Darstellung der Speicherverwaltung und Me<strong>die</strong>ntypenvermittlung nach [Lüd05] . 79<br />

5.3 Darstellung des „Side-by-Side Formates“. . . . . . . . . . . . . . . . . . . . . . 80<br />

5.4 Berichtigte (oben) und originale Szenerie (unten) einer konvergenten Aufnahme<br />

mit 12 Grad Konvergenzwinkel in Anaglyphentechnik (Rot-Grün) . . . . . . . . 82<br />

5.5 Darstellung des Filtergraphen bei Verwendung des Rektifizierungsfilters. . . . . . 83<br />

5.6 Darstellung des Filtergraphen bei Verwendung <strong>eines</strong> dualen Eingabefilters. . . . . 83<br />

5.7 Darstellung des Filtergraphen zur Nutzung des Anaglyph Transform Filters und<br />

dessen Einstellungsdialog. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84<br />

5.8 Echtes Rot-Cyan Anaglyphenbild . . . . . . . . . . . . . . . . . . . . . . . . . 86<br />

5.9 Graues Anaglyphen Bild. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87<br />

5.10 Farbiges Anaglyphen Bild. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87<br />

5.11 Darstellung <strong>eines</strong> Filtergraphen bei Verwendung des <strong>Stereo</strong>wiedergabefilters . . . 88<br />

5.12 Screenshot der Anwendung Flexnet-Soundmodem . . . . . . . . . . . . . . . . . 90<br />

5.13 Ko<strong>die</strong>rung von mehreren Ansichten <strong>eines</strong> Bildes durch eine Tiefenkarte aus [Gir01],<br />

a) Erzeugung der Tiefenkarte b) Berechnung einer Ansicht durch eine Tiefenkarte 92<br />

5.14 Folge von I,P, und B- Bildern bei der Kompression von stereoskopischen Video<br />

(nach [Vik03]) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93<br />

6.1 Abbildung des Sterovideokamerasystems . . . . . . . . . . . . . . . . . . . . . 95<br />

6.2 Panorama Aufnahme mit Hilfe einer gestauchten Halbkugel (nach [Naj05]) . . . 96


Abbildungsverzeichnis XIX<br />

6.3 Schwebestativ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98<br />

A.1 Abbildung des Programmierkabels zum Ändern der Fernbe<strong>die</strong>nungsfirmware . . IV<br />

A.2 LANC Belegung des 2,5mm Klinken Steckers und LANC Symbol . . . . . . . . VIII


Tabellenverzeichnis XX<br />

Tabellenverzeichnis<br />

4.1 HDV taugliche Aufnahmeme<strong>die</strong>n und deren Formate. . . . . . . . . . . . . . . . 49<br />

4.2 Vergleich von Sony Camcordern. . . . . . . . . . . . . . . . . . . . . . . . . . . 56<br />

A.1 Steuerbefehle des LANC Protokoll nach [Boe07] . . . . . . . . . . . . . . . . . VIII<br />

A.2 Messdaten der Synchronität der Camcorder (Auszug) . . . . . . . . . . . . . . . VIII<br />

A.3 Kosten <strong>für</strong> <strong>die</strong> <strong>Stereo</strong>videokamera incl. 19% MwSt. . . . . . . . . . . . . . . . . IX


Danksagung<br />

XXI<br />

Hiermit möchte ich mich bei allen Beteiligten <strong>für</strong> <strong>die</strong> Unterstützung im Zeitraum der Erstellung<br />

der Diplomarbeit bedanken.<br />

Besonderer Dank gilt Herrn Prof. Dr. Gumhold <strong>für</strong> <strong>die</strong> interessante Aufgabenstellung und <strong>die</strong> Be-<br />

treuung <strong>die</strong>ser Arbeit.<br />

Weiteren Dank möchte ich dem Lehrstuhl Computergrafik und Visualisierung an der Informatik-<br />

fakultät der TU-Dresden <strong>für</strong> <strong>die</strong> Möglichket der Realisierung der Diplomarbeit sowie der Bereit-<br />

stellung der Technik aussprechen.<br />

Einen besonderen Dank an Thomas Melde und Robert Weser, <strong>die</strong>n mich in elektrotechnischen<br />

Fragen unterstützt haben.<br />

Nicht zuletzt danke ich meinen Eltern, <strong>die</strong> mir das Studium erst ermöglicht haben, meinem Bru-<br />

der und allen meinen Freunden <strong>für</strong> ihre Unterstützung und ihr Verständnis da<strong>für</strong>, dass ich in den<br />

letzten Monaten nicht immer Zeit <strong>für</strong> sie hatte.


Erklärungen zum Urheberrecht<br />

XXII<br />

• „ACVHD“ und das „ACVHD“- Logo sind Markenzeichen der Matsushita Electric Industrial<br />

Co., Ltd und der Sony Corporation.<br />

• „Dolby“ und das Doppel-D-Symbol sind Marken von Dolby Laboraties.<br />

• „Microsoft“, „Windows“, „DirectX“ und „DirectShow“ sind Markenzeichen oder eingetra-<br />

gene Markenzeichen der Microsoft Corporation in den USA und in anderen Ländern.<br />

• „MacOS“ und „QuickTime“ sind Markenzeichen oder eingetragene Markenzeichen der Ap-<br />

ple Inc. in den USA und in anderen Ländern.<br />

• „HDMI“, das HDMI-Logo und „High-Definition Multimedia Interface“ sind Markenzei-<br />

chen oder eingetragene Markenzeichen von HDMI Licensing LLC.<br />

• „Intel“, „Intel Core“ und „Pentium“ sind Markenzeichen der Intel Corporation oder ihrer<br />

Tochtergesellschaften in den USA und anderen Ländern.<br />

• „Adobe“ und „Adobe Reader“ sind Markenzeichen der Adobe Systems Incorporated.<br />

• „Christie“ und „Christie DS+26“ sind Markenzeichen oder eingetragene Markenzeichen der<br />

Christie Digital Systems, Inc.<br />

• „3D Studio Max“, „3ds Max“ und „Maya“ sind Markenzeichen oder eingetragene Marken-<br />

zeichen der Autodesk Incorporated in den USA und in anderen Ländern.<br />

• „NVIDIA“, das NVIDIA-Logo, „Forceware“ und „Quadro“ sind Markenzeichen oder ein-<br />

getragene Markenzeichen der NVIDIA Corporation.<br />

• “Wrigley’s“ und „Wirgley’s Spearmint“ sind Markenzeichen oder eingetragene Markenzei-<br />

chen der Wirgley Corporation oder ihrer Tochtergesellschaften in den USA und anderen<br />

Ländern.<br />

Alle anderen in <strong>die</strong>sem Dokument erwähnten Produktnamen können Markenzeichen oder einge-<br />

tragene Markenzeichen der jeweiligen Eigentümer sein. Nicht alle Markenzeichen und eingetra-<br />

gene Markenzeichen sind mit R○ oder TM gekennzeichnet, was nicht zu der Annahme berechtigt,<br />

<strong>die</strong>se Namen seien im Sinne der Warenzeichen- und Markenschutz- Gesetzgebung als frei zu be-<br />

trachten und dürften daher von jedermann benutzt werden.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!