12.11.2012 Aufrufe

Praktische Anwendung von HDRI in der Postproduktion - Blochi.com

Praktische Anwendung von HDRI in der Postproduktion - Blochi.com

Praktische Anwendung von HDRI in der Postproduktion - Blochi.com

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

Bibliografischer Nachweis<br />

Bloch, Christian: <strong>Praktische</strong>r E<strong>in</strong>satz <strong>von</strong> High Dynamic Range Imag<strong>in</strong>g<br />

<strong>in</strong> <strong>der</strong> <strong>Postproduktion</strong><br />

Diplomarbeit, Hochschule für Technik, Wirtschaft und Kultur Leipzig (FH)<br />

Fachbereich Polygrafische Technik, Studiengang Medientechnik, 2003<br />

102 Seiten, 92 Bil<strong>der</strong>, 7 Tabellen, 58 Quellenangaben<br />

Autorreferat<br />

High Dynamic Range Imag<strong>in</strong>g (<strong>HDRI</strong>) ist e<strong>in</strong>e neue Methode, um den gesamten<br />

sichtbaren Kontrastumfang digital zu erfassen und zu bearbeiten. Damit wird<br />

nicht nur die herkömmliche Bildbearbeitung erweitert, son<strong>der</strong>n es erschließen<br />

sich vollkommen neue <strong>Anwendung</strong>en. So erlaubt <strong>HDRI</strong> meßtechnisch korrekte<br />

Aussagen über die tatsächliche Helligkeit <strong>von</strong> abgebildeten Objekten o<strong>der</strong> Licht-<br />

quellen. Beson<strong>der</strong>e Bedeutung kommt <strong>HDRI</strong> Panoramafotos zu, denn die dar<strong>in</strong><br />

enthaltenen Licht<strong>in</strong>formationen können zur Beleuchtung virtueller 3D-Objekte<br />

benutzt werden.<br />

Es kommt <strong>in</strong> dieser Arbeit nur Hard- und Software zur <strong>Anwendung</strong>, die auf<br />

dem freien Markt erhältlich ist. Schwerpunkt liegt auf <strong>der</strong> vollständigen Nach-<br />

vollziehbarkeit aller geschil<strong>der</strong>ten Methoden. Daraus resultieren Anleitungen<br />

und Empfehlungen, wie High Dynamic Range Imag<strong>in</strong>g <strong>in</strong> e<strong>in</strong>e vorhandene<br />

<strong>Postproduktion</strong>skette effizient e<strong>in</strong>gebunden werden kann.<br />

Leipzig, den 04.08.2003


Vorwort<br />

Die <strong>HDRI</strong> Technologie hat sich <strong>in</strong> aufwendigen Filmproduktionen bewährt.<br />

Große <strong>Postproduktion</strong>shäuser wie ILM [1] („Harry Potter“), Digital Doma<strong>in</strong> [2]<br />

(„X-Men“), und Rhythm&Hues [3] („Spi<strong>der</strong>man“) haben dabei eigene Arbeits-<br />

methoden entwickelt, die auf proprietärer Software basieren. Diese Arbeitswei-<br />

sen werden jedoch als Industriegeheimnisse streng behütet. In dieser Arbeit<br />

werden Methoden aufzeigt, wie auch man auch ohne eigene Entwicklungsabtei-<br />

lung die Vorteile <strong>von</strong> <strong>HDRI</strong> voll nutzen kann.<br />

<strong>HDRI</strong> rüttelt an den Grundpfeilern herkömmlicher digitaler Bildbearbeitung. Des-<br />

halb wird im Kapitel 1 die Grundidee h<strong>in</strong>ter <strong>HDRI</strong> ausführlich erklärt.<br />

In Kapitel 2 wird das benötigte Handwerkszeug vorgestellt. Herkömmliche Bild-<br />

formate erweisen sich als unzulänglich, und herkömmliche Software wie Photo-<br />

shop kann mit <strong>HDRI</strong> nicht umgehen. Neue Formate und Programme werden<br />

vorgestellt, verglichen und nach Integrationsfähigkeit bewertet.<br />

Wie man HDR Bil<strong>der</strong> aufnimmt, wird <strong>in</strong> Kapitel 3 untersucht. Alternative Verfah-<br />

ren werden diskutiert, und die optimale Vorgehensweise wird herausgestellt.<br />

Zusätzlich wird e<strong>in</strong> Ausblick auf zukünftige Aufnahmeverfahren gegeben.<br />

Kapitel 4 deckt die Vorteile <strong>von</strong> <strong>HDRI</strong>s <strong>in</strong> <strong>der</strong> Bildbearbeitung auf. An Beispielen<br />

werden konkrete Arbeitsmethoden geschil<strong>der</strong>t und mit herkömmlicher Bildbear-<br />

beitung verglichen.<br />

Der Aufnahme <strong>von</strong> <strong>HDRI</strong> Panoramen ist das Kapitel 5 gewidmet. Es werden<br />

optimierte Methoden e<strong>in</strong>geführt, verglichen und e<strong>in</strong>er Aufwandsanalyse unterzo-<br />

gen.<br />

In Kapitel 6 wird erklärt, wie <strong>HDRI</strong>s zur Beleuchtung <strong>von</strong> 3D Objekten verwen-<br />

det werden können. In e<strong>in</strong>er Testreihe wird bewiesen, daß die Grundidee <strong>in</strong><br />

den 5 marktführenden 3D Programmen funktioniert. Weiterführende Praktiken<br />

werden aufgezeigt, unter an<strong>der</strong>em e<strong>in</strong>e vom Verfasser selbst entwickelte.


Inhaltsverzeichnis<br />

1. E<strong>in</strong>führung <strong>in</strong> die Grundlagen <strong>von</strong> <strong>HDRI</strong> ....................................................1<br />

1.1. Begriffsklärung.....................................................................................1<br />

1.2. Wie wir die Welt sehen...........................................................................2<br />

1.3. Digitale Bil<strong>der</strong> .....................................................................................3<br />

1.4. Wie<strong>der</strong>gabemedien................................................................................5<br />

1.5. Fotografie – Was ist dran am Fotorealismus?...........................................7<br />

2. Neue Werkzeuge..........................................................................................9<br />

2.1. Dateiformate........................................................................................9<br />

2.1.1. Raw B<strong>in</strong>ary Float<strong>in</strong>g Po<strong>in</strong>t .RAW / .FLOAT................................................9<br />

2.1.2. Portable Float Map .PFM .................................................................10<br />

2.1.3. Float<strong>in</strong>g Po<strong>in</strong>t TIFF .TIF ..................................................................10<br />

2.1.4. Radiance .HDR / .PIC .......................................................................10<br />

2.1.5. LogLuv Format .TIF.........................................................................11<br />

2.1.6. ILM OpenEXR .EXR........................................................................12<br />

2.1.7. Kodak ERI-JPEG.............................................................................13<br />

2.1.8. Vergleichstabelle .............................................................................14<br />

2.2. Spezielle Software...............................................................................14<br />

2.2.1. HDRView ......................................................................................15<br />

2.2.2. HDRShop......................................................................................15<br />

2.2.3. <strong>HDRI</strong>E.........................................................................................15<br />

2.2.4. HCR-Edit......................................................................................16<br />

2.2.5. Photosphere...................................................................................16<br />

2.2.6. Photogenics ...................................................................................17<br />

2.2.7. mkhdr ..........................................................................................17<br />

2.2.8. Vergleich.......................................................................................18<br />

2.3. <strong>HDRI</strong>-taugliche Composit<strong>in</strong>g Programme.............................................19<br />

2.4. Panoramaformate ...............................................................................20<br />

2.4.1. Spherical Map ................................................................................20<br />

2.4.2. Cubic Map.....................................................................................21<br />

2.4.3. Angular Map..................................................................................22<br />

2.4.4. Vergleichstabelle .............................................................................23<br />

3. Aufnahme <strong>von</strong> HDR Images ......................................................................23<br />

3.1. Digitale Sensoren ...............................................................................24<br />

3.1.1. Technische Problemdef<strong>in</strong>ition...............................................................24<br />

3.1.2. „Time-to-Saturation“........................................................................24<br />

3.1.3. Logarithmische Sensoren....................................................................25<br />

3.1.4. Digital Pixel Sensor..........................................................................25<br />

3.1.5. Rasterversetzte Belichtung..................................................................26<br />

3.1.6. SuperCCD SR.................................................................................27<br />

3.1.7. Doppelblitzverfahren ........................................................................27<br />

3.2. Realisierte Systeme .............................................................................28<br />

3.2.1. HDR Video ....................................................................................28<br />

3.2.2. Digitale Fotografie ...........................................................................29<br />

3.3. Handarbeit.........................................................................................30<br />

3.3.1. Aufnehmen <strong>der</strong> Belichtungsreihe...........................................................31<br />

3.3.2. Welche Kamera? Analog o<strong>der</strong> Digital? ...................................................31<br />

3.3.3. Kalibrierung ..................................................................................33<br />

3.3.4. Rekonstrukion des <strong>HDRI</strong> ....................................................................35


4. <strong>Anwendung</strong> <strong>in</strong> <strong>der</strong> Bildbearbeitung............................................................42<br />

4.1. Belichtungskontrolle ...........................................................................42<br />

4.2. Bewegungsunschärfe...........................................................................46<br />

4.3. Glow- und Bloom- Effekte....................................................................49<br />

4.4. simulierte Filmbelichtung ....................................................................50<br />

5. HDR Environments...................................................................................52<br />

5.1. One Shot Technik ................................................................................52<br />

5.2. Segment Technik .................................................................................53<br />

5.3. Spiegel Technik...................................................................................55<br />

5.3.1. Das Pr<strong>in</strong>zip....................................................................................55<br />

5.3.2. Das Fotografieren ............................................................................57<br />

5.3.3. Übersicht des Nachbearbeitungsprozesses ...............................................58<br />

5.3.4. Umwandlung <strong>in</strong> HDR........................................................................59<br />

5.3.5. Abwicklung <strong>in</strong> HDR-Shop...................................................................59<br />

5.3.6. Retusche <strong>in</strong> Photogenics.....................................................................62<br />

5.4. Weitw<strong>in</strong>kel Technik..............................................................................64<br />

5.4.1. rechtliche Vorbemerkungen .................................................................64<br />

5.4.2. Fotografie......................................................................................65<br />

5.4.3. Umwandlung <strong>in</strong> <strong>HDRI</strong>.......................................................................66<br />

5.4.4. Entzerrung mit HDRShop...................................................................66<br />

5.4.5. Panoramageneration <strong>in</strong> Photogenics ......................................................69<br />

5.4.6. Bessere Qualität durch PTPicker ..........................................................70<br />

5.5. Son<strong>der</strong>fall Skydome ............................................................................74<br />

5.5.1. Vorüberlegungen .............................................................................74<br />

5.5.2. Das Fotografieren ............................................................................75<br />

5.5.3. Umwandlung <strong>in</strong> HDR........................................................................75<br />

5.5.4. Entzerrung <strong>in</strong> HDRShop ....................................................................75<br />

5.6. Vergleich............................................................................................77<br />

5.7. Welche Auflösung ist notwendig?..........................................................78<br />

6. <strong>Anwendung</strong> im CGI Bereich......................................................................79<br />

6.1. CGI – Computer Generated Images......................................................79<br />

6.1.1. Klassisches Fotorealistisches Ren<strong>der</strong><strong>in</strong>g..................................................80<br />

6.1.2. Physikalisch Basiertes Ren<strong>der</strong><strong>in</strong>g..........................................................81<br />

6.1.3. Über den Umgang mit <strong>der</strong> Simulation.....................................................82<br />

6.1.4. Image Based Light<strong>in</strong>g .......................................................................83<br />

6.2. Fallstudie A: Re<strong>in</strong>e Simulation, In-Camera ...........................................84<br />

6.2.1. Aufbau und Vorbereitung....................................................................85<br />

6.2.2. <strong>HDRI</strong> Challenge..............................................................................87<br />

6.2.3. Das Tischproblem ............................................................................89<br />

6.3. Fallstudie B: Extrahieren <strong>der</strong> Licht<strong>in</strong>formation......................................90<br />

6.4. <strong>HDRI</strong> Projektion durch Spotlights ........................................................93<br />

6.4.1. Aufnahme des Lichtbildes ...................................................................93<br />

6.4.2. Lichtprojektion <strong>in</strong> 3D ........................................................................93<br />

6.5. Ausblick auf zukünftige Arbeiten ..........................................................96<br />

7. Zusammenfassung ....................................................................................97<br />

Quellenverzeichnis ...........................................................................................98


1. E<strong>in</strong>führung <strong>in</strong> die Grundlagen <strong>von</strong> <strong>HDRI</strong><br />

1.1. Begriffsklärung<br />

Der Dynamic Range bezeichnet das Verhältnis zwischen dem größten und<br />

dem kle<strong>in</strong>sten unterscheidbaren Kontrast <strong>in</strong> e<strong>in</strong>em Bild. Die eigentliche Maßan-<br />

gabe ist e<strong>in</strong>e Verhältniszahl. In <strong>der</strong> fotografischen und filmerischen Praxis gibt<br />

man den Dynamic Range jedoch mit <strong>der</strong> Anzahl <strong>der</strong> enthaltenen Belichtungs-<br />

stufen an.<br />

E<strong>in</strong>e Belichtungsstufe, auch Lichtwert (LW) o<strong>der</strong> Exposure Value (EV)<br />

genannt, ist e<strong>in</strong>e fotografische Maßangabe für die Lichtmenge, die auf den Film<br />

fällt. Diese Lichtmenge wird Belichtung genannt. Die Belichtungsstufe 0 ist defi-<br />

niert als die Belichtung bei Blende F1 und e<strong>in</strong>er Sekunde Belichtungszeit, sowie<br />

je<strong>der</strong> beliebigen Paarung die zur gleichen Belichtung führt. E<strong>in</strong>e Erhöhung <strong>der</strong><br />

Tabelle 1: Belichtungsstufen bei ISO 100<br />

ISO 100 Blende<br />

Belichtungszeit<br />

Belichtungsstufe um 1 entspricht e<strong>in</strong>er Verdopplung <strong>der</strong> Lichtmenge, e<strong>in</strong>e Ver-<br />

m<strong>in</strong><strong>der</strong>ung um 1 zu e<strong>in</strong>er Halbierung. [4] Tabelle 1 zeigt e<strong>in</strong>e Zusammenstellung<br />

<strong>der</strong> Belichtungsstufen bei ISO 100.<br />

In <strong>der</strong> CCD-Entwicklung wird <strong>der</strong> Dynamic Range als technische Gütegröße<br />

angesehen. Er setzt sich zusammen aus dem logarithmischen Verhältnis zwi-<br />

schen dem größten auslesbaren Signal und dem Ausleserauschen. Es wird <strong>in</strong><br />

Dezibel angegeben. Aus diesem technischen Dynamic Range leitet sich die<br />

zulässige Farbtiefe beim Auslesen <strong>der</strong> CCDs ab. [5] In <strong>der</strong> Praxis wird <strong>der</strong><br />

Dynamic Range daher auch gelegentlich mit <strong>der</strong> Farbtiefe verwechselt und <strong>in</strong><br />

Bit angegeben. Dies ist jedoch nicht ganz korrekt. Digitale Bil<strong>der</strong> mit hohem<br />

1<br />

F1 1.4 F2 F2.8 F4 F5.6 F8 F11 F16 F22 F32 F45 F64<br />

1 s 0 1 2 3 4 5 6 7 8 9 10 11 12<br />

1/2 s 1 2 3 4 5 6 7 8 9 10 11 12 13<br />

1/4 s 2 3 4 5 6 7 8 9 10 11 12 13 14<br />

1/8 s 3 4 5 6 7 8 9 10 11 12 13 14 15<br />

1/15 s 4 5 6 7 8 9 10 11 12 13 14 15 16<br />

1/30 s 5 6 7 8 9 10 11 12 13 14 15 16 17<br />

1/60 s 6 7 8 9 10 11 12 13 14 15 16 17 18<br />

1/125 s 7 8 9 10 11 12 13 14 15 16 17 18 19<br />

1/250 s 8 9 10 11 12 13 14 15 16 17 18 19 20<br />

1/500 s 9 10 11 12 13 14 15 16 17 18 19 20 21<br />

1/1000 s 10 11 12 13 14 15 16 17 18 19 20 21 22<br />

1/2000 s 11 12 13 14 15 16 17 18 19 20 21 22 23<br />

1/4000 s 12 13 14 15 16 17 18 19 20 21 22 23 24


Dynamic Range s<strong>in</strong>d zwar meist mit mehr als den üblichen 8 Bit pro Farbkanal<br />

verschlüsselt, doch nicht alle Bil<strong>der</strong> mit hoher Farbtiefe be<strong>in</strong>halten auch e<strong>in</strong>en<br />

High Dynamic Range.<br />

Das ganze Thema um High Dynamic Range Images ist noch sehr jung, und<br />

geprägt <strong>von</strong> viel Verwirrung bei den Benutzern. Es bewegt sich an <strong>der</strong> Schnitt-<br />

stelle zwischen Fotografie und Computergrafik, und wird <strong>der</strong>zeit <strong>von</strong> beiden<br />

Seiten her erforscht. Neue digitale Werkzeuge s<strong>in</strong>d entstanden, die Lösungen für<br />

sehr grundsätzliche Probleme <strong>der</strong> analogen Fotografie bieten. Neue Methoden<br />

im Umgang mit Bilddaten s<strong>in</strong>d entstanden, die eher e<strong>in</strong>er Simulation analoger<br />

Arbeitsschritte als digitaler Bildmanipulation entsprechen. Es zeichnet sich e<strong>in</strong>e<br />

Konvergenz ab, die zu neuen Formen für die Abbildung <strong>der</strong> Welt, so wie wir<br />

Menschen sie sehen, führt [2][23].<br />

1.2. Wie wir die Welt sehen<br />

Das menschliche Auge besitzt die Fähigkeit, Kontraste <strong>von</strong> bis zu 1:10.000<br />

zu unterscheiden. Die Sonne ist beispielsweise millionenmal heller als e<strong>in</strong>e<br />

Kerzenflamme. Trotzdem kann man sich sowohl <strong>in</strong> e<strong>in</strong>em sonnigen Park, als<br />

auch <strong>in</strong> e<strong>in</strong>er nur <strong>von</strong> Kerzen beleuchteten Kirche sehr gut zurechtf<strong>in</strong>den, weil<br />

sich das Auge an diese Helligkeitsunterschiede anpassen kann. Dieser Mecha-<br />

nismus wird Adaption genannt.<br />

Auch wenn sich das Blickfeld nicht verän<strong>der</strong>t, wie zum Beispiel bei e<strong>in</strong>em<br />

Blick aus dem Fenster an e<strong>in</strong>em sonnigen Nachmittag, ist <strong>der</strong> wahrnehmbare<br />

Bereich enorm. Der Himmel ist im Regelfall hun<strong>der</strong>tfach heller als das Innere des<br />

Zimmers. Trotzdem kann man den Himmel und die Wolken <strong>in</strong> allen E<strong>in</strong>zelheiten<br />

wahrnehmen, und gleichzeitig noch sämtliche Schattierungen <strong>in</strong> dem vergleichs-<br />

weise viel dunkleren Zimmer erkennen. Diese Fähigkeit nennt man „Lokale<br />

Adaption“ [7]. Man spricht <strong>in</strong> diesem Zusammenhang auch <strong>von</strong> e<strong>in</strong>em sehr<br />

großen wahrnehmbaren Dynamic Range.<br />

Wie diese gewaltige Leistung des Sehvermögens zustande kommt, ist nicht<br />

h<strong>in</strong>reichend erforscht. Es s<strong>in</strong>d zwar empirische Daten durch Messung <strong>der</strong> Reiz-<br />

zustände <strong>der</strong> lichtempf<strong>in</strong>dlichen Rezeptoren gesammelt worden [6], doch <strong>der</strong>en<br />

Interpretation kann sich nur auf Vergleichswerte zwischen gesundem und kran-<br />

kem Auge berufen, und hat damit vorrangig mediz<strong>in</strong>ischen Nutzen. Die eigentli-<br />

che Wahrnehmung <strong>von</strong> Helligkeitsunterschieden geht stets mit e<strong>in</strong>er Interpreta-<br />

tion e<strong>in</strong>her, und ist als solche ist schon e<strong>in</strong> <strong>in</strong>telligenter, wenn auch unterbewuß-<br />

ter Prozeß. Der E<strong>in</strong>druck e<strong>in</strong>er Helligkeit hat mit <strong>der</strong> physikalisch meßbaren<br />

Helligkeit nichts geme<strong>in</strong>sam. Wie genau dieser E<strong>in</strong>druck jedoch beschaffen ist,<br />

2


läßt sich nur sehr schwer erforschen – immerh<strong>in</strong> handelt es sich dabei um<br />

e<strong>in</strong>e kognitive Erfahrung. Die S<strong>in</strong>ne s<strong>in</strong>d hierbei nur das B<strong>in</strong>deglied zwischen<br />

äußerer und <strong>in</strong>nerer Welt. Nicht die äußere Welt wird direkt erlebt, son<strong>der</strong>n nur<br />

die aus S<strong>in</strong>nese<strong>in</strong>drücken konstruierte Erlebniswelt im Inneren. Die Kognitions-<br />

wissenschaft bewegt sich hier im Mischfeld aus Physiologie und Psychologie.<br />

Der Kognitionswissenschaftler HOFFMANN [7] nennt zwei Aspekte, die er für die<br />

Konstruktion <strong>von</strong> Grautönen entscheidend hält: „Erstens, um e<strong>in</strong>en Grauton<br />

<strong>in</strong> e<strong>in</strong>em Punkt zu konstruieren, halten Sie sich nicht nur an die Helligkeit <strong>in</strong><br />

diesem Punkt. Außerdem verwenden Sie <strong>in</strong> <strong>der</strong> Regel nicht nur die Helligkeit<br />

<strong>in</strong> unmittelbarer Nähe des Punktes. Vielmehr ziehen Sie große Teile des Bildes<br />

und komplexe Gruppierungsregeln heran, die wir noch nicht entdeckt haben.<br />

Zweitens, Sie konstruieren Ihre Grautöne als Teil e<strong>in</strong>es koord<strong>in</strong>ierten Konstruk-<br />

tionsprozesses, <strong>der</strong> Flächenformen, Flächenfarben, Lichtquellen und transpa-<br />

rente Filter betrifft.“<br />

1.3. Digitale Bil<strong>der</strong><br />

Digitale Bil<strong>der</strong> werden üblicherweise mit 24 Bits codiert; wobei jeweils 8 Bit für<br />

die Intensität <strong>der</strong> e<strong>in</strong>zelnen Farbkanäle Rot, Grün, und Blau stehen. Um die<br />

Helligkeit e<strong>in</strong>es Pixels farbecht zu verän<strong>der</strong>n, muß man jedoch alle 3 Farbwerte<br />

anheben o<strong>der</strong> absenken. Die dunkelste darstellbare Farbe ist schwarz mit den<br />

Werten (0,0,0) und die hellste ist (255,255,255). Damit kann je<strong>der</strong> Pixel effektiv<br />

256 verschiedene Helligkeitsstufen annehmen.<br />

Wie kann man nun den wahrnehmbaren Dynamic Range mit diesem engen<br />

codierbaren Wertebereich darstellen?<br />

Um wie<strong>der</strong> auf das Beispiel mit dem Fensterblick zurückzukommen, könnte<br />

man <strong>der</strong> dunkelsten Stelle unter dem Tisch den Wert 0 zuweisen, und <strong>der</strong><br />

hellsten Wolke den Wert 256. Alle Zwischentöne werden entsprechend ihrer<br />

Helligkeit auf diese Skala übertragen.<br />

Wie im Bild 1 ersichtlich, ist <strong>der</strong> Himmel zwar sehr gut abgebildet, doch<br />

im Inneren des Zimmers verschw<strong>in</strong>den die Details <strong>in</strong> den Schatten. Alle<strong>in</strong><br />

die weiße Wolke beansprucht das obere Viertel unserer verfügbaren digitalen<br />

Werte. Durch den großen Kontrastunterschied dieser Szene – sprich hohen<br />

Dynamic Range – bleiben für die Abbildung des Innenraumes nicht viele Werte<br />

übrig. Wie aus dem Histogramm ersichtlich, werden deshalb 75% <strong>der</strong> Bildfläche<br />

<strong>in</strong> den unteren 47 Helligkeitswerten komprimiert.<br />

3


Bild 1: l<strong>in</strong>ear skalierter Dynamic Range.<br />

E<strong>in</strong>e an<strong>der</strong>e Möglichkeit wäre, e<strong>in</strong>e Obergrenze für die Motivhelligkeit festzulegen,<br />

beispielsweise den Fensterrahmen. Das sähe dann etwa so aus wie <strong>in</strong> Bild 2.<br />

Bild 2: abgeschnittener Dynamic Range<br />

Zwar ist jetzt das Zimmer <strong>in</strong> allen E<strong>in</strong>zelheiten erkennbar, doch <strong>der</strong> Ausblick ist<br />

komplett verschwunden. Im Histogramm ist zu erkennen, daß 25% <strong>der</strong> Bildfläche<br />

<strong>in</strong> den obersten 9 Helligkeitswerte zusammengepreßt s<strong>in</strong>d. Fast das gesamte<br />

Fenster hat den Farbwert (255,255,255). Auch <strong>in</strong>tensivste Nachbearbeitung wird<br />

den Ausblick nicht wie<strong>der</strong> herbeiholen können, wenn das Bild e<strong>in</strong>mal so gespei-<br />

chert wurde.<br />

4


High Dynamic Range Imag<strong>in</strong>g dagegen macht es möglich, den gesamten Detail-<br />

reichtum dieser Szene <strong>in</strong> e<strong>in</strong>em e<strong>in</strong>zigen Bild zu speichern. Probleme wie Über-<br />

o<strong>der</strong> Unterbelichtung s<strong>in</strong>d damit irrelevant, denn e<strong>in</strong> <strong>HDRI</strong> enthält genug Informa-<br />

tion, um die Belichtung <strong>in</strong> <strong>der</strong> Nachbearbeitung beliebig zu än<strong>der</strong>n.<br />

Bild 3: <strong>HDRI</strong>, Helligkeitswerte komprimiert durch Logarithmisches Tonemapp<strong>in</strong>g<br />

In Bild 3 wurden die Farbwerte durch e<strong>in</strong> logarithmisches Tonemapp<strong>in</strong>g-Verfahren<br />

[20] <strong>in</strong> dem verfügbaren Wertebereich verteilt. Das ist e<strong>in</strong>e grobe Vere<strong>in</strong>fachung<br />

<strong>der</strong> menschlichen Sehweise. Komplexere Tonemapp<strong>in</strong>g-Operatoren [57][58]<br />

beziehen auch Effekte wie lokale Adaption und Sättigungsabfall <strong>in</strong> lichtarmer<br />

Umgebung mit e<strong>in</strong>.<br />

1.4. Wie<strong>der</strong>gabemedien<br />

Es muß erwähnt werden, daß diese Beispielbil<strong>der</strong> natürlich abhängig <strong>von</strong> dem<br />

Wie<strong>der</strong>gabemedium mehr o<strong>der</strong> weniger Details zeigen.<br />

Pr<strong>in</strong>ttechnisch ist <strong>der</strong> darstellbare Dynamic Range eng begrenzt durch den Weiß-<br />

grad des Papiers und dem Schwärzungsgrad <strong>der</strong> T<strong>in</strong>te, ultimativ jedoch durch die<br />

Beleuchtung beim Lesen. So können benachbarte Pixel mit sehr ähnlichen RGB-<br />

Wertepaaren leicht als gleichwertig ersche<strong>in</strong>en. Monitore arbeiten <strong>in</strong> <strong>der</strong> Regel<br />

nach <strong>der</strong> sRGB Norm. Ursprünglich wurde die 24bit RGB Verschlüsselung genau<br />

für diesen Zweck e<strong>in</strong>geführt – die Anzeige digitaler Bil<strong>der</strong> auf Röhrenmonitoren.<br />

Sie stufen demnach die Farben auch <strong>in</strong> genau diesen Intervallen ab, und lassen<br />

so im ersten Bild schon mehr Details erkennen. Doch auch hier liegt <strong>der</strong> nutzbare<br />

Dynamic Range bei 90:1 (bzw. 30-40 dB) [8][9], begrenzt durch die Grundschwär-<br />

zung <strong>der</strong> Mattscheibe und die maximale Leuchtkraft.<br />

5


WARD [8] schlußfolgert: „Therefore, although 24-bit RGB does a reasonable job<br />

of represent<strong>in</strong>g what a CRT monitor [Cathode-Ray-Tube: Röhrenmonitor] can<br />

display, it does a poor job represent<strong>in</strong>g what a human observer can see.“.<br />

Kann man sich damit zufriedengeben, den Informationsgehalt digitaler Bil<strong>der</strong> auf<br />

den technisch darstellbaren Dynamic Range (DR) zu beschränken? Welche Kon-<br />

sequenzen zieht diese Beschränkung mit sich, wenn das Bild zwischen Aufnahme<br />

und Ausgabe noch digitaler Bearbeitung unterliegt? Und welchen Nutzen br<strong>in</strong>gt<br />

es, diese Beschränkung zu erweitern o<strong>der</strong> gar aufzuheben? Wie kann man<br />

überhaupt mit e<strong>in</strong>em nicht darstellbaren Helligkeitsumfang hantieren? Lohnt sich<br />

dieser Aufwand überhaupt? Und dann steht noch die Frage nach <strong>der</strong> Aquisition im<br />

Raum: Wie kann man den gesamten sichtbaren DR überhaupt fotografieren?<br />

Diese Fragen sollen <strong>in</strong> dieser Arbeit untersucht werden. Die Antworten werden<br />

sich zwangsläufig auf die heute nutzbare Hard- und Software beziehen, und<br />

repräsentieren damit den praktisch verwertbaren Status Quo. E<strong>in</strong>ige <strong>der</strong> Fragen<br />

s<strong>in</strong>d e<strong>in</strong>er tieferen Erörterung wert. Insbeson<strong>der</strong>e den fortgeschrittenen Anwen-<br />

dungsmöglichkeiten im Bereich <strong>com</strong>putergenerierter Bil<strong>der</strong> ist e<strong>in</strong> ausführlicher<br />

Praxistest gewidmet.<br />

Fakt ist, daß sich die Displaytechnologien rasant entwickeln. LCDs werden immer<br />

lichtstärker, und mo<strong>der</strong>ne DLP (Digital Light Process<strong>in</strong>g) Projektoren bieten heute<br />

schon e<strong>in</strong>en weitaus höheren DR als Röhrenmonitore. Kodak’s neue OLED (Orga-<br />

nic Light-Emitt<strong>in</strong>g Diode) Display’s können nach eigenen Angaben e<strong>in</strong>en DR <strong>von</strong><br />

250:1 darstellen [10]. Die im März 2003 vorgestellte „Kodak EasyShare LS633“<br />

Kamera zeigt, daß diese Technologie <strong>in</strong>zwischen reif für den Consumermarkt<br />

ist. Mehr als e<strong>in</strong> Dutzend Hardwarehersteller haben schon Lizenzen erworben; <strong>in</strong><br />

5 Jahren erwarten Analysten die OLED Technologie <strong>in</strong> Handys, PDAs, Digitalen<br />

Kameras, DVD Playern [11]. Darüberh<strong>in</strong>aus s<strong>in</strong>d Laserdisplays vielerorts <strong>in</strong> <strong>der</strong><br />

Entwicklung, und niemand kann heute mit Bestimmtheit sagen, auf welche Weise<br />

digitale Bil<strong>der</strong> <strong>in</strong> <strong>der</strong> Zukunft betrachtet werden.<br />

WARD [8] gibt zum<strong>in</strong>dest auf die erste Frage schon e<strong>in</strong>e klare Antwort: „Unless we<br />

<strong>in</strong>troduce new color models to our image sources and do it soon, we will never<br />

get out of the CRT color cube.“.<br />

Leiden Film und klassische Fotografie denn nicht unter diesem Problem? Der<br />

DR <strong>von</strong> analogem Filmmaterial ist zwar auch beschränkt, aber immer noch etwa<br />

doppelt so groß wie <strong>der</strong> im sRGB Farbmodell erfassbare Bereich [4]. Das ist<br />

e<strong>in</strong>er <strong>der</strong> prägnantesten Gründe, wieso Film sich durch e<strong>in</strong>en eigenen Look <strong>von</strong><br />

Video abhebt.<br />

E<strong>in</strong> kurzer Ausflug <strong>in</strong> die Fotografie ist angebracht, um die Eigenheiten des Films<br />

zu klären.<br />

6


1.5. Fotografie – Was ist dran am Fotorealismus?<br />

Die klassische Fotografie basiert auf e<strong>in</strong>em chemischen Prozess, und zwar dem<br />

lichtbed<strong>in</strong>gten Zerfall <strong>von</strong> Silberhalogenid [4]. Jedes e<strong>in</strong>zelne Silberhalogenid-<br />

kristall, auch Filmkorn genannt, besteht aus Milliarden positiv geladenen Silber-<br />

Ionen (Ag+) und negativ geladenen Halogenid-Ionen (Cl-, Br- o<strong>der</strong> J-). Durch<br />

Lichte<strong>in</strong>fall f<strong>in</strong>det e<strong>in</strong>e Ladungsverschiebung <strong>in</strong>nerhalb dieser Kristalle statt, und<br />

m<strong>in</strong>destens e<strong>in</strong> Halogenid-Ion gibt e<strong>in</strong> Elektron an e<strong>in</strong> benachbartes Silber-Ion<br />

ab. Es entsteht metallisches Silber, die sogenannte Schwärzung.<br />

Diese fotochemische Reduktion verläuft logarithmisch. Hat e<strong>in</strong>e bestimmte Licht-<br />

menge beispielsweise die Hälfte des Korns umgewandelt, wird das erneute<br />

E<strong>in</strong>wirken <strong>der</strong>selben Lichtmenge nur noch e<strong>in</strong> Viertel des Korns schwärzen.<br />

Es würde Stunden dauern, um e<strong>in</strong> gesamtes Filmkorn <strong>in</strong> Silber umzuwandeln.<br />

Daher stellt man <strong>in</strong> <strong>der</strong> Praxis durch e<strong>in</strong>e kurze Belichtung nur e<strong>in</strong>en sogenann-<br />

ten Entwicklerkeim her, <strong>der</strong> dann bei <strong>der</strong> Entwicklung durch e<strong>in</strong>e Kettenreaktion<br />

millionenfach verstärkt wird.<br />

Es wird e<strong>in</strong>e bestimmte M<strong>in</strong>destmenge an Licht benötigt, um bei dem Filmmate-<br />

rial überhaupt e<strong>in</strong>e Reaktion hervorzurufen. Im Gegenzug ist ab e<strong>in</strong>em Maximum<br />

an Licht e<strong>in</strong>e Sättigung erreicht, wenn das Filmkorn komplett <strong>in</strong> metallisches<br />

Silber umgewandelt ist. Um also e<strong>in</strong> Motiv mit allen se<strong>in</strong>en Tonwerten abzubil-<br />

den, muß <strong>der</strong> gesamte Helligkeitsumfang des e<strong>in</strong>fallenden Lichtes <strong>in</strong> diesem<br />

Intervall liegen, <strong>in</strong> dem Dynamic Range des Films.<br />

E<strong>in</strong> professioneller Fotograf benutzt verschiedenste Hilfsmittel, um genau das<br />

zu ermöglichen. So kann er den Lichte<strong>in</strong>fall mit Blende, Belichtungszeit und<br />

verschiedenen Filtern regeln. E<strong>in</strong>e erfolgreiche Angleichung ist jedoch nur bei<br />

homogen ausgeleuchteten Szenen möglich, vornehmlich unter Studiobed<strong>in</strong>gun-<br />

gen. In Situationen, wo <strong>der</strong> Himmel o<strong>der</strong> gar die Sonne im Motiv s<strong>in</strong>d, übersteigt<br />

<strong>der</strong> Motivkontrast den Dynamic Range des Films.<br />

Dann hat <strong>der</strong> Fotograf nur die Wahl, entwe<strong>der</strong> die Lichter, o<strong>der</strong> die Schatten<br />

korrekt abzulichten. In beiden Fällen entspricht das Bild nicht dem wahrgenom-<br />

menen S<strong>in</strong>nese<strong>in</strong>druck, <strong>der</strong> sich e<strong>in</strong>em Betrachter <strong>der</strong> Szene vor Ort erschließt.<br />

Entscheidet sich <strong>der</strong> Fotograf für die Aufnahme <strong>der</strong> Lichter, verschw<strong>in</strong>den die<br />

Details <strong>der</strong> Schatten <strong>in</strong> e<strong>in</strong>em gleichmäßig schwarzen Fleck. Belichtet er dage-<br />

gen die Schatten opfert er die Details <strong>in</strong> den hellen Regionen. Diese Vor-<br />

Ort-Entscheidung kann nicht umgekehrt werden, die jeweils ausgeklammerten<br />

Details s<strong>in</strong>d endgültig verloren.<br />

7


Die Zwischentöne ordnen sich auf e<strong>in</strong>er filmspezifischen Schwärzungskurve an.<br />

Dabei ist nur im Mittelteil dieser S-förmigen Kurve mit vorhersehbaren Tonwerten<br />

zu rechnen. Am unteren und oberen Ende, Fuß und Schulter genannt, s<strong>in</strong>d die<br />

Belichtungsunterschiede komprimiert. Das s<strong>in</strong>d die Stellen auf dem Film, wo die<br />

Filmkörner nahezu gesättigt s<strong>in</strong>d, o<strong>der</strong> gerade genügend Licht bekommen haben<br />

um die Reduzierung zu Silber <strong>in</strong> Gang zu br<strong>in</strong>gen. Auch <strong>in</strong> hochentwickelten<br />

Filmmaterialien s<strong>in</strong>d diese Fuß und Schulter für jedes Filmkorn leicht verschie-<br />

den, und ab e<strong>in</strong>em gewissen Punkt überwiegt das Rauschen.<br />

Bei mo<strong>der</strong>nen Filmmaterialien beträgt <strong>der</strong> Dynamic Range, etwa 5 bis 8 Belich-<br />

tungsstufen [12]. Wohlgemerkt ist er damit größer als <strong>der</strong> DR des Fotopapiers.<br />

Aus den im Film verfügbaren Informationen muß <strong>der</strong> Fotograf also wie<strong>der</strong> e<strong>in</strong>en<br />

Bereich ausklammern. Das geschieht beim Nachbelichten, wenn <strong>der</strong> Entwickler-<br />

keim chemisch verstärkt wird. Indem <strong>der</strong> Fotograf die Gradationskurven mittels<br />

geeigneter Chemikalien verän<strong>der</strong>t, gew<strong>in</strong>nt er e<strong>in</strong>en Spielraum <strong>von</strong> plus/m<strong>in</strong>us<br />

e<strong>in</strong>er Belichtungsstufe. Natürlich gehen dabei Informationen verloren, trotzdem<br />

nutzt das Ergebnis immer noch den vollen Umfang des dem Fotopapier, aus.<br />

Für diese Nachbearbeitung steht <strong>der</strong> gesamte Range des Films zur Verfügung,<br />

vergleichbar mit e<strong>in</strong>er Le<strong>in</strong>wand auf <strong>der</strong> das Fenster des genutzten Ranges nach<br />

Belieben verschoben und skaliert werden kann. Dieser Spielraum ist es auch,<br />

<strong>der</strong> viele professionelle Fotografen an den analogen Techniken festhalten läßt.<br />

Denn s<strong>in</strong>d die Bil<strong>der</strong> erst e<strong>in</strong>mal <strong>in</strong> 24bit sRGB digitalisiert, ist dieser Spielraum<br />

verschwunden.<br />

Bei digitalen Bil<strong>der</strong>n gehen Helligkeitsmanipulationen stets mit Datenverlust<br />

e<strong>in</strong>her [12]. E<strong>in</strong>e digitale Aufhellung beispielsweise komprimiert die Farbwerte<br />

am hellen Ende, und am dunklen Ende <strong>der</strong> Skala entstehen Lücken im Histo-<br />

gramm. E<strong>in</strong>e Tonwertkorrektur kann nur die vorhandenen Werte spreizen o<strong>der</strong><br />

komprimieren, aber <strong>in</strong> Lichtern und Schatten ke<strong>in</strong>e neuen Details hervorbr<strong>in</strong>gen.<br />

Grund dafür ist, daß <strong>der</strong> Dynamic Range des Rohmaterials identisch ist mit dem<br />

Dynamic Range des Endproduktes.<br />

8


2. Neue Werkzeuge<br />

2.1. Dateiformate<br />

8 Bit pro Farbkanal s<strong>in</strong>d also nicht genug. Viele Dateiformate gibt es auch <strong>in</strong> e<strong>in</strong>er<br />

16 Bit Version, wie beispielsweise TIFF, PSD, o<strong>der</strong> SGI. Diese fallen unter die<br />

Rubrik „Medium Dynamic Range“. Sie enthalten im Grunde nur fe<strong>in</strong>ere Abstufun-<br />

gen <strong>der</strong> Farbwerte, haben aber nicht zwangsläufig auch e<strong>in</strong>en höheren Dynamik<br />

Range [4].<br />

Echte High Dynamic Range Formate speichern Farbwerte ganz an<strong>der</strong>s ab.<br />

2.1.1. Raw B<strong>in</strong>ary Float<strong>in</strong>g Po<strong>in</strong>t .RAW / .FLOAT<br />

Wie <strong>der</strong> Name schon andeutet, s<strong>in</strong>d <strong>in</strong> diesem Format die Pixelwerte als re<strong>in</strong>e<br />

RGB-Fließkommawerte abgelegt. Pro Pixel und Farbe werden volle 32 Bit <strong>in</strong><br />

Anspruch genommen, Kompressionsalgorithmen s<strong>in</strong>d nicht e<strong>in</strong>gebaut. Dieses<br />

Format macht nur als Ausgabeformat digitaler Kameras S<strong>in</strong>n, und auch dann nur<br />

<strong>in</strong> beschränktem Umfang [2].<br />

Hochwertige Digitalkameras, <strong>der</strong>en CCD-Chip mit 10 bis 12 bit Präzision arbeitet,<br />

bieten RAW-Ausgabe als Alternative zur <strong>in</strong>ternen Aufbereitung <strong>in</strong> 8 bit JPEGs an.<br />

Da sich jedoch die Bauweise digitaler Kameras oft grundlegend unterscheidet,<br />

weicht auch dieser Rohdatenstrom oft <strong>von</strong><br />

dem Formatstandard ab. Im Extremfall, wie<br />

bei <strong>der</strong> M<strong>in</strong>olta DiMage Serie, kann diese<br />

RAW-Datei nur mit <strong>der</strong> vom Hersteller mitge-<br />

lieferten Software gelesen werden. E<strong>in</strong> uni-<br />

verselles RAW-Importmodul enhüllt e<strong>in</strong>e ver-<br />

wirrende Vielfalt <strong>in</strong> Bild 4.:<br />

Aufgrund technischer Beschränkungen <strong>der</strong><br />

CCD-Chips hat dies nur e<strong>in</strong>e ger<strong>in</strong>ge Range-<br />

erweiterung zur Folge. Im Gegenzug muß<br />

man auf die JPEG-eigenen Metadaten ver-<br />

zichten. Außerdem s<strong>in</strong>d die RAW-Dateien<br />

s<strong>in</strong>d so groß, daß <strong>der</strong> Datentransfer auf die<br />

Speicherkarte enorm verzögert wird.<br />

9<br />

Bild 4: RAW Import Optionen <strong>in</strong> HCR-Edit


2.1.2. Portable Float Map .PFM<br />

Das PFM Format sollte dem Wildwuchs unter unkompatiblen RAW Formaten<br />

e<strong>in</strong> Ende bereiten. Die eigentlichen Bilddaten entsprechen den ursprünglichen<br />

Richtl<strong>in</strong>ien des RAW-Formates, s<strong>in</strong>d also als unkomprimierter 32 Bit Strom<br />

<strong>von</strong> RGB-Fließkommawerten. Es ist e<strong>in</strong> kle<strong>in</strong>er Kopfteil mit Formatangabe und<br />

Normbelichtung vorangestellt, um den Import zu vere<strong>in</strong>fachen (siehe Bild 5).<br />

2.1.3. Float<strong>in</strong>g Po<strong>in</strong>t TIFF .TIF<br />

In <strong>der</strong> orig<strong>in</strong>alen TIFF Spezifikation ist neben 8 und 16 Bit pro Farbkanal auch<br />

e<strong>in</strong>e 32 Bit Fließkomma Version vorgesehen [12]. Lange Zeit galt dieses TIFF32<br />

10<br />

Format als hypothetisches, ultimatives Präzisionsformat.<br />

Da dieses Format ke<strong>in</strong>e Kompression vorsieht, ist es für die <strong>Postproduktion</strong> nicht<br />

empfehlenswert.<br />

Bild 5: Vergleich <strong>von</strong> PFM und RAW<br />

2.1.4. Radiance .HDR / .PIC<br />

Dieses Format ist <strong>der</strong> D<strong>in</strong>osaurier unter den High Dynamic Range Formaten.<br />

E<strong>in</strong>geführt wurde es schon 1985 <strong>von</strong> Greg WARD, als Outputformat se<strong>in</strong>es<br />

3D-Ren<strong>der</strong><strong>in</strong>g System „Radiance“ [13]. Dieser war e<strong>in</strong>er <strong>der</strong> ersten sogenannten<br />

physikalisch basierten Ren<strong>der</strong>er. Das heißt er berechnet se<strong>in</strong>e Bil<strong>der</strong>, <strong>in</strong>dem<br />

er die spektralen Strahlungswerte <strong>in</strong> e<strong>in</strong>em virtuellen Raum simuliert. Diese<br />

Strahlungswerte orientieren sich an den Verhältnissen <strong>der</strong> realen Welt, die<br />

Sonne wird beispielsweise als 50.000mal so hell wie e<strong>in</strong>e Glühbirne def<strong>in</strong>iert. Im<br />

Kapitel 6 s<strong>in</strong>d die Beson<strong>der</strong>heiten dieser Ren<strong>der</strong>methode detailliert ausgeführt.<br />

Für solche Simulationen werden die aufwendigen Berechnungen üblicherweise<br />

mit Fließkommawerten ausgeführt. Um die nach langer Berechnungszeit ermit-<br />

telten Werte mit größtmöglicher Genauigkeit zu speichern, führte WARD das<br />

Radiance-Format e<strong>in</strong>.


Es speichert im Grunde auch nur 8 Bit pro Farbkanal. Doch e<strong>in</strong> vierter, zusätz-<br />

licher Kanal wird mit e<strong>in</strong>em 8 Bit breiten Exponenten belegt. Man nennt das<br />

Radiance-Format daher auch e<strong>in</strong> 32bit/pixel RGBE Format [13]. Mit dem Expo-<br />

nenten wird die Lum<strong>in</strong>anz <strong>von</strong> den drei an<strong>der</strong>en Kanälen entkoppelt. Damit<br />

vervielfacht sich <strong>der</strong> speicherbare Helligkeitsbereich. Das Radiance Format kann<br />

so 26 Belichtungsstufen aufnehmen.<br />

Dabei ist das Format sehr e<strong>in</strong>fach aufgebaut. Der Fließkommawert e<strong>in</strong>es Pixels<br />

errechnet sich nach <strong>der</strong> Formel [2]:<br />

(R,G,B) * 2 (E-128) .<br />

Hat e<strong>in</strong> Pixel beispielsweise die Werte (145, 215, 87, 149) so errechnet sich se<strong>in</strong><br />

Farbwert aus:<br />

11<br />

(145, 215, 87) * 2 (149-128) = (1190000, 1760000, 713000).<br />

E<strong>in</strong> dunkler Pixel mit gleicher Farbe hätte nur e<strong>in</strong>en an<strong>der</strong>en Exponenten. Für die<br />

Farbwerte (145, 215, 87, 103) sieht die Rechnung dann so aus:<br />

(145, 215, 87) * 2 (103-128) = (0.00000432, 0.00000641, 0.00000259).<br />

Diese Konvertierung ist so e<strong>in</strong>fach, daß sie problemlos als Lade- o<strong>der</strong> Speicher-<br />

modul zu implementieren ist – vorausgesetzt die Software kann mit Fließkomma-<br />

werten umgehen.<br />

Nachteil dieses Formates ist, nach eigener Aussage des Autors Ward [12], daß<br />

die RGB-Farbwerte nur positive Zahlen zulassen und damit e<strong>in</strong>ige sichtbare<br />

Farbtöne nicht annehmen können.<br />

2.1.5. LogLuv Format .TIF<br />

Im Grundaufbau handelt es sich hier um TIFFs. Das LogLuv Format wurde<br />

kürzlich <strong>in</strong> den offiziellen TIFF Standard aufgenommen und steht damit allen<br />

Entwicklern frei zur Verfügung. Es wurde <strong>von</strong> WARD [12] e<strong>in</strong>geführt, um die<br />

Nachteile se<strong>in</strong>es eigenen Radiance-Formats auszugleichen. Statt RGB nutzt es<br />

den geräteunabhängigen LUV-Farbraum. Dabei wird die Lum<strong>in</strong>ance (L) logarith-<br />

misch mit 16 Bit verschlüsselt, die Farbe separat als U und V mit jeweils 8 Bit.<br />

Zusammen werden also 32 Bits pro Pixel benötigt.


Zusätzlich entwickelte wurde auch e<strong>in</strong>e 24-bit Version dieses Formates. Die<br />

Lum<strong>in</strong>ance muß hier mit 10 Bits auskommen. Trotzdem kann es auf Grund<br />

<strong>der</strong> logarithmischen Kompression immer noch e<strong>in</strong>en Dynamic Range <strong>von</strong> 11<br />

Belichtungsstufen be<strong>in</strong>halten. Die Farb<strong>in</strong>formationen werden <strong>in</strong> den restlichen<br />

14 Bits untergebracht. Diesmal allerd<strong>in</strong>gs nicht direkt als U- und V-Koord<strong>in</strong>aten.<br />

Statt dessen werden die sichtbaren Farben im UV-Raum <strong>in</strong> nichtwahrnehmbaren<br />

Schritten <strong>in</strong>diziert, und dieser Index mit 14 Bits gespeichert.<br />

2.1.6. ILM OpenEXR .EXR<br />

EXR entstand 2000 bei Industrial Lights & Magic als hauseigenes Format, und<br />

wurde 2002 als Open Source für die Öffentlichkeit freigegeben [1]. Alle ILM-<br />

<strong>in</strong>ternen Tools nutzen <strong>in</strong>zwischen EXR als Austauschformat, unter an<strong>der</strong>em bei<br />

<strong>der</strong> Produktion <strong>von</strong> „Harry Potter 2“, „Men <strong>in</strong> Black 2“ und „The Hulk“.<br />

Die Standardkodierung sieht 16 Bit pro Farbkanal vor, zusammengesetzt aus<br />

e<strong>in</strong>em Vorzeichenbit, 10 Bit Farb<strong>in</strong>formation, und 5 Bit für e<strong>in</strong>en Exponenten [14].<br />

Unterstützt wird aber auch die Kodierung <strong>in</strong> volle 32 Bit Fließkommawerte und<br />

<strong>in</strong> Standard 8 Bit RGB.<br />

Zusätzlich enthält die Spezifikation e<strong>in</strong>e ganze Reihe <strong>in</strong>novativer Features, die<br />

speziell auf die Bedürfnisse <strong>in</strong> <strong>der</strong> <strong>Postproduktion</strong> zugeschnitten s<strong>in</strong>d. So werden<br />

e<strong>in</strong>e beliebige Anzahl <strong>von</strong> Kanälen unterstützt, die <strong>in</strong>dividuelle Kodierformate,<br />

Farbtiefen und Pixelaufösungen haben können. E<strong>in</strong>e neuartige Trennung <strong>von</strong><br />

Bildgröße und sichtbarem Ausschnitt erlaubt das Unterbr<strong>in</strong>gen <strong>von</strong> zusätzlichen<br />

Bild<strong>in</strong>formation jenseits <strong>der</strong> Bildrän<strong>der</strong>. Diese Zusatz<strong>in</strong>fos können das Ergebnis<br />

<strong>von</strong> großflächigen Filtern wie Weichzeichner o<strong>der</strong> Bewegungsunschärfe bedeu-<br />

tend verbessern.<br />

Der entscheidende Vorteil dieses Formates ist se<strong>in</strong>e Flexibilität <strong>in</strong> Kompression<br />

und Informationsgehalt. E<strong>in</strong> Blick auf den Dateikopf (Bild 6) läßt die Fülle <strong>der</strong><br />

möglichen Optionen erahnen.<br />

Bild 6: Dateihea<strong>der</strong> e<strong>in</strong>er OpenEXR Datei<br />

12


Das EXR Format zu implementieren, erweist sich als komplexes Unterfangen.<br />

Gerade bei den ausgefalleneren Zusatzkanälen wie „Object ID“, „Texture UV<br />

Buffer“, hat sich noch ke<strong>in</strong>e Standardisierung durchgesetzt.<br />

2.1.7. Kodak ERI-JPEG<br />

Dieses Format wurde im April 2002 <strong>von</strong> Kodak [15] vorgestellt, und soll<br />

als Alternative für die riesigen RAW-Dateien <strong>der</strong> Digitalkameras dienen. Die<br />

„Extended Range Imag<strong>in</strong>g“ (ERI) Technologie nutzt den Metadatenblock, um<br />

zusätzliche Informationen über Highlight- und Schattendetails <strong>in</strong> e<strong>in</strong>er JPEG<br />

Datei unterzubr<strong>in</strong>gen. Die ERI-JPEGs s<strong>in</strong>d dementsprechend an die Auf-<br />

nahmefähigkeit <strong>der</strong> CCD gebunden. In <strong>der</strong> 5000 Dollar teuren „Kodak DCS<br />

Pro14n“ wurde so zum Beispiel die Unterbr<strong>in</strong>gung <strong>von</strong> 4 zusätzlichen Belich-<br />

13<br />

tungsstufen ( -2 EV bis +2 EV) realisiert. [16]<br />

Dabei bleibt die JPEG-Datei voll kompatibel nach dem EXIF2.1 Standard.<br />

Programme die diese Zusatzdaten nicht verstehen, können zum<strong>in</strong>dest den<br />

Low-Dynamic-Teil immer noch problemlos lesen.<br />

Lei<strong>der</strong> betrifft dies eigentlich alle Programme. O<strong>der</strong> wie Kodak‘s Produktmana-<br />

ger KELBLEY [16] es ausdrückt: „The difference today is the software we have<br />

to open the ERI-JPEG that is not mature...“. Zugriff auf die HDR-Zusatzdaten<br />

bekommt man bisher nur mit Kodaks eigener Software wie dem „DCS Photo<br />

Desk“ o<strong>der</strong> dem FFM Photoshop Importer. Dabei handelt es sich nur um e<strong>in</strong><br />

Lademodul, was nach kle<strong>in</strong>eren Belichtungskorrekturen e<strong>in</strong> normales 8 bit Bild<br />

an Photoshop übergibt.<br />

Deshalb ist dieses Format für die <strong>Postproduktion</strong> noch un<strong>in</strong>teressant, und soll<br />

<strong>in</strong> <strong>der</strong> folgenden Betrachtung ausgenommen werden.


2.1.8. Vergleichstabelle<br />

E<strong>in</strong>e direkter Vergleich legt die Stärken und Schwächen dieser Formate dar.<br />

Tabelle 2: Übersichtstabelle <strong>HDRI</strong> Dateiformate<br />

Farbkanäle<br />

Anmerkungen:<br />

Fazit:<br />

TGA<br />

(Referenz)<br />

RGB<br />

(+ Apha)<br />

(1) Im verlustfreien RLE Kompressionsmodus.<br />

14<br />

(2) Testdatei war e<strong>in</strong> HDR-Foto mit durchschnittlicher<br />

Detaildichte und Dynamic Range, ohne<br />

Extrakanäle (Bild 7):<br />

EXR bietet die effizienteste Komprimierung,<br />

und ist durch se<strong>in</strong>e variable Gestaltung das<br />

anpassungsfähigste Format.<br />

2.2. Spezielle Software<br />

RAW<br />

PFM<br />

TIFF float<br />

Parallel zur Entwicklung dieser Formate entstand<br />

auch spezielle Software. Dies war e<strong>in</strong>e zw<strong>in</strong>gende<br />

Notwendigkeit, denn bisher gebräuchliche Bild-<br />

bearbeitungssoftware arbeitete <strong>in</strong>tern mit nur 8<br />

Bit pro Farbkanal. Die E<strong>in</strong>b<strong>in</strong>dung <strong>in</strong> Photoshop<br />

beispielsweise, g<strong>in</strong>ge weit über e<strong>in</strong> simples<br />

Lademodul h<strong>in</strong>aus. Buchstäblich alle Funktionen<br />

müßten neu geschrieben werden. So bietet <strong>der</strong><br />

kürzlich implementierte 16-Bit Modus nur die<br />

rudimentärsten Filter an (siehe Bild 8). Die<br />

TIFF<br />

LogLUV<br />

32<br />

RGB YUV<br />

Ebenen-Funktion ist komplett abgeschalten.<br />

TIFF<br />

LogLUV<br />

24<br />

Indexed<br />

YUV<br />

HDR EXR<br />

RGBE<br />

RGBE<br />

(+ Alpha<br />

+ Depth<br />

+ ... )<br />

Bits pro Pixel 24 96 32 24 32 variabel<br />

Maximal<br />

enthaltene EV<br />

1.7 30 38 11 26 30<br />

Kompression RLE - RLE RLE RLE<br />

Größe <strong>der</strong><br />

Testdatei (2)<br />

858 kB 3601 kB 812 kB 681 kB 939 kB<br />

Bild 7: Testbild<br />

RLE, ZIP,<br />

ZIPS, PIZ<br />

655 kB<br />

(1)<br />

Bild 8: Photoshop‘s Filterauswahl<br />

im 16-Bit Modus ist karg.


Um wirklichen Nutzen aus dem gespeicherten HDR Daten ziehen zu können,<br />

muß die Software <strong>in</strong>tern mit 32 Bit Fließkommapräzision arbeiten können [13].<br />

2.2.1. HDRView<br />

HDRView ist e<strong>in</strong> kostenloser ImageViewer, und ist essentiell um HDR Bil<strong>der</strong><br />

unter W<strong>in</strong>dows zu betrachten. Dabei kann mit Plus- und M<strong>in</strong>us-Tasten die am<br />

Monitor sichtbaren Belichtungstufen verschieben, mit Shift-Klick auf e<strong>in</strong>en Pixel<br />

wird die Anzeige automatisch auf diesen Pixelwert nachbelichtet.<br />

Erhältlich ist HDRView unter: http://athens.ict.usc.edu/FiatLux/hdrview .<br />

2.2.2. HDRShop<br />

HDRShop ist e<strong>in</strong>e rudimentäre Bildbearbeitungssoftware. Die Funktionen s<strong>in</strong>d<br />

speziell auf die Generierung <strong>von</strong> <strong>HDRI</strong>s und <strong>der</strong>en Aufbereitung für die Verwen-<br />

dung <strong>in</strong> 3D Programmen zugeschnitten. Herausragend s<strong>in</strong>d die Werkzeuge<br />

für panoramische Transformationen, sowie die Analysefunktion für Glanz- und<br />

Diffusanteile. An<strong>der</strong>e Filter s<strong>in</strong>d jedoch sehr limitiert, und eher zu Testzwecken zu<br />

gebrauchen. Die Entwicklung <strong>von</strong> HDRShop wurde mit <strong>der</strong> Version 1.0 vorüber-<br />

gehend e<strong>in</strong>gestellt. Als e<strong>in</strong>zelner Programmierer führt TCHOU [18] das Projekt nun<br />

<strong>in</strong> se<strong>in</strong>er Freizeit weiter, und hat Verbesserungen für 2004 angekündigt.<br />

Erhältlich ist HDRShop unter: www.debevec.org/HDRShop .<br />

2.2.3. <strong>HDRI</strong>E<br />

<strong>HDRI</strong>E (sprich „Hedrie“) steht für High Dynamic Range Image Editor, und<br />

ist momentan an <strong>der</strong> University Of Ill<strong>in</strong>ois <strong>in</strong> Entwicklung [25]. Inspiriert <strong>von</strong><br />

HDRShop, bietet es schon im <strong>der</strong>zeitigen Stadium e<strong>in</strong>e Vielzahl <strong>der</strong>selben<br />

Funktionen. Zusätzlich hat es an Photoshop angelehnte Malwerkzeuge und<br />

e<strong>in</strong> Clone Stamp Tool. Das Projekt ist OpenSource und Freeware, was die<br />

Weiterentwicklung und allgeme<strong>in</strong>e Verfügbarkeit sichern soll. Das Projekt kl<strong>in</strong>gt<br />

zwar sehr vielversprechend, ist jedoch ist im <strong>der</strong>zeitigen Entwicklungsstadium<br />

noch nicht produktionstauglich. Im Praxistest erwies sich <strong>HDRI</strong> als sehr <strong>in</strong>stabil,<br />

es versteht e<strong>in</strong>zig und alle<strong>in</strong> das Radiance Format, und e<strong>in</strong>ige Funktionen s<strong>in</strong>d<br />

15<br />

offensichtlich noch nicht fertig programmiert.<br />

SourceCode und erste W<strong>in</strong>dows-beta-Version s<strong>in</strong>d erhältlich unter:<br />

www.acm.uiuc.edu/siggraph/eoh_projects/eoh2002.html .


2.2.4. HCR-Edit<br />

Christoph HORMANN entwarf HCR (High Color Resolution)-Edit speziell für die<br />

Nachbearbeitung <strong>von</strong> Ren<strong>der</strong><strong>in</strong>gs aus POV-Ray. Das Programm bef<strong>in</strong>det sich<br />

noch <strong>in</strong> <strong>der</strong> Betaphase, <strong>der</strong> Funktionsumfang ist noch sehr limitiert. In <strong>der</strong><br />

aktuellen Version 0.5 bietet es allerd<strong>in</strong>gs als e<strong>in</strong>zige frei erhältliche <strong>HDRI</strong>-<br />

Bildbearbeitungssoftware e<strong>in</strong>en Histogrammeditor und Gradationskurven.<br />

Herausragend ist auch <strong>der</strong> flexible RAW-Importer (siehe Bild 1), <strong>der</strong> durch e<strong>in</strong>e<br />

Vielzahl <strong>von</strong> Parametern mit je<strong>der</strong> denkbaren RAW-Variante zurechkommt.<br />

Erhältlich ist HCR-Edit unter: www-public.tu-bs.de:8080/~y0013390/hcredit/<br />

2.2.5. Photosphere<br />

Greg WARD konzipierte PhotoSphere als HDR-tauglichen Imagebrowser [20]. Es<br />

kann die meisten <strong>HDRI</strong> Formate lesen und <strong>in</strong> Thumbnail-Übersichten darstellen.<br />

Daher ist es unverzichtbar für die Dateiverwaltung. Es ist die erste Software, die<br />

Greg Ward’s platzsparende 24 Bit Version des TIFF LogLuv Formates korrekt<br />

lesen und schreiben kann. Das Generieren <strong>von</strong> <strong>HDRI</strong>s ist im Vergleich zu<br />

HDRShop e<strong>in</strong>facher und führt zu besseren Ergebnissen. PhotoSphere be<strong>in</strong>haltet<br />

auch Algorithmen, mit denen <strong>der</strong> gesamten <strong>in</strong> e<strong>in</strong>em Bild enthaltenen Range<br />

auf e<strong>in</strong>em Monitor mit ger<strong>in</strong>gerem darstellbarem Range angezeigt werden kann<br />

(Tonemapp<strong>in</strong>g Operatoren) [13][20].<br />

Alle diese Kernfunktionen s<strong>in</strong>d <strong>in</strong> plattformunabhängigen C-Bibliotheken<br />

(libraries/dlls) enthalten. WARD würde es begrüßen wenn diese <strong>in</strong> das Standard-<br />

repertoire <strong>der</strong> Bildbearbeitung e<strong>in</strong>gehen und verhandelt zur Zeit mit Adobe über<br />

e<strong>in</strong>e Lizensierung [21].<br />

Erhältlich ist PhotoSphere für MacOS X unter: www.anyhere.<strong>com</strong><br />

16


2.2.6. Photogenics<br />

Photogenics ist das erste kommerzielle Malprogramm, was im vollen 32 Bit<br />

Fließkommabereich arbeitet [22]. Es handelt sich um e<strong>in</strong>e ausgewachsene<br />

Bildbearbeitungssoftware mit vielen verschiedenen Malwerkzeugen, wie zum<br />

Beispiel dem aus Photoshop bekannten Clone Stamp Tool. Es beherrscht auch<br />

alle üblichen Filterfunktionen. Photogenics ist bei <strong>der</strong> Darstellung und Manipula-<br />

tion <strong>von</strong> <strong>HDRI</strong>s bemerkenswert schnell.<br />

Ebenensystem und Menüführung s<strong>in</strong>d etwas gewöhnungsbedürftig, denn sie<br />

funktionieren völlig an<strong>der</strong>s als <strong>in</strong> Photoshop. In Photogenics wird je<strong>der</strong> Filter o<strong>der</strong><br />

Operator als Ebene behandelt und mit e<strong>in</strong>em eigenen Alphakanal gesteuert.<br />

Die Parameter aller dieser Filterebenen s<strong>in</strong>d je<strong>der</strong>zeit editierbar. So belegt man<br />

beispielsweise Teile des Bildes mit e<strong>in</strong>em Gaussian Blur, färbt dann an<strong>der</strong>e<br />

Stellen e<strong>in</strong>, und kann danach e<strong>in</strong>fach wie<strong>der</strong> <strong>in</strong> den Blur Operator zurückgehen<br />

und die Intensität erhöhen. Ebenen mit separaten Bild<strong>in</strong>formationen, die also<br />

Ebenen aus Photoshop entsprechen, fügen sich nur über e<strong>in</strong>en Umweg <strong>in</strong><br />

dieses System e<strong>in</strong>. Dabei übernimmt e<strong>in</strong> Rubthrough-Operator die Funktion<br />

des Blend Modus, <strong>der</strong> Alphakanal steuert wie gehabt die Tranzparenz, und die<br />

eigentliche Bild<strong>in</strong>formation wird aus e<strong>in</strong>em separaten Bild referenziert.<br />

Nach e<strong>in</strong>er kle<strong>in</strong>en E<strong>in</strong>gewöhnungsphase lernt man diesen nichtdestruktiven und<br />

quasi nichtl<strong>in</strong>earen Workflow zu schätzen.<br />

E<strong>in</strong>e Demoversion kann unter www.idruna.<strong>com</strong>/downloads.html heruntergeladen<br />

17<br />

werden. Diese ist 30 Tage lang voll funktionsfähig.<br />

2.2.7. mkhdr<br />

Dieses Programm ist <strong>der</strong> Urvater <strong>der</strong> <strong>HDRI</strong>-Generatoren [24].<br />

Es ist DOS-basiert, und se<strong>in</strong> e<strong>in</strong>ziger Zweck ist die Komb<strong>in</strong>ation <strong>von</strong> mehreren<br />

Low-Dynamic-Range Bil<strong>der</strong>n <strong>in</strong> e<strong>in</strong> <strong>HDRI</strong>. Allerd<strong>in</strong>gs müssen alle erfor<strong>der</strong>lichen<br />

Parameter dazu per Kommandozeile e<strong>in</strong>gegeben werden.<br />

Für den alltäglichen Produktionsbetrieb ist diese Arbeitsweise nicht akzeptabel,<br />

da sie umständlich zu bedienen und ohne jegliches Feedback ist. E<strong>in</strong>zig bei <strong>der</strong><br />

E<strong>in</strong>b<strong>in</strong>dung <strong>in</strong> eigene Software ist e<strong>in</strong>e Ause<strong>in</strong>an<strong>der</strong>setzung mit mkhdr s<strong>in</strong>nvoll.<br />

Da <strong>in</strong> dieser Arbeit jedoch die Benutzung proprietärer Werkzeuge vermieden<br />

wird, soll mkhdr <strong>von</strong> den folgenden Betrachtungen ausgeschlossen werden.<br />

Erhältlich ist mkhdr kostenlos unter www.debevec.org/Research/HDR (DOS<br />

Version) und www.kennethwoodruff.<strong>com</strong>/digitalart/files/ (OS X version).


2.2.8. Vergleich<br />

In e<strong>in</strong>er Testreihe wurde die Unterstützung <strong>der</strong> HDR Formate und die Leistungs-<br />

profile <strong>der</strong> e<strong>in</strong>zelnen Programme ermittelt. Die Ergebnisse s<strong>in</strong>d <strong>in</strong> Tabelle 3<br />

zusammengestellt und geben den aktuellen Stand im Mai 2003 wie<strong>der</strong>.<br />

Anmerkungen:<br />

18<br />

Tabelle 3: Vergleichsübersicht <strong>HDRI</strong>-Spezifische Software<br />

HDRView PhotoSphere HDRShop <strong>HDRI</strong>E HCR-Edit Photogenics<br />

Aktuelle Version 1.2 0.9 1.0 0.01 0.5 beta 5.0<br />

Plattform W<strong>in</strong>dows MacOS X (1) W<strong>in</strong>dows W<strong>in</strong>dows (2) W<strong>in</strong>dows<br />

W<strong>in</strong>dows,<br />

L<strong>in</strong>ux<br />

Preis Freeware Shareware (3) Freeware (4)<br />

Freeware,<br />

OpenSource<br />

Freeware $ 699<br />

Programmtyp<br />

Formate<br />

Viewer Browser<br />

Image<br />

Processor<br />

Image<br />

Processor<br />

Image<br />

Processor<br />

Image<br />

Processor<br />

.RAW - - ❍ - ❍❍ -<br />

.HDR ❍ ❍ ❍ ❍ ❍ ❍<br />

.PFM ❍ (5) - ❍ - - -<br />

.TIF Float<strong>in</strong>g Po<strong>in</strong>t ❍ (5) ❍ ❍ - - ❍<br />

.TIF LogLUV - ❍ - - - (9)<br />

.FLX - - - (7) - - ❍<br />

.EXR<br />

Funktionen<br />

- ❍ - - - -<br />

Generate HDR - ❍❍❍ ❍❍ - (8) - ❍<br />

Panoramic<br />

Transformation<br />

- - ❍ ❍ - -<br />

Flip/Rotate ❍ ❍ ❍ - - ❍<br />

Tonemapp<strong>in</strong>g<br />

Operatoren<br />

- ❍ (6) - - -<br />

Permanent<br />

Gamma correction<br />

- - - ❍ - ❍<br />

Blur/Sharpen Filter - - ❍ ❍ - ❍❍<br />

Histogramm,<br />

Gradationskurven<br />

- - - - ❍ ❍<br />

Malwerkzeuge<br />

(Clone Stamp)<br />

- - - ❍ - ❍<br />

Beson<strong>der</strong>e<br />

- -Thumbnails - editierbare<br />

- - Tiefen- - Alphakanäle<br />

Funktionen<br />

-Tonemapp<strong>in</strong>g CameraCurve<br />

unschärfe für Image Filter<br />

Operatoren - LightGen<br />

- RubThrough<br />

-Anzeige <strong>von</strong> Plug<strong>in</strong><br />

zum Verb<strong>in</strong>den<br />

Pixelhelligkeit <strong>in</strong><br />

<strong>von</strong> Bil<strong>der</strong>n<br />

cd/qm<br />

- sehr schnell<br />

- AutoAlign<strong>in</strong>g bei<br />

- Unterstützung<br />

HDR Generation<br />

für Sequenzen<br />

(1) Portierung auf W<strong>in</strong>dows und UNIX ist geplant [20].<br />

(2) Portierung auf LINUX ist geplant [25].<br />

(3) Autor Ward hat sich noch nicht für e<strong>in</strong> Market<strong>in</strong>gmodell entschieden,<br />

daher vorerst Shareware mit limitiertem Support[21].<br />

(4) Frei für private <strong>Anwendung</strong>en, kommerzielle Lizenz auf Anfrage.<br />

(5) Nur als Ladeformat implementiert.<br />

(6) Re<strong>in</strong>hard-Tonemapp<strong>in</strong>g [58] mit kostenlosem Plug<strong>in</strong>.<br />

(7) Als Ladeformat implementiert, aber nur 32 bit Version.<br />

(8) Temporär abgeschalten, wegen Programmfehlern <strong>in</strong> v0.01 [25].<br />

(9) fehlerhafte Interpretation <strong>der</strong> Farbanteile, beson<strong>der</strong>s Rot verblaßt


Auswertung:<br />

Radiance HDR und Float<strong>in</strong>g Po<strong>in</strong>t TIF bieten die breitere Unterstützung, wobei<br />

das Radiance Format aufgrund se<strong>in</strong>er verlustfreien Kompression vorzuziehen<br />

ist. Die wirtschaftlicheren Formate TIF LogLuv 24 und EXR s<strong>in</strong>d noch nicht<br />

breit genug implementiert, um als allgeme<strong>in</strong>e Empfehlung gelten zu können.<br />

HDRView, HDRShop und PhotoSphere können als essentiell angesehen<br />

werden für die Arbeit mit <strong>HDRI</strong>s. Da sie kostenlos erhältlich s<strong>in</strong>d, s<strong>in</strong>d sie<br />

une<strong>in</strong>geschränkt zu empfehlen.<br />

Photogenics ist hier aufgeführt, weil es als e<strong>in</strong>ziges e<strong>in</strong>zelbildbasiertes Pa<strong>in</strong>t-<br />

programm die Rolle <strong>von</strong> Photoshop übernehmen kann. Damit steht es ziemlich<br />

konkurrenzlos da, wenn es beispielsweise um das Bearbeiten <strong>von</strong> <strong>HDRI</strong>-<br />

Texturen geht. Wer ernsthaft e<strong>in</strong>e <strong>HDRI</strong>-basierte Pipel<strong>in</strong>e aufbauen will, sollte<br />

sich zum<strong>in</strong>dest die Demoversion herunterladen und anschauen.<br />

2.3. <strong>HDRI</strong>-taugliche Composit<strong>in</strong>g Programme<br />

Die schönsten Werkzeuge s<strong>in</strong>d natürlich die, die man schon hat. Viele<br />

Composit<strong>in</strong>g Programme, die <strong>in</strong> <strong>der</strong> <strong>Postproduktion</strong> zum E<strong>in</strong>satz kommen,<br />

können auch schon im High Dynamic Range arbeiten. Das kommt daher,<br />

weil Film schon <strong>von</strong> jeher <strong>in</strong> 16 Bit (Medium Dynamic Range) bearbeitet<br />

wurde [1][3]. Nur so kann e<strong>in</strong> digitaler Output erstellt werden, <strong>der</strong> noch weiche<br />

Farbverläufe und brillante Lichter aufweist, wenn er auf Film ausbelichtet ist.<br />

Der Schritt <strong>in</strong> die nächste Präzisionsstufe ist die logische Konsequenz.<br />

Während Adobe-Programme gerade erst anfangen, <strong>in</strong> 16-Bit Farbtiefe zu<br />

rechnen, haben diese Composit<strong>in</strong>g Programme auf <strong>in</strong>terne 32 Bit Fließkom-<br />

mapräzision umgerüstet.<br />

19<br />

Laut Herstellerangaben s<strong>in</strong>d es diese Programme:<br />

• Digital Fusion 4 (eye-On)<br />

• Combustion 2 (discreet)<br />

• Shake 2.4 (Apple)<br />

• Tremor 1.5<br />

• Nuke 4 (D2 Software)<br />

Sie alle können mittlerweile Bil<strong>der</strong> <strong>in</strong> den empfohlenen Formaten Radiance<br />

(HDR) und EXR laden und bearbeiten. 24-bit LogLUV wird jedoch <strong>von</strong> ke<strong>in</strong>em<br />

unterstützt.


2.4. Panoramaformate<br />

Beson<strong>der</strong>e <strong>Anwendung</strong>en <strong>in</strong> <strong>der</strong> <strong>Postproduktion</strong> erschließen sich durch <strong>HDRI</strong><br />

Panoramen, also Rundumsichten <strong>von</strong> 360 Grad horizontal und 180 Grad vertikal<br />

[3][23]. Um nun diese Panoramen <strong>in</strong> e<strong>in</strong>em zweidimensionalen Bild darzustellen,<br />

gibt es verschiedene Abwicklungsformate.<br />

Aufnahme und <strong>Anwendung</strong> dieser Panoramen werden <strong>in</strong> den Kapiteln 5 und 6<br />

noch im Detail erläutert. Vorher muß jedoch das Grundwissen gelegt se<strong>in</strong>.<br />

2.4.1. Spherical Map<br />

Dieses, auch als „Latitude-Longitude“ bekannte Format ist die gebräuchlichste<br />

Abwicklungsform und wird <strong>von</strong> den meisten 3D-Programmen unterstützt.<br />

Sie entspricht <strong>der</strong> Transformation <strong>von</strong> e<strong>in</strong>em Globus <strong>in</strong> e<strong>in</strong>e klassische Welt-<br />

karte. Breiten- und Längengrade f<strong>in</strong>den sich als XY-Pixelkoord<strong>in</strong>aten wie<strong>der</strong>.<br />

Die Horizontl<strong>in</strong>e ist genau <strong>in</strong> <strong>der</strong> Mitte des Bildes, und wird nahezu unverzerrt<br />

abgebildet. Die Pole dagegen werden extrem verzerrt, und füllen obere und<br />

untere Pixelreihe aus.<br />

Bild 9: Abwicklung im Spherical Map Format<br />

E<strong>in</strong>e Beson<strong>der</strong>heit des Spherical Formates ist, daß es nur e<strong>in</strong>e Nahtstelle hat.<br />

Oberer und unterer Rand konvergieren zu den Polen. Bei <strong>der</strong> Bearbeitung ist<br />

darauf zu achten, daß l<strong>in</strong>ker und rechter Rand genau ane<strong>in</strong>an<strong>der</strong> passen. Zur<br />

Kontrolle kann man den Bild<strong>in</strong>halt horizontal verschieben, was e<strong>in</strong>er Y-Rotation<br />

<strong>der</strong> Umgebungskugel entspricht.<br />

20


2.4.2. Cubic Map<br />

Statt e<strong>in</strong>er Umgebungskugel kann man auch e<strong>in</strong>en Würfel benutzen. Sitzt die vir-<br />

tuelle Kamera im Mittelpunkt, kann man praktisch ke<strong>in</strong>en Unterschied zwischen<br />

Kugel o<strong>der</strong> Würfel erkennen. Wichtig ist nur, daß aus je<strong>der</strong> Blickrichtung auch die<br />

entsprechende Bild<strong>in</strong>formation vorliegt.<br />

Die Abwicklung entspricht dem leicht nachvollziehbaren Faltschachtelpr<strong>in</strong>zip.<br />

Bild 10: Zusammenfalten e<strong>in</strong>er Cubic Map<br />

Vor allem für re<strong>in</strong> polygon-basierte Ren<strong>der</strong>systeme ist diese Abwicklung<br />

vorteilhaft, da sie mit nur 6 Polygonen auskommt. Es wird daher meist <strong>in</strong><br />

Computerspielen und an<strong>der</strong>e Echtzeitanwendungen verwendet. Grafikchips <strong>der</strong><br />

neuesten Generation [26] bieten dafür spezielle Hardwareunterstützung.<br />

Die Cubic Map gibt es als „Horizontal Cross“ (Bild 11) und „Vertical Cross“<br />

(Bild 12), welche sich nur durch die Platzierung <strong>der</strong> rückwärtigen Würfelwand<br />

unterscheiden.<br />

Bild 11: Horizontal Cross Format<br />

Die Raumverzerrung ist hier gleich Null, denn die e<strong>in</strong>zelnen Würfelseiten be<strong>in</strong>-<br />

halten e<strong>in</strong>en direkten Blick <strong>in</strong> die entsprechende Richtung. Gerade L<strong>in</strong>ien im<br />

Motiv erfahren ke<strong>in</strong>e Krümmung wie <strong>in</strong> <strong>der</strong> Sperical Map, und die Pixeldichte<br />

bleibt konstant über die gesamte Würfelfläche. Die Nachbearbeitung <strong>der</strong> e<strong>in</strong>zel-<br />

nen Seiten ersche<strong>in</strong>t dementsprechend e<strong>in</strong>fach. Allerd<strong>in</strong>gs ist darauf zu achten,<br />

daß jede Würfelkante e<strong>in</strong>e Nahtstelle darstellt. Selbst sche<strong>in</strong>bar verbundene<br />

Seiten s<strong>in</strong>d durch e<strong>in</strong>en sprunghaften Perspektivwechsel getrennt, <strong>der</strong> bei <strong>der</strong><br />

21<br />

Bild 12: Vertical Cross Format


Retusche nicht überschritten werden sollte. Auch bei <strong>der</strong> <strong>Anwendung</strong> <strong>von</strong> Filtern<br />

ist Vorsicht geboten, damit die Kont<strong>in</strong>uität an den Kanten nicht unterbrochen<br />

wird.<br />

Von <strong>der</strong> verfügbaren Bildfläche wird nur die Hälfte benutzt. Zwar schrumpft<br />

die ungenutzte Fläche bei <strong>der</strong> Speicherung <strong>in</strong> e<strong>in</strong>em RLE-kompressionsfähigen<br />

Dateiformat auf wenige Bytes, sie verursacht jedoch im geladenen Zustand den<br />

doppelten Speicherbedarf.<br />

2.4.3. Angular Map<br />

Dieses, auch „Lightprobe“ genannte Format ist speziell für die Beleuchtung<br />

mit HDR Images entwickelt worden [2]. Erstmalige Erwähnung f<strong>in</strong>det es <strong>in</strong><br />

DEBEVEC’s Siggraph Vortrag <strong>von</strong> 1998 [23]. Die geometrische Abbildung ist <strong>der</strong><br />

e<strong>in</strong>er Fischaugenl<strong>in</strong>se o<strong>der</strong> Spiegelkugel ähnlich, allerd<strong>in</strong>gs mit e<strong>in</strong>em vollen<br />

360° Öffnungsw<strong>in</strong>kel und mit gleichmässigen W<strong>in</strong>kelabständen.<br />

Bild 13 demonstriert, wie aus diesem kreisrunden Bild e<strong>in</strong>e Umgebungskugel<br />

geformt wird. Der Kreismittelpunkt markiert den Blick nach vorn. Oben, unten,<br />

l<strong>in</strong>ks und rechts liegen auf dem halben Radius, und <strong>der</strong> Blick nach h<strong>in</strong>ten ist<br />

auf dem Umfang verteilt.<br />

Diese extreme Raumverzerrung macht e<strong>in</strong>e Orientierung sehr schwierig, zur<br />

22<br />

Bild 13: Zusammenwickeln des Angular Map Formates<br />

Retusche ist dieses Format gänzlich ungeeignet.<br />

Der Vorteil des Angular Formats liegt <strong>in</strong> se<strong>in</strong>er Kont<strong>in</strong>uität.<br />

Bis auf den Punkt direkt h<strong>in</strong>ter <strong>der</strong> Kamera wird die Umgebung nahtlos abgebil-<br />

det. Damit ist die Gefahr m<strong>in</strong>imiert, bei Kameraschwenks e<strong>in</strong>e Nahtstelle <strong>in</strong>s Bild<br />

zu bekommen, und dort auf die korrekte Interpolation durch das 3D-Programm<br />

angewiesen zu se<strong>in</strong>.


2.4.4. Vergleichstabelle<br />

In Tabelle 3 s<strong>in</strong>d die wesentlichen Merkmale dieser Abwicklungsformate zusam-<br />

mengefaßt. Die Farbcodierung stellt <strong>in</strong> den jeweiligen Kategorien e<strong>in</strong>e Rangliste<br />

auf, <strong>von</strong> schlecht(Rot) bis gut(Grün).<br />

23<br />

3. Aufnahme <strong>von</strong> HDR Images<br />

Es gibt 3 denkbare Methoden, HDR Bil<strong>der</strong> zu erzeugen.<br />

Zum ersten kann man sie mit e<strong>in</strong>em 3D-Programm vollsynthetisch generieren.<br />

Nahezu alle 3D-Programme arbeiten <strong>in</strong>tern mit 32-Bit Fließkommazahlen, um<br />

simulierte Beleuchtungssituationen realitätsnah zu berechnen. Zwar s<strong>in</strong>d die<br />

Daten latent vorhanden, <strong>der</strong> Großteil wird jedoch wird <strong>in</strong> <strong>der</strong> gängigen Praxis<br />

mit <strong>der</strong> Wahl e<strong>in</strong>es 8-Bit Speicherformates verworfen. Bislang ist das <strong>der</strong> e<strong>in</strong>zige<br />

Weg, HDR-Videosequenzen zu erzeugen und <strong>in</strong> <strong>der</strong> <strong>Postproduktion</strong> zu nutzen.<br />

Allerd<strong>in</strong>gs setzt dieser Schritt erst <strong>in</strong> <strong>der</strong> Mitte <strong>der</strong> regulären Produktionskette<br />

e<strong>in</strong>, wenn virtuelle Elemente e<strong>in</strong>em realen Video o<strong>der</strong> Standbild h<strong>in</strong>zugefügt<br />

werden. Wie aber fängt man den kompletten Dynamic Range <strong>der</strong> echten Welt<br />

e<strong>in</strong>?<br />

Tabelle 4: Vergleichsübersicht Panoramaformate<br />

Der zweite Weg besteht dar<strong>in</strong>, nache<strong>in</strong>an<strong>der</strong> mehrere Aufnahmen mit verschie-<br />

dener Belichtung zu fotografieren, und dann digital zu e<strong>in</strong>em Bild zusammen-<br />

zufügen [24]. Das ist heute schon mit gewöhnlichen Kameras möglich, hat<br />

allerd<strong>in</strong>gs den Nachteil daß es e<strong>in</strong> erhebliches Maß an Handarbeit erfor<strong>der</strong>t.<br />

Diese Methode eignet sich allerd<strong>in</strong>gs nur für relativ unbewegte Motive, für<br />

Videoaufnahmen ist sie gänzlich unbrauchbar.<br />

Spherical Map Cubic Map Angular Map<br />

Seitenverhältnis 2:1 4:3 bzw. 3:4 1:1<br />

Raumverzerrung hoch ger<strong>in</strong>g extrem<br />

Nahtstellen 2 Pole, 1 Kante 8 Kanten 1 Pol<br />

Informationsgehalt 100% 50% 78%<br />

Editiermöglichkeit Filter, Retusche Retusche ke<strong>in</strong>e


Die dritte denkbare Möglichkeit wäre, den gesamten Dynamic Range zu fotogra-<br />

fieren. Elektronik<strong>in</strong>genieure arbeiten schon seit langem daran, entsprechende<br />

digitale Sensoren zu entwickeln. Diese bef<strong>in</strong>den sich im Großteil noch im Labor-<br />

stadium, und arbeiten mit teilweise sehr aufwendigen Tricks um die Limitierun-<br />

24<br />

gen herkömmlicher CCD Sensoren zu umgehen.<br />

3.1. Digitale Sensoren<br />

3.1.1. Technische Problemdef<strong>in</strong>ition<br />

Von durschnittlichen CCD-Sensoren ist e<strong>in</strong>e Aufnahmefähigkeit <strong>von</strong> 66 dB zu<br />

erwarten, High-End-CCDs erreichen bis zu 78 dB [29]. Zum Vergleich, <strong>der</strong><br />

Dynamic Range e<strong>in</strong>er sonnigen Außenszene liegt zwischen 100 und 150 dB.<br />

Hardwaretechnisch ergibt sich das Problem direkt aus <strong>der</strong> technischen Def<strong>in</strong>ition<br />

des Dynamic Range. Er setzt sich zusammen aus dem logarithmischen<br />

Verhältnis des größten auslesbaren Signals bevor e<strong>in</strong> Pixel se<strong>in</strong>e Sättigung<br />

erreicht (i ph,max ) und dem kle<strong>in</strong>sten, vom Rauschen gerade noch unterscheid-<br />

baren Signal (i ph,m<strong>in</strong> ) [27]:<br />

DR = 20 log 10 (i ph,max / i ph,mix ) (1)<br />

Das Naheliegendste wäre natürlich, durch e<strong>in</strong>e robustere Bauweise des Sensors<br />

das größte auslesbare Signal (i ph,max ) zu erhöhen. Doch lei<strong>der</strong> hat das den<br />

Nebeneffekt, daß es e<strong>in</strong>en überproportionalen Anstieg des Signalrauschens<br />

verursacht. Überdies verhalten sich die ausgelesenen Daten dann nichtl<strong>in</strong>ear,<br />

was zu extremen Problemen bei <strong>der</strong> Rekonstruktion <strong>der</strong> Farbwerte führt.<br />

3.1.2. „Time-to-Saturation“<br />

E<strong>in</strong>e an<strong>der</strong>e Möglichkeit wäre, nicht wie üblich die CCD-Ladungswerte nach<br />

e<strong>in</strong>er bestimmten Belichtungszeit auszuwerten, son<strong>der</strong>n die Zeit zu messen die<br />

je<strong>der</strong> e<strong>in</strong>zelne Pixel benötigt, um se<strong>in</strong>e Sättigungsladung zu erreichen [27][28].<br />

Damit wäre das obere Ende des auslesbaren DR zwar nicht unendlich, aber<br />

maximiert auf das, was die Reaktionszeit <strong>der</strong> Schaltkreise und die Auslese-<br />

geschw<strong>in</strong>digkeit hergeben. E<strong>in</strong>e Beschneidung f<strong>in</strong>det nur am unteren Ende<br />

statt, nämlich durch die Festlegung <strong>der</strong> maximal zulässigen Belichtungszeit.<br />

Diese kann allerd<strong>in</strong>gs, gerade <strong>in</strong> lichtarmen Szenen, sehr lange ausfallen. Auch<br />

bereitet e<strong>in</strong>e bauteilschonende Implementierung grundlegende Schwierigkeiten.<br />

Es ist noch ke<strong>in</strong> befriedigen<strong>der</strong> Weg gefunden worden, die Sättigung e<strong>in</strong>es<br />

Pixels zu registrieren und die dementsprechende Zeit zu messen.


3.1.3. Logarithmische Sensoren<br />

E<strong>in</strong> dritter Lösungsansatz stellt sich <strong>in</strong> Form <strong>von</strong> MOSFET Sensoren dar, die<br />

<strong>in</strong> ihrer Bauweise an CMOS Speicherbauste<strong>in</strong>e angelehnt s<strong>in</strong>d. Herzstück dieser,<br />

auch CMOS Active Pixel Sensor (APS) genannten Bauteile ist e<strong>in</strong> Transistor.<br />

Dieser sammelt direkt die Photospannung, die über die Dauer <strong>der</strong> Belichtungszeit<br />

anfällt [27]. Im Unterschied zu CCDs reagieren MOSFET Sensoren auf Lichte<strong>in</strong>fall<br />

<strong>der</strong> Ladekurve des Transistors entsprechend logarithmisch statt l<strong>in</strong>ear. Dieses<br />

Anspechverhalten ist dem des analogen Films sehr ähnlich, und erreicht deshalb<br />

e<strong>in</strong>en ähnlichen Medium Dynamic Range <strong>von</strong> 5-6 Belichtungsstufen.<br />

Allerd<strong>in</strong>gs leiden MOSFET Sensoren auch unter dengleichen Schwächen wie<br />

analoger Film, die nichtl<strong>in</strong>eraren Daten lassen nur im Mittelteil <strong>der</strong> Kurve e<strong>in</strong><br />

zuverlässiges Farbmanagement zu. Am oberen und unteren Bereichsende s<strong>in</strong>d<br />

die Informationen zwar latent vorhanden, doch s<strong>in</strong>d sie so stark komprimiert daß<br />

schon ger<strong>in</strong>gste Rauschanteile e<strong>in</strong>e starke Signalverfälschung bewirken.<br />

Diese Sensoren s<strong>in</strong>d bereits <strong>in</strong> Serienprodukten erhältlich, etwa <strong>in</strong> <strong>der</strong> Canon<br />

EOS Serie [16].<br />

3.1.4. Digital Pixel Sensor<br />

An <strong>der</strong> Stanford Universität wurde diese Idee jedoch im Zuge des „Programmable<br />

Digital Camere Projekt“ aufgegriffen [27][39]. Unter <strong>der</strong> Leitung <strong>von</strong> Abbas El<br />

GAMAL wurde e<strong>in</strong> neuer, auf CMOS Technologie basierter Sensor entwickelt: <strong>der</strong><br />

Digital Pixel Sensor (DPS). Der entscheidende Unterschied liegt dar<strong>in</strong>, daß je<strong>der</strong><br />

e<strong>in</strong>zelne Pixel e<strong>in</strong>en eigenen Analog-Digital-Converter sowie e<strong>in</strong>e eigene digitale<br />

Speicherzelle besitzt. Diese arbeiten alle parallel, und werden gleichzeitig digital<br />

ausgelesen. Damit s<strong>in</strong>d weitaus höhere Auslesegeschw<strong>in</strong>digkeiten erreichbar als<br />

mit konventionellen CCDs, wo <strong>der</strong> Auslesevorgang <strong>in</strong> je<strong>der</strong> Zeile seriell geschieht.<br />

So erreicht <strong>der</strong> Prototyp mit 10.000 Bil<strong>der</strong>n pro Sekunde e<strong>in</strong>e bislang unerreichte<br />

Geschw<strong>in</strong>digkeit. Der Trick besteht nun dar<strong>in</strong>, den eigentlichen Sensor mit e<strong>in</strong>er<br />

höheren Bildrate zu betreiben, als das ausgegebene Video. Für jedes e<strong>in</strong>zelne<br />

Videobild werden so mehrere Bil<strong>der</strong> mit verschiedener Belichtung aufgenommen.<br />

Diese werden schon auf unterster Ebene zu e<strong>in</strong>em <strong>HDRI</strong> komb<strong>in</strong>iert. Da die<br />

Bauweise auf e<strong>in</strong>em CMOS Chip basiert, s<strong>in</strong>d solche chip<strong>in</strong>ternen Berechnungen<br />

leicht implementierbar. Diese Vorauswertung hat auch den angenehmen Neben-<br />

effekt e<strong>in</strong>er Rauschunterdrückung, denn die effektiven Pixelwerte stellen e<strong>in</strong>en<br />

Querschnitt aus mehreren Messungen dar. Auch komplexere Vorauswertungen<br />

s<strong>in</strong>d direkt auf dem Chip möglich, wie beispielsweise e<strong>in</strong>e Verr<strong>in</strong>gerung <strong>der</strong><br />

Bewegungsunschärfe o<strong>der</strong> Berechnung <strong>der</strong> Bewegungsvektoren.<br />

25


Das Fraunhofer Institut für Mikroelektronische Schaltungen und Systeme verfolgt<br />

denselben Ansatz, und entwickelte e<strong>in</strong>en CMOS-basierten Chip mit pixeleigenen<br />

Schaltkreisen [9]. Nach eigenen Angaben wird e<strong>in</strong> Bildpixel aus wahlweise 1, 2<br />

o<strong>der</strong> 4 Auslesevorgängen ermittelt, was auch bei e<strong>in</strong>er Bildrate <strong>von</strong> 50 Hz e<strong>in</strong>en<br />

effektiven Dynamic Range <strong>von</strong> 120 dB br<strong>in</strong>gt. Es ist also nur e<strong>in</strong>e Frage <strong>der</strong> Zeit,<br />

26<br />

bis dieser Ansatz zu e<strong>in</strong>em serienreifen Produkt führt.<br />

Allerd<strong>in</strong>gs ist <strong>der</strong> mikroelektronische Aufwand immens. Die Stanfor<strong>der</strong> Prototypen<br />

benötigen bis zu 37 Transistoren pro Bildpixel, was sich schon bei e<strong>in</strong>em 352*288<br />

Pixelfeld (halbe Videoauflösung) auf 3,8 Millionen Transistoren addiert. Erfahrun-<br />

gen aus <strong>der</strong> LCD-Display-Technologie, die auch auf pixeleigenen Logikschaltkrei-<br />

sen basiert, lehren daß die hohen Ausschußraten sich <strong>in</strong> e<strong>in</strong>em hohen Fertigungs-<br />

preis nie<strong>der</strong>schlagen. Digital Pixel Sensoren werden warsche<strong>in</strong>lich den High-End<br />

Markt kommen<strong>der</strong> High Dynamic Range Kameras dom<strong>in</strong>ieren, <strong>in</strong> H<strong>in</strong>sicht auf<br />

Leistung und Preis.<br />

3.1.5. Rasterversetzte Belichtung<br />

E<strong>in</strong>e fünfte, auch sehr vielversprechende Möglichkeit wird an <strong>der</strong> Universität<br />

Columbia untersucht [30]. Spatially Vary<strong>in</strong>g Exposure, zu deutsch Rasterversetzte<br />

Belichtung nennt sich die Methode. Die Grundidee besteht dar<strong>in</strong>, e<strong>in</strong>en konven-<br />

tionellen CCD Sensor mit e<strong>in</strong>em gleichmäßigen Raster <strong>von</strong> Neutral Density<br />

(ND) Filtern verschiedener Stärke zu bedecken. Die Pixel unter den lichtundurch-<br />

lässigeren Filtern fangen die hellen Lichtanteile e<strong>in</strong>, während die Pixel unter<br />

den lichtdurchlässigeren Filtern für die dunklen Anteile empf<strong>in</strong>dlicher s<strong>in</strong>d. Aus<br />

dem komb<strong>in</strong>ierten Informationen <strong>von</strong> 4 Pixeln des CCD-Sensors wird damit e<strong>in</strong><br />

Bildpixel gewonnen. Offensichtlicher Nachteil dieser Methode ist, daß die effektive<br />

Auflösung geviertelt wird.<br />

Außerdem ist die Umsetzung auf 3-Chip-Kameras beschränkt, wo für jeden Farb-<br />

kanal e<strong>in</strong> volles CCD-Feld zur Verfügung steht. In 1-Chip-Kameras wird schon e<strong>in</strong><br />

ähnliches Raster aus Farbfiltern benutzt, um die Empf<strong>in</strong>dlichkeit <strong>der</strong> CCD-Pixel<br />

auf die Grundfarben Rot, Grün, Blau zu modulieren. E<strong>in</strong> weniger offensichtlicher<br />

Nachteil ist, daß diese Methode den Dynamic Range nur nach oben h<strong>in</strong> erweitert.<br />

Die Detailtiefe <strong>in</strong> den Schattenregionen bleibt unbee<strong>in</strong>flußt. Dennoch entspricht<br />

<strong>der</strong> theoretisch erreichbare DR e<strong>in</strong>er Vervierfachung des ursprünglichen DR des<br />

CCD-Sensors, was dann etwa 200 dB o<strong>der</strong> 20-24 Belichtungsstufen entspricht.<br />

Und heutzutage, wo 3 Megapixel auch <strong>von</strong> Consumerkameras erreicht werden,<br />

verblaßt <strong>der</strong> Auflösungsnachteil zugunsten <strong>der</strong> unkomplizierten Implementierung.<br />

Auf Grundlage e<strong>in</strong>er HighDef<strong>in</strong>ition Videokamera, ist sogar e<strong>in</strong>e HDR-Videoka-<br />

mera mit voller PAL-Auflösung denkbar.


3.1.6. SuperCCD SR<br />

Fujifilms eigene Sensorserie, die SuperCCD, unterscheidet sich durch e<strong>in</strong>e<br />

wabenartige, um 45 Grad rotierte Anordnung <strong>der</strong> Photodioden. Das ermöglicht<br />

e<strong>in</strong>e höhere Sensordichte, und vermeidet das „Ausbluten“ <strong>von</strong> e<strong>in</strong>er Über-<br />

spannung <strong>in</strong> die gesamte CCD-Zeile. In <strong>der</strong> vierten Generation erreicht die<br />

SuperCCD <strong>in</strong> <strong>der</strong> SR Variante e<strong>in</strong>en Dynamic Range, <strong>der</strong> dem <strong>von</strong> Filmmaterial<br />

gleichkommt [31]. Dies wird dadurch erreicht, daß jede Sensorzelle aus e<strong>in</strong>er<br />

Paarung <strong>von</strong> Photodioden unterschiedlicher Empf<strong>in</strong>dlichkeit besteht. Die hoch-<br />

emf<strong>in</strong>dlichen Photodioden fangen so die dunklen Bereiche e<strong>in</strong>, und die schwach<br />

empf<strong>in</strong>dlichen Photodioden können die hellen Anteile detailgetreu aufnehmen.<br />

Dabei schafft dieser neue Sensor e<strong>in</strong>e Bildrate <strong>von</strong> 30 Frames pro Sekunde <strong>in</strong><br />

VGA-Auflösung[33].<br />

3.1.7. Doppelblitzverfahren<br />

E<strong>in</strong> ganz an<strong>der</strong>er Entwicklungsansatz leitet sich aus <strong>der</strong> Forschung für<br />

masch<strong>in</strong>elles Sehen her, und sei hier nur am Rande wegen se<strong>in</strong>er Orig<strong>in</strong>alität<br />

erwähnt. Typische <strong>Anwendung</strong>sgebiete Masch<strong>in</strong>ellen Sehens s<strong>in</strong>d Gesichter-<br />

erkennung, Raumüberwachung, Bewegungssensoren und Fahrzeug<strong>in</strong>sassen-<br />

erkennung. E<strong>in</strong>e gemischte Forschungsgruppe <strong>der</strong> BMW AG, City University<br />

London, und FH Nordostnie<strong>der</strong>sachsen [32] suchte nach e<strong>in</strong>em automatischen<br />

System, daß auch unter kontrastreichen Lichtverhältnissen e<strong>in</strong>en konstanten<br />

Fluss verlässlicher Bild<strong>in</strong>formationen liefert. Über- und Unterbelichtung, auch<br />

<strong>von</strong> Bildteilen, stellen e<strong>in</strong>en Verlust wertvoller Information für die Auswertungs-<br />

algorithmen dar, und s<strong>in</strong>d daher unerwünscht. Darüber h<strong>in</strong>aus soll das System<br />

tauglich für den Consumermarkt se<strong>in</strong>, und damit aus kostengünstigen E<strong>in</strong>zel-<br />

komponenten bestehen.<br />

Die Forschungsgruppe ist auf e<strong>in</strong>e sehr bemerkenswerte Lösung gekommen:<br />

Das Doppelblitzverfahren. Im Abstand <strong>von</strong> 20 Millisekunden werden 2 Bil<strong>der</strong> auf-<br />

genommen, im selben Takt wird e<strong>in</strong>e Blitz zur Beleuchtung <strong>der</strong> Szene geschaltet.<br />

Die Blitzdiode arbeitet dabei dem <strong>in</strong>fraroten Bereich, und ist für das Auge<br />

unsichtbar. Allerd<strong>in</strong>gs ist <strong>der</strong> zweite Blitz viel heller als <strong>der</strong> Erste, so daß 2<br />

unterschiedlich belichtete Bil<strong>der</strong> entstehen. Diese werden dann zu e<strong>in</strong>em Bild<br />

komb<strong>in</strong>iert, was aufgrund <strong>der</strong> komplett kontrollierten Beleuchtung <strong>der</strong> Szene<br />

sogar <strong>in</strong> Echtzeit <strong>von</strong> <strong>der</strong> Firmware des Systems übernommen werden kann. In<br />

e<strong>in</strong>em Beispiel wurde so e<strong>in</strong>e Szene mit e<strong>in</strong>em gemessenen Dynamic Range<br />

27<br />

<strong>von</strong> 105 dB mit vollem Detailreichtum aufgenommen.


Allerd<strong>in</strong>gs ziehlt das System <strong>in</strong> se<strong>in</strong>er vorgestellten Kalibrierung auf e<strong>in</strong>e<br />

optische Kompression des Dynamic Range auf 48 dB ab, um die Outputdaten<br />

<strong>in</strong> e<strong>in</strong> 8 Bit Format zu pressen. Die absoluten Szenenkontraste werden damit<br />

zugunsten <strong>der</strong> Detailkontraste geopfert, was für den angedachten Zweck des<br />

masch<strong>in</strong>ellen Sehens vielleicht noch als s<strong>in</strong>nvoll ersche<strong>in</strong>en mag, nicht jedoch<br />

für <strong>Postproduktion</strong> im High Dynamic Range. Die Doppelblitzmethode f<strong>in</strong>det hier<br />

nur e<strong>in</strong>e Erwähnung, weil sie das Potential hat, zu e<strong>in</strong>er HDR-tauglichen Video-<br />

28<br />

kamera für den Studioe<strong>in</strong>satz entwickelt zu werden.<br />

3.2. Realisierte Systeme<br />

3.2.1. HDR Video<br />

HDR taugliche Videokameras bef<strong>in</strong>den sich wie ausgeführt noch im Ent-<br />

wicklungsstadium. Allerd<strong>in</strong>gs ist <strong>der</strong> Weg noch weit. Selbst wenn die Forscher es<br />

schaffen, e<strong>in</strong>en HDR-Chip zu entwickeln, wird herkömmliches Videoband nicht<br />

<strong>in</strong> <strong>der</strong> Lage se<strong>in</strong> diese Daten aufzunehmen. Dann wird entwe<strong>der</strong> e<strong>in</strong> neuer<br />

Videostandard gebraucht o<strong>der</strong> die Aufzeichnung f<strong>in</strong>det gleich auf Festplatte statt.<br />

Echtes HDR Video ist bisher also re<strong>in</strong> spekulativ.<br />

Es existiert allerd<strong>in</strong>gs e<strong>in</strong>e nachvollziehbare Lösung, durch e<strong>in</strong>e Umrüstung<br />

handelsüblicher Videokameras <strong>der</strong>en Dynamic Range zu erweitern. Die Idee<br />

basiert auf e<strong>in</strong>em Kaleidoskop-Effekt-Filter, <strong>der</strong> den Bildstrahl <strong>in</strong> 5 gleiche Bil<strong>der</strong><br />

aufsplittet. WAESE [33] beschichtete diesen Filter mit Neutral-Density-Gel ver-<br />

schiedener Dichten, und erreichte damit e<strong>in</strong>e unterschiedliche Belichtung dieser<br />

5 Bil<strong>der</strong>. Diese Variationen existieren dann alle nebene<strong>in</strong>an<strong>der</strong> auf jedem Video-<br />

bild. Um den horizontalen und vertikalen Versatz zu ermitteln, ist e<strong>in</strong>e e<strong>in</strong>malige<br />

Kalibrierung erfor<strong>der</strong>lich. Dann kann mittels entsprechen<strong>der</strong> Software e<strong>in</strong>e HDR-<br />

Videosequenz errechnet werden.<br />

Der Nachteil ist dabei, daß die effektive Auflösung weniger als die Hälfte<br />

<strong>der</strong> ursprünglich aufgenommen Auflösung beträgt. Dementsprechend ist diese<br />

Methode nur mit teuren High Def<strong>in</strong>ition Kameras praktikabel, und auch dann nur<br />

<strong>in</strong> beschränktem Maße.


3.2.2. Digitale Fotografie<br />

Auf dem Gebiet <strong>der</strong> Digitalen Fotografie wurden dagegen schon marktreife<br />

Produke entwickelt, die bis <strong>in</strong> den Medium Dynamic Range vordr<strong>in</strong>gen [34].<br />

Hersteller digitaler Rückteile für Mittelformatkameras wollen den professionellen<br />

Fotografen zum Umstieg <strong>von</strong> Film auf Digital bewegen. Kernstück dieser Bestre-<br />

bungen ist es, den Dynamic Range <strong>von</strong> Filmmaterial zu überbieten (zur Er<strong>in</strong>ne-<br />

rung: etwa 5-8 Belichtungsstufen). Dabei bedienen sie sich im Regelfall des<br />

ersten oben beschriebenen Ansatzes zur Rangeerweiterung, <strong>der</strong> Erhöhung<br />

<strong>von</strong> i max . Um dem Nachteil des Rauschanstiegs entgegenzuwirken s<strong>in</strong>d diese<br />

Kameras mit e<strong>in</strong>er aktiven Kühlung ausgestattet. So erreichen diese High End<br />

Kamerarückteile e<strong>in</strong>en Dynamic Range <strong>von</strong> 11-12 Belichtungsstufen. Beispiele<br />

s<strong>in</strong>d: LEICA S1 Alpha/Pro, Better Light Super 6000/8000, Jenoptik eyelike MF,<br />

LEAF Cantare/Volare [34].<br />

Die LEAF c-most erreicht mit e<strong>in</strong>em MOSFET-Sensor 11 Belichtungsstufen.<br />

Erhältlich s<strong>in</strong>d diese Kameras nur im Fachhandel, <strong>in</strong> e<strong>in</strong>er Preisklasse <strong>von</strong><br />

€ 20.000 aufwärts. Diese Profikameras s<strong>in</strong>d dafür designed, direkt <strong>von</strong> e<strong>in</strong>em<br />

Host<strong>com</strong>puter aus betrieben zu werden. Der Monitor dient dabei als Viewf<strong>in</strong><strong>der</strong>,<br />

die Bedienung erfolgt über e<strong>in</strong> Software<strong>in</strong>terface. Gespeichert werden die Fotos<br />

direkt auf Festplatte. Als Speicherformate haben sich HDR und TIFF16 zum<br />

Industriestandard professioneller Digitalfotografie entwickelt, und werden <strong>von</strong><br />

allen diesen Kameras unterstützt.<br />

Echter High Dynamic Range <strong>von</strong> mehr als 12 Belichtungsstufen ist damit zwar<br />

nicht aufnehmbar, doch <strong>der</strong> Markt existiert bereits. Sobald e<strong>in</strong> marktreifes Pro-<br />

dukt mit echtem HDR Chip entwickelt ist, wird er sich auf diesem High-End Markt<br />

auch verkaufen lassen.<br />

29


3.3. Handarbeit<br />

Auch mit heutigem Equipment kann man Bil<strong>der</strong> erstellen, die den gesamten<br />

sichtbaren Dynamic Range enthalten. Man braucht zwar e<strong>in</strong>iges an Arbeitsauf-<br />

wand und Zeit, doch mit Sorgfalt und <strong>der</strong> richtigen Methode s<strong>in</strong>d die Ergebnisse<br />

sehr professionell.<br />

Die Grundidee besteht dar<strong>in</strong>, mehrere Aufnahmen mit verschiedener Belichtung<br />

aufzunehmen. Damit fängt man den Dynamic Range quasi scheibchenweise e<strong>in</strong>.<br />

Danach kann man diese Scheibchen wie<strong>der</strong> zusammenfügen, und erhält e<strong>in</strong><br />

30<br />

<strong>HDRI</strong> [2][3][23]. Bild 14 veranschaulicht diese Idee.<br />

Bild 14: Grundpr<strong>in</strong>zip <strong>der</strong> Rekonstruktion e<strong>in</strong>es <strong>HDRI</strong><br />

Um e<strong>in</strong>e korrekte Reproduktion des HDR zu gewährleisten, müssen sich die<br />

Dynamic Ranges <strong>der</strong> e<strong>in</strong>zelnen Aufnahmen überlappen. Nur dann können sie<br />

durch e<strong>in</strong>en allgeme<strong>in</strong> gültigen Algorithmus auch wie<strong>der</strong> komb<strong>in</strong>iert werden.<br />

E<strong>in</strong> angenehmer Nebeneffekt ist, daß durch die Komb<strong>in</strong>ationsalgorithmen das<br />

Rauschen verm<strong>in</strong><strong>der</strong>t wird. Je mehr E<strong>in</strong>zelaufnahmen denselben Pixel ohne<br />

Über- o<strong>der</strong> Unterbelichtung zeigen, umso genauer kann <strong>der</strong> exakte Farbwert<br />

ermittelt werden.<br />

Unweigerlicher Nachteil dieser sequentiellen Methode ist, daß man nur unbe-<br />

wegte Motive aufnehmen kann. Ist das Motiv nicht konstant statisch über<br />

die ganze Zeit <strong>der</strong> Belichtungs-<br />

serie, versagen selbstverständlich<br />

auch die Komb<strong>in</strong>ationsalgorithmen.<br />

Menschen, Autos, Tiere, wehende<br />

Flaggen, sich im W<strong>in</strong>d wiegende<br />

Zweige – all diese D<strong>in</strong>ge führen zu<br />

geisterhaften Schemen im kombi-<br />

nierten <strong>HDRI</strong> (siehe Bild 15).<br />

Bild 15: Geisterbus


31<br />

3.3.1. Aufnehmen <strong>der</strong> Belichtungsreihe<br />

Dafür benötigt man nur e<strong>in</strong> Stativ und e<strong>in</strong>en Fotoapparat mit manuellen<br />

E<strong>in</strong>stellmöglichkeiten.<br />

Man fixiert die Kamera zuerst auf das Motiv - stellt also Stativ fest, manuellen<br />

Fokus scharf und die Blende fest e<strong>in</strong>. Bei Aussenaufnahmen ist es empfehlens-<br />

wert, die Blende auf den größten verfügbaren f-Wert zu stellen, das bedeutet<br />

auf die kle<strong>in</strong>stmögliche Blendenöffnung. Damit m<strong>in</strong>imiert man den E<strong>in</strong>fluß <strong>von</strong><br />

Streulicht und Tiefenunschärfe [2]. Außerdem maximiert man damit den oberen<br />

Grenzwert des über die gesamte Belichtungsreihe aufgenommenen Dynamic<br />

Range. Denn die hellsten Objekte im Bild, wie beispielsweise die Sonne, s<strong>in</strong>d<br />

am besten bei <strong>der</strong> kle<strong>in</strong>sten Blendenöffnung und <strong>der</strong> kürzesten Belichtungszeit<br />

zu erkennen. Um sicherzugehen, bietet es sich daher auch an, an diesem hellen<br />

Ende des Dynamic Range zu beg<strong>in</strong>nen.<br />

Man fotografiert nun e<strong>in</strong>e Belichtungsserie, <strong>in</strong>dem man <strong>von</strong> Bild zu Bild die<br />

Belichtungszeit erhöht. Empfohlen ist, <strong>in</strong> e<strong>in</strong>zelnen Belichtungsstufen vorzu-<br />

gehen, oft reicht es auch aus, die Bil<strong>der</strong> im Abstand <strong>von</strong> 2 Belichtungsstufen zu<br />

machen. Als Faustregel gilt: je<strong>der</strong> Pixel sollte auf m<strong>in</strong>destens zwei Bil<strong>der</strong>n gut<br />

zu erkennen se<strong>in</strong> – also we<strong>der</strong> über- noch unterbelichtet se<strong>in</strong> [23]. Ist man sich<br />

unsicher, fotografiert man lieber <strong>in</strong> kle<strong>in</strong>eren Schritten.<br />

3.3.2. Welche Kamera? Analog o<strong>der</strong> Digital?<br />

Analoge Kameras bieten e<strong>in</strong>e weitaus bessere Auflösung, sowie wie oben<br />

beschrieben e<strong>in</strong>en grösseren Dynamic Range <strong>in</strong> je<strong>der</strong> e<strong>in</strong>zelnen Aufnahme. Mit<br />

e<strong>in</strong>em 48 bit Negativscanner hat man damit bessere Grunddaten für die spätere<br />

Rekonstruktion des <strong>HDRI</strong>s. COHEN [3] schätzt aber vor allem den Geschw<strong>in</strong>dig-<br />

keitsvorteil: „Digital cameras always need time to write the image to the card,<br />

but with analoge all you are wait<strong>in</strong>g for is the shutter.“ Und gerade wenn man<br />

die Beleuchtung an e<strong>in</strong>em Filmset e<strong>in</strong>fangen will, ist Zeit knapp. Alle Requisiten,<br />

Beleuchter und Gaffer müssen <strong>in</strong> Position bleiben, und da kostet jede Sekunde<br />

teures Geld. COHEN [3] empfiehlt daher auch die Verwendung programmierbarer<br />

Spiegelreflexkameras, die auf e<strong>in</strong>en Knopfdruck automatisch durch alle Belich-<br />

tungszeiten gehen.


Nachteile analoger Kameras s<strong>in</strong>d, daß man ke<strong>in</strong>e direkte Kontrollmöglichkeit<br />

hat, son<strong>der</strong>n auf Entwicklung warten muß. Außerdem enthalten die Bil<strong>der</strong> ke<strong>in</strong>e<br />

Belichtungsdaten - die muß man geson<strong>der</strong>t notieren. Die spätere Rekonstruktion<br />

des <strong>HDRI</strong> ist dadurch mit erheblichem Mehraufwand verbunden, und muß<br />

<strong>in</strong> HDRShop durchgeführt werden. Das ist auch deswegen ungünstig, weil<br />

HDRShop (wie später beschrieben) ke<strong>in</strong>e Funktion anbietet um die e<strong>in</strong>zelnen<br />

Bil<strong>der</strong> horizontal und vertikal aufe<strong>in</strong>an<strong>der</strong> anzupassen. Doch gerade bei <strong>der</strong><br />

Entwicklung analoger Bil<strong>der</strong> treten solche Verschiebungen immer wie<strong>der</strong> auf,<br />

bed<strong>in</strong>gt durch Toleranzen des Filmschlittens <strong>in</strong> kommerziellen Entwicklungs-<br />

masch<strong>in</strong>en. Man muß also alle Bil<strong>der</strong> <strong>der</strong> Belichtungsserie mühsam <strong>in</strong> Photo-<br />

shop aufe<strong>in</strong>an<strong>der</strong> passen.<br />

Digitale Kameras befreien <strong>von</strong> diesen Problemen. Blende und Belichtungszeit<br />

s<strong>in</strong>d <strong>in</strong> <strong>der</strong> sogenannten EXIF-Datenspur enthalten, und können beispielsweise<br />

mit Photoshop o<strong>der</strong> ACDSee ausgelesen werden. Bei hochwertigen Kameras<br />

kann man die Kamera <strong>von</strong> e<strong>in</strong>em Laptop aus fernsteuern. E<strong>in</strong> e<strong>in</strong>faches Kabel<br />

mit Auslöserknopf, wie es als Son<strong>der</strong>zubehör bei vielen Kameras erhältlich ist,<br />

reicht meist nicht aus. Dann müßte man ja immer noch die Kamera anfassen,<br />

um die Belichtungszeit zu verstellen. Und gerade beim Verstellen <strong>der</strong> Belich-<br />

tungszeit s<strong>in</strong>d kle<strong>in</strong>e Wackler kaum zu vermeiden. Mit e<strong>in</strong>er geeigneten Fern-<br />

steuerung jedoch passen digitale Bil<strong>der</strong> pixelgenau übere<strong>in</strong>an<strong>der</strong>. Selbstver-<br />

ständlich ist auch die langfristige Kostenersparnis zu erwähnen, denn gerade<br />

bei Belichtungsreihen für Panoramabil<strong>der</strong> kommen im Schnitt 30 Aufnahmen pro<br />

Motiv zusammen.<br />

Allerd<strong>in</strong>gs ist die Wahl <strong>der</strong> richtigen Digitalkamera wichtig. Normale CCDs leiden<br />

unter dem sogenannten Pixelbleed<strong>in</strong>g-Effekt. Richtet man das Objektiv direkt<br />

auf e<strong>in</strong>e Lichtquelle, pflanzt sich die extreme Überspannung durch die gesamte<br />

Pixelspalte fort und es entstehen weiße Striche im Bild. Kameras mit CMOS-<br />

Sensor s<strong>in</strong>d besser geeignet, denn dieser Sensor entspricht <strong>in</strong> se<strong>in</strong>em<br />

Ansprechverhalten eher dem <strong>von</strong> Filmmaterial (siehe Abschnitt 3.1.3.). Auch<br />

sollte man bei <strong>der</strong> Wahl <strong>der</strong> Kamera auf e<strong>in</strong>en möglichst großen Sensor achten,<br />

hohe Auflösung, e<strong>in</strong> Objektivgew<strong>in</strong>de, und e<strong>in</strong>en vollmanuellen Modus. Beson-<br />

<strong>der</strong>s vorteilhaft ist auch e<strong>in</strong>e Belichtungsreihen-Funktion (Auto Bracket<strong>in</strong>g), die<br />

automatisch mehrere Bil<strong>der</strong> mit verschiedener Belichtungszeit aufnimmt. Emp-<br />

fehlenswert s<strong>in</strong>d die Serien Canon EOS und Nikon Coolpix.<br />

Nachteile auch hochwertiger Digitalkameras s<strong>in</strong>d immer noch die Verzögerung<br />

durch die Speicherzeit, und <strong>der</strong> ger<strong>in</strong>ge Dynamic Range <strong>der</strong> e<strong>in</strong>zelnen Aufnah-<br />

men – <strong>der</strong> mit zusätzlichen Aufnahmen kompensiert werden muss.<br />

32


33<br />

Tabelle 5 zeigt den geschätzten Aufwand im Vergleich.<br />

Fazit:<br />

Tabelle 5: Aufwandsschätzung Analog/Digital<br />

Digitale Kameras vere<strong>in</strong>fachen und verkürzen den gesamten Prozess <strong>der</strong> <strong>HDRI</strong><br />

Aquisition, und s<strong>in</strong>d pr<strong>in</strong>zipiell vorzuziehen. Bei e<strong>in</strong>er Filmproduktion jedoch, wo<br />

die Zeit am Set wesentlich wertvoller ist als die Zeit für die Nachbearbeitung, ist<br />

e<strong>in</strong>e analoge Ausrüstung angebrachter.<br />

3.3.3. Kalibrierung<br />

Auflösung<br />

Jede Kamera führt nichtl<strong>in</strong>are Faktoren <strong>in</strong> die aufgenommenen Pixelwerte e<strong>in</strong><br />

[24]. Das liegt an <strong>der</strong> spektralen Empf<strong>in</strong>dlichkeit <strong>der</strong> CCD Bauteile. Auch die<br />

kamera<strong>in</strong>terne Software, die darauf geeicht ist e<strong>in</strong>e nichtl<strong>in</strong>eare Filmkurve zu<br />

emulieren, verän<strong>der</strong>t die Pixelwerte beim Codieren und Speichern. Die resultie-<br />

rende Verfälschung des Motivs ist hochgradig nichtl<strong>in</strong>ear, kann aber durch e<strong>in</strong>en<br />

speziellen Algorithmus aus e<strong>in</strong>er Belichtungsreihe zurückverfolgt werden. Alles<br />

was man dazu braucht ist e<strong>in</strong>e Belichtungsreihe <strong>von</strong> e<strong>in</strong>em kontrastreichen Motiv<br />

mit möglichst kle<strong>in</strong>en Abständen.<br />

Zeitaufwand<br />

pro Reihe<br />

am Set<br />

Zeitaufwand<br />

pro Reihe<br />

für <strong>HDRI</strong> Generation<br />

Analog hoch Ca. 4 sec Ca. 4 h (+24 h für<br />

Entwicklung und<br />

Filmscannen)<br />

Digital niedrig Ca. 20 sec Ca. 30 sec<br />

In HDRShop ist dieser Kalibrierungsprozess sehr transparent und anschaulich.<br />

Unter „CreateàCalibrate Camera Curve“ erreicht man das Kalibrierungsfenster<br />

(Bild 16) und kann dort die Reihe e<strong>in</strong>laden. HDRShop ordnet die Bil<strong>der</strong> automa-<br />

tisch nach ihrer Helligkeit. Trotzdem muß man die Tabelle noch vervollständigen<br />

um sie mite<strong>in</strong>an<strong>der</strong> <strong>in</strong>s Verhältnis zu setzen. Dabei trägt man die Schrittweite <strong>der</strong><br />

Belichtungsstufen <strong>in</strong> die Spalte „Rel. Stops“ e<strong>in</strong>. Hat man die Serie <strong>in</strong> gleichmäßi-<br />

gen Intervallen aufgenommen, kann man auch <strong>von</strong> den Presets wählen.<br />

In <strong>der</strong> Praxis ist es empfehlenswert, die Bil<strong>der</strong> vorher umzubenennen [35].<br />

Kryptische Date<strong>in</strong>amen wie „PICT4335.JPG“ s<strong>in</strong>d für die Kontrolle dieser Tabelle<br />

sehr ungeeignet. Besser ist es, wenn man mit ACDSee o<strong>der</strong> Photoshop die<br />

Belichtungszeit ausliest, und diese <strong>in</strong> den Date<strong>in</strong>amen überträgt.


Die eigentliche Kalibrierung ist dann e<strong>in</strong>e iterative Berechnung und läuft auto-<br />

matisch ab. Es entstehen 3 Kurven, die das Verhältnis <strong>von</strong> Motivhelligkeit und<br />

Pixelwert beschreiben. Diese Verhältnisse bleiben bei Digitalkameras konstant,<br />

solange man immer gleiche ISO-E<strong>in</strong>stellung und Weißabgleich benutzt. Dann<br />

braucht die Kalibrierung nur e<strong>in</strong>mal durchgeführt werden. Das hat den Vorteil, daß<br />

man diese Kamerakurve aus e<strong>in</strong>er fe<strong>in</strong> abgestuften Belichtungsreihe <strong>von</strong> e<strong>in</strong>em<br />

Motiv mit beson<strong>der</strong>s hohen Dynamic Range erstellen kann, und das gespeicherte<br />

Ergebnis auf grober abgestufte Belichtungsreihen anwenden kann.<br />

Arbeitet man jedoch mit analogen Fotos, verän<strong>der</strong>n sich die E<strong>in</strong>flußfaktoren bei<br />

jedem Wechsel <strong>der</strong> Filmrolle [24]. Auch die Entwicklung des Filmes, die nie auf<br />

e<strong>in</strong> und <strong>der</strong>selben Entwicklungsmasch<strong>in</strong>e passiert, verän<strong>der</strong>t die nichtl<strong>in</strong>earen<br />

Faktoren. Daher muß diese Kalibrierung bei je<strong>der</strong> analogen Belichtungsreihe neu<br />

durchgeführt werden.<br />

Positiv hervorzuheben an<br />

HDRShop ist, daß man direk-<br />

ten E<strong>in</strong>fluß auf die Genauigkeit<br />

dieser Kalibrierung hat. Die ite-<br />

rative Berechnung läuft solange<br />

weiter, bis man sie abbricht.<br />

Außerdem hat man die Mög-<br />

lichkeit die Kurven mit „Regu-<br />

larize“ nachträglich zu glätten,<br />

was sich beson<strong>der</strong>s bei ver-<br />

rauschten o<strong>der</strong> nicht ganz paß-<br />

genauen Bildsequenzen als<br />

nützlich erweist.<br />

34<br />

Bild 16: E<strong>in</strong>ordnen <strong>der</strong> Kalibrierungsserie <strong>in</strong> HDRShop.<br />

Bild 17: Erstellen <strong>der</strong> Kalibrierungskurve <strong>in</strong> HDRShop


In PhotoSphere dagegen läuft diese Kalibrierung vollautomatisch, also ohne<br />

E<strong>in</strong>griff des Benutzers, ab. Man hat immerh<strong>in</strong> noch die Möglichkeit, je<strong>der</strong>zeit<br />

e<strong>in</strong>e neue Kamerakurve erzeugen zu lassen. So ist gewährleistet, daß die<br />

Kurve aus e<strong>in</strong>er optimalen Belichtungsserie mit größtmöglichem Motivrange zur<br />

Kalibrierung verwendet wird.<br />

Photogenics dagegen kalibriert se<strong>in</strong>e Algorithmen anhand je<strong>der</strong> neuen Belich-<br />

tungsserie neu.<br />

3.3.4. Rekonstrukion des <strong>HDRI</strong><br />

Mit HDRShop kann man nun auch die Bildsequenz komb<strong>in</strong>ieren. Dazu werden<br />

wie<strong>der</strong> die Belichtungs<strong>in</strong>tervalle <strong>in</strong> e<strong>in</strong>e ähnliche Tabelle e<strong>in</strong>getragen (Bild 18).<br />

Bild 18: E<strong>in</strong>ordnen <strong>der</strong> Belichtungsstufen zur <strong>HDRI</strong> Rekonstruktion <strong>in</strong> HDRShop<br />

Diese manuelle E<strong>in</strong>gabe <strong>der</strong> Werte erfor<strong>der</strong>t nicht nur die Fachkenntnisse des<br />

Benutzers, son<strong>der</strong>n ist bei digitalen Fotos geradezu lästig. Denn die notwendigen<br />

Informationen s<strong>in</strong>d <strong>in</strong> den Bil<strong>der</strong>n enthalten. Auch hier ist es wie<strong>der</strong> sehr zu emp-<br />

fehlen, die EXIF-Daten vorher auszulesen, und im Date<strong>in</strong>amen zu verschlüsseln.<br />

Außerdem ist HDRShop nicht <strong>in</strong> <strong>der</strong> Lage, das generierte Bild <strong>in</strong> e<strong>in</strong>er absoluten<br />

Helligkeitsskala e<strong>in</strong>zuordnen. Wie <strong>in</strong> <strong>der</strong> Spalte „Abs. Stops“ (Bild 18) ersichtlich,<br />

wird immer das dunkelste Bild e<strong>in</strong>e Belichtungsreihe als Nullpunkt angesehen.<br />

Zwar stehen die erzeugten Pixelwerte <strong>in</strong> denselben Verhältnissen zue<strong>in</strong>an<strong>der</strong><br />

wie die korrespondierenden Motivhelligkeiten, doch die erzeugten Bil<strong>der</strong> s<strong>in</strong>d nur<br />

<strong>in</strong> sich selbst proportional. Die Pixelwerte erlauben we<strong>der</strong> direkten Rückschluß<br />

auf die tatsächliche Leuchtkraft des Motivs, noch kann man verschiedene HDR-<br />

35<br />

Bil<strong>der</strong> ohne weiteres mite<strong>in</strong>an<strong>der</strong> <strong>in</strong>s Verhältnis setzen.


Um das <strong>HDRI</strong> zu benutzen, muß man es erst nachbelichten. Mit <strong>der</strong> Taste „+“<br />

verschiebt man den angezeigten Ausschnitt des Dynamic Range bis man e<strong>in</strong><br />

optisch gut erkennbares Bild hat. In den meisten Fällen entspricht das etwa <strong>der</strong><br />

mittleren Belichtung aus <strong>der</strong> Serie. Hat man also beispielsweise 8 Quellbil<strong>der</strong><br />

komb<strong>in</strong>iert, ist bei +3.5 EV die gut sichtbare Mitte (siehe Bild 64). Mit dem<br />

Menüpunkt „ImageàPixelsàScale to Current Exposure“ wird das <strong>HDRI</strong> dann<br />

fixiert. Die Farbwerte werden dabei nicht abgeschnitten, son<strong>der</strong>n nur für die<br />

36<br />

bessere Weiterbearbeitung auf dem Monitor verschoben.<br />

Bild 19: Nachbelichten auf mittlere Belichtung <strong>der</strong> Serie<br />

Man kann sich diese Vorbehandlung analog zur klassischen Filmentwicklung<br />

vorstellen: Aufnehmen, Nachbelichten, Fixieren. Nur mit dem Unterschied, daß<br />

man mit dem <strong>HDRI</strong> vollkommen non-destrukiv arbeitet.<br />

Sehr ähnlich funktioniert die Rekonstruktion<br />

e<strong>in</strong>es <strong>HDRI</strong> <strong>in</strong> Photogenics. Laut Hersteller-<br />

angaben [22] liest es zwar die Belichtungsdaten<br />

aus den EXIF-Hea<strong>der</strong>, doch funktionierte das<br />

im Praxistest nicht mit allen Kameras. Alternativ<br />

zur automatischen Erkennung kann man auch<br />

die Belichtungsdaten <strong>in</strong> e<strong>in</strong>er Tabelle e<strong>in</strong>tragen.<br />

Diese erlaubt zwar weniger Optionen, ist aber<br />

dafür weitaus übersichtlicher als <strong>in</strong> HDRShop<br />

(Siehe Bild 20). Gerade dem weniger erfahrenen<br />

Benutzer kommt die direkte E<strong>in</strong>gabe <strong>der</strong> Belich-<br />

tungszeit anstatt Lichtwertabständen entgegen.<br />

Bild 20: <strong>HDRI</strong> Rekonstruktion <strong>in</strong> Photogenics


E<strong>in</strong> beson<strong>der</strong>es Bonbon hält Photogenics für die Besitzer bestimmter Canon-<br />

Kameras parat. Die Modelle S30,S40,G2 sowie die High-End Modelle D30 und<br />

D60pro können per USB-Kabel ferngesteuert werden. Mit dem Dialogfeld <strong>in</strong><br />

Bild 21 wird dann automatisch e<strong>in</strong>e Belichtungsserie aufgenommen, herunterge-<br />

laden, und zu e<strong>in</strong>em <strong>HDRI</strong> komb<strong>in</strong>iert.<br />

Bild 21: Ferngesteuerte Automatische <strong>HDRI</strong>-Aufnahme <strong>in</strong> Photogenics<br />

So komfortabel und benutzerfreundlich das auch kl<strong>in</strong>gt, <strong>der</strong> Schwachpunkt <strong>von</strong><br />

Photogenics liegt <strong>in</strong> den eigentlichen Komb<strong>in</strong>ationsalgorithmen. Diese bauen<br />

die e<strong>in</strong>zelnen Belichtungsstufen nur anhand e<strong>in</strong>er allgeme<strong>in</strong>en Gamma-Kurve<br />

zusammen, e<strong>in</strong>e exakte Kalibrierung ist nicht möglich. Das mag zwar <strong>in</strong> vielen<br />

Fällen funktionieren, bietet jedoch ke<strong>in</strong>e Präzision <strong>in</strong> Sachen Farbechtheit.<br />

E<strong>in</strong>e gute Komb<strong>in</strong>ation aus Benutzerfreundlichkeit und wissenschaftlicher<br />

Präzision stellt dagegen Photosphere dar.<br />

Hier genügt es, alle Bil<strong>der</strong> <strong>der</strong> Belichtungsreihe anhand <strong>von</strong> Thumbnails aus-<br />

zuwählen, um dann auf MakeHDR aus dem File-Menü zu klicken (Bild 21).<br />

Daraufh<strong>in</strong> taucht e<strong>in</strong> Dailogfeld auf, <strong>in</strong> dem man nur noch OK klicken braucht<br />

(Bild 22).<br />

37


Alle erfor<strong>der</strong>lichen Belichtungsdaten liest Photosphere aus dem EXIF-Hea<strong>der</strong>.<br />

Erkennt es anhand dieses Hea<strong>der</strong>s, daß die Bil<strong>der</strong> mit e<strong>in</strong>er ihm noch unbe-<br />

kannten Kamera aufgenommen wurden, führt es vollautomatisch e<strong>in</strong>e neue<br />

Kalibrierung durch. An<strong>der</strong>nfalls verwendet es <strong>von</strong> selbst die zugehörige Kalibrie-<br />

rungskurve. (In HDRShop muß diese immer wie<strong>der</strong> <strong>von</strong> Hand lokalisiert werden).<br />

PhotoSphere erkennt es sogar, wenn die neue Belichtungsserie e<strong>in</strong>en höheren<br />

Dynamic Range hat als die Kalibrierungsserie. Dann schlägt es automatisch vor,<br />

38<br />

Bild 22: Auswahl <strong>der</strong> Belichtungsserie <strong>in</strong> PhotoSphere<br />

e<strong>in</strong>e neue Kurve aus <strong>der</strong> neuen Serie zu ermitteln.<br />

E<strong>in</strong>zigartig <strong>in</strong> Photosphere ist auch die Align-Funktion, die alle Bil<strong>der</strong> <strong>der</strong><br />

Belichtungsreihe pixelgenau aufe<strong>in</strong>an<strong>der</strong> anpasst. Der entsprechende<br />

Algorithmus arbeitet sehr schnell und führt <strong>in</strong> 85% <strong>der</strong> Fälle zu e<strong>in</strong>em<br />

perfekten Ergebnis [20].<br />

Bild 23: <strong>HDRI</strong> Rekonstruktion <strong>in</strong> PhotoSphere


Die Funktionsweise [20] ist <strong>in</strong> Bild<br />

24 dargestellt. Zuerst wendet er<br />

e<strong>in</strong>en Median Threshold Bitmap<br />

(MTB) Filter auf zwei benachbarte<br />

Belichtungsstufen an. Dann werden<br />

die Bil<strong>der</strong> mehrfach auf die Hälfte<br />

ihrer Auflösung skaliert, und damit<br />

e<strong>in</strong>e Bil<strong>der</strong>-Pyramide aufgebaut.<br />

Auf <strong>der</strong> kle<strong>in</strong>sten Stufe werden die<br />

Bil<strong>der</strong> dann horizontal und vertikal<br />

um e<strong>in</strong>en Pixel verschoben und<br />

auf Kongruenz getestet. Dieser e<strong>in</strong>e<br />

Pixel entspricht 32 Pixeln <strong>der</strong> Origi-<br />

nalbil<strong>der</strong>. Passen sie aufe<strong>in</strong>an<strong>der</strong>,<br />

wird die Richtung gemerkt und die<br />

auf die nächstgrößere Auflösungsstufe übertragen. Auch diese wird dann wie<strong>der</strong><br />

um e<strong>in</strong>en Pixel verschoben, bis sie auch <strong>in</strong> dieser Auflösung passgenau s<strong>in</strong>d.<br />

Diese Schritte werden iterativ immer wie<strong>der</strong> wier<strong>der</strong>holt, bis die zwei benachbar-<br />

ten Belichtungsstufen <strong>in</strong> ihrer vollen Auflösung aufe<strong>in</strong>an<strong>der</strong> passen. Dann wird<br />

die ganze Prozedur mit dem nächsten zwei Belichtungsstufen wie<strong>der</strong>holt, so daß<br />

39<br />

am Ende alle Bil<strong>der</strong> <strong>der</strong> ganzen Serie paßgenau s<strong>in</strong>d.<br />

Dieser Algorithmus ist so robust, daß er beispielsweise im Bild 25 sogar die<br />

Bewegung <strong>der</strong> Wolken kompensieren konnte.<br />

Alle Belichtungsstufen, die haupt-<br />

sächlich Wolken zeigen, wurden<br />

geme<strong>in</strong>sam gegen die Bil<strong>der</strong> ver-<br />

schoben, auf denen <strong>der</strong> Himmel<br />

überstrahlt war. Die schwarze L<strong>in</strong>ie<br />

am l<strong>in</strong>ken Rand kommt alle<strong>in</strong> durch<br />

diese Verschiebung zustande, und<br />

markiert die Reichweite dieser<br />

Anpassung.<br />

Alles was <strong>der</strong> Benutzer <strong>von</strong> dieser<br />

Prozedur mitbekommt, ist e<strong>in</strong> zügig<br />

wachsen<strong>der</strong> Fortschrittsbalken,<br />

begleitet <strong>von</strong> dem Gedanken wie<br />

lange diese Fe<strong>in</strong>anpassung per<br />

Hand wohl dauern würde.<br />

Bild 24: Bil<strong>der</strong>-Pyramide des MTB-Align-Algorithmus<br />

Bild 25: Leistungsfähigkeit des Align Algorithmus


Im Unterschied zu den an<strong>der</strong>en beiden Programmen konserviert Photosphere<br />

auch e<strong>in</strong>e Vielzahl <strong>von</strong> Daten im Dateihea<strong>der</strong> des generierten HDR Bildes<br />

(Siehe Bild 26).<br />

Speziell die Variable „Exposure“ ist <strong>in</strong>teressant. Das ist e<strong>in</strong> Faktor <strong>der</strong> sich aus<br />

<strong>der</strong> Komb<strong>in</strong>ation <strong>von</strong> Belichtungszeit, Blendenwert und Filmempf<strong>in</strong>dlichkeit (ISO-<br />

Wert) <strong>der</strong> Quellbil<strong>der</strong> ermittelt. Die generierten HDR-Pixelwerte werden damit an<br />

<strong>der</strong> Helligkeitsskala <strong>der</strong> echten Welt gemessen. Klickt man <strong>in</strong> Photosphere <strong>in</strong> das<br />

Bild o<strong>der</strong> zieht man<br />

e<strong>in</strong>en Selektions-<br />

rahmen auf, kann<br />

man lichttechnisch<br />

korrekte Strahlungs-<br />

werte ablesen. So<br />

hat beispielsweise<br />

die Wolke im Bild 27<br />

e<strong>in</strong>e Beleuchtungs-<br />

stärke <strong>von</strong> knapp<br />

über 20.000 lux<br />

(bzw. cd/m²).<br />

40<br />

Bild 26: Vergleich <strong>der</strong> Radiance(.HDR) Dateihea<strong>der</strong>, generiert<br />

<strong>von</strong> Photosphere, HDRShop und Photogenics<br />

Bild 27: Lichttechnisch korrekte Ausmessung <strong>der</strong> Wolke


Der größte Vorteil <strong>von</strong> Photosphere, nämlich die <strong>in</strong>telligente Interpretation <strong>der</strong><br />

Metadaten, ist auch se<strong>in</strong>e Achillesferse. Liegen diese Daten nicht vor, wie<br />

beispielsweise bei Scans analoger Photos, verweigert Photosphere’s Komb<strong>in</strong>ati-<br />

onsalgorithmus die Arbeit.<br />

In e<strong>in</strong>em optischen Qualitätsvergleich liegt Photosphere qualitativ weit vorn. Wie<br />

<strong>in</strong> den Bil<strong>der</strong>n 28 und 29 gut zu erkennen ist, haben HDRShop und Photogenics<br />

große Probleme an kontrastreichen Kanten. Das Ergebnis ist hier maßgeblich<br />

da<strong>von</strong> abhängig, wie genau die e<strong>in</strong>zelnen Bil<strong>der</strong> aufe<strong>in</strong>an<strong>der</strong> passen. Ist auch<br />

nur e<strong>in</strong>e Belichtungsstufe verrutscht, kommt es zu bildweiten Fehl<strong>in</strong>terpretatio-<br />

nen. Das Bild wird unschärfer, und an Kanten tritt hochfrequentes Rauschen auf<br />

(Siehe 28 B) o<strong>der</strong> die e<strong>in</strong>zelnen Belichtungsstufen s<strong>in</strong>d geisterhaft überlagert<br />

(siehe 29 C).<br />

Bild 28: Qualitätsvergleich <strong>von</strong> PhotoSpere (A), HDRShop (B), Photogenics (C)<br />

Bild 29: Qualitätsvergleich am Detail <strong>von</strong> PhotoSphere (A), HDRShop (B), Photogenics (C)<br />

Als Fazit ist PhotoSphere für die Generierung <strong>von</strong> HDR-Bil<strong>der</strong>n unbed<strong>in</strong>gt zu<br />

empfehlen. Es ist e<strong>in</strong>facher zu bedienen und liefert bessere Ergebnisse. E<strong>in</strong>zig<br />

und alle<strong>in</strong>, wenn die Belichtungsserie mit e<strong>in</strong>er analogen Kamera aufgenommen<br />

41<br />

wurde, ist HDRShop das Werkzeug <strong>der</strong> Wahl.


4. <strong>Anwendung</strong> <strong>in</strong> <strong>der</strong> Bildbearbeitung<br />

4.1. Belichtungskontrolle<br />

Das Nachbelichten wurde schon im Kapitel 4.3.4. erwähnt. Es ist sehr wichtig<br />

die Tragweite dieser neuen Möglichkeit zu erfassen. Nachträgliche Kontrolle über<br />

die Belichtung ist <strong>der</strong> Traum e<strong>in</strong>es jeden Fotografen. Mit den Farbwerten e<strong>in</strong>es<br />

HDR-Bildes kann man so virtuos umgehen wie e<strong>in</strong> Tontechniker mit e<strong>in</strong>er 64 kHz<br />

Tonstudioaufnahme. Übliche 8 Bit Bil<strong>der</strong> entsprechen <strong>in</strong> diesem Vergleich eher<br />

dem Langwellenradio.<br />

Bild 30: kreative Belichtungskontrolle des am Beispiel Sch<strong>in</strong>dler House<br />

42


Das Bild 30 zeigt beispielsweise e<strong>in</strong>e beson<strong>der</strong>s schwierige Gegenlicht-<br />

aufnahme im Hof des Sch<strong>in</strong>dler Hauses. Nur e<strong>in</strong> sehr erfahrener Fotograf<br />

weiß diese Situation mit geeigneten Objektivfiltern und dem Vertrauen <strong>in</strong> se<strong>in</strong><br />

Können zu meistern. Wie die e<strong>in</strong>zelnen Bil<strong>der</strong> <strong>der</strong> Belichtungsreihe zeigen, kann<br />

man mit e<strong>in</strong>er Standardkamera entwe<strong>der</strong> auf die Lichter o<strong>der</strong> auf die Schatten<br />

belichten. Diese Reihe wurde übrigends aus <strong>der</strong> Hand geschossen, mit <strong>der</strong><br />

Auto-Bracket<strong>in</strong>g Funktion <strong>der</strong> M<strong>in</strong>olta Dimage5. Das Komb<strong>in</strong>ieren zu e<strong>in</strong>em<br />

<strong>HDRI</strong> nahm 2 M<strong>in</strong>uten <strong>in</strong> Photosphere <strong>in</strong> Anspruch – <strong>in</strong>clusive Herunterladen<br />

<strong>der</strong> Bil<strong>der</strong>.<br />

Auf dem PC wurde das <strong>HDRI</strong> dann <strong>in</strong> Digital Fusion geladen, und e<strong>in</strong>er umfang-<br />

reichen Farbkorrektur unterzogen. Gamma und Ga<strong>in</strong> wurden zuerst justiert,<br />

dann noch e<strong>in</strong> Braunton <strong>in</strong> die Schatten gemischt, die Lichter <strong>der</strong> unteren Bild-<br />

hälfte mit e<strong>in</strong>em dezenten Glow versehen. Zum Schluß wurde noch mit e<strong>in</strong>em<br />

Dent-Filter die L<strong>in</strong>senkrümmung entzerrt. Das Ergebnis dieser Nachbearbeitung<br />

ist e<strong>in</strong>e Symbiose aus allen Details <strong>der</strong> Belichtungsserie, e<strong>in</strong> Foto welches so<br />

niemals geschossen wurde.<br />

Aber auch subtilere Korrekturen können manchmal Details hervorbr<strong>in</strong>gen, die<br />

bei herkömmlichen Bil<strong>der</strong>n verloren wären. Bild 31A zeigt beispielsweise e<strong>in</strong><br />

leicht überbelichtetes Foto.<br />

Bild 31: Ga<strong>in</strong>-Reduktion im Detail: Orig<strong>in</strong>al (A), 8-Bit Ergebnis (B), <strong>HDRI</strong> Ergebnis (C)<br />

Der nur e<strong>in</strong>en Pixel breite Balken am rechten Rand des Histogramms zeigt<br />

die abgeschnittenen Farbwerte an. Durch e<strong>in</strong>e Ga<strong>in</strong>-Korrektur an e<strong>in</strong>em norma-<br />

len 8-Bit Bild wird dieser Ausschlag nur nach l<strong>in</strong>ks verschoben. Das Highlight<br />

verwandelt sich <strong>in</strong> e<strong>in</strong>e matschig graue Fläche, das Bild verliert <strong>in</strong>sgesamt an<br />

Kontrast. Wird dieselbe Ga<strong>in</strong>-Korrektur an e<strong>in</strong>em <strong>HDRI</strong> durchgeführt, verteilt<br />

43


sich <strong>der</strong> Balken im Histogramm auf die ganze Breite <strong>der</strong> verfügbaren Werte<br />

(siehe Bild 31c). Aus den überbelichteten Highlights treten nun ganz klare Details<br />

hervor. Man kann den Titel des Buches wie<strong>der</strong> lesen, und <strong>in</strong> <strong>der</strong> Reflektion an<br />

44<br />

Teekanne ersche<strong>in</strong>t sogar das Fensterkreuz.<br />

Bild 31c ist <strong>in</strong>sgesamt kontrastreicher, und im Gegensatz zu Bild 31b sieht man<br />

ihm nicht sofort an, daß es digital bearbeitet wurde.<br />

Nun könnte man argumentieren, daß diese Details ja <strong>in</strong> <strong>der</strong> Belichtungsserie<br />

fotografiert werden müssen. Könnte man da nicht gleich e<strong>in</strong>es <strong>der</strong> an<strong>der</strong>en<br />

Bil<strong>der</strong> nehmen? Das mag se<strong>in</strong>, doch dann hat man weiterh<strong>in</strong> nur die Auswahl<br />

aus e<strong>in</strong>er begrenzten Anzahl <strong>von</strong> Bil<strong>der</strong>n – die übrigens zusammen weitaus<br />

mehr Speicherplatz und Verwaltungsaufwand beanspruchen. S<strong>in</strong>d sie dagegen<br />

<strong>in</strong> e<strong>in</strong>em <strong>HDRI</strong> komb<strong>in</strong>iert, hat man stufenlose Kontrolle <strong>in</strong> e<strong>in</strong>er e<strong>in</strong>zigen Datei.<br />

Außerdem ist wie beschrieben das Aufkommen <strong>von</strong> <strong>HDRI</strong>-Fotoapparate schon<br />

absehbar, was den zusätzlichen Aufwand <strong>der</strong> Belichtungsserien elim<strong>in</strong>iert.<br />

Heute schon möglich ist allerd<strong>in</strong>gs das direkte Speichern <strong>com</strong>putergenerierter<br />

Bil<strong>der</strong> als <strong>HDRI</strong>. Es kann nur als grobe Fahrlässigkeit gelten, da<strong>von</strong> nicht<br />

Gebrauch zu machen, denn <strong>der</strong> zusätzliche Aufwand ist gleich Null.<br />

Es macht beispielsweise wenig S<strong>in</strong>n, nach e<strong>in</strong>er Rechenzeit <strong>von</strong> 20 M<strong>in</strong>uten den<br />

Großteil <strong>der</strong> errechneten Farbwerte abzuschneiden - alle<strong>in</strong> durch die Wahl e<strong>in</strong>es<br />

LDR Speicherformates. Noch viel weniger S<strong>in</strong>n macht es, e<strong>in</strong> geren<strong>der</strong>tes Bild<br />

zu verwerfen, nur weil man die Beleuchtung herunterdrehen will. Im Beispiel 76a<br />

ist so e<strong>in</strong> versehentlich überstrahltes Ren<strong>der</strong><strong>in</strong>g gezeigt.<br />

Bild 32: Belichtungskontrolle an e<strong>in</strong>em <strong>HDRI</strong>-Ren<strong>der</strong><strong>in</strong>g <strong>in</strong> Digital Fusion 4<br />

Bild 32 zeigt den Brightness/Contrast Operator <strong>in</strong> Digital Fusion, <strong>der</strong> zur<br />

„magischen“ Rettung des Ren<strong>der</strong><strong>in</strong>gs <strong>in</strong> Bild 31c führt. Die überstrahlten Stellen<br />

zeigen nun wie<strong>der</strong> Details, das Highlight an <strong>der</strong> Grundplatte ist auf e<strong>in</strong>e schmale


L<strong>in</strong>ie begrenzt. Im Histogramm hat sich wie<strong>der</strong> <strong>der</strong> lange Maximum-Balken auf<br />

das obere Drittel gleichmäßig verteilt.Dabei ist das genau <strong>der</strong>selbe Operator,<br />

den man auch bei LDR Bil<strong>der</strong>n benutzen würde. Die drastische Wirkung des<br />

Ga<strong>in</strong>-Reglers wird nur durch die Informationstiefe des Ausgangsmaterials her-<br />

vorgerufen. Der Gamma-Regler dient hier als Gegengewicht, um die dunklen<br />

Anteile nicht im schwarz zu verlieren. Auch die Sättigung wurde leicht angeho-<br />

ben, damit die Ga<strong>in</strong>-Reduktion nicht die Farbanteile herauszieht.<br />

E<strong>in</strong>e e<strong>in</strong>fache Form <strong>der</strong> Nachbelichtung ist mit dem EXR-Import Plug<strong>in</strong> für<br />

Photoshop möglich [14]. Bild 33 zeigt das Dialogfeld, was direkt nach <strong>der</strong><br />

Dateiauswahl ersche<strong>in</strong>t.<br />

Mit Exposure regelt man die Helligkeit,<br />

<strong>der</strong> Gamma-Wert verstellt den<br />

Kontrast. Die Vorschau hilft dabei die<br />

richtigen E<strong>in</strong>stellungen zu f<strong>in</strong>den. Mit<br />

Klick auf OK wird das Bild dann im<br />

16 Bit Modus geladen. Nun kann man<br />

die Fe<strong>in</strong>korrektur mit den gewohnten<br />

Photoshop Werkzeugen durchführen,<br />

wie beispielsweise e<strong>in</strong>e Tonwertkor-<br />

rektur (siehe Bild 34).<br />

45<br />

Bild 34: Tonwertkorrektur <strong>in</strong> Photoshop im 16-Bit-Modus<br />

Bild 33: EXR Import <strong>in</strong> Photoshop


So hat man zwar nicht mehr den ganzen Dynamic Range zur Verfügung, aber<br />

16 Bit ist immer noch e<strong>in</strong>e Präzisionsstufe genauer als 8 Bit. Bild 35 zeigt<br />

den Vergleich: Das l<strong>in</strong>ke Histogramm zeigt das Ergebnis <strong>der</strong> Tonwertkorrektur <strong>in</strong><br />

16 Bit. Dieselbe Korrektur auf e<strong>in</strong>e 8-Bit Version angewandt, zeigt e<strong>in</strong> deutlich<br />

zittrigeres Histogramm, <strong>in</strong> den hellen Bereichen klaffen sogar kle<strong>in</strong>e Lücken.<br />

E<strong>in</strong> EXR <strong>in</strong> Photoshop zu bearbeiten hat also se<strong>in</strong>e Vorteile, und ist sicherlich<br />

am e<strong>in</strong>fachsten <strong>in</strong> den gewohnten Workflow zu <strong>in</strong>tegrieren. Dabei muß man sich<br />

allerd<strong>in</strong>gs im Klaren darüber se<strong>in</strong>, daß dies ke<strong>in</strong>e echte HDR-Bildbearbeitung ist.<br />

Auch <strong>in</strong> 16 Bit gibt es ke<strong>in</strong>e hellere Farbe als das Maximalweiss – nur daß hier<br />

46<br />

65000 statt 256 Abstufungen zur Verfügung stehen.<br />

Das Arbeiten im echten High Dynamic Range bietet aber noch weitaus mehr<br />

Vorteile.<br />

Bild 35: Histogrammvergleich<br />

4.2. Bewegungsunschärfe<br />

Echte Bewegungsunschärfe kommt dadurch zustande, daß sich während <strong>der</strong><br />

Belichtungszeit das Motiv än<strong>der</strong>t. Manche Objekte, vor allem Lichtquellen, s<strong>in</strong>d<br />

jedoch so hell, daß sie auch <strong>in</strong> e<strong>in</strong>em Bruchteil <strong>der</strong> Belichtungszeit zu e<strong>in</strong>er<br />

Bild 36: Fotografische Beispiele für extreme Bewegungsunschärfe durch Langzeitbelichtung<br />

Sättigung <strong>der</strong> Filmschicht führen würden [4][23]. So kommt es, daß sie auf ihrem<br />

Weg durch das Bild e<strong>in</strong>en hellen, teilweise sogar gesättigten Schweif bilden. Bild<br />

36 zeigt dieses optische Phänomen an echten Fotos.


In <strong>der</strong> <strong>Postproduktion</strong> wird Bewegungsunschärfe meist durch e<strong>in</strong>en gerichteten<br />

Weichzeichner simuliert. Üblich s<strong>in</strong>d l<strong>in</strong>eare, radiale, zentralverzerrte („Chrash-<br />

zoom“), o<strong>der</strong> speziell vorberechnete Bewegungsvektoren. In allen dieser Fälle<br />

werden die Pixel nur <strong>in</strong> Richtung e<strong>in</strong>es Vektors verschmiert. Das funktioniert<br />

auch <strong>in</strong> den meisten Fällen recht gut. Bis man jedoch Lichtquellen im Bild hat.<br />

Die verwischen sich dann mit den dunklen Pixeln <strong>in</strong> <strong>der</strong> Umgebung, und es<br />

entsteht e<strong>in</strong> unnatürlich verwaschenes Ergebnis wie <strong>in</strong> Beispiel 37.<br />

Bild 36: Simulierte Bewegungsunschärfe (C) <strong>in</strong> Digital Fusion; Vergleich zwischen <strong>HDRI</strong> (A) und 8-Bit (B)<br />

In Bild 37A wurde <strong>der</strong>selbe Filter auf e<strong>in</strong> <strong>HDRI</strong> angewandt. Hier haben die<br />

Lichtquellen genügend Intensität, um auch nach dem Verwischen noch heller<br />

als das Maximalweiß zu se<strong>in</strong>. Sieht man sich übrigends den Flow (Bild 37C)<br />

genauer an, so stellt man fest daß hier e<strong>in</strong> sehr dunkles Radiance Bild geladen<br />

und mit e<strong>in</strong>em Brightness/Contrast Operator erst <strong>in</strong> den sichtbaren Bereich<br />

gehoben wird. Dann gabelt sich <strong>der</strong> Flow. E<strong>in</strong> Strang führt direkt zu dem<br />

l<strong>in</strong>ken Blur Operator, dessen Ergebnis <strong>in</strong> 37A angezeigt wird. Dieser Strang ist<br />

durchgängig <strong>in</strong> Fließkommapräzision gehalten. Der an<strong>der</strong>e Seitenstrang jedoch<br />

führt erst durch e<strong>in</strong>en Change Depth Operator. Dort wird die Farbtiefe <strong>in</strong> 8 Bit<br />

umgewandelt. Das Thumbnail sieht zwar noch genauso aus, doch <strong>der</strong> Dynamic<br />

47<br />

Range wurde auf den sichtbaren Teil beschnitten.


E<strong>in</strong> Experiment Bild 38 zeigt e<strong>in</strong>e verfe<strong>in</strong>erte Version <strong>der</strong> Bewegungsunschärfe,<br />

und beweist daß <strong>der</strong> höhere Informationsgehalt alle<strong>in</strong> für die bessere Qualität<br />

verantwortlich ist. Selbst e<strong>in</strong> e<strong>in</strong>facher Translate-Operator kann dadurch e<strong>in</strong><br />

erstaunliches Ergebnis liefern.<br />

Bild 38: Simulierte Bewegungsunschärfe mit dem Transform-Operator (C) am <strong>HDRI</strong> (A) und <strong>in</strong> 8-Bit (B)<br />

In Abschnitt 38c ist <strong>der</strong> Translate-Operator zu sehen, dieser ist das Standardtool<br />

um <strong>in</strong> Digital Fusion e<strong>in</strong> Bild zu animieren. Nun wurde es erst <strong>von</strong> Frame<br />

0 bis Frame 2 zur Seite geschoben. Auf dem entstandenen Animatonspfad<br />

(rot im Bild 38a) wurden dann Zwischenkeyframes verteilt und so <strong>der</strong> Pfad <strong>in</strong><br />

e<strong>in</strong>e schöne Kurve geformt.<br />

Nun braucht man nur noch den Translate Operator anweisen, die Bewegung<br />

des Bildes mit Bewegungsunschärfe zu berechnen. Das tut er <strong>in</strong> Sub-Frame<br />

Genauigkeit, und schiebt das Bild zwischen den Frames auch tatsächlich an<br />

dem gekurvten Pfad entlang.<br />

Tut er das auch noch an e<strong>in</strong>em <strong>HDRI</strong>, kann man am Schweif <strong>der</strong> Lichtquellen<br />

wun<strong>der</strong>bar den Pfad erkennen (Bild 38A). Das Resultat ist e<strong>in</strong>e simulierte Bewe-<br />

gungsunscharfe, die <strong>in</strong> Dynamik und Kontrast an die Ästhetik e<strong>in</strong>es verwackelten<br />

Fotos er<strong>in</strong>nert.<br />

48


4.3. Glow- und Bloom- Effekte<br />

Im Handbuch e<strong>in</strong>er Kamera steht meist, daß man nicht gegen die Sonne fotogra-<br />

fieren soll. Das hat se<strong>in</strong>en guten Grund, denn die extreme Lichte<strong>in</strong>strahlung<br />

kann dann zum sogenannten Bloom<strong>in</strong>g („Ausbluten <strong>der</strong> Lichter“) führen [23].<br />

Damit bezeichnet man die Ausbreitung <strong>der</strong> überschüssigen Intensität auf <strong>der</strong><br />

Bildebene. Benachbarte dunkle Bildteile werden dann überstrahlt, wie beispiels-<br />

weise die Person im Bild 39A.<br />

Auch bei Leuchtreklamen und Rücklichtern tritt dieser Effekt auf, und ist manch-<br />

mal sogar erwünscht um e<strong>in</strong>e bestimmte Bildästhetik zu schaffen (siehe Bild<br />

39B) [4]. Dieser Effekt wird Glow o<strong>der</strong> Glühen genannt. Man beachte, daß <strong>der</strong><br />

Glow sehr <strong>in</strong>tensiv die Farbe <strong>der</strong> jeweiligen Lichtquelle annimmt – das Rot <strong>der</strong><br />

Rücklichter beispielsweise.<br />

Bild 40 zeigt <strong>in</strong> Digital Fusion<br />

simulierten Glow. Beide<br />

Bil<strong>der</strong> wurden mit dem<br />

gleichen Glow-Filter belegt,<br />

doch an <strong>der</strong> <strong>HDRI</strong>-Version<br />

blutet deutlich die eigentliche<br />

Farbe <strong>der</strong> Lichtquelle aus.<br />

Auch das nachbelichtete Bild<br />

aus Kapitel 4.1. hat e<strong>in</strong>e Behandlung mit dem Glow-Filter <strong>in</strong> Bild 41 bekommen.<br />

Die Verän<strong>der</strong>ung ist hier subtil, aber immer noch erkennbar.<br />

49<br />

Bild 39: Fotografische Beispiele für Bloom- und Glow-Effekte<br />

Bild 40: Simulierter Glow <strong>in</strong> Digital Fusion


[Die Glanzlichter an den Kanten strahlen auch <strong>in</strong> die dunkleren Bereiche, und<br />

geben dem Objekt e<strong>in</strong>en goldigen Schimmer. Wohlgemerkt unterscheidet sich<br />

dieser Glow <strong>von</strong> dem überbelichteten Orig<strong>in</strong>albild, da es sich um die Simulation<br />

50<br />

Bild 41: <strong>HDRI</strong>-basierter Glow zum Aufpolieren <strong>der</strong> Glanzlichter<br />

e<strong>in</strong>es Effektes auf dem Filmmaterial handelt.<br />

4.4. simulierte Filmbelichtung<br />

Auch komplexere Methoden zur Simulation <strong>von</strong> Film s<strong>in</strong>d mit <strong>HDRI</strong>s möglich.<br />

Die Virtual Darkroom Technologie [97] beispielsweise macht sich die physikalisch<br />

korrekte Repräsentation <strong>von</strong> Helligkeitswerten zunutze, <strong>in</strong>dem sie sämtliche<br />

Schritte <strong>der</strong> analogen Filmbelichtung auf diesen Datensatz anwendet. Dabei<br />

werden die <strong>HDRI</strong>-Tonwerte zuerst mit e<strong>in</strong>er Filmkurve transformiert, um die<br />

Abbildung <strong>von</strong> Welthelligkeiten <strong>in</strong> belichtete Filmwerte zu simulieren. Dabei<br />

werden auch Belichtungszeit, Blende, Filmkörnung und Streulicht berücksichigt.<br />

Dann wird die Entwicklung des Negativs zum Positiv anhand <strong>der</strong> entsprechen-<br />

den Transferkurven echten Filmmaterials simuliert. Diese Kurven basieren auf<br />

Meßwerten echten Filmmaterials, und repräsentieren immer die Charakteristik<br />

e<strong>in</strong>es spezifischen Filmstocks.<br />

Diese simulierte Filmbelichtung generiert automatisch Effekte wie Glow, Farb-<br />

stich, Rauschen, und Flackern.


Die bislang e<strong>in</strong>zige Implementierung <strong>in</strong> e<strong>in</strong>er <strong>Postproduktion</strong>ssoftware ist e<strong>in</strong><br />

Lightwave PlugIn [37] (Siehe Bild 42).<br />

Die Unterschiede <strong>in</strong> den Beispielbil<strong>der</strong>n s<strong>in</strong>d sehr subtil, entsprechen aber exakt<br />

dem Look des spezifischen Films. Die Auswahl an vorgegebenen „digitalen<br />

Filmstocks“ ist sehr begrenzt.<br />

In <strong>der</strong> Theorie ist diese Technologie ideal geeignet für <strong>Postproduktion</strong>sfirmen, die<br />

Filmeffekte herstellen. Das würde jedoch voraussetzen, daß sie Zugriff auf das<br />

Orig<strong>in</strong>alfilmmaterial bekommen, und e<strong>in</strong>e Möglichkeit haben diese spezifischen<br />

Transferkurven zu ermitteln. Beides ist <strong>in</strong> <strong>der</strong> Praxis problematisch, deshalb wird<br />

51<br />

Bild 42: Virtual Darkroom, Plug<strong>in</strong>-Komponenten und Beispiele<br />

diese vielversprechende Technologie selten genutzt.<br />

E<strong>in</strong>er größeren Verbreitung zuträglich wäre die Implementierung des Virtual Dar-<br />

krooms <strong>in</strong> HDR-fähige Composit<strong>in</strong>g Systeme. Hier besteht noch Nachholbedarf<br />

für Entwickler, <strong>der</strong> Markt und die Technologie s<strong>in</strong>d vorhanden.


5. HDR Environments<br />

HDR Environments s<strong>in</strong>d Panoramabil<strong>der</strong> mit e<strong>in</strong>em High Dynamic Range. Die<br />

Methoden zur Erstellung s<strong>in</strong>d daher e<strong>in</strong>e Symbiose aus <strong>der</strong> beschriebenen<br />

Rekonstruktion e<strong>in</strong>es <strong>HDRI</strong> aus Belichtungsserien und <strong>der</strong> Panoramafotografie.<br />

Dabei baut die Panoramafotografie auf e<strong>in</strong>e Tradition, die fast bis zu den Anfän-<br />

gen <strong>der</strong> Fotografie zurückreicht. Inzwischen haben sich 4 verschiedene Metho-<br />

den etabliert, die sich pr<strong>in</strong>zipiell <strong>in</strong> dem Verhältnis <strong>von</strong> Hardware- und Arbeitsauf-<br />

wand unterscheiden [38][39]. Mit speziellem Equipment kann man sehr schnell<br />

und e<strong>in</strong>fach zu Ergebnissen kommen. Nimmt man jedoch e<strong>in</strong>en höheren Arbeits-<br />

und Zeitaufwand <strong>in</strong> Kauf, kann man durchaus auch mit e<strong>in</strong>fachen Mitteln zu<br />

gleichwertigen Ergebnissen kommen. Insofern haben alle 4 Methoden ihre<br />

Berechtigung.<br />

5.1. One Shot Technik<br />

Das ist <strong>der</strong> denkbar e<strong>in</strong>fachste Idealfall für den Benutzere. In <strong>der</strong> klassischen<br />

Ausführung wird dies durch e<strong>in</strong>e rotierende Kamera erreicht, die durch e<strong>in</strong>e<br />

vertikale Schlitzblende e<strong>in</strong>en langen Negativstreifen belichtet. Diese Technik wird<br />

52<br />

Panoramascan o<strong>der</strong> Rotationsscan genannt [39].<br />

Bild 43: Klassische One-Shot Panorama Kameras, v.l.n.r.: Gluboscope, Roundshot, Voyageur II,<br />

Lookaround Panoramic Camera<br />

Mo<strong>der</strong>nere Rotationskameras wie die Eyescan <strong>von</strong> <strong>der</strong> Firma KST arbeiten<br />

bereits digital, wenn auch im Low Dynamic Range.<br />

E<strong>in</strong>e Rotationskamera ganz beson<strong>der</strong>er Art ist die SpheroCamHDR [40] (vor<br />

Mai 2003 unter dem Namen PanoCamHDR vertrieben). Diese ist <strong>in</strong> <strong>der</strong> Lage,<br />

Panoramen mit e<strong>in</strong>em Dynamic Range <strong>von</strong> 26 Belichtungsstufen und e<strong>in</strong>em<br />

Format <strong>von</strong> bis zu 5.300 x 13.000 Pixeln gestochen scharf aufzunehmen. Sie ist<br />

bislang die e<strong>in</strong>zige Möglichkeit, volle HDR-Environments mit nur e<strong>in</strong>em e<strong>in</strong>zigen<br />

Arbeitsschritt zu erzeugen. Wie die digitalen Mittelformatkameras ist auch<br />

sie auf die Ansteuerung durch e<strong>in</strong>em Host<strong>com</strong>puter angewiesen. Allerd<strong>in</strong>gs<br />

aus e<strong>in</strong>em an<strong>der</strong>en Grund, denn die SpheroCam HDR ist <strong>in</strong> Wahrheit e<strong>in</strong><br />

sehr komplexes System verschiedenster Hard- und Software. Herzstück ist e<strong>in</strong>


elektronisch gesteuerter Panoramastativkopf, <strong>der</strong> e<strong>in</strong>e Kamera mit Fischau-<br />

genoptik schrittweise um 360 Grad dreht. Die Steuersoftware nimmt <strong>in</strong> jede<br />

Richtung e<strong>in</strong>e Vielzahl <strong>von</strong> Bil<strong>der</strong>n mit verschiedener Belichtungszeit auf. E<strong>in</strong>e<br />

<strong>in</strong>tegrierte und vorkalibrierte Bildbearbeitungssoftware korrigiert dann die L<strong>in</strong>-<br />

senverzerrung, komb<strong>in</strong>iert die verschiedenen Belichtungszeiten, und setzt die<br />

unterschiedlichen Blickw<strong>in</strong>kel zu e<strong>in</strong>em Panoramabild zusammen.<br />

Das passiert alles automatisch, <strong>der</strong> Benutzer muß nur auf den Auslöser drücken.<br />

Das heißt, er drückt natürlich auf den Start Button <strong>in</strong> <strong>der</strong> Steuersoftware (siehe<br />

Bild 44).<br />

Bild 44: SpheroCamHDR Steuersoftware<br />

Erhältlich ist dieses Kamerasystem nur direkt vom deutschen Hersteller Sphe-<br />

ronVR [40], zu e<strong>in</strong>em Preis <strong>von</strong> 48.600 € (Preisliste Januar 2003).<br />

5.2. Segment Technik<br />

Auch durch schrittweises Drehen e<strong>in</strong>er gewöhnlichen Kamera kann e<strong>in</strong> Pan-<br />

53<br />

orama erzeugt werden [39]. Je nach Öffnungsw<strong>in</strong>kel<br />

des Objektivs benötigt man 12 bis 18 Bil<strong>der</strong>, mit jeweils<br />

etwa 25% bis 50% Überlappung (siehe Bild 45), um<br />

e<strong>in</strong>e volle 360° Drehung aufzunehmen. Für e<strong>in</strong> volles<br />

Panorama muß man etwa 4 dieser horizontalen Reihen<br />

aufnehmen, um die auch die vertikalen 180° Blickw<strong>in</strong>kel<br />

abzudecken [35].<br />

Bild 45: Segment Technik


54<br />

Für optimale Segmentierung bietet <strong>der</strong> Fach<br />

handel spezielle Stativköpfe mit e<strong>in</strong>stellbare<br />

W<strong>in</strong>kelraster an [38]. Diese ermöglichen auch<br />

die Drehung <strong>der</strong> Kamera um den Brennpunkt<br />

<strong>der</strong> L<strong>in</strong>se, was die perspektivische Verschiebung<br />

zwischen den Blickw<strong>in</strong>keln m<strong>in</strong>imiert. Erhältlich<br />

s<strong>in</strong>d diese Köpfe für die Nikon Coolpix 900/950 für<br />

€ 160,- bis € 250,- <strong>von</strong> <strong>der</strong> Firma Kaidan, sowie<br />

passend für alle Kameras für € 1500,- <strong>von</strong> iMove<br />

(siehe Bild 46).<br />

Hierbei muß für das E<strong>in</strong>fangen des vollen Dynamic Range je<strong>der</strong> e<strong>in</strong>zelne Blick-<br />

w<strong>in</strong>kel mit m<strong>in</strong>destens 6 verschiedenen Belichtungszeiten fotografiert werden.<br />

Insgesamt hat man also etwa 300 bis 400 Bil<strong>der</strong> zu fotografieren. Die benötigte<br />

Zeit und Arbeitsaufwand s<strong>in</strong>d dementsprechend immens.<br />

Für das Zusammenfügen <strong>der</strong> e<strong>in</strong>zelnen Segmente hat man die Wahl aus 22<br />

verschiedene Stitch<strong>in</strong>g Programmen. Doch nicht e<strong>in</strong> e<strong>in</strong>ziges kann mit HDR-<br />

Bil<strong>der</strong>n arbeiten. Das bedeutet, man muß zuerst alle Segmente e<strong>in</strong>er Belich-<br />

tungsstufe zu e<strong>in</strong>em Panorama zusammenbauen, und dann die Low-Dynamic-<br />

Range Panoramen zu e<strong>in</strong>em HDR Panorama komb<strong>in</strong>ieren.<br />

DOWNING [35], <strong>der</strong> diese Art <strong>der</strong> HDR Panoramageneration <strong>in</strong>tensiv untersucht<br />

hat, schlägt daher folgenden Workflow vor:<br />

1. Je<strong>der</strong> Blickw<strong>in</strong>kel wird mit <strong>der</strong>gleichen Belichtungsreihe fotografiert, etwa<br />

1/2048 sec, 1/512 sec, 1/128 sec, 1/32 sec, 1/8 sec, 1/2 sec.<br />

2. Für jeden Lichtwert wird e<strong>in</strong> Ordner angelegt, <strong>in</strong> dem alle Blickw<strong>in</strong>kel mit<br />

demselben Lichtwert gesammelt werden.<br />

3. Bil<strong>der</strong>n mit gleichen Blickw<strong>in</strong>keln werden jeweils identische Date<strong>in</strong>amen<br />

gegeben.<br />

4. Mit dem „Realviz Stitcher“ wird zuerst die noch leere Projektdatei im<br />

mittleren Lichtwert Ordner, <strong>der</strong> die meisten Details zeigt, gespeichert.<br />

Dann wird aus den Blickw<strong>in</strong>keln <strong>in</strong> diesem Ordner das erste Panorama<br />

angefertigt.<br />

Bild 46: iMove Panoramakopf<br />

5. Nun kann man die Realviz Projektdatei <strong>in</strong> die an<strong>der</strong>en Lichtwert Ordner<br />

kopieren. Da die Bildpfade dar<strong>in</strong> relativ gespeichert s<strong>in</strong>d, werden automa-


55<br />

tisch beim Laden alle Blickw<strong>in</strong>kel <strong>der</strong> nächsten Belichtungsstufe zu e<strong>in</strong>em<br />

korrekten Panorama angeordnet.<br />

6. Die entstandenen Low-Dynamic-Range Panoramen werden dann <strong>in</strong><br />

HDRShop zu e<strong>in</strong>em HDR Panorama komb<strong>in</strong>iert.<br />

Anstatt des Realviz Stitchers kann man natürlich auch e<strong>in</strong>e an<strong>der</strong>e Stitch<strong>in</strong>g<br />

Software verwenden, solange diese Entzerrungsdaten separat speichern,<br />

anwenden, und mit relativen Pfaden operieren kann [38]. Doch auch mit dieser<br />

Vorgehensweise ist <strong>der</strong> Aufwand enorm. Alle<strong>in</strong> das Fotografieren und die Datei-<br />

verwaltung nehmen viel Zeit und Geduld <strong>in</strong> Anspruch. Im Gegenzug ist aber<br />

auch das resultierende HDR-Panorama enorm groß und detailliert.<br />

Empfehlenswert ist diese Methode, wenn man wirklich die höchstmögliche Auflö-<br />

sung und Qualität braucht.<br />

5.3. Spiegel Technik<br />

5.3.1. Das Pr<strong>in</strong>zip<br />

Mit herkömmlichen L<strong>in</strong>senobjektiven kann man das Sichtfeld e<strong>in</strong>er Kamera nicht<br />

unbegrenzt ausweiten. Das Maximum liegt bei 180°. Physikalisch kann <strong>der</strong><br />

Strahlengang aus e<strong>in</strong>em Objektiv, auch nicht durch ausgetüftelte L<strong>in</strong>sensysteme,<br />

h<strong>in</strong>ter die Kamera gelenkt werden.<br />

Bei <strong>der</strong> Spiegeltechnik dagegen wird die Umgebung nicht direkt fotografiert,<br />

son<strong>der</strong>n <strong>der</strong>en Spiegelung. Damit bestimmt <strong>der</strong> Aufbau des Spiegels den Öff-<br />

nungsw<strong>in</strong>kel.<br />

Bild 47: Spiegelobjektive, v.l.n.r: Birdeye, Fullview, Surroundphoto, Omnieye, BeHere, ParaShot<br />

Dieser Ansatz ist nicht neu, seit den 70er Jahren s<strong>in</strong>d die verschiedensten<br />

Spiegelformen hergestellt worden. Die Palette reicht <strong>von</strong> kaleidoskopartigen<br />

Prismenspiegel über konkave und konvexe Spiegel [39]. Bild 47 zeigt e<strong>in</strong>ige<br />

dieser Exemplare. Damals wurde e<strong>in</strong>e kompakte Bauweise nach Vorbild <strong>der</strong><br />

L<strong>in</strong>senobjektive angestrebt. Hauptabnehmer dieser Technologie war die Überwa-<br />

chungstechnik. Deshalb sollte die gesamte Kamera möglichst kle<strong>in</strong> und kompakt<br />

se<strong>in</strong>. H<strong>in</strong>ter vielen <strong>der</strong> getönten Halbkugeln an Kaufhausdecken f<strong>in</strong>den sich eben


diese Spiegelobjektive. Die Kamera erfasst tatsächlich den ganzen Raum, und<br />

nicht wie vielfach angenommen nur worauf sie versteckt gerichtet ist.<br />

Die größte Verbreitung f<strong>in</strong>den die konvexen, also zur L<strong>in</strong>se h<strong>in</strong> gewölbten<br />

Spiegel. Viele <strong>der</strong> Hersteller liefern eigene Software zur Entzerrung <strong>der</strong> Bil<strong>der</strong><br />

mit, die für die jeweilige Spiegelgeometrie optimiert ist. Geme<strong>in</strong>samer Schwach-<br />

punkt ist allerd<strong>in</strong>gs <strong>der</strong> kurze Abstand <strong>von</strong> Kamera und Spiegel, was den<br />

effektiven Blickw<strong>in</strong>kel e<strong>in</strong>schränkt und e<strong>in</strong>e se hr große Spiegelung <strong>von</strong> Kamera<br />

und Fotograf zur Folge hat. Erhältlich s<strong>in</strong>d diese Spezialobjektive für durch-<br />

schnittlich €1000,- [39].<br />

56<br />

Mit e<strong>in</strong>er spiegelnden Kugel ist es möglich, fast<br />

die gesamte Umgebung mit nur e<strong>in</strong>er e<strong>in</strong>zigen<br />

Belichtungsreihe zu fotografieren [23]. Die Seh-<br />

strahlen direkt am Rand <strong>der</strong> Kugel werden <strong>in</strong> e<strong>in</strong>em<br />

so flachen W<strong>in</strong>kel reflektiert, daß dort tatsächlich<br />

auch die Objekte h<strong>in</strong>ter <strong>der</strong> Kugel abgebildet werden<br />

– wenn auch extrem verzerrter Form. Bild 48 zeigt<br />

den Strahlenverlauf.<br />

Es gibt e<strong>in</strong>en bl<strong>in</strong>den Fleck direkt h<strong>in</strong>ter <strong>der</strong> Kugel,<br />

und <strong>der</strong> Fotograf ist selbstverständlich auch <strong>in</strong> <strong>der</strong><br />

Kugel zu sehen. E<strong>in</strong>e bessere Qualität erreicht man<br />

daher, wenn man die Kugel <strong>von</strong> mehreren Seiten fotografiert. Zwei um 90°<br />

versetzte Blickw<strong>in</strong>kel s<strong>in</strong>d gut geeignet bei e<strong>in</strong>er perfekt runden Kugel, wie etwa<br />

e<strong>in</strong>er polierten Stahlkugel aus dem Fachhandel für Masch<strong>in</strong>enbau [23], o<strong>der</strong><br />

e<strong>in</strong>er Flipperkugel. Auch e<strong>in</strong>e Suppenkelle <strong>von</strong> e<strong>in</strong>em Markenhersteller wie WMF<br />

läßt sich für diese Zwecke mißbrauchen [41]. Beim Kauf sollte man darauf<br />

achten, daß die Polierrichtung des Metalls nicht zu sehen ist, und die Oberfläche<br />

ke<strong>in</strong>e Kratzer aufweist.<br />

Die billigste Variante ist e<strong>in</strong>e verspiegelte Glaskugel, erhältlich unter <strong>der</strong><br />

Bezeichnung „Rosenkugel“ <strong>in</strong> <strong>der</strong> Gartenabteilung des lokalen Baumarkts. Diese<br />

Glaskugeln weisen allerd<strong>in</strong>gs mittlere bis grobe Unebenheiten auf. Da die Spie-<br />

gelschicht <strong>von</strong> <strong>der</strong> Innenseite aufgebracht ist, kann man auch e<strong>in</strong>e überlagerte<br />

Zweitspiegelung an <strong>der</strong> Oberfläche des Glases erkennen. Beson<strong>der</strong>s an den<br />

Rän<strong>der</strong>n, wo <strong>der</strong> flache Blickw<strong>in</strong>kel auf die Glasoberfläche zu e<strong>in</strong>er Totalreflexion<br />

führt, wirkt sich das sehr störend aus.<br />

Spiegelkugel<br />

Nichtsdestotrotz kann auch e<strong>in</strong>e Glaskugel zu befriedigenden Ergebnissen<br />

parallele<br />

Sehstrahlen<br />

(idealisiert)<br />

Bild 48: Spiegel Technik<br />

führen, wenn mehr als 2 Blickw<strong>in</strong>kel aufnommen werden. Mit 3 Belichtungsserien<br />

hat man schon genug Bildmaterial, um die groben Fehler wegzuretuschieren.


5.3.2. Das Fotografieren<br />

Wie geht man nun konkret vor?<br />

Die Kugel wird zuerst auf e<strong>in</strong> eigenes Stativ montiert. Dabei ist e<strong>in</strong> wenig Phanta-<br />

sie gefragt. Gut läßt s<strong>in</strong>d beispielsweise e<strong>in</strong>e Rosenkugel auf e<strong>in</strong> Universalstativ<br />

montieren, <strong>in</strong>dem man den Hals <strong>der</strong> Rosenkugel an <strong>der</strong> runden Feststellscheibe<br />

57<br />

des Stativs mit Hilfe <strong>von</strong> Paketklebeband fixiert.<br />

Danach wird die Kugel im gewünschten Zentrum des Panoramas plaziert, also <strong>in</strong><br />

<strong>der</strong> Position, <strong>in</strong> <strong>der</strong> später das 3D Objekt sche<strong>in</strong>bar stehen soll. Dann stellt man<br />

die Kamera auf die maximale Zoomstufe, und entfernt sich soweit zurück bis die<br />

Kugel gerade bildfüllend ist. Damit erreicht man zum e<strong>in</strong>en, daß die Spiegelung<br />

des Fotografen so kle<strong>in</strong> wie möglich ist. Zum an<strong>der</strong>en ist e<strong>in</strong> paralleler Lauf<br />

<strong>der</strong> Sehstrahlen erfor<strong>der</strong>lich um die sphärischen Bildverzerrung korrekt <strong>in</strong> e<strong>in</strong><br />

Panorama umzuwandeln [2][18][23]. Im theoretischen Idealfall ist man unendlich<br />

weit weg, und fotografiert durch e<strong>in</strong> Teleobjektiv mit unendlicher Brennweite.<br />

In <strong>der</strong> Realität erlaubt e<strong>in</strong> 7facher Kamerazoom e<strong>in</strong>en ausreichenden Abstand<br />

<strong>von</strong> 7 Metern.bei e<strong>in</strong>er Kugel <strong>von</strong> 40 cm Durchmesser. Aus diesem Grund<br />

empfiehlt sich <strong>in</strong> engen Räumen auch<br />

die Verwendung e<strong>in</strong>er kle<strong>in</strong>eren Kugel.<br />

Die Kamera wird wie <strong>in</strong> Bild 49 auf e<strong>in</strong><br />

auf e<strong>in</strong>em zweiten Stativ montiert. E<strong>in</strong><br />

hochwertiges Stativ mit Wasserwaage<br />

ist hilfreich für e<strong>in</strong>e exakt horizontale<br />

Ausrichtung. Um die Kugel im Bild-<br />

ausschnitt zu zentrieren, verstellt man<br />

die Höhe des Kamerastativs, nicht die<br />

Neigung. Damit ist gewährleistet, daß<br />

Objektiv und Kugelmittelpunkt <strong>in</strong> <strong>der</strong>-<br />

selben Ebene liegen. Dann fotografiert<br />

man, wie <strong>in</strong> Kapitel 3.3. beschrieben,<br />

e<strong>in</strong>e Belichtungsserie (Bild 50) <strong>von</strong> <strong>der</strong><br />

Kugel.<br />

Bild 50: Belichtungsserie<br />

Bild 49: Versuchsaufbau


Dann bewegt man sich um die Kugel herum, und justiert die Stativhöhe um even-<br />

tuelle Bodenunebenheiten auszugleichen. Zoom, Kameraneigung und Abstand<br />

zur Kugel sollten dabei jedoch konstant bleiben. Die zweite und dritte Serie<br />

wird fotografiert, <strong>in</strong>dem man dieselben Belichtungsstufen durchläuft wie bei <strong>der</strong><br />

ersten Serie.<br />

58<br />

5.3.3. Übersicht des Nachbearbeitungsprozesses<br />

Der vorgestellte Arbeitsablauf geht <strong>von</strong> 3 Belichtungsserien aus, die mit <strong>der</strong><br />

Spiegeltechnik aufgenommen s<strong>in</strong>d. Er stellt e<strong>in</strong>e Optimierung <strong>der</strong> <strong>von</strong> DEBEVEC<br />

[2][23] und BAUER [42] und beschriebenen Methoden dar, und kommt deshalb<br />

mit bedeutend weniger E<strong>in</strong>zelschritten aus.<br />

1. Aufnahme <strong>von</strong> 3 Serien<br />

2. Komb<strong>in</strong>ation zu <strong>HDRI</strong>s<br />

3. Abwicklung<br />

4. Vere<strong>in</strong>igung und Retusche<br />

5. Horizontal spiegeln<br />

Fertig.<br />

Bild 51: Übersicht des optimierten Spiegelkugel-Workflows


5.3.4. Umwandlung <strong>in</strong> HDR<br />

Aus drei Belichtungsserien zu je 12 Bil<strong>der</strong>n entstanden 36 Bil<strong>der</strong>, aus denen es<br />

nun gilt, e<strong>in</strong> HDR-Panorama zu erstellen. Um den Aufand für Dateimanagement<br />

zu verr<strong>in</strong>gern, empfiehl es sich zuallererst diese Anzahl zu reduzieren.<br />

Also komb<strong>in</strong>ieren wir jeweils die 12 Bil<strong>der</strong> e<strong>in</strong>er Serie <strong>in</strong> e<strong>in</strong> High Dynamic Range<br />

Bild. Wie <strong>in</strong> Bild 52 zeigt, ist das mit PhotoSphere e<strong>in</strong>e Sache <strong>von</strong> 5 M<strong>in</strong>uten.<br />

Die drei generierten Bil<strong>der</strong> werden dann im Radiance Format (.hdr) gespeichert<br />

und auf den PC portiert.<br />

5.3.5. Abwicklung <strong>in</strong> HDR-Shop<br />

Zunächst müssen die Bil<strong>der</strong> möglichst exakt auf die Kugelgröße beschnitten<br />

werden. Genau dafür bietet HDR-Shop e<strong>in</strong> spezielles Selektionswerkzeug, bei<br />

welchem e<strong>in</strong>en Kreis <strong>in</strong> <strong>der</strong> rechteckigen Selektion angezeigt wird. Dieser Kreis<br />

wird so angepaßt, daß er genau auf dem Rand <strong>der</strong> Kugel liegt. Dabei sollte<br />

man sorgsam vorgehen, denn gerade die Randbereiche <strong>der</strong> Kugel enthalten die<br />

höchste Informationsdichte. Nur e<strong>in</strong>e exakt ausgeschnittene Kugel kann auch<br />

korrekt entzerrt werden. Daher sollte man die Zoomfunktion (Strg. +/-) nutzen,<br />

und für die Anpassung an überstrahlten Kanten die Belichtung <strong>der</strong> Anzeige auf<br />

beste Sichtbarkeit e<strong>in</strong>regeln (+/-).<br />

59<br />

Bild 52: Make High Dynamic Range <strong>in</strong> Photosphere


Dann wird das Bild mit dem Menüpunkt ImageàCrop beschnitten (Bild 53).<br />

Bild 53: Beschneiden<br />

Jetzt ist das Bild vorbereitet für die eigentliche Abwicklung. Dazu dient <strong>der</strong><br />

Menüpunkt „ImageàPanoramaàPanoramic Transformations“. Und zwar trans-<br />

formieren wir hier <strong>von</strong> e<strong>in</strong>em Mirror Ball <strong>in</strong> das Latitude/Longitude Format. Für<br />

e<strong>in</strong>e optimale Ausbeute <strong>der</strong> verfügbaren Pixelauflösung empfiehlt es sich, als<br />

entzerrte Bildhöhe die Höhe des Quellbildes anzugeben (siehe Bild 54).<br />

60<br />

Bild54: Panoramic Transformation


Die so erstellte Abwicklung ist dann tatsächlich schon e<strong>in</strong> 360°/180° Panorama<br />

(siehe Bild 55).<br />

Bild 55: abgewickelte Spiegelkugel<br />

Allerd<strong>in</strong>gs wird bei diesem Verfahren die Informationsdichte nicht gleichmäßig<br />

verteilt. Im Mittelbereich entspricht e<strong>in</strong> abgewickelter Pixel noch ungefähr se<strong>in</strong>em<br />

Orig<strong>in</strong>al, doch zum Rand h<strong>in</strong> werden die Details aus immer engeren Pixelreihen<br />

extrahiert. Gut erkennbar s<strong>in</strong>d die extremen Verzerrungen am l<strong>in</strong>ken und rechten<br />

Rand. Das ist die ursprünglich <strong>von</strong> <strong>der</strong> Kugel verdeckte Stelle des Raumes. Der<br />

tatsächliche Informationsgehalt an diesen Stellen ist gleich Null.<br />

Lei<strong>der</strong> ist ausgerechnet im Bereich <strong>der</strong> besten Abwicklungsgüte <strong>der</strong> Fotograf<br />

samt Stativ und Kamera abgebildet. Damit ist noch e<strong>in</strong>mal begründet, wieso es<br />

so wichtig ist die Kugel aus e<strong>in</strong>em größtmöglichen Abstand zu fotografieren.<br />

61<br />

Bild 56: Verwertbarer Informationsgehalt


5.3.6. Retusche <strong>in</strong> Photogenics<br />

Aus den zwei bis drei abgewickelten Roh-Panoramen gilt es nun e<strong>in</strong> hoch-<br />

wertiges Panorama zusammenzustellen. Das kann pr<strong>in</strong>zipiell auch <strong>in</strong> gängiger<br />

Composit<strong>in</strong>g Software wie Digital Fusion o<strong>der</strong> Combustion gemacht werden.<br />

Hauptsache ist, daß das Bildbearbeitungsprogramm Ebenen unterstützt und<br />

mit <strong>HDRI</strong>s umgehen kann. Photogenics sei hier deshalb e<strong>in</strong>gehen<strong>der</strong> beschrie-<br />

ben, weil es als e<strong>in</strong>ziges re<strong>in</strong>es Malprogramm für diesem Zweck prädest<strong>in</strong>iert<br />

ersche<strong>in</strong>t.<br />

Bild 57: empfohlene Fensteranordnung <strong>in</strong> Photogenics, Horizontales Angleichen mit Roll-Effekt<br />

In Photogenics wird nun das optisch am saubersten ersche<strong>in</strong>ende Bild als Basis<br />

gewählt. Mit e<strong>in</strong>em Roll-Effekt verschiebt man den großen unsauberen Fleck <strong>in</strong><br />

die Mitte, so daß an dem Randumbruch e<strong>in</strong>e saubere Stelle liegt.<br />

Die an<strong>der</strong>en beiden Bil<strong>der</strong> dienen als Material für die Retusche, und werden<br />

ebenfalls mit dem Roll-Effekt <strong>in</strong> die gleiche Ausrichtung verschoben. Dabei<br />

muß man nicht allzu genau se<strong>in</strong>, denn die nichtl<strong>in</strong>eare Funktionsweise <strong>von</strong><br />

62<br />

Photogenics erlaubt je<strong>der</strong>zeit e<strong>in</strong>e Fe<strong>in</strong>justierung.


Dann erzeugt man für das Basisbild e<strong>in</strong>en neuen Pa<strong>in</strong>t-Layer, bei dem als<br />

Pa<strong>in</strong>tmodus RubThru („Durchrubbeln“) zum E<strong>in</strong>satz kommt (Bild 58). Nun wird<br />

e<strong>in</strong>es <strong>der</strong> an<strong>der</strong>en beiden Bil<strong>der</strong> als „Secondary Layer“ angegeben, und damit<br />

63<br />

das Ziel dieser Verknüpfung festgelegt (Bild 59).<br />

Bild 58: RubThrough Bild 59: Secondary Layer<br />

Mit dieser Vorbereitung kann jetzt ganz e<strong>in</strong>fach retuschiert werden, <strong>in</strong>dem mit<br />

dem weichen P<strong>in</strong>sel das verknüpfte Bild freigerubbelt wird. So ist beispielsweise<br />

<strong>in</strong> Bild 60 <strong>der</strong> Fotograf mit e<strong>in</strong>igen wenigen P<strong>in</strong>selstrichen entfernt:<br />

Bild 60: Der Fotograf wird ausradiert.<br />

Genauso verfährt man mit dem bl<strong>in</strong>den Fleck, und allen an<strong>der</strong>en Stellen die –<br />

eventuell auch durch Dellen o<strong>der</strong> Kratzer auf <strong>der</strong> Kugeloberfläche – unsauber<br />

s<strong>in</strong>d. Paßt das durchgerubbelte Bild nicht genau, justiert man den Roll-Effekt des<br />

Secondary Layers entsprechend nach. Im Normalfall können schon mit e<strong>in</strong>em<br />

Durchgang die groben Fehler bere<strong>in</strong>igt werden. F<strong>in</strong>den sich auf dem Secondary<br />

Layer ke<strong>in</strong>e sauberen Daten zum durchrubbeln, weicht man eben auf das dritte<br />

Bild als Quelle aus. Das ist sozusagen e<strong>in</strong>e Art Rückversicherung.<br />

Doch die Arbeit im High Dynamic Range gebietet beson<strong>der</strong>e Sorgfalt. Da <strong>der</strong><br />

Monitor immer nur e<strong>in</strong>en Ausschnitt aus dem gesamten Range darstellt, können<br />

sich <strong>in</strong> den gerade nicht angezeigten Schatten- o<strong>der</strong> Lichtregionen leicht Fehler<br />

e<strong>in</strong>schleichen (siehe Bild 59). Daher sollte man <strong>in</strong> regelmäßigen Abständen die


Belichtung <strong>der</strong> Anzeige verstellen, um solche Fehler sichtbar zu machen. In<br />

Photogenics bedient man sich dafür des Exposure-Reglers im Inspektor Fenster.<br />

Bild 61: Vorsicht! In nicht angezeigten Helligkeitsbereichen können sich Fehler verstecken.<br />

Zusätzlich zum Durchrubbeln ist auch <strong>der</strong> Clone Stamp (Kopierstempel) e<strong>in</strong>e<br />

gute Möglichkeit, die letzten Unsauberkeiten zu beheben (siehe Bild 60).<br />

Bild 62: Photogenics hat e<strong>in</strong> CloneStamp Tool à la Photoshop - aber im High Dynamic Range<br />

Abschließend wird das retuschierte Panoramabild horizontal gespiegelt.<br />

Das ist deshalb notwendig, weil wir ja ursprünglich <strong>in</strong> e<strong>in</strong>en Spiegel fotografiert<br />

haben, und die ganze Zeit die seitenverkehrten Bil<strong>der</strong> bearbeitet haben. Selbst-<br />

verständlich hätte man je<strong>der</strong>zeit zurückspiegeln können, doch macht man es<br />

zum Schluß braucht man eben nur e<strong>in</strong> e<strong>in</strong>ziges Bild zu spiegeln.<br />

5.4. Weitw<strong>in</strong>kel Technik<br />

5.4.1. rechtliche Vorbemerkungen<br />

Die Firma iPIX [43] hat sich weite Teile <strong>der</strong> Weitw<strong>in</strong>kel-Technik patentieren<br />

lassen und verfolgt mit beständiger Vehemenz jeden Verstoß. Damit soll das<br />

umstrittene Geschäftsmodell <strong>von</strong> iPIX geschützt werden, was e<strong>in</strong>e Zahlung <strong>von</strong><br />

$24,- für jedes komplettierte Panorama aus Fisheye Bil<strong>der</strong>n vorsieht.<br />

Da die iPIX Software jedoch nicht mit HDR Images umgehen kann, müßte man<br />

für jede Belichtungsstufe e<strong>in</strong> Low-Dynamic-Range Panorama generieren und<br />

bezahlen. Das wäre umständlich, zeitaufwendig, und schlägt mit etwa $ 200,- pro<br />

HDR Environment zu Buche.<br />

64


Dabei bestehen die <strong>von</strong> iPIX verkauften Komplettsysteme im Grunde auch<br />

nur aus Standardkomponenten, wie e<strong>in</strong>er Nikon Kamera, e<strong>in</strong>em Nikon 8mm<br />

Fisheye. Der motorgetriebenen Stativkopf und die hauseigene Stitch<strong>in</strong>g Software<br />

s<strong>in</strong>d zwar Eigenentwicklungen, jedoch ke<strong>in</strong>esfalls den auf dem freien Markt<br />

erhältlichen Alternativen überlegen.<br />

Auch s<strong>in</strong>d die patentierten Techniken ke<strong>in</strong>esfalls neu, waren sogar teilweise<br />

schon <strong>in</strong> Konkurrenzprodukten implementiert. Durch rechtlichen Druck zwang<br />

iPIX se<strong>in</strong>e Konkurrenten, diese Funktionen zu entfernen. Auch Professor Dersch<br />

<strong>von</strong> <strong>der</strong> TU Furtwangen wurde <strong>in</strong> e<strong>in</strong>en jahrelangen Rechtsstreit gezogen, weil<br />

se<strong>in</strong>e kostenlose Software PanoTools die Panoramageneration aus Weitw<strong>in</strong>kel-<br />

aufnahmen ermöglicht – und dabei <strong>der</strong> iPIX Software auch noch qualitativ weit<br />

überlegen ist [44].<br />

Die vorgestellten Techniken kommen komplett ohne das iPIX System aus, und<br />

unterliegen <strong>der</strong> beson<strong>der</strong>en Zielstellung, im High Dynamic Range zu arbeiten.<br />

5.4.2. Fotografie<br />

Benutzt man Objektive mit ger<strong>in</strong>gerer<br />

Brennweite, vergrößert sich <strong>der</strong> Bildw<strong>in</strong>kel<br />

und damit <strong>der</strong> aufgenommene Ausschnitt.<br />

Extreme Weitw<strong>in</strong>kel werden Fisheye<br />

genannt, und bieten e<strong>in</strong>en Aufnahme-<br />

w<strong>in</strong>kel bis zu 180 Grad.<br />

Damit reichen eigentlich 2 Belichtungsrei-<br />

hen <strong>in</strong> entgegengesetzter Richtung, um e<strong>in</strong> volles Panorama aufzunehmen<br />

[2][3]. Die Randbereiche weisen jedoch sehr starke geometrische Verzerrungen,<br />

und je nach L<strong>in</strong>senqualität auch mehr o<strong>der</strong> wenig starke chromatische Abwei-<br />

chungen auf. So ist es wie<strong>der</strong> sehr zu empfehlen, 3 Belichtungsreihen<br />

mit e<strong>in</strong>em Versatz <strong>von</strong> ungefähr 120 Grad aufzunehmen [38]. Auch hier<br />

kann e<strong>in</strong> spezieller Panoramakopf auf dem Stativ die Qualität erhöhen,<br />

<strong>in</strong>dem er die exakt horizontale Kamerarotation um den L<strong>in</strong>senbrennpunkt<br />

ermöglicht.<br />

65<br />

Abbildung <strong>der</strong><br />

180° Umgebung<br />

aus Sicht <strong>der</strong><br />

Kamera<br />

Bild 63: Fisheye Technik<br />

180° Umgebung


66<br />

Die Nachbearbeitung ist dann ganz e<strong>in</strong>fach:<br />

1. Komb<strong>in</strong>ation <strong>der</strong> Belichtungsreihen zu <strong>HDRI</strong>s.<br />

2. Entzerrung mit HDRShop.<br />

3. Ergänzung und Zusammenbau mit Photogenics.<br />

5.4.3. Umwandlung <strong>in</strong> <strong>HDRI</strong><br />

Wie bei <strong>der</strong> Spiegeltechnik hat man auch hier e<strong>in</strong>e ganze Menge an Bilddaten<br />

als Ausgangsmaterial. Es gilt nun 6 bis 12 Belichtungszeiten aus jeweils 3<br />

Blickw<strong>in</strong>keln, also 18 bis 36 Bil<strong>der</strong> zu e<strong>in</strong>em Panorama zu verb<strong>in</strong>den.<br />

Zwar kann man aus e<strong>in</strong>er großen Palette <strong>von</strong> verschiedenen Programmen<br />

wählen, um zuerst aus 3 Low Dynamic Range Weitw<strong>in</strong>kel-Bil<strong>der</strong>n e<strong>in</strong> Panorama<br />

zusammenzusetzen [38]. Doch dann hat man immer noch für jede Belichtungs-<br />

stufe jeweils e<strong>in</strong> Panorama, und muß dann hoffen daß man mit HDRShop diese<br />

6 bis 12 Panoramen <strong>in</strong> e<strong>in</strong> sauberes <strong>HDRI</strong> komb<strong>in</strong>ieren kann. Dabei können sich<br />

leicht Fehler e<strong>in</strong>schleichen, und <strong>der</strong> Aufwand an Datenmanagement ist recht<br />

groß.<br />

Effizienter geht man vor, <strong>in</strong>dem man erst die 6 bis 12 Bil<strong>der</strong> aus e<strong>in</strong>em Blick-<br />

w<strong>in</strong>kel <strong>in</strong> e<strong>in</strong> HDR Image komb<strong>in</strong>iert. Dabei geht man vor wie <strong>in</strong> Kapitel 3.3.<br />

beschrieben, also benutzt PhotoSphere bzw. HDRshop. Damit hat man die<br />

Bil<strong>der</strong>flut auf 3 Fisheye-Aufnahmen im HDR-Format reduziert.<br />

Nun s<strong>in</strong>d wir allerd<strong>in</strong>gs wie<strong>der</strong> auf die spärliche Auswahl an HDR-fähigen<br />

Programmen beschränkt, um diese Fisheye Blickw<strong>in</strong>kel zu entzerren und<br />

zusammenzusetzen.<br />

5.4.4. Entzerrung mit HDRShop<br />

HDRShop bietet aus oben genannten patentrechtlichen Gründe lei<strong>der</strong> ke<strong>in</strong>e<br />

explizite Funktion, um die Fisheye Geometrie zu entzerren. Jedoch durch den<br />

im folgenden beschriebenen Trick kann HDRShop zur Entzerrung mißbraucht<br />

werden. Dabei ist die geometrische Verwandschaft <strong>von</strong> Fisheye und Spiegel-<br />

kugel <strong>von</strong> Nutzen.<br />

Wie im oben erläutert, nimmt e<strong>in</strong>e Fisheye L<strong>in</strong>se 180° <strong>der</strong> Umgebung direkt auf.<br />

Fotografiert man dagegen <strong>in</strong> e<strong>in</strong>e Spiegelkugel, hat man dieses 180° Sichtfeld


1<br />

2-5<br />

1<br />

6<br />

7<br />

6<br />

2-5<br />

7<br />

<strong>in</strong>nerhalb e<strong>in</strong>es Kreises, <strong>der</strong> exakt<br />

<strong>in</strong> das Innenquadrat <strong>der</strong> Kugelauf-<br />

nahme e<strong>in</strong>geschrieben ist. (siehe<br />

Bild 64)<br />

O<strong>der</strong>, mathematisch ausgedrückt:<br />

(2)<br />

Diese<br />

Formel ermittelt sich aus dem Satz<br />

des Pythagoras <strong>in</strong> dem gleichseiti-<br />

gen Dreieck aus Abbildungsradius<br />

r und Kugelradius R. (Siehe Bild<br />

38)<br />

2R<br />

a = 2r<br />

=<br />

2<br />

R<br />

R<br />

2<br />

2<br />

2 2<br />

2<br />

= r + r<br />

= r<br />

2<br />

R = 2r<br />

R<br />

r = 2<br />

2<br />

2<br />

2<br />

2 2<br />

2<br />

R<br />

2<br />

= r + r<br />

R = r<br />

R = r<br />

r =<br />

R<br />

180 °<br />

×<br />

VFOV<br />

YPano = YRen<strong>der</strong><br />

Y Pano<br />

2R<br />

a = 2r<br />

=<br />

2<br />

YPano = YRen<strong>der</strong><br />

2<br />

180 °<br />

×<br />

VFOV<br />

(3)<br />

(4)<br />

(5)<br />

(6)<br />

67<br />

Wendet man diese Überlegung<br />

praktisch an, kann man 180° <strong>der</strong><br />

Umgebung <strong>in</strong> dem Bild e<strong>in</strong>er Spie-<br />

gelkugel markieren. Bild 65 zeigt<br />

180°<br />

dies:<br />

= × 576pixel<br />

= 2987,<br />

035pixel<br />

≈ 3000pixel<br />

34,<br />

7°<br />

=<br />

°<br />

Bild 65: Beschneiden <strong>der</strong> Spiegelkugel auf 180°.<br />

Y Pano<br />

a<br />

Spiegelkugel<br />

parallele Sehstrahlen<br />

(idealisiert)<br />

a<br />

frontale<br />

Abbildung <strong>der</strong><br />

180° Umgebung<br />

r<br />

R<br />

r<br />

180° Umgebung<br />

Bild 64: Strahlenverlauf an e<strong>in</strong>er Spiegelkugel,<br />

und Konstruktion des 180° R<strong>in</strong>gs<br />

180<br />

× 576pixel<br />

= 2987,<br />

035pixel<br />

≈ 3000pixel<br />

34,<br />


HDRShop bietet für exakt diesen Bildausschnitt e<strong>in</strong>e Option <strong>in</strong> <strong>der</strong> Panoramic<br />

Transformations Funktion: „Mirror Ball Close Up“. Diese ist ursprünglich dazu<br />

gedacht, nur den Bereich mit <strong>der</strong> besten Umgebungsauflösung aus e<strong>in</strong>er Spie-<br />

gelkugel zu verwenden. Vernachlässigt man die ger<strong>in</strong>gen Unterschiede <strong>in</strong> <strong>der</strong><br />

W<strong>in</strong>kelverteilung <strong>von</strong> <strong>der</strong> Mitte zum 180° R<strong>in</strong>g, so kann man diese Transformati-<br />

onsoption nutzen, um e<strong>in</strong>e Fisheye Aufnahme zu entzerren.<br />

Der Schlüssel zum Erfolg dieser Methode ist die korrekte Beschneidung <strong>der</strong><br />

Fisheye-Aufnahme. HDRShop’s Selektionskreis sollte genau den 180° Blickw<strong>in</strong>-<br />

kel umfassen. Dabei muß man se<strong>in</strong>e L<strong>in</strong>se kennen, hat sie beispielsweise<br />

e<strong>in</strong>en Blickw<strong>in</strong>kel <strong>von</strong> 184° (wie die Nikon-16mm-Objektive), so muß man diese<br />

Selektion leicht kle<strong>in</strong>er machen als den aufgenommenen Bildkreis (Siehe Bild<br />

66b). Nimmt das Objektiv dagegen e<strong>in</strong>en Blickw<strong>in</strong>kel <strong>von</strong> beispielsweise 170°<br />

auf, so muß man die Auswahl leicht größer wählen, Orientierungspunkte können<br />

68<br />

dabei die sichtbaren L<strong>in</strong>senr<strong>in</strong>ge bieten (siehe Bild 66a).<br />

Bild 66: Fisheyes korrekt beschneiden.<br />

Das so beschnittene Bild ähnelt nun <strong>von</strong> <strong>der</strong> Bildgeometrie her <strong>der</strong> Nahauf-<br />

nahme e<strong>in</strong>er Spiegelkugel. Somit kann es <strong>in</strong> HDRShop entzerrt werden, wie <strong>in</strong><br />

Bild 67 dargestellt.<br />

Quellformat ist „Mirror Ball<br />

Closup“, und als Zielformat<br />

wird „Latitude/Longitude“<br />

angegeben. Die Bildhöhe<br />

des Zielbildes sollte wie<strong>der</strong><br />

<strong>der</strong> Höhe des Quellbildes<br />

entsprechen, um die verfüg-<br />

bare Pixelauflösung maxi-<br />

mal auszunutzen.<br />

Bild 67: Fisheye entzerren mit „MirrorBall Close Up“ Preset


69<br />

5.4.5. Panoramageneration <strong>in</strong> Photogenics<br />

Ist diese Entzerrung an allen 3 Blickw<strong>in</strong>keln vorgenommen, ist man im Besitz<br />

<strong>von</strong> sehr sauberem Ausgangsmaterial. Der Fotograf ist auf ke<strong>in</strong>em <strong>der</strong> Bil<strong>der</strong><br />

abgebildet, also muß er nicht wie bei <strong>der</strong> Spiegeltechnik wegretuschiert werden.<br />

Auch gibt es ke<strong>in</strong>e so extrem schlecht aufgelösten Stellen wie bei den Spiegel-<br />

panoramen, und es gibt auch ke<strong>in</strong>e Verzerrungen durch Unebenheiten auf <strong>der</strong><br />

Spiegelkugel.<br />

Wohl aber s<strong>in</strong>d die 3 abgewickelten Panoramen alle nur partiell. Diese gilt es nun<br />

also, zusammenzusetzen.<br />

Zuerst werden alle 3 Blickw<strong>in</strong>kel e<strong>in</strong>geladen, zwei <strong>der</strong> Bil<strong>der</strong> zoomt man kle<strong>in</strong>,<br />

e<strong>in</strong>es wird als Basisbild für das künftige Panorama gewählt. Dieses Hauptbild<br />

wird dann mit dem Roll-Effekt so verschoben, daß es den l<strong>in</strong>ken und rechten<br />

Rand schneidet. Damit braucht dieser Rand nicht mehr retuschiert werden.<br />

Folglich ist die Gefahr die Nahtstelle zu verletzen ausgeschalten.<br />

Die zwei an<strong>der</strong>en Blickw<strong>in</strong>kel werden dann entsprechend horizontal verschoben,<br />

und als Secondary Layer an das Hauptbild geknüpft. Nun benutzt man die<br />

Rubthrough Funktion im Hauptbild, um diese verl<strong>in</strong>kten Bil<strong>der</strong> freizurubbeln, und<br />

das Panorama damit zu ergänzen.<br />

Bild 68 zeigt diese Methode im Verlauf, <strong>in</strong> Kapitel 5.3.6. s<strong>in</strong>d diese Schritte<br />

ausführlicher beschrieben.<br />

Bild 68: 3 entzerrte Fisheye-<strong>HDRI</strong>s werden <strong>in</strong> Photogenics zu e<strong>in</strong>em Panorama vere<strong>in</strong>t.


Abschließend kann noch e<strong>in</strong>e Retusche des oberen und unteren Randes mit<br />

dem Clone Stamp Tool durchgeführt werden. Diese Rän<strong>der</strong> stellen die Pole <strong>der</strong><br />

Kugelabwicklung dar, und konvergieren eigentlich zu e<strong>in</strong>em Punkt. (vergleiche<br />

Kapitel 3.4.) Für wirklich saubere Ergebnis sollten diese Stellen deshalb erst<br />

nach e<strong>in</strong>er Umwandlung <strong>in</strong> das Cubic Format retuschiert werden.<br />

70<br />

Das fertige Panorama sieht dann aus wie <strong>in</strong> Bild 69:<br />

Bild 69: Fertiges <strong>HDRI</strong> Panorama<br />

5.4.6. Bessere Qualität durch PTPicker<br />

Die oben beschriebene Entzerrung mit HDRShop basiert sowohl zu e<strong>in</strong>em<br />

gewissen Gard auf Augenmaß, als auch auf <strong>der</strong> Annahme, daß die Bil<strong>der</strong> alle<br />

mit exakt horizontaler Kamerausrichtung aufgenommen wurden. Das Ergebnis<br />

ist zwar verwendbar, doch bei genauerer Untersuchung nicht wirklich korrekt.<br />

Insbeson<strong>der</strong>e vertikale L<strong>in</strong>ien, wie Häuserecken, Fenster und Türen, s<strong>in</strong>d im<br />

fertigen Panorama leicht schief o<strong>der</strong> gebogen.<br />

Um e<strong>in</strong> wirklich exaktes Ergebnis zu erreichen, kann man PTPicker <strong>von</strong> DERSCH<br />

[45] benutzen. PTPicker ist e<strong>in</strong>e Java-basierte Applikation, die als Teil des Pake-<br />

tes PanoTools für alle Plattformen erhältlich ist. Dieses Paket ist auch als Plug<strong>in</strong><br />

für Photoshop e<strong>in</strong> sehr beliebtes und vielseitiges Werkzeug für Panorama-<br />

fotografen [38]. Pr<strong>in</strong>zipiell ist es <strong>in</strong> <strong>der</strong> Lage, aus 3 Fisheye-Bil<strong>der</strong>n vollautoma-<br />

tisch e<strong>in</strong> komplettes Panorama zusammenzusetzen. Lei<strong>der</strong> unterstützt es jedoch<br />

ke<strong>in</strong>e HDR-Formate, son<strong>der</strong>n nur JPEG, PNG, TIFF und BMP.<br />

Die Innovation besteht nun dar<strong>in</strong>, 3 Blickw<strong>in</strong>kel als Low-Dynamic-Range Origi-<br />

nalfotos <strong>in</strong> PTPicker auszumessen, und die ermittelten Daten bei <strong>der</strong> Entzerrung<br />

<strong>der</strong> HDR Images <strong>in</strong> HDRShop zu berücksichtigen.


Panotools <strong>in</strong>klusive PTPicker kann man kostenlos downloaden unter<br />

http://home.no.net/dmaurer/~<strong>der</strong>sch/<strong>in</strong>dex_deutsch.html. Die Installationsanweisungen s<strong>in</strong>d je<br />

nach Betriebssystem unterschiedlich umfangreich, und erfor<strong>der</strong>n unter an<strong>der</strong>em<br />

e<strong>in</strong>e Java-Console <strong>der</strong> Version 1.3. Nach e<strong>in</strong>em Tipp <strong>von</strong> Bauer [46] ist es für<br />

W<strong>in</strong>dows-User empfehlenswert, PTPicker über e<strong>in</strong> Batch-File zu starten. Damit<br />

kann man dem Programm mehr als 1 Megabyte Speicher durch die JAVA-<br />

Console zur Verfügung stellen, was e<strong>in</strong>e e<strong>in</strong>fachere Alternative zum Än<strong>der</strong>n <strong>der</strong><br />

71<br />

JAVA-Sett<strong>in</strong>gs <strong>in</strong> <strong>der</strong> W<strong>in</strong>dows-Registrierung ist.<br />

Diese Batch-Datei ist e<strong>in</strong> e<strong>in</strong>faches Textfile mit <strong>der</strong> Endung „.bat“ und dem Inhalt:<br />

java -Xmx192m -jar ptpicker.jar . In diesem Fall werden PTPicker 192<br />

Megabyte zugestanden, lauffähig ist es ab 32 Mb [45].<br />

Das eigentliche Angleichen <strong>der</strong> Bil<strong>der</strong> funktioniert dann wie <strong>von</strong> BAUER [46]<br />

beschrieben:<br />

Zuerst erstellt man <strong>in</strong> PTPicker mit „File-<br />

New“ e<strong>in</strong> neues Panorama-Projekt. In dem<br />

Dialogfeld gibt man dann die Brennweite<br />

des Objektivs sowie die Anzahl <strong>der</strong> ver-<br />

schiedenen Blickw<strong>in</strong>kel an. In diesem Fall<br />

handelt es sich um e<strong>in</strong> Nikon Objektiv mit<br />

7.7 Millimeter Brennweite, und Aufnahmen<br />

aus 3 Blickw<strong>in</strong>keln.<br />

Mit den Menüpunkten „Left Image“ und „Right Image“ werden jetzt die Bil<strong>der</strong><br />

<strong>in</strong> die Arbeitsfläche laden. Dabei wird immer paarweise vorgegangen. Beispiels-<br />

weise wird Bild 1 l<strong>in</strong>ks, und Bild 2 rechts e<strong>in</strong>geladen.<br />

Bild 70: Neues PTPicker Projekt<br />

Nun werden Kontrollpunkte an solchen Stellen gesetzt, die <strong>in</strong> beiden Bil<strong>der</strong>n<br />

zu sehen s<strong>in</strong>d (siehe Bild 71A). Vertikale L<strong>in</strong>ien eignen sich beson<strong>der</strong>s gut,<br />

um den Algorithmen die Bildgeometrie zu beschreiben. Etwa 3 bis 4 solcher<br />

Kontrollpunkte reichen aus. Durch e<strong>in</strong>fachen Klick auf e<strong>in</strong>e Kante wird e<strong>in</strong><br />

Punkt gesetzt, <strong>der</strong> ersche<strong>in</strong>ende Partner im an<strong>der</strong>en Bild wird dann an die<br />

korrespondierende Bildstelle gezogen. Das Plazieren wird unterstützt <strong>von</strong> e<strong>in</strong>er<br />

kle<strong>in</strong>en Bildschirmlupe, die sich automatisch unter dem Mauszeiger mitbewegt.


Die Punkte s<strong>in</strong>d dabei farbcodiert. Rot ist das aktive Punktepaar. Grün zeigt an<br />

daß diese Punkte <strong>in</strong> den angezeigten Bil<strong>der</strong>n zusammengehören. Blau markierte<br />

Punkte haben ihr Gegenstück <strong>in</strong> dem nicht angezeigten Bild.<br />

S<strong>in</strong>d Bild 1 und 2 so mite<strong>in</strong>an<strong>der</strong> verknüpft, wird das Bild 3 <strong>in</strong> das rechte<br />

Anzeigefeld geladen. Nun werden auch hier korrespondierende Bildteile markiert<br />

(Siehe Bild 71B)<br />

Abschließend wird diese Prozedur noch mit Bild 2 und 3 wie<strong>der</strong>holt (siehe Bild<br />

71C). Damit ist die Verknüpfungskette komplett. Die Reihenfolge <strong>der</strong> Bearbeitung<br />

und die Plazierung im l<strong>in</strong>ken o<strong>der</strong> rechten Anzeigefeld ist völlig egal. Hauptsache<br />

ist, wir haben die Komb<strong>in</strong>ationen 1:2, 1:3 und 2:3 alle ausgeschöpft.<br />

Nun wird <strong>der</strong> Optimizer mit dem Menüpunkt „Project-Optimize“ gestartet. Dieser<br />

erzeugt e<strong>in</strong>e Textdatei, die alle Resultate <strong>der</strong> fotometrischen Vermessung enthält.<br />

Eigentlich ist sie dazu gedacht, dem nächsten PanoTools Modul (PanoStitcher),<br />

die ermittelten Parameter zu übergeben.<br />

72<br />

Bild 71A: Korrespondierende Punkte <strong>in</strong> Bild 1 und 2 markieren.<br />

Bild 71B: Kontrollpunkte <strong>in</strong> Bild 2 und 3 setzen Bild 71C: Kontrollpunkte <strong>in</strong> Bild 1 und 3 setzen


Mit dem Menüpunkt „ProjectàView Script“ lassen wir uns diesen Text anzeigen.<br />

Und nun kann HDRShop gestartet werden. Dort werden die vorgenerierten<br />

<strong>HDRI</strong>-Versionen <strong>der</strong> Blickw<strong>in</strong>kel geladen und man öffnet die Funktion<br />

„Panoramic Transformation“ wie <strong>in</strong> Abschnitt 5.4.3 beschrieben. Anstatt nun<br />

jedoch pauschal <strong>von</strong> ‚Mirror Ball CloseUp’ <strong>in</strong> ‚Latitude/Longitude’ umzuwandeln,<br />

73<br />

wird zusätzlich noch auf „Arbitrary Rotation“ geklickt.<br />

Bild 72: Übertragen <strong>der</strong> ermittelten Kamerarotation <strong>von</strong> PTPicker Script zu HDRShop.<br />

In diesem Feld werden jetzt die ermittelten<br />

Kameradaten e<strong>in</strong>gegeben (siehe Bild 44).<br />

Dabei entspricht <strong>der</strong> X-Wert dem Pitch-W<strong>in</strong>-<br />

kel mit <strong>in</strong>vertiertem Vorzeichen, Y ist <strong>der</strong> Yaw-<br />

W<strong>in</strong>kel, und Z ist <strong>der</strong> <strong>in</strong>vertierte Roll-W<strong>in</strong>kel.<br />

In Tabelle 4 ist diese Koord<strong>in</strong>atenzuordnung<br />

noch e<strong>in</strong>mal zusammengestellt.<br />

Alle<strong>in</strong> durch die Angabe dieser 3 Werte kann die Qualität <strong>der</strong> Abwicklung<br />

beträchtlich erhöht werden. Klare geometrische L<strong>in</strong>ien s<strong>in</strong>d auch als solche<br />

im Panorama zu erkennen. Vertikale L<strong>in</strong>ien bleiben vertikal (siehe Bild 48c+d).<br />

Durch die Angabe des korrekten Yaw-W<strong>in</strong>kels (Y) ist das Bild sogar schon an<br />

die korrekte horizontale Stelle verschoben, so daß bei dem Zusammenfügen<br />

<strong>der</strong> Roll-Effekt überflüssig wird (siehe Bild 73). Dagegen ist die <strong>von</strong> Pitch (X)<br />

und Roll (Z) verursachte Verzerrung e<strong>in</strong>zigartig, und mit normalen Werkzeugen<br />

kaum nachzustellen.<br />

Tabelle 6: Zuordnung<br />

<strong>der</strong> Rotationsachsen<br />

HDRShop PTPicker<br />

X - Pitch<br />

Y Yaw<br />

Z - Roll


Bild 73: Qualitätsvergleich<br />

Diese vorbereitende Ausmessung zeigt, daß auch HDR Images so präzise<br />

entzerrt werden können wie LDR Images. Allerd<strong>in</strong>gs ist diese Präzision <strong>in</strong><br />

vielen Fällen gar nicht notwendig. Wie das Kapitel 6 zeigen wird, reicht für<br />

die Beleuchtung <strong>von</strong> 3D Objekten das schnell und e<strong>in</strong>fach generierte HDR<br />

Environment aus Kapitel 5.4.4. aus.<br />

5.5. Son<strong>der</strong>fall Skydome<br />

5.5.1. Vorüberlegungen<br />

Da <strong>der</strong> überwiegende Teil <strong>der</strong> natürlichen Außenbeleuchtung sowieso <strong>von</strong> oben<br />

kommt, benötigt man <strong>in</strong> vielen Fällen gar ke<strong>in</strong> voll immersives Panorama. So ist<br />

beispielsweise <strong>in</strong> <strong>der</strong> Architekturvisualierung die Verwendung e<strong>in</strong>es Skydomes<br />

üblich, also e<strong>in</strong>er halben Himmelskugel die alles vom Horizont aufwärts zeigt.<br />

Das virtuelle Modell steht dann auf e<strong>in</strong>er Bodenplatte, die den unteren Bildraum<br />

bis zum Horizont ausfüllt.<br />

74


Skydomes eignen sich nur bed<strong>in</strong>gt für die Ausleuchtung kle<strong>in</strong>erer Objekte,<br />

wie z.B. <strong>in</strong> <strong>der</strong> Produktvisualisierung o<strong>der</strong> im Industriedesign. Auch Filmsets<br />

be<strong>in</strong>halten oftmals Komponenten, die <strong>von</strong> unterhalb <strong>der</strong> Horizontl<strong>in</strong>ie beleuchten,<br />

und deshalb <strong>in</strong> e<strong>in</strong>em Skydome vernachlässigt werden. Darüberh<strong>in</strong>aus ist e<strong>in</strong><br />

Skydome auch nur bei <strong>der</strong> Beleuchtung matter Objekte akkurat. Bei e<strong>in</strong>em<br />

reflektierenden Material kann sich <strong>der</strong> Wegfall <strong>der</strong> unteren Halbkugel störend<br />

auswirken.<br />

Ob <strong>der</strong> E<strong>in</strong>satz e<strong>in</strong>es Skydomes S<strong>in</strong>n macht, ist demnach e<strong>in</strong>e sehr projektspezi-<br />

fische Entscheidung. Als Gegengewicht für die beschränkten <strong>Anwendung</strong>smög-<br />

lichkeiten ist die e<strong>in</strong>fache und unkomplizierte Erzeugung e<strong>in</strong>es Skydomes <strong>in</strong>s<br />

Feld zu führen. Vorgestellt wird e<strong>in</strong>e Weiterentwicklung <strong>der</strong> <strong>von</strong> Bauer [47]<br />

beschriebenen Technik.<br />

5.5.2. Das Fotografieren<br />

Man benötigt e<strong>in</strong>e Digitalkamera und e<strong>in</strong> 180° Fisheye. E<strong>in</strong> Stativ ist nicht<br />

zw<strong>in</strong>gend notwendig, man kommt also mit m<strong>in</strong>imalem Equipment aus.<br />

Die Kamera wird e<strong>in</strong>fach auf die Erde gelegt, und mit dem Objektiv direkt nach<br />

oben gerichtet. E<strong>in</strong>e e<strong>in</strong>zige Belichtungsserie genügt, denn durch den extremen<br />

Öffnungsw<strong>in</strong>kel des Fisheyes ist die gesamte Umgebung oberhalb des Horizonts<br />

im Bild.<br />

5.5.3. Umwandlung <strong>in</strong> HDR<br />

Wie <strong>in</strong> Kapitel 4 ausführlich beschrieben, ist dieser Schritt <strong>in</strong> PhotoSphere sehr<br />

e<strong>in</strong>fach. Sollte PhotoSphere den Dienst versagen, ist HDRShop o<strong>der</strong> Photoge-<br />

nics zu verwenden.<br />

5.5.4. Entzerrung <strong>in</strong> HDRShop<br />

Wie bei <strong>der</strong> normalen Fisheye Entzerrung wird das Bild auf den 180° Sichtw<strong>in</strong>kel<br />

beschnitten. Damit kann es wie<strong>der</strong> als ‚Mirror Ball Close Up’ behandelt werden<br />

(siehe 5.4.4.).<br />

In diesem Fall wird bei <strong>der</strong> Panoramatransformation wie<strong>der</strong> e<strong>in</strong> ‚Arbitrary Angle’<br />

75<br />

angegeben, und zwar –90° für X (siehe Bild 74).


Damit ist <strong>der</strong> Skydome schon fertig (siehe Bild 75). Es ist ke<strong>in</strong> weiteres Zusam-<br />

menfügen notwendig, denn als Ausgangsmaterial gab es ja nur diese e<strong>in</strong>e<br />

Belichtungsserie.<br />

76<br />

Bild 74: Umwandlung <strong>von</strong> Fisheye <strong>HDRI</strong> <strong>in</strong> Skydome<br />

Bild75: Fertiger <strong>HDRI</strong> Skydome


5.6. Vergleich<br />

Die entscheidenden Merkmale <strong>der</strong> verschiedenen Methoden zur Generierung<br />

<strong>von</strong> HDR Environments s<strong>in</strong>d noch e<strong>in</strong>mal <strong>in</strong> Tabelle 7 zusammengefaßt.<br />

Tabelle 7: Vergleichsübersicht <strong>HDRI</strong> Environment Generation<br />

One Shot Segment Spiegel Fisheye Skydome<br />

Equipment<br />

Anmerkungen:<br />

Fazit:<br />

77<br />

(2) Abhängig <strong>von</strong> Kameraauflösung; Beispiel für 1600 X 1200 Pixel<br />

(3) Direkte Ausgabe des HDR-Environments.<br />

(4) Abhängig <strong>von</strong> gewünschter Qualität<br />

E<strong>in</strong> Skydome ist mit dem ger<strong>in</strong>gsten Aufwand erstellt und deshalb unbed<strong>in</strong>gt<br />

zu empfehlen, wenn die Projektanfor<strong>der</strong>ungen den e<strong>in</strong>geschränkten Nutzungs-<br />

rahmen nicht überschreiten.<br />

Die Fisheye Methode ist e<strong>in</strong>facher, genauer, schneller als die Spiegelmethode<br />

und ist daher für den professionellen Produktionsalltag am besten geeignet.<br />

Die Spiegelmethode ist beson<strong>der</strong>s attraktiv für E<strong>in</strong>steiger und Gelegenheitsan-<br />

wen<strong>der</strong>, weil sie mit den ger<strong>in</strong>gsten Kosten und vertretbarem Aufwand und<br />

Qualität verbunden ist.<br />

Der enorme Aufwand für die Segmenttechnik ist nur <strong>in</strong> Ausnahmefällen<br />

gerechtfertigt, wenn allerhöchste Auflösungen zw<strong>in</strong>gend notwendig s<strong>in</strong>d. Auch<br />

die Anschaffung e<strong>in</strong>er SpheroCam lohnt sich nur, wenn diese hohen Auflösun-<br />

gen gerechtfertigt s<strong>in</strong>d und die e<strong>in</strong>fachste Art <strong>der</strong> Handhabung entscheidend<br />

ist.<br />

- SpheroCamHDR<br />

- Laptop (nicht im<br />

Lieferumfang)<br />

Kosten, rund € 50.000,-<br />

Anzahl <strong>der</strong><br />

notwendigen<br />

Belichtungsserien<br />

Geometrische<br />

Verzerrung im<br />

fertigen HDR-<br />

Environment<br />

Maximale nicht<strong>in</strong>terpolierte<br />

Auflösung<br />

/ Pixel<br />

Aufwand am Set<br />

Aufwand für die<br />

Nachbearbeitung<br />

- 1 Stativ<br />

- Panoramakopf<br />

€ 100,- bis<br />

€ 300,-<br />

- Spiegelkugel<br />

- 2 Stative<br />

€ 100,- bis<br />

€ 200,-<br />

- Fisheye<br />

- 1 Stativ<br />

- Panoramakopf<br />

€ 300,- bis<br />

€ 600,-<br />

ke<strong>in</strong>e (2) 50 bis 70 2 bis 3 2 bis 3 1<br />

ke<strong>in</strong>e ke<strong>in</strong>e<br />

5300 * 13000<br />

Mittel,<br />

5 m<strong>in</strong>.<br />

ke<strong>in</strong>er (2)<br />

Abhängig <strong>von</strong><br />

Segmentanzahl,<br />

theoretisch<br />

unbegrenzt<br />

Sehr groß,<br />

ca. 60 m<strong>in</strong>.<br />

Sehr groß,<br />

bis zu 5 h<br />

Mittel bis Groß,<br />

Bed<strong>in</strong>gt durch<br />

Kugeloberfläche<br />

Rund<br />

2200 * 1100 (1)<br />

Groß,<br />

ca. 15 m<strong>in</strong>.<br />

Mittel,<br />

ca. 30 m<strong>in</strong>.<br />

Ger<strong>in</strong>g bis Mittel,<br />

m<strong>in</strong>imierbar <strong>in</strong><br />

Nachbearbeitung<br />

Rund<br />

2400 * 1200 (1)<br />

Mittel,<br />

ca. 5 m<strong>in</strong>.<br />

Mittel,<br />

ca. 30-45 m<strong>in</strong>. (3)<br />

- Fisheye<br />

€ 200,- bis<br />

€ 500,-<br />

ke<strong>in</strong>e<br />

Rund<br />

1600 * 800<br />

Ger<strong>in</strong>g,<br />

ca. 2 m<strong>in</strong>.<br />

Ger<strong>in</strong>g,<br />

ca. 5 m<strong>in</strong>.


1 2-5<br />

2-5<br />

6<br />

6 7<br />

7<br />

5.7. Welche Auflösung ist notwendig?<br />

2<br />

Wie sich im 2nächsten<br />

Kapitel herausstellen wird, ist die Auflösung <strong>von</strong> Spiegelund<br />

Fisheye-Methode ausreichend für viele <strong>Anwendung</strong>en <strong>in</strong> 3D Programmen.<br />

2<br />

Sie reicht jedoch nicht, wenn man das Panorama als lückenlose Umgebungstextur<br />

im H<strong>in</strong>tergrund e<strong>in</strong>er 3D-Szene verwenden will. Um die benötigte Panoramauflösung<br />

zu errechnen kann folgende Formel genutzt werden:<br />

2 2<br />

2 2 2<br />

R = r + r<br />

R = r<br />

R = r<br />

R2<br />

r =<br />

2<br />

2<br />

2 2<br />

2 2 2<br />

R = r + r<br />

R = r<br />

R = r<br />

R<br />

r =<br />

180 °<br />

×<br />

VFOV<br />

180 °<br />

= × Y<br />

VFOV<br />

YPano = YRen<strong>der</strong><br />

YPano Ren<strong>der</strong><br />

VFOV (Vertical Field Of View) ist dabei <strong>der</strong> vertikale Öffnungsw<strong>in</strong>kel <strong>der</strong> virtu-<br />

ellen Kamera <strong>in</strong> <strong>der</strong> geplanten 3D-Szene. Will man beispielsweise mit e<strong>in</strong>em<br />

VFOV <strong>von</strong> 34,7° (entspricht dem geläufigen Zoom Faktor 3.2) <strong>in</strong> D1-PAL-<br />

Auflösung ren<strong>der</strong>n, ergibt das:<br />

Y Pano<br />

Y Pano<br />

3000 Pixel hoch und dementsprechend 6000 Pixel breit muß also e<strong>in</strong> Pano-<br />

ramabild se<strong>in</strong>, um e<strong>in</strong> scharfes H<strong>in</strong>tergrundbild abzugeben. 3000 Pixel s<strong>in</strong>d<br />

auch gleichzeitig die benötigte Bildhöhe, wenn man so e<strong>in</strong> Panorama mit <strong>der</strong><br />

Fisheye-Methode aufnehmen will. Mit e<strong>in</strong>er 12 MegaPixel-Kamera kann man das<br />

durchaus schaffen, ansonsten bleibt nur <strong>der</strong> Weg über analoge Fotografie, die<br />

78<br />

180°<br />

= × 576pixel<br />

= 2987,<br />

035pixel<br />

≈ 3000pixel<br />

34,<br />

7°<br />

180°<br />

=<br />

× 576pixel<br />

= 2987,<br />

035pixel<br />

≈ 3000pixel<br />

34,<br />

7°<br />

Segmenttechnik, o<strong>der</strong> die SpheroCamHDR.<br />

(6)<br />

(7)


79<br />

6. <strong>Anwendung</strong> im CGI Bereich<br />

6.1. CGI – Computer Generated Images<br />

In den 80er Jahren sprach WINKLER [48] erstmals <strong>von</strong> e<strong>in</strong>em „<strong>com</strong>putergenerier-<br />

ten 3-D-Fotorealismus“. Damit bezeichnet man seither die glaubhafte Abbildung<br />

virtueller, also materiell nicht existenter Objekte. Im eigentlichen S<strong>in</strong>ne kann das<br />

allerd<strong>in</strong>gs nur e<strong>in</strong> „Fotoillusionismus“ se<strong>in</strong>, da den Bil<strong>der</strong>n nur mathematisch-<br />

geometrische Beschreibungen zugrunde liegen. Hier<strong>in</strong> liegt <strong>der</strong> Schlüssel zum<br />

Verständnis <strong>von</strong> CGI. Am Anfang stehen immer nur dreidimensionale Datenmo-<br />

delle, die am Computer entworfen o<strong>der</strong> e<strong>in</strong>gescannt wurden. E<strong>in</strong>e fotorealisti-<br />

sche Abbildung dieser Objekte soll dann den Ansche<strong>in</strong> erwecken, sie wären<br />

real fotografiert.<br />

Seit den 80er Jahren, als dieses Konzept noch als visionär angesehen wurde,<br />

hat sich viel entwickelt. Nicht nur die Techniken <strong>der</strong> fotorealistischen Darstellung<br />

s<strong>in</strong>d heute ausgefeilter, auch die Bedeutung und die Anfor<strong>der</strong>ungen haben sich<br />

verän<strong>der</strong>t.<br />

Die freie Umsetzbarkeit <strong>von</strong> narrativen Ideen setzt e<strong>in</strong> ähnliches künstlerisches<br />

Potential frei wie es nur <strong>von</strong> Malerei und Literatur bekannt war. CGI befreien den<br />

Film vom Paradigma des Materiellen und erweitern den Darstellungsraum auf<br />

das Imag<strong>in</strong>äre – das Vorstellbare. Damit ziehen längst vergessene Fabelwesen,<br />

mystische Begebenheiten und zauberhafte Fiktionen wie<strong>der</strong> <strong>in</strong> die darstellenden<br />

Künste e<strong>in</strong>. Mit CGI werden tagtäglich reale Filmsets erweitert, Phantasieland-<br />

schaften erschaffen, und gefährliche Stunts <strong>von</strong> virtuellen Doubles ausgeführt.<br />

„Das Medium, se<strong>in</strong>er Maske beraubt, bezieht jetzt offen se<strong>in</strong>e Position als<br />

Transportmittel für Illusionen und agiert als kontemporäre Manifestation e<strong>in</strong>er<br />

Sehnsucht, die im vorigen Jahrhun<strong>der</strong>t romantische Motive des Doppelgängers,<br />

des ewig Reisenden und <strong>der</strong> Masch<strong>in</strong>enpuppe hervorbrachte. Diesen literari-<br />

schen Phantasien ist <strong>in</strong> dieser abbildungs<strong>in</strong>tensiven Epoche e<strong>in</strong> adäquates Mittel<br />

zur Visualisierung gegeben.“ führt 1993 SCHMIDT [49] aus.<br />

Drehbuchschreiber und Regisseure wissen heute um die Möglichkeiten, und<br />

genießen diese neue Freiheit. Dabei verlassen sie sich <strong>in</strong>zwischen darauf, daß<br />

sich CGI Elemente nahtlos <strong>in</strong> real gedrehte Aufnahmen e<strong>in</strong>fügen. Selbst <strong>in</strong><br />

wöchentlich produzierten Fernsehserien werden da ke<strong>in</strong>e Abstriche gemacht.<br />

Beste Qualität muß daher <strong>in</strong> möglichst kurzer Zeit produziert werden. Das<br />

betrifft e<strong>in</strong>erseits die Berechnung <strong>der</strong> Bil<strong>der</strong>, also Masch<strong>in</strong>enzeit. An<strong>der</strong>erseits


muß auch die eigentliche Erstellung <strong>der</strong> Szenen durch den CG-Artist <strong>in</strong> eng<br />

kalkulierten Zeitrahmen möglich se<strong>in</strong>. Masch<strong>in</strong>enzeit ist dabei deutlich billiger<br />

und leichter erweiterbar als die Zeit des CG-Artist. Diese beiden Faktoren<br />

müssen durch mo<strong>der</strong>ne Ren<strong>der</strong>methoden <strong>in</strong> e<strong>in</strong>e sorgfältig ausgewogene<br />

Balance gebracht werden.<br />

Dabei existiert e<strong>in</strong> pr<strong>in</strong>zipieller Unterschied zwischen photorealistischen und<br />

80<br />

physikalisch basierten Ren<strong>der</strong><strong>in</strong>g Methoden.<br />

6.1.1. Klassisches Fotorealistisches Ren<strong>der</strong><strong>in</strong>g<br />

Bei fotorealistischem Ren<strong>der</strong>n ist es völlig egal, wie das Bild zustande kommt.<br />

Hauptsache ist, das Ergebnis sieht gut aus [13]. Typische Berechnungsmetho-<br />

den aus dieser Kategorie s<strong>in</strong>d Scanl<strong>in</strong>e-Ren<strong>der</strong><strong>in</strong>g ( <strong>in</strong> Maya und 3dMAX),<br />

Raytrac<strong>in</strong>g (<strong>in</strong> Softimage und Lightwave). Sie alle basieren auf vere<strong>in</strong>fachten<br />

Shad<strong>in</strong>g-Modellen wie Phong und Bl<strong>in</strong>n [2].<br />

Grundsätzlich funktionieren sie alle nach demselben Schema: Lichtquellen<br />

werden <strong>von</strong> <strong>der</strong> Geometrie separat def<strong>in</strong>iert, und besitzen zum Teil physikalisch<br />

unmögliche Eigenschaften. So s<strong>in</strong>d Punktlichter beispielsweise e<strong>in</strong>dimensional,<br />

also abstrahiert auf e<strong>in</strong>en unendlich kle<strong>in</strong>en Punkt ohne räumliche Ausdehnung.<br />

Auch die Lichtausbreitung ist oft mit e<strong>in</strong>em l<strong>in</strong>earen Intensitätsabfall charakte-<br />

risiert, im Gegensatz zum physikalisch korrekten quadratischen Abfall (1/r 2 :<br />

Inverse Square Law). E<strong>in</strong>e an<strong>der</strong>e beliebte Lichtquellendef<strong>in</strong>ition ist das parallele<br />

Licht, was aus unendlicher Entfernung mit konstanter Helligkeit <strong>in</strong> die Szene<br />

strahlt. O<strong>der</strong> e<strong>in</strong> ambientes Licht das <strong>von</strong> nirgendwo kommt, und alle Oberflä-<br />

chen gleichermaßen aufhellt. Damit soll diffuse Lichtverteilung <strong>in</strong>nerhalb <strong>der</strong><br />

Szene nachgestellt werden.<br />

Alle diese Abstraktionen dienen dazu, die Berechnungen zu vere<strong>in</strong>fachen und<br />

die benötigte Masch<strong>in</strong>enzeit zu verkürzen.<br />

Im Gegenzug muß e<strong>in</strong>e gewaltige Menge an Zeit und Geschick <strong>von</strong> dem CG-<br />

Artist <strong>in</strong>vestiert werden, um e<strong>in</strong>e Szene fotorealistisch auszuleuchten. Beleuch-<br />

tungseffekte wie weiche Schatten, dunkle verw<strong>in</strong>kelte Ecken, zurückgeworfenes<br />

Licht <strong>von</strong> hellen Flächen, all die subtilen Nuancen die e<strong>in</strong>e reale Beleuchtung<br />

ausmachen müssen mit diesen abstrahierten Lichtern nachgestellt werden.


Alle 3D-Pakete, die <strong>in</strong> <strong>der</strong> <strong>Postproduktion</strong> verwendet werden, basieren ursprüng-<br />

lich auf diesem Pr<strong>in</strong>zip. Die grafischen Benutzeroberflächen s<strong>in</strong>d stets um die<br />

entsprechende Ren<strong>der</strong>eng<strong>in</strong>e (den Berechnungsalgorithmus) herumgebaut. Sie<br />

alle bieten dem Artist Unmengen <strong>von</strong> Knöpfen, E<strong>in</strong>stellungen und algorithmi-<br />

schen Kniffen an, um die richtigen E<strong>in</strong>stellungen für diese abstrahierten Ren-<br />

<strong>der</strong>eng<strong>in</strong>es zu treffen. Damit ist fotorealistisches Ren<strong>der</strong><strong>in</strong>g <strong>in</strong> jedem dieser<br />

Programme möglich, vorausgesetzt man kennt se<strong>in</strong>e Ren<strong>der</strong>eng<strong>in</strong>e, und weiß<br />

genau wie man ihre abstraktionsbed<strong>in</strong>gten Schwächen umgeht.<br />

81<br />

6.1.2. Physikalisch Basiertes Ren<strong>der</strong><strong>in</strong>g<br />

Auf <strong>der</strong> an<strong>der</strong>en Seite gibt es die Möglichkeit, die Lichtverteilung <strong>in</strong> e<strong>in</strong>em<br />

Raum nach allen physikalischen Gesetzmäßigkeiten zu simulieren. Beim Pho-<br />

ton-Trac<strong>in</strong>g [50],wird beispielsweise <strong>der</strong> Weg e<strong>in</strong>zelner Photonen verfolgt, wie<br />

sie zwischen den Objekten immer wie<strong>der</strong> h<strong>in</strong>- und hergeworfen werden. Bei<br />

je<strong>der</strong> Kollision wird e<strong>in</strong> Teil ihrer Energie abgezogen und <strong>der</strong> Helligkeit des<br />

Kollisionsobjektes h<strong>in</strong>zugefügt. Das geschieht entwe<strong>der</strong> bis sie ihre Energie<br />

verbraucht haben, o<strong>der</strong> die Berechnung wird nach e<strong>in</strong>er vordef<strong>in</strong>ierten Anzahl<br />

<strong>von</strong> Kollisionen abgebrochen.<br />

An<strong>der</strong>e Verfahren funktionieren ähnlich, und s<strong>in</strong>d unter den Oberbegriffen Radio-<br />

sity o<strong>der</strong> Global Illum<strong>in</strong>ation [51] zusammengefaßt. Der bekannteste dieser<br />

Vertreter ist die Monte Carlo Methode [52]. Hier werden <strong>in</strong> e<strong>in</strong>er Vorberechnung<br />

erstmal alle Flächen <strong>in</strong> kle<strong>in</strong>e Stücke zerlegt, <strong>der</strong>en Größe je nach Oberflä-<br />

chenbiegung und Verw<strong>in</strong>kelung variiert. Dann wird für jedes dieser Stückchen<br />

die empfangene, absorbierte und weitergestrahlte Lichtmenge ermittelt. Dieser<br />

Schritt wird wie<strong>der</strong>holt, wobei die weitergestrahlte Lichtmenge des vorigen<br />

Durchgangs mit berücksichtigt wird. Durch mehrere rekursive Durchgänge dieser<br />

Art nähert sich diese Berechnung e<strong>in</strong>er Lösung.<br />

E<strong>in</strong> wichtiges Grundpr<strong>in</strong>zip ist allen diesen Simulationen geme<strong>in</strong>: Die strikte<br />

Trennung <strong>in</strong> Objekte und Lichtquellen ist aufgehoben. Wird e<strong>in</strong> Objekt hell genug<br />

angestrahlt, wirkt es auf den Rest <strong>der</strong> Szene selbst wie e<strong>in</strong>e Lichtquelle. E<strong>in</strong> roter<br />

Teppichboden strahlt beispielsweise rotes Licht <strong>in</strong> den Raum zurück und färbt<br />

damit an<strong>der</strong>e Objekte e<strong>in</strong>.<br />

Solche Simulationen waren vor 10 Jahren noch Spezialprogrammen für Spek-<br />

tralanalyse, Lichtdesign und Architekturplanung [13] vorenthalten. Für die Post-<br />

produktion waren diese Berechnungen viel zu aufwendig, und die entsprechende


Software viel zu spezialisiert. Programme wie Lightscape und Radiance waren<br />

zwar schon <strong>in</strong> <strong>der</strong> Lage, auf diese Weise Bil<strong>der</strong> zu berechnen, brauchten jedoch<br />

Stunden bis Tage dafür und waren nur über Kommandozeilen und Scriptspra-<br />

chen zu bedienen.<br />

Mittlerweile jedoch bieten auch die klassischen 3D-Programme für die Postpro-<br />

duktion e<strong>in</strong>en solchen Simulationsmodus. Um die komplexen Berechnungen<br />

auch für e<strong>in</strong>e Produktion nutzbar zu machen, wurden die verschiedensten Ver-<br />

e<strong>in</strong>fachungsmechanismen e<strong>in</strong>gebaut. In manchen Fällen ist die Simulation auf<br />

die darunterliegende, klassische Ren<strong>der</strong>eng<strong>in</strong>e aufgesetzt – etwa bei Lightwave<br />

o<strong>der</strong> C<strong>in</strong>ema 4D. Damit ersche<strong>in</strong>t diese Funktionalität voll<strong>in</strong>tegriert zu se<strong>in</strong>, und<br />

ist über dieselben Parameter zu steuern wie die klassische Eng<strong>in</strong>e.<br />

Bei den <strong>von</strong> Haus aus modular aufgebauten Programmen 3d Studio MAX,<br />

Maya, und Softimage dagegen kann die komplette Ren<strong>der</strong>eng<strong>in</strong>e ausgetauscht<br />

werden. Dabei bekommt <strong>der</strong> Benutzer dann völlig neue E<strong>in</strong>stellungen angebo-<br />

ten, die Bedienfel<strong>der</strong> für die klassische Eng<strong>in</strong>e verschw<strong>in</strong>den. So kommt es<br />

beispielsweise, daß die Mental Ray Ren<strong>der</strong>eng<strong>in</strong>e unter 3dMAX, Softimage, und<br />

82<br />

Maya gleichermaßen betrieben werden kann.<br />

6.1.3. Über den Umgang mit <strong>der</strong> Simulation<br />

Vielen Benutzern ist dieser neue Simulationsmodus als neues, zusätzliches<br />

Feature vorgekommen. Durch die Gründlichkeit <strong>der</strong> Implementierung wird dabei<br />

jedoch oftmals die völlig neue Herangehensweise an die Bildberechnung überse-<br />

hen. Dies erfor<strong>der</strong>t auch e<strong>in</strong> Umdenken für den Anwen<strong>der</strong>.<br />

Viele Parameter, <strong>von</strong> denen man gewohnt ist, sie zur Beschreibung <strong>der</strong> Szene zu<br />

benötigen, s<strong>in</strong>d nun vollkommen überflüssig. So ist beispielsweise die Vergabe<br />

e<strong>in</strong>es Specular Wertes die gängige Methode, um glänzende Materialeigenschaf-<br />

ten zu def<strong>in</strong>ieren. In e<strong>in</strong>er Radiosity-Simulation hat dieser Wert jedoch ke<strong>in</strong>e<br />

Bedeutung mehr.<br />

Ursprünglich diente er dazu Glanzpunkte def<strong>in</strong>iert e<strong>in</strong>zustellen. E<strong>in</strong> Glanzpunkt<br />

wird verursacht durch die Reflexion e<strong>in</strong>er Lichtquelle. Das geschieht unter <strong>der</strong><br />

Annahme diese Lichtquelle ist <strong>der</strong> hellste Punkte im Raum. Klassisches Raytra-<br />

c<strong>in</strong>g kann jedoch ke<strong>in</strong>e Strahlen zu e<strong>in</strong>em 1-dimensionalen Punkt verfolgen,<br />

kann also die Reflexion <strong>der</strong> Punktlichtquelle auch nicht als solche berechnen.<br />

Deshalb muß <strong>der</strong> Specular-Wert diese Reflexion simulieren.


In e<strong>in</strong>er Radiosity-Simulation dagegen s<strong>in</strong>d Helligkeiten im ganzen Raum verteilt,<br />

Lichtquellen und Körper s<strong>in</strong>d nicht mehr getrennte Entitäten. Um also glänzende<br />

Materialeigenschaften darzustellen, ist hier <strong>der</strong> Reflexionswert viel besser geeig-<br />

net, denn Reflexion ist ja das eigentliche physikalische Phänomen, das den<br />

optischen E<strong>in</strong>druck „Glanz“ bestimmt.<br />

6.1.4. Image Based Light<strong>in</strong>g<br />

In e<strong>in</strong>er Radiosity Simulation werden also klassische Lichtquellen durch das<br />

physikalisch korrektere Modell <strong>der</strong> leuchtenden Körper ersetzt. Das bedeutet<br />

unter an<strong>der</strong>em auch, daß auch Bil<strong>der</strong>n direkte Leuchtkraft zugesprochen wird.<br />

Mehr noch – durch Texturen lassen sich regelrechte Leuchtstrukturen auf Ober-<br />

flächen formen, wobei Intensität und Farbe <strong>in</strong> denselben Maßstäben wie <strong>in</strong> <strong>der</strong><br />

echten Welt def<strong>in</strong>iert werden können.<br />

Hier kommen HDR Bil<strong>der</strong> <strong>in</strong>s Spiel. Nur <strong>HDRI</strong>s s<strong>in</strong>d <strong>in</strong> <strong>der</strong> Lage die Intensitäts-<br />

verhältnisse <strong>der</strong> echten Welt zu transportieren. Wickelt man sozusagen die<br />

Szene <strong>in</strong> e<strong>in</strong> <strong>HDRI</strong> Environment e<strong>in</strong>, kann man tatsächlich virtuelle Objekte mit<br />

echtem Licht beleuchten [23].<br />

Bisher war es mit erheblichem Zeitaufwand und künstlerischem Geschick ver-<br />

bunden, die Lichtsituation realer Aufnahmen nachzustellen. Mit <strong>der</strong> Aufnahme<br />

e<strong>in</strong>es HDR-Environments ist dies e<strong>in</strong> re<strong>in</strong> fotografischer Prozeß, und damit<br />

schnell, unkompliziert und <strong>von</strong> je<strong>der</strong>mann nachvollziehbar [2].<br />

In den folgenden Fallbeispielen soll sich diese Technik im Praxistest beweisen.<br />

Auch hier werden wie<strong>der</strong> verschiedene Methoden beschrieben, diskutiert und<br />

mit <strong>Anwendung</strong>sfällen verknüpft. Die Beispiele greifen dabei die häufigste<br />

<strong>Anwendung</strong> <strong>von</strong> 3D <strong>in</strong> <strong>der</strong> <strong>Postproduktion</strong> auf: die Ergänzung real aufge<br />

83<br />

nommener H<strong>in</strong>tergründe mit virtuellen Objekten.


6.2. Fallstudie A: Re<strong>in</strong>e Simulation, In-Camera<br />

Die erste Studie soll untersuchen, ob dieses 1998 <strong>von</strong> DEBEVEC [23] erstmals<br />

<strong>in</strong> Radiance demonstrierte Grundpr<strong>in</strong>zip <strong>in</strong>zwischen produktionstauglich ist, also<br />

<strong>in</strong> handelsüblichen 3D Programmen reibungslos funktioniert. Dazu wurde e<strong>in</strong>e<br />

Referenz-Szene <strong>in</strong> Lightwave3D aufgebaut, die dann <strong>in</strong> verschiedene Software<br />

Pakete konvertiert wurde. Es wurden ke<strong>in</strong>e Lichtquellen verwendet, die Beleuch-<br />

tung sollte ausschließlich aus dem <strong>HDRI</strong> Environment kommen.<br />

Bild 76 zeigt das Referenzbild, die virtuellen Objekte wurden zur Verdeutlichung<br />

<strong>in</strong> Bild 77 markiert.<br />

Bild 76: Referenzbild<br />

Bild 77: virtuelle Objekte<br />

84


6.2.1. Aufbau und Vorbereitung<br />

Als H<strong>in</strong>tergrund dient das Bild 78, aufge-<br />

nommen im Apartment des Autors.<br />

Danach wurde <strong>in</strong> <strong>der</strong> Mitte des Tisches<br />

e<strong>in</strong>e Spiegelkugel plaziert, und mittels<br />

<strong>der</strong> Spiegelmethode e<strong>in</strong> HDR Environment<br />

hergestellt. Dieser Schritt ist <strong>in</strong> Kapitel<br />

5.3.1. ausführlich beschrieben.<br />

Bild 79: passendes HDR-Environment<br />

Nun wurde e<strong>in</strong>e Szenenergänzung aus e<strong>in</strong>facher Geometrie im Lightwave Mode-<br />

ler erstellt. Der Koord<strong>in</strong>atenursprung wurde so gewählt, daß dieser mit <strong>der</strong><br />

Plazierung <strong>der</strong> echten Spiegelkugel übere<strong>in</strong>stimmt. Dies soll als Fixpunkt gelten,<br />

denn <strong>in</strong> diesem Punkt stimmt die virtuelle Beleuchtung auch tatsächlich mit <strong>der</strong><br />

realen Beleuchtung übere<strong>in</strong>. Bild 80 zeigt diesen Aufbau <strong>von</strong> <strong>der</strong> Seite:<br />

Bild 80: Drahtgitter Perspektive<br />

85<br />

Bild 78: H<strong>in</strong>tergrund


Die virtuelle 3D-Kamera wird dabei so e<strong>in</strong>gerichtet, daß sie mit <strong>der</strong> realen<br />

Kamera korrespondiert. Im Handbuch <strong>der</strong> realen Kamera f<strong>in</strong>det man die<br />

Baugröße <strong>der</strong> CCD. Diese Angabe ist<br />

wichtig, denn sie legt das Abbildungs-<br />

verhältnis (Aperture Height) <strong>der</strong> L<strong>in</strong>se<br />

fest. Hat man die richtige Kameraart<br />

angegeben, verwendet Lightwave<br />

auch dieselben Brennweiten. Dann<br />

kann die Brennweite aus den EXIF-<br />

Daten des H<strong>in</strong>tergrundbildes ausgele-<br />

sen und übertragen (siehe Bild 81)<br />

werden.<br />

Damit ist automatisch auch <strong>der</strong> Sicht-<br />

w<strong>in</strong>kel des Objektivs (Field Of View)<br />

angeglichen, die virtuelle L<strong>in</strong>se weist<br />

also dieselbe perspektivische Verzer-<br />

rung auf wie die reale. Nun wird<br />

die Kamera solange verschoben und<br />

rotiert, bis die virtuelle Tischplatte mit<br />

<strong>der</strong> realen deckungsgleich ist. Das<br />

e<strong>in</strong>geblendete Raster bietet dazu die<br />

passende Referenz, um den richtigen<br />

Blickw<strong>in</strong>kel zu f<strong>in</strong>den (siehe Bild 82).<br />

E<strong>in</strong>e weitere Zielstellung war, das Bild <strong>in</strong> e<strong>in</strong>em Durchgang zu ren<strong>der</strong>n. Daher<br />

ist die richtige Texturierung <strong>der</strong> Tischplatte wichtig. Der Trick besteht dar<strong>in</strong>, das<br />

H<strong>in</strong>tergrundbild direkt aus <strong>der</strong> Kameraperspektive auf den Tisch zu projizieren.<br />

Damit ergibt sich im Idealfall e<strong>in</strong> nahtloser Übergang, denn das eigentliche<br />

H<strong>in</strong>tergrundbild paßt sich ja genau <strong>in</strong> die Kamerasicht e<strong>in</strong> – wird sozusagen<br />

auch aus <strong>der</strong> Kamerasicht projiziert.<br />

Die 3D-Objekte für diesen Test wurden mit Sorgfalt zusammengestellt (verglei-<br />

che Bild 83). Zuerst e<strong>in</strong>mal ist rechts die große Spiegelkugel zu sehen. Sie<br />

ermöglicht e<strong>in</strong>e erste Kontrolle des HDR Environments, h<strong>in</strong>sichtlich Ausrichtung,<br />

Helligkeit und korrekter Projektionsart. Die beiden Kugeln l<strong>in</strong>ks s<strong>in</strong>d Materialtests<br />

für e<strong>in</strong>en glatten und e<strong>in</strong>en stumpfen glänzenden Körper. An den Gläsern soll<br />

untersucht werden, ob die Simulation auch mit Transparenzen und Brechung<br />

86<br />

Bild 81: Übertragen <strong>der</strong> Kameradaten<br />

Bild 82: Kameraansicht


zurechtkommt. Da dies <strong>in</strong> allen Ren<strong>der</strong>eng<strong>in</strong>es durch klassisches Raytrac<strong>in</strong>g<br />

berechnet wird, steht hier das nahtlose Zusammenspiel <strong>von</strong> klassischer Rende-<br />

reng<strong>in</strong>e und Radiosity auf dem Prüfstand. Die schwierigste Herausfor<strong>der</strong>ung<br />

aber stellte die Tasse dar, da e<strong>in</strong>e echte Tasse als Referenzobjekt direkt daneben<br />

steht. Jede noch so kle<strong>in</strong>e Abweichung <strong>in</strong> Form, Farbe, Glanz und Schattenwurf<br />

ist erkennbar. Selbst wenn die virtuelle Tasse für sich alle<strong>in</strong> betrachtet schon<br />

fotorealistisch wirkt, so muß hier e<strong>in</strong>er direkten Konfrontation mit <strong>der</strong> realen<br />

Tasse standhalten.<br />

Bild 83: Nahaufnahme<br />

6.2.2. <strong>HDRI</strong> Challenge<br />

Um die beschriebene Szene <strong>in</strong> den verschiedenen 3D-Programmen zu testen,<br />

wurde e<strong>in</strong> Internet Projekt <strong>in</strong>s Leben gerufen: die <strong>HDRI</strong> Challenge. Christian<br />

Bauer stellte dafür se<strong>in</strong>e Wissensplattform www.CGtechniques.<strong>com</strong> zur Verfügung.<br />

Mit se<strong>in</strong>er freundlichen Unterstützung wurde e<strong>in</strong> eigenes Diskussionsforum<br />

unter dem Titel „<strong>HDRI</strong> Challenge“ e<strong>in</strong>gerichtet, erreichbar unter<br />

http://hdri.cgtechniques.<strong>com</strong>/~blochi/.<br />

Die Szene wurde <strong>in</strong> die geläufigsten Formate (DXF, 3DS, XSI, VRML,<br />

LWO+LWS) konvertiert und zum Download angeboten. Auch H<strong>in</strong>tergrundbild und<br />

HDR Environment wurden <strong>in</strong> verschiedenen Auflösungen als Radiance .HDR<br />

Dateien onl<strong>in</strong>e bereitgestellt.<br />

87


Gestartet wurde die Aktion am 16. Juni 2003, und wurde durch Ankündigung<br />

<strong>in</strong> e<strong>in</strong>schlägigen Fachforen publik gemacht. Schon <strong>in</strong>nerhalb des ersten Monats<br />

wurde die Szene über 1000 mal heruntergeladen, und das Diskussionsforum<br />

konnte 190 registrierte Mitglie<strong>der</strong> aufweisen. Sehr zielorientierte Fachdiskussio-<br />

nen über <strong>HDRI</strong> Beleuchtung werden seitdem dort geführt, erstmalig auch unter<br />

Benutzern verschiedener 3d-Software.<br />

Die ersten vergleichbaren Ergebnisse s<strong>in</strong>d <strong>in</strong> Bild 84 zusammengetragen.<br />

Bild 84: Ausgewählte Beiträge aus <strong>der</strong> <strong>HDRI</strong> Challenge nach e<strong>in</strong>em Monat Laufzeit<br />

88


Diese Bil<strong>der</strong> zeigen, daß die <strong>HDRI</strong> Technologie <strong>in</strong> allen marktführenden 3D-Pro-<br />

grammen (3dMAX, SoftimageXSI, Lightwave, Maya und C<strong>in</strong>ema4D) funktioniert.<br />

E<strong>in</strong> direkter Vergleich <strong>der</strong> Ren<strong>der</strong>zeiten hat sich als unpraktikabel erwiesen,<br />

da die Bil<strong>der</strong> auf verschiedener Hardware, <strong>in</strong> verschiedener Auflösung, und <strong>in</strong><br />

unterschiedlichen Qualitätsstufen geren<strong>der</strong>t wurden. Noch zu untersuchen ist die<br />

Unterstützung <strong>in</strong><br />

• F<strong>in</strong>alren<strong>der</strong> (3dMAX Ren<strong>der</strong>er)<br />

• Ren<strong>der</strong>man 11<br />

• POV Ray 3.5<br />

• Virtualight<br />

Die <strong>HDRI</strong> Challenge hat ke<strong>in</strong> vorbestimmtes Ablaufdatum, die Downloads und<br />

die Beteiligung an <strong>der</strong> Diskussion steht auch <strong>in</strong> Zukunft jedem frei. Es ist die<br />

Hoffnung <strong>der</strong> Initiatoren, daß sich daraus e<strong>in</strong>e umfassende Bibliothek mit frei<br />

zugänglichen Arbeitsmethoden und Anwen<strong>der</strong>-Tipps entwickelt.<br />

6.2.3. Das Tischproblem<br />

Im Verlauf des Tests tauchte mit dem Tisch <strong>in</strong> allen Programmen e<strong>in</strong> Problem<br />

auf. Die Projektion auf dem Tisch war stets deutlich heller als <strong>der</strong> H<strong>in</strong>tergrund,<br />

und e<strong>in</strong>e sichtbare Kante markierte den Übergang. Was sich hier als konkreter<br />

Problemfall darstellt, steht beispielhaft für sämtliche Geometrie, die mit Orig<strong>in</strong>al-<br />

89<br />

fotos texturiert wird und Schatten empfangen soll.<br />

Der Grund ist, daß <strong>der</strong> Tisch als 3d-Objekt die Beleuchtung <strong>von</strong> dem <strong>HDRI</strong><br />

Environment erfährt, zusätzlich die Beleuchtung aber schon <strong>in</strong> <strong>der</strong> projizierten<br />

Textur enthalten ist. Damit wird <strong>der</strong> geren<strong>der</strong>te Tisch effektiv doppelt beleuchtet.<br />

Es gilt also nun, e<strong>in</strong>en dieser Beleuchtungse<strong>in</strong>flüsse zu elim<strong>in</strong>ieren.<br />

Die erste Lösung wäre, e<strong>in</strong> Material zu entwerfen, das nur Schatten empfängt,<br />

nicht aber zusätzlich <strong>von</strong> dem <strong>HDRI</strong> Environment aufgehellt wird. Damit elimi-<br />

niert man die Aufhellung durch die Szenenbeleuchtung. Zwar kann beispiels-<br />

weise <strong>in</strong> 3dMAX o<strong>der</strong> Lightwave e<strong>in</strong> Objekt explizit als „Shadowcatcher only“<br />

def<strong>in</strong>iert werden, doch diese Option bezieht sich nur auf traditionell berechnete<br />

Schatten.<br />

E<strong>in</strong>e zweite Lösungsmöglichkeit entspricht <strong>der</strong> im Orig<strong>in</strong>al <strong>von</strong> Debevec [23]<br />

ausgearbeiteten Methode. Diese sieht die Aufteilung <strong>der</strong> Szene <strong>in</strong> 2 Teillösungen<br />

vor. Erst wird <strong>der</strong> Tisch alle<strong>in</strong>, dann e<strong>in</strong> zweites Mal mit den schattenwerfenden<br />

Objekten berechnet. Zieht man nun das erste <strong>von</strong> dem zweiten Bild ab, bleibt nur


<strong>der</strong> re<strong>in</strong>e Schatten übrig. Dann legt man <strong>in</strong> e<strong>in</strong>em Composit<strong>in</strong>g-Vorgang diesen<br />

Schatten auf das H<strong>in</strong>tergrundbild, und darüber wie<strong>der</strong>um die Vor<strong>der</strong>grund-<br />

Objekte (per Alpha-Kanal ausmaskiert).<br />

Der Nachteil ist, daß man zwei Ren<strong>der</strong>vorgänge hat. Handelt es sich um e<strong>in</strong>e<br />

bewegte Kamera, so muß die gesamte Sequenz doppelt <strong>in</strong> voller Qualität<br />

berechnet werden. Das ist e<strong>in</strong> hoher Preis für die Lösung dieses E<strong>in</strong>zelproblems,<br />

und kann zu e<strong>in</strong>em Flaschenhals <strong>in</strong> <strong>der</strong> Produktion werden.<br />

Die weitere Lösung könnte se<strong>in</strong>, die <strong>in</strong> <strong>der</strong> Textur enthaltene Beleuchtung zu<br />

elim<strong>in</strong>ieren. Es gilt <strong>in</strong> zukünftigen Arbeiten zu prüfen, ob auf <strong>der</strong> Grundlage <strong>von</strong><br />

DEBEVECS [23] Methode durch e<strong>in</strong>e e<strong>in</strong>malige Vorberechnung e<strong>in</strong>e Differenztextur<br />

für den Tisch erzeugt werden kann. Damit könnte die Notwendigkeit für e<strong>in</strong>en<br />

zweiten Ren<strong>der</strong>vorgang wegfallen.<br />

6.3. Fallstudie B: Extrahieren <strong>der</strong> Licht<strong>in</strong>formation<br />

So physikalisch korrekt die direkte Lichtsimulation mit e<strong>in</strong>em <strong>HDRI</strong> auch ist, sie<br />

hat auch e<strong>in</strong>ige gravierende Nachteile:<br />

90<br />

• Die Beleuchtung steht fest, die künstlerischen E<strong>in</strong>griffsmöglichkeiten s<strong>in</strong>d<br />

auf globale Verän<strong>der</strong>ungen begrenzt.<br />

• Die Rechenzeit ist bedeutend höher als mit klassischem Raytrac<strong>in</strong>g.<br />

• Das Tischproblem ist<br />

nur sehr umständlich zu<br />

lösen.<br />

Um diese Probleme zu umge-<br />

hen, hat Cohen [3][53] das<br />

Programm LightGen entwik-<br />

kelt. Es b<strong>in</strong>det sich als Plug<strong>in</strong><br />

<strong>in</strong> HDR-Shop e<strong>in</strong> und ermög-<br />

licht das Extrahieren <strong>von</strong> Licht-<br />

quellen aus e<strong>in</strong>em <strong>HDRI</strong> (siehe<br />

Bild 85).<br />

Als Grundlage dient e<strong>in</strong> HDR<br />

Bild 85: LightGen<br />

Environment im Spherical Format, vorzugsweise kle<strong>in</strong>skaliert auf 128*64 Pixel.<br />

Lightgen untersucht dar<strong>in</strong> die Intensität und Farbe <strong>der</strong> Pixelwerte, und ermittelt<br />

aus den Pixelkoord<strong>in</strong>aten den Lichtw<strong>in</strong>kel. und erstellt daraus e<strong>in</strong>e vordef<strong>in</strong>ierte<br />

Anzahl <strong>von</strong> Lichtquellen. Die können dann exportiert werden als Lichtsetup für


Arnold, Houd<strong>in</strong>i, Radiance, und Maya (über MEL-Script). Alternativ kann man die<br />

Ausgabe auch <strong>in</strong> e<strong>in</strong>e Textdatei umleiten lassen. Für fast alle 3d-Programme gibt<br />

es kostenlose Scripte, die diese Textdatei <strong>in</strong>terpretieren können.<br />

So baut beispielsweise das LScript „Lightgen2LW“ <strong>von</strong> CACHELIN [53] aus dieser<br />

Textdatei die Szene <strong>in</strong> Bild 86 auf.<br />

Bild 86: Von LightGen generierte und Lightgen2LW importierte Lichter.<br />

Bild 86 zeigt auch sehr deutlich, wie sich <strong>in</strong> <strong>der</strong> Mitte durch die Überschneidung<br />

<strong>der</strong> Lichtkegel e<strong>in</strong>e Art Lichtfeld herausbildet. Das Ergebnis ist natürlich stark<br />

abhängig <strong>von</strong> <strong>der</strong> Anzahl <strong>der</strong> Lichtquellen. Man spricht <strong>in</strong> diesem Zusammen-<br />

hang auch <strong>von</strong> <strong>der</strong> Sampl<strong>in</strong>g-Frequenz des Environments.<br />

Bild 87 zeigt, daß bei 100<br />

Lichtern die E<strong>in</strong>zelschatten<br />

<strong>der</strong> Lichter besser mite<strong>in</strong>an-<br />

<strong>der</strong> verschmelzen, als bei<br />

20 Lichtern. Je mehr Lichter<br />

man erzeugt, umso näher<br />

kommt man an die diffuse<br />

Beleuchtung des Orig<strong>in</strong>als<br />

heran. Das „Tischproblem“<br />

tritt mit dieser Methode zwar auch auf, läßt sich aber ohne e<strong>in</strong> zweites Ren<strong>der</strong><strong>in</strong>g<br />

beheben. Weil es sich hier um klassisch berechnete Schatten handelt, bietet<br />

jede geläufige Software zahlreiche Mechanismen zur isolierten Schattenbearbei-<br />

tung an. So kann man beispielsweise beim Ren<strong>der</strong>n e<strong>in</strong>en extra Shadow-Pass<br />

mitspeichern lassen, o<strong>der</strong> den Tisch explizit als „Shadowcatcher“ def<strong>in</strong>ieren.<br />

91<br />

Bild 87: Vergleich 20 / 100 Lichter


E<strong>in</strong>e an<strong>der</strong>e Methode ist <strong>in</strong> Bild 88 beschrieben. Hier wird durch die Materiale<strong>in</strong>-<br />

stellung des Tisches die Schattendichte <strong>in</strong> den Aplha-Kanal umgeleitet. Mit<br />

diesem Alpha kann man dann alle geren<strong>der</strong>ten Bildteile maskieren, <strong>in</strong>clusive<br />

halbtransparenter Schatten. Dann legt man diesen maskierten Vor<strong>der</strong>gund<br />

wie<strong>der</strong> auf das org<strong>in</strong>ale H<strong>in</strong>tergrundbild. So erhält man e<strong>in</strong> sauberes Ergebnis,<br />

ohne visuellen Bruch <strong>von</strong> Tischplatte zum H<strong>in</strong>tergrundbild.<br />

Bild 88: Composit<strong>in</strong>g zur sauberen Integration mit dem H<strong>in</strong>tergrundbild mit nur e<strong>in</strong>em Ren<strong>der</strong>vorgang<br />

Der Erfolg dieser Technik ist stark abhängig <strong>von</strong> dem eigentlichen Extrak-<br />

tionsalgorithmus. So entwickelten KELLER und KOLLIG [54] e<strong>in</strong>e Methode, die<br />

an den hellsten Stellen mehr Lichtquellen erzeugt als an dunkleren. Damit<br />

werden mehr E<strong>in</strong>zelschatten generiert, die Überblendung liefert e<strong>in</strong>en weicheren<br />

Gesamtschatten. Implementiert wurde dieser Algorithmus <strong>in</strong> dem Programm<br />

„MakeLight“, das als exklusiver Bestandteil <strong>der</strong> SpheroCamHDR Software [40]<br />

vertrieben wird.<br />

92


93<br />

6.4. <strong>HDRI</strong> Projektion durch Spotlights<br />

Abschließend wird e<strong>in</strong>e vom Autor entwickelte Methode vorgestellt, mit <strong>der</strong> die<br />

Übertragung echter Lichtcharakteristika auf konventionelle Spotlichter möglich<br />

ist. Damit wird <strong>der</strong> Realitätsgrad bei konventionellen Ren<strong>der</strong>verfahren mit m<strong>in</strong>i-<br />

malem Aufwand drastisch erhöht.<br />

6.4.1. Aufnahme des Lichtbildes<br />

Man benötigt e<strong>in</strong>e lichtdurchlässige Le<strong>in</strong>wand, beispielsweise e<strong>in</strong> aufgespanntes<br />

Bettlaken o<strong>der</strong> weißes Tuch. Dah<strong>in</strong>ter wird e<strong>in</strong>e Lampe aufgestellt, und lotrecht<br />

auf die Le<strong>in</strong>wand gerichtet. Der Abstand zur Le<strong>in</strong>wand richtet sich nach<br />

dem Öffnungsw<strong>in</strong>kel <strong>der</strong> LIchtquelle und <strong>der</strong> Größe <strong>der</strong> Le<strong>in</strong>wand selbst.<br />

5 bis 15 cm s<strong>in</strong>d aus Erfahrung gut geeignet, um den gesamten Lichtsche<strong>in</strong> auf<br />

<strong>der</strong> Le<strong>in</strong>wand abzubilden.<br />

Der Raum muß abgedunkelt se<strong>in</strong>, um den E<strong>in</strong>fluß an<strong>der</strong>er Lichtquellen zu<br />

elim<strong>in</strong>ieren. Auf <strong>der</strong> an<strong>der</strong>en Seite <strong>der</strong> Le<strong>in</strong>wand, genau <strong>der</strong> Lampe gegenüber,<br />

wird dann e<strong>in</strong>e Kamera plaziert. Es wird e<strong>in</strong>e Belichtungsserie wie <strong>in</strong> Bild 89<br />

aufgenommen.<br />

Bild 89: Belichtungsserie <strong>von</strong> 1/2000 sec bis 15 sec<br />

Wir gewohnt wird die Serie <strong>in</strong> PhotoSphere zu e<strong>in</strong>em <strong>HDRI</strong> komb<strong>in</strong>iert. In<br />

HDRShop wird es dann zentriert, quadratisch beschnitten und mit e<strong>in</strong>em Blur<br />

belegt um die Le<strong>in</strong>wandstruktur zu verwischen.<br />

6.4.2. Lichtprojektion <strong>in</strong> 3D<br />

Der Trick besteht nun dar<strong>in</strong>, das so entstandene Bild vor e<strong>in</strong> ganz normales<br />

Spotlicht zu klemmen, vergleichbar mit e<strong>in</strong>er Diaprojektion. In Lightwave gibt es<br />

dafür e<strong>in</strong>e extra Lichtoption namens „Projection Image“ (siehe Bild 90).


Bild 90: Screenshot mit Lichtsett<strong>in</strong>gs<br />

94<br />

Bild 91: Vasen unter verschiedenen Projection Lights


Die Intensitäten des <strong>HDRI</strong> wirken dann als Multiplikator für die Lichtstärke,<br />

die hellen Pixel <strong>in</strong> <strong>der</strong> Mitte hellen es auf und die am Rand verr<strong>in</strong>gern die<br />

Licht<strong>in</strong>tensität. Zusätzlich wird das Licht e<strong>in</strong>gefärbt, je nach Farbwert des durch-<br />

leuchteten Pixels. Stellt man nun den Öffnungsw<strong>in</strong>kel des Spotlichtes noch auf<br />

e<strong>in</strong>en großen Wert, hat <strong>der</strong> Spot e<strong>in</strong>e ähnliche Leuchtcharakteristik wie die echte<br />

Lampe.<br />

Bild 91A zeigt die Beleuchtung mit e<strong>in</strong>em e<strong>in</strong>zelnen Spotlight, so realistisch<br />

e<strong>in</strong>gerichtet wie es die Standarde<strong>in</strong>stellungen erlauben. Der Lichtabfall (Falloff)<br />

ist auf die physikalisch korrekten 1/r² e<strong>in</strong>gestellt, und das Licht hat e<strong>in</strong>e leichte<br />

volumetrische Komponente beigemischt (vergleiche Bild 90). Trotzdem ist auf<br />

dem Fußboden nur e<strong>in</strong> langweiliger diagonaler Farbverlauf zu sehen, das Bild<br />

<strong>in</strong>sgesamt sieht sehr künstlich aus. Die Ren<strong>der</strong>zeit mit „Enhanced High“ Antia-<br />

lias<strong>in</strong>g betrug 93 Sekunden.<br />

Bei allen an<strong>der</strong>en Bil<strong>der</strong>n handelt es sich um die identische Szene, nur mir<br />

verschiedenen Projektionsbil<strong>der</strong>n. So wirft <strong>in</strong> Bild 91B die Fahrradlampe e<strong>in</strong>e<br />

viel nuancenreichere Beleuchtung, die sogar dieser e<strong>in</strong>fachen Szene e<strong>in</strong>e reali-<br />

stische Stimmung verleiht. Bei genauerer Betrachtung erkennt man auch sehr<br />

gut, daß das Lichbild sich <strong>in</strong> <strong>der</strong> volumetrischen Komponente als diagonale Strei-<br />

fen wie<strong>der</strong>f<strong>in</strong>den. Dieses Bild wurde <strong>in</strong> 98 Sekunden geren<strong>der</strong>t, dauerte also nur<br />

5 Sekunden länger als Bild 91A. E<strong>in</strong> ger<strong>in</strong>ger Preis für diesen Qualitätssprung.<br />

Bild 91B und 91C dauerten genauso lange. Schlußfolgernd ist die Ren<strong>der</strong>zeit<br />

ist also <strong>von</strong> dem Inhalt <strong>der</strong> Projektion unabhängig. Man beachte, daß das<br />

kle<strong>in</strong>e Wurmlicht viel gerichteter auf e<strong>in</strong>en Punkt strahlt, und im H<strong>in</strong>tergrund viel<br />

schneller ausblendet. Die Tischlampe dagegen gibt e<strong>in</strong> homogeneres Lichtfeld<br />

ab. Bemerkenswert bei beiden s<strong>in</strong>d auch die Farbübergänge <strong>von</strong> Glanzlicht <strong>in</strong><br />

Schattenregionen, e<strong>in</strong> Effekt <strong>der</strong> mit herkömmlichen Methoden nur sehr schwer<br />

zu erreichen ist.<br />

Die Eleganz dieser Methode liegt <strong>in</strong> ihrer e<strong>in</strong>fachen Handhabung. E<strong>in</strong>fach nur<br />

durch das Auswechseln des Projektionsbildes än<strong>der</strong>t man die gesamte Licht-<br />

stimmung - und hat bei <strong>der</strong>en Auswahl sogar e<strong>in</strong>e visuelle Vorschau. Trotzdem<br />

hat man noch genügend manuelle E<strong>in</strong>flußmöglichkeiten. Mit Intensität, Öffnungs-<br />

w<strong>in</strong>kel, und Lichtfarbe kann man aus jedem dieser Lichtbil<strong>der</strong> e<strong>in</strong>e Vielzahl <strong>von</strong><br />

Variationen erstellen.<br />

95


96<br />

6.5. Ausblick auf zukünftige Arbeiten<br />

Gegenstand <strong>der</strong> nächsten Versuche wird die <strong>in</strong> Abschnitt 6.2.3. erwähnte<br />

Erzeugung und <strong>Anwendung</strong> e<strong>in</strong>er Differenztextur se<strong>in</strong>.<br />

Das gegründete Diskussionsforum „<strong>HDRI</strong> Challenge“ wird aufrecht erhalten. Viel-<br />

versprechende Ideen, die sich dort herauskristallisieren, werden weiterverfolgt.<br />

So hat beispielsweise e<strong>in</strong>e <strong>von</strong> HARRINGTON [55] entwickelte Erweiterung <strong>der</strong><br />

Fallstudie großes Potential (siehe Bild 92).<br />

Bild 92: Erweiterung <strong>von</strong> Robert Harr<strong>in</strong>gton<br />

In Anlehnung an DOWNING’s [56] PIMP Technik sche<strong>in</strong>t diese Methode geeignet,<br />

um komplexe Interaktionen <strong>von</strong> CG Objekten und realen Objekten darzustellen.<br />

Beispielsweise spiegelt sich <strong>in</strong> Bild 94D die virtuelle Kugel <strong>in</strong> <strong>der</strong> realen Kaf-<br />

fekanne. Darüberh<strong>in</strong>aus ist die Simulation perspektivisch korrekter Kamerabe-<br />

wegung <strong>in</strong> dem ursprünglichen 2d-H<strong>in</strong>tergrund möglich. Auch Unschärfeverlage-<br />

rung (vergleiche Bild 92A und 92B) kann erzeugt werden. Es gilt hier, e<strong>in</strong>en<br />

zuverlässigen und effizienten Arbeitsablauf zu entwickeln.<br />

Langfristig ist <strong>in</strong> Zusammenarbeit mit Christian BAUER e<strong>in</strong>e umfassende Auswer-<br />

tung <strong>der</strong> <strong>HDRI</strong> Challenge vorgesehen. Softwarespezifische Setup-Techniken, die<br />

anhand <strong>der</strong> Referenzszene entwickelt und optimiert wurden, sollen katalogisiert<br />

werden. Es ist weiterh<strong>in</strong> geplant, die jeweils effizienteste Technik <strong>in</strong> Form e<strong>in</strong>es<br />

Scriptes für die jeweilige Software zu automatisieren. Angedacht ist auch, die<br />

erfor<strong>der</strong>lichen Inputdaten für die Ausführung des Scriptes <strong>in</strong> e<strong>in</strong>em neuen<br />

Dateiformat zu bündeln. Das würde dann das <strong>HDRI</strong>-Environment, H<strong>in</strong>tergrund-<br />

bild (o<strong>der</strong> hochauflösendes Panorama), und Kameradaten enthalten, eventuell<br />

zusätzlich noch primitive Szenengeometrie und vielleicht sogar e<strong>in</strong>e Sounddatei<br />

<strong>von</strong> <strong>der</strong> Orig<strong>in</strong>alumgebung. Damit hätte man e<strong>in</strong> Austauschformat geschaffen,<br />

mit dem e<strong>in</strong>e reale Umgebung e<strong>in</strong>fach und zuverlässig importiert werden kann<br />

und <strong>in</strong> je<strong>der</strong> unterstützten 3d-Software zu vergleichbaren Ergebnissen führt.


7. Zusammenfassung<br />

Es wurde das Grundpr<strong>in</strong>zip h<strong>in</strong>ter High Dynamic Range Images (<strong>HDRI</strong>s)<br />

erläutert, und <strong>in</strong> Relation zu den Beschränkungen analoger und klassischer<br />

digitaler Aufzeichnungsverfahren gesetzt. Daraus wurde ersichtlich, daß <strong>HDRI</strong>s<br />

am besten für die Abbildung <strong>der</strong> realen Welt geeignet s<strong>in</strong>d.<br />

In e<strong>in</strong>em Vergleichstest wurde ermittelt, daß mit e<strong>in</strong>er Digitalkamera und dem<br />

Shareware Programm „PhotoSphere“ die Aufnahme <strong>von</strong> <strong>HDRI</strong>s am e<strong>in</strong>fachsten<br />

und exaktesten ist.<br />

Als Dateiformat wird Radiance HDR aufgrund <strong>der</strong> breitesten Unterstützung<br />

empfohlen, e<strong>in</strong>e breitere Implementierung des überlegenen OpenEXR Formates<br />

wäre wünschenswert. Die Erweiterung <strong>der</strong> digitalen Bildbearbeitungsmöglich-<br />

keiten durch <strong>HDRI</strong> wurde aufgezeigt. Digitale Nachbelichtung, Simulation <strong>von</strong><br />

Bewegungsunschärfe und analogen Filmeffekten kann mit handelsüblicher Soft-<br />

ware an <strong>HDRI</strong>s durchgeführt werden und führt zu erheblichen Qualitästverbes-<br />

serungen.<br />

Mit <strong>HDRI</strong> Panoramafotos können <strong>in</strong> allen 5 marktführenden 3D-Programmen<br />

(3dMax, SoftimageXSI, Lightwave, Maya, C<strong>in</strong>ema4D) virtuelle Objekte mit realen<br />

Lichtsituationen beleuchtet werden. Das erleichtert die Erstellung fotorealisti-<br />

scher 3D-Effekte erheblich.<br />

Diese <strong>HDRI</strong> Panoramen können auch mit niedrigem Budget und akzeptablem<br />

Aufwand <strong>in</strong> hoher Qualität aufgenommen werden. Verschiedene optimierte<br />

Arbeitsmethoden wurden vorgestellt, und mit Empfehlungen für e<strong>in</strong>zelne<br />

Anwen<strong>der</strong>gruppen verknüpft.<br />

Als Gesamtschlußfolgerung wird festgestellt, daß die <strong>HDRI</strong> Technologie <strong>in</strong>zwi-<br />

schen produktionstauglich ist. Die Integration <strong>in</strong> e<strong>in</strong>e bestehende Postprodukti-<br />

onskette ist s<strong>in</strong>nvoll, unkompliziert, und wurde nachvollziehbar demonstriert.<br />

97


98<br />

Quellenverzeichnis<br />

[1] ILM, Industrial Light+Magic. OpenEXR Press Release. San Rafael, Calif.<br />

Januar 2003.<br />

[2] DEBEVEC, Paul und LEMMON, Dan: Image-Based Light<strong>in</strong>g. Siggraph 2001<br />

Course#14 Slides:. August 2001<br />

[3] COHEN, Jonathan. Persönliches Interview im Rhythm&Hues Light<strong>in</strong>g<br />

Department. Archivierte Tonbandaufnahme, Los Angeles, April 2003.<br />

[4] BIRCHNER, Adrian. Belichtungsmessung: Korrekt messen, richtig belichten.<br />

Gilch<strong>in</strong>g: Verlag Photographie, 2002<br />

[5] YANG, David und EL GAMAL, Abbas. Comparative Analysis of SNR for Image<br />

Sensors with Enhanced DR. Stanford University, 1999<br />

[6] STOCKMAN, Andrew u.a. Color and Vision Database, Institute of Ophthalmology,<br />

London, http://cvision.ucsd.edu/<br />

[7] HOFFMANN, Donald. Visuelle Intelligenz: Wie die Welt im Kopf entsteht.<br />

3.Aufl. Stuttgart: Verlag Klett-Cotta, 2001<br />

[8] WARD, Greg: High Dynamic Range Imag<strong>in</strong>g, Exponent-Failure Analysis<br />

Assoc. Menlo Park, Calif. 1994<br />

[9] BOLLEROT, Michael. CMOS Camera with High Dynamic Irridiance Range<br />

and L<strong>in</strong>ear Output, Datenblatt. Fraunhofer Institut. Duisburg. Sept.1999<br />

[10] KODAK R&D Abteilung. Apples and Oranges and OLED, Juli 2002<br />

www.kodak.<strong>com</strong>/US/en/corp/researchDevelopment/<br />

[11] KODAK Pressemitteilung: Kodak... use Active-Matrix OLED Displays, März<br />

2003 http://www.kodak.<strong>com</strong>/US/en/corp/display/LS633.jhtml<br />

[12] WARD, Greg: Over<strong>com</strong><strong>in</strong>g Gamut and DR Limitations <strong>in</strong> Digital Images,<br />

IS&T/SID 6 th Color Imag<strong>in</strong>g Conference, November 1998.<br />

[13] WARD, Greg: The RADIANCE Light<strong>in</strong>g Simulation and Ren<strong>der</strong><strong>in</strong>g System.<br />

In Computer Graphics, S.459-472, Juli 1994<br />

[14] ILM, OpenEXR Developer Website, www.OpenEXR.<strong>com</strong><br />

[15] KODAK R&D Abteilung. Extended Range Imag<strong>in</strong>g Technology. April 2002.<br />

www.kodak.<strong>com</strong>/US/en/corp/researchDevelopment/<br />

[16] Testbericht DCSpro14n, www.steves-digicams.<strong>com</strong>/2003_reviews/<br />

[17] KELBLEY, Jay. Interview auf <strong>der</strong> Photok<strong>in</strong>a, <strong>in</strong> Nexthardware Magaz<strong>in</strong>.<br />

www.nexthardware.<strong>com</strong>/focus.php?artID=65&numpag=1 , 2002<br />

[18] TCHOU, Cris. Diskussionsbeitrag im HDRShop Support Board:<br />

www.debevec.org/HDRShop , Juni 2003<br />

[19] HORMANN, Christoph. HDR-Edit Entwicklerwebsite. www-public.tubs.de:8080/~y0013390/hcredit/<br />

, 2002<br />

[20] WARD, Greg. The Photophile HDR Image Browser, Vortrag im Radiance<br />

Workshop, Sept.2002 www.radiance-onl<strong>in</strong>e.org/radiance-workshop1/cd/<br />

[21] WARD. GREG. Persönliche Nachricht per e-mail, Mai 2003<br />

[22] Herstellerangaben zu Photogenics www.idruna.<strong>com</strong><br />

[23] DEBEVEC, Paul und Jitendra, Malik. Ren<strong>der</strong><strong>in</strong>g Synthetic Objects <strong>in</strong>to Real<br />

Scenes… In Proceed<strong>in</strong>gs of SIGGRAPH 98, S.189-198. Juli 1998<br />

[24] DEBEVEC, Paul. Recover<strong>in</strong>g High Dynamic Range Radiance Maps from<br />

Photographs. In Proceed<strong>in</strong>gs of SIGGRAPH 97, S.369-378. Aug. 1997<br />

[25] ACM SIGGRAPH UIUC. Gruppe an <strong>der</strong> Universität Ill<strong>in</strong>ois, EOH Projekt.<br />

www.acm.uiuc.edu/siggraph/eoh_projects/eoh2002.html , 2002.


[26] COHEN, Jonathan / TCHOU, Chris / DEBEVEC, Paul / HAWKINGS, Tim. Real-Time<br />

High Dynamic Range Texture Mapp<strong>in</strong>g. In: Eurographics Ren<strong>der</strong><strong>in</strong>g Workshop,<br />

www.ict.usc.edu/graphics, Mai 2001<br />

[27] EL GAMAL, Abbas. High Dynamic Range Image Sensors, Workshop<br />

auf <strong>der</strong> IEEE International Conference on Cicuits and Systems’02,<br />

www-isl.stanford.edu/~abbas/group, 2002.<br />

[28] BRAJOVIC, V. und KANADE, T. A sort<strong>in</strong>g image sensor:…parallel <strong>in</strong>tensity-totime<br />

process<strong>in</strong>g... In Proceed<strong>in</strong>gs of the 1996 IEEE International Conference<br />

on Robotics and Automation, M<strong>in</strong>neapolis, S. 1638-1643.<br />

[29] EL GAMAL, Abbas. Digital Pixel Sensors. Stanford University/Department of<br />

Electrical Engeneer<strong>in</strong>g. www-isl.stanford.edu/~abbas/group 2002<br />

[30] NAYAR, Shree und MITSUNAGA, Tomoo. <strong>HDRI</strong>: Spatially vary<strong>in</strong>g pixel exposures.<br />

www.cs.columbia.edu/CAVE , March 2000.<br />

[31] FUJIFILM Pressemitteilung: Introduc<strong>in</strong>g ‘High Fidelity Photography’<br />

www.fujifilm.co.uk/presscentre/public/<br />

<strong>in</strong>dex.cfm?FuseAction=ViewPR&release_ID=535 , 22. Januar 2003<br />

[32] KOCH, C., ELLIS, T.J., GEORGIADIS, A. u.a. Illum<strong>in</strong>ation Technique for optical<br />

dynamic range <strong>com</strong>pression and offset reduction. 2000<br />

[33] WAESE, Jamie und DEBEVEC, Paul. A Real Time High Dynamic Range<br />

Light Probe, USC Institute for Creative Technologies/Graphics Lab,<br />

www.ict.usc.edu/graphics, 2001.<br />

[34] RODNEY, Andrew: High-End Digital Cameras, <strong>in</strong> PEInfo #139, S.18-28, April<br />

2000<br />

[35] DOWNING, Greg. Stitched <strong>HDRI</strong>, Onl<strong>in</strong>e Tutorial www.gregdown<strong>in</strong>g.<strong>com</strong>/<br />

<strong>HDRI</strong>/stitched/. 2001.<br />

[36] GEIGEL, Joe und MUSGRAVE, Kenton. A Model for Simulat<strong>in</strong>g the Photographic<br />

Development Process…. , SIGGRAPH’97 Proceed<strong>in</strong>gs, S.<br />

135-142, www.jogle.<strong>com</strong>/Research/vdr/ ,1997.<br />

[37] WOODRUFF, Kenneth, CACHELIN, Arnie, HASTINGS, Allen. LightWave‘s „Full<br />

Precision“ Ren<strong>der</strong>er and You. Onl<strong>in</strong>e Tutorial. www.newtek.<strong>com</strong>/products/<br />

lightwave/tutorials/fullprecision, 2002.<br />

[38] RIGG, James. www.Panoguide.<strong>com</strong>. Onl<strong>in</strong>e Wissensplattform, 2002.<br />

[39] KUNZ, Thomas. www.tbk.de/panorama/ . Onl<strong>in</strong>e Wissensplattform. Berl<strong>in</strong>,<br />

2002<br />

[40] SPHERON VR AG. Herstellerangaben, www.spheron.de, Mai 2002.<br />

[41] KUNZE, Tilo. Panoramaspiegel für 20 Euro, Onl<strong>in</strong>e Bastelanleitung.<br />

www.crosus.de/panorama/pancam40.html. Senftenberg, 2001.<br />

[42] BAUER, Christian. How to remove the photographer… Onl<strong>in</strong>e Tutorial<br />

www.cgtechniques.<strong>com</strong>/tutorials/getridof.php. Wien. August 2001.<br />

99<br />

[43] IPIX, Selbstdarstellung www.ipix.<strong>com</strong>. 2002.<br />

[44] Briefverkehr <strong>von</strong> DERSCH/IPIX, gemirrored auf <strong>der</strong> Protestseite http://<br />

vr.albury.net.au/%7Ekathyw/EyePics/ipix.html. 1999.<br />

[45] DERSCH, Helmut und DERSCH, Astrid. PanoramaTools. FH Furtwangen http://<br />

home.no.net/dmaurer/~<strong>der</strong>sch/<strong>in</strong>dex_deutsch.html, 2001.<br />

[46] BAUER, Christian. Create a Panoarama with Panotools, Onl<strong>in</strong>e Tutorial<br />

www.cgtechniques.<strong>com</strong>/tutorials/makepano.php. Wien. Sept. 2001.<br />

[47] BAUER, Christian. From Fisheye to <strong>HDRI</strong>, Onl<strong>in</strong>e Tutorial.<br />

www.cgtechniques.<strong>com</strong>/tutorials/hdrenviroment.php. Wien. Aug.2001<br />

[48] WINKLER, Mathias: Filmerfahrung: Ansätze e<strong>in</strong>er phänomenologischen Konstitutionsanalyse.<br />

S.244. Frankfurt am Ma<strong>in</strong>. 1985.


100<br />

[49] SCHMIDT, Mechthild. Gedanken zur Zeit, In: Digitales Fernsehen – e<strong>in</strong>e<br />

neue Medienwelt?... In: ZDF Schriftenreihe, Heft 50 S. 62, Ma<strong>in</strong>z 1993.<br />

[50] WILLMOT, Andrew und HECKBERT, Paul: An Empirical Comparison of Progressive<br />

and Wavelet Radiosity. In Eurographics Workshop on Ren<strong>der</strong><strong>in</strong>g, Juni<br />

1997<br />

[51] ELIAS, Hugo: Radiosity. Onl<strong>in</strong>e Tutorial für Nichtprogrammierer.<br />

http://freespace.virg<strong>in</strong>.net/hugo.elias/radiosity/radiosity.htm. 2000<br />

[52] DUTRÉ, Philip. Global Illum<strong>in</strong>ation Compendium, Cornell University.<br />

www.graphics.cornell.edu/~phil/GI/ . Januar 2001.<br />

[53] COHEN, Jonathan. CACHELIN, Arnie. LightGen Manual and Download.<br />

www.ict.usc.edu/~jcohen/lightgen/lightgen.html . Sept.2001<br />

[54] KELLER, Alexan<strong>der</strong> und KOLLIG, Thomas. Efficient Illum<strong>in</strong>ation by High Dynamic<br />

Range Images, Universität Kaiserslautern, Sept. 2002<br />

[55] HARRINGTON, Robert. (Mr.P.) …Camera map me up, Diskussionsbeitrag<br />

http://hdri.cgtechniques.<strong>com</strong>/~blochi/show_list.php?free=15, 2003<br />

[56] DOWNING, Greg. PIMP-Panoramic Image Model<strong>in</strong>g Project. Onl<strong>in</strong>e Tutorial,<br />

http://www.gregdown<strong>in</strong>g.<strong>com</strong>/pimp/. 2003<br />

[57] DURAND, Frédo und DORSEY, Julie. Fast Bilateral Filter<strong>in</strong>g for the Display of<br />

HDR Images. Laboratory for Computer Science, MIT, 2001<br />

[58] Re<strong>in</strong>hard, Erik. Tone mapp<strong>in</strong>g. Vortrag an <strong>der</strong> University of Central Florida,<br />

www.cs.ucf.edu/%7Ere<strong>in</strong>hard/cdrom/, 2002<br />

Bildquellen<br />

24 aus WARD, Greg. The Photophile HDR Image Browser, Vortrag im Radiance<br />

Workshop, Sept.2002 www.radiance-onl<strong>in</strong>e.org/radiance-workshop1/cd/<br />

44 aus SPHERON VR AG. Herstellerangaben, www.spheron.de, Mai 2002.<br />

43, 45, 46, 47 aus KUNZ, Thomas. www.tbk.de/panorama/ . Onl<strong>in</strong>e Wissensplattform.<br />

Berl<strong>in</strong>, 2002<br />

84 ist zusammengestellt aus Arbeiten <strong>von</strong> 8 Teilnehmern <strong>der</strong> <strong>HDRI</strong> Challenge,<br />

entsprechende Personen s<strong>in</strong>d im Bild verzeichnet.<br />

66, 68, 69, 71, 73, 74, 74, 75 erstellt unter Verwendung <strong>von</strong> Rohmaterial <strong>von</strong><br />

BAUER, Christian. www.cgtechniques.<strong>com</strong>/<br />

Tabelle 1 aus www.dpreview.<strong>com</strong>/learn/key=exposure. Onl<strong>in</strong>e Photo Glossary

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!