07.12.2012 Aufrufe

Erdfernerkundung - Numerische Physik: Modellierung

Erdfernerkundung - Numerische Physik: Modellierung

Erdfernerkundung - Numerische Physik: Modellierung

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

Prof. Dr. May-Britt Kallenrode Fachbereich <strong>Physik</strong><br />

<strong>Erdfernerkundung</strong><br />

Osnabrück, den 2. Juli 2008


Official Disclaimer<br />

Warning: This document contains explicit remote sensing theory, expressions and images.<br />

Everyone who finds remote sensing to be offensive or objectionable, or is not old enough or<br />

otherwise legally not entitled to view such stuff should burn this document immediately.<br />

This document is a beta-version and is provided “as-is”, without any express or implied<br />

warranty. In no event will the authors be held liable for any damage, frustration, stress,<br />

pregnancy, earthquakes, hair loss of similar consequences arising from the reading of this<br />

document.


Inhaltsverzeichnis<br />

1 Einführung 5<br />

1.1 Historisches . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8<br />

1.2 Ziele der <strong>Erdfernerkundung</strong> . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15<br />

1.3 Ein Beispiel – Definition der Anforderungen . . . . . . . . . . . . . . . . . . . 17<br />

1.4 Aufbau der Vorlesung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20<br />

2 Satellitenbahnen 22<br />

2.1 Historisches: ein Apfel fällt um die Erde . . . . . . . . . . . . . . . . . . . . . 22<br />

2.2 <strong>Physik</strong>alische Grundlagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24<br />

2.2.1 Eingeschränktes Zweikörperproblem . . . . . . . . . . . . . . . . . . . 25<br />

2.2.2 Satellitenbahnen und Erhaltungsgrößen . . . . . . . . . . . . . . . . . 26<br />

2.2.3 Ellipsenbahnen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28<br />

2.3 Bahnstörungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32<br />

2.3.1 Übersicht . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33<br />

2.3.2 Reibung in der Hochatmosphäre . . . . . . . . . . . . . . . . . . . . . 37<br />

2.3.3 Bahnstörungen in Folge der Erdabplattung . . . . . . . . . . . . . . . 41<br />

2.3.4 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43<br />

2.4 Typische Bahnen von erdgebundenen Satelliten . . . . . . . . . . . . . . . . . 44<br />

2.4.1 Typen von Erdsatelliten . . . . . . . . . . . . . . . . . . . . . . . . . . 44<br />

2.4.2 Erderkundungs- und Aufklärungssatelliten . . . . . . . . . . . . . . . . 44<br />

2.4.3 Einschub: Sonnensynchrone Bahnen . . . . . . . . . . . . . . . . . . . 47<br />

2.4.4 Wetter- und Kommunikationssatelliten . . . . . . . . . . . . . . . . . . 48<br />

2.4.5 Navigationssatelliten . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51<br />

2.4.6 Forschungssatelliten . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52<br />

2.4.7 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53<br />

2.5 Stabilisierung des Satelliten . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54<br />

2.6 Einbringen des Satelliten in seine Bahn . . . . . . . . . . . . . . . . . . . . . 56<br />

2.6.1 Raketengleichung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56<br />

2.6.2 Mehrstufenprinzip . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60<br />

2.6.3 Transferbahnen (Hohmann-Bahnen) . . . . . . . . . . . . . . . . . . . 63<br />

2.7 Ergänzung: Spezielle Bahnen . . . . . . . . . . . . . . . . . . . . . . . . . . . 68<br />

2.7.1 Lagrange-Punkte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68<br />

2.7.2 Planetares Billard . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73<br />

3 Satelliteninstrumente 82<br />

3.1 Grundlagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82<br />

3.1.1 Die Atmosphäre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83<br />

3.1.2 Die Magnetosphäre und der Sonnenwind . . . . . . . . . . . . . . . . . 86<br />

3.1.3 Ein Labor in 900 km Höhe: technische Randbedingungen . . . . . . . 90<br />

1


2 INHALTSVERZEICHNIS<br />

3.1.4 Grobklassifizierung und Kenngrößen . . . . . . . . . . . . . . . . . . . 91<br />

3.2 Passive Instrumente im sichtbaren Spektrum . . . . . . . . . . . . . . . . . . 92<br />

3.2.1 Kurzer Rückblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93<br />

3.2.2 Kameratypen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95<br />

3.2.3 Abbildung durch Objektive . . . . . . . . . . . . . . . . . . . . . . . . 96<br />

3.2.4 Aufzeichnung der Abbildung: photographische Emulsion . . . . . . . . 97<br />

3.2.5 Warum Falschfarben? . . . . . . . . . . . . . . . . . . . . . . . . . . . 102<br />

3.2.6 Charakterisierung eines photographischen Systems . . . . . . . . . . . 105<br />

3.2.7 Elektronische Aufzeichnung statt photographischer Emulsion . . . . . 112<br />

3.2.8 Scanner in Kehrbesentechnik . . . . . . . . . . . . . . . . . . . . . . . 118<br />

3.2.9 Scanner: Spiegel statt Objektiv . . . . . . . . . . . . . . . . . . . . . . 121<br />

3.2.10 Und der erdgebundene Beobachter? . . . . . . . . . . . . . . . . . . . 130<br />

3.2.11 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131<br />

3.3 Passive Instrumente im nicht-sichtbaren . . . . . . . . . . . . . . . . . . . . . 131<br />

3.3.1 Thermisches Infrarot . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131<br />

3.3.2 Passive Mikrowelleninstrumente . . . . . . . . . . . . . . . . . . . . . . 142<br />

3.4 Aktive Instrumente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147<br />

3.4.1 Altimeter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149<br />

3.4.2 Scatterometer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152<br />

3.4.3 Ground-Penetrating Mikrowelleninstrumente . . . . . . . . . . . . . . 154<br />

3.4.4 SAR Synthetic Aperture Radar . . . . . . . . . . . . . . . . . . . . . . 154<br />

3.5 Sounder . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159<br />

3.5.1 Prinzip . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159<br />

3.5.2 Anwendungsbeispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161<br />

3.6 Wunschzettel der 1990er: Mission to Planet Earth . . . . . . . . . . . . . . . 168<br />

3.7 Anwendungsbeispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170<br />

3.7.1 Archäologie und Anthropologie . . . . . . . . . . . . . . . . . . . . . . 170<br />

3.7.2 Vegetation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172<br />

3.7.3 Hydrosphäre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179<br />

3.7.4 Geowissenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187<br />

3.7.5 Disaster Management und Verwandtes . . . . . . . . . . . . . . . . . . 191<br />

4 Beispiele für Missionen 198<br />

4.1 Der klassische Geograph: LandSat . . . . . . . . . . . . . . . . . . . . . . . . 198<br />

4.2 Ein Meteorologe: MeteoSat . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200<br />

4.3 Ein tiefer gelegter Meteorologe: TIROS bis POES . . . . . . . . . . . . . . . . 202<br />

4.4 Der Generalist für Umweltfragen: EnviSat . . . . . . . . . . . . . . . . . . . . 205<br />

4.5 Small is beautiful: CHAMP und Diamant . . . . . . . . . . . . . . . . . . . . 208<br />

4.6 Der Radarspäher: TerraSAR . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210<br />

4.7 Lost and found: GPS-NavStar . . . . . . . . . . . . . . . . . . . . . . . . . . . 211<br />

4.8 Mission to Planet Earth . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212<br />

4.8.1 Zielsetzung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212<br />

4.8.2 Earth Observing System EOS – Planung . . . . . . . . . . . . . . . . . 216<br />

4.8.3 Earth Observing System EOS – Realität . . . . . . . . . . . . . . . . . 217<br />

5 Die erweiterte Perspektive: CAWSES 222<br />

5.1 Das nahe Erdumfeld . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222<br />

5.1.1 Die Strahlungsbilanz . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223<br />

5.1.2 Energiereiche Teilchen . . . . . . . . . . . . . . . . . . . . . . . . . . . 232<br />

5.1.3 Magnetosphäre und Ionospäre . . . . . . . . . . . . . . . . . . . . . . . 241<br />

5.2 Die Sonne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 245<br />

5.2.1 Die Instrumente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 245<br />

5.2.2 Die Missionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 250<br />

5.3 Der interplanetare Raum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 255<br />

5.4 Andere Planeten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 257<br />

2. Juli 2008 c○ M.-B. Kallenrode


INHALTSVERZEICHNIS 3<br />

5.4.1 Das Planetensystem . . . . . . . . . . . . . . . . . . . . . . . . . . . . 257<br />

5.4.2 Die Instrumente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 259<br />

5.4.3 Die Missionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 259<br />

5.5 CAWSES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 260<br />

5.5.1 Modeling Individual Events . . . . . . . . . . . . . . . . . . . . . . . . 262<br />

5.5.2 Monte Carlo Simulation of Atmospheric Ionization . . . . . . . . . . . 264<br />

5.5.3 Applications of the Model . . . . . . . . . . . . . . . . . . . . . . . . . 270<br />

6 Kommunikation 277<br />

6.1 Historisches . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 277<br />

6.1.1 Rückführung des Filmmaterials . . . . . . . . . . . . . . . . . . . . . . 278<br />

6.1.2 Onboard-Scans . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 279<br />

6.1.3 Technische Anmerkungen . . . . . . . . . . . . . . . . . . . . . . . . . 279<br />

6.2 Kommunikation und Information . . . . . . . . . . . . . . . . . . . . . . . . . 280<br />

6.2.1 Kommunikation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 280<br />

6.2.2 Was ist Information? . . . . . . . . . . . . . . . . . . . . . . . . . . . . 282<br />

6.2.3 Informationsgehalt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 283<br />

6.2.4 Shannon-Funktion und Entropie . . . . . . . . . . . . . . . . . . . . . 287<br />

6.2.5 Redundanz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 288<br />

6.2.6 Abtasttheorem (Signal als kontinuierliche Funktion der Zeit) . . . . . 294<br />

6.2.7 Menschliche Informationsverarbeitung: Verwendung von Hyperzeichen<br />

im Erkennen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 296<br />

6.2.8 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 301<br />

6.3 Codierung I: Quellencodierung . . . . . . . . . . . . . . . . . . . . . . . . . . 301<br />

6.3.1 Präfix-Code und Decodierbarkeit . . . . . . . . . . . . . . . . . . . . . 301<br />

6.3.2 Redundanzsparende Codes . . . . . . . . . . . . . . . . . . . . . . . . 303<br />

6.3.3 Fundamentalsatz der Quellencodierung . . . . . . . . . . . . . . . . . . 305<br />

6.3.4 Lempel-Ziv-Quellencodierung . . . . . . . . . . . . . . . . . . . . . . . 306<br />

6.3.5 Historisches Beispiel: Redundanzreduktion beim Fernkopieren . . . . . 307<br />

6.4 Kanalcodierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 308<br />

6.4.1 Informationsübertragung . . . . . . . . . . . . . . . . . . . . . . . . . 309<br />

6.4.2 Kanalkapazität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 310<br />

6.4.3 Kanalcodierung: Basics . . . . . . . . . . . . . . . . . . . . . . . . . . 312<br />

6.4.4 Kanalcodierung: Fehlererkennung . . . . . . . . . . . . . . . . . . . . . 313<br />

6.4.5 Kanalcodierung: Fehlererkennung und -korrektur . . . . . . . . . . . . 315<br />

6.4.6 Kanalcodierung: Hamming(7,4) Codierung . . . . . . . . . . . . . . . . 317<br />

6.4.7 Kanalcodierung: Einfache Blockcodierung in Matrixform . . . . . . . . 320<br />

6.4.8 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 320<br />

6.5 Anhang: Technische Anmerkungen . . . . . . . . . . . . . . . . . . . . . . . . 320<br />

6.5.1 Überblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 321<br />

6.5.2 Lösungsansätze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 322<br />

6.5.3 Kommunikation über Satelliten . . . . . . . . . . . . . . . . . . . . . . 324<br />

7 Datenaufbereitung 327<br />

7.1 Korrekturverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 328<br />

7.1.1 Fehlende Pixel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 329<br />

7.1.2 Periodisch fehlende Streifen . . . . . . . . . . . . . . . . . . . . . . . . 330<br />

7.1.3 Periodische Streifen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 332<br />

7.1.4 Random Noise . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 332<br />

7.1.5 Glätten und Schärfen . . . . . . . . . . . . . . . . . . . . . . . . . . . 333<br />

7.1.6 Dunstkorrektur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 334<br />

7.2 Bildverbesserung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 337<br />

7.2.1 Kontrastanreicherung . . . . . . . . . . . . . . . . . . . . . . . . . . . 337<br />

7.2.2 Kantenanreicherung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 341<br />

7.3 Automatische Klassifikation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 344<br />

c○ M.-B. Kallenrode 2. Juli 2008


4 INHALTSVERZEICHNIS<br />

7.3.1 Distanzverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 344<br />

7.3.2 Mehrdimensionale Klassifikationsverfahren . . . . . . . . . . . . . . . . 346<br />

7.4 Managing Gigabytes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 348<br />

7.4.1 Verlustfreie Bildformate . . . . . . . . . . . . . . . . . . . . . . . . . . 348<br />

7.4.2 Und JPEG? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 348<br />

7.4.3 Fraktale Bildkompression . . . . . . . . . . . . . . . . . . . . . . . . . 351<br />

8 Anhang Formalia 357<br />

8.1 Liste der verwendeten Symbole . . . . . . . . . . . . . . . . . . . . . . . . . . 357<br />

8.2 Nützliche Konstanten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 359<br />

8.3 Abkürzungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 359<br />

9 Etwas zum Spielen 364<br />

9.1 Lempel–Ziv-Algorithmus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 364<br />

9.2 Bilder in MatLab . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 366<br />

9.2.1 Kombination von Spektralkanälen . . . . . . . . . . . . . . . . . . . . 369<br />

9.2.2 Zerfleddern kombinierter Kanäle . . . . . . . . . . . . . . . . . . . . . 371<br />

9.2.3 Histogramme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 371<br />

9.2.4 Filtern . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 372<br />

9.2.5 MatLab und das Alphabet . . . . . . . . . . . . . . . . . . . . . . . . 374<br />

2. Juli 2008 c○ M.-B. Kallenrode


Kapitel 1<br />

Einführung<br />

Once a photograph of the Earth, taken from the outside, is<br />

available, a new idea as powerful as any in history will be let<br />

loose.<br />

Sir Fred Hoyle, 1948, in [194]<br />

§ 1 <strong>Erdfernerkundung</strong> im klassischen Sinne hat sicherlich auch einen ästhetischen Aspekt,<br />

vgl. z.B. Abb. 1.1 oder Titelbild (AVHRR-Aufnahme der Antarktis). Davon sprechen auch<br />

die zahlreichen Bücher [25, 97, 125], in denen (meist photographische) Aufnahmen der Erde<br />

vom Weltraum aus gezeigt werden – häufig mehr unter ästhetischen als unter wissenschaftlichen<br />

Aspekten. Viele dieser Aufnahmen (und insbesondere ihre modernen Vettern) werden<br />

heutzutage kommerziell vertrieben, z.B. für Ikonos, OrbView und GeoEye unter [374], Ikonos<br />

unter [367], oder für verschiedene aktuelle Satelliten(instrumente) wie ALOS, ASTER,<br />

CartoSat, CBers, FormoSat, GeoEye, Ikonos, LandSat 7 QuickBird, SPOT 5 und WorldView<br />

unter [664]. Auf diesen Seiten sind auch eine Vielzahl von Beispielen zu finden, meist sortiert<br />

nach Anwednungsbereichen. Auch die NASA hat einiges an Bildern, geordnet nach Satelliten<br />

und/oder Sensoren unter [619] ins Web gestellt. Einige große hoch aufgelöste Bilder<br />

von Ikonos sind für private Zwecke beim DLR unter [295] zu finden. Und die IPCC-Berichte<br />

[105, 106] sind eine Fundgrube für alle möglichen nicht-imaging Anwendungen von Satelliten<br />

zur Untersuchung von global change.<br />

§ 2 Die typischen Beispiele der <strong>Erdfernerkundung</strong>, wie in Abb. 1.2 Osnabrück und das Osnabrücker<br />

Schloss in einer Aufnahme des Ikonos-Satelliten, 1 erinnern an deren frühe Ziele:<br />

(militärische) Aufklärung und Kartographie. Damit ist die Erdoberfläche als Beobachtungsziel<br />

und die Verwendung von Imaging Instrumenten als Beobachtungsverfahren festgelegt.<br />

Und auch im Vorbeigehen der Hinweise auf die Wurzeln der Fernerkundung gegeben: militärische<br />

Aufklärung – wer mag schon Überraschungsangriffe bzw. möchte nicht bei einem<br />

Überraschungsangriff seinerseits am liebsten gleich auf die empfindlichste Stelle des Gegners<br />

zielen.<br />

§ 3 Auch die Definitionen von Fernerkundung bzw. remote sensing in Wikipedia sind in<br />

ihrer Betonung auf Imaging und Flugzeug/Staellit noch stark von dieser Vorstellung geprägt<br />

– Abb. 1.3 nimmt diese Vorstellung wieder auf. So definiert der erste Absatz im Eintrag zu<br />

remote sensing ([743], Hervorhebungen von mir):<br />

1 Die Aufnahmen entsprechen den in Google Earth verwendeten – letztere haben außer an den allgemein<br />

interessanten Hot Spots auch ein ähnliches Alter.<br />

5


6 KAPITEL 1. EINFÜHRUNG<br />

Abbildung 1.1: Wüstenlandschaft des<br />

Fessan (Lybien), aufgenommen 1966 von<br />

Gemini XI mit einer Hasselblad mit<br />

38 mm Objektiv aus einer Höhe von<br />

324 km [25]<br />

In the broadest sense, remote sensing is the small or large-scale acquisition of information of<br />

an object or phenomenon, by the use of either recording or real-time sensing device(s) that is not<br />

in physical or intimate contact with the object (such as by way of aircraft, spacecraft, satellite,<br />

buoy, or ship). In practice, remote sensing is the stand-off collection through the use of a variety<br />

of devices for gathering information on a given object or area. Thus, Earth observation or weather<br />

satellite collection platforms, ocean and atmospheric observing weather buoy platforms, monitoring<br />

of a pregnancy via ultrasound, Magnetic Resonance Imaging (MRI), Positron Emission Tomography<br />

(PET), and space probes are all examples of remote sensing. In modern usage, the term generally<br />

refers to the use of imaging sensor technologies including but not limited to the use of instruments<br />

aboard aircraft and spacecraft, and is distinct from other imaging-related fields such as medical<br />

imaging.<br />

§ 4 Auch in der deutsch-sprachigen Variante findet sich unter dem Eintrag Fernerkundung<br />

[727] eine ähnliche Betonung (Hervorhebung wieder von mir) – sogar unter Berufung auf eine<br />

DIN-Norm:<br />

Die Fernerkundung (englisch: remote sensing) ist die Gesamtheit der Verfahren zur<br />

Gewinnung von Informationen über die Erdoberfläche oder anderer nicht direkt zugänglicher<br />

Objekte durch Messung und Interpretation der von ihr ausgehenden (Ener-<br />

Abbildung 1.2: Osnabrück (links) und Osnabrücker Schloss (rechts) vom Satelliten Ikonos –<br />

Google Earth scheint zumindest für Osnabrück auch auf dieses Material zurück zu greifen<br />

2. Juli 2008 c○ M.-B. Kallenrode


Abbildung 1.3: In den typischen<br />

Illustrationen zur <strong>Erdfernerkundung</strong><br />

leben ihre Anfänge wieder<br />

auf: <strong>Erdfernerkundung</strong> zeigt die<br />

Erde, wie wir sie aus dem Weltraum<br />

sehen würden [178]<br />

Abbildung 1.4: Ozonloch über der Antarktis: links TOMS-Messungen von 1979 bis 1997 [700],<br />

rechts GOME-Messungen zwischen 1995 und 2002 [287]<br />

gie-)Felder. Als Informationsträger dient dabei die reflektierte oder emittierte elektromagnetische<br />

Strahlung. [DIN 18716/3]<br />

Im Gegensatz zu anderen Erfassungsmethoden die den direkten Zugang zum Objekt<br />

erfordern, versteht man unter Fernerkundung die berührungsfreie Erkundung<br />

der Erdoberfläche einschließlich der Erdatmosphäre. Eine berührungsfreie Beobachtung<br />

wird zum Beispiel durch flugzeuggetragene oder satellitengetragene Sensoren<br />

ermöglicht (i.e., Fernerkundungssensoren wie Kameras und Scanner). Vereinzelt kommen<br />

aber auch Drohnen und Ballons als Plattform zum Einsatz. Der Fernerkundung<br />

zugeordnet sind Photogrammetrie und Satellitengeodäsie. Dagegen sind Planetologie<br />

und Astronomie nicht der Fernerkundung zugeordnet, obwohl auch hier Fernerkundungssensoren<br />

zum Einsatz kommen.<br />

§ 5 Moderne <strong>Erdfernerkundung</strong> photographiert jedoch nicht nur die Erdoberfläche mit ihren<br />

offensichtlichen Merkmalen sondern dringt, z.B. zur Erkundung von Bodenschätzen oder<br />

für archäologische Fragestellungen, in den Erdboden ein; oder sie stellt im optischen nicht<br />

sichtbare Phänomene wie das Ozonloch dar, siehe Abb. 1.4. Mikrowelleninstrumente zur<br />

Durchdringung der Wolkenbedeckung, Radar-Instrumente zur Beobachtung der Meeresoberfläche<br />

und zur genauen Höhenbestimmung (drei-dimensionale Kartographie) gehören ebenso<br />

zu den Instrumenten der <strong>Erdfernerkundung</strong>.<br />

§ 6 Das Beispiel in Abb. 1.4 gibt gleichzeitig einen Hinweis auf die Vorteile der Satelli-<br />

c○ M.-B. Kallenrode 2. Juli 2008<br />

7


8 KAPITEL 1. EINFÜHRUNG<br />

ten gestützten <strong>Erdfernerkundung</strong> gegenüber Messungen vom Boden aus: <strong>Erdfernerkundung</strong><br />

ermöglicht globale Betrachtungen und kann damit die dynamischen Aspekte eines Phänomens<br />

besser beschreiben. Und <strong>Erdfernerkundung</strong> ermöglicht Langzeitbeobachtungen (Monitoring)<br />

und ist damit zur Untersuchung von langfristigen Veränderungen (global change) unerlässlich.<br />

§ 7 Im Rahmen des Skripts und der Vorlesung werden wir einen weiten Begriff der Fernerkundung<br />

im Hinblick auf die Instrumentierung und die Fragestellungen verwenden. Dafür<br />

werden wir uns bei den Trägern der entsprechenden Instrumente auf Satelliten (inklusive<br />

Shuttle oder Space Station) und Flugzeuge beschränken. Häufig sind die Schiff-, Boje- oder<br />

Boden-gebundenen zur Atmosphärenforschung eingesetzten Instrumente den mit der entsprechenden<br />

Fragestellung verbundenen Satelliteninstrumenten ähnlich – abgesehen von der<br />

entgegen gesetzten Blickrichtung.<br />

§ 8 Eine Erweiterung des Fernerkundungsbegriffes im Hinblick auf mein Arbeitsgebiet erlaube<br />

ich mir aber trotzdem: auch wenn die deutsche Wikipedia Definition sehr Erd-gebunden<br />

ist, werde ich einige Beispiele aus der Weltraumforschung verwenden – das betrifft den Einsatz<br />

von Instrumenten (z.B. Magellan an der Venus) ebenso wie die Untersuchung Solar–<br />

Terrestrischer Beziehungen. Letztere werden auch unter dem Begriff Weltraumwetter zusammen<br />

gefasst. Auch unter dem Gesichtspunkt der Instrumentierung von Erdbeobachtungssatelliten<br />

ist diese Berücksichtigung korrekt: so sind die Wetter- und Erdbeobachtungssatelliten<br />

der NOAA, insbesondere die GOES und POES Satelliten, stets auch mit einem Space Environment<br />

Monitor SEM ausgestattet.<br />

§ 9 Tabelle ?? gibt einen Überblick über einige universell einsetzbare Satelliteninstrumente<br />

mit dem jeweiligen Bodenauflösungsvermögen und den Spektralkanälen als den wichtigsten<br />

Eigenschaften. Viele von ihnen werden wir im Laufe der Vorlesung genauer diskutieren, ebenso<br />

wie Instrumente, die speziellen Fragestellungen dienen.<br />

1.1 Historisches<br />

§ 10 <strong>Erdfernerkundung</strong> oder remote sensing ist keine Erfindung des Satellitenzeitalters (vgl.<br />

z.B. Diskussionen und Abbildungen in [41, 231]). Zwar ist der Begriff remote sensing erst<br />

in den Sechzigern im US Office of Naval Research eingeführt worden, zu einer Zeit, als sich<br />

die Verwendung spionierender Satelliten aus dem militärischen Bereich heraus in den zivilen<br />

Bereich ausdehnte; die Idee der Fernerkundung ist jedoch gerade im militärischen Bereich<br />

viel älter: jeder Berg oder Turm konnte als Träger für ein remote sensing Instrument dienen<br />

– auch wenn letzteres nur ein menschliches, später auch ein mit einem Fernrohr bewaffnetes<br />

menschliches Auge ist.<br />

§ 11 Da bei einem Feldzug nicht immer ein geeignet positionierter Berg oder Turm in der<br />

Nähe ist und sich letztere auch nicht einfach mitführen lassen, haben sich zumindest die<br />

Japaner bereits im 11. Jahrhundert ein der modernen Definition sehr nahe kommendes Verfahren<br />

einfallen lassen (siehe Abb. 1.5): ein Drachen wird als fliegende Instrumentenplattform<br />

verwendet, das Instrument ist wieder der menschliche Beobachter. In diesem Fall sogar mit<br />

einem Zusatzfeature, dem Bogen. Die enge Kopplung zwischen Fernerkundung und Militär<br />

ist also nicht erst eine Idee von Pentagon und Kreml sondern reicht viel weiter zurück. Satelliten<br />

können auch Opfer bewaffneter Attacken werden (die USA haben zum Test einer<br />

Anti-Satellitenwaffe den einen Koronographen zum remote sensing der Sonnenatmosphäre<br />

tragenden Satelliten SolWind P78-1 verwendet [441]). Daher wird das Abschießen eines (außer<br />

Kontrolle geratenen?) Satelliten [648, 767] mit einigem Misstrauen oder zumindest Unwohlsein<br />

betrachtet – Reagan’s Star Wars wird wieder wach und ‘The Physics of Space Security’<br />

[259] findet seine Anwendung.<br />

§ 12 Drachen als Instrumententräger, wieder mit dem Menschen als Instrument, wurden<br />

in der zweiten Hälfte des 19. Jahrhunderts auch in Europa angewandt: zum einen war die<br />

2. Juli 2008 c○ M.-B. Kallenrode


1.1. HISTORISCHES 9<br />

Abbildung 1.5: <strong>Erdfernerkundung</strong> ohne photographische<br />

Aufzeichnung aber mit militärischen<br />

Eingriffmöglichkeiten in Japan<br />

[184]<br />

Abbildung 1.6: <strong>Erdfernerkundung</strong><br />

ohne<br />

photographische Aufzeichnung<br />

in Europa:<br />

links Cody’s Kriegsdrachen<br />

[285], rechts ein<br />

Manlifter [184]<br />

aufkommende Photographie noch nicht soweit automatisiert, dass man Instrumente hätte<br />

alleine fliegen lassen können, zum anderen diente der Manlifter (siehe Abb. 1.6) auch für<br />

Studien zur Entwicklung von Trägersystemen für Menschen, sprich Flugzeugen. Für den<br />

militärischen Kampfeinsatz waren derartige Objekte allerdings auf Grund der zunehmenden<br />

Reichweite von Waffen und der großen als Ziel dargebotenen Fläche nicht mehr geeignet –<br />

auch wenn das Militär an diesen Entwicklungen maßgeblich beteiligt war.<br />

§ 13 Aber zurück zur Fernerkundung im klassischen Sinne. Photographie ist das entscheidende<br />

Stichwort zur Entwicklung des remote sensing. Die ersten Ansätze zum remote sensing<br />

finden sich bereits in der Lochkamera und in der Kamera Obscura. Für die Verwendung<br />

photographischer Systeme in einem gewissen Abstand von der Erdoberfläche ist das erste<br />

überlieferte Photo 1858 von einem Ballon aus in der Nähe von Paris aufgenommen worden<br />

– auch hier ist der menschliche Operateur des Instruments erforderlich. SWAMI [686] ist die<br />

moderne Variante davon; allerdings ohne Operateure an Bord.<br />

§ 14 Aber auch mit unbemannten Fernerkundungssystemem wurde bereits Ende des 19.<br />

Jahrhunderts experimentiert. Das wahrscheinlich am häufigsten zitierte Photo aus dieser<br />

c○ M.-B. Kallenrode 2. Juli 2008


10 KAPITEL 1. EINFÜHRUNG<br />

Abbildung 1.7: Aufnahme des zerstörten San Francisco von einer an einem Drachen befestigten<br />

Kamera [744]<br />

Phase ist die auch in Abb. 1.7 gezeigte Aufnahme des vom Erdbeben zerstörten San Francicso;<br />

2 die Aufnahme wurde durch D. Lawrence gemacht, der Instrumententräger war ein<br />

Drachen mit einer geschätzten Flughöhe von 2000 ft. 3 Diese Kameras mussten automatisiert<br />

sein in dem Sinne, dass sie selbsttätig zu einer bestimmten Zeit den Verschluss für eine vordefinierte<br />

Belichtungszeit öffneten bzw. bei besseren Versionen nach einer Belichtung auch<br />

den Film transportierten, den Verschluss erneut spannten und in einer bestimmten zeitlichen<br />

Sequenz die Belichtungen wiederholten. Nach der Entwicklung besonders leichter automatisierter<br />

Kameras wurden auch Tauben als Kameraträger eingesetzt. Die Kombination aus<br />

einem festen Auslösemechanismus (meist Verzögerung wie beim Selbstauslöser) und einem<br />

Instrumententräger mit recht eigenwilligen Vorstellungen bezüglich Flugbahn und Instrumentenausrichtung<br />

liefert nur zufällige Ergebnisse – Geduld und wiederholte Versuche sind<br />

unerlässlich.<br />

§ 15 Mit dem Aufkommen des Flugzeugs boten sich neue Möglichkeiten der <strong>Erdfernerkundung</strong>.<br />

Auch wenn Bewegung und Vibrationen der Flugzeuge eine Schwierigkeit bei den Aufnahmen<br />

darstellten, so eröffneten sie doch neue Möglichkeiten: Kameras an Drachen und<br />

Tauben waren durch die manchmal recht eigenwillige Bewegung des Trägers orientiert und<br />

ließen sich daher nicht auf ein Zielgebiet ausrichten. Mit einem Flugzeug dagegen bot sich<br />

die Möglichkeit, sehr gezielt Luftaufnahmen eines bestimmten Gebietes unter vorgegebenen<br />

Bedingungen zu machen. Diese Möglichkeiten wurden während des ersten Weltkrieges zur<br />

militärischen Nutzung intensiviert und weiterentwickelt. Nach dem ersten Weltkrieg fanden<br />

sich die ersten systematischen zivilen Anwendungen in der <strong>Erdfernerkundung</strong>, z.B. für forstwirtschaftliche<br />

Kontrollflüge, geologische Untersuchungen und zur Sammlung von Luftbildern<br />

als Grundlage für die Kartographie – also Anwendungsbereiche, in denen auch die moderne<br />

Fernerkundung immer noch eingesetzt wird.<br />

2 Das Anwendungsfeld Information und Spendensammlung nach Katastrophen erfüllt Fernerkundung<br />

natürlich auch heute noch durch Darstellung der entsprechenden Bilder an prominenter Stelle in den Medien;<br />

dazu gehören die Rauchfahnen über Manhattan nach 9/11 (siehe Abb. 3.102) ebenso wie die vorher/nachher<br />

Sequenzen nach dem Tsunami im Indischen Ozean 2004 oder die Waldbrände an verschiedenen Stellen (siehe<br />

auch Abb. 1.14). Auf ein neues Produkt der Fernerkundung, das Disaster Management, werden wir in<br />

Abschn. 3.7.5 noch zurück kommen.<br />

3 Zu dem Bild vermerkt [734]: “One of Lawrence’s world renowned photographs is of the ruins of San<br />

Francisco, California after the 1906 earthquake. It is a 160-degree panorama from a kite taken 2000 feet (600<br />

m) in the air above the San Francisco Bay that showed the entire city on a single 17-by-48-inch contact print<br />

made from a single piece of film. Each print sold for $125 and Lawrence made at least $15,000 in sales from<br />

this one photograph. The camera used in this photograph weighed 49 pounds (22 kg) and used a celluloid-film<br />

plate.” Auch heute kann man mit Photos vom Drachen aus noch Geld machen, siehe z.B. [37]; die neuen<br />

Techniken (Lenkdrachen, Digitalkamera, Fernauslösung) bieten dabei wesentlich bessere Kontrolle als es vor<br />

einem Jahrhundert der Fall war.<br />

2. Juli 2008 c○ M.-B. Kallenrode


1.1. HISTORISCHES 11<br />

Abbildung 1.8: Der erste Erdsatellit im<br />

Modell: Sputnik 1 [749]<br />

Abbildung 1.9: U2 – where the spies have<br />

no name [758]<br />

§ 16 Während des zweiten Weltkrieges wurden Luftbilder intensiv zur militärischen Aufklärung<br />

verwendet; darunter auch zur Erfolgskontrolle und Zielplanung für Luftangriffe auf<br />

Städte, vgl. z.B. [113]. Heute werden die gleichen Bilder vom Kampfmittelräumdienst genutzt,<br />

um mögliche Blindgänger zu lokalisieren. Seit den 1930ern wurden auch Versuche<br />

durchgeführt, <strong>Erdfernerkundung</strong> nicht nur im sichtbaren Bereich des elektromagnetischen<br />

Spektrums zu betreiben, sondern auch im Infraroten und durch die Verwendung von Radar.<br />

Ohne diese beiden Sensortypen würde die Fernerkundung heutzutage wesentlich weniger<br />

Informationen liefern.<br />

§ 17 Der nächste Sprung in der <strong>Erdfernerkundung</strong> erfolgte mit dem Beginn des Satellitenzeitalters,<br />

markiert durch den Start von Sputnik 1 (siehe auch Abb. 1.8, [403, 749, 750]) im<br />

Oktober 1957. Damit war im Bereich der Instrumententräger ein neues Feld eröffnet – da<br />

sich die Bahneigenschaften dieser Träger jedoch deutlich von denen der vorher verwendeten<br />

Flugzeuge unterschieden, ließen sich die Instrumente nicht direkt umsetzen. Die schönsten<br />

Bilder aus den frühen Jahren der Weltraumforschung sind daher auf bemannten Missionen<br />

mit Hilfe von Mittelformat-Kameras (meist die legendäre Hasselblad) gemacht – Abb. 1.1 ist<br />

ein typisches Beispiel.<br />

§ 18 Der erste zivile <strong>Erdfernerkundung</strong>ssatellit wurde 1960 gestartet, es handelte sich um<br />

einen Meteorologiesatelliten der TIROS-Serie (Television and Infra-Red Observation Satellite).<br />

Wie der Name dieses Satelliten bereits andeutet, diente er vielfältigen Zwecken: der<br />

Meteorologie durch Erzeugung von Bildern im sichtbaren wie Infraroten Bereich ebenso wie<br />

der Kommunikation. Die gleichzeitige Verwendung als Kommunikationssatellit ist übrigens<br />

bei geostationären Meteorologiesatelliten gebräuchlich; auch die uns aus dem Wetterbericht<br />

geläufigen MeteoSats haben eine, wenn auch begrenzte, Aufgabe im Bereich der Kommunikation.<br />

Teilweise handelt es sich dabei um das Aufsammeln wissenschaftlicher Daten von unbemannten<br />

Stationen, z.B. im Rahmen des ARGOS-Netzes [278] durch die NOAA-Satelliten,<br />

oder um die Weiterverteilung bereits bearbeiteter meteorologischer Daten vom globalen Netz<br />

der geostationären Satelliten [41].<br />

§ 19 Eine konventionelle (Video-)Kamera in 36 000 km Flughöhe hat selbst bei Verwendung<br />

eines Teleobjektivs zwar die gesamte Erdoberfläche im Blick (was für Wettersatelliten<br />

c○ M.-B. Kallenrode 2. Juli 2008


12 KAPITEL 1. EINFÜHRUNG<br />

Abbildung 1.10: EnviSat: Europa’s<br />

Flagschiff der Satelliten gestützten<br />

Umweltforschung [353]<br />

sicherlich sinnvoll ist) – das Bodenauflösungsvermögen und damit die Fähigkeit, Details zu<br />

erkennen, ist jedoch schlecht. Militärische Fernerkundungssatelliten [751] stellen eher den<br />

letzteren Anspruch – die besten Aufnahmen der militärischen Aufklärung stammten daher<br />

lange Zeit nicht von Satelliten sondern von der legendären U2 (siehe auch Abb. 1.9). Nach<br />

dem Abschuss einer U2 über der Sowjetunion wurde die <strong>Erdfernerkundung</strong> (Spionage) noch<br />

stärker als ursprünglich vorgesehen auf Satelliten verlagert. Die US Spione werden heute alle<br />

als KH (KeyHole) Satelliten zusammen gefasst; der erste Vertreter KH-1 startete als Corona<br />

im Juni 1959 [722]. Um eine gute Bodenauflösung zu erreichen, wurden Satelliten in niedrigen<br />

Orbits mit konventionellen Schwarz–Weiß-Filmen verwendet. Letztere mussten dann in<br />

einer Kapsel per Luftfracht zum Entwickeln geschickt werden (siehe auch Abb. 6.1). Vom<br />

Flieger aus wurden die Kapseln im Flug aufgefangen – ein Verfahren, dass heute z.B. für<br />

Return-Experimente von Ballonen oder Raumfahrzeugen wie Genesis [459, 460] diskutiert<br />

wird.<br />

§ 20 Die zivile <strong>Erdfernerkundung</strong> hat diese Abwurfphase ausgelassen. Aber auch dort bestand<br />

der Bedarf nach höherer Auflösung. Die NOAA hat dazu Wettersatelliten in polaren<br />

Orbits verwendet, heute die POES-Serie [426, 640], siehe auch Abschn. 4.3. Diese Satelliten<br />

haben sich immer stärker zu Monitoring Missionen entwickelt, das Advanced Very High Resolution<br />

Radiometer AVHRR und der Tiros Operational Vertical Sounder TOVS sowie die<br />

von beiden gelieferten Daten werden uns in der Vorlesung noch häufiger begegnen. POES<br />

ist bereits sehr früh als allgemeiner Umweltsatellit ausgelegt gewesen; die LandSat [483] der<br />

NASA dagegen sind in Zusammenarbeit mit dem Geological Survey entwickelt und haben<br />

daher zumindest in ihrer ursprünglichen Form einen starken kartographischen Schwerpunkt.<br />

Gerade für die im sichtbaren Bereich arbeitenden Imaging-Instrumente werden uns diese<br />

Satelliten immer wieder als Beispiel dienen. Auch Google Earth greift auf LandSat Daten<br />

zurück – allerdings nur die von LandSat 7, da die neueren kommerziellen Späher wie Ikonos<br />

und QuickBird das bessere Bodenauflösungsvermögen haben.<br />

§ 21 Auch Europa ist in der <strong>Erdfernerkundung</strong> nicht untätig geblieben. Die französischen<br />

System pour l’Observation de la Terre SPOT [676] Satelliten verfolgen ähnliche Ziele wie die<br />

frühen LandSat Missionen – und sind daher ebenso in Google Earth vertreten. Das Flagschiff<br />

der (europäischen) <strong>Erdfernerkundung</strong> dagegen hat sich nicht der Kartographie verschrieben:<br />

EnviSat [289, 343, 725] ist als Satellit zur Umweltforschung entworfen – wir werden ihn<br />

in Abschn. 4.4 genauer kennen lernen und damit auch den bisher noch nicht betrachteten<br />

Bereich der <strong>Erdfernerkundung</strong> kennen lernen, die Atmosphärenforschung.<br />

§ 22 Nicht nur die Technik der <strong>Erdfernerkundung</strong> hat sich weiter entwickelt, auch die Organisationsform<br />

hat sich verändert. <strong>Erdfernerkundung</strong> war lange Zeit auf die beiden Blöcke beschränkt<br />

– wobei die Westeuropäer bei den Amerikanern mitflogen oder an Missionen beteiligt<br />

waren, die Osteuropäer dagegen bei der damaligen UdSSR. Beide Blöcke haben militärische<br />

wie zivile Satelliten und Missionen betrieben; der Versuch eines bemannten Weltraumlabors<br />

(das nur kurzlebige SkyLab [482, 747] im Westen, die etwas archaische und trotz aller manchmal<br />

eher anarchisch gelösten Probleme erfolgreiche MIR [736, 659, 766] im Osten) war noch<br />

2. Juli 2008 c○ M.-B. Kallenrode


1.1. HISTORISCHES 13<br />

Bestandteil dieses “Wettlaufs ins All” [760, 761]. Mit dem Ende des kalten Krieges hat man<br />

sich (auch symbolisch) auf die gemeinsame Station ISS [496, 447, 729, 730] geeinigt.<br />

§ 23 Ebenso wie sich nukleare Waffen außerhalb der beiden damaligen Großmächte verbreitet<br />

haben, hat es auch die <strong>Erdfernerkundung</strong> getan: zum einen, da beides eine gemeinsame<br />

Technologie, nämlich die Rakete, benötigt, zum anderen, da die Mittelmächte aus dem Schatten<br />

der Großmächte hervor treten wollten. Zuerst erfolgte dies mit der ESA noch in einem<br />

großen Block – der allerdings stets sehr stark mit der NASA zusammen gearbeitet hat und<br />

erst in den 1980er verstärkt die sowjetische Starthilfe genutzt hat. Aber auch einzelne Staaten<br />

haben sich im Geschäft der <strong>Erdfernerkundung</strong> etabliert. So hat sich Frankreich mit SPOT<br />

ein eignes Späher-System zugelegt – was mit Schwenkspiegel und guter Bodenauflösung dem<br />

schwerfälligen LandSat deutlich überlegen war. Auch Kanada ist sehr früh als selbständiger<br />

Satellitenbetreiber eingestiegen (RadarSat). Heute haben wir uns an japanische, indische<br />

und chinesische Missionen gewöhnt, auch andere Länder drängen nach – im Februar 2008<br />

hat der Iran mit Kavoshgar (Explorer) seinen ersten Satelliten (mit Rückfahrkarte) als Test<br />

für geplante ambitioniertere Projekte gestartet [650]. 4 Immer noch spielen hier geopolitische<br />

Erwägungen eine Rolle; der viel zitierte Wettlauf ins All lebt mit anderen Sportlern wieder<br />

auf [684]. 5 Dies wird auch aus der Diskussion um den Abschuss eines außer Kontrolle geratenen<br />

amerikanischen Spähers z.B. in [647, 767] deutlich, ebenso wie in ‘The Physics of Space<br />

Security’ [258].<br />

§ 24 Während immer mehr Staaten in den Weltraum drängen, verschiebt sich die Organisation<br />

der Weltraumforschung. So brechen die traditionellen Trennungen zwischen militärischer<br />

und ziviler Forschung teilweise auf: in den USA wird das Defence Meteorological Satellite Progamm<br />

DMSP des DoD mit dem zivilen Polar-orbiting Operational Environmental Satellite<br />

POES der NOAA zusammengefasst als National Polar-Orbiting Operational Environmental<br />

System NPOESS [368]. Gleichzeitig wird immer mehr an Weltraumforschung und Fernerkundung<br />

in Public Private Partnerships betrieben oder ist bereits vollständig kommerziell<br />

(wie die in § 1 aufgeführten Anbieter belegen). Das bedeutet jedoch nicht, dass Weltraumforschung<br />

und damit auch <strong>Erdfernerkundung</strong> den Gesetzen eines freien Marktes unterworfen<br />

werden – viele der Firmen sind, ebenso wie in der Nuklearbranche, letztendlich nur Staatsfirmen<br />

oder Firmen mit einer hohen staatlichen Beteiligung. 6 Statt einer Kostenersparnis<br />

in der relativ teueren Forschung im Weltraum bzw. vom Weltraum aus tragen diese Konstruktionen<br />

eher ein Risiko unübersichtlicher Verhältnisse; die outgesourcten US-Soldaten<br />

bei Blackwater können vielleicht als Mahnung dafür dienen, welche Nachteile man sich mit<br />

solchen Konstruktionen einhandeln kann – Chomsky’s ‘Failed States’ [36] lassen grüßen.<br />

§ 25 Der Hinweis auf Blackwater ist mit Bedacht gewählt: mit dem Ende des Kalten Krieges<br />

gibt es nicht mehr die UdSSR (oder den Ostblock oder den Kommunismus) als den<br />

Feind. Stattdessen ist die Welt unübersichtlich geworden: es gibt viele Staaten, die (nukleare)<br />

Rüstung und Weltraumfahrt nicht mehr als Privileg im wesentlichen der beiden ehemaligen<br />

Großmächte akzeptieren wollen (Schurkenstaaten wenn sie einem nicht in den Kram passen,<br />

sonst gehören sie natürlich zum Bündnis der Willigen), und es gibt Terroristen. Der wohl definierte<br />

Feind, dem man mit militärischen Mitteln entgegen treten konnte, ist verschwunden;<br />

die (gefühlte) Bedrohung ist diffus. Also ist nicht das Militär der Heilsversprecher; statt des<br />

Produkts Militär wird zunehmend das Produkt Sicherheit verkauft – auch wenn sich häufig<br />

4 Aus der aktuellen UCS-Liste [692] ergibt sich die folgende Verteilung Anfang 2008 aktiver Satelliten auf<br />

Länder: Algeria 1, Argentinia 6, Australia 6, Brasil 7, Canada 11, China (PR) 42, Czech Rep. 1, Denmark 1,<br />

Egypt 3, ESA 12, France 16, Germany 10, Greece 1, India 16, Indonesia 6, International 6, Iran 1, Israel 6,<br />

Italy 5, Japan 37, Kazakhstan 1, Luxembourg 13, Malaysia 4, Mexico 3, Marocco 1, Multinational 51, Nigeria<br />

2, Norway 2, Pakistan 2, Philipines 1, Portugal 1, Russia 85, Saudi Arabia 10, Singapore 1, South Korea 5,<br />

Spain 5, Sweden 4, Taiwan 7, Thailand 4, The Netherlands 5, Turkey 3, United Arab Emirates 2, United<br />

Kingdom 10, USA 452.<br />

5 Selbst die Mondlandung scheint heute wieder eine Option zu sein: zumindest hoffen die Chinesen auf die<br />

dortigen Bodenschätze und über bereits fleißig mit Chang’e 1 [652, 720, 721].<br />

6 Früher nannte man das den ‘militärisch–industriellen Komplex’ [735]. Heute sieht die Bundeszentrale für<br />

politische Bildung [271] diesen wieder erwachen.<br />

c○ M.-B. Kallenrode 2. Juli 2008


14 KAPITEL 1. EINFÜHRUNG<br />

Abbildung 1.11: Sicherheit als Produkt<br />

der <strong>Erdfernerkundung</strong> [667]<br />

Abbildung 1.12: Die zur Zeit aktiven<br />

800 Satelliten aufgeteilt nach Verwendung<br />

und Besitzer [692]<br />

nicht das Produkt sondern nur sein Name ändert. 7 Abbildung 1.11 ist übrigens nicht von<br />

einer El-Kaida-Website sondern genau ein Beispiel für ein derartiges Produkt.<br />

§ 26 Die Größenordnungen, um die es im Geschäft mit dem Weltraum geht, veranschaulicht<br />

Abb. 1.12. Von den z.Z. ca. 800 aktiven Satelliten ist ungefähr die Hälfte von den USA<br />

gestartet und betrieben, der größte Teil der Satelliten ist heute, im Gegensatz zur Frühzeit<br />

der Weltraumforschung nicht mehr militärisch sondern zivil. Ungefähr 2/3 dieser Satelliten<br />

dienen der Kommunikation (daher sind alleine ungefähr 360 der ca. 800 Satelliten im quasigeostationären<br />

Orbit 8 ), ca. 10% der <strong>Erdfernerkundung</strong> inkl. Meteorologie (zivil). Der älteste<br />

noch aktive Satellit ATS-3 (Application Technology Satellite-3, ATS-C) wurde am 15.11.1967<br />

gestartet – er erhält die Kommunikation mit der Antarktis auch heute noch aufrecht.<br />

§ 27 Die Abb. 1.12 zu Grunde liegende Datenbasis wird von der Union of Concerned Scientists<br />

UCS betreut und ist unter [692] frei zugänglich. In der Liste finden sich neben den<br />

technischen Daten Informationen zu Aufgaben, Betreiber und Hersteller sowie die entsprechenden<br />

Links. Außerdem stellt die UCS auf den umgebenden Webseiten einiges an statistischer<br />

Auswertung bereit. Eine weitere Quelle selbst für scheinbar nicht existente Satelliten<br />

oder gerade einmal abstürzende Trümmer ist das SpaceWarn Bulletin der NASA [615].<br />

§ 28 Neben der Industrie drängen aber auch ursprünglich nicht mit der Weltraumfahrt befasste<br />

Firmen und Privatpersonen in den Weltraum – die Privatisierung des Weltalls beginnt<br />

[646]? So hat der Ansari X-Prize [764] das Ziel gehabt, nach 40 Jahren endlich wieder technischer<br />

Innovationen in der Raumfahrt einzuführen: SpaceShip One [668, 716] ist eines der<br />

Ergebnisse. Damit wird der bemannte Weltraumflug eine normale öffentliche Angelegenheit<br />

ohne große Voraussetzungen (abgesehen vom nötigen Kleingeld). Jetzt geht es, allerdings<br />

unbemannt, einen Schritt weiter: der Google Lunar X-Prize [765][763] fordert zu einer unbemannten<br />

Mission zum Mond auf.<br />

7 Diese Umformung ist nicht nur gefühlt: in Zeiten der asymmetrischen Kriegsführung sind, wie sich ja<br />

auch im Irak deutlich zeigt, nicht mehr die großen mechanistischen Systeme gefragt [47, 166].<br />

8 Ca. 50 weitere der 800 Satelliten fliegen in den für Navigationssatelliten typischem Bereich zwischen<br />

10 000 und 20 000 km; 350 fliegen unterhalb 1000 km, davon 14 unterhalb 400 km.<br />

2. Juli 2008 c○ M.-B. Kallenrode


1.2. ZIELE DER ERDFERNERKUNDUNG 15<br />

1.2 Ziele der <strong>Erdfernerkundung</strong><br />

§ 29 Nachdem der Mensch nun über Jahrzehnte versucht hat, seine Kameras in immer<br />

größeren Höhen zu betreiben, welche Ziele hat er sich davon versprochen und was hat er<br />

damit erreicht? Die ersten Ideen hatten sicherlich etwas mit Entdeckergeist zu tun: man wollte<br />

sich einen Überblick verschaffen, einen anderen Blickwinkel bekannten Dingen gegenüber<br />

finden. Heutzutage ist die <strong>Erdfernerkundung</strong> wesentlich zielgerichteter; insbesondere sind die<br />

Fragen, die an die Satellitendaten gestellt werden bzw. die zur Entwicklung neuer Instrumenttypem<br />

führen, wesentlich spezieller. Die folgende Auflistung gibt einen unvollständigen<br />

Überblick über die Bereiche der Erderkundung, in denen die Verwendung von remote sensing<br />

Instrumenten üblich ist.<br />

• Archäologie und Anthropologie<br />

• Kartographie<br />

• Klimatologie: atmosphärische Spurengase, Albedo von Oberflächen und Wolken, Desertifikation,<br />

Transmission von Wolken<br />

• Küsten: Erosion, Anlagerung, Meerestiefen, Abwassersysteme, thermische und chemische<br />

Verschmutzung, Algenblüte (Bioproduktivität)<br />

• Landnutzung: Verstädterung, Landnutzung in städtischen Bereichen, agrikulturelle Landnutzung,<br />

Ernteüberwachung, Bodenfeuchte und Evapotranspiration, Waldüberwachung<br />

und -nutzung, saurer Regen, Waldschäden, ungenutzte Flächen, Versalzung, Bioproduktivität<br />

• Meteorologie: Wettervorhersage, Wettersysteme, Wolkenklassifikation, Sounding für Atmosphärenprofile<br />

• Naturkatastrophen: Fluten, Erdbeden, Vulkane, Waldbrände, Landrutsche, unterirdische<br />

Kohlefeuer, Hurricanes<br />

• Ozeanographie: Oberflächentemperaturen, Geoid, Topographie des Meeresbodens, Wind,<br />

Wellen, Strömungen, Zirkulationssysteme, See-Eis, Ölverschmutzung<br />

• Wassermanagement: Oberflächenwasser, Verschmutzung, Grundwasser, Schnee und Eis,<br />

Gletscher(rückgang), Abschmelzen von Eismassen<br />

§ 30 Für einige dieser Bereiche ist der Nutzen der <strong>Erdfernerkundung</strong> sofort offensichtlich:<br />

in der Kartographie bedarf es keiner näheren Erläuterung (und Google Earth hat immer ein<br />

gutes Beispiel – wenn auch manchmal vom Flieger). In der Meteorologie haben wir uns an<br />

die Verwendung von Satellitendaten für die tägliche Wettervorhersage gewöhnt. Für Instrumente,<br />

die in der Qzeanographie zur Bestimmung des Geoids, der Meeresbodentopographie<br />

sowie der Windgeschwindigkeiten, Wellen und Strömungen dienen, müssen wir schon etwas<br />

trickreichere Instrumente als eine einfache (Video-)Kamera verwenden; wir werden für diese<br />

Zwecke verwendbare aktive Mikrowelleninstrumente in Abschn. 3.4.1 kennen lernen. Auch<br />

für die Messung atmosphärischer Spurengase oder von Vertikalprofilen atmosphärischer Eigenschaften<br />

ist eine Kamera nicht hilfreich – Limb Sounder und ähnliche Instrumente werden<br />

wir in Abschn. 3.5 kennen lernen.<br />

§ 31 Noch weniger offensichtlich sind dagegen andere Anwendungen. Wie und mit welchen<br />

Instrumenten soll man z.B. Archäologie von einem Satelliten aus betreiben? Wie kann man<br />

Wasserreservoirs unter der Erdoberfläche erkennen? Hierzu benötigt man entweder indirekte<br />

Verfahren (wie beeinflussen überwucherte Ruinen die Eigenschaften der auf ihnen wachsenden<br />

Pflanzen, so dass man diese identifizieren kann), oder man kann mit Hilfe von Mikrowellen<br />

oder thermischem Infrarot einen Blick unter die Oberfläche werfen. Einige dieser Anwendungsbeispiele<br />

werden im Skript näher erläutert.<br />

§ 32 Für mich liegt gerade in diesen indirekten Methoden der Reiz, diese Vorlesung weiterhin<br />

im Rahmen des normalen <strong>Physik</strong>studiums anzubieten: es ist die Frage, wie sich mit<br />

eingeschränkten Messsystemen (nur reflektierte und emittierte elektromagnetische Strahlung)<br />

möglichst viel Information aus einem komplexen natürlichen System heraus kitzeln lässt.<br />

c○ M.-B. Kallenrode 2. Juli 2008


16 KAPITEL 1. EINFÜHRUNG<br />

Abbildung 1.13: Charakteristische räumliche und zeitliche Skalen für einige der durch remote<br />

sensing beobachteten Schlüsselprozesse auf der Erde [60]<br />

§ 33 Unterschiedlichen Fragestellungen bedeuten gleichzeitig unterschiedliche Anforderungen<br />

an die Satelliten und Satellitenexperimente. Das bezieht sich nicht nur auf die Technik<br />

des Instruments sondern auch auf die zu untersuchenden räumlichen und zeitlichen Skalen.<br />

Für Kartographie z.B. benötigt man eine gute räumliche Auflösung – schließlich möchte<br />

man jeden Hochspannungsmast und jede Hütte identifizieren. Die zeitliche Auflösung dagegen<br />

kann gering sein; für natürliche wie anthropogene Änderungen sind Zeitskalen in der<br />

Ordnung von einem Jahr ausreichend, für geologische Veränderungen (Kontinentaldrift, Gebirgsbildung<br />

und -zerstörung) sogar Zeitskalen von Millionen Jahren. Wettersysteme dagegen<br />

werden auf ganz anderen Skalen untersucht. Hier sind räumliche Skalen im Bereich von einigen<br />

zehn oder hundert Kilometern völlig ausreichend. Allerdings sind Wettersysteme schnell<br />

veränderlich, d.h. sie müssen kontinuierlich oder zumindest auf Zeitskalen deutlich kleiner<br />

als ein Tag beobachtet werden. Abbildung 1.13 gibt eine Übersicht über die zur Betrachtung<br />

verschiedener Phänomene notwendigen räumlichen und zeitlichen Skalen.<br />

§ 34 Das räumliche Auflösungsvermögen ist durch die Eigenschaften des Instruments und<br />

die Flughöhe des Satelliten festgelegt. Das zeitliche Auflösungsvermögen dagegen ergibt sich<br />

in der Regel aus der Wiederholfrequenz der Satellitenbahn 9 oder – bei geostationären Satelliten<br />

– aus den Instrumenteigenschaften: Satelliten der MeteoSat-Serie befinden sich in einer<br />

geostationären Umlaufbahn, d.h. sie haben mit relativ schlechter räumlicher Auflösung kontinuierlich<br />

den gleichen Bereich der Erde im Blickfeld. Hier ist die Wiederholfrequenz durch<br />

die Eigenschaften des Instruments gegeben; so erzeugen die MeteoSats alle halbe Stunde<br />

eine komplette Aufnahme ihres Blickfeldes. Die Wettersatelliten der NOAA Klasse (National<br />

Oceanographic and Atmospheric Administration; auch als POES bezeichnet) dagegen<br />

fliegen in niedrigen polaren Orbits. Somit ergibt sich ein wesentlich besseres räumliches<br />

Auflösungsvermögen und damit die Möglichkeit zum Studium kleinerer Details (wichtig insbesondere<br />

bei der Progonose und Diagnose extremer Wetterlagen), allerdings um den Preis,<br />

dass jeder einzelne Satellit einen bestimmten Bereich nur ein oder zweimal pro Tag überfliegt.<br />

9 Mit einer Ausnahme: kann das Instrument geschwenkt werden bzw. befinden sich mehrere Instrumente<br />

mit unterschiedlicher Blickrichtung an Bord, wie z.B. auf HRV auf SPOT oder MISR auf Terra, so lässt<br />

sich gegebenenfalls auch von einem benachbarten Orbit aus eine Beobachtung vornehmen und damit die<br />

Wiederholfrequenz erhöhen.<br />

2. Juli 2008 c○ M.-B. Kallenrode


1.3. EIN BEISPIEL – DEFINITION DER ANFORDERUNGEN 17<br />

Abbildung 1.14: Waldbrände<br />

in Kalifornien<br />

vom NOAA Satelliten;<br />

Kombination von sichtbaren<br />

und IR Aufnahmen<br />

[699]<br />

Daher lassen sich mit einem einzelnen Satelliten keine Studien zur Dynamik von Wettersystemen<br />

betreiben, hier ist eine größere Zahl von Satelliten notwendig; planmäßig sollten sich<br />

stets drei bis vier der NOAA-Satelliten im Orbit befinden.<br />

1.3 Ein Beispiel – Definition der Anforderungen<br />

§ 35 Gehen wir der Frage nach den Eigenschaften von Satellit und Instrument an Hand eines<br />

einfachen Beispiels nach. Es wird uns gleichzeitig die beim Entwurf eines Satellitenprojektes<br />

zu beachtenden Aspekte veranschaulichen – und damit auch den Aufbau des Skriptes<br />

verständlich machen.<br />

§ 36 Ihre Aufgabe ist der Bau eines Satelliten mit geeigneter Instrumentatierung zur Detektion<br />

von Wald- bzw. Buschbränden in ausgedehnten und dünn besiedelten Gebieten (z.B.<br />

Nationalparks in den USA; das Beispiel in Abb. 1.14 passt zwar nicht ganz zu dünn besiedelt<br />

– aber Wald- und Buschbrand ist es schon). Diese Waldbrände sollen nicht erst dann entdeckt<br />

werden, wenn die Rauchsäule so hoch ist, dass der halbe Bundeststaat in Flammen steht und<br />

die Rauchsäule von allen anderen Bundesstaaten aus auch vom Boden gesehen werden kann,<br />

sondern bereits dann, wenn man das Feuer noch kontrolliert (z.B. durch Brandschneisen)<br />

abbrennen kann: Sie sollen nicht die Situation in Abb. 1.14 vom Satelliten aus entdecken<br />

sondern Sie sollen Sie durch rechtzeitiges Entdecken verhindern.<br />

§ 37 Die Lösung dieses Problems ist – wie bei den meisten realen Problemen – nicht eindeutig;<br />

sehr unterschiedliche Konfigurationen von Satellit und Instrument(en) sind denkbar. Bei<br />

einer Suche nach der Lösung des Problems kann man folgende Strategie verfolgen:<br />

1. was sind die physikalischen (und mit einem remote sensing Instrument nachweisbaren)<br />

Eigenschaften des zu untersuchenden Objekts?<br />

2. mit welcher Art von Instrument(en) können diese nachgewiesen werden?<br />

3. mit welcher Genauigkeit müssen diese Größen gemessen werden?<br />

4. wo müssen sie gemessen werden (über den Ozeanen vielleicht nicht unbedingt)?<br />

5. wie oft müssen sie gemessen werden?<br />

6. welche Information über die Eigenschaften des Objekts soll an den Beobachter (d.h. die<br />

Bodenstation) übertragen werden?<br />

7. wann soll übertragen werden?<br />

c○ M.-B. Kallenrode 2. Juli 2008


18 KAPITEL 1. EINFÜHRUNG<br />

§ 38 Die erste Frage ist die entscheidende; hier ist etwas Brainstorming hilfreich. Wenn<br />

wir Feuer nachweisen wollen, brauchen wir uns nur unsere Vorstellung von Feuer zu vergegenwärtigen:<br />

der offenbare Aspekt von Feuer sind Flammen, d.h. veränderliche, rötlich-gelbe<br />

Leuchterscheinungen und Wärme. Oder in physikalischer Terminologie: ein Feuer emittiert<br />

Licht im sichtbaren Bereich des elektromagnetischen Spektrums und Wärme, d.h. elektromagnetische<br />

Strahlung im thermischen Infrarot.<br />

§ 39 Und die zum Nachweis geeigneten Instrumente (Pkt. 2)? Zum Nachweis der Emission<br />

im sichtbaren Bereich reicht es, eine einfache Kamera zu verwenden, die im sichtbaren Bereich<br />

des Spektrums beobachtet und damit die zum Feuer gehörenden Flammen nachweist.<br />

Allerdings: Feuer ist auch mit Rauchentwicklung verbunden, d.h. unsere Kamera kann das<br />

Feuer wahrscheinlich gar nicht sehen, da es unter einer Rauchwolke den Blicken entzogen<br />

ist. Also müssten wir beim Nachweis eines Feuers im sichtbaren Bereich des Spektrums die<br />

Abbildungen auf Flammen und/oder Rauch untersuchen.<br />

§ 40 Wo wir gerade bei Rauchwolken sind: was macht ein derartiges Instrument eigentlich<br />

bei einem Wolken bedeckten Himmel? Dann sieht ein Instrument im sichtbaren Bereich des<br />

elektromagnetischen Spektrums nur die Oberkante der Wolken, alles darunter entzieht sich<br />

seinen Blicken – und der Wald könnte großflächig in Flammen stehen bevor eine Wolkenlücke<br />

einmal einen Blick auf das Feuer oder den Rauch gewährt. Und bei einem teilweise bedeckten<br />

Himmel ist unter Umständen die Unterscheidung zwischen Wolken und Rauch nicht ganz<br />

einfach.<br />

§ 41 Unser Waldbrandnachweiser muss also um etwas ergänzt (oder durch etwas ersetzt)<br />

werden, dass auch bei Wolkenbedeckung Informationen vom Erdboden aufnehmen und auswerten<br />

kann. Wolkenbedeckung kann von Mikrowellenstrahlung durchdrungen werden, auch<br />

im thermischen Infrarot kann man, zumindest teilweise, durch die Wolken sehen. Und ein Sensor<br />

im thermischen Infrarot kann auch einen Aspekt eines Waldbrandes nachweisen, nämlich<br />

die Wärmeentwicklung – auch dann, wenn das eigentliche Feuer bereits unter einer Rauchwolke<br />

verschwindet. 10<br />

§ 42 Unsere Wunschinstrumentierung könnte daher ein Sensor im thermischen Infrarot sein,<br />

eventuell ergänzt (für Schönwetter) um einen Sensor im sichtbaren Licht, da im sichtbaren<br />

die Informationen für einen menschlichen Dateninterpreter natürlich einfacher auszuwerten<br />

sind. Damit hätten wir auch den in Abb. 1.14 verwendeten Datensatz.<br />

§ 43 Bevor wir uns (gemäß Pkt. 3) an eine Spezifikation der Instrumente machen, müssen<br />

wir unser Konzept noch überprüfen: zwar würde diese Instrumentkombination die zu untersuchenden<br />

Phänomene nachweisen – aber wie oft würde sie einen Fehlalarm auslösen? Unser<br />

Infrarotsensor reagiert auf thermische Emission – das ist nicht zwingend ein Waldbrand,<br />

auch ein Hochofenabstich, eine startende Rakete, ein Nutz- oder Schadfeuer, das Abfackeln<br />

von Erdgas an einer Ölbohrstelle, ein Leck in einer Ölpipeline u.v.a.m. sind mit Wärme und<br />

damit einem Signal im thermischen Infrarot verbunden. 11 Damit der Satellit nicht immer<br />

zu Waldbrandalarm gibt, müssen wir ein Verfahren entwickeln, Waldbrand von den anderen<br />

Wärmequellen zu unterscheiden. Bei gutem Wetter kann dabei sicherlich die Kamera<br />

im sichtbaren Bereich helfen: das spricht dafür, beide Instrumente zu fliegen und nicht nur<br />

den Sensor im thermischen IR alleine. Zusätzlich können wir dem Satelliten eine Karte mit<br />

10 Die roten Punkte in Abb. 1.14 sind übrigens nicht das Feuer im optischen Bereich (letztere sind in den<br />

sichtbaren Kanälen nur recht schlecht zu identifizieren) sondern im thermischen Infrarot. Die Abbildung ist<br />

also keine direkte Aufnahme sondern eine Kombination von mehreren Aufnahmen in verschiedenen Wellenlängenbereichen.<br />

Das ist ein Standardverfahren in der <strong>Erdfernerkundung</strong>; selbst verschiedene Bereiche des<br />

sichtbaren Spektrums werden analog zu den Schichten eines Farbfilms einzeln aufgenommen und später geeignet<br />

kombiniert. Auf diese Weise werden auch die Falschfarbenaufnahmen erzeugt – auch der im sichtbaren<br />

Teil des Spektrums aufgenommene Anteil von Abb. 1.14 ist nicht in den wahren Farben wieder gegeben.<br />

11 Das Problem ist Kalten Kriegern wohl bekannt: startende Interkontinentalraketen lassen sich am einfachsten<br />

durch die thermische Emission nachweisen – mit einer riesigen Rate an Fahelalarmen durch andere<br />

Signale im IR.<br />

2. Juli 2008 c○ M.-B. Kallenrode


1.3. EIN BEISPIEL – DEFINITION DER ANFORDERUNGEN 19<br />

geben, auf der Hochöfen und andere stationäre Wärmeproduzenten eingetragen sind, so dass<br />

zumindest an diesen Stellen ein Infrarotsignal nicht als Waldbrand identifiziert wird.<br />

§ 44 Bei der Instrumentspezifikation (Pkt. 3) sind wichtige Gesichtspunkte das räumliche<br />

und das spektrale/thermische Auflösungsvermögen. Auf Grund der verwendeten großen Wellenlängen<br />

haben Sensoren im thermischen Infrarot ein schlechteres Auflösungsvermögen als<br />

solche im sichtbaren: größenordnungsmäßig 100 m im thermischen IR vergleichen mit größenordnungsmäßig<br />

10 m im sichtbaren Bereich des Spektrums für die Instrumente der 1980er.<br />

Heute sind die absoluten Werte in beiden Spektralbereichen deutlich geringer, aber immer<br />

noch gilt: eine Kamera im sichtbaren Bereich des Spektrums erkennt den Ort in unserem<br />

Beispiel genauer als ein IR-Sensor. 12 Sie muss ihn auch genauer erkennen, da die Flammen<br />

im sichtbaren Bereich (insbesondere wenn unter der Rauchwolke verborgen) einen geringeren<br />

Kontrast mit der Umgebung bilden als es die Wärmequelle im IR tut. Daher können Flammen<br />

im sichtbaren erst entdeckt werden, wenn sie einen großen Teil des durch die Bodenauflösung<br />

gegebenen Bildpunktes (Pixels) ausfüllen, im thermischen IR dagegen muss nur ein kleiner<br />

Teil des Pixels in Flammen stehen um dessen Helligkeitswert so weit anzuheben, dass er sich<br />

gegen die Umgebung deutlich abhebt.<br />

§ 45 Auf dieser Basis können wir uns jetzt mit einigen ESA oder NASA-Technikern zusammen<br />

setzen und die Detailspezifikationen der Instrumente erarbeiten – oder Sie arbeiten das<br />

Skript durch und kehren dann zu diesem Beispiel zurück, um die Spezifikationen selbst zu<br />

geben.<br />

§ 46 Die Punkte 4 und 5 unserer Liste betrafen nicht mehr die Instrumentierung sondern<br />

den Satelliten bzw. genauer dessen Bahn. Selbst wenn die Forstbehörden des Bundesstaats<br />

Washington die Auftraggeber für den Satelliten und die Hauptabnehmer der Daten sind,<br />

wird es uns nicht gelingen, den Satelliten so zu positionieren, dass er immer über Seattle<br />

steht, da sich die Erde unter der Satellitenbahn weg dreht. Daher ist es am ökonomischsten,<br />

eine globale Waldbrandüberwachung anzubieten und die Daten an andere Interessenten zu<br />

verkaufen. Allerdings brauchen wir keine vollständige globale Überwachung: in der Arktis<br />

und Antarktis fehlen die für einen Waldbrand erforderlichen Wälder. Der Satellit kann also<br />

auf den Überflug über hohe Breiten verzichten. Dies lässt sich durch die Wahl der Inklination<br />

seiner Bahn erreichen. Gleichzeitig ergeben sich bei der geringere Inklination auch längere<br />

Verweildauern des Satelliten in den eigentlich interessierenden mittleren Breiten.<br />

§ 47 Die Flughöhe des Satelliten in seiner Bahn hat Konsequenzen für das Bodenauflösungsvermögen<br />

und den vom Satelliten während eines Überfluges beobachteten Bereich (Swath<br />

Width, Breite des Bildausschnitts rechtwinklig zur Bodenspur). Und damit auch für die<br />

Wiederholfrequenz, d.h. die Frequenz, mit der ein bestimmter Punkt auf der Erde von dem<br />

Satelliten eingesehen werden kann – für Waldbrandüberwachung ist es nicht ganz optimal,<br />

wenn der Satellit nur alle 2 Wochen vorbeischaut. Beide Größen lassen sich durch geschickte<br />

Kombination von Flughöhe und Spezifikation des Instruments (insbesondere Blickwinkel;<br />

eventuell Möglichkeit des Schwenkens) über einen relativ weiten Bereich einstellen.<br />

§ 48 Bleiben noch die beiden letzten Punkte unserer Liste. Diese betreffen die Behandlung<br />

der von den Instrumenten gewonnenen Daten. Für die Waldbrandentdeckung ist es sicherlich<br />

nicht sinnvoll, wenn die Daten stets erst an Bord gespeichert werden und dann einmal im Monat<br />

an eine Bodenstation gegeben werden. Andererseits ist es bei direkter Datenübertragung<br />

für einen Überwacher am Boden vielleicht nicht zwingend notwendig, mehrmals am Tag ein<br />

neues Bild von den Wäldern um Seattle zu erhalten und zu interpretieren.<br />

§ 49 Daher könnte man für einen Waldbrandsatelliten ein anderes Verfahren der Datenverarbeitung<br />

vorsehen: die Datenverarbeitung an Bord des Satelliten soll ein Feuer automatisch<br />

erkennen, z.B. durch Vergleich der Aufnahmen mit einer gespeicherten Karte und/oder<br />

12 Bei ausgedehnten Wäldern in unbewohnten Gebieten reden wir allerdings nicht über 1 km mal 1 km große<br />

Parzellen sondern eher über Gebiete mit Kantenlängen von einigen 10 km, d.h. selbst ein Auflösungsvermögen<br />

von 1 km wäre noch hilfreich.<br />

c○ M.-B. Kallenrode 2. Juli 2008


20 KAPITEL 1. EINFÜHRUNG<br />

den Aufnahmen der Vortage. Das Auslösen von Feueralarm erfolgt, wenn in einem oder<br />

mehreren Bildpunkten ein vorher fest gelegter Helligkeitswert überschritten wurde. Die Datenübertragung<br />

würde dann wie folgt aussehen: kein Anzeichen für ein Feuer, so wird ein<br />

kurzes ok übertragen (sonst weis die Bodenstation nicht, ob der Satellit kein Feuer gesehen<br />

hat oder ob es technische Probleme gibt) und die Bodenstation fordert das Bild nur bei<br />

Bedarf an. Findet sich ein Anzeichen für Feuer, so wird ein Alarm ausgelöst und das Bild<br />

übertragen. Auf Grund des Alarms weis die Bodenstation auch, dass dieses Bild mit hoher<br />

Priorität genauer zu untersuchen ist und nicht nur eine Routineaufnahme darstellt. Durch<br />

eine derartige teil-automatisierte Vorverarbeitung wird also nicht nur die zu übertragende<br />

Datenmenge relativ klein gehalten sondern auch die Aufmerksamkeit der Beobachter am<br />

Boden auf den entscheidenden Datensatz gelenkt.<br />

§ 50 Was in dieser Einleitung ein Planspiel war, wird aktuell am Beispiel von EMBERSat<br />

[145] diskutiert – wenn auch mit anderen Prioritäten als von uns in den voran gegangenen<br />

Abschnitten identifiziert. Und die Disaster Monitoring Constellation DMC [329, 723] ist in<br />

diesem Bereich natürlich ebenfalls aktiv.<br />

1.4 Aufbau der Vorlesung<br />

§ 51 Mit Hilfe des voran gegangenen Beispiels haben wir die wesentlichen Anforderungen an<br />

das Design einer Satellitenmission definiert:<br />

• die Bahn, die (mit den Eigenschaften des Instruments) die Wiederholfrequenz und das<br />

Bodenauflösungsvermögen bestimmt,<br />

• die Auswahl und Spezifizierung des primären Satelliteninstruments,<br />

• Auswahl und Spezifizierung ergänzender Instrumente,<br />

• die Datentransmission, sowie<br />

• die teil-automatisierte Datenverarbeitung (an Bord oder am Boden) zur Identifikation.<br />

Das Skript folgt in seinem Aufbau dieser Anforderungsliste.<br />

§ 52 In Kapitel 2 werden wir Satellitenbahnen diskutieren. Dazu gehören die aus den Kepler’schen<br />

Gesetzen bestimmten elementaren Bahnen, Kreisbahn oder Ellipse, ebenso wie kompliziertere<br />

Bahnen wie das scheinbare Ruhen eines Satelliten im Lagrange-Punkt auf der Verbindungsachse<br />

Sonne–Erde oder das für Missionen zu anderen Planeten wichtige planetare<br />

Billard. Beispiele für typische Satellitenbahnen werden ebenso vorgestellt wie Bahnstörungen<br />

und ihre Ursachen. Dabei werden wir lernen, dass einige der Bahnstörungen nicht nur negative<br />

Auswirkungen haben sondern auch zur Erzeugung bestimmter Bahnen verwendet werden<br />

können; frei nach dem Motto ‘its not a bug – its a feature’. Wir werden kurz auch das Einbringen<br />

des Satelliten in seine Bahn diskutieren und seine Stabilisierung in der Bahn. Letztere<br />

ist für die Ausrichtung der Instrumente wichtig – was nützt das genialste Instrument mit<br />

der Fähigkeit, das Kleingedruckte auf einem Handy-Vertrag aus 300 km Flughöhe lesen zu<br />

können, wenn der zugehörige Satellit wie ein Betrunkener durch die Gegend torkelt oder sich<br />

langsam um seine, aber nicht die Kamera-Achse dreht.<br />

§ 53 In Kapitel 3 werden Beispiele für typische Instrumente auf <strong>Erdfernerkundung</strong>ssatelliten<br />

vorgestellt. Dabei werden auch ältere Instrumente genauer diskutiert:<br />

• sie sind einfach, so dass sich die physikalischen Grundlagen gut verstehen lassen – dass<br />

Messprinzip ist bei modernen Instrumenten noch immer das gleiche, schließlich ändert sich<br />

die <strong>Physik</strong> nicht schnell genug;<br />

• sie bilden das Rückgrat für alle Untersuchungen zum global change und werden zur Erzeugung<br />

einer kontinuierlichen Datenbasis teilweise heute noch nachgebaut bzw. am Leben<br />

erhalten;<br />

• sie sind Universalinstrumente und nicht wie z.B. der Coastal Zone Color Scanner CZCS<br />

auf eine sehr spezielle Fragestellung optimiert;<br />

2. Juli 2008 c○ M.-B. Kallenrode


1.4. AUFBAU DER VORLESUNG 21<br />

• die meisten modernen Instrumente sind eher eine Weiterentwicklung dieser klassischen<br />

Instrumente als Neuentwicklungen, d.h. die Grundlagen haben sich nicht geändert, lediglich<br />

einige technische Details.<br />

Auch einige moderne, state-of-the-art Instrument werden beschrieben.<br />

§ 54 Kapitel 4 stellt sehr kurz einige Satellitenfamilien bzw. Missionen vor: auf unseren<br />

Wettersatelliten beziehen wir uns immer als MeteoSat – z.Z. sind wir allerdings bei bereits bei<br />

MeteoSat 8 und dieser unterscheidet sich von seinen Vorgängern nicht unerheblich. Außerdem<br />

werfen wir einen kurzen Blick auf die Umweltsatelliten: EnviSat der ESA und das Earth<br />

Observing System EOS (früher Mission to Planet Earth) der NASA mit seinen verschiedenen<br />

Satelliten wie Terra, Aqua, CloudSat usw.<br />

§ 55 In Kapitel 5 werden wir einen kurzen Blick auf andere Aspekte von Umweltforschung<br />

und die Erforschung der weiteren Umwelt werfen. Dazu gehören insbesondere die zur Untersuchung<br />

der Solar–terrestrischen Beziehungen erforderlichen Messungen von Solarkonstante,<br />

Albedo und Plasma im Erdumfeld wie die für die vergleichende Atmosphärenforschung wichtigen<br />

Untersuchungen an anderen Planeten bzw. deren Monden.<br />

§ 56 Bisher haben wir <strong>Erdfernerkundung</strong> eher unter dem messtechnischen Aspekt betrachtet.<br />

Wie bei einer Labormessung müssen die Daten aber auch ausgewertet werden. Bevor<br />

wir uns mit einigen Aspekten der Datenaufbereitung, insbesondere der Bildverarbeitung, in<br />

Kapitel 7 beschäftigen können, müssen wir einen Aspekt des remote sensing betrachten, der<br />

bei einer Labormessung nicht in dieser Form auftritt: die Kommunikation über hunderte<br />

oder Tausende von Kilometern entlang gestörter Kommunikationskanäle. Dazu werden wir<br />

uns in Kapitel 6 mit den Grundlagen der Kommunikation beschäftigen, insbesondere mit der<br />

Quellencodierung zur Verminderung der Redundanz und mit der Kanalcodierung, d.h. dem<br />

Zufügen von Redundanz um eine Fehlererkennung und -korrektur zu ermöglichen. In Kapitel<br />

6 werden wir einen kurzen Ausflug in die Bildbearbeitung vornehmen. In beiden Kapitels<br />

werden uns Bekannte aus der täglichen Arbeit mit dem Computer begegnen, wie z.B. der<br />

Lempel-Ziv-Algorithmus als Grundlage von ZIP und der Bildkompression in GIF und PNG<br />

oder JPEG als Verlust behaftetes Bildformat.<br />

§ 57 Fragen und Aufgaben finden sich in allen Kapiteln (außer 4), Musterlösungen für einen<br />

Teil der Aufgaben finden Sie im Anhang.<br />

§ 58 Literatur ist ebenfalls am Ende jedes Kapitels angegeben – und natürlich auch im<br />

Text selbst. Wirklich empfehlenswert als Begleitung für die gesamte Vorlesung ist der Sabins<br />

[209] als ausführliches, mit vielen Beispielen versehenes Werk, und Cracknell und Hayes [41]<br />

als kompaktes Bändchen. Die NASA stellt ferner ein Online-Tutorial zur <strong>Erdfernerkundung</strong><br />

zur Verfügung [607], das viele (auch militärische oder von Flugzeugen gemachte) Beispielaufnahmen<br />

enthält. Das Tutorial verweist auch auf weitere online-Ressourcen. Ein einfaches<br />

Übersichtstutorial wird auch vom Canadian Center for Remote Sensing zur Verfügung gestellt<br />

[34].<br />

§ 59 Ein weiteres gutes Hilfsmittel ist CEOS Earth Observation Handbook [276]: es enthält<br />

u.a. eine aktuelle Liste nahezu aller ziviler Satelliten (inkl. Orbit Informationen, Start und<br />

Missionsende oder geplantem Start) sowie eine Liste der Instrumente – mit Hyperlinks. Auch<br />

JAXA stellt unter [386] viele Informationen über Satelliten, Instrumente und Messprinzipien<br />

zur Verfügung. Und alle möglichen bunten Bilder gibt es unter [619] – wenn auch mit<br />

etwas ungleichmäßiger geographischer Verteilung. Satellitendaten und global change werden<br />

ausführlich in Verbindung gebracht in [82] und [128].<br />

c○ M.-B. Kallenrode 2. Juli 2008


Kapitel 2<br />

Satellitenbahnen<br />

Gib mir Schiffe oder richtige Segel für die Himmelsluftfahrt her<br />

und es werden auch Menschen da sein, die sich vor den entsetzlichen<br />

Weiten nicht fürchten.<br />

Kepler an Galilei, in [731]<br />

§ 60 In diesem Kapitel werden die Grundlagen der Bahnmechanik besprochen. Dazu gehört<br />

die Bewegung eines Testkörpers im Schwerefeld eines wesentlich massiveren Körpers und die<br />

sich daraus ergebenden grundlegenden Bahnen, die durch Kegelschnitte beschrieben werden<br />

(Abschn. 2.2). Für die <strong>Erdfernerkundung</strong> sind von diesen Bahnen nur die geschlossenen<br />

Bahnen, d.h. Kreis- und Ellipsenbahnen, interessant. Beispiele für typische Bahnen von Erdsatelliten,<br />

insbesondere im Hinblick auf Flughöhe und Inklination, werden diskutiert (Abschn.<br />

2.4).<br />

§ 61 Dabei gehen wir von einer für die <strong>Erdfernerkundung</strong> vielleicht nicht ganz realistischen<br />

Annahme aus: Satellit und Erde sind beide Punktmassen. Aus Sicht insbesondere eines Spionagesatelliten<br />

sollte die Erde aber weniger ein auf maximal ein Pixel abzubildender Punkt<br />

als vielmehr ein auf Tausende von Pixeln abzubildender ausgedehnter Gegenstand sein. Auch<br />

aus bahnmechanischer Sicht ist die Erde zumindest für Flughöhen im Bereich einiger hundert<br />

bis weniger tausend Kilometer alles andere als eine Punktmasse. Inhomogenitäten im<br />

Schwerefeld der Erde führen daher zu Störungen der Satellitenbahn. Diese Störungen lassen<br />

sich zum gezielten Anpassen von Bahnen verwenden, z.B. zur Erzeugung sonnensynchroner<br />

Bahnen.<br />

§ 62 In Abschn. 2.7 werden neben diesen typischen Bahnen auch spezielle Bahnen diskutiert,<br />

die weniger für die <strong>Erdfernerkundung</strong> als vielmehr für die Erforschung des Planetensystems<br />

von Bedeutung sind: das scheinbare Verharren eines Satelliten im Lagrange-Punkt auf der<br />

Verbindungslinie Erde–Sonne und das u.a. von den Voyager und Pioneer Raumsonden durchgeführte<br />

interplanetare Billard, bei dem die Sonden im Gravitationsfeld eines Planeten in<br />

Richtung auf den nächsten Planeten abgelenkt werden.<br />

2.1 Historisches: ein Apfel fällt um die Erde<br />

§ 63 Die Historie startet mit einer guten Näherung: einem ruhenden Zentralkörper (Sonne<br />

im Plaentensystem, Erde bei Satellitenbewegungen) und einem bewegten Satelliten; letzterer<br />

wird im Fall des Zentralkörpers Sonne auch als Planet bezeichnet. Die Flugbahn eines<br />

Satelliten um einen Planeten ist, ebenso wie die Bahn eines Planeten um ein Zentralgestirn,<br />

durch die Anziehungskraft zwischen den beiden Körpern sowie die Bahngeschwindigkeit des<br />

Satelliten/Planeten bestimmt.<br />

22


2.1. HISTORISCHES: EIN APFEL FÄLLT UM DIE ERDE 23<br />

Abbildung 2.1: Kepler’sche Gesetze<br />

§ 64 Die Beschreibung antriebsloser Satellitenbahnen erfolgt mit Hilfe der Kepler’schen Gesetze:<br />

1<br />

1. Die Planeten bewegen sich auf elliptischen Bahnen in deren einem Brennpunkt die Sonne<br />

steht. 2<br />

2. Die Radiusvektoren von der Sonne zu den Planeten überstreichen in gleichen Zeiten<br />

gleiche Flächen (Flächensatz).<br />

3. Die dritten Potenzen der großen Halbachsen a sind proportional zu den Quadraten der<br />

Umlaufzeiten, d.h.<br />

T 2<br />

= ck<br />

a3 mit ck als einer für alle Planeten eines Sonnensystems gleichen Konstante.<br />

Anschaulich sind die Kepler’schen Gesetze in Abb. 2.1 dargestellt.<br />

§ 65 Zur Anwendung der Kepler’schen Gesetze auf Satelliten ist jeweils das Wort Planet<br />

durch Satellit zu ersetzen und Sonne bzw. Zentralgestirn durch Planet.<br />

Zwischenrechnung 1 Wenn das dritte Kepler’sche Gesetz für alle Satelliten gilt: überprüfen<br />

Sie, ob es auch für den Mond gilt.<br />

§ 66 Die Kepler’schen Gesetze sind empirisch, d.h. sie beruhen auf Beobachtungen und sind<br />

nicht aus grundlegenden Prinzipien abgeleitet. Erst Newton gelang das Verständnis dieser<br />

Gesetze in dem er erkannte, dass das von ihm gefundene Gravitationsgesetz nicht nur den Fall<br />

eines Apfels auf der Erde beschreibt sondern ebenso auch die Bewegung eines Planeten um die<br />

Sonne: der Apfel fällt nicht auf die Erde sondern um diese herum. 3 Da ein Planet, so Newton’s<br />

1 Kepler veröffentlichte seine ersten beiden Gesetze 1609 in Astronimica nova de motibus stellae Martis,<br />

das dritte nach weiteren Beobachtungen und einer verfeinerten Datenanalyse zehn Jahre später in Harmonices<br />

mundi libri V.<br />

2 Das erste Kepler’sche Gesetz beinhaltet, dass die Bahnen der Planten geschlossene Bahnen sind. Das ist<br />

nicht trivial, eine alternative Form der Bewegung mit nicht geschlossenen Bahnen wären Präzessionsorbits.<br />

3 Newton veröffentlichte diese Betrachtungen zuerst 1687 in den Principia. Dort gibt er auch eine anschauliche<br />

Erklärung: beim waagerechten Wurf hängt die Flugweite von der horizontalen Geschwindigkeit des<br />

Körpers ab; mit zunehmender Abwurfgeschwindigkeit wächst die Flugweite. Wird der Körper sehr schnell geworfen,<br />

so wird seine Flugweite so groß, dass die Erdkrümmung nicht mehr vernachlässigt werden kann. Eine<br />

Kreisbahn entsteht dann, wenn sich die Erde während einer Zeiteinheit des Fluges um genau das Stückchen<br />

unter dem Körper krümmt, um dass er in dieser Zeiteinheit in Richtung auf das Zentrum gefallen ist:<br />

c○ M.-B. Kallenrode 2. Juli 2008


24 KAPITEL 2. SATELLITENBAHNEN<br />

Argumentation, sich nicht auf einer gradlinigen Bahn bewegt, muss gemäß Trägheitsgesetz<br />

eine Kraft auf ihn wirken. Diese ist die Gravitationskraft des Zentralkörpers, gegeben als<br />

�F = −γ MZ mp<br />

r 2 �er (2.1)<br />

mit MZ und mp als den Massen von Zentralkörper und Planet, r als deren Abstand, �er als dem<br />

Einheitsvektor entlang der Verbindungsachse zwischen den beiden (mit dem Zentralkörper als<br />

Ausgangspunkt) sowie γ = 6.67 · 10 −11 Nm 2 /kg 2 als der universellen Gravitationskonstante.<br />

§ 67 Unter der Annahme einer Kreisbewegung lässt sich die Bahngeschwindigkeit des Planeten<br />

einfach herleiten, da die Zentralkraft die Gravitationskraft ist, d.h. es<br />

mpv 2 K<br />

γ MZ<br />

r = γ MZ mp<br />

r2 → v 2 K = . (2.2)<br />

r<br />

Diese Kreisbahngeschwindigkeit, auch als erste kosmische Geschwindigkeit bezeichnet, ist<br />

eine ausgezeichnete Geschwindigkeit: sie ist die niedrigste Geschwindigkeit, mit der sich ein<br />

Körper auf einer Umlaufbahn um den Zentralkörper halten kann. Für einen Körper auf der<br />

Erde beträgt die erste kosmische Geschwindigkeit 7.9 km/s oder 28 440 km/h.<br />

§ 68 Auch eine Ellipsenbahn lässt sich mit Newtons Apfelanalogie zumindest plausibel machen.<br />

Stellen wir uns dazu vor, dass der Körper mit einer Horizontalgeschwindigkeit größer<br />

als der ersten kosmischen Geschwindigkeit geworfen wird. Dann ist die Fallstrecke während<br />

einer Zeiteinheit die gleiche wie bei der Kreisbahn; die dabei zurück gelegte horizontale Strecke<br />

jedoch größer, d.h. der Körper entfernt sich vom Zentralkörper, r wird also größer. Mit<br />

zunehmendem r wird auch die potentielle Energie des Körpers größer. Da die Bewegung<br />

nach dem Abwurf antriebslos erfolgt, muss die kinetische Energie des Körpers abnehmen<br />

und damit auch seine Geschwindigkeit. Ist die Gesamtenergie Wges des Körpers beim Start<br />

größer als seine potentielle Energie Wp,∞ im Unendlichen, so entweicht der Körper aus dem<br />

Schwerefeld des Zentralkörpers. Für den Fall Wges < Wp,∞ wird so lange kinetische Energie<br />

in potentielle Energie des Körpers umgewandelt, wie seine Geschwindigkeit die Kreisbahngeschwindigkeit<br />

bei seinem momentanen Abstand übersteigt. Wird dieser Punkt überschritten,<br />

so fällt der Körper pro Zeiteinheit eine größere Strecke als sich die lokale Kreisbahn unter ihm<br />

wegkrümmt, d.h. der Körper bewegt sich unter Umwandlung von potentieller in kinetische<br />

Energie auf den Zentralkörper zu.<br />

§ 69 Mit dieser anschaulichen Betrachtung können wir zwar keine Ellipsenbahnen begründen<br />

(die Betrachtung zeigt nicht, dass die Bahnen geschlossen sind), aber der Flächensatz wird<br />

plausibel: große Abstände sind mit geringen Geschwindigkeiten verbunden, kleine Abstände<br />

mit großen.<br />

§ 70 Das dritte Kepler’sche Gesetz lässt sich auf anschauliche Weise zumindest plausibel<br />

machen. Auf einer Kreisbahn (als Spezialfall der Ellipse) gilt in jedem Punkt der Bahn (2.2).<br />

Ersetzt man die Geschwindigkeit vK durch den Quotienten aus Umfang 2πr der Kreisbahn<br />

und Umlaufzeit T , so ergibt (2.2) eine Konstante:<br />

r3 γMZ<br />

= .<br />

T 2 (2π) 2<br />

2.2 <strong>Physik</strong>alische Grundlagen<br />

§ 71 Streng genommen ist die obige Betrachtung aus zwei Gründen nur eine Näherung:<br />

• Planeten- und Satellitenbahnen sind durch die gegenseitige Anziehung zwischen den beteiligten<br />

Körpern bestimmt. Daher ist die Idee des ruhenden Zentralkörpers nur im Rahmen<br />

des eingeschränkten Zweikörperproblems (Abschn. 2.2.1) korrekt.<br />

• selbst im Rahmen des eingeschränkten Zweikörperproblems ist diese Betrachtung vereinfacht;<br />

so wird z.B. eine Planetenbahn um ein Zentralgestirn durch die anderen Planeten<br />

gestört, eine Satellitenbahn kann durch den Einfluss des Mondes gestört werden. In diesem<br />

Fall lässt sich die Bewegung nicht mehr auf ein Zweikörperproblem reduzieren.<br />

2. Juli 2008 c○ M.-B. Kallenrode


2.2. PHYSIKALISCHE GRUNDLAGEN 25<br />

2.2.1 Eingeschränktes Zweikörperproblem<br />

Abbildung 2.2: Bewegung um den gemeinsamen<br />

Schwerpunkt<br />

§ 72 Aber selbst bei Beschränkung auf zwei Körper müssen wir die Beschreibung genauer<br />

hinter fragen. Betrachten wir dazu zwei Körper gleicher Masse m, die sich im Schwerefeld des<br />

jeweils anderen Körpers bewegen. Dann ist es nicht möglich zu sagen, dass der eine Körper<br />

ruht und der andere sich im Schwerefeld des ersten auf einer Kreisbahn um diesen bewegt.<br />

Stattdessen bewegen sich beide Körper um den gemeinsamen Massenmittelpunkt.<br />

§ 73 Da bei Planeten- und Satellitenbewegungen der eine Körper wesentlich massereicher<br />

ist als der andere, liegt der gemeinsame Schwerpunkt sehr dicht an bzw. in der Regel im<br />

massenreicheren Körper und die anschauliche Darstellung der Bewegung eines Körpers um<br />

den anderen ist angemessen.<br />

§ 74 Betrachten wir dazu zwei Massen m1 und m2 an den Orten �r1 und �r2. Ihr Massenmittelpunkt<br />

befindet sich am Ort �rMM, d.h. da kein Drehmoment wirkt muss gelten<br />

m1(�r1 − �rMM) + m2(�r2 − �rMM) = 0. Mit �r = �r1 − �r2 als dem die beiden Massen verbindenden<br />

Vektor ergibt sich für die Abstände der Massen vom gemeinsamen Schwerpunkt<br />

�r1 − �rMM =<br />

m2<br />

m1 + m2<br />

�r und �r2 − �rMM = − m1<br />

m1 + m2<br />

Zwischenrechnung 2 Schätzen Sie mit Hilfe der Größen in Abschn. 8.2 ab, wo der Massenmittelpunkt<br />

in den Systemen Sonne–Erde, Erde–Mond, Erde–MeteoSat und Erde–EnviSat<br />

liegt.<br />

§ 75 Mit � F1 als der von m2 auf m1 ausgeübten Kraft und entsprechend � F2 als der auf m2<br />

wirkenden Kraft ergibt sich<br />

�F1 = m1¨r1 = m1 ¨ �rMM + m1 m2<br />

m1 + m2<br />

�r .<br />

¨�r und � F2 = m2¨r2 = m2 ¨ �rMM − m1 m2<br />

m1 + m2<br />

¨�r . (2.3)<br />

Da die Kräfte entgegen gesetzt gleich sind, � F1 = − � F2, ergibt sich daraus m1 ¨ �rMM = −m2 ¨ �rMM<br />

und damit für allgemeine Massen<br />

¨�rMM = 0 ,<br />

d.h. der Massenmittelpunkt des Zweikörpersystems wird nicht beschleunigt sondern befindet<br />

sich im Zustand der Ruhe oder der gleichförmigen Bewegung.<br />

§ 76 Damit reduziert sich (2.3) auf<br />

�F1 = − � F2 = m2¨r2 = m1 m2<br />

m1 + m2<br />

Einsetzen der Gravitationskraft (2.1) liefert<br />

¨�r . (2.4)<br />

¨�r = − γ(m1 + m2)<br />

r3 �r = − µ<br />

r2 �er . (2.5)<br />

Formal ist diese Bewegungsgleichung äquivalent zu der sich bei Verwendung der Gravitationskraft<br />

(2.1) ergebenden, allerdings wird die Masse des Zentralkörpers ersetzt durch die<br />

c○ M.-B. Kallenrode 2. Juli 2008


26 KAPITEL 2. SATELLITENBAHNEN<br />

Summe µ der Massen der beiden Körper. Für einen Planeten und sein Zentralgestirn bzw.<br />

einen Satelliten und seinen Planeten ist die Gesamtmasse µ jedoch praktisch mit der des<br />

Zentralkörpers identisch, 4 so dass die vereinfachende Vorstellung, dass der Satellit vom Planeten<br />

angezogen und auf seine Umlaufbahn gezwungen wird, für praktische Anwendungen<br />

ausreichend ist.<br />

2.2.2 Satellitenbahnen und Erhaltungsgrößen<br />

§ 77 Die formale Herleitung von Planeten- bzw. Satellitenbahnen finden Sie in Lehrbüchern<br />

zur theoretischen <strong>Physik</strong>, z.B. [73, 79], oder in Büchern zur Bahn- bzw. Himmelsmechanik,<br />

z.B. [17, 26, 210, 213]. An dieser Stelle wird nur der generelle Weg der Herleitung skizziert, um<br />

den Zusammenhang zwischen Eigenschaften der Bahn und den Erhaltungsgrößen noch einmal<br />

zu rekapitulieren – schließlich sind das die Größen, auf die wir auch bei der argumentativen<br />

Behandlung von Bahnen und Bahnstörungen zurück greifen.<br />

Energieerhaltung (1. Integral der Bewegung)<br />

§ 78 Aus der Bewegungsgleichung (2.5) lässt sich durch Multiplikation mit 2˙ �r das Energieintegral<br />

herleiten. Aus 2˙ �r ¨ �r = −2µ/r3 �r ˙ �r lässt sich durch Zusammenfassen des Produkts<br />

aus einer Größe und ihrer Ableitung die Ableitung der quadrierten Größe5 bilden, d.h. wir<br />

erhalten ˙ �v 2 = −µ/r3 ( ˙ �r) 2 . Integration liefert das Energieintegral<br />

v 2 − 2µ<br />

r<br />

= hc<br />

(2.6)<br />

mit hc als der auch als Energiekonstante bezeichneten Integrationskonstanten. Diese ist mit<br />

den Anfangswerten v0 und r0 verknüpft gemäß hc = v 2 0 − 2µ/r0; sie ist der Gesamtenergie<br />

E0 proportional: E0 = 1<br />

2 mhc.<br />

Momentintegral (Drehimpulserhaltung)<br />

§ 79 Das Momentintegral, und damit der Flächensatz, lässt sich durch vektorielle Multiplikation<br />

der Bewegungsgleichung (2.5) mit �r herleiten:<br />

�r × ¨ �r = − µ<br />

�r × �r . (2.7)<br />

r3 Die rechte Seite der Gleichung verschwindet. Dann ist auch �r × ¨ �r = 0, d.h. die Kraft ist<br />

eine Zentralkraft und die Bewegung erfolgt in einer Ebene. Gleichung (2.7) lässt sich unter<br />

Berücksichtigung der Kettenregel schreiben als d(�r × �v)/dt = 0. Integration liefert das<br />

Momentintegral (Drehimpulserhaltung)<br />

�r × �v = �σc<br />

mit �σc als einer Integrationskonstante.<br />

§ 80 Skalare Multiplikation mit �r liefert die Gleichung der Bahnebene<br />

(2.8)<br />

�r�σc = 0 , (2.9)<br />

d.h. σc steht senkrecht auf der Bahnebene.<br />

4Die Masse der Sonne ist um mehr als 5 Größenordnungen größer als die der Erde, vgl. Abschn. 8.2, die<br />

Masse der Erde ist um ca. 21 Größenordnungen größer als die eines großen <strong>Erdfernerkundung</strong>ssatelliten.<br />

5Dies können Sie durch Anwendung der Kettenregel auf das Ergebnis leicht einsehen. Das Produkt 2�r ˙�r ¨<br />

lässt sich schreiben als ˙ �v 2 , da gilt ˙ �v 2 = 2�v ˙ �v = 2˙ �r ¨ �r.<br />

2. Juli 2008 c○ M.-B. Kallenrode


2.2. PHYSIKALISCHE GRUNDLAGEN 27<br />

Flächensatz<br />

§ 81 Aus der Gleichung der Bahnebene (2.9) lässt sich der Flächensatz durch Übergang auf<br />

Polarkoordinaten herleiten. Fällt in kartesischen Koordinaten die Bahnebene in die z = 0-<br />

Ebene, so ist �σc = (0, 0, σc) und das Momentintegral (2.8) reduziert sich auf x ˙y − y ˙x = 0.<br />

Einsetzen von (x, y) = r(cos ϕ, sin ϕ) liefert den Flächensatz r 2 ˙ϕ = σc = const. Mit dem<br />

Flächenelement dA = 1<br />

2 r2 dϕ erhalten wir<br />

A = σc<br />

2 (t2 − t1) , (2.10)<br />

d.h. der Ortsvektor überstreicht in gleichen Zeitintervallen t2 − t1 gleiche Flächen A.<br />

Laplace-Integral<br />

§ 82 Vektorielle Multiplikation der Bewegungsgleichung (2.5) mit dem Momentintegral (2.8)<br />

liefert<br />

�σc × ¨ �r = − µ<br />

µ<br />

(�r × �v) × �r = − [�v (�r · �r) − �r · (�r �v)] .<br />

r3 r3 Mit �r · �r = r2 und �r · �v + �v · �r = 2vr ergibt sich �r · �v = rv und damit<br />

�σc × ¨ �r = − µ<br />

r3 (r2 r�v − v�r<br />

�v − rv�r) = −µ<br />

r2 = −µ d<br />

� �<br />

�r<br />

dt r<br />

bzw.<br />

d<br />

dt (�σc × �r) − µ d<br />

dt<br />

� �<br />

�r<br />

= 0 .<br />

r<br />

Integration liefert das Laplace-Integral<br />

�σc + �v + µ �r<br />

r = � λc<br />

mit � λc als Integrationskonstante.<br />

(2.11)<br />

§ 83 Skalare Multiplikation von (2.11) mit �σc liefert �σc · � λc = 0, d.h. der Laplace-Vektor � λc<br />

liegt in der Bahnebene.<br />

§ 84 Da die Bewegungsgleichung als vektorielle DGL 2 ter Ordnung sechs Integrationskonstanten<br />

benötigt, wir aber mit den bisher bestimmten hc, �σc und � λc sieben haben, können<br />

letztere nicht linear unabhängig sein. Die Beziehung zwischen ihnen lässt sich durch Quadrieren<br />

des Laplace-Integral bestimmen zu<br />

λ 2 c = µ 2 + hcσ 2 c . (2.12)<br />

Bahngleichung<br />

§ 85 Die Bahngleichung lässt sich durch skalare Multiplikation des Laplace-Integrals (2.11)<br />

mit �r bestimmen:<br />

�r · �r<br />

�r · (�σc × �v) + µ<br />

r = −�λc · �r . (2.13)<br />

Anwendung des Momentintegrals (2.8) und zyklisches Vertauschen der Vektoren im Spatprodukt<br />

liefert −σ2 c + µr = −λcr cos τ mit τ als dem Winkel zwischen dem Ortsvektor �r und<br />

dem Laplace-Vektor �λc. Auflösen nach r gibt die Gleichung der Satellitenbahn<br />

p<br />

r =<br />

(2.14)<br />

1 + ε cos τ<br />

mit dem Bahnparameter p und der Exzentrizität ε gemäß<br />

p = σ2 c<br />

µ > 0 und ε = λc<br />

µ > 0 . (2.15)<br />

c○ M.-B. Kallenrode 2. Juli 2008


28 KAPITEL 2. SATELLITENBAHNEN<br />

Tabelle 2.1: Kegelschnitte Kreis Ellipse Parabel Hyperbel<br />

Exzentrizität ε 0 0 < ε < 1 1 > 1<br />

Bahnparameter p a a(1 − ε 2 ) p a(ε 2 − 1)<br />

Große Halbachse a<br />

Kleine Halbachse b<br />

a<br />

a<br />

a<br />

a<br />

– a<br />

√ 1 − ε2 – a √ ε2 − 1<br />

Perigäum rP<br />

Apogäum rA<br />

a<br />

a<br />

a(1 − ε)<br />

a(1 + ε)<br />

1<br />

p = q 2<br />

∞<br />

a(ε − 1)<br />

∞<br />

Kegelschnitte<br />

§ 86 Die Bahngleichung (2.14) beschreibt Kegelschnitte, wobei die Exzentrizität (2.15) die<br />

Art des Kegelschnitts gibt (vgl. auch Tabelle 2.1):<br />

0 ≤ ε < 1: der Nenner in der Bahngleichung (2.14) ist immer von Null verschieden, so dass<br />

sich eine geschlossene, im endlichen verlaufende Ellipsenbahn ergibt.<br />

ε = 1: der Nenner der Bahngleichung (2.14) verschwindet für τ = π, d.h. die Bahn hat einen<br />

Punkt im Unendlichen (Parabel).<br />

ε > 1: der Nenner der Bahngleichung (2.14) verschwindet für zwei Werte, d.h. die Bahn hat<br />

zwei Punkte im Unendlichen (Hyperbel).<br />

Die realisierte Bahn hängt von den Anfangsbedingungen ab. Einsetzen der Beziehung (2.12)<br />

in die Definition (2.15) liefert<br />

�<br />

ε =<br />

1 + hc<br />

σ2 c<br />

µ 2<br />

mit der Energiekonstanten hc gemäß (2.6) bzw. bei Verwendung der Anfangsbedingungen<br />

hc = v 2 0 − 2µ/r0.<br />

§ 87 Bei der Ellipsenbahn ist ε < 1 und damit hc < 0, d.h. die Bahn ist eine gebundene.<br />

Die elliptische Anfangsgeschwindigkeit wird damit zu v 2 0 < 2µ/r0. Entsprechend ergibt sich<br />

mit ε = 1 und damit hc = 0 die parabolische Anfangsgeschwindigkeit zu v 2 0 = 2µ/r0. Eine<br />

hyperbolische Anfangsgeschwindigkeit ergibt sich für ε > 1 und damit hc = −µ 2 /σ 2 zu<br />

v 2 0 = 2µ/r0 − µ 2 /σ 2 c .<br />

§ 88 Ein Spezialfall der Ellipsenbahn ist die Kreisbahn mit ε = 0 und damit σ2 c = pµ mit<br />

p = r0 und v0 = const. Die Kreisbahngeschwindigkeit oder erste kosmische Geschwindigkeit<br />

ist dann v2 k = µ/r. Sie ist gerade ausreichend damit ein Satellit um einen sphärischen<br />

Himmelskörper entlang eines Großkreises fliegen kann. 6 Für die Erde ist vk = 7.9 km/s.<br />

2.2.3 Ellipsenbahnen<br />

§ 89 Planeten und Satelliten bewegen sich in der Regel auf Ellipsenbahnen oder deren Spezialfall,<br />

der Kreisbahn. Eine Ellipse wird durch ihre große und kleine Halbachse, a und b,<br />

beschrieben, vgl. Abb. 2.3. Im Spezialfall des Kreises ist a = b = r. Die Punkte A und P<br />

markieren das Apo- und das Perizentrum, d.h. den Punkt der Bahn am weitesten vom Zentralkörper<br />

entfernt bzw. diesem am nächsten. Bei der Erde werden diese als Apogäum und<br />

Perigäum bezeichnet, bei der Sonne als Aphel und Perihel. Die Abstände dieser Punkte vom<br />

Zentralkörper sind durch die Exzentrizität ε und den Bahnparameter p bestimmt:<br />

rP = p<br />

und rA =<br />

1 + ε<br />

p<br />

1 − ε .<br />

Die Achse zwischen Apo- und Perizentrum wird als Apsidenlinie bezeichnet.<br />

6 Ein Großkreis ist ein Kreis auf einer Kugel, bei dem der Kugelmittelpunkt in der Kreisebene liegt.<br />

Die Äquatorebene der Erde wäre ein Beispiel, ebenso alle Kreisbahnen entlang eines festen Längengrades.<br />

Entsprechend ist die Bahn entlang des 50 ten Breitengrades keine Großkreisbahn, da die Bahnebene nicht<br />

durch den Erdmittelpunkt geht – als antriebslose Satellitenbahn wäre eine derartige Bahn nicht realisierbar<br />

(also doch kein billiger geostationärer Satellit über Moskau).<br />

2. Juli 2008 c○ M.-B. Kallenrode


2.2. PHYSIKALISCHE GRUNDLAGEN 29<br />

Energetik<br />

Abbildung 2.3: Kenngrößen einer elliptischen<br />

Bahn<br />

§ 90 Die Geschwindigkeit in verschiedenen Punkten der Bahn lässt sich aus dem Energiesatz<br />

(2.6) bestimmen. Die Energiekonstante hc kann in irgendeinem Punkt der Bahn bestimmt<br />

werden, also auch im Perigäum. Dort stehen Orts- und Geschwindigkeitsvektor senkrecht auf<br />

einander und es gilt<br />

� �<br />

dη<br />

|�vP| = rP<br />

dt<br />

P<br />

mit der wahren Anomalie η als dem Winkel zwischen dem Ortsvektor und der Apsidenlinie.<br />

Gemäß Flächensatz (2.10) ist |σc| = r 2 ˙η und wir erhalten für die Energiekonstante im<br />

Perigäum<br />

hc = 1 σ<br />

2<br />

2 c<br />

r2 −<br />

P<br />

µ<br />

=<br />

rP<br />

µ<br />

2r2 (p − 2rp) ,<br />

P<br />

wobei im letzten Schritt die linke Seite von (2.15) verwendet wurde.<br />

§ 91 Setzt man die entsprechenden Werte aus Tabelle 2.1 ein, so erhalten wir für die Gesamtenergie<br />

der Ellipsenbahn<br />

h = − µ<br />

, (2.16)<br />

2a<br />

für die Parabel h = 0 und für die Hyperbel h = µ/(2a), d.h. die Gesamtenergie hängt nur ab<br />

von der großen Halbachse a und der Masse µ des Zentralgestirns (plus Satellit/Planet). Die<br />

Exzentrizität der Bahn hat keinen Einfluss auf die Energie, d.h. ein Satellit auf einer sehr<br />

exzentrischen Bahn hat die gleiche Gesamtenergie wie einer auf einer die Ellipse umschreibenden<br />

Kreisbahn.<br />

Verständnisfrage 1 Ist die Aussage sinnvoll? Im Apogäum ist der Ellipse ist die Geschwindigkeit<br />

und damit die kinetische Energie kleiner als bei der Kreisbahn – bei gleicher potentieller<br />

Energie?<br />

§ 92 Für die Geschwindigkeit entlang der Bahn ergibt sich nach Einsetzen der Gesamtenergie<br />

in die Energiegleichung (2.6) die Binet’sche Gleichung<br />

� � �<br />

2 1<br />

v = µ − . (2.17)<br />

r a<br />

Beim Kreis ist a = r und es ergibt sich wieder die erste kosmische Geschwindigkeit<br />

�<br />

µ<br />

v1 =<br />

r = vk .<br />

Für eine Parabel (a = ∞) ergibt sich die zweite kosmische Geschwindigkeit zu<br />

�<br />

2µ<br />

v2 =<br />

r = √ 2 vk .<br />

c○ M.-B. Kallenrode 2. Juli 2008


30 KAPITEL 2. SATELLITENBAHNEN<br />

Tabelle 2.2: Flugbahnen bei verschiedenenAbschussgeschwindigkeiten<br />

im Perigäum<br />

Tabelle 2.3: Bahnparameter<br />

als Funktion der<br />

großen Halbachse<br />

v [km/s] v/vk v/vp a [km] ε D [km]<br />

2 0.25 0.18 3 290 0.94 200<br />

4 0.51 0.36 3 650 0.74 920<br />

6 0.76 0.54 4 480 0.42 2 580<br />

7.91 1.00 0.707 6 378 0.00 6 378<br />

8 1.01 0.71 6 500 0.02 6 620<br />

9 1.14 0.80 9 010 0.34 11 640<br />

10 1.26 0.89 15 740 0.60 25 100<br />

11.0 1.391 0.984 99 500 0.94 192 600<br />

11.10 1.403 0.9924 221 000 0.97 435 000<br />

11.185 1.414 1.000 ∞ 1.00 ∞<br />

a [km] a/R H [km] T [min] n [ ◦ /min] vk [km/s]<br />

6 378 1.0000 7 84.49 4.261 7.91<br />

6 400 1.0034 29 84.92 4.239 7.89<br />

6 500 1.0191 129 86.92 4.142 7.83<br />

6 600 1.0348 229 88.94 4.048 7.77<br />

6 700 1.0505 329 90.97 3.958 7.71<br />

6 800 1.0661 429 93.01 3.871 7.66<br />

6 900 1.0818 529 95.07 3.787 7.60<br />

7 000 1.0975 629 97.15 3.706 7.55<br />

7 200 1.1288 829 101.34 3.552 7.44<br />

7 400 1.1602 1 029 105.58 3.410 7.34<br />

7 600 1.1916 1 229 109.89 3.276 7.24<br />

7 800 1.2229 1 429 114.26 3.151 7.15<br />

8 000 1.2542 1 629 118.69 3.033 7.06<br />

9 000 1.4111 2 629 141.62 2.542 6.65<br />

10 000 1.5678 3 629 165.64 2.174 6.31<br />

15 000 2.3518 8 630 5 h 4 m 43 s<br />

1.814 5.15<br />

20 000 3.1357 13 630 7 h 49 m 8 s<br />

0.7674 4.47<br />

42 160 6.611 35 790 23 h 56 m 4 s<br />

0.2507 3.07<br />

0.00915 1.02<br />

384 400 60.266 – 27 d 7 h 43 m<br />

Diese Geschwindigkeit ist notwendig, um aus dem Schwerefeld des Zentralkörpers zu entweichen.<br />

Für die Erde beträgt diese Fluchtgeschwindigkeit 11.2 km/s, die Fluchtgeschwindigkeit<br />

aus dem Sonnensystem beträgt 16.7 km/s.<br />

§ 93 Mit Hilfe der Binet’schen Gleichung (2.17) ergibt sich für die Geschwindigkeiten in Apound<br />

Perizentrum der Bahn<br />

� �<br />

µ 1 − ε<br />

µ 1 + ε<br />

vA =<br />

und vP =<br />

a 1 + ε<br />

a 1 − ε .<br />

Die Geschwindigkeiten im Peri- und Apozentrum hängen also nicht nur von der großen Halbachse<br />

der Ellipse sondern auch von der Exzentrizität ab: je größer die Exzentrizität, um so<br />

größer die Unterschiede in den Geschwindigkeiten. Ein Molniya-Satellit z.B. fliegt auf einer<br />

elliptischen Bahn mit ε = 0.75 und hat damit im Perigäum eine um einen Faktor 7 höhere<br />

Geschwindigkeit als im Apogäum.<br />

§ 94 Tabelle 2.2 gibt einen Überblick über die sich in Abhängigkeit von der Abschussgeschwindigkeit<br />

im Perigäum ergebenden Bahnen (das entspricht der Abwurfgeschwindigkeit<br />

auf Newton’s Berg). Die Geschwindigkeiten sind auch in Einheiten der Kreisbahngeschwindigkeit<br />

vk und der parabolischen Geschwindigkeit vp gegeben. Außerdem sind angegeben<br />

die Bahnparameter große Halbachse a und Exzentrizität ε sowie die maximale Entfernung<br />

D vom Startpunkt. Die horizontalen Linien markieren jeweils den Übergang zur Kreisbahn<br />

bzw. unten die Annäherung an die parabolische Bahn.<br />

2. Juli 2008 c○ M.-B. Kallenrode


2.2. PHYSIKALISCHE GRUNDLAGEN 31<br />

§ 95 Tabelle 2.3 gibt die Bahnparameter als Funktion der großen Halbachse. Die unteren beiden<br />

Bahnen entsprechen der geostationären Bahn und der Mondbahn, die Bahnen zwischen<br />

den beiden horizontalen Linien sind typisch für <strong>Erdfernerkundung</strong>ssatelliten. Angegeben sind<br />

neben der großen Halbachse a die große Halbachse in Einheiten des Erdradius, a/R, die mittlere<br />

Flughöhe H über dem Erdboden, die Umlaufzeit T , die mittlere Winkelgeschwindigkeit<br />

sowie die Kreisbahngeschwindigkeit. Auf diese Tabelle werden wir im Laufe der weiteren<br />

Diskussion noch häufiger zurück greifen.<br />

Lage der Bahn im Raum<br />

§ 96 Bisher haben wir die Ellipsenbahn mit ihren Parametern große und kleine Halbachse, a<br />

und b, Exzentrizität ε und Bahnparameter p zur Beschreibung der Bahn eingeführt. Um die<br />

Bewegung eines Satelliten zu beschreiben, benötigen wir zusätzliche Parameter, insbesondere<br />

die Lage der Bahn im Raum.<br />

§ 97 Der wichtigste Bahnparameter ist die Inklination i, d.h. die Neigung der Bahnebene<br />

gegenüber der Äquatorebene. Damit können z.B. wir zwischen äquatorialen Bahnen (i = 0)<br />

und polaren Bahnen (i = 90 ◦ ) unterscheiden – während erstere für Wettersatelliten oder<br />

zum Studium der tropischen Ozeane sicherlich gut geeignet sind, eignen sich letztere eher<br />

zum Studium des (ant)arktischen Ozonlochs. Nicht-geostationäre Fernerkundungssatelliten<br />

wie LandSat, SPOT oder POES haben eine nahezu polare Bahn: dadurch kann (nahezu)<br />

die gesamte Erdoberfläche abgescannt werden. Ganz polar, d.h. i = 90 ◦ , ist die Bahn jedoch<br />

nicht, da die Vorteile einer sonnensynchronen Bahn die Nachteile des nicht direkt erfolgenden<br />

Polüberfluges ausgleicht.<br />

§ 98 Die Untergrenze des Werts der Inklination ist, falls der Satellit nicht nach Einbringen<br />

in seine Bahn manöveriert wird, durch die geographische Breite seines Startorts bestimmt:<br />

von Kiruna lässt sich kein Satellit in eine Bahn mit einer Inklination von weniger als 68 ◦<br />

einschiesen, der Einschuss in eine polare Bahn dagegen ist möglich. Daher versucht man,<br />

Raketenstartplätze in möglichst niedriger geographischer Breite zu betreiben: Kourou, der<br />

Startplatz der ESA, liegt bei N5 W52. Fehlt einem eine geeigneter Startplatz, so sind entweder<br />

aufwändige Mannöver oder spezielle Tricks erforderlich, z.B. das hochgradig elliptische Orbit<br />

der Molniya Satelliten.<br />

§ 99 Der zweite Parameter zur Beschreibung der Lage der Bahnebene ist die Rektaszension<br />

Ω. Sie gibt die Lage der Knotenlinie der beiden Ebene im Bezug auf die Richtung des<br />

Frühjahrspunkts an, wobei der aufsteigende Punkt dieser Linie in der Richtung zeigt, in der<br />

der Satellit den Äquator von Nord nach Süd überquert. Oder pragmatischer: die Rektaszension<br />

legt fest, zu welcher Tageszeit ein Satellit den Äquator bei einer bestimmten geographischen<br />

Länge südwärts fliegend überquert. Bei eine sonnensynchronen Bahn ist dieser Wert<br />

konstant, d.h. der Äquator wird stets zur gleichen Tageszeit überflogen.<br />

§ 100 Jetzt sind die Bahn und die Lage der Bahnebene festgelegt, zusätzlich muss noch die<br />

Lage der Bahn in der Bahnebene bestimmt werden durch den Winkel ω zwischen der Knotenlinie<br />

und der Apsidenlinie. Zur Festlegung der genauen Bewegung benötigen wir einen<br />

sechsten Parameter, der angibt, wo auf der Bahn sich der Satellit zu einem bestimmten<br />

Zeitpunkt (Epoche) befunden hat. Dafür eignen sich die Zeiten von Perigäums- oder Knotendurchgängen.<br />

Die Parameter sind in Abb. 2.4 zusammen gefasst.<br />

§ 101 Dass diese große Zahl von Parametern zur Beschreibung der Bahn nicht nur von<br />

akademischem Interesse ist, wird in Abb. 2.17 deutlich: die Bahn eines typischen POES<br />

Satelliten ist einfach. Es handelt sich um eine nahezu polare sonnensynchrone Kreisbahn in<br />

einer Höhe von ca. 850 km. Mehrere POES Satelliten fliegen jeweils gleichzeitig in zu einander<br />

versetzten Orbits. Für die Interpretation der Daten ist jedoch eine zusätzliche Information<br />

unerlässlich: die Lokalzeit, zu der die Satelliten den Äquator auf- oder absteigend kreuzen.<br />

§ 102 Einige Spezialfälle für Bahnen sind:<br />

c○ M.-B. Kallenrode 2. Juli 2008


32 KAPITEL 2. SATELLITENBAHNEN<br />

Abbildung 2.4: Festlegung der Bahnebene und -ellipse eines Satelliten gegenüber der<br />

Äquatorebene und dem Frühlingspunkt [26]<br />

Abbildung 2.5: Beispiele für Satellitenbahnen<br />

[264]<br />

• äquatoriale Bahnen, d.h. die Inklination verschwindet, i = 0,<br />

• polare Bahnen mit einer Inklination nahe 90 ◦ ,<br />

• stark exzentrische Bahnen mit ε > 0.1 werden für einige Kommunikationssatelliten verwendet,<br />

• geostationäre Bahnen mit ε = 0, i = 0 und T = 24 h,<br />

• sonnensynchrone Bahnen in denen die Bahnebene des Satelliten so ausgerichtet ist, dass<br />

sie stets in einem festen Winkel zur Erde–Sonne-Achse steht. Diese Bahn ist der Standard<br />

für <strong>Erdfernerkundung</strong>ssatelliten – zumindest wenn sie ein Imaging-Instrument tragen.<br />

§ 103 Abbildung 2.5 fasst schematisch einige spezielle Bahnen zusammen: (A) gibt eine<br />

polare Kreisbahn in niedriger Höhe, wie sie zur Erderkundung und -überwachung und zur<br />

militärischen Aufklärung verwendet wird. (B) zeigt eine äquatoriale Kreisbahn in großer<br />

Höhe, z.B. eine geostationäre Bahn für Wetter- und Kommunikationssatelliten. (C) gibt<br />

eine stark exzentrische Bahn mit relativ großer Inklination wie sie z.B. von den Molniya-<br />

Kommunikationssatelliten genutzt wird. Wir werden in Abschn. 2.4 genauer auf diese speziellen<br />

Orbits eingehen.<br />

2.3 Bahnstörungen<br />

§ 104 Die Bahnellipse lässt sich unter der Annahme eines zentralen Massenpunktes, der von<br />

einer Testmasse umkreist wird, herleiten. Die Annahme eines Massenpunktes für den Zentralkörper<br />

enthebt diesen aller Störeinflüsse wie einer Atmosphäre oder eines nicht punktsymmetrischen<br />

Gravitationsfeldes. Aus der Sicht eines Fernerkundungssatelliten soll die Erde<br />

jedoch gerade nicht als Punktmasse erscheinen sondern als ausgedehnter Körper, dessen Eigenschaften<br />

es zu studieren gilt. Daher wird ein Fernerkundungssatellit genau mit diesen Eigenschaften<br />

konfrontiert. Auch wenn die Grundidee der Ellipsenbahn weiterhin gilt, müssen<br />

2. Juli 2008 c○ M.-B. Kallenrode


2.3. BAHNSTÖRUNGEN 33<br />

wir Korrekturen vornehmen.<br />

§ 105 Bisher haben wir Satellitenbahnen als antriebslose Bahnen ausschließlich unter dem<br />

Einfluss der Gravitationskraft betrachtet. In diesem Abschnitt werden wir auf einige Störungen<br />

von Satellitenbahnen eingehen und insbesondere auf die Umstände, unter denen diese Auftreten.<br />

Wir werden auch lernen, dass Bahnstörungen nicht immer etwas Negatives sein müssen<br />

sondern auch positiv angewendet werden können – ja die Störungen selbst können Ziel der<br />

Untersuchung werden, z.B. wenn man die Abbremsung eines Satelliten in der Hochatmosphäre<br />

zur Messung der dortigen Temperatur verwendet. Das ist remote sensing mittels eines<br />

eigentlich für ein anderes remote sensing entwickelten Objektes.<br />

§ 106 Formal werden die Einflüsse aller Störgrößen im Rahmen der Störungsrechnung behandelt.<br />

Ziel ist die Beschreibung der durch die Störgrößen bewirkten Änderung der Bahnparameter<br />

a, ε, ω, i und Ω in Abhängigkeit von der Zeit. In der Störungsrechnung werden<br />

die auf den Satelliten wirkenden Kräfte zerlegt in eine systematische Kraft auf Grund des<br />

Schwerefeldes der Erde und eine Störbeschleunigung �aS. Damit ergibt sich für die Bewegungsgleichung<br />

¨�r = −µ �r<br />

r 3 + �aS .<br />

Die Störbeschleunigung wird in drei Komponenten zerlegt, eine radiale Störbeschleunigung<br />

ar, eine senkrecht zum Ortsvektor �r wirkende Beschleunigung as in der Bahnebene, und eine<br />

Störbeschleunigung aω senkrecht zur Bahnebene. Die Komponenten ar und as wirken auf<br />

die Bahnparameter a, ε und ω, d.h. die Bahnellipse verändert sich innerhalb der Bahnebene<br />

und die Apsidenlinie dreht sich gegebenenfalls. Die Beschleunigungen ar und as werden z.B.<br />

durch Reibung und Erdabplattung verursacht. Die Störbeschleunigung aω dagegen wirkt auf<br />

i und Ω, Ursache ist z.B. die Erdabplattung. Sie bewirkt eine Änderung der Bahnebene.<br />

§ 107 Bei allen Störungen wird zusätzlich zwischen periodischen Störungen und sekulären<br />

unterschieden. Letztere erfolgen zeitlich stets gleichsinnig.<br />

2.3.1 Übersicht<br />

§ 108 Formal werden Bahnstörungen in der Bewegungsgleichung derart berücksichtigt, dass<br />

zusätzlich zur Gravitationskraft eine Störkraft � FS eingeführt wird und die erweiterte Bewegungsgleichung<br />

gelöst wird. Einige dieser Kräfte sind in Tabelle 2.4 zusammen gefasst.<br />

Zusätzlich enthält die Tabelle die sich aus diesen Kräften ergebenden Störbeschleunigungen<br />

für einen Satelliten in einem geostationären Orbit, also einen typischen Kommunikationsoder<br />

Wettersatelliten, und für den Laser Geodetic Satellite LAGEOS [503, 532, 533] 7 , einen<br />

Geodäsie-Satelliten auf einer Flughöhe von ca. 12 000 km.<br />

§ 109 Die Störbeschleunigungen lassen sich klassifizieren in (a) gravitative Effekte (1–3 in<br />

Tabelle 2.4), (b) Reibung in der Atmosphäre (5), (c) Strahlungsdruck (6,7), (d) Sonnenwind,<br />

(e) thermische Emission (8), (f) zufällige Einflüsse, sowie (g) atmosphärische Gezeiten.<br />

Gravitative Einflüsse<br />

§ 110 Gravitative Einflüsse haben eine Vielzahl von Ursachen. Als erste ist die Ungenauigkeit<br />

in der Bestimmung der Gravitationskonstanten γ zu nennen. Diese Störung ist allerdings von<br />

7 In den Worten der NASA [532] lässt sich LAGEOS wie folgt charakterisieren: “LAGEOS (Laser Geodetic<br />

Satellite) was a very dense (high mass-to-area ratio) laser retroreflector satellite which provided a permanent<br />

reference point in a very stable orbit for such precision earth-dynamics measurements as crustal motions,<br />

regional strains, fault motions, polar motion and earth-rotation variations, solid earth tides, and other kinematic<br />

and dynamic parameters associated with earthquake assessment and alleviation.” Auf Grund des hohen<br />

Masse zu Fläche Verhältnisses einerseits und der immer noch recht hohen Flugbahn andererseits sind die in<br />

Tab. 2.4 gegebenen Größen für die Störbeschleunigungen immer noch recht klein im Vergleich zu denen, mit<br />

denen ein typischer Erdsatellit in einem niedrigen Orbit zu kämpfen hat. Dass LAGEOS minimalistisch ist,<br />

wird auch aus Abb. 2.6 deutlich.<br />

c○ M.-B. Kallenrode 2. Juli 2008


34 KAPITEL 2. SATELLITENBAHNEN<br />

Tabelle 2.4: Auf einen Satelliten wirkende Kräfte [17]<br />

2. Juli 2008 c○ M.-B. Kallenrode


2.3. BAHNSTÖRUNGEN 35<br />

Abbildung 2.6: LAGEOS 1 als<br />

kompakter Laserreflektor [436]<br />

allen gravitativen Einflüssen die Unbedeutendste: damit ist ihr Wert zwar nicht kleiner als der<br />

der anderen Störbeschleunigungen, sie wirkt jedoch ausschließlich radial und bewirkt damit<br />

lediglich eine leichte Veränderung der großen Halbachse bzw. des Radius der Bahn.<br />

§ 111 Einen größeren Einfluss (auch bezüglich des Wertes der Störbeschleunigung) hat die<br />

Abplattung der Erde. Die Erdaplattung hat einen größeren Einfluss auf niedrig fliegende Satelliten<br />

als auf solche in höheren Orbits – in letzterem Fall kommt die Erde der idealisierten<br />

Punktmasse bereits recht nahe, in ersterem dagegen erfährt der Satellit die Abweichungen<br />

von der Idealgestalt. Allerdings ist die Abplattung alleine immer noch keine gute Annäherung<br />

an das Geoid (siehe Abb. 3.70). Diese Kartoffel lässt sich mit Hilfe von Kugelflächenfunkionen<br />

(Legendre Polynom) annähern. Die Einflüsse der Störungen nehmen mit zunehmender Ordnung<br />

der Kugelflächenfunktion ab, siehe Tab. 2.4.<br />

§ 112 Ein weiterer gravitativer Effekt sind die Einflüsse anderer Himmelskörper. Diese sind,<br />

abgesehen von der Anziehungskraft des Mondes auf hoch fliegende Satelliten, zu vernachlässigen.<br />

Die Gravitation dritter Körper ist jedoch für spezielle Bahnen, wie die Aufhängung von<br />

Satelliten im Lagrange-Punkt von Bedeutung und bei Bahnen eingefangener Körper (z.B.<br />

der Komet Levy-Shoemaker 9 im Schwerefeld des Jupiter [404, 745]; teilweise auch beim<br />

planetaren Billard [352, 756], siehe auch Abschn. 2.7.2).<br />

Reibung in der Hochatmosphäre<br />

§ 113 Die durch die Reibung in der Hochatmosphäre bewirkte Kraft ist um so größer, je<br />

niedriger das Orbit des Satelliten, da die Dichte der Atmosphäre mit zunehmender Höhe ungefähr<br />

exponentiell abnimmt.Außerdem hat das Verhältnis von Oberfläche zu Masse (also im<br />

wesentlichen das Verhältnis von Reibungs- zu Trägheitskraft) großen Einfluss: leichte und voluminöse<br />

Satelliten werden stärker abgebremst als kompakte Satelliten wie der bereits zitierte<br />

LAGEOS. Eine Abschätzung des Einfluss der Reibung ist insbesondere für sehr niedrig fliegende<br />

Satelliten schwierig, da sich die Eigenschaften der Hochatmosphäre in Abhängigkeit<br />

von der solaren Aktivität erheblich ändern können. Wie werden in Abschn. 2.3.2 genauer<br />

darauf eingehen.<br />

Strahlungsdruck<br />

§ 114 Hier muss zwischen dem direkten Strahlungsdruck durch die auf den Satelliten auftreffende<br />

solare Strahlung unterschieden werden und dem indirekten Strahlungsdruck, der<br />

durch von der Erde bzw. der Erdatmosphäre reflektierte solare Strahlung entsteht. Beide<br />

Effekte sind für normale Erdsatelliten unerheblich, sie spielen jedoch bei leichten und großen<br />

Satelliten (z.B. die Echo-Ballon-Satelliten 8 ) eine nicht zu vernachlässigende Rolle.<br />

8 Echo [491, 402, 724] ist der erste Kommunikationssatellit der NASA mit einem bestechend einfachen<br />

Konzept: man nehmen einen mit einer Folie beschichteten Ballon mit einem Durchmesser von ca. 30 m.<br />

Wenn beim Start nicht zuviel Restluft enthalten war, entfaltet sich der Ballon im Orbit auf ca. 1600 km<br />

c○ M.-B. Kallenrode 2. Juli 2008


36 KAPITEL 2. SATELLITENBAHNEN<br />

Sonnenwind<br />

§ 115 Der Sonnenwind (siehe auch Abschn. 3.1.2 und 5.3) ist ein ca. 1 Mio K heißes, kontinuierlich<br />

von der Sonne abströmendes Plasma mit einer Dichte von einigen Teilchen pro cm 3 . Da<br />

ein Plasma aus geladenen Teilchen besteht, wird es vom Erdmagnetfeld abgelenkt, d.h. der<br />

Sonnenwind gelangt nicht in die Erdmagnetosphäre (siehe Abschn. 3.1.2 und insbesondere<br />

Abb. 3.4). Letztere hat eine Ausdehnung von mindestens 10 Erdradien, d.h. der Sonnenwind<br />

beeinflusst nur Satelliten, die in extrem hohen und/oder sehr exzentrischen Orbits fliegen –<br />

und dann meist auch die Aufgabe haben, eben diesen Sonnenwind zu vermessen. <strong>Erdfernerkundung</strong>ssatelliten<br />

kommen normalerweise nicht in den Einflussbereich des Sonnenwindes. 9<br />

Thermische Emission<br />

§ 116 Die thermische Emission geschieht in Folge der Erwärmung des Satelliten durch die<br />

absorbierte solare Einstrahlung. Diese thermische Emission bewirkt auf Grund der Impulserhaltung<br />

einen Rückstoß auf den Satelliten. Diese Bahnstörung kann daher als die Umkehrung<br />

des Strahlungsdrucks angesehen werden. Der Einfluss dieser Störgröße hängt ab von der Geometrie<br />

des Satelliten, dem verwendeten Lagestabilisierungsverfahren und dem Aufreten und<br />

der Geometrie herausragender Merkmale wie Antennen und Sonnensegel. Als Faustregel gilt<br />

auch hier: der Satellit muss groß und leicht sein, damit diese Störgröße zu merkbaren Effekten<br />

führen kann. Moderne Satelliten (und insbesondere die Sonnensegel) werden zwar immer<br />

größer, aber auch immer schwerer. Das Verhältnis Oberfläche/Masse wird dabei eher kleiner.<br />

Zufällige Einflüsse<br />

§ 117 Zufällige Einflüsse umfassen z.B. Meteoriten als direkt auf den Satelliten wirkende<br />

Kräfte und solare Flares, die über eine Aufheizung und Ausdehnung der Hochatmosphäre<br />

zu einer verstärkten Satellitenabbremsung durch Reibung führen. Auf Grund ihrer<br />

zufälligen Natur lassen sich diese Störgrößen weder im Zeitpunkt oder der Rate des Auftretens<br />

noch in ihrer Größe klassifizieren. Ein mit der zunehmenden Nutzung des Weltraums<br />

auftretender weiterer zufälliger Effekt ist die Kollision mit Weltraumschrott [258, 259, 605,<br />

759]. Dabei handelt es sich weniger um ausgediente Satelliten (die versucht man häufig aus<br />

den begehrten Orbits hinaus zu manöverieren) sondern viel mehr um ausgediente Raketenstufen<br />

und Kleinmüll von desintegrierten Raumfahrzeugen, z.B. falls diese gerade mit<br />

einer Anti-Satelliten-Waffe zusammengetroffen sind [693, 689] – was auch gelegentliche Ausweichmanöver<br />

erfordert [647, 673, 767], da die großen Relativgeschwindigkeiten auch kleine<br />

Müllfetzen zu (durch)schlagkräftigen Projektilen für Solarzellen oder die Fenster des Shuttle<br />

machen (Beispiele unter [606]). GEO stellte schon im Heft 3/1989 fest: “Weltraummüll:<br />

Raumpfleger dringend gesucht”.<br />

Atmosphärische Gezeiten<br />

§ 118 Atmosphärische Gezeiten sind ein Teilaspekt der Reibung in der Hochatmosphäre,<br />

d.h. sie wirken auf einen Satelliten in niedrigem Orbit stärker als auf einen hoch fliegenden.<br />

Sie werden als separater Effekt aufgeführt, da die atmosphärischen Gezeiten eine priodisch<br />

wirkende Störgröße bilden, so dass es im Gegensatz zur normalen Reibung unter Umständen<br />

zu einer Resonanz zwischen den Gezeiten und bestimmten Eigenschaften des Orbits kommen<br />

kann.<br />

Höhe aufgrund des niedrigen Umgebungsdrucks ohne zu platzen automatisch. Und seine Metallfolie erlaubt<br />

die Reflektion von Radiowellen. Die Echo-Satelliten sind Musterbeispiele für passive Kommunikation.<br />

9 Eine Ausnahme bilden manchmal die geostationären Satelliten auf der der Sonne zugewandten Seite<br />

der Erde: starke Störungen im Sonnenwind (koronale Massenauswürfe und/oder Stoßwellen) können den<br />

Sonnenwinddruck auf die Magnetosphäre so stark erhöhen, dass diese an der Tagseite komprimiert wird<br />

(und sich an der Nachtseite mit Umstrukturierungen wehrt, deren sichtbare Folge Polarlichter sind). Die<br />

Kompression kann so stark sein, dass die Grenze der Magnetosphäre, die Magnetopause, dichter an die Erde<br />

rutscht als das geostationäre Orbit – der Satellit befindet sich plötzlich außerhalb der Magnetosphäre im<br />

Freien.<br />

2. Juli 2008 c○ M.-B. Kallenrode


2.3. BAHNSTÖRUNGEN 37<br />

2.3.2 Reibung in der Hochatmosphäre<br />

Abbildung 2.7: Tägliche Dichtevariation<br />

in einer Höhe von<br />

560 km, geschlossen aus der<br />

Bahn von Vanguard 2 [127]<br />

§ 119 Reibung in der Hochatmosphäre bewirkt eine Abbremsung des Satelliten und damit<br />

ein Absinken auf niedrigere Bahnen bis hin zum Absturz. Reibung ist aber nicht nur ein<br />

Störeffekt – die beobachtete Abbremsung eines Satelliten wird umgekehrt auch zur Messung<br />

der Temperatur 10 bzw. Dichte der Hochatmosphäre verwendet. Aus Veränderungen der Satellitenbewegung<br />

hat man bereits früh die starke Variabilität der Hochatmosphäre erkannt.<br />

Also auch hier: ‘its not a bug – its a feature’. Reibung (bzw. genauer die Dichteschichtung<br />

der Atmosphäre) setzt auch eine Untergrenze für eine im Sinne von Langlebigkeit sinnvolle<br />

Flughöhe eines Erderkundungssatelliten – außer man möchte, wie früher die UdSSr, den<br />

Satelliten früh wieder zurück kriegen.<br />

§ 120 Abbildung 2.7 zeigt als Beispiel die täglichen Dichtevariationen in einer Höhe von<br />

560 km, wie sie aus den Bahnvariationen von Vanguard 2 hergeleitet wurden. In Übereinstimmung<br />

mit dem starken Tagesgang der Temperatur in der Hochatmosphäre, zwischen 600<br />

und 1800 K je nach Tageszeit und solarer Aktivität, treten in der Dichte im Verlauf des Tages<br />

Variationen um bis zu einem Faktor 5 auf. Das Dichtemaximum tritt kurz nach 14 Uhr lokaler<br />

Zeit auf, d.h. kurz nach dem Maximum der solaren Einstrahlung. Diese Verzögerung erklärt<br />

sich durch Wärmeleitungsvorgänge in der Atmosphäre [12], eine ähnliche Verzögerung des<br />

Temperaturgangs ist uns auch aus der Troposphäre bekannt. Die Dichtevariation entlang eines<br />

Breitenkreises lässt sich auch als die Wanderung einer Gasglocke (diurnal bulge) beschreiben,<br />

die die Erde dem Sonnenstand folgend umkreist. Oder weniger geozentrisch formuliert: die<br />

Dichteglocke befindet sich ortsfest annähernd in solarer Richtung und die Erde dreht sich im<br />

Laufe des Tages einmal unter dieser Glocke hinweg.<br />

§ 121 Zur Abschätzung des Einfluss der Reibung setzen wir die Gravitationskraft als Zentralkraft<br />

ein und erhalten mit mS als der Masse des Satelliten und ME als der Masse der<br />

Erde<br />

mSv 2<br />

r = γ ME mS<br />

r2 und damit γME = v2r. Damit lässt sich die kinetische Energie schreiben als<br />

mSv 2<br />

Ekin =<br />

2 = γ ME mS<br />

.<br />

2r<br />

Für die potentielle Energie gilt<br />

Epot = mg(r) r = γ ME mS<br />

r<br />

(2.18)<br />

10 Temperaturmessung in der Hochatmosphäre ist ein nicht-triviales Problem. Zwar sind die Temperaturen<br />

sehr hoch, etliche hundert bis zu 2000 K, jedoch ist die Dichte der Atmosphäre so gering, dass keine messbare<br />

Wärmemenge durch Stöße an einen Temperaturfühler übertragen werden kann. Daher entfallen konventionelle<br />

Temperaturmessverfahren. Auf Grund der geringen Dichte und der starken thermischen Emission des<br />

Erdbodens ist es auch nicht möglich, eine Effektivtemperatur über den emittierten Strahlungsstrom zu bestimmen.<br />

In der Hochatmosphäre lässt sich die Temperatur daher nur noch über die kinetische Energie der<br />

Teilchen definieren gemäß Boltzmann-Verteilung. Mit der mittleren Teilchengeschwindigkeit 〈v〉 ergibt sich<br />

für die Temperatur T : m〈v〉 2 /2 = fkBT/2 mit f als der Zahl der Freiheitsgrade und kB als der Boltzmann-<br />

Konstanten.<br />

c○ M.-B. Kallenrode 2. Juli 2008


38 KAPITEL 2. SATELLITENBAHNEN<br />

und damit Epot = 2Ekin.<br />

§ 122 Für die Reibungskraft machen wir einen Newton’schen Ansatz, d.h. die Reibungskraft<br />

ist proportional der Geschwindigkeit: FReib = −Dv. Die Proportionalitätskonstante D<br />

berücksichtigt:<br />

• die Querschnittsfläche A des Satelliten: je größer A, um so mehr Teilchen können Impuls<br />

auf den Satelliten übertragen;<br />

• die Dichte ϱ der Atmosphäre: je größer ϱ, um so mehr Teilchen können Impuls auf den<br />

Satelliten übertragen;<br />

• die Geschwindigkeit v des Satelliten als ein Maß für die Größe des Impulsübertrags pro<br />

Stoß; und den<br />

• Widerstandsbeiwert cD, der die Form des Satelliten und damit die Effizienz des Impulsübertrags<br />

berücksichtigt. 11<br />

Mit Av als dem Volumen, das pro Zeiteinheit vom Satelliten durchquert wird ist Avϱ die Luftmasse,<br />

die den Satelliten pro Zeiteinheit trifft. Diese überträgt pro Zeiteinheit einen Impuls<br />

(Avϱ)v. Berücksichtigt man den Widerstandsbeiwert cD, so ergibt sich für die verzögernde<br />

Kraft<br />

FReib = − 1<br />

2 cDϱAv 2 . (2.19)<br />

Der Widerstandsbeiwert beträgt ca. 2 für inelastische und ca. 4 für elastische Stöße [26].<br />

Verständnisfrage 2 Warum ist die Geschwindigkeit des Satelliten maßgeblich, warum nicht<br />

die Geschwindigkeit der Luftmoleküle? Welche der beiden Geschwindigkeiten ist größer? Oder<br />

müsste nicht eigentlich die Relativgeschwindigkeit zwischen Satellit und Luftmolekülen verwendet<br />

werden?<br />

§ 123 Multiplikation von (2.19) mit v und Umschreiben der linken Seite ergibt für die<br />

Änderung der kinetischen Energie mit der Zeit<br />

˙Ekin = d<br />

�<br />

mSv<br />

dt<br />

2 �<br />

3 ϱAcDv<br />

= − .<br />

2<br />

2<br />

Die Rate der Änderung der Flughöhe eines Satelliten lässt sich aus der Rate der Änderung<br />

der kinetischen Energie abschätzen:<br />

d<br />

dt Ekin = d<br />

dr Ekin<br />

dr<br />

dt<br />

bzw. nach Auflösen und Einsetzen von (2.19)<br />

− dr<br />

dt<br />

= ϱvAcDr<br />

mS<br />

. (2.20)<br />

Zwischenrechnung 3 Für Numerik fans: verwenden Sie (2.20) mit ϱ(r) und v(r) und bestimmen<br />

Sie r(t) für Sputnik 1 (Durchmesser 58 cm, Flughöhe aus 96 min Umlaufzeit und<br />

Annahme einer Kreisbahn bestimmen, Masse 84 kg), EnviSat (Querschnittsfläche als Quadrat<br />

mit 5 m Seitenlänge, Masse von 8.2 t, 790 km Flughöhe) sowie einen Tiefflieger wie<br />

SMM (4 m Durchmesser, 510 km Ausgangsflughöhe und 2.3 t Masse).<br />

§ 124 Da sich Umlaufzeiten oder -frequenzen genauer bestimmen lassen als Flughöhen, ist<br />

es sinnvoller, die Änderung der Umlaufzeit T = 2πr/v zu betrachten. Unter Berücksichtigung<br />

von (2.18) ergibt sich für die Abhängigkeit der Umlaufzeit von der potentiellen Energie T 2 =<br />

4π 2 r 3 /(γME) und damit nach Ableiten für die zeitliche Änderung der Umlaufzeit<br />

2T dT<br />

dt = 4π2 3r 2<br />

γME<br />

dr<br />

dt<br />

⇒<br />

dT<br />

dt<br />

= −3πACDr ϱ . (2.21)<br />

mS<br />

11 Ja, das ist dieser auch als cw-Wert oder Strömungswiderstandskoeffizient bezeichnete, auch im Autobau<br />

verwendete Wert; Beispiele finden sich in [762]. Der Widerstandsbeiwert lässt sich nur experimentell aus der<br />

Reibungskraft (2.19) bestimmen; analytische Verfahren gibt es nicht und numerische Simulationen sind sehr<br />

aufwendig.<br />

2. Juli 2008 c○ M.-B. Kallenrode


2.3. BAHNSTÖRUNGEN 39<br />

Abbildung 2.8: Einfluss<br />

des Luftwiderstands auf<br />

eine elliptische Satellitenbahn<br />

am Beispiel<br />

Kosmos 1097 [135].<br />

Die Diskontinuitäten<br />

sind Folge von Bahnmanövern<br />

– bei der ISS<br />

muss auch immer mal<br />

wieder ein Kick gegeben<br />

werden [337, 768]<br />

Abbildung 2.9: Änderung der Bahnparameter von Sputnik 2 in Folge des Luftwiderstands<br />

(links) und Anfangs- und Endbahn von Sputnik 2 (rechts) [26]<br />

Die Änderung der Umlaufzeit eines Satelliten in einem kreisförmigen Orbit ist also direkt<br />

proportional der Dichte der umgebenden Atmosphäre. Die Bahnschrumpfung, d.h. die Verringerung<br />

der Umlaufhöhe bzw. Umlaufzeit, ist um so größer, je größer das Verhältnis aus<br />

Fläche A und Masse mS des Satelliten ist. Große Satelliten geringer Masse werden daher<br />

stärker abgebremst als kompakte Satelliten.<br />

Zwischenrechnung 4 Nochmals für Numeriker: rechnen Sie mit einer echten Ellipse statt<br />

des Kreises.<br />

§ 125 Die Herleitung von (2.21) geht von einer Kreisbahn aus. Das ist sinnvoll, da gerade<br />

die niedrig fliegenden Späher sich auf nahezu kreisförmigen Orbits befinden. Bei einer elliptischen<br />

Bahn wirkt sich die Reibung im Detail etwas anders aus: die verzögernde Kraft ist im<br />

Perigäum größer als im Apogäum. Als Konsequenz verringert sich die kinetische Energie des<br />

Satelliten im Perigäum stärker als im Apogäum. Dadurch wird beim folgenden Apogäum eine<br />

deutlich geringere Höhe erreicht während die Perigäumshöhe nur geringfügig verringert wird.<br />

Als Konsequenz nimmt die Apogäumshöhe langsamer ab als die Perigäumshöhe. Dies ist am<br />

Beispiel des Satelliten Kosmos 1097 in Abb. 2.8 gezeigt. Die sprunghaften Anstiege in den<br />

Höhen ergeben sich durch Feuern der Booster, um den Satelliten auf eine höhere Umlaufbahn<br />

zu bringen und damit vor dem sofortigen Absturz zu bewahren.<br />

§ 126 Die schnellere Abnahme der Apogäums- im Vergleich zur Perigäumshöhe bewirkt,<br />

dass die elliptische Bahn sich im Laufe der Zeit immer stärker einer Kreisbahn annähert.<br />

Kurz vor dem Absturz eines Satelliten geht die Exzentrizität sehr schnell gegen Null, so dass<br />

c○ M.-B. Kallenrode 2. Juli 2008


40 KAPITEL 2. SATELLITENBAHNEN<br />

Abbildung 2.10: Abbremsung des<br />

SMM-Satelliten durch Zunahme<br />

solarer Aktivität [146]<br />

man ˙ε verwenden kann, um die Lebensdauer eines Satelliten abzuschätzen. Die Veränderung<br />

der Exzentrizität ε, der Umlaufzeit U, der Apogäums- und Perigäumshöhen HAp und HPe<br />

sowie der Geschwindigkeiten vAp und vPe in diesen Punkten sind in Abb. 2.9 für Sputnik 2<br />

gezeigt.<br />

§ 127 Die Lebenserwartung eines Satelliten, der nur noch eine Umlaufzeit von 88–89 min<br />

hat, ist gering. Die untere Grenze für T beträgt 87 min, entsprechend einer Höhe von ca.<br />

150 km.<br />

Absturz durch solare Aktivität: SMM<br />

§ 128 Besonders stark ist die Satellitenabbremsung zu Zeiten hoher solarer Aktivität. Dann<br />

wird die Hochatmosphäre durch die harte elektromagnetische Strahlung stärker aufgeheizt<br />

und dehnt sich insgesamt aus. Dadurch werden dichtere Luftschichten in größere Höhen<br />

gehoben – oder aus der Sicht des Satelliten: die Dichte der Amosphäre auf seiner Bahn<br />

nimmt zu und damit auch die Abbremsung. So sind des öfteren Satelliten durch erhöhte<br />

solare Aktivität abgestürzt bzw. schneller abgestürzt als geplant. Prominenteste Beispiele<br />

sind das Raum-Laboratorium SkyLab [482] und SolarMax 12 [493, 442, 490]; auch die MIR<br />

[736, 766] ist letztendlich von der Atmosphäre auf den Boden der Tatsachen zurück geholt<br />

worden.<br />

§ 129 Abbildung 2.10 zeigt im oberen Teil die Flughöhe von SMM (Solar Maximum Mission,<br />

SolarMax, 1980–1989) zusammen mit der 10.7 GHz Radio-Strahlung der Sonne als einem Maß<br />

für die solare Aktivität und damit die Aufheizung der Hochatmosphäre. Letztere variiert mit<br />

der Rotation der Sinne, d.h. auf einer Zeitskala von ca. 27 Tagen. Im Laufe der Zeit steigt<br />

das allgemeine Niveau der Radiostrahlung an, gleichzeitig nimmt die Rate der Abnahme der<br />

Bahnhöhe von SMM zu. Dies allein ist noch kein Zeichen für eine Kopplung von Bahnhöhe<br />

und solarer Aktivität, da selbst bei konstanten Umgebungsbedingungen die Bahnhöhe mit<br />

zunehmender Zeit schneller abnimmt.<br />

12 SolarMax heißt eigentlich Solar Maximum Mission SMM und ist neben dem noch bekannteren, jetzt<br />

Brille tragenden Hubble Space Telescope einer der wenigen Satelliten, der jemals wieder vom Space Shuttle<br />

zu Reparaturzwecken eingefangen wurde [446].<br />

2. Juli 2008 c○ M.-B. Kallenrode


2.3. BAHNSTÖRUNGEN 41<br />

Abbildung 2.11: Abplattung der Erde: Richtung der Schwerebeschleunigung (links) und Wert<br />

der Schwerebeschleunigung für verschiedene Breiten in Abhängigkeit vom radialen Abstand<br />

(rechts) [26]<br />

§ 130 Die direkte Kopplung wird in den Details des unteren Teilbildes von Abb. 2.10 deutlicher.<br />

Hier sind die Schwankungen im Radiofluss reziprok dargestellt und auf ein Äquivalent<br />

zur Änderungsrate der Bahnhöhe normiert (gestrichelte Kurve). Zusätzlich ist die Änderungsrate<br />

der Bahnhöhe aufgetragen (durchgezogene Linie). Man erkennt, dass die Änderung der<br />

Bahnhöhe dann besonders klein ist, wenn die reziproke Radioemission ein Maximum hat,<br />

d.h. wenn die solare Aktivität gering ist. Umgekehrt ist bei hoher solarer Aktivität die<br />

Änderungsrate der Satellitenhöhe groß, d.h. der Satellit verliert schnell an Höhe und stürzt<br />

letztendlich ab.<br />

2.3.3 Bahnstörungen in Folge der Erdabplattung<br />

§ 131 Eine weitere Bahnstörung in niedrigen Orbits ist die Abplattung der Erde, in schematischer<br />

Form im linken Teil von Abb. 2.11 dargestellt. Die Abplattung bewirkt eine Abweichung<br />

der Richtung der Schwerebeschleunigung von der Radialen, in übertriebener Form dargestellt<br />

durch die ausgezogenen Vektoren. Auf einen Satelliten im Orbit wirkt die Schwerebeschleunigung<br />

daher nicht nur in radialer Richtung sondern hat auch eine tangentiale Komponente.<br />

Letztere führt zu einer Änderung der Geschwindigkeit entlang des Orbits: wird der Satellit<br />

verzögert, so verringert sich seine Flughöhe, im umgekehrten Fall erhöht sie sich. Die Abplattung<br />

der Erde beträgt mit RE = 6278.2 km als dem äquatorialen Radius und PE als dem<br />

Polarradius (RE − PE)/RE ≈ 1/298.2.<br />

§ 132 Im rechten Teil von Abb. 2.11 ist die Gravitationsbeschleunigung als Funktion des<br />

Abstands für verschiedene Breiten β dargestellt. Zwei Effekte werden deutlich: für einen Satelliten<br />

in äqutorialer Bahn ist die Erdabplattung irrelevant, da er die Erde immer an der<br />

breitesten Stelle umkreist und somit die Schwerebeschleunigung immer radial nach innen<br />

gerichtet ist, die Abplattung also keine Auswirkungen hat. Ferner sehen wir, dass mit zunehmendem<br />

radialen Abstand die durch die Abplattung bewirkte Änderung in Richtung und<br />

Betrag der Gravitationsbeschleunigung immer kleiner wird, da die Erde aus der Sicht eines<br />

Satelliten mit zunehmendem Abstand immer mehr zum Massenpunkt zusammen schmilzt.<br />

Für einen <strong>Erdfernerkundung</strong>ssatelliten sind allerdings in der Regel weder die äqutoriale Bahn<br />

noch die Bahn in einem großen Abstand die Wunschoptionen.<br />

§ 133 Für eine quantitative Abschätzung des Einflusses der Abplattung entwickeln wir das<br />

Gravitationspotential nach Multipolen [127]:<br />

U = µ<br />

�<br />

1 +<br />

r<br />

1<br />

2r2 C − A<br />

(1 − 3 sin 2 �<br />

φ) + . . . = µ<br />

�<br />

1 +<br />

r<br />

J R<br />

3<br />

2 E<br />

r2 (1 − 3 sin2 �<br />

φ) + . . .<br />

ME<br />

c○ M.-B. Kallenrode 2. Juli 2008


42 KAPITEL 2. SATELLITENBAHNEN<br />

Abbildung 2.12: Präzession der Bahnebene in<br />

Folge der Erdabplattung als Funktion der Inklination<br />

i und des mittleren Bahnabstands<br />

a/RE<br />

mit φ als Breite, C als Trägheitsmoment um die Rotationsachse (z-Achse) und A als Trägheitsmoment<br />

um eine senkrecht dazu stehende x-Achse sowie J als Quadrupolmoment mit<br />

�<br />

A = (z 2 + y 2 �<br />

)dm , C = (x 2 + y 2 )dm und J = 3 C − A<br />

≈ 1.6234 · 10<br />

2<br />

−3 .<br />

Präzession<br />

R 2 E ME<br />

§ 134 Für die Satellitenbahn ergeben sich aus der Abplattung der Erde zwei Konsequenzen:<br />

(a) die Drehung der Bahnebene (Präzession) und (b) die Drehung der Bahnellispe (Apsidendrehung).<br />

Die Herleitungen zu beiden Prozessen finden Sie in [17, 197]. Die wesentlichen<br />

Ergebnisse für die Präzession der Bahn sind<br />

∆Ω<br />

∆T<br />

= −2πJ<br />

� RE<br />

p<br />

� 2<br />

cos 2 i bzw.<br />

∆Ω<br />

Tag<br />

= −<br />

� a<br />

RE<br />

� 7/2<br />

10 ◦<br />

(1 − ε 2 ) 2<br />

cos i . (2.22)<br />

Die Präzession hängt also wie erwartet von der Inklination i ab, siehe auch Abb. 2.12. Sie<br />

hängt ferner von der Exzentrizität ε der Bahn und der Flughöhe ab, hier gegeben durch die<br />

große Halbachse a/RE in Einheiten des Erdradius.<br />

Verständnisfrage 3 Anschaulich beeinflusst die Abplattung der Erde die äquatoriale Bahn<br />

nicht – formal ist die Präzession aber von Null verschieden. Woher der Widerspruch?<br />

Verständnisfrage 4 Erklären Sie anschaulich, warum die Präzession für die exakt polare<br />

Bahn verschwindet. Was bedeutet das für sonnensynchrone Bahnen?<br />

§ 135 Als Beispiel ergibt sich für Sputnik 2 mit a/RE = 1.13, ε = 0.09 und i = 65.3 ◦ eine<br />

Drehung der Bahnebene von 2.77 ◦ /Tag; für Explorer 7 mit a/RE = 1.128, ε = 0.0377 und<br />

i = 50.3 ◦ ergibt sich ∆Ω = −4.27 ◦ /Tag. Das Vorzeichen der Bahndrehung sagt aus, ob<br />

die Bahn nach Ost oder West ausweicht – das Minuszeichen gilt für den Normalfall, dass<br />

die Bewegung des Satelliten in Ost–West-Richtung erfolgt. 13 Für beide Satelliten waren die<br />

beobachteten Werte etwas geringer als die berechneten (Sputnik 2.72 ◦ , Explorer 4.21 ◦ ). Diese<br />

Abweichungen zwischen beobachteter und berechneter Bahndrehung erlauben eine genauere<br />

Bestimmung von J.<br />

Zwischenrechnung 5 Für eine echte polare Bahn (i = 90 ◦ ) ist gemäß (2.22) keine sonnensynchrone<br />

Bahn möglich, da die Präzession verschwindet. Bestimmen Sie realistische Kombinationen<br />

von i, a und ε für einen sonnensynchronen <strong>Erdfernerkundung</strong>ssatelliten, der (a)<br />

13 Das ist auch die am häufigsten vorkommende Richtung, da in diesem Fall die Erddrehung beim Abschuss<br />

ausgenutzt wird. Bei Bahnen in entgegengesetzter Richtung erfolgt die Präzession mit umgekehrtem<br />

Vorzeichen (retrograd).<br />

2. Juli 2008 c○ M.-B. Kallenrode


2.3. BAHNSTÖRUNGEN 43<br />

Abbildung 2.13: Apsidendrehung als<br />

Funktion der Inklination und des mittleren<br />

Abstands<br />

möglichst die gesamte Erdoberfläche im Blick haben soll, (b) eine gewisse Lebensdauer haben<br />

soll (Mindestflughöhe 500 km) und (c) ein möglichst hohes (aber gleichzeitig homogenes)<br />

Bodenauflösungsvermögen haben soll.<br />

§ 136 Eine Nutzanwendung der Drehung der Bahnebene ist die sonnensynchrone Bahn. Hier<br />

muss die Drehung der Bahnebene genau 360 ◦ pro Jahr betragen, so dass die Bahnebene immer<br />

in einem festen Winkel zur Sonne–Erde-Achse steht. Mit einer für einen Erderkundungssatelliten<br />

typischen kreisförmige Bahn (ε = 0) mit großer Inklination (z.B. i = 80 ◦ ) erhalten wir<br />

aus (2.22) als Bahnhöhe für die gewünschte sonnensnychrone Bahn (a/RE) 7/2 = 1.76 und<br />

damit H = a − RE = 1100 km.<br />

Apsidendrehung<br />

§ 137 Die mit der Abplattung der Erde verbundene Verzerrung des Gravitationsfelds bewirkt<br />

neben der Drehung der Bahnebene auch eine Drehung der Bahnellipse in dieser Ebene<br />

(Apsidendrehung) mit<br />

∆ω<br />

Tag = 5◦ (5 cos2 i − 1)<br />

� �7/2 a<br />

RE<br />

(1 − ε 2 ) . (2.23)<br />

Die Apsidendrehung verschwindet, wenn der Zähler Null wird, d.h. für Bahnen mit einer<br />

Inklination i von 63.4 ◦ , vgl. Abb. 2.13. Daher haben die Bahnen der Molniya-Satelliten genau<br />

diese Inklination. Ansonsten würde sich innerhalb von Tagen bis Wochen das Apogäum von<br />

der Nord- auf die Südhemisphäre drehen und die Satelliten würden nicht mehr die meiste<br />

Zeit eines Umlaufs als Relaisstationen über der FSU stehen.<br />

§ 138 Für Inklinationen größer oder kleiner als 63.4 ◦ erfolgt die Apsidendrehung in unterschiedliche<br />

Richtungen, mit zunehmendem Abstand wird sie immer geringer.<br />

Verständnisfrage 5 Erläutern Sie anschaulich, warum polare und äquatoriale Bahnen jeweils<br />

eine entgegen gesetzte Apsidendrehung haben.<br />

2.3.4 Zusammenfassung<br />

§ 139 Die wichtigsten Bahnstörungen für Satelliten sind die Abbremsung durch Reibung,<br />

die für niedrig fliegende Satelliten zum Absturz führen kann, und die durch die Abplattung<br />

der Erde bedingte Abweichung des Gravitationsfeldes von der Kugelsymmetrie, die zu<br />

einer Drehung der Bahnebene (Präzession) und zu einer Drehung der Bahn in der Ebene<br />

(Apsidendrehung) führt. Bahnstörungen können messtechnisch eingesetzt werden; so liefert<br />

die Abbremsung von Satelliten Informationen über die anderweitig nicht messbare Dichte<br />

bzw. Temperatur der Hochatmosphäre. Die durch die Abplattung der Erde bewirkten Effekte<br />

lassen sich ebenfalls nutzen: die Präzession kann zur Erzeugung sonnensnychroner Orbits<br />

verwendet werden, die Apsidendrehung zur Stabilisierung einer sehr exzentrischen Flugbahn<br />

c○ M.-B. Kallenrode 2. Juli 2008


44 KAPITEL 2. SATELLITENBAHNEN<br />

wie der der Molniya-Satelliten. Die Auswertung von Bahnstörungen im Rahmen der Satellitengeodäsie<br />

wird ausführlich diskutiert in Schneider [213].<br />

2.4 Typische Bahnen von erdgebundenen Satelliten<br />

§ 140 Erdsatelliten bewegen sich auf Kreis- oder Ellipsenbahnen. Welcher der in Tabelle 2.3<br />

gegebenen Bahnen die Bahn eines bestimmten Satelliten ähnelt, hängt von den an den Satelliten<br />

gestellten Anforderungen ab. Eine grobe Unterteilung können wir nach Satellitentypen<br />

vornehmen.<br />

2.4.1 Typen von Erdsatelliten<br />

§ 141 Erdsatelliten lassen sich nach ihrer (hauptsächlichen) Aufgabe klassifizieren. Die wichtigsten<br />

Typen sind:<br />

• Erderkundungssatelliten, in ihrer militärischen Variante als Aufklärungssatellit bezeichnet;<br />

• Wettersatelliten, die nicht nur, wie durch ihren Namen nahe gelegt, zur Wetterbeobachtung<br />

eingesetzt werden, sondern auch Instrumente für allgemeine atmosphärische oder umweltbezogene<br />

Untersuchungen an Bord haben, wie. z.B. das Advanced Very High Resolution<br />

Radiometer AVHRR auf den verschiedenen POES Satelliten, mit denen Schnebedeckungen<br />

und Vegetationsindex ebenso wie Ölfilme auf Gewässern vermessen werden können oder der<br />

Space Environment Monitor SEM zur Messung von Plasmen und energiereichen Teilchen.<br />

Letzteres Instrument fliegt auf dem polaren POES ebenso wie auch seinem geostationären<br />

Kollegen GOES.<br />

• Kommunikationssatelliten, die als Relaisstationen zwischen verschiedenen Bodenstationen,<br />

zwischen einem Raumflugkörper und einer Bodenstation oder zwischen verschiedenen<br />

Raumflugkörpern eingesetzt werden können;<br />

• Navigationssatelliten, die einem Beobachter auf der Erde oder im erdnahen Weltraum eine<br />

sehr genaue Positionsbestimmung gestatten;<br />

• Forschungssatelliten, die vielfältige Aufgaben haben können und, da wir Erderkundungssatelliten<br />

bereits separat aufgelistet haben, nicht auf die Erde sondern nach draußen gerichtet<br />

sind.<br />

2.4.2 Erderkundungs- und Aufklärungssatelliten<br />

§ 142 Zivile Erderkundungssatelliten werden auf vielfältige Weise eingesetzt. Waren sie ursprünglich<br />

eher experimentelle Einrichtungen, die hauptsächlich zur Kartographie verwendet<br />

wurden, so haben sie sich heute zu hochgradig komplexen Systemen von Instrumenten entwickelt,<br />

die zur Untersuchung von so verschiedenen Phänomenen wie Schadstoffeinträge in<br />

Gewässer, Abholzung des tropischen Regenwaldes, Änderungen im Vegetationsmuster (Desertifikation),<br />

Beurteilung von Waldschäden, Meeresströmungen, Planktongehalt im Meerwasser,<br />

Ausdehnung des Ozonlochs und vielem mehr eingesetzt werden. Der militärische<br />

Zwillingsbruder des Erderkundungssatelliten ist der Aufklärungssatellit – das Spektrum seiner<br />

Anwendungen ist etwas schmaler und spezieller.<br />

§ 143 Die meisten Erderkundungs- und Aufklärungssatelliten fliegen auf nahezu kreisförmigen<br />

Bahnen mit hoher Inklination. Letztere ist nicht nur durch den Startort festgelegt,<br />

sondern gibt gleichzeitig die höchste geographische Breite bis zu der der Satellit gelangt. Eine<br />

große Inklination ist daher notwendig, um die Beobachtungen nicht nur auf einen schmalen<br />

Breitenstreifen um den Äquator zu beschränken. Die Bahnen sind (möglichst) kreisförmig,<br />

um auf allen Abschnitten des Orbits möglichst nahe an der Erdoberfläche zu sein und damit<br />

ein gutes Bodenauflösungsvermögen zu erreichen. Militärische Späher (BigBird [718], KH-11<br />

[752], KH-12 [753] – über KH13 [754] ist nicht genug bekannt) fliegen in Höhen zwischen<br />

2. Juli 2008 c○ M.-B. Kallenrode


2.4. TYPISCHE BAHNEN VON ERDGEBUNDENEN SATELLITEN 45<br />

200 und 300 km, 14 zivile Erderkundungssatelliten (z.B. SPOT, LandSat, SeaSat, Nimbus,<br />

Ikonos, Terra, TerraSAR, POES, Aqua, CloudSat .....) zwischen 600 und 1000 km – lediglich<br />

der hoch auflösende (0.65 m) QuickBird fliegt im Bereich dazwischen auf ca. 400 km [692]. 15<br />

Auf Grund der geringen Flughöhen liegen die Umlaufzeiten typischerweise im Bereich von 90<br />

bis 100 min, siehe auch Tab. 2.3, entsprechend 14 bis 16 Orbits pro Tag.<br />

§ 144 Die Bedeutung der Bahnparameter für einen speziellen Satelliten kann man auch<br />

aus der Projektion der Satellitenbahn auf die Erdoberfläche, der Bodenspur, erschließen.<br />

Abbildung 2.14 zeigt als Beispiel die Bodenspur eines LandSat-Satelliten. Die Bahn ist nahezu<br />

polar, so dass ein großer Breitenbereich überdeckt wird (oberes Teilbild). Da sich die Erde<br />

unter der Satellitenbahn weg dreht, werden im Laufe des Tages verschiedene Bereiche der Erde<br />

überflogen, so dass sich bereits innerhalb eines Tages eine Überdeckung weiter Bereiche der<br />

Erde ergibt (unteres Teilbild). Da der Blickwinkel der Instrumente auf diesem Satelliten zu<br />

gering ist, um den gesamten Bereich zwischen zwei benachbarten Bodenspuren beobachten zu<br />

können, ist das Überdeckungsmuster der folgenden Tage jeweils versetzt – daher schließt sich<br />

die Bodenspur im unteren Teilbild über Südamerika nicht. Für eine komplette Überdeckung<br />

sind in diesem Beispiel 248 Umläufe erforderlich, entsprechend einer Dauer von 17 Tagen.<br />

Zwischenrechnung 6 Wie breit muss der entlang der Bodenspur abgetastete Streifen mindestens<br />

sein, um wie bei POES während eines Tages die komplette Erdoberfläche abzuscannen?<br />

Welchem Blickwinkel entspricht das bei einer Flughöhe von 900 km?<br />

Verständnisfrage 6 Würde man bei geringerer Inklination mit einer geringeren Zahl von<br />

Umläufen zur vollständigen Überdeckung auskommen? Ergibt sich für alle Breiten die gleiche<br />

Minimalzahl?<br />

§ 145 Der Versatz der Bodenspuren hat für unsere Interprettaion von Satellitendaten eine<br />

wichtige Konsequenz: es ist nicht möglich, mit einem Satelliten Momentanaufnahmen eines<br />

Gebiets zu machen, das breiter ist als der entlang der Bodenspur abgetastete Streifen. Daher<br />

sind z.B. die Aufnahmen des Ozonlochs in Abb. 1.4 keine Momentanaufnahmen sondern<br />

eine Mittelung von Aufnahmen über einen längeren Zeitraum; gegebenenfalls zuzüglich einer<br />

Interpolation für die nicht beobachteten Bereiche. Über den Polen ist diese Interpolation<br />

kein allzu großes Problem, da die Breite des entlang der Bodenspur abgetasteten Streifens<br />

unabhängig von der geographischen Breite ist und die Bodenspuren in Polnähe konvergieren.<br />

Für niedrige Breiten dagegen ist das Zusammensetzen eines entsprechenden Mosaiks wesentlich<br />

zeitaufwendiger – insbesondere, da ja auch nicht jeder Überflug gute Daten liefert, z.B.<br />

auf Grund von Bewölkung.<br />

§ 146 Die Verwendung einer sonnensynchronen Bahn liefert zusätzliche Informationen, da<br />

auf Grund der konstanten Beleuchtungsverhältnisse aus der Länge des Schattens eines Objekts<br />

auf seine Höhe zurück geschlossen werden kann, ebenso wie auf seine Struktur (siehe<br />

auch Abschn. 2.4.3 und insbesondere Abb. 2.15). Die Verlängerung des Schattens zwischen<br />

aufeinander folgenden Umläufen kann damit ein Indiz für bauliche Veränderungen geben.<br />

Sonnensynchrone Orbits waren aus diesen Gründen in der Frühzeit der Erdsatelliten im wesentlichen<br />

für militärische Aufklärung von Interesse. Im Zuge der immer detailierteren Untersuhungen<br />

des spektralen Reflektionsvermögens z.B. zur Bestimmung von Pflanzenwachstum<br />

und -gesundheit sind sonnensynchrone Bahnen in der zivilen <strong>Erdfernerkundung</strong> ebenfalls von<br />

Interesse, da dann das einfallende Spektrum nur durch die atmsophärischen Parameter variiert<br />

wird und nicht noch zusätzlich durch Sonnenstand und damit Auftreffwinkel des Lichts<br />

auf die Pflanze.<br />

14 Größere Flughöhen verringern das Bodenauflösungsvermögen, geringere Flughöhen sind nicht sinnvoll,<br />

da dann die Reibung in der Restatmosphäre die Lebensdauer des Satelliten drastisch verringert bzw. eine<br />

sehr häufige Bahnkorrektur und damit das Mitführen großer Treibstoffmengen erforderlich macht – was für<br />

USA 193 als einen wahrscheinlichen KH-13 die Begründung zum Abschuss gab [647, 648, 649, 656].<br />

15 Daraus lässt sich schließen, dass QuickBird keinen besseren Sensor verwendet als z.B. Ikonos sondern<br />

einfach nur über die Reduktion der Gegenstandsweite sein Bodenauflösungsvermögen verbessert.<br />

c○ M.-B. Kallenrode 2. Juli 2008


46 KAPITEL 2. SATELLITENBAHNEN<br />

Abbildung 2.14: Bodenspur<br />

von LandSat für<br />

einen Umlauf (oben)<br />

und alle Umläufe eines<br />

Tages (unten) [49]<br />

Abbildung 2.15: Ein Gegenstand kann manchmal<br />

über seinen Schatten wesentlich einfacher<br />

zu identifizieren sein als direkt, wie in dieser<br />

Luftaufnahme am Mast der Hochspannungsleitung<br />

deutlich wird [154]<br />

2. Juli 2008 c○ M.-B. Kallenrode


2.4. TYPISCHE BAHNEN VON ERDGEBUNDENEN SATELLITEN 47<br />

2.4.3 Einschub: Sonnensynchrone Bahnen<br />

Abbildung 2.16: Polare<br />

und sonnensynchrone<br />

Bahn [49]<br />

Abbildung 2.17: Beispiele<br />

für sonnensynchrone<br />

Bahnen mit unterschiedlicher<br />

Lokalzeit [134]<br />

§ 147 Die sonnensynchrone Bahn ist ein Beispiel für die Stabilisierung der Bahnebene durch<br />

geschickte Ausnutzung einer Bahnstörung. Bei der sonnensynchronen Bahn ist die Bahnebene<br />

des Satelliten so ausgerichtet, dass sie stets in einem festen Winkel, meist senkrecht,<br />

zur Erde–Sonne-Achse steht. Dazu muss eine feste Beziehung zwischen großer Halbachse a,<br />

Exzentrizität ε und Inklination i erfüllt sein, siehe (2.22) und Zwischenrechnung 5.<br />

§ 148 Abbildung 2.16 zeigt ein Beispiel für eine sonnensynchrone Bahn. Im linken Teil der<br />

Abbildung ist eine normale polare Bahn dargestellt: da der Bahndrehimpulsvektor und damit<br />

die Bahnebene raumfest sind, ändert sich ihre Orientierung im Bezug auf die Achse Sonne–<br />

Erde während der Rotation der Erde um die Sonne. Bei einer sonnensynchronen Bahn dagegen<br />

driftet der Bahndrehimpulsvektor und damit die Bahnebene derart, dass sie stets in<br />

einem festen Winkel zur Erde–Sonne-Achse steht.<br />

§ 149 Abbildung 2.17 zeigt die Lage zweier sonnensynchroner Bahnen mit unterschiedlichen<br />

Lokalzeiten. Beide Beispiele sind für <strong>Erdfernerkundung</strong>ssatelliten relativ gebräuchlich, da die<br />

Orbits nahezu senkrecht zur Mittag–Nacht-Achse (Äquator wird am lokalen Abend bzw.<br />

Morgen gekreuzt) bei beiden Überflügen keine optimalen Beleuchtungsverhältnisse bieten.<br />

In den gezeigten Konfigurationen dagegen ist ein Überflug für die im sichtbaren Bereich des<br />

elektromagnetischen Spektrums arbeitenden Instrumente optimal; der andere Überflug kann<br />

im Halbschlaf verbracht werden oder man sieht sich die Welt mal im thermischen Infrarot bzw.<br />

mit Radar an. Die Solarzellen liefern ohnehin nicht allzu viel Power; häufig wird außerdem<br />

auf der Tagseite eine größere Datenmenge erzeugt als eigentlich übertragen werden kann –<br />

diese Daten können jetzt gedumpt werden.<br />

Zwischenrechnung 7 Ist die Power auf der Nachtseite eigentlich ein so großes Problem?<br />

Schätzen Sie jeweils den Anteil des Orbits ab, in dem ein Satellit in einer Flughöhe von<br />

250 km, 500 km, 1000 km und 2000 km im Schatten bleibt und auf die Versorgung aus<br />

Batterien angewiesen ist.<br />

§ 150 Der Vorteil der sonnensynchronen Bahn liegt bei <strong>Erdfernerkundung</strong>ssatelliten in den<br />

gleichbleibenden Beleuchtungsverhältnissen. Dies ist nicht nur für die Klassifikation von Bildelementen<br />

(vgl. Abschn. 7.3) wichtig, da ein Blatt dem Auge bzw. der Kamera anders erscheint,<br />

je nachdem, ob es von schräg oben oder senkrecht angestrahlt wird, sondern auch für<br />

c○ M.-B. Kallenrode 2. Juli 2008


48 KAPITEL 2. SATELLITENBAHNEN<br />

Abbildung 2.18: Der Schattenwurf der Aare-<br />

Brücke bei Bern macht die in der Senkrechtaufnahme<br />

sonst nicht erkennbare Konstruktion<br />

deutlich [104]<br />

die Entdeckung von baulicher Tätigkeit: diese erfolgt häufig über Veränderungen im Schattenwurf.<br />

Auch lassen sich in der Draufsicht keine Details der vertikalen Struktur erkennen<br />

– im Schatten dagegen schon, vgl. Abb. 2.15. Dieses Verfahren wurde übrigens auch in der<br />

Luftbild-Photographie regelmäßig verwendet, Abb. 2.18 zeigt ein Beispiel.<br />

§ 151 Für Beobachtungen der Sonne ist ein sonnensynchrones Orbit mit einer Bahnebene<br />

ungefähr senkrecht zur Erde–Sonne-Achse ebenfalls gut geeignet, da der Satellit die Sonne<br />

während des gesamten Umlaufs im Blickfeld hat und die Beobachtungspause auf der Nachtseite<br />

der Erde entfällt. Auf einer derartigen sonnensynchronen Bahn wird der Satellit während<br />

des gesamten Orbits von der Sonne angestrahlt – bei der Energieversorgung mit Solarzellen<br />

ein großer Vorteil.<br />

§ 152 Sonnensynchrone Bahnen sind allerdings häufig nur eine Illusion. So fliegen die POES<br />

Satelliten der NOAA offiziell auf sonnensynchronen Bahnen mit einer genau vorgegebenen<br />

Zeit für den Äquatorüberflug. Allerdings ist der feste Überflug eine Fiktion, da sich die<br />

Bahn im Laufe der Jahre dennoch dreht. Für den Nutzer der Daten gibt es daher eine<br />

etwas umfangreichere Datenbank, z.B. [641]. Andere Satelliten werden ebenfalls von einer<br />

derartigen Drift des Zeitpunkt des Äquatorüberflugs betroffen sein; das Hauptproblem dürfte<br />

darin liegen, dass sich trotz aller Bemühungen das Geoid nicht mit ausreichender Genauigkeit<br />

berücksichtigen lässt.<br />

§ 153 Erderkundungssatelliten, die keine Instrumente zur Messung der reflektierten solaren<br />

Einstrahlung tragen, fliegen zwar auf vergleichbaren Flughöhen, in der Regel jedoch nicht<br />

in sonnensynchronen Bahnen: die durch die sonnensynchrone Bahn bedingten gleichmäßigen<br />

Beleuchtungsverhältnisse sind für diese Satelliten nicht erforderlich. Umgekehrt lassen sich<br />

durch wechselnde Überflugzeiten zusätzliche Informationen gewinnen (tageszeitliche Variationen)<br />

und die Militärs haben das Gefühl, dass ihr spähender Blick etwas weniger gut vorhersagbar<br />

ist. Letzteres wird aber erst dann relevant, wenn wirklich militärische Späher in<br />

Stealth-Technologie fliegen und diese sich nicht zusätzlich regelmäßig durch den Funkverkehr<br />

mit der Bodenstation oder sonstiges verraten [717].<br />

2.4.4 Wetter- und Kommunikationssatelliten<br />

§ 154 Wetter- und Kommunikationssatelliten haben sehr ähnliche Orbits und können daher<br />

gemeinsam behandelt werden. Beide befinden sich in der Regel auf geostationären Orbits in<br />

einer Höhe von ca. 36 000 km über dem Erdboden (vgl. Tabelle 2.3). Ihre Umlaufzeit beträgt<br />

24 Stunden, d.h. der Satellit scheint über einem Punkt fest zu stehen. Das ist für meteorologische<br />

Anwendungen interessant, da der Satellit auf diese Weise die lokalen Veränderungen<br />

beobachtet. Und für die Kommunikation ist es günstig, da der Satellit vom Boden gesehen<br />

stets am gleichen Punkt am Himmel steht und daher Antennen nicht nachgeführt werden<br />

müssen. Der Satellit ist für die Kommunikation daher genauso wie eine Bodenstation eine<br />

ortsfeste Relais-Station. Für die Kommunikation zwischen Kontinenten befinden sich die Satelliten<br />

über den Ozeanen, für die Kommunikation innerhalb eines Kontinents über diesem.<br />

Drei äquidistante Satelliten sind ausreichend, um eine nahezu vollständige Überdeckung der<br />

Erdoberfläche zu gewährleisten, vgl. linkes Teilbild in Abb. 2.19.<br />

2. Juli 2008 c○ M.-B. Kallenrode


2.4. TYPISCHE BAHNEN VON ERDGEBUNDENEN SATELLITEN 49<br />

Abbildung 2.19: Kommunikationssatelliten: Überdeckung der Erdoberfläche mit Hilfe von<br />

drei geostationären Satelliten (links) und Molniya-Orbit (rechts)<br />

Verständnisfrage 7 Wieso nahezu vollständig? Was fehlt?<br />

Abbildung 2.20: Verteilung<br />

der Wettersatelliten<br />

im geostationären Orbit<br />

[134]<br />

§ 155 Geostationäre Satelliten haben jeweils die gesamte dem Satelliten zugewandte Fläche<br />

der Erde im Blick. Allerdings möchte jeder Wetterdienst/jedes Land sich selbst und bestimmte<br />

Bereiche (bevorzugt die Richtungen, aus denen das Wetter normalerweise kommt)<br />

im Blickfeld haben – und, wie in § 23 angedeutet, an der Neuauflage des Wettlaufs ins Weltall<br />

teilhaben. Daher sammeln sich an einigen Stellen im geostationären Orbit verschiedene Familien<br />

meteorologischer Satelliten, wie in Abb. 2.20 angedeutet.<br />

§ 156 Das Problem geostationärer Satelliten ist die Überfüllung des Orbits: allein 1991<br />

wurden 26 Satelliten in geostationäre Orbits gestartet, die meisten davon zivile Kommunikationssatelliten.<br />

Auch in den folgenden Jahren waren die Zahlen vergleichbar. Bei der<br />

Überfüllung ist der mechanische Gesichtspunkt unerheblich, vom Standpunkt der Kommunikation<br />

dagegen ist ein Mindestabstand von 2 ◦ notwendig, d.h. es sind insgesamt 180<br />

Plätze zu vergeben, verglichen mit 26 Starts alleine in einem Jahr und 360 aktiven quasigeostationären<br />

Satelliten Anfang 2008 [692]. Lösungsvorschläge dieser technischen Variante<br />

eines Überbevölkerungsproblems werden in [200] diskutiert. Eine Lösungsmöglichkeit besteht<br />

in der Verwendung von Orbits ähnlich denen der Molniya-Satelliten oder die Nutzung von<br />

pseudo-geostationären Orbits mit einer Inklination von einigen (oder auch mehreren) Grad,<br />

die aus Sicht eines Beobachters auf der Erde eine quasi-Oszillation des Satelliten entlang<br />

c○ M.-B. Kallenrode 2. Juli 2008


50 KAPITEL 2. SATELLITENBAHNEN<br />

Abbildung 2.21: Geosynchrones<br />

Orbit mit einer Inklination<br />

von 60 ◦ [134]<br />

eines Längengrades über den durch die Inklination definierten Bereich bewirken würde. Abbildung<br />

2.21 zeigt ein Beispiel für ein derartiges geosynchrones Orbit mit einer Inklination<br />

von 60 ◦ .<br />

Verständnisfrage 8 Warum steht der Satellit nicht fest über einem Längenkreis sondern<br />

hat als Bodenspur die Lemniskate? Argumentieren Sie anschaulich und versuchen Sie anschließend<br />

formal zu begründen, warum die sich ergebende Kurve eine Lemniskate ist.<br />

§ 157 Geostationäre Bahnen sind per Definition äquatoriale Bahnen, da der Erdmittelpunkt<br />

als Massenmittelpunkt in der Bahnebene liegen muss. Mit von Null verschiedenen Inklinationen<br />

lassen sich zwar auch Orbits erreichen, bei denen die Umlaufzeit 24 Stunden beträgt,<br />

jedoch oszilliert der Satellit dann entlang eines Längenkreises um den Äquator, wie oben<br />

diskutiert. Für viele Anwendungen können die Nachteile dieses Orbits durch die Vorteile<br />

beim Start aufgewogen werden: jeder Satellit, der von einem Startplatz in einem gewissen<br />

Abstand vom Äquator gestartet wird, hat mindestens die Inklination, die der geographischen<br />

Breite seines Startorts entspricht. In höherer Breite gestartete Satelliten können daher nur<br />

über energieaufwendige Manöver in äquatoriale Bahnen gebracht werden – was das Mitführen<br />

von Treibstoff und entsprechend leistungsfähigen Antriebsaggregaten erfordert und damit zu<br />

Lasten der transportierbaren Nutzlast geht. Außerdem kann man versuchen, der Lemniskate<br />

ein sinnvolles Timing zu geben, z.B. für den auf Europa fixierten MeteoSat mit einem Tagteil<br />

des orbits über der Nordhemisphäre und einem Nachtteil über der Südhemisphäre.<br />

§ 158 Auf Grund ihrer geographischen Lage konnte die UdSSR/FSU mit Startplätzen oberhalb<br />

von 30 N kein System geostationärer Kommunikationssatelliten aufbauen. Stattdessen<br />

wurde ein System von Kommunikationssatelliten in hochgradig elliptischen Bahnen betrieben.<br />

Diese Molniya-Satelliten (Molniya = Blitz, [369, 550]) haben ein Perigäum bei ca. 400 km, ein<br />

Apogäum bei ca. 40 000 km und eine Inklination von 65 ◦ . Damit ergibt sich eine Umlaufzeit<br />

von ca. 12 Stunden. Da das Apogäum über dem Nordpol gewählt wurde, vgl. rechter Teil von<br />

Abb. 2.19, halten sich die Satelliten während ca. 2/3 ihrer Umlaufzeit im Empfangsbereich<br />

einer Bodenstation der FSU auf und bewegen sich zugleich nur relativ langsam entlang ihrer<br />

Bahn – eine Animation ist unter [393] zu finden, die Bodenspur ist z.B. in [737] gegeben. Eine<br />

vollständige Überdeckung wird durch die Verwendung jeweils eines Satellitenpaares erreicht,<br />

wobei der zweite Satellit in einem um 90 ◦ versetzten Orbit fliegt.<br />

Verständnisfrage 9 Ist ein Versatz um 90 ◦ sinnvoll? Warum nicht ein um 180 ◦ versetztes<br />

Orbit? Und hat die Gradangabe überhaupt eine Bedeutung?<br />

2. Juli 2008 c○ M.-B. Kallenrode


2.4. TYPISCHE BAHNEN VON ERDGEBUNDENEN SATELLITEN 51<br />

2.4.5 Navigationssatelliten<br />

Abbildung 2.22: Konfiguration der GPS-<br />

Satelliten [135]<br />

§ 159 Navigationssatelliten sind ursprünglich ebenfalls militärische Systeme, die es Einheiten<br />

bzw. einzelnen Soldaten ermöglichen sollen, ihren Standort genau zu bestimmen, und die<br />

natürlich auch für die Lenkung automatischer Waffensysteme verwendet werden. Das System<br />

hat sich dann in spezielle zivile Anwendungen eingeschlichen, insbesondere die Funkortung<br />

für die Luft- und Seefahrt. Auch <strong>Erdfernerkundung</strong>ssatelliten benutzen GPS zur genauen<br />

Positionsbestimmung, die bodengebundenen Landvermesser ebenfalls.<br />

§ 160 Gerade im Bereich der Navigation liegt eine starke Kopplung zwischen ziviler und<br />

militärischer Nutzung vor [171]. 16 Das bekannteste System, NavStar bzw. GPS (Global Positioning<br />

System), wurde ursprünglich in unterschiedlichen Modi für die militärische und<br />

die zivile Nutzung betrieben: die militärische Variante mit einer Genauigkeit der Ortsbestimmung<br />

von ca. 1 m, die zivile mit einer Genauigkeit im Bereich von einigen 10 Metern.<br />

Dieses künstliche Verrauschen der zivil genutzten Signale wurde Mitte der Neunziger Jahre<br />

abgeschaltet, so dass jetzt auch zivilen Nutzern eine Genauigkeit im Bereich von Metern zur<br />

Verfügung steht. 17 Und heute kann man dem GPS-Empfänger im Handy oder Navi kaum entgehen<br />

– obwohl gerade im städtischen Bereich die WLAN-Ortung [167] besser funktionieren<br />

kann.<br />

§ 161 Das Verfahren der Ortsbestimmung ist ähnlich der zur Bestimmung der Höhe eines<br />

Gebäudes oder Berges verwendeten Triangulation. Um einen Ort im Raum zu bestimmen,<br />

ist es ausreichend, drei Orte mit genau bekannter Lage anzupeilen und die dazu gehörigen<br />

Richtungswinkel zu bestimmen. 18 Auf die GPS-Satelliten übertragen bedeutet dies, dass mindestens<br />

drei von ihnen im Blickfeld eines jeden Punktes auf der Erdoberfläche sein müssen.<br />

16 Die enge Verquickung mit dem Militär ist einer der Hauptgründe dafür, dass die EU sich nicht auf das<br />

amerikanische Global Positioning System (GPS) [265] verlassen möchte sondern mit Galileo [359] ein eigenes<br />

Navigationssystem aufbauen möchte.<br />

17 Bei kleinen kommerziellen GPS-Empfängern beträgt die Genauigkeit in den horizontalen Koordinaten<br />

wenige Meter, kann jedoch bei schlechter Satellitenüberdeckung (insbesondere in städtischen Bereichen und<br />

in (Straßen)Schluchten ist das ein Problem) geringer sein. Ein generelles Problem ist die Genauigkeit der<br />

vertikalen Koordinate – diese kann auch mal um 100 m versetzt sein. Das bedeutet z.B. auf einem Leuchtturm<br />

stehend eine Höhenkoordinate von −32 m, d.h. 32 m unter NormalNull, zu erhalten. Einfache GPS-Systeme<br />

sind außerdem nicht in der Lage, schnelle Änderungen in Kurs und Geschwindigkeit korrekt zu erkennen,<br />

da ein Teil der Auswertung auf Dead Reckoning – d.h. der Extrapolation auf der Basis der vorherigen<br />

Geschwindigkeit – basiert. Für Navis in Fahrzeugen wird daher teilweise statt Dead Reckoning die Umdrehung<br />

der Räder verwendet.<br />

18 Die Genauigkeit des Verfahrens hängt natürlich von der Lage der drei Orte ab – im Extremfall, dass alle<br />

drei auf einer Linie liegen, kann man den eigenen Ort nicht bestimmen sondern nur eine Linie angeben, auf<br />

der er liegen muss. Entsprechend ungenau wird das Verfahren, wenn alle drei angepeilten Punkte dicht bei<br />

einander liegen.<br />

c○ M.-B. Kallenrode 2. Juli 2008


52 KAPITEL 2. SATELLITENBAHNEN<br />

Praktisch wird das GPS-System durch 21 NavStar Satelliten auf sechs nahezu kreisförmigen<br />

Orbits mit einer Umlaufhöhe von ca. 20 000 km und einer Periode von 12 Stunden realisiert,<br />

vgl. Abb. 2.22. Die Idee des Systems basiert darauf, dass von jedem Punkt der Erde mindestens<br />

vier dieser Satelliten angepeilt werden können. 19 Der vierte Satellit ist deshalb wichtig,<br />

weil das System im Gegensatz zu bodengebundenen Peilstationen einen zeitliche Komponente<br />

hat: die Satelliten sind nicht ortsfest sondern bewegen sich relativ zum Erdboden. Vereinfacht<br />

gesagt soll der vierte Satellit eine zeitliche Synchronisation ermöglichen: aus seinem Signal<br />

wird die genaue Zeit und damit der genaue Ort der drei für die Ortsbestimmung verwendeten<br />

Satelliten ermittelt. 20 Eine ausführliche Darstellung des GPS gibt z.B. [98].<br />

2.4.6 Forschungssatelliten<br />

§ 162 Forschungssatelliten bilden eine inhomogene Gruppe mit ihrer wissenschaftlichen Fragestellung<br />

angepassten Bahnen. Einige Beispiele für erdgebundene Forschungssatelliten sindim<br />

Folgenden aufgelistst.<br />

• für die Erforschung des interplanetaren Raums von erdgebundenen Satelliten aus werden<br />

stark exzentrische Orbits verwendet, z.B. IMP (Interplanetary Monitoring Platform [529])<br />

und WIND [434]. Dadurch befindet sich der Satellit lange Zeit außerhalb der Erdmagnetosphäre;<br />

das Bahnkonzept ist ähnlich dem der Molniya-Satelliten, jedoch mit deutlich<br />

größerer Flughöhe. Eine Alternative ist eine Raumsonde im Lagrange Punkt. Letzteres<br />

ist der Punkt auf der Achse Sonne–Erde, in dem sich die Gravitationskräfte der beiden<br />

genau aufheben. Beispiele sind ISEE-3 (International Sun Earth Explorer [440]), SOHO<br />

(Solar and Heliospheric Observatory [613]) und ACE [272]. Letzteres sind allerdings keine<br />

Satelliten mehr (sie umkreisen keinen Zentralkörper), sondern Raumsonden bzw. Raumflugkörper.<br />

• Satelliten zur Erforschung der Erdmagnetosphäre befinden sich ebenfalls auf stark exzentrischen<br />

Orbits, allerdings mit geringerer Flughöhe. Die starke Exzentrizität erlaubt es, die<br />

radiale Variation der Magnetosphäre zu untersuchen; Beispiele sind ISEE-1,2 [530, 531]<br />

und Cluster-II [355]. Da die Magnetosphäre zeitlich und räumlich sehr variabel ist, sind<br />

in-situ Messungen mit einem einzelnen Satelliten nicht aussagekräftig. daher wurde ISEE<br />

im Doppelpack (mit ISEE 3 als zusätzlicher Warnboje im interplanetaren Raum) gestartet,<br />

Cluster-II fliegt sogar als Quartett (Salsa, Samba, Rumba, Tango).<br />

• Für astrophysikalische Fragestellungen und solare Beobachtungen werden meist nahezu<br />

kreisförmige Bahnen in Höhen von einigen hundert Kilometern verwendet. Dies ergibt sich<br />

vielfach aus der Größe der Satelliten, ein VW-Bully ist klein und leicht gegen einige von<br />

ihnen. Diese Satelliten wurden vom Space Shuttle ausgesetzt, führen aber auf Grund ihrer<br />

Größe und Masse kaum Treibstoff für Bahnmanöver mit sich, müssen also im wesentlichen<br />

dem Shuttle-Orbit folgen. Dies hat auch einen Vorteil: die Satelliten können mit Hilfe des<br />

Shuttle gewartet oder repariert werden, so wurde z.B. dem Hubble Space Telescope HST<br />

[378, 528] eine Brille verpasst, um seine Abbildungsqualität zu verbessern. Beispiele für<br />

astrophysikalisch orientierte Forschungssatelliten sind:<br />

– Solwind P78-1 (H = 530 km, i = 98 ◦ ) zur Erforschung der Ionosphäre und der Magnetosphäre<br />

sowie zur Beobachtung der Sonne (Koronograph). Dieser militärische Forschungssatellit<br />

wurde nach 6 1/2 Jahren erfolgreicher Arbeit, obwohl noch voll funktionsfähig,<br />

von der US Air Force als Zielsatellit für Anti-Satellitenwaffen zweckentfremdet [441];<br />

– Solar Maximum Mission SMM [493] (H = 490 km, i = 29 ◦ ) als Sonneobservatorium.<br />

SolarMax war der erste Satellit, der von einem Shuttle zu Reparaturzwecken wieder<br />

19 Ein einfacher GPS-Empfänger kann die Informationen von bis zu 12 GPS-Satelliten verarbeiten – wofern<br />

er so viele im Blickfeld hat. Auf [728] gibt es eine kleine Animation, aus der man erkennen kann, wie sich die<br />

Zahl der im Blickfeld befindlichen Satelliten im Laufe der Zeit verändert.<br />

20 Für die sehr genaue Ortsbestimmung (Landvermessung, einige Rettungssysteme) verwendet man ein<br />

differentielles GPS (DGPS): zusätzlich zu den Satellitensignalen werden die Signale einer ortsfesten Bodenstation<br />

als Referenz verwendet. Damit lassen sich die Satelliteninformationen korrigieren und Genauigkeiten<br />

im Bereich von einigen Zentimetern erreichen.<br />

2. Juli 2008 c○ M.-B. Kallenrode


2.4. TYPISCHE BAHNEN VON ERDGEBUNDENEN SATELLITEN 53<br />

Abbildung 2.23: Höhen und<br />

Umlaufzeiten verschiedener<br />

Satelliten. Die Kreise markieren<br />

Satelliten auf nahzu<br />

kreisförmigen Bahnen, die<br />

Linien Satelliten in sehr<br />

exzentrischen Orbits.<br />

eingefangen wurde. Er stürzte 1989 nach 10 Jahren Betriebszeit in der Folge hoher<br />

solarer Aktivität ab – und wurde damit ein Opfer seines Beobachtungsobjektes.<br />

– Solar A (Yokoh [388, 604]) (H = 650 km, i = 31 ◦ ) dient der Röntgenbeobachtung der<br />

Sonne und wurde, wie seine hohe Flugbahn andeutet, nicht vom Shuttle sondern von<br />

einer Rakete gestartet.<br />

– Gamma Ray Observatory GRO, [492] später umbenannt in Compton Gamma Ray Observatory<br />

CGRO [439] (H = 420 km, i = 29 ◦ ) zur Gammabeobachtung und zur Suche<br />

nach neuen Röntgenquellen im Universum. Sein Nachfolger RHESSI (Reuven Ramaty<br />

High Energy Solar Spectroscopic Imager) befindet sich in ähnlichem Orbit.<br />

– Hubble Space Telescope HST (H = 615 km, i = 29 ◦ ) als nicht von der Erdatmosphäre<br />

beeinträchtigtes astronomisches Teleskop.<br />

Die sehr ähnlichen Inklinationen der Bahnen dieser Forschungssatelliten ergeben sich durch<br />

die geographische Breite des Startorts, im Falle von SMM, GRO und HST wurde vom<br />

Kennedy Space Center (Cape Canaveral) auf einer Breite von N29 gestartet, Yokoh wurde<br />

von Tanegashima bei N31 gestartet.<br />

2.4.7 Zusammenfassung<br />

§ 163 Die Bahn eines Satelliten wird der Zielsetzung der Mission angepasst. Militärische<br />

Satelliten (KH-11 [752], KH-12 [753] in Abb. 2.23) fliegen in geringer Höhe auf Kreisbahnen.<br />

Erderkundungssatelliten (LandSat, SeaSat, SPOT, Nimbus, Terra, Aqua, EnviSat, ...) bewegen<br />

sich ebenfalls auf Kreisbahnen, jedoch in größerer Höhe um die Einflüsse der Reibung<br />

geringer zu halten und bei immer noch ausreichend guter Bodenauflösung größere Bereiche<br />

überblicken zu können. Im Höhenbereich zwischen diesen beiden Arten von <strong>Erdfernerkundung</strong>ssatelliten<br />

befinden sich die Raumstationen (ISS – auch MIR hatte eine vergleichbare<br />

Flughöhe) und astrophysikalische Forschungssatelliten (RoSat, GRO). Hier sind die Bahndetails<br />

stark durch die Erreichbarkeit des Orbits mit Raumfähren oder -kapseln bestimmt.<br />

In Höhen oberhalb 2 000 km finden sich auf Kreisbahnen nur noch die NavStar-Satelliten<br />

des Navigationssystems GPS und ihre russischen GLONASS-Kollegen, die geostationären<br />

Kommunikations- und Wettersatelliten sowie vereinzelt Forschungssatelliten (z.B. LAGEOS,<br />

Cluster-II). Die meisten Orbits hoch fliegender Satelliten sind stark exzentrisch: einerseits<br />

c○ M.-B. Kallenrode 2. Juli 2008


54 KAPITEL 2. SATELLITENBAHNEN<br />

Abbildung 2.24: Stabilisierungssysteme:<br />

Spinstabilisierung (oben), Drei-<br />

Achsen-Stabilisierung (Mitte) undpassive<br />

Stabilisierung (unten) [85]<br />

auf Grund der Zielsetzung (bei Molniya lang dauernder Aufenthalt über der FSU, in der Magnetosphärenforschung<br />

Überdeckung eines weiten radialen Bereichs), andererseits aber auch,<br />

weil es energetisch wesentlich weniger aufwendig ist, einen Satelliten in eine Ellipsenbahn mit<br />

weit entferntem Apogäum zu bringen als in eine Kreisbahn mit entsprechendem Radius.<br />

Verständnisfrage 10 Stimmt die Aussage überhaupt? Gleichung (2.16) haben wir doch<br />

derart interpretiert, dass die Energie nur von der großen Halbachse abhängt – müsste Sie<br />

dann nicht für Kreis und Ellipse gleich sein und damit zum Einbringen in die Kreisbahn<br />

keine zusätzliche Energie erforderlich sein?<br />

2.5 Stabilisierung des Satelliten<br />

§ 164 Die Stabilisierung eines Satelliten auf seiner Bahn betrifft nicht mehr die Bahn sondern<br />

die Lage des Satelliten in dieser Bahn und damit die Ausrichtung der auf dem Satelliten befindlichen<br />

Instrumente relativ zur Bahn und zum Target. Neben den Instrumenten muss auch<br />

die Antenne ausgerichtet werden, so dass diese stets auf eine Empfangs- oder Relaisstation –<br />

was gegebenenfalls ein anderer Satellit sein kann – gerichtet ist.<br />

§ 165 Formal muss die Bewegung des Satelliten in zwei Teile zerlegt werden: (a) die Bewegung<br />

des Massenmittelpunkts auf seiner Bahn, wie bisher in diesem Kapitel betrachtet,<br />

und (b) die Bewegung des Satelliten um seinen Massenmittelpunkt. Um die Ausrichtung der<br />

Instrumente und Antennen zu gewährleisten, bedient man sich verschiedener Stabilisierungssysteme,<br />

für Zusammenfassungen siehe z.B. [68, 85, 138, 225, 261].<br />

§ 166 Abbildung 2.24 gibt einen Überblick über verschiedene Lageregelungs- oder Stabilisierungsverfahren.<br />

Diese lassen sich in drei Klassen einteilen: Spinstabilisierung (oben), Drei-<br />

Achsen-Stabilisierung (Mitte) und passive Stabilisierung (unten).<br />

2. Juli 2008 c○ M.-B. Kallenrode


2.5. STABILISIERUNG DES SATELLITEN 55<br />

§ 167 Das einfachste Verfahren zur Stabilisierung eines Satelliten oder eine Raumsonde ist<br />

die Spinstabilisierung: der Satellit rotiert um eine Achse mit großem Trägheitsmoment, meist<br />

um die Figurenachse. Die Rotationsachse �ω ist parallel zum raumfesten Drehimpulsvektor<br />

�L. Auf Grund der Drehimpulserhaltung widersetzt sich der Satellit wie ein Kreisel jeder<br />

Änderung seiner Drehachse. Für praktische Anwendungen reichen zur Stabilisierung Spingeschwindigkeiten<br />

in der Größenordnung von einer Umdrehung pro Sekunde (Beispiele: TIROS<br />

I: 1/6 U/s; Syncom [586] 2.7 U/s; Helios 1 [523, 524] U/s).<br />

§ 168 Spinstabilisierung ist für die <strong>Erdfernerkundung</strong> unpraktisch: sofern die optische Achse<br />

des Instruments nicht mit der Drehachse des Satelliten zusammenfällt, ergibt sich ein ständig<br />

wechselndes Blickfeld. Für Aufnahmen der Erde ist Spinstabilisierung daher keine geeignete<br />

Form der Lagereglung. Für andere Typen von Instrumenten, z.B. Instrumente zur Messung<br />

energiereicher Teilchen, dagegen sind spinnende Plattformen von Vorteil: durch die Änderung<br />

der Blickrichtung wird der gesamte Raum abgescannt und man kann auf diese Weise die Richtungsverteilung<br />

der einfallenden Teilchen bestimmen und nicht nur die Teilchenintensitäten<br />

aus einer bestimmten Richtung. Ausnahme in der <strong>Erdfernerkundung</strong> sind auch viele meteorologische<br />

Satelliten: hier wird die Spinstabilisierung (Drehachse senkrecht zur Bahnebene)<br />

gleichzeitig zum Scannen genutzt mit dem Vorteil eines einfachen Instruments ohne bewegliche<br />

mechanische Bestandteile. Die Konfiguration, bei der der Satellit gleichsam seine Bahn<br />

entlang spinnt, wird als Cartwheel bezeichnet (bitte nicht mit dem Cartwheel beim SAR in<br />

§ 509 verwechseln) – TIROS 9 [591] war der erste Vertreter dieser Rad schlagenden Spezies.<br />

§ 169 Da die Drehachse bei spinnenden Raumsonden in der Regel senkrecht auf der Bahnebene<br />

steht, gibt es keine Möglichkeit, eine Richtantenne mit fester Ausrichtung auf eine<br />

Bodenstation auf dem Raumfahrzeug zu montieren. Daher muss zur Gewährleistung der<br />

Funkverbindung die Antenne relativ zum Satelliten rotieren, um eine Ausrichtung auf die<br />

Erde zu gewährleisten. Die Genauigkeit, mit der diese Gegenrotation erfolgt, ist so gross,<br />

dass für Helios 1 erst 12 Jahre nach dem Start des Satelliten eine Abweichung auftrat, die so<br />

groß war, dass der relativ schmale Strahl der Antenne die Erde nicht mehr traf. Bei einer Rotationsperiode<br />

von 1/s heißt das, dass der Antennenstrahl erst nach ca. 360 Mio Rotationen<br />

um wenige Grad von seiner ursprünglichen Richtung abgewichen ist.<br />

§ 170 Bei der Drei-Achsen-Stabilisierung wird die momentane Lage des Satelliten durch Momentenaustausch<br />

mit Stellgliedern, z.B. Schwungrädern [211], gehalten. Dadurch lässt sich eine<br />

feste Ausrichtung von Antennen bzw. Instrumenten erreichen. Drei-Achsen-Stabilisierung<br />

erfolgt bei vielen geostationären Satelliten (Kommunikation), <strong>Erdfernerkundung</strong>ssatelliten<br />

und bei vielen interplanetaren Raumsonden (z.B. Pioneer [499], Voyager [476], ISEE-3 [440]).<br />

§ 171 Passive Stabilisierungssysteme nutzen die Umgebungsbedingungen zur Orientierung,<br />

z.B. Strahlungsdruck, Gravitationsgradienten oder terrestrisches Magnetfeld. Im unteren Teil<br />

von Abb. 2.24 ist als Beispiel die Lagestabilisierung des ersten deutschen Forschungssatelliten,<br />

Azur, durch das Magnetfeld dargestellt. Im Satelliten ist ein starker Permanentmagnet<br />

eingebaut. Da sich der Satellit auf einer polaren Umlaufbahn befindet, dreht er sich während<br />

eines Umlaufs um die Erde auch einmal um seine Achse. Bei Abweichungen aus seiner Lage<br />

parallel zu den Magnetfeldlinien bewirkt der Permanentmagnet ein rücktreibendes Moment,<br />

so dass die Satellitenachse stets parallel zu den Feldlinien bleibt und stets das gleiche Ende<br />

des Satelliten in Richtung auf den magnetischen Nordpol weist.<br />

§ 172 Stabilisierung ist insbesondere auf den frühen Missionen ein interessantes Problem,<br />

wenn diese über einen simplen Tape-Recorder zum Zwischenspeichern der Daten verfügen<br />

(wie z.B. die Voyager und Pioneer Sonden). Drehimpulserhaltung fordert, dass jedes An- und<br />

Ausschalten des Recorders mit einer entsprechenden Ausweichbewegung quittiert wird – was<br />

einem Ausweichen der Antenne aus der Zielrichtung entsprechen kann. Heutige Satelliten<br />

verfügen im Bereich der Datenspeicherung sicherlich über weniger bewegliche Instrumente –<br />

die Stabilisierung bleibt jedoch ein Problem, da sich (a) die meisten Satelliten erst im Orbit<br />

entfalten (insbesondere die Solarpanel) und der sich daraus ergebende Drehimpuls kontrolliert<br />

c○ M.-B. Kallenrode 2. Juli 2008


56 KAPITEL 2. SATELLITENBAHNEN<br />

gedämpft werden muss, und (b) da die modernen Instrumente häufig über bewegliche Teile<br />

verfügen, z.B. um auch mal einen Blick zur Seite werfen zu können.<br />

2.6 Einbringen des Satelliten in seine Bahn<br />

§ 173 Das Einbringen eines Satelliten in seine Umlaufbahn setzt sich in der Regel aus mehreren<br />

Prozessen zusammen: dem Einbringen des Satelliten in eine niedrige kreisförmige Umlaufbahn<br />

mit Hilfe einer Rakete oder des Space Shuttle und dem anschließenden, auf Grund<br />

der Begrenzung der mitgeführten Treibstoffvorräte energetisch möglichst günstig zu gestaltenden<br />

Transfer in sein Ziel-Orbit (Hohmann-Bahnen). Transferbahnen sind nicht nur für<br />

die Positionierung von Satelliten in einer Erdumlaufbahn von Interesse sondern ebenso für<br />

Missionen zu anderen Planeten oder, vielleicht heute nicht mehr ganz so aktuell, zum Mond.<br />

§ 174 Der Start eines Satelliten ist, insbesondere wenn die zur Verfügung stehende Energie<br />

optimal ausgenutzt werden soll, kein trivialer Vorgang. Die drei wichtigsten Probleme sind:<br />

• die Eigenbewegung der Erde: die Erdrotation sowie die Rotation der Erde um die Sonne<br />

sind mit Eigengeschwindigkeiten von ca. 0.5 km/s bzw. 30 km/s verbunden. Diese relativ<br />

hohen Geschwindigkeiten können unterstützend verwendet werden – allerdings nur bei<br />

Start in Richtung dieser Bewegungen. Bei Start in die entgegengesetzte Richtung müssen<br />

diese Geschwindigkeiten zusätzlich überwunden werden.<br />

• der Luftwiderstand in niedrigen Höhen verhindert große Startgeschwindigkeiten. Aber<br />

selbst bei vernachlässigbare Luftwiderstand könnte man keine zu großen Anfangsgeschwindigkeiten<br />

verwenden, da dann die initiale Beschleunigung zu groß wäre und damit starke<br />

Belastungen für die mechanische Struktur von Satelliten und Instrumenten mit sich bringen<br />

würde; von der Belastung der Astronauten auf bemannten Missionen ganz zu schweigen.<br />

• der zum Antrieb erforderliche Brennstoff muss mit angehoben werden, d.h. also auch mit<br />

beschleunigt werden.<br />

2.6.1 Raketengleichung<br />

§ 175 Die Notwendigkeit, den Treibstoff mit anzuheben, führt auf die Raketengleichung.<br />

Darin wird die Beschleunigung einer veränderlichen Masse (die Rakete wird durch das Verbrennen<br />

der Treibgase leichter) unter Einwirkung einer konstanten Kraft (die Verbrennungsgase<br />

strömen mit konstanter Rate und konstantem Impuls aus) betrachtet.<br />

§ 176 Da sich die Masse der Rakete während der Beschleunigung ändert, ist die Bewegungsgleichung<br />

gegeben zu<br />

˙m¨x = � Fi ⇒ ¨x = 1 �<br />

Fi .<br />

˙m<br />

Als Kräfte sind auf der rechten Seite die Schubkraft, die Reibung und die Gravitation einzusetzen.<br />

§ 177 Die von der Höhe (und der zeitlich veränderlichen Masse) abhängige Gravitationskraft<br />

ist<br />

R<br />

Fg = −m(t)g(x(t)) = −m(t) g0<br />

R + x<br />

mit g0 als der Gravitationsbeschleunigung am Erdboden, R als dem Erdradius und x als der<br />

Höhe (und damit gleichzeitig als der Ortskoordinate der Rakete).<br />

Verständnisfrage 11 Können Sie die Aussage bezüglich g(x) formal begründen?<br />

§ 178 Die Schubkraft hängt von der Ausströmgeschwindigkeit vrel der Verbrennungsgase und<br />

dem Massenstrom ˙m ab:<br />

FSchub(t) = − ˙m(t) vrel(t) = − mleer − m0<br />

tB<br />

2. Juli 2008 c○ M.-B. Kallenrode<br />

vrel .


2.6. EINBRINGEN DES SATELLITEN IN SEINE BAHN 57<br />

Dabei wird die Ausströmgeschwindigkeit vrel als konstant angenommen. Der Massenstrom<br />

ergibt sich bei konstanter Verbrennungsrate zu<br />

˙m = mleer − m0<br />

tB<br />

mit m0 als der Startmasse der vollbetankten Rakete, mleer als der Masse der leeren Rakete<br />

bei Brennschluss und tB als der Brenndauer. Aus dem Massenstrom lässt sich auch direkt<br />

die Abhängigkeit der Raketenmasse von der Zeit bestimmen als<br />

m(t) = m0 − m0 − mleer<br />

t .<br />

tB<br />

§ 179 Die Reibungskraft ist bestimmt durch den Widerstandsbeiwert cw, die angeströmte<br />

Fläche A, die von der Höhe abhängige Dichte ϱ(x) der Luft sowie der Geschwindigkeit v:<br />

FReib = − 1<br />

2 cwAϱ(x) ˙x 2 .<br />

Die Höhenabhängigkeit der Dichte lässt sich abschätzen zu<br />

�<br />

−6 x<br />

�4.255 ϱ(x) = ϱ0 1 − 22.6 · 10<br />

1 m<br />

mit ϱ0 als der Dichte am Erdboden.<br />

Zwischenrechnung 8 Lässt sich die Abschätzung in irgendeiner Form mit der barometrischen<br />

Höhenformel in Beziehung setzen? Oder finden Sie eine andere Begründung für diese<br />

Näherung?<br />

§ 180 Kombination dieser Kräfte liefert für die Beschleunigung in Abhängigkeit von Zeit t,<br />

Ort x und Geschwindigkeit ˙x<br />

1<br />

¨x(t, x, ˙x) =<br />

m0 − m0−mleer<br />

�<br />

m0 − mleer<br />

vrel −<br />

t tB<br />

tB<br />

1<br />

2 cwAϱ0<br />

�<br />

−6 x<br />

�4.255 1 − 22.6 · 10 ˙x<br />

1 m<br />

2<br />

�<br />

R<br />

−g0<br />

(2.24)<br />

R + x<br />

§ 181 Diese Differentialgleichung ist nicht sehr kooperativ, da die Reibung einen nichtlinearen<br />

Term einbringt, ebenso die Höhenabhängigkeit. Daher ist eine numerische Lösung<br />

erforderlich – oder eine Näherung.<br />

Gravitationsfrei und luftleer<br />

§ 182 Der einfachste Ansatz ist eine Rakete im gravitationsfreien und luftleeren Raum, d.h.<br />

wir beschränken uns auf Impulserhaltung. Die folgende Darstellung ist nicht sehr elegant,<br />

folgt aber der klassischen Herleitung der so genannten Raketengleichung. Daher sei sie hier<br />

trotzdem zitiert. Außerdem ist der Ansatz für die Beschreibung der Übergangsbahnen trotzdem<br />

sinnvoll.<br />

§ 183 Die Impulserhaltung wird formuliert mit den Impulsen m(t)v(t) der Rakete und dem<br />

Impuls (v(t) − v0)β dt der ausgestoßenen Treibgase mit v0 als der Ausströmgeschwindigkeit<br />

und β als der Ausströmrate: dm = βdt. Die Rakete erfährt in einem Zeitintervall dt beim<br />

Ausströmen des Treibgases eine Änderung dp des Impulses gegenüber ihrem Impuls p am<br />

Anfang des Zeitintervalls:<br />

p + dp = (m − βdt) (v + dv) bzw. p = (m − βdt)(v + dv) + β dt (v − v0) .<br />

Ausmultiplizieren und Vernachlässigung des Gliedes dm dv liefert<br />

dv = −v0βdt/m (2.25)<br />

und damit für die Schubkraft F , die einer Rakete der momentanen Masse m die Beschleunigung<br />

dv/dt erteilt,<br />

F = v0 β . (2.26)<br />

c○ M.-B. Kallenrode 2. Juli 2008


58 KAPITEL 2. SATELLITENBAHNEN<br />

Tabelle 2.5: Äußerer Wirkungsgrad einer<br />

Rakete<br />

Geschwindigkeits- Massen- Wirkungsverhältnis<br />

verhältnis grad<br />

vB/v0 m0/mB ηA<br />

0.001 1.001 0.001<br />

0.01 1.010 0.010<br />

0.1 1.105 0.095<br />

0.5 1.65 0.385<br />

1. 2.72 0.582<br />

1.594 4.93 0.647<br />

2. 7.4 0.625<br />

3. 20.1 0.524<br />

4. 55. 0.299<br />

5. 149. 0.169<br />

6. 403. 0.089<br />

8. 3000 0.021<br />

10. 22 000 0.0045<br />

57. 6 · 10 24<br />

0.5 · 10 −21<br />

Ist v0 während der gesamten Brenndauer tB konstant, so lässt sich (2.25) einfach integrieren<br />

und wir erhalten als Raketenformel<br />

∆v = v0 ln m0<br />

mB<br />

(2.27)<br />

mit m0 als der Gesamtmasse der Rakete zum Zeitpunkt t = 0 und mB als der Raketenmasse<br />

bei Brennschluss. ∆v ist der Geschwindigkeitszuwachs der Rakete bzw. bei Beschleunigung<br />

aus der Ruhe die Geschwindigkeit am Ende der Beschleunigungsphase.<br />

Verständnisfrage 12 Beim Übergang zu (2.25) wurde das Glied dm dv vernachlässigt. Ist<br />

(2.26) damit identisch zu (2.24) ohne Reibung und Gravitationskraft oder nicht? Und was<br />

bedeutet diese Vereinfachung physikalisch, was mathematisch? Vergleichen Sie mit der im<br />

ersten Semester bei der startenden Rakete verwendeten Gleichung.<br />

§ 184 Der Geschwindigkeitszuwachs ∆v kann formal nahezu beliebig gesteigert werden,<br />

wenn das Verhältnis m0/mB groß genug wird. Allerdings ist dies zum einen aus technischen<br />

Gründen (den Treibstoff umschließende Struktur) nicht einfach, zum anderen wird der<br />

Wirkungsgrad für große Massenverhältnisse sehr klein, vgl. Tabelle 2.5.<br />

§ 185 Als Wirkungsgrad einer Rakete wird das Verhältnis ihrer kinetischen Energie bei<br />

Brennschluss zur insgesamt im Treibstoff enthaltenen Energie definiert:<br />

η = Ekin,B<br />

=<br />

Ekin,∞<br />

mBv2 B<br />

mTv2 ∞<br />

(2.28)<br />

mit v∞ als der Geschwindigkeit, die die ausströmenden Treibgase haben würden, wenn ihr<br />

gesamter Wärmeinhalt in die kinetische Energie des ausgestoßenen Gases verwandelt wäre.<br />

Würde man eine derartige ideale Rakete auf dem Prüfstand abbrennen, so würde keine Energie<br />

an die fest verankerte Rakete übertragen sondern alle Energie in die Ausströmgase gehen.<br />

§ 186 Bei der realen Rakete ist die Ausströmgeschwindigkeit v0 geringer als v∞, so dass die<br />

kinetische Energie der Ausströmgase gegeben ist als Ekin,T = mTv 2 0/2. Der Wirkungsgrad<br />

(2.28) wird daher aufgespalten gemäß<br />

η = ηIηA mit ηI = v2 0<br />

v 2 ∞<br />

und ηA = mBv 2 B<br />

mTv 2 ∞<br />

als dem inneren und äußeren Wirkungsgrad. Der innere Wirkungsgrad gibt ein Maß dafür,<br />

welcher Teil der in den heißen Brennkammergasen enthaltenen Energie in gerichtete kinetische<br />

Energie der austretenden Gase umgewandelt wird. Er liegt zwischen 0.36 und 0.64 [68].<br />

2. Juli 2008 c○ M.-B. Kallenrode


2.6. EINBRINGEN DES SATELLITEN IN SEINE BAHN 59<br />

Abbildung 2.25: Raketenstart; numerische<br />

Lösung für die erste Stufe<br />

einer Saturn V für verschiedene<br />

Näherungen: (schwarz) mit Reibungskraft<br />

und höhenabhängiger Gravitationskraft,<br />

(rot) ohne Reibungskraft,<br />

mit konstanter Gravitation, (blau) ohne<br />

Reibung und ohne Gravitation<br />

Der äußere Wirkungsgrad gibt den Bruchteil der in den ausströmenden Raketengasen steckenden<br />

Energie, der in kinetische Energie der Rakete umgewandelt werden kann. Der äußere<br />

Wirkungsgrad ist Null, wenn die Rakete auf dem Prüfstand festgehalten wird; er würde eins,<br />

wenn in jeder Flugphase die Ausströmgeschwindigkeit ihrem Betrage nach gleich der momentanen<br />

Fluggeschwindigkeit v der Rakete wäre. In diesem Fall würde sich der Gasstrahl<br />

bezüglich eines raumfesten Systems in Ruhe befinden.<br />

§ 187 Im realen Fall ist der Wirkungsgrad geringer, ein Teil der Energie steckt in der<br />

Geschwindigkeit, mit der die Rückstoßgase durch den Raum fliegen. Für konstante Ausströmgeschwindigkeit<br />

können wir die Raketenformel (2.27) einsetzen und erhalten für den<br />

äußeren Wirkungsgrad<br />

ηA =<br />

(vB/v0) 2<br />

exp(vB/v0) − 1 =<br />

�<br />

� 2<br />

ln m0<br />

mB<br />

.<br />

m0 − 1 mB<br />

Tabelle 2.5 fasst die äußeren Wirkungsgrade für verschiedene Geschwindigkeits- bzw. Massenverhältnisse<br />

zusammen. Der optimale Wirkungsgrad von 0.647 ergibt sich für ein Massenverhältnis<br />

von 4.93 (vernünftige Annahme) und ein Geschwindigkeitsverhältnis von 1.594.<br />

Luftleer, aber Gravitation<br />

§ 188 Die Rakete im luftleeren und gravitationsfreien Raum kann vielleicht als Annäherung<br />

für Booster bei der Durchführung von Bahnmanövern betrachtet werden, die eigentliche<br />

Anwendung einer Rakete, den Start vom Erdboden aus, beschreibt sie jedoch nicht. Um<br />

diesen zu beschreiben müssen wir in der Bewegungsgleichung zusätzlich zur Schubkraft die<br />

Gravitation berücksichtigen und erhalten mit (2.26)<br />

F = v0β − g(h)<br />

für den senkrechten Start; beim schiefen Schuss muss die Betrachtung vektoriell durchgeführt<br />

werden. Integration liefert (für konstantes v0 und unter Vernachlässigung der Höhenabhängigkeit<br />

von g)<br />

∆v = v0 ln m0<br />

mB<br />

− gtB<br />

wobei sich die Zeit tB aus der Masse des Treibstoffs und der Ausströmrate bestimmen lässt.<br />

§ 189 Abbildung 2.25 erlaubt den Vergleich der verschiedenen Näherungen mit Hilfe der<br />

numerischen Lösung von (2.24) für die erste Stufe einer Saturn V Rakete [22]. Die schwarze<br />

Kurve gibt die vollständige Lösung (Reibung und höhenabhängige Gravitationskraft): bei<br />

c○ M.-B. Kallenrode 2. Juli 2008


60 KAPITEL 2. SATELLITENBAHNEN<br />

Brennschluss der ersten Stufe hat die Rakete eine Höhe von ca. 100 km erreicht (unteres<br />

Teilbild). Vernachlässigt man die Reibung (rote Kurve) so ändert sich an der Beschleunigung<br />

nur im mittleren Bereich der Flugbahn etwas: für kleine Zeiten ist die Geschwindigkeit noch<br />

so gering, dass die Reibung nur geringen Einfluss hat; für große Zeiten und damit große<br />

Flughöhen wird der Einfluss der Reibung ebenfalls wieder gering, da die Dichte abgenommen<br />

hat. Die scheinbar geringe Erhöhung der Beschleunigung hat jedoch einen starken Einfluss<br />

auf die Geschwindigkeit und die bei Brennschluss erreichte Flughöhe. Selbst diese Kurven<br />

sind keine vernünftige Annäherung an die allgemeine Lösung. Vernachlässigt man zusätzlich<br />

die Gravitation (blaue Kurve), so erhält man zwar zur Raketengleichung passende Werte –<br />

physikalisch sinnvoller wird die Lösung damit aber trotzdem nicht.<br />

2.6.2 Mehrstufenprinzip<br />

§ 190 Bei einer einstufigen Rakete ist das Massenverhältnis der begrenzende Faktor für die<br />

erreichbaren Geschwindigkeiten; eine optimale Ausnutzung des Wirkungsgrads würde ein Geschwindigkeitsverhältnis<br />

von ca. 1.6 liefern (vgl. Tabelle 2.5). Mit einer Ausströmgeschwindigkeit<br />

von 3 km/s ergibt sich dann eine Endgeschwindigkeit von 4.8 km/s, noch deutlich unter<br />

der ersten kosmischen Geschwindigkeit – damit viel zu gering, um einen Satelliten in ein<br />

Orbit zu bringen.<br />

§ 191 Mit einer mehrstufigen Rakete kann man dieses Problem leicht umgehen. Anschaulich<br />

ist das einsichtig: eine mehrstufige Rakete zündet beim Start eine erste Raketenstufe, die<br />

weiteren Stufen sind in diesem Moment Bestandteil der Nutzlast. Ist diese ausgebrannt, so<br />

wird ihre Hülle abgeworfen. Damit reduziert sich die von der zweiten Stufe zu beschleunigende<br />

Masse. Dieser Vorgang wiederholt sich mit der zweiten (und gegebenenfalls vorhandenen<br />

weiteren) Stufe(n).<br />

§ 192 Tabelle 2.6 gibt eine Illustration des Mehrstufenprinzips. Im oberen Teil ist eine Einstufenrakete<br />

betrachtet mit einer Startmasse m0 von 50.68 t (das entspricht sinngemäß wieder<br />

den Maßen einer Saturn V wie in Abb. 2.25 – allerdings eben alle Stufen ein eine kondensiert).<br />

Von der Gesamtmasse entfallen 42.2 t auf Treibstoff, 8.44 t auf die Rakete selbst und<br />

40 kg auf die Nutzlast. Die Ausströmgeschwindigkeit beträgt 2.7 km/s. Damit ergibt sich<br />

nach der Raketengleichung (2.27) eine Geschwindigkeit von 4.8 km/s bei Brennschluss der<br />

Rakete, d.h. die Rakete erreicht nicht die für eine Kreisbahn notwendige Geschwindigkeit.<br />

§ 193 Im unteren Teil der Tabelle stehen für Brennstoff, Nutzlast und Raketenstruktur die<br />

gleichen Massen zur Verfügung. Diese Massen werden jedoch wie bei der realen Saturn V Rakete<br />

auf drei Raketenstufen verteilt, wobei die erste Stufe alleine 95% der Masse der vorher<br />

betrachteten Einstufenrakete hat. Da in dieser ersten Stufe aber etwas weniger Treibstoffmasse<br />

vorhanden ist und die Restmasse der Rakete nach Brennschluss der ersten Stufe auch noch<br />

die Massen der anderen beiden Stufen umfasst, ergibt sich eine Geschwindigkeitszunahme von<br />

nur 4.21 km/s gegenüber den 4.8 km/s bei der Einstufenrakete.<br />

§ 194 Die zweite Stufe, nun der Restmasse der ausgebrannten ersten Stufe entledigt, wird<br />

mit dieser Anfangsgeschwindigkeit gezündet und erreicht eine Geschwindigkeitszunahme um<br />

weitere 3.71 km/s, entsprechend einer Gesamtgeschwindigkeit von 7.92 km/s, d.h. die beiden<br />

unteren Stufen alleine könnten die Nutzlast zusammen mit der dritten Stufe bereits in eine<br />

Erdumlaufbahn bringen.<br />

§ 195 Nach Absprengen der ausgebrannten zweiten Stufe wird die dritte Stufe gezündet.<br />

Nach deren Brennschluss ist eine Endgeschwindigkeit von 11.31 km/s erreicht. Während die<br />

Einstufenrakete bei gleicher Masse nicht einmal in der Lage gewesen wäre, einen Satelliten<br />

in ein Erdorbit zu befördern, kann mit der Dreistufenrakete eine Geschwindigkeit oberhalb<br />

der Fluchtgeschwindigkeit von 11.2 km/s erreicht werden, d.h. es können sogar planetare<br />

Missionen gestartet werden.<br />

2. Juli 2008 c○ M.-B. Kallenrode


2.6. EINBRINGEN DES SATELLITEN IN SEINE BAHN 61<br />

Einstufenrakete:<br />

Nutzlast . . . . . . . . . . . . . . . . . . . . . . . . . . . . . mS = 0.04 t<br />

Treibstoff . . . . . . . . . . . . . . . . . . . . . . . . . . . . mT = 42 − 20 t<br />

Rakete . . . . . . . . . . . . . . . . . . . . . . . . . . . . . mR = 8.44 t<br />

→ Masse beim Start . . . . . . . . . . . . . . . . . . . . . . m0 = 50.68 t<br />

Masse bei Brennschluss . . . . . . . . . . . . . . . . . . . . . mB = 8.48 t<br />

→ Massenverhältnis . . . . . . . . . . . . . . . . . . . . . . . m0/mB = 5.98<br />

Ausströmgeschwindigkeit . . . . . . . . . . . . . . . . . . . . v0 = 2.7 km/s<br />

→ Endgeschwindigkeit (2.27) . . . . . . . . . . . . . . . . . . vR = 4.8 km/s<br />

Mehrstufenrakete:<br />

Nutzlast . . . . . . . . . . . . . . . . . . . . . . . . . . . . . mS = 0.04 t<br />

3. Stufe Rakete . . . . . . . . . . . . . . . . . . . . . . . . mR3 = 0.04 t<br />

Treibstoff . . . . . . . . . . . . . . . . . . . . . . . mT3 = 0.20 t<br />

2. Stufe Rakete . . . . . . . . . . . . . . . . . . . . . . . . mR2 = 0.40 t<br />

Treibstoff . . . . . . . . . . . . . . . . . . . . . . . mT2 = 2.00 t<br />

1. Stufe Rakete . . . . . . . . . . . . . . . . . . . . . . . . mR1 = 8.00 t<br />

Treibstoff . . . . . . . . . . . . . . . . . . . . . . . mT1 = 40 t<br />

→ Gesamtmasse beim Start . . . . . . . . . . . . . . . . . . . m0 = 50.68 t<br />

davon Gesamtmasse Rakete . . . . . . . . . . . . . . mR = 8.44 t<br />

davon Gesamtmasse Treibstoff . . . . . . . . . . . . mT = 42.20 t<br />

1. Stufe Masse beim Start = Gesamtmasse . . . . . . . . . . m01 = m0 = 42.20 t<br />

Masse bei Brennschluss . . . . . . . . . . . . . . . . mB1 = 10.68 t<br />

Geschwindigkeitszuwachs . . . . . . . . . . . . . . . ∆v1 = 4.21 km/s<br />

Brennschlussgeschwindigkeit der 1. Stufe . . . . . . . v1 = 4.21 km/s<br />

2. Stufe Masse bei Zündung der zweiten Stufe . . . . . . . . . m02 = 2.68 t<br />

Masse bei Brennschluss der zweiten Stufe . . . . . . . mB2 = 0.68 t<br />

Geschwindigkeitszuwachs . . . . . . . . . . . . . . . ∆v2 = 3.71 km/s<br />

Brennschlussgeschwindigkeit der zweiten Stufe v1 + ∆v2 v2 = 7.92 km/s<br />

3. Stufe Masse bei Zündung der dritten Stufe . . . . . . . . . m03 = 0.28 t<br />

Masse bei Brennschluss der dritten Stufe . . . . . . . m03 = 0.28 t<br />

Geschwindigkeitszuwachs . . . . . . . . . . . . . . . ∆v3 = 3.39 km/s<br />

Brennschlussgeschwindigkeit der dritten Stufe v1 + ∆v2 + ∆v3 . . v3 = vB = 11.31 km/s<br />

Tabelle 2.6: Vergleich Ein- und Dreistufenrakete, nach [68]<br />

Ergänzung: Mehrstufenrakete formal<br />

§ 196 Um zu einer formalen Beschreibung der Endgeschwindigkeit bei einer Mehrstufenrakete<br />

zu gelangen, betrachten wir eine Zweistufen-Rakete. Die erste Stufe hat die Masse<br />

m1 = mT1 + mR1 mit mT1 als der Masse des Treibstoffes und mR1 als der Restmasse der<br />

Struktur der ersten Stufe. Analog bezeichnet der Index 2 die Massen der zweiten Stufe (wobei<br />

bei einer vorhandenen Nutzlast deren Masse in mR2 mit enthalten ist). Nach der Raketengleichung<br />

(2.27) ergibt sich die Geschwindigkeit ∆v1 nach Brennschluss der ersten Stufe zu:<br />

∆v1 = v01 ln mT1 + mR1 + mT2 + mR2<br />

mR1 + mT2 + mR2<br />

. (2.29)<br />

§ 197 Die zweite Stufe m2 wird nun von der leergebrannten ersten Stufe abgetrennt (Verlust<br />

der Masse mR1). Nach Brennschluss der zweiten Stufe ergibt sich ein Geschwindigkeitszuwachs<br />

von<br />

∆v2 = v02 ln mT2 + mR2<br />

mR2<br />

. (2.30)<br />

Da die zweite Stufe bei ihrer Zündung bereits die durch (2.29) gegebene Geschwindigkeit<br />

∆v1 erreicht hatte, ergibt sich für die Gesamtgeschwindigkeit nach Brennschluss der zweiten<br />

Stufe vB2 = ∆v1 + ∆v2.<br />

§ 198 Vereinfachend nehmen wir an, dass bei beiden Stufen die Ausströmgeschwindigkeiten<br />

c○ M.-B. Kallenrode 2. Juli 2008


62 KAPITEL 2. SATELLITENBAHNEN<br />

gleich sind: v01 = v02. Dann ergibt sich<br />

vB2 = vo ln (mT1 + mR1 + mT2 + mR2) (mT2 + mR2)<br />

(mR1 + mT2 + mR2) mR2<br />

Erweitert man den Bruch im Logarithmus mit (mR1+mR2), so ergibt sich nach Ausklammern,<br />

Ausmultiplizieren und Umformen<br />

vB2 = v0 ln m1 + m2<br />

(mR1 + mR2) + v0<br />

�<br />

�<br />

mR1 mR2<br />

ln 1 +<br />

. (2.31)<br />

mR2 (mR1 + mR2 + mT2)<br />

Dabei stellt der erste Term auf der rechten Seite die Endgeschwindigkeit dar, die man nach<br />

der Raketenformel (2.27) für eine einstufige Rakete mit derselben Startmasse m1+m2 und<br />

derselben Treibstoffmasse mT1+mT2 wie das gesamte Zweistufenaggregat erhalten hätte. Der<br />

zweite Term stellt den Geschwindigkeitsgewinn durch die Verwendung einer zweiten Stufe dar,<br />

dieser Term ist stets positiv.<br />

§ 199 Setzt man insgesamt n Stufen aufeinander und trennt jeweils die unterste Stufe nach<br />

Brennschluss ab, so ergibt sich für die Endgeschwindigkeit der letzten Stufe einschließlich<br />

der Nutzlast: vB = � ∆vi. Für alle Raketenstufen gilt die Raketenformel (2.27). Unter der<br />

Voraussetzung, dass die Ausströmgeschwindigkeit v0 für alle Stufen gleich ist, ergibt sich<br />

�<br />

m01 m02<br />

vB = v0 ln<br />

mB1 mB2<br />

. . . m0n<br />

mBn<br />

�<br />

.<br />

mit den Größen m0i und mBi als den Gesamtmassen vor Zünden bzw. nach Brennschluss der<br />

i-ten Stufe, gegeben durch<br />

n�<br />

m01 = mN +<br />

mB1 = mN +<br />

m02 = mN +<br />

i=2<br />

n�<br />

i=2<br />

n�<br />

i=3<br />

. . . . . . .<br />

mBn = mN + mRn .<br />

(mRi + mTi) + (mR1 + mT1),<br />

(mRi + mTi) + mR1,<br />

(mRi + mTi) + (mR2 + mT2),<br />

Dabei ist mN die Masse der Nutzlast. Die aus diesen Massen gebildete, als Argument im<br />

Logarithmus von (2.31) auftretende Produktkette<br />

n�<br />

� �<br />

M0 m0i<br />

=<br />

MB<br />

i=1<br />

mBi<br />

wird als das totale Massenverhältnis bezeichnet. Dann lässt sich (2.31) analog zur Raketenformel<br />

(2.27) auch in der Form<br />

schreiben.<br />

vB = v0 ln M0<br />

MB<br />

§ 200 Die Raketengleichung (2.27) erlaubt nur eine ungefähre Abschätzung der Geschwindigkeit<br />

bei Brennschluss der Rakete. In der Realität müssen die Reibung in der Erdatmosphäre<br />

und die (mit der Höhe abnehmende) Gravitationskraft berücksichtigt werden – und diese<br />

Einflüsse sind, wie in Abb. 2.25 zu erkennen, nicht gering.<br />

§ 201 Allerdings gibt es auch eine natürliche Starthilfe: die Bewegung des Startplatzes verschafft<br />

der Rakete in einem raumfesten System bereits eine Anfangsgeschwindigkeit. Für<br />

planetare Missionen ist die Starthilfe die Rotation der Erde um die Sonne. Die Umlaufgeschwindigkeit<br />

beträgt vU=29.8 km/s, die am Ort der Erde benötigte Entweichgeschwindigkeit<br />

2. Juli 2008 c○ M.-B. Kallenrode<br />

.


2.6. EINBRINGEN DES SATELLITEN IN SEINE BAHN 63<br />

aus dem Sonnensystem v s e 46.4 km/s . Nutzt man die bereits durch die Rotation der Erde um<br />

die Sonne vorgegebene Geschwindigkeit, so reduziert sich die dem Satelliten bzw. der Rakete<br />

zusätzlich zu erteilende Geschwindigkeit auf ∆v = v s e − vu = 16.6 km/s. Dies gilt natürlich<br />

wenn der Start in der Bewegungsrichtung der Erde erfolgt. Ein Start in die Gegenrichtung<br />

ist praktisch unmöglich, da dann die Eigengeschwindigkeit der Erde zusätzlich aufgehoben<br />

werden müsste, der Rakete also eine Gesamtgeschwindigkeit von 76.2 km/s zu erteilen wäre.<br />

Für einen Start von Erdsatelliten ist der Effekt der Eigenrotation der Erde geringer, da die<br />

Kreisbahngeschwindigkeit 7.8 km/s beträgt, die Umlaufgeschwindigkeit am Erdboden aber<br />

nur 0.46 km/s.<br />

2.6.3 Transferbahnen (Hohmann-Bahnen)<br />

§ 202 Eine normale Raketen besitzt keine ausreichende Schubkraft, um z.B. einen Kommunikationssatelliten<br />

in ein geostationäres Orbit zu bringen. Wird mit dem Space Shuttle<br />

gestartet, 21 so kann bei sehr leichten Satelliten nur eine Maximalhöhe von ca. 1 000 km erreicht<br />

werden, realistischere Höhen liegen eher zwischen 400 und 600 km. Um den Satelliten<br />

dann in ein höheres Orbit zu überführen, benötigt man zusätzlichen Schub. 22 Wie dieses<br />

Verfahren vom energetischen Standpunkt optimiert werden kann, wird durch die Hohmann-<br />

Bahnen beschrieben. Andere Transferbahnen existieren ebenfalls, diese sind jedoch in der<br />

Regel wesentlich energieaufwendiger.<br />

§ 203 Hohmann hat die nach ihm benannten Bahnen bereits vor dem 1. Weltkrieg unter Anwendung<br />

der Gesetze der klassischen Himmelmechanik berechnet. Sein Ziel war zu ermitteln,<br />

wie groß, wie schwer und wie leistungsfähig ein raketengetriebenes Raumschiff sein müsste,<br />

um auf Sonnen umrundenden Ellipsenbahnen bei geringstem Energieaufwand zu anderen<br />

Planeten zu gelangen. Hohmann veröffentlichte diese Untersuchungen 1925 unter dem Titel<br />

‘Die Erreichbarkeit der Himmelskörper’ (Oldenburg, München) mit den Kapiteln: Loslösung<br />

von der Erde; Rückkehr zur Erde; Freie Fahrt im Raum; Umfahrung anderer Himmelskörper;<br />

und: Landung auf anderen Himmelkörpern. Wernher von Braun kommentierte dazu: ‘Seine<br />

Untersuchungen schlossen nicht nur das primäre Problem des Verlassens des Schwerefeldes<br />

der Erde ein, sondern auch die delikate Aufgabe des Wiedereintritts in die Erdatmosphäre<br />

mit super-orbitalen Rückkehrgeschwindigkeiten’. Die wichtigsten theoretischen Grundlagen<br />

der Manöverierung von Raumsonden wurden also bereits gelegt lange bevor sich die ersten<br />

Möglichkeiten zur technischen Realisierung solcher hochfliegenden Pläne abzeichneten.<br />

Hohmann-Bahnen<br />

§ 204 Hohmann-Bahnen bestimmen den energetisch günstigsten Übergang zwischen zwei<br />

Orbits. Hierbei kann es sich um den Übergang von einer niedrigen Erdumlaufbahn in ein<br />

geostationäres Orbit handeln oder um den Übergang von einer Bahn um die Erde auf eine<br />

um einen anderen Planeten. Als Näherung wollen wir das Problem soweit vereinfachen,<br />

dass die Anziehungskraft auf den Satelliten nur von einem Zentralkörper ausgeht (also z.B.<br />

zwei Satellitenbahnen um die Erde oder der Übergang von der Erd- auf die Marsbahn ohne<br />

21 Diese Idee war vor ganz ganz langer Zeit einmal eine der Begründungen für das Space Shuttle – die Existenz<br />

einer wieder verwendbaren Startbasis [170]. Allerdings wurde das Shuttle Programm immer teurer; auch<br />

standen nach den Verlusten von Challenger und Columbia kaum noch Starts an. Daher wird das Shuttle heute<br />

nicht mehr zum Satellitentart verwendet – eventuell mit der Ausnahme des militärischen Shuttles Atlantis<br />

für Spionage- oder andere Militärsatelliten. Satellitenstarts sind heute wieder nahezu ausschließlich Domäne<br />

der Raketen. Das Space Shuttle durfte ursprünglich auch Satelliten mit einer angedockten Flüssigtreibstoff-<br />

Raketenstufe transportieren. Nach der Explosion der Challenger beim Start wurde diese Politik überdacht,<br />

was z.B. für den Start der Jupiter-Mission Galileo [457] und der interplanetaren Mission Ulysses [474] gravierende<br />

Konsequenzen hatte. So musste auf Grund der schwächeren Feststoffrakete bei Galileo ein mehrfaches<br />

Swing-By Manöver geflogen werden, vgl. Abb. 2.34 und Abschn. 2.7.2.<br />

22 Transferbahnen sind nicht nur beim Start mit Hilfe des Space Shuttle erforderlich – dort ist das Auftreten<br />

einer Kreis- oder Ellipsenbahn in niedrigem orbit nur am offensichtlichsten. Auch beim Start mit einer<br />

mehrstufigen Rakete kann, wie in § 194 gesehen, eine stabile Zwischenbahn erreicht werden.<br />

c○ M.-B. Kallenrode 2. Juli 2008


64 KAPITEL 2. SATELLITENBAHNEN<br />

Abbildung 2.26: Hohmann-Bahn als<br />

Übergangsellipse zwischen zwei kreisförmigen<br />

Orbits<br />

Einschwenken in eine Umlaufbahn um diesen Planeten, so dass die Anziehungskraft der Planeten<br />

vernachlässigt werden kann und nur die Sonne der Zentralkörper ist). Zusätzlich wird<br />

angenommen, dass es sich um kreisförmige Bahnen handelt, die alle in einer Ebene liegen:<br />

für Bahnen zwischen den Planeten stellt dies keine bedeutende Einschränkung dar. Um einen<br />

Satelliten aus dieser Ebene zu katapultieren, bedarf es jedoch eines größeren Aufwands – bei<br />

Ulysses z.B. durch ein Swing-By Manöver am Jupiter realisiert (siehe auch Abb. 2.33).<br />

§ 205 Eine Möglichkeit des Überganges zwischen zwei kreisförmigen Bahnen mit den Radien<br />

r1 und r2 ist eine elliptische Trajektorie, vgl. Abb. 2.26. Diese Übergangsellipse wird als<br />

Hohmann-Ellipse oder Hohmann-Bahn bezeichnet. Ihre große Halbachse a ergibt sich zu<br />

a = 1<br />

2 (r1 + r2), da die Bahn in ihrem Perihel bzw. Perigäum die innere, in ihrem Aphel bzw.<br />

Apogäum die äußere Kreisbahn berührt. Nach der Binet’schen Gleichung (2.17) ergibt sich<br />

dann für jeden Punkt der Bahn die Geschwindigkeit zu<br />

v 2 �<br />

1<br />

= 2µ ·<br />

r −<br />

�<br />

1<br />

.<br />

r1 + r2<br />

Damit lassen sich die Geschwindigkeiten im Perihel r1 und Aphel r2 bestimmen zu<br />

� �<br />

µ 2<br />

vP =<br />

r1/r2 + 1<br />

r1<br />

� �<br />

µ 2<br />

und vA =<br />

.<br />

r2 1 + r1/r2<br />

§ 206 Erfolgt der Start nun von der inneren Kreisbahn aus in Richtung der Umlaufbewegung<br />

des Raumfahrzeuges, so hat der Körper bereits vor dem Start eine Geschwindigkeit,<br />

die der Kreisbahngeschwindigkeit vK1 = � µ/r1 auf diesem Orbit entspricht. Zum Übergang<br />

auf die Hohmann-Bahn ist dann eine Geschwindigkeitsänderung ∆v1 = v1 − vK1 erforderlich,<br />

wobei gemäß der Definition der Bahn ∆v1 tangential zur Kreisbahn ist. Die Geschwindigkeitsänderung<br />

durch das Feuern der Schubdüsen erfolge instantan, d.h. in einer Zeit, die klein<br />

gegenüber der Umlaufzeit ist. Dann erhält man die Geschwindigkeitsänderung zu<br />

� ��<br />

�<br />

µ 2<br />

∆v1 =<br />

− 1 .<br />

r1/r2 + 1<br />

r1<br />

§ 207 Mit diesem Geschwindigkeitszuwachs kann das Raumfahrzeug die elliptische Bahn bis<br />

zur Kreisbahn mit r2 durchlaufen. Da seine Geschwindigkeit an diesem Punkt kleiner ist<br />

als die Kreisbahngeschwindigkeit beim Radius r2, würde das Raumfahrzeug auf der zweiten<br />

Hälfte der Ellipse wieder nach innen laufen. Daher muss in diesem Punkt nochmals ein<br />

Geschwindigkeitszuwachs erreicht werden, der gegeben ist durch<br />

� � � �<br />

µ<br />

2<br />

∆v2 = 1 −<br />

.<br />

r2 1 + r1/r2<br />

2. Juli 2008 c○ M.-B. Kallenrode


2.6. EINBRINGEN DES SATELLITEN IN SEINE BAHN 65<br />

Planet Flugzeit/Jahre<br />

Merkur 0.29<br />

Venus 0.40<br />

Mars 0.71<br />

Jupiter 2.73<br />

Saturn 6.05<br />

Uranus 16.1<br />

Neptun 30.6<br />

Pluto 45.5<br />

Tabelle 2.7: Flugzeiten für<br />

Hohmann-Übergänge zu<br />

anderen Planeten<br />

§ 208 Der gesamte Geschwindigkeitszuwachs ergibt sich als die Summe der beiden zu<br />

� � �<br />

r1<br />

∆v = vK1 1 −<br />

�� � � � �<br />

2<br />

r1<br />

1 + − 1 .<br />

r1/r2 + 1<br />

r2<br />

Diese Gleichung ist plausibel: Betrachtet man den Fall r1 → r2, so geht ∆v gegen Null, d.h.<br />

um auf derselben Kreisbahn zu bleiben, ist keine Geschwindigkeitsänderung nötig. Umgekehrt<br />

ergibt sich für r2 → ∞ ein ∆v → vK1( √ 2 − 1). Das ist aber gerade die Fluchtgeschwindigkeit<br />

eines Körpers, der sich in einer Höhe r1 befindet.<br />

§ 209 Da wir wieder annehmen, dass die Geschwindigkeitsänderungen innerhalb vernachlässigbar<br />

kleiner Zeitintervalle stattfinden, können wir für diese kurze Dauer die Gravitation<br />

vernachlässigen und die benötigte Treibstoffmenge nach der Raketenformel (2.27) abschätzen.<br />

Verständnisfrage 13 (2.27) ohne Gravitation – ist die hier überhaupt anwendbar? Oder<br />

ist sie zumindest unter bestimmten Bedingungen anwendbar?<br />

§ 210 Will man von der äußeren Kreisbahn auf die innere gelangen, so muss der Raumflugkörper<br />

jeweils um eine Geschwindigkeit ∆v2 und ∆v1 verzögert werden. Dabei wird exakt<br />

die gleiche Energie benötigt, wie beim umgekehrten Übergang von der inneren Bahn in die<br />

äußere, obwohl der Übergang hier von einer Bahn größerer zu einer Bahn geringerer Gesamtenergie<br />

erfolgt. Daher ist es sinnvoll, zur Kennzeichnung des Gesamtenergieverbrauchs eine<br />

charakteristische Geschwindigkeitsädenrung ∆vchar einzuführen mit<br />

∆vchar = |∆v1| + |∆v2| .<br />

Verständnisfrage 14 Wo bleibt die Energie?<br />

§ 211 Die Flugdauer zwischen zwei Orbits ist gleich der halben Umlaufzeit auf der Hohmann-<br />

Ellipse. Durch Einsetzen der Halbachse a in das dritte Kepler’sche Gesetz ergibt sich<br />

∆t = P1<br />

2 ·<br />

�<br />

�1 �3 + r2/r1<br />

.<br />

2<br />

Darin ist P1 = 2π � r3 1 /µ die Umlaufperiode auf der inneren Bahn, für die Erde ist diese<br />

P1 = 1 Jahr. Für Hohmann-Übergänge zu den anderen Planeten ergeben sich die in Tabelle<br />

2.7 gegebenen Zeiten. Die Flugzeit zum Neptun beträgt z.B. 30 Jahre. Das ist wesentlich<br />

länger als die 11 Jahre, die Voyager für diese Strecke benötigt hat, da Hohmann-Bahnen<br />

nur für ein Einschwenken auf das andere Orbit entscheidend sind, um einfach an einem<br />

Planeten vorbeizufliegen, muss nur die Geschwindigkeit ausreichend groß sein (bei Voyager<br />

Entweichgeschwindigkeit aus dem Sonnensystem). Hier deutet sich bereits eine Möglichkeit<br />

an, einen schnelleren Übergang zu erreichen, der allerdings energetisch aufwendiger ist.<br />

Zwischenrechnung 9 Schätzen sie den Energiebedarf für Hohmann-Bahnen zum Jupiter,<br />

zum neptun und für das Entweichen aus dem Gravitationsfeld der Sonne ab, um de hier für<br />

Voyager getroffene Aussage zu quantifizieren.<br />

c○ M.-B. Kallenrode 2. Juli 2008<br />

r2


66 KAPITEL 2. SATELLITENBAHNEN<br />

Abbildung 2.27: Übergangsbahn aus<br />

Ellipsenbögen<br />

§ 212 Für Erdsatelliten sind Hohmann-Bahnen die gebräuchliche Form des Übergangs. Wie<br />

ein Blick auf die Liste der Wettersatelliten in Tab. ?? zeigt, ist der Übergang vom mit der<br />

eigentlichen Rakete erreichten Zwischenorbit in den Transferorbit bzw. der Übergang aus<br />

diesem in den Zielorbit ein größeres Verlustrisiko als z.B. Explosion der Rakete beim Start.<br />

Ein sehr prominenter Verlust im Transfer ist LandSat 6.<br />

Andere Transferbahnen<br />

§ 213 So lange das Verhältnis r1/r2 von Ziel- zu Ausgangsradius kleiner als 12 ist, ist die<br />

Hohmann-Bahnen energetisch am günstigsten. Dieses Verhältnis mag groß erscheinen, bei<br />

planetaren Übergängen ließe sich damit z.B. ein Orbit hinter der Saturnbahn erreichen, aber<br />

der Übergang benötigt wie bereits in $ 211 angedeutet sehr viel Zeit. So würde selbst zu<br />

unserem nächsten Nachbarn, Mars, der Flug noch mehr als 8 Monate dauern, zum Saturn<br />

wären es gar 6 Jahre.<br />

§ 214 Der zeitintensivste Teil der Hohmann-Bahn ist die (nach dem zweiten Kepler’schen<br />

Gesetz) langsame Annäherung an das Apogäum der Übergangsellipse, das gleichzeitig der<br />

Ausgangspunkt für die äußere Kreisbahn ist. Ein schnellerer Übergang sollte daher gerade<br />

an dieser Stelle größere Geschwindigkeiten haben. Dazu müsste man dem Raumfahrzeug am<br />

Startpunkt der Übergangsbahn auf der inneren Kreisbahn einen stärkeren Schub erteilen<br />

(und damit mehr Treibstoff verbrauchen), als er für eine Hohmann-Bahn erforderlich ist.<br />

Dann liegt das Apogäum der Übergangsellipse hinter der angestrebten äußeren Bahn. Also<br />

muss am Ort des äußeren Orbits relativ stark abgebremst werden, um auf die gewünschte Umlaufbahn<br />

einzuschwenken. Die Geschwindigkeitsänderung in diesem Punkt ist dabei nicht, wie<br />

beim Hohmann-Übergang, tangential zur Bahn. Die Zeit zum Erreichen des äußeren Orbits<br />

wird bei dieser Art von Übergängen um so geringer, je exzentrischer die Übergangsellipse<br />

ist. Allerdings steigt die benötigte Treibstoffmenge an, lediglich in bestimmten Abstandsverhältnissen<br />

gibt es Einzelfälle, in denen dieser Übergang energetisch günstiger ist als eine<br />

Hohmann-Bahn.<br />

Verständnisfrage 15 Wie bestimmen sich diese günstigen Abstandsverhältnisse? Stellen<br />

Sie eine allgemeine Regel auf. Ergeben sich für Erdsatelliten interessante Übergänge?<br />

§ 215 So wie beim Übergang vom Transfer-Orbit zur äußeren Bahn eine nicht-tangentiale<br />

Geschwindigkeitsänderung erfolgt, kann man auch beim Übergang von der inneren auf die<br />

Übergangsbahn eine nicht-tangentiale Geschwindigkeitsänderung vornehmen. Dadurch verkürzt<br />

sich die Länge der Übergangsbahn nochmals beträchtlich, vgl. Abb. 2.27.<br />

§ 216 Für große Verhältnisse von r1/r2 oberhalb 11.94 ist die Hohmann-Bahn nicht mehr<br />

verbrauchsoptimal, dann erfolgt ein verbrauchsoptimaler Übergang mit Hilfe von drei Impulsen<br />

[210]. Dabei erhält der Raumflugkörper anfangs einen zu starken Impuls, der ihn in eine<br />

extrem exzentrische Übergangsellipse mit einem Apogäum hinter der gewünschten Zielbahn<br />

befördert. Im Apogäum dieser Übergangsbahn wird nochmals ein Vorwärtsschub erteilt, der<br />

2. Juli 2008 c○ M.-B. Kallenrode


2.6. EINBRINGEN DES SATELLITEN IN SEINE BAHN 67<br />

die Ellipse aufweitet und zu einem Perigäum auf der Bahn des Zielplaneten führt. In diesem<br />

Perigäum wird Gegenschub gegeben, damit sich die Ellipsenbahn zu einer Kreisbahn<br />

verkleinert.<br />

Verständnisfrage 16 Können Sie anschaulich und formal begründen, warum Hohmann<br />

Bahnen bei zu großen Abstandsverhältnissen ungünstig werden?<br />

§ 217 Bisher haben wir immer kurze Schubimpulse betrachtet. Ein völlig anderes Konzept<br />

ergibt sich jedoch, wenn man eine kontinuierliche Beschleunigung annimmt. Ionenraketeten<br />

[68, 160, 208] oder noch moderner Sonnensegel [4, 387, 504, 746] sollten während der gesamten<br />

Reise mit kontinuierlichem Schub arbeiten. Dann ergibt sich eine nach außen immer weiter<br />

werdende Spiralbahn um das Gravitationszentrum. Diese Bahn und für planetare Missionen<br />

erforderliche Manöver werden z.B. in [68] diskutiert.<br />

Zwischenrechnung 10 In [429] wird die Aussage “If launched in 2010 such a probe could<br />

overtake Voyager 1, the most distant spacecraft bound for interstellar space, in 2018 going<br />

as far in eight years as the Voyager will have journeyed in 41 years.” gemacht. Schätzen Sie<br />

ab, ob diese Annahme realistisch ist.<br />

Verständnisfrage 17 Geometrische Nachfrage: lässt sich die Spirale einfach klassifizieren<br />

(z.B. archimedisch, logarithmisch) oder welche Gleichung erhalten Sie? Ist dies eine Umkehrung<br />

der bei der Abbremsung durch Reibung entstehenden Spiralbahn?<br />

Reise zu anderen Planeten<br />

§ 218 Im Vorangegangenen sind die Transferbahnen zwischen zwei Satellitenorbits dargestellt<br />

worden. Diese Betrachtung ist wesentlich vereinfacht gegenüber der Reise von der Erde<br />

zu einem anderen Planeten oder auch nur zum Mond. Beim Übergang von einem Satellitenorbit<br />

zu einem anderen müssen nur zwei (bzw. beim Drei-Impulsübergang drei) Geschwindigkeitsänderungen<br />

vorgenommen werden, ansonsten fällt der Satellit seinen Weg alleine.<br />

§ 219 Für die Reise von der Erde zu einem anderen Planeten sind jedoch noch eine Anzahl<br />

zusätzlicher Punkte zu beachten:<br />

1. Bei Reisen zwischen den Planeten ist der Zentralkörper die Sonne. Bevor wir unsere<br />

Raumsonde auf eine Übergangsellipse im Schwerefeld der Sonne schicken können, müssen<br />

wir sie erst aus dem Schwerefeld der Erde in ein Orbit heben, das ähnlich dem der Erde<br />

um die Sonne läuft. Die erste Stufe zum Erreichen eines anderen Planeten besteht also<br />

darin, der Raumsonde die Fluchtgeschwindigkeit zum Verlassen des Anziehungsbereiches<br />

der Erde zu erteilen.<br />

2. Von dieser Bahn aus lässt sich ein einfacher Hohmann-Übergang auf die Bahn des anderen<br />

Planeten vornehmen. Hierbei muss jedoch beachtet werden, dass der Planet auch zu der<br />

Zeit, an der unsere Raumsonde seine Bahn erreicht, am entsprechenden Ort sein muss.<br />

Aus dieser Randbedingung erklärt sich, warum es bei Missionen zu anderen Planeten<br />

stets so genannte Startfenster gibt, d.h. Zeitbereiche, während derer ein Start insofern<br />

sinnvoll ist, als dass die Raumsonde nicht nur die Bahn des zu besuchenden Planeten,<br />

sondern auch den Planeten selbst erreicht.<br />

3. Die Sonde befindet sich jetzt auf der Bahn des Planeten, nicht aber auf einer Bahn um<br />

den Planeten herum. Jetzt muss eine Umkehrung des ersten Schritts erfolgen und die<br />

Sonde muss auf eine Bahn um den Zielplaneten einschwenken, d.h. sie muss sich aus dem<br />

Schwerefeld der Sonne in das des Zielplaneten überführt werden.<br />

4. Nachdem sich die Sonde nun in einer Bahn um den Zielplaneten befindet, können wir<br />

diesen vermessen (z.B. die Radarvermessung der Venus durch Magellan) oder wir können<br />

die Sonde bzw. eine Landekapsel der Sonde auf die Planetenoberfläche senden. Für eine<br />

weiche Landung stellt die Abbremsung das Hauptproblem dar, hier muss gleichsam ein<br />

Startvorgang mit umgekehrter Zeitrichtung durchgeführt werden. Wichtig ist dabei auch<br />

der korrekte Eintritt in die Atmosphäre des Planeten, um ein Verglühen zu verhindern<br />

(gute Diskussion z.B. in [160]).<br />

c○ M.-B. Kallenrode 2. Juli 2008


68 KAPITEL 2. SATELLITENBAHNEN<br />

Abbildung 2.28: Halo Orbit um einen Lagrange<br />

Punkt (in diesem Fall L2 hinter der<br />

Erde wie für das James Webb Telescope<br />

vorgesehen) [685]<br />

5. Die Sonde/Landekapsel hat dem Zielplaneten Proben entnommen, die zur Erde zurück gebracht<br />

werden sollen. Damit muss der gesamte Vorgang von (1) bis (4) erneut durchlaufen<br />

werden, jetzt jedoch haben Erde und Zielplanet getauschte Rollen. Bei einer Rückführung<br />

erweist es sich als ausgesprochen hilfreich, auf das bereits von Hohmann vorgeschlagene<br />

und in den Apollo-Mondlandungen verwirklichte Konzept des Beibootes zurück zu greifen.<br />

Die Idee dabei ist, nicht die komplette Raumsonde zu landen, sondern nur einen<br />

möglichst kleinen Teil der Sonde, der Lander. Der Vorteil ist offensichtlich: der Lander<br />

benötigt für seinen Start vom Zielplaneten wesentlich weniger Treibstoff als die ganze<br />

Raumsonde benötigen würde.<br />

Zusammenfassung<br />

§ 220 Bei einer Rakete handelt es sich um einen Körper veränderlicher Masse, der durch<br />

eine konstante Kraft beschleunigt wird. Die bei dieser Beschleunigung erreichbare Endgeschwindigkeit<br />

bestimmt sich aus der Ausströmgeschwindigkeit der Verbrennungsgase und<br />

dem Verhältnis der Massen bei Start und Brennschluss (Raketengleichung). Das Mehrstufenprinzip<br />

erlaubt es, durch geschickte Verteilung der Massen von Struktur und Treibstoff<br />

auf wesentlich höhere Geschwindigkeiten zu beschleunigen, als es mit einer einfachen Rakete<br />

möglich wäre, da die folgenden Stufen jeweils nicht mehr die leere Hülle der vorhergehenden<br />

Stufen beschleunigen müssen. Energetisch günstige Übergänge zwischen zwei Satelliten- oder<br />

Planetenbahnen lassen sich durch Übergangsellipsen (Hohmann-Bahnen) realisieren.<br />

2.7 Ergänzung: Spezielle Bahnen<br />

§ 221 Dieser Abschnitt ist für die <strong>Erdfernerkundung</strong> nicht relevant, mag aber vielleicht einige<br />

von Ihnen aus technischen Gründen interessieren; insbesondere, da die Bahnen einerseits<br />

physikalisch anschaulich sind (Lagrange-Punkt), andererseits mit bekannten Missionen (planetares<br />

Billard bei Voyager) verbunden sind.<br />

2.7.1 Lagrange-Punkte<br />

§ 222 Die Bahnen von z.B. ISEE-3 [440], SOHO [613, 357] oder ACE [272] sind ein klassisches<br />

Beispiel für ein Dreikörperproblem. Diese Raumsonde befindet sich am Librationspunkt<br />

zwischen Sonne und Erde, d.h. am Ort von ISEE-3 herrscht ein Gleichgewicht zwischen<br />

der Anziehung durch die Sonne und der durch die Erde. Praktisch wird diese Bahn durch<br />

ein Halo-Orbit um den Lagrange-Punkt herum realisiert: würde sich die Sonde direkt im<br />

Lagrange-Punkt befinden, so wäre aufgrund der starken solaren Radiostrahlung eine Kommunikation<br />

nicht möglich. Der Orbit um den Lagrange-Punkt herum dient auch gleichzeitig<br />

der Stabilisierung der Sonde. Außerdem lassen sich auf diese Weise mehrere Satelliten um<br />

den Lagrange-Punkt verankern (z.Z. mindestens ACE und SOHO). Auch um den Lagrange<br />

Punkt hinter der Erde wird zur Stabilisierung ein entsprechendes Halo Orbit geflogen, siehe<br />

Abb. 2.28.<br />

2. Juli 2008 c○ M.-B. Kallenrode


2.7. ERGÄNZUNG: SPEZIELLE BAHNEN 69<br />

§ 223 Formal scheint sich der Lagrange-Punkt aus dem Gleichgewicht zwischen der Anziehung<br />

der Erde und der der Sonne berechnen zu lassen. Mit R als dem Abstand zwischen<br />

Sonne und Erde ergibt sich der Abstand r dieses Punktes von der Erde wegen<br />

zu<br />

FE = F⊙<br />

�<br />

ME<br />

R M⊙<br />

r =<br />

1 +<br />

� ME<br />

M⊙<br />

→<br />

msMEγ<br />

r 2<br />

≈ r = 266 084 km .<br />

= msM⊙γ<br />

.<br />

(R − r) 2<br />

Stabil ist dieser Punkt in der so diskutierten Form nicht, da eine kleine Auslenkung den Satelliten<br />

stets in Richtung des Körpers stürzen lassen würde, in dessen Richtung er ausgelenkt<br />

wurde. Außerdem würde der Satellit aufgrund des etwas geringeren Abstandes zur Sonne eine<br />

etwas kürzere Umlaufzeit haben und so langsam von der Linie Sonne–Erde weg driften. 23<br />

§ 224 Allerdings ist die obige Betrachtung zum Lagrange-Punkt physikalisch auch nicht<br />

korrekt, da wir es mit einem rotierenden Bezugssystem zu tun haben: die Verbindungsachse<br />

Erde–Sonne rotiert um den gemeinsamen Massenmittelpunkt; dieser ist allerdings nur leicht<br />

gegen den Massenmittelpunkt der Sonne versetzt. Das rotierende Bezugssystem bringt seine<br />

eigenen Probleme – auch als Scheinkräfte bezeichnet – mit sich. Außerdem müssen wir<br />

das Problem als echtes Dreikörperproblem lösen, um auch ein Gefühl für die Stabilität des<br />

Lagrange-Punktes zu entwickeln.<br />

Verständnisfrage 18 Versuchen Sie, anschaulich zu erklären, welchen Einfluss die Zentrifugalkraft<br />

beim Aufhängen eines Satelliten im Lagrange-Punkt hat. Spielt die Corioliskraft<br />

eine Rolle?<br />

§ 225 Nehmen wir als Bezugssystem ein kartesischens Koordinatensystem mit dem Ursprung<br />

im Massenmittelpunkt des Systems Sonne–Erde und der x-Achse entlang der gemeinsamen<br />

Verbindungslinie. 24 Zur Herleitung der Bewegungsgleichung seien jetzt die Einheiten von<br />

Masse, Entfernung und Zeit so gewählt, dass γ(M +m), der konstante Abstand zwischen den<br />

beiden schweren Körpern und die Gravitationskonstante γ gleich 1 gesetzt werden. 25 Aus<br />

Keplers drittem Gesetz ergibt sich, dass die konstante Winkelgeschwindigkeit n der beiden<br />

schweren Körper in einem Inertialsystem ebenfalls gleich 1 ist. In diesen Einheiten ist m das<br />

Verhältnis der kleineren Masse zur Summe der beiden Massen. Die Abstände der Massen M<br />

und m vom Massenschwerpunkt sind dann m und (1-m). Das Bezugssystem sei so gewählt,<br />

dass es mit der Winkelgeschwindigkeit ω = 1 um den Massenschwerpunkt in der Bahnebene<br />

der beiden schweren Körper rotiert. Dann befinden sich die beiden schweren Massen m und<br />

M stets an festen Punkten auf der x-Achse.<br />

§ 226 Die Bewegung einer Testmasse am Punkt (x, y) ist mit diesen Abkürzungen gegeben<br />

durch die Bewegungsgleichung<br />

d2x dy<br />

− 2<br />

dt2 dt<br />

= x − (1 − m)(x − m)<br />

r 3 1<br />

−<br />

m(x − 1 + m)<br />

r 3 2<br />

23Diesen Effekt nutzt man bei den beiden Stereo Satelliten [500] aus: sie befinden sich in leicht elliptischen<br />

Orbits in der Nähe von 1 AU; der eine fällt langsam hinter der Erde zurück, der andere eilt ihr etwas voraus.<br />

Dadurch entsteht eine Konstellation, in der sich beide Satelliten zunehmend voneinander entfernen und so<br />

die gleichzeitige Beobachtung an unterschiedlichen Orten im interplanetaren Raum erlauben.<br />

24Eingeschränktes Dreikörperproblem: die Testmasse wird als klein gegen die beiden anderen Massen betrachtet,<br />

so dass der Massenmittelpunkt aller drei Massen mit dem Massenmittelpunkt der beiden großen<br />

Massen zusammen fällt.<br />

25Dimensionslose Größen sind bei der (analytischen) Betrachtung komplexerer Probleme immer hilfreich.<br />

Aus praktischen Gesichtspunkten haben sie den Vorteil, dass man dann nicht so viele Konstanten mit sich<br />

rumschleppt. <strong>Physik</strong>alisch lassen sich die diemensionslosen Größen auch so interpretieren, dass man sie als charakteristische<br />

Größen des Systems betrachtet und alle anderen Größen in Einheiten dieser charakteristischen<br />

Größen angibt. Beim einfachen Federpendel bedeutet die Reduktion der Differentiagleichung ¨x + ω2 0x = 0 auf<br />

die dimensionslose Variante ¨x + ω2 0x = 0 nur, dass man ω0 = 1 setzt und damit alle Zeiten in Einheiten der<br />

Periodendauer angegeben werden.<br />

c○ M.-B. Kallenrode 2. Juli 2008<br />

und


70 KAPITEL 2. SATELLITENBAHNEN<br />

d2y dx<br />

+ 2<br />

dt2 dt<br />

= y − (1 − m)y<br />

r 3 1<br />

− my<br />

r 3 2<br />

mit r1 = � (x + m) 2 + y2 und r2 = � (x − 1 + m) 2 + y2 als den Abständen der Testmasse<br />

von den Massen M und m. Die Bewegungsgleichung ist ähnlich der Bewegungsgleichung eines<br />

geladenen Teilchens in einem konstanten homogenen Magnetfeld und einem elektrischen Feld.<br />

Der zweite Term auf der linken Seite gibt die Coriolisbeschleunigung, auf der rechten Seite<br />

stehen die Zentrifugalbeschleunigung und die Gravitationskraft der beiden schweren Massen.<br />

Diese Terme sind Funktionen nur von (x, y) und können aus einer Potentialfunktion W<br />

abgeleitet werden mit<br />

W (x, y) = − 1<br />

2 (x2 + y 2 1 − m<br />

) − −<br />

r1<br />

m<br />

.<br />

r2<br />

Damit werden die Bewegungsgleichungen zu<br />

d2x − 2dy = −∂W<br />

dt2 dt ∂t<br />

und<br />

d2y + 2dx = −∂W<br />

dt2 dt ∂y .<br />

§ 227 Multiplikation mit 2dx/dt bzw. 2dy/dt und anschließende Integration über die Zeit<br />

liefert 1<br />

2 (x2 + y2 ) = −W (x, y) + C, wobei sich die Integrationskonstante C aus den Anfangsbedingungen<br />

ergibt. Diese Herleitung ist analog zu der Herleitung der Energieerhaltung für<br />

einen Massenpunkt in einem wirbelfreien Kraftfeld. In diesem Fall ist die Jacobi-Konstante C<br />

jedoch nicht die Energie, da wir uns in einem rotierenden Bezugssystem befinden. Zu beachten<br />

ist, dass die Corioliskraft keine Arbeit leistet und damit die Erhaltungsgleichung nicht beeinflusst.<br />

Dennoch ist die Corioliskraft für die Bewegung des Testkörpers von entscheidender<br />

Bedeutung.<br />

§ 228 Da die kinetische Energie niemals negativ werden kann, ergibt sich aus der Erhaltungsgleichung,<br />

dass die Bewegung nur in den Bereichen der (x, y)-Ebene erfolgen kann, in<br />

denen gilt W (x, y) ≤ C. Diese Einschränkungen hängen von der Jacobi-Konstante und damit<br />

von den Anfangsbedingungen ab. Für W = C wird die Grenze eines erlaubten Bereiches definiert,<br />

die sogenannten Hill’s Zero-Velocity Curves. Diese Bezeichnung ergibt sich daraus, dass<br />

der Testkörper diese Kurven nur dann erreichen kann, wenn seine Geschwindigkeit in dem<br />

rotierenden System verschwindet. Um die Topologie dieser erlaubten Bereiche zu verstehen,<br />

sollten wir uns zuerst klar machen, dass −E sehr groß wird, wenn entweder (x 2 +y 2 ), d.h. das<br />

Quadrat des Abstandes der Testmasse vom Ursprung, sehr groß wird, oder wenn entweder<br />

r1 oder r2 sehr klein werden. Wenn daher −C groß ist, muss sich die Testmasse entweder<br />

außerhalb eines großen Kreises mit Radius x 2 + y 2 = −2C aufhalten oder aber innerhalb<br />

eines sehr kleinen Kreises um einen der beiden schweren Körper. Die Radien dieser Kreise<br />

sind jeweils gegeben durch r1 = (m − 1)/C und r2 = −m/C. Im ersten Fall empfindet der<br />

Testkörper die beiden Massen ungefähr als ein Gravitationszentrum, im anderen Fall sieht<br />

der Testkörper nur die eine Masse, die er umkreist.<br />

§ 229 An dieser Stelle ist es sinnvoll, die Punkte zu bestimmen, an denen die Gesamtkraft<br />

auf den Testkörper Null ist, d.h. die Punkte, an denen er im rotierenden Bezugssystem in<br />

Ruhe bleibt. Dazu muss gelten<br />

−∇W = �r − (1 − m) �r1<br />

r3 − m<br />

1<br />

�r2<br />

r3 2<br />

= 0 ,<br />

mit �r=(x, y), �r1 = (x + m, y) und �r2 = (x − 1 + m, y). Da das Massenzentrum im Ursprung<br />

liegt, ist dann �r = (1 − m)�r1 + m�r2. Einsetzen liefert<br />

� � � �<br />

1<br />

1<br />

(1 − m) − 1 �r1 + m − 1 �r2 = 0 . (2.32)<br />

r 3 1<br />

r 3 2<br />

Wenn sich diese Gleichgewichtspunkte nicht auf der x-Achse befinden, so kann die Gleichung<br />

nur dann erfüllt werden, wenn r1 = r2 = 1, d.h. zwei der Gleichgewichtspunkte sind jeweils<br />

die Spitzen eines gleichseitigen Dreiecks, dessen Basis durch die Strecke zwischen den beiden<br />

schweren Massen gegeben ist (L4 und L5 in Abb. 2.29).<br />

2. Juli 2008 c○ M.-B. Kallenrode


2.7. ERGÄNZUNG: SPEZIELLE BAHNEN 71<br />

Abbildung 2.29: Lage der fünf<br />

Lagrange-Punkte im rotierenden<br />

Bezugssystem [438] zusammen mit den<br />

Äquipotentiallinien<br />

§ 230 Um die Lösungen von (2.32) zu bestimmen, die auf der x-Achse liegen, ist es hilfreich,<br />

eine dimensionslose Größe α = x+m einzuführen. Damit lässt sich die Gleichung umwandeln<br />

zu<br />

(1 − m) α (α − 1)<br />

+ m = α − m . (2.33)<br />

|α| 3 |α − 1| 3<br />

Die Fälle α=0 und α=1 entsprechen dabei den Situationen, dass sich die Testmasse am Ort<br />

von M bzw. m befindet. Die Gleichung hat stets drei reelle Lösungen, wir werden sie hier<br />

für den eingeschränkten Fall lösen, dass m ≪ M ist, d.h. m ≪ 1. Diese Situation ist für<br />

die meisten Anwendungen im Sonnensystem, also z.B. für das Erde-Mond-System oder das<br />

Sonne-Jupiter-System gegeben.<br />

§ 231 Eine offensichtliche Lösung ist der L3-Punkt, an dem sich der Testkörper genau entgegengesetzt<br />

zur kleineren Masse m befindet. Diese Lösung können wir finden, wenn wir in<br />

(2.33) α = −1 + O(m) setzen, so dass sich α = −1 + 7<br />

12m + O(m3 ) ergibt. Betrachtet man<br />

nur einen anziehenden Körper, so befindet sich der Testkörper an diesem Punkt in einem<br />

Gleichgewicht aus der Anziehung des Hauptkörpers und der Zentrifugalkraft. Die Anwesenheit<br />

der zweiten anziehenden Masse bewirkt eine zusätzliche Anziehungskraft, die zu einer<br />

Verstärkung der Anziehung führt, wobei sich der Gleichgewichtspunkt geringfügig nach links<br />

verschiebt. Diese neue Kraft wird durch einen Zuwachs der Zentrifugalkraft ausgeglichen.<br />

§ 232 Zwei weitere Gleichgewichtspunkte befinden sich an Punkten dicht an der kleinen<br />

Masse, deren Störungen den Radius des Keplerorbits um die Masse M beeinflussen. In diesem<br />

Falle müssen wir die Ordnung in m der kleinen Größe α ≪ 1 finden. Dazu setzen wir<br />

versuchsweise α = 1 + λmq. Darin ist q > 0 und λ in der Größenordnung von 1. Damit ergibt<br />

sich für (2.33)<br />

m (1−2q) λ<br />

|λ| 3<br />

= 3λmq + O(m 2 q) ,<br />

wobei die beiden größeren Terme für q = 1/3 von der gleichen Ordnung sind. Dann erhalten<br />

wir |λ| 3 = 1<br />

3 und damit für die beiden Gleichgewichtspunkte α = 1 ± (m/3)1/3 + O(m2/3 ).<br />

Dabei nimmt der Abstand von der kleineren Masse nur mit der dritten Wurzel ab.<br />

§ 233 Damit ergibt sich für die fünf Lagrange-Punkte:<br />

L1 = [1 − m + (m/3) 1/3 , 0] ,<br />

L2 = [1 − m − (m/3) 1/3 , 0] ,<br />

L3 = [−1 − 5m/12 , 0] ,<br />

L4 = [1/2 − m , − � 3/2] ,<br />

L5 = [1/2 − m , � 3/2] .<br />

c○ M.-B. Kallenrode 2. Juli 2008


72 KAPITEL 2. SATELLITENBAHNEN<br />

Abbildung 2.30: Lagrange Punkte im Sonne–Erde und Erde–Mond System [134]<br />

Diese fünf Punkte sind in Abb. 2.29 im rotierenden Bezugssystem dargestellt; eine entsprechende<br />

Abbildung mit den Zahlenwerten für das System Sonne–Erde sowie das System Erde–<br />

Mond findet sich in Abb. 2.30.<br />

§ 234 Um die Form der Zero-Velocity-Kurven mit W (x, y)=const zu bestimmen, ist es<br />

nützlich, die Werte von W an den fünf stationären Punkten Li zu bestimmen zusammen<br />

mit dem topologischen Charakter dieser Punkte. Das kann durch die Bestimmung der zweiten<br />

Ableitung von W und die Bestimmung des Vorzeichens der Jacobi-Determinante J =<br />

(∂xxW )(∂yyW ) − (∂xyW ) 2 an den Lagrange-Punkten geschehen. Dabei ergibt sich W (L5) =<br />

W (L4) > W (L3) > W (L1) > W (L2). Dabei sind L4 und L5 Maxima, die anderen Lagrange-<br />

Punkte dagegen sind Sattelpunkte, siehe auch Abb. 2.29. Damit lassen sich die Zero-Velocity-<br />

Kurven eindeutig definieren, wenn wir die Jacobi-Konstante von sehr großen negativen Werten<br />

(z.B. die schon weiter oben diskutierten Grenzen) durch die kritischen Werte ansteigen<br />

lassen. Qualitativ ergeben sich dabei fünf Möglichkeiten:<br />

I C < W (L2): Die Bewegung ist nur innerhalb zweier kleiner Kreise um die beiden massiven<br />

Körper erlaubt, oder außerhalb eines großen Kreises, der beide massiven Körper umfasst.<br />

In diesem Falle kann die Testmasse als ein Satellit der beiden massiven Körper (die von<br />

der Testmasse nur als ein Gravitationszentrum gesehen werden) betrachtet werden.<br />

II W (L1) > C > W (L2): Zwischen den beiden erlaubten Regionen um die beiden massiven<br />

Körper öffnet sich ein Kanal. Der Testkörper kann sich, wenn er sich einmal in der Nähe<br />

der beiden massiven Körper befindet, nicht aus deren Nähe entfernen. In diesem Bild<br />

können Satelliten zwischen den beiden Körpern ausgetauscht werden, der Testkörper<br />

kann aber das System nicht verlassen. Eine entsprechende Beschreibung wäre z.B. auch<br />

für die Materie in einem Doppelsternsystem angemessen. Diese Topologie erklärt auch,<br />

warum die meisten Trajektorien zwischen Erde und Mond die Form einer 8 annehmen,<br />

wobei der Schnittpunkt in der Nähe von L2 liegt.<br />

III W (L3) > C > W (L1): Der erlaubte Bereich öffnet sich hinter der kleineren Masse und der<br />

Testkörper kann durch dieses Loch entweder von der schwereren Masse entweichen oder,<br />

wenn er sich ursprünglich im äußeren Bereich befunden hat, in die Nähe der schwereren<br />

Masse vordringen. Der verbotene Bereich hat ungefähr die Form eines Hufeisens, die L4<br />

und L5 liegen in der Nähe der Spitzen, L3 liegt innerhalb des Hufeisens.<br />

2. Juli 2008 c○ M.-B. Kallenrode


2.7. ERGÄNZUNG: SPEZIELLE BAHNEN 73<br />

IV W (L5) = W (L4) > C > W (L3): Auch hinter der schwereren Masse öffnet sich ein Kanal,<br />

dadurch sind die Zero-Velocity-Kurven wieder voneinander getrennt. Die Bewegung ist<br />

dann nur noch in zwei relativ schmalen Bereichen um L4 und L5 verboten.<br />

V C > W (L4) = W (L5): Die Bewegung kann in der gesamten (x, y)-Ebene erfolgen.<br />

Verständnisfrage 19 Erklären Sie die relativen Werte von W (Li) anschaulich.<br />

Verständnisfrage 20 Ist die Acht unter Pkt. II eine Alternative zum Transferorbit nach<br />

Hohmann?<br />

§ 235 Diese Klassifikation bzw. Topologie bleibt selbst dann erhalten, wenn einige der bei<br />

der Herleitung gemachten Einschränkungen nicht mehr gelten. Ist die kleinere Masse m nicht<br />

infinitesimal, so verschieben sich die drei Lagrange-Punkte lediglich entlang der x-Achse des<br />

Systems. Selbst wenn die Orbits der beiden Massen eine gewisse, allerdings nicht zu große<br />

Exzentrizität aufweisen, ist eine Klassifikation mit Hilfe der Jacobi-Konstanten immer noch<br />

sinnvoll, insbesondere im Hinblick auf Stabilität oder Entweichen der Testmasse.<br />

§ 236 Eine der entscheidendsten und auch interessantesten Fragen betrifft die Stabilität der<br />

Lagrange-Punkte: wenn die Testmasse anfangs in einen geringen Abstand von einem der<br />

Lagrange-Punkte gesetzt wurde, bleibt sie dann in der Nähe dieses Punktes oder entfernt<br />

sie sich immer weiter vom Lagrange-Punkt? Betrachten wir nur die zweiten Ableitungen des<br />

Potentials, so wäre keiner der Lagrange-Punkte stabil, da keiner von ihnen einem Minimum<br />

im Potential entspricht. Allerdings wirkt in unserem System auch noch die geschwindigkeitsabhängige<br />

Corioliskraft. Damit ergibt sich, dass die beiden Lagrange-Punkte L4 und L5 stabil<br />

sind [17]. Die Stabilität dieser beiden Lagrange-Punkte ist auch praktisch bewiesen durch die<br />

Trojaner, zwei Familien von Asteroiden, die im System Sonne–Jupiter stabil um diese Punkte<br />

oszillieren. Die Punkte befinden sich dabei auf dem Jupiter–Orbit und laufen jeweils um<br />

60 ◦ versetzt vor bzw. hinter dem Planeten her. Auch scheinen viele der Saturnmonde kleine,<br />

Trojaner-ähnliche Begleiter zu haben.<br />

§ 237 Die Punkte L1 bis L3 sind – wie schon im Zusammenhang mit der viel zu einfachen<br />

Abschätzung in § 223 diskutiert – instabil; jedoch gibt es Bahnen um diese Punkte herum, die<br />

stabil sind. Im Falle der in § 222 genannten Satelliten handelt es sich um elliptische Bahnen<br />

um den L3-Lagrange-Punkt, häufig auch als Halo-Orbit (siehe auch Abb. 2.28) bezeichnet.<br />

§ 238 Die Stabilisierung durch die Ellipsenbahn folgt dem Prinzip des Kreisels. Die Ellipsenbahn<br />

ist mit einem Drehimpuls verbunden, wobei, da die Bahnebene senkrecht auf der<br />

Achse Sonne-Erde steht, der Drehimpulsvektor entlang eben dieser Achse ausgerichtet ist.<br />

Wird jetzt der Satellit etwas aus der Bahn ausgelenkt, so ist das Gleichgewicht der Anziehungskräfte<br />

von Sonne und Erde verletzt und es wirkt eine Nettokraft in Richtung auf einen<br />

der Körper. Das bedeutet aber nichts anderes, als würde man versuchen, einen Kreisel zu<br />

kippen: auf einen Drehimpuls wirkt ein Drehmoment (im Falle des normalen Kreisels die<br />

Schwerkraft, im Falle des Satelliten die Netto-Anziehungskraft durch den jetzt dominierenden<br />

Körper). Der Kreisel antwortet darauf, indem er versucht, seinen Drehimpulsvektor in<br />

Richtung des Drehmomentvektors zu ändern. Dadurch weicht er dem Umkippen aus und<br />

führt eine Präzessionsbewegung aus. Für Satelliten im Lagrange-Punkt zwischen Sonne und<br />

Erde ermöglichen diese Stabilisierungsorbits auch eine ungestörte Kommunikation mit dem<br />

Satelliten, da sich dieser dann, von der Erde aus gesehen, um die Radioquelle Sonne bewegt<br />

aber nie direkt vor ihr steht.<br />

2.7.2 Planetares Billard<br />

§ 239 Die bisher betrachteten Bewegungen waren alle periodische Bewegungen mit der Erde<br />

oder Sonne als Zentralkörper bzw. um den Lagrange-Punkt – wobei letztere gleichzeitig<br />

c○ M.-B. Kallenrode 2. Juli 2008


74 KAPITEL 2. SATELLITENBAHNEN<br />

Abbildung 2.31: Bahnen der Voyager-<br />

und Pioneer-Sonden [13]<br />

auch eine periodische Bewegung zumindest des Mittelpunktes des Halo-Orbits um den Zentralkörper<br />

ist. 26 Bei Missionen zu einem anderen Planeten werden vielfach die bereits in<br />

Abschn. 2.6.3 betrachteten Hohmann-Bahnen verwendet, bei Missionen zu mehreren Planeten<br />

ergeben sich komplexere Bahnen.<br />

§ 240 Abbildung 2.31 zeigt als Beispiele die Bahnen der Pioneer [499] und Voyager [476] Sonden.<br />

Auffallend sind die starken Änderungen der Bahn in der Nähe anderer Himmelskörper.<br />

Diese Bahnänderungsmanöver werden als gravity assisted navigation, Gravitationsumlenkung<br />

oder Swing By bezeichnet.<br />

Querverbindung 1 Wie bereits in § 211 angedeutet, sind diese Bahnen schneller als Hohmann-<br />

Bahnen, da sie nicht tangential am Planetenorbit sind.<br />

§ 241 Das Prinzip des Swing By beruht darauf, dass bei genügend nahem Vorbeiflug an<br />

einem Himmelskörper (Planeten oder Monde) das Gravitationspotential und die Eigenbewegung<br />

dieses Himmelskörpers ausgenutzt werden, um eine Impulsänderung zu erzielen<br />

[30, 69, 156, 453, 755, 756]. Diese Impulsänderungen werden ausgenutzt, um mehrere Planeten<br />

mit einer Sonde besuchen zu können bzw. mehrere Monde auf einer Mission anzufliegen.<br />

Die erforderliche Genauigkeit dieses Billardspiels lässt sich am Beispiel der Mariner-Mission<br />

[50] illustrieren: Der Fehler beim Venus-Vorbeiflug durfte maximal 300 km betragen bei einer<br />

Flugstrecke von 250 Millionen km. Der echte Fehler betrug nur 20 km. Ein Scharfschütze<br />

26 Die Aussage ist physikalisch nicht korrekt – es wird um den Massenmittelpunkt der beiden schwereren<br />

Massen rotiert. Glücklicherweise liegt dieser im zentralkörper Sonne – die Näherung haben wir bereits beim<br />

eingeschränkten Zweikörperproblem verwendet.<br />

2. Juli 2008 c○ M.-B. Kallenrode


2.7. ERGÄNZUNG: SPEZIELLE BAHNEN 75<br />

Abbildung 2.32: Swing<br />

By an einem Planeten<br />

müsste bei entsprechender Präzision ein 10-Pfennigstück über eine Entfernung von 250 km<br />

treffen [69].<br />

§ 242 Aber nicht nur die Präzision ist wichtig für eine derartige Schleudertour, im Falle<br />

von sehr ausgedehnten Missionen wie der Voyager-Mission ist auch die relative Stellung der<br />

Planeten zueinander von Bedeutung: für den Voyager-Flug lagen alle diese Planeten auf<br />

einer Kurve, deren Krümmungsrichtung sich nicht änderte. Es entstand also kein Zick-Zack-<br />

Kurs, der einen extrem hohen Energiebedarf bedeutet hätte. Diese Vorraussetzung ist jedoch<br />

aufgrund der langen Umlaufzeiten der äußeren Planeten nur alle 177 Jahre erfüllt, vor dem<br />

Voyager-Start im Jahre 1977 war das zur Zeit der napoleonischen Kriege zuletzt der Fall. 27<br />

§ 243 Um das Prinzip des Schwungholens an einem Planeten zu verstehen, ist es wichtig, die<br />

Eigenbewegung des Planeten zu berücksichtigen. Würde die Raumsonde in die Nähe eines<br />

ruhenden Körpers gelangen, so würde sie, vorausgesetzt ihre Anfangsgeschwindigkeit ist ausreichend<br />

groß, beim Anflug durch die in Bewegungsrichtung wirkende Gravitation beschleunigt<br />

werden, dann aber beim Weiterflug hinter dem Planeten wieder abgebremst werden.<br />

Dabei würde sich eine Hyperbelbahn ergeben, wobei die Geschwindigkeit auf beiden Ästen<br />

die gleiche ist, d.h. es findet zwar eine Impulsänderung statt aber keine Energieänderung.<br />

In der Realtität bewegt sich der Planet jedoch und die Sonde kann einen verschwindend<br />

kleinen Teil der kinetischen Energie des Planeten abzweigen und zur Erhöhung der eigenen<br />

Geschwindigkeit verwenden.<br />

§ 244 Anschaulich beschreibt Giese [69] diese Technik folgendermaßen: Im Prinzip ähnelt der<br />

Vorgang einem irdischen Experiment, bei dem ein Tennisball senkrecht an einem Haus mit<br />

einer Anfangsgeschwindigkeit v1 hochgeworfen wird und mit verringerter Geschwindigkeit<br />

v2 an einem Balkon vorbeikommt, wo ihn ein Tennisspieler mit seinem Schläger (Geschwindigkeit<br />

vj) weiter nach oben schlägt. Auf diese Weise erreicht der Ball wieder eine höhere<br />

Geschwindgkeit v ′ 2 > v2 und steigt weiter auf als ihn die Person vom Boden aus eigener Kraft<br />

hätte schleudern können.<br />

§ 245 Übertragen auf ein Raumfahrzeug F , das durch Wechselwirkung mit einem Planeten P<br />

von einer heliozentrischen Geschwindigkeit v2 auf eine höhere Geschwindigkeit v ′ 2 beschleunigt<br />

werden soll, ergibt sich das Prinzip der Swing By-Technik wie in Abb. 2.32 dargestellt. Dieser<br />

Vorgang lässt sich in drei Abschnitte unterteilen:<br />

1. Zunächst holt der Planet in dem vereinfacht dargestellten Fall mit seiner Eigengeschwindigkeit<br />

v1 die sich mit einer Geschwindigkeit v2 bewegende Raumsonde ein. Ein Beobachter<br />

auf dem Planeten würde daher die Sonde mit einer Geschwindigkeit vrel = v2 − v1<br />

auf sich zukommen sehen.<br />

2. Der auf dem Planeten befindliche Beobacher würde dann feststellen, dass sich das Raumfahrzeug<br />

auf einem Hyperbelast um den Planeten herumschwingt, wobei der minimale<br />

Abstand im Perizentrum mit rPz bezeichnet ist. Schließlich verlässt das Raumfahrzeug<br />

den Wirkungsbereich des Planeten wieder mit einer Geschwindigkeit �v ′ rel . Dabei hat sich<br />

aber nicht der Betrag der Geschwindigkeit geändert, sondern lediglich die Richtung (d.h.<br />

im System des Planeten ist die Energie der Raumsonde nach der Wechselwirkung unverändert).<br />

27 Die Konstellation ist natürlich nicht nur für ein Swing By wichtig sondern ebenso beim Flug zu einem<br />

anderen Planeten. Daher haben Missionen zu anderen Planeten in der Regel nur ein enges Startfenster – wird<br />

dieses nicht ausgenutzt, so heißt es warten.<br />

c○ M.-B. Kallenrode 2. Juli 2008


76 KAPITEL 2. SATELLITENBAHNEN<br />

3. Die heliozentrische Geschwindgkeit der Raumsonde nach der Wechselwirkung ist dagegen<br />

gegeben durch �v ′ 2 = �v1 +�v ′ rel . Die Raumsonde hat also nach der Wechselwirkung mit dem<br />

Planeten eine höhere Geschwindigkeit.<br />

§ 246 Formal kann man den Vorgang als einen elastischen Stoß zwischen dem Raumfahrzeug<br />

und dem Planeten beschreiben oder als einen Streuprozess zwischen Sonde und Planet, wobei<br />

das Gravitationsfeld des Planeten die Ursache der Streuung ist. Dieser Streuvorgang ist durch<br />

die Einschussgeschwindigkeit v∞ und den Stoßparameter b gekennzeichnet. Dadurch wird der<br />

Ablenkwinkel θ gegenüber der ursprünglichen Richtung �v∞ festgelegt. Der Energiesatz für<br />

die Hyperbel war gegeben durch die Binet’sche Gleichung (2.17) zu<br />

v 2 � �<br />

2 1<br />

= µ + .<br />

r a<br />

Die beiden Extremgeschwindigkeiten im Unendlichen bzw. im Perizentrum sind damit gegeben<br />

durch<br />

v 2 rel = v ′2<br />

rel = µ<br />

a<br />

bzw. v 2 �<br />

2<br />

Pz = µ + 1<br />

�<br />

.<br />

a<br />

rPz<br />

§ 247 Aus der Drehimpulserhaltung ergibt sich mit vPz als der Geschwindigkeit im Perizentrum<br />

σ = � µa(ɛ 2 − 1) = rPz vPz. Aus der Hyperbelgeometrie lässt sich über<br />

cos (180◦ − θ)<br />

2<br />

=<br />

a<br />

� a 2 + a 2 (ɛ 2 − 1)<br />

der Ablenkwinkel bestimmen zu<br />

sin θ 1<br />

=<br />

2 ɛ .<br />

Durch Einsetzten in den Drehimpulssatz wird<br />

r 2 Pz v 2 Pz = µa(ɛ 2 − 1) = r 2 �<br />

2<br />

Pz µ + v2 �<br />

rel<br />

µ<br />

rPz<br />

und es ist<br />

�<br />

b<br />

= sin 90<br />

aɛ ◦ − θ<br />

�<br />

=<br />

2<br />

� 1 − 1/ɛ2 .<br />

Damit lassen sich der Ablenkwinkel und der Stoßparameter bestimmen zu<br />

sin θ<br />

2 =<br />

1<br />

1 + rpzv2 �<br />

und b = rPz 1 +<br />

rel<br />

µ<br />

2µ<br />

rPzv2 .<br />

rel<br />

Bei sehr weitem (großes rPz) und/oder sehr schnellem Vorbeiflug erfolgt also kaum eine<br />

Ablenkung. Andererseits wird die Ablenkung um so größer, je dichter die Raumsonde an<br />

den Planeten kommt, d.h. je kleiner rPz wird. Damit lässt sich eine maximale Ablenkung<br />

bestimmen, da die geringste Annäherung durch den Planetenradius bestimmt ist (es kann<br />

also in keinem Falle eine Ablenkung um 180 ◦ erfolgen). Je massereicher der Planet ist, umso<br />

näher kann man diesem Wert kommen. Der Stoßparameter b gibt an, wohin die Raumsonde<br />

gelenkt werden muss, um bei vorgegebenem rPz und vrel die gewünschte Ablenkung θ zu<br />

erreichen.<br />

Verständnisfrage 21 Warum ergibt sich bei einem schnelleren Vorbeiflug eine geringere<br />

Ablenkung? Bei der Bethe–Bloch-Formel (5.2) ist es genauso. Mit der gleichen Begründung?<br />

§ 248 Außer bei den Voyager- [476] und Pioneer-Sonden [499] wurde diese Technik des Swing<br />

By unter anderem auch bei Mariner 10 [50] zum Besuch von Venus und Merkur angewendet;<br />

bei Ulysses [474], um wie in Abb. 2.33 angedeutet aus der Ebene der Ekliptik zu gelangen<br />

(Ausnutzung des Gravitationspotentials vom Jupiter – Jupiter ist für solche Manöver sehr<br />

2. Juli 2008 c○ M.-B. Kallenrode


2.7. ERGÄNZUNG: SPEZIELLE BAHNEN 77<br />

Abbildung 2.33: Mit Hilfe eines<br />

Swing By Manövers am Jupiter<br />

war es der Raumsonde Ulysses<br />

möglich, die Ebene der Ekliptik<br />

zu verlassen und die Pole der<br />

Sonne zu überfliegen<br />

Abbildung 2.34: VEEGA<br />

(Venus-Earth-Earth gravity<br />

assist) Manöver der Raumsonde<br />

Galileo: mehrfaches<br />

Schwungholen, um die für den<br />

Flug zum Jupiter benötigte<br />

Geschwindigkeit zu erreichen<br />

[13]<br />

gut geeignet, da er nach der Sonne das Objekt mit der größten Masse im Sonnensystem ist)<br />

und bei Galileo [457] zum Einschwenken in eine Jupiter-Umlaufbahn unter Ausnutzung der<br />

Gravitation der Planetenmonde. Zusätzlich wird das Schwungholen an Planeten und Monden<br />

bei Galileo nicht nur zur Bahnänderung, sondern auch zur Geschwindigkeitserhöhung eingesetzt.<br />

Ursprünglich sollte Galileo zusammen mit einer Flüssigtreibstoff-Rakete vom Space<br />

Shuttle in einer niedrigen (ca. 400 km) Erdumlaufbahn ausgesetzt werden und dann mit<br />

Hilfe dieser Rakete in Richtung auf den Jupiter geschossen werden. Nach der Explosion der<br />

Challenger im Januar 1986 wurde jedoch der Transport von Flüssigtreibstoffen im Space<br />

Shuttle verboten, Galileo konnte daher nur mit einer weniger explosiven aber auch weniger<br />

schubstarken Feststoffrakete ausgesetzt werden. Um dennoch die notwendige Geschwindigkeit<br />

zu erreichen, wurde Galileo auf einen Kurs gebracht, der es ihm ermöglichte, einmal an der<br />

Venus und zweimal an der Erde Schwung zu holen (VEEGA: Venus-Earth-Earth gravity assist,<br />

vgl. Abb. 2.34), um dann seine drei Jahre dauernde Reise zum Jupiter zu beginnen. Der<br />

jüngste Swinger ist die Sonde Cassini–Huygens [352, 454, 453] auf ihrem Weg zum Saturn.<br />

Literatur<br />

§ 249 Allgemeine Einführungen in Satellitenbahnen und ihre Störungen geben die Bändchen<br />

von Sagirov [210] und Bohrmann [26]. Dort werden auch Hohmann- und andere Transfer-<br />

Bahnen behandelt. Spezielle Bahnen, insbesondere die Stabilität von Satelliten in Lagrange-<br />

Punkten und interplanetares Billard, werden diskutiert in Bertotti und Farinella [17]. Für<br />

die formalen Betrachtungen (Zweikörper- und eingeschränktes Dreikörperproblem) kann auch<br />

ein Lehrbuch zur Theoretischen <strong>Physik</strong> zu Rate gezogen werden.<br />

c○ M.-B. Kallenrode 2. Juli 2008


78 KAPITEL 2. SATELLITENBAHNEN<br />

Fragen<br />

Frage 1 Die Bahnen von nicht manöverierfähigen Satelliten werden durch die Kepler’schen<br />

Gesetze beschrieben. Geben Sie diese an (verbal, wo möglich auch formal).<br />

Frage 2 Die Kepler’schen Gesetze sind empirisch bestimmt. Welche Grundkonzepte und<br />

-gleichungen werden zu ihrer formalen Herleitung benötigt?<br />

Frage 3 Eine elliptische Bahn wird, ebenso wie eine Kreisbahn, durch ein Kräftegleichgewicht<br />

bestimmt. Für die Kreisbahn muss die Gravitationskraft gleich der Zentripetalkraft<br />

sein. Welche Kräfte wirken auf den Satelliten auf einer elliptischen Bahn (bitte mit Skizze)?<br />

Frage 4 Bei der Herleitung der Kepler’schen Gesetze macht man den Übergang vom allgemeinen<br />

zum eingeschränkten Zweikörperproblem. Welche Annahmen gehen dabei ein?<br />

Erläutern Sie, unter welchen Bedingungen diese Vereinfachung sinnvoll ist.<br />

Frage 5 Die Herleitung der Kepler’schen Gesetze beruht auf fundamentalen Erhaltungssätzen.<br />

Geben Sie die Erhaltungssätze an und ihren Zusammenhang mit der Bewegungsgleichung.<br />

Frage 6 Satellitenbahnen sind Kegelschnitte. Kreuzen Sie die wahren Aussagen an:<br />

� Ist die Anfangsgeschwindigkeit eines Satelliten kleiner der ersten kosmischen Geschwindigkeit,<br />

so ergibt sich eine Wurfparabel.<br />

� Wird die Geschwindigkeit eines Satelliten durch Reibung auf einen Wert kleiner der<br />

Kreisbahngeschwindigkeit verringert, so stürzt der Satellit auf einer Spiralbahn ab.<br />

� Ein Satellit mit einer Geschwindigkeit größer der Kreisbahngeschwindigkeit entweicht aus<br />

dem Schwerefeld der Erde.<br />

� Eine hinreichende Bedingung für eine Ellipsenbahn ist eine Bahngeschwindigkeit kleiner<br />

der zweiten kosmischen Geschwindigkeit.<br />

� Die Geschwindigkeit eines Satelliten im Perigäum darf nicht kleiner sein als die Kreisbahngeschwindigkeit.<br />

� Die Geschwindigkeit eines Satelliten im Apogäum darf nicht kleiner sein als die Kreisbahngeschwindigkeit.<br />

Frage 7 Bestimmen Sie aus der Binet’schen Gleichung den Zusammenhang zwischen Kreisbahngeschwindigkeit<br />

und erster kosmischer Geschwindigkeit sowie zwischen Kreisbahngeschwindigkeit<br />

und zweiter kosmischer Geschwindigkeit.<br />

Frage 8 Durch welche Parameter ist die Lage einer Satellitenbahn im Raum bestimmt?<br />

Welche zusätzlichen Parameter sind zur Angabe der Satellitenposition erforderlich? Benennen<br />

und erklären Sie die Parameter.<br />

Frage 9 Erläutern Sie den Begriff Inklination.<br />

Frage 10 Bestimmen Sie die Bahngeschwindigkeiten eines Satelliten im Perigäum und im<br />

Apogäum.<br />

Frage 11 Auch ohne Kenntnis der Gravitationskonstante kann man angeben, wieviel mal<br />

massereicher die Sonne ist als die Erde. Man braucht dazu außer allbekannten Daten über<br />

die Jahres- und Monatslänge nur das Verhältnis des Abstände von Sonne bzw. Mond von der<br />

Erde (400:1), nicht aber die absoluten Abstände. Wie funktioniert das?<br />

Frage 12 Für ein studentisches Kleinsatellitenprojekt hat die Uni Osnabrück auf dem Westerberg<br />

eine Raketenstartrampe errichtet. Der Satellit soll auf einer antriebslosen Bahn fliegen;<br />

zur Auswahl stehen ein Instrument zur Untersuchung des Wasserdampftransports über<br />

tropischen Ozeanen oder ein Instrument zur Untersuchung des Anteils flüssigen Wassers in<br />

Eis. Welches Instrument ist für den Satelliten besser geeignet?<br />

Frage 13 Bahnmanöver: welche der folgenden Aussagen ist wahr?<br />

2. Juli 2008 c○ M.-B. Kallenrode


2.7. ERGÄNZUNG: SPEZIELLE BAHNEN 79<br />

� Eine Erhöhung der Bahngeschwindigkeit führt auf ein höheres Orbit.<br />

� Eine Änderung der Bahngeschwindigkeit senkrecht zur Bahnebene führt stets auf eine<br />

Drehung der Bahnebene unter Beibehaltung der Bahn in der Bahnebene.<br />

� Ein dauerhaft höheres Orbit lässt sich nur mit mindestens zwei Geschwindigkeitsänderungen<br />

erreichen.<br />

� Um in ein ansonsten identisches Orbit senkrecht zur Ausgangsbahnebene zu gelangen,<br />

muss die Kraft in einem Winkel von 135 ◦ zur Flugrichtung stehen.<br />

� Um in ein ansonsten identisches Orbit senkrecht zur Ausgangsbahnebene zu gelangen,<br />

muss die Kraft in einem Winkel von 45 ◦ zur Flugrichtung stehen.<br />

Frage 14 Eine Sojus-Kapsel nähert sich der Internationalen Raumstation ISS auf einem<br />

kreisförmigen Orbit wenige Kilometer unterhalb der Umlaufbahn der Raumstation (ebenfalls<br />

kreisförmig, beide Bahnen liegen bereits in einer Ebene). Skizzieren Sie, welche Manöver der<br />

Kommandant der Sojus-Kapsel ausführen muss, um an der Raumstation andocken zu können<br />

(Achtung, beim Andocken sollte die Relativgeschwindigkeit Null sein).<br />

Frage 15 Zum Nachdenken: Um, insbesondere im Hinblick auf Langzeitmissionen, etwas<br />

mehr Bewegung zu haben, darf die Mannschaft eines Space Shuttle jetzt Tischtennis spielen.<br />

Aus Platzgründen geht das allerdings erst nach dem Aussetzen der Nutzlast in der offenen<br />

Ladebucht (Sport an frischer Luft ist ohnehin gesünder). Diskutieren Sie, ob sich aus dieser<br />

Situation veränderte Spielgewohnheiten ergeben, z.B. unter den folgenden Gesichtspunkten:<br />

kann man einen normalen Aufschlag machen (den Ball hochwerfen und dann schlagen)? Oder<br />

sollte man einen modifizierten Aufschlag entwicklen? Was passiert mit dem Ball, wenn der<br />

Partner nicht trifft? Gibt es Situationen, in denen Sie den Ball in einem späteren Orbit<br />

wieder einfangen können? Macht es einen Unterschied, ob das Shuttle (wie normal) mit der<br />

geöffneten Ladebucht nach unten zur Erde blickend fliegt oder mit einer nach außen weisenden<br />

Ladebucht? Wenn Ihnen die Situation zu unübersichtlich ist, betrachten Sie einfache<br />

Grenzfälle: was passiert mit Bällen, die (a) senkrecht nach oben, (b) senkrecht nach unten,<br />

(c) direkt in Flugrichtung, (d) entgegen der Flugrichtung und (e) senkrecht zur Bahnebene<br />

(also nach links oder rechts) geworfen werden.<br />

Frage 16 Veranschaulichen Sie sich, warum die Gesamtenergie der Ellipsenbahn nur von<br />

der großen Halbachse abhängt, nicht jedoch von der Exzentrizität. Kann man diesen Zusammenhang<br />

gezielt nutzen, um zumindest für kurze Zeiten möglichst große Abstände von der<br />

Erdoberfläche zu erreichen?<br />

Frage 17 <strong>Erdfernerkundung</strong>ssatelliten werden häufig in sonnensynchrone Bahnen gebracht.<br />

Was versteht man unter einer sonnensynchronen Bahn, welche Vorteile hat sie?<br />

Frage 18 Geben Sie typische Bahnparameter für <strong>Erdfernerkundung</strong>ssatelliten an und begründen<br />

Sie, warum diese so gewählt werden.<br />

Frage 19 Erläutern Sie Verfahren zur Lagestabilisierung eines Satelliten. Welche Verfahren<br />

sind für <strong>Erdfernerkundung</strong>ssatelliten geeignet, welche nicht?<br />

Frage 20 Bahnstörungen müssen nicht unbedingt Störungen sein sondern können auch gezielt<br />

zur Beeinflussung von Satellitenbahnen eingesetzt werden. Nennen Sie Beispiele.<br />

Frage 21 Benennen Sie mindestens drei Störprozesse, die eine Satellitenbahn beeinflussen<br />

können und charakterisieren Sie diese kurz.<br />

Frage 22 Reibung in der Hochatmosphäre kann auch zur Bestimmung der Dichte der Atmosphäre<br />

verwendet werden. Skizzieren Sie die Herleitung. Welche Größe wird als beobachtbare<br />

Größe verwendet?<br />

Frage 23 Ein auf einer elliptischen Bahn befindlicher Satellit wird durch Reibung abgebremst.<br />

Wie verändert sich die Bahn? Erklären Sie, warum die Änderungen so erfolgen.<br />

c○ M.-B. Kallenrode 2. Juli 2008


80 KAPITEL 2. SATELLITENBAHNEN<br />

Frage 24 Geben Sie die Mindestflughöhe und Mindestumlaufdauer für einen Satelliten an.<br />

Was begrenzt diese Werte?<br />

Frage 25 Die Mindestflughöhe eines Erdsatelliten ist durch Reibung in der Atmosphäre<br />

bestimmt. Gibt es auch eine maximale Flughöhe? Wenn ja, wodurch ist diese bestimmt und<br />

wie können Sie sie abschätzen?<br />

Frage 26 Beschreiben Sie die Bahnstörungen, die sich aus der Erdabplattung ergeben. Wofür<br />

werden diese Störungen gezielt ausgenutzt?<br />

Frage 27 Warum muss man bei einem Übergang von einem Orbit großer Höhe auf ein Orbit<br />

niedriger Höhe die gleiche Energie verwenden wie bei einem Übergang in Gegenrichtung?<br />

Bestimmen Sie die Gesamtenergie beider Bahnen. Wo bleibt die beim Übergang aufgebrachte<br />

Energie beim Übergang von der höheren zur niedrigeren Bahn?<br />

Frage 28 Warum kann eine Rakete bzw. ein Satellit die Atmosphäre beim Start problemlos<br />

durchdringen während abstürzende Satelliten verglühen?<br />

Aufgaben<br />

Aufgabe 1 Ein Molniya-Satellit hat ein Perigäum von 400 km und ein Apogäum von 40 000<br />

km. Bestimmen Sie die jeweiligen Geschwindigkeiten.<br />

Aufgabe 2 Ein Satellit der Masse m = 1000 kg befindet sich in einer polaren Umlaufbahn<br />

in 400 km Höhe. Durch einen einmaligen gleichförmigen Kraftstoss von 10 Sekunden Dauer<br />

wird der Satellit auf eine äquatoriale Bahn gebracht. Berechnen Sie die dazu erforderliche<br />

Kraft.<br />

Aufgabe 3 Die Jupitermonde befolgen ebenfalls Kepler’s drittes Gesetz: die Kuben der<br />

großen Halbachsen dividiert durch die Quadrate der Umlaufzeiten ergeben eine Konstante.<br />

Ist es die gleiche Konstante wie für Jupiter und die anderen Planeten beim Umlauf um<br />

die Sonne? Spezielle Frage im Bezug auf den Jupiter-Mond Io: sein Abstand vom Planeten<br />

beträgt 4.5 · 10 5 km, seine Umlaufzeit T 1 d 18 h 28 min. Wie groß ist die Masse des Jupiter?<br />

Aufgabe 4 Berechnen Sie die Umlaufzeit eines Satelliten um den Mond, wenn dieser sich in<br />

einem Orbit mit einer Höhe von 100 km über der Mondoberfläche befindet. Wie groß wäre die<br />

Umlaufzeit einer entsprechenden Bahn um die Erde? (Mondparameter: Masse 7.3 · 10 23 kg,<br />

Radius 1738 km; Erdparameter: Masse 6 · 10 24 kg, Radius 6378 km)<br />

Aufgabe 5 Der kleinste Abstand von Halleys Kometen zur Sonne beträgt 8.9 · 10 10 m, seine<br />

Umlaufzeit 76 Jahre. Welcher Art ist die Bahn? Berechnen sie (a) die Länge der großen<br />

Halbachse, (b) die Exzentrizität der Bahn, und (c) den Abstand des Aphels von der Sonne.<br />

Bestimmen Sie die Verhältnisse der Geschwindigkeiten (Bahn- und Winkelgeschwindigkeit)<br />

in Perihel und Aphel.<br />

Aufgabe 6 Zwischen Erde und Sonne gibt es einen Punkt, an dem sich die Gravitationskräfte<br />

der beiden auf einen Satelliten aufheben. Wo liegt dieser neutrale Punkt? Wie groß<br />

sind die Bahn- und Winkelgeschwindigkeit eines Satelliten in diesem Punkt? Vergleichen Sie<br />

mit der Erde. (Abstand Sonne-Erde 1 AU = 149 · 10 6 km).<br />

Aufgabe 7 Sie sind im Untersuchungsausschuss zum Coloumbia-Absturz [401] mit der Frage<br />

konfrontiert, ob eine Rettung der Astronauten auf die ISS möglich gewesen wäre. Die<br />

Coloumbia hätte zwar nicht andocken können, aber da auf ISS Raumanzüge vorhanden sind,<br />

hätte die Crew im Prinzip umsteigen können. Sie sollen sich mit der Frage auseinander setzen,<br />

ob Coloumbia (Flughöhe 278 km, Inklination 39 ◦ ) die ISS (385 km, Inklination 59.6 ◦ )<br />

überhaupt hätte erreichen können. Coloumbia hat keinen Treibstoff für großartige Bahnmanöver,<br />

der Treibstoffvorrat reicht nur für einen Abstieg auf ein 120 km hohes Orbit (von<br />

2. Juli 2008 c○ M.-B. Kallenrode


2.7. ERGÄNZUNG: SPEZIELLE BAHNEN 81<br />

dort an bremst die Erdatmosphäre ausreichend, um das Shuttle in einen geregelten Abstieg<br />

zu zwingen) sowie eine Sicherheitsreserve von 20%. Wäre mit diesem Treibstoff ein Aufstieg<br />

in das ISS-Orbit möglich gewesen?<br />

Aufgabe 8 Der französische <strong>Erdfernerkundung</strong>ssatellit SPOT fliegt in einem nahezu kreisförmigen<br />

Orbit in einer Höhe von 832 km. Bestimmen Sie die Bahngeschwindigkeit des Satelliten<br />

und seine Geschwindigkeit entlang der Bodenspur.<br />

Aufgabe 9 Ein Satellit der Masse m = 1000 kg soll von einem Orbit in 400 km Höhe auf<br />

eine geostationäre Bahn in 36 000 km Höhe gebracht werden. Erläutern Sie das Verfahren und<br />

berechnen Sie die erforderlichen Geschwindigkeitsänderungen sowie die dazu erforderlichen<br />

Kräfte (Annahme: die Impulsänderung erfolgt gleichförmig über einen Zeitraum von jeweils<br />

100 s).<br />

Aufgabe 10 Eine Rakete bringt einen LandSat-Satelliten in ein kreisförmiges Orbit von<br />

200 km Höhe. Der Satellit soll in ein Orbit mit einer Flughöhe von 850 km transferiert<br />

werden. Beschreiben Sie die Bahn. Welche Geschwindigkeitsänderungen müssen erfolgen?<br />

Wieviel Energie müssen Sie bei einem Satelliten der Masse 4 t dafür aufwenden? Wie lange<br />

dauert der Übergang? Mit welchen Geschwindigkeiten bewegt sich der Satellit in den beiden<br />

kreisförmigen Orbits?<br />

Aufgabe 11 Eine Rakete bringt einen Satelliten (m = 1000 kg) in eine Umlaufbahn um<br />

die Sonne (Näherung: Satellit befindet sich im Erdorbit, ist jedoch gravitativ nicht mehr<br />

an die Erde sondern bereits an die Sonne gebunden). Der Satellit soll auf eine Merkurbahn/Jupiterbahn<br />

transferiert werden. Welche Energie ist aufzuwenden? (Masse Sonne 1.9 ·<br />

10 30 kg, Erdbahnradius 1 AU=149 Mio km, Merkurbahn 0.387 AU, Jupiterbahn 5.2 AU,<br />

Gravitationskonstante 6.67 · 10 −11 Nm 2 /kg 2 )<br />

c○ M.-B. Kallenrode 2. Juli 2008


Kapitel 3<br />

Satelliteninstrumente<br />

Wer ein Phänomen vor Augen hat, denkt schon oft darüber hinaus;<br />

wer nur davon erzählen hört, denkt gar nichts.<br />

J.W. Goethe<br />

§ 250 Fernerkundungsinstrumente auf Satelliten sammeln Informationen über die Erdoberfläche,<br />

die Ozeane bis hin zu den Ozeanböden und die Atmosphäre. Einige sammeln auch noch<br />

weitergehende Informationen über Plasmen und Teilchen (das sind allerdings in-situ Messungen)<br />

oder über die Sonne (z.B. Solarkonstante und Strahlungsbilanz der Erde). Entsprechend<br />

der vielfältigen Fragestellungen und beobachteten Objekte hat sich eine große Vielfalt von<br />

unterschiedlichen Sensoren entwickelt, eine sehr umfassende Zusammenstellung gibt [134].<br />

In diesem Kapitel werde ich mich auf die Vorstellung von Messprinzipien und Universalinstrumenten<br />

beschränken, Weiterentwicklungen werden nur skizziert. Zu den verschiedenen<br />

Typen von Instrumenten werden einige kurze Anwendungsbeispiele vorgestellt, weitere Anwendungsbeispiele,<br />

die teilweise auch auf der Kombination verschiedener Instrumenttypen<br />

basieren, werden am Ende des Kapitels vorgestellt.<br />

3.1 Grundlagen<br />

§ 251 Satelliteninstrumente wurden und werden für eine Vielzahl unterschiedlicher Anwendungen<br />

und Fragestellungen entwickelt. Einige Satelliteninstrumente und Missionen sind eher<br />

experimentell, d.h. sie dienen im wesentlichen zur Entwicklung und zum Test von Instrumenten.<br />

Auch die über Jahrzehnte als Standard etablierten LandSats haben als instrumentelle<br />

Satelliten begonnen – sie leben weiter zum Monitoring (global change) und die mit ihnen<br />

erprobten Messprinzipien standen Pate für viele der modernen (kommerziellen) Instrumente.<br />

§ 252 Andere Missionen verfolgen eine gezielte Fragestellung, z.B. eine genaue Kartographie<br />

des Meeresbodens. Diese Missionen sind in der Regel nur über einen gewissen Zeitraum aktiv.<br />

Eine weitere Klasse von Instrumenten und Missionen dient dem Monitoring, d.h. der kontinuierlichen<br />

Beobachtung. Wettersatelliten wie die in Tab. ?? genannten oder Instrumente<br />

zur Beobachtung von Ozon oder atmosphärischer Zusammenstzung sind typische Beispiele.<br />

§ 253 Trotz der Vielfalt dieser Instrumente haben alle mit ähnlichen Randbedingungen zu<br />

kämpfen: (a) die Transmission der beobachteten elektromagnetischen Strahlung durch die<br />

Atmosphäre bzw. ihre Absorption und/oder Emission und (b) die eingeschränkten Ressourcen<br />

an Bord eines Satelliten. Wir werden beide Punkte kurz ansprechen und dann mit einer<br />

Klassifikation der Instrumente beginnen.<br />

82


3.1. GRUNDLAGEN 83<br />

Abbildung 3.1: Die Stockwerkstruktur beschreibt den Aufbau der Atmosphäre [151]<br />

3.1.1 Die Atmosphäre<br />

§ 254 In der Fernerkundung ist die Atmosphäre des einen Freund (oder besser Forschungsobjekt),<br />

des anderen Feind (oder besser Störgröße im Hinblick auf sein Messziel). Beides sollte<br />

Grund genug sein, sich mit den wichtigsten Begriffen vertraut zu machen.<br />

Stockwerkstruktur<br />

§ 255 Abbildung 3.1 gibt einen Überblick über die vertikale Struktur der Atmosphäre. Diese<br />

wird an Hand des Temperaturprofils in verschiedene Schichten eingeteilt, daher auch manchmal<br />

die Bezeichnung Stockwerkstruktur.<br />

§ 256 Die unterste Schicht, die Troposphäre ist die Wetterschicht des Planeten. Sie ist die<br />

einzige Schicht, in der sich in nennenswertem Maße Wasserdampf findet – und sie ist die<br />

Schicht, die vom Menschen am direktesten beeinflusst wird durch den Eintrag von Spurengasen<br />

und Schadstoffen ebenso wie durch thermische Emission. Die Troposphäre hat einen<br />

negativen Temperaturgradienten von ca. 6.5 K/km. Die Oberkante der Troposphäre befindet<br />

sich in einer Höhe zwischen 16 km (Äquator) und 8 km (Pole) und ist als Inversion im<br />

Temperaturverlauf kenntlich. Daher liegt diese Tropopause gleichsam wie ein Deckel auf der<br />

Troposphäre und behindert den Stoffaustausch mit den darüber liegenden Schichten.<br />

§ 257 Die über der Tropopause liegende Stratosphäre ist durch einen positiven Temperaturgradienten<br />

gekennzeichnet. Diese Temperaturzunahme erfolgt im wesentlichen durch die<br />

Absorption solarer UV-Strahlung durch Ozon – die Ozonschicht ist ein wesentlicher Bestandteil<br />

der Stratosphäre. Auch wenn Ozon nur ein Spurengas ist, so lässt es sich gut vom<br />

Satelliten aus nachweisen, vgl. Abb. 1.4. Die Stratosphäre erstreckt sich bis in eine Höhe von<br />

ca. 50 km und wird begrenzt von der Stratopause. Da hier der Temperaturgradient wieder<br />

negativ wird bildet die Stratopause keine Inversion, ein Transport über die Stratopause ist<br />

also möglich. Der Abbau von Ozon durch die ausschließlich durch den Menschen in die Atmosphäre<br />

eingetragenen Flourchlorkohlenwasserstoffe FCKWs zeigt, das die Tropopause kein<br />

c○ M.-B. Kallenrode 2. Juli 2008


84 KAPITEL 3. SATELLITENINSTRUMENTE<br />

Abbildung 3.2: Nachtleuchtende Wolke (Noctilucent Cloud NLC) über Schottland [623] bzw.<br />

von der Space Station [239]<br />

ganz fest schließender Deckel ist sondern einen Austausch von Substanzen zwischen Tropound<br />

Stratosphäre erlaubt.<br />

§ 258 Die Mesosphäre, manchmal auch als Ignorosphäre bezeichnet, erstreckt sich in eine<br />

Höhe bis ca. 90 km. Dies ist die Atmosphärenschicht über die am wenigsten bekannt ist,<br />

da sie für eine direkte Messung mit Flugzeugen oder Ballonen nicht zugänglich ist und eine<br />

indirekte Messung mangels besonderer Spurengase oder sonstiger Eigenarten ebenfalls nicht<br />

möglich ist. In der Mesopshäre herrscht wieder ein negativer Temperaturgradient, d.h. die<br />

Temperatur nimmt mit zunehmender Höhe ab.<br />

§ 259 Ein ästhetischer, vielleicht auch umweltrelevanter Aspekt der Mesosphäre sind die<br />

nachtleuchtenden Wolken; dünne Eisschleier wie in Abb. 3.2 bilden sich in der Nähe des<br />

Temperaturminimums der Mesopause, d.h. am Übergang zwischen Mesosphäre und Thermosphäre.<br />

Nachtleuchtende Wolken finden sich in einer Höhe von ca. 83 km, sie sind ein polares<br />

Phänomen und verschwinden in mittleren Breiten in der Regel. 1 Eine sehr gute Übersicht<br />

über diese NLCs (Noctilucent Clouds) mit vielen Beispielen geben Gadsden und Schröder<br />

[66].<br />

§ 260 Ab einer Höhe von ca. 90 km beginnt die Thermosphäre. Hier nimmt die Temperatur<br />

wieder zu bis auf Werte von bis zu 2000 K. Die Erwärmung entsteht durch die Absorption der<br />

harten elektromagnetischen Strahlung der Sonne sowie über den Polkappen auch durch einfallende<br />

energiereiche Teilchen (z.B. Polarlicht). Die Thermosphäre ist stark durch die solare<br />

Einstrahlung beeinflusst, ihre Eigenschaften zeigen daher einen deutlichen Tag–Nacht-Gang,<br />

eine Variation mit den Jahreszeiten und natürlich Veränderungen im Laufe des 11-Jahre dauernden<br />

Solarzyklus. Die Thermosphäre hat keine Oberkante, ab 500 km Höhe beginnt jedoch<br />

die Exosphäre: hier haben Wasserstoffatome eine hinreichend große thermische Energie und<br />

auf Grund der geringen Dichte auch sehr große mittlere freie Weglängen und können daher<br />

in den Weltraum entweichen. Dies ist als Geokorona in Satellitenaufnahmen zu erkennen.<br />

§ 261 Die Erwärmung der Thermosphäre beruht auf der Absorption harter elektromagnetischer<br />

Strahlung. Der grundlegende physikalische Prozess ist die Ionisation (Photoeffekt und<br />

mit zunehmender Energie auch Compton-Effekt). Daher ist ein Teil der Thermosphäre ionisiert.<br />

Diese Schicht, in der neben Neutralgas auch Ladungsträger auftreten können, wird<br />

als Ionosphäre bezeichnet. Sie beginnt in einer Höhe von ca. 75 km, wobei dort der relative<br />

Anteil der Ladungsträger nur sehr gering ist. Der Ionisationsgrad steigt mit zunehmender<br />

1 Keine Regel ohne Ausnahme: die nachtleuchtende Wolke in Abb. 3.2 wurde über Schottland photographiert,<br />

was nicht unbedingt als polar gilt. Und in Deutschland werden nachtleuchtende Wolken sehr intensiv<br />

vom Institut für Atmosphärenphysik in Kühlungsborn untersucht [381]. Beobachtungen von NLCs von Norddeutschland<br />

aus werden auch beschrieben unter [269].<br />

2. Juli 2008 c○ M.-B. Kallenrode


3.1. GRUNDLAGEN 85<br />

Höhe, ab ca. 250 km ist die Atmosphäre vollständig ionisiert. Die Ionosphäre beeinflusst die<br />

Ausbreitung von Radiowellen und ist daher für die Kommunikation zwischen Satellit und<br />

Bodenstation wichtig.<br />

§ 262 Als Konsequenz ändert sich auch die Zusammensetzung der Atmosphäre. Bis in eine<br />

Höhe von 100 km ist die Ionisation gering und die Dichte groß genug, um für eine Durchmischung<br />

aller Gasbestandteile zu sorgen. In dieser Homosphäre besteht die Luft zu 78% aus<br />

N2, 21% O2 und ca. 1% Ar sowie in der Troposphäre bis zu 4% Wasserdampf. Außerdem<br />

enthält die Atmosphäre Spurengase wie Ozon, Kohlendioxid und Methan. Oberhalb dieser<br />

Höhe beginnt die Heterosphäre – die geringere Dichte und damit reduzierte Kollisionsrate<br />

zwischen den Molekülen verhindert eine effiziente Durchmischung der verschiedenen Molekülund<br />

Atomsorten, so dass diese Entmischen und sich mit eigener Skalenhöhe anordnen: die<br />

schweren Moleküle weiter unten, in größeren Höhen überwiegen leichte Moleküle und Atome<br />

(Sedimentation). Außerdem bewirkt die zunehmende Ionisierung eine Dissoziation der Moleküle,<br />

so dass mit zunehmender Höhe der Anteil der Atome gegenüber dem der Moleküle<br />

zunimmt.<br />

§ 263 Die Atmosphäre lässt sich vom Satelliten aus mit verschiedenen, jeweils an bestimmte<br />

Fragestellungen angepassten Verfahren untersuchen:<br />

• die Temperaturmessung in der Hochatmosphäre aus der Abbremsung von Satelliten ist uns<br />

bereits in Abschn. 2.3.2 begegnet. Als Messverfahren ist dies kein Remote Sensing sondern<br />

ein, wenn auch indirektes in-situ Verfahren.<br />

• Spurengase in der Atmosphäre können durch rückgestreutes Licht nachgewisen werden –<br />

das Ozonloch in Abb. 1.4 wurde auf diese Weise vermessen. Häufig wird auf diese Weise<br />

wie in dem Beispiel die horizontale Verteilung bestimmt – Information über die vertikale<br />

Verteilung der Spurengase können mit diesem Verfahren in der Regel nicht gewonnen<br />

werden.<br />

• Im Labor würde man Spurengase durch Absorption nachweisen. Mit einem Satelliten macht<br />

man beim Limb Sounding das gleiche und erhält auf diese Weise Vertikalprofile. Das Verfahren<br />

ist aufgrund kleinere Hindernisse (z.B. Himalaya) für die Untersuchung der Troposphäre<br />

nicht geeignet.<br />

Atmosphärische Transmission<br />

§ 264 Um die Möglichkeiten und Einschränkungen der <strong>Erdfernerkundung</strong> zu verstehen,<br />

müssen wir uns mit der atmosphärischen Transmission auseinander setzen. Abbildung 3.3<br />

zeigt das elektromagnetische Spektrum, die in verschiedenen Bereichen nachweisbaren Phänomene<br />

und die atmosphärische Transmission.<br />

§ 265 Im sichtbaren Bereich ist die atmosphärische Transmission nahezu eins, eine Einschränkung<br />

entsteht lediglich durch die Streuung des Lichtes an den Luftmolekülen. Diese<br />

ist insbesondere bei großen Frequenzen, d.h. im blauen Bereich des sichtbaren Spektrums,<br />

von Bedeutung – wir werden dieser Dunststreuung häufiger begegnen. Geht man weiter zu<br />

kürzeren Wellenlängen, so geht die Transmission schnell gegen Null: die UV-Strahlung wird<br />

im wesentlichen von stratosphärischem Ozon absorbiert. Härtere Strahlung (EUV, Röntgen,<br />

γ) wird bereits in der höheren Atmosphäre absorbiert und sorgt dort für die Bildung der Ionosphäre.<br />

Auf Grund dieser Absorption ist es weder möglich, Röntgen- oder Gammaastronomie<br />

vom Erdboden aus zu betreiben noch den Erdboden mit Röntgen- oder γ-Instrumenten<br />

zu untersuchen. 2 γs mit sehr hoher Energie können die Atmosphäre wieder passieren, sie<br />

2 Es gibt eine kleine Einschränkung zu dieser Aussage. Beim Durchgang durch Materie wird elektromagnetische<br />

Strahlung nach dem Bougert–Lambert–Beer’schen Gesetz abgeschwächt: I(x) = I0e −µx mit µ als<br />

Absorptionskoeffizient und x als der Schichtdicke der durchsetzten Materie. Sehr starke Röntgen- oder Gammaquellen<br />

können daher auch nach Durchdringen der Atmosphäre in einem Detektor noch ein messbares<br />

Signal erzeugen. So wurden z.B. zur Zeit des Kalten Krieges auf militärischen Satelliten auch γ-Detektoren<br />

geflogen, um die bei Kernwaffenexplosionen emittierte Gammastrahlung nachzuweisen, z.B. Nachweis der<br />

südafrikanischen Bemühungen um Kernwaffen. Das Verfahren ist jedoch nur sinnvoll für atmosphärische<br />

c○ M.-B. Kallenrode 2. Juli 2008


86 KAPITEL 3. SATELLITENINSTRUMENTE<br />

Abbildung 3.3: Elektromagnetische Spektrum, nachweisbare Phänomene und atmosphärische<br />

Transmission, [41] auf der Basis von [11]<br />

erzeugen in der unteren Atmosphäre durch Paarbildung Elektronen und Positronen, die ihrerseits<br />

wieder γs erzeugen, die ihrerseits wieder Paarbildung erfahren, die usw. Der Prozess<br />

wird als Luftschauer bezeichnet, ist jedoch für die <strong>Erdfernerkundung</strong> nicht von Bedeutung.<br />

§ 266 Auch zum langwelligen Ende des Spektrums wird die Transmission schnell gering.<br />

Im Infrarot finden sich starke Absorptionsbanden. Diese Strahlung regt in der Atmosphäre<br />

mehratomige Moleküle zum Schwingen an und wird daher absorbiert. 3 In einigen Bereichen<br />

im Infrarot, in sogenannten Fenstern, ist die atmosphärische Transmission groß. Diese Bereiche<br />

werden zur Detektion der vom Erdboden bzw. Objekten am Erdboden emittierten<br />

Wärmestrahlung genutzt.<br />

§ 267 Mit weiter zunehmender Wellenlänge wird die Atmosphäre wieder nahezu transparent,<br />

in diesem Bereich werden aktive und passive Mikrowelleninstrumente eingesetzt.<br />

3.1.2 Die Magnetosphäre und der Sonnenwind<br />

§ 268 Die Dichte der Atmosphäre nimmt gemäß barometrischer Höhenformel mit einigen<br />

Korrekturen ungefähr exponentiell mit der Höhe ab. Unterhalb von ca. 200 km ist die Atmosphäre<br />

noch so dicht, dass ein antriebsloser Flugkörper so stark abgebremst wird, dass<br />

er abstürzt. Oberhalb von ca. 500 km ist der Einfluss der Atmosphäre auf die Bewegung<br />

des Satelliten zu vernachlässigen. 4 Allerdings geht dem Satelliten damit auch der durch die<br />

Atmosphäre gegenüber der kosmischen Strahlung und dem Sonnenwind gewährte Schutz<br />

verloren.<br />

§ 269 Ein Satellit – zumindest vom Erdboden bis hinauf zum geostationären Orbit ist damit<br />

jedoch nicht schutzlos einem von der Sonne kommenden Teilchenbombardement ausgesetzt:<br />

Kernwaffentests, unterirdische Tests lassen sich durch die von ihnen ausgelösten Wellen besser im Seismographennetzwerk<br />

nachweisen.<br />

3 Die wesentlichen Absorber sind Wasserdampf, Kohlendioxid, Methan und Stickoxide, d.h. die Spurengase,<br />

die wir in der Klimadiskussion als treibhauswirksame Spurengase bezeichnen.<br />

4 Und dazwischen? Entweder stürzt der Satellit früher oder später ab wie in Abschn. 2.3.2 diskutiert<br />

oder er muss, wie die International Space Station ziemlich häufig mal wieder in ein höheres Orbit gekickt<br />

werden – daher kann man die ISS auch nicht sich selbst überlassen sondern es muss immer zumindest eine<br />

Art Hausmeister an Bord sein und außerdem ein Raumtransporter zum Betanken und/oder direkten Kicken<br />

vorbei kommen [337, 768].<br />

2. Juli 2008 c○ M.-B. Kallenrode


3.1. GRUNDLAGEN 87<br />

Abbildung 3.4: Struktur<br />

der Magnetosphäre [206]<br />

während eine Atmosphäre diese Teilchen absorbiert hätte, lenkt das Erdmagnetfeld sie einfach<br />

ab. Auf diese Weise bildet das Erdmagnetfeld einen geschützten Hohlraum im Sonnenwindplasma,<br />

die Magnetosphäre.<br />

§ 270 Auf der der Sonne zugewandten Seite erstreckt sich die Magnetosphäre bis ca. 10<br />

Erdradien, d.h. bis jenseits des geostationären Orbits. Auf der der Sonne abgewandten Seite<br />

erstreckt sich der Schweif der Magnetosphäre bis jenseits hundert Erdradien.<br />

§ 271 Das Erdmagnetfeld lässt sich in erster Näherung als ein Dipolfeld beschreiben. Von der<br />

Sonne strömt kontinuierlich eine Überschallströmung, der Sonnenwind, ab. Dieser verformt<br />

das Erdmagnetfeld derart, dass sich eine Topologie der Magnetosphäre wie in Abb. 3.4 ergibt:<br />

zum einen wird das Magnetfeld auf der der Sonne zugewandten Seite komprimiert, zum<br />

anderen werden Feldlinien von der der Sonne zugewandten Seite über die Polkappen in den<br />

Schweif konvektiert. Dieser Prozess ist für die Dynamik der Magnetosphäre (optisch sichtbar<br />

in Form von Polarlichtern) wichtig.<br />

§ 272 Die unterhalb von ca. 65 ◦ geomagnetischer Breite entspringenden Feldlinien sind sowohl<br />

auf der Tag- als auch auf der Nachtseite geschlossen. Die Feldlinien in der Polkappe<br />

dagegen sind nach heutigem Verständnis offen, d.h. nicht an beiden Enden mit der Erde<br />

sondern an einem mit der Erde, am anderen jedoch mit dem interplanetaren Magnetfeld<br />

verbunden. Entlang dieser Feldlinien können energiereiche Teilchen bis in die Atmosphäre<br />

vordringen und z.B. zum Ozonabbau in hohen Breiten beitragen.<br />

§ 273 Abbildung 3.5 zeigt die Flüsse energiereicher Elektronen auf der Nordhemisphäre<br />

aufgetragen gegen geomagnetische Koordinaten für drei verschiedene Zeiträume. Links ist<br />

der Teilcheneinfall zu ruhigen Zeiten zu erkennen; lediglich entlang des Polarovals, d.h. der<br />

äquatorwärtigen Begrenzung der Polkappe dringen Teilchen bis in die Atmosphäre vor. Bei<br />

stärkerer geomagnetischer Aktivität werden Teilchen aus den Strahlungsgürteln in die Atmosphäre<br />

injiziert – entsprechend steigen die Flüsse prezipierender Teilchen (mittleres Teilbild).<br />

Während eines starken solaren Ereignisses wird zusätzlich die Polkappe mit Teilchen gefüllt<br />

(rechts).<br />

§ 274 Bis auf die Polkappen ist die Magnetosphäre also ein Schutzschirm gegen energiereiche<br />

Teilchen. Allerdings ist sie selbst auch eine Quelle energiereicher Teilchen: in den Strahlungsgürteln<br />

der Erde sind energiereiche Teilchen gefangen. Die Bahnen von Satelliten zur<br />

c○ M.-B. Kallenrode 2. Juli 2008


88 KAPITEL 3. SATELLITENINSTRUMENTE<br />

Abbildung 3.5: Prezipitation energiereicher Teilchen in die Atmosphäre über der nördlichen<br />

Polarkappe; (links) ruhige Zeiten, kein solares Ereignis, (Mitte) gomagnetisch aktivere Zeiten,<br />

kaum solare Teilchen, (rechts) aktive (sowohl solar als auch geomagnetisch): auch die Polkappe<br />

ist mit Teilchen gefüllt; alle Daten von Space Environment Monitor SEM-2 auf POES 16<br />

Abbildung 3.6: (Erforschung der)<br />

Strahlungsgürtel<br />

Erforschung derselben werden gezielt in diese Strahlungsgürtel gelenkt (siehe z.B. Abb. 3.6),<br />

für die Bahnen von Forschungs- und Erderkundungssatelliten bevorzugt man dagegen Bahnen<br />

außerhalb der Strahlungsgürtel, um die mit diesen verbundene Strahlenbelastung 5 gering<br />

zu halten. Die typischen Erdspäher drängeln sich unterhalb der Strahlungsgürtel durch, die<br />

geostationären Satelliten dagegen liegen außerhalb der Strahlungsgürtel.<br />

§ 275 Leider ist die Magnetosphäre nicht nur aufgrund des Sonnenwinddrucks asymmetrisch.<br />

Auch das eigentliche Erdmagnetfeld ist bereits asymmetrisch: so ist, wie bereits in<br />

Abb. 3.4 angedeutet, die Achse des geomagnetischen Dipols gegen die Erdachse gekippt 6<br />

sondern zusätzlich um ca. 436 km in Richtung des westlichen Pazifik verschoben. Daher<br />

kommen die Strahlungsgürtel im zusätzlichen Atlantik vor der Küste Brasiliens dichter an<br />

5 Die Strahlenbelastung durch energiereiche Teilchen ist physikalisch die Ionisation der durchsetzten Materie.<br />

Ionisation in der Elektronik bzw. in Datenspeichern führt im einfachsten Fall zu einem Informationsverlust,<br />

da ein Bit geklappt wurde – woraus sich allerdings schwerwiegende Folgen ergeben können, wenn die<br />

Information z.B. für die Satellitensteuerung wichtig war. Ionisation in CCDs führt zu Lichtpunkten. Insbesondere<br />

während eines Teilchensturms kann diese Ionisation so viele Pixel betreffen, dass das Bild nicht mehr<br />

zu gebrauchen ist. So wurde der Forschungssatellit CHAMP [376] in den mit dem Ereignis vom 14. Juli 2000<br />

(Bastille-Day Event) verbundenen Teilchensturm gestartet – der für die Orientierung des Satelliten wichtige<br />

Sternensensor sah daraufhin deutlich mehr Sterne als seine Himmelslandkarte hergab und konnte erst nach<br />

Abklingen des Teilchenereignisses den Satelliten korrekt in seinem Orbit orientieren. In Sensoren und Solarzellen<br />

führt die Ionisation durch Teilchen über lange Zeiträume außerdem zu einer Degradation. Dies ist<br />

ein Problem bei der Erstellung langjähriger homogener Messreihen zur Untersuchung von global change: was<br />

ändert sich wirklich, wenn sich die Daten ändern – der gemessene Parameter, das Instrument(enverhalten)<br />

oder beides?<br />

6 In erster Näherung wird die Erde als eine gleichförmig der Dipolachse magnetisierte Kugel beschrieben.<br />

Diese Achse schneidet die Oberfläche in zwei Punkten, dem magnetischen Südpol bei 78.3 ◦ S 111 ◦ E in der<br />

Nähe der Vostok Station in der Antarktis und dem magnetischen Nordpol bei 78.3 ◦ N 69 ◦ W nahe Thule<br />

(Grönland). Beide Punkte sind ungefähr 800 km von den geographischen Polen entfernt; die Dipolachse des<br />

Magnetfelds ist um 11.3 ◦ gegenüber der Drehachse geneigt. Das Dipolmoment ME der Erde beträgt 8 × 10 25<br />

G cm 3 oder 8 × 10 22 A m 2 [115].<br />

2. Juli 2008 c○ M.-B. Kallenrode


3.1. GRUNDLAGEN 89<br />

Abbildung 3.7: Südatlantische Anomalie<br />

SAA [610] als Quelle erhöhter<br />

Strahlenbelastung für Satelliten und<br />

Raumfahrer auf der ISS<br />

Abbildung 3.8: Solar<br />

Terrestrische Beziehungen<br />

[614]<br />

die Erdoberfläche als an anderen geographischen Positionen. Diese Südatlantische Anomalie<br />

SAA hat man zu Beginn der Magnetosphärenforschung genutzt: hier konnten Raketen mit<br />

einer relativ geringen Flughöhe den Strahlungsgürtel erreichen. Des einen Freud, des anderen<br />

Leid: für die Raumfahrt (Satelliten und Space Shuttle) hat die SAA den Nachteil, dass die<br />

Strahlenbelastung gegenüber den anderen Teilen des Orbits erhöht ist, siehe auch Abb. 3.7.<br />

§ 276 Die stationäre Form der Magnetosphäre wie in Abb. 3.4 ist eine Fiktion: da die<br />

äußere Grenze der Magnetosphäre, die Magnetopause, als ein Gleichgewicht aus dem magnetischen<br />

Druck des Erdmagnetfelds und dem Strömungsdruck des Sonnenwinds bestimmt<br />

ist, so verändert jede Änderung im Sonnenwinddruck, sei es durch eine Änderung der Teilchenzahldichte<br />

oder der Strömungsgeschwindigkeit, auch die Lage der Magnetopause. Eine<br />

Erhöhung des Sonnenwinddrucks schiebt diese dichter an die Erde heran, eine Verringerung<br />

des Sonnenwinddrucks erlaubt eine Expansion der Magnetosphäre.<br />

§ 277 Die gelegentlich von der Sonne ausgestossenen koronalen Massenauswürfe (Coronal<br />

Mass Ejection CME; linkes Teilbild in Abb. 3.8) führen zu starken Erhöhungen des Sonnenwinddrucks:<br />

die Sonnenwinddichte wird von einigen Teilchen/cm 3 auf wenige 10 Teilchen/cm 3<br />

erhöht, die Strömungsgeschwindigkeit von ca. 400 km/s auf häufig mehr als 1000 km/s. Damit<br />

ergibt sich eine Erhöhung des Sonnenwinddrucks um mehr als eine Größenordnung. Als<br />

Konsequenz wird die Magnetopause komprimiert und die Magnetopause wandert auf der der<br />

Sonne zugewandten Seite bis innerhalb des geostationären Orbits: ein geostationärer Satellit<br />

befindet sich damit zwar noch auf der gleichen Flughöhe aber plötzlich nicht mehr innerhalb<br />

der Magnetosphäre sondern im interplanetaren Raum.<br />

§ 278 Die Kompression der Magnetosphäre führt insbesondere im Schweif, d.h. auf der<br />

Nachtseite, zu einer Umstrukturierung des magnetischen Feldes. Diese ist mit einer Beschleunigung<br />

von Teilchen verbunden, die sich entlang der Magnetfeldlinien ausbreiten und im Polaroval,<br />

d.h. an den die Polkappe umgebenden Feldlinien, auf die Atmosphäre auftreffen und<br />

diese zum Leuchten anregen. Während der Satellit dies großflächig als Polaroval erkennen<br />

kann (mittleres Teilbild in Abb. 3.8), nehmen wir auf der Erde die Leuchterscheinung nur<br />

relativ lokal als Polarlicht (rechtes Teilbild in Abb. 3.8) wahr.<br />

c○ M.-B. Kallenrode 2. Juli 2008


90 KAPITEL 3. SATELLITENINSTRUMENTE<br />

Tabelle 3.1: Massen und Leistungsaufnahme einiger typischer Imaging-Instrumente (die Daten<br />

beziehen sich auf die Instrumente, nicht auf die Satelliten!) [134]<br />

§ 279 Wie das mittlere Teilbild in Abb. 3.8 nahe legt, ist die Forschung im Bereich dieser so<br />

genannten Solar-Terrestrischen Beziehungen zumindest teilweise auch Bestandteil der <strong>Erdfernerkundung</strong><br />

– und der plötzlich im Sonnenwind stehende geostationäre Erderkundungssatellit<br />

benötigt ein Design, dass diesen sehr veränderlichen Umgebungsbedingungen gerecht wird.<br />

§ 280 Weitere Informationen zum Bereich Space Weather geben z.B. [361, 443, 629, 642, 702]<br />

sowie für Instrumente und Missionen Kapitel 5.<br />

3.1.3 Ein Labor in 900 km Höhe: technische Randbedingungen<br />

§ 281 Satelliteninstrumente verwenden Messprinzipien, die auch in Laborexperimenten bzw.<br />

teilweise im täglichen Leben Anwendung finden. Allerdings werden Satelliteninstrumente in<br />

einer Umgebung eingesetzt, die nicht ganz genau Laborbedingungen entspricht. 7 Die Probleme<br />

umfassen neben den offensichtlichen Einschränkungen in Masse, Energieverbrauch und<br />

Datenspeicher bzw. -übertragung die mechanischen Belastungen beim Start, die thermischen<br />

Belastungen im Orbit, die schlechte Verfügbarkeit von Servicetechnikern sowie eine schnelle<br />

Alterung in einer eher ungemütlichen Umgebung.<br />

§ 282 Um die folgenden Angaben etwas besser einordnen zu können, soll der erste kleine<br />

Piepser aus Abb. 1.8 herhalten: Sputnik 1 hatte bei einem Durchmesser von 58 cm eine<br />

Masse von 83.2 kg. Der erste amerikanische Satellit, Explorer 1, war mit einer Masse von<br />

5 kg ein Leichtgewicht dagegen.<br />

§ 283 Egal ob altes oder modernes Instrument, ob Satellit oder Raumfahrzeug – die Einschränkungen<br />

sind alle vergleichbar und betreffen im wesentlichen die folgenden Punkte:<br />

• Masse<br />

• Elektrische Versorgung<br />

• Stabilität<br />

• Strahlenbelastung<br />

• Datenübertragung.<br />

§ 284 Masse: Satelliteninstrumente müssen leicht sein – selbst ein moderner Satellit wie<br />

EnviSat mit einer Masse von 8140 kg hat nur eine Gesamtnutzlast von 2150 kg für die wissenschaftlichen<br />

Instrumente, Interfaces und Kommunikation. Ein typisches Teilchenteleskop<br />

7 Außer vielleicht bei jenen Optimisten, die die Ionosphäre als das der Erdoberfläche am nächsten gelegene<br />

natürliche Plasmalaboratorium bezeichnen.<br />

2. Juli 2008 c○ M.-B. Kallenrode


3.1. GRUNDLAGEN 91<br />

mit weitem Energiebereich auf einer interplanetaren Raumsonde dagegen muss mit einer<br />

Masse von ca. 1 kg auskommen. Die Massen typischer Imaging Instrumente verschiedener<br />

Generationen sind zusammen mit deren Leistungsaufnahme in Tabelle 3.1 gegeben.<br />

§ 285 Elektrische Versorgung: Satelliteninstrumente müssen einen geringen Stromverbrauch<br />

haben. Selbst bei einer Solarzellenfläche von 70 m 2 erzeugt EnviSat nur eine Leistung von<br />

maximal 6.5 kW mit einer mittleren Leistung von 1.9 kW.<br />

§ 286 Stabilität: Satelliteninstrumente müssen mechanisch und thermisch sehr stabil sein.<br />

Beim Start mit einer Rakete oder einem Shuttle wirkt das Mehrfache der Erdbeschleunigung<br />

als systematische Kraft. Zusätzlich treten starke stochastische Kräfte durch Vibrationen<br />

und Rütteln auf. Die thermische Belastung ist beim Start gering (der Satellit befindet<br />

sich zu der Zeit noch in einer schützenden Umhüllung), erweist sich dagegen im Orbit als<br />

zu berücksichtigendes Problem: auf Grund der Ausrichtung der Instrumente auf die Erde<br />

befindet sich für längere Zeiträume eine Seite des Satelliten im Schatten während die andere<br />

der solaren Einstrahlung ausgesetzt ist. Entsprechend groß werden die Temperaturgradienten<br />

und damit auch mechanische Spannungen.<br />

§ 287 Strahlenbelastung: Satelliteninstrumente (und insbesondere ihre Elektronik) müssen<br />

unempfindlich gegen Strahlenschäden sein. Diese entstehen durch die Ionisation durch energiereiche<br />

geladene Teilchen der kosmischen Strahlung, aus solaren Ereignissen oder aus den<br />

Strahlungsgürteln der Magnetosphäre. Am stärksten gefährdet sind Satelliten, die die Strahlunsgürtel<br />

der Erde durchfliegen – letztere geben damit gleichsam eine Obergrenze für den<br />

Orbit vor. Den Eintritt in die Südatlantische Anomalie SAA kann man jedoch zumindest für<br />

Satelliten mit sinnvoller Lebensdauer nicht vermeiden.<br />

§ 288 Daten: Die Datenübertragung von Satelliteninstrumenten zu Bodenstationen ist eingeschränkt.<br />

So verfügt EnviSat über eine Übertragungsrate von 2 kbit/s für den Uplink, d.h. von<br />

der Bodenstation an den Satelliten für Aufforderungen wie z.B. ‘schalt mal das Instrument in<br />

den Ruhezustand’, und 4096 kbit/s für den Downlink, d.h. die eigentliche Datenübertragung.<br />

Das sind sehr große Raten im Vergleich zu den wenigen bit/s aus der Frühzeit der Raumfahrt<br />

oder bei den Voyager Missionen - im Vergleich zu den anfallenden Daten alleine im<br />

optischen Bereich sind es jedoch immer noch kleine Raten. 8 Die Datenrate einiger Imager ist<br />

in Tab. 3.3 gegeben – hier geht es leicht in den Bereich von einigen 100 Mbit/s. Der deutsche<br />

Radarspäher TerraSAR dürfte mit 820 Mbit/s momentan der Spitzenreiter sein.<br />

3.1.4 Grobklassifizierung und Kenngrößen<br />

§ 289 Die Grobklassifikation von Instrumenten zur <strong>Erdfernerkundung</strong> erfolgt nach den Kriterien<br />

aktives oder passives Instrument und bildgebendes oder nicht-bildgebendes Verfahren.<br />

§ 290 Da <strong>Erdfernerkundung</strong>, wie der Name besagt, romote sensing ist und nicht in-situ<br />

Messung, werden alle relevanten Größen indirekt, nämlich über die ausgesandte, reflektierte<br />

oder absorbierte elektromagnetische Strahlung untersucht.<br />

§ 291 Passive Instrumente erzeugen kein Signal sondern nehmen die vom Untersuchungsgegenstand<br />

emittierte (z.B. thermisches Infrarot), partiell absorbierte (UV und Ozon, Sounding-<br />

Verfahren) oder reflektierte Strahlung (sichtbares Licht, nahes Infrarot) auf. Passive Instrumente<br />

bestehen daher aus einem Sensor und der anschließenden Auswerte-Elektronik.<br />

§ 292 Aktive Instrumente dagegen erzeugen ein Signal (z.B. Radiowellen beim Radar) und<br />

untersuchen das reflektierte Signal bezüglich Intensität, Laufzeit, Polarisation usw. Aktive<br />

8 Eine simple 5 MPixel Digitalkamera erzeugt ein Bild von 2560 mal 1920 Pixel mit einer Farbtiefe von<br />

24 Bit bzw. 8 Bit je RGB-Kanal. Als Bitmap abgespeichert hat dieses Bild eine Größe von 117 Mbit oder<br />

knapp 15 MB. Selbst bei einem Downlink von 4096 kbit/s würde die Übertragung des Bildes noch fast<br />

29 Sekunden dauern – eine Zeit, in der sich ein typischer <strong>Erdfernerkundung</strong>ssatellit um 1800 km entlang<br />

seiner Bodenspur bewegt hat.<br />

c○ M.-B. Kallenrode 2. Juli 2008


92 KAPITEL 3. SATELLITENINSTRUMENTE<br />

Abbildung 3.9: Beziehung zwischen<br />

verschiedenen Klassen<br />

von Sensoren<br />

Instrumente benötigen daher neben dem Sensor auch einen Signalgeber – und natürlich für<br />

beide die notwendige Elektronik. Aktive Satelliteninstrumente stellen höhere Anforderungen<br />

an die Stromversorgung – militärische Radarsatelliten haben früher kleine Kernreaktoren an<br />

Bord gehabt, was im Falle eines Startunfalls oder Absturz 9 zu beträchtlichen ökologischen<br />

Folgen führen kann.<br />

§ 293 Die wichtigsten Kenngrößen von Satelliteninstrumenten sind die Auflösungsvermögen,<br />

mit denen die verschiedenen physikalische Parameter bestimmt werden können. Man unterscheidet<br />

die folgenden Auflösungsvermögen: Bodenauflösungsvermögen, radiometrisches<br />

Auflösungsvermögen, thermisches Auflösungsvermögen und zeitliches Auflösungsvermögen.<br />

§ 294 Schon alleine in Anbetracht der großen Datenfülle und der begrenzten zur Aufnahme<br />

zur Verfügung stehenden Zeit kann kein Instrument in allen Auflösungsvermögen optimiert<br />

sein: je mehr Pixel und Kanäle zur Verfügung stehen, um so weniger Photonen können<br />

während der Belichtungszeit in einen Kanal einfallen, so dass dieser dann durch ein hohes<br />

Rauschen und geringes radiometrisches Auflösungsvermögen wenig Informationen liefert.<br />

Außerdem ist das Verfahren Kontraproduktiv: kleine Pixel führen zwar zu einem guten Bodenauflösungsvermögen<br />

– lange Integrationszeiten zerstören dies aufgrund der Bewegung des<br />

Satelliten jedoch wieder.<br />

§ 295 Abbildung 3.9 gibt einen Überblick über die Beziehung zwischen den verschiedenen<br />

Klassen von Instrumenten und ihren jeweiligen Auflösungsvermögen: im Zentrum das Spectroradiometer<br />

als Universalinstrument, zu den Eckpunkten jeweils an spezielle Fragestellungen<br />

angepasste und im entsprechenden Auflösungsvermögen optimierte Instrumente. Wir<br />

werden vom Film ausgehend zuerst universelle Instrumente (Spectroradiometer) betrachten,<br />

wie MSS und TM auf LandSat oder das AVHRR auf POES. Dann werden wir uns Beispielen<br />

für speziellere Instrumente zuwenden.<br />

3.2 Passive Instrumente im sichtbaren Bereich des elektromagnetischen<br />

Spektrums<br />

§ 296 Das klassische Instrument der <strong>Erdfernerkundung</strong> ist die (Mittelformat)Kamera mit ei-<br />

9 Nur zwei Beispiele für eine geglückte Entsorgung eines alten Radarsatelliten: Kosmos 954 stürzte 1978<br />

über Kanada ab, Kosmos 1042 stürzte 1983 in den Indischen Ozean – in beiden Fällen führte die günstige Absturzposition<br />

dazu, dass keine Beeinträchtigungen der Anthroposphäre auftraten. In der Regel ist der Absturz<br />

ein kleineres Problem als der Startunfall: auch wenn der Satellit beim Widereintritt teilweise verglüht und<br />

daher mechanisch desintegriert, wird der sehr kompakte thermonukleare Reaktor in der Regel zwar erwärmt<br />

aber nicht mechanisch zerstört. Bei einem Startunfall dagegen handelt es sich meist um eine Explosion –<br />

mit der Folge, dass das im thermonuklearen Reaktor enthaltene Material sehr großflächig verteilt wird. Und<br />

handelt es sich dabei um das zwar gerne verwendete aber dennoch hochgiftige Plutonium, beginnen Bewohner<br />

Floridas selbst bei einer kleinen thermonuklearen Batterie der interplanetaren Raumsonde Cassini<br />

[455, 688, 635] die Frage nach Alternativen zu stellen.<br />

2. Juli 2008 c○ M.-B. Kallenrode


3.2. PASSIVE INSTRUMENTE IM SICHTBAREN SPEKTRUM 93<br />

Abbildung 3.10: Frühes Beispiel<br />

für die <strong>Erdfernerkundung</strong> mit<br />

Hilfe von Satelliten: Discoverer<br />

14 hat einen sowjetischen Flughafen<br />

photographiert [711]<br />

nem konventionellen Film – auch wenn das erste zivile Bild der Erde aus dem Weltraum ein<br />

etwas unkonventionell erzeugtes Video war (siehe $ 297). Bei der Kamera handelt es sich um<br />

ein passives Instrument, da die Kamera das vom Untersuchungsgegenstand reflektierte Sonnenlicht<br />

aufzeichnet, und um ein bildgebendes Instrument, d.h. es wird ein zwei-dimensionales<br />

Abbild des betrachteten Gegenstandes erzeugt.<br />

3.2.1 Kurzer Rückblick<br />

§ 297 Die ersten auf Raumfahrzeugen eingesetzten <strong>Erdfernerkundung</strong>sinstrumente waren<br />

allerdings rudimentäre Videokameras. Das erste Bild aus dem Orbit wurde, mit einer sehr<br />

schlechten Auflösung, 1959 vom US-Satelliten Explorer 6 [519] mit einer TV-Kamera aus<br />

einem Hohlspiegel und einem Phototransistor [595] aufgenommen: die Rotation des spinstabilisierten<br />

Explorer lieferte einen Scan senkrecht zur Flugrichtung (entsprechend einer<br />

Zeile eines Fernsehbildes), die Bewegung entlang seiner Bahn lieferte die einzelnen Zeilen.<br />

Die Übertragung dieses ersten Fernsehbildes dauerte nahezu 40 min. Das erste Farbbild aus<br />

dem Orbit war ebenfalls eine Video-Aufnahme, 1967 vom sowjetischen Molniya 1 Satelliten<br />

gemacht.<br />

§ 298 Der Großteil der frühen Erdaufnahmen ist wurde jedoch konventionell mit Kamera<br />

und Film gemacht: im August 1960 gelang es dem Satelliten Discoverer 14 (CORONA<br />

[632, 722], militärische Aufklärungssatelliten der USA) erstmals einen im Orbit belichteten<br />

Film erfolgreich zur Erde zurück zu senden – der Film wurde in der Luft abgefangen, ein<br />

Resultat ist in Abb. 3.10 gezeigt. Während der folgenden 12 Jahre, bis März 1972, wurden 95<br />

weitere CORONA Missionen geflogen. Dieses Konzept der Filmrückführung wurde erste 1976<br />

mit den KH-Satelliten (KeyHole [633, 718, 752, 753, 754]) zu Gunsten opto-elektronischer<br />

Aufnahmetechniken aufgegeben, die alten militärischen Aufnahmen wurden Mitte der Neunziger<br />

Jahre deklassifiziert, 10 so dass sie jetzt auch zivilen Nutzern zur Verfügung stehen und<br />

damit den Zeitraum kontinuierlicher Erdbeobachtung um mehr als eine Dekade rückwärts<br />

verlegen.<br />

§ 299 Der erste Photosatellit der UdSSR, Zenit, wurde 1962 gestartet und trug ein bei<br />

VEB Carl–Zeiss-Jena gebautes Instrument, die MKF-6 (Multi-Kanal-Fotografie-6 [286, 288],<br />

siehe Abb. 3.11), das das Grundprinzip der modernen <strong>Erdfernerkundung</strong> prägen wird: eine<br />

Multispektralkamera aus sechs, in einem 2 mal 3 Raster montierten Einzelkameras, die mit<br />

unterschiedlichen Filtern im Spektralbereich von 0.45–0.9 µm, d.h. bis ins nahe IR hinein,<br />

ausgestattet jeweils die gleiche Szene aufnehmen. Diese Kameras wurden auch auf bemannten<br />

10 Nähere Informationen und Beispielbilder unter [633, 706, 711, 718, 752, 753, 754], andere Beispiele und<br />

eine Diskussion militärischer Aufklärung, inkl. U-2, unter [609, 758].<br />

c○ M.-B. Kallenrode 2. Juli 2008


94 KAPITEL 3. SATELLITENINSTRUMENTE<br />

Abbildung 3.12: TIROS<br />

Modell und frühe Video-<br />

Aufnahme von TIROS I<br />

aus<br />

Abbildung 3.11: MKF-6<br />

Kamera auf Interkosmos<br />

Missionen und von Flugzeugen eingesetzt. Und die mit der MKF-6 gewonnenen Erfahrungen<br />

haben uns auch die 3D-Bilder von Mars Express [293, 340] beschert [339].<br />

§ 300 Konventionelle Filmaufnahmen haben den Nachteil der erforderlichen Rückführung<br />

des Filmmaterials. Daher wurde, trotz deutlich reduzierter Qualität der Aufnahmen, bereits<br />

Mitte der Sechziger Jahre mit der Verwendung von Video-Kameras experimentiert, z.B. aus<br />

den meteorologischen Satelliten der TIROS-Serie ([588, 590], erster Start 1960, Satellit und<br />

ein Beispiel in Abb. 3.12), auf den ersten LandSats (ab 1972 [534, 535, 536, 565, 566, 567])<br />

sowie auf ESSA (ab 1966, [506, 517]), DMSP (ab 1965, [511, 601]) und Meteor (ab 1969,<br />

[512, 548]).<br />

§ 301 Den Durchbruch in der Datenaufnahme brachten die CCDs, die die Entwicklung fortschrittlicher<br />

Scanner ebenso wie der Multispektralverfahren erlaubten. Die ersten auf der<br />

Basis dieser Technologie eingesetzten Instrumente wurden auf Flugzeugen eingesetzt, ihre<br />

Weiterentwicklung, der MSS [552, 553, 554, 555, 556], wurde mit Beginn der LandSat-Serie<br />

1972 auch auf Satelliten geflogen. Aus diesem Urmodell sind viele Weiterentwicklungen entstanden,<br />

von denen wir einige weiter unten genauer betrachten werden. Der LandSat Multispektralscanner<br />

MSS ist für Langzeituntersuchungen im Rahmen des global change bzw. cli-<br />

Abbildung 3.13: Moderne<br />

Fernerkundungssatelliten:<br />

LandSat 7 (links) und<br />

TIROS N (rechts)<br />

2. Juli 2008 c○ M.-B. Kallenrode


3.2. PASSIVE INSTRUMENTE IM SICHTBAREN SPEKTRUM 95<br />

Abbildung 3.14: Farbmischprojektor:<br />

Rekonstruktion eines Farb- oder<br />

FalschfarbenbildesFalschfarbenbild<br />

aus mehreren mit unterschiedlichen<br />

Filtern belichteten S/W-Filmen – ok,<br />

die optischen Achsen sollten vielleicht<br />

auf einen gemeinsamen Bezugspunkt<br />

ausgerichtet sein<br />

mate change von so großer Bedeutung, dass LandSat 5 [538] als der letzte einen MSS tragende<br />

LandSat nach über 20 Dienstjahren immer noch aktiv ist. Bis vor wenigen Jahren wurde sogar<br />

LandSat 4 noch als Reserveeinheit für LandSat 5 im gebrauchsfähigen Zustand gehalten.<br />

Zur Zeit wird über Landsat Data Continuity Mission LDCM diskutiert [424, 708, 709].<br />

§ 302 Aber allen Unkenrufen zum Trotz scheint der konventionelle Film auch in der <strong>Erdfernerkundung</strong>s<br />

zwar in eine Nische gedrängt zu werden aber nicht zu verschwinden. Die<br />

russische Resurs-Serie (siehe auch Tab. 3.3, [370], ab 1989 [563] bis mindestens 1999 [564])<br />

trägt mit der KFA-1000 (dargestellt z.B. in [81]) wieder ein konventionelles photographisches<br />

System – was sich im Vergleich mit den digitalen Systemen recht wacker schlägt [110].<br />

3.2.2 Kameratypen<br />

§ 303 Ein konventionelles photographisches System besteht aus einer Kamera mit einem<br />

Objektiv und einer photographischen Emulsion. Die Eigenschaften dieses Systems werden<br />

durch die Art der Kamera, die Abbildungseigenschaften des Objektivs und die Eigenschaften<br />

der photographischen Emulsion beschrieben.<br />

§ 304 Kameras lassen sich einteilen in Einzelobjektivkameras, mehrlinsige Kameras (Multispektralkameras,<br />

MFK-6 in Abb. 3.11 ist ein frühes Beispiel), Streifenkameras und Panoramakameras.<br />

Bei der Einzelobjektivkamera handelt es sich um einen ganz normalen Photoapparat<br />

mit eben einem Objektiv. Um ein gutes Bodenauflösungsvermögen zu erreichen,<br />

werden meistens größere Negativformate als in der konventionellen Photographie verwendet<br />

mit Filmbreiten bis zu 19 cm [133, 254], verglichen mit den 2.4 cm eines konventionellen<br />

Rollfilms. Derartige Kameras werden vielfach als Handkameras bei bemannten Missionen<br />

(Gemini, SkyLab, Spacelab, Space Shuttle) verwendet, auf dem Space Shuttle hat sich eine<br />

modifizierte Hasselblad-Mittelformatkamera mit 6 cm Negativformat durchgesetzt – auch die<br />

Aufnahme von Fessan in Abb. 1.1 ist mit einer Hasselblad gemacht.<br />

§ 305 Die mehrlinsige Kamera wird auch als Multispektralkamera bezeichnet. Sie besteht aus<br />

mehreren, miteinander gekoppelten identischen Kameras, die gleichzeitig ausgelöst werden.<br />

Jedes der Objektive hat den gleichen Blickwinkel, die gleiche Brennweite und beobachtet<br />

das gleiche Gebiet – eine Anordnung ist die 2 × 3-Matrix der MFK-6 wie in Abb. 3.11. Jedes<br />

Objektiv ist mit einem anderen Filter versehen, so dass gleichzeitig Aufnahmen eines Gebietes<br />

in verschiedenen Bereichen des elektromagnetischen Spektrums gemacht werden – im Prinzip<br />

erhält man die einzelnen Schichten eines Farbfilms. Je nach Filter können in den einzelnen<br />

Kameras der Multispektralkamera auch unterschiedliche Filmmaterialien verwendet werden.<br />

Anstelle eines einzigen Farb- oder Schwarz-Weiß-Films erhält man auf diese Weise Schwarz-<br />

Weiß-Filme, die sich in Grauton und Dichte je nach Intensität der einzelnen Spektralbereiche<br />

unterschieden.<br />

§ 306 Der entscheidende Vorteil der Multispektralkamera gegenüber einer einlinsigen Kamera<br />

mit einem Farbfilm liegt in der photographischen Emulsion: Schwarz-Weiß-Filme sind<br />

c○ M.-B. Kallenrode 2. Juli 2008


96 KAPITEL 3. SATELLITENINSTRUMENTE<br />

empfindlicher und feiner als Farbfilme, was zu einem besseren Auflösungsvermögen und Kontrast<br />

führt. Die Farbinformation wird durch die verschiedenen Filter vor den einzelnen Kameras<br />

erzeugt. Zusätzlich haben diese Kameras den Vorteil, dass sie bei entsprechenden Filtern<br />

auch in Wellenlängenbereichen sehen können, in denen das menschliche Auge nicht empfindlich<br />

ist (nahes Infrarot), und dass Wellenlängen, die stark dunstempfindlich sind (blau),<br />

beim späteren Zusammenmischen weg gelassen werden können. Dadurch wirkt sich die atmosphärische<br />

Streuung nicht so negativ auf das Auflösungsvermögen aus, für Beispiele siehe<br />

z.B. [209], ebenso Abb. 3.16 und 3.47 sowie Abschn. 7.1.6.<br />

§ 307 Die Multispektralkamera ist in der Analog-Photographie das Äquivalent der modernen<br />

Multispektralscanner: beide eröffnen gegenüber dem panchromatischen bzw. dem Farbfilm<br />

die Möglichkeit, die Wellenlänge als zusätzliche Dimension im Parameterraum einzuführen.<br />

Und insbesondere der Vergleich verschiedener Wellenlängen ermöglicht, wie bei der konventionellen<br />

Spektroskopie, eine genaue(re) Identifikation des betrachteten Objekts.<br />

§ 308 Das Original lässt sich aus diesen Bildern durch die Verwendung eines Farbmischprojektors<br />

rekonstruieren (siehe Abb. 3.14). Die auf diese Weise zusammengemischten Bilder<br />

können in den ‘echten’ Farben erzeugt werden oder je nach Kombination von Filmen und<br />

Filtern auch als Falschfarbenbilder. Letztere Methode kann zur besseren Darstellung relativ<br />

geringer Kontraste oder zur Darstellung des Infrarotanteils verwendet werden.<br />

§ 309 Die Streifenkamera wird nur in der militärischen Aufklärung verwendet. Hier bleibt<br />

der Verschluss der Kamera offen und der Film wird mit hoher Geschwindigkeit bewegt. Im<br />

Prinzip ist die Streifenkamera die Vorwegnahme der Kehrbesentechnik mit analogen Mitteln.<br />

§ 310 Bei der Panoramakamera ist das Objektiv beweglich oder einem starren Objektiv<br />

ist ein bewegliches Prisma vorgesetzt, wodurch das Blickfeld des Satelliten in Streifen, die<br />

senkrecht zur Flugrichtung liegen, abgetastet wird. Der Nachteil dieses Verfahrens ist die<br />

Verzerrung zu den Seiten dieser Streifen, der Vorteil liegt in der schnellen Abtastung großer<br />

Flächen (normalerweise wird nur ein relativ schmaler Streifen, die Swath Width, entlang der<br />

Bodenspur von der Kamera eingesehen).<br />

3.2.3 Abbildung durch Objektive<br />

§ 311 Photographische Objektive sind aus mehreren Linsen aufgebaut, da (a) eine einzelne<br />

Linse zu dick wäre und (b) auf diese Weise Linsenfehler und chromatische Effekte verringert<br />

werden können. Die Abbildung lässt sich durch die Linsengleichung beschreiben.<br />

§ 312 Mit f als der Brennweite der Linse, g als dem Abstand zwischen Objekt und Linse<br />

(Gegenstandsweite, entspricht der Flughöhe h) und b als dem Abstand zwischen Linse und<br />

Filmebene (Bildweite) gilt<br />

1<br />

f<br />

1 1<br />

= +<br />

g b .<br />

Bei Satellitenbeobachtungen betragen die typischen Objektweiten g einige hundert Kilometer,<br />

während die Brennweiten und der Abstand Linse – Filmebene nur im Bereich von Zentimetern<br />

oder Dezimetern liegen. Dann gilt f ≈ b, d.h. der Abstand Linse – Filmebene ist gleich<br />

der Brennweite. Für das Verhältnis aus Gegenstandsgröße G und Bildgröße B (Abbildungsmaßstab)<br />

ergibt sich<br />

B b b<br />

= =<br />

G g h ,<br />

bzw. unter Berücksichtigung von f ≈ b<br />

B f<br />

= . (3.1)<br />

G h<br />

2. Juli 2008 c○ M.-B. Kallenrode


3.2. PASSIVE INSTRUMENTE IM SICHTBAREN SPEKTRUM 97<br />

Abbildung 3.15: Schwarz–<br />

Weiß-Film<br />

§ 313 Für den Abbildungsmaßstab, und damit auch für das Bodenauflösungsvermögen, ist<br />

daher bei vorgegebener Flughöhe die Brennweite von entscheidender Bedeutung. Für zivile<br />

Satellitenkameras liegen die Brennweiten im Bereich von 44 mm (Multispektralkamera<br />

UdSSR [254]) über 80 mm (NASA-Hasselblad, z.B. Apollo) und 305 mm (Zeiss-Kamera,<br />

SpaceLab [154, 748]) bis hin zu 450 mm (Earth Terrain Camera auf SkyLab [209]). Insbesondere<br />

im militärischen, heute aber auch im zivilen Bereich werden auch Objektive mit<br />

Brennweiten im Bereich von Metern verwendet (Spiegelobjektive). In Abhängigkeit von der<br />

Brennweite verändert sich der Öffnungswinkel der Objektive und damit die Fläche, die eingesehen<br />

werden kann. Für die oben gegebenen Beispiele liegen die Blickwinkel zwischen ca.<br />

135 ◦ und 45 ◦ ; mit verbesserter Bodenauflösung auch kleiner, siehe Tab. 3.3.<br />

§ 314 Das Blickfeld FB einer Satellitenkamera lässt sich aus (3.1) durch Ersetzen der Bildgröße<br />

B durch die Kantenlänge k des Films bestimmen<br />

FB =<br />

g · k<br />

f<br />

= h · k<br />

f<br />

.<br />

Für typische zivile Anwendungen liegen die Blickfelder in Bereichen zwischen 80 und 200 km<br />

bei den älteren Satelliten, in der Größenordnung von 30–50 km bei den modernen Kommerziellen,<br />

siehe auch Tab. 3.3.<br />

3.2.4 Aufzeichnung der Abbildung: photographische Emulsion<br />

§ 315 Die Aufzeichnung mit photographischen Emulsionen wird in der modernen <strong>Erdfernerkundung</strong><br />

von bemannten Stationen aus betrieben (Filmrückführung lässt sich einfach lösen),<br />

auf einigen Aufklärungssatelliten (KH-11) soll es mindestens bis zur Mitte der 1980er Jahre<br />

noch Filmmaterialen geben haben.<br />

Schwarz-Weiß-Film<br />

§ 316 Die wichtigste photographische Emulsion ist der Schwarz-Weiß-Film. Dieser besteht<br />

aus einer Gelantineschicht mit einer Dicke von ca. 100 µm, in die Silberhalogenidkörnchen<br />

(AgBr, auch AgJ oder AgCl) von einer Größe von 1 bis 10 µm eingebettet sind, siehe auch<br />

Abb. 3.15. Diese Schicht befindet sich auf einer Trägerschicht, die die mechanische Stabilität<br />

gewährleisten soll. Auftreffende elektromagnetische Strahlung bewirkt durch Ionisation des<br />

Br − (Photoeffekt) eine Aufspaltung in Silber- und Bromatome:<br />

Ag + Br − → Ag + 1<br />

2 Br2 .<br />

Normalerweise kehrt sich diese Reaktion von selbst wieder um. Wenn jedoch innerhalb eines<br />

Körnchens eine ausreichende Zahl von Silberatomen (typischerweise 4) geformt wurde, ist<br />

dieser Vorgang irreversibel und der Film enthält ein latentes Bild. Dieses latente Bild wird<br />

durch die Entwicklung fixiert (Negativ).<br />

§ 317 Da zur Auslösung der Reaktion das Photon eine Mindestenergie haben muss, gibt es<br />

auch eine maximale Wellenlänge, bis zu der ein Schwarz-Weiß-Film empfindlich ist. Diese<br />

liegt im Bereich von 0.4 bis 0.5 µm. Schwarz-Weiß-Filme sprechen daher auf den blauen,<br />

violetten und den UV-Teil des Spektrums an. Panchromatische Schwarz-Weiß-Filme werden<br />

besonders empfindlich gemacht, um auf den ganzen Bereich des sichtbaren Spektrums<br />

anzusprechen. Da der UV- und der Blauanteil stark dunstempfindlich sind, werden diese Wellenlängen<br />

häufig durch den Vorsatz eines Filters ausgeschaltet; Abb. 3.16 demonstriert das<br />

Verschwinden des Dunstschleiers in der rechten Aufnahme mit einem Infrarotfilm gegenüber<br />

c○ M.-B. Kallenrode 2. Juli 2008


98 KAPITEL 3. SATELLITENINSTRUMENTE<br />

Abbildung 3.16: Auf der Aufnahme Interlakens vom Niesen aus wird im panchromatischen<br />

Schwarz-Weiß-Film (links) die Dunststreuung deutlich; die Aufnahme mit einem Infrarotfilm<br />

(rechts) ist dagegen unbeeinträchtigt von Dunststreuung [104]<br />

Abbildung 3.17: Originalbild (oben)<br />

zerlegt in seine Schichten: rot (zweite<br />

Reihe), grün (dritte Reihe) und blau<br />

(unten)<br />

der im linken Teil gezeigten Aufnahme mit einem konventionellen Schwarz-Weiß-Film recht<br />

eindrücklich. Allerdings gibt es auch Filme, die gezielt für die UV-Photographie gedacht sind.<br />

Diese können nur bei sehr klarem Wetter und bei geringen Flughöhen eingesetzt werden. Ein<br />

Anwendungsbeispiel ist die Feststellung von Ölflecken auf Wasser.<br />

Verständnisfrage 22 Abbildung 3.16 ist recht eindrücklich – aber lässt sich das Ergebnis<br />

überhaupt auf eine Luftaufnahme bzw. auf eine Aufnahme vom Satelliten aus übertragen?<br />

Oder anders gefragt: ist die Dunsstreuung in 20 km horizontaler Luftsäule vergleichbar mit<br />

der in der vertikalen Luftsäule der Atmosphäre?<br />

§ 318 Die Abhängigkeit der Dunststreuung von der Wellenlänge kann man sich auch mit<br />

Hilfe eines einfachen Photos einer Digitalkamera veranschaulichen. Dazu zeigt Abb. 3.17 im<br />

oberen Teil eine Szene in natürlichen Farben. Darunter sind die drei Farbkanäle der Kamera<br />

getrennt dargestellt in der Reihenfolge rot, grün und blau. Im unteren Teilbild (blauer<br />

Kanal) wird die Dunststreuung besonders deutlich, insbesondere die Zunahme mit zunehmendem<br />

Abstand des Motivs. Im roten Kanal dagegen ist das Bild kaum durch Dunst beeinträchtigt:<br />

auch in größeren Entfernungen (bis zu den Berggipfeln im Hintergrund sind<br />

es ca. 50 km) zeigt sich keine durch Dunststreuung bedingte Verringerung des Kontrastes.<br />

Außerdem zeichnen sich die Wolken wesentlich deutlicher ab. Zu Zeiten der konventionellen<br />

Schwarz–Weiß-Photographie war man sich dieser Einflüsse sehr wohl bewusst und hat ein<br />

Gelbfilter verwendet, um die Dunststreuung zu unterdrücken.<br />

2. Juli 2008 c○ M.-B. Kallenrode


3.2. PASSIVE INSTRUMENTE IM SICHTBAREN SPEKTRUM 99<br />

Abbildung 3.18: Panchromatische Aufnahme (links) im Vergleich zur Aufnahme mit einem<br />

Infrarotfilm [209]<br />

Abbildung 3.19: Vegetation panchromatisch<br />

und im Infrarotfilm [154]<br />

§ 319 Beim Infrarotfilm wird die Filmempfindlichkeit bis in den infraroten Bereich ausgedehnt,<br />

allerdings bleibt der Film auch für den gesamten sichtbaren und den UV-Bereich<br />

empfindlich. Häufig wird daher der für atmosphärische Streuung besonders empfindliche<br />

kurzwellige Bereich durch Filter ausgeschaltet. Der Film zeigt dann in verschiedenen Grauabstufungen<br />

den Bereich von grün bis zum nahen Infrarot, die maximale Wellenlänge liegt<br />

im nahen Infrarot bei 0.9 µm. Die Verwendung eines Infrarotfilms eignet sich insbesondere<br />

für Vegetationsuntersuchungen aber auch zur Kontrastanreicherung zwischen Vegetation und<br />

anderen Strukturen: so ist im der panchromatischen Aufnahme im linken Teil von Abb. 3.18<br />

der Kontrast zwischen Landebahn und umgebenden Grasfläche nur gering während im Infrarotfilm<br />

auf der rechten Seite die Landebahn deutlich gegen das Gras abgehoben ist. Dafür<br />

ist Wald und Gras nicht so einfach zu unterscheiden wie auf dem panchromatischen Film –<br />

die Wahl des Films hängt also von der Fragestellung ab.<br />

§ 320 Aber nicht nur der Unterschied zwischen Vegetation und Landebahn wird im Infrarotfilm<br />

deutlicher, auch die Details der Vegetation. Während in der panchromatischen Aufnahme<br />

im linken Teil von Abb. 3.19 die Bäume alle gleich aussehen, zeigen sich im Infrarotfilm<br />

(rechtes Teilbild) deutliche Unterschiede zwischen den Pflanzen am Rand des Wäldchens<br />

und denen in dessen Zentrum, Zeichen für Unterschiede in der Pflanzengesundheit und/oder<br />

-ernährung.<br />

Farbfilm<br />

§ 321 Farbfilme bestehen im Gegensatz zum Schwarz–Weiß- oder Infrarotfilm nicht aus ei-<br />

c○ M.-B. Kallenrode 2. Juli 2008


100 KAPITEL 3. SATELLITENINSTRUMENTE<br />

Abbildung 3.20: Schichtstruktur eines<br />

Farbfilms<br />

Abbildung 3.21: Schichtstruktur<br />

eines IR-Farbfilms<br />

ner sondern aus drei oder mehr photosensitiven Schichten. Diese sind in unterschiedlichen<br />

Spektral- bzw. Farbbereichen empfindlich, vgl. Abb. 3.20. Die Schicht eines konventionellen<br />

Farbfilms sind, von oben nach unten, blauempfindlich (0.4–0.5 µm), grünempfindlich (0.5–<br />

0.6 µm) und rotempfindlich (0.6–0.7 µm). Da die rot- und grünempfindlichen Schichten auch<br />

für blaues Licht empfindlich sind, befindet sich hinter der blauempfindlichen Schicht ein<br />

Gelbfilter.<br />

§ 322 Nach der Entwicklung entstehen aus diesen Schichten die Komplementfarben. Wie<br />

beim Schwarz-Weiß-Film ist auch hier wieder die Schwärzungsdichte der einzelnen Negativschichten<br />

proportional der Intensität der einfallenden Strahlung. Durch die Belichtung<br />

mit weißem Licht auf photosensitives Papier lassen sich Positive erstellen.<br />

Nahes Infrarot: Falschfarbenaufnahme<br />

§ 323 Ein Spezialfall des Farbfilms ist der Infrarotfarbfilm. Bei ihm ist die obere photosensitive<br />

Schicht gegen Infrarot empfindlich und nicht, wie beim normalen Farbfilm, gegen Blau<br />

(vgl. Abb. 3.21). Die Schichten decken daher den Bereich vom nahen Infrarot bis Grün ab,<br />

der Blauanteil geht, wie auch beim Infrarotfilm, vollständig verloren. Der Gelbfilter muss<br />

daher vor der obersten Schicht des Filmes liegen.<br />

§ 324 Während beim normalen Farbfilm eine Wiedergabe in den normalen Farben erfolgen<br />

kann, ist dies beim Infrarotfilm nicht sinnvoll: zum einen fehlt der blaue Anteil, zum anderen<br />

ist die Information für den nicht sichtbaren Infrarotanteil vorhanden. Beim infrarotempfindlichen<br />

Schwarz-Weiß-Film entsteht dadurch kein Problem, da die Abbildung nur in Grautönen<br />

erfolgt. Beim Farbfilm bedient man sich einer willkürlichen Zuordnung der einzelnen Schichten<br />

zu Farben, so dass für jede der Schichten eine der drei Primärfarben Blau, Grün und Rot<br />

verwendet wird. Die Zuordnung zwischen diesen Farben und den Schichten ist willkürlich.<br />

Die gängige Zuordnung bildet den infraroten Teil rot ab. Damit muss für das sichtbare Rot<br />

2. Juli 2008 c○ M.-B. Kallenrode


3.2. PASSIVE INSTRUMENTE IM SICHTBAREN SPEKTRUM 101<br />

Abbildung 3.22: Vergleich einer Szene in konventioneller Farbaufnahme (links) und Falschfarbaufnahme<br />

(rechts) mit einem IR-Farbfilm [209]<br />

Abbildung 3.23: Aufnahme<br />

mit konventionellem CCD<br />

liefert RGB-Bild: Grauwerte<br />

in den drei Schichten Rot<br />

(links), Grün (Mitte) und<br />

Blau (rechts)<br />

eine andere Farbe gewählt werden, in der Regel Grün. Für den verbleibenden grünen Bereich<br />

wird das nicht mit aufgenommene Blau verwendet. die reihenfolge im spektrum wird<br />

bei dieser Darstellung nicht verändert, es werden nur alle Kanäle in den sichtbaren Bereich<br />

verschoben. Auf diese Weise wird ein Falschfarbenbild erzeugt.<br />

§ 325 Bei der konventionellen Zuordnung der Schichten in der Falschfarbendarstellung wird<br />

die Vegetation auf Grund ihres hohen spektralen Reflektionsvermögens im nahen IR rot<br />

abgebildet. Ein Beispiel für eine städtische Szene ist in Abb. 3.22 gezeigt. Dort zeichnet<br />

sich z.B. das Stadium in der Bildmitte im Falschfarbenbild wesentlich deutlicher ab als im<br />

normalen Farbbild.<br />

§ 326 Falschfarbenaufnahmen lassen sich im Zeitalter der digitalen Photographie am Rechner<br />

auf einfache Weise simulieren. Die normale CCD (siehe auch Abb. 3.40) hat entsprechend<br />

dem konventionellen Farbfilm Pixel, die in verschiedenen Wellenlängenbereichen empfindlich<br />

sind – und zwar wieder konventionell im RGB-Schema, d.h. Rot–Grün–Blau. Jede Szene<br />

erzeugt in den einzelnen Wellenlängenbereichen ein Helligkeitsmuster, wie im Beispiel in<br />

Abb. 3.23 gezeigt und bereits in Abb. 3.17 verwendet. Die konventionelle Zuordnung dieser<br />

Helligkeitsmuster zu den Farben liefert das unverfälschte Bild im linken Teil von Abb. 3.24;<br />

Abbildung 3.24: Die RGB-<br />

Schichten aus Abb. 3.23 sind<br />

auf konventionelle Reihenfolge<br />

sowie in der Reihenfolge<br />

GBR bzw. BRG gemischt<br />

(Technik siehe Abschn. 9.2)<br />

c○ M.-B. Kallenrode 2. Juli 2008


102 KAPITEL 3. SATELLITENINSTRUMENTE<br />

Abbildung 3.25: Spektrale Empfindlichkeit eines<br />

Farb- und eines Infrarotfarbfilmes zusammen<br />

mit der spektralen Abhängigkeit der atmosphärischen<br />

Streuung und des Reflektionsvermögens<br />

von Pflanzen [209]<br />

Permutationen der Schichten, d.h. Zuordnung der Helligkeitswerte zu jeweils einer anderen<br />

Schicht, liefern die nicht ganz farbgetreuen Varianten.<br />

3.2.5 Warum Falschfarben?<br />

§ 327 Sowohl bei den Schwarz–Weiß- als auch bei den Farbfilmen gibt es jeweils auch Varianten,<br />

die im nahen Infrarot empfindlich sind. Was ist nun das Interessante an diesem Bereich,<br />

der für das menschliche Auge nicht mehr wahrnehmbar ist, bzw. durch Falschfarbenbilder<br />

sichtbar gemacht werden muss? Bevor wir diesen Punkt diskutieren, sollten wir uns noch<br />

einmal klar machen, dass wir hier Sensoren besprechen, die die reflektierte Infrarotstrahlung<br />

der Sonne aufzeichnen, nicht aber um Sensoren, die das thermische Infrarot (d.h. die von<br />

terrestrischen Gegenständen abgegebene Wärmestrahlung) erkennen können.<br />

§ 328 Abbildung 3.25 zeigt dazu die spektrale Empfindlichkeit eines Farbfilms (A) bzw.<br />

eines Infrarotfarbfilms (B). Kurve (C) zeigt die Streuung in der Atmosphäre in Abhängigkeit<br />

von der Wellenlänge: Die Streuung ist am stärksten im blauen Licht (Dunststreuung), mit<br />

zunehmender Wellenlänge wirkt sich die atmosphärische Streuung immer weniger aus, so<br />

dass sich kontrastreichere Aufnahmen erzeugen lassen – das haben wir bereits Beispiel in<br />

Abb. 3.17 kennen gelernt.<br />

§ 329 Der zweite Vorteil der Verwendung des nahen Infrarot wird aus dem unteren Teil von<br />

Abb. 3.25 deutlich: Gerade beim Übergang vom sichtbaren zum infraroten Bereich ändern<br />

sich die Reflektionseigenschaften vieler Materialien sehr stark. Im Infraroten erzeugen Pflanzen<br />

ein relativ starkes Signal (wesentlich deutlicher als im sichtbaren Bereich, damit lässt<br />

2. Juli 2008 c○ M.-B. Kallenrode


3.2. PASSIVE INSTRUMENTE IM SICHTBAREN SPEKTRUM 103<br />

0.5 − 0.6 µm 0.6 − 0.7 µm 0.7 − 0.8 µm 0.8 − 1.1 µm<br />

Fels, Boden(bedeckung)<br />

Sand 5.19 4.32 3.46 6.71<br />

Lehm (1% Wasser) 6.70 6.79 6.10 14.01<br />

Lehm (20% Wasser) 4.21 4.02 3.38 7.57<br />

Eis 18.30 16.10 12.20 11.00<br />

Schnee 19.10 15.00 10.90 9.20<br />

Kultiviertes Land 3.27 2.39 1.58 ????<br />

Ton 14.34 14.40 11.99 ????<br />

Gneiss 7.02 6.54 5.37 10.70<br />

lockerer Boden 7.40 6.91 5.68 ????<br />

Vegetation<br />

Weizen (wenig gedüngt) 3.44 2.27 3.56 8.95<br />

Weizen (stark gedüngt) 3.69 2.58 3.67 9.29<br />

Wasser 3.75 2.24 1.20 1.89<br />

Gerste (gesund) 3.96 4.07 4.47 9.29<br />

Gerste (Mehltau) 4.42 4.07 5.16 11.60<br />

Hafer 4.02 2.25 3.50 9.64<br />

Hafer 3.21 2.20 3.27 9.46<br />

Soja (viel Wasser) 3.29 2.78 4.11 8.67<br />

Soja (wenig Wasser) 3.35 2.60 3.92 11.01<br />

Tabelle 3.2: Spektralabhängigkeit des Reflektionsvermögens für verschiedene Böden, Bodenbedeckungen<br />

und Pflanzen für die vier Bänder des Multi-Spectral-Scanners MSS; auf der<br />

Basis von [11]<br />

sich Vegetation leicht von Sand, Wasser oder Gegenständen unterscheiden). Da der infrarote<br />

Anteil rot abgebildet wird, erscheint Vegetation auf einem Falschfarbenbild rot.<br />

§ 330 Das Verhältnis von reflektierter Strahlung im sichtbaren Bereich zur reflektierten<br />

Strahlung im nahen Infrarot kann sogar verwendet werden, um verschiedene Vegetationsformen<br />

zu unterscheiden: so reflektiert ein Tannenwald im Infraroten nur etwas mehr als im<br />

roten Bereich, eine Birke bereits deutlich mehr und Gras reflektiert im roten Bereich nur sehr<br />

wenig Strahlung, im Infraroten dagegen sehr viel.<br />

§ 331 Tabelle 3.2 gibt eine Übersicht über die Reflektivität verschiedener Böden und Pflanzen<br />

in vier verschiedenen Frequenzbereichen. Die Angabe der Frequenzbereiche erfolgt in<br />

Übereinstimmung mit den vier Spektralbändern des Multi-Spectral-Sensor MSS auf ERTS-1<br />

(Earth Resources Technology Satellite - später auf LandSat 1 umgetauft). Da sich MSS so<br />

gut bewährt hat, haben auch viele moderne Instrumente diese Spektralbereiche.<br />

§ 332 Abbildung 3.26 zeigt zwei weitere Beispiele für das spektrale Reflektionsvermögen<br />

gesunder und kranker Pflanzen über einen weiten Frequenzbereich. Im oberen Teil der Abbildung<br />

sind für drei Frequenzbereich die Bestandteile der Pflanze angegeben, die die wesentlichen<br />

Anteile am reflektierten Licht beitragen. Während im sichtbaren Bereich die Pigmente<br />

und im langwelligen Bereich der Wassergehalt dominieren, ist im nahen IR die Zellstruktur<br />

maßgeblich. Die Hauptrolle spielt dabei das Mesophyll: Die Grenzschichten zwischen kleinen<br />

Luft- und Wasserbläschen in diesem Gewebe reflektieren das Infrarot besonders gut (vgl.<br />

Abschn. 3.7.2, insbesondere Abb. 3.85 und Abb. 3.86).<br />

§ 333 Aus dem Infrarotbild lässt sich eine Abschätzung über Wachstums- und Reifegrad<br />

bzw. über die Pflanzengesundheit ableiten: gestresste Pflanzen reflektieren weniger Infrarot,<br />

da sich der Wassergehalt in ihnen verringert hat und die internen Blattstrukturen verändert<br />

sind, vgl. z.B. [209]. Angewendet wird dieses Verfahren in der Waldschadensforschung ebenso<br />

wie in der Ernteüberwachung. Auch lassen sich Informationen über die in einem bestimmten<br />

c○ M.-B. Kallenrode 2. Juli 2008


104 KAPITEL 3. SATELLITENINSTRUMENTE<br />

Abbildung 3.26: Spektrales Reflektionsvermögen für gesunde und kranke Fichte (links) und<br />

(Buche) über einen weiten Frequenzbereich [134]<br />

Gebiet angebauten Pflanzen gewinnen. Diese Interpretationen sind jedoch relativ schwierig<br />

und erfordern hohe Genauigkeit. Satelliteninstrumente werden daher so kalibriert, dass Aufnahmen<br />

von großflächigen Monokulturen angefertigt werden und als Eichkurven dienen [133],<br />

vgl. Abschn. 3.7.2 und Abschn. 7.3.<br />

§ 334 So attraktiv dieses Verfahren für die Erforschung der Biosphäre auch ist, es ist immer<br />

noch ein großer Aufwand in der Forschung und <strong>Modellierung</strong> notwendig, um die Erkennung<br />

verschiedener Vegetationsformen und des Zustandes dieser Pflanzen auf große Datensätze<br />

anzuwenden. Insbesondere hängen die Reflektionseigenschaften der Pflanzen von den Beleuchtungsbedingungen<br />

(Sonnenstand, Wolken, spektrale Verteilung der Einstrahlung), dem<br />

Beobachtungsort (Hanglage, meteorologische und klimatische Bedingungen, Aerosole, Wasserdampfgehalt<br />

der Atmosphäre) und natürlich den Eigenschaften der Pflanzen ab (Form<br />

der Pflanzen, Dichte und Verteilung der Pflanzen, Untergrund, Temperatur, tageszeitliche<br />

Variationen). Probleme entstehen insbesondere bei stark durchmischter Vegetation und in<br />

Laubwäldern z.B. durch Wind, da Blätter in Abhängigkeit von ihrer Stellung völlig unterschiedliche<br />

Reflektionseigenschaften haben können (Extremfall der Pappel mit relativ dunkler<br />

grüner Oberfläche und fast silberner Blattunterseite).<br />

§ 335 Ein wichtiger Anstoß zur Entwicklung der Infrarotphotographie stammt natürlich mal<br />

wieder aus dem militärischen Bereich. Bei Luftaufnahmen im sichtbaren Bereich ist es schwierig,<br />

einen Panzer unter einem Tarnnetz von natürlicher Vegetation zu unterschieden. Im nahen<br />

Infrarot dagegen gibt sich der Panzer dadurch zu erkennen, dass sein Tarnnetz nicht wie für<br />

Vegetation typisch, ein hohes Reflektionsvermögen besitzt – außer die Blätter des Tarnnetzes<br />

sind gerade frisch gepflückt.<br />

§ 336 Abbildung 3.27 zeigt ein Beispiel für die Anwendung von Falschfarbenaufnahmen<br />

im Umweltmonitoring: die Abholzung des Amazonas. Rot sind die Waldflächen dargestellt,<br />

grünlich die Einschlagschneisen. Die linke Aufnahme stammt aus dem Jahre 1973 und zeigt<br />

im wesentlichen eine Schneise, wahrscheinlich einem Fluss oder einer anderen natürlichen<br />

Struktur folgend. Die rechte Aufnahme stammt aus dem Jahre 1987. Die Schneise von 1973<br />

ist noch als Referenz zu identifizieren, die rechtwinklig abzweigenden Schneisen sind eindeutig<br />

menschlichen Ursprungs und markieren Abholzung und Zugang zu Einschlag- und<br />

Rodungsbereichen.<br />

2. Juli 2008 c○ M.-B. Kallenrode


3.2. PASSIVE INSTRUMENTE IM SICHTBAREN SPEKTRUM 105<br />

Abbildung 3.27: Abholzung des Amazonas: rot sind Waldflächen, grün in den Wald geschlagene<br />

Schneisen. Die linke Aufnahme stammt von 1973, die rechte von 1987 [33]<br />

Abbildung 3.28: Zur<br />

Definition des Bodenauflösungsvermögens<br />

3.2.6 Charakterisierung eines photographischen Systems<br />

§ 337 Die Eigenschaften eines Photoapparates beschreibt man durch die Brennweite und<br />

Lichtstärke des Objektives, die Verschlussgeschwindigkeit und die Geschwindigkeit des Films.<br />

Für jede Aufnahmesituation kann man in Abhängigkeit von der Beleuchtung und dem Abstand<br />

zum Objektiv einige Eigenschaften der Aufnahme, wie Blickwinkel, Auflösungsvermögen<br />

und Kontrast, abschätzen. Im Prinzip könnte man die gleichen Kriterien auch bei einem<br />

Aufnahmesystem auf einem Satelliten verwenden. Da sich bei diesem aber der Abstand<br />

zum Objekt nicht ändert (Erderkundungssatelliten haben annähernd kreisförmige Bahnen)<br />

und die Lichtverhältnisse ebenfalls nahezu konstant sind (moderne Erderkundungssysteme<br />

überfliegen den Äqutor immer zur gleichen Zeit), ist es einfacher, die Systeme nach<br />

der Qualität der von ihnen erzeugten Bilder zu beurteilen. Dazu werden als Kenngrößen<br />

verwendet: das räumliche Auflösungsvermögen (Bodenauflösungsvermögen), das spektrale<br />

Auflösungsvermögen, das radiometrische Auflösungsvermögen, das thermische Auflösungsvermögen<br />

und das zeitliche Auflösungsvermögen.<br />

Bodenauflösungsvermögen<br />

§ 338 Das Bodenauflösungsvermögen bezeichnet die Fähigkeit eines Satelliteninstruments,<br />

einen auf der Erdoberfläche befindlichen Linientest aufzulösen (vgl. Abb. 3.28). Das Bodenauflösungsvermögen<br />

Rb ist nach (3.1) gegeben zu<br />

Rb = g<br />

=<br />

f · Rk<br />

h<br />

, (3.2)<br />

f · Rk<br />

worin Rk das Auflösungsvermögen des Systems Kamera-Film bezeichnet. Dieses setzt sich<br />

zusammen aus dem Auflösungsvermögen des Objektivs und dem der photographischen Emulsion.<br />

Letzteres wird in der Regel in Linienpaare/mm angegeben. Nach (3.2) wird das Bodenauflösungsvermögen<br />

auch durch die Flughöhe des Satelliten bestimmt. Ein Instrument<br />

von einem frühen LandSat (900 km Flughöhe) würde daher auf einen militärischen Späher<br />

c○ M.-B. Kallenrode 2. Juli 2008


106 KAPITEL 3. SATELLITENINSTRUMENTE<br />

Abbildung 3.29: Bodenauflösungsvermögen<br />

in Abhängigkeit von der<br />

Brennweite des Objektivs und dem<br />

Linienauflösungsvermögen des Systems<br />

Kamera–Film [28]<br />

Abbildung 3.30: Winkelauflösungsvermögen<br />

[16]<br />

(Flughöhe von 180 km) ein um einen Faktor 5 besseres Bodenauflösungsvermögen haben. Das<br />

Bodenauflösungsvermögen wird auch als IFOV (Instantaneous Field of View) bezeichnet. Dies<br />

entspricht bei Scannern der Kantenlänge der Fläche, die auf genau ein Pixel (Bildelement)<br />

des Bildes abgebildet wird.<br />

§ 339 Das Bodenauflösungsvermögen ist in Abb. 3.29 für einen in einer Höhe von 150 km<br />

fliegenden Satelliten in Abhängigkeit vom Auflösungsvermögen des Systems Kamera–Film<br />

und von der Brennweite des Objektivs angegeben. Die Abschätzung für das Bodenauflösungsvermögen<br />

ist insofern optimistisch, als dass (a) die Flughöhe des Satelliten militärisch zu<br />

niedrig ist und (b) bei den sehr langen Brennweiten die Beugung das Auflösungsvermögen<br />

begrenzt.<br />

§ 340 Diese Beugung bestimmt auch das Auflösungsvermögen des Objektivs, welches in das<br />

Rk in (3.2) eingeht. Das Winkelauflösungsvermögen θ des Objektivs ist:<br />

θ = a<br />

f<br />

= λ<br />

D<br />

(3.3)<br />

mit a als der in der Brennweite f aufgelösten Distanz, λ der Wellenlänge des Lichts und D<br />

dem Öffnungsdurchmesser des Objektivs. Dieser Abstand a auf der Filmebene kann nicht<br />

beliebig klein gemacht werden, da durch Beugung aus Punkten Beugungsscheibchen werden<br />

und der Mindestabstand zur Auflösung zweier benachbarter Punkte größer sein muss als der<br />

Durchmesser dieser Beugungsscheibchen (vgl. Abb. 3.30). λ ist vorgegeben, da wir im sichtbaren<br />

Bereich arbeiten. Dann bestimmt die Blendenöffnung D das Winkelauflösungsvermögen.<br />

§ 341 Im Falle von Satelliten kann der Öffnungsdurchmesser D des Objektivs nicht beliebig<br />

groß gemacht werden, da einerseits die Baugröße durch den Satelliten eingeschränkt wird und<br />

andererseits die einfallende Lichtmenge reduziert werden muss. Bei einem mittleren λ von<br />

5·10 −5 cm ergibt sich für eine Blendenöffnung von 1 cm (5 cm, 20 cm, 1 m) und eine Brennweite<br />

2. Juli 2008 c○ M.-B. Kallenrode


3.2. PASSIVE INSTRUMENTE IM SICHTBAREN SPEKTRUM 107<br />

Abbildung 3.31: Einfluss des Winkelauflösungsvermögens<br />

[134], die Abszisse<br />

ist einmal für sichtbares Licht<br />

(λ = 0.5 µm), einmal für IR (λ =<br />

5 mum) skaliert. Auf das geringere<br />

Auflösungsvermögen im thermischen<br />

IR werden wir noch häufiger zurück<br />

kommen<br />

von 100 mm nach (3.3) in der Filmebene ein Durchmesser der Beugungsscheibchen von<br />

5 · 10 −4 cm (1 · 10 −4 ; 2.5 · 10 −5 ; 5 · 10 −6 cm). Die letzten Werte liegen ungefähr in der Größe<br />

der Körnchen in einer photographischen Emulsion.<br />

§ 342 Ist die Blendenöffnung sehr eng oder die Brennweite sehr groß, so kann der Durchmesser<br />

des Beugungsscheibchens den Durchmesser der Körnchen bei weitem übertreffen,<br />

d.h. das Objektiv und nicht die Körnigkeit des Films begrenzen das Auflösungsvermögen.<br />

Bei geringen Brennweiten oder großen Blendenöffnungen dagegen kann der Durchmesser des<br />

Beugungsscheibchens in der Größenordnung der Körnchengröße des Films oder noch darunter<br />

liegen, so dass in diesem Falle die Eigenschaften der photographischen Emulsion den<br />

größeren Einfluss auf das Bodenauflösungsvermögen haben. Abbildung 3.31 gibt das durch<br />

das Winkelauflösungsvermögen entstehende Bodenauflösungsvermögen in Abhängigkeit von<br />

der Apertur und der Flughöhe des Satelliten.<br />

§ 343 Objektive zur photographischen Aufklärung sollten also einerseits eine große Brennweite<br />

haben, um ein möglichst gutes Bodenauflösungsvermögen zu erreichen. Andererseits<br />

ist die Brennweite aber auch begrenzt durch die Beugung und die große Länge und Masse<br />

von aus Linsen zusammengesetzten langbrennweitigen Objektiven. Lange Brennweiten werden<br />

daher durch die Verwendung von Spiegelobjektiven 11 realisiert, wobei die Baulänge bis<br />

auf 1/5 der Brennweite verringert werden kann [254]. Spiegelobjektve haben zusätzlich den<br />

Vorteil, dass sie weniger lichtstark sind. Daher muss ihr Öffnungsdurchmesser gegenüber dem<br />

eines Linsenobjektivs vergrößert werden, was die Einflüsse der Beugung verringert.<br />

§ 344 Auch die photographische Emulsion trägt zum Auflösungsvermögen des Systems Kamera-Film<br />

bei. Verschiedene Faktoren definieren deren Auflösungsvermögen: zum einen das<br />

räumliche Auflösungsvermögen der Emulsion, d.h. die Größe der Silberkörnchen in einem<br />

Schwarz–Weiß-Film, zum anderen die Geschwindigkeit und der Kontrast des Filmes. Beide<br />

Größen sind, wenn auch mit anderen Bezeichnungen, auch für die elektronische Aufzeichnung<br />

relevant: die Größe des Pixels der CCD ebenso wie dessen Ansprechvermögen.<br />

§ 345 Unter der Geschwindigkeit eines Films versteht man die Zeit, die der Film einer vorgegebenen<br />

Strahlung ausgesetzt sein muß, um eine ausreichende Bildung von latenten Bildern<br />

zu erreichen. Abbildung 3.32 zeigt die charakteristische Kurve, die den Zusammenhang zwischen<br />

der Belichtung und der Schwärzung des Films angibt: ist die Belichtung zu gering,<br />

so gibt es kein Signal. In einem linearen Bereich ist die Schwärzung der Belichtung proportional,<br />

für stärkere Belichtung dagegen kommt es zu einer Sättigung. Die charakteristischen<br />

Kurven hängen von der Geschwindigkeit des Filmes ab, sowohl die Lage der Kurven, d.h.<br />

der Einsatzpunkt eines Signals und der Beginn der Sättigung, als auch der Bereich, in dem<br />

die Kurve linear ansteigt und die Steigung in diesem Bereich. Ist die Belichtung so stark,<br />

dass die Sättigung erreicht ist, so verringert sich das Auflösungsvermögen der Emulsion, da<br />

11 Das heißt eigentlich nur: Hubble Space Telescope, aber eben mit Blick in Richtung Erde. Das erklärt<br />

auch, warum die modernen Späher so groß sind.<br />

c○ M.-B. Kallenrode 2. Juli 2008


108 KAPITEL 3. SATELLITENINSTRUMENTE<br />

Abbildung 3.32: Charakteristische Kurve eines<br />

Films [129]<br />

die einzelnen Körnchen auswaschen und zusammenwachsen. Außerdem werden Objekte unterschiedlicher<br />

Helligkeit, die aber alle hell genug sind, um eine Schwärzung innerhalb der<br />

Sättigung zu bewirken, nicht mehr voneinander getrennt. Während ersteres bei der CCD<br />

nicht ganz so relevant ist, tritt letzteres auch bei elektronischer Signalverarbeitung auf.<br />

§ 346 Der Kontrast beschreibt die Reaktion des Filmes auf unterschiedliche Belichtungen.<br />

Er kann ebenfalls mit Hilfe der charakteristischen Kurve verstanden werden. Wenn die Belichtung<br />

außerhalb des linearen Bereiches liegt, so bewirken signifikante Unterschiede in der<br />

Belichtung kaum Unterschiede in der Schwärzung, d.h. für den Kontrast ist es wichtig, dass<br />

ein Film geeigneter Geschwindigkeit gewählt wird. Je nach Steigung der charakteristischen<br />

Kurve im linearen Bereich ist der Film mehr oder weniger gegen leichte Unterschiede in<br />

der Helligkeit der betrachteten Objekte empfindlich. Andererseits reagiert ein empfindlicher<br />

Film sehr empfindlich gegen zu kurze oder lange Belichtungszeiten, d.h. der Spielraum bei<br />

der Belichtung wird klein.<br />

§ 347 Das räumliche Auflösungsvermögen der Emulsion wird durch die bereits oben erwähnte<br />

Korngröße eines Films gegeben, diese liegt zwischen 1 und 10 µm bzw. 40 Linien/mm<br />

bis 100 Linien/mm [198], bei feineren Filmen bis 200 Linien/mm [28]. Dieses räumliche<br />

Auflösungsvermögen ist mit der Geschwindigkeit des Films gekoppelt: Sind die Körner groß,<br />

so ist die Auflösungsvermögen klein und es werden nur wenige Photonen benötigt, um eine<br />

Schwärzung zu bewirken, der Film ist also schnell. Je feiner die Körner sind, umso langsamer<br />

wird der Film, wobei aber das räumliche Auflösungsvermögen besser wird. Zum Vergleich:<br />

für ein Standardobjektiv (Brennweite 105 mm, Öffnung 5 cm) beträgt das durch die Beugung<br />

bedingte maximale Auflösungsvermögen 300 Linien/mm, d.h. bei einem derartigen Objektiv<br />

begrenzt der Film die Auflösung [198].<br />

§ 348 Beispiele für das Bodenauflösungsvermögen von photographischen Satellitensysteme<br />

gab es lange Zeit nur aus dem zivilen Bereich, für den militärischen Bereich gibt es eine<br />

Vielzahl von Gerüchten und Vermutungen – einiges hat sich heute durch die Deklassifizierung<br />

militärischer Aufnahmen überprüfen lassen (vgl. Abschn. 3.2.1). Sehr konventionelle,<br />

von Hand bediente Kameras wurden z.B. auf SkyLab verwendet, einem zeitweise bemannten<br />

Observatorium in einer Höhe von 435 km. Verwendet wurde eine Multispektralkamera aus 6<br />

Einzelkameras mit unterschiedlichen Filmen und Filtern für Wellenlängen zwischen 0.4 und<br />

0.9 µm. Mit einer Objektivbrennweite von 152 mm und einer Kantenlänge der Filme von<br />

70 mm ergab sich ein Blickfeld von 163 x 163 km und eine Bodenauflösung zwischen 60 und<br />

145 m [209]. Eine weitere Kamera (Earth Terrain Camera) mit einer Brennweite von 457 mm<br />

und einem Blickfeld von 109 x 109 km wurde mit verschiedenen Filmen (Farbe, Schwarzweiß,<br />

IR - Schwarzweiß) betrieben und erreichte je nach Film ein Bodenauflösungsvermögen von<br />

2. Juli 2008 c○ M.-B. Kallenrode


3.2. PASSIVE INSTRUMENTE IM SICHTBAREN SPEKTRUM 109<br />

Abbildung 3.33: SPOT Aufnahme von Canberra [679]<br />

15 m bis 30 m. Mit den Scannern auf den etwas älteren Erdbeobachtungssatelliten (z.B.<br />

SPOT und LandSat) lassen sich aus einer Höhe von 900 km Bodenauflösungsvermögen zwischen<br />

10 m und 80 m erreichen. Kommerzielle Systeme wie Ikonos oder SPOT 5 (als Beispiel<br />

der Blick auf Canberra in Abb. 3.33) liefern Bodenauflösungsvermögen von ca. 1 m, wobei<br />

das hohe Bodenauflösungsvermögen im panchromatischen Modus erreicht wird, die Farbbilder<br />

meist ein um einen Faktor 3 bis 4 geringeres Auflösungsvermögen haben; QuickBird<br />

schafft auf Grund seiner geringeren Flughöhe ein Bodenauflösungsvermögen von 0.65 m (siehe<br />

auch Abb. 1.11). Die auf CDs oder von Google Earth vertriebenen Ikonos-Bilder sind häufig<br />

Kombinationen aus panchromatischen und mehrfarbigen Bildern: erstere werden verwendet,<br />

um die letzteren in ihrer Auflösung zu verbessern.<br />

§ 349 Die neuesten Entwicklungen (in der Regel wohl Scanner und nicht unbedingt photographische<br />

Emulsionen) erlauben deutlich bessere Auflösungsvermögen, vgl. Abb. 3.34. Im<br />

militärischen Bereich scheint man damit unter die 10 cm Grenze zu kommen; das Lesen der<br />

Schlagzeile der Bildzeitung aus dem Orbit wird damit vielleicht bald möglich werden – ob es<br />

sinnvoll ist, ist eine andere Frage.<br />

§ 350 Tabelle 3.3 fasst noch einmal die bereits in Abb. 3.34 dargestellten Auflösungsvermögen<br />

der wichtigsten zivilen Satelliteninstrumente im sichtbaren Bereich zusammen. Außerdem<br />

gibt die Tabelle die Informationen über die Breite des Bildausschnitts (Swath Width) sowie<br />

die Datenrate: mit zunehmendem Bodenauflösungsvermögen wird einerseits das Blickfeld<br />

immer enger, anderererseits die Datenrate immer höher.<br />

Zwischenrechnung 11 Wieviele Orbits benötigt Ikonos-2, um die Erdoberfläche vollständig<br />

(oder genauer bis zu der seiner Inklination entsprechenden geographischen Breite) abzuscannen.<br />

Wie lange dauert dies bei 15 Orbits pro Tag?<br />

c○ M.-B. Kallenrode 2. Juli 2008


110 KAPITEL 3. SATELLITENINSTRUMENTE<br />

Abbildung 3.34: Mit<br />

verschiedenen Systemen<br />

erreichbares Bodenauflösungsvermögen<br />

[134]<br />

Tabelle 3.3: Bodenauflösungsvermögen einiger wichtiger Imager zur Erdbeobachtung sowie<br />

die damit verbundene Datenrate [134]<br />

Verständnisfrage 23 Viele <strong>Erdfernerkundung</strong>ssatelliten fliegen in sonnensynchronen Orbits.<br />

Können die Satelliten aus Tab. 3.3 aus einem sonnensynchronen Orbit Bilder von den<br />

Polen liefern? Oder welche Eigenschaften müssen die Orbits und/oder Instrumente haben?<br />

Spektrales Auflösungsvermögen<br />

§ 351 Das spektrale Auflösungsvermögen bezeichnet die Fähigkeit des Systems, Wellenlängenbereiche<br />

zu trennen. Bei einer Multispektralkamera z.B. werden drei bis sechs relativ breite<br />

Wellenlängenbereiche getrennt. Die spektrale Auflösung ist für die ersten, im wesentlichen<br />

auf Kartographie und militärische Aufklärung ausgelegten Systeme, von untergeordneter,<br />

aber, wie die frühe Entwicklung der Multispektralkameras zeigt, nicht zu vernachlässigender<br />

Bedeutung gewesen. Heutige moderne Systeme versuchen, auch die spektrale Auflösung zu<br />

verfeinern. Beim High-Resolution Imaging Spectrometer HIRIS (siehe auch § 553) z.B. wird<br />

eine spektrale Auflösung des Wellenlängenbereiches 0.4 bis 2.5µm (sichtbares Licht bis mittleres<br />

Infrarot) in 200 Kanäle angestrebt [10].<br />

§ 352 Die Motivation für ein sehr gutes spektrales Auflösungsvermögen ist im Prinzip die<br />

gleiche, wie die zur Verwendung des nahen Infrarot: verschiedene Materialien haben eine wellenlängenabhängige<br />

Reflektivität (vgl. Abb. 3.25 und Tabelle 3.2). Objekte, die in einer Farboder<br />

Schwarzweißaufnahme sehr ähnlich aussehen, können bei stark verfeinerter Spektral-<br />

2. Juli 2008 c○ M.-B. Kallenrode


3.2. PASSIVE INSTRUMENTE IM SICHTBAREN SPEKTRUM 111<br />

analyse aber deutlich unterschieden werden. Dadurch lassen sich unter anderem verschiedene<br />

Pflanzenspezies besser unterscheiden und es lassen sich sogar deren physiologische Parameter<br />

wie Alter und Feuchtigkeitsgehalt bestimmen (vgl. einige der Artikel in [60]). Letztendlich<br />

möchte man mit derartigen Instrumenten Spektroskopie in der Form betreiben, wie man es<br />

vom Labor gewohnt ist.<br />

Thermisches Auflösungsvermögen<br />

§ 353 Das thermische Auflösungsvermögen ist für die Infrarotsensoren von Bedeutung, die im<br />

Bereich des thermalen Infrarot arbeiten, d.h. die von einem Körper emittierte Wärmestrahlung<br />

betrachten. Hierbei handelt es sich eigentlich nur um eine andere Formulierung für ein spektrales<br />

Auflösungsvermögen, siehe Abschn. 3.3.1.<br />

Radiometrisches Auflösungsvermögen<br />

§ 354 Das radiometrische Auflösungsvermögen bezeichnet die Fähigkeit, Helligkeitswerte<br />

zu unterscheiden. Bei schlechter radiometrischer Auflösung verringert sich auch das Bodenauflösungsvermögen,<br />

insbesondere wenn die beobachteten Objekte nicht sehr kontrastreich<br />

sind, vgl. Abb. 7.4. Kontrastanreicherung bei der Weiterverarbeitung kann zwar einen<br />

Teil dieser Ungenauigkeiten wieder ausgleichen, ist aber zur vollständigen Kompensation<br />

nicht ausreichend, vgl. Abschn. 7.2.1. Man kann sich die Bedeutung des Kontrastes für das<br />

Auflösungsvermögen einfach veranschaulichen, Sabins [209] gibt Testtafeln, die den Einfluss<br />

des Kontrastes auf das Auflösungsvermögen des Auges demonstrieren. Das radiometrische<br />

Auflösungsvermögen (bei Detektoren statt Filmen) wird in Bits angegeben, gängige Werte<br />

sind 7 Bit (128 Grauwerte, LandSat MSS) oder 8 Bit (256 Grauwerte, LandSat TM oder<br />

SPOT-HRV; eigentlich alle modernen Instrumente sowie die Standard CCD in der Digitalkamera<br />

arbeiten mit 8 Bit pro Spektralkanal).<br />

Zeitliches Auflösungsvermögen<br />

§ 355 Das zeitliche Auflösungsvermögen bezeichnet die Wiederholfrequenz, d.h. die Zeit<br />

die zwischen zwei aufeinanderfolgenden Aufnahmen eines bestimmten Gebietes vergeht. Auf<br />

Grund der großen Eigengeschwindigkeit von Satelliten ist das zeitliche Auflösungsvermögen,<br />

außer bei geostationären Satelliten, nicht durch die Kamera-Verschlusszeiten oder vorgegebene<br />

Wiederholzeiten gegeben, sondern durch die durch den Satellitenorbit bestimmte Zeit<br />

zwischen zwei aufeinanderfolgenden Flügen über ein bestimmtes Gebiet.<br />

§ 356 Oder für moderne Instrumente formuliert, die auch mal einen Blick zur Seite riskieren:<br />

die minimale Zeit die vergeht, bis ein bestimmtes Aufnahmegebiet wieder in die Reichweite<br />

eines Sensors kommt – und sei es durch Schwenken eines Spiegels wie bei SPOT, durch<br />

den Aufnahmefächer wie bei MISR [319, 465, 466] auf Terra [617] oder im Extremfall (der<br />

militärischen Aufklärung) durch Bahnmanöver. Irgendwozu müssen ja die 450 kg Hydrazin<br />

gut sein, die die offizielle Begründung für den Abschuss eines US-Spähers gegeben haben. 12<br />

Querverbindung 2 Angenommen, die 450 kg Hydrazin dienen wirklich der Überraschung<br />

des Gegners. Schätzen Sie ab, ie viele Manöver in welcher Größenordnung man mit dieser<br />

Treibstoffmenge ausführen könnte.<br />

§ 357 Der Blick zur Seite wird auf Grund des immer besser werdenden Auflösungsvermögens<br />

und der damit verbundenen geringeren Breite des Bildes quer zur Bodenspur (Swath Width,<br />

siehe auch Tab. 3.3) immer wichtiger: während LandSat nach knapp drei Wochen wieder<br />

vorbei kam, benötigt EnviSat bereits fünf Wochen (bei noch recht großer Swath Width). Für<br />

Späher wie QuickBird dagegen ist die Swath Width nur noch ca. 1/6 derer von LandSat –<br />

entsprechend mehr Bodenspuren werden benötigt, bis auch am Äquator alles abgescannt ist.<br />

12 Anekdotisch wird ja behauptet, die US-Späher müssten manöverieren können, um auch<br />

Überraschungsflüge machen zu können – meist verraten sich aber selbst die ganz geheimen [717].<br />

c○ M.-B. Kallenrode 2. Juli 2008


112 KAPITEL 3. SATELLITENINSTRUMENTE<br />

Verschlechterung des Auflösungsvermögens<br />

§ 358 Bisher haben wir das (Boden-)Auflösungsvermögen einer Satellitenkamera unter optimalen<br />

Bedingungen betrachtet. Eine Verschlechterung des Auflösungsvermögens entsteht<br />

einerseits durch die Eigenschaften des Instruments, andererseits durch Streuung und Absorption<br />

in der Atmosphäre. Letzteres dürfte auch das Auflösungsvermögen selbst militärischer<br />

Späher allmählich begrenzen, Möglicherweise ist dieser Bereich instrumentell bereits ziemlich<br />

ausgereizt; stattdessen könnten die Herausforderungen in einer aufwendigen Nachbearbeitung<br />

am Boden liegen.<br />

§ 359 Die instrumentell bedingten Verschlechterungen entstehen durch den verwendeten<br />

Film (Filmempfindlichkeit, Kontrastempfindlichkeit), das Objektiv (Kontrastverschlechterung,<br />

Öffnungswinkel, Abbildungsfehler können das Auflösungsvermögen zu den Rändern<br />

hin um bis zu einen Faktor 2 verringern [133]) und die Bewegung des Satelliten. Letztere<br />

führt zu einer Bildverschiebung d in der Filmebene, gegeben durch<br />

� �<br />

km<br />

d[µm] = 1000 · δ · v ·<br />

s<br />

f<br />

�<br />

mm<br />

�<br />

· t [s] (3.4)<br />

g km<br />

mit t als der Belichtungszeit, δ als dem Faktor der Vorwärtskompensation und v als der<br />

Subsatellitengeschwindigkeit [28, 254]. Die Vorwärtsbewegung führt zu einer Verschmierung<br />

der Bilddetails in Bewegungsrichtung.<br />

Zwischenrechnung 12 Schätzen Sie die Bildverschiebung für typische Instrumente ab.<br />

§ 360 Die zweite Einflussgröße lässt sich quantitativ weniger genau beschreiben, da die Ausprägung<br />

dieser Einflüsse durch die große atmosphärische Variabilität bestimmt ist. Die Streuung<br />

(Dunst, zur genauen Beschreibungen vgl. z.B. [143]) in der Atmsophäre bewirkt eine<br />

Kontrastverschlechterung. Als Gegenmaßnahme werden Anti-Dunstfilter verwendet, die das<br />

blaue atmosphärische Streulicht unterdrücken. Bei Multispektralkameras werden die Wellenlängenbereiche<br />

bevorzugt, in denen die Streuung geringer ist (vgl. auch Abb. 3.25) bzw.<br />

verwenden diese zu einer nachträglichen Dunstkorrektur, vgl. Abschn. 7.1.6 und Abb. 3.47.<br />

§ 361 Zusätzlich bewirken Dichteschwankungen in der Atmosphäre zufällige Winkelverschiebungen<br />

der betrachteten Objekte (Szintillation oder Pulsation). Die damit verbundene Kontrastverschlechterung<br />

ist um so größer, je näher die Kamera den Turbulenzzonen ist und lässt<br />

sich (zumindest z.Z.) auf Grund der Relativbewegung zwischen Aufnahmesystem und Objekt<br />

nicht wie bei einem astronomischen Teleskop durch Despeckeln korrigieren.<br />

3.2.7 Elektronische Aufzeichnung statt photographischer Emulsion<br />

§ 362 Die bisher diskutierten photographischen Systeme sind gleichsam der Urahn der Satelliteninstrumente<br />

zur Erderkundung. Die Technik einer Kamera ist relativ einfach und gut<br />

verstanden, allerdings hat die Verwendung eines Films als Aufzeichnungsmedium verschiedene<br />

Nachteile: (a) die Lebensdauer des Systems ist durch den mitgeführten Filmvorrat begrenzt<br />

und (b) der belichtete Film muss entweder zur Erde zurückgeführt werden oder an Bord des<br />

Satelliten entwickelt, elektronische abgetastet und dann als Digitalsignal zum Boden gesandt<br />

werden. Photographische Kameras werden daher heutzutage im wesentlichen nur noch auf<br />

bemannten Missionen (ISS, Space Shuttle) verwendet.<br />

§ 363 Das Problem der Filmrückführung wurde bei militärischen Aufklärungssatelliten aufwendig<br />

gelöst, vgl. Abb. 6.1. Diese fliegen meist in niedrigen Orbits, so dass ihre Lebensdauer<br />

kurz ist. Die FSU hat nach jeweils 1 bis 2 Wochen Flugzeit ihre Satelliten mittels<br />

eines ‘geordneten Absturzes’ über eigenem Gebiet zu Boden gebracht und so die Filmkapseln<br />

geborgen. Um eine kontinuierliche Überdeckung zu erreichen, benötigte man entsprechend<br />

viele Satelliten. Amerikanische Satelliten dagegen packten die belichteten Filme in Kapseln,<br />

die abgeworfen werden. Die Kapsel sendet während ihres Falls Funksignale aus, so dass ihre<br />

Flugbahn von Schiffen und Flugzeugen aus verfolgt werden kann. In einer Höhe von 16 km<br />

2. Juli 2008 c○ M.-B. Kallenrode


3.2. PASSIVE INSTRUMENTE IM SICHTBAREN SPEKTRUM 113<br />

Abbildung 3.35: Auge<br />

vs. Silizium: Eigenschaften<br />

verschiedener<br />

optischer Detektorsysteme<br />

[134]<br />

öffnet die Kapsel einen Fallschirm und wird dann entweder von einem Flugzeug aufgefangen<br />

oder beim Absturz ins Meer von einem Schiff geborgen (vgl. z.B. [257, 739]).<br />

Auge und Film vs. Elektronik<br />

§ 364 Auge, Film und elektronische Medien nutzen zwar alle die Energie des Photons zu<br />

dessen Nachweis aus. Im Detail unterscheiden sich jedoch die Sensoren und die nachfolgende<br />

Informationsverarbeitung. Abbildung 3.35 gibt einen Überblick über die Messprinzipien,<br />

Tabelle 3.4 gibt die zugehörigen Zahlen.<br />

§ 365 Insbesondere aus Tab. 3.4 wird deutlich, dass alle Systeme – abgesehen vom oben<br />

diskutierten Problem der Filmrückführung beim echten Film – ihre Vor- und Nachteile haben:<br />

es gibt kein optimales System. So ist z.B. das radiometrische Auflösungsvermögen des Auges<br />

nahezu ungeschlagen – insbesondere, da es im dunklen Bereich auf eine lineare, im helleren<br />

dagegen auf eine logarithmische Skala abbildet. Auch sein Auflösungsvermögen ist besser<br />

als das des Siliziums und wird nur vom konventionellen Film übertroffen. Als Nachteile hat<br />

es aber auch eine große Integrationszeit und keine Möglichkeit zur Bestimmung absoluter<br />

Helligkeitswerte.<br />

§ 366 Es ist jedoch unerheblich, ob wir den Vor- oder Nachteilen von Auge oder konventionellem<br />

Film nachtrauern – praktikabel ist für die moderne Fernerkundung nur die Verwendung<br />

von elektronischen Aufzeichnungsmedien.<br />

Evolution der elektronischen Aufzeichnung: Strukturen<br />

§ 367 Der direkte Nachfolger der Filmkamera ist die Videokamera – bereits das in Abb. 3.12<br />

gezeigte Bild ist von einer Videokamera aufgenommen. Klassische Videokameras sind jedoch<br />

eher ein Seitenzweig in der <strong>Erdfernerkundung</strong>; sie wurden allerdings noch relativ lange bei<br />

Missionen zu anderen Planeten eingesetzt.<br />

§ 368 Der Versuch, den Film durch ein elektronisches Aufzeichnungsmedium zu ersetzen,<br />

erfolgte in mehreren Stufen, siehe Abb. 3.36. Der Schirm einer Videokamera hat sich als<br />

nicht ausreichend empfindlich erwiesen. Empfindlicher dagegen ist eine Photozelle. Diese<br />

liefert jedoch keine Ortsinformation sondern nur ein einziges Pixel.<br />

§ 369 Das einzelne Photoelement ist für Imaging jedoch keine Einschränkung – das hat<br />

bereits 1959 Explorer 6 (siehe auch § 297) demonstriert. Auch der Elektronenstrahl in einer<br />

konventionellen Bildröhre liefert nur einen einzelnen Bildpunkt; das Bild entsteht dadurch,<br />

das der Elektronenstrahl die zweidimensionale Fläche horizontal und vertikal abscannt. Bei<br />

einem Satelliteninstrument ist die eine Scanrichtung durch die Flugrichtung gegeben, die<br />

c○ M.-B. Kallenrode 2. Juli 2008


114 KAPITEL 3. SATELLITENINSTRUMENTE<br />

Tabelle 3.4: Auge vs. Silizium: Eigenschaften verschiedener optischer Detektorsysteme [134]<br />

andere durch einen sich senkrecht dazu bewegenden Spiegel. 13 Auf diese Weise ergibt sich<br />

ein panchromatischer Scanner – für eine Multispektralkamera würde man pro Spektralkanal<br />

einen derartigen Scanner benötigen und eine sehr gute Synchronisation zwischen diesen. Oder<br />

einfacher: man spaltet den gescannten Strahl auf verschiedene Detektoren auf (siehe § 371).<br />

§ 370 Die Weiterentwicklung dieses auf einem einelementigen Detektor basierenden Scanners<br />

ist die Kehrbesentechnik. Hier steht eine Zeile von photosensitiven Detektoren zur Verfügung,<br />

die einem Kehrbesen gleich über die Bodenspur des Satelliten gezogen wird. Das Scannen<br />

senkrecht zur Flugrichtung entfällt. Auch dieser Scanner arbeitet im panchromatischen Modus.<br />

Der Bau einer Multispektralkamera aus mehreren Scannern ist jedoch einfach möglich, da<br />

die Synchronisation der Spiegel entfällt; man benötigt lediglich für jeden Wellenlängenbereich<br />

eine eigene Detektorzeile.<br />

§ 371 Für einen Multispektralscanner lässt sich eine Detektorzeile auch anders verwenden:<br />

die einzelnen Elemente der Detektorzeile werden nicht zur Untersuchung unterschiedlicher<br />

Bildpunkte verwendet sondern zur Aufzeichnung unterschiedlicher Frequenzbereiche. Dazu<br />

wird ein Scanner wie beim einelementigen Detektor verwendet, das Signal wird spektral<br />

zerlegt und auf die Detektorzeile abgebildet. Dieses Verfahren wird heute in den gängigen<br />

Spectrometern verwendet.<br />

§ 372 Mit Hilfe eines zweidimensionalen CCD-Arrays lässt sich der senkrecht zur Bewegungsrichtung<br />

scannende Spiegel wieder einsparen: die eine Dimension des Arrays bildet<br />

jeweils die Detektorzeile eines Kehrbesens, die andere Dimension untersucht die unterschiedlichen<br />

Frequenzbereiche. Im panchromatischen Modus entfällt sogar das Scannen entlang der<br />

13 Explorer 6 hat 1959 diese Technologie als erster (ziviler) Späher eingesetzt. Statt eines Spiegels rotiert<br />

der gesamte Satellit in Cartwheel Technologie – ein für Wettersatelliten durchaus akzeptables Vorgehen.<br />

2. Juli 2008 c○ M.-B. Kallenrode


3.2. PASSIVE INSTRUMENTE IM SICHTBAREN SPEKTRUM 115<br />

Abbildung 3.36: Evolution elektronischer bildgebender Verfahren [134]<br />

Abbildung 3.37: Prinzip des Vidicons<br />

[475]<br />

Flugbahn – dann haben wir die ganz normale Digitalkamera und sind zu den Anfängen der<br />

Photographie zurück gekehrt.<br />

Verständnisfrage 24 Abgesehen vom Verzicht auf das bewegliche Element: hat der Verzicht<br />

auf den Spiegel unter Verwendung einer CCD-Dimension weitere Vor- oder etwas Nachteile?<br />

Videokameras<br />

§ 373 Dem konventionellen photographischen Verfahren am ähnlichsten ist jedoch das RBV<br />

(Return Beam Vidicon), die Videokamera. Vorteil dieser Systeme gegenüber konventionellen<br />

photographischen Systemen ist ihre hohe Quantenausbeute, d.h. sie arbeiten auch unter<br />

ungünstigen Beleuchtungsverhältnissen. Ihr Hauptnachteil sind ein schlechtes räumliches und<br />

radiometrisches Auflösungsvermögen.<br />

§ 374 Der wichtigste Bestandteil einer Videokamera ist ein Vidicon, siehe Abb. 3.37. Dabei<br />

handelt es sich um einen photosensitiven Schirm, dessen elektrische Leitfähigkeit je nach<br />

einfallender Lichtintensität variiert. Das Blickfeld wird wie bei einer konventionellen Kamera<br />

über ein Objektiv auf diesen Schirm projiziert. Dieser hält das Bild für eine gewisse Zeit fest,<br />

während derer der Schirm elektronisch abgetastet wird (zum Prinzp vgl. z.B. [129]).<br />

§ 375 Eine verbesserte Version des Vidicons (SEC-Vidicon) durch Sekundärelektronenvervielfachung<br />

erreicht eine erhöhte Quantenausbeute und ein etwas besseres radiometrisches<br />

Auflösungsvermögen. Dabei wird das zu scannende Bild nicht direkt von den Photonen produziert,<br />

sondern die Photonen fallen auf einen Schirm, aus dem sie Elektronen auslösen. Diese<br />

c○ M.-B. Kallenrode 2. Juli 2008


116 KAPITEL 3. SATELLITENINSTRUMENTE<br />

Abbildung 3.38: LandSat Videokameras<br />

[154]<br />

Elektronen werden in der Röhre auf einen zweiten Schirm hin beschleunigt, aus dem sie Sekundärelektronen<br />

herausschlagen. Diese werden von einer positiven Elektrode abgezogen und<br />

erzeugen dort ein Potentialmuster, das das ursprünglich einfallende Muster reproduziert und<br />

als Ausgangssignal abgetastet wird. Ein Photoemitter am Eintrittsfenster kann so gewählt<br />

werden, dass das Vidicon für bestimmte Wellenlängenbereiche empfindlich ist. Damit besteht<br />

die Möglichkeit zu Multispektralaufnahmen. Letztere kann man auch durch den Vorsatz geeigneter<br />

Filter vor ein einfaches Vidicon erzeugen.<br />

Verständnisfrage 25 Erhält man mehr Information oder kann man diese nur besser auslesen?<br />

§ 376 Während ein normaler Fernsehschirm, der ja nach der Umkehrung dieses Prinzips<br />

arbeitet, normalerweise in 625 Zeilen abgetastet wird, werden in den in Satelliten installierten<br />

Vidicons rund 4500 Rasterzeilen abgetastet. Vidicons waren eine Standardausstattung der<br />

ersten zivilen Erderkundungssatelliten (LandSat 1-3), sind aber heutzutage vollständig von<br />

Scannern verdrängt.<br />

§ 377 Auf LandSat 1 [534] und 2 [535] wurden drei parallele RBV Kameras eingesetzt (siehe<br />

Abb. 3.38 links, [565, 566]) für Multispektralaufnahmen in den Wellenlängenbereichen 0.475<br />

– 0.575 µm (Blaugrün), 0.58 – 0.68 µm (Gelbrot) und 0.68 – 0.73 µm (Rot und Infrarot).<br />

Diese Kameras konnten alle 25 Sekunden ein Gebiet von 185 x 185 km aufnehmen. Mit der<br />

Zeilenzahl des Vidicons ergibt sich daraus eine Auflösung von 80 m [43, 154]. Die Bilder der<br />

einzelnen Kameras entsprechen jeweils Aufnahmen, wie sie ein Schwarz-Weiß-Film liefern<br />

würde, farbige Aufnahmen werden daraus durch Überlagerung erzeugt.<br />

§ 378 Auf LandSat 3 [536] wurden nur zwei RBV-Kameras eingesetzt, die parallel geschaltet<br />

waren (siehe Abb. 3.38 rechts, [567]). Beide Kameras hatten nur einen Breitbandkanal von<br />

0.51 – 0.75 µm (Gelb bis nahes Infrarot), d.h. auf die spektrale Auflösung wurde verzichtet.<br />

Dafür hatten sie aber ungefähr doppelt so große Brennweiten wie die LandSat 1 und 2 Instrumente.<br />

Dadurch ergibt sich ein nur halb so großes Blickfeld (99 x 99 km), so dass zwei Kameras<br />

notwendig sind, um das gleiche Gesamtblickfeld auszuleuchten. Die größere Brennweite führte<br />

zu einem räumlichen Auflösungsvermögen von 30 m [43]. Die LandSat-RBV-Bilder wurden<br />

verwendet, um die gleichzeitig aufgenommenen MSS-Bilder in ihrer räumlichen Auflösung zu<br />

verbessern. Das Prinzip der Überlagerung multispektraler Bilder mit geringerer und panchromatischer<br />

Bilder mit höherer Auflösung zur Verbesserung des Bodenauflösungsvermögens der<br />

Multispektralaufnahmen hat sich bis in die heutigen modernen Satelliten erhalten; insbesondere<br />

die kommerziellen Späher wie SPOT und Ikonos bedienen sich dieses Verfahrens.<br />

§ 379 Die RBV-Kameras haben sich nur begrenzt bewährt. Ihr Hauptproblem ist die geringe<br />

radiometrische Auflösung, so dass weniger als die Hälfte der LandSat RBV Aufnahmen eine<br />

gute Qualität aufwies ([43] und Zitate darin). Für die Missionen zu anderen Planenten wurden<br />

RBV-Kameras für die Beobachtungen im optischen und nahen IR eingesetzt, z.B. auf Viking<br />

2. Juli 2008 c○ M.-B. Kallenrode


3.2. PASSIVE INSTRUMENTE IM SICHTBAREN SPEKTRUM 117<br />

Abbildung 3.39: Aufbau eines einzelnen CCD und eine Zeile von CCDs [129]<br />

[501, 602] und Mariner [405, 541, 444] (Erforschung des Mars), auf Voyager (äußere Planeten<br />

und ihre Monde [476]) und Mariner 10 (Venus [50]) – neuere Missionen verwenden ebenfalls<br />

Scanner.<br />

CCDs: Charged Coupled Devices<br />

§ 380 Bei einer Videokamera erfolgt eine elektronische Aufzeichnung auf einen Schirm, d.h.<br />

abgesehen von der elektronischen Aufzeichnung ist das Verfahren dem der konventionellen<br />

Photographie sehr ähnlich. Bei den Charged Coupled Devices (CCDs) wird der Film ersetzt<br />

durch einen einzelnen, eine Reihe oder eine Fläche lichtempfindlicher Sensoren, wie in<br />

Abb. 3.36 angedeutet.<br />

§ 381 Die Wirkungsweise des CCD beruht – wie alle Nachweisverfahren für Photonen, inkl.<br />

des konventionellen Films – auf dem photoelektrischen Effekt: auf Materie, in diesem Fall<br />

einen Halbleiter fallendes Licht, erzeugt ein Elektron-Loch Paar. Diese Elektronen werden in<br />

Potentialsenken gefangen, die aus vielen kleinen Elektroden bestehen. Dort sammeln sich die<br />

Elektronen bis ihre Anzahl durch ‘charge coupling’ der Sensorelektrode zu einer Ausleseelektrode<br />

übergeben wird.<br />

§ 382 Der Aufbau eines einzelnen CCD-Elements ist im linken Teil von Abb. 3.39 gezeigt.<br />

Die Elektrode ist gegenüber dem Halbleiter durch eine dünne Siliziumoxidschicht getrennt<br />

(Verwandschaft mit dem Metalloxid–Silizium-Transistor MOS). Die Elektrode wird auf einer<br />

geringen positiven Spannung gehalten, die gerade gross genug ist, um die positiven Löcher<br />

in das p-dotierte Silizium zu treiben und die Elektronen in eine dünne Schicht unterhalb<br />

der Elektrode zu ziehen. Die von der einfallenden Strahlung in dieser Verarmungsschicht<br />

erzeugten Elektronen-Lochpaare werden genauso getrennt, die von der Strahlung erzeugten<br />

Elektronen sammeln sich ebenfalls unterhalb der Elektrode. In diesem Speicherbereich hat<br />

sich dann eine Elektronenladung geformt, die eine Funktion der Intensität der einfallenden<br />

Strahlung ist. Ein CCD verhält sich daher wie ein strahlungsgetriebener Kondensator.<br />

§ 383 Ordnet man viele dieser Elekroden auf einem einzigen Siliziumchip an und isoliert die<br />

Verarmungsregionen gegeneinander, so entwickelt jede von ihnen eine Ladung, die der auf sie<br />

c○ M.-B. Kallenrode 2. Juli 2008


118 KAPITEL 3. SATELLITENINSTRUMENTE<br />

Abbildung 3.40: Pixel (weißes Quadrat)<br />

und photosensitive Elemente einer<br />

CCD [687]<br />

fallenden Strahlung proportional ist. Ein Beleuchtungsmuster wird also in ein räumlich digitalisiertes<br />

Ladungsmuster verwandelt. Für die technische Lösung des Problems des Auslesens<br />

dieses Ladungsmusters sei z.B. auf [129] verwiesen.<br />

§ 384 Die Verwendung von CCDs in der <strong>Erdfernerkundung</strong> hat, entsprechend der technischen<br />

Entwicklung, wie bereits im Zusammenhang mit Abb. 3.36 diskutiert, drei Stufen<br />

durchlaufen:<br />

1. die Verwendung von Einzel-CCDs (bzw. kleiner Zeilen mit einer CCD pro Spektralkanal)<br />

beim Scanner, der nur jeweils ein Pixel zur Zeit aufnimmt und durch eine Kombination<br />

aus Satellitenbewegung und Bewegung eines Spiegels senkrecht zur Satellitenbahn scannt<br />

(oder in bewährter Cartwheel Manier);<br />

2. die Verwendung einer Zeile von CCDs in der Kehrbesentechnik bei der die Bewegung des<br />

Satelliten zum Scannen ausgenutzt wird;<br />

3. und in den neuesten Satelliten (insbesondere kommerziellen wie Diamant [371]) die Verwendung<br />

von CCD-Arrays, d.h. instrumentell kehrt die <strong>Erdfernerkundung</strong> jetzt zu ihren<br />

Ursprüngen zurück, der Aufzeichnung der Information auf einem zwei-dimensionalen Medium<br />

– allerdings muss die zweite Dimension nicht zwingend zur Aufzeichnung räumlicher<br />

Information genutzt werden sondern kann auch, wie in Abb. 3.36 angedeutet, die spektrale<br />

Information liefern.<br />

§ 385 Allen oben beschriebenen Verfahren ist gemein, dass die Dimension des Detektors<br />

(maximal 2) geringer ist als die Zahl der aufzuzeichnenden Dimensionen (in der Regel zwei<br />

räumliche Dimensionen sowie die spektrale). Die Verwendung mehrerer Scanner zum Abdecken<br />

der spektralen Information ist aufgrund der nahezu unmöglichen Koordination der<br />

Instrumente nicht empfehlenswert (das war bei den konventionellen Multispektralkameras wie<br />

MFK-6 bereits eine nicht zu unterschätzende Herausforderung). Eine räumliche Dimension<br />

lässt sich allerdings durch die Bahnbewegung des Satelliten abtasten (Kehrbesentechnik), die<br />

räumliche Dimension senkrecht dazu erfordert entweder eine Dimension des CCD oder den<br />

scannenden Spiegel – ungeliebt, da als bewegliches Teil Fehler anfällig und im Orbit nicht zu<br />

reparieren.<br />

§ 386 Die CCD einer konventionellen Digitalkamera hat in der <strong>Erdfernerkundung</strong> vergleichbare<br />

Nachteile wie der Farbfilm. Zum einen ist das spektrale Auflösungsvermögen mit drei<br />

Kanälen/Farbschichten nur begrenzt (und insbesondere nicht gezielt gewählt), zum anderen<br />

verringert die Anordnung der Pixel für die einzelnen Farbkanäle, siehe Abb. 3.40, das<br />

Auflösungsvermögen: vier photosensitive Elemente bilden letztendlich ein Pixel.<br />

3.2.8 Scanner in Kehrbesentechnik<br />

§ 387 Bei der Kehrbesentechnik (zweites Teilbild von links in Abb. 3.36) wird die räumliche<br />

Dimension senkrecht zur Bodenspur auf ein eindimensionales Array abgebildet, die zweite<br />

Dimension wird durch die Eigenbewegung des Satelliten gescannt.<br />

2. Juli 2008 c○ M.-B. Kallenrode


3.2. PASSIVE INSTRUMENTE IM SICHTBAREN SPEKTRUM 119<br />

Abbildung 3.41: Optoelektronischer Abtaster (links) und Verbesserung des<br />

Auflösungsvermögens durch die MOMS-Doppeloptik [154]<br />

Kehrbesentechnik 1D MOMS<br />

§ 388 Der prinzipielle Aufbau eines optoelektronischen Abtasters gemäß Kehrbesentechnik<br />

ist im linken Teil von Abb. 3.41 am Beispiel des MOMS [300, 551] gezeigt. Eine CCD-<br />

Sensorzeile in einem Instrument dieser Generation kann aus bis zu 2000 CCDs bestehen [154].<br />

Diese Sensorzeile wird wie ein Kehrbesen über das abzutastende Gelände geschoben (push<br />

broom scanning, Kehrbesenabtasten). Das gesamte System besteht also aus einem Objektiv<br />

und einer Zeile von CCDs, die den Film in einer konventionellen Kamera ersetzt. Das Verfahren<br />

entspricht dem einer Streifenkamera. Mechanische Bauteile (z.B. Objektivverschluss oder<br />

scannender Spiegel) sind nicht notwendig, wodurch sich eine hohe Zuverlässigkeit ergibt. Die<br />

Instrumente arbeiten einfach und energiesparend, so dass sie für Anwendungen auf Satelliten<br />

optimal sind.<br />

§ 389 Die Begrenzung des Bodenauflösungsvermögens ist durch die Zahl der einzelnen Sensorelemente<br />

in einer Bildzeile im Vergleich zur Streifenbreite der Bodenspur 14 gegeben. Um eine<br />

höhere Auflösung zu erreichen, werden mehrere Bildzeilen miteinander gekoppelt. Im rechten<br />

Teil der Abbildung ist dazu der Modulare Optoelektronische MultispektralScanner (MOMS)<br />

dargestellt, bei dem durch eine Doppeloptik aus zwei genau aufeinander abgestimmten Objektiven<br />

der abzutastende Streifen auf insgesamt vier CCD-Zeilen gegeben wird. Damit ist die<br />

Auflösung um einen Faktor 4 verbessert, da bei gleicher Breite der Abtastzeile am Boden eine<br />

vierfache Anzahl von Bildpunkten erzeugt wird. Im Multispektralbetrieb (ein Modul misst im<br />

sichtbaren, eins im infraroten Spektralbereich) ergibt sich bei Aufnahmen vom Space Shuttle<br />

aus eine Bodenauflösung von 20 m.<br />

§ 390 MOMS ist eine mechanisch recht aufwendige Konstruktion, da in jeder der beiden<br />

Kameras (Dimension Spektralbereich) eine Vierergruppe von CCD-Zeilen (eine räumliche<br />

Dimension) exakt auf die entsprechende Zielzeile am Boden ausgerichtet werden muss.<br />

Kehrbesentechnik 2D HRV auf SPOT<br />

§ 391 CCDs in Kehrbesentechnik werden auch auf dem in den 1990ern wahrscheinlich effektivsten<br />

Universal-System zur <strong>Erdfernerkundung</strong> SPOT [676, 681] eingesetzt. Abbildung<br />

3.42 zeigt das Funktionsprinzip der High Resolution Visible (HRV) Imager [526, 527, 681] auf<br />

den SPOT Satelliten der ersten Generation (SPOT 1–3 [578, 579, 580]). Auf SPOT 4 [581]<br />

steht ein zusätzlicher Kanal im nahen IR, ebenfalls mit einer Bodenauflösung von 20 m, zur<br />

Verfügung. Der jüngste Vertreter, SPOT 5, hat ein besseres Bodenauflösungsvermögen mit<br />

10 m im Multispektralbereich und 2.5 m im panchromatischen Modus.<br />

14 Letztere ist durch den Blickwinkel des Instruments bestimmt (und damit meist auch die Zahl der Orbits,<br />

die ein Satellit benötigt, um die Erdoberfläche einmal vollständig abzuscannen).<br />

c○ M.-B. Kallenrode 2. Juli 2008


120 KAPITEL 3. SATELLITENINSTRUMENTE<br />

Abbildung 3.42: Prinzip der High Resolution Visible (HRV) Kamera auf SPOT und<br />

Veränderung des Aufnahmegebiets durch Verstellung des Spiegels [154]<br />

Tabelle 3.5: Charakteristika des<br />

SPOT High Resolution Visible<br />

HRV Instruments; die Spektralkanäle<br />

entsprechen ungefähr denen<br />

eines IR Farbfilms<br />

Multispektral Panchrom.<br />

Spektralbänder:<br />

– grün 0.50 − 0.59 µm 0.51 − 0.73 µm<br />

– rot 0.61 − 0.68 µm –<br />

– nahes IR 0.79 − 0.89 µm –<br />

Blickfeld 4.13 ◦<br />

4.13 ◦<br />

Breite Bodenspur 60 km 60 km<br />

Bodenauflsg. 20 m 10 m<br />

Detektoren/Band 3000 6000<br />

§ 392 Das photosensitive Element besteht aus einer Reihe von ca. 6000 CCDs [154]. Bei<br />

einem Blickfeld von 60 km Breite ergibt sich eine Auflösung von 10 m (panchromatischer<br />

Modus; im multispektralen Modus beträgt die Auflösung 20 m). Da zwei Instrumente parallel<br />

geschaltet sind, ergibt sich ein Gesamtblickfeld von 117 km (3 km Überlappung).<br />

§ 393 Die Optik besteht aus einem Spiegelteleskop und einem davor angebrachten Drehspiegel.<br />

Dieser Drehspiegel steht während einer Aufnahme fest (er fungiert nicht als scannendes<br />

Element!), kann jedoch so bewegt werden, dass die Kamera etwas zur Seite blickt (rechter<br />

Teil in Abb. 3.42). Dadurch können innerhalb eines 950 km breiten Streifens beliebige 60 km<br />

breite Streifen herausgegriffen werden. Dadurch kann dann ein Gebiet beobachtet werden,<br />

ohne dass es direkt überflogen wird. Angewendet wird dies z.B. bei schnell veränderlichen<br />

Phänomenen (z.B. die Beobachtung der Ölbrände während des ersten Golfkrieges) oder um<br />

Aufnahmen, die bei wolkenbedecktem Himmel erfolgten, bereits kurze Zeit später wiederholen<br />

zu können und nicht erst nach 26 Tagen (Wiederholfrequenz durch die Bahn).<br />

§ 394 Durch das Schwenken des Spiegels können auch echte stereoskopische Aufnahmen eines<br />

Gebiets erstellt werden. Wie früher in der Luftbildaufnahme gibt es damit Abbildungen in<br />

Steilsicht und Schrägsicht. Daraus lassen sich 3D Rekonstruktionen erstellen; Abb. 3.43 zeigt<br />

als Beispiel Mont Valier gesehen von SPOT 5. Mit der Stereo-Aufnahme kommt automatisch<br />

die dritte räumliche Information, die Höhe, ins Bild – Radar ist hierfür also verzichtbar.<br />

§ 395 Das HRV-Instrument auf SPOT kann in zwei Modi betrieben werden, als Multispektralkamera<br />

(drei Spektralbereiche, vgl. Tabelle 3.5) oder im panchromatischen Mode. In letzterem<br />

erreicht das Instrument ein Bodenauflösungsvermögen von 10 m – bei SPOT 5 sind<br />

es 2.5 m. Die Multispektralanalyse erfolgt durch eine aus verschiedenen Filtern bestehende<br />

Scheibe vor dem CCD, bei der immer das Filter des gewünschten Frequenzbereiches in den<br />

Strahlengang gedreht wird.<br />

2. Juli 2008 c○ M.-B. Kallenrode


3.2. PASSIVE INSTRUMENTE IM SICHTBAREN SPEKTRUM 121<br />

Abbildung 3.43: Die Stereo-Aufnahmen von SPOT 5 erlauben auch die 3D Rekonstruktion<br />

eines Gebiets, hier des Mont Valier [680]<br />

§ 396 Trotz der guten räumlichen Auflösung von SPOT sollte man berücksichtigen, dass der<br />

Thematic Mapper von LandSat mit seiner besseren spektralen Auflösung und dem größeren<br />

überdeckten Spektralbereich für viele Anwendungen Vorteile hat (z.B. in geologischen Fragestellungen).<br />

Die Suche nach Mineralien- oder Ölvorkommen erfordert keine so gute räumliche<br />

Auflösung, dafür ist dort die spektrale Auflösung, insbesondere der Vergleich von Band 5 und<br />

7 des TM von entscheidender Bedeutung. Ein Mixen der TM und SPOT Aufnahmen zur Verbesserung<br />

des Auflösungsvermögens, so wie früher mit den MSS und RBV Aufnahmen von<br />

LandSat und heute mit den panchromatischen und mehrfarbigen Aufnahmen von Ikonos und<br />

seinen hochauflösenden Kollegen gemacht, ist nicht möglich, da die Aufnahmen weder zeitlich<br />

noch räumlich synchronisiert werden können.<br />

§ 397 Einen zum HRV-Instrument nahezu identischen Aufbau hat die Multispektralkamera<br />

auf Giotto [358, 356], die 1986 die ersten Nahaufnahmen eines Kometen (Halley) zur Erde<br />

zurücksandte [208] und damit das Bild eines Kometen als einer riesigen, durch das All<br />

fliegenden Kartoffel schuf.<br />

3.2.9 Scanner: Spiegel statt Objektiv<br />

§ 398 Bisher haben wir uns von der konventionellen photographischen Aufzeichnung nur<br />

durch Verwendung eines anderen aufzeichnenden Mediums entfernt, jedoch die Abbildung<br />

mit Hilfe eines Linsenobjektivs beibehalten. In diesem Abschnitt werden wir nun Systeme<br />

betrachten, in denen das klassische Objektiv durch einen oszillierenden Spiegel ersetzt wurde<br />

– ein Abbildungssystem, z.B. im Sinne eines Spiegelteleskops, benötigt man natürlich weiterhin.<br />

Im Extremfall kann man die Sensorzeile einsparen und stattdessen, wie in Abb. 3.36<br />

angedeutet, mit einem einzelnen photosensitiven Element auskommen. Oder die Sensorzeile<br />

nicht afür die räumliche sondern für die spektrale Information verwenden.<br />

c○ M.-B. Kallenrode 2. Juli 2008


122 KAPITEL 3. SATELLITENINSTRUMENTE<br />

Abbildung 3.44: Prinzip des Multispektralscanners MSS auf LandSat (links, [154]) und Blickfeld<br />

und Arbeitsweise für die Scanner auf LandSat 1-3 (rechts [209]). LandSat 4 und 5 fliegen<br />

in einer Höhe von 705 km und haben statt der 11.56 ◦ einen Scanwinkel von 14.9 ◦ um die<br />

gleich Swath Width zu erreichen<br />

LandSat MSS<br />

§ 399 Bekannteste (und wahrscheinlich in ihrer Anwendung auch legendäre) Beispiele sind<br />

der Multispektralscanner (MSS [552, 553, 554, 555, 556], für Details und Datenprodukte siehe<br />

[712]), der auf allen LandSat-Flügen bis einschließlich LandSat 5 [534, 535, 536, 537, 538]<br />

verwendet wird, und der Thematic Mapper (TM [593, 594], für Details und Datenprodukte<br />

siehe [713]), der auf den LandSat-Satelliten der zweiten Generation (LandSat 4 und 5) als<br />

Ersatz für die RBV-Kamera verwendet wird. Der TM unterscheidet sich vom MSS durch<br />

ein besseres räumliches und radiometrisches Auflösungsvermögen, arbeitet aber nach dem<br />

gleichen Prinzip. Er wurde für den aktuellen LandSat 7 zum Enhanced Thematic Mapper+<br />

(ETM+ [516], siehe § 411 und [714]) weiter entwickelt. Da der MSS ein wichtiges Monitoring<br />

Instrument ist und einen bis in das Jahr 1972 zurück reichenden Datensatz erzeugt hat, ist<br />

mit LandSat 5 immer noch ein alter LandSat aktiv – außerdem wird über eine Folgemission<br />

LDCM nachgedacht [424, 708, 709].<br />

§ 400 Abbildung 3.44 zeigt im linken Teil die Arbeitsweise eines Multispektralabtasters. Das<br />

Funktionsprinzip dieses Scanners beruht auf einem oszillierenden Spiegel, der Geländestreifen<br />

senkrecht zur Flugrichtung abtastet. Dieser Spiegel projiziert die einfallende Strahlung über<br />

eine Spiegeloptik auf ein Spektrometer, das in den vier Wellenlängenbereichen Grün (0.5<br />

– 0.6 µm), Rot (0.6 – 0.7 µm) und nahes Infrarot (0.7 – 0.8 µm und 0.8 – 1.1 µm) die<br />

Intensität der Strahlung registriert. Diese Wellenlängenbereiche sind idealisiert; wie bei jedem<br />

Messinstrument sind sie nicht scharf getrennt, sondern haben Ansprechfunktion, die einen<br />

Schwerpunkt in der Intervallmitte haben und zu den Rändern auch in die Messbereiche<br />

benachbarter Bänder reichen (siehe Abb. 3.45 links).<br />

§ 401 Die bei einer Spiegeldrehung vom MSS abgetasteten Bereiche sind 476 m breit. Dies<br />

ergibt sich aus der fürs Abtasten benötigten Zeit und der Geschwindigkeit des Satelliten<br />

über Grund. Damit die räumliche Auflösung nicht auf diese 476 m beschränkt ist, werden 6<br />

Detektoren pro Wellenlängenband betrieben, so dass jeder einzelne abgetastete Streifen 79 m<br />

breit ist. Die von den Detektoren gemessenen Intensitätswerte werden in 64 Kanäle eingeteilt,<br />

d.h. die photometrische Auflösung ist auf 6 Bit begrenzt.<br />

Zwischenrechnung 13 Schätzen Sie ab, wie schnell sich der Spiegel drehen muss – damit<br />

erhalten Sie gleichzeitig die Belichtungszeit.<br />

2. Juli 2008 c○ M.-B. Kallenrode


3.2. PASSIVE INSTRUMENTE IM SICHTBAREN SPEKTRUM 123<br />

Abbildung 3.45: Links: LandSat TM Wellenlängenbereiche [41]; rechts: Spektralbereiche für<br />

die beiden LandSatinstrumete TM und MSS, zum Vergleich ist das spektrale Reflektionsvermögen<br />

für Vegetation und Gestein gezeigt [209]<br />

Abbildung 3.46: Die Rohdaten<br />

eines Scanners liefern ein unendlich<br />

langes Band entlang der Bodenspur;<br />

links Grönland, rechts<br />

Vancouver [284]<br />

§ 402 Diese 476 m breiten Streifen werden kontinuierlich abgescannt, d.h. man könnte im<br />

Prinzip ein einziges großes Bild der Erdoberfläche entlang der Satellitenspur erstellen. Um<br />

später mit den Aufnahmen der zumindest noch bei den frühen LandSats mit fliegenden RBV-<br />

Kameras vergleichen zu können (Kombination zur Verbesserung des Bodenauflösungsvermögens),<br />

wird der Datenstrom nach jeweils 185 km unterbrochen. Das entspricht den 25 Sekunden,<br />

die die RBV-Kamera zum Abtasten eines Bildes benötigt. Obwohl die Auflösung des<br />

MSS geringer ist als die der RBV-Kamera, hat sich das System gegenüber der RBV Kamera<br />

bewährt, insbesondere dadurch, dass es unempfindlicher gegen Belichtungsprobleme ist und<br />

eine bessere spektrale Auflösung bietet.<br />

§ 403 Dieses Rohformat ist in Abb. 3.46 mit Hilfe der ersten Aufnahmen von RadarSat-2<br />

illustriert. Im linken Teilbild erkennt man, dass die Informationen einem unendlich langen<br />

Streifen entlang der Bodenspur entsprechen, wobei die Swath-Width die Breite des Streifens<br />

gibt, die Inklination des Satelliten die Neigung dieses Streifens gegen einen Längengrad. Erst<br />

das zurecht schneiden liefert die gewöhnlichen rechteckigen Formate – für größere Ausschnitte<br />

müssen erst entsprechend viele Streifen gesampelt werden.<br />

LandSat TM<br />

§ 404 Auf den LandSat-Satelliten der zweiten Generation (LandSat 4 und 5 [537, 538]) ist<br />

die RBV-Kamera durch den Thematic Mapper TM [593, 594] ersetzt. Der TM basiert auf<br />

dem gleichen Prinzip wie der MSS, ist diesem gegenüber aber in den folgenden Punkten<br />

verbessert:<br />

• das räumliche Auflösungsvermögen beträgt 30 m (79 m beim MSS): die gesamte Zeilenbreite<br />

ist durch die Satellitenbewegung zu 480 m gegeben, jedoch erfolgt, außer im thermischen<br />

c○ M.-B. Kallenrode 2. Juli 2008


124 KAPITEL 3. SATELLITENINSTRUMENTE<br />

1 blau 0.45 − 0.52 µm maximales Eindringen in Wasser (Bathymetrie)<br />

Unterscheidung Boden und Vegetation;<br />

Unterscheidung Laub- und Nadelhölzer<br />

2 grün 0.52 − 0.60 µm Pflanzenaktivität<br />

3 rot 0.63 − 0.69 µm entspricht Chlorophyll-Absorption; Unterscheidung Pflanzenarten<br />

4 nahes IR 0.76 − 0.90 µm Biomassen-Gehalt, Küstenlinien<br />

5 nahes IR 1.55 − 1.75 µm Feuchtegehalt Boden und Pflanzen, Unterscheidung<br />

Vegetationstypen; durchdringt dünne Wolken<br />

6 therm. IR 10.4 − 12.5 µm Nachtaufnahmen thermisches Mapping, Bodenfeuchte<br />

7 nahes IR 2.08 − 2.35 µm entspricht Absorptionsband von Hydroxylionen in Mineralien.<br />

Verhältnis Bänder 5/7 für hydrothermisch veränderten Fels<br />

und Mineralienvorkommen<br />

Tabelle 3.6: Spektralbänder des Thematic Mapper und ihre Beziehung zur Interpretation der<br />

Bilder bzw. zu konkreten Fragestellungen an einzelne Kanäle<br />

Infrarot, eine Aufteilung auf 16 Detektoren (6 im MSS).<br />

• der TM hat sieben Spektralbänder (4 beim MSS, für die Spektralbereiche siehe Abb. 3.45<br />

rechts). Der Spektralbereich des TM erstreckt sich dabei über einen breiteren Bereich vom<br />

Blauen bis ins thermische Infrarot (Kanal 6 von 10.4 – 12.5 µm ist in Abb. 3.45 nicht 6<br />

gezeigt).<br />

• das radiometrische Auflösungsvermögen ist besser (auf 256 Kanäle erweitert, also bereits<br />

die üblichen 8 bit).<br />

§ 405 Die Bezeichnung Thematic Mapper wird verständlich, wenn man sich die Auswahl<br />

der Wellenlängenbereiche genauer ansieht. Diese sind nicht mehr einfach so gewählt, dass<br />

die Überlagerung dieser Bilder wieder ein Gesamtbild in korrekten Farben erzeugt, sondern<br />

so, dass jeder Spektralbereich für sich Auskünfte geben kann, z.B. über Eigenschaften der<br />

Vegetation, die Bodenfeuchte oder über Öl- oder Mineralienvorkommen (siehe Tab. 3.6).<br />

Selbst die Überlagerung der Kanäle 1–3 erzeugt daher kein Bild in den echten Farben, da der<br />

sichtbare Bereich nicht vollständig abgedeckt wird.<br />

§ 406 Als Beispiel zeigt Abb. 3.47 Aufnahmen der einzelnen Kanäle des TM für eine Szene<br />

des St. Francis River im Nordosten von Arkansas zusammen mit der Karte des betreffenden<br />

Gebiets. Hinzuweisen ist auf die dünnen und hohen Wolken im oberen Teil der Aufnahme, die<br />

insbesondere im Kanal 1 (blau) zu erkennen sind, mit zunehmender Wellenlänge aber immer<br />

weniger deutlich sind und im nahen IR (Band 4) verschwinden. Der eigentliche Flusslauf<br />

zeichnet sich gegenüber der Marsch in den sichtbaren Kanälen ab, vermischt jedoch mit dem<br />

Feuchtgebiet im nahen Infrarot (ein Hinweis auf die hohe Bioproduktivität im Wasser) und<br />

im thermischen IR (Flusswasser und Marsch haben gleiche Temperatur). Außerdem wird<br />

das schlechte Bodenauflösungsvermögen der IR-Aufnahme deutlich sowie die Sichtbarkeit<br />

der hohen Wolken im Band 6: diese haben eine geringe Temperatur und zeichnen sich im<br />

thermischen Infrarot daher deutlich gegen die Erdoberfläche ab.<br />

§ 407 Abbildung 3.48 zeigt entsprechende Aufnahmen für die Keweenaw Halbinsel. In diesem<br />

Beispiel ist die Dunststreuung im blauen (und teilweise auch im grünen Kanal) nicht durch<br />

Wolken offensichtlich sondern zeigt sich lediglich in einem im Vergleich zum roten Kanal<br />

reduzierten Detailreichtum. Letzterer zeigt dagegen, ebenso wie die Infrarot-Kanäle, keine<br />

Kontraste im Wasser; insbesondere in Kanal 4 ist, wie in Tab. 3.6 angegeben, die Küstenlinie<br />

deutlich zu erkennen. Im blauen Kanal dagegen ist die Küstenlinie wesentlich schlechter<br />

zu erkennen; dafür erlauben die unterschiedlichen Graustufen im Wasser eine Abschätzung<br />

der Wassertiefe – so, wie wir auch aus dem Bild im sichtbaren Bereich (linkes Teilbild in<br />

Abb. 3.49) mehr oder weniger automatisch Rückschlüsse auf die Wassertiefe ziehen würden.<br />

2. Juli 2008 c○ M.-B. Kallenrode


3.2. PASSIVE INSTRUMENTE IM SICHTBAREN SPEKTRUM 125<br />

Abbildung 3.47: Einzelbilder der verschiedenen TM Kanäle für eine Szene [209]<br />

§ 408 Abbildung 3.49 zeigt die gleiche Szene wie Abb. 3.48 nicht in Einzelkanälen sondern<br />

für Kombinationen von Kanälen. Im linken Teil sind die Kanäle 3, 2 und 1 auf die RGB-<br />

Schichten abgebildet, so dass sich annähernd eine Echtfarben-Aufnahme ergibt. Die rechte<br />

Seite dagegen ist eine Kombination aus zwei Kanälen im nahen IR und dem roten Kanal in<br />

eine Falschfarbenaufnahme mit der Abbildung der Kanäle 5, 4 und 3 auf RGB (d.h. IR2 →<br />

rot, IR1 → grün und rot → blau). In Abschn. 9.2 finden Sie die notwendigen Informationen,<br />

wie Sie sich auch andere Kombinationen von Kanälen in einem Bild erzeugen können – z.B.<br />

wie bei der Waldbrandaufnahme in Abb. 1.14 eine Kombination aus sichtbarer Aufnahme<br />

und Aufnahme im thermischen Infrarot.<br />

§ 409 Wir hatten in Abschn. 3.2.6 verschiedene Auflösungsvermögen als charakteristische<br />

Merkmale eines Erderkundungsinstrumentes eingeführt. Die Bedeutung des Auflösungsvermögens<br />

(räumliches, spektrales und radiometrisches) eines Scanners für die Identifikation<br />

von Objekten soll anhand von Abb. 3.50 illustriert werden. Innerhalb eines Bildelements<br />

(Pixels) befinden sich auf Grund des begrenzten räumlichen Auflösungsvermögens mehrere<br />

verschiedene Objekte, z.B. Vegetation auf rotem Sandstein. Sowohl Vegetation als auch roter<br />

Sandstein haben eine typische Spektralcharakteristik. Der Scanner nimmt jedoch nur die<br />

kombinierte Spektralcharakteristik (unteres Teilbild) wahr, da ja beide Objekte innerhalb eines<br />

Pixels liegen. Zusätzlich wird diese kombinierte Kurve nicht so detailliert wahrgenommen<br />

wie im unteren Teil der Abbildung gezeigt, sondern sie ist gerastert, z.B. in die vier in der<br />

Abbildung angedeuteten Spektralbereiche des MSS und in eine gewisse Zahl von Helligkeitswerten<br />

(radiometrische Auflösung). Eine eindeutige Identifikation des aufgenommen Objektes<br />

(oder Objektclusters) erfordert daher: (a) eine gute räumliche Auflösung, um möglichst wenig<br />

verschiedene Objekte innerhalb eines Pixels zu haben, und (b) eine gute spektrale und<br />

radiometrische Auflösung, um die kombinierte Spektralchrakteristik möglichst gut reproduzieren<br />

zu können. Dann sollte es möglich sein, zu erkennen, dass verschiedene Objekte in dem<br />

einen Pixel zusammengefasst wurden und wie groß ihr relativer Anteil ist. Mischpixel (Mixed<br />

Pixel) bilden den Haupteil aller übertragenen Pixel: beim MSS sind für mitteleuropäische<br />

Verhältnisse nur etwa 1% der Pixel rein, also von nur einem Material erzeugt. Aufgrund des<br />

c○ M.-B. Kallenrode 2. Juli 2008


126 KAPITEL 3. SATELLITENINSTRUMENTE<br />

Abbildung 3.48: Keweenaw Halbinsel in den verschiedenen Bändern des LandSat TM [398]<br />

2. Juli 2008 c○ M.-B. Kallenrode


3.2. PASSIVE INSTRUMENTE IM SICHTBAREN SPEKTRUM 127<br />

Abbildung 3.49: Die Szene aus Abb. 3.48 in Echt- (links) und Falschfarben (rechts) [398]<br />

Abbildung 3.50: Integration<br />

des spektralen Sensors innerhalb<br />

des unmittelbaren<br />

Blickfeldes (d.h. innerhalb<br />

eines Pixels) eines multispektralen<br />

Scanners [154]. Die<br />

Bänder entsprechen denen des<br />

LandSat MSS<br />

verbesserten räumlichen Auflösungsvermögens sind beim TM schon 18% und bei SPOT der<br />

ersten Generation sogar 38% der Pixel rein [163].<br />

§ 410 Interessanterweise lassen sich unter bestimmten Umständen auch Objekte identifizieren,<br />

die eigentlich zu kein sind, um bei vorgegebenem Bodenauflösungsvermögen noch<br />

erkannt werden zu können. Ein oft zu beobachtendes Beispiel hierfür ist die Abbildung von<br />

Straßen und Eisenbahnstrecken, die oft nur wenige Meter breit sind und trotzdem auf den<br />

LandSat-Bildern deutlich zu erkennen sind. Diese Situation ist in Abb. 3.51 dargestellt: ein<br />

heller Weg (Helligkeitswert z.B. 80) durchquert eine Landschaft mit relativ geringem Helligkeitswert<br />

(ca. 25). Die Helligkeitswerte aller Bildelemente, die von der Straße beeinflusst<br />

werden, liegen deutlich über der des Hintergrundes. Der Weg ist daher sichtbar, nimmt aber<br />

eine Breite von ein bis zwei Bildelementen ein, d.h. er erscheint als 79 bzw. 158 m breiter<br />

Strich und ist daher stark überzeichnet. 15 Die Identifikation als Weg ist nur deshalb möglich,<br />

15 Das Phänomen entspricht dem aus der Kartographie bekannten Problem der Darstellung von Straßen<br />

in Karten mit kleinem Maßstab durch den Prozess der Verdrängung: eine Autobahn soll auf einer Karte<br />

erkennbar sein, egal ob im Maßstab 1:25 000 einer Wanderkarte oder im Maßstab 1:500 000 einer Autokar-<br />

Abbildung 3.51: Erscheinungen, die kleiner<br />

sind als ein Bildelement, werden sichtbar,<br />

wenn sie sich deutlich vom Hintergrund abheben,<br />

wie an diesem Beispiel zweier Wege gezeigt<br />

wird<br />

c○ M.-B. Kallenrode 2. Juli 2008


128 KAPITEL 3. SATELLITENINSTRUMENTE<br />

Abbildung 3.52: Der Harz in verschiedenen Frequenzbändern gesehen vom ETM+ auf Land-<br />

Sat 7; von links nach rechts: blau, grün, rot, IR1, IR2, IR3, TIR H, TIR L, Panchromatic,<br />

RGB aus rot–grün–blau, Pseudo Farben IR1-IR2-Rot als RGB kombiniert [690]<br />

weil die Ausdehnung in einer Richtung zwar unter Pixelgröße war, in der anderen Richtung<br />

aber weit über Pixelgröße. Einzelne sehr kleine, aber sehr helle Objekte würden zwar das<br />

entsprechende Pixel aufhellen, wären aber nicht zu identifizieren.<br />

LandSat ETM+<br />

§ 411 Der Enhanced Thematic Mapper ETM [486, 516] ist eine Weiterentwicklung des Thematic<br />

Mapper. Der wesentliche Unterschied war die Erweiterung um einen panchromatischen<br />

Kanal im Bereich von 500–900 nm mit einem Bodenauflösungsvermögen von 15 m.<br />

Außerdem waren alle 7 Spektralbänder auf einem gemeinsamen Silizium-Wafer integriert.<br />

Bodenauflösungsvermögen und Kanäle entsprachen denen des TM. Die ursprünglich geplante<br />

Erweiterung auf eine echte Kehrbesentechnik (und damit der Verzicht auf den Spiegel)<br />

ließ sich aus Budgetgründen nicht realisieren. Der ETM wurde für LandSat 6 entwickelt und<br />

ist mit diesem verschwunden.<br />

§ 412 Der Enhanced Thematic Mapper Plus ETM+ [714] ist eine Weiterentwicklung des<br />

Enhanced Thematic Mapper in dem ursprünglich angestrebten Format als echtes Kehrbeseninstrument.<br />

Außerdem wurde das Auflösungsvermögen im thermischen IR von 120 m auf<br />

60 m verbessert, sowie in verschiedenen Spektralkanälen auch das radiometrische Auflösungsvermögen<br />

erhöht. Die Eigenschaften des ETM+ sind im Vergleich mit denen der früheren<br />

TMs in Tabelle 4.2 zusammen gefasst.<br />

§ 413 Für den TM haben wir die verschiedenen Spektralkanäle und Mischungen bereits in<br />

Abb. 3.47 und 3.48 im Detail betrachtet – beim ETM+ ändert sich an den Grundprizinpien<br />

nichts, lediglich die Zahl der Spektralkanäle ist größer. Abbildung 3.52 gibt eine grobe Vorstellung<br />

über die einzelnen Teilbänder – wobei hier nicht jeder Kanal die gleiche Szene zeigt<br />

sondern eine Szene, in diesem Fall der Harz, wie ein Mosaik aus den Bildern verschiedener<br />

te. In beiden Fällen hat die Autobahn, in der Realität mit Mittelstreifen und Böschung vielleicht 25 mm<br />

breit, eine Darstellungsbreite von 2 mm. Beim großen Maßstab entspricht dies in der Natur einer noch nicht<br />

realitätsfernen Breite von 50 m, beim kleinen Maßstab dagegen locker einer Breite von 1 km.<br />

2. Juli 2008 c○ M.-B. Kallenrode


3.2. PASSIVE INSTRUMENTE IM SICHTBAREN SPEKTRUM 129<br />

Tabelle 3.7: Eigenschaften des Advanced Very High Resolution Radiometer AVHRR auf den<br />

POES Satelliten; oben AVHRR/1 und AVHRR/2, unten AVHRR/3 [134]<br />

Kanäle zusammen gesetzt wurde. Die wesentlichen Merkmale sind wieder der Dunstschleier<br />

im Blauen (ganz links) sowie die schlechte Auflösung im thermischen Infrarot TIR. Im nahen<br />

Infrarot bietet IR1 die höchsten Kontraste – was auch kein Wunder ist, da es sich im<br />

wesentlichen um eine ländliche und damit Vegetationsreiche Szene handelt.<br />

NOAA/POES AVHRR<br />

§ 414 Ein dem LandSat-Spektralabtaster ähnliches Instrument ist das Advanced Very High<br />

Resolution RadiometerAVHRR [308, 309, 391, 637, 638, 705, 710] auf vielen Satelliten der NO-<br />

AA/POES- [426, 427, 559, 560, 561, 562] und TIROS-N [592] Serie. Die räumliche Auflösung<br />

dieses Scanners ist mit ungefähr 1 km wesentlich schlechter als die der LandSat-Instrumente.<br />

Dafür wird aber ein 3 000 km breiter Streifen abgescannt (statt der 185 km beim Land-<br />

Sat MSS). Dadurch ergibt sich eine leichte Überlappung der bei zwei aufeinanderfolgenden<br />

Orbits gescannten Fläche, so dass innerhalb eines Tages die ganze Erdoberfläche gescannt<br />

werden kann. Diese relativ geringe Auflösung ist für verschiedene meteorologische und ozeanographische<br />

Anwendungen vollkommen ausreichend, insbesondere da sie mit einer besseren<br />

Zeitauflösung verbunden ist. So werden die AVHRR-Aufnahmen in den USA häufig in der<br />

Wettervorhersage verwendet. Die Oberflächentemperaturen der Ozeane können bestimmt<br />

werden, da es zwei im thermischen Infrarot arbeitende Kanäle gibt. Schneebedeckungen,<br />

Wasserresourcen, Landformen und großflächige Vegetationsuntersuchungen werden ebenfalls<br />

mit den Daten dieses Instruments durchgeführt (vgl. [41] und Beispiele in [60]; oder auch<br />

Abb. 3.88).<br />

§ 415 Die spektralen Charakteristika der AVHRR-Instrumente der verschiedenen Generationen<br />

sind in Tab. 3.7 zusammen gefasst – AVHRR/3 [309] kommt auf den aktuellen NOAA-<br />

Satelliten (ab NOAA-15 auch genannt POES-15 [561, 562]) zum Einsatz. Die Auslegung<br />

der Spektralkanäle unterscheidet sich von der des TM auf LandSat, da die mit AVHRR<br />

zu untersuchenden Fragestellungen andere sind: LandSat als klassischer Geograph verfügt<br />

über ein gutes spektrales Auflösungsvermögen im sichtbaren Bereich des elektromagnetischen<br />

Spektrums. Das AVHRR dagegen wird auf einem Meteorologie-Satelliten geflogen und<br />

ist daher eher auf Fragestellungen bezüglich Wolken, Temperaturen der Meeresoberfläche<br />

(SST sea surface temperature) und Temperaturmessungen allgemein ausgelegt. Auf Grund<br />

der Verwendung als Meteorologie-Satellit beträgt die Wiederholfrequenz einen Tag (sonnensnychrone<br />

Bahn mit einer Swath Width größer als der Erdumfang geteilt durch die Zahl der<br />

Umläufe pro Tag; für eine bessere Zeitauflösung werden Bahnen von Satelliten in versetzten<br />

Orbits kombiniert). Auf Grund der entsprechend großen Swath Width von 2600 km ist das<br />

c○ M.-B. Kallenrode 2. Juli 2008


130 KAPITEL 3. SATELLITENINSTRUMENTE<br />

Abbildung 3.53: Spektralkanäle verschiedener klassischer Imaging-Instrumente und Transmission<br />

der Erdatmosphäre [134]. Die einzelnen Instrumente sind im Text beschrieben: AVHRR<br />

auf NOAA/POES in § 414ff, der Thematic Mapper von LandSat in § 404ff, der Multispectral<br />

Scanner MSS ebenfalls auf LandSat in § 399ff und das HRV von Spot in seinen beiden Modi<br />

in § 391<br />

Bodenauflösungsvermögen mit ca. 1 km eher gering. Andererseits ist ein Auflösungsvermögen<br />

von 1 km für Wolken oder eine Ozeanströmung immer noch sehr gut und erlaubt wesentlich<br />

detailliertere Untersuchungen der Dynamik von Ozeanen und Atmosphäre als es mit einem<br />

geostationären Meteorologie-Satelliten möglich ist.<br />

§ 416 Abbildung 3.53 fasst noch einmal die Lage der Spektralkanäle verschiedener Imaging-<br />

Instrumente zusammen im Vergleich zur Transmission der Erdatmosphäre.<br />

§ 417 Auf dem Prinzip des Multispektralabtasters arbeitende Kameras werden auch für planetare<br />

Missionen verwendet, z.B. Mars 94/96 [175, 294, 379]. Auch die stärkere Erweiterung<br />

ins IR wird bei planetaren Missionen verwendet, so hat das Thermal Emission Imaging System<br />

THEMIS [655] auf dem Mars Odyssey Orbiter 5 Spektralbänder im sichtbaren und neun<br />

im thermischen IR.<br />

Verständnisfrage 26 In § 359 haben wir die Bildverschiebung als einen Aspekt der Verschlechterung<br />

des Auflösungsvermögens kennen gelernt. Überlegen Sie sich mögliche instrumentelle<br />

Modifikationen (in den voran gegangenen Abschnitten sollten Sie ausreichend Ideen<br />

erhalten haben), um die Bildverschiebung klein zu halten.<br />

3.2.10 Und der erdgebundene Beobachter?<br />

§ 418 Nicht alles, was Google Earth und Konsorten anbieten, ist vom Satelliten aus beobachtet.<br />

Gerade im hochauflösenden Bereich (und damit wieder in der klassischen Kartographie)<br />

greift man auf Aufnahmen von Flugzeugen zurück. Auch wenn der Träger (und damit einige<br />

Eigenschaften der Instrumente wie Brennweite und Swath Width) andere sind, die grundlegenden<br />

Merkmale sind identisch mit denen der Fernerkundung vom Satelliten aus:<br />

• das Gelände wird in Streifen aufgenommen – wobei das exakte Abfliegen der einzelnen<br />

Streifen und die genaue Ausrichtung der Kamera deutlich schwieriger ist als beim Satelliten,<br />

• die Aufnahmen können mit Film oder CCD als Aufzeichnungsmedium vorgenommen werden.<br />

2. Juli 2008 c○ M.-B. Kallenrode


3.3. PASSIVE INSTRUMENTE IM NICHT-SICHTBAREN 131<br />

§ 419 Ein Beispiel für eine moderne Luftbildkamera ist die digitale Leica ADS40 [302, 396]<br />

von Leica-Geosystems [395]. Die Sensorkonstruktion erlaubt die gleichzeitige Aufzeichnung<br />

von sieben Bildstreifen: Drei panchromatische CCD-Zeilen erfassen vom Flugzeug aus Informationen<br />

in Vorwärts-, Nadir- und Rückwärtsrichtung, während vier spektrale Zeilen<br />

Daten im Blau-, Grün-, Rot- und im nahen Infrarotband erfassen. Damit lassen sich panchromatische,<br />

Farb- und Falschfarbenaufnahmen erzeugen – im Gegensatz zu den meisten<br />

Satelliteninstrumenten liegen hier auch Informationen im blauen Kanal vor. Das räumliche<br />

Auflösungsvermögen beträgt bei den Schwarz–Weiß-Stereobildern 5 cm. Beispiele und weitere<br />

Erläuterungen zum Messprinzip finden sich unter [63] und [301]. Da die Kamera auch über<br />

einen Kanal im nahen IR verfügt, ist ihre Anwendung nicht auf die Kartographie beschränkt<br />

sondern kann natürlich auf die Umweltbeurteilung ausgedehnt werden; für Beispiele siehe<br />

[70].<br />

3.2.11 Zusammenfassung<br />

§ 420 Wir haben in diesem Abschnitt verschiedene Instrumente kennen gelernt, die das von<br />

der Erde reflektierte Licht im sichtbaren und nahen infraroten Bereich aufzeichnen. Da die<br />

Instrumente reflektiertes Licht detektieren, handelt es sich um passive Instrumente. Und da<br />

sie, auf welche Weise auch immer, die räumliche Information als 2D-Abbildung darstellen,<br />

handelt es sich um Imaging Instrumente.<br />

§ 421 Die wichtigsten passiven Imager waren lange Zeit konventionelle photographische Systeme,<br />

die außer bei bemannten und vielleicht auch militärischen Missionen immer mehr an<br />

Bedeutung verlieren, und durch Scanner und opto-elektronische Detektoren ersetzt werden<br />

– heute allerdings mit der Verwendung von CCD-Arrays wieder teilweise an ihre Ursprünge<br />

zurück kehren. Wichtigste Kenngrößen dieser Instrumente sind das räumliche und das spektrale<br />

Auflösungsvermögen. Insbesondere die Kombination verschiedener Spektralkanäle und<br />

die Verwendung des nahen Infrarot sind bei der Interpretation der Bilder (z.B. Identifikation<br />

und Bewertung von Vegetation) wichtig.<br />

3.3 Passive Instrumente im nicht-sichtbaren<br />

§ 422 Passive Instrumente im nicht-sichtbaren Bereich detektieren die von den Untersuchungsobjekten<br />

emittierte Strahlung. Für terrestrische Objekte ist dies im wesentlichen die<br />

thermische Infrarot-Strahlung. Bei der Sonne und anderen astrophysikalischen Objekten wird<br />

vom Satelliten auch die harte elektromagnetische Strahlung vom Ultraviolett über Röntgenbis<br />

hin zur γ-Strahlung untersucht, da diese auf Grund der atmosphärischen Absorption vom<br />

Boden aus nicht gemessen werden kann – und umgekehrt natürlich mögliche terrestrische<br />

Strahlenquellen in diesem Bereich vom Satelliten nicht detektiert werden können.<br />

§ 423 Weitere Instrumente detektieren die von terrestrischen Objekten emittierte Mikrowellenstrahlung<br />

(passive Mikrowelleninstrumente) oder den über das gesamte Spektrum integrierten<br />

Strahlungsstrom (Solarkonstante bzw. deren reflektierter Anteil).<br />

3.3.1 Thermisches Infrarot<br />

§ 424 Instrumente, die im thermischen Infrarot arbeiten, messen die Temperaturstrahlung<br />

von Objekten. Auch einige der in Abschn. 3.2.7 erwähnten Scanner haben mindestens einen<br />

Kanal, der im thermischen IR misst – und benötigen daher einen entsprechenden Detektor.<br />

Die untersuchten Objekte können die Oberflächen der Ozeane, Vegetation, Landoberflächen<br />

aber auch Wolken sein. Will man die Daten dieser Instrumente auswerten, so benötigt man<br />

eine Umrechnung der Intensität der elektromagnetischen Strahlung über einen gewissen Wellenlängenbereich<br />

im Infraroten auf eine Temperatur. Die physikalische Grundlage hierfür<br />

sind die Strahlungsgesetze, insbesondere das Stefan–Boltzmann-Gesetz und das Wien’sche<br />

Verschiebungsgesetz.<br />

c○ M.-B. Kallenrode 2. Juli 2008


132 KAPITEL 3. SATELLITENINSTRUMENTE<br />

Abbildung 3.54: Planck’sche<br />

Kurven für verschiedene<br />

Temperaturen (oben) sowie<br />

Strahlungsstrom (Stefan–<br />

Boltzmann Gesetz, unten<br />

links) und Wellenlänge des<br />

Maximums (Wien’sches Verschiebungsgesetz,<br />

unten rechts)<br />

in Abhängigkeit von der<br />

Temperatur<br />

Strahlungsgesetze<br />

§ 425 Die Strahlungsgesetze sind unter der Annahme formuliert, dass sich ein System im<br />

(lokalen) thermodynamischen Gleichgewicht befindet und erlauben eine Charakterisierung<br />

des von einem Körper ausgesandten Strahlungsfeldes in Abhängigkeit von der Temperatur.<br />

Betrachten wir dazu einen Hohlraum, dessen Wände auf einer konstanten Temperatur T<br />

gehalten werden (z.B. in einem Wärmebad dieser Temperatur). Von diesen Wänden werde<br />

Strahlung in den Hohlraum emittiert und die aus diesem auf die Wände fallende Strahlung<br />

wird von letzterem ganz oder zum Teil absorbiert. Je größer die Strahlungsmenge im Hohlraum<br />

ist, umso größer wird auch die auf die Wände fallende Menge sein, und um so größer<br />

auch die von ihnen absorbierte Menge. Die Menge der Strahlung im Hohlraum wird daher<br />

zu- oder abnehmen, bis der Verlust durch Absorption der von den Wänden ununterbrochen<br />

emittierten Strahlung gerade das Gleichgewicht hält. Die Gleichgewichtsverteilung der Strahlung,<br />

sowohl im Bezug auf ihre Dichte als auch im Bezug auf ihre Frequenz, wird durch die<br />

Temperatur der Wände vollkommen bestimmt.<br />

§ 426 Das Kirchhoff–Planck’sche Gesetz beschreibt das Verhältnis von spektralem Absorptionsvermögen<br />

aλ zu spektralem Emissionsvermögen ɛλ für einen beliebigen Körper im thermodynamischen<br />

Gleichgewicht:<br />

ɛλ = aλ · Sλ(T ) .<br />

Darin ist die Ergiebigkeit Sλ(T ) eine universelle Funktion der Temperatur und der Frequenz.<br />

Sie wird auch als Quellfunktion bezeichnet.<br />

§ 427 Für aλ = 1 ergibt sich maximale Absorption und damit auch die maximale Ausstrahlung<br />

für den Körper. Ist aλ = 1 für alle λ, so handelt es sich um einen schwarzen Körper<br />

und die universelle Funktion der Temperatur wird durch das Planck’sche Strahlungsgesetz<br />

beschrieben. Dieses gibt an, wie viel Strahlungsenergie pro Wellenlängeneinheit von einer<br />

Flächeneinheit eines schwarzen Körpers in einer Zeiteinheit in einen Einheitsraumwinkel abgestrahlt<br />

wird:<br />

Bλ(T ) = 2hc2<br />

λ 5 ·<br />

1<br />

e hc2<br />

kλT − 1<br />

oder Bν(T ) = 2hν3<br />

c 2 ·<br />

1<br />

e hν<br />

kT − 1 .<br />

Die Planck-Kurven für verschiedenen Temperaturen sind im oberen Teil von Abb. 3.54 gegeben:<br />

mit zunehmender Temperatur nimmt der Gesamtstrahlungsstrom zu (Stefan–Boltzmann<br />

Gesetz) und das Maximum der Planck-Kurve verschiebt sich zu kürzeren Wellenlängen (Wien’sches<br />

Verschiebungsgesetz).<br />

2. Juli 2008 c○ M.-B. Kallenrode


3.3. PASSIVE INSTRUMENTE IM NICHT-SICHTBAREN 133<br />

§ 428 Die gesamte Ausstrahlung eines schwarzen Körpers ergibt sich durch Integration über<br />

die Planck’sche Strahlungskurve. Der Zusammenhang zwischen Gesamtstrahlungsstrom und<br />

Temperatur wird durch das Stefan–Boltzmann Gesetz beschrieben:<br />

�<br />

q = π<br />

0<br />

∞<br />

Bλ(T ) dλ = σT 4 , (3.5)<br />

Die gesamte Ausstrahlung eines schwarzen Körpers ist also einzig eine Funktion seiner Temperatur<br />

und der universellen Stefan–Boltzmann-Konstante σ = 5.67051 · 10 −8 W/(m 2 K 4 ).<br />

§ 429 Für beliebige andere (d.h. nicht-schwarze) Körper lässt sich bei der Definition eines<br />

mittleren Emissionsvermögens ɛ die von der Fläche in den Halbraum abgegebene Gesamtenergie<br />

bestimmen zu<br />

q = σɛT 4 . (3.6)<br />

§ 430 Das Stefan-Boltzmann Gesetz erlaubt eine einfache Abschätzung der Temperatur eines<br />

Körpers. Es wird auch auf Körper angewendet, die keine schwarzen Strahler sind. In diesem<br />

Falle definiert man dann die Effektivtemperatur eines Körpers als die Temperatur, die ein<br />

schwarzer Strahler haben müsste, um den gleichen Gesamtstrahlungsstrom zu emittieren:<br />

q = σT 4 eff . (3.7)<br />

Zwischenrechnung 14 Schätzen Sie ab, wie stark sich der Unterschied zwischen T und Teff<br />

mit zunehmendem ε verändert.<br />

§ 431 Das Wien’sche Verschiebungsgesetz ergibt sich aus dem Planck’schen Strahlungsgestz<br />

durch Ableitung nach λ und Nullsetzen. Es beschreibt die Wellenlänge des Maximums der<br />

Planck’schen Kurve in Abhängigkeit von der Temperatur des Strahlers:<br />

λmax · T = const = 2884 µm K .<br />

Mit Hilfe des Wien’schen Verschiebungsgesetzes lässt sich bei bekannter Wellenlänge des Maximums<br />

unter der Annahme, dass der Körper ein schwarzer Strahler sei, dessen Temperatur<br />

abschätzen.<br />

Verständnisfrage 27 Betrachten Sie typische Temperaturen auf der Erdoberfläche. Lässt<br />

sich λmax vom Satelliten aus bestimmen – beliebig feines spektrales Auflösungsvermögen<br />

vorausgesetzt?<br />

Detektortypen<br />

§ 432 Elektromagnetische Strahlung im infraroten Bereich kann über zwei Verfahren nachgewiesen<br />

werden: (a) die Absorption kann durch Wärmeübertrag auf den Detektor erfolgen; das<br />

Ausgangssignal ist der Widerstand des Detektors, d.h. es wird die Temperaturabhängigkeit<br />

der Leitfähigkeit zur Bestimmung der Erwärmung ausgenutzt. (b) die Absorption des Photons<br />

hebt ein Elektron aus dem Valenz- in das Leitfähigkeitsband eines geeigneten Halbleiters.<br />

§ 433 Photonen im thermischen Infrarot haben nur eine geringe Energie, viele zum Nachweis<br />

des IR verwendete Detektoren überdecken nicht den Bereich, in dem die Planck’sche Kurve<br />

bei Raumtemperatur ihr Maximum hat (Größenordnung 10 µm, siehe auch Abb. 3.54) sondern<br />

sind für Photonen mit höherer Energie empfindlich. Tabelle 3.8 gibt einen Übersicht<br />

über gebräuchliche Materialien und die Wellenlängenbereiche, in denen sie einsetzbar sind.<br />

§ 434 Nachweisverfahren für Photonen im thermischen Infrarot werden mit zunehmender<br />

Wellenlänge immer problematischer: auch Satellit und Instrument emittieren thermische Photonen<br />

mit den ihrer Temperatur entsprechenden Wellenlänge; für eine Abschätzung gemäß<br />

Wien’schem Verschiebungsgesetz siehe Abb. 3.54. Eine Trennung der Planck-Kurven von<br />

Detektorsystem und Zielobjekt ist nicht möglich, da der Wellenlängenbereich des Strahlers<br />

c○ M.-B. Kallenrode 2. Juli 2008


134 KAPITEL 3. SATELLITENINSTRUMENTE<br />

Tabelle 3.8: Detektormaterialien zur Messung im Infraroten und ihre Abhängigkeit von der<br />

Wellenlänge [134]<br />

Abbildung 3.55: Planck-<br />

Kurven für Detektor und<br />

Untersuchungsobjekt und<br />

Messstrategien zur Reduktion<br />

des Fehlers durch die thermische<br />

Emission von Detektor<br />

und Satellit<br />

mit der geringeren Temperatur immer eine Teilmenge des Wellenlängenbereichs des Strahlers<br />

mit der höheren Temperatur ist – und letzterer in allen Wellenlängen einen größeren<br />

Strahlungsstrom emittiert.<br />

§ 435 Gemäß dieser Argumentation wäre die ideale Konfiguration zur Temperaturmessung<br />

mit Hilfe eines IR-Sensors ein Sensor (inkl. Gehäuse etc.) mit einer Temperatur am absoluten<br />

Nullpunkt. Dann verschwindet die zugehörige Planck-Kurve und es wird nur das Spektrum<br />

(und damit die Effektivtemperatur) des Untersuchungsobjekts gemessen.<br />

§ 436 Der absolute Nullpunkt ist nicht erreichbar; selbst unter Laborbedingungen noch vergleichsweise<br />

einfach zu erzeugende tiefe Temperaturen lassen sich auf einem Satelliten nicht<br />

einfach erzeugen. Daher muss ein Kompromiss gefunden werden zwischen der Störung auf<br />

Grund der thermischen Emission von Detektor und Gehäuse und den Möglichkeiten der<br />

Kühlung. Rein auf der Basis der Planck-Kurven lassen sich zwei Strategien entwickeln, siehe<br />

Abb. 3.55: (a) das Verhältnis der Gesamtstrahlungsströme von (Zielobjekt + Detektor) und<br />

Detektor soll maximal werden oder (b) es wird der relativ kurzwellige Teil der Planck-Kurve<br />

des Zielobjekts erfasst und der langwellige Teil, in dem die Detektortemperatur ein relativ<br />

großes Störsignal bildet wird gar nicht mit gemessen. Da in diesem Fall nicht mehr der Gesamtstrahlungsstrom<br />

sondern nur ein Teilintegral unter der Planck-Kurve gebildet wird, muss<br />

der Algorithmus zur Bestimmung der Effektivtemperatur entsprechend modifiziert werden.<br />

Verständnisfrage 28 Lässt sich aus dem Teilstrahlungsstrom die Effektivtemperatur eindeutig<br />

rekonstruieren?<br />

Zwischenrechnung 15 In der Fernerkundung interessiert in der Regel der Temperaturbereich<br />

von −30 bis +40 ◦ . Schätzen Sie den Fehler in der Bestimmung der Effektivtemperatur<br />

für verschiedenen Detektortemperaturen zwischen 150 und 220 K ab.<br />

Zwischenrechnung 16 Schätzen Sie für die Angaben aus Zwischenrechnung 15 eine Grenzwellenlänge<br />

ab, bei der das Instrument das Spektrum abschneiden soll, um den Einfluss der<br />

Detektortemperatur auf die Bestimmung der Effektivtemperatur zu verringern.<br />

2. Juli 2008 c○ M.-B. Kallenrode


3.3. PASSIVE INSTRUMENTE IM NICHT-SICHTBAREN 135<br />

Tabelle 3.9: Temperaturabhängigkeit des Cutoffs im IR für verschiedene Detektormaterialien<br />

[134]<br />

Verständnisfrage 29 Sie haben auf Basis von Zwischenrechnung 15 die Detektortemperatur<br />

dem engestrebten Fehler entsprechend angepasst. Ist Ihr System auch dann brauchbar,<br />

wenn das Instrument plötzlich für die Überwachung eines Vulkans verwendet werden soll?<br />

§ 437 Verständnisfrage 28 ist eigentlich eine Fangfrage: kein auf einem Satelliten betriebenes<br />

Instrument im thermischen Infrarot misst wirklich den von einem terrestrischen Objekt<br />

emittierten Gesamtstrahlungsstrom: selbst wenn alle störende thermische Emission beseitigt<br />

werden könnte (Instrument und Satellit sind auf den absoluten Nullpunkt gekühlt), ist das<br />

gemessene Spektrum der thermischen Strahlung unvollständig, da die Atmosphäre gerade im<br />

thermischen IR stark absorbiert, siehe Abb. 3.3 und 3.82. Letztere Abbildung zeigt gleichzeitig<br />

auch, dass die Atmosphäre in einigen dieser Bereiche im thermischen IR emittiert 16 – es wird<br />

also ein kombiniertes Spektrum von thermischer Emission von Erdboden und Atmosphäre<br />

gemessen. Daher ist die Interpretation der gemessenen Strahlungsströme nicht ganz einfach;<br />

die Kombination mehrerer Spektralbänder im thermischen IR liefert genauere Resultate als<br />

die Verwendung eines einzigen Kanals; insbesondere im Hinblick auf die unterschiedlichen<br />

Anteile der vom Erdboden und von der Atmosphäre emittierten Strahlung.<br />

§ 438 Doch zurück zur Umgebungstemperatur. Tabelle 3.9 gibt die Cutoff-Wellenlängen für<br />

verschiedenen Detektormaterialien in Abhängigkeit von der Temperatur: eine Temperatur<br />

von 300 K entspricht ungefähr Zimmertemperatur, 190 K sind repräsentativ für thermoelektrische<br />

Kühlung und Kühlmittel wie Freon-13 oder Trockeneis; 80 K entspricht der Temperatur<br />

von flüssigem Stickstoff. Für den Bereich zwischen 1.5 und 60 K benötigt man flüssiges<br />

Ne, H oder He. Instrumente im nahen IR (wie die einfacheren Scanner wie MSS auf LandSat<br />

oder HRV auf SPOT) arbeiten mit Detektoren, die in der Regel nicht unter 200 K gekühlt<br />

werden müssen. Dies lässt sich auf einem Satelliten durch geschickte Anordnung und Abstrahlflächen<br />

erreichen. Für Detektoren im Bereich von 1.1 − 17 µm, d.h. im thermischen IR,<br />

werden typischerweise Temperaturen zwischen 50 und 80 K benötigt.<br />

§ 439 Für ein Laborexperiment lassen sich diese Temperaturen mit Hilfe von flüssigem Stickstoff<br />

recht einfach erzeugen – auf einem Satelliten benötigt man stattdessen einen Cryocooler.<br />

Diese Kleinst-Kühlschränke erreichen Temperaturen, die im Bereiche des Siedepunkts<br />

von Stickstoff von 77 K liegen können bis hinunter zum Siedepunkt von He bei 4 K. Eine<br />

Übersicht gibt [456]. Das typischerweise für Satelliteninstrumente verwendete Verfahren<br />

beruht auf dem Stirling-Motor – nur eben in nicht als Wärme- sondern als Kältemaschine<br />

betrieben [618, 653].<br />

§ 440 Mit der Entwicklung von Sensoren für das thermische IR, die keine Kühlung mehr<br />

benötigen, werden die Möglichkeiten dieser Instrumente deutlich erweitert – die Planung<br />

für EmberSat [145] ist ein Beispiel für die Verwendung dieses neuen Typs von Detektoren,<br />

Stuttgarts fliegendes Laptop (Flying Laptop Microsatellite [703]) ein anderes.<br />

16 Die Absorption des vom Erdboden emittierten thermischen IR durch die Atmosphäre (bzw. genauer das in<br />

der Atmosphäre enthaltene CO2 und den Wasserdampf) und die anschließende isotrope Emission thermischen<br />

IRs ist die Grundzutat für den Treibhauseffekt: auf diese Weise wird ein Teil der vom Erdboden emittierten<br />

Strahlung auf diesen zurück geworfen und führt zur Erwärmung.<br />

c○ M.-B. Kallenrode 2. Juli 2008


136 KAPITEL 3. SATELLITENINSTRUMENTE<br />

Abbildung 3.56: Microbolometer [168]<br />

Messprinzip<br />

§ 441 Thermisches IR besteht aus Photonen geringer Energie. Daher erfolgt, im Gegensatz<br />

zu Röntgen- oder Gammastrahlung (siehe Abschn. 5.2.1), der Nachweis nicht für einzelne<br />

Photonen sondern über kollektive Effekte: es wird die durch Absorption des einfallenden<br />

Lichts erzeugte Erwärmung gemessen. Letztere wird in der Regel nicht direkt sondern indirekt<br />

über den sich mit der Erwärmung ändernden elektrischen Widerstand bestimmt. Geräte<br />

dieser Art werden als Bolometer bezeichnet.<br />

§ 442 Für die <strong>Erdfernerkundung</strong> von besonderem Interesse sind die Microbolometer im mittleren<br />

[29] und thermischen IR [168, 332]: diese benötigen keine externe Kühlung, sind günstig<br />

und lassen sich als Array arrangieren, so dass Thermographie möglich wird. 17 Abbildung 3.56<br />

zeigt den Aufbau eines Pixels eines Microbolometers. Ale Pixel sind auf einem gemeinsamen<br />

Substrat aufgebracht, in der Regel eine Silizium-Schicht, die auch dem Auslesen dient. Der<br />

einzelne Pixel besteht aus einem Absorber und an seiner Unterseite dem eigentlichen Sensor,<br />

ein polykristallines SiGe-Gemisch. Die Lücke zwischen Substrat und Absorber beträgt<br />

ca. 2 µm, die Fläche des Pixels ca. 50 × 50 µm 2 . Die Kontaktierung zwischen Sensor und<br />

Substrat muss (a) thermisch leitfähig sein (sonst ist der Sensor zu träge und reagiert nicht<br />

auf Temperaturänderungen) und (b) elektrisch leitfähig sein (sonst ist ein Auslesen über das<br />

Substrat nicht möglich).<br />

§ 443 Der Widerstand des Sensors ist von der Temperatur abhängig gemäß<br />

� �<br />

Ea<br />

R(T ) = R0 exp<br />

kT<br />

mit Ea als der Aktivierungsenergie, T der Temperatur, k der Boltzmann-Konstante und R0<br />

einem nominellen Widerstand. Daraus lässt sich ein Koeffizient τ R(T) für die Änderung des<br />

Widerstands mit der Temperatur bestimmen zu<br />

τR(T) = 1 dR<br />

R dt<br />

Ea<br />

= − .<br />

kT 2<br />

Die Aktivierungsenergie Ea lässt sich aus einer Messreihe (Labor) R(T ) bestimmen:<br />

ln R(T ) = Ea<br />

kT + ln R0 .<br />

§ 444 Die Empfindlichkeit eines Mikrobolometers ist beschränkt durch die thermische Leitfähigkeit<br />

des Pixels. Die Ansprechgeschwindigkeit hängt zusätzlich natürlich auch von der Wärmekapazität<br />

ab. Eine Verringerung der Wärmekapazität führt auf ein schnelleres Ansprechen,<br />

führt aber auch auf größere statistische Fehler. Eine Vergrößerung der Wärmeleitfähigkeit<br />

erhöht zwar die Geschwindigkeit des Ansprechens, reduziert aber die Empfindlichkeit.<br />

17 Der lange Zeit führende Entwickler von Microbolometern ist Raytheon [654], ein Mischkonzern, der<br />

sich u.a. mit Produkten wie Sidewinder, Patriot oder Anti-Ballistic Early Warning Systems beschäftigt.<br />

Die Kombination ist nicht überraschen: derartige Systeme benötigen zuverlässige, kleine und unempfindliche<br />

Detektoren im IR.<br />

2. Juli 2008 c○ M.-B. Kallenrode


3.3. PASSIVE INSTRUMENTE IM NICHT-SICHTBAREN 137<br />

Instrumente<br />

Abbildung 3.57: Prinzip eines Infrarotscanners<br />

[41]<br />

§ 445 Nachdem wir die physikalischen Grundlagen zur Interpretation der Daten kurz beschrieben<br />

haben, wollen wir uns jetzt den Grundlagen des Gerätes zuwenden. Abbildung<br />

3.57 zeigt das Funktionsprinzip eines Scanners, der im thermischen Infrarot arbeitet. Dieser<br />

Scanner unterscheidet sich von den opto-mechanischen Scannern wie z.B. dem MSS auf Land-<br />

Sat nur geringfügig. Auch hier wird mit Hilfe eines Drehspiegels ein Streifen senkrecht zur<br />

Flugrichtung abgetastet. Die Signale werden mit Hilfe einer Spiegeloptik auf einen Detektor<br />

projiziert. Wird ein geeigneter Detektor in Kombination mit Detektoren im Sichtbaren/nahen<br />

IR eingesetzt, so ist ein scannender Spiegel für alle Wellenlängenbereiche ausreichend. Daher<br />

können die Universalinstrumente wie MSS, TM und AVHRR zusätzlich zum Sichtbaren und<br />

nahen IR auch thermisches IR messen. Scanner zur Beobachtung der Erdoberfläche arbeiten<br />

innerhalb der atmosphärischen Fenster zwischen 3.5 – 5.5 µm und zwischen 8.0 – 14.0 µm<br />

(vgl. auch Abb. 3.3 und 3.53 sowie Tab. 3.6).<br />

§ 446 Der entscheidende Unterschied zu einem im sichtbaren Licht arbeitenden Scanner<br />

liegt in der Betriebsweise des Detektors: da die Abbildung eigentlich ein Flugzeuginstrument<br />

zeigt, wird der Detektor hier mit flüssigem Stickstoff auf 73 ◦ K heruntergekühlt, um sein<br />

thermisches Rauschen zu verringern. Die Kühlung erfolgt mit flüssigem Stickstoff. Die in<br />

Abb. 3.57 angedeutete Speicherung der Signale auf Film erfolgte nur bei den ersten vom<br />

Flugzeug eingesetzten Infrarotinstrumenten, heutzutage wird nur Digital verarbeitet.<br />

§ 447 Spezielle Instrumente zur Messung im thermischen IR haben jedoch ein größeres<br />

spektrales Auflösungsvermögen als die Universalinstrumente. Ein klassisches Beispiel ist das<br />

TIR-Instrument auf der Heat Capacity Mapping Mission HCMM [522, 608]. Letzteres lieferte<br />

die ersten relativ hochauflösenden Daten im thermischen Infrarot mit einem Bodenauflösungsvermögen<br />

von 600 m und einem radiometrischen Auflösungsvermögen von 256<br />

Kanälen innerhalb einer Temperaturskala von 260 K bis 340 K (entsprechend einer Temperaturauflösung<br />

von 0.4 K). Mit dieser Auflösung lassen sich Wälder, landwirtschaftlich genutzte<br />

Flächen und bebaute Gebiete unterscheiden, ja sogar der innerstädtische Temperaturgradient<br />

(im Zentrum wärmer als zu den Rändern) ist deutlich erkennbar. Selbst Autobahnen<br />

c○ M.-B. Kallenrode 2. Juli 2008


138 KAPITEL 3. SATELLITENINSTRUMENTE<br />

Abbildung 3.58: Spektrale Signaturen von Gestein.<br />

Viele Gesteinsarten unterscheiden sich<br />

durch ihre spektrale Emission im thermischen<br />

Infrarot voneinander [11]<br />

zeigen sich im thermischen Infrarot als deutliche Wärmebänder. Im Vergleich dazu erlaubt<br />

der Kanal 6 des TM keine Differenzierung städtischer Bereiche, siehe auch die Beispielszene<br />

in Abb. 3.48.<br />

§ 448 Eine ausführliche Beschreibung von Daten und Datenverarbeitung sowie Dateninterpretation<br />

für HCMM findet sich in Großmann [80], der auch eine große Zahl von Beispielen für<br />

bearbeitete und unbearbeitete Aufnahmen im thermischen Infrarot zeigt. Man sollte beachten,<br />

dass die Teilinformationen über den Zustand der Vegetation nicht aus dem thermischen<br />

Infrarot kommen (das wäre die Temperatur der Pflanze), sondern aus dem nahen Infrarot<br />

(reflektiertes Infrarot, sehr stark von der internen Blattstruktur und damit dem Stress, dem<br />

die Pflanze ausgesetzt ist, abhängig). Fragen an die thermischen Infrarotaufnahmen sind eher<br />

von der Art, ob sich anthrophogene Einflüsse auf den Wärmehaushalt von Landflächen erkennen<br />

lassen [80]. Auch unterirdische Kohlefeuer lassen sich im thermischen IR identifizieren<br />

[236].<br />

§ 449 Hat ein Instrument ein ausreichend feines spektrales Auflösungsvermögen, so lassen<br />

sich auch einzelne Gesteinsarten unterscheiden. Wie in Abb. 3.58 gezeigt, haben verschiedene<br />

Gesteinsarten durchaus unterschiedliche Charakteristika im spektralen Emissionsvermögen<br />

im infraroten Bereich. Ein anderes Beispiel für die Anwendung von Infrarotsensoren ist das<br />

Temperature Humidity Infrared Radiometer (THIR [587]) auf Nimbus 4 bis Nimbus 7 [558].<br />

Dieses nutzt die Infrarotstrahlung der Wolken aus, um Karten der Wolkenbedeckung zu erzeugen,<br />

gemessen wird in zwei relativ schmalen Bändern um 6.8 µm (Wasserdampf) und<br />

11.5 µm (IR Fenster). Hier ist z.B. die Kopplung zwischen Veränderungen in der Wolkenbedeckung<br />

und im Zirkulationssystem der Ozeane von Interesse (z.B. El Niño und die Southern<br />

Oscillation, ein Wechsel zwischen warmen und kalten Oberflächenströmungen im Südpazifik,<br />

2. Juli 2008 c○ M.-B. Kallenrode


3.3. PASSIVE INSTRUMENTE IM NICHT-SICHTBAREN 139<br />

Abbildung 3.59: Tschernobyl 1985 (links) und 1986 (rechts), Aufnahme im thermischen Infrarot,<br />

LandSat [33]<br />

die sowohl für die regionale Ökologie und Ökonomie als auch für das großräumige Klima eine<br />

starke Bedeutung haben, siehe auch Abb. 10-4 in [41]).<br />

§ 450 THEMIS [39, 655, 469, 701] auf Mars Odyssey ist ein Beispiel für ein modernes IR<br />

Instrument auf einer planetaren Mission: es verwendet ein ungekühltes Array von Mikrobolometern.<br />

Damit lässt sich ein leichtes (12 kg) Instrument mit geringer Leistungsaufnahme<br />

(14 W) aber gleichzeitig guter spektraler und räumlicher Auflösung erzeugen. Im sichtbaren<br />

Bereich zwischen 0.4 und 0.8 µm arbeitet THEMIS in 5 Spektralbändern mit einer<br />

Auflösung von 20 m; im thermischen Infrarot wird im Bereich von 6.5 bis 15.5 µm in 9 Spektralbändern<br />

gemessen. Das Bodenauflösungsvermögen berägt ca. 100 m. Das gute spektrale<br />

Auflösungsvermögen im thermischen Infrarot soll ein besseres Verständnis der geologischen<br />

Prozesse auf dem Mars ermöglichen – Abb. 3.58 sollte auch für die entsprechenden Gesteine<br />

auf dem Mars gelten, allerdings ist das atmosphärische Fenster, über das das Spektrum bestimmt<br />

werden kann, größer als auf der Erde. Daher ist die größere Zahl von Spektralkanälen<br />

sinnvoll – was wiederum eine bessere Unterscheidung der einzelnen Gesteinssorten erlaubt,<br />

siehe auch [39].<br />

Anwendung: Tschernobyl<br />

§ 451 Abbildung 3.59 zeigt, wie Abb. 3.27, einen Vorteil der <strong>Erdfernerkundung</strong> mit Hilfe<br />

von Satelliten: das Monitoring und damit die Entdeckung von Veränderungen. Hier sind Aufnahmen<br />

im thermischen Infrarot (Wasserflächen) mit einer Aufnahme im sichtbaren (Landflächen)<br />

kombiniert für Tschernobyl. Die linke Aufnahme wurde von LandSat 1985 gemacht:<br />

die Einleitung des Kühlwassers aus dem Reaktorblock in den See ist als deutliches thermisches<br />

Signal zu erkennen. Entsprechend ist der See am anderen Ende auf Grund des aus den<br />

Flüssen zugeführten Wassers relativ kalt. Die rechte Aufnahme aus dem Jahre 1986 zeigt den<br />

still gelegten Reaktor, erkennbar an der nun relativ gleichmäßigen Temperatur des Sees, dem<br />

Fehlen einer ausgeprägten Temperaturdifferenz zwischen Ein- und Auslass des Reaktorblocks<br />

sowie der thermischen Isolation vom benachbarten kühleren Flusssystem.<br />

§ 452 Die thermische Infrarot-Aufnahme erlaubt damit, im Gegensatz zur Aufnahme im<br />

sichtbaren Bereich, nicht nur die Identifkation von strukturellen Veränderungen (Baumaßnahmen<br />

bzw. in diesem Fall Zerstörung der Reaktorgebäude) sondern würde auch bei intakter<br />

Struktur eine Identifikation veränderter Betriebsmodi erlauben.<br />

c○ M.-B. Kallenrode 2. Juli 2008


140 KAPITEL 3. SATELLITENINSTRUMENTE<br />

Abbildung 3.60: Zusammengesetzte Aufnahme von Wolken-, Land- und Meeresoberflächentemperaturen<br />

[196]<br />

§ 453 Abbildung 3.60 zeigt ein Beispiel für eine weiter bearbeitete Aufnahme im thermischen<br />

Infrarot: in dieser Aufnahme sind Informationen von verschiedenen (meist geostationären)<br />

Wettersatelliten zu einer innerhalb von insgesamt 3 h entstandenen globalen Aufnahme kombiniert.<br />

Mit Hilfe eines Wolkenidentifikationsalgorithmus wurde bestimmt, ob eine bestimmte<br />

Stelle bewölkt war oder nicht, entsprechend wurde der Bildpunkt einer der Temperaturskalen<br />

für Wolken, Eis und Schnee, Wasser oder Land zugeordnet. Das Bodenauflösungsvermögen<br />

beträgt ungefähr 40 km.<br />

Anwendung: Unterirdischer Wasserlauf<br />

§ 454 Dass Satelliten zur Untersuchung der Hydrosphäre, d.h. der Wasserschicht des Planeten<br />

verwendet werden, ist einleuchtend, insbesondere wenn man berücksichtigt, dass 70% der<br />

Erdoberfläche durch Wasser bedeckt sind. Der größte Teil dieses Wassers befindet sich in den<br />

Ozeanen, süßwasserhaltige Gewässer machen nur einen kleinen Teil der Oberflächengewässer<br />

aus. Weitere Süßwasservorkommen befinden sich unterhalb der Erdoberfläche, so findet sich<br />

z.B. ein sehr großes Reservoir fossilen Wassers unter der Sahara [109]. Die Entdeckung und<br />

Beobachtung unterirdischer Wasserreservoire und -ströme durch Satelliten mag vielleicht auf<br />

den ersten Blick eine etwas befremdliche Aufgabe der <strong>Erdfernerkundung</strong> sein. Warum sollte<br />

man durch den Blick von außen auf die Erde in der Lage sein, Wasservorkommen unterhalb<br />

der Erdoberfläche zu erkennen? Was sind die spezifischen Merkmale solcher Wasservokommen?<br />

§ 455 Wenn man sich Aufnahmen im thermischen Infrarot, d.h. im Bereich der von einem<br />

Körper emittierten Wärmestrahlung ansieht, so fallen Wasserflächen in der Regel sofort auf,<br />

da sie aufgrund ihrer großen Wärmekapazität tagsüber oft kühler, nachts aber wärmer sind<br />

als ihre Umgebung – und da sie kaum einen Tagesgang in der Temperatur zeigen (Beispiele<br />

z.B. in [209]). Insbesondere das Signal eines Wasserkörpers als warmes Element auf einer<br />

2. Juli 2008 c○ M.-B. Kallenrode


3.3. PASSIVE INSTRUMENTE IM NICHT-SICHTBAREN 141<br />

Abbildung 3.61: Unterirdische<br />

Wasserläufe werden im thermischen<br />

Infrarot sichtbar [41]<br />

nächtlichen Aufnahme kann man sich bei der Suche nach bzw. Überwachung von unterirdischen<br />

Wasserflächen zu Nutze machen. Abbildung 3.61 zeigen dies sehr anschaulich in einem<br />

Vergleich einer im sichtbaren Licht gemachten Aufnahme mit einer Aufnahme im thermischen<br />

Infrarot. Im sichtbaren Licht lassen sich unter landwirtschaftlich genutzten Flächen<br />

keine Hinweise auf Wasser finden.<br />

§ 456 Im thermischen Infrarot zeichnen sich nachts dagegen deutlich zwei Wasseradern ab.<br />

Deren Temperaturunterschied zur Umgebung lässt sogar einige Rückschlüsse auf die Eigenschaften<br />

dieser Wasseradern zu: die eine Ader zeichnet sich sehr hell ab, d.h. sie ist deutlich<br />

wärmer als der sie umgebende Boden. Das lässt auf eine relativ schnelle Strömung des Wassers<br />

schließen, da bei langsamer Strömung ein Wärmeaustausch mit der Umgebung stattgefunden<br />

hätte. Diese wasserführende Ader besteht daher aus ziemlich grobem Material, das eine relativ<br />

hohe Durchflussgeschwindigkeit erlaubt. Eine andere Wasserader dagegen zeichnet sich<br />

nur wesentlich schwächer gegenüber der Umgebung ab, das Material muss also relativ schlecht<br />

wasserdurchlässig sein, so dass Wärmeaustausch mit der Umgebung stattfinden kann.<br />

§ 457 So attraktiv dieses Verfahren auch erscheinen mag, unterirdische Wasseradern mit<br />

Hilfe von Satellitenaufnahmen im thermischen Infrarot aufzuspüren, so deutlich muss man<br />

auch die Einschränkung sehen: liegen die Wasseradern oder Reservoirs in einer größeren<br />

Tiefe als ca. 5 m, so ist (a) der Tagesgang der Temperatur zu gering und die Wasservolumina<br />

haben ungefähr die Umgebungstemperatur angenommen und (b) selbst bei schnell fließenden<br />

Gewässern ist das bis an die Oberfläche dringende Signal zu schwach, um im Rauschen erkannt<br />

zu werden.<br />

Anwendung Meere: Golfstrom<br />

§ 458 Die Untersuchung von Oberflächentemperaturen von Gewässern ist eine der Hauptanwendungen<br />

für Sensoren im thermischen Infrarot – auch das Beispiel in Abb. 3.59 basiert<br />

ja auch der Untersuchung von Oberflächentemperaturen.<br />

§ 459 Abbildung 3.62 zeigt als Beispiel den Golfstrom. Deutlich zu erkennen ist der Kern des<br />

Golfstroms (gelb), wie er sich von Florida relativ dicht entlang der Ostküste in nordöstlicher<br />

Richtung ausbreitet. Durch Instabilitäten kommt es zur Ausbildung von Wirbeln und damit<br />

zu einer Auflösung der eigentlichen Stromstruktur.<br />

§ 460 Die relativ deutliche Grenze zwischen kaltem (blau) und wärmerem (rot, gelb) Wasser<br />

im oberen Teil der Abbildung weist allerdings auch auf ein Problem bei der Verwendung von<br />

Falschfarbenaufnahmen hin: die Grenze wird durch die Veränderung der Farbe von Rot nach<br />

Blau wesentlich deutlicher hervor gehoben als ein Bereich, in dem sich die Farbe von Gelb<br />

nach Rot ändert – obwohl der Temperatursprung der gleiche ist. Daher stets Vorsicht vor<br />

Rot in Falschfarbenaufnahmen: rot hat eine hohe Signalwirkung, ist bei Falschfarben aber<br />

c○ M.-B. Kallenrode 2. Juli 2008


142 KAPITEL 3. SATELLITENINSTRUMENTE<br />

Abbildung 3.62: Der Golfstrom im thermischen<br />

Infrarot [233]<br />

Abbildung 3.63: Scannendes<br />

Multifrequenz Mikrowellenradiometer<br />

[41]<br />

häufig einfach nur eine Abstufung wie jede andere Farbe auch. Daher werden trotz moderner<br />

Aufnahmetechniken in der Medizin CT-Scans und ähnliches immer noch in Graustufen<br />

dargestellt und nicht in Farben.<br />

3.3.2 Passive Mikrowelleninstrumente<br />

§ 461 Passive Detektoren im Mikrowellenbereich haben gegenüber anderen Detektoren zwei<br />

Vorteile: (a) sie arbeiten auch bei Bewölkung und (b) sie arbeiten auch nachts, da sie nicht<br />

die reflektierte solare Strahlung messen, sondern die von den Körpern emittierte Mikrowellenstrahlung.<br />

Dieses Prinzip haben sie mit den Detektoren im thermischen Infrarot gemeinsam.<br />

Dem steht jedoch ein entscheidender Nachteil der Mikrowellendetektoren gegenüber:<br />

auf Grund der großen Wellenlängen ist das räumliche Auflösungsvermögen dieser Detektoren<br />

gemäß (3.3) gering. Auch ist der emittierte Strahlungsstrom im Mikrowellenbereich<br />

nur gering, d.h. die radiometrische Auflösung ist schlecht. Oder anders formuliert: ein gutes<br />

räumliches Auflösungsvermögen wäre nur bei langen Belichtungszeiten zu erreichen; das<br />

geringe Auflösungsvermögen sorgt zumindest dafür, dass der geringe Strahlungsstrom über<br />

eine ausreichende Fläche integriert eine messbare Größe ergibt.<br />

Zwischenrechnung 17 Schätzen Sie den Strahlungsstrom bei 0.15 cm ab und vergleichen<br />

Sie ihn mit dem im thermischen IR bei 11 µm. Schätzen Sie ab, wie groß die auf einen<br />

Messpunkt abgebildete Fläche im Vergleich zu der im thermischen IR sein muss, um eine<br />

2. Juli 2008 c○ M.-B. Kallenrode


3.3. PASSIVE INSTRUMENTE IM NICHT-SICHTBAREN 143<br />

vergleichbare Zahl von Photonen auftreffen zu lassen. Hilft es, wenn Sie Öffnungswinkel des<br />

Instruments und Detektorfläche im Gegensatz zum Instrument im TIR deutlich vergrößern?<br />

§ 462 Die von der Erdoberfläche emittierte thermische Emission im Mikrowellenbereich lässt<br />

sich charakterisieren über ihre Intensität, ihre Polarisation, ihre Frequenz und den Winkel,<br />

unter dem sie beobachtet wird. Alle vier Größen hängen von der betrachteten Oberfläche,<br />

insbesondere der Temperatur und der Emissivität. Auf Grund der geringen Intensitäten ist<br />

das Hauptproblem im Instrumentdesign die Reduktion des Rauschens.<br />

§ 463 Dazu gehört nicht nur, wie bei Instrumenten im thermischen IR, das Rauschen des<br />

Sensors sondern auch der Einfluss von Störquellen. Passive Mikrowellensensoren detektieren<br />

Strahlung von vier Quellen:<br />

• von der Atmosphäre emittierte Strahlung,<br />

• an der Erdoberfläche reflektierte Strahlung,<br />

• von der Erdoberfläche emittierte Strahlung,<br />

• Strahlung aus tieferen Bodenschichten.<br />

Die Quellen koexisiteren, so dass die Interpretation der Messungen einiges Nachdenken erfordert.<br />

So lässt sich die am Erdboden reflektierte Strahlung auf einfache Weise durch Messung<br />

nur auf der Nachtseite eliminieren. Die Emissionen von Atmosphäre und Erdboden<br />

(bzw. tieferen Bodenschichten) lässt sich durch Verwendung unterschiedlicher Frequenzen<br />

und Berücksichtigung der atmosphärischen Transmission unterscheiden. Allerdings gibt es<br />

auch eine starke Störgröße für Mikrowelleninstrumente: Mikrowellen werden natürlich auch<br />

von Kommunikationssysstemen in immer größerem Maße verwendet. Daher gibt es einen hohen<br />

Mikrowellenuntergrund. Letzterer verschlechtert das Signal- zu Rausch-Verhältnis, normalerweise<br />

gegeben als<br />

rv = Isignal<br />

Inoise<br />

� 4 TS λ<br />

= F<br />

2<br />

R2T 4 �<br />

R<br />

mit λ als der Wellenlänge, TR als der Temperatur des Empfängers (Receiver), TS als der<br />

Temperatur des Zielobjekts bzw. der Erdoberfläche und R als dem Abstand.<br />

Verständnisfrage 30 Können Sie die Abschätzung für das Signal- zu Rausch-Verhältnis<br />

physikalisch begründen?<br />

§ 464 Passive Mikrowellensensoren arbeiten bei Frequenzen zwischen 200 GHz und 1 GHZ<br />

bzw. Wellenlängen zwischen 0.15 cm und 30 cm. Das räumliche Auflösungsvermögen verringert<br />

sich daher um drei bis vier Größenordnungen, wenn wir vom infraroten Bereich in<br />

den Mikrowellenbereich gehen. Für die kürzeste Wellenlänge (Frequenz von 37 GHz) des<br />

Scanning Multichannel Microwave Radiometer SMMR [568] auf Nimbus-7 [558] ergibt sich<br />

eine Pixelgröße von 18 km x 27 km, für seine längste Wellenlänge (entsprechend 6.6 GHz)<br />

eine von 95 km x 148 km. Die Hauptanwendungsgebiete von passiven Mikrowelleninstrumenten<br />

liegen daher in den Bereichen, in denen ein sehr gutes räumliches Auflösungsvermögen<br />

nicht unbedingt erforderlich ist. Dazu gehören die Meteorologie (Messung von Temperaturprofilen<br />

in der Atmosphäre) und die Ozeanographie (z.B. Meereisbedeckung, insbesondere<br />

die Veränderungen der Meereisbedeckung in der Arktis und Antarktis als eine Art<br />

Frühwarnsystem für globale Temperaturänderungen).<br />

§ 465 Das Bodenauflösungsvermögen AG als die vom Sensor betrachtete oder besser aufgelöste<br />

Fläche eines passiven Mikrowelleninstruments hängt ab von der Wellenlänge λ, der<br />

Reichweite R, der Fläche AA der empfangenden Apertur und dem Scan-Winkel ϑ:<br />

AG = λ2 R2 sec2ϑ .<br />

AA<br />

Je größer die Antenne und je kleiner die Wellenlänge, um so größer das Bodenauflösungsvermögen.<br />

Beim Übergang vom thermischen IR in den Mikrowellenbereich reduziert sich das<br />

Bodenaufläsungsvermögen einer gegebenen Antenne um drei bis vier Größenordnungen.<br />

c○ M.-B. Kallenrode 2. Juli 2008


144 KAPITEL 3. SATELLITENINSTRUMENTE<br />

§ 466 Das reduzierte Bodenauflösungsvermögen lässt sich aber auch positiv formulieren:<br />

Mikrowelleninstrumente mitteln über Details hinweg. Zwar lässt sich nicht genau erkennen,<br />

welchem Pinguin in der Antarktis gerade sein Lieblings-Eiszacken abgebrochen ist – die<br />

relativen Anteile von Landeis zu Schelfeis zu Meereis zu eisfreiem Meer lassen sich jedoch<br />

gleichsam ‘auf einen Blick’ erkennen. Außerdem erlaubt eine geringe räumliche Auflösung<br />

ein größeres Blickfeld. Damit wird bei gleichem Orbit die Wiederholfrequenz größer – was<br />

z.B. bei der Beobachtung von driftendem Meereis ein Vorteil ist gegenüber einem erst über<br />

21 Tage aufgebauten LandSat Mosaik.<br />

§ 467 Der erste ein passives Mikrowellensystem zur <strong>Erdfernerkundung</strong> tragende Satellit<br />

war Kosmos 243 [509], gestartet im September 1968. 18 Das Radiometer hatte 4 Kanäle<br />

(8.5 cm entsprechend 3.5 GHz, 3.4 cm entsprechend 8.8 GHz, 1.35 cm entsprechend 22.2 GHz<br />

und 0.8 cm entsprechend 37.5 GHz) zur Bestimmung von atmsophärischem Wasserdampf,<br />

Flüssigwassergehalt, Eisbedeckung und Temperatur der Meeresoberfläche. Das Instrument<br />

hat nicht gescannt sondern einfach nur seinem Blickwinkel entsprechend entlang der Bodenspur<br />

abgetastet. Die ersten amerikanischen Mikrowelleninstrumente flogen auf Nimbus<br />

5 [557]: das Nimbus E microwave Spectrometer NEMS [549] als einfaches Radiometer, das<br />

Electrically Scanning Microwave Radiometer ESMR [515] als Scanner; mit letzterem Instrument<br />

sollte die Temperaturstruktur der Atmosphäre bestimmt werden. Einen Überblick über<br />

frühe passive Mikrowellenradiometer und ihre Eigenschaften gibt Tab. 3.10.<br />

§ 468 NEMS (Nimbus E microwave Spectrometer [549]) misst in fünf Kanälen: 22.24 GHz,<br />

31.40 GHz, 53.65 GHz, 54.90 GHz, und 58.80 GHz. Diese Kanäle entsprechen einem Band, in<br />

dem Wasserdampf absorbiert, einem Band im atmosphärischen Fenster sowie drei Bändern im<br />

5 mm, bei denen O2 absorbiert. Damit lassen sich Wasserdampfgehalt ebenso wie Flüssigwassergehalt<br />

der Atmosphäre bestimmen. ESMR (Electrically Scanning Microwave Radiometer<br />

[515]) ist, wie der name nahe legt, ein scannendes Instrument. Es misst bei Frequenzen von<br />

19.35 und 37 GHz, entsprechend Wellenlängen von 1.55 cm and 0.81 cm.<br />

§ 469 Auf den modernen Instrumenten (MWR und AATSR [304] auf EnviSat; AMSU [307,<br />

415] und AMSR [306, 488] auf Aqua [413] sowie MLS [320, 419] auf Aura [417] als Bestandteile<br />

des A-Train [494], siehe auch Abschn. 4.8.3) zur genaueren Untersuchung der Atmosphäre<br />

sind entsprechend modernere Mikrowelleninstrumente im Einsatz. Die dabei verwendeten<br />

Verfahren sind ähnlich dem Standardverfahren zur Messung der Ozonsäule in der Atmosphäre:<br />

man misst die emittierte Mikrowellenstrahlung bei zwei Wellenlängen, wobei bei einer<br />

Wellenlänge das zu untersuchende Spurengas ein starker Absorber ist, bei der anderen jedoch<br />

nicht. Letztere dient als Referenzwellenlänge, um die unbekannte Stärke der Strahlungsquelle<br />

abzuschätzen. Das Verhältnis der Intensitäten an den beiden Wellenlängen erlaubt es, die<br />

Konzentration des absorbierenden Spurengases zu bestimmen.<br />

§ 470 Mikrowellen können direkt zur Bestimmung der dielektrischen Eigenschaften der Erdoberfläche<br />

verwendet werden, da sich diese direkt im Emisisons- und Reflektionsvermögen für<br />

Mikrowellen widerspiegeln. Die für die dielektrischen Eigenschaften bestimmende Größe ist<br />

der Feuchtegehalt der Oberfläche. Zwar beeinflusst auch das in der Atmosphäre enthaltene<br />

Wasser (sei es als Dampf, als Tröpfchen oder als Eiskristalle) die Mikrowellen, jedoch sind<br />

alle diese Einflüsse unterschiedlich, d.h. sie erzeugen ein spezifisches Signal und können damit<br />

identifiziert werden. Beim thermischen IR arbeitet man ähnlich: Wellenlängen innerhalb des<br />

atmosphärischen Fensters geben Informationen über den Erdboden, Wellenlängen außerhalb<br />

der Fenster Informationen über die Atmosphäre. Und die Blickrichtung (Nadir, Limb) liefert<br />

weitere Unterscheidungsmöglichkeiten.<br />

18 Das erste zivile Mikrowelleninstrument flog bereits 1962 auf Mariner 2 (siehe auch Tab. 3.10), allerdings<br />

nicht zur Erdbeobachtung sondern zur Beobachtung der Venus während eines Fly By. Sein<br />

Auflösungsvermögen von 1300 km ist nicht so sehr durch das Instrument bestimmt sondern auch durch<br />

den großen Abstand von 34 773 km während des Fly By [541].<br />

2. Juli 2008 c○ M.-B. Kallenrode


3.3. PASSIVE INSTRUMENTE IM NICHT-SICHTBAREN 145<br />

Tabelle 3.10: Übersicht über frühe passive Mikrowelleninstrumente [134]; alle genannten Satelliten<br />

und Instrumente können – auch unter den Acronymen – im Master Catalog des<br />

NSSDC [505] gefunden werden<br />

Abbildung 3.64: Scannendes Mikrowellenradiometer:<br />

im Gegensatz zum oszillierenden<br />

Spiegel im optischen Scanner<br />

tastet ein scannendes Mikrowellenradiometer<br />

nicht Streifen senkrecht zur Flugrichtung<br />

ab; stattdessen folgt der Fußpunkt<br />

der Antenne (entsprechend dem<br />

momentan betrachteten Bildpunkt) einer<br />

Zykloide [134]<br />

c○ M.-B. Kallenrode 2. Juli 2008


146 KAPITEL 3. SATELLITENINSTRUMENTE<br />

Abbildung 3.65: Polarisationsunterschiede bei 37 GHz beobachtet mit dem Scanning Multi-<br />

Channel Radiometer SMMR auf Nimbus-7 [38]<br />

§ 471 Abbildung 3.63 zeigt den schematischen Aufbau eines scannenden Mikrowellenradiometers.<br />

Gescannt wird durch zwei Bewegungen, die Rotation des Instruments und die<br />

Vorwärtsbewegung des Satelliten. Da das einfallende Signal nur sehr gering ist, ist eine Reduktion<br />

des Rauschens des Empfängers ein wesentlicher Bestandteil. Der Empfänger besteht<br />

im wesentlichen aus einer Hochgewinnantenne, anschließender Signalverarbeitung und einer<br />

Quelle für ein Referenzsignal. Zum Arbeitsprinzip und zum Verständnis technischer Details<br />

sei auf [198] verwiesen.<br />

§ 472 Im Gegensatz zu einem im optischen arbeitenden Scanner oszilliert der Spiegel nicht<br />

sondern er rotiert – das hat ganz triviale mechanische Gründe. Durch diese Rotation wird<br />

nicht ein Streifen senkrecht zur Bodenspur abgescannt. Stattdessen folgt der Fußpunkt der<br />

Antenne (und damit der momentan betrachtete Bildpunkt) einer Zykloide, siehe Abb. 3.64.<br />

§ 473 Neben dem Scanner werden auch Sounder als passive Mikrowelleninstrumente verwendet.<br />

Diese erstellen vertikale Profile von Spurengasen, in dem sie in der Nähe der Resonanzfrequenzen<br />

dieser Moleküle messen. Sounder im Sinne der Limb-Sounder werden mit Mikrowellen<br />

aufgrund der schlechten vertikalen Auflösung nicht häufig realisiert; MLS [320, 419]<br />

auf Aura [417] ist jedoch ein Beispiel dafür, das das Verfahren funktioniert.<br />

§ 474 Abbildung 3.65 zeigt als Beispiel für Daten von einem passiven Mikrowelleninstrument<br />

die über den Zeitraum von Januar 1979 bis Dezember 1986 gemittelten Polarisationsunterschiede<br />

(horizontal vs. vertikal) bei 37 GHz, beobachtet vom Scanning Multi-Channel<br />

Radiometer SMMR auf Nimbus-7. Über unbewachsenen Oberflächen ist diese Differenz relativ<br />

groß (25 bis 35 K), mit zunehmender Vegetationsdichte verringert sich diese. Daher<br />

kann ein Mikrowelleninstrument auch zur großräumigen Überwachung von Vegetation und<br />

zur Untersuchung von Desertifikation verwendet werden. In der Abbildung erkennt man die<br />

höchsten Werte des Polarisationsunterschieds über den großen Wüsten (Sahara, Namib, Rub<br />

Al Khali usw.), die geringsten über den Regenwäldern Brasiliens, Kameruns und Indonesiens.<br />

Und selbst in der Sahara sind die Bergregionen von Ahaggar, Adrar und Air deutlich<br />

an ihrem Bewuchs zu erkennen. Die Unterschiede in der Polarisation entstehen im wesentlichen<br />

durch den Wassergehalt, so dass Abb. 3.65 im wesentlichen eine Kombination aus<br />

Pflanzenbewuchs und Bodenfeuchte darstellt – für die Detailklassifikation der Vegetation sicherlich<br />

weniger geeignet als Kombinationen aus sichtbarem Licht und nahem IR (NDVI,<br />

2. Juli 2008 c○ M.-B. Kallenrode


3.4. AKTIVE INSTRUMENTE 147<br />

Abbildung 3.66: Polarisationsunterschiede<br />

bei 18 GHz beobachtet mit dem Scanning<br />

Multi-Channel Radiometer SMMR<br />

auf Nimbus-7 über der Antarktis im Januar<br />

1979 [237]<br />

siehe auch Abschn. 3.7.2 und Abb 3.87); unter dem Aspekt der Wüstenbildung auf Grund<br />

des betrachteten allgemeineren Kriterium Feuchte bzw. Wassergehalt dagegen eher geeignet.<br />

§ 475 Polarisationsunterschiede bei 18 GHz basieren ebenfalls auf der Existenz von flüssigem<br />

Wasser im Bildbereich. Ein Anwendungsbeispiel ist in Abb. 3.66 gezeigt: Polarisationsunterschiede<br />

über dem arktischen Eisschild. Blau sind die Bereiche mit einem signifikanten Gehalt<br />

an flüssigem Wasser, d.h. auch die Bereiche, in denen im Sommer der Eisschild schmilzt.<br />

§ 476 Das folgende Beispiel illustriert die Vorteile von Mikrowellen besonders gut: Eis lässt<br />

sich zwar auch im sichtbaren und im thermischen IR gut nachweisen (siehe z.B. auch Abb. 3.92),<br />

jedoch ist die Dynamik des Eises dort nur durch sein saisonales Verschwinden bzw. Auftauchen<br />

zu erkennen. Diese Verfahren weisen also nur ein vollständiges Verschwinden der<br />

Eisdecke nach. Für die Bedeckung mit Meereis ist dies sinnvoll. Ein Eisschild verändert sich<br />

jedoch lange Zeit in seiner Mächtigkeit bis er an den Rändern so weit abgeschmolzen ist, das<br />

dort auch sein zurückweichen zu erkennen ist. Schmelzende Eis ist jedoch gleich bedeutend<br />

mit flüssigem Wasser, so dass die Daten aus Abb. 3.66 einen Hinweis auf die Bereiche geben,<br />

in denen der arktische Eisschild zwar taut aber eben noch den darunter liegenden Boden<br />

oder Ozean bedeckt. Das Beispiel veranschaulicht auch recht gut, dass zum Verständnis eines<br />

Phänomens häufig eine geeignete Kombination von Instrumenten benötigt wird. Dies ist<br />

insbesondere beim Design von Missionen zu beachten – wir werden in Kapitel 4 noch einen<br />

genaueren Eindruck davon bekommen.<br />

3.4 Aktive Instrumente<br />

§ 477 Aktive Instrumente erzeugen ein elektromagnetisches Signal, beleuchten damit den<br />

Untersuchungsgegenstand und zeichnen das reflektierte Signal auf. Aktive Mikrowelleninstrumente<br />

erlauben die Messung zusätzlicher Parameter:<br />

• der Laufzeit des Signals vom Satelliten zum Boden und zurück (→ Altimeter).<br />

• der Dopplerverschiebung der Frequenz auf Grund der Bewegung des Satelliten relativ zum<br />

Boden.<br />

• die Polarisation des Signals. 19<br />

19 Diese Eigenschaft haben zwar auch passive Mikrowellensensoren, jedoch ist in dem Fall die Polarisation<br />

durch die Emission und nicht durch die Reflektion bestimmt.<br />

c○ M.-B. Kallenrode 2. Juli 2008


148 KAPITEL 3. SATELLITENINSTRUMENTE<br />

Abbildung 3.67: Kamtschatka vom Space<br />

Shuttle, aufgenommen mit SIR-C/X-<br />

SAR [622]; zur Farbkodierung siehe § 570<br />

§ 478 Das Paradebeispiel für ein aktives Instrument ist das Radar. Es ist, wie die anderen aktiven<br />

Mikrowelleninstrumente, ein lange Zeit vergleichsweise selten auf Satelliten eingesetztes<br />

Instrument, da es als aktives Instrument selber Strahlung emittieren muss und damit einen<br />

sehr hohen Energiebedarf hat. Radarsatelliten sind früher insbesondere im militärischen Bereich<br />

häufig mit kleinen Kernreaktoren ausgestattet gewesen und können so auf Grund der<br />

von ihnen emittierten γ-Strahlung leicht identifiziert werden [187]. Die Reaktoren sollen,<br />

wenn der Satellit abzusinken beginnt, vom Satelliten getrennt und in eine höhere Umlaufbahn<br />

geschossen werden. Diese Trennung funktioniert nicht immer, so dass einige Reaktoren<br />

abgestürzt sind (z.B. Kosmos 954 im Januar 1978 über Kanada, Kosmos 1402 im Februar<br />

1983 über dem Indischen Ozean; eine (etwas ältere) Übersicht über Reaktoren im Weltraum<br />

gibt [377]). Moderne Radarsatelliten kommen mit Solarzellen aus – es sind nicht nur die<br />

Solarzellen effizienter geworden sondern auch die damit bestückten Flächen deutlich größer:<br />

zum einen sind die Satelliten selbst wesentlich größer, zum anderen die (Ent-)Falttechniken<br />

wesentlich effizienter.<br />

§ 479 Die wichtigsten zivilen Radarinstrumente auf Satelliten sind die SeaSat-1 [479, 571,<br />

645] Instrumente, die Instrumente auf ERS-1 (Earth Resource Satellite) [347] sowie die auf<br />

dem Space Shuttle verwendeten SIR-A [572] auf STS-2 [583] und SIR-B Instrumente. Letztere<br />

sind auch als Vorstudien für die Entwicklung der modernen Radarsatelliten wie RadarSat<br />

[282, 283] oder TerraSat [296, 297] unerlässlich gewesen. Die Raumsonde Magellan [463, 540]<br />

ist mit einem Radar zur Kartographie der Venus ausgestattet. Das erste zivile Radar auf<br />

einem Satelliten war das SeaSat Instrument, ein SAR (Synthetic Aperture Radar) gestartet<br />

am 27. Juni 1978. Ein ziviles SLRAR (Side-Looking Real Aperture Radar [575]) wurde auf<br />

Kosmos 1500 [510], gestartet am 28. September 1983, geflogen sowie später auf der Okean-<br />

Serie der FSU. Eine Übersicht über SARs im Weltraum gibt Tab. 3.13.<br />

§ 480 Radar basiert auf der Verwendung von Mikrowellen, hat jedoch gegenüber den oben<br />

beschriebenen passiven Instrumenten den Vorteil einer höheren räumlichen Auflösung. Abbildung<br />

3.67 zeigt als Beispiel eine Radaraufnahme (SIR-C/X-SAR [574]) Aufnahme von<br />

Kamtschatka, aufgenommen vom Space Shuttle [585]. An der Aufnahme wird unmittelbar<br />

ein Unterschied zu den mit den älteren Instrumenten gemachten Aufnahmen im sichtbaren<br />

deutlich: Radaraufnahmen enthalten Informationen über die dritte Dimension, die Höhe. 20<br />

20 Die moderne Aufnahme im sichtbaren enthält heute genauso wie die früheren Luftaufnahmen<br />

überraschend viel Perspektive und damit Höheninformation. Das wird in den Wolkenkratzern in Abb. 4.1<br />

und 3.102 ebenso deutlich wie z.B. aus dem Relief in Abb. 3.92 und 4.7. Und der für die Stereo-Aufnahmen<br />

erforderliche seitliche Blick liefert natürlich auch die Höheninformation.<br />

2. Juli 2008 c○ M.-B. Kallenrode


3.4. AKTIVE INSTRUMENTE 149<br />

Abbildung 3.68: Kleine Höhenunterschiede<br />

werden mit Radar besser erkannt<br />

als im optischen – und liefern sehr komplexe<br />

Informationen wie diese SeaSat<br />

Aufnahme des Golf von Mexiko aus dem<br />

Jahre 1978 zeigt [621]<br />

§ 481 Die vom Radar gelieferte Höheninformation ist bei Aufnahmen von ausgedehnten<br />

Wasserflächen eher eine Texturinformation. Daraus lassen sich jedoch viele Rückschlüsse<br />

ziehen, siehe Abb. 3.68, die ein im optischen arbeitendes Instrument nicht erlauben würde.<br />

§ 482 Mit dem aktiven Instrument kann man außerdem gegenüber einem passiven Instrument<br />

zusätzliche Informationen gewinnen. Die zusätzlichen Messgrößen sind dabei die Laufzeit<br />

des Signals vom Satelliten zum Boden und zurück, die Dopplerverschiebung der Frequenz<br />

aufgrund der relativen Bewegung des Satelliten gegenüber dem Boden und die Polarisation<br />

der Strahlung. Mit diesen Informationen lassen sich drei unterschiedliche Typen aktiver Mikrowelleninstrumente<br />

konstruieren: Altimeter, Scatterometer und das Synthetic Aperture<br />

Radar SAR; das Ground Penetrating Microwave Instrument ist eine weitere, bisher eher auf<br />

Flugzeugen oder dem Space Shuttle eingesetzte Version.<br />

3.4.1 Altimeter<br />

§ 483 Das Altimeter ist ein Instrument, das dem Alltagsbegriff von Radar entspricht: so wie<br />

ein Radar in der Schiff- oder Luftfahrt dient es der Abstandsbestimmung – mit dem einzigen<br />

Unterschied, dass der Radarstrahl nicht horizontal sondern vertikal orientiert ist.<br />

§ 484 Das Altimeter ist also ein Instrument, das aus der Reflektion eines senkrecht nach<br />

unten gestrahlten Mikrowellenpulses den Abstand des Satelliten gegenüber dem Boden bestimmt.<br />

Derartige Instrumente wurden verwendet auf SkyLab [482], GEOS-3 [521], SeaSat<br />

[479, 571] und ERS-1 [347]; heute finden sich Altimeter (auch in der Funktion als Serviceinstrumente)<br />

auf verschiedenen <strong>Erdfernerkundung</strong>ssatelliten, z.B. RA-2 [195] auf EnviSat [343]<br />

oder das Poseidon-2 Altimeter auf Jason [477]. Für die reine Höhenmessung ist es allerdings<br />

nicht erforderlich, mit einem Radar-Altimeter zu arbeiten – hier ist ein Laser-Altimeter ausreichend.<br />

LAGEOS [532] war die Umkehrung dieses Prinzips und lebt im LRR des RA-2<br />

Instruments weiter; GLRS [423] ist seine neue Variante.<br />

§ 485 Die wissenschaftliche Anwendung des Altimeters ist eine genaue Bestimmung des Geoids<br />

(das ist eine fiktive Äquipotentialfläche der Erde in ungefähr der Höhe der Erdoberfläche,<br />

also etwas wie ein globales NormalNull). Besonders interessant sind hier die Ozeane, da deren<br />

Oberfläche bzw. die Abweichungen der Meereshöhe von der eines Referenzellipsoids die<br />

direktesten Signaturen für die Abweichung des Erdgeoids von diesem Ellipsoid geben. Dazu<br />

muss die über einen langen Zeitraum gemittelte Höhe der Meeresoberfläche bestimmt werden<br />

(der lange Zeitraum ist erforderlich, da man sonst die Wellenhöhe und die Gezeiten bestimmen<br />

würde, nicht aber die mittlere Höhe der Meeresoberfläche). Dazu müssen zwei Größen<br />

genau bestimmt werden, (1) die Höhe des Satelliten über der senkrecht darunter liegenden<br />

Meeresoberfläche und (2) die genaue Position des Satelliten.<br />

c○ M.-B. Kallenrode 2. Juli 2008


150 KAPITEL 3. SATELLITENINSTRUMENTE<br />

Abbildung 3.69: Funktionsweise des SeaSat-<br />

Altimeters [41]<br />

Abbildung 3.70: Geoid: wahre Erdform<br />

[83], etwas übertrieben dargestellt<br />

§ 486 Zur Bestimmung der Höhe des Satelliten über der Meeres- oder Landoberfläche sendet<br />

das SeaSat-Altimeter kurze Impulse (3.2 µs) bei einer Frequenz von 13.5 GHz aus, die Wiederholfrequenz<br />

dieser Pulse beträgt 1020 Hz. Das Prinzip dieser Messungen ist in Abb. 3.69<br />

angedeutet. Das Altimeter hat eine Genauigkeit von ±10 cm in der Bestimmung der Höhe des<br />

Geoids. Diese Genauigkeit ergibt sich nicht einfach aus der Laufzeit des Signals, sondern erfordert<br />

genaue Korrekturen für (a) den Abstand der Altimeterantenne vom Massenmittelpunkt<br />

des Raumfahrzeuges, (b) interne Instrumentungenauigkeiten z.B. durch Signallaufzeiten, (c)<br />

den Einfluss der Atmosphäre, (d) Veränderungen im Reflektionsverhalten in Abhängigkeit<br />

von der Rauhigkeit oder Bewegung der Oberfläche, (e) die Topographie der Ozeanoberfläche<br />

durch Zirkulationen, barometrische Effekte und Luftbewegung, (f) Ungenauigkeiten im Referenzgeoid,<br />

(g) Gezeiten und (h) zufällige Fehler. Die sich aus der Reflektion des Signals<br />

ergebende Höhe wird mit einer Genauigkeit von ±5 cm vermessen, die Ungenauigkeit aufgrund<br />

der oben genannten Abweichungen führt auf den Gesamtfehler von ±10 cm. Zum<br />

Vergleich: vor SeaSat war der Geoid lediglich mit einer Genauigkeit von ±1 m bekannt.<br />

§ 487 Eine sehr genaue Vermessung des Geoids ist durch den im Juni 1991 gestarteten<br />

ERS-1 erfolgt. Die Messgenauigkeit in der Höhe liegt bei wenigen Zeintimetern. Für die<br />

2. Juli 2008 c○ M.-B. Kallenrode


3.4. AKTIVE INSTRUMENTE 151<br />

Abbildung 3.71: Sea Floor Mapping: die Form des Ozeanbodens mit Gräben und Kontineten<br />

[33]<br />

Abbildung 3.72: Sea-Mountaineering<br />

[194]<br />

Schwankungen in der Meereshöhe, die wir ja sonst gerne als den absoluten Bezugspunkt für<br />

Höhenmessungen (Höhe über NN) angeben, ergeben sich beachtliche Größen. So ragt die<br />

Wasserfläche nordöstlich von Australien bis zu 85 m über den Durchschnittswert empor und<br />

liegt im nördlichen indischen Ozean bis zu 105 m darunter.<br />

§ 488 Die Ursachen für solche langwelligen Ondulationen in der Form des Geoids sind wahrscheinlich<br />

Temperaturschwankungen im flüssigen Erdmantel. Kühler ist er insbesondere in<br />

jenen Regionen, wo kontinentale Platten während ihrer Subduktion noch nicht vollständig<br />

erwärmt sind. Je kühler das Magma ist, umso größer ist aber auch seine Dichte und damit die<br />

Gravitation an dieser Stelle. Alles, was darüber liegt, wird entsprechend stärker angezogen,<br />

es bildet sich also eine Delle aus. Umgekehrt bildet sich an den Stellen, wo das Magma sehr<br />

heiß ist, eine Beule aus. Das Geoid (Bildmittelpunkt auf den südlichen Atlantik gerichtet) ist<br />

in Abb. 3.70 dargestellt.<br />

§ 489 Wie bereits in § 484 angedeutet ist das Altimeter immer noch nicht out. Modernere<br />

Experimente als das SeaSat-Altimeter sind auf z.B. TOPEX/Poseidon [478] geflogen, auf<br />

dem bereits erwähnten ERS-1 sowie auf Jason-1 [477]. Auf ICESat [423] dagegen fliegt mit<br />

GLAS [422] ein Laser-Altimeter.<br />

§ 490 Ein häufig gezeigtes Ergebnis des SeaSat-Instruments ist eine indirekt bestimmte<br />

Größe. Die Abweichungen der Meereshöhe von einem Referenzgeoid lassen sich verwenden,<br />

c○ M.-B. Kallenrode 2. Juli 2008


152 KAPITEL 3. SATELLITENINSTRUMENTE<br />

Abbildung 3.73: Form des reflektierten Signals<br />

des SeaSat-Altimeters für verschiedene signifikante<br />

Wellenhöhen [41]<br />

um daraus Schlüsse über die Topographie des Meeresbodens zu ziehen, d.h. die Höhe der Wasseroberfläche<br />

wird in eine Höhenskala für den Meeresboden umgerechnet (sicherlich ein nicht<br />

triviales Verfahren, das auf verschiedenen Annahmen beruht). Damit ist eine Darstellung des<br />

Reliefs des Ozeanbodens (Sea Floor Mapping) und damit auch der gesamten Erdoberfläche<br />

(im Sinne von Erdkruste) möglich., vgl. Abb. 3.71. Diese Darstellung zeigte erstmals direkt<br />

die einzelnen Kontinentalplatten und die sich auf Grund der Kontinentaldrift auftuenden<br />

Gräben bzw. sich aufwerfenden Gebirgszüge – so ein Marsch über den Meeresboden ist also<br />

nicht ganz einfach (siehe Abb. 3.72).<br />

3.4.2 Scatterometer<br />

§ 491 Während die Laufzeit des Signals eines Altimeters eine Information über die Höhe des<br />

Satelliten über der Meeresoberfläche gibt, gibt die Form des reflektierten Signal eine Information<br />

über die signifikante Wellenhöhe: das ursprünglich emittierte Signal entspricht einem<br />

Rechteckimpuls. Wird dieser von einer waagerechten, vollständig glatten Fläche reflektiert,<br />

so werden alle Bestandteile gleichzeitig reflektiert und das Signal kommt beim Empfänger<br />

als scharfer Sprung an. Ist die Meeresoberfläche dagegen uneben, so trifft ein Teil des Signals<br />

auf niedriger liegende Teile als der Rest (der Durchmesser oder die Punktgröße des<br />

SeaSat-Mikrowellensignals auf der Wasseroberfläche beträgt zwischen 1.6 km und 12 km),<br />

damit ist aber auch seine Laufzeit länger und der Rechteckimpuls wird zu einem kontinuierlichen<br />

Anstieg verwischt. Abbildung 3.73 zeigt die Form eines zurückgekehrten Impulses in<br />

Abhängigkeit von der signifikanten Wellenhöhe SWH. Zusätzlich zur Bestimmung der Meereshöhe<br />

ist auch eine Bestimmung der Windgeschwindigkeit (nur Betrag, nicht die Richtung)<br />

über der Wasseroberfläche möglich.<br />

Verständnisfrage 31 Welche physikalische Größe ist mit der signifikanten Wellenhöhe eigentlich<br />

gemeint?<br />

§ 492 Die aus der Signalform bestimmte SWH und ihr Zusammenhang mit den Windgeschwindigkeiten<br />

wird aus empirischen Zusammenhängen bestimmt. Das Scatterometer wird<br />

ähnlich dem Altimeter zur Untersuchung des Zustandes der See verwendet. Statt eines einzelnen<br />

Radarpulses wird ein Ensemble von vier Pulsen benutzt. Dadurch ist eine Bestimmung<br />

nicht nur des Betrages der Windgeschwindigkeit, sondern auch ihrer Richtung möglich. Abbildung<br />

3.74 zeigt ein Beispiel für die mit Hilfe des Scatterometers bestimmten Windprofile.<br />

Details zum Instrument und zum Verfahren finden sich in [41].<br />

§ 493 Auch dieses Verfahren ist nicht völlig befriedigend, da es stets auf empirischen Zusammenhängen<br />

zwischen Wind, Meeresoberfläche und Wellen basiert – das Messverfahren wurde<br />

vorgeschlagen, weil man irgendwann bei der Verwendung von Radar beobachtet hat, dass<br />

die Rückstreuung mit zunehmender Windgeschwindigkeit zunimmt. Dieses rückgestreute Signal<br />

ist jedoch nicht eine Reflektion des Ausgangssignals an irgendwelchen Wellenbergen (das<br />

müssten schon ziemliche Monster sein) sondern entsteht durch konstruktive Interferenz von<br />

aufeinander folgenden Wellen auf der Meeresoberfläche. Dazu muss die Bragg Bedingung<br />

λS sin ϑ = 1<br />

2 nλ<br />

2. Juli 2008 c○ M.-B. Kallenrode


3.4. AKTIVE INSTRUMENTE 153<br />

Tabelle 3.11: Übersicht über Scatterometer im Erdorbit [134]<br />

Abbildung 3.74:<br />

Windgeschwindigkeiten<br />

bestimmt mit dem<br />

Scatterometer von<br />

SeaSat [41]<br />

mit λ als der Wellenlänge der Mikrowellen, λS als der Wellenlänge der Oberflächenwellen, ϑ<br />

als dem Einfallswinkel der Strahlung gemessen gegenüber der Vertikalen und n als kleiner<br />

ganzen Zahl. Für die niedrigste Ordnung (n = 1) ergibt sich bei Wellenlängen der Mikrowellen<br />

in der Ordnung von wenigen Zentimetern ein λS in der Ordnung von einigen Zentimetern.<br />

Das Scatterometer entdeckt damit nicht die großen (mit bloßem Auge sichtbaren) Wellen<br />

sondern Kapillarwellen auf der Wasseroberfläche. Das sind jene Wellen, die sich bilden, wenn<br />

Wind über eine ganz glatte Pfütze oder einen ebene Teich streicht. Kapillarwellen sind also,<br />

im Gegensatz zum Seegang, ein direktes Maß für die Windgeschwindigkeit.<br />

§ 494 Trotz dieses engen Zusammenhangs gehen aber auch in die Interpretation von Scatterometerdaten<br />

empirische Zusammenhänge ein. Wie bei der Bestimmung der Windgeschwindigkeit<br />

mit Hilfe eines Altimeters werden dabei Vergleichsmessungen vom Satellit von von<br />

Schiffen oder Bojen verwendet.<br />

§ 495 Eine modernere Variante des SeaSat-Scatterometers ist SeaWinds geflogen auf QuikS-<br />

CAT [481], einer schnellen Ersatzmission für NSCAT auf ADEOS. Eine Übersicht über Scatterometer<br />

im Erdorbits gibt Tabelle 3.11.<br />

c○ M.-B. Kallenrode 2. Juli 2008


154 KAPITEL 3. SATELLITENINSTRUMENTE<br />

Tabelle 3.12: Ground-Penetrating Mikrowelleninstrumente [134]<br />

§ 496 Während das klassische Scatterometer ein aktives Instrument ist, werden gehen die<br />

jüngeren Entwicklungen in Richtung passiver Scatterometer wie z.B. WindSat [643] auf Coriolis<br />

[508], eine militärische Testversion für den Conical-Scanning Microwave Imager/Sounder<br />

CMIS [268] auf NPOESS. 21 Ferner erscheint es attraktiv, in Zukunft Scatterometer auch zur<br />

Niederschlagsmessung einzusetzen, um zu einem besseren Verständnis des globalen Wasserkreislaufs<br />

zu kommen.<br />

3.4.3 Ground-Penetrating Mikrowelleninstrumente<br />

§ 497 Ebenfalls aktive Instrumente sind die in den Grund eindringenden Mikrowelleninstrumente.<br />

Da die dielektrischen Eigenschaften des Bodens durch die Feuchte bestimmt sind,<br />

lässt sich aus der Laufzeit und der Signalform nicht nur die Bodenfeuchte an der Oberfläche<br />

sondern auch in größeren Tiefen abschätzen.<br />

§ 498 Tabelle 3.12 gibt einen Überblick über verschiedene Mikrowelleninstrumente, deren<br />

Signal bis in mittlere Tiefen in den Boden eindringt und somit eine Bestimmung der Bodenfeuchte<br />

erlaubt. Die Instrumente sind im Entwicklungsstadium und werden vom Space<br />

Shuttle oder Flugzeug eingesetzt.<br />

3.4.4 SAR Synthetic Aperture Radar<br />

§ 499 Im Gegensatz zu Alti- und Scatterometer erzeugt das eigentliche Radar räumlich aufgelöste<br />

Bilder. Der Output ist damit ähnlich dem von optischen Kameras oder Scannern, jedoch<br />

hat Radar den Vorteil, Wolken zu durchdringen und auch nachts zu arbeiten – aber um<br />

den Preis der hohen Leistungsaufnahme. Das räumliche Auflösungsvermögen ist gegenüber<br />

dem passiver Mikrowelleninstrumente deutlich verbessert, siehe z.B. Abb. 3.67 und 3.68. Weitere<br />

Beispiele für Radaraufnahmen vom Weltraum aus finden sich z.B. auf der JPL-Radarpage<br />

unter [630]; die kommerziellen Missionen zeigen Beispiele unter [282, 283, 296, 373, 397].<br />

21 NPOESS (National Polar-Orbiting Operational Environmental Satellite System) ist die (geplante) Verschmelzung<br />

des zivilen POES-Programms [640] der NOAA und des Defense Meteorological Satellite Program<br />

DMSP [368]. Die Idee ist auf [639] skizziert, einige kritische Kommentare gibt [675]. Zur Zeit übt man erst<br />

einmal mit dem NPOESS Preparatory Project NPP [425, 612] – auch, um nicht zwischenzeitlich ganz ohne<br />

POES-artige Satelliten dazustehen. Letzteres ist ein Problem ähnlich dem LandSat LCDM.<br />

2. Juli 2008 c○ M.-B. Kallenrode


3.4. AKTIVE INSTRUMENTE 155<br />

Abbildung 3.75: Veranschaulichung der<br />

Formierung der synthetischen Arraylänge<br />

eines SAR [28]<br />

§ 500 Konventionelles Radar erfordert die Verwendung einer großen Antenne. Da diese in<br />

der Regel 22 nicht auf einem Satelliten nicht mitgeführt werden kann, verwendet man ein<br />

Synthetic Aperture Radar (SAR): die große Antenne wird dabei aus der Verschiebung einer<br />

kleinen Antenne durch die Eigenbewegung des Satelliten zusammengesetzt. Synthetic Aperture<br />

Radar wird nicht nur von Satelliten sondern ebenso von Flugzeugen und vom Shuttle aus<br />

verwendet. Abbildung 3.75 zeigt dazu am Beispiel eines Flugzeuges, wie durch die Bewegung<br />

der Antenne eine größere Array- oder Antennenlänge erzeugt wird.<br />

§ 501 SAR verwendet relativ kleine Antennen mit einem weiten Richtstrahl. Wie in Abb. 3.75<br />

angedeutet, ist dieser Strahl zur Seite gerichtet. Dadurch werden vom bewegten Sensor vom<br />

gleichen Bodenobjekt eine Vielzahl von Radarechos aus verschiedenen Positionen empfangen.<br />

Sowohl die Amplitude als auch die Phase des zurückkommenden Signals werden für einen<br />

Zeitraum T gespeichert. Dieser Zeitraum T wird definiert als die Zeit, in der die beobachteten<br />

Objekte innerhalb eines bestimmten Abstandes R von der Antenne liegen. Die während<br />

dieser Zeit zurückgelegte Flugstrecke (in Abb. 3.75 AB) entspricht dann der Länge L des<br />

synthetischen Arrays. Mit l als der Länge der Antenne ist diese dann gegeben zu [28]<br />

L ≈ R · λ<br />

l .<br />

§ 502 Die auf Grund der Relativbewegung zwischen Antenne und Objekt verursachte Dopplerverschiebung<br />

des zurückkommenden Signals wird mit der Frequenz und Phasenlage eines<br />

stabilen Oszillators verglichen. Das Interferenzsignal kann entweder in Form eines Hologramms<br />

auf Film oder auf Magnetband aufgezeichnet werden, die Wiederherstellung des<br />

Bildes erfolgt mit Hilfe kohärenter optischer Prozessoren (schnell aber weniger genau) oder<br />

elektronischer Rechenanlagen (langsam aber bessere Resultate). Im so bearbeiteten Radarbild<br />

ergibt sich somit ein Objektpunkt aus der kohärenten Summierung einer Vielzahl individueller<br />

Radarechos, wobei sich positive und negative Dopplerverschiebungen aufheben. Insofern ist<br />

ein Radarbild in seiner Entstehung überhaupt nicht mit den anderen Imaging-Instrumenten<br />

vergleichbar.<br />

§ 503 Bei der Rücktransformation der Radardaten wird die Dopplerverschiebung stets so<br />

interpretiert, dass sich die Relativbewegung zwischen Satellit und Objekt aus der Bewegung<br />

des Satelliten über dem Erdboden ergibt. Für Berge, Brücken, Gebäude und andere ortsfeste<br />

Strukturen ist dies korrekt. Wird der Radarpuls dagegen von einem bewegten Objekt (Schiff,<br />

22 Ausnahmen bestätigen die Regel: Kosmos 1500 [510] und einige andere Satelliten des Okeanos-Programms<br />

flogen mit einem Real Aperture Radar RAR mit einer Antennenlänge von 11.1 m, was zu einer Bodenauflösung<br />

von ca. 2 km in Flugrichtung und ca. 1 km senkrecht dazu geführt hat.<br />

c○ M.-B. Kallenrode 2. Juli 2008


156 KAPITEL 3. SATELLITENINSTRUMENTE<br />

Abbildung 3.76: SAR: reflektiertes<br />

Signal in Abhängigkeit<br />

von den Geländeeigenschaften<br />

[209]<br />

Abbildung 3.77: Interferogram des Bagley Icefield,<br />

Alaska, und seiner Zuflüsse während einer<br />

Surge des Bering Glacier [627]<br />

Zug) reflektiert, so wird die Dopplerverschiebung wieder nur als Folge der Satellitenbewegung<br />

interpretiert. Dadurch wird das reflektierende Objekt auf einen falschen Ort zurück gerechnet:<br />

ein Schiff fährt neben seinem Wellenfächer im Kielwasser, ein Zug fährt neben den Gleisen.<br />

§ 504 Abbildung 3.76 fasst einige Eigenschaften bei der Abbildung mit Radar zusammen:<br />

da das Aufnahmeverfahren auf einem zur Seite geneigten Strahl basiert, entstehen hinter<br />

erhöhten Geländemerkmalen Schattenbereiche über die keine Information gewonnen werden<br />

können. Der Helligkeitswert des reflektierten Radarpulses hängt von der Geländestruktur ab:<br />

eckige geometrische Strukturen, also auch viele vom Menschen errichtete Strukturen, reflektieren<br />

die Puls stark, erzeugen also einen großen Helligkeitswert. An diffusen Oberflächen<br />

(z.B. Vegetation) wird ein Teil des Strahls auf den Sender zurück gestreut, es entstehen<br />

mittlere Helligkeitswerte. Glatte Oberflächen, z.B. Gewässer) reflektieren den Radarstrahl<br />

nicht in Richtung des Senders, diese Flächen erscheinen dunkel. Die Idee ist bereits vom<br />

scatterometer bekannt.<br />

§ 505 Radar wird, basierend auf der Vorstellung von Schiffs- oder Flugverkehrsradar, leicht<br />

2. Juli 2008 c○ M.-B. Kallenrode


3.4. AKTIVE INSTRUMENTE 157<br />

Tabelle 3.13: Übersicht über SARs auf Raumfahrzeugen [134]<br />

mit Abstandsmessung in Verbindung gebracht. Vom Gedanken des Altimeters her könnte man<br />

daher vermuten, dass Radar automatisch ein dreidimensionales Bild liefert. Das tut Radar,<br />

aber leider nur im Prinzip. In der einfachsten Rückrechnung entsteht ein zweidimensionales<br />

Abbild. Die Bestimmung von Höhen und damit eine Annäherung an eine 3D-Darstellung wird<br />

erst durch genaue Analyse des Interferograms möglich. Abbildung 3.77 zeigt als Beispiel das<br />

Bagley Icefield [152], aufgenommen mit dem ERS-1 SAR. 23<br />

§ 506 Eine Übersicht über SARs auf Raumfahrzeugen gibt Tab. 3.13. Das Bodenauflösungsvermögen<br />

liegt bei den etwas älteren Instrumenten im Bereich von 25 bis 40 m, ist also<br />

mit dem der Multispektralkameras und -scanner aus der entsprechenden Zeit ohne weiteres<br />

zu vergleichen. Bei neueren Instrumenten wie TerraSAR-X (siehe Abschn. 4.6) beträgt<br />

das Bodenauflösungsvermögen im Spot-Modus 1 m; das entspricht auch wieder dem Bodenauflösungenvermögen<br />

der kommerziellen optischen Instrumente wie Ikonos, SPOT oder<br />

QuickBird – zumindest dem panchromatischen Mode dieser Instrumente.<br />

§ 507 Allerdings fehlen beim Radar die Spektralinformationen, die gerade das LandSat TM<br />

Instrument so interessant und wichtig machen. Damit ist zwar beim Radar der Vorteil der<br />

Unempfindlichkeit gegenüber Bewölkung gegeben, dieser muss aber gegen die Nachteile des<br />

fehlenden spektralen Auflösungsvermögens und des hohen Energiebedarfs abgewogen werden.<br />

Haupteinsatzgebiet von Radarsatelliten war daher lange Zeit fast ausschließlich die<br />

Ozeanüberwachung. Diese erfolgt zum einem im militärischen Bereich (Aufenthalt und Bewegungsrichtung<br />

von Schiffen), zum anderen unter verschiedenen geophysikalischen oder meteorologischen<br />

Fragestellungen. Für die Fernerkundung der landbedeckten Erdoberfläche eignen<br />

sich die im optischen Bereich arbeitenden Instrumente eher.<br />

23 Die Abbildung erinnert an die Verwendung von polarisierten Licht zur Untersuchung von Spannungen in<br />

mechanischen Bauteilen. Das verleitet zu der Interpretation, dass ein Gletscher ein unter Spannung stehendes<br />

mechanisches Bauteil ist: irgendwie drückts von oben und zieht nach unten und an den Seiten hakt es. Ein<br />

Gletscher steht zwar unter derartigen Spannungen; diese sind jedoch nicht direkt für das Interferogramm<br />

verantwortlich.<br />

c○ M.-B. Kallenrode 2. Juli 2008


158 KAPITEL 3. SATELLITENINSTRUMENTE<br />

Abbildung 3.78: Purzelbäume im Weltraum: SAR verteilt auf einen Hauptsatelliten (mit dem<br />

aktiven Instrument) und drei passiven Antennensatelliten in einer Cartwheel-Konfiguration<br />

(links) und deren Orbits (rechts) [134]<br />

§ 508 Ein bildgebendes Radarinstrument kann aber genauso wie ein Scanner im optischen<br />

Bereich zur Bestimmung der Flächennutzung oder anderer Oberflächenmerkmale eingesetzt<br />

werden; Abb. 3.84 zeigt ein Beispiel dafür, dass Radar auch mal einen Blick unter die Oberfläche<br />

werfen kann. Statt der Wellenlängeninformation wird dabei die Polarisation verwendet<br />

– ein Verfahren, das wir mit geringer Bodenauflösung bereits im Zusammenhang mit dem<br />

passiven Mikrowelleninstrument kennen gelernt haben.<br />

§ 509 Konventionellerweise wird die große Apertur des SAR aus der Bewegung des Antennenträgers<br />

(Satellit, Space Shuttle oder Flugzeug) erzeugt, d.h. Sende- und Empfangsantenne<br />

sind eins. Alternativ kann man aber auch beide trennen und ein anderes Bewegungsmuster<br />

einführen. Abbildung 3.78 zeigt dazu die so genannte Cartwheel Konfiguration: der eigentliche<br />

Satellit ist die aktive Komponente, der eine bestimmtes Feld auf dem Boden beleuchtet. Eine<br />

Gruppe von drei kleineren passiven Raumfahrzeugen bildet die elliptische Empfangsantenne,<br />

die das gleiche Blickfeld im Auge hat. Die Herausforderung besteht darin, die Antennensatelliten<br />

in Bahnen zu bringen derart, dass die von ihnen gebildete elliptische Antenne erhalten<br />

bleibt und nicht auseinander driftet. Der rechte Teil von Abb. 3.78 deutet eine geeignete Konfiguration<br />

an. Angedacht ist eine derartige Carthweel-Konfiguration z.B. für den TerraSAR-L<br />

[697].<br />

§ 510 Aktive Mikrowelleninstrumente werden nicht nur zur Erkundung der Erde verwendet.<br />

Auf der Raumsonde Magellan [540, 463] z.B. sind mehrere aktive Mikrowelleninstrumente zur<br />

Kartierung der Venus eingesetzt. Ähnlich SeaSat ist Magellan mit verschiedenen Instrumenten<br />

ausgestattet: Hauptbestandteil ist das SAR, das eine globale Karte der Venus mit einer<br />

Bodenauflösung von 150 m erstellt hat. Dazu kommt ein Altimeter mit einer Auflösung von<br />

30 m zur Bestimmung des Gravitationsfeldes und ein Radiometer mit einer Auflösung von<br />

2 K. Diese Instrumente erlauben ein Verständnis der auf der Venus wirkenden geologischen<br />

Prozesse und damit auch eine Überprüfung unserer Vorstellungen über die Entwicklung eines<br />

Planeten. Insbesondere die Vergleiche zwischen verschiedenen erdähnlichen Planeten (z.B. Venus<br />

und Erde) sind hier von Bedeutung. Die Magellan-Ergebnisse sind in zwei Sonderbänden<br />

des JGR veröffentlicht (Journal of Geophysical Reserach 97, E8 und 97, E10) sowie in einer<br />

Folge von drei Artikeln in Sterne und Weltraum [112]. Auch Cassini-Huygens [147, 454] und<br />

der Mars Reconnaissance Orbiter MRO [497, 464, 406] haben Radar (mit unterschiedlichen<br />

Zielsetzungen und entsprechend unterschiedlichen Spezifikationen) an Bord.<br />

2. Juli 2008 c○ M.-B. Kallenrode


3.5. SOUNDER 159<br />

3.5 Sounder<br />

Abbildung 3.79: Konfigurationen<br />

für Sounder<br />

[134]: Limb Viewing<br />

(oben), Streuung (Mitte)<br />

und Emission (unten)<br />

§ 511 In der <strong>Erdfernerkundung</strong> sind Sounder die Instrumente, die das sichtbar machen, was<br />

die Kartographen und Militärs am liebsten übersehen möchten: die Atmosphäre. Sounder<br />

können in unterschiedlichen Geometrien arbeiten (siehe auch Abb. 3.79), ebenso in unterschiedlichen<br />

Wellenlängen(bereichen). Während die Imaging-Instrumente Daten in Abhängigkeit<br />

von der bzw. den horizontalen Koordinaten liefern, misst ein Sounder die Daten in Abhängigkeit<br />

von der Vertikalkoordinaten. Ein Sounder erstellt also ein Höhenprofil.<br />

3.5.1 Prinzip<br />

§ 512 Wir haben bisher im sichtbaren Bereich nur Imaging-Instrumente betrachtet, d.h.<br />

Instrumente, die uns das Äquivalent zu einer Photographie erzeugen - die zweidimensionale<br />

Darstellung eines Gebietes. Für einige Anwendungen, insbesondere zur Untersuchung der<br />

Atmosphäre, sind diese Bilder wenig hilfreich. Zur Messung von Spurengasen, Aerosolen<br />

oder der Ozonkonzentration bedient man sich eines Sounders. Das generelle Merkmal eines<br />

Sounders ist, dass die Information über die Verteilung einer bestimmten Eigenschaft (z.B.<br />

Konzentration von CO2) in Abhängigkeit von der Höhe bestimmt wird. Eine gute Übersicht<br />

c○ M.-B. Kallenrode 2. Juli 2008


160 KAPITEL 3. SATELLITENINSTRUMENTE<br />

Abbildung 3.80: Sonnenuntergang<br />

aus der Sicht des Sounders SAM<br />

(Stratospheric Aerosol Measurement)<br />

auf Nimbus 7. Das Instrument<br />

beginnt, die Sonnenscheibe<br />

auf einer tangentialen Höhe h von<br />

ungefähr 350 km zu scannen und<br />

folgt der Sonne, bis sie untergegangen<br />

ist. Dadurch werden unterschiedliche<br />

Schichten der Atmosphäre<br />

nacheinander abgetastet<br />

[99]<br />

über verschiedene Typen von Soundern (allerdings mit Beispielen von klassischen, d.h. etwas<br />

älteren Soundern) geben Houghton et al. [99].<br />

§ 513 Sounder arbeiten nach drei verschiedenen Prinzipien: Okkultation (Limb-Viewing),<br />

Streuung und Emission, siehe Abb. 3.79. Die frühesten Sounder wurden zur Messung von<br />

Aerosolen mit Hilfe des Limb-Viewing eingesetzt. Als nächste Frage rückte die Bestimmung<br />

der Ozonkonzentration in den Vordergrund; als Messverfahren wurde die (Rück-)Streuung<br />

verwendet. Mit zunehmender Empfindlichkeit der Instrumente lässt sich auch die Messung<br />

der Emission von Spurenbestandteilen vornehmen. Moderne Sounder kombinieren Verfahren<br />

und untersuchen neben Aerosolen und Ozon auch die Spurengaskonzentrationen.<br />

§ 514 Von den drei Instrumenttypen sind die Okkultationsinstrumente am einfachsten zu<br />

verstehen; ihr Prinzip ist in Abb. 3.80 dargestellt. Die Absorption des Lichts von der Sonne<br />

oder einem Stern lässt Rückschlüsse auf die Zusammensetzung der Atmosphäre in Abhängigkeit<br />

von der Höhe zu, in der das Licht die Atmosphäre durchsetzt hat. Dabei muss auf die<br />

Länge des in der Atmosphäre zurückgelegten Weges korrigiert werden. Vorteil der Methode<br />

sind die langen Wege des Lichts durch die Atmosphäre, so dass sich selbst schwache Emissionsund<br />

Absorptionssignale nachweisen lassen. Außerdem ist die Höhenmessung im Gegensatz zu<br />

den vertikal arbeitenden Geräten direkt. 24 Der Nachteil des Verfahrens ist die Erfordernis<br />

einer externen Lichtquelle (Sonne oder Stern), wodurch das Verfahren auf bestimmte Zeiten<br />

und Raumbereiche festgelegt ist. Allerdings ist das Verfahren in der Troposphäre nicht<br />

anwendbar (Orographie).<br />

§ 515 Einer der oben genannten Vorteile, der lange Lichtweg, macht die Auswertung der<br />

Messungen aufwendig. Jeder Strahl liefert das Integral des Absorptionskoeffizienten entlang<br />

des Lichtweges (line of sight). Das Messprinzip ist damit ähnlich dem einer Röntgenaufnahme:<br />

auch dort wird für jeden Pixel des Bildes das Integral des Abschwächungskoeffizienten entlang<br />

des Sehstrahls gebildet. Die Information über den Abschwächungskoeffizienten in jedem<br />

einzelnen Volumenelement lässt sich daraus mit Hilfe einer eher rechenintensiven Rücktransformation<br />

(z.B. Radon-Transformation) oder durch Überlagerungsverfahren rekonstruieren;<br />

allgemeines zu derartigen Transformationen in [94, 174, 192, 250], die bei einem Instrument/Datensatz<br />

verwendeten Verfahren können über die Zitate für die einzelnen Instrumentbeschreibungen<br />

gefunden werden.<br />

§ 516 Welche Spurenstoffe oder Aerosole sich mit Hilfe eines Sounders untersuchen lassen,<br />

hängen von den verwendeten Wellenlängen ab. Das bereits erwähnte SAM (Stratospheric<br />

24 Vertikal arbeitende Geräte betrachten häufig nur die totale Säule (wie die totale Ozonsäule in Abb. 1.4):<br />

die gesamte Atmosphäre ist ein Filter, dessen Absortionskoeffizient bestimmt wird. Oder anders formuliert: die<br />

Absorption wird entlang des Sehstrahls integriert. Die totale (Ozon-)säule ist auch die Größe, die man aus der<br />

Messung vom Erdboden bestimmen würde. Falls ungewöhnliche Linien oder oder Linienveränderungen einen<br />

Hinweis auf das Druckniveau geben, lässt sich aus diesen auch mit Hilfe eines Modells der atmosphärischen<br />

Schichtung eine indirekte Höheninformation gewinnen.<br />

2. Juli 2008 c○ M.-B. Kallenrode


3.5. SOUNDER 161<br />

Abbildung 3.81: Datenoutput der von Sciamachy<br />

während eines Tages gemessenen totalen<br />

Ozonsäule [75]<br />

Aerosol Measurement) auf Nimbus 7 z.B. betrachtet das Sonnenlicht in einem Frequenzband,<br />

das um 1 µm zentriert ist. In diesem Bereich ist die Absorption durch die normalen<br />

atmosphärische Bestandteile vernachlässigbar. Jede Abschwächung des Sonnenlichtes muss<br />

daher durch Streuung an Aerosolen oder Rayleigh-Streuung an (größeren) Molekülen entstanden<br />

sein. Die Messung von Ozonkonzentrationen erfolgt ebenfalls mit Limb-Viewing Soundern.<br />

Hier werden die Absorptionseigenschaften des Ozons im UV-Bereich ausgenutzt.<br />

Die Instrumente arbeiten meistens in mehreren engen Frequenzbereichen innerhalb des Wellenlängenbereiches<br />

von 0.25 bis 0.34 µm.<br />

§ 517 Sounder arbeiten also nicht exklusiv im sichtbaren Licht; im gegenteil, der nichtsichtbare<br />

Bereich ist der Bereich, in dem die Atmosphäre stark streut oder absorbiert (wie<br />

oben diskutiert) oder auch stark emittiert. OCO [467] z.B. misst Spurengase durch deren<br />

Emission im Infrarotbereich. Hier ergibt sich die Information über die Höhe aus der<br />

Abhängigkeit der Emissionsbanden vom Druck, d.h. für diese Instrumente ist ein exzellentes<br />

spektrales Auflösungsvermögen erforderlich.<br />

§ 518 Eine andere Methode des Sounding beruht auf der Streuung. Die Hauptanwendung<br />

dieser Methode ist z.B. der Nachweis von Regen. Wenn ein Radarpuls durch ein Regengebiet<br />

geht, so werden die Radarechos proportional zur Rückstreuung der Impulse an den Regentropfen<br />

reflektiert, wobei tiefer in die Wolke eindringende Pulse später reflektiert werden. Auf<br />

diese Weise lässt sich ein vertikales Profil der Intensität des Niederschlages erzeugen. Eine<br />

weitere Anwendung von Streuinstrumenten ist die Messung der Ozonkonzentration mit Hilfe<br />

der Rückstreuung der solaren UV-Strahlung (TOMS [327], BUV = Bachscattered UV) [324].<br />

§ 519 Wie bei den immer genauer werdenden Instrumenten im sichtbaren Bereich gilt auch<br />

bei den Soundern: es dauert lange, bis das globale Bild erstellt ist. Abbildung 3.81 zeigt als<br />

Beispiel die von Sciamachy (siehe auch § 671) auf EnviSat bestimmte totale Ozonsäule für<br />

alle während eines Tages erfolgten Messungen. In der Verteilung der Messwerte lässt sich<br />

die Bodenspur wieder erkennen. Allerdings wird nicht kontinuierlich entlang der Bodenspur<br />

gemessen sondern immer nur in Intervallen: das Instrument wechselt zwischen den verschiedenen<br />

Messmodi.<br />

§ 520 Abbildung 3.82 zeigt Beispiele für die von einigen modernen Soundern wie SCIA-<br />

MACHY [325], MIPAS [318], AMAS, MSU, MERIS [316] und CERES [399] betrachteten<br />

Wellenlängenbereiche sowie die atmosphärische Transmission und den gesamten (Erdboden<br />

plus Atmosphäre) aufwärts gerichteten Strahlungsstrom. Eine Übersicht über Dounder gibt<br />

auch das World data Center for Remote sensing of the Atmosphere des DLR [303].<br />

3.5.2 Anwendungsbeispiele<br />

Treibhauswirksame Spurengase und Ozon<br />

§ 521 Eng mit dem Treibhauseffekt und einer möglichen globalen Erwärmung verknüpft<br />

c○ M.-B. Kallenrode 2. Juli 2008


162 KAPITEL 3. SATELLITENINSTRUMENTE<br />

Abbildung 3.82: Einige moderne Sounder und die von ihnen betrachteten Wellenlängnbereiche<br />

zusammen mit der atmosphärischen Transmission und dem gesamten aufwärts gerichteten<br />

Strahlungsstrom [134]<br />

sind die atmosphärischen Spurengase, hier natürlich insbesondere die treibhauswirksamen<br />

Spurengase. Messnetze für Spurengase müssten bei einer Beschränkung auf Beobachtungen<br />

vom Boden aus im Prinzip ähnlich dem Netz der Wetterstationen installiert werden. Allerdings<br />

stellt sich dort, genauso wie auch bei den Wetterstationen, das Problem, wie diese<br />

Messungen auch über den Ozeanen und in anderen schwer zugänglichen Bereichen in einem<br />

halbwegs homogenen zeitlichen und räumlichen Gitter erfolgen können. Die Verteilungen,<br />

Konzentrationen, Quellen und Senken sowie die Lebensdauer dieser Spurengase in der Atmosphäre<br />

sind einige der zu untersuchenden Fragen. Alle diese Parameter werden mit möglichst<br />

großer Genauigkeit benötigt, wenn man ein Klimamodell realitätsnah gestalten und auf der<br />

Basis dieses Modells Voraussagen über mögliche Klimaänderungen machen will.<br />

§ 522 Der größte Teil der anthropogenen Verschmutzung spielt sich in der Troposphäre ab.<br />

Hier finden die Wettervorgänge der Atmosphäre statt, hier ist der vertikale und horizontale<br />

Austausch kräftig, auch findet ein Austausch mit Meer-, Land- und Eisflächen statt.<br />

Die Tropopause als obere Grenze der Troposphäre ist durch eine deutliche Temperaturinversion<br />

markiert (siehe auch Abb. 3.1). Diese verhindert den Austausch von Gasen mit der<br />

darüberliegenden Stratosphäre nahezu vollständig. Lediglich im Bereich der Jetströme kann<br />

ein jahreszeitenabhängiger Austausch zwischen diesen Schichten stattfinden (zur Struktur,<br />

Chemie und <strong>Physik</strong> der Atmosphäre siehe z.B. [76, 100, 101, 204]). Allerdings kann z.B. bei<br />

Vulkanexplosionen die aufsteigende Asche- und Gaswolke so mächtig und heiß sein, dass sie<br />

bis in die Stratosphäre hinein ragt und dort einen Eintrag an Aerosolen und Schwefeloxid bewirkt.<br />

Diese Wolke kann sich global verteilen (z.B. Mt. Pinatobu) und baut sich nur langsam<br />

wieder ab – ein dankbares Feld für Satellitenbeobachtungen.<br />

§ 523 Die wichtigsten klimawirksamen Spurengase sind Kohlendioxid, Methan, verschiedene<br />

Flourchlorkohlenwasserstoffe und Stickoxide. Die Konzentrationen, Wachstumsraten und atmosphärischen<br />

Lebensdauern dieser Gase sind in Tabelle 3.14 zusammen gefasst; aktuellere<br />

und größere Mengen von Spurengasen umfassende tabellen finden Sie z.B. in den IPCC-<br />

Reports [105, 106]. Aber wie bestimmt man solche Daten? Wie weist man Spurengase nach?<br />

2. Juli 2008 c○ M.-B. Kallenrode


3.5. SOUNDER 163<br />

CO2 [ppm] CH4 [ppm] CFC-11 [ppt] CFC-12 [ppt] N2O [ppb]<br />

1750–1800 280 0.8 0 0 288<br />

1990 353 1.72 280 484 310<br />

jährl. Zunahme 1.8 0.015 9.5 17 0.8<br />

Lebensdauer [a] 50–200 10 65 130 150<br />

Tabelle 3.14: Klimawirksame Spurengase, deren Konzentration stark von menschlicher Aktivität<br />

beeinflusst wird<br />

Die meisten diese Gase sind nicht sichtbar, d.h. eine Satellitenaufnahme im sichtbaren Bereich<br />

hilft bei ihrer Identifikation nicht.<br />

§ 524 Spurengas-, ebenso wie Aerosolkonzentrationen werden im allgemeinen mit Sounding-<br />

Instrumenten gemessen. In Abschn. 3.5.1 hatten wir das Verfahren kurz am Beispiel des SAM<br />

II (Stratospheric Aerosol Measurement) erläutert. SAM II ist ein Okkultationsinstrument,<br />

bei dem die Atmosphäre in dünne horizontale Streifen zerlegt wird. Nachteil eines Okkultationsinstrumentes<br />

ist, dass es nur oberhalb einer Höhe von einigen Kilometern arbeiten kann,<br />

da bei geringerer Höhe z.B. Gebirge in den Lichtweg treten. Diese Instrumente eignen sich<br />

also eher für das Studium der Stratosphäre und der obersten Schichten der Troposphäre,<br />

weniger aber für den im Zusammenhang mit dem Spurengaseintrag interessanteren Bereich<br />

der unteren und mittleren Troposphäre.<br />

§ 525 Für Messungen in der Troposphäre benötigt man daher Instrumente, die senkrecht<br />

oder schräg nach unten blicken und die Rückstreuung oder Emission messen. Die Mesungen<br />

werden dadurch verkompliziert, dass die Stratosphäre vom Instrument ebenfalls gesehen wird<br />

und dass Wolken die Messungen stark beeinflussen können. Die Möglichkeit, troposphärische<br />

Aerosole und Spurengase von Satelliten aus zu messen, ist erst in den letzten Jahren erfolgreich<br />

demonstriert worden [89]. Eine Übersicht darüber, welche Instrumente sich für die<br />

Messung troposphärischer Aerosole und Spurengase eignen, geben [134, 150]. Die meisten der<br />

Instrumente wurden, wie üblich, in der Erprobungs- und Entwicklungsphase auf dem Space<br />

Shuttle eingesetzt. In der aktuellsten Satellitengeneration (Mission to Planet Earth, siehe<br />

Abschn. 4.8) sind diese Instrumente jedoch bereits Standard, SCIAMACHY (siehe § 671) auf<br />

dem 2002 gestarteten EnviSat (siehe Abschn. 4.4) ist ein Beispiel, OCO ein weiteres.<br />

§ 526 Ein typisches Beispiel für diese Entwicklung vom Shuttle- zum Satelliteninstruments<br />

ist MAPS (Measurement of Air Pollution from Satellites [546, 545]) – eines der daraus für<br />

eine Satellitenmission abgeleiteten Instrumente ist MOPITT [322] auf Terra [617]. MAPS<br />

ist ein Gasfilter-Korrelationsradiometer, das 1981 und 1984 auf Shuttle-Flügen eingesetzt<br />

wurde. MAPS misst die vom System Erde-Atmosphäre emittierte Strahlung. Diese Strahlung<br />

wird mit der Referenzstrahlung einer geschwärzten Aluminiumplatte verglichen, die<br />

nicht durch atmosphärische Einflüsse verändert ist. Drei Detektoren messen die Strahlung<br />

des Erde-Atmosphäre-Systems und der Referenzplatte, wobei die Strahlung vor jedem Detektor<br />

einen gasgefüllten Hohlraum durchsetzen muss, der es erlaubt, die Messungen jeweils<br />

auf einen bestimmten Höhenbereich in der Atmosphäre zu beziehen [176, 199]. Korrigiert<br />

man diese Daten gegen die Beeinflussung durch Kohlendioxid, Stickoxide, Ozon, Wasserdampf<br />

und Wolken, so ist dieses Instrument am empfindlichsten gegenüber Veränderungen<br />

in der Kohlenmonoxid-Konzentration im Höhenbereich zwischen 3 und 8 km, d.h. in der<br />

mittleren Troposphäre. Andere Korrekturen und Füllgase erlauben die Untersuchung anderer<br />

Spurengase (daher unterscheiden sich die Erläuterungen im NSSDC Master Catalog [505]<br />

für die einzelnen Shuttle-Einsätze von MAPS) – allerdings natürlich nur so lange, wie nicht<br />

die darüber liegenden Atmosphärenschichten in den entsprechenden Wellenlängenbereichen<br />

stärker emittieren.<br />

§ 527 Die Weiterentwicklung von MAPS soll TRACER (Tropospheric Radiometer for Atmospheric<br />

Chemistry and Environmental Research) sein. TRACER wird in der Lage sein,<br />

sowohl Kohlenmonoxid als auch Methan zu messen. Messungen sollen möglich sein für die<br />

c○ M.-B. Kallenrode 2. Juli 2008


164 KAPITEL 3. SATELLITENINSTRUMENTE<br />

Abbildung 3.83: Stratosphärische<br />

Aerosol Messungen<br />

(SAM II) der optischen<br />

Tiefe als einem Maß für die<br />

Abschwächung der einfallenden<br />

solaren Strahlung in<br />

der Arktis und Antarktis<br />

[41]. Die Pfeile deuten<br />

größere Vulkanausbrüche<br />

an<br />

atmosphärische Grenzschicht in 0 bis 3 km Höhe und für die darüberliegende freie Troposphäre.<br />

Das Interesse am Kohlenmonoxid erklärt sich dadurch, dass sich CO als ein gutes<br />

Näherungsmaß für die troposphärische Ozonkonzentration verwenden lässt (d.h. das durch<br />

den Menschen zusätzlich verursachte Ozon in Bodennähe, das zu den sommerlichen Ozonwarnungen<br />

führt). Harris [89] zeigt Beispiele für die Kohlenmonoxid- und Ozonmessungen<br />

mit MAPS; ein Beispiel für eine CO-Messung mit AIRS auf Aqua ist in Abb. 4.10 gegeben.<br />

§ 528 Eine direkte Messung der troposphärischen Ozonkonzentration ist auf diese Weise<br />

kaum möglich, da der größte Teil des Gesamtozons in der Stratosphäre liegt, d.h. jeder Satellit<br />

würde im wesentlichen das stratosphärische Ozon sehen. Allerdings gibt es eine indirekte<br />

Möglichkeit, das troposphärische Ozon als Differenz aus der Gesamtozonsäule und dem stratosphärischen<br />

Ozon zu bestimmen. TOMS (Total Ozon Mapping Spectrometer [327]) misst<br />

seit 1979 täglich und global den Gesamtozongehalt der Atmosphäre (d.h. die Summe aus dem<br />

troposphärischen und dem stratosphärischen Ozon) – TOMS hat auch zuverlässig die Daten<br />

für den linken Teil von Abb. 1.4 geliefert.<br />

§ 529 TOMS arbeitet nach dem Prinzip der zurückgestreuten UV-Strahlung (BUV, backscattered<br />

UV [324]) und ist das Instrument, auf dessen Daten die Informationen über das<br />

antarktische Ozonloch beruhen, vgl. Abb. 1.4. Während in hohen Breiten die Ozonkonzentration<br />

sehr variabel ist (was sich auch im saisonalen Auftreten des Ozonloches zeigt), ist in<br />

den Tropen bis hin zu mittleren Breiten die stratosphärische Ozonkonzentration praktisch<br />

konstant, d.h. in mittleren und niedrigen Breiten geben die Schwankungen in der Gesamtozonkonzentration<br />

gleichzeitig die Schwankungen im troposphärischen Ozon wieder.<br />

§ 530 Die Verwendung von Satellitendaten hat hier, wie auch in vielen anderen Bereichen<br />

der <strong>Erdfernerkundung</strong> wieder zwei Vorteile, (a) die kontinuierliche Messung und (b) die Messung<br />

auch über entlegenen Gegenden. Ob wir ohne Satellitenmessungen bereits soviel über<br />

das antarktische Ozonloch und insbesondere dessen saisonale Variabilität wüssten, ist zweifelhaft.<br />

Ohne kontinuierliche Messungen wäre es wahrscheinlich kaum möglich gewesen, diese<br />

saisonale Abhängigkeit zu entdecken. Eine nicht ganz aktuelle aber dennoch die wesentlichen<br />

und auch heute noch gültigen Aspekte umfassende Beschreibung der TOMS-Beobachtungen<br />

findet sich in Schoeberl [215].<br />

§ 531 Auch zeigen die durch Satelliten ermöglichten globalen und zeitkontinuierlichen Beobachtungen<br />

der verschiedenen Spurengase, dass Luftverschmutzung von städtischen/industriellen<br />

ebenso wie aus landwirtschaftlichen Aktivitäten nicht nur ein lokales Problem ist, sondern<br />

dass sich die eingetragenen Schadstoffe bis in die entlegendsten Bereiche der Erde ausgedehnt<br />

haben [76, 77, 207].<br />

Vulkane<br />

§ 532 Die Warnung vor Vulkanausbrüchen ist z.B. auch für den Luftverkehr wichtig, da<br />

schon häufiger Flugzeuge, die in die Staubwolke eines Vulkans gerieten, durch den Ausfall<br />

2. Juli 2008 c○ M.-B. Kallenrode


3.5. SOUNDER 165<br />

eines oder mehrerer Triebwerke zur Notlandung gezwungen waren (nicht mehr ganz aktuell<br />

hatte Anfang Oktober 2004 gerade mal wieder der Mt. St. Helens ein Überflugverbot).<br />

Interessant sind diese Staubwolken auch aufgrund ihrer Fähigkeit, bis in die Stratosphäre<br />

vorzudringen. Hier bewirken sie eine Abschwächung der einfallenden solaren Strahlung. Außer<br />

den direkten Informationen über die Wolke aus den Imaging-Daten werden hier zum<br />

genaueren Studium, insbesondere auch zur Untersuchung der Zusammensetzung der Wolke<br />

sowie der Abschwächung der einfallenden solaren Strahlung, Sounder-Daten verwendet.<br />

§ 533 Abbildung 3.83 zeigt ein Beispiel für die Messungen des SAM II. Die optische Tiefe<br />

ist ein Maß für die Schwächung der einfallenden solaren Strahlung. 25 Nach den größeren<br />

Vulkaneruptionen kommt es in der Arktis zu Erhöhungen der optischen Tiefe. Die jährlichen<br />

Peaks in der Antarktis dagegen sind nicht durch Vulkaneruptionen bedingt sondern entstehen<br />

im Zusammenhang mit den im antarktischen Winter geschlossenen Zirkulationssystemen.<br />

Während der Ausbruch des Mount St. Helens bei seinem Ausbruch 1980 nur ein Signal in<br />

der Arktis erzeugt (relativ hohe nördliche Breite des Vulkans!), hat sich die Staubwolke des<br />

El Chichon global über beide Hemisphären verteilt.<br />

Klima und Wolken<br />

§ 534 Im Zusammenhang mit der Anwendung von Satelliten scheinen Wolken ein triviales<br />

Thema zu sein. Selbstverständlich kann man Satelliten zur Untersuchung von Wolken verwenden,<br />

das wird uns ja in jeder Wettervorhersage anschaulich anhand der MeteoSat-Bilder<br />

demonstriert. Und wo eine Wolke ist, da kann es auch regnen. Insgesamt klingt das sehr einfach.<br />

Bei einer genaueren Untersuchung geht es jedoch um das Verständnis der Einflüsse von<br />

Wolken auf unsere Umwelt, d.h. auf Menge und Eigenschaften des Niederschlages einerseits<br />

und auf die Bedeutung der Wolken für das Klima andererseits.<br />

§ 535 Die Bedeutung von Wolken als Lieferant für Niederschläge ist offensichtlich. Die wichtigsten<br />

Stichworte umfassen dabei die Bedeutung von Aerosolen als Kondensationskeime für<br />

Hydrometeore (Wassertröpchen) und die Reinigung der Atmosphäre durch das Auswaschen<br />

von Aerosolen und eines Teiles der Spurengase. Dieses Auswaschen der Spurengase bewirkt<br />

gleichzeitig eine Veränderung der Chemie des Niederschlagswassers (Stichwort: saurer Regen).<br />

Wird bei der Auflösung der Wolke kein bis auf den Boden reichender Niederschlag<br />

erzeugt, so entfällt der Auswascheffekt der Hydrometeore, stattdessen werden Aerosole und<br />

Schadstoffe in der Atmosphäre vertikal ebenso wie horizontal umgelagert. 26<br />

§ 536 Wolken erzeugen aber nicht nur Niederschlag, sie tragen auch zu einer Modifikation<br />

des Strahlungstransports in der Erdatmosphäre bei und sind damit ein wichtiger Bestandteil<br />

in Klimamodellierungen. Ihr Einfluss auf den Strahlungshaushalt ist insbesondere im Zusammenhang<br />

mit dem anthropogen verstärkten Treibhauseffekt teilweise kontrovers diskutiert<br />

worden: eine Erwärmung des Erdbodens, z.B. als Folge eines Anstiegs des CO2-Gehalts,<br />

würde zu einer zusätzlichen Verdunstung und Wolkenbildung führen. Dabei würden sowohl<br />

der Wasserdampfgehalt der Atmosphäre als auch der Wolkenwassergehalt zunehmen. Welche<br />

Auswirkungen sich daraus für den Strahlungstransport ergeben, hängt davon ab, welcher<br />

Anteil des Wasserdampfes in den Flüssigwassergehalt von Wolken überführt wurde, von der<br />

Tröpfchengröße in diesen Wolken und von der Höhe der Wolken in der Atmosphäre.<br />

§ 537 Nach momentanem Stand geht man davon aus, dass tief liegende Wolken einen abkühlenden<br />

Effekt haben, da sie die globale Albedo erhöhen (d.h. mehr einfallende solare<br />

Strahlung in den Weltraum zurück reflektieren), dagegen nur eine relativ geringe zusätzliche<br />

Absorption der von der Erde emittierten Infrarotstrahlung bewirken. Hohe Wolken dagegen<br />

lassen die einfallende solare Strahlung ungestört passieren, absorbieren aber zusätzlich von<br />

25 Eine optische Tiefe von 1 bedeutet, dass die einfallende Strahlung in dieser Tiefe um einen Faktor 1/e<br />

abgeschwächt ist. Der begriff der optischen Tiefe ist im Strahlungstransport allgemein gebräuchlich, d.h. bei<br />

Sternatmosphären genauso wie in diesem beispiel bei der Erdatmosphäre.<br />

26 Dies ist ein typisches Beispiel für einen Satz von messgrößen, der sich zwar vom Satelliten aus bestimmen<br />

lässt, nicht jedoch von Bodenstationen.<br />

c○ M.-B. Kallenrode 2. Juli 2008


166 KAPITEL 3. SATELLITENINSTRUMENTE<br />

der Erde emittierte Infrarotstrahlung und führen damit zu einer Erwärmung. Die Bedeutung<br />

von Wolken für Niederschlag und Strahlungstransport kann sicherlich nicht getrennt<br />

betrachtet werden. Zwischen beiden Phänomenen gibt es Verbindungen, z.B. greifen die Aerosole<br />

einerseits selbst in den Strahlungstransport ein, sind andererseits für die Bildung von<br />

Wolken unerlässlich, werden aber auch durch Niederschlag ausgewaschen.<br />

§ 538 Wollen wir die Bedeutung und Wechselwirkung von Wolken mit der Atmosphäre im<br />

Hinblick auf Niederschlagsbildung ebenso wie auf die Beeinflussung des Strahlungstransports<br />

in einem Modell beschreiben, so benötigen wir (a) eine gewisse Zahl an Messgrößen, die uns<br />

den Zustand der Atmosphäre in Abhängigkeit von der Zeit und von den dreidimensionalen<br />

Raumkoordinaten beschreiben, und (b) physikalische und chemische Gesetzmäßigkeiten, die<br />

die Wechselwirkungen der Größen untereinander beschreiben. Ein Teil der verknüpfenden Gesetze<br />

wird durch mikrophysikalischen Untersuchungen geliefert (Bildung von Hydrometeoren<br />

und deren Aufnahme von Spurengasen und Aerosolen). Einige der anderen Beobachtungsgrößen<br />

lassen sich durch Satellitenbeobachtungen bestimmen.<br />

§ 539 Wollen wir eine Wolke verstehen, so benötigen wir als Minimaldatensatz u.a. die folgenden<br />

Messgrößen:<br />

• die Evapotranspiration des betrachteten Gebietes, d.h. ein Maß für die Fähigkeit der Erdoberfläche,<br />

Wasserdampf an die Atmosphäre abzugeben.<br />

• den Feuchtigkeitsgehalt des betrachteten Gebietes als ein rückwirkendes Maß für über dem<br />

Gebiet niedergegangene Niederschläge (vgl. auch die Diskussion im Zusammenhang mit der<br />

Schneebedeckung in Abschn. 3.7.3) ebenso wie als ein Maß für die mögliche Verdunstung<br />

aus diesem Gebiet.<br />

• den H2O-Gehalt der Atmosphäre, der sich zusammensetzt aus dem Wasserdampfgehalt der<br />

Atmsophäre ebenso wie dem Flüssigwassergehalt der Wolken. Die Unterscheidung zwischen<br />

Wasserdampfgehalt und Flüssigwassergehalt ist wichtig, da beide unterschiedliche Einflüsse<br />

auf den Strahlungstransport haben.<br />

• die mittlere Tröpfchengröße in den Wolken (oder besser eine Verteilung der Tröpfchengrößen),<br />

da die Tröpfchengröße Auswirkungen auf den Strahlungstransport hat. Entsprechende<br />

Informationen müssen auch für die feste Phase vorliegen, d.h. Schnee, Eiskristalle<br />

und Hagelkörner.<br />

• allgemeine Informationen über die Atmosphäre wie Schichtung, vertikale Luftbewegungen,<br />

Druck, Temperatur, Dichte, Frontensysteme.<br />

• der Gehalt an Aerosolen (inkl. Größenverteilung und Zusammensetzung) in der Atmosphäre,<br />

da diese als Kondensationskeime zur Tröpfchenbildung beitragen.<br />

• der Gehalt an Spurengasen in der Atmosphäre, da diese selbst den Strahlungstransport<br />

beeinflussen können und in die Chemie der Hydrometeore eingreifen.<br />

• die räumliche (horizontal und vertikal!) und (jahres)zeitliche Verteilung dieser Parameter.<br />

§ 540 Die Gesetze bzw. empirischen Regeln, die eine Verknüpfung dieser Meßgrößen im<br />

Wolkenmodell beschreiben sollen, umfassen u.a.<br />

• die Kondensation von Hydrometeoren in Abhängigkeit von den Umgebungsbedingungen<br />

wie Übersättigung, Temperatur sowie Vorhandensein, Größenspektrum und Art von Aerosolen.<br />

• das Wachstum von Hydrometeoren in Abhängigkeit von den Umgebungsbedingungen.<br />

• die Umlagerung bzw. das Auswaschen von Spurengasen und Aerosolen durch diese Hydrometeore.<br />

• die Chemie der gasförmigen und in Hydrometeoren gelösten bzw. an diesen angelagterten<br />

atmosphärischen Bestandteile sowie deren mögliche Rückwirkung auf die Wechselwirkung<br />

der Hydrometeore mit ihrer Umgebung, z.B. durch Veränderung des pH-Wertes eines Hydrometeors.<br />

• die Dynamik innerhalb der Wolke, die sowohl die Bildung bzw. Auflösung von Hydrometeoren<br />

als auch deren Wechselwirkung mit der Umgebung bestimmt.<br />

2. Juli 2008 c○ M.-B. Kallenrode


3.5. SOUNDER 167<br />

• die Dynamik der Atmosphäre insgesamt (vertikale Luftbewegung, Schichtung, erzwungene<br />

und freie Konvektion) und die sich daraus ergebende Wechselwirkung zwischen der<br />

Luftmasse in der Wolke und der umgebenden Atmosphäre mit ungesättigter Luft.<br />

• die spektralen Absorptions-, Emissions- und Reflektionseigenschaften von Wasserdampf,<br />

Wassertröpfchen, Schnee, Eis und Hagel in Abhängigkeit von den Eigenschaften (insbesondere<br />

der Größe) der Hydrometeore.<br />

• die spektralen Absorptionseigenschaften der anderen atmosphärischen Bestandteile, insbesondere<br />

der Aerosole und Spurengase.<br />

§ 541 Ein Teil dieser Gesetzmäßigkeiten (insbesondere die oberen vier) lassen sich durch<br />

mikrophysikalische Untersuchungen bestimmen, die anderen durch Beobachtungen in der<br />

Atmosphäre direkt bzw. indirekt durch Satelliten.<br />

§ 542 Im Zusammenhang mit der <strong>Modellierung</strong> von Wolken haben wir bereits einige wichtige<br />

Input-Parameter kennen gelernt. Als letzter dieser Input-Parameter wurde die räumliche und<br />

zeitliche Verteilung der Größen erwähnt. Darin zeigt sich, dass eine in-situ Bestimmung der<br />

Parameter nicht mit vertretbarem Aufwand durchgeführt werden kann. Stattdessen erscheint<br />

es sinnvoll, auf Satellitenbeobachtungen zurückzugreifen. Zu nennen sind hier die üblichen<br />

Imaging Instrumente, die im sichtbaren Bereich des elektromagnetischen Spektrums arbeiten<br />

und im thermischen Infrarot.<br />

§ 543 Mit diesen Instrumenten lassen sich Wolkenbedeckungen ebenso wie Wolkenalbedos<br />

bestimmen. Durch die Verwendung des Infrarotkanals (bzw. eines im thermischen Infrarot<br />

arbeitenden Instruments) lässt sich die Temperatur der Wolkenobergrenze bestimmen und<br />

damit durch Vergleich mit der Standardatmosphäre oder besser noch durch Bezug auf ein<br />

Sounding Instrument oder einen geeigneten Radiosondenaufstieg die Höhe der Wolkenoberkante.<br />

§ 544 Damit erhalten wir Informationen über die Bereiche, in denen sich Wolken bilden,<br />

die Bewegung dieser Wolken in der Atmosphäre (dient auch der indirekten Messung von<br />

Windgeschwindigkeiten in größeren Höhen) und die Auflösung dieser Wolken durch Niederschlag<br />

oder Verdunstung. Diese Beobachtungsgrößen entsprechen also dem Output (bzw.<br />

einem Teil-Output) eines Wolkenmodells: sie zeigen uns Wolkenbildung und -auflösung und<br />

den Transport von Hydrometeoren und darin enthaltenen atmosphärischen Bestandteilen an.<br />

§ 545 Ein Output-Parameter, der in diesen Beobachtungen noch nicht enthalten ist, ist der<br />

Niederschlag. Will man diesen nicht auf der Basis des Netzes von Beobachtungsstationen<br />

bestimmen (z.B. um eine feinere räumliche Auflösung zu erhalten, um auch sehr lokale Niederschlagsgebiete<br />

zu erfassen, oder mit dem Ziel der besseren Erfassung auch ausgedehnter<br />

(Wasser-)Flächen ohne dichtes Netz an Beobachtungsstationen), so bieten sich auch hier<br />

Möglichkeiten der Fernerkundung an: zum einen die Verwendung von Wetterradar, zum anderen<br />

die Verwendung von Satellitenbeobachtungen im Mikrowellenbereich.<br />

§ 546 Auch die Input-Parameter lassen sich größtenteils mit Hilfe von Satelliteninstrumenten<br />

bestimmen. Dazu werden Kombinationen einer Vielzahl von Imaging und Sounding Instrumenten<br />

benötigt, die in verschiedenen Bereichen des elektromagnetischen Spektrums messen.<br />

Als Beispiel für die Komplexität der Fragestellungen aber auch für die Möglichkeiten der Untersuchung,<br />

die sich durch eine geschickte Kombination von Instrumenten ergeben können, sei<br />

hier nur der Wasserdampfgehalt der Atmosphäre erwähnt. Die Strahlung im 6.7 µm Band ist<br />

stark durch die Absorption durch Wasserdampf und die Temperaturverteilung in der Atmosphäre<br />

bestimmt. Um daraus die Wasserdampfverteilung zu bestimmen, muss also gleichzeitig<br />

eine Temperaturverteilung bestimmt werden, z.B. durch einen Radiosondenaufstieg oder ein<br />

entsprechendes Sounding Instrument.<br />

§ 547 Weiter oben hatten wir Aerosole und Spurengase als weitere Input-Parameter kennen<br />

gelernt. Deren Vertikalprofile lassen sich ebenfalls mit Sounding Instrumenten bestimmen.<br />

Schwieriger dagegen wird es wieder bei der Bestimmung von mittleren Tröpfchengrößen in<br />

c○ M.-B. Kallenrode 2. Juli 2008


168 KAPITEL 3. SATELLITENINSTRUMENTE<br />

den Wolken. Hier ist noch zu überprüfen, ob geschickte Kombinationen vieler Beobachtungen<br />

(insbesondere die Verwendung der spektralen Reflektions- und Emissionsvermögen) es<br />

erlauben, zumindest grobe Mittelwerte für den oberen Bereich der Wolke anzugeben. Für<br />

die Bestimmung des gesamten Flüssigwassergehaltes in Wolken (also eine Summation über<br />

die einzelnen Tröpfchen) deutet sich die Möglichkeit einer Kombination von Daten im sichtbaren,<br />

infraroten und Mikrowellenbereich an. Das Verfahren ist bisher durch Kombination<br />

von Radiosonden- und Satellitendaten überprüft worden, sollte aber aufgrund der verbesserten<br />

Instrumentierung der neueren Satellitentypen auch mit Hilfe der Satellitendaten alleine<br />

durchgeführt werden können.<br />

§ 548 Ein derartiges Wolkenmodell sollte übrigens nicht alleine als Selbstzweck zur Beschreibung<br />

einer Wolke gesehen werden, sondern ist als ein Bestandteil eines wesentlich größeren<br />

und komplexeren Klimamodells zu sehen.<br />

3.6 Wunschzettel der 1990er: Mission to Planet Earth<br />

§ 549 In den 90er Jahren hat die NASA (im wesentlichen zur Rechtfertigung ihrer Existenz<br />

und der damit verbundenen Kosten, ansonsten aber eher halbherzig) eine internationale<br />

Kampagne Mission to Planet Earth oder Earth Observing System [10, 611, 411] aus der<br />

Taufe gehoben, die eine vollständige Untersuchung der Erde inklusive der Atmosphäre zum<br />

Ziel hat. Da Klimaforschung und -politik im Vergleich zum bemannten Marsfluges natürlich<br />

völlig irrelevant ist, hat Bush Junior die entsprechenden Pläne der NASA den Realitäten<br />

angepasst; wir werden in Abschn. 4.8 auf den aktuellen Stand eingehen.<br />

§ 550 Die Fragestellungen dieser Mission zum Planeten Erde waren ehrgeizig (und sind es<br />

auch immer noch); sie sollen umfassen u.a. den hydrologischen Zyklus (Verdunstung, Niederschlag,<br />

Transport von Wasserdampf, Wolken), die ozeanische und atmosphärische Zirkulation<br />

(mit besonderer Berücksichtigung der Oberflächenwinde), die atmosphärische Zusammensetzung<br />

(z.B. Wasserdampf, Wolken und Aerosole), eine globale Beobachtung der<br />

troposphärischen Chemie, die Untersuchung der Stratosphäre (Ozon, Chemie und Wind),<br />

die Strahlungsbilanz und Oberflächentemperaturen sowie die Temperatur der Meeresoberfläche<br />

und die damit verbundenen Windsysteme. Entsprechend werden auch Instrumente<br />

mit Fähigkeiten benötigt, die weit über die bisher vorgestellten Universalisten hinaus gehen.<br />

§ 551 Die verschiedenen Instrumente sollen aber nicht nur zur Untersuchung der Atmosphäre<br />

verwendet werden. Andere Fragestellungen beschäftigen sich mit biologischer Aktivität<br />

und Ökosystemen, dem Vorkommen von Mineralien und Pflanzenarten für Geologie,<br />

Land- und Forstwirtschaft, der Oberflächenmineralogie, der Glaziologie und der Entstehung<br />

und möglichen Vorhersage von Erdbeben. Diese verschiedenen Messziele sollen durch eine<br />

Vielzahl von auf verschiedene Satelliten verteilte Instrumente untersucht werden.<br />

§ 552 Viele der für diese Mission geplanten oder teilweise auch schon gebauten Instrumente<br />

sind in ihren Möglichkeiten den bisher betrachteten Instrumenten bei weitem überlegen.<br />

Einige von ihnen seien hier kurz vorgestellt, um einen Einblick in ihre Möglichkeiten (und<br />

teilweise auch Zielsetzungen) zu geben.<br />

§ 553 Das High-Resolution Imaging Spectrometer HIRIS [48, 72, 277] soll die detaillierte und<br />

genau lokalisierte Messung geologischer, biologischer und physikalischer Prozesse vornehmen.<br />

Dazu sind gefordert eine spektrale Auflösung von 200 Kanälen im Spektralbereich zwischen<br />

0.4 und 2.5 µm (sichtbares Licht bis nahes Infrarot) und ein Bodenauflösungsvermögen von<br />

30 m bei einem Blickfeld von 30 km. Die 200 Spektralkanäle machen beim Kehrbesen ein<br />

entsprechend großes 2D-CCD-Array erforderlich. Die relativ geringe Bodenauflösung ist auch<br />

eine Folge des guten spektralen Auflösungsvermögens: die einfallenden Photonen werden auf<br />

eine große Zahl von Spektralkanälen verteilt; im Vergleich zu LandSat auf mehr als die 30fache<br />

Zahl..<br />

2. Juli 2008 c○ M.-B. Kallenrode


3.6. WUNSCHZETTEL DER 1990ER: MISSION TO PLANET EARTH 169<br />

§ 554 Das High-Resolution Imaging Spectrometer HRIS [24] ist HIRIS ähnlich und dient dem<br />

remote sensing von Land- und Küstenbereichen. Dazu gehört die Kartierung der geologischen<br />

Strukturen und der Vegetation. Anwendungsziel ist ein Überblick über landwirtschaftliche,<br />

geologische und Wald-Resourcen. Der Spektralbereich umfasst wie bei HIRIS den Bereich<br />

von 0.4 bis 2.5 µm. Die spektrale Auflösung ist besser als 20 nm, jedoch können nur 10 Spektralbänder<br />

für jedes Bild ausgelesen werden. Insofern verschafft HIRIS einen Überblick (z.B.<br />

Vegetation oder Gestein), HRIS gestattet dann durch selektive Verwendung der für die jeweilige<br />

Gattung interessanten Spektralbänder eine genauere Bestimmung. Die Bodenauflösung<br />

liegt zwischen 20 und 50 m, das Blickfeld beträgt zwischen 20 und 60 km.<br />

§ 555 Das Medium Resolution Imaging Spectrometer MERIS [316, 344, 349] ist ein Nachfolger<br />

des Coastal Zone Color Scanners CZCS und hat die Hauptaufgabe, die Farbe des Ozeans<br />

zu bestimmen, woraus sich u.a. auf den Planktongehalt zurückschließen lässt (wichtig nicht<br />

nur als Maß für die Bioproduktivität sondern auch für den CO2-Kreislauf). Dazu können<br />

9 von 60 Spektralbändern im Bereich von 0.4 bis 1.04 µm ausgewählt werden. Das Bodenauflösungsvermögen<br />

beträgt 500 m (Ozeane sind groß und durchmischen sich relativ schnell),<br />

die Breite des Blickfelds beträgt zwischen 1000 und 1500 km. MERIS fliegt auf EnviSat, siehe<br />

auch Abschn. 4.4.<br />

§ 556 Das Moderate-Resolution Imaging Spectrometer: Tilt MODIS-T und Nadir MODIS-N<br />

dient der Messung der Landvegetation und Geologie, der Ozeanoberflächentemperatur und<br />

Farbe, und von atmosphärischen Aerosolen und Wolken. Der Spektralbereich von 0.4 bis<br />

1.04 µm ist in 64 Bänder eingeteilt.<br />

§ 557 MODIS [321, 502] und HIRIS dienen im wesentlichen dem Verständnis bio-geochemischer<br />

Zyklen, des hydrologischen Zyklus, geologischer Prozesse und langzeitlicher Klimavariationen.<br />

Aufgrund der feinen Spektralauflösung können die Instrumente Gruppen von<br />

Organismen identifizieren und damit die komplexen Muster von Ökosystemen und deren<br />

Veränderungen auf einer globalen Skala aufzeichnen. Aufgrund seiner besseren räumlichen<br />

Auflösung ist HIRIS gleichsam das Zoom-Objektiv von MODIS. MODIS fliegt auf Terra<br />

[617] (ehemals EOS-AM) und Aqua [413] (ehemals EOS-PM).<br />

§ 558 Das Intermediate and Thermal Infrared Radiometer ITIR soll hochaufgelöste Bilder<br />

im nahen und thermischen Infrarot im Spektralbereich von 0.85 bis 11.7 µm erzeugen. Das<br />

räumliche Auflösungsvermögen beträgt je nach Wellenlänge zwischen 15 und 60 m (ältere<br />

Instrumente wie TIR auf HCMM [522, 608] haben eine Auflösung von 600 m). ITIR ist die<br />

Ergänzung zu HIRIS im thermischen Infrarot, die Aufgaben umfassen Oberflächengeologie,<br />

Mineralogie, Bodenbeschaffenheit, Bodentemperatur und geothermische Ressourcen. ITIR ist<br />

später zu ASTER (Advanced Spaceborne Thermal Emission and Reflection, [451]) mutiert<br />

und fliegt, wie MODIS, auf Terra, dem ehemaligen EOS-A Satelliten.<br />

§ 559 Der Atmospheric Infrared Sounder AIRS [305, 450] dient zur Messung der atmosphärischen<br />

Temperatur und der Spurengase. Die räumliche Auflösung beträgt dabei zwischen<br />

15 und 50 km. AIRS kann bis zu 49 ◦ zu beiden Seiten seiner Bodenspur scannen.<br />

Damit ist bei zwar geringer räumlicher Auflösung ein schneller Überblick über weite Bereiche<br />

möglich – man kommt der Momentaufnahme recht nahe. Die spektrale Auflösung ist mit<br />

115 Kanälen hoch genug, um die Identifikation einzelner Spurengase zu ermöglichen. Bei der<br />

Messung des Temperaturprofils wird eine Genauigkeit von 1 K erwartet bei einer vertikalen<br />

Auflösung von 1 km. AIRS fliegt mittlererweile auf Terra [617].<br />

§ 560 Das Advanced Microwave Scanning Radiometer AMSR [306, 384, 414, 644] ist ein<br />

passives Mikrowelleninstrument, das im Bereich zwischen 6.6 und 31.6 GHz arbeitet. Aufgabe<br />

ist die Messung atmosphärischen Wasserdampfes, der Oberflächentemperatur und des<br />

Oberflächenwindes über dem Meer. Die Temperaturauflösung liegt im Bereich von 1 K, die<br />

räumliche Auflösung variiert mit der Frequenz zwischen 9 und 50 km. Abgetastet werden<br />

Blickfelder von 1200 km Seitenlänge. AMSR fliegt auf Aqua [413].<br />

c○ M.-B. Kallenrode 2. Juli 2008


170 KAPITEL 3. SATELLITENINSTRUMENTE<br />

§ 561 Die Advanced Microwave Sounding Unit AMSU [307, 624, 415] ist ein Radiometer zur<br />

Messung der atmosphärischen Temperatur- und Feuchteprofile. Die Temperaturauflösung beträgt<br />

0.25 bis 1.3 K für Höhen zwischen der Oberfläche und 40 km. Die Temperaturprofile<br />

werden innerhalb von 15 Kanälen zwischen 23.8 und 89 GHz gemessen. Wasserdampf wird<br />

in fünf Kanälen zwischen 89 und 138 GHz gemessen. Das IFOV beträgt 50 km für die Temperaturmessung<br />

und 15 km für den Wasserdampf. Das Blickfeld des Instruments erstreckt<br />

sich 50 ◦ zu beiden Seiten der Bodenspur. AMSU fliegt auf den neueren POES Satelliten<br />

(POES-K/L/M) sowie auf Aqua [413].<br />

§ 562 Das Altimeter (ALT) ist ein Radaraltimeter zur Untersuchung der Topographie von<br />

Ozeanen und Oberflächen. Verwendet werden zwei Frequenzbänder (5.3 GHz und 13.6 GHz),<br />

die Genauigkeit in der Bestimmung der Höhe soll 2 cm betragen.<br />

§ 563 Das Atmospheric Lidar ATLID [161] ist ein Lidar, d.h. es arbeitet wie Radar, jedoch<br />

werden hier keine Mikrowellen eingesetzt, sondern es wird ein Laser verwendet. Aufgabe des<br />

Instruments ist die Bestimmung der Höhe von Wolkenoberkanten, atmosphärischen Inversionsschichten<br />

und der Verteilung von Aerosolschichten. Verwendet wird Strahlung im Bereich<br />

von 1.06 oder 1.53 µm. Die räumliche Auflösung beträgt 100 bis 500 m in vertikaler und 10<br />

bis 50 km in horizontaler Richtung.<br />

§ 564 Der Laser Atmospheric Wind Sounder LAWS [671] ist ein Doppler-Lidarsystem zur<br />

Messung der troposphärischen Luftbewegungen (Prinzip: Laser-Doppler-Anemometrie [733]).<br />

Die vertikale Auflösung beträgt 1 km, das Blickfeld 100 km 2 . Die Geschwindigkeit kann auf<br />

1 m/s genau bestimmt werden.<br />

§ 565 Das Geoscience Laser Ranging System GLRS [423] ist ein Laser-Altimeter zur Bestimmung<br />

der Bewegung der Erdplatten – und damit ein würdiger Nachfolger für LAGEOS.<br />

Dazu sind verschiedene Punkte auf der Oberfläche mit reflektierenden Würfeln ausgestattet,<br />

so dass ihre Wanderung verfolgt werden kann. Ferner dient das GLRS zur topographischen<br />

Kartierung von Eis- und Landflächen sowie Wolkenoberkanten. Im Gegensatz zum Radaraltimeter<br />

ist der Durchmesser des abtastenden Strahls am Boden mit 80 bis 290 m klein.<br />

3.7 Anwendungsbeispiele<br />

§ 566 Bei den einzelnen Instrumenten wurden bereits Anwendungsbeispiele vorgestellt, in<br />

diesem Abschnitt finden Sie eine lose Sammlung von vielleicht nicht ganz so intuitiven Beispielen.<br />

Aber gerade diese Beispiele sollen auch einen Einblick in den Reiz bzw. die intellektuelle<br />

Herausforderung der <strong>Erdfernerkundung</strong> geben: Satelliteninstrumente können nur mit<br />

Hilfe elektromagnetischer Strahlung arbeiten (remote sensing lässt nichts anderes zu), einige<br />

der zu untersuchenden Fragen haben aber primär überhaupt keinen Bezug zur elektromagnetischen<br />

Strahlung. Die Herausforderung besteht darin, die wissenschaftliche Fragestellung<br />

soweit zu durchdringen, dass man indirekte Verfahren finden kann, die sich doch wieder im<br />

elektromagnetischen Spektrum abbilden lassen.<br />

3.7.1 Archäologie und Anthropologie<br />

§ 567 Archäologie und Anthropologie sind beides eher bodenständige Disziplinen, die man<br />

nicht gerade mit der noch recht jungen Disziplin der <strong>Erdfernerkundung</strong> vom Weltraum aus<br />

in Verbindung bringen würde. Dieser Eindruck ist auch insofern völlig korrekt, als dass beide<br />

Disziplinen nicht mit <strong>Erdfernerkundung</strong> in dem Sinne betraut sind, dass ein wissenschaftliches<br />

Ziel definiert wird und dann ein Instrument zur Erreichung dieses Zieles entworfen und gebaut<br />

wird. Beide Disziplinen bedienen sich jedoch gelegentlich der <strong>Erdfernerkundung</strong> als eines<br />

willkommenen Hilfsmittels.<br />

§ 568 Die Archäologie bedient sich der <strong>Erdfernerkundung</strong>s allerdings nicht erst seitdem diese<br />

durch Satelliten erfolgt. Auch normale Luftbilder wurden bereits im Dienste der Archäologie<br />

2. Juli 2008 c○ M.-B. Kallenrode


3.7. ANWENDUNGSBEISPIELE 171<br />

Abbildung 3.84: Ubar im sichtbaren (rechts) und im Radar (links) [472]<br />

verwendet [43, 232]. So wurde Radar verwendet, um die Landnutzung durch die Mayas zu<br />

untersuchen [2]. Häufig kann man auch am Wachstum von Pflanzen erkennen, ob sich unter<br />

dem Boden Ruinenreste befinden oder nicht: ist der Boden über einer Ruine (z.B. einem<br />

Mauerrest) nur relativ dünn, so unterscheidet er sich sowohl im Feuchtigkeits- als auch im<br />

Nährstoffgehalt von seiner Umgebung. Als Konsequenz wachsen hier die Pflanzen, insbesondere<br />

Nutzpflanzen, anders und unterscheiden sich in Größe und häufig auch Farbe von ihren<br />

benachbarten Artgenossen. In [11] ist dieses Phänomen unter Verwendung von Luftbildern<br />

recht eindrucksvoll dargestellt. [209] diskutiert die Verwendung von Infrarotfarbfilmen (bzw.<br />

entsprechenden Daten von Scannern) zur Identifikation von Siedlungs- oder Infrastrukturresten<br />

römischen Ursprunges. Auch die Muster der Landnutzung prähistorischer Indianer in<br />

Arizona sind auf diese Weise untersucht worden.<br />

§ 569 Strain und Engele [231] beschreiben als ein Beispiel für die Verwendung einer Kombination<br />

verschiedener Satelliteninstrumente in der Archäologie die Entdeckung von Ubar,<br />

einer verschwundenen Stadt, die T.E. Lawrence (Lawrence von Arabien) als das ‘Atlantis<br />

der Wüste’ beschrieb. Gradlinigie Strukturen, die auf den LandSat- und SPOT-Aufnahmen<br />

schwach erkennbar waren, konnten in der freien Natur nicht mit irgendwelchen besonderen<br />

Strukturen am Boden in Verbindung gebracht werden. Die Kombination mit Space Shuttle<br />

Radaraufnahmen von SICR-C/X-SAR [574] machte jedoch deutlich, dass es sich bei diesen<br />

Linien um alte Karawanenpfade handeln musste: zwar zeigt sich keine Delle im Wüstensand,<br />

da dieser alle Rinnen gleichmäßig zuweht, aber die Radaraufnahmen zeigen ein Signal, da<br />

hier der Boden verfestigt ist und die Sandschicht etwas dicker ist als in der Umgebung. Die<br />

Karawanenpfade konvergierten in einem engen Bereich, in dem man bei Ausgrabungen die<br />

Ruinen der Stadt fand.<br />

§ 570 Abbildung 3.84 zeigt im rechten Teil eine Aufnahme der Umgebung von Ubar im<br />

sichtbaren, im linken Teil die zugehörige Radaraufnahme. Die Presseerläueterungen dazu<br />

stammen von [473]: “This pair of images from space shows a portion of the southern Empty<br />

Quarter of the Arabian Peninsula in the country of Oman. On the left is a radar image<br />

of the region around the site of the fabled Lost City of Ubar, discovered in 1992 with the<br />

aid of remote sensing data. On the right is an enhanced optical image taken by the shuttle<br />

astronauts. Ubar existed from about 2800 BC to about 300 AD. and was a remote desert<br />

outpost where caravans were assembled for the transport of frankincense across the desert.<br />

The actual site of the fortress of the Lost City of Ubar, currently under excavation, is too<br />

small to show in either image. However, tracks leading to the site, and surrounding tracks,<br />

c○ M.-B. Kallenrode 2. Juli 2008


172 KAPITEL 3. SATELLITENINSTRUMENTE<br />

show as prominent, but diffuse, reddish streaks in the radar image. Although used in modern<br />

times, field investigations show many of these tracks were in use in ancient times as well.<br />

Mapping of these tracks on regional remote sensing images provided by the Landsat satellite<br />

was a key to recognizing the site as Ubar. The prominent magenta colored area is a region<br />

of large sand dunes. The green areas are limestone rocks, which form a rocky desert floor.<br />

A major wadi, or dry stream bed, runs across the scene and appears as a white line. The<br />

radar images, and ongoing field investigations, will help shed light on an early civilization<br />

about which little in known. The radar image was taken by the Spaceborne Imaging Radar<br />

C/X-Band Synthetic Aperture Radar (SIR-C/X-SAR) and is centered at 18 degrees North<br />

latitude and 53 degrees East longitude. The image covers an area about 50 kilometers by<br />

100 kilometers (31 miles by 62 miles). The colors in the image are assigned to different<br />

frequencies and polarizations of the radar as follows: red is L-band, horizontally transmitted,<br />

horizontally received; blue is C-band horizontally transmitted, horizontally received; green<br />

is L-band horizontally transmitted, vertically received. SIR-C/X-SAR, a joint mission of the<br />

German, Italian and the United States space agencies, is part of NASA’s Mission to Planet<br />

Earth.”<br />

§ 571 Radar wird auch verwendet, um trocken gefallene Flusstäler (Wadis) zu identifizieren.<br />

Diese sind in Nordafrika weit verbreitet und können als gute Hinweise bei der Suche<br />

nach alten Siedlungsplätzen dienen, da Ansiedlungen stets an Wasser gebunden sind. Da<br />

der Wüstensand extrem trocken ist, kann Radar die oberste Sandschicht durchdringen und<br />

darunter liegende Strukturen erfassen (das gleiche Prinzip hat auch im vorangegangenen<br />

Beispiel die Karawanenpfade deutlich hervortreten lassen). Damit lassen sich die ehemaligen<br />

Flussläufe, die weder in Aufnahmen im sichtbaren Bereich noch durch Untersuchungen vor<br />

Ort erkennbar sind, identifizieren. Strain und Engele [231] diskutieren in diesem Zusammenhang<br />

die Sanddünen im Tifernine Dünenfeld in Ostalgerien. In diesem Wüstengebiet lassen<br />

sich an einigen Stellen Hinweise auf ein prähistorisches Flusssystem finden. Dass das Klima<br />

an diesem Ort früher anders gewesen sein muss, belegen auch die etwa 6 000 Jahre alten<br />

Felszeichnungen im Tassili-N-Ajjer am Rande dieses Gebietes, die mit Jadgszenen, Giraffen,<br />

Wildschafen, Flusspferden und Antilopen ebenfalls auf ein gemäßigteres Klima hindeuten.<br />

Verständnisfrage 32 Ähnliche Probleme mit verwischten Spuren gibt es in allen schnell<br />

veränderlichen Umgebungen: ein Schneesturm überlagert die Spur von Tourengehern, Sediment<br />

füllt die von einem Schleppnetz in den Meeresboden gerissene Furche. Lassen sich diese<br />

Situationen auf gleiche Weise nachweisen?<br />

§ 572 Weitere Beispiele für den Einsatz von Radar in der Archäologie geben [468, 665];<br />

allgemein wird der Einsatz von remote sensing Verfahren in der Archäologie an verschiedenen<br />

Beispielen beschrieben auf [394].<br />

3.7.2 Vegetation<br />

§ 573 Zur Untersuchung der Vegetation sind wie bereits beschrieben neben den Daten im<br />

sichtbaren Bereich des elektromagnetischen Spektrums insbesondere die Spektralkanäle im<br />

nahen Infrarot wichtig. Einige Beispiele für derartige Untersuchungen sind hier zusammen<br />

gestellt, die Grundlagen für eine Klassifikation werden im Zusammenhang mit der Datenverarbeitung<br />

in Abschn. 7.3 vorgestellt.<br />

Grundlagen der Pflanzenbeurteilung, Vegetationsindex<br />

§ 574 Wir hatten im Zusammenhang mit der Diskussion der verschiedenen Satelliteninstrumente<br />

in Abschn. 3.2.5 bereits erwähnt, dass Beobachtungen im nahen Infrarot zur Bestimmung<br />

verschiedener Vegetationstypen und ihres Gesundheitszustandes verwendet werden<br />

können.<br />

§ 575 Abbildung 3.85 zeigt dazu die Struktur eines Pflanzenblattes. Das vollständige Spektrum<br />

der solaren Strahlung fällt auf dieses Blatt. Die Bestandteile eines Blattes sind relativ<br />

2. Juli 2008 c○ M.-B. Kallenrode


3.7. ANWENDUNGSBEISPIELE 173<br />

Abbildung 3.85: Struktur eines Pflanzenblattes<br />

und seine Reflektionsmerkmale [11]<br />

transparent und absorbieren, mit Ausnahme der Pigmente im Chloroplast, keine nennenswerte<br />

Energie im sichtbaren Licht und nahen Infrarot. Das Blatt enthält viele Luft-Wasser-<br />

Übergänge zwischen den Zellwänden und dem interzellulären Raum. Der Unterschied im<br />

Brechungsindex des Wassers in den Zellwänden und der Luft in den Bereichen dazwischen<br />

bewirkt eine effiziente interne Reflektion des einfallenden Lichtes. Absorption findet nur in<br />

den Wellenlängen statt, die für die Photosynthese benötigt werden. Die wichtigsten Blattpigmente<br />

in diesem Bereich sind Chlorophyll a und b, Karotin und Xantophyll, die alle in der<br />

Nähe von 0.445 µm (blau) absorbieren. Zusätzlich absorbiert Chlorophyll auch in der Nähe<br />

von 0.645 µm (rot). Ein geringer Teil der absorbierten Energie wird als Floureszenslicht<br />

emittiert, der größte Teil wird durch Photosynthese umgewandelt.<br />

§ 576 Für eine gesunde Pflanze ergibt sich das in Abb. 3.86 durch die durchgezogene Kurve<br />

dargestellte spektrale Reflektionsvermögen. Bei einer kranken Pflanze ist die Photosyntheserate<br />

geringer, so dass die Absorption im roten und blauen Bereich des Spektrums geringer<br />

Abbildung 3.86: Charakteristisches spektrales<br />

Reflektionsvermögen gesunder und kranker<br />

Blätter [11]<br />

c○ M.-B. Kallenrode 2. Juli 2008


174 KAPITEL 3. SATELLITENINSTRUMENTE<br />

ist und dort mehr Strahlung reflektiert wird. Der Hauptunterschied zwischen einer gesunden<br />

und einer kranken Pflanze zeigt sich jedoch am besten im nahen Infrarot: während ein gesundes<br />

Blatt durch das Mesophyll an der Blattunterseite den Großteil der Strahlung reflektiert,<br />

wird bei einer kranken Pflanze das Mesophyll porös und die Reflektivität im nahen Infrarot<br />

nimmt ab.<br />

§ 577 Zur Beschreibung der Bioproduktivität einer Pflanze wurde ein normalized difference<br />

vegetation index NDVI [738] definiert; ein kontinuierlicher NDVI-Record seit 1982 findet sich<br />

unter [634]. Dieser ist gegeben als das normierte Verhältnis (IR - Rot)/(IR + Rot) [8, 220].<br />

Dieser NDVI ist einer der wichtigsten Indizes zur Beschreibung der Vegetation geworden.<br />

Der NDVI wird vereinfachend als Vegetationsindex bezeichnet. NDVI ist für ein bestimmtes<br />

Instrument, eben das AVHRR definiert; für SPOT 5 wird mit dem HRVIR ein ähnlicher<br />

Index erzeugt und unter [682] vertrieben.<br />

§ 578 Der NDVI ist als das Verhältnis von Intensitäten in verschiedenen AVHRR-Kanälen<br />

definiert. Verwendet man ein anderes Instrument, so lässt sich häufig ein entsprechendes<br />

Verhältnis bilden. Dieses hat aber nur dann die gleiche Bedeutung wie der NDVI, wenn<br />

die Spektralkanäle identisches Ansprechvermögen haben – bei den verschiedenen AVHRR-<br />

Instrumenten sollte das der Fall sein. 27 Verschieben sich dagegen die Grenzen der Spektralkanäle<br />

(z.B. weil sich deren Zahl erhöht hat) oder vergrößert sich die Empfindlichkeit eines<br />

der Kanäle (z.B. weil der Detektor empfindlicher ist als der alte), so muss entweder ein neuer<br />

Index definiert werden oder der alte NDVI lässt sich nur mit Hilfe einer Normierung bestimmen.<br />

Da in letztere jedoch Annahmen über das Untersuchungsobjekt eingehen müssen (eine<br />

Art mittlere spektrale Empfindlichkeit), weicht dieser Index vom Original ab.<br />

§ 579 Mit den heute zur Verfügung stehenden Instrumenten mit höherem spektralen Auflösungsvermögen<br />

lassen sich genauere Indices definieren, als Ersatz für den NDVI wird der<br />

FAPAR [366] diskutiert. Die Neudefinition eines Index ist ein zweischneidiges Problem. Selbst<br />

wenn der neue Index nach heutigem Wissensstand die Daten wesentlich besser (und vielleicht<br />

auch in einer der Fragestellung besser angemessenen Form) zu beschreiben vermag, ist er<br />

nicht unbedingt hilfreich. Die Neudefinition erfolgt in der Regel für moderne Experimente<br />

mit anderen Charakteristika. damit lässt sich der neue Index nicht rückwirkend für fie nur<br />

mit alten Instrumenten beobachteten Zeiträume definieren. Im Interesse einer langen und<br />

homogenen Datenbasis wird daher auch der alte Index weiter bestimmt.<br />

Waldschäden<br />

§ 580 Diese Eigenschaft von Vegetation, im nahen Infrarot ein helles Signal zu erzeugen,<br />

lässt sich auf verschiedene Weise einsetzen. Das einfachste Beispiel ist die Forstwirtschaft,<br />

bei der auf diese Weise vom Satelliten aus eine großflächige Bestandserfassung auch in nur<br />

schwer zugänglichen Gebieten erfolgen kann. Da diese Untersuchungen schnell wiederholt<br />

werden können, lässt sich ein Waldschadensbericht erstellen, der auch die Veränderungen<br />

berücksichtigt, d.h. Fragen untersucht wie: (a) wie schnell breitet sich ein Schaden aus, (b)<br />

wie breitet sich der Schaden aus (da gibt es sicherlich Unterschiede, ob ein Schaden in der<br />

Folge des sauren Regens im wahrsten Sinne des Wortes von außen über die Pflanzen kommt<br />

oder ob es eine Pflanzenkrankheit bzw. ein Schädlingsbefall ist, die/der sich von einem oder<br />

mehreren Herden her ausbreitet), (c) gibt es Bereiche, die relativ resistent gegen diesen Schaden<br />

erscheinen und wodurch zeichnen sich diese Bereiche aus (z.B. Bodenqualität, die einen<br />

Einfluss auf die Widerstandsfähigkeit der Pflanzen allgemein haben kann; geringerer Stress<br />

auf die Pflanzen durch weniger exponierte Lage; bessere Nährstoffversorgung)? Ziel dabei<br />

kann es z.B. auch sein, bei einer Wiederaufforstung Areale mit unterschiedlichen Eigenschaften<br />

zu definieren und die jeweils für diese Umgebungsbedingungen am besten geeigneten<br />

Pflanzen dort anzupflanzen.<br />

27 Umgekehrt erklärt diese Einschränkung auch, warum sich bewährte Instrumente nur sehr wenig weiter<br />

entwickeln. Im Interesse des Monitoring von global change müssen die alten Kanäle immer irgendwie mit<br />

geflogen werden.<br />

2. Juli 2008 c○ M.-B. Kallenrode


3.7. ANWENDUNGSBEISPIELE 175<br />

Abbildung 3.87: Globale Veteilung von ‘breitblättrigen immergrünen Bäumen’ bestimmt nach<br />

verschiedenen Verfahren aus AVHRR-Daten [44]<br />

Globale Landbedeckung<br />

§ 581 Die Untersuchung von Waldschäden betrachtet eher lokale Probleme und erfordert daher<br />

ein relativ gutes räumliches Auflösungsvermögen; das gröbere Auflösungsvermögen des<br />

AVHRR dagegen eignet sich sehr gut zur Untersuchung globaler Fragen. Ein Beispiel ist die<br />

mit den AVHRRs der POES-Satelliten angefertigte Inventur der Vegetation unseres Planeten<br />

[44, 169, 240]. Insbesondere Änderungen in der Landbedeckung sind von Bedeutung: diese<br />

beeinflussen das Klima u.a. durch Veränderung der Albedo, Evapotranspiration und durch<br />

die Aufnahme und/oder Emission von treibhauswirksamen Spurengasen. Für diese Aufgabe<br />

werden die AVHRR-Instrumente verwendet, da diese mit einer relativ groben räumlichen<br />

Auflösung von 1.1 km gegenüber LandSat und SPOT Beobachtungen noch handhabbare Datenmengen<br />

erzeugen. Auch ist die Wiederholfrequenz wesentlich größer, so dass sich saisonale<br />

Variationen in der Vegetation besser studieren lassen. LandSat und SPOT haben zwar eine<br />

Wiederholfrequenz von wenigen Wochen, aber da kann natürlich leicht mal bei dem einen<br />

oder anderen Überflug das Zielgebiet unter einer Wolkendecke verborgen sein, so dass es erst<br />

nach mehreren Monaten wieder beobachtet werden kann.<br />

§ 582 Allerdings ist die Klassifikation der Vegetation nicht ganz so einfach wie man es sich<br />

vielleicht aus der in § 577 gegebenen Faustformel für den Vegetationsindex wünschen würde<br />

[44]. Zum ersten ist der NDVI jeder einzelnen Pflanze abhängig u.a. von der Beleuchtung<br />

(Intensität, Einfallswinkel), der Nährstoff- und Wasserversorgung, der Schadstoffbelastung<br />

und der Qualität des Bodens. Zusätzlich muss zur Bewertung der reflektierten Strahlung<br />

c○ M.-B. Kallenrode 2. Juli 2008


176 KAPITEL 3. SATELLITENINSTRUMENTE<br />

Abbildung 3.88: Links: NDVI oder Greenness als Maß für Pflanzenvitalität im Februar 2008 in<br />

Kalifornien; Mitte: Abweichungen vom langjährigen Mittel; Rechts: Waldbrandgefahr; erstellt<br />

mit [707]<br />

außer dem Reflektionsvermögen des einzelnen Blattes bekannt sein die gesamte vom Satelliten<br />

einsehbare Blattoberfläche und die Neigung der einzelnen Blätter (z.B. durch Wind),<br />

da Blattober- und -unterseite unterschiedliche Reflektionsvermögen haben können. Dadurch<br />

wird die Trennung zwischen verschiedenen Pflanzenspezies weniger scharf, entsprechendes<br />

gilt auch für die Beurteilung ihres Gesundheitszustandes. 28<br />

§ 583 Zusätzlich finden sich innerhalb eines Pixels verschiedene Pflanzenarten, es wird ein<br />

Teil des Bodens und, bei Vorhandensein, auch des Gesteins im Pixel erfasst (vgl. die Diskussion<br />

über Mischpixel im Zusammenhang mit Abb. 3.50). Dadurch egeben sich Unterschiede<br />

in der Klassifikation der Vegetation, die von den Bearbeitungsverfahren der einzelnen Beobachter<br />

und ihren Modellannahmen abhängen.<br />

§ 584 Zur Illustration, welche unterschiedlichen Resultate die aus den AVHRR-Aufnahmen<br />

nach verschiedenen Verfahren bestimmten Verteilungen der Vegetation liefern können, zeigt<br />

Abb. 3.87 die globale Verteilung einer bestimmten Vegetationsart, in diesem Falle der ‘breitblättrigen<br />

immergrünen Bäume’, wie sie von drei verschiedenen Arbeitsgruppen mit ihren<br />

jeweiligen Methoden bestimmt wurde. In allen drei Interpretationen gibt es bestimmte Kernbereiche,<br />

in denen diese Vegetation vorkommt, insbesondere global in den niedrigen Breiten<br />

(Regenwälder). Die Ränder dieser Bereiche und die Vorkommen dieser Pflanzengruppe außerhalb<br />

der Kerngebiete unterscheiden sich in den drei Bildern jedoch teilweise beträchtlich.<br />

Die starke Abweichung zu den Rändern hin erklärt sich zumindest teilweise aus der Tatsache,<br />

dass dort die Wahrscheinlichkeit für Mischpixel immer größer wird und dementsprechend die<br />

Identifikation der Vegetation ungenauer wird bzw. im Rahmen einer eher regionalen Studie<br />

mit Daten mit besserer räumlich Auflösung durchgeführt werden sollte.<br />

§ 585 Da es AVHRR und POES schon einen hinreichen langen Zeitraum gibt, lässt sich mit<br />

Hilfe dieser Daten eine Klimatologie des NDVI erzeugen – im Internet unter [634] zu finden.<br />

Mit einer Klimatologie steht aber auch die Möglichkeit zur Verfügung, die aktuellen Daten<br />

im Hinblick auf Abweichungen gegenüber dem langjährigen Mittel darzustellen.<br />

§ 586 Als Beispiel zeigt Abb. 3.88 im linken Teil den Vegetationsindex bzw. modern die<br />

‘Greenness’ für Kalifornien gemittelt für die ersten beiden Wochen des Februar 2008. Das<br />

mittlere Teilbild zeigt die Abweichung gegenüber dem langjährigen Mittel: grau bedeutet<br />

keine Abweichung, Grüntöne wie zu erwarten eine höhere Greenness als im Mittel, Brauntöne<br />

eine geringere. Als weiteres Produkt lässt sich auf der Basis der Greeness ein Fire Potential<br />

Index (rechts) erstellen: grüne Flächen haben eine geringes Potential zum Brennen, rötliche<br />

ein höheres. Grau ist übrigens nicht Fels sondern landwirtschaftlich genutzte Fläche – brennt<br />

die nicht?<br />

28 Die für moderne Personalpapiere beizubringenden Photos sind mit einem ähnlichen Problem behaftet:<br />

der Kopf hat sich gefälligst in ein bestimmtes Raster einzufädeln. Photos aus dem täglichen Leben dagegen<br />

erfüllen die durch das Raster gegebenen Anforderungen in der Regel nicht.<br />

2. Juli 2008 c○ M.-B. Kallenrode


3.7. ANWENDUNGSBEISPIELE 177<br />

Waldbrände<br />

Abbildung 3.89: Veränderung des Aralsees [487]<br />

§ 587 Ein weiteres, mit der Vegetation zusammen hängendes Thema der <strong>Erdfernerkundung</strong><br />

sind die bereits erwähnten Wald- und Flächenbrände, siehe auch Abb. 1.14. Im sichtbaren<br />

Bereich sind sie in der Regel an ihrer Rauchwolke zu erkennen, die sich zumindest bei wolkenfreiem<br />

Himmel gut gegenüber der Umgebung abzeichnet. Noch besser zu identifizieren<br />

sind sie im thermischen Infrarot als deutliche Wärmeinseln. Hier ist einmal die Information<br />

über die Vernichtung von Biomasse und damit den Kohlendioxideintrag in die Atmosphäre<br />

interessant (insbesondere natürlich bei weit ausgedehnten Bränden in schwer zugänglichen<br />

Bereichen).<br />

§ 588 Forstwirtschaftler und Biologen interessieren sich aber auch für die Zeit nach dem<br />

Waldbrand und studieren dazu das Verheilen der Brandnarben – heute helfen natürlich auch<br />

die Disaster Forscher aus Abb. 3.7.5 bei dieser Aufgabe. Untersucht werden soll dabei die<br />

Selbstheilungskraft der Natur sowie die Charakteristika der Pionierpflanzen, die als erste<br />

ein zerstörtes Gebiet wiederbesiedeln. Wissen dieser Art wird z.B. im Rahmen des Fire-<br />

Managements in den nordamerikanischen Nationalparks benötigt. Fire-Management bedeutet<br />

dabei, dass man heutzutage bestrebt ist, natürlich ausbrechende Feuer (Blitzschlag) nicht<br />

mehr zu löschen sondern brennen zu lassen. Die dahinter liegende Idee orientiert sich an<br />

der Tatsache, dass es auch früher Waldbrände gegeben hat, die zwar individuelle Pflanzen<br />

zerstört haben, die die Vegetation insgesamt aber überlebt hat, und dass diese Brände für die<br />

Bestandspflege wichtig sind: zu dichtes Unterholz wird ausgedünnt, die Alterspyramide der<br />

Bäume wird modifiziert (es gibt weniger alte und damit gegenüber Feuer und Schädlingen<br />

sehr empfindliche Bäume) und einige Pflanzen benötigen Feuer sogar, um sich zu vermehren:<br />

bei vielen Eukalyptusarten z.B. ist die Samenkapsel sehr hart und benötigt Feuer um Aufzuplatzen<br />

– hier vernichtet ein Feuer zwar einen alten Bestand, legt aber gleichzeitig auch die<br />

Grundlage zur selbsttätigen Wiederaufforstung und damit auch zur Bestandserneuerung.<br />

Versalzung<br />

§ 589 Ebenfalls recht einfach durch Betrachtung eines Kanals bzw. eines Falschfarbenbildes<br />

zu erkennen sind Gebiete starker Versalzung. Dabei gibt es natürliche Gebiete wie z.B.<br />

Salztäler in den Dünenfeldern der großen arabischen Wüste (Rub el Khali) oder in der Dashte-Kavir<br />

(große Salz- und Geröllwüste im Iran). Letztere ist besonders interessant, da sich hier<br />

durch zeitweise aus dem Grund hervortretendes Wasser neue Salzablagerungen bilden, die<br />

sich durch die Fernerkundung gut dokumentieren lassen. Auch die Parceval-Seen in Australien<br />

sind ein gutes Beispiel, an dem sich Versalzung studieren lässt.<br />

c○ M.-B. Kallenrode 2. Juli 2008


178 KAPITEL 3. SATELLITENINSTRUMENTE<br />

Abbildung 3.90: Übergang von unterliegenden Metallen in den Boden und die Pflanzen bei<br />

einer verdeckten Kupferader (oben) und Veränderung des spektralen Reflektionsvermögens<br />

dieser dotierten Pflanzen [209]<br />

§ 590 Versalzung ist aber nicht nur ein natürlicher Vorgang sondern an vielen Stellen, gerade<br />

in den Trockengebieten der Erde, ein durch menschliche Eingriffe hervorgerufener oder<br />

beschleunigter Vorgang. Diese anthropogene Versalzung entsteht durch Überbewirtschaftung<br />

landwirtschaftlich genutzter Flächen in Gebieten mit hoher Verdunstungsrate. Das Prinzip<br />

ist einfach: aufgrund der hohen Verdunstungsrate werden große Mengen an Wasser auf die<br />

Felder gepumpt, um überhaupt ein gewisses Maß an Bewässerung zu erreichen. Von diesem<br />

Wasser verdunstet aber der größte Teil, wobei sich die Mineralsalze auf der Oberfläche ablagern<br />

und so eine Salzschicht bilden. Diese Salzschicht ist der weiteren landwirtschaftlichen<br />

Nutzung der Fläche abträglich, da es kaum Pflanzen (und schon gar keine Nutzpflanzen)<br />

gibt, die gegen Salz resistent sind. Versalzung wird insbesondere dann zu einem Problem,<br />

wenn die landwirtschaftlich genutzten Flächen sich immer weiter ausdehnen bzw. nach einsetzender<br />

Versalzung verlagert werden. [109] diskutiert als ein Beispiel die Versalzung in Folge<br />

künstlicher Bewässerung in den Randgebieten der Sahara, [437] zeigt LandSat Aufnahmen<br />

über einen längeren Zeitraum aus denen die Zerstörung der Marschländer Mesopotamiens<br />

durch landwirtschaftliche Nutzung gefolgt von Versalzung zu erkennen ist.<br />

§ 591 Eng mit dem Problem der künstlichen Bewässerung verbunden ist aber auch die Verkleinerung<br />

natürlicher Wasserreservoirs durch Wasserentnahme aus diesen bzw. aus ihren<br />

Zuflüssen. Das prominenteste Beispiel dürfte die Verkleinerung des Aralsee sein, in Abb. 3.89<br />

mit verschiedenen LandSat-Generationen dokumentiert.<br />

Bodenschätze<br />

§ 592 Ein Anwendungsbeispiel für <strong>Erdfernerkundung</strong> in den Geowissenschaften ist die Suche<br />

nach Bodenschätzen, häufig unter Verwendung der Informationen im thermischen IR<br />

(siehe auch Abb. 3.58). Hierfür werden die Informationen über die Geländeform und die<br />

Gesteinsarten verwendet. Diese Verfahren versagen jedoch, wenn man ein mit Vegetation<br />

bedecktes Gelände betrachtet: dann gibt es keine direkten Informationen mehr über das<br />

Oberflächengestein.<br />

§ 593 Hier bedient man sich indirekter Verfahren, wie in Abb. 3.90 illustriert: befindet sich<br />

eine Pflanze über einer Erzader, im Beispiel Kupfer, so nimmt die Pflanze durch ihre Wurzeln<br />

einen Teil dieses Erzes auf (linkes Teilbild). Dadurch verändert sich aber das spektrale Reflek-<br />

2. Juli 2008 c○ M.-B. Kallenrode


3.7. ANWENDUNGSBEISPIELE 179<br />

Abbildung 3.91: Geologie im Saline Valley, Ca, mit ASTER auf Terra [666]<br />

tionsvermögen der Pflanzen (Beispiele im rechten Teil von Abb. 3.90). Diese Pflanzen können<br />

nach den gleichen Prinzipien, wie man es auch bei der Identifikation von Pflanzen- bzw. Bodenbedeckung<br />

allgemein macht, identifiziert werden. Die wichtigste Veränderung im spektralen<br />

Reflektionsvermögen ist die Blauverschiebung des steilen Anstieges beim Übergang zum<br />

nahen Infrarot. Diese Verschiebung scheint bei vielen Mineralien und verschiedenen Pflanzensorten<br />

aufzutreten und könnte daher als ein generelles Merkmal für verdeckte Erzlagerstätten<br />

dienen [209]. Allerdings bedarf es hier noch genauerer Untersuchungen.<br />

§ 594 Liegt das Gestein offen, so kann man sich direkterer Verfahren bedienen, wie in der<br />

mit ASTER auf Terra gemachten Aufnahme des Saline Valley in Abb. 3.91 angedeutet. Im<br />

linken Teilbild sind die Kanäle im sichtbaren und nahen Infrarot in der Reihenfolge 3 (IR), 2<br />

(rot), 1 (grün) abgebildet auf rot, grün und blau (RGB). Wie üblich für Infrarot-Falschfarben-<br />

Aufnahmen erscheint die Vegetation rot; Schnee und trockene Salzseen erscheinen weiß, frei<br />

liegender Fels ist braun, grau, gelb und blau. Die Farben des Fels sind durch die Anwesenheit<br />

von eisenhaltigen Mineralien und Variationen in der Albedo bestimmt. Im mittleren<br />

Teilbild sind die kurzwelligen Infrarotkanäle in der Reihenfolge 4, 6, 8 auf RGB abgebildet.<br />

In diesem Wellenlängenbereich unterscheiden sich die Absorption von Ton und Karbonatbzw.<br />

Sulphat-haltigen Mineralien deutlich, so dass sich diese in der Abbildung durch unterschiedliche<br />

Farben identifizieren lassen. Im rechten Teilbild sind die Kanäle 13, 12, 10<br />

des thermischen Infrarot als RGB dargestellt. In diesem Bereich erzeugen Variationen im<br />

Quarzgehalt unterschiedliche Rotanteile während Karbonathaltiges Gestein grün erscheint<br />

und vulkanisches Gestein violett.<br />

3.7.3 Hydrosphäre<br />

§ 595 Die Beobachtung der Ozeane erfolgt klassisch im thermischen Infrarot, vgl. Abb. 3.62.<br />

Beobachtungen in anderen Spektralbereichen geben jedoch auch über andere als nur die<br />

physikalischen Eigenschaften Auskunft, vgl. Abb. 3.98. Und Mikrowelleninstrumente sind<br />

zur Untersuchung von Feuchte in jeder Form gut.<br />

Schnee und Meereis<br />

§ 596 Daten über die Schneebedeckung werden in der Meteorologie benötigt zur Bestimmung<br />

der Art und Menge des Niederschlages, wobei insbesondere die Verfahren zur Bestimmung<br />

der Dicke der Schneedecke bzw. ihres Wasseräquivalents noch sehr in den Kinderschuhen stecken.<br />

Andere Interessenten an Daten über die Schneebedeckung sind die Klimatologen, die<br />

Straßenmeistereien (Räumdienste) und die Betreiber von hydro-elektrischen Anlagen. Insbesondere<br />

letztere interessiert natürlich das Wasseräquivalent der Schneedecke, da dieses nach<br />

der Schneeschmelze zur Stromerzeugung zur Verfügung steht. Das Abschmelzen von Gletschern<br />

und Eisschilden ist natürlich auch zur Untersuchung des global change von Interesse.<br />

c○ M.-B. Kallenrode 2. Juli 2008


180 KAPITEL 3. SATELLITENINSTRUMENTE<br />

Abbildung 3.92: Rückgang der Gletscher in<br />

der Mischabelgruppe [694]: Veränderungen<br />

der Ausdehnung von Gletschern in der<br />

Mischabelgruppe (Wallis), bestimmt auf der<br />

Basis von LandSat TM Aufnahmen. Gletscherrückgang<br />

zwischen 1985 und 1998 ist in<br />

rot dargestellt, die Umrisse der Gletscher im<br />

Jahre 1998 sind in rot, die von nachträglich digitalisierten<br />

Quellen für 1973 in blau gegeben<br />

§ 597 Die Schneebedeckung wird übrigens nicht nur als Selbstzweck für alle Fragen im Zusammenhang<br />

mit Schnee benötigt. Zusätzlich wird Schneebedeckung auch benötigt, um den<br />

Vegetationsindex genauer zu bestimmen bzw. Verfälschungen dieser Größe durch Schneebedeckung<br />

zu erkennen [155].<br />

§ 598 Die Bestimmung der Meereisbedeckung ist ebenfalls für die Meteorologie von Interesse,<br />

da die globalen Wetterformationen (Lage der Polar- und Subtropenfronten und damit die<br />

Wanderung einzelner Tief- und Hochdruckgebiete) auch von der Temperatur des Untergrundes<br />

abhängen. Zusätzlich sind Informationen über Meereisbedeckungen natürlich auch für die<br />

Schiffahrt von Bedeutung. Die Bestimmung der Meereisbedeckung wird durch die verschiedenen<br />

Formen des Eises verkompliziert: so erzeugen schnelles Eis, Packeis, Eisberge, Eisschollen,<br />

sowie frisches und altes (in der korrekten Terminologie einjähriges und mehrjähriges)<br />

Eis unterschiedliche Signaturen. Zur Bestimmung der Eisbedeckung werden Aufnahmen im<br />

nahen Infrarot (z.B. LandSat MSS Band 7), im thermischen Infrarot sowie Radaraufnahmen<br />

verwendet. Alle diese Verfahren können im Prinzip als gleichwertig betrachtet werden,<br />

allerdings haben thermisches Infrarot und Radar den Vorteil, dass sie auch während der (Polar)Nacht<br />

eingesetzt werden können. Aufnahmen im thermischen Infrarot haben zusätzlich<br />

den Vorteil, dass sie eine Abschätzung der Dicke der Eisschicht erlauben: Wasser ist wärmer<br />

als Eis, erscheint also im Infrarotbild heller. Andererseits wirkt die Eisschicht aber auch als<br />

ein Isolator für das darunter befindliche Wasser, so dass zwischen Eis und Wasser meist ein<br />

deutlicher Temperaturunterschied besteht. Ist die Eisschicht nur sehr dünn, so lässt sie mehr<br />

Strahlungsenergie des wärmeren Wassers durch als eine dicke Eisschicht und erscheint damit<br />

heller.<br />

§ 599 Bei relativ hoher Wiederholfrequenz (z.B. tägliche Aufnahmen) lässt sich aus der<br />

Verlagerung charakteristischer Merkmale im Eis (Schollenform, eingefrorene Eisberge) auf<br />

die Driftrichtung und -geschwindigkeit der Eismasse zurückschließen. Dadurch lassen sich<br />

Eiswarnungen für nahe liegende Schiffahrtsrouten geben.<br />

§ 600 RadarSat-1 hat die Antarktis mehrfach genauer kartiert [389]. Neben der normalen<br />

Suche nach Veränderungen ist dabei auch Interferometrie verwendet worden. Weitergehend<br />

2. Juli 2008 c○ M.-B. Kallenrode


3.7. ANWENDUNGSBEISPIELE 181<br />

Abbildung 3.93: Geschwindigkeitsfeld<br />

Lambert Gletscher [390]<br />

als in Abb. 3.77 lassen sich auch die Geschwindigkeit des Eises rekonstruieren. Abbildung 3.93<br />

zeigt ein Beispiel.<br />

§ 601 Die Fließgeschwindigkeit des Eises ist ein Maß für die lokale Veränderung des Gletschers.<br />

Veränderungen lassen sich auch in Satellitenaufnahmen stets nur durch den Vergleich<br />

von Aufnahmen der gleichen Region zu verschiedenen Zeiten bestimmen. Was für ein Bauvorhaben,<br />

Erdbebenspalten, Wanderdünen oder die Bodenbedeckung durch Nutzpflanzen noch<br />

leicht zu erkennen ist, wird bei einem Gletscher problematischer: im wesentlichen ist ein Gletscher<br />

eine mehr oder weniger uniform weiße Fläche – ob sich die um ein Stückchen verschoben<br />

hat oder nicht, ist primär nicht zu erkennen. Allerdings zeigt ein genauerer Blick auf den<br />

Gletscher Strukturen (Spalten, Geltscherbruch, Schmelztröge, von den Hängen gestürztes<br />

Geröll, Mittelmoränen ) und z.B. von den angrenzenden Hängen gestürztes Geröll. Durch<br />

Korrelationen zwischen den zu verschiedenen Zeiten aufgenommenen Einzelbildern lassen<br />

sich auch diese Unterschiede identifizieren. Ein Beispiel für Mare de Glace Beobachtungen<br />

im Sichtbaren gibt [149], das Verfahren unter Verwendung von Aufnahmen unterschiedlicher<br />

Satelliten(instrumente) ist in [148] genauer beschrieben.<br />

§ 602 Geologische Fragestellungen werden nicht nur auf der Erde sondern auch auf anderen<br />

Planeten untersucht. Die dabei verwendeten Instrumente basieren natürlich auf den gleichen<br />

Prinzipien wie die in der terrestrischen Fernerkundung eingesetzten. Das interessanteste und<br />

dynamischste Untersuchungsobjekt dürfte der Mars sein. neben den bekannten Kanälen,<br />

Polkappen, Gesichtern und sonstigen Eigenschaften, ist auf Mars mit der Beobachtung einer<br />

Lawine [631, 674] etwas gelungen, was auf der Erde bisher nicht vom Satelliten gesehen wurde.<br />

Ölfilme auf Wasser<br />

§ 603 Hierbei geht es um die Identifikation von Ölverschmutzern und natürlichen Ölaustrittsgebieten.<br />

Natürliche Ölverschmutzer tragen ungefähr das fünffache der Menge zur Ölverschmutzung<br />

der Meere bei, die durch Ölbohrungen vor der Küste eingetragen wird, sind aber<br />

dennoch klein gegenüber der Ölverschmutzung, die durch defekte Pipelines entsteht [209].<br />

Zur Identifikation eines Ölfilmes können UV, sichtbares Licht und nahes Infrarot ebenso wie<br />

thermisches Infrarot und Radar verwendet werden.<br />

§ 604 Abbildung 3.94 zeigt das spektrale Reflektionsvermögen von Seewasser und von einem<br />

dünnen Ölfilm für den Bereich vom Ultravioletten bis hin zum nahen Infrarot. Öl auf Wasser<br />

kommt in verschieden dicken Schichten vor: was wir von einer Pfütze oder einer nassen Straße<br />

als schillernden Ölfilm kennen, ist ein sehr dünner Film. Dieser kann sich als geschlossener<br />

Film nur auf relativ ruhigen Wasserflächen ausbilden, auf bewegtem Wasser zerreisst der<br />

Film sofort und bildet Inseln. Diese Filme sind auch relativ leicht im sichtbaren Licht zu<br />

c○ M.-B. Kallenrode 2. Juli 2008


182 KAPITEL 3. SATELLITENINSTRUMENTE<br />

Abbildung 3.94: Spektrales Reflektionsvermögen<br />

von Seewasser<br />

und einer dünnen Ölschicht [209]<br />

erkennen. Im Falle eines Ölunfalls, d.h. des Austritts größerer Mengen Öls, kommt es nicht<br />

zur Bildung dünner Filme, vielmehr ist der der größte Teil der betroffenen Fläche von einer<br />

dicken, breiigen Ölschicht bedeckt, die bräunlich bis schwarz aussieht. In diesem Bereich<br />

ist die größte Menge des Öls konzentriert. Insbesondere diese dicken Schichten gilt es zu<br />

entdecken.<br />

§ 605 Relativ dünne Schichten lassen sich im UV-Licht als helle Bereiche erkennen, da das<br />

Reflektionsvermögen einer dünnen Ölschicht für UV-Strahlung wesentlich höher ist als für<br />

Wasser (siehe Abb. 3.94). In diesem Bereich ist der Unterschied des spektralen Reflektionsvermögens<br />

von Öl und Wasser am größten, d.h. im UV-Bereich sollten die Instrumente am<br />

leichtetsten in der Lage sein, einen Ölfilm nachzuweisen. Allerdings wird die UV-Strahlung<br />

in der Atmosphäre stark gestreut und absorbiert, so dass eine Einsatz derartiger Instrumente<br />

auf Satelliten nicht sinnvoll ist. Mit einem in einer Höhe unterhalb 1 000 m fliegenden Flugzeug<br />

dagegen lassen sich im UV-Licht noch Ölfilme von einer Dicke von 0.15 mm erkennen.<br />

Allerdings haben auch Gischt und einige Algen sehr helle Signaturen im UV-Bereich, so dass<br />

hier andere Spektralbereiche ebenfalls überprüft werden sollten, um eine Verwechslungsgefahr<br />

zu vermeiden.<br />

§ 606 Im sichtbaren Bereich lassen sich zwei Effekte zur Entdeckung eines Ölfilms verwenden,<br />

zum einen das spektrale Reflektionsvermögen wie in Abb. 3.94 dargestellt, zum anderen<br />

die Eigenschaft des Ölfilmes, kleine Wellen zu dämpfen, wodurch die Wasseroberfläche ruhiger<br />

wird. Diese ruhigen Wasserflächen reflektieren jedoch weniger Licht, so dass sie sich<br />

gegenüber dem sauberen umgebenden Wasser dunkel abzeichnen. Auf diese Weise lässt sich<br />

der Ölfilm vom Satelliten aus dann weniger direkt (d.h. über das veränderte spektrale Reflektionsvermögen)<br />

als vielmehr indirekt, nämlich über seine Auswirkungen auf die Feinstruktur<br />

der Wasseroberfläche, beschreiben. Mit Radar lassen sich derartige Bereiche ruhigeren Wassers<br />

natürlich auch nachweisen. Dieser indirekte Nachweis hat den Vorteil, dass er selbst bei<br />

dicken Ölschichten noch funktioniert.<br />

§ 607 Auch im thermischen Infrarot lassen sich Ölfilme erkennen. Das erscheint auf den<br />

ersten Blick eher überraschend, da ja das Öl die gleiche Temperatur haben sollte wie das<br />

Wasser, auf dem es schwimmt. Diese Betrachtung ist auch korrekt, zumindest dann, wenn<br />

man den Ölfilm durch Temperaturmessung mit einem Thermometer nachweisen wollte. Allerdings<br />

hängt die abgegebene Strahlung nicht nur von der Temperatur des Körpers ab, sondern<br />

auch von seinem Emissionsvermögen, siehe (3.6). Das Emissionsvermögen von reinem Wasser<br />

beträgt 0.993. Befindet sich ein dünner Ölfilm auf dem Wasser, so beträgt das Emissionsvermögen<br />

nur noch 0.972, d.h. es wird insgesamt weniger Strahlung emittiert. Bestimmt man<br />

die Strahlungs- oder Effektivtemperatur gemäß (3.7), so erhält man für das reine Wasser<br />

eine höhere Strahlungstemperatur als für den Ölfilm. Betrachten wir ein Beispiel: bei einer<br />

2. Juli 2008 c○ M.-B. Kallenrode


3.7. ANWENDUNGSBEISPIELE 183<br />

Abbildung 3.95: Ölverschmutzung<br />

vor der Küste des Libanon 2006 [291]<br />

Wassertemperatur von 18 ◦ C würde sich für reines Wasser eine Strahlungstemperatur von<br />

17.5 ◦ C ergeben, für den Ölfilm aber eine von 15.9 ◦ C, d.h. ein Unterschied von 1.6 K, d.h.<br />

selbst mit einem einfachen IR-Scanner zuverlässig nachgewiesen werden kann.<br />

§ 608 Als Beispiel für die Anwendung derartiger Daten im Krisenmanagement zeigt Abb. 3.95<br />

die von Satelliten beobachtete Ölverschmutzung der Küste nach der Zerstörung der Raffenerie<br />

Jieh Power Plant südlich von Beirut. Für diese Darstellung wurde eine LandSat-Karte<br />

als Hintergrund gewählt, der Ölfilm auf dem Wasser wurde aus verschiedenen Satellitendaten<br />

zu sechs verschiedenen Zeiten bestimmt. Die Farbkodierung gibt an, zu wie vielen dieser<br />

Zeitpunkte das entsprechende Gebiet mit Öl bedeckt war.<br />

Verständnisfrage 33 Sechs Satelliten zur Verbesserung der Genauigkeit durch Mittelung<br />

oder warum?<br />

El Niño<br />

§ 609 Zu den elementareren Fragen, die mit Hilfe von Satellitenmessungen beantwortet werden<br />

sollen, gehört die Bestimmung der Oberflächentemperatur der Ozeane. Abbildung 3.96<br />

zeigt einen Überblick über die Oberflächentemperaturen der Ozeane für die Monate Januar<br />

(oben) und Juli (unten). Es bildet sich ein deutliches zonales System aus mit den höchsten<br />

Temperaturen um den Äquator und niedrigeren Temperaturen an den Polen. Diese extremen<br />

Bereiche zeigen kaum eine jahreszeitliche Variation, währen in den mittleren Breiten<br />

eine deutliche jahreszeitliche Abhängigkeit der Oberflächentemperatur zu erkennen ist, die<br />

sich einerseits aus der veränderten Einstrahlung, andererseits aber auch durch infolge der<br />

veränderten Einstrahlung geänderte atmosphärische und ozeanische Zirkulationsmuster ergibt.<br />

§ 610 Während die in Abb. 3.96 gezeigte Temperaturverteilung fast trivial ist, sind es die<br />

auf mittleren räumlichen Skalen stattfindenden Phänomene, die ein größeres Interesse hervorrufen.<br />

Dazu gehören z.B. die Struktur des Golfstroms und El Niño, das Christkind. Der<br />

c○ M.-B. Kallenrode 2. Juli 2008


184 KAPITEL 3. SATELLITENINSTRUMENTE<br />

Abbildung 3.96: MittlereOberflächentemperatur<br />

der Ozeane<br />

für Januar (oben) und<br />

Juli (unten). Während<br />

sich in den Tropen<br />

und den Polregionen<br />

kein Jahresgang der<br />

Temperatur findet, ist<br />

in den mittleren Breiten<br />

eine deutliche Jahreszeitenabhängigkeit<br />

zu<br />

erkennen [177]<br />

Golfstrom (vgl. Abb. 3.62) ist eine warme Meereströmung, die sich von der Saragossa-See über<br />

den Atlantik bis vor die Küste Norwegens erstreckt und für das Klima in Mittel- und Nordeuropa<br />

von regulierender Bedeutung ist. Die Existenz des Golfstromes als warme Strömung<br />

(und damit Heizung für unsere Breiten) ist lange bekannt, aber erst Satellitenaufnahmen haben<br />

einige Eigenarten des Golfstromes gezeigt. So fließt der Golfstrom nicht wie ein ruhiges<br />

Band dahin, sondern er bildet Verwirbelungen und Mäander. Manchmal können sich solche<br />

Wirbel ablösen und als warme Wasserringe in Gebiete nördlich oder südlich des Golfstromes<br />

vorstoßen. Umgekehrt kann durch solche Wirbel auch kaltes Wasser aus den umgebenden Bereichen<br />

in den Golfstrom eingezogen werden und dort einen Kaltwasserring bilden. Inwieweit<br />

diese Wirbel Rückwirkungen auf Biologie und Chemie der Ozeane sowie auf atmosphärische<br />

Vorgänge haben, bleibt noch zu klären [218].<br />

§ 611 Während der Golfstrom ein dauerhaftes Merkmal der Zirkulation im Atlantik ist, gibt<br />

es auch Zirkulationsanomalien, die nach heutigen Kenntnissen nicht vorhersagbar sind. Ein<br />

Beispiel ist El Niño: vor der peruanischen Küste verschwinden gelegentlich zu Weihnachten<br />

die Fische, da sich um diese Zeit das Meerwasser plötzlich und stark erwärmt und damit für<br />

die Fische keine ausreichende Menge an Nährstoffen zur Verfügung steht. Aufgrund seines<br />

Auftretens um die Weihnachtszeit herum wird dieses Phänomen als El Niño bezeichnet - das<br />

Christkind. Diese Periode warmen Oberflächenwassers dauert in der Regel bis in den März an,<br />

danach normalisiert sich die Temperaturverteilung wieder. In einigen Fällen dauert El Niño<br />

jedoch länger und kann sich sogar über Jahre erstrecken. Damit ergeben sich entsprechend<br />

katastrophale Folgen für die lokale Ökonomie. Diese langandauernden El Niños treten nur<br />

alle paar Jahre auf, bisher gibt es keine Vorhersagemöglichkeiten dafür. Die Temperaturanomalie<br />

des warmen Oberflächenwassers und vor allen Dingen ihre räumliche Ausdehnung und<br />

zeitliche Entwicklung lassen sich mit den Infrarotsensoren von Satelliten sehr gut erfassen.<br />

2. Juli 2008 c○ M.-B. Kallenrode


3.7. ANWENDUNGSBEISPIELE 185<br />

Abbildung 3.97: Oberflächentemperaturen<br />

im äquatorialen<br />

Pazifik während (Dezember<br />

1987) und nach (Dezember<br />

1988) einem El Niño [177]<br />

§ 612 Den Schlüssel zum Verständnis dieses Phänomens bildet die Southern Oscillation<br />

(Walker-Zirkulation): diese beschreibt die bisher nicht vollständig verstandene Kopplung des<br />

Luftdrucksystems im Ostpazifik mit dem des Westpazifiks. Die Passatwinde als Bestandteil<br />

der Headley-Zirkulation werden durch die beiden beständigen Hochdruckgebiete im Pazifik -<br />

über den Osterinselns im Süden und vor Kalifornien im Norden - umgelenkt, so dass sie vor der<br />

amerikanischen Pazifikküste in Richtung auf den Äquator und damit auf die innertropische<br />

Konvergenzzone zu wehen. Der Südostpassat treibt den Humboldstrom und schiebt damit<br />

Oberflächenwasser von der Küste weg. Dadurch kann kälteres, nährstoffreicheres Wasser aus<br />

der Tiefe aufquellen. Dieses zeigt sich in den Satellitenaufnahmen als ein kühler Bereich vor<br />

der südamerikanischen Pazifikküste (vgl. unteres Teilbild in Abb. 3.97). Das weggetriebene<br />

warme Wasser dagegen staut sich im westlichen Pazifik. Die hohen Verdunstungsraten<br />

aus dieser Warmwassermasse führen zu starken Regenfällen in Indonesien und Südostasien.<br />

Zusammengefasst bedeutet also ein kalter Ostpazifik gleichzeitig starke Regenfälle in Indonesien.<br />

Diese Kopplung zwischen zwei Ereignissen in weit auseinanderliegenden Bereichen der<br />

Erde wird als Telekonnektion bezeichnet.<br />

§ 613 In der Atmosphäre besteht entsprechend der Wassertemperaturen eine negative Druckanomalie<br />

über Indonesien, die mit einer positiven Druckanomalie im pazifischen Hochdruckgebiet<br />

gekoppelt ist. Dabei entsteht eine Zirkulationszelle, die entlang eines Breitenkreises,<br />

und nicht, wie bei der großskaligen Zirkulation sonst üblich, entlang eines Längenkreises<br />

ausgerichtet ist. Diese Zelle wird von der normalen Hadley-Zirkulation überlagert. Im Nettoeffekt<br />

bewirkt dann der Auftrieb kalten Äquatorwassers vor der amerikanischen Pazifikküste<br />

eine Abkühlung und damit eine Schwächung der innertropischen Konvergenzzone. Damit<br />

geht aber auch dem Südost-Passat ein Teil seines Antriebs verloren, er wird schwächer. Ein<br />

schwächerer Südost-Passat kann aber nicht mehr soviel warmes Wasser von der peruanischen<br />

Küste wegtreiben, die innertropische Konvergenzzone wird wieder gestärkt, damit auch der<br />

Südost-Passat und der Kreislauf kann erneut beginnen.<br />

§ 614 Das El Niño Phänomen ist mit dem Zusammenbruch des Passatwindsystems im Westpazifik<br />

und einem Umspringen dieser Passate in bodennahe Westwinde gekoppelt. Dann<br />

strömt das in den Westpazifik getriebene warme Wasser wieder in Richtung auf die amerika-<br />

c○ M.-B. Kallenrode 2. Juli 2008


186 KAPITEL 3. SATELLITENINSTRUMENTE<br />

nische Westküste zurück und blockiert dort den Auftrieb kalten Tiefenwassers, der eigentliche<br />

El Niño entsteht, vgl. Abb. 3.97 oben. Durch die Westwinde kommt es zu einem Aufsteigen<br />

feuchter Luft an der amerikanischen Ostküste, die Feuchtigkeit kondensiert und es kommt in<br />

normalerweise trockenen Gebieten zu starken Regenfällen. Die dann trockene Luft strömt in<br />

großen Höhen wieder Richtung Westen zurück, so dass es über Indonesien zur Ausbildung<br />

einer ungewöhnlichen Trockenheit kommt.<br />

§ 615 Die Auswirkungen von El Niño betreffen jedoch anscheinend nicht nur die unmittelbaren<br />

Bereiche dieser Walker-Zirkulation. Die Warmwasseranomalie in den Tropen kann die<br />

Zirkulation bis in die mittleren Breiten beeinflussen. In Zusammenhang mit dem Auftreten<br />

von El Niños könnte das Auftreten von Überschwemmungen in Kalifornien, Dürren in Afrika<br />

und Indien sowie starker Trockenheit in der ex-UdSSR und anderen Teilen der Erde stehen<br />

(für eine Zusammenfassung und Zitate siehe z.B. [116]). Bei einem weiteren Studium dieses<br />

Phänomens wird sich die Verwendung von Satelliten als hilfreich erweisen, da dadurch viele<br />

der zu beobachtenden Parameter (Oberflächentemperaturen, Windgeschwindigkeiten, Wolken,<br />

Luftfeuchtigkeit, Niederschlag) an allen Orten standardisiert bestimmt werden können,<br />

so dass sich die Beeinflussung entfernter Regionen durch El Niño besser nachweisen lässt.<br />

Die Farbe des Meeres<br />

§ 616 Das Schlagwort ‘die Farbe des Meeres’ bezieht sich eigentlich weniger auf die bisher<br />

genannten Untersuchungen, auch wenn die Aufnahmen im thermischen Infrarot normalerweise<br />

als eindrucksvolle farbige Aufnahmen dargestellt werden. Bei ‘die Farbe des Meeres’<br />

handelt es sich um Untersuchungen des Planktons, d.h. der elementarsten Form von Leben<br />

im Meer, deren Verteilung gleichzeitig auch die Möglichkeiten der höheren Meeresbewohner,<br />

von den kleinsten Garnelen bis zu den größten Walen, bestimmt, da Plankton den Anfang<br />

der Nahrungskette bildet.<br />

§ 617 Wichtigstes Instrument ist hier der Coastal Zone Color Scanner CZCS [507] auf Nimbus<br />

7 [558]. Der Name des Instrumentes ist scheinbar irreführend, da sich die Beobachtungen<br />

keinesfalls auf die Küstenregionen beschränkt, sondern die Meere insgesamt umfasst. Und die<br />

Bezeichnung ‘Color’, die zu dem Schlagwort von der ‘Farbe des Meeres’ geführt hat? Beim<br />

CZCS handelt es sich um einen Multispektralscanner, der dem MSS auf LandSat und den<br />

AVHRRs auf den POES-Satelliten ähnlich ist. Im Zusammenhang mit der Identifikation von<br />

Vegetation hatten wir bereits auf die Verwendung verschiedener Kanäle zur Identifkation des<br />

spektralen Reflektionsvermögens hingewiesen. Dabei zeigte sich, dass die Verwendung breiter<br />

Kanäle die Unterscheidung erschwert, da über veschiedenen Spektralbereiche mit unterschiedlichem<br />

Reflektionsvermögen hinweggemittelt wird. Daher ist für Studien der Vegetation ein<br />

besseres spektrales Auflösungsvermögen anzustreben.<br />

§ 618 Da beim CZCS die Zahl der Spektralkanäle ebenso wie bei den anderen Instrumenten<br />

begrenzt ist, hat man sich dadurch beholfen, dass man statt der normalerweise breiten<br />

Spektralbänder wie z.B. bei MSS, TM oder AVHRR, nur für die Identifikation von Plankton<br />

wichtige enge Spektralbereiche ausgeschnitten hat. Damit lässt sich zwar kein Bild in<br />

den realen Farben mehr rekonstruieren, wie es z.B. bei den LandSat Aufnahmen möglich<br />

ist, aber hieraus ergibt sich keine Einschränkung für das Instrument, da es nicht wie die<br />

LandSat-Instrumente als Universalerderkundungsinstrument konzipiert ist, sondern bereits<br />

als zweckgebundenes Instrument. Die typischen Spektralkanäle von LandSat- und NOAA-<br />

Instrumenten sind in Tabelle 3.1 aufgelistet, der CZCS dagegen misst in 6 Bändern von<br />

0.433 - 0.453 µm, 0.51 - 0.53 µm, 0.54 - 0.56 µm, 0.66 - 0.68 µm, 0.6 - 0.8 µm und 10.5<br />

- 12.5 µm. Das Bodenauflösungsvermögen beträgt 825 m, was aber in Anbetracht der zu<br />

untersuchenden Flächen schon fast zu gut ist (Problem der Datenflut im Vergleich zu den<br />

Skalen, auf denen sich räumliche Veränderungen ergeben; außerdem wäre auf Grund der kleinen<br />

Spektralbereiche sonst die Zahl der einfallenden Photonen zu gering). Mit diesen Kanälen<br />

lassen sich die Chlorophyll-Pigmente des Planktons sehr gut und eindeutig nachweisen.<br />

2. Juli 2008 c○ M.-B. Kallenrode


3.7. ANWENDUNGSBEISPIELE 187<br />

Abbildung 3.98: Die Farbe<br />

des Meeres: Pigmentkonzentration<br />

(Farbskala: violett<br />

– blau – grün – gelb<br />

– orange – rot) im Winter<br />

(A), Frühjahr (B), Sommer<br />

(C) und Herbst (D) [164]<br />

§ 619 Die CZCS-Ergebnisse haben im wesentlichen die Erkenntnisse bestätigt, die man bereits<br />

seit einem Jahrhundert Meereskunde kannte (und die dem Instrument das ‘coastal’ im<br />

Namen beschert haben): Plankton ist in den flachen Küstenbereichen wesentlich stärker vorhanden<br />

als im freien Ozean. Die neuen Ergebnisse betrafen dagegen zum einen die prinzipielle<br />

Möglichkeit, die Gewässerbereiche an Arktis und Antarktis zu studieren und die jahreszeitlichen<br />

Veränderungen zu untersuchen. So zeigte sich z.B. dass in diesen beiden sehr kalten<br />

Bereichen die Algenblüte im lokalen Frühjahr in ihrer Intensität und damit auch Biomasseproduktivität<br />

ohne weiteres mit der in den küstennahen Gewässern gemäßigter Breiten<br />

vergleichbar ist, siehe Abb. 3.98.<br />

§ 620 Ein deutlicher Unterschied zwischen Land und Meer zeigt sich in den Tropen: während<br />

hier die Bioproduktivität an Land sehr groß ist (zumindest, wenn der Mensch ihr freien Lauf<br />

ließe und nicht durch Brandrodung zur Zeit eine Abnahme der Biomasse bewirken würde),<br />

sind die tropischen Meere die Bereiche geringster Bioproduktivität; sie werden daher auch<br />

als die Wüsten der Meere bezeichnet (daher auch die wirtschaftlichen Einbrüche durch El<br />

Niño).<br />

3.7.4 Geowissenschaften<br />

§ 621 Die Geowissenschaften bedienen sich des vollständigen Spektrums der <strong>Erdfernerkundung</strong>sinstrumente.<br />

Im sichtbaren Bereich sind Satellitenaufnahmen schon alleine deshalb von<br />

Bedeutung, will sie einen guten Überblick über weite Bereiche erlauben. Dadurch lassen<br />

sich die großen Strukturen wie die Beziehungen zwischen verschiedenen Landformen, Deformationsmuster<br />

und Muster von Entwässerungsnetzen erkennen. Besonders wertvoll haben<br />

sich die LandSat-Aufnahmen bei der Identifikation von Falten und Bruchlinien erwiesen:<br />

Aufgrund lokaler Unterschiede (Vegetation, Beleuchtung, teilweise auch Erosion) lassen sich<br />

diese Strukturen auf Luftbildaufnahmen (auch auf Mosaiken aus Luftbildaufnahmen) häufig<br />

nicht eindeutig identifizieren. Auf den meisten der Satellitenbilder zeichnen sich jedoch solche<br />

langen Linienstrukturen deutlich ab. Die Identifikation dieser Linien ist auch von allgemeinem<br />

Interesse, da sie häufig die großen Spalten- und Faltensysteme repräsentieren, die für<br />

c○ M.-B. Kallenrode 2. Juli 2008


188 KAPITEL 3. SATELLITENINSTRUMENTE<br />

Abbildung 3.99: St. Andreas Graben [335] in<br />

der Nähe von Palmdale; die Falte verläuft<br />

durch die Bildmitte<br />

die Ausbildung von Erdbeben von Bedeutung sind.<br />

§ 622 Abbildung 3.99 zeigt als Beispiel den St. Andreas Graben in der Nähe von Palmdale,<br />

nördlich von Los Angeles. Die Falte selbst zieht sich durch die Bildmitte. Sie erstreckt<br />

sich von NNW nach SSO durch Kalifornien. Die Falte hat sich aus dem Zusammentreffen<br />

der Nordamerikanischen Platte mit der Pazifik-Platte gebildet; ihre Ausdehnung wird auf<br />

mindestens 1200 km geschätzt. Die Falte bewegt sich mit einer mittleren Geschwindigkeit<br />

von 2 cm/Jahr. Das Loma Prieta Erdbeben mit einer Stärke von 7.1 ereignete sich an dieser<br />

Falte; das Erdbeben von 1906 mit einer Stärke von 8.25 ereignete sich in der Nähe von San<br />

Franzisko ebenfalls an dieser Falte – seine Folgen haben wir bereits in Abb. 1.7 gesehen.<br />

§ 623 Nicht nur lineare Strukturen wie Erdbebenspalten können zu groß sein, um anders als<br />

mit Hilfe von <strong>Erdfernerkundung</strong> erkannt zu werden. Ein Beispiel für eine zirkulare Struktur<br />

ist in Abb. 3.100 gegeben: die Vredefort Ringstruktur befindet sich 120 km südwestlich von<br />

Johannesburg und hat einen Durchmesser von mehr als 100 km. Da sich sich die für eine<br />

Meteoritenkollision typischen Minerale innerhalb dieser Struktur nachweisen lassen, könnte<br />

es sich um einen Einschlagkrater handeln, der vor ca. 2 Mio Jahren entstand. Auch die<br />

Schichtung der Gesteine spricht für diese Hypothese.<br />

§ 624 So verlockend es sein mag, eine zirkulare Struktur als Einschlagkrater zu interpretieren<br />

– nicht jede runde Struktur hat diesen Ursprung. Die in Abb. 3.101 gezeigte Richat-<br />

Struktur, auch als das Auge der Sahara bezeichnet, befindet sich in der westlichen Sahara in<br />

Zentral-Mauretanien und hat einen Durchmesser von 38 km. Anfänglich als Einschlagkrater<br />

interpretiert, wurde diese Hypothese verworfen: es lassen sich weder die typischerweise bei<br />

der Kollision entstehenden Materialen finden und die Tiefe ist im Vergleich zum Durchmesser<br />

zu gering. Der seine Umgebung um ca. 100 m überragende Rand besteht aus Quartzit, einem<br />

sehr verwitterungsbeständigen Material. Die Struktur wird daher eher als Intrusion interpretiert.<br />

Im oberen Bildteil lassen sich die Makteir Sanddünen nördlich der Richat-Struktur<br />

erkennen.<br />

§ 625 Zwar nicht zirkular aber ebenfalls zu großräumig um vom Boden eindeutig erkannt<br />

2. Juli 2008 c○ M.-B. Kallenrode


3.7. ANWENDUNGSBEISPIELE 189<br />

Abbildung 3.100: Vredefort Ring Struktur in<br />

Südafrika [336]<br />

zu werden, ist die Caldera 29 des Yellowstone mit einer Länge von ca. 80 km und einer Breite<br />

von bis zu 55 km. Sie stammt von einem ca. 2 Mio Jahre zurück liegenden Ausbruch; weitere<br />

Ausbrüche erfolgten vor ca. 1.2 Mio Jahren und vor ca. 640 000 Jahren. Vom Boden<br />

aus sind diese Strukturen daher nicht nur auf Grund ihre Größe sondern auch auf Grund der<br />

Veränderungen durch Erosion schwer auszumachen. Dass der Yellowstone eine aktive Gegend<br />

ist, ist allerdings schon längst bekannt und wird z.B. durch die Geysire deutlich angezeigt.<br />

Auch zeigen genauere Beobachtungen, u.a. mit ortsfesten GPS Empfängern, dass sich Boden<br />

am nördlichen rand hebt [715]. Eine Überwachung derartiger aktiver Supervulkane ist<br />

sicherlich sinnvoll, da deren Eruptionen globale Folgen (u.a. vulkanischer Winter, siehe auch<br />

[165]) haben können. Um eine Überwachung durchzuführen, müssen die Calderen dieser Supervulkane<br />

aber erst einmal identifiziert werden – wobei Satellitenaufnahmen unerlässlich<br />

sind.<br />

§ 626 Neben der großräumigen Struktur ist aber auch die Beschaffenheit des Gesteins von Interesse.<br />

Hier werden neben Aufnahmen im sichtbaren Bereich insbesondere solche im thermischen<br />

Infrarot verwendet, da hier verschiedene Gesteine unterschiedliche Signaturen in ihrem<br />

spektralen Emissionsvermögen aufweisen (vgl. Abb. 3.58). Instrumente im thermischen Infrarot<br />

erlauben auch den Nachweis unterirdischer Kohlefeuer [236], die durch Selbstentzündung<br />

entstehen und, wenn sie sich in der Nähe eines Abbaugebietes befinden, zum Eindringen<br />

giftiger Gase in die Grube führen können.<br />

29 Eine Caldera (spanisch, Kessel) [719] entsteht bei einem Vulkanausbruch, wenn dieser die Struktur des<br />

Vulkans zerstört und dabei die ehemalige Magmakammer freigelegt wird – sei es durch Explosion oder Einsturz.<br />

Die Eruption des Mount St. Helens hat eine kleine Caldera hinterlassen, die sich wieder mit Magma<br />

füllt und aus der ein neuer Vulkankegel hervorwächst. Der Teide auf Teneriffa ist noch weithin als Berg von<br />

mehr als 3000 m Höhe zu erkennen und hat anstelle eines Gipfels eine Caldera von ca. 17 km Durchmesser.<br />

Die Insel Santorin ist ein weiteres Beispiel für eine, allerdings größtenteils versunkene, Caldera. Vulkane dieses<br />

Typs sind besonders gefährlich, da Wasser und Magma eine explosive Kombination bilden – der Krakatau<br />

[732] dürfte das am besten dokumentierte Beispiel aus der jüngeren Geschichte sein. Aber nicht nur in den<br />

versunkenen Vulkaninselns liegt ein Großteil der Caldera unter Wasser. Auch viele Calderen von landgebundenen<br />

Vulkanen füllen sich mit Seen; der Krater des Pinatobu auf den Philippinen ist ein recht junges Beispiel,<br />

der von ca. 74 000 Jahre entstandene Krater des Toba im nördlichen Sumatra mit einer Länge von 100 km<br />

eines der größten.<br />

c○ M.-B. Kallenrode 2. Juli 2008


190 KAPITEL 3. SATELLITENINSTRUMENTE<br />

Abbildung 3.101: Das Auge der Sahara, die<br />

Richat Struktur [334]<br />

§ 627 Radar wird ebenfalls in den Geowissenschaften verwendet. Zum einen erlaubt Radar,<br />

im Gegensatz zu anderen Instrumenten, die Bestimmung von Höhen, d.h. es lässt sich eine<br />

wirklich drei-dimensionale Topographie erstellen (vergleiche das SeaSat Altimeter, wie in<br />

Abschn. 3.4.1 beschrieben). Radar-Imaging wird ebenfalls verwendet, da Radar in trockenen<br />

Gebieten die Sandschicht durchdringen kann und somit Informationen über den darunter liegenden<br />

festen Grund liefert; die Anwendung in der Archäologie (Abschn. 3.7.1 und Abb. 3.84)<br />

ist ein Beispiel.<br />

§ 628 Eine weitere wichtige Anwendung von Satelliteninstrumenten in den Geowissenschaften<br />

ist die Beobachtung von aktiven Vulkanen. Verwendet werden hier Instrumente im sichtbaren<br />

Bereich und nahen Infrarot zur Beobachtung der Lavaströme und der Rauchwolken,<br />

sowie Instrumente im thermischen Infrarot zur Beobachtung des Vulkanmassivs direkt und<br />

zur Abschätzung des Austrittszeitpunktes der Lava (je jünger die Lavaschicht ist, um so<br />

wärmer ist sie noch, d.h. die Temperatur erlaubt Rückschlüsse auf das Alter). Altimeter<br />

weisen zusätzlich auf Hebungen oder Senkungen von Vulkanflanken hin – eine sehr wichtige<br />

Information bei den Vulkanen, die wie der Mt. St. Helens oder der Pinatobu zur Explosion<br />

neigen. 30 Vulkanbeobachtungen werden u.a. durchgeführt zum Zwecke der Warnung der Anlieger<br />

vor einem zu erwartenden Ausbruch. Da die lavahaltige Erde an Vulkanhängen sehr<br />

fruchtbar ist, sind gerade Gebiete an Vulkanen häufig relativ dicht besiedelt. Dass die Erde<br />

dort fruchtbar ist, kann man auch in Falschfarbenaufnahmen erkennen, wo die vulkanischen<br />

Berge ein wesentlich stärkeres Signal im nahen Infrarot erzeugen als benachbarte, nicht-aktive<br />

Berge.<br />

30 Grob lassen sich Vulkane in zwei Typen einteilen: explosiv oder effusiv. Letztere ist durch Magma geringer<br />

Viskosität charakterisiert. dadurch fließt das Magma recht stetig ab und ist nicht in der Lage, den Schlot der<br />

Magmakammer zu verstopfen. Der Ätna und die Vulkane auf Hawaii sind Beispiele. Explosive Erutpionen<br />

setzen sehr viskoses Magma voraus: dieses staut sich im Schlot, so dass sich in der Magmakammer über<br />

längere Zeiten ein immer höherer Druck aufbaut – der sich dann irgendwann explosiv entlädt. Die Folgen<br />

sind entsprechend weitreichender als bei einem effusiven Vulkan – insbesondere, wenn der Ausbruch an der<br />

Flanke des Vulkans erfolgt oder wenn, wie bei Santorin oder Krakatau Wasser im Spiel ist.<br />

2. Juli 2008 c○ M.-B. Kallenrode


3.7. ANWENDUNGSBEISPIELE 191<br />

Abbildung 3.102: Der Satellit drängt in die Nachrichten: Manhatten vor und nach 9/11<br />

gesehen von Ikonos-2 [672]<br />

3.7.5 Disaster Management und Verwandtes<br />

The Earth is the most dynamic planet in our solar system and<br />

it is this dynamism that has given us our protective magnetic<br />

field, our atmosphere, our oceans and ultimately our lives. The<br />

very same geophysical features that make Earth so life-giving<br />

and preserving also, however, make it dangerous.<br />

McGuire [165]<br />

§ 629 Mit der schnellen Verfügbarkeit von Satellitendaten (und letztendlich auch der Kommerzialisierung)<br />

hat sich ein neuer Aspekt in ihre Nutzung eingeschlichen: das Disaster Management<br />

[248]. Im Zusammenhang mit Waldbränden, (Super-)Vulkanen und Ölverschmutzungen<br />

ist uns diese Variante der Nutzung von Satellitendaten im Skript bereits begegnet; der breiten<br />

Öffentlichkeit wurde sicherlich im Zusammenhang mit 9/11 die Verbreitung der Satellitenbeobachtungen<br />

bewusst gemacht; ein Beispiel ist der typische Satz von vorher/nachher Bildern<br />

wie in Abb. 3.102. Ausgedehnte Waldbrände sind in den Nachrichten ohne das zugehörige Satellitenbild<br />

kaum noch der Meldung wert; die vorher/nachher Bildserien nach dem Hurrikan<br />

Katrina in New Orleans oder dem Tsunami im Indischen Ozean haben wahrscheinlich auch<br />

den Fundraisern geholfen, in dem sie das Ausmaß der Schäden zeigen konnten. Letztendlich<br />

hat aber auch Abb. 1.7 ein Jahrhundert zuvor schon die gleichen Nebenwirkungen gehabt.<br />

§ 630 Die von der Presse verwendeten Bilder stammen zunehmend von professionellen Krisenmanagern<br />

und kommerziellen Agenturen; für letzteres ist Abb. 3.102 ein gutes Beispiel.<br />

Auch das DLR enthält ein ‘Center for Satellite based crisis Information – emergency mapping<br />

and disaster monitoring’ [292]; von diesem stammt z.B. Abb. 3.95. Ebenfalls aus öffentlichen<br />

Mitteln gefördert wird RISK-EOS [657] in Zusammenarbeit mit der ESA und GEMS [372]<br />

als EU-Projekt, alles mit Hilfe der International Charter ‘Space and Major Disaster’ [383]<br />

auf rechtlich solide Füße gestellt. Natürlich verkaufen auch NASA [408], JAXA [385], ISRO<br />

[382] und sicherlich noch etliche andere ‘Sicherheit’ als ein Nebenprodukt ihrer Erderkundungsaktivitäten.<br />

§ 631 Kommerzielle Anbieter sind in dieser Hinsicht sogar wesentlich deutlicher: European<br />

Space Imaging [367] bietet seine Produkte für ‘Relief & Emergency Operations’ an, wozu Bestimmung<br />

des Schadensausmaß, mögliche Rettungs- und Evakuierungsrouten, Bestimmung<br />

c○ M.-B. Kallenrode 2. Juli 2008


192 KAPITEL 3. SATELLITENINSTRUMENTE<br />

finanzieller Verluste (auch für Versicherungen) sowie Bestimmung der Schäden an der Infrastruktur<br />

gehören. Auch Satellite Imaging Corporation [664] bietet seine Hilfe an. Unter der<br />

Rubrik ‘Natural Hazards and Disaster Assessment and Management’ geht es im wesentlichen<br />

um Erdrutsche – wobei die Zerstörung der Wälder als Voraussetzung ebenfalls berücksichtigt<br />

wird. Die Hurricanes werden in einer eigenen Rubrik ‘Hurricane, Tornados and Cyclone<br />

Hazard Mitigation’ angeboten, natürlich mit den üblichen vorher/nachher Aufnahmen von<br />

Katrina (bzw. eher New Orleans).<br />

§ 632 Während die Raumfahrtagenturen Disaster im wesentlichen im Sinne von Naturkatastrophen<br />

sehen, sprechen die kommerziellen Anbieter eine wesentlich deutlichere Sprache. So<br />

bietet GeoEye [374] die Rubrik ‘Natural Security’ [375] mit dem üblichen vorher/nachher-<br />

Vergleich, nur diesmal für einen Raketenangriff – die Luftaufnahmen kehren zu ihrem Ursprung<br />

zurück. Auch Satellite Imaging Corporation [664] bietet hier Hilfe an in den drei<br />

Eskalationsstufen ‘Law Enforcement — Crime Mapping’, ‘Homeland Security’ (inkl. Beispielen<br />

für Anfahrtsrouten für Helfer am 9/11 und einem Beispiel für die Risikoanalyse für eine<br />

größere Anlage, siehe auch Abb. 1.11) sowie ‘Defense and Intelligence Mapping’. Und bevor<br />

wir mit dem Finger auf die Amerikaner zeigen: European Space Imaging [367] bietet uns<br />

ebenfalls eine Rubrik ‘National/Global Security’ und SPOT.COM bietet die Rubrik ‘Defence,<br />

Intelligence, Security’ [677] sowie die Variante ‘Hazard management and mitigation’ [678].<br />

§ 633 Katastrophenmanagement nicht als Beiprodukt sondern als eigenes Ziel hat die Disaster<br />

Monitoring Constellation DMC [329, 723]. Diese besteht z.Z. aus fünf Satelliten verschiedener<br />

Länder (Algerien, Türkei, Nigeria, China, Großbritannien) deren Hauptaufgabe<br />

die Erdbeobachtung zur Erstellung von Hilfsplänen nach (Natur-)Katastrophen ist. Die<br />

meisten der Satelliten tragen zusätzliche (experimentelle) Instrumente – DMC bietet bisher<br />

nicht raumfahrenden Nationen einen Einstieg in die Satellitenfernerkundung unter einem akzeptablen<br />

Anwendungszweck und mit industrieller Unterstützung ‘erfahrener’ Nationen und<br />

Firmen. Ob diese Satelliten beim Disaster Relief wirklich zusätzlich zu den ganzen anderen<br />

privaten und öffentlichen Spähern helfen (je mehr Satelliten, um so besser die zeitliche<br />

Überdeckung eines Bereichs), entzieht sich meiner Kenntnis.<br />

§ 634 Da das Deckmäntelchen Disaster zur Zeit modern ist, hat auch der MeteoSat-Betreiber<br />

EuMetSat mit ‘GMES – EUMETSAT Contributes to Global Monitoring for Environment and<br />

Security’ [364] hieran teil – allerdings weniger mit dem Disaster Management sondern stärker<br />

unter dem Gesichtspunkt global change. Letztendlich ist dieses Programm natürlich auch ein<br />

Verkaufsargument für die neue Serie polarer Wettersatelliten Metop – eine Anlehnung an die<br />

bekannten POES Satelliten der NOAA.<br />

§ 635 So schön Disaster Monitoring im Interesse der Koordination von Hilfsbemühungen<br />

nach einer (Natur-)Katastrophe ist – Prävention wäre vielleicht eine Alternative. Das Disaster<br />

Monitoring ist natürlich insbesondere bei den Disastern von Interesse, die sich wie 9/11<br />

weder in ihrer Art noch im Zeitpunkt des Auftretens voraus sagen lassen. Gegen diese lassen<br />

sich daher kaum Vorbereitungen treffen (weder langfristige strukturelle noch kurzfristige Evakuierungen),<br />

ja nicht einmal sinnvolle Einsatzpläne erstellen. Viele anderen Disaster dagegen<br />

sind im Prinzip vorhersagbar und könnte auch abgewendet werden: Hurrikan Katrina ist ein<br />

Beispiel. Dass die Deiche von New Orleans einem Hurrikan dieser Stärke nicht standhalten<br />

werden, war bekannt. Es fehlten aber geld und (politischer) Wille zur Prävention. Desgleichen<br />

gilt für viele auch der großen Städte, die auf Erdbebenspalten stehen oder in Flut gefährdeten<br />

Lagen – die Risiken sind bekannt, aber da die Prävention unbequem ist, beruhigt man sich<br />

mit exzellentem Disaster Management für den Fall der Fälle.<br />

Literatur<br />

§ 636 Einen nahezu vollständigen Überblick über Instrumente zur <strong>Erdfernerkundung</strong> bietet<br />

[134]. Ein weiteres gutes Hilfsmittel ist CEOS Earth Observation Handbook [276]: es enthält<br />

2. Juli 2008 c○ M.-B. Kallenrode


3.7. ANWENDUNGSBEISPIELE 193<br />

u.a. eine aktuelle Liste nahezu aller ziviler Satelliten (inkl. Orbit Informationen, Start und<br />

Missionsende oder geplantem Start) sowie eine Liste der Instrumente – mit Hyperlinks. Auch<br />

JAXA stellt unter [386] viele Informationen über Satelliten, Instrumente und Messprinzipien<br />

zur Verfügung. Und die NASA betreibt im NSSDC einen Server [505], auf dem sich die<br />

einzelnen Satelliten und Instrumente in einer Kurzbeschreibung finden lassen – häufig gibt es<br />

auch Verweise auf andere Quellen und Ergebnisse. Falls garnichts auffindbar, hilft bei einem<br />

aktiven Satelliten möglicherweise die Liste der UCS [692]; falls der Startzeitpunkt (oder die<br />

Zeit des Absturz) bekannt auch das SpaceWarn Bulletin [615].<br />

§ 637 Die wesentlichen Grundlagen zur Anwendung und Funktionsweise von Sensoren auf<br />

Satelliten finden sich in Rees [198], Sabins [209], Cracknell und Hayes [41], Curran [43] und<br />

Löffler [154]. Kitchin [129] beschreibt Sensoren allgemein, dort ist insbesondere der Abschnitt<br />

über die photographische Emulsion gut. Die Instrumente der nächsten Generation sind kurz in<br />

Baker [10] beschrieben, ansonsten in verschiedenen NASA-Publikationen unter dem Obertitel<br />

‘Earth System Science’. Einige Instrumente oder Instrumenttypen sind auch in Rycroft [208]<br />

beschrieben. Die Seiten der Entwickler/Betreiber der Instrumente helfen häufig auch weiter.<br />

Fragen<br />

Frage 29 Welche der folgenden Satelliteninstrumente können Sie zur Begutachtung von Vegetation<br />

verwenden:<br />

� konventioneller Schwarz-Weiß-Film<br />

� konventioneller Farbfilm<br />

� Multispektralscanner im sichtbaren Bereich<br />

� IR–Farbfilm<br />

� Thermischen IR-Scanner<br />

� Multispektralkamera (konventionelle Filme)<br />

� Multispektralscanner mit Kanälen im nahen IR<br />

� IR–Schwarz-Weiß-Film<br />

� Mikrowellenradiometer<br />

Frage 30 In der Frühzeit der (bemannten) <strong>Erdfernerkundung</strong> wurde mit Multispektralkameras<br />

gearbeitet. Erklären Sie das Prinzip. Was sind Vor- oder Nachteile gegenüber einer<br />

Aufnahme mit einem Farbfilm?<br />

Frage 31 Erläutern Sie den Unterschied zwischen einem konventionellen und einem IR-<br />

Farbfilm. Wozu werden IR-Farbfilme verwendet? Wie werden die Informationen dargestellt<br />

(IR ist nicht sichtbar!)?<br />

Frage 32 Erläutern Sie, warum Multispektralinformationen für die <strong>Erdfernerkundung</strong> interessant<br />

sind.<br />

Frage 33 Skizzieren Sie den Aufbau eines photographischen Systems, erläutern Sie den Begriff<br />

des Bodenauflösungsvermögens und geben sie eine Beziehung zwischen Bodenauflösungsvermögen,<br />

Brennweite, Flughöhe und dem Auflösungsvermögen des Films.<br />

Frage 34 Beim Farb-IR-Film verzichtet man auf eine der konventionellen Farbschichten und<br />

verwendet stattdessen eine Schicht, die IR-empfindlich ist. Auf welche Schicht verzichtet man<br />

und warum?<br />

Frage 35 Welche der folgenden Parameter beeinflussen das Bodenauflösungsvermögen eines<br />

optischen Systems:<br />

� Flughöhe<br />

� Filmkantenlänge<br />

� Filmauflösungsvermögen<br />

c○ M.-B. Kallenrode 2. Juli 2008


194 KAPITEL 3. SATELLITENINSTRUMENTE<br />

� Brennweite des Objektivs<br />

� Öffnung des Objektivs<br />

� verwendeter Film (S/W oder Farbe)<br />

� Wellenlänge<br />

� Blickwinkel des optischen Systems<br />

� Abstand Objektiv–Filmebene<br />

Frage 36 Verwendet man ein LandSat Instrument (Flughöhe 900 km) auf einem militärischen<br />

Späher (Flughöhe 180 km), so verändern sich das Blickfeld und das Bodenauflösungsvermögen.<br />

Wie?<br />

Frage 37 Das spektrale Reflektionsvermögen verschiedener Pflanzen und Nicht-Vegetation<br />

ist in der folgenden Abbildung dargestellt. Wie würden Sie vier Spektralkanäle wählen (bitte<br />

in Abbildungs markieren), um Vegetation möglichst sicher identifizieren und zumindest<br />

ansatzweise auch klassifizieren zu können.<br />

Frage 38 Welche Faktoren verschlechtern das Bodenauflösungsvermögen?<br />

Frage 39 Geben Sie die charakteristischen Größen (Auflösungsvermögen) eines optischen<br />

Systems an und charakterisieren Sie diese kurz<br />

Frage 40 Der Wunsch nach einem hohen Bodenauflösungsvermögen ist bei einem <strong>Erdfernerkundung</strong>sinstrument<br />

zumindest aus Sicht der Kartographen verständlich. Warum interessieren<br />

sich viele Anwender auch für ein gutes spektrales Auflösungsvermögen?<br />

Frage 41 Welche der folgenden Probleme können unter Verwendung eines im thermischen<br />

Infrarot arbeitenden Instruments untersucht werden:<br />

� Identifikation von ‘Wärmeverschmutzern’ (Kraftwerke, Autobahnen etc.)<br />

� Unterscheidungen verschiedener Vegetationsformen und Pflanzengesundheit<br />

� Unterscheidung verschiedener Gesteinsarten<br />

� Bestimmung der Wolkenbedeckung<br />

� Identifikation unterirdischer Wasserläufe oder -lager<br />

� Bestimmung der Wolkenhöhe<br />

� Beobachtung von Atmosphäre–Ozean–Wechselwirkung wie El Niño<br />

Frage 42 Erläutern Sie die Kehrbesentechnik. Was sind die Vorteile gegenüber einem konventionellen<br />

photographischen System?<br />

Frage 43 Skizzieren und beschreiben Sie die wesentlichen Elemente eines Multi-Spektralscanners<br />

(Hinweis: es gibt verschiedene Realisierungsformen, bitte eine relativ genau beschreiben,<br />

die anderen nur kurz).<br />

Frage 44 Auf Thematic Mapper Aufnahmen von Landsat sind trotz eines Bodenauflösungsvermögens<br />

von 30 m Strukturen mit einer Breite von nur wenigen Metern (Eisenbahnlinien,<br />

Molen u.ä.) deutlich zu erkennen. Erläutern Sie, möglichst mit Hilfe einer Skizze, warum.<br />

2. Juli 2008 c○ M.-B. Kallenrode


3.7. ANWENDUNGSBEISPIELE 195<br />

Frage 45 Was ist ein Mixed Pixel? Wodurch wird sein Auftreten begünstigt? Haben Sie Vorschläge<br />

für Instrumententwickler, mit deren Hilfe das Auftreten von Mixed Pixels reduziert<br />

oder zumindest in der anschließenden Datenauswertung korrigiert werden kann?<br />

Frage 46 Welche Messverfahren werden bei der Untersuchung der Atmosphäre (insbesondere<br />

Zusammensetzung und Spurengase) verwendet?<br />

Frage 47 Erläutern Sie das Verfahren des Limb-Sounding.<br />

Frage 48 Erläutern Sie das Messprinzip eines Ozonsensors, der vom Boden oder im Limb-<br />

Viewing eingesetzt werden kann. Welche physikalischen Grundprinzipien und -gleichungen<br />

gehen ein?<br />

Frage 49 Welche Wellenlängenbereiche können sinnvoll zum Nachweis von Kohlendioxid in<br />

der Atmosphäre verwendet werden?<br />

� UV<br />

� weiches Röntgenlicht<br />

� sichtbares Licht<br />

� nahes Infrarot<br />

� thermisches Infrarot<br />

� Mikrowellen<br />

Frage 50 In welchem Wellenlängenbereich sind Aerosol-Messungen sinnvoll und warum?<br />

Frage 51 Welches Bodenauflösungsvermögen haben Sensoren im thermischen Infrarot? Kann<br />

man das Bodenauflösungsvermögen in den Bereich optischer Sensoren bringen? Begründen<br />

Sie.<br />

Frage 52 Skizzieren Sie den Aufbau eines Infrarotscanners (thermisches IR) und beschreiben<br />

Sie das Funktionsprinzip.<br />

Frage 53 Welche Größe wird von einem Infrarotscanner gemessen und wie wird sie anschließend<br />

interpretiert?<br />

Frage 54 Erläutern Sie den Begriff der Effektivtemperatur. Geben Sie die relevante(n) Gleichung(en).<br />

Frage 55 Welche Vor- und Nachteile haben passive Mikrowellendetektoren gegenüber optischen<br />

Instrumenten und Instrumenten, die im thermischen Infrarot arbeiten? Nennen Sie<br />

Anwendungsbeispiele.<br />

Frage 56 Erläutern Sie, wie mit Hilfe eines aktiven Mikrowelleninstruments vom Satelliten<br />

aus die Wellenhöhe bestimmt werden kann.<br />

Frage 57 Aus dem gemessenen Gesamtstrahlungsstrom lässt sich die Effektivtemperatur<br />

eines Körpers bestimmen. Steht diese in einer systematischen oder zufälligen Beziehung zu<br />

dessen realer Temperatur?<br />

Aufgaben<br />

Aufgabe 12 Auf dem Shuttle wurde für ‘hübsche Bilder’ die Earth Terrain Camera mit<br />

einer Brennweite von 450 mm und einem Mittelformatfilm mit 6 cm Kantenlänge verwendet<br />

(quadratisches Bild). Bestimmen Sie für eine Flughöhe von 400 km das Blickfeld auf dem Boden<br />

sowie das Bodenauflösungsvermögen bei einer Filmempfindlichkeit von 300 Linien/mm.<br />

Aufgabe 13 Ein leichtes Teleobjektiv einer Standard-Spiegelreflexkamera hat eine Brennweite<br />

von 100 mm und eine Blendenöffnung von 5 cm. Für ein mittleres λ von 5 · 10 −5 cm ist<br />

der Durchmesser des Beugungsscheibchens in der Filmebene zu bestimmen. Ist es sinnvoll, in<br />

dieser Kamera einen Film mit einem Auflösungsvermögen von 500 Linien/mm einzusetzen?<br />

c○ M.-B. Kallenrode 2. Juli 2008


196 KAPITEL 3. SATELLITENINSTRUMENTE<br />

Aufgabe 14 Sie haben ein Teleobjektiv mit einer Brennweite von 500 mm und einen Film<br />

mit einem Auflösungsvermögen von 500 Linien/mm. Welche Öffnung sollte das Objektiv<br />

haben, damit Sie auch im nahen IR (λ = 1 µm) ein maximales Bodenauflösungsvermögen<br />

erhalten?<br />

Aufgabe 15 Auflösungsvermögen (Hubble verkehrt): Aufgrund der äußeren Abmessungen<br />

amerikanischer Spionagesatelliten wird manchmal spekuliert, dass diese Satelliten mit einem<br />

Instrument ähnlich dem Hubble-Space-Teleskop ausgestattet sind – nur mit dem Unterschied,<br />

dass das Instrument zur Erde blickt. Das Teleskop hat eine Brennweite von 6 m. (a) Bestimmen<br />

Sie das Bodenauflösungsvermögen für den Fall, dass das Instrument (i) mit einem CCD<br />

aus einer Digitalkamera (ca. 2500 mal 2000 Pixel) betrieben wird oder (ii) mit einem konventionellen<br />

Film mit einer Auflösung von 500 Linien/mm (ebenfalls als Kleinbild-Film mit<br />

Maßen 36 mm mal 24 mm). Diskutieren Sie jeweils für eine militärische Flughöhe von 250 km<br />

und eine zivile Flughöhe von 900 km. (b) Welche Blendenöffnung muss das Teleksop für die<br />

verschiedenen Konfigurationen mindestens haben? (c) Wie groß ist der auf einem Bild abgebildete<br />

Bodenbereich jeweils? (d) Wieviele Orbits vergehen, bis das Gebiet erneut überflogen<br />

wird? (e) Welche Zeit steht maximal für eine Aufnahme zur Verfügung? (f) Wie groß ist<br />

die Verringerung des Auflösungsvermögens durch die Eigenbewegung des Satelliten bei einer<br />

Belichtungszeit von 1/500 s? (g) Lässt sich dieser Störeinfluss verringern?<br />

Aufgabe 16 Der Thematic Mapper auf LandSat scannt einen 185 km breiten Streifen auf<br />

dem Boden mit einem Bodenauflösungsvermögen von 30 m ab. Wieviel Zeit steht für einen<br />

Streifen zur Verfügung und wie schnell muss der Spiegel (beidseitig beschichtet) rotieren? Wie<br />

groß ist die Belichtungszeit für ein einzelnes Pixel? Eine Szene hat eine Länge von 170 km<br />

(bei der Streifenbreite von 185 km). Wieviele Pixel hat eine Szene? Wie lange dauert die<br />

Aufnahme einer vollständigen Szene?<br />

Aufgabe 17 Der französische Fernerkundungssatellit SPOT fliegt in einem nahezu kreisförmigen<br />

Orbit in einer Höhe von 832 km. Bestimmen Sie die Bahngeschwindigkeit des Satelliten<br />

und die Geschwindigkeit, mit der er seine Bodenspur abscannt. Welche Auswirkungen hat<br />

die Bodengeschwindigkeit auf Aufnahmen.<br />

Aufgabe 18 Sie haben einen Satelliten, auf dem eine Videokamera mit einem Blickwinkel<br />

von 1 ◦ montiert ist. Ihr Ziel ist es, die gesamte Erdoberfläche zu filmen. Welche Inklination<br />

müssen Sie wählen? Bestimmen Sie die Zahl der benötigten Umläufe in Abhängigkeit von<br />

der Flughöhe. Diskutieren Sie die Vor- und Nachteile besonders niedriger oder hoher Orbits.<br />

Aufgabe 19 Der Multispectralscanner MSS auf LandSat tastet bei einer Spiegeldrehung<br />

einen 476 m breiten Bereich quer zur Flugrichtung ab. Um ein Bodenauflösungsvermögen<br />

von 79 m zu kommen, wird dieser Streifen in jedem Wellenlängenband auf 6 CCD-Elemente<br />

abgebildet. Die Breite des abgetasteten Bereichs senkrecht zur Flugrichtung beträgt 185 km.<br />

Bestimmen Sie die Rotationsfrequenz des Spiegels (beidseitig reflektierend). Welche Zeit steht<br />

für die Aufnahme eines einzelnen Pixels zur Verfügung (die Pixel sind quadratisch)? Vergleichen<br />

Sie diesen Wert mit dem Wert, der sich ergäbe würde, wenn pro Spektralkanal nur ein<br />

CCD-Element zur Verfügung stehen würde.<br />

Aufgabe 20 Berechnen Sie den Gesamtstrahlungsstrom, den ein Körper mit einer Temperatur<br />

von 35 ◦ C und einer Emissivität von 0.95 emittiert (σ = 5.67·10 −8 W m −2 K −4 ). Welche<br />

Effektivtemperatur hat dieser Körper?<br />

Aufgabe 21 Die Erde hat eine Effektivtemperatur von 255 K und emittiert Infrarotstrahlung<br />

im Bereich zwischen 3 und 100 µm. Bei welcher Wellenlänge liegt das Maximum der<br />

terrestrischen Infrarotstrahlung? Scanner im thermischen Infrarot nutzen nur einen Bereich<br />

zwischen 3.5 und 5.5 µm sowie zwischen 8 und 14 µm. Warum?<br />

Aufgabe 22 Auf der Nordsee schwimmt ein dünner Ölfilm. Wasser und Ölfilm haben eine<br />

Temperatur von 20 ◦ C; Wasser hat eine Emissivität von 0.993, ein Ölfilm auf Wasser eine von<br />

2. Juli 2008 c○ M.-B. Kallenrode


3.7. ANWENDUNGSBEISPIELE 197<br />

0.972. Wie gut sollte das thermische Auflösungsvermögen eines Infrarotscanners mindestens<br />

sein, um den mit Ölfilm verschmutzten Bereich der Nordsee von der sauberen Nordsee zu<br />

unterscheiden?<br />

Aufgabe 23 Beurteilen Sie, ob man von einem militärischen Aufklärungssatelliten aus die<br />

Schlagzeile der Bild oder Prawda lesen kann (Hinweis: die größten annehmbaren Brennweiten<br />

sind 6 m, das Filmauflösungsvermögen kann maximal 500 Linien/mm betragen). Welchen<br />

Öffnungsdurchmesser würden Sie benötigen? Die Flughöhe kann mit 200 km abgeschätzt<br />

werden.<br />

Aufgabe 24 Bestimmen Sie das Bodenauflösungsvermögen Ihres Auges, wenn Sie sich als<br />

Beobachter auf einem der LandSat-Satelliten befinden würden (Flughöhen in Tab. ??) und<br />

vergleichen Sie mit dem Auflösungsvermögen des TM oder MSS. Hinweis zum Auge: Die Rezeptoren<br />

haben einen Durchmesser von 4 µm, die ‘Bildweite’ des Auges beträgt 20 mm, die<br />

effektive Weite einer Rezeptorzelle ist 4/20000 oder 1/5000 der Bildweite [209]. Welche Rezeptorgröße<br />

würden Sie benötigen, um ein dem TM vergleichbares Bodenauflösungsvermögen zu<br />

erreichen? Ist dieser Wert sinnvoll? In welchem Bereich des elektromagnetischen Spektrums<br />

müssten Sie dann ‘sehen’?<br />

Aufgabe 25 Der oszillierende Spiegel des TM vollendet 14 Scans während einer Sekunde.<br />

Welche Zeit wird dabei für ein einzelnes Pixel aufgewendet? Vergleichen Sie mit den Verschlusszeiten<br />

normaler Kameras.<br />

c○ M.-B. Kallenrode 2. Juli 2008


Kapitel 4<br />

Beispiele für Missionen<br />

Zum ersten mal in meinem Leben sah ich den Horizont als gebogene<br />

Linie. Sie war durch eine dunkelblaue dünne Naht betont –<br />

unsere Atmosphäre. Offensichtlich handelt es sich hierbei nicht<br />

um das Luftmeer, wie man mir oft in meinem Leben erzählte.<br />

Die zerbrechliche Erscheinung versetzte mich in Schrecken.<br />

Ulf Merbold<br />

§ 638 In diesem Kapitel werden einige ausgewählte Missionen zur <strong>Erdfernerkundung</strong> vorgestellt.<br />

Dabei werden Klassiker wie die LandSat und NOAA-Satelliten ebenso berücksichtigt<br />

wie Europas modernster <strong>Erdfernerkundung</strong>ssatellit EnviSat und einige eher unbekannte kleinere<br />

Missionen wie CHAMP. Außerdem werfen wir einen Blick auf NASA’s ambitioniertes<br />

Mission to Planet Earth-Programm, das uns bereits die lange Wunschliste in Abschn. 3.6<br />

beschert hat.<br />

§ 639 Eine recht aktuelle und ausführliche Übersicht über <strong>Erdfernerkundung</strong>ssatelliten mit<br />

den anklickbaren Links sowie einer Übersicht von Instrumententypen und Fragestellungen<br />

liefert Wikipedia unter [726]; weniger komfortabel aber umfassender ist die UCS-Liste [692].<br />

4.1 Der klassische Geograph: LandSat<br />

§ 640 Angefangen hat alles mit Bildern aus der Luft. Und der klassische zivile Vertreter in<br />

diesem Bereich ist LandSat – auch wenn es neuere und auch kommerzielle Missionen wie<br />

Ikonos, QuickBird, GeoEye oder SPOT gibt, bleibt LandSat der Vorteil, dass seine (relativ<br />

homogene) Datenbasis am weitesten zurück reicht. Letzteres ist für alle Untersuchungen<br />

bezüglich global change vorteilhaft; daher auch die Diskussion über LDCM [424, 708, 709].<br />

§ 641 LandSat ist ein US-amerikanisches Satellitenprogramm. Das LandSat-Programm hat<br />

ursprünglich aus einer Mischung aus technologischen Zielen und kontinuierlicher Erdbeobachtung<br />

bestanden. 1983 ging das System von der NASA auf die NOAA über, seitdem hat<br />

der technologische Aspekt nur geringe Bedeutung und das Schwergewicht liegt auf der kontinuierlichen<br />

Erdbeobachtung. Die wesentlichen Merkmale der LandSat-Satelliten sind in<br />

Tab. 4.1 zusammen gefasst. Eine Übersicht über alle LandSat-Satelliten inklusive ihrer Instrumentierung<br />

findet sich auf der LandSat Homepage der NASA [407]. Diese Seite liefert<br />

auch Informationen über den Zustand der einzelnen Satelliten und der Instrumente; so ist<br />

Anfang 2008 LandSat 7 der LandSat und LandSat 5 die Reserver zum Erhalt der Kontinuität<br />

der MSS-Daten.<br />

198


4.1. DER KLASSISCHE GEOGRAPH: LANDSAT 199<br />

Tabelle 4.1: Übersicht über die LandSat Satelliten [134]<br />

§ 642 Der erste LandSat-Satellit wurde 1972 unter dem Namen ERTS-1 (Earth Resources<br />

Technology Satellite) gestartet, später in LandSat 1 [534] umbenannt. Die experimentellen<br />

technologischen Aspekte dieses Satelliten waren seine Verwendung einer Videokamera (RBV<br />

[565], später nur für planetare Missionen verwendet, nicht jedoch in der <strong>Erdfernerkundung</strong>)<br />

und des Prototyps des Multispektralscanners MSS [552].<br />

§ 643 LandSat 2 [535] und 3 [536] folgten 1975 bzw. 1978 mit ähnlicher Ausstattung, ihre Bilder<br />

begegnen uns in verschiedenen älteren Atlanten. Während LandSat 2 über die gleiche Instrumentierung<br />

verfügte wie LandSat 1, war auf LandSat 3 die dreifach RBV (Multispektral-<br />

RBV) durch eine panchromatische Doppel-RBV (siehe auch Abb. 3.38 und [567]) mit besserer<br />

Bodenauflösung ersetzt. Auf LandSat 4 [537] und 5 [538], gestartet 1982 bzw. 1984, wurde die<br />

Videokamera RBV durch den Thematic Mapper TM [593, 594] ersetzt, außerdem verfügten<br />

beide über ein, allerdings dem DoD Programm unterstelltes, GPS-System. Auch fliegen beide<br />

in einem niedrigeren Orbit: durch die größere Streifenbreite und die geringere Umlaufzeit<br />

verringert sich die Wiederholfrequenz des Überflugs von 18 auf 16 Tage. Die Orbits sind bei<br />

allen LandSats sonnensynchron.<br />

§ 644 1995 ging LandSat 6 während des Starts verloren: zwar wurde er von der Rakete in ein<br />

niedriges Orbit eingetragen, nach dem Zünden der Booster zum Übergang auf ein Transfer-<br />

Orbit ging jedoch der Kontakt verloren. Da auch keine Radarechos des Satelliten oder seiner<br />

Trümmer gefunden werden konnten, vermutet man, dass die Lagekontrolle nicht funktioniert<br />

hat und LandSat von seinen Booster in einen Ozean katapultiert wurde.<br />

§ 645 1999 wurde als Ersatz LandSat 7 [539] gestartet. Dieser trägt als Neuerung den Enhanced<br />

Thematic Mapper Plus ETM+ [486, 516] als eine Kombination aus altem TM und<br />

MSS mit deutlich verbessertem Bodenauflösungsvermögen. 1 Die sieben Spektralkanäle sind<br />

denen des TM ähnlich, ein zusätzlicher panchromatischer Kanal ermöglicht das hohe Bodenauflösungsvermögen<br />

(der Ansatz ist von der Kombination von RBV und MSS auf LandSat 3<br />

und später auch von SPOT bekannt). Die Instrumentdaten sind mit denen von MSS und TM<br />

in Tabelle 4.2 zusammen gefasst, ein Beispiel für ein ETM+-Bild ist in Abb. 3.52 gegeben.<br />

Die wichtigsten Informationen über LandSat 7 finden sich auf der LandSat 7 Homepage der<br />

NASA unter [485], Informationen über den Enhanced Thematic Mapper ETM+ unter [714],<br />

eine Kurzdarstellung in § 411ff.<br />

§ 646 Während für die ersten LandSat Satelliten neben der Instrumenterprobung Kartographie<br />

und Geländeklassifikation wichtigste Aspekte der Missionen waren, ist für die jüngsten<br />

1 Das ETM+ entsteht daraus, dass die Idee eigentlich schon als ETM auf LandSat 6 realisiert war und das<br />

Instrument auf LandSat 7 eine Verbesserung dieses ETM ist. Da es auf Grund des LandSat 6 Verlustes nie<br />

ETM-Bilder gegeben hat, wird bei Datenprodukten manchmal nicht ganz genau zwischen ETM und ETM+<br />

unterschieden: wenn nur ETM draufsteht, ist es entweder eine Simulation oder wahrscheinlicher ETM+.<br />

c○ M.-B. Kallenrode 2. Juli 2008


200 KAPITEL 4. BEISPIELE FÜR MISSIONEN<br />

Tabelle 4.2: Charakteristika der LandSat-Instrumente MSS, TM und ETM+ [134]<br />

LandSat-Vertreter das Monitoring, d.h. die kontinuierliche Beobachtung, ein wichtiger –<br />

wahrscheinlich der wichtigste – Aspekt. Gerade für alle den global change betreffende Fragen<br />

ist eine langandauernde, kontinuierliche Datenbasis erforderlich. Daher wurde LandSat<br />

5 nicht abgeschaltet sondern wird parallel zu LandSat 7 betrieben, da LandSat 5 der letzte<br />

Satellit ist, der einen MSS trägt. Und es wird die LCDM diskutiert.<br />

§ 647 Interessant ist auch das Ersatzinstrument für den MSS auf LandSat 7: der High Resolution<br />

Multispectral Imager HRMSI [525, 704] hat 4 Spektralkanäle im Bereich zwischen<br />

0.55 und 0.9 µm mit einem Auflösungsvermögen von 10 m, sowie zusätzlich einen panchromatischen<br />

Kanal mit einem Bodenauflösungsvermögen von 5 m. Die Stereo Kapazität wird<br />

durch einen Blick zur Seite erreicht, das Verfahren ist ähnlich dem auf SPOT verwendeten.<br />

Aufgerieben wurde das Instrument anscheinend in einem der zivil–militärisch Scharmützel<br />

[59].<br />

§ 648 Der frühere klassische Geograph wie eben LandSat wird heute zwar immer noch für<br />

Monitoring Aufgaben weiter verwendet. Die Photo-Missionen sind jedoch spätestens seit<br />

SPOT [676] kommerziell interessant geworden, wie Ikonos, QuickBird oder GeoEye und andere<br />

Satelliten zeigen. Einige Beispiele inkl. der von ihnen erzeugten Produkte sind unter<br />

[374] gegeben; Abb. 4.1 zeigt als weiteres Beispiel eine aktuellere Variante von Abb. 1.7. Und<br />

neben der Kommerzialisierung des Imaging gibt es auch den Public Domain Ableger, ein<br />

Beispiel ist Google Earth.<br />

4.2 Ein Meteorologe: MeteoSat<br />

§ 649 MeteoSat [362] ist das Wettersatellitenprogramm der ESA. Es wurde 1972 ins Leben<br />

gerufen, der erste Satellit MeteoSat 1 wurde 1977 in einen geostationären Orbit gebracht<br />

und arbeitete bis 1979. Sein Nachfolger, MeteoSat 2 war von 1981 bis 1988 aktiv und wurde<br />

1991 in eine andere Position manöveriert und von einem anderen Träger weiter betrieben.<br />

Der letzte Satellit der ersten Serie, MeteoSat 7, wurde 1997 gestartet. Der erste Satellit der<br />

zweiten Serie, MeteoSat 8, wurde im Januar 2004 in Betrieb genommen.<br />

§ 650 Die MeteoSat Satelliten sind spinstabilisiert mit 100 Umdrehungen pro Minute, die<br />

Spinachse steht senkrecht zur Bahnebene (Cartwheel, häufig bei Wettersatelliten verwendet,<br />

2. Juli 2008 c○ M.-B. Kallenrode


4.2. EIN METEOROLOGE: METEOSAT 201<br />

Abbildung 4.1: Etwas<br />

aktuellere Version von<br />

Abb. 1.7 aus geringfügig<br />

größerer Flughöhe [663]<br />

da keine Verschleiß-empfindlichen mechanisch beweglichen Teile vorhanden sind, zu deren<br />

Betrieb auch noch Energie benötigt wird). Die Rotation dient gleichzeitig zum Scannen.<br />

Da die Fragestellungen der Satelliten einfach sind, nämlich Wettervorhersage, verfügen sie<br />

einheitlich über ein relativ einfaches Instrument VISSR (Visible and Infrared Spin Scan Radiometer<br />

[489]), auch bezeichnet als MSR (Multispectral Radiometer) oder MVIR (Meteosat<br />

Visible and Infrared Radiometer). VISSR hat drei Kanäle: VIS zwischen 0.5 und 0.9 µm für<br />

die Aufnahmen im sichtbaren Bereich, wie sie uns bei der Wettervorhersage gezeigt werden,<br />

WV zwischen 5.7 und 7.1 µm detektiert die Emission von Wasserdampf, und TIR im Bereich<br />

von 10.5–12.5 µm misst im thermischen Infrarot. Das Bodenauflösungsvermögen beträgt im<br />

VIS 2.5 km, in den beiden anderen Kanälen 5 km.<br />

§ 651 Die Entwicklung der MSG (MeteoSat Second Generation) Satelliten führt zu keiner<br />

Änderung des Grundkonzepts, nämlich das Scannen mit der Stabilisierung des Spacecraft zu<br />

verbinden. VISSR wird ersetzt durch seine Erweiterung SEVIRI (Spinning Enhanced Visible<br />

and Infrared Imager [365]) mit insgesamt 12 Spektralbändern (5 im sichtbaren bzw. nahen<br />

IR, 2 für Wasserdampf und 5 im thermischen Infrarot). Zusätzlich werden die MSG Satelliten<br />

mit GERB (Geostationary Earth Radiation Budget [660]) um ein Instrument erweitert:<br />

die Messung der globalen Strahlungsbilanz ist sowohl zum Verständnis der Variationen der<br />

Solarkonstante als auch zum Verständnis von climate change erforderlich. Die Masse der Satelliten<br />

wird sich dadurch von 322 kg auf 2040 kg erhöhen, die Leistungsaufnahme auf 600 W;<br />

MeteoSat-8 als erster Vertreter dieser neuen Generation wurde im Januar 2004 in Betrieb<br />

genommen.<br />

§ 652 Eine vollständige Übersicht über MeteoSat-8 mit Informationen auch zu seinen Vorgängern,<br />

findet sich auf der Seite seines Betreibers EuMetSat [362]. NOAA betreibt mit<br />

der GOES Serie ebenfalls geostationäre Wettersatelliten, ebenso wie einige andere Nationen,<br />

siehe z.B. Abb. 2.20.<br />

c○ M.-B. Kallenrode 2. Juli 2008


202 KAPITEL 4. BEISPIELE FÜR MISSIONEN<br />

Abbildung 4.2: POES – ein Alleskönner,<br />

wie die Werbung der NASA nahe<br />

legt [427]<br />

4.3 Ein tiefer gelegter Meteorologe: TIROS bis POES<br />

§ 653 Einen anderen Ansatz verfolgt das US-amerikanische meteorologische Programm TI-<br />

ROS (Television Infrared Oberservation Satellite [588, 591, 445, 470]): statt geostationärer<br />

Orbits werden hier Satelliten in niedrigen polaren Orbits verwendet. Durch ein gegenüber<br />

Kartographie-Satelliten deutlich reduziertes Bodenauflösungsvermögen haben die Instrumente<br />

ein großes Blickfeld und damit eine für die Wettervorhersage ausreichende Wiederholrate.<br />

§ 654 Dieses Programm besteht eigentlich aus mehreren Serien von Satelliten, die jeweils aus<br />

ihren Vorgängern entwickelt wurden. Diese Satelliten tragen neben den klassischen Instrumenten<br />

zur Meteorologie auch weitere Instrumente für umweltbezogene Fragestellungen. Am<br />

bekanntesten ist vielleicht das AVHRR (Advanced Very High Resolution Radiometer, siehe<br />

auch § 414ff) auf den POES-Satelliten, das ähnlich den MSS- und TM-Instrumenten ein sehr<br />

gutes Universalinstrument ist. Die verschiedenen Satelliten und Serien sind in Tabelle 4.3<br />

zusammen gefasst.<br />

§ 655 Die von den POES Satelliten angebotenen Produkte liegen, wie bereits bei der Beschreibung<br />

des AVHRR in § 415 angedeutet, nicht in der Kartographie sondern in großräumigeren,<br />

vielfach auch mit Wasser verbundenen Phäneomenen. Zusammen mit anderen<br />

Instrumenten liefert POES die in Abb. 4.2 gegebene Produktpalette:<br />

• vom AVHRR gibt es neben den klassischen Wetterbildern (insbesondere natürlich die<br />

2. Juli 2008 c○ M.-B. Kallenrode


4.3. EIN TIEFER GELEGTER METEOROLOGE: TIROS BIS POES 203<br />

Tabelle 4.3: Übersicht<br />

amerikanischer Umweltund<br />

Wettersatelliten<br />

von TIROS bis NOAA<br />

(bzw. POES) [134]<br />

großen Wirbel wie Hurrikan oder Taifun) Informationen über Schnee- und Eisbedeckung,<br />

Waldbrände, den bereits bekannten NDVI, auch als Greennes bezeichnet.<br />

• atmosphärische Parameter wie die totale Ozonsäule von SBUV, die abgestrahlte langwellige<br />

Strahlung von NESDIS, der gesamte ausregenbare Wassergehalt der Atmosphäre von dem<br />

ebenfalls bereits bekannten AMSU (siehe auch § 561) sowie globale Temperaturprofile aus<br />

der Kombination verschiedener Instrumente, darunter auch HIRS.<br />

• das Polarlichtoval und die Strahlenbelastung auf Flughöhe von SEM-2.<br />

§ 656 Die erste Serie dieser Satelliten in polaren Orbits umfasst TIROS 1 bis TIROS 10. Die<br />

wichtigsten Instrumente sind Videokameras mit Weitwinkel (TV-WA) bzw. Tele (TV-NA).<br />

Diese wurden auf allen Satelliten der ersten TIROS-Serie geflogen, die Instrumente haben ein<br />

Blickfeld von 1200×1200 km 2 bei einer Bodenauflösung von 2.5–3 km bzw. 120×120 km 2 bei<br />

einer Auflösung von 0.3–0.8 km. Beide Videokameras arbeiten im panchromatischen Modus,<br />

Aufnahmen im thermischen Infrarot wurden erst mit dem Scanning Radiometer (SR [569],<br />

Masse 2 kg, Leistungsaufnahme 1 W) ab TIROS-2 möglich. Auf allen weiteren Satelliten der<br />

ersten Serie wurden neben den Videokameras weitere Instrumente geflogen, viele davon eher<br />

experimenteller Art.<br />

c○ M.-B. Kallenrode 2. Juli 2008


204 KAPITEL 4. BEISPIELE FÜR MISSIONEN<br />

§ 657 TIROS 9 ist der erste Cartwheel Meteorologiesatellit: bei ihm steht, wie bereits bei den<br />

MeteoSats erwähnt, die Spinachse senkrecht auf der Bahnebene, so dass die Spinbewegung<br />

gleichzeitig ein Scannen der Erdoberfläche ermöglicht. TIROS-9 und 10 waren gleichzeitig<br />

auch die Testsatelliten für die zweite Generation von Meteorologie-Satelliten: TOS (TIROS<br />

Operational Satellite [471]) oder ESSA (Environmental Science and Services Administration).<br />

Auch hier ist der Schwerpunkt die Beobachtung der Wolkenbedeckung und der Wettersysteme.<br />

Die Instrumentierung besteht aus dem AVCS (Advanced Vidicon Camera System [506])<br />

mit einem Blickfeld von 1200×1200 km 2 und einem Auflösungsvermögen von 3 km. Die weiteren<br />

Verbesserungen betrafen die technischen Details wie Datenspeicherung und Übertragung<br />

sowie das radiometrische Auflösungsvermögen. Ab TOS 3 (ESSA 3 [518]) wird zur Untersuchung<br />

der Strahlungsbilanz (reflektierte solare Einstrahlung) ein oder mehrere FPRs (Flat<br />

Plate Radiometer [520], 3 kg, 4 W) geflogen (da wird 1966 das begonnen, was die EuMetSat<br />

erst mit der zweiten MeteoSat-Generation angehen wird). Die Serie endet mit TOS 9.<br />

§ 658 Ab 1970 wird von NOAA die Serie als ITOS (Improved TIROS Operational System<br />

[462]) betrieben, der erste Satellit NOAA 1 (auch ITOS-A, ITOS-1 oder TIROS M genannt)<br />

startet Ende 1970; heute wird häufiger die Bezeichnung POES verwendet statt NOAA. Neben<br />

dem Videosystem AVCS [506] und dem Radiometer FPRs wird auf diesen Satelliten eine<br />

Vielzahl anderer Instrumente geflogen, dazu gehören ein Solar Proton Monitor (SPM [576]),<br />

ein einfaches Scanning Radiometer (SR [570]) mit einem Kanal im Sichtbaren und einem im<br />

thermischen Infrarot und ab NOAA 2 auch VHRR (Very High Resolution Radiometer [600],<br />

16 kg, 25 W), mit zwei Spektralbändern und einem Auflösungsvermögen von 0.87 km bei<br />

einer Streifenbreite von 2580 km. 2<br />

§ 659 Die nächste Generation ab TIROS N ist die vierte Generation, sie lebt auch heute<br />

noch mit NOAA 18 als ihrem aktuellsten Vertreter. Hier hat sich der Wettersatellit zum Umweltmonitor<br />

mutiert. Das bereits aus der ITOS-Serie bekannte VHRR wurde zum AVHRR<br />

(Advanced Very High Resolution Radiometer) weiterentwickelt, ein System TVOS (TIROS<br />

Operational Vertical Sounder [589]) von Soundern misst vertikale Profile von Druck, Temperatur<br />

und Wasserdampf von der Erdoberfläche bis zur Oberkante der Atmosphäre, und<br />

der Space Environment Monitor (SEM [577]) misst energiereiche Teilchen über einen weiten<br />

Energiebereich. Außerdem befasst sich ERBE (Earth Radiation Budget Experiment [513])<br />

auf NOAA-9 und NOAA-10 mit der Strahlungsbilanz der Erde.<br />

§ 660 AVHRR (siehe auch § 414) ist in der Abbildungsgeometrie VHRR vergleichbar und<br />

misst in 5 Kanälen; ein panchromatischer Kanal im sichtbaren für die Wolkenbedeckung<br />

(tagsüber) und Oberflächenkartierung, ein Kanal im nahen IR zur Identifikation von Oberflächengewässern<br />

und Vegetation, ein Kanal im atmosphärischen Fenster des IR bei 3.8 µm für<br />

die Temperatur der Meeresoberfläche und zum Nachweis von Feuern, und ein Kanal bei 11 µm<br />

für Meeresoberflächentemperaturen und nächtliche Wolkenbedeckung. Bei den ersten Versionen<br />

des AVHRR ist dieser Kanal doppelt vorhanden (Kalibrierung), bei den späteren Versionen<br />

ist er durch einen Kanal bei 12 µm ersetzt, mit dessen Hilfe Oberflächentemperaturen<br />

und Tag/Nacht-Unterschiede in der Wolkenbedeckung nachgewiesen werden können. Über<br />

das AVHRR gibt es verschiedene gute Dokumentationen, teilweise auch mit Datenbeispielen,<br />

z.B. [308, 309, 637, 638, 705, 710]. Viele Anwendungsbeispiele (auch aktuelle Daten) stellt<br />

die Uni Bern als JPEG-Dateien unter [695] (aktuelle Daten) und [669] (Beispiele für Anwendungen<br />

zu Fragen des global change) zur Verfügung. POES wird im Rahmen von NPOESS<br />

in veränderter Form und in Zusammenarbeit mit dem DoD weiter geführt.<br />

2 Das Grundkonzept von VHRR ist natürlich gar nicht so verschieden von dem von TM oder MSS auf<br />

LandSat, der wesentliche Unterschied liegt im Bodenauflösungsvermögen und in der Streifenbreite: LandSat<br />

ist für Kartographie und Detailklassifizierung gebaut, d.h. das Bodenauflösungsvermögen muss sehr gut sein,<br />

aber die Aufnahmezeit kann recht lang sein, da Berge und Kontinente eher stationär sind. VHRR dagegen<br />

betrachtet globale und relativ schnell veränderliche Prozesse wie Wolken, Wettersystem oder im thermischen<br />

IR Meeresströmungen. Deren Zeitskalen erfordern jedoch eine häufige Bobachtung während ihre räumlichen<br />

Skalen so groß sind, dass ein Auflösungsvermögen im Bereich von einigen zehn Metern übertrieben ist.<br />

2. Juli 2008 c○ M.-B. Kallenrode


4.4. DER GENERALIST FÜR UMWELTFRAGEN: ENVISAT 205<br />

§ 661 Auch EuMetSat steigt unter dem Motto ‘Monitoring Weather, Climate and the Environment’<br />

in das Geschäft mit den polaren Meteorologiesatelliten ein [363]. Von den drei<br />

geplanten Metop Satelliten wurde der Metop-A als der erste im Oktober 2006 gestartet. Er<br />

trägt 10 Experimente, die meisten von ihnen bereits bekannt. Von der NOAA übernommen<br />

wurde u.a. die AVHRR Kamera sowie der AMSU-A Mikrowellensounder, der HIRS Infrarotsounder,<br />

das ARGOS datensammelsystem und der von den Space Environment Monitor<br />

SEM-2. Die eigenen Instrumente sind mit dem GOME 2 Spektrometer [311] zur Ozonmessung<br />

ebenfalls teilweise bekannt. Neu sind das ASCAT Scatteometer zur Bestimmung von Windgeschwindigkeiten<br />

und -richtung, das IASI Spektrometer [315] zur Messung von Temperaturund<br />

Feuchteprofilen, das GRAS GPS-Instrument zur Messung von atmosphärischen Dichteprofilen<br />

und das MHS Instrument [317]zur Messung von Feuchteprofilen mit Hilfe von<br />

Mikrowellen.<br />

§ 662 Irgendwie klingt die Verwendung zweier Systeme, eines polaren und eines geostationären,<br />

nach Hochrüstung an der Wetterfront. Für die klassische Wettervorhersage im Sinne<br />

der Betrachtung großräumiger Phänomen in niedrigen und mittleren Breiten ist der klassische<br />

geostationäre Späher sicherlich ideal. Seine Nachteile sind das begrenzte Auflösungsvermögen<br />

auf Grund des großen Abstands und die Vernachlässigung polarer Gebiete. Ein besseres Bodenauflösungsvermögen<br />

ist hilfreich, um sich ausbildende Wirbel frühzeitig identifizieren zu<br />

können; die Betrachtung der polaren Gebiete ist weniger für die tägliche Wettervorhersage<br />

relevant als vielmehr für Untersuchungen im Bereich global change: 3 die Beobachtungen<br />

ebenso wie die Modelle legen nahe, dass die schnellsten und stärksten Veränderungen in hohen<br />

Breiten erfolgen. Diese sind aber umgekehrt der direkten Beobachtung am schlechtesten<br />

zugänglich, da es abgesehen von einigen Forschungsstationen in der Antarktis bzw. in einem<br />

Ring um die Arktis kein Messnetz gibt. Für global change ist neben diesem direkten Blick<br />

auf die Pole auch ein besseres Bodenauflösungsvermögen als vom geostationären Orbit aus<br />

hilfreich.<br />

4.4 Der Generalist für Umweltfragen: EnviSat<br />

§ 663 Der bereits aus Abb. 1.10 bekannte EnviSat (Environmental Satellite [343]) ist ESA’s<br />

Schwergewicht (Gesamtmasse 8140 kg, Nutzlastmass 2150 kg, 6.5 kW Spacecraft Power,<br />

1.9 kW für die Nutzlast) in Sachen Umwelt. Die Nutzlast besteht aus 9 Instrumenten, die<br />

sich gegenseitig ergänzen und teilweise überlappen. Diese Überlappung ist u.a. notwendig zur<br />

Kalibrierung; teilweise erfolgt sie auch unbeabsichtigt, da jedes Instrument für sich alleine<br />

(z.B. bei Ausfall eines anderen Instruments oder bei Einsatz auf einem anderen Raumfahrzeug)<br />

die zur Untersuchung der wissenschaftlichen Fragestellungen notwendigen Daten liefern<br />

muss. Jedes Instrument ist spezifischen Fragestellungan angepasst. Die Homepage von EnviSat<br />

ist zu finden unter [343], die Dokumentationen zu den einzelnen Instrumenten sowie<br />

Broschüren zu EnviSat und seinen Instrumenten können über [75] und[354] erreicht werden.<br />

§ 664 MERIS (Medium Resolution Imaging Spectrometer, vgl. auch § 555) beobachtet zwischen<br />

0.29 µm und 1.04 µm mit 15 Sampling-Intervallen, die ganz gezielt auf bestimmte<br />

Stoffe bzw. Fragestellungen angepasst sind, vgl. Tab. 4.4. Das Bodenauflösungsvermögen beträgt<br />

1040 × 1200 m 2 über den Ozeanen bzw. 260 × 300 m 2 über Land, die Aufnahme des<br />

Bildes erfolgt auf einem CCD-Array, d.h. das Instrument enthält keine beweglich Komponente<br />

zum Scannen sondern bildet wieder wie beim Film auf eine Fläche ab. Die Kombination<br />

von mittlerem Bodenauflösungsvermögen mit sehr gutem spektralen Auflösungsvermögen soll<br />

das Monitoring von Ozeanen, Atmosphere und Land ermöglichen, insbesondere die Messung<br />

biophysikalischer und biochemischer Parameter der Ozeanoberfläche (Chlorophyll, Gelbstoff,<br />

gelöste Teilchen), die Beobachtung von Meeresverschmutzung und Erosion, die Vermessung<br />

3 Die Verwendung von Wettersatelliten zur Untersuchung von global change liegt nahe, da Wettersatelliten<br />

als Service-Satelliten Parameter über lange Zeiträume mit (nahezu) unveränderter Instrumentierung messen<br />

und damit die für eine Klimatologie notwendige lange Datenbasis erzeugen können.<br />

c○ M.-B. Kallenrode 2. Juli 2008


206 KAPITEL 4. BEISPIELE FÜR MISSIONEN<br />

Tabelle 4.4: Spektralbänder von MERIS und Anwendungsbeispiele<br />

von atmosphärischem Wasserdampf und Aerosol, die Beobachtung der Wolkenbedeckung, die<br />

Kartierung von Schnee- und Eisflächen an Land, die Beobachtung der Bioproduktivität sowie<br />

Untersuchungen zur Pflanzengesundheit. Eine genauere Instrumentbeschreibung ist unter<br />

[344, 21] zu finden, die Beschreibung der Datenprodukte und Dokumentation unter [349, 350]<br />

(gibt es, wie bei den anderen Instrumenten auch, auch als pdf zum Herunterladen).<br />

§ 665 MIPAS (Michelson Interferometer for Passive Atmospheric Sounding [318]) ist ein<br />

Limb-Emission-Sounder im Spektralbereich zwischen 4.15 µm und 14.6 µm zur Untersuchung<br />

der Chemie der Stratosphäre (insbesondere die Messung von O3, NO, NO2, HNO3,<br />

HNO4, N2O5, ClONO2, COF2, HOCl), zur Klimaforschung (insbesondere Messung der globalen<br />

Verteilung relevanter Parameter wie Wolken, Aerosole, O3, CH4, H2O, N2O, FCKWs<br />

(wie F11, F12, F22, CCl4, CF4 sowie CO, OCs), zur Untersuchung von Transportprozessen<br />

über die Tropopause (insbesondere Austausch von O3, CH4, N2O, C2H2, C2H6 oder SF6<br />

zwischen Troposphäre und Stratosphäre) sowie die Chemie der oberen Troposphäre (insbesondere<br />

Messung von NO, CO, CH4, O3 und HNO3). MIPAS misst in einem Höhenbereich<br />

von 8 km bis 150 km mit einer Höhenauflösung von 3 km. MIPAS alleine hat eine Masse<br />

von 327 kg und eine Leistungsaufnahme von 210 W. Die Instrumentbeschreibung findet sich<br />

unter [51], das Handbuch zu den Datenprodukten unter [351].<br />

§ 666 RA-2 (Radar-Altimeter-2) mit einem zusätzlichen Laser Retro-Reflector (LRR, im<br />

Prinzip nichts anderes als LAGEOS) ist ein typisches Altimeter mit der Fragestellung nach<br />

der genauen Form des Geoids und der bereits im Zusammenhang mit dem SeaSat Altimeter<br />

duskutierten Messung von Wellenhöhen. Der LRR dient der zusätzlichen Überprüfung und<br />

Kalibrierung des RA-2, so dass gegenüber früheren Instrumenten eine größere Genauigkeit<br />

erwartet wird. Für die Instrumentbeschreibung siehe [195], das Datenhandbuch findet sich<br />

unter [360].<br />

§ 667 MWR (Microwave Radiometer [345]) ist eher ein Service-Instrument: seine wichtigste<br />

Aufgabe ist die Messung des Wasserdampfgehalts der Atmosphäre. Damit lässt sich das Signal<br />

von RA-2 korrigieren.<br />

§ 668 ASAR (Advanced SAR) ist ein fortgeschrittenes bildgebendes Radarsystem, 4 das das<br />

von der Erdoberfläche zurück gestreute Radarsignal in fünf verschiedenen Polarisations-<br />

Moden misst. Das Bodenauflösungsvermögen hängt von der gewählten Breite des Abtaststreifens<br />

ab; es liegt bei 28 × 28 m 2 bei einer Streifenbreite von 100 km bis zu 950 × 980 m 2<br />

bei einer Streifenbreite von mehr als 400 km. Diese Flexibilität erlaubt die Anpassung an die<br />

räumlichen Skalen einer gerade aktuellen Fragestellung oder Beobachtungskampagne. Die<br />

4 Naja, es ist ein fortgeschrittenes Radarsystem; TerraSAR (siehe Abschn. 4.6) ist natürlich deutlich besser,<br />

benötigt dafür aber auch einen eigenen Satelliten mit entsprechendem Solarpanel während ASAR auf einem<br />

normalen Satelliten als Beipack fliegen kann.<br />

2. Juli 2008 c○ M.-B. Kallenrode


4.4. DER GENERALIST FÜR UMWELTFRAGEN: ENVISAT 207<br />

Abbildung 4.3: Optisches System von Sciamachy [75]<br />

wichtigsten mit ASAR zu untersuchenden Fragestellungen auf globalen Skalen betreffen den<br />

Zustand des Meereises auf verschiedenen Skalen, die Kartographie der Eisschichten und ihrer<br />

Dynamic, die Kartographie des Meereises und seiner Dynamik, die Beobachtung natürlicher<br />

und anthropogener Verschmutzungen über den Ozeanen sowie der Nachweis großskaliger<br />

Veränderungen in der Vegetation (z.B. Desertifikation). Die Modi mit hoher Bodenauflösung<br />

erlauben auch die Untersuchung regionaler Fragestellungen, z.B. Küstenschutz, Monitoring<br />

des Schiffsverkehrs sowie alle klassischen Fragen wie land- und forstwirtschaftliches Monitoring,<br />

Monitoring der Bodenfeuchte und geologische Exploration. Eine Instrumentbeschreibung<br />

findet sich unter [46, 53], das Datenhandbuch unter [342].<br />

§ 669 GOMOS (Global Ozone Monitoring by Occultation of Stars [312]) ist ein Limb-<br />

Sounding Spektrometer, das das Spektrum vom UV bis zum nahen Infrarot abdeckt. Das Instrument<br />

arbeitet im Absorptionsmodus, als Lichtquellen werden nicht wie sonst üblich Sonne<br />

oder Mond sondern Sterne verwendet. Dadurch wird eine permanente Datenüberdeckung<br />

erreicht – insbesondere sind Messungen in der Polarnacht möglich. Die wichtigsten zu messenden<br />

Parameter sind die Höhenprofile von Aerosolen, Temperatur, O3, H2O, NO2 und NO3<br />

in der Stratosphäre mit einer vertikalen Auflösung von 1.7 km. Die wichtigste Aufgabe von<br />

GOMOS ist die langfristige Beobachtung von stratosphärischem und mesosphärischem Ozon<br />

und Wasserdampf sowie der Änderungen dieser Parameter. Eine Instrumentbeschreibung<br />

steht unter [193], das Datenhandbuch unter [348].<br />

§ 670 AATSR (Advanced Along Track Scanning Radiometer, [304]) ist ein bildgebendes<br />

Radiometer, das in 4 Kanälen im IR (1.6 µm für Wolkenbedeckung und -schichtung, sowie<br />

3.7, 10.8 und 12.0 µm jeweils für die Temperatur der Meeresoberfläche) sowie drei Kanälen<br />

im sichtbaren bzw. nahen IR (0.55 µm für den Nachweis von Chlorophyll, 0.66 und 0.87 µm<br />

für den Vegetationsindex) arbeitet. Das räumliche Auflösungsvermögen beträgt 1 km 2 bei<br />

einer Streifenbreite von 500 km, das Temperaturauflösungsvermögen für die Temperatur der<br />

Meeresoberfläche soll besser als 0.3 K sein. Eine Instrumentbeschreibung findet sich unter<br />

[20], das Datenhandbuch unter [341].<br />

§ 671 SCIAMACHY (Scanning Imaging Absorption Spectrometer for atmospheric Cartography<br />

[325, 670]) ist ein passives, auf der Basis von GOME [310, 311] entwickeltes Spektrometer<br />

zur Messung von Spurengasen in der Troposphäre und Stratosphäre. Es überdeckt<br />

den Spektralbereich von 240 bis 2400 nm und verwendet parallel zwei Sounding Techniken:<br />

Limb-Sounding unter Verwendung von Sonne bzw. Mond als Lichtquellen und Messung des<br />

zurück gestreuten Lichts. Der Spektralbereich ist in acht, den verschiedenen zu untersuchenden<br />

Spurengasen angepasste Bänder unterteilt. Im Absorptionsmodus wird eine differentielle<br />

Technik verwendet wie sie auch für die Ozonmessung vom Erdboden aus benutzt wird: man<br />

vergleicht die Intensitäten in zwei Spektralbändern, von denen das eine durch Absorption an<br />

c○ M.-B. Kallenrode 2. Juli 2008


208 KAPITEL 4. BEISPIELE FÜR MISSIONEN<br />

Abbildung 4.4: Blickrichtungen von<br />

Sciamachy [75]<br />

dem zu untersuchenden Spurengas nicht beeinflusst ist, das andere dagegen wohl. Die wissenschaftlichen<br />

Ziele von SCIAMACHY umfassen die globale Konzentration und Verteilung<br />

von Spurengasen in der Tropo- und Stratosphäre, die Messung von Aerosolen, Wolkenhöhen<br />

und des spektralen Reflektionsvermögens von Oberflächen, die Messung der troposphärischen<br />

Spurengase O3, O2, O4, NO2, N2O, CO, CO2, CH4 und H2O sowie unter bestimmten Bedingungen<br />

HCHO, SO2 und NO3, sowie die Messung der stratosphärischen Spurengase O3, O2,<br />

NO, NO2, NO3, N2O, CO, CO2, CH4 und H2O sowie im Ozonloch OClO und ClO. Die Datenprodukte<br />

werden beschrieben unter [346], die SCIAMACHY-Homepage der Uni Bremen<br />

ist unter [696] zu finden. Messprinzipien und Instrumente sowie erste Ergebnisse sind auch<br />

in [75] dargestellt.<br />

§ 672 Die große Bandbreite von Aufgaben bringt auch ein komplexeres Instrument mit sich<br />

als von den einfachen Imagern oder Soundern gewohnt. Abbildung 4.3 gibt einen Einblick in<br />

die Optik von Sciamachy.<br />

§ 673 Als ein Beispiel für die während eines Tages gemessenen Daten von Scimachy haben<br />

wir in Abb. 3.81 die während eines Tages gemessene Ozonsäule gesehen. Diese wird nicht<br />

kontinuierlich entlang der Bodenspur bestimmt, da Sciamachy sowohl in Nadir-Richtung als<br />

auch als Limb-Sounder betrieben wird, siehe Abb. 4.4 und zwischen diesen Modi gewechselt<br />

wird.<br />

4.5 Small is beautiful: CHAMP und Diamant<br />

§ 674 CHAMP (Challenging Minisatellite Payload, [376]) ist ein Satellit, mit dessen Produkten<br />

wir, im Gegensatz zu denen der bisher beschriebenen Missionen, als Normalverbraucher<br />

wahrscheinlich kaum in Berührung kommen werden. CHAMP ist ein Satellit des Geoforschungszentrums<br />

Potsdam und ist mit der genauen Vermessung des Schwerefeldes der Erde<br />

und des geomagnetischen Feldes befasst. Mit Hilfe seines GPS Empfängers führt er ferner<br />

Okkultationsexperimente durch, d.h. er untersucht auch die Atmosphäre, insbesondere die<br />

2. Juli 2008 c○ M.-B. Kallenrode


4.5. SMALL IS BEAUTIFUL: CHAMP UND DIAMANT 209<br />

Tabelle 4.5: Spektralkanäle MSRS und Anwendungsbeispiele<br />

Elektronendichte der Thermosphäre. Das Teilcheninstrument auf CHAMP ist leider während<br />

des Starts beschädigt worden und hat keine sinnvollen Daten geliefert.<br />

§ 675 CHAMP ist interessant insofern, als dass er am anderen Ende des Spektrums von<br />

Satellitengrößen liegt: während alleine der Scanner des ETM+ auf LandSat 7 eine Masse<br />

von 318 kg und eine Leistungsaufnahme von 590 W hat, hat der gesamte Satellit CHAMP<br />

lediglich eine Masse von 522 kg und eine Leistungsaufnahme der Nutzlast von nur 50 W.<br />

§ 676 Auch ein Spektrometer lässt sich mit einem kleinen und billigen Satelliten realisieren,<br />

z.B. das MSRS (Multi-Spectral High Resolution System, [371]) auf Diamant. Das Instrument<br />

soll Anwender-orientierte Daten liefern. Dazu werden 12 Spektralkanäle im sichtbaren und<br />

nahen IR ausgewertet mit einer Bodenauflösung von 5 m, einem Blickfeld von 26 × 40 km 2<br />

und hoher radiometrischer Auflösung. Die einzelnen Spektralkanäle und Anwendungsbeispiele<br />

sind in Tabelle 4.5 gegeben. Statt eines Scanners wird ein Array aus CCDs verwendet, das<br />

Scannen erfolgt dann wie bei der Kehrbesentechnik.<br />

§ 677 Das ganze Raumfahrzeug ist mit einer Masse von weniger als 250 kg deutlich leichter<br />

als nur der Scanner des ETM+ und hat auch nur eine mittlere Leistungsaufnahme von<br />

55 W. Die großen Unterschiede zwischen diesen beiden Instrumenten haben zwei Ursachen:<br />

das größere Blickfeld von LandSat 7 auf Grund des Scanners statt der CCD ist ein wesentlicher<br />

instrumenteller Unterschied. Damit zusammen hängt der zweite Grund: MSRS<br />

basiert auf neuer Technologie (vulgo: die fliegen einfach kleine Digitalkameras mit etwas befremdlichem<br />

Seitenverhältnis) während LandSat eine Weiterentwicklung einer eher fossilen<br />

Technik trägt. Die unterschiedlichen Ansätze haben ihre Gründe: Diamant ist ein kommerzielles,<br />

anwendungsorientiertes System für ganz spezielle aktuelle Fragen eines Anwenders<br />

(z.B. Ernteüberwachung), während LandSat als Monitoring-System die Kontinuität erhalten<br />

muss: heutige Datensätze können nur Veränderungen gegenüber älteren Datensätzen zeigen,<br />

wenn sie mit vergleichbaren Instrumenten aufgenommen wurden oder wenn zumindest die<br />

Instrumente zur wechselseitigen Kalibrierung eine gewisse Zeit gemeinsam im Orbit waren.<br />

§ 678 Von den Leistungsdaten her ist die Kombination Diamant/MSRS ein Hybrid zwischen<br />

den kleinen kommerziellen Bildspähern und den großen Forschungssatelliten: Masse und Leistungsaufnahme<br />

sind in der Größenklasse der kleinen Kommerziellen während Performance<br />

(und damit auch die zu untersuchenden wissenschaftlichen Fragestellungen) deutlich an die<br />

großen Instrumente angelehnt sind – und diese abgesehen vom ETM+ noch eher übertreffen.<br />

c○ M.-B. Kallenrode 2. Juli 2008


210 KAPITEL 4. BEISPIELE FÜR MISSIONEN<br />

Abbildung 4.5: Sidney<br />

von TerraSAR-X – die<br />

Wellenmuster sind uns<br />

bereits aus Abb. 3.68<br />

bekannt [298]<br />

4.6 Der Radarspäher: TerraSAR<br />

§ 679 Bei den aktiven Mikrowelleninstrumenten in Kap. 3 hat stets SeaSat mit seinen Instrumenten<br />

Pate gestanden. Sein moderner Nachfolger ist TerraSAR-X [296, 297, 380, 757] –<br />

mit einem feinen Unterschied: LandSats moderne Brüder heißen SPOT oder Ikonos und sind<br />

kommerziell. 5 Gleiches gilt für TerraSAR; hierbei handelt es sich um eine Public-Private Partnership<br />

PPP zwischen EADS Astrium 6 [330] und dem DLR. TerraSAR-X wurde am 15. Juni<br />

2007 gestartet; eine TerraSAR-L Mission [262, 299, 698] befindet sich in der Planungsphase<br />

und soll als Cartwheel-Konfiguration (siehe § 509) gestartet werden.<br />

§ 680 Beim aktiven Radarspäher sind Ausmaße und Leistungsaufnahme die technischen Herausforderungen.<br />

TerraSAR-X1 hat eine Antenne mit einer Fläche von 650×85 cm 2 und einer<br />

Masse von 370 kg (zuzüglich 120 kg für die Elektronik). Die Leistungsaufnahme beträgt<br />

3.65 kW, das Array an Solarzellen liefert eine mittlere Leistung von 875 W; 40 Ah können<br />

in 26 NiH-Zellen gespeichert werden. Im scannenden Modus ergibt sich ein Datenstrom von<br />

816 Mbit/s bei einem maximalen Downlink von 300 Mbit/s – wie gut, dass die Solarzellen<br />

nicht genug Leistung erbringen, um ganztägige Aufnahmen zu erlauben.<br />

§ 681 Wie der Name suggeriert, arbeitet TerraSAR-X im X-Band, d.h. bei einer Wellenlänge<br />

von 31 mm bzw. einer Frequenz von 9.6 GHz. Zusammen mit der großen SAR-Antenne<br />

lässt sich ein Bodenauflösungsvermögen von 1 m im Spot-Modus erreichen. Abbildung 4.5<br />

zeigt als Beispiel eine im Überblick-Modus mit einem Bodenauflösungsvermögen von 3 m<br />

gemachte Aufnahme von Sidney – und insbesondere natürlich wieder die Wellenmuster auf<br />

der Wasseroberfläche.<br />

§ 682 Die Tatsache, dass Deutschland sich einen zivilen Radarspäher leistet, ist nicht wirklich<br />

überraschend: Deutschland leistet sich mit SAR-Lupe [270, 333, 651] auch ein militärisches<br />

Radarsystem. SAR-Lupe besteht aus 5 Satelliten in jeweils ca. 500 km Flughöhe und polaren,<br />

allerdings nicht sonnensynchronen Orbits. Von diesen fünf Satelliten sind bisher 3 gestartet<br />

[692], der vierte soll Ende März 2008 gestartet werden. Die geplante Konfiguration aller fünf<br />

Satelliten ist in [23] gezeigt.<br />

5 TerraSAR ist allerdings nicht der erste kommerzielle Radarsatellit. Diese Ehre gebührt RadarSat [282,<br />

373], Ende 2007 ersetzt durch RadarSat-2 [283, 397].<br />

6 Die – oder genauer der Mutterkonzern EADS – bauen im Zweifelsfall alles: sei es eine Flotte von Tankflugzeugen<br />

für die US-Air Force mit einem Auftragswert von 35 Milliarden US$, sei es den Airbus 380. EADS<br />

ist ein typisches Beispiel für die in der Einleitung erwähnte Unübersichtlichkeit: die Firma mischt einerseits<br />

im militärischen wie zivielen Luft- und Raumfahrtgeschäft mit und andererseits baut sie als eine permanemt<br />

vom Staat unterstützte (und auch finanziell nicht wirklich vom Staat unabhängige) Firma eine PPP auf. Ist<br />

das ein Selbstgespräch des Staats mit dem Staat?<br />

2. Juli 2008 c○ M.-B. Kallenrode


4.7. LOST AND FOUND: GPS-NAVSTAR 211<br />

§ 683 SAR-Lupe wird zusammen mit dem GMES [364] von EuMetSat und den Aufnahmen<br />

der französischen Helios [461] Spionagesatelliten kombiniert werden. Damit entsteht ein<br />

mächtiges europäisches Aufklärungssystem im All – alles natürlich nur, wie auch schon das<br />

Disaster Management im Interesse einer sichereren Welt [331]. Deutschland beteiligt sich<br />

damit erstmals aktiv und offiziell an der Militarisierung des Weltraums – indirekte Beteiligungen<br />

gibt es sicherlich schon viel länger. Auch wenn es nicht gerade die seriöseste Quelle<br />

ist, [86] gibt einen kurzen Einblick in diese Thematik.<br />

4.7 Lost and found: GPS-NavStar<br />

§ 684 Das Global Positioning System (GPS [728]) ist nicht nur für die Positionsbestimmung<br />

auf der Erde wichtig sondern auch für die Positionsbestimmung von Satelliten: was<br />

nützt die Angabe der Höhe von SeaSat über dem Ozean zur Bestimmung des Geoids mit<br />

einer Genauigkeit von 1 cm wenn die Position von SeaSat nur mit einer Genauigkeit von<br />

150 m bekannt ist? Außerdem ist GPS vielleicht auch das am häufigsten zweckentfremdete<br />

System: da Radiosignale durch den Wasserdampfgehalt der Atmosphäre beeinflusst werden<br />

und gleichzeitig die GPS-Signale genau bekannt sind (insbesondere ihr Timing) lässt sich<br />

ein GPS-Empfänger auch zur Messung atmosphärischer Bedingungen missbrauchen. Dazu<br />

zählen die Feuchte 7 und ihre Konsequenzen für die Wettervorhersage (z.B. [45, 243]) ebenso<br />

wie die Ionisation der Atmosphäre (z.B. [14, 172]). Außerdem lässt sich ein ortsfester GPS<br />

Empfänger zur Messung von Bodenbewegungen verwenden – auf diese Weise wurden die<br />

Veränderungen der Yellowstone Caldera [715] vermessen.<br />

§ 685 GPS wird durch ein Netz von 21 NavStar (NAvigations System with Time And Ranging,<br />

[741]) Satelliten realisiert mit Flughöhen von 20 200 km und einer Inklination von<br />

55 ◦ ; die ursprünglich geplante Inklination von 63 ◦ hätte eine Überdeckung auch der hohen<br />

Breiten ermöglicht und das System damit wirklich global gemacht, die 55 ◦ wurden gewählt,<br />

damit die NavStars auch vom Space Shuttle gestartet werden können. Die Einschränkung ist<br />

rückwirkend bedauerlich, da ohnehin nicht vom Space Shuttle aus gestartet wurde und die<br />

niedrige Inklination für Nutzer in höheren Breiten dazu führt, dass nicht in allen Richtungen<br />

Satelliten detektiert werden können. Dadurch verringert ich einerseits die Genauigkeit des<br />

Systems, andererseits können Hindernisse zwischen Satellit und Nutzer die Ortsbestimmung<br />

unmöglich machen. 8<br />

§ 686 Das NavStar-Programm wurde 1973 vom DoD initiiert, der erste Satellit startete 1978,<br />

erst 1992 war das System vollständig. Seitdem werden immer wieder neue NavStar-Satelliten<br />

gestartet (Anfang 2004 der 54., Ende 2007 der 61. [741] – eine Liste der jeweils aktiven<br />

NavStars findet sich unter [267, 692]), da alte Satelliten ausfallen bzw. durch neuere Modelle<br />

ersetzt werden.<br />

§ 687 Den ursprünglichen GPS-Signale für den zivilen Gebrauch war eine Störung überlagert,<br />

die die Genauigkeit in der Ortsbestimmung auf ca. 100 m reduzierte. Dieses Störsignal wurde<br />

Mitte der 90er Jahre entfernt, so dass heutzutage auch für zivile Anwender eine Genauigkeit<br />

im Bereich von einigen Metern (optimale Empfangsbedingungen) bis zu wenigen 10 m<br />

(ungünstiger Empfang) erreicht werden kann. 9 Das gilt allerdings nur für die horizontale Position,<br />

bei der vertikalen Position haben normale Empfänger Ungenauigkeiten im Bereich von<br />

7 Die Messung der Luftfeuchte ist selbst in einer bemannten Wetterstation nicht trivial; mit Hilfe von GPS<br />

lässt sich aber auch in unzugänglichen Gegenden (Himalaya) ein Netz von Messstationen aufbauen. Während<br />

vom Boden aus ein Integral der Luftfeuchte gemessen wird, gilt diese Einschränkung im Himalaya kaum noch,<br />

da die über dem Beobachtungsort liegende Luftsäule nicht mehr groß ist.<br />

8 Ein Nutzer am südlichen Ufer eines in Ost–West-Richtung ausgerichteten Fjords hat keine Chance, irgendwelche<br />

Satelliten mit seinem Empfänger zu sehen, da diese alle durch die Felswand abgeschattet sind.<br />

Würden Satelliten bis in höhere Breiten fliegen, so könnte er zumindest einige sehen.<br />

9 Wofern die USA nicht gerade damit beschäftigt sind, einen Schurkenstaat in seinem Benehmen einzunorden<br />

und allen anderen, Schurken oder nicht, die Möglichkeit nehmen wollen, sich mit Hilfe von GPS genau<br />

zu orientieren oder gar einzumischen.<br />

c○ M.-B. Kallenrode 2. Juli 2008


212 KAPITEL 4. BEISPIELE FÜR MISSIONEN<br />

etlichen 10 bis ca. 100 m – die Koordinate wird mit der geringsten Genauigkeit bestimmt,<br />

da man davon ausgeht, dass sich der Anwender letztendlich nicht im 3D bewegt sondern auf<br />

einer gekrümmten Fläche, d.h. sein Aufenthaltsort durch zwei Koordinaten bestimmt ist.<br />

§ 688 Die Genauigkeit eines GPS-Empfängers lässt sich auf Ortsgenauigkeiten im cm-Bereich<br />

verbessern, wenn man zusätzlich zu den Satelliten eine ortsfeste Referenzstation verwendet.<br />

Dieses Verfahren wird als differentielles GPS (DGPS) bezeichnet, es wird u.a. bei den Vermessungsämtern<br />

verwendet sowie bei GPS-basierten Navigationssystemem von Rettungsdiensten.<br />

§ 689 Das russische Konkurrenzunternehmen ist GLONASS [658] mit z.Z. 19 Satelliten [692];<br />

das europäische Konkurrenzprodukt Galileo [290, 359] dümpelt in seinen Finanzierungsproblemen<br />

mit einem bisher gestarteten Testsatelliten vor sich hin – macht aber bereits fleißig<br />

Werbung für seine Servicegarantien und die damit verbundene Möglichkeit eines Einsatz auch<br />

in sicherheitskritischen Anwendungen [275].<br />

4.8 Mission to Planet Earth<br />

§ 690 Bei dem Projekt Mission to Planet Earth (Earth Observving System EOS [611, 411])<br />

handelt es sich um einen Versuch der NASA und ursprünglich auch der ESA (jetzt handelt<br />

es sich um ein gemischtes internationales Konsortium unter Führung der NASA) möglichst<br />

viele Satelliten-Beobachtungen der Erde zusammenzufassen. Dabei sollen die Instrumente<br />

aufeinander abgestimmt sein, so dass sie einander möglichst perfekt ergänzen und auch in<br />

ihren zeitlichen und räumlichen Datenrahmen aufeinander abgestimmt sind, so dass eine<br />

Synchronisation verschiedener Instrumente überhaupt erst möglich wird. Ziel dieser Mission<br />

ist die Entwicklung eines möglichst vollständigen Bildes der dynamischen Prozesse auf der<br />

Erde; frei nach dem Motte “Was Sie schon immer über die Erde wissen wollten, aber bisher<br />

nicht zu fragen wagten (nach Woody Allen, 1972). Dabei hat auch die Frage nach dem Einfluss<br />

des Menschen auf seine Umwelt eine zentrale Bedeutung. Die Instrumente, die bei diesem<br />

Projekt berücksichtigt werden, umfassen das komplette Spektrum von Instrumenten, die für<br />

remote sensing entwickelt wurden inkl. einer langen Wunschliste (vgl. Abschn. 3.6) neu zu<br />

entwickelnder bzw. teilweise auch entwickelter Instrumente.<br />

§ 691 In einem gewissen Sinne ist Mission to Planet Earth auch Konkurrenzprojekt zu dem<br />

Einzelsatelliten EnviSat der ESA – ursprünglich war letzteres als Teilprojekt von EOS geplant.<br />

Während EnviSat erfolgreich gestartet wurde und Daten liefert, leiden viele Satelliten<br />

des Mission to Planet Earth Programms unter Unterfininazierung bzw. es wurde ein Satellit<br />

gestartet, aber der Satellit, der die ergänzenden Instrumente trägt, nicht oder nicht rechtzeitig:<br />

teilweise auf Grund politischer Probleme (wie viel Umwelt braucht der Mensch?, sind<br />

‘flags and footprints’ auf dem Mars nicht vielleicht wichtiger?), teilweise auf Grund der fehlenden<br />

Fokussierung der einzelnen Projekte und Satelliten, da viele Instrumente nur deshalb<br />

vorgeschlagen wurden, weil auch diese bestimmte Gruppe ein Instrument bauen wollte. Ohne<br />

den Einstieg anderer Nationen wäre es gar nichts geworden – allerdings hat die Koordination<br />

vieler Einzelinterressen nicht nur mehr Geld gebracht sondern auch viele Ressourcen gebunden.<br />

Die folgende Übersicht der Zielsetzungen hat daher eher historische Bedeutung, die<br />

Grundidee des Projekts ist populär in Baker [10] zusammen gefasst, die Grundidee und der<br />

aktuelle Stand findet sich unter [411, 409]; einige der Kernprojekte sind auch in Abschn. 4.8.3<br />

vorgestellt. Einige der geplanten Instrumente haben wir auch in Abschn. 3.6 kennen gelernt.<br />

4.8.1 Zielsetzung<br />

§ 692 Grob gesagt soll Mission to Planet Earth alle Fragestellungen bezüglich der Erde,<br />

ihrer Untersysteme wie Biosphäre, Hydrosphäre oder Geosphäre, und die Wechselwirkungen<br />

zwischen diesen Teilsystemen umfassen. Dazu sind die Zielsetzungen in zwei Zeitskalen unterteilt:<br />

geologische Zeitskalen im Bereich von Tausenden und Millionen von Jahren. Das sind<br />

2. Juli 2008 c○ M.-B. Kallenrode


4.8. MISSION TO PLANET EARTH 213<br />

im wesentlichen die Prozesse, die die Erde geformt haben bzw. externe Einflüsse, die sich auf<br />

derartig langen Zeitskalen abspielen, z.B. klimatische Veränderungen durch Schwankungen<br />

der Erdbahnparameter (Milankovich-Theorie) oder Veränderungen des solaren Energieoutputs.<br />

Die andere Zeitskala umfasst Perioden von Jahrzehnten oder Jahrhunderten. Dazu<br />

gehören auch die anthropogenen Einflüsse auf das Klima und die Biosphäre (Spurengase,<br />

CO2, Ozonloch, Abholzung des tropischen Regenwaldes, Flächenversiegelung).<br />

§ 693 Die wesentliche Zielsetzung ist also, die Erde als etwas veränderliches zu erkennen, die<br />

Zeitskalen dieser Veränderungen zu beschreiben und zu den durch den Menschen bewirkten<br />

Veränderungen in Beziehung zu setzen.<br />

§ 694 Die wesentlichen Anstöße zu den langfristigen Forschungen kommen aus der Geophysik<br />

und Geologie, als wesentliche Stichworte seien hier erwähnt Prozesse im Kern und Mantel<br />

der Erde, die ihrerseits wieder Auswirkungen auf das Erdmagnetfeld (dessen Veränderungen<br />

wir an den Ablagerungen in der Nähe der Tiefssegräben verfolgen können) und durch Ausgasungsprozesse<br />

auch auf die chemische Zusammensetzung der Atmosphäre haben. 10 Auch<br />

die Ausbildung der Topographie ist über die Kontinentaldrift und Vulkanismus mit den<br />

Vorgängen im Erdinnern verbunden. Die Bedeutung der Kontinentaldrift für das Klima auf<br />

der Erde und auch die Entwicklung von Leben ist nicht zu vernachlässigen; so können z.B.<br />

Eiszeiten nur dann entstehen, wenn mindestens eine Polregion landbedeckt ist oder, wie im<br />

Falle des Norpols, so von Land umschlossen ist, dass die warmen Meeresströmungen nicht bis<br />

in diese Bereiche gelangen können [173, 216, 227]. Veränderungen der Lage der Kontinente<br />

bewirken natürlich auch Veränderungen in den globalen Zirkulationsmustern (sowohl Meeresals<br />

auch atmosphärische Zirkulation). Zusätzlich sind auf diesen langen Zeitskalen auch<br />

Veränderungen externer Parameter wie z.B. der Einstrahlung der Sonne zu berücksichtigen<br />

§ 695 Die meisten anderen an der Mission to Planet Earth beteiligten Wissenschaftsbereiche<br />

befassen sich eher mit den kurzzeitigen Veränderungen, über die Abb. 4.6 einen Überblick<br />

gibt. Dabei sind die Grössen n(x) und φ(x) jeweils Konzentrationen bzw. Flüsse einer Größe<br />

x. Beispiele sind die Glazialogie, die das Schnee- und Eisvorkommen auf der Erde kartographiert,<br />

dazu gehören auch Veränderungen in der Eisbedeckung der Antarktis sowie<br />

Gletscherschwankungen. Diese Untersuchungen geben Aufschlüsse über lokale und globale<br />

Veränderungen von Lufttemperatur und Zirkulationssystemen. Ein weiterer Forschungspunkt<br />

ist in diesem Zusammenhang die Dynamik schneller Gletschervorstöße. Alle diese Fragen sind<br />

auch mit der Frage nach klimatischen Änderungen und den möglichen anthropogenen Einflüssen<br />

verbunden, so können Gletscher z.B. als eine Art globales Thermometer betrachtet<br />

werden, haben jedoch ihrerseits durch Veränderungen der lokalen Strahlungsbilanz auch wieder<br />

Rückwirkungen auf die Prozesse, die sie zum Wachsen oder Schrumpfen brachten (positive<br />

und negative Feedback-Mechanismen [124]).<br />

§ 696 Nicht nur mit den Gletschern sondern ebenso mit der Biosphäre verbunden ist der<br />

Wasserkreislauf als Forschungsgebiet der Hydrologie. Hierzu gehören die regionale und globale<br />

Bestimmung von Niederschlag und Verdunstung (Feuchtebilanz), insbesondere auch die<br />

Frage, welche Merkmale diese Niederschlagsmuster bestimmen. Interessant ist hier der tropische<br />

Regenwald, da er über dem Festland die größten Niederschlagsmengen erhält. Der<br />

Wasserkreislauf beeinflusst jedoch über die regionale Niederschlagsverteilung nicht nur die<br />

10 Heutige Vorstellungen über die Entwicklung des Planetensystems gehen davon aus, dass Atmosphäre<br />

und Hydrosphäre durch Vulkanismus aus der noch heißen, jungen Erdkugel entstanden sind; die sich dabei<br />

ausbildende Uratmosphäre war ursprünglich völlig lebensfeindlich – zumindest für heutiges Leben. Die<br />

Cyanobakterien als die ersten Lebensformen begannen dann jedoch, die Atmosphäre zu verändern, so dass<br />

sich in einem ca. 3.8 Milliarden Jahre dauernden Wechselspiel zwischen Leben und Atmosphäre die heutige<br />

Atmosphäre entwickelt hat. Die größte Umweltverschmutzung war demnach der Übergang des Lebens vom<br />

Meer auf das Land: die Uratmosphäre enthielt keinen Sauerstoff und damit auch kein Ozon, so dass biologische<br />

Materie an Land sofort durch die solare UV-Strahlung zerstört wurde. Erst als die Pflanzen im Wasser<br />

soviel Sauerstoff ausgeatmet hatten, dass sich eine dünne Ozonschicht bilden konnte, konnten sie auch die<br />

Landflächen besiedeln und durch erhöhte Bioproduktivität den Sauerstoff in die Atmosphäre eintragen und<br />

damit die Ozonschicht ermöglichen, die zur Entwicklung höherer Lebewesen erforderlich war.<br />

c○ M.-B. Kallenrode 2. Juli 2008


214 KAPITEL 4. BEISPIELE FÜR MISSIONEN<br />

Abbildung 4.6: Modell des Systems Erde und der auf Zeitskalen von Jahrzehnten und Jahrhunderten<br />

wichtigen Prozesse [202]<br />

2. Juli 2008 c○ M.-B. Kallenrode


4.8. MISSION TO PLANET EARTH 215<br />

Biosphäre (Versteppung bei Wassermangel, erhöhte Produktion an Biomasse bei ausreichend<br />

Wasser, aber auch Schäden bei Wasserüberschuss) sondern auch über die Erosion den geochemischen<br />

Kreislauf und über die Bildung von Schnee-, Eis-, und Wasserflächen die Strahlungsbilanz<br />

und damit auch die Temperatur der Erde; letzteres gilt ebenso für die Bewölkung<br />

und die Bedeutung der unterschiedlichen Wolken für die Strahlungsbilanz der Erde [92, 191].<br />

Verdunstung und Niederschlag sind gleichzeitig für einen Teil des Wärmetransports verantwortlich.<br />

§ 697 In direktem Zusammenhang damit steht die Atmosphärenforschung. Wesentliche Ziele<br />

sind das Verständnis der großräumigen Zirkulationsmuster, sowie der Bewölkung und der<br />

Luftfeuchtigkeit. Zusätzliche Bedeutung gewinnen in der Atmosphärenforschung immer mehr<br />

die Abschätzungen der Auswirkungen anthropogener Einflüsse. Dazu zählen insbesondere<br />

Messungen der Konzentration und Höhenverteilung von Ozon, Aerosolen und CO2 sowie<br />

anderer klimarelevanter Spurengase. Gerade die Atmosphäre kann nicht als isoliertes System<br />

betrachtet werden, sondern steht in vielfältiger Wechselwirkung mit allen anderen Systemen,<br />

z.B. durch Eintrag von Aerosolen bei Vulkanausbrüchen (Wechselwirkung mit der<br />

Lithosphäre), klimatische Auswirkungen des Eintrages von Wasser in Form von Wolken oder<br />

Wasserdampf (WeWi mit der Hydrosphäre), Veränderung von Verdunstung und Zirkulation<br />

in Gegenwart großer Eisflächen (Kryosphäre), und nicht zuletzt die Wechselwirkung mit<br />

der Biosphäre (Senken für CO2, Quellen für O2, Veränderung der bodennahen Winde durch<br />

Veränderung des Bodenbewuchses).<br />

§ 698 Damit kommen wir zum letzten entscheidenden Bestandteil des Systems Erde, der<br />

Biosphäre. Die direktesten Anwendungen von Satellitenbeobachtungen auf die Biosphäre liegen<br />

in der Forst- und Landwirtschaft, hier insbesondere in Überblicken über Flächennutzung<br />

und den Zustand der Vegetation (Reifezustand ebenso wie Schädigungen, s.o.). Die wichtigste<br />

Anwendung von Satellitenbeobachtungen der Biosphäre dürfte in den globalen Fragen<br />

liegen, z.B. nach der Biomasse insgesamt, insbesondere auch dem Plankton im Meer, das<br />

für die Speicherung von CO2 eine nicht unerhebliche Rolle spielt. Aber auch einzelne Organismenfamilien<br />

können vom Satelliten aus kartographiert werden, so dass diese eventuell als<br />

Bioindikatoren für Auswirkungen von Klimaänderungen dienen können oder durch auffälliges<br />

Verhalten auf bisher nicht beachtete Zusammenhänge im System Erde hinweisen können. Als<br />

Beispiel für diese Indikatorfunktion sei der Rückgang des Phytoplanktons in der Nähe der<br />

Antarktis aufgrund des Ozonloches erwähnt. Dies ist einerseits der erste direkte Hinweis auf<br />

die Folgen des Ozonlochs für die Biosphäre, andererseits wird hieran auch eine Kopplung<br />

der vielen Systeme und ihrer Einflüsse auf das Klima deutlich: Das Ozonloch scheint das<br />

Phytoplankton zu reduzieren, damit wird aber eine CO2-Senke geschwächt, d.h. der Kohlendioxidgehalt<br />

in der Atmosphäre steigt relativ stark → das Ozon trägt demnach (abgesehen<br />

von möglichen direkten Eingriffen in die Strahlungsbilanz der Erde) auch sehr indirekt zum<br />

Treibhauseffekt bei.<br />

§ 699 Die Kentnisse derartiger Zusammenhänge und die Messungen von Konzentrationen<br />

und Flüssen sind für die Güte unserer Klimamodelle von entscheidender Bedeutung, vgl.<br />

dazu den Artikel von Bolle [27], der ausführlich auf die Probleme und Defizite von Klimamodellen<br />

eingeht, ebenso wie die Artikel von Schneider [214] und White [252]. Diese Klimasimulationen<br />

rücken zunehmend in das Blickfeld, da zwar allmählich allgemein akzeptiert<br />

wird, dass ein CO2-Anstieg in der Atmosphäre zu globaler Erwärmung führen wird, jedoch<br />

können die Folgen einer derartigen Erwärmung möglicherweise völlig unerwartet ausfallen.<br />

So sind in letzter Zeit einige neuere Modellrechnungen aufgetaucht, die z.B. für Europa eine<br />

neue Eiszeit infolge des Treibhauseffektes prophezeien, da die anfangs geringe Erhöhung der<br />

Temperatur die globalen Zirkulationssysteme derart verändern würde, dass der Golfstrom<br />

nach Süden abgelenkt wird. Damit wird Europa aber eine entscheidende Wärmequelle entzogen,<br />

der Schnee der dann kälteren Winter würde länger liegen bleiben, damit aber auch<br />

die Albedo erhöhen und so zu einer weiteren Abkühlung führen (es wird mehr reflektiert,<br />

also weniger absorbiert). Der Effekt wäre, dass Europa innerhalb größenordnungsmäßig ei-<br />

c○ M.-B. Kallenrode 2. Juli 2008


216 KAPITEL 4. BEISPIELE FÜR MISSIONEN<br />

Abbildung 4.7: Großer Aletsch-Gletscher (links, [452]) und Mt. St. Helens (rechts, [661])<br />

gesehen mit ASTER auf Terra<br />

nes Jahrhunderts vergletschern könnte (z.B. [103, 126] und Zitate darin; die offiziellen und<br />

aktuellen Aussagen liefert dazu natürlich das IPCC [106]).<br />

4.8.2 Earth Observing System EOS – Planung<br />

§ 700 Das hierfür erforderliche System von Beobachtungssatelliten und Instrumenten gliederte<br />

sich in den ursprünglichen Planungen zwei Teile, die geplanten EOS-Satelliten (Earth<br />

Observing System [10]), die alleine jeweils 28 Instrumente tragen sollten, sowie viele Einzelmissionen<br />

unter verschiedenen Gesichtspunkten. Dazu gehören auch Beobachtungen vom<br />

Space Shuttle aus.<br />

§ 701 Die beiden EOS Satelliten, ursprünglich EOS-A und EOS-B, heißen heute Terra und<br />

Aqua. Beide befinden sich in polaren Umlaufbahnen. Die Plattformen sollten in der ursprünglichen<br />

Planung eine Länge von 16 m und eine Breite von 4 m haben, das Gewicht<br />

sollte bei 14 t liegen. Die Instrumentation für EOS-A wurde zuerst festgelegt, die Instrumentation<br />

von EOS-B wurde anfangs nicht festgelegt: je nach den Erfahrungen mit EOS-A<br />

sollte der zweite Satellit entweder eine identische Instrumentierung bekommen oder aber nach<br />

völlig anderen Fragestellung ausgerüstet werden.<br />

§ 702 Die Instrumente auf EOS-A sind ursprünglich geplant für die Untersuchung der folgende<br />

Fragestellungen:<br />

• hydrologischer Zyklus (Verdunstung, Niederschlag, Transport von Wasserdampf, Wolken)<br />

• Strahlungsbilanz und Oberflächentemperaturen,<br />

• atmosphärische Zirkulation,<br />

• biologische Aktivität und Ökosystem,<br />

• Oberflächenmineralogie.<br />

§ 703 Für den Fall, dass EOS-B keine zu EOS-A identische Instrumentierung erhält, wurden<br />

für ihn Instrumente mit folgenden Messaufgaben geplant:<br />

• Stratosphäre: Ozon, Chemie, und Wind<br />

• globale Beobachtung der troposphärischen Chemie,<br />

• ozeanische und atmosphärische Zirkulation, insbesondere Oberflächenwinde,<br />

• Glaziologie,<br />

• Erdbeben.<br />

2. Juli 2008 c○ M.-B. Kallenrode


4.8. MISSION TO PLANET EARTH 217<br />

Abbildung 4.8: CERES Werbeposter [400]<br />

§ 704 Das Gesamtsystem zur Erdbeobachtung wird noch um europäische und japanische<br />

Plattformen erweitert, die Informationen bereitstellen sollen über<br />

• atmosphärische Zusammensetzung, Wasserdampf, Wolken und Aerosole<br />

• Vorkommen von Mineralien und Pflanzenarten für Geologie, Land- und Forstwirtschaft,<br />

• Temperatur der Meeresoberfläche und Windsysteme.<br />

§ 705 Die auf diesen Satelliten zu verwendenden Instrumente gehören einer ganz anderen<br />

Generation an als die bisher diskutierten Instrumente (z.B. LandSat). Für einige der ursprünglich<br />

für EOS-A geplanten Instrumente wurde in Abschn. 3.6 eine kurze Übersicht über<br />

die Aufgaben und Fähigkeiten gegeben.<br />

4.8.3 Earth Observing System EOS – Realität<br />

§ 706 Die EOS-Plattformen wurden nie in der ursprünglich geplanten – und bei kritischem<br />

Hinsehen auch völlig überdimensionierten Form – realisiert. Als abgespeckte Varianten wurden<br />

die Satelliten Terra und Aqua als Rückgrat von EOS gestartet; der A-Train bildet das<br />

Rückgrat für die Atmosphärenforschung. Eine populäre Übersicht mit Links und Beispielen<br />

gibt [409].<br />

Terra<br />

§ 707 Terra [617] ist das Flagschiff oder die Hauptmission von EOS. Terra, ursprünglich<br />

EOS-1 oder EOS-AM, wurde am 18. Dezember 1999 in eine ca. 700 km hohe sonnensynchrone<br />

Bahn mit einer Inklination von 98.8 ◦ gestartet. Seine ursprünglich geplante Lebensdauer<br />

von 6 Jahren hat Terra erreicht; der Satellit ist auch heute noch aktiv – er muss es auch<br />

c○ M.-B. Kallenrode 2. Juli 2008


218 KAPITEL 4. BEISPIELE FÜR MISSIONEN<br />

sein, da die zuarbeitenden Missionen teilweise noch nicht gestartet sind. Im Gegensatz zu<br />

den ursprünglichen, ambitionierten Planungen der NASA ist Terra kein rein amerikanischer<br />

Satellit. Auf der Terra Homepage [617] heißt es entsprechend:<br />

Terra is a multi-national, multi-disciplinary mission involving partnerships with the<br />

aerospace agencies of Canada and Japan. Managed by NASA’s Goddard Space Flight<br />

Center, the mission also receives key contributions from the Jet Propulsion Laboratory<br />

and Langley Research Center. Terra is an important part of NASA’s Science<br />

Mission, helping us better understand and protect our home planet.<br />

Wichtig ist natürlich der alles rechtfertigende letzte Satz.<br />

§ 708 Terra ist mit fünf Instrumenten ausgestattet, deren Eigenschaften speziellen Fragestellungen<br />

angepasst sind:<br />

• ASTER (Advanced Spaceborne Thermal Emission and Reflection Radiometer [451], siehe<br />

auch § 558) nimmt hochauflösende Bilder in 14 Kanälen vom sichtbaren Licht bis in die<br />

thermische Infrarotstrahlung auf. Die Auflösung beträgt etwa 15 bis 90 Meter pro Bildpunkt.<br />

Daraus können Seehöhe, Oberflächentemperatur, Reflektivität und Emissivität des<br />

betrachteten Landteils abgeleitet werden. Das Instrument wurde in Japan gebaut; ASTER-<br />

Bilder können außer auf der Instrumentenhomepage z.B. auch bei [620, 662] eingesehen<br />

werden; Beispiele mit Erläuterungen sind auch in Abb. 3.99–3.101 und Abb. 4.7 gegeben.<br />

• CERES (Clouds and the Earth’s Radiant Energy System [399]) bestimmt den gesamten<br />

Wärmefluss von beziehungsweise zur Erde und liefert Informationen über die Beschaffenheit<br />

der Wolken. An Bord von Terra befinden sich zwei CERES-Instrumente, eines davon<br />

beobachtet immer gerade in Richtung Erde, während das andere schwenkbar ist. CERES<br />

Instrumente befinden sich auch auf Aqua [413] und TRMM [431].<br />

• MISR (Multi-angle Imaging Spectro-Radiometer [319, 465]) besteht aus 9 Kameras [466]<br />

mit jeweils 4 Spektralbändern (blau, grün, rot, nahes Infrarot); die Kameras beobachten<br />

die Erde unter verschiedenen Winkeln. Je nach Blickrichtung lassen sich damit unterschiedliche<br />

Fragestellungen untersuchen – außerdem lassen sich Stereo Aufnahmen erstellen. Das<br />

Instrument untersucht die Streuung des Sonnenlichts, Wolken, Aerosole und die Vegetation.<br />

• MODIS (MODerate-resolution Imaging Spectroradiometer, siehe auch § 557) [321, 502]<br />

hat eine relativ geringe Auflösung und arbeitet mit 36 Kanälen. Es dient zur Erkennung<br />

großräumiger Änderungen in der Biosphäre; Abb. 4.9 zeigt ein auf die Kryo- und Atmosphäre<br />

bezogenes Beispiel.<br />

• MOPITT (Measurements of Pollution in the Troposphere [322, 691], siehe auch § 526)<br />

misst die Konzentration von Methan und Kohlenstoffmonoxid in der Troposphäre mittels<br />

Gas-Korrelations-Spektroskopie.<br />

§ 709 Ein Beispiel für eine MODIS Aufnahme ist in Abb. 4.9 gegeben. Die von [617] mit<br />

gelieferte Erklärung macht deutlich, dass Wolken in der <strong>Erdfernerkundung</strong> nicht zwingend<br />

störend sind sondern mal wieder frei nach dem Motto ’its not a bug, its a feature’ zusätzliche<br />

Information liefern:<br />

The Caspian Sea and the surrounding landscape were swathed in winter white on<br />

January 10, 2008, when this image was captured by the Moderate Resolution Imaging<br />

Spectroradiometer (MODIS) on NASA’s Terra satellite. A thin layer of snow covered<br />

the ground in Russia and Kazakhstan; the Volga River and its distributaries were<br />

white ribbons; and a rim of solid ice clung to the shoreline. The northern part of the<br />

sea is more likely to freeze than the southern for several reasons: it is shallower, it<br />

experiences a more continental climate (colder winter), and it is less salty.<br />

South of the loosely packed ice in the northern part of the sea, parallel rows of clouds<br />

line up along the north-south axis of the wind. These “streets” of clouds form when<br />

cold air blows over the warmer, moister air that sits over the water. When the air<br />

over the water is stable, the arriving wind can generate evenly spaced cylinders of<br />

2. Juli 2008 c○ M.-B. Kallenrode


4.8. MISSION TO PLANET EARTH 219<br />

Aqua<br />

Abbildung 4.9: Kaspisches Meer von<br />

MODIS auf Terra aufgenommen [617]<br />

spinning air—horizontal roll vortices. These vortices line up with the direction of the<br />

prevailing winds like spinning straws. Clouds form above the “upstroke” part of the<br />

spin, where air is rising. Above the “downstroke” side of the spin, where air is sinking,<br />

the skies are clear.<br />

§ 710 Aqua, ursprünglich EOS-B oder EOS-PM, wurde als zweiter der großen Satelliten<br />

im Rahmen von EOS am 4. Mai 2002 gestartet. Auch er bewegt sich auf einer polaren<br />

sonnensynchronen Bahn in einer Höhe von ca. 680 km bei einer Inklination von 98.2 ◦ .<br />

§ 711 Wie der Name Aqua nahe legt, steht Wasser in jedweder Form im Fokus dieser Mission.<br />

Dazu gehört nicht nur das Wasser an der Erdoberfläche sondern ebenso Wasser(dampf) in<br />

der Atmosphäre. Für diese Untersuchungen ist Aqua mit sechs Instrumenten bestückt:<br />

• der Atmospheric Infrared Sounder AIRS [305, 450], siehe auch § 559, zur Messung von<br />

Temperatur und Feuchtigkeit in der Atmosphäre sowie von Land- und Wasser-Oberflächentemperaturen.<br />

Auch Spurengase wie CO lassen sich mit AIRS messen, siehe Abb. 4.10.<br />

• die Advanced Microwave Sounding Unit AMSU-A [307, 624, 415], siehe auch § 561, zur<br />

Messung von Feuchtigkeit und Temperatur in der Atmosphäre.<br />

• der Humidity Sounder for Brazil HSB [412] ist ähnlich dem AMSU-B Instrument und sollte<br />

Wasserdampfprofile der Atmosphäre messen um vernünftige Algorithmen zur Interpretation<br />

von AIRS zu entwickeln. Der Scanner setzte am 5. Februar 2003 aus.<br />

• das Advanced Microwave Scanning Radiometer for EOS AMSR-E [306, 414], siehe auch<br />

§ 560, untersucht die Eigenschaften der Wolken, Meeres-Oberflächentemperaturen, Windgeschwindigkeiten<br />

nahe der Meeresoberfläche sowie Schnee und Eis. Infos als pdf zum<br />

Download auch unter [488].<br />

• das Moderate Resolution Imaging Spectroradiometer MODIS [321, 502] wie auf Terra.<br />

c○ M.-B. Kallenrode 2. Juli 2008


220 KAPITEL 4. BEISPIELE FÜR MISSIONEN<br />

Abbildung 4.10: CO-Säule in der Atmosphäre,<br />

gemessen von AIRS auf<br />

Aqua [416]. Der hohe CO-Gehalt über<br />

dem Amazonas und im südlichen Afrika<br />

entsteht durch Brandrodung<br />

Abbildung 4.11: A-Train Konfiguration zur 3D Darstellung der Atmosphäre [494]<br />

• das Clouds and the Earth’s Radiant Energy System CERES, [399] ebenfalls von Terra<br />

bekannt und wie dort mit zwei Sensoren vertreten.<br />

A-Train<br />

§ 712 A-Train ist eine Folge von sechs Satelliten in sonnensynchronen Orbits mit einer<br />

Flughöhe von ca. 680 m. Diese sind jeweils um wenige Minuten gegen einander versetzt,<br />

so dass sich ein echtes 3D-Abbild der Atmosphäre erzeugen lässt; siehe auch Abb. 4.11. Die<br />

Konfiguration besteht z.Z. aus den Satelliten Aqua [413], Aura [417], CloudSat [279, 495],<br />

PARASOL [281] und CALIPSO [280, 625]; in diesem Jahr soll OCO [467] hinzu kommen.<br />

§ 713 Aura [417] wurde am 15. Juli 2004 gestartet. An Bord befinden sich vier Instrumente:<br />

• HIRDLS (High Resolution Dynamic Limb Sounder [314, 418]) misst die Infrarotstrahlung<br />

von Ozon, Wasserdampf, Chlorfluorkohlenwasserstoffen, Methan und verschiedenen Stickstoffverbindungen.<br />

• MLS (Microwave Limb Sounder [320, 419]) misst die von verschiedenen Spurengasen abgegebene<br />

Mikrowellenstrahlung.<br />

• OMI (Ozone Monitoring Instrument [323, 420]) arbeitet im sichtbaren und ultravioletten<br />

Bereich des elektromagnetischen Spektrums und liefert hochaufgelöste Bilder der globalen<br />

Ozonverteilung, von anderen Spurengasen und von Aerosolen.<br />

• TES (Tropospheric Emission Spectrometer [326, 421]) misst die Konzentration von bodennahem<br />

Ozon und anderen Spurengase durch ihre Infrarotemissionen.<br />

2. Juli 2008 c○ M.-B. Kallenrode


4.8. MISSION TO PLANET EARTH 221<br />

§ 714 PARASOL (Polarization & Anisotropy of Reflectances for Atmospheric Sciences coupled<br />

with Observations from a Lidar [281]) wurde zur Untersuchung von Aerosolen und<br />

Wolken entwickelt und am 18. Dezember 2004 gestartet. Als Mikrosatellit trägt PARASOL<br />

nur ein Instrument, ein bildgebendes Radiometer/Polarimeter mit großem Blickwinkel (POL-<br />

DER: Polarization and Directionality of the Earth’s Reflectances). PARASOL dient insbesondere<br />

dem Abgleich mit CALIPSO-Messungen.<br />

§ 715 CALIPSO [280, 625] wurde am 28. April 2006 gestartet. CALIPSO trägt drei Instrumente<br />

[626]:<br />

• Cloud-Aerosol Lidar with Orthogonal Polarization CALIOP ist ein LIDAR (und damit ein<br />

aktives Instrument) zur Bestimmung hoch aufgelöster vertikaler Profile von Wolken und<br />

Aerosolen.<br />

• Die Wide Field Camera WFC ist eigentlich nur eine modifizierte Version eines kommerziellen<br />

Star-Trackers. Sie wurde ausgewählt, da sie gut mit Band 1 von MODIS auf dem<br />

Aqua Satelliten vergleichen werden kann.<br />

• Das Imaging Infrared Radiometer IIR wird zur Beobachtung von Cirrus-Wolken und atmosphärischen<br />

Teilchen verwendet. CALIOP ist jeweils auf das Zentrum des IIR-Blickfeldes<br />

ausgerichtet.<br />

§ 716 CloudSat [279, 495] dient der Erforschung von Wolken und Aerosolen. Das einzige Instrument<br />

des Satelliten ist das Cloud Profiling Radar CPR. Letzteres leitet sich von typischen<br />

meteorologischen Wolkenradars sowie bereits auf Flugzeugen eingesetzten Instrumenten ab.<br />

§ 717 Der letzte, noch fehlende Satellit im A-Train ist das Orbiting Carbon Observatory<br />

OCO [467] (Start vorgesehen für Dezember 2008). Sein Ziel ist ein genaues CO2-Inventar der<br />

Atmosphäre; dazu gehört auch ein Abgleich mit AIRS auf Aqua. OCO ist Bestandteil des<br />

NASA’s Earth System Science Pathfinder ESSP [410] Program.<br />

Literatur<br />

§ 718 Alles was kreucht und fleucht oder gekreucht und gefleucht hat oder (vielleicht) einmal<br />

kreuchen und fleuchen soll ist in Kramer [134] beschrieben, für die einzelnen Missionen finden<br />

sich auf den entsprechenden Homepages weitere Literaturhinweise. Und Wikipedia hilft auch<br />

hier weiter – und sei es nur, um de Links zu den entsprechenden Missionen oder Instrumenten<br />

zu finden.<br />

c○ M.-B. Kallenrode 2. Juli 2008


Kapitel 5<br />

Die erweiterte Perspektive: CAWSES<br />

Empty space is like a kingdom, and heaven and earth no more<br />

than a single individual person in that kingdom ... how unreasonable<br />

it would be to suppose that besides the heaven and earth<br />

which we can see there are no other heavens and no other earths.<br />

Tang Mu, 13. Jahrh.<br />

§ 719 Auf den POES Satelliten der NOAA (siehe Abschn. 4.3) fliegen zwei bisher nicht<br />

näher betrachtete Instrumete, der Space Environment Monitor SEM-2 [577] und das Flat<br />

Plate Radiometer FPR [520]. Beide dienen nicht der <strong>Erdfernerkundung</strong> in dem Sinne, dass<br />

sie die Erdoberfläche oder die Atmosphäre untersuchen. Sie dienen jedoch der Erderkundung:<br />

SEM liefert Informationen über eine energiereiche Teilchen als eine Quelle von Änderungen<br />

in der Atmosphäre (z.B. Ozonabbau); die FPRs erlauben eine globale Strahlungsbilanz erlauben,<br />

d.h. den Vergleich der von der Erde emittierten und der von der Erde empfangenen<br />

elektromagnetischen Strahlung.<br />

§ 720 Der letzte Punkt weist darauf hin, dass das System Erde–Atmsophäre nicht abgeschlossen<br />

ist; stattdessen ist die Sonne die Quelle von Licht und Wärme und damit einerseits<br />

der Motor, der die gesamte Dynamik von Ozeanen und Atmosphäre treibt und andererseits<br />

auch der Motor, der Leben (Photosynthese) erst ermöglicht. Das Programm Climate And<br />

Weather in the Sun–Earth System CAWSES [273, 274] untersucht diese Zusammenhänge in<br />

verschiedenen internationalen Kollaborationen genauer.<br />

§ 721 Um die Zusammenhänge zwischen Sonne und Erde zu verstehen, müssen wir jedoch<br />

erst einmal die treibende Kraft, die Sonne, und ebenso die Vermittlungswege, den interplanetaren<br />

Raum, verstehen. Auch ein Blick auf die und ein Vergleich mit den anderen Planeten<br />

kann zum Verständnis der Solar–Terrestrischen Beziehungen hilfreich sein. Diese Bereiche<br />

werden im wesentlichen mit Satelliten erforscht, jedoch werden neben remote sensing auch<br />

in-situ Messungen vorgenommen.<br />

5.1 Das nahe Erdumfeld<br />

§ 722 Einen kurzen Einblick in das nahe Erdumfeld haben wir bereits in Abschn. 3.1.1 und<br />

3.1.2 erhalten. In diesem Abschnitt werden wir als Ergänzung zu dem für global change wichtigen<br />

Aspekt der Strahlungsbilanz der Erde auch die Magnetosphäre und die energiereichen<br />

Teilchen genauer betrachten – letztere greifen zumindest in hohen Breiten über Anregung<br />

und Ionisation auch in die Chemie der Atmosphäre ein. Die stärkste treibende Kraft auf die<br />

Atmosphäre ist jedoch die Sonne.<br />

222


5.1. DAS NAHE ERDUMFELD 223<br />

5.1.1 Die Strahlungsbilanz<br />

§ 723 Anthropogener Treibhauseffekt, Klimaverädenrungen usw. werden viel diskutiert. Aber<br />

selbst eine reine CO2-Atmosphäre könnte zu einem eisigen Planeten führen, wenn die Einstrahlung<br />

zu gering ist. Oder kurz: die treibende und Temperatur bestimmende Kraft ist<br />

die Solarkonstante S⊙, der von der Sonne emittierte Strahlungsstrom gemessen am Ort der<br />

Erde. Die Zusammensetzung der Atmosphäre bestimmt lediglich, welcher Anteil der Strahlungsenergie<br />

ungenutzt reflektiert wird und welcher durch einen Treibhauseffekt recycliert<br />

der Erde nochmals zugeführt wird und somit zur Erwärmung beiträgt.<br />

§ 724 Für alle Abschätzungen von Klimaänderungen bzw. der Untersuchung beobachteter<br />

Klimaänderungen ist daher die Kenntnis der Solarkonstante von Bedeutung. Insbesondere<br />

stellt sich die Frage: die Sonne ist ein variabler Stern, angezeigt z.B. durch die Sonnenflecken<br />

– ist der von der Sonne emittierte Strahlungsstrom vielleicht geringer, wenn es viele Flecken<br />

gibt? Dann wäre die Solarkonstante nicht konstant.<br />

§ 725 Diese Frage lässt sich nur mit Hilfe von Satelliten untersuchen: zum einen, da sich der<br />

Strahlungsstrom nur oberhalb der stark in die Strahlungsbilanz eingreifenden Atmosphäre<br />

messen lässt. Zum anderen, da sich Änderungen von Parametern natürlich nur durch langdauernde<br />

Messungen entdecken lassen – die Sonnefleckenzahl variiert mit einem ungefähr 11<br />

Jahre dauernden Zyklus, d.h. eine sinnvolle Messung muss über mindestens 11 Jahre erfolgen.<br />

Das Problem<br />

§ 726 Die Erde empfängt elektromagnetische Strahlung von der Sonn; und sie emittiert auf<br />

Grund ihrer Temperatur elektromagnetische Strahlung. Da sich die Erde weder erwärmen<br />

noch abkühlen soll, muss die absorbierte Strahlung gleich der emittierten Strahlung sein:<br />

qin = qout.<br />

§ 727 Der von der Erde absorbierte Strahlungsstrom ist bestimmt durch die Solarkonstante<br />

S⊙, d.h. den von der Sonne emittierten Strahlungsstrom am Ort der Erde. Von diesem Strahlungsstrom<br />

wird der durch die Albedo A beschriebene Anteil von Wolken, Atmosphäre und<br />

Erdoberfläche direkt in den Weltraum zurück reflektiert, d.h. zur Absorption steht nur der<br />

Anteil (1 − A)S⊙ zur Verfügung. Dieser Strahlungsstrom wird über die Querschnittsfläche<br />

πR 2 E absorbiert. daher ist qin = (1 − A)S⊙πR 2 E .<br />

§ 728 Gleichzeitig emittiert die Erde einen Strahlungsstrom, der dem eines schwarzen Strahlers<br />

mit einer Effektivtemperatur Teff entspricht; gemäß Stefan–Boltzmann Gesetz also σT 4 eff .<br />

Da die Temperaturunterschiede zwischen Tag- und Nachtseite vergleichsweise gering sind,<br />

erfolgt die Emission in erster Näherung gleichmäßig über die gesamte Erdoberfläche 4πR 2 E<br />

mit der einheitlichen Effektivtemperatur. Daher ist qout = 4πR2 EσT 4 eff . Im Gleichgewicht gilt<br />

damit<br />

(1 − A)S⊙πR 2 E = 4πR 2 EσT 4 eff .<br />

Im Gleichgewicht ergibt sich die Effektivtemperatur<br />

Teff = 4<br />

�<br />

(1 − A)S⊙<br />

. (5.1)<br />

4σ<br />

§ 729 Mit der nominellen Solarkonstante von S⊙ = 1367 W/m 2 und einer mittleren Albedo<br />

A = 0.3 ergibt sich eine Effektivtemperatur von ca. 250 K. Dieser Wert liegt um mehr als 30 K<br />

unter der beobachteten mittleren Temperatur von 8 ◦ C. Die Differenz wird als der natürliche<br />

Treibhauseffekt bezeichnet. Der Unterschied ist durch das einfache Modell begründet. Unsere<br />

Abschätzung der Effektivtemperatur berücksichtigt keine Atmosphäre, abgesehen von dem<br />

in der Albedo enthaltenen Anteil der an der Atmosphäre reflektierten solaren Einstrahlung.<br />

c○ M.-B. Kallenrode 2. Juli 2008


224 KAPITEL 5. DIE ERWEITERTE PERSPEKTIVE: CAWSES<br />

§ 730 Aber ist das Modell damit falsch? Falsch ist nur unser Vergleich mit der mittleren<br />

Bodentemperatur. Das Gleichgewicht aus Ein- und Ausstrahlung muss an der Oberkante des<br />

Systems Erde–Atmosphäre erfüllt sein, d.h. ein Beobachter im Weltraum sollte aus dem von<br />

der Erde emittierten Strahlungsstrom eine Effektivtemperatur von ca. 250 K abschätzen.<br />

Wenn der Beobachter über ein hinreichend gutes Teleskop verfügt, wird er aber auch sehen,<br />

dass sich ein relativ großer Anteil des Erdbodens seiner Beobachtung entzieht, da er unter<br />

Wolken verborgen ist. 1 Daher kann der Beobachter aus seiner Messung keine Aussagen über<br />

die Bodentemperatur der Erde machen.<br />

§ 731 Auch die Wärmeströme am Erdboden zeigen an, dass die Bodentemperatur nicht<br />

gleich der Effektivtemperatur sein sollte: der Boden gibt Wärme ab durch Abstrahlung, durch<br />

Konvektion und durch den Transport latenter Wärme. 2 Alle drei Prozesse führen dazu, dass<br />

sich die Atmosphäre erwärmt. Diese strahlt aber ihrerseits gemäß Stefan–Boltzmann. Von<br />

dieser Strahlung gelangt ein Teil in die höheren Atmosphärenschichten und damit nach außen,<br />

ein Teil wird jedoch vom Erdboden absorbiert und führt zu dessen weiterer Erwärmung. Der<br />

erste Teil ist der, der zur Effektivtemperatur beiträgt, der letztere Teil ist der Treibhauseffekt.<br />

§ 732 Um den Einfluss der Atmosphäre und insbesondere der im Rahmen des global change<br />

diskutierten treibhauswirksamen Spurengase auch quantitativ zu verstehen, ist eine genaue<br />

Untersuchung der Strahlungsbilanz notwendig. Dazu gehört neben der Messung der Konzentrationen<br />

und Verteilungen von Spurengasen und Temperaturen durch Sounder (siehe<br />

Abschn. 3.5) auch eine genaue Kenntnis der Albedo A und der Solarkonstante S⊙.<br />

§ 733 Seit 1978 werden Satelliteninstrumente zur Messung der Solarkonstanten außerhalb<br />

der störenden Erdatmosphäre verwendet. Entsprechende Instrumente befinden sich z.B. auf<br />

den amerikanischen Wettersatelliten der Nimbus-Serie (seit 1978 [558]) sowie auf der Solar<br />

Maximum Mission (SMM, 1980-1989 [493, 442, 490]) und auf ERBS (Earth Radiation Budget<br />

Satellite [514]). Diese Instrumente erlauben durch zusätzliche Messung der terrestrischen<br />

Ausstrahlung eine Überprüfung der Strahlungsbilanz der Erde. Im Rahmen der Messgenauigkeiten<br />

sind dabei Ein- und Ausstrahlung gleich, d.h. die Strahlungsbilanz der Erde ist<br />

ausgeglichen, wie wir es bei der Herleitung von (5.1) angenommen haben.<br />

Messverfahren<br />

§ 734 Die Solarkonstante ist der gesamte von der Sonne emittierte Strahlungsstrom. das<br />

solare Spektrum lässt sich annähern durch eine Planck-Kurve für einen schwarzen Strahler<br />

mit einer Temperatur von 6000 K. Die solare elektromagnetische Strahlung lässt sich in fünf<br />

Wellenlängenbereiche einteilen. Diese haben teilweise unterschiedliche Entstehungsorte und<br />

-mechanismen auf der Sonne und liefern unterschiedliche Beiträge zum gesamten Energiefluss<br />

der Sonne:<br />

• Röntgenstrahlung und extremes Ultraviolett (EUV) mit Wellenlängen unter 1800 ˚A tragen<br />

ungefähr 10 −3 % zum Energiefluss der Sonne bei. Sie entstehen in der Korona bzw. in der<br />

Chromosphäre.<br />

• Ultraviolett (UV) mit Wellenlängen zwischen 1800 und 3500 ˚Aträgt zu 9% zum Energiefluss<br />

bei und entsteht in der Photosphäre und in der Korona.<br />

• sichtbares Licht zwischen 3500 und 7500 ˚Aträgt mit 40% zum Energiefluss bei. Es entsteht<br />

in der Photosphäre, genauso wie die<br />

1 Die Venus ein Musterbeispiel für den Unterschied zwischen der Effektivtemperatur und der Bodentemperatur.<br />

Zwar befindet sich die Venus näher an der Sonne als die Erde, sie reflektiert auf Grund ihrer großen<br />

Albedo von ca. 0.65 jedoch eine großen teil der einfallenden Strahlung – daher ist die Venus so hell. Aus der<br />

Strahlungsbilanz ergibt sich ebenfalls eine Effektivtemperatur von ca. 250 K – bei einer Bodentemperatur<br />

von 460 ◦ C.<br />

2 Der Transport latenter Wärme ist wie die Konvektion an die Bewegung von Materie gebunden. Ist die<br />

Luft vollständig trocken, so ist Konvektion der einzige Wärmetransport, abgesehen vom Strahlungstransport.<br />

Enthält die Luft dagegen Wasserdampf, so kann dieser auf Grund der mit der Abkühlung der aufsteigenden<br />

Luft kondensieren. Die latente Wärme ist die bei diesem Phasenübergang frei werdende Kondensationswärme<br />

– und damit das Gegenteil der Verdunstungskälte.<br />

2. Juli 2008 c○ M.-B. Kallenrode


5.1. DAS NAHE ERDUMFELD 225<br />

Abbildung 5.1: Energiespektrum der<br />

solaren Strahlung vor und nach dem<br />

Durchgang durch die Erdatmosphäre.<br />

Die gestrichelte Linie gibt zum Vergleich<br />

die theoretische Energieverteilung<br />

für einen schwarzen Körper mit<br />

der Oberflächentemperatur der Sonne<br />

[251]<br />

• Infrarot-Strahlung (IR, 7500 ˚A bis 10 7˚A), die 51% zum Energiefluss beiträgt.<br />

• Einen extrem geringen Beitrag liefert die Radioemission oberhalb 1 mm (10 −10 %), die wie<br />

die Röntgenstrahlung in der Korona entsteht.<br />

§ 735 Abbildung 5.1 gibt das Energiespektrum der solaren Strahlung für den Bereich UV<br />

bis Infrarot, d.h. die Verteilung der von der Sonne bei bestimmten Frequenzen abgestrahlten<br />

Energie. Die obere durchgezogene Kurve gibt die spektrale Verteilung außerhalb der<br />

Erdatmosphäre, die untere durchgezogene Kurve die am Erdboden gemessene Verteilung.<br />

Die gestrichelte Linie gibt die theoretische spektrale Verteilung für einen schwarzen Körper<br />

mit einer Oberflächentemperatur von 6000 K (in Übereinstimmung mit der oben aus der<br />

Leuchtkraft abgeschätzten Effektivtemperatur) wieder. Abgesehen vom ultravioletten Bereich,<br />

in dem die Sonne anscheinend wesentlich weniger Energie abstrahlt als ein schwarzer<br />

Körper dieser Temperatur, gibt die Beschreibung durch einen schwarzen Strahler die solare<br />

Emission relativ gut wieder.<br />

§ 736 Die am Erdboden ankommende solare Strahlung zeigt in ihrer Energieverteilung die<br />

folgenden Eigenschaften:<br />

• Das Energiemaximum liegt im sichtbaren Spektralbereich bei 500 nm bis 600 nm (grün bis<br />

gelb). Damit stimmt das Energiemaximum der Strahlung mit dem Empfindlichkeitsmaximum<br />

des menschlichen Auges überein (bzw. das Auge hat sich im Laufe der Evolution an<br />

dieses Maximum angepasst).<br />

• Rasche Abnahme der Energie im ultravioletten Bereich durch Absorption in der Ozonschicht<br />

(das ist dem Leben sehr förderlich).<br />

• Im infraroten Bereich gelangt ein großer Teil der solaren Strahlung nicht bis auf den Erdboden<br />

sondern wird bereits in der Atmosphäre absorbiert. Die Absorption erfolgt dabei<br />

hauptsächlich durch Wasserdampf und Kohlendioxid, die Absorber in diesem Bereich sind<br />

die gleichen, die auch die terrestrische Ausstrahlung absorbieren.<br />

Dieser letzte Punkt ist insbesondere für das Verständnis des Treibhauseffektes (wohlgemerkt,<br />

hier ist nicht alleine der durch den Menschen verstärkte Treibhauseffekt gemeint, sondern<br />

der allgemeine Treibhauseffekt).<br />

§ 737 Die Messung der Solarkonstanten entspricht der Messung eines Energiestroms über<br />

einen weiten Bereich von Wellenlängen, wobei die größten Anteile im sichtbaren und Infraroten<br />

liegen. Damit lässt sich die Strahlung nicht über die Effekte individueller Photonen<br />

nachweisen sondern nur über die kollektiven Effekte vieler Photonen, d.h. die Erwärmung<br />

durch Absorption. Das hierfür typischerweise verwendete Messinstrument ist das Bolometer.<br />

Seinen modernen Vetter haben wir bereits im Zusammenhang mit der Messung thermischer<br />

Infrarorstrahlung als Mikrobolometer kennen gelernt (siehe auch $ 442).<br />

§ 738 Im Gegensatz zum Mikrobolometer – und in Übereinstaimmung mit der Fragestellung<br />

– wird vom Bolometer keine Imaging gefordert. Stattdessen wird der Strahlungsstrom über<br />

die empfindliche Fläche des Bolometers integriert.<br />

c○ M.-B. Kallenrode 2. Juli 2008


226 KAPITEL 5. DIE ERWEITERTE PERSPEKTIVE: CAWSES<br />

Abbildung 5.2: Schwankungen<br />

der Solarkonstanten innerhalb<br />

von 155 Tagen zur<br />

Zeit des solaren Maximums<br />

1980. Man erkennt deutlich<br />

den Einfluss von Flecken<br />

auf die Solarkonstante.<br />

Die Gesamtschwankung<br />

liegt nur im Promillbereich<br />

([102] in [263])<br />

§ 739 Ein Standardinstrument zur Messung der Solarkonstanten is der Active Cavity Radiometer<br />

Irradiance Monitor ACRIM [266], geflogen auf Solar Maximum Mission SMM [493],<br />

dem Upper Atmospheric Research Satellite UARS [432] und auf ACRIMSat [449]. Die Kombination<br />

der drei Satelliten erlaubt, abgesehen von einer Lücke in den 1990ern eine kontinuierliche<br />

Messung der Solarkonstanten seit 1980 – das SMM-ACRIM war das erste Instrument,<br />

das die Variabilität der Solarkonstante nachgewiesen hat (siehe auch Abb. 5.3).<br />

§ 740 Als Beispiel sei hier das ACRIM II Instrument [636] auf UARS vorgestellt. Es besteht<br />

aus drei Active Cavity Radiometers (ACR’s) (Type V). Die ACRs sind selbst-kalibirerende<br />

Pyrheliometer mit einer gleichförmigen Empfindlichkeit vom extremen UV bis zum fernen<br />

IR. Das Messprinzip basiert auf einem Vergleich der Erwärmung des Detektors durch den<br />

Gesamtstrahlungsstrom von der Sonne mit der in einem in direktem Kontakt zum Detektor<br />

stehenden Heizelement dissipierten elektrischen Energie. Die Genauigkeit der Messung ist<br />

im wesentlichen durch drei Fehlerquellen bestimmt: die Kenntnis des effektiven Absorptionsvermögens<br />

des Detektors für die einfallende Strahlung, die Kenntnis der aktiven beleuchtetende<br />

Fläche des Detektors und die genaue Definition des Heizelements.<br />

§ 741 Die Messung wird jeweils mit geöffnetem und geschlossenem Shutter durchgeführt: auf<br />

diese Weise kann für die Absorption von Hintergrundstrahlung korrigiert werden. Letztere<br />

ergibt sich im IR durch die von Null verschwindende Tepemratur des Messraumes, in den<br />

anderen Wellenlängenbereichen durch kleine Undichtigkeiten des Gehäuses. Die Dauer eines<br />

Messzylkus aus offenem und geschlossenem Shutter beträgt 131 Sekunden; die Reihenfolge<br />

der Masszyklen ist symmetrisch, um systematische Fehler zu vermeiden. Korrekturen der so<br />

gemessenen Größe erfolgen für die Temperaturabhängigkeit von Sensor und Elektronik, die<br />

Winkel, unter dem die Sonne betrachtet wird, sowie den veränderlichen Abstand zwischen<br />

Sonne und Satellit inklusive der relativen Geschwindigkeit zwischen beiden. Damit soll sich<br />

eine relative Genauigkeit der Tagesmittel der Solarkonstanten von 5 ppm ergeben.<br />

Die Solarkonstante<br />

§ 742 Und wie sieht es mit der Solarkonstanten aus? Würden wir überhaupt eine Änderung<br />

der Solarkonstanten im Laufe des Solarzyklus erwarten? Sollte die Solarkonstante im Maximum<br />

des Zyklus nun zunehmen aufgrund der UV- und Radioemission im Zusammenhang<br />

2. Juli 2008 c○ M.-B. Kallenrode


5.1. DAS NAHE ERDUMFELD 227<br />

Abbildung 5.3: Zeitverlauf<br />

der Sonnenfleckenzahl<br />

(oben) und<br />

der Solarkonstanten<br />

(Mitte) im Zeitraum<br />

von 1978 bis 1989, zur<br />

Erklärung der einzelnen<br />

Kurven vergleiche<br />

Text [146]; im unteren<br />

Teil Fortschreibung der<br />

Kurven bis 2000 [105]<br />

mit solaren Eruptionen (Flares), oder wird die Solarkonstante aufgrund der großen Zahl der<br />

Flecken (sie sind kälter als ihre Umgebung und emittieren daher weniger elektromagnetische<br />

Strahlung) eher geringer?<br />

§ 743 Dazu zeigt Abb. 5.2 die relative Änderung der Solarkonstante, beobachtet über einen<br />

Zeitraum von 155 Tagen (ungefähr die erste Hälfte des Jahres 1980, also in der Nähe des<br />

solaren Maximums). Man erkennt deutlich den Einfluss einzelner Fleckengruppen, die relative<br />

Änderung im solaren Strahlungsfluss entspricht dabei der relativen von den Flecken bedeckten<br />

Fläche der Sonne. Die Gesamtänderung des solaren Flusses beträgt nur wenige Promill. Die<br />

waagerechte Linie entspricht dem mittleren Fluss während des Beobachtungszeitraumes, die<br />

nach oben ausweichenden Zacken geben den maximalen Fluss wieder.<br />

§ 744 Aufgrund der großen Variabilität der Sonne während dieser Zeit ist eine 27-tägige<br />

Periodizität (im Zusammenhang mit der Sonnenrotation) nur schwach zu erahnen. Pfeile<br />

markieren einen willkürlichen 27-Tage Rythmus. Zwar sind stets Maxima der Solarkonstanten<br />

in unmittelbarer Nähe dieser Marker, die Abweichungen sind jedoch zu groß, als dass dieser<br />

Zusammenhang statistisch signifikant wäre. Naheliegendste Erklärung ist das Auftauchen<br />

neuer und das Verschwinden alter Fleckengruppen während dieser Zeiten.<br />

§ 745 Nachdem wir hier Schwankungen der Solarkonstante auf Zeitskalen von Monaten be-<br />

c○ M.-B. Kallenrode 2. Juli 2008


228 KAPITEL 5. DIE ERWEITERTE PERSPEKTIVE: CAWSES<br />

Abbildung 5.4: Solares Spektrum<br />

im Sonnenfleckenminimum<br />

(oben) und Variabiltät<br />

der solaren Ausstrahlung mit<br />

dem Sonnenfleckenzyklus [?]<br />

trachtet haben, wollen wir unsere Betrachtung auf längere Zeitskalen ausdehnen. Abbildung<br />

5.3 zeigt die Zahl der Sonnenflecken (oben) und den Zeitverlauf der Solarkonstanten (Mitte)<br />

für den Zeitraum von 1978–1989. Die Daten für die Solarkonstante sind von verschiedenen Instrumenten<br />

bestimmt; obere Kurve ERB (Earth Radiation Budget) auf Nimbus 7 (seit 1978),<br />

untere Kurve ACRIM (Active Cavity Radiometer Irradiance Monitor) auf SMM (beide Instrumente<br />

bestimmen des solaren Fluss täglich), die Kreuze sind von ERBS (Earth Radiation<br />

Budget Satellite), die Rhomben von NOAA 9, die beide nur jeweils einige male pro Monat<br />

messen. Den Kurven bei ERB und ACRIM sind 81-Tage laufende Mittel überlagert, die die<br />

Kurzzeitschwankungen aufgrund der Entwicklung bzw. des Verschwindens aktiver Regionen<br />

(vgl. Abb. 5.2) herausfiltern sollen. Die Verschiebungen der einzelnen Kurven gegeneinander<br />

beruhen auf Ungenauigkeiten in der Kallibrierung der Instrumente. Dieser Kallibrierungsfehler<br />

ist um mehr als eine Größenordnung größer als der Messfehler der einzelnen Instrumente,<br />

ja selbst größer als die Variation der Solarkonstanten über den betrachteten Zeitraum!<br />

§ 746 In den Profilen zeigt sich ein Abwärtstrend der Solarkonstante zusammen mit dem<br />

Abklingen solarer Aktivität zwischen 1980 und 1986 sowie ein erneuter Anstieg im Zusammenhang<br />

mit dem Beginn des neuen Solarzyklus. Die Amplitude der Änderungen beträgt<br />

ca. 0.1%. Diesem Langzeittrend sind kurzzeitige Variationen von bis zu 0.2% überlagert, wie<br />

auch aus Abb. 5.2 ersichtlich. Da sich die Beobachtungen nur über einen Zeitraum von ca.<br />

10 Jahren erstrecken, d.h. nur in der Größenordnung der gesuchten Zykluslänge liegen, sind<br />

sie alleine noch kein Beweis für eine zyklische Änderung des solaren Flusses. Daher ist im<br />

unteren Teil der Abbildung die Fortsetzung dieser Beobachtungen bis zum Jahr 2000 gezeigt.<br />

An der Abbildung wird wieder das Problem langer Messreihen deutlich: da die Instrumen-<br />

2. Juli 2008 c○ M.-B. Kallenrode


5.1. DAS NAHE ERDUMFELD 229<br />

Abbildung 5.5: Rekonstruktion<br />

der Solarkonstante über 25<br />

Jahre, Kurve FL aus [65], Kurve<br />

WM aus [253], Abbildung<br />

aus [106]<br />

te zwischenzeitlich gewechselt werden mussten, sind diese Messreihen nicht homogen: hätte<br />

man nur zwei Messinstrumente ohne zeitlichen Überlapp (z.B. ACRIM I und Virgo oder HF<br />

und VIRGO), so könnte man zu sehr interessanten Theorien bezüglich der Veränderung der<br />

Solarkonstanten gelangen.<br />

§ 747 Die Zunahme des solaren Flusses mit der Zahl der Sonnenflecken deutet daraufhin,<br />

dass es noch eine zusätzlich Quelle solarer Emission während des solaren Maximums geben<br />

muss, die die Abnahme des Flusses durch die Sonnenflecken überkompensiert. Als Ursache<br />

werden hier helle Fackeln in den polaren Bereichen der Sonne vermutet sowie das insbesondere<br />

in der CaII-Linie deutlich sichtbare magnetische Netzwerk der Photosphäre. Aufgrund<br />

dieses noch nicht völlig verstandenen Aufhellens ist es nicht zuverlässig möglich, aus der Sonnenfleckenzahl<br />

und den beobachteten Variationen der Solarkonstanten in den vergangenen<br />

10 Jahren auf längerfristige Variationen zurückzuschließen, d.h. es gibt noch keine Umrechnungstabelle<br />

von Fleckenzahl oder Fleckenfläche auf Solarkonstante.<br />

§ 748 Die Variabilität der Sonne ist in den kurzen und langen Wellenlängenbereichen wesentlich<br />

größer als im sichtbaren Bereich (der andererseits aber aufgrund des großen Flusses<br />

die Solarkonstante bestimmt). Abbildung 5.4 zeigt dazu die spektrale Variation der solaren<br />

Strahlung während eines Solarzyklus. Während die Variabilität des Gesamtflusses bei<br />

0.1% liegt, kann die solare Emission im UV-Bereich während des Maximums um bis zu zwei<br />

Größenordnungen über der der ruhigen Sonne liegen.<br />

§ 749 Abbildung 5.5 gibt einerseits die Erweiterung von Abb. 5.3 für einen längeren Zeitraum,<br />

andererseits auch eine Warnung beim Umgang mit Satellitendaten zur Untersuchung<br />

von global change: die Rekonstruktionen 3 der Solarkonstante aus [65] und [253] ist deutlich<br />

unterschiedlich und zeitlich veränderlich. So sind die Maxima der Solarkonstante in [65] generell<br />

niedriger während das erste Minimum Mitte der 1990er in beiden eine vergleichbare<br />

Solarkonstante hat, im folgenden Solarzyklus dagegen bei [65] geringer ist. Zwei Faktoren<br />

tragen zu diesen Abweichungen bei: (a) die einzelnen Instrumente sind nicht auf einen absoluten<br />

Wert geeicht, wie bereits in Abb. 5.3 deutlich wurde und (b) über Jahre oder Jahrzehnte<br />

altern die Instrumente.<br />

§ 750 Aus letzterem Grund ist auch das Standardverfahren beim Ersetzen eines Instruments<br />

durch ein neueres Instrument problematisch: normalerweise lässt man beide Instrumente für<br />

eine Zeit gleichzeitig messen und verschiebt dann die Messdaten des neuen Instruments so,<br />

dass sie mit denen des alte Instruments übereinstimmen. Damit werden die neuen Daten<br />

aber auf durch Alterung verfälschte Daten kalibriert. Die Alterung des neuen Instruments<br />

führt dann wieder zu einer Verfälschung der Messdaten, d.h. das nächste Instrument wird<br />

auf gealterte, an einem gealterten Instrument kalibrierte Werte kalibriert. Führt die Alterung<br />

zu einem reduzierten Ansprechvermögen, so wird auf diese Weise mir jedem Instrument ein<br />

niedrigerer – und im Laufe der zeit weiter abnehmender – Wert bestimmt: in den Messdaten<br />

zeigt sich ein Trend ohne dass dieser in den realen Daten vorhanden sein muss.<br />

3 Eine Rekonstruktion in irgendeiner Form ist leider erforderlich, da eine Anpassung der Messungen der<br />

verschiedenen Instrumente erfolgen muss – mit den Rohdaten wie in Abb. 5.3 lässt sich nichts anfangen. Eine<br />

Anpassung an einen absoluten Wert hat man auch in dieser rekonstruktion nicht versucht.<br />

c○ M.-B. Kallenrode 2. Juli 2008


230 KAPITEL 5. DIE ERWEITERTE PERSPEKTIVE: CAWSES<br />

§ 751 Letzteres gilt für jede Art von Instrumententyp, egal ob er sich im Orbit befindet<br />

oder auf dem Boden. Auch den Meteorologen ist das Problem der Instrumentenalterung und<br />

damit verbunden die Schwierigkeiten, eine homogene Datenreihe zu erstellen, wohl bekannt;<br />

[15] stellt dieses Problem recht gut dar.<br />

Einschub: alternde Satelliteninstrumente<br />

§ 752 Die Alterung von Satelliteninstrumenten hat vielfältige Ursachen. Zur Alterung trägt<br />

auch die nicht gerade freundliche Umgebung bei. Die wesentlichen Einflussgrößen sind die<br />

ionisierende Strahlung, d.h. die harte elektromagnetische Strahlung ebenso wie die energiereichen<br />

Teilchen. Während erstere nur die Oberfläche von Raumfahrzeug und Detektor trifft,<br />

kann letztere bis in den Detektor und die Elektronik-Box eindringen.<br />

§ 753 Häufige Ionisation führt in vielen Detektoren zu einer Veränderung der Detektorempfindlichkeit<br />

und damit des Ansprechvermögens. In der Folge werden weniger Photonen/Teilchen<br />

nachgewiesen oder diesen wird eine zu geringe Energie zugewiesen. Diese Form<br />

der Alterung lässt sich weder vermeiden noch korrigieren. Allerdings kann man, wenn möglich,<br />

eine wohl definierte Quelle der mit Hilfe des Detektors nachzuweisenden Strahlung mitnehmen<br />

und den Detektor von Zeit zu Zeit neu Kalibrieren: dazu überprüft man das Ansprechvermögen<br />

des Detektors gegenüber diesem Standardstrahler.<br />

§ 754 Ionisation in der Elektronik führt leicht zum Klappen eines Bits. Im Datenspeicher ist<br />

dies nicht relevant – das ist zwar ein fehlerhafter Datenpunkt, aber Messfehler kommen vor.<br />

Wesentlich problematischer ist das Umklappen eines Bits in einem Programmspeicher – dies<br />

kann zu einer permanenten Fehlfunktion führen. Daher sind moderne Satelliteninstrumente<br />

so ausgelegt, dass man ihnen die Software neu aufspielen kann bzw. auch neuere Versionen<br />

der Software auf den Satelliten bringen kann.<br />

Die Albedo<br />

§ 755 Die Albedo ist der von der Erde reflektierte Anteil der einfallenden solaren Einstrahlung.<br />

Die Reflektion erfolgt an Wolken, in der Atmosphäre oder an der Erdoberfläche. Die<br />

Reflektion hängt zwar von der Wellenlänge des Lichts ab, ändert diese aber nicht. Daher<br />

umfasst der reflektierte Anteil der solaren Einstrahlung den gleichen Frequenzbereich wie die<br />

einfallende Strahlung.<br />

§ 756 Die Albedo als das Verhältnis von reflektierter zu einfallender Strahlung lässt sich<br />

daher mit zwei Bolometern bestimmen: das eine blickt nach oben, das andere nach unten.<br />

§ 757 Dabei ergibt sich jedoch ein Problem: wenn beide Bolometer das vollständige solare<br />

Spektrum abdecken, misst das nach unten blickende Bolometer auch die vom System<br />

Erde/Atmosphäre emittierte IR Strahlung, siehe $ 758. Dieses Problem lässt sich auf zwei<br />

Weisen lösen:<br />

• Reduktion des Wellenlängenbereichs derart, dass die terrestrische Ausstrahlung nicht mit<br />

gemessen wird. Dann geht zwar auch ein Teil des solaren Spektrums verloren, dieses ist<br />

jedoch nur sehr klein.<br />

• separate Messung der terrestrischen Ausstrahlung und Abzug derselben vom gesamten<br />

nach oben gerichteten Strahlungsstrom. Damit macht man den gleichen Fehler, da die<br />

terrestrische Ausstrahlung natürlich auch den Anteil der reflektiereten solaren Strahlung<br />

enthält.<br />

Terrestrischer Ausstrahlung<br />

§ 758 Die Erde ist in erster Näherung ein schwarzer Körper mit einer Temperatur von ca.<br />

250 K, entsprechend einer Wellenlänge im Maximum der Planck’schen Kurve von ca. 12 µm.<br />

Der von der Erde emittierte Strahlungsstrom hat daher sein Maximum bei deutlich größeren<br />

2. Juli 2008 c○ M.-B. Kallenrode


5.1. DAS NAHE ERDUMFELD 231<br />

Abbildung 5.6: Effektivtemperaturen<br />

von Sonne<br />

und Erde und Lage<br />

der Absorptionsbanden<br />

[183]<br />

Wellenlängen als die solare Strahlung. Trägt man beide Planck-Kurven jeweils auf das Maximum<br />

normiert auf, so erscheinen sie gegeneinander verschoben und disjunkt, vgl. Abb. 5.6.<br />

Letzteres wird als Begründung dafür verwendet, dass Spurengase die einfallende kurzwellige<br />

solare Strahlung in anderer Weise beeinflussen als die langwellige terrestrische Ausstrahlung.<br />

Zwischenrechnung 18 Schätzen Sie den von der Erde emittierten Strahlungsstrom ab;<br />

vergleichen Sie mit dem Strahlungsstrom eines Körpers mit einer Effektivtemperatur von<br />

6000 K sowie mit der Solarkonstante.<br />

Verständnisfrage 34 Die terrestrische Ausstrahlung kann im Prinzip natürlich auch mit<br />

den bereits bekannten im thermischen IR messenden Instrumenten bestimmt werden. Wie<br />

geht man bei der Gesamtstrahlung mit den atmosphärischen Fenstern um? Sind diese zu<br />

berücksichtigen oder nicht?<br />

§ 759 Und Ergebnisse? Die Ergebnisse werden mit zunehmender Komplexität der Messgeräte<br />

ebenfalls schwieriger zu interpretieren. Zum einen besteht immer noch das Problem<br />

der Kalibrierung, zum anderen lassen sich zwar leicht globale Karten von langwelliger oder<br />

kurzwelliger Einstrahlung und langwelliger oder kurzwelliger Ausstrahlung oder dem lokalen<br />

Nettostrom darstellen. Die Interpretation dieser Daten ist jedoch alles andere als trivial.<br />

• Der lokale Nettostrom ist kaum jemals Null – das ist kein Wunder, da die Erde auf der<br />

Nachtseite zwar Strahlung emittiert aber keine empfängt. Wenn die Erde nicht dauerhaft<br />

c○ M.-B. Kallenrode 2. Juli 2008


232 KAPITEL 5. DIE ERWEITERTE PERSPEKTIVE: CAWSES<br />

abkühlen soll, muss sie zwangsläufig auch auf der Tagseite eine lokal unausgeglichene Strahlungsbilanz<br />

haben. Außerdem wird ein großer Teil der a Äquator eingestrahlten Energie<br />

über die Zirkulationssysteme von Atmosphäre und Ozean in höhere Breiten transportiert.<br />

• Lokal zeigt die Emission der Erde zeitliche Variationen auf vielen verschiedenen Skalen<br />

(Tagesgang, Jahresgang, Variationen auf längeren Skalen). Welche Mittlungsperioden sind<br />

für die Bestimmung einer Strahlungsbilanz sinnvoll?<br />

• Gerade in niedrigen Breiten variiert die terrestrische Ausstrahlung stark mit dem El Nino.<br />

Haben die Ozeane eine Rolle in der Strahlungsbilanz in ihrer Eigenschaft als Zwischenspeicher<br />

von Wärme? Über welche Zeitskalen muss gemittelt werden?<br />

5.1.2 Energiereiche Teilchen<br />

§ 760 Energiereiche geladene Teilchen lassen sich nicht durch remote sensing nachweisen<br />

(außer, sie werden so stark beschleunigt, dass sie Röntgenstrahlung erzeugen) sondern nur<br />

in-situ. 4 Vom Messprinzip her sind diese Instrumente daher nicht Bestandteil der <strong>Erdfernerkundung</strong><br />

– sie fliegen teilweise als Monitoring Instrumente (SEM, [577]) zum Verständnis<br />

des näheren Erdumfeldes und insbesondere der auf den Satelliten wirkenden Einflüsse; teilweise<br />

fliegen sie auch als eigenständige Instrumente zur Untersuchung eben dieser Teilchen.<br />

Beginnen wir mit dem Messprinzip.<br />

Wechselwirkung geladene Teilchen und Materie<br />

§ 761 Die wichtigsten Stichworte zur Wechselwirkung energiereicher geladener Teilchen mit<br />

Materie sind Energieverluste durch Anregung und Ionisation, beschrieben durch die Bethe-<br />

Bloch-Formel, Bremsstrahlung, der Cerenkov-Effekt und Kernwechselwirkungen. In diesem<br />

Abschnitt sollen die hier erwähnten Elementarprozesse vorgestellt werden und ihre Anwendung<br />

auf Detektoren diskutiert werden. Für Übersichten siehe z.B. [5, 6, 18, 130, 132, 234].<br />

§ 762 Der wichtigste Prozess bei der Wechselwirkung eines energiereichen geladenen Teilchens<br />

mit Materie ist der Energieverlust durch Anregung und Ionisation. Beim Vorbeiflug<br />

eines geladenen Teilchens an einem Atom wird Energie an eines der Hüllenelektronen abgegeben.<br />

Dieses Elektron kann auf ein höheres Energieniveau angehoben werden (Anregung)<br />

oder das Atom verlassen (Ionisation). Der sich dabei ergebende Energieverlust des geladenen<br />

Teilchens ist durch die Bethe–Bloch Formel gegeben zu<br />

− 1 dE<br />

ρ dx<br />

4πe4<br />

=<br />

mec2 Z<br />

A<br />

z2 β2 �<br />

ln<br />

� Emaxc 2<br />

〈I〉<br />

�<br />

− β 2 − Ci<br />

�<br />

δ<br />

−<br />

Z 2<br />

. (5.2)<br />

Das Bremsvermögen hängt somit von den Materieparamtern Kernladungszahl Z, Atomgewicht<br />

A und Dichte ρ, der mittleren Ionisationsenergie 〈I〉 und den Teilchenparametern Ladung<br />

z und Geschwindigkeit β = v/c ab. Der zweite Term in der Klammer berücksichtigt<br />

die relativistischen Effekte, der dritte Term enthält Korrekturfaktoren zur Berücksichtigung<br />

der geringeren Ionisationswahrscheinlichkeit der inneren Schalen bei niedriger Einfallsenergie,<br />

der letzte Term gibt die Polarisation des Absorbers für hohe Teilchenenergien wieder<br />

[5, 132, 234].<br />

4 Die gleiche Einschränkung gilt natürlich auch für das Plasma, d.h. den thermischen Teil der Teilchenverteilung.<br />

Auch dieses lässt sich im wesentlichen nur in-situ untersuchen – lediglich die Elektronendichte lässt sich<br />

mit Hilfe von Radiowellen auch als remote sensing messen. Ebenso lassen sich Elektronen (zumindest wenn sie<br />

durch Materie oder Magnetfelder hinreichend abgelenkt werden) über die emittierte Röntgenstrahlung nachweisen.<br />

Plasmainstrumente werden wir im Rahmen dieses Skripts nicht näher diskutieren: obwohl die wie die<br />

Teilcheninstrumente im wesentlichen Elektronen und Protonen, das Plasma eben, messen, unterscheiden sie<br />

sich von diesen im Messprinzip: beim Nachweis energiereicher Teilchen wird die Wechselwirkung des einzelnen<br />

Teilchens mit dem Detektormaterial betrachtet. Damit lassen sich die einzelnen Teilchen identifizieren und<br />

charakterisieren. Bei der Untersuchung des Plasmas dagegen werden kollektive Effekte vieler Teilchen, z.B.<br />

Ladungsdichten, betrachtet. Letzteres ist u.a. durch die geringen Energiedichten der einzelnen Plasmateilchen<br />

gefordert.<br />

2. Juli 2008 c○ M.-B. Kallenrode


5.1. DAS NAHE ERDUMFELD 233<br />

Abbildung 5.7: Wechselwirkung geladener Teilchen mit Materie: (a) Anregung, (b) Ionisation,<br />

(c) Bremsstrahlung, (d) Cerenkoveffekt, (e) Kernwechselwirkung und (f) Energieverlust-<br />

Beziehung in Abhängigkeit von der Energie der einfallenden Teilchen [5]<br />

§ 763 Der Energieverlust hängt nicht von der Masse des Teilchens ab, d.h. die Energieverlustkurve<br />

ist für alle Teilchen einer Geschwindigkeit die gleiche. Der Verlauf der Energieverlustkurve<br />

ist in Abb. 5.7f in Abhängigkeit von der Energie für verschiedene Teilchen<br />

gegeben. Ist die kinetische Energie des Teilchens seiner Ruheenergie vergleichbar, so ist es minimalionisierend.<br />

Für größere Energien nimmt der Energieverlust auf Grund relativistischer<br />

Effekte leicht zu. Mit abnehmender Energie dagegen steigt der Energieverlust an, da die für<br />

die Wechselwirkung mit einem Hüllenelektron zur Verfügung stehende Zeit auf Grund der<br />

abnehmenden Geschwindigkeit steigt.<br />

§ 764 Aus der Bethe–Bloch-Formel ergibt sich auch eine Reichweite für das Teilchen in der<br />

Materie: das Teilchen rutscht dabei auf der Energieverlustkurve immer weiter nach links,<br />

bis es schließlich zur Ruhe kommt. Trägt man den Energieverlust gegen die zurück gelegte<br />

Strecke auf, so ist dieser kurz vor dem Reichweitenende maximal. In diesem Bragg-Peak<br />

zeigt sich ein fundamentaler Unterschied in der WeWi elektromagnetischer Strahlung und<br />

Teilchenstrahlung mit Materie: erstere wird exponentiell abgeschwächt, so dass die größte<br />

Ionisation am Anfang der Bahn erfolgt. Außerdem hat die elektromagnetische Strahlung im<br />

Prinzip eine unendliche Reichweite in Materie – lediglich die Intensität wird immer geringer.<br />

Teilchenstrahlung dagegen hat eine definierte reichweite und gibt die maximale Dosis am<br />

Ende der Reichweite ab. 5<br />

5 Diesen Unterschied macht man sich in der modernen Strahlentherapie zu nutze: verwendet man Teilchenstrahlung<br />

statt elektromagnetische Strahlung, so wird die Dosis genauer im Zielvolumen deponiert (definierte<br />

Reichweite, maximale Ionisation am Ende der Reichweite) und das Gewebe zwischen Eintrittsstelle des Strahls<br />

und Zielvolumen wird weniger geschädigt.<br />

c○ M.-B. Kallenrode 2. Juli 2008


234 KAPITEL 5. DIE ERWEITERTE PERSPEKTIVE: CAWSES<br />

§ 765 Energieverlust durch Bremsstrahlung ist nur für Elektronen relevant. Ein einfallendes<br />

Elektron wird im Feld eines Kernes abgelenkt. Während dieser Beschleunigung strahlt es<br />

Energie ab. Die Winkeländerung des Elektrons kann dabei ebenso wie seine Energieabgabe<br />

sehr groß werden. Für hohe Energien wird der Energieverlust proportional der Energie des<br />

Elektrons.<br />

§ 766 Cerenkov-Effekt: Während bei den bisher betrachteten Effekten das geladene Teilchen<br />

mit den individuellen Atomen der Materie wechselwirkt, wobei über die einzelnen Stöße aufsummiert<br />

wird, um den gesamten Energieverlust zu erhalten, handelt es sich beim Cerenkov-<br />

Effekt um einen kollektiven Effekt: bewegt sich ein geladenes Teilchen durch ein dielektrisches<br />

Medium mit einer Geschwindigkeit v, die größer ist als die Lichtgeschwindigkeit c/n in diesem<br />

Medium (n ist der Brechungsindex), so erleidet das Teilchen einen zusätzlichen Energieverlust<br />

dadurch, dass es das umgebende Medium polarisiert. Die Moleküle des umgebenden<br />

Mediums werden dadurch kurzzeitig zu Dipolen, die durch die zeitliche Veränderung dieses<br />

Dipols Strahlung emittieren. Der Öffnungswinkel θ des dabei entstehenden Lichtkegels hängt<br />

von der Teilchengeschwindigkeit ab:<br />

cos θ = 1<br />

βn ,<br />

d.h. je schneller ein Teilchen ist, umso schmaler wird der Öffnungskegel (vgl. Mach’scher<br />

Kegel). Der Energieverlust des Teilchens ist dabei nur gering, jedoch ist die Lichtemission<br />

wichtig für den Nachweis der Teilchen.<br />

§ 767 Kernwechselwirkungen sind ein umfangreiches Gebiet, für die von uns betrachteten<br />

Energiebereiche und Detektoren spielen sie eine untergeordnete Rolle. 6 Daher sei hier nur<br />

kurz das Reaktionsprinzip angegeben: Ein Teilchen a stößt auf einen Kern A. Das Ergebnis<br />

dieser Reaktion sind ein Teilchen b und ein Kern B sowie die Reaktionsenergie Q, die sich<br />

aus der Differenz der Restmassen zu ((ma +mA)−(mb +mB))c 2 ergibt. Ist Q größer als Null,<br />

so ist die Reaktion exotherm, ist Q kleiner Null ist sie endotherm. Endotherme Reaktionen<br />

treten bei der Erzeugung neuer Teilchen auf, die dabei ‘verschwindende’ Energie muss den<br />

Reaktionspartnern in Form kinetischer Energie zur Verfügung stehen.<br />

Detektortypen<br />

§ 768 Nachdem wir die grundlegenden Wechselwirkungen von Teilchen mit Materie betrachtet<br />

haben, können wir uns nun den einzelnen Detektortypen zuwenden. Für den Nachweis<br />

von Elektronen im MeV-Bereich und von Nukleonen im Bereich von einigen MeV bis hin<br />

zu hunderten von MeV sind die wichtigsten verwendeten Detektoren Halbleiterdetektoren,<br />

Szintillationszähler und Cerenkov-Detektoren.<br />

§ 769 Der Szintillationszähler beruht darauf, dass geladene Teilchen beim Auftreffen auf<br />

Kristalle Lumineszenzlicht erzeugen. Als Szintillatormaterial werden organische Einkristalle<br />

wie NaJ, organische Flüssigkeiten und organische Plastikmaterialien verwendet. Das entstehende<br />

Szintillationslicht wird von einem Photomultiplier in einen elektrischen Strom umgewandelt.<br />

Auf diese Weise ist der Nachweis von geladenen Teilchen und γ-Strahlung möglich.<br />

Letztere erzeugt im Szintillator Sekundärelektronen, die dann ihrerseits wieder Szintillationslicht<br />

erzeugen.<br />

§ 770 Die häufigsten Detektoren sind Halbleiterdetektoren (siehe Abb. 5.8). Dazu werden<br />

ein p- und ein n-leitender Silizium-Kristall zu einem p-n-Übergang vereinigt. Zwischen diesen<br />

beiden Kristallen entsteht eine Verarmungszone (Raumladungszone). Fällt ein geladenes<br />

6 Sie spielen allerdings in der Atmosphäre bei der Erzeugung der kosmogenen Nuklide eine große Rolle: so<br />

werden 14 C und 10 Be durch Wechselwirkung zwischen dem Kern eines Stickstoffatoms und den Protonen der<br />

einfallenden kosmischen Strahlung erzeugt.<br />

2. Juli 2008 c○ M.-B. Kallenrode


5.1. DAS NAHE ERDUMFELD 235<br />

Abbildung 5.8: Prinzipieller Aufbau eines<br />

Halbleiterdetektors [5]<br />

Abbildung 5.9:<br />

Aufbau des Helios-<br />

Teilchenteleskops E6<br />

[140]<br />

Teilchen in diese Raumladungszone, so werden Elektronen-Loch-Paare erzeugt. Die zur Erzeugung<br />

eines Elektronen-Loch-Paares benötigte Energie beträgt in Silizium 3.23 eV (Germanium<br />

2.84 eV), so dass ein einfallendes Teilchen sehr viele Elektronen-Loch-Paare erzeugt.<br />

Durch das äußere Feld wandern Löcher und Elektronen in unterschiedliche Richtungen. Es<br />

entsteht ein Strom, der über einem Widerstand als Spannungsimpuls abgegriffen wird. Dieser<br />

ist proportional zur Restenergie dE des einfallenden Teilchens, falls dieses im Detektor stecken<br />

bleibt, oder proportional zu seinem Energieverlust dE/dx falls es den Detektor durchsetzt.<br />

§ 771 Der Cerenkov-Detektor wird im wesentlichen nur zum Nachweis von Teilchen verwendet.<br />

Eine Bestimmung der Teilchenenergie aus der Schwellenwert-Geschwindigkeit und dem<br />

Emissionswinkel der Strahlung ist jedoch auch möglich. Der Cerenkov-Effekt funktioniert<br />

am besten für Materialien mit großem Brechungsindex n, z.B. Wasser, Glas, Plexiglas oder<br />

organische Verbindungen.<br />

Das Helios-Teilchenteleskop<br />

§ 772 Für die Messung energiereicher geladener Teilchen im Weltraum verwendet man keine<br />

Einzeldetektoren, sondern Kombinationen aus verschiedenen Detektoren. Ziel ist außer dem<br />

Teilchennachweis die Bestimmung von Teilchenparametern wie Masse, Ladung (Teilchensorte)<br />

und Energie. Abbildung 5.9 zeigt dazu den Aufbau des Helios-Teilchenteleskops [139].<br />

Ziel dieses Instruments ist die Messung geladener energiereicher Teilchen der solaren und<br />

galaktischen kosmischen Strahlung. Untersucht werden Elektronen oberhalb 0.3 MeV und<br />

Nuleonen oberhalb 2 MeV/nucl (siehe auch Tab. 5.1).<br />

§ 773 Der zentrale Teil des Instruments sind fünf Halbleiterdetektoren zunehmender Dicke.<br />

Mit ihnen kann der Energieverlust der einfallenden Teilchen gemessen werden. Über<br />

die Zahl der getroffenen Detektoren ist eine grobe Information über die Reichweite und damit<br />

die Energie des Teilchens möglich. Dieser Satz von Halbleiterdetektoren ist von einem<br />

Antikoinzidenz-Szintillator umgeben: Teilchen, die schräg von der Seite auf das Teleskop fallen,<br />

können z.B. den dritten und vierten Detektor treffen und dort sinnvolle Energieverluste<br />

c○ M.-B. Kallenrode 2. Juli 2008


236 KAPITEL 5. DIE ERWEITERTE PERSPEKTIVE: CAWSES<br />

Tabelle 5.1:<br />

Energiekanäle des<br />

Helios-Teilchenteleskops<br />

E6<br />

machen. Allerdings wäre diese Information verfälscht, da man aufgrund des fehlenden Signals<br />

der beiden oberen Detektoren davon ausgehen würde, dass die Teilchen dort nur einen<br />

geringen Energieverlust erlitten haben und die Teilchen falsch klassifizieren würde. Der Antikoinzidenz-Szintillator<br />

hat die Aufgabe, diese Irrläufer zu markieren: wenn gleichzeitig mit<br />

den Signalen in den Detektoren auch ein Signal der Antikoinzidenz vorliegt, wird das Teilchen<br />

als ungültig verworfen. Der untere Abschluss des Detektorsystems wird durch einen Cerenkov-<br />

Zähler gebildet: In ihm werden alle Teilchen mit hoher Energie, die die fünf darüberliegenden<br />

Detektoren durchsetzt haben, registriert. Wie beim Szintillator steht hier die Registrierung<br />

der Teilchen im Vordergrund. Allerdings ist in jedem Falle die Minimalenergie dieser Teilchen<br />

bekannt.<br />

§ 774 Als physikalische Information erhalten wir damit von den fünf Halbleiterdetektoren<br />

jeweils die Restenergie dE (steckengebliebene) oder die Energieverluste dE/dx (durchgehende<br />

Teilchen) und vom Szintillator und Cerenkov-Detektor jeweils die Information über den<br />

Einfall eines Teilchens. Es gibt jetzt zwei Möglichkeiten, diese Information zu verwerten: (1)<br />

die Einteilung der Teilchen in Zählkanäle in Abhängigkeit von der Teilchensorte und -energie<br />

oder (2) die Pulshöhenanalyse, die eine genauere Beschreibung der einzelnen Teilchen erlaubt.<br />

§ 775 Bei der Einteilung in Zählkanäle wird von den Detektoren nur die Information verwendet,<br />

ob sie angesprochen haben oder nicht. Betrachten wir dazu ein einfallendes Proton.<br />

Je nach Energie des Protons bleibt es gleich im ersten Detektor stecken oder fliegt weiter.<br />

Bleibt das Teilchen im ersten Detektor stecken, dann hat es eine Energie zwischen 1.7 MeV<br />

und 3.7 MeV: Bei geringerer Energie würde das Signal im ersten Detektor zu klein sein,<br />

um eine willkürlich gesetzte Schwelle zu überschreiten (s.u.), bei höherer Energie würde das<br />

Teilchen den Detektor durchsetzen und auch in Detektor 2 ein Signal erzeugen. Am Detektor<br />

2 vorbei fliegen kann das Teilchen nicht, da die geometrische Anordnung so gewählt ist, dass<br />

Teilchen, die in den ersten aber nicht in den zweiten Detektor fallen können, automatisch in<br />

den Antikoinzidenzszintillator fallen und somit verworfen werden. Die Bedingung für dieses<br />

oben definierte Energieintervall ist also gegeben durch: Detektor 1 spricht an, Detektor 2 und<br />

alle folgenden sprechen ebenso wie die Antikoinzidenz A nicht an. Formal lässt sich das auch<br />

schreiben als 12A (siehe auch Tab. 5.1). Diese Bedingung, die das Teilchen in Abhängigkeit<br />

von den durchsetzten Detektoren einem Zählkanal zuordnet, wird als Koinzidenzbedingung<br />

bezeichnet. Je nach der Zahl der durchsetzten Detektoren ergeben sich dann die in Tab. 5.1<br />

angegebenen Energieintervalle und Koinzidenzbedingungen.<br />

§ 776 Was passiert nun, wenn die Teilchenpopulation nicht nur aus Protonen, sondern aus<br />

Elektronen, Protonen, Helium und, in geringer Menge, auch schwereren Kernen besteht? Für<br />

alle diese Teilchen können wir die Reichweite nach der Zahl der durchsetzten Detektoren<br />

bestimmen, aber die Energieverluste dieser Teilchen in den einzelnen Detektoren sind aufgrund<br />

der unterschiedlichen Ladungszahlen verschieden, d.h. ein Heliumkern gibt bei gleicher<br />

2. Juli 2008 c○ M.-B. Kallenrode


5.1. DAS NAHE ERDUMFELD 237<br />

Abbildung 5.10: Pulshöhenmatrix:<br />

Mittlerer Energieverlust der Teilchen<br />

in Detektor 1 in Abhängigkeit von der<br />

Restenergie der Teilchen in Detektor<br />

2 [246]<br />

Geschwindigkeit wie ein Proton eine größere Energie ab. Darin liegt auch der Schlüssel zur<br />

Trennung der verschiedenen Teilchensorten. Die entscheidende Rolle hat dabei der erste Detektor.<br />

Der Detektor ist sehr dünn gewählt, so dass für eine vorgegebene Teilchensorte die<br />

Energieabgabe relativ definiert erfolgt. Elektronen geben nur wenig Energie ab (hohe Geschwindigkeit<br />

nahe c, minimalionisierende Teilchen), d.h. der Energieverlust eines Elektrons<br />

in Detektor 1 ist gering verglichen mit den Energieverlusten anderer Teilchen. Daher kann<br />

man in Detektor 1 eine Schwelle einführen: Teilchen, die weniger Energie abgeben, werden als<br />

Elektronen betrachtet, Teilchen, die mehr Energie abgeben, als Nukleonen. In diesem Beispiel<br />

liegt die Schwelle bei 180 keV. Um Protonen und Helium zu trennen, hat der erste Detektor<br />

eine zweite Schwelle: Helium gibt bei gleicher Geschwindigkeit (gleiche Energie/nucl) mehr<br />

Energie ab als ein Proton (doppelte Ladung, geht quadratisch in die Bethe–Bloch-Formel<br />

(5.2) ein). Damit lässt sich eine zweite Schwelle bei 3.9 MeV einführen: Protonen mit höherer<br />

Energie würden den Detektor durchsetzen und in Detektor 2 ein Signal erzeugen, der maximale<br />

Energieverlust für Protonen liegt also unterhalb dieser Schwelle; Helium dagegen gibt<br />

mehr Energie ab und liegt oberhalb dieser Schwelle. Schwerere Kerne sind sehr selten, im<br />

Rahmen von Zählkanälen werden sie zusammen mit dem Helium gezählt. Sie können erst in<br />

der Impulshöhenanalyse identifiziert werden.<br />

§ 777 Durch Vergleich der einzelnen Detektoren und dem Ansprechen der Schwellen in Detektor<br />

1 lassen sich entsprechend der Koinzidenzbedingungen die in Tab. 5.1 gegebenen<br />

Zählkanäle definieren. Dabei bedeutet i jeweils, dass der Detektor i angesprochen hat, i,<br />

dass er nicht angesprochen hat und i, dass die obere Schwelle des Detektors angesprochen<br />

hat.<br />

§ 778 Bisher haben wir, abgesehen von den Schwellen in Detektor 1, nur die Information ,ob<br />

ein Detektor angesprochen hat verwendet, nicht jedoch die Restenergien oder Energieverluste<br />

in den einzelnen Detektoren. Betrachten wir nur die beiden letzten Detektoren, die ein Teilchen<br />

getroffen hat, so erhalten wir eine Information über den Energieverlust im vorletzten<br />

und die Restenergie im letzten Detektor. Trägt man diese gegeneinander auf, so ergibt sich<br />

eine Linie, die als die Ortskurve in der Pulshöhenmatrix bezeichnet wird. Abbildung 5.10<br />

zeigt diesen Zusammenhang für verschiedene Teilchensorten. Teilchen mit größerer Energie<br />

würden auch den zweiten Detektor durchdringen, der Energieverlust im zweiten Detektor<br />

nimmt dann wieder ab (größere Geschwindigkeit entspricht geringerer Ionisation), d.h. die<br />

Ortskurve in Abb. 5.10 würde für höhere Energien hin nach links unten abknicken.<br />

c○ M.-B. Kallenrode 2. Juli 2008


238 KAPITEL 5. DIE ERWEITERTE PERSPEKTIVE: CAWSES<br />

Abbildung 5.11:<br />

Winkelverteilungen<br />

(oben: gebündelte<br />

Verteilungen, unten<br />

Verteilung, die bei Einsatz<br />

des Ereignisses * im<br />

wesentlichen auf einen<br />

Halbraum beschränkt<br />

ist und sich dann zu einer<br />

isotropen Verteilung<br />

aufweitet)<br />

Abbildung 5.12: Intensitäts- und Anisotropie-Zeitprofile<br />

§ 779 Mit Hilfe dieser Pulshöhenmatrizen ist auch eine Trennung von Isotopen (z.B. 3 He<br />

und 4 He) möglich. Aus Gründen der Datenkompression werden stets nur die Informationen<br />

der drei letzten Detektoren übertragen; das ist auch physikalisch sinnvoll, da ein Teilchen, das<br />

viele Detektoren durchsetzen konnte, in den oberen Detektoren sehr schnell (minimalionisierend)<br />

war und damit auch nur einen geringen Energieverlust gemacht hat (vgl. Abb. 5.7f).<br />

§ 780 Durch die Spinstabilisierung des Satelliten rotiert dieser einmal pro Sekunde um seine<br />

Symmetrieachse. Da das Instrument senkrecht zu dieser Achse blickt, kann man Informationen<br />

über Vorzugsrichtungen des Teilcheneinfalls erhalten. Dazu werden die Zählerstände<br />

während einer Rotation des Raumfahrzeuges achtmal ausgelesen, so dass Intensitäten in acht<br />

Sektoren bestimmt werden. Zur Darstellung dieser räumlichen Abhängigkeit gibt es verschiedene<br />

Möglichkeiten: (1) Man kann die Intensitäts-Zeitverläufe aller acht Sektoren getrennt<br />

darstellen und dann versuchen, diese zu vergleichen (Nachteil: unübersichtlich), (2) man kann<br />

zu festen Zeiten die Intensitäten der einzelnen Sektoren in Form eines Histogramms darstellen<br />

(Winkelverteilung wie in Abb. 5.11 gezeigt, Nachteil: jedes Zeitintervall gibt ein Bild, bei<br />

langen Zeiträumen unübersichtlich), (3) Bildung einer abgleiteten Größe Anisotropie, von<br />

der sich Zeitprofile erstellen lassen durch Fourierentwicklung der Winkelverteilung.<br />

§ 781 Abbildung 5.12 zeigt eine Folge von 4 solaren Ereignissen. Im oberen Teil sind Intensitäts-Zeitprofile<br />

gezeigt. Die zugehörigen Flares sind durch Pfeile markiert. Der untere Teil<br />

zeigt die Anisotropie-Zeitprofile: Am Anfang eines Ereignisses ist die Anisotropie groß, d.h.<br />

die Teilchen fallen aus einem begrenzten Winkelbereich aus solarer Richtung in das Teleskop.<br />

2. Juli 2008 c○ M.-B. Kallenrode


5.1. DAS NAHE ERDUMFELD 239<br />

Abbildung 5.13: EPHIN Teilchenteleskop<br />

mit den sektorisierten Detektoren<br />

A und B [141]<br />

Im Laufe der Zeit sinkt die Anisotropie ab, da die Verteilung breiter wird, wie im unteren<br />

Beispiel in Abb. 5.11 gezeigt ist. Dieses Absinken erklärt sich aus der Teilchenausbreitung<br />

im interplanetaren Raum: die Teilchen werden an Magnetfeldirregularitäten gestreut, so dass<br />

auch wieder Teilchen auf die Sonne zulaufen. Somit können wir mit Hilfe dieses Instruments<br />

nicht nur die auf der Sonne beschleunigten Teilchen nachweisen und damit etwas über die<br />

solare Aktivität und Beschleunigungsmechanismen lernen, sondern auch die Ausbreitungsbedingungen<br />

und die Struktur des interplanetaren Mediums untersuchen.<br />

§ 782 Bei der Analyse der Helios-Daten haben sich einige kleine und größere instrumentelle<br />

Probleme aufgezeigt, die man durch Verwendung anderer Detektorkombinationen bzw.<br />

modernerer Techniken zu vermeiden versucht.<br />

EPHIN auf SOHO<br />

§ 783 Auf Helios hat es sich als schwierig erwiesen, 3 He und 4 He zu trennen, da die Ortskurven<br />

dieser beiden Isotope relativ eng beieinander liegen. Wenn die Teilchen nur exakt<br />

senkrecht in das Teleskop fallen, so sind ihre Wege in den einzelnen Detektoren und damit<br />

ihre Energieverluste genau gleich und es würden sich scharf begrenzte Ortskurven ähnlich<br />

denen in Abb. 5.10 ergeben. Fallen Teilchen auch schräg auf die Detektoren, so sind ihre<br />

Wege im Detektor länger und die Energieverluste entsprechend größer. Dadurch ergibt sich<br />

eine Verbreiterung der Ortskurve und die Trennung zwischen benachbarten Ortskurven wird<br />

schwierig. Dies ist besonders ungünstig, wenn kleine Verhältnisse bestimmt werden sollen<br />

( 3 He tritt nur ungefähr 10 −4 mal so selten auf wie 4 He, in einigen Flares kann allerdings der<br />

3 He-Anteil dem des 4 He gleichkommen).<br />

§ 784 Im Ephin-Teilchenteleskop (siehe Abb. 5.13) verwendet man das gleiche Messprinzip<br />

wie beim Helios-Sensor (Stapel von 6 Detektoren umgeben von einer Antikoinzidenz), jedoch<br />

sind hier die oberen Detektoren sektorisiert, wie der linke Teil von Abb. 5.13 zeigt. Jedes<br />

dieser Detektorsegmente wird wie ein eigenständiger Detektor behandelt, d.h. im Gegensatz<br />

zu Helios liegen für die oberen Detektoren neben den Energieverlusten auch noch die Einfallsorte<br />

vor. Da beide oberen Detektoren sektorisiert werden, kann man den Einfallswinkel eines<br />

Teilchens bestimmen. Abbildung 5.14 zeigt dazu, wie aus den unterschiedlichen Sektoren der<br />

beiden Detektoren Bereiche des Einfallswinkels definiert werden können. Innerhalb eines Einfallswinkelbereiches<br />

sind dann die effektiven Wege der Teilchen im Detektor vergleichbar, die<br />

Ortskurven in der Impulshöhenmatrix verschmieren nicht so stark und die Isotopentrennung<br />

ist genauer bzw. auch dann noch möglich, wenn das Verhältnis dieser Isotope weit von eins<br />

entfernt ist.<br />

§ 785 Neben der genaueren Untersuchung der Isotope und der besseren Trennung der verschiedenen<br />

Teilchensorten erlaubt eine derartige Sektorisierung von Detektoren auch die Messung<br />

von Winkelverteilungen auf einem Raumfahrzeug, dass auf Grund der auf die Sonne<br />

ausgerichteten optischen Instrumente 3-Achsen stabilisiert ist und daher nicht spinnt.<br />

c○ M.-B. Kallenrode 2. Juli 2008


240 KAPITEL 5. DIE ERWEITERTE PERSPEKTIVE: CAWSES<br />

Abbildung 5.14: Einfallsrichtungen aus<br />

Sektorkombinationen [238]<br />

Abbildung 5.15: Schnitt durch den Sensor<br />

des Kieler Elektronen-Teleskops<br />

KET auf Ulysses<br />

§ 786 Ein weiteres von Helios bekanntes Problem ist die Trennung von Elektronen und<br />

Protonen durch die Schwelle in Detektor 1. Elektronen erleiden häufig Vielfachstreuungen,<br />

d.h. ihr Weg innerhalb des Detektors wird verlängert und ihr Energieverlust vergrößert.<br />

Dadurch werden einige Elektronen als Protonen gezählt. Außerdem hat das Helios-Teleskop<br />

nur Energien bis 51 MeV/nucl gemessen, schnellere (energiereichere) Teilchen wurden nur<br />

noch nachgewiesen, nicht aber analysiert. Das KET Instrument auf Ulysses misst weit über<br />

diesen Energiebereich hinaus und ist in der Lage, Elektronen und Protonen sauber zu trennen.<br />

§ 787 Abbildung 5.15 zeigt den KET Sensor: Das Detektorsystem besteht aus einem Eingangsteleskop<br />

(gebildet durch die Halbleiterdetektoren D1, D2 und den Cerenkov-Zähler C1)<br />

sowie einem Kalorimeter C2, dem sich zur Erfassung durchgehender Teilchen ein Szintillationsdetektor<br />

S2 anschließt. Der Einfallswinkel des Sensors wird durch einen Antikoinzidenzszintillator<br />

S1 gebildet. Die Signale der Szintillatoren und Cerenkov-Detektoren werden<br />

durch Photomultiplier ausgewertet. Mit Hilfe von Schwellwertüberschreitungen im Cerenkov-<br />

2. Juli 2008 c○ M.-B. Kallenrode


5.1. DAS NAHE ERDUMFELD 241<br />

Lichtsignal, der Registrierung von Energieverlusten in der durchsetzten Materie und der quantitativen<br />

Analyse der Ausbildung elektromagnetischer Kaskaden im Kalorimeter sowie der<br />

Klassifizierung der Detektorsignale durch Diskriminatorschwellen und der Impulshöhenanalyse<br />

aller signalgenerierender Detektoren werden einfallende Teilchen identifiziert und ihre Energie<br />

erfasst.<br />

§ 788 Beginnen wir mit dem Eingangsteleskop D1, D2 und C1. Hier fällt dem Cerenkov-<br />

Detektor die entscheidende Rolle bei der Trennung von Elektronen und Protonen zu: Elektronen<br />

haben bei gleicher Energie wie Protonen (oder andere Nukleonen) aufgrund ihrer geringeren<br />

Masse eine wesentlich höhere Geschwindigkeit. Daher erreichen sie bereits bei deutlich<br />

geringerer Energie die für die Erzeugung von Cerenkov-Strahlung kritische Geschwindigkeit.<br />

Die Unterscheidung zwischen Elektronen und Protonen erfolgt dann durch die Abfrage, ob<br />

der Cerenkov-Detektor ein Signal gegeben hat oder nicht. Protonen sind erst im GeV Bereich<br />

schnell genug, um ein Signal zu erzeugen, diese können aber durch unterschiedliche Signale<br />

in den folgenden Detektoren von den Elektronen unterschieden werden.<br />

§ 789 In diesem Instrument werden Nukleonen bis zu Energien von ca. 1200 MeV/nukl erfasst,<br />

Elektronen bis zu Energien von ca. 10 MeV. Durch geeignete Wahl von Schwellen<br />

und die Verwendung von drei Detektoren ist dieser Energiebereich in Kanäle unterteilt. Teilchen<br />

mit höheren Energien durchsetzen dieses Teilchenteleskop und fallen in das aus dem<br />

Cerenkov-Detektor C2 und dem Szintillator S2 gebildete Kalorimeter. Der Begriff Kalorimeter<br />

soll darauf hindeuten, dass in diesem Detektor die Energie der einfallenden Elektronen<br />

bestimmt werden soll. Die einfallenden Elektronen bilden im C2 eine elektromagnetische Kaskade<br />

und hinterlassen über ihre Spurlängen und die Spurlängen der gebildeten sekundären<br />

Elektronen ein Cerenkov-Lichtsignal, das der Einfallsenergie äquivalent ist. Kann der sich<br />

ausbildende Schauer nicht im Material wieder vollständig absorbiert werden (mit steigender<br />

Energie), so muss der umgebende S2-Szintillator zusätzlich Auskunft über die Anzahl entweichender<br />

Sekundärelektronen geben, da deren Beitrag zum Gesamtlicht nun fehlt. Wie schon<br />

im C1 können Protonen hier nur dann ein Signal erzeugen, wenn ihre Energie ausreichend<br />

hoch ist.<br />

5.1.3 Magnetosphäre und Ionospäre<br />

§ 790 Die Struktur und Grundbegriffe zur Magnetosphäre sind bereits in Abschn. 3.1.2 beschrieben.<br />

Im Rahmen solar-Terrestrischer Beziehungen sind die folgenden Aspekte relevant:<br />

• die Abschirmung der galaktischen kosmischen Strahlung durch das geomagnetische Feld;<br />

• das Eindringen von Sonnenwind und solaren energiereichen Teilchen über den Polkappen<br />

und in flux transfer events,<br />

• die Dynamik der Magnetosphäre im Zusammenhang mit Fluktuationen und Störungen im<br />

Sonnenwind,<br />

• das damit verbundenen Eindringen magnetosphärischer Teilchen in die Atmosphäre.<br />

§ 791 Untersuchungen der Magnetosphäre erfolge im wesentlichen mit in-situ Instrumenten.<br />

Gemessen werden elektromagnetische Felder, Plasmadichten und -temperaturen sowie<br />

energiereiche Teilchen. Lediglich einige Plasmawellen lassen sich mittels remote sensing nachweisen.<br />

§ 792 Die Eigenschaften der Magnetosphäre und damit ihre Variabilität wird durch die Eigenschaften<br />

der angrenzenden Medien bestimmt: die äußere Magnetosphäre ist durch die<br />

Wechselwirkung mit dem Sonnenwind determiniert. Ihre Struktur ist daher in Lokalzeit bzw.<br />

im Bezug auf die Erde–Sonne-Achse annähernd fix und die Erde dreht sich drunter weg. Die<br />

untere Grenze der Magnetosphäre ist die Atmosphäre. Diese ist stark durch die Erdoberfläche<br />

bestimmt: die Verteilung von Land- und Wasserflächen, orographische Hindernisse und Reibung<br />

am Boden bestimmen die Bewegung der Atmosphäre. Die Wind- und Drucksysteme<br />

sind daher auf die geographische Position bezogen und rotieren mit der Erde mit.<br />

c○ M.-B. Kallenrode 2. Juli 2008


242 KAPITEL 5. DIE ERWEITERTE PERSPEKTIVE: CAWSES<br />

Abbildung 5.16:<br />

Geospace, das erdnahe<br />

Umfeld. Zwischen neutraler<br />

Atmosphäre und<br />

Magnetosphäre befindet<br />

sich die Ionosphäre,<br />

die gleichzeitig beide<br />

koppelt [435]<br />

Abbildung 5.17: Time of<br />

Flight (TOF) Methode<br />

zur Messung energiereicher<br />

Teilchen [115]<br />

§ 793 Die Kopplung zwischen fixem und korotierendem Erdumfeld erfolgt auf teilweise durch<br />

Reibung und teilweise durch elektrische und magnetische Felder. Eine wichtige Rolle kommt<br />

dabei der Ionosphäre zu: das planetare Magnetfeld reguliert die Bewegung der geladenen<br />

Teilchen. Die Bewegung von geladenen Teilchen erzeugt andererseits aber auch magnetische<br />

Felder, die sich dem planetaren Feld überlagern: ein Plasma ist ein magnetisiertes Gas, das mit<br />

sich selbst in Wechelwirkung tritt. Die Kenntnis der oberen Atmosphäre (und insbesondere<br />

der Ionosphäre) ist daher für das Verständnis der Magnetosphäre und ihrer Aktivität genau<br />

so wichtig wie umgekehrt die Berücksichtigung der Eigenschaften der Magnetosphäre beim<br />

Studium der oberen Atmosphäre.<br />

§ 794 Untersuchungen der Ionosphäre erfolgen mit Raketen, da selbst niedrig fliegende (militärische)<br />

Satelliten nur die dünnen oberen Ionosphärenschichten messen können. In diesen<br />

Bereich ist die Messung der Plasmaeigenschaften relevant, in größeren Höhen gewinnt zunehmend<br />

die Messung des Magnetfeldes an Bedeutung.<br />

Energiereiche Teilchen<br />

§ 795 Die energiereichen Teilchen lassen sich wie in Abschn. 5.1.2 beschrieben messen. Teilchen<br />

geringerer Energie werden häufig mit Time-of-Flight (TOF) Methoden nachgewiesen.<br />

Das Prinzip ist in Abb. 5.17 gegeben. Vor Erreichen des Detektors müssen die zu messenden<br />

Ionen eine Reihe von Gittern durchsetzen von denen einige auf einem vorgegebenen<br />

Potential liegen, die mittlere dagegen auf einem oszillierenden Potential. Das Potentialgefälle<br />

V1 zwischen den Gittern 1 und 2 beschleunigt die Ionen um einen Geschwindigkeitszuwachs<br />

� 2qV1/m, der vom Massen-zu-Ladungsverhältnis m/q abhängt. Auf Grund der unterschiedli-<br />

2. Juli 2008 c○ M.-B. Kallenrode


5.1. DAS NAHE ERDUMFELD 243<br />

chen Anfangsgeschwindigkeiten haben die Ionen aber weiterhin unterschiedliche Geschwindigkeiten.<br />

Das oszillierende Potential an Gitter 3 beschleunigt nur Ionen mit Geschwindigkeiten<br />

nahe 2d/T mit d als dem Abstand zwischen den Gittern 2 und 3 und T als der Oszillationsperiode.<br />

Gitter 5 dient als verzögernde Elektrode: es hindert alle Ionen, die nicht die maximal<br />

mögliche Geschwindigkeit erreicht haben daran, auf den Detektor zu treffen. Damit wird der<br />

Ionenstrahl, der auf Gitter 2 trifft, entsprechend der Geschwindigkeit gefiltert, so dass nur<br />

Ionen mit einem bestimmten m/q den Detektor erreichen. TOF Spektrometer werden häufig<br />

mit elektrostatischen Deflektoren kombiniert. Ein neueres Beispiel ist CELIAS auf SOHO<br />

[58].<br />

§ 796 Ein auch aus dem Labor bekanntes alternatives Nachweisverfahren für energiereiche<br />

Teilchen ist das Massenspektrometer: durch die Ablenkung einer Ladung im Magnetfeld lässt<br />

sich das Massen-zu-Ladungsverhältnis q/m bestimmen. Auf einem Satelliten hat das Messenspektrometer<br />

gegenüber dem Labor zwei Vorteile: es muss kein Vakuum erzeugt werden<br />

und die zu untersuchenden Teilchen sind ohnehin bereits ionisiert. Der erforderliche Magnet<br />

ist jedoch eine Einschränkung für die Verwendung auf Satelliten: zum einen auf Grund seiner<br />

Masse, zum anderen auf Grund des von ihm erzeugten Feldes – die Messung eines relativ<br />

schwachen Feldes wie des interplanetaren Magnetfeldes ist auf Grund des starken Störfeldes<br />

nicht möglich.<br />

Plasma<br />

§ 797 Die Messung des Plasmas erfolgt nicht über den Nachweis einzelner Ionen (oder Elektronen)<br />

sondern über kollektive Effekte. Das Standardinstrument zur Messung von Plasmaeigenschaften<br />

ist die Langmuir Sonde; der Nachweis der geladenen Teilchen erfolgt durch<br />

den mit ihnen verbundenen Strom. Durch das Anlegen verschiedener Potentiale lassen sich<br />

die Elektronendichte, die Energieverteilung der Elektronen und damit die Temperatur des<br />

Plasmas sowie die Ionendichte bestimmen.<br />

§ 798 Ein indirektes Messverfahren sind die Impedanz- und die Resonanzsonde. Beide messen<br />

die elektrischen Eigenschaften des Mediums; Modelle über den Zusammenhang zwischen<br />

Plasmaeigenschaften und elektrischen Eigenschaften erlauben dann einen Rückschluss auf<br />

die ersteren. In der Impedanzsonde wird die Abhängigkeit der dielektrischen Konstante ε<br />

von der Elektronendichte ausgenutzt. Im Labor würde man die dielektrische Konstante eines<br />

Materials messen, in dem man das Material in einen Kondensator ein bringt und die<br />

Veränderung der Kapazität bestimmt. Im Weltraum macht man es genauso. Der Kondensator<br />

ist Bestandteil eines Schwingkreises; da die Kapazität von der Elektronendichte abhängt,<br />

hängt die Frequenz des Schwingkreises ebenfalls von der Elektronendichte ab. Messung der<br />

emittierten Radiofrequenz erlaubt also die Bestimmung der Elektronendichte. Auf Grund der<br />

Quasineutralität eines Plasmas ist dann auch die Ionendichte bekannt. Die Resonanzsonde<br />

dagegen besteht aus einem abstimmbaren Sender und einem Empfänger. Die Frequenz, bei<br />

der das Medium zwischen den beiden in Resonanz gerät, hängt von der Elektronendichte ab<br />

– letztere wird also indirekt aus der Resonanzfrequenz bestimmt.<br />

Elektromagnetische Felder<br />

§ 799 Die Messung elektromagnetischer Felder erfordert etwas Vorsicht, da auch das Raumfahrzeug<br />

selbst elektromagnetische Felder erzeugt. Daher sind die Instrumente in der Regel<br />

an bis zu wenigen 10 Meter langen Auslegern montiert. Letztere lassen sich technisch am<br />

einfachsten auf spinnenden Raumfahrzeugen realisieren: die Instrumente sind an einem Ende<br />

eines fest aufgewundenen Stahlkabels montiert. Im Orbit werden sie bei einem spinnendne<br />

Satelliten auf Grund der Zentrifugalkraft nach außen getragen - die Länge des Auslegers<br />

ist durch die Seillänge gegeben. 7 Auf 3-Achsen stabilisierten Satelliten muss ein gefalteter<br />

Ausleger verwendet werden.<br />

7 Der schwedische Viking Satellite [603, 683] hat bereits in den 1980ern als Kleinsatellit 40 m lange radiale<br />

Ausleger für die Instrumente zur Messung des elektrischen Feldes gehabt.<br />

c○ M.-B. Kallenrode 2. Juli 2008


244 KAPITEL 5. DIE ERWEITERTE PERSPEKTIVE: CAWSES<br />

§ 800 Zur Messung des elektromagnetischen Feldes werden zwei unterschiedliche Instrumenttypen<br />

benötigt; einer zur Messung des magnetischen Feldes, ein anderer zur Messung des<br />

elektrischen. Beide Felder sind Vektorfelder, d.h. die Messinstrumente lassen sich in jeweils<br />

zwei Typen einteilen: die Messung des Feldvektors (Betrag und Richtung) oder die Messung<br />

der Feldstärke. Die Messung der ersteren erfordert in der Regel einen größeren Aufwand.<br />

Außerdem messen einige Instrumente nur die Fluktuationen des Feldes, andere dagegen den<br />

Absolutwert.<br />

§ 801 Das einfachste Magnetometer ist das Pulsations-Magnetometer: drei Spulen werden,<br />

wie die Achsen des kartesischen Koordinatensystems, senkrecht zu einander angeordnet.<br />

Gemäß faraday führt eine Änderung des magnetischen Flusses durch eine Fläche zu einem<br />

Strom in ihrer Umrandung. Durch die Messung dieses Stroms lassen sich die Änderungen<br />

des Feldes nachweisen – jede Spule ist dabei für eine Feldkomponente zuständig. So einfach<br />

das Messprinzip ist, es hat den entscheidenden Nachteil, dass nur Fluktuationen und keine<br />

Absolutwerte gemessen werden. 8<br />

§ 802 Das Fluxgate-Magnetometer basiert ebenfalls auf einer tri-axialen Konfiguration von<br />

Sensoren, kann aber zusätzlich zu den Fluktuationen auch die Komponenten eines konstanten<br />

Feldes messen. Jeder Sensor ist ein kleiner, um einen Kern mit hoher Permeabilität<br />

gewickelter Transformator. Die Primärspule wird mit einem hochfrequenten Strom angeregt,<br />

wobei Strom und Permeabilität so aufeinander abgestimmt sind, dass der Kern während jedes<br />

Halbzyklus der Anregung in die Sättigung getrieben wird. Die Sekundärspule weist dann<br />

eine zeitabhängige Spannung nach deren Beziehung zum Eingangssignal durch die Hysteresis<br />

des Kerns gegeben ist. Für einen Kern hoher Permeabilität ist dieses Ausgangssignal stark<br />

verzerrt durch höhere Harmonische des Eingangs. Hat das externe Magnetfeld keine Komponente<br />

entlang der Achse des Transformators, so wird die Hystereseschleife symmetrisch<br />

durchlaufen und der Ausgangs enthält nur ungradzahlige Harmonische. In Gegenwart eines<br />

mMgnetfeldes dagegen wird die Sättigung in der einen Hälfte des Zyklus früher erreicht als<br />

in der anderen – im Ausgangssignal entstehen auch gradzahlige Harmonische. Das Verhältnis<br />

von Phasen un Ampltiuden dieser höheren Harmonischen erlaubt die Bestimmung der Feldkomponente<br />

parallel zur Achse des Transformators.<br />

§ 803 Die Messung des elektrischen Feldes ist, zumindest theoretisch, einfach: mit Hilfe von<br />

zwei (oder mehr) Proben auf Auslegern lässt sich das Potential zwischen diesen messen. Auf<br />

einem Satelliten wird dieses Verfahren durch zwei Effekte beeinflusst: da sich der Satellit in<br />

einem Magnetfeld bewegt, ergibt sich ein �v × � B elektrisches Induktionsfeld. In der inneren<br />

Magnetosphäre kann dies bis zu 0.5 V/m annehmen. Für dieses Effekt kann leicht korrigiert<br />

werden, entweder mit Hilfe der Magnetfeldmessungen oder, natürlich nicht ganz so genau,<br />

unter Verwendung eines Referenzfeldes. Der zweite Effekt lässt sich kaum korrigieren und<br />

sollte bereits beim Instrumentdesign minimiert werden: die Sonden ebenso wie der Satellit<br />

wechselwirken mit dem umgebenden Plasma. Insbesondere baut sich eine Plasmaschicht um<br />

die Sonde auf, die das lokale elektrische Feld beeinflusst. Auch können bei einem vom Sonnenlicht<br />

beschienenen Sensor durch Photoionisation Elektronen ausgelöst werden, die ebenfalls<br />

das Feld beeinflussen. Die Summe dieser Ströme ergibt das floating potential, dass durch<br />

einen Bias ausgeglichen werden muss.<br />

§ 804 Eine von diesen Störungen nicht beeinflusste Messmethode basiert auf der Ablenkung<br />

von Elektronen in gekreuzten elektrischen und magnetischen Feldern. Das System besteht,<br />

wie in Abb. 5.18 angedeutet, aus einer Elektronenkanone, die Elektronen mit wohl definierter<br />

Energie erzeugt, einem System von Spulen zur Erzeugung eines magnetischen Feldes senkrecht<br />

zum Elektronenstrahl sowie einem Detektor mit hoher Ortsauflösung. In Abwesenheit<br />

eines externen elektrischen Feldes würden die Elektronen genau ein Gyrationsorbit vollführen<br />

und an ihrer Quelle auf den Detektor treffen. In Gegenwart eines elektrischen Feldes ergibt<br />

8 Diese Aussage gilt für einen stabilisierten Satelliten. Auf einem spinnenden Satelliten führt auch ein<br />

konstantes Feld zu einer Änderung des magnetischen Flusses in jeder Spule und kann damit gemessen werden.<br />

2. Juli 2008 c○ M.-B. Kallenrode


5.2. DIE SONNE 245<br />

Abbildung 5.18: Messung des<br />

elektrischen Feldes aus der Drift<br />

von Elektronen [115]<br />

sich kein geschlossenes Orbit sondern ein Versatz auf Grund der � E × � B-Drift. Das Elektron<br />

wird also in einigem Abstand von seinem nominellen Auftreffpunkt nachgewiesen - aus dem<br />

Abstand lässt sich das elektrische Feld berechnen.<br />

5.2 Die Sonne<br />

§ 805 Die Erforschung der Sonne ist ein Musterbeitspiel für remote sensing: 150 Mio km<br />

von der Erde entfernt und mit einer 1 Mio K heißen Atmosphäre umgeben, ist die Sonne<br />

nicht das Objekt, an dem sich leicht in-situ Messungen vornehmen machen. Außerdem ist<br />

der interessanteste Aspekt der Sonne die von ihr emittierte elektromagnetische Strahlung –<br />

remote sensing drängt sich von selbst auf.<br />

§ 806 Bereits lange vor dem Satellitenzeitalter hat man remote sensing an der Sonne vom<br />

Erdboden aus betrieben. Das Spektrum der Sonne wurde von u.a. Fraunhofer ausführlich<br />

analysiert und lieferte Hinweise auf die Existenz einer solaren Atmosphäre sowie deren Zusammensetzung;<br />

außerdem gaben die Linien erste Hinweise auf hohe Ionisationszustände und<br />

damit hohe Temperaturen in der Korona. Das solare Magnetfeld wurde mit Hilfe des Zeeman-<br />

Effekts (Aufspaltung von Spektrallinien im Magnetfeld) recht genau vermessen, so dass man<br />

bereits früh die Sonne als magnetischen Stern erkannte und die Bedeutung des Magnetfelds<br />

für den Solarzyklus und sie solare Aktivität verstanden wurde.<br />

§ 807 Auch solare Aktivität wurde früh beobachtet. Flares, ein Aufleuchten eines Sonnenflecks<br />

in verschiedenen Spektralbereichen, manchmal sogar im gesamten sichtbaren Bereich,<br />

wurden ebenso beschrieben wie Filamente und Protuberanzen, siehe Abb. 5.19. Auch die<br />

Veränderungen dieses Phänomene im Rahmen der solaren Aktivität wurden beschrieben.<br />

Allerdings waren alle Informationen auf die Bereiche des elektromagnetischen Spektrums<br />

beschränkt, die nicht in der Atmosphäre absorbiert wurden.<br />

§ 808 Remote sensing der Sonne vom Satelliten aus liefert zusätzliche Informationen:<br />

• Optische Instrumente, insbesondere Teleskope, arbeiten außerhalb der Erdatmosphäre präziser,<br />

da die Luftbewegung keine Schwankungen mehr erzeugen kann. Dies ist wichtig z.B.<br />

im Bereich der Helioseismologie.<br />

• Beobachtungen sind auch außerhalb des sichtbaren Bereiches möglich, die sonst von der<br />

Atmosphäre absorbiert werden. Diese Bereiche sind im Laufe des Solarzyklus wesentlich<br />

variabler als der sichtbare Bereich.<br />

• Die energiereichsten Prozesse auf der Sonne manifestieren sich durch Wechselwirkung von<br />

beschleunigten Teilchen mit solarer Materie im Röntgen- und Gammabereich, beides Wellenlängenbereiche,<br />

die von der Atmosphäre absorbiert werden.<br />

• Messungen der Solarkonstante sind nur außerhalb der Atmosphäre möglich.<br />

5.2.1 Die Instrumente<br />

§ 809 Vom Satelliten aus wird die Sonne in verschiedenen Bereichen des elektromagnetischen<br />

Spektrums betrachtet. Die verschiedenen Generationen von Instrumenten haben sich<br />

c○ M.-B. Kallenrode 2. Juli 2008


246 KAPITEL 5. DIE ERWEITERTE PERSPEKTIVE: CAWSES<br />

Abbildung 5.19: Einige<br />

Phänomene der aktiven<br />

Sonne [64]<br />

ähnlich denen in der <strong>Erdfernerkundung</strong>s entwickelt – nicht verwunderlich, da die Techniken<br />

recht ähnlich sind. Wie bei den Instrumenten in Kap. 3 werden wir hier zuerst die älteren Instrumente<br />

kennen lernen, da das Messprinzip klarer zu Tage tritt und das Instrument damit<br />

einfacher zu verstehen ist.<br />

§ 810 Als Beispiele für Instrumente, die harte elektromagnetische Strahlung messen, seien<br />

hier einige Instrumente der bereits von der Satellitenabbremsung in Abschn. 2.3.2 bekannte<br />

Solar Maximum Mission SMM (SolarMax [19, 493, 442, 490]) vorgestellt. SolarMax hat<br />

die Sonne in verschiedenen Bereichen des elektromagnetischen Spektrums untersucht. Die<br />

Instrumente messen Gammaemission, harte und weiche Röntgenstrahlung sowie solare UV-<br />

Emissionen. Zusätzlich trägt SolarMax einen Koronagraphen zur Beobachtung der äußeren<br />

Sonnenatmosphäre und ein Instrumentenpaket zur Messung der Solarkonstanten. Der Satellit<br />

wurde zur Zeit eines solaren Maximums gestartet, die wissenschaftlichen Fragestellungen<br />

betrafen den Energieoutput der Sonne und die Energieumsetzungen während verschiedener<br />

Phasen solarer Flares. Durch Reibung in der Hochatmosphäre wurde SolarMax soweit abgebremst,<br />

dass er im Dezember 1989 abstürzte (siehe § 128).<br />

Hard X-Ray Burst Spectrometer HXRBS<br />

§ 811 Abbildung 5.20 zeigt den Aufbau des Hard X-Ray Burst Spectrometers HXRBS [181].<br />

Hauptbestandteil sind zwei Szintillatorkristalle, ein scheibenförmiger CsJ(Na) Kristall als der<br />

eigentliche Detektor und ein becherförmiger CsJ(Na) Kristall, der diesen als aktive Antikoinzidenz<br />

umhüllt. Ziel der Antikoinzidenz ist die Definition eines Öffnungswinkels: es sollen nur<br />

Photonen betrachtet werden, die aus einem bestimmten Winkelbereich direkt auf den Detektor<br />

fallen. Die Antikoinzidenz wird als aktiv bezeichnet, weil sie zwar nicht das Durchdringen<br />

eines Photons verhindert, dieses aber anzeigt und somit für jedes Signal des eigentlichen<br />

Detektors geprüft werden kann, ob ein gleichzeitiges Signal der Antikoinzidenz vorliegt oder<br />

nicht. Spricht auch die Antikoinzidenz an, so kam das Photon aus einem Bereich außerhalb<br />

des Öffnungswinkels und wird als ungültig verworfen. Das Instrument ist so ausgerichtet, dass<br />

der zentrale Detektor in solare Richtung blickt. Die Signale der Szintillationszähler werden<br />

2. Juli 2008 c○ M.-B. Kallenrode


5.2. DIE SONNE 247<br />

Abbildung 5.20: Aufbau des<br />

Hard X-Ray Burst Spectrometers<br />

[181]<br />

Abbildung 5.21: Hard<br />

X-ray Imaging Spectrometer<br />

HXIS [242]<br />

von Photomultipliern in elektrische Impulse umgewandelt. Um Veränderungen im Ansprechvermögen<br />

des Detektors feststellen zu können, ist das Instrument mit einer 241 Am-Quelle<br />

ausgestattet, die Kalibrationen während des Fluges ermöglicht.<br />

§ 812 Der Gesamtenergiebereich reicht von 20 keV bis 260 keV, die zeitliche Auflösung<br />

beträgt 128 ms. Durch die Einteilung des Meßbereichs in 15 Kanäle kann ein Spektrum<br />

der harten Röntgenstrahlung erzeugt werden. Zusätzlich gibt es einen Kanal zur Untersuchung<br />

schneller Veränderungen im solaren Output, der den gesamten Energiebereich mit<br />

einer Zeitauflösung von einigen Millisekunden umfasst.<br />

Hard X-Ray Imaging Spectrometer HXIS<br />

§ 813 Hat das Hard X-Ray Burst Spektrometer stets die gesamte Sonne im Blickfeld gehabt,<br />

will man beim Hard X-Ray Imaging Spectrometer HXIS [242] ein Abbild der Sonne<br />

im Röntgenlicht erzeugen, um Bereiche starker Röntgenemission identifizieren und mit in<br />

anderen Frequenzbereichen zu beobachtenden Strukturen in Beziehung setzen zu können.<br />

Die Sonne ist von der Erde aus gesehen eine Scheibe mit einem Durchmesser von 23’17”<br />

(Durchmesser von 1.4 Mio. km, Abstand von 150 Mio. km). Diese relativ kleine Scheibe wird<br />

vom HXIS im Röntgenbereich vermessen. Der Energiebereich von 3.5 – 30 keV ist dazu in<br />

6 Kanäle eingeteilt. Die räumliche Auflösung beträgt 8” bei einem Blickfeld von 2’40” oder<br />

32” bei einem Blickfeld von 6’24”. Die zeitliche Auflösung variiert zwischen 0.5 und 7 sec, je<br />

nachdem in welchem Modus sich das Instrument befindet. Die räumliche Auflösung ist so gut,<br />

c○ M.-B. Kallenrode 2. Juli 2008


248 KAPITEL 5. DIE ERWEITERTE PERSPEKTIVE: CAWSES<br />

Abbildung 5.22: Gamma-Ray Spectrometer<br />

GRS [62]<br />

dass größere aktive Gebiete (Durchmesser 100”) in bis zu 12 Pixel zerlegt werden können.<br />

Die Röntgenemission kann also nicht nur einem aktiven Gebiet, sondern feineren Strukturen<br />

innerhalb eines Gebiets zugeordnet werden. Der Nachteil der hohen Auflösung ist der kleine<br />

Blickwinkel, d.h. das Instrument hat stets nur einen Teil der Sonne im Blickfeld.<br />

§ 814 Um eine räumliche Auflösung zu erreichen, benötigt man ein ortsauflösendes System.<br />

Abbildung 5.21 zeigt dazu den Aufbau des HXIS. Die entscheidenden Teile sind der Kollimator<br />

und das ortsauflösende Detektorsystem. Im rechten oberen Teil der Abbildung ist eine<br />

‘Beispielaufnahme’ eines aktiven Gebiets auf der Sonne angedeutet. Der Kollimator besteht<br />

aus einem zweidimensionalen Array von Subkollimatoren, die jeweils in 576 Sektionen unterteilt<br />

sind. Zehn derartige Kollimatorplatten befinden sich hintereinander. Durch Verwendung<br />

bestimmter Kombinationen von Subkollimatorgruppen lassen sich die unterschiedlichen Gesichtsfelder<br />

erzeugen [242]. Diese Kollimatorplatten sind 62 µm dick, die quadratischen Löcher<br />

haben Kantenlängen von 46 µm auf den äußeren Platten und Kantenlängen von 64 µm auf<br />

den mittleren Platten. Das Detektorsystem wird aus Mini-Proportionalzählern mit Durchmessern<br />

von 0.65 mm gebildet (siehe Abb. 5.21 links oben). Da nur Photonen, die sich in<br />

dem vorhergehenden Gitter parallel zur Teleskop-Achse bewegt haben, auf diese Detektoren<br />

fallen, ist eine gute Ortsauflösung gewährleistet.<br />

§ 815 Die Proportionalzähler basieren auf folgendem Prinzip: Ein Photon fällt in eine gasgefüllte<br />

zylinderförmige Kammer, hier gefüllt mit einem Gemisch aus 95% Xe und 5% CO2 unter<br />

einem Druck von 1.05 atm. Dabei löst das Photon entlang seiner Bahn Sekundärelektronen<br />

aus. Die zylinderförmige Kammer bildet die Kathode, in ihrer Mitte befindet sich ein dünner<br />

Draht (Anode). Aufgrund der Geometrie können schon geringe äußere Spannungen in der<br />

Nähe der Anode große Feldstärken bewirken. Die vom Photon erzeugten Elektronen werden<br />

auf die Anode beschleunigt und erzeugen dabei ein Signal, das der Ionisation durch das Photon<br />

proportional ist. Damit kann nicht nur ein Photonendurchgang nachgewiesen werden, was<br />

ja für die Ortsauflösung schon ausreichend wäre, sondern es kann auch echte Spektroskopie<br />

betrieben werden, da eine Information über die Photonenenergie vorliegt.<br />

Gamma-Ray Spectrometer GRS<br />

§ 816 Das Gammainstrument GRS [62] ist ein Spektrometer ohne Ortsauflösung, jedoch<br />

mit sehr guter spektraler Auflösung. Messziel ist die Aufnahme eines Gammaspektrums im<br />

Energiebereich von 0.3 – 9. MeV in 476 Kanälen. Die Zeitauflösung beträgt 16.4 sec. Die hohe<br />

spektrale Auflösung erlaubt die Identifizierung von charakteristischen Linien im Gammaspektrum<br />

und damit Rückschlüsse auf die Teilchenbeschleunigung und die Wechselwirkungen<br />

dieser Teilchen mit der solaren Atmosphäre.<br />

§ 817 Das in Abb. 5.22 gezeigte Gammaspektrometer besteht aus sieben NaJ(Tl) Szintillatoren.<br />

Diese Szintillatoren sind elektronisch gekoppelt, so dass sie insgesamt nur ein Ausgangssignal<br />

erzeugen: sprechen mehrere Szintillatoren an, z.B. aufgrund eines schräg durchgehenden<br />

Photons, so werden die Signale aufsummiert, um die Gesamtenergieabgabe zu erhalten.<br />

Zur Kalibration während des Fluges verfügt das Instrument über drei 60 Co Quellen, über die<br />

2. Juli 2008 c○ M.-B. Kallenrode


5.2. DIE SONNE 249<br />

Abbildung 5.23: Der<br />

HAO Koronograph/Polarimeter<br />

auf SMM<br />

[159]<br />

auch die einzelnen Szintillatoren gegeneinander kalibriert werden können. Das Spektrometer<br />

wird durch eine aktive Antikoinzidenz aus CsJ(Na) gegen seitlich einfallende Photonen<br />

abgeschirmt. Der dicke CsJ(Na) Kristall hinter dem Spektrometer dient der Registrierung<br />

hochenergetischer Gammaquanten mit Energien zwischen 10 und 100 MeV und gleichzeitig<br />

als Antikoinzidenz für rückwärts einfallende Photonen. Der Plastikfilter auf der Front des<br />

Instruments dient zur Abschirmung der einfallenden harten Röntgenstrahlung, da diese im<br />

eigentlichen Spektrometer durch Pile-up Effekte (Photonen treffen zeitlich so dicht zusammen<br />

ein, dass ihre Signale aufsummiert und als ein Teilchen mit größerer Energieabgabe gezählt<br />

werden) falsche Gammas vorspiegeln könnte.<br />

Der Koronograph<br />

§ 818 Ein gerade in der öffentlichen Darstellung gerne verwendetes Instrument ist der Koronograph<br />

– ein Teleskop, in dem eine Blende den direkten Blick auf die Sonne verwehrt<br />

und die Korona dargestellt wird. Mit Hilfe eines Koronographen wird letztendlich nur eine<br />

künstliche Sonnenfinsternis erzeugt. Ein Koronograph kann nur vernünftig vom Raumfahrzeug<br />

oberhalb der Atmosphäre beobachten: ein einfaches Abdecken der Sonnenscheibe bei<br />

einer Beobachtung vom Erdboden aus auf Grund des Streulichts in der Atmosphäre nicht<br />

ausreichend.<br />

§ 819 Ein Koronograph ist technisch nur ein gewöhnliches Teleskop, d.h. die zur Beobachtung<br />

im sichtbaren Bereich diskutierten Instrumente aus Abschn. 3.2 könnten im Prinzip alle<br />

verwendet werden. In der Regel wird eine Konfiguration ähnlich der in Abb. 5.23 für den<br />

HAO-Koronographen auf SMM gezeigten verwendet:<br />

• die räumliche Auflösung erfolgt durch Abbildung auf ein 2D CCD-Array. Scanner sind<br />

nicht attraktiv: aus technischen Gründen, da sich keine natürliche Scanrichtung ergibt (bei<br />

der <strong>Erdfernerkundung</strong> gibt die Satellitenbewegung bereits eine Scanrichtung vor). Aus<br />

physikalischen Gründen, da die Korona während einer CME schnell veränderlich ist und<br />

mit einem Scanner keine Momentaufnahme erzeugt werden kann.<br />

• Spektrale Informationen werden durch Filter erzeugt: am einfachsten ist ein Rad mit Filtern<br />

in verschiedenen Bereichen (bzw. ohne Filter zur Abdeckung des gesamten Empfindlichkeitsbereichs<br />

des Sensors). Da die Quelle sehr hell ist, können die Filter für sehr<br />

schmale Wellenlängenbereiche empfindlich sein – für Filter über weitere Frequenzbereiche<br />

wird zusätzlich ein neutrales Graufilter benötigt.<br />

• Informationen bezüglich der Polarisation werden entsprechend mit einem Filterrad gewonnen.<br />

Zur in-flight Kalibration (und damit zur Detektion etwaiger Alterungseffekte) wird ferner<br />

eine Referenzlichtquelle mitgeführt, die von Zeit zu Zeit mit dem Koronographen (nur CCD<br />

oder CCD-Filter Kombinationen) betrachtet wird.<br />

c○ M.-B. Kallenrode 2. Juli 2008


250 KAPITEL 5. DIE ERWEITERTE PERSPEKTIVE: CAWSES<br />

Abbildung 5.24: Ultraviolett<br />

Spectrometer and Polarimeter<br />

(UVSP) auf SMM [256]<br />

§ 820 Die eigentliche technische Herausforderung liegt im Design des Strahlengangs und insbesondere<br />

der Blenden: die die Sonne abdunkelnde Scheibe sollte idealerweise das Licht der<br />

Photosphäre komplett ausblenden und gleichzeitig so wenig wie möglich von der unteren Korona<br />

abdecken. Neben einem genauen Design des Lichtweges setzt gerade letzteres eine sehr<br />

genaue Ausrichtung des Instruments auf die Sonne voraus (auf einem bewegten Instrumententräger!).<br />

Auch störende Reflektionen im Strahlengang müssen vermieden werden.<br />

Messungen im (Extremen) Ultraviolett<br />

§ 821 Auch die Messung der solaren Strahlung im Ultravioletten (bzw. bei noch kürzeren<br />

Wellenlängen) ist nur außerhalb der Atmosphäre möglich (vgl. Abb. 3.3). Eines der frühen<br />

ausgereiften Beispiele ist das Ultraviolett Spectrometer and Polarimeter (UVSP) auf SMM<br />

[256], siehe auch Abb. 5.24.<br />

§ 822 Das UVSP ist ein bildgebendes Teleskop mit einer Brennweite von 1.8 m. Es unterscheidet<br />

sich von einem konventionellen Teleskop zur <strong>Erdfernerkundung</strong> nur durch den Empfindlichkeitsbereich<br />

der Detektoren: dieser liegt im UV und damit bei kürzeren Wellenlängen<br />

als die im Sichtbaren arbeitenden. Da die Photonen entsprechend höhere Energie haben,<br />

ist ihr Nachweis wesentlich unproblematischer als der im roten oder gar infraroten Bereich.<br />

Wie bei allen langbrennweitigen Teleskopen ist das Objektiv zur Verkürzung der Baulänge<br />

als Spiegelobjektiv realisiert. Spektroskopie erfolgt durch Zerlegung des einfallenden Lichtstrahls<br />

mit Hilfe eines Gitters. Gemessen wird bei einzelnen Spektrallinien, bestimmt werden<br />

deren Intensitäten, Profile, Verschiebungen und Verhältnisse. Auf diese Weise lassen sich<br />

verschiedene Plasmaparameter, u.a. Temperatur, Dichte, Geschwindigkeit und magnetische<br />

Flussdichte bestimmen.<br />

Verständnisfrage 35 Wie war das nochmal mit der magnetischen Flussdichte und den<br />

Spektrallinien? Erläutern Sie – Sie sollten zumindest noch soweit kommen, dass Sie nur mit<br />

Hilfe eines einzelnen Stichworts googeln müssen.<br />

5.2.2 Die Missionen<br />

§ 823 Die ersten großen Missionen zur Erforschung der Sonne waren SkyLab [482] und Solar<br />

Maximum Mission SMM (SolarMax [493, 442, 490]). Die neuen Missionen sind das Solar and<br />

Heliospheric Observatory SOHO [357, 613] und Stereo [500]. Während SkyLab noch als zumindest<br />

zeitweise bemanntes Observatorium entwickelt war, sind die anderen drei Missionen<br />

unbemannt mit, ihrer Zeit entsprechend, sehr unterschiedlichen Zielsetzungen und Bahnen.<br />

• Solar Maximum Mission SMM flog in der typischen ca. 500 km Bahn um die Erde: praktisch<br />

im Hinblick auf das Aussetzen vom Shuttle und Wartung aber auch unpraktisch, da SMM<br />

die Hälfte seines Orbits im Erdschatten war. Der wissenschaftliche Schwerpunkt war die<br />

Untersuchung der harten elektromagnetischen Strahlung (Röntgen- und Gammastrahlung)<br />

zum besseren Verständnis der Beschleunigungsvorgänge auf der Sonne. Nebenbei stellte<br />

man während der SMM Mission auch fest, dass die koronalen Massenausstöße (CMEs) an<br />

der Teilchenbeschleunigung beteiligt sind.<br />

2. Juli 2008 c○ M.-B. Kallenrode


5.2. DIE SONNE 251<br />

• der Schwerpunkt der SOHO Mission lag daher auf der Beobachtung koronaler Massenausstöße<br />

und Beobachtungen der unteren Sonnenatmosphäre im UV und EUV. Um die Beobachtungszeit<br />

zu verlängern, wurde SOHO nicht als Satellit sondern als im Lagrange Punkt<br />

verankerte Sonde konzipiert (vgl. Abschn. 2.7.1). Der sehr empfindliche Koronograph hat<br />

u.a. gezeigt, dass CMEs ein sehr häufiges Phänomen sind und das die in Richtung Erde<br />

startenden CMEs ein wichtiger Bestandteile Solar–Terrestrischer Beziehungen sind.<br />

• Gerade letztere CMEs sind jedoch aus dem Erdorbit oder vom Lagrangepunkt aus schlecht<br />

zu untersuchen, da ein Koronograph am meisten Information über die CMEs liefern, die<br />

zum Rand der Sonne weglaufen: ein Koronograph sieht immer nur die Projektion der<br />

CME auf eine Ebene senkrecht zur Achse Koronograph–Sonne. Die Stereo-Mission liefert<br />

hier Abhilfe: durch Beobachtung von zwei nicht in Erdnähe befindlichen Sonden lassen<br />

sich nicht nur in Richtung Erde laufende CMEs beobachten sondern es lässt sich auch aus<br />

den beiden Projektionen auf unterschiedliche Ebenen eine bessere Annäherung an die 3D<br />

Struktur der CME machen. Mit einer SOHO-ähnlichen Instrumentierung sollten die beiden<br />

Sonden ursprünglich in den den Schäfermonden entsprechenden Lagrange Punkten L4 und<br />

L5 platziert werden. Auf die aufwendigen Bahnmanöver hat man verzichtet und lässt die<br />

Sonden stattdessen auf ihren Orbits mit etwas Abständen etwas kleiner bzw. etwas größer<br />

als der Erdbahnradius langsam von der Erde weg driften.<br />

Solar Maximum Mission SMM<br />

§ 824 Als ein etwas ausführlicheres Beispiel für die Ergebnisse derartiger Missionen sei hier<br />

die Bedeutung der Röntgen- und Gammastrahlung im Flare, wie sie sich aus den SMM<br />

Untersuchungen ergibt, vorgestellt.<br />

§ 825 Solare Gamma- und Röntgenstrahlung kann zur Untersuchung der Teilchenbeschleunigung<br />

auf der Sonne verwendet werden. Gammaemission wird durch die Wechselwirkung<br />

energiereicher geladener Teilchen mit den unteren Schichten der solaren Atmosphäre erzeugt.<br />

Bei den Teilchen handelt es sich im wesentlichen um Elektronen und Protonen, energiereich<br />

bedeutet dabei, dass die Elektronen Energien von mindestens 0.5 MeV haben, die Protonen<br />

Energien von einigen 10 MeV/nucl. Dabei ist 1 eV (Elektronenvolt), die kinetische Energie,<br />

die ein Elektron beim Durchlaufen einer Potentialdifferenz von 1 V gewinnt.<br />

§ 826 Abbildung 5.25 gibt einen Überblick über einen Teil der Phänomene, die mit einer<br />

solaren Eruption (Flare) verbunden sind. Die einzelnen Phänomene sind in der Bildunterschrift<br />

kurz erwähnt, für unsere Betrachtung wichtig ist (1) die Energiefreisetzung im Flare.<br />

Die im Flare beschleunigten geladenen Teilchen können sich entlang der Magnetfeldlinien<br />

abwärts bewegen und erzeugen dort Gamma- und Röntgenemission (2). Oder sie können sich<br />

aufwärts bewegen (3,4) und in das interplanetare Medium entweichen.<br />

§ 827 Solare Gammaemission 9 setzt sich aus folgenden Komponenten zusammen: (a) Kontinuumsemission<br />

durch Bremsstrahlung relativistischer Elektronen sowie oberhalb von ∼1 MeV<br />

aus durch Doppler- und instrumentell bedingter Verbreiterung nicht mehr zu trennenden nuklearen<br />

Linien, (b) nukleare Strahlung angeregter CNO-Kerne führt zu einem Linienspektrum<br />

zwischen 4 und 7 MeV, (c) oberhalb 10 MeV Bremsstrahlung relativistischer Elektronen und<br />

(d) oberhalb 25 MeV Kontinuumsemission durch den Zerfall von Pionen.<br />

9 Diese einfache Formulierung erzeugt leicht ein klassisches Missverständnis. <strong>Physik</strong>alisch unterscheiden<br />

sich Gamma- und harte Röntgenstrahlung durch ihre Erzeugung: während letztere durch die Ablenkung<br />

eines Elektrons erzeugt wird, entsteht erstere im Kern eines Atoms. Die Energie eines γs kann dabei deutlich<br />

geringer sein als die Energie eines Röntgenquants – vorausgesetzt, dass die Röntgenstrahlung erzeugende<br />

Elektron konnte eine hinreichende Energie abgeben. Da dies bei der Vergabe der Bezeichnungen fast immer<br />

der Fall war, hat sich teilweise das Missverständnis eingeschlichen, dass die Energie eines Röntgenquants<br />

immer kleiner ist als die eines Gammaquants. In einem gewissen Sinn lebt dieses Missverständnis in den<br />

Namen der Instrumente fort: die Röntgeninstrumente messen in einem niedrigeren, die Gammainstrumente<br />

in einem höheren Energiebereich. Da aber dem Photon nicht anzusehen ist, auf welche Weise es erzeugt wurde,<br />

messen beide Instrumenttypen sowohl Gamma- als auch Röntgenphotonen. Unterschieden lassen sich beide<br />

nur, wie im Text dargestellt, durch das Spektrum: Kontinuum (Röntgen) vs. Linie (Gamma).<br />

c○ M.-B. Kallenrode 2. Juli 2008


252 KAPITEL 5. DIE ERWEITERTE PERSPEKTIVE: CAWSES<br />

Abbildung 5.25: Phänomene im Zusammenhang mit einer solaren Eruption (Flare): (1) Durch<br />

Feldlinienverschmelzung wird Energie freigesetzt, die u.a. zu einer Beschleunigung energiereicher<br />

Teilchen führt. (2) Teilchen, die sich abwärts in Richtung auf die Photosphäre bewegen,<br />

erzeugen dort Gamma- und Röntgenstrahlung. (3) Teilchen, die sich aufwärts bewegen,<br />

können entweichen, wobei (4) entweichende Elektronen zusätzlich Radioemission mit genau<br />

definierten Merkmalen erzeugen. (5) Die Energiefreisetzung kann auch eine Stoßwelle (Shock)<br />

auslösen, die sich durch die Sonnenatmosphäre nach außen bewegt und zu einer zusätzlichen<br />

Teilchenbeschleunigung führen kann. (6) Ein Teil der Teilchen ist in geschlossenen Magnetfeldbögen<br />

gefangen und erzeugt dort Radioemission mit Merkmalen, die sich von denen der<br />

durch die entweichenden Teilchen erzeugten Radioemission unterscheiden [142]<br />

§ 828 Die wichtigsten Gammalinien sind die 2.23 MeV und die 4.43 MeV Linie. Die erstere<br />

entsteht durch den Einfang schneller Neutronen in der Photosphäre, die Mindestenergie des<br />

Neutrons muss dabei 30 MeV betragen. Der Einfang erfolgt durch 1 H, das sich dann unter<br />

Abgabe eines Gammaquants in 2 D umwandelt. Die 4.43 MeV Linie entsteht beim Übergang<br />

des 12 C von einem angeregten Zustand in einen mit geringerer Energie. Die Anregung kann<br />

dabei durch radioaktiven Zerfall oder inelastische Stöße mit energiereichen Teilchen erfolgen.<br />

§ 829 Abbildung 5.26 zeigt ein Beispiel für ein solares Gammaspektrum, aufgenommen<br />

während des Flares am 6. März 1989 im Bereich zwischen 0.3 und 9 MeV. Unterhalb von<br />

1 MeV überwiegt Kontinuumsemission durch Elektronenbremsstrahlung. Linien aus dem Li-<br />

Be-Komplex (α−α), aus Positronenvernichtung und Eisen sind überlagert. Zu höheren Energien<br />

hin wird das Spektrum von Linienemission dominiert. Oberhalb von 7.2 MeV fällt das<br />

Abbildung 5.26: Solares Gammaspektrum<br />

mit deutlich ausgeprägten Linien,<br />

Beobachtungen des Gamma Ray<br />

Spectrometers GRS auf SolarMax am<br />

6. März 1989 [201]<br />

2. Juli 2008 c○ M.-B. Kallenrode


5.2. DIE SONNE 253<br />

Abbildung 5.27: Vergleich<br />

von auf der Sonne wechselwirkenden<br />

Teilchen<br />

(angezeigt durch die<br />

Gammaemission) und im<br />

interplanetaren Raum<br />

beobachteten Teilchenintensitäten.<br />

Im linken<br />

Teil sind Protonen und<br />

Gamma-Linienemission<br />

verglichen [40], im rechten<br />

Elektronen und Gamma-<br />

Kontinuumsemission<br />

[123]<br />

Spektrum steil ab, da es oberhalb dieser Energie keine starken nuklearen Linien mehr gibt.<br />

Die durchgezogene Linie ist eine Fortsetzung des Spektrums der Kontinuumsemission, wie<br />

sie sich durch einen Fit an die Daten unterhalb 1 MeV ergibt. Der Unterschied zwischen dem<br />

Elektronenkontinuum und den nuklearen Linien kann uns helfen, zwischen den Beiträgen von<br />

beschleunigten Elektronen und Nukleonen zum Spektrum zu unterscheiden. Wir können auf<br />

diese Weise also ein Maß für das Verhältnis zwischen im Flare beschleunigten Elektronen und<br />

Nukleonen bestimmen. Da die meisten Nukleonen Protonen sind, kann man dieses Verhältnis<br />

auch kurz als e/p bezeichnen.<br />

§ 830 Wenn wir auf diese Weise etwas über die Teilchen lernen können, die auf der Sonne<br />

wechselwirken, stellt sich natürlich sofort die Frage, ob es dann nicht sinnvoll wäre, mit direkten<br />

Teilchenbeobachtungen im interplanetaren Raum zu vergleichen (z.B. Helios, für die<br />

Beschreibung des Detektors siehe § 772). Dazu zeigt Abb. 5.27 im linken Teil die Intensität<br />

der im interplanetaren Raum beobachteten Protonen aufgetragen gegen den Fluss der Gammalinienemission<br />

als einem Maß für die auf der Sonne wechselwirkenden Protonen (wenn wir<br />

mit den Symbolen von Abb. 5.25 sprechen wollen, so ist hier die Protonenkomponente von<br />

Phänomen (2) gegen die der Phänomene (3,4) aufgetragen). Jedes Symbol entspricht einem<br />

solaren Flare. Die gestrichelten Linien geben eine grobe Abschätzung für den relativen Anteil<br />

entweichender Teilchen an. Ereignisse, die mit einem Pfeil versehen sind, geben obere Grenzen<br />

in der betreffenden Größe an. Zwischen den beiden Teilchenpopulationen, entweichend<br />

und wechselwirkend, besteht keine Korrelation, insbesondere gibt es eine relativ große Zahl<br />

großer Protoneneregnisse, für die keine Gammalinienemission beobachtet wird (linke obere<br />

Ecke). In diesen Ereignissen entweichen also praktisch alle Protonen, kaum eines der Teilchen<br />

hat die Möglichkeit, mit der Photosphäre der Sonne zu wechselwirken.<br />

§ 831 Diese Ergebnisse sind überraschend, da man ursprünglich erwartet hatte, dass die auf<br />

der Sonne beschleunigten Teilchen in gleichem Maß entweichen wie wechselwirken können.<br />

Der in Abb. 5.27 dargestellte schwache Zusammenhang zwischen diesen Teilchenpopulationen<br />

hat dazu geführt, dass dieses Bild revidiert werden musst. Als Lösungsvorschläge werden<br />

diskutiert: (a) Flares können die Teilchen in unterschiedlichen Höhen beschleunigen, wobei<br />

bei Flares in größeren Höhen die Teilchen leichter entweichen können (viele Teilchen im<br />

interplanetaren Raum, wenig Gammalinienemission), bei Flares in geringerer Höhe dagegen<br />

die meisten Teilchen wechselwirken und nur wenige entweichen können; (b) entweichende und<br />

wechselwirkende Teilchen werden im gleichen Mechanismus beschleunigt, jedoch sind die Mechanismen,<br />

die den Teilchen ein Entweichen erlauben, von Ereignis zu Ereignis variabel; (c)<br />

entweichende und wechselwirkende Teilchen werden im gleichen Mechanismus beschleunigt,<br />

c○ M.-B. Kallenrode 2. Juli 2008


254 KAPITEL 5. DIE ERWEITERTE PERSPEKTIVE: CAWSES<br />

jedoch ist diese Beschleunigung nicht isotrop, sondern es werden in einigen Ereignissen die<br />

Teilchen bevorzugt in Richtung auf die Photosphäre beschleunigt und erzeugen dort Gammaemission,<br />

in anderen Ereignissen werden sie bevorzugt in die entgegengesetzte Richtung<br />

beschleunigt und können daher entweichen; (d) die wechselwirkenden und entweichenden<br />

Protonen werden in unterschiedlichen Mechanismen erzeugt, so dass überhaupt kein Zusammenhang<br />

zu erwarten ist (außer vielleicht ein schwacher Zusammenhang, der sich aus der<br />

Gesamtenergie ergibt, die im Flare freigesetzt wird).<br />

§ 832 Im rechten Teil der Abbildung ist, ähnlich wie im linken Teil, der Zusammenhang<br />

zwischen wechselwirkenden und entweichenden Teilchen aufgetragen, hier aber für Elektronen<br />

im interplanetaren Raum und Gammakontinuumsemission. Auch wenn die Korrelation<br />

zwischen den beiden Größen eher schwach ist, zeigt sich in dieser Abbildung doch ein Zusammenhang<br />

zwischen entweichenden und wechselwirkenden Teilchen. Dieses unterschiedliche<br />

Verhalten von Elektronen und Protonen stellt aber alle unsere bisher vorgeschlagenen<br />

Lösungsversuche in Frage, da diese ein gleiches Verhalten von Elektronen und Protonen<br />

vorhersagen würden. Eine alternative Interpretation besteht darin, dass ein Mechanismus,<br />

nämlich der Flare, entweichende und wechselwirkende Teilchen beschleunigt und ein zweiter<br />

Mechanismus zusätzlich Teilchen beschleunigt. Dieser zweite Mechanismus arbeitet in relativ<br />

großer Höhe (deshalb entweichen die Teilchen und wechselwirken nicht) und er beschleunigt<br />

relativ mehr Protonen als Elektronen (daher findet man bei den Elektronen weiterhin<br />

einen relativ guten Zusammenhang zwischen den wechselwirkenden und den entweichenden<br />

Teilchen).<br />

§ 833 Dieser Mechanismus ist so aber schon sehr speziell und erweckt den Eindruck, als sei<br />

er etwas weit hergeholt. Gehen wir dazu noch einmal zurück zu Abb. 5.25. Dort war als (5)<br />

eine Stoßwelle als eine mögliche Folge eines Flares eingezeichnet worden. Stoßwellen können,<br />

wie wir von der Bugstoßwelle der Erde und anderer Planeten wissen, Teilchen beschleunigen.<br />

Wenn sich im Flare erzeugte Stoßwellen in das interplanetare Medium ausbreiten, so können<br />

diese dort ebenfalls direkt nachgewiesen werden, zusammen mit den an ihnen beschleunigten<br />

Teilchen. Dabei zeigt sich auch, dass diese Stoßwellen offensichtlich bei ihrer Beschleunigung<br />

die Protonen gegenüber den Elektronen bevorzugen. Damit können wir aber die Beobachtungen<br />

erklären: die im Flare beschleunigten Teilchen können teilweise wechselwirken und<br />

teilweise entweichen. Dadurch sollte ein Zusammenhang zwischen Gammaemission und Teilchen<br />

im interplanetaren Medium bestehen. Dieser Zusammenhang wird aber dadurch gestört,<br />

dass ein zweiter Mechanismus, die Stoßwelle, zusätzliche entweichende Teilchen erzeugt. Da<br />

diese zusätzlichen Teilchen im wesentlichen Protonen sind aber kaum Elektronen, besteht<br />

zwischen Elektronen und Gammakontinuumsemission ein relativ guter Zusammenhang. Genauere<br />

Untersuchungen (e/p-Verhältnisse, statistische Studien über viele Ereignisse, Definition<br />

verschiedener Ereignistypen) haben in den letzten Jahren gezeigt, dass dieses Szenario<br />

mit den Beobachtungen von Teilchen ebenso wie elektromagnetischer Strahlung über einen<br />

weiten Frequenzbereich in Übereinstimmung ist.<br />

§ 834 Man kann einen Hinweis auf einen zweiten Beschleunigungsmechanismus auch in den<br />

Teilchendaten finden. Dazu betrachtet man die Zeiten, zu denen die Teilchen auf der Sonne<br />

injiziert wurden (diese lassen sich aus den Einsatzzeiten der im interplanetaren Raum beobachteten<br />

Teilchen bestimmen), siehe Abb. 5.28. Die elektromagnetische Strahlung (harte<br />

Röntgenstrahlung, Radioemission) dagegen zeigt an, wann Teilchen auf der Sonne wechselwirken<br />

(Röntgenstrahlung) oder entweichen (Radioemission). Die erste senkrechte gestrichelte<br />

Linie gibt den Einsatz der elektromagnetischen Strahlung und damit des Flares<br />

an. Ungefähr gleichzeitig damit erfolgt eine Injektion der Elektronen. Zu diesem Zeitpunkt<br />

werden allerdings noch keine Protonen injiziert. Mit einer Verzögerung von ungefähr<br />

10 min werden die Protonen injiziert. Diese sind von einer erneuten, aber relativ kleineren<br />

Elektroneninjektion begleitet. Zu dieser Zeit werden auch harte Röntgenstrahlung und Radio/Mikrowellenemission<br />

erzeugt. Diese zweite Injektion kann als Hinweis auf die Stoßwelle<br />

interpretiert werden. Die Eigenschaften der Teilcheninjektion sind genau in Übereinstimmung<br />

2. Juli 2008 c○ M.-B. Kallenrode


5.3. DER INTERPLANETARE RAUM 255<br />

Abbildung 5.28: Zeitverlauf der Teilchenbeschleunigung<br />

auf der Sonne, angezeigt<br />

durch die harte Röntgenstrahlung und Radiowellen<br />

und der Injektion energiereicher<br />

Teilchen in das interplanetare Medium<br />

(zurückgerechnet aus den Beobachtungen<br />

energiereicher Teilchen im Raum).<br />

Die Elektronen werden sofort zu Beginn<br />

des Ereignisses injiziert, Protonen werden<br />

mit einer Verzögerung von ca. 10 min<br />

injiziert, gemeinsam mit einem erneuten<br />

Anstieg von Röntgen- und Radioemission.<br />

Das e/p-Verhältnis in der zweiten Injektion<br />

ist deutlich geringer als in der ersten [121]<br />

mit dem, was wir für diesen Wundermechanismus gefordert haben: es muss eine zweite Injektion<br />

geben (hier um 10 min verzögert durch die Zeit, die die Stoßwelle benötigt, um sich<br />

auszubilden und Teilchen zu beschleunigen) und diese muss in relativ größerer Zahl Protonen<br />

beschleunigen als Elektronen.<br />

§ 835 Auch heute, mehr als zwei Jahrzehnte nach dem SMM Start, mit den vielen SOHO<br />

Beobachtungen und dem vor einem Jahr gestarteten Stereo verstehen wir die Rolle von<br />

Flare und Stoßwelle bei der Teilchenbeschleunigung immer noch nicht so genau. Einige offene<br />

Fragen sind z.B. in [119, 120] zusammen gefasst.<br />

5.3 Der interplanetare Raum<br />

§ 836 Der interplanetare Raum ist durch den Sonnenwind, ein ca. 1 Mio K heißes, kontinuierlich<br />

mit einer Geschwindigkeit von 400 km/s von der Sonne abströmendes Plasma bestimmt.<br />

Dieses Plasma führt das solare Magnetfeld mit sich – die im interplanetaren Raum zu messenden<br />

Größen sind also elektromagnetische Felder und geladene Teilchen. Beide sind nicht<br />

dem remote sensing zugänglich sondern nur in-situ Messungen. Zusätzlich enthält der interplanetare<br />

Raum noch energiereiche Teilchen aus verschiedenen Quellen: die an Stoßwellen<br />

vor CMEs beschleunigten Energetic Storm Particles ESPs können aös der nicht-thermische<br />

Schweif der Sonnenwindpopulation betrachtet werden. Solare energiereiche Teilchen (Solar<br />

Energetic Particles SEPs) haben höhere Energien und werden in Flares oder von der CME<br />

in Sonnennähe beschleunigt. Noch höhere Energie hat die galaktische kosmische Strahlung<br />

(Galactic Cosmic Rays GCRs)<br />

§ 837 Die Messgrößen im interplanetaren Raum sind wieder das Plasma, das elektromagnetische<br />

Feld sowie energiereiche Teilchen. Damit unterscheidet sich die benötigte Instrumentierung<br />

nicht von der bereits für die Magnetosphäre beschriebenen – abgesehen von gegebenenfalls<br />

anderen Messbereichen und anderem Ansprechvermögen. Auf die Vorstellung weiterer<br />

Instrumente verzichte ich daher – diese lassen sich über den NASA Master Catalogue [505]<br />

auffinden.<br />

§ 838 In der Frühzeit der Raumfahrt war der interplanetare Raum kein eigenständiges Forschungsziel:<br />

man wollte zum Mond oder zu anderen Planeten und nahm mehr oder weniger<br />

gerne auch den obligatorischen Geigerzähler zur Messung der kosmischen Strahlung und<br />

c○ M.-B. Kallenrode 2. Juli 2008


256 KAPITEL 5. DIE ERWEITERTE PERSPEKTIVE: CAWSES<br />

vielleicht auch mal das eine oder andere einfache Plasmainstrument mit – aber das wars.<br />

Trotzdem sind es gerade die langen, auf die äußeren Planeten gerichteten Missionen Pioneer<br />

[499] und Voyager [476], die uns heute die einzigen Informationen über den interplanetaren<br />

Raum jenseits der Planeten liefern können.<br />

§ 839 Der geringe Enthusiasmus für das interplanetare Medium ist nicht in mangelndem Interesse<br />

begründet: bereits vor den ersten Satelliten hat man aus den im Vergleich zur Dauer<br />

des Flares viel zu langen Zeitprofilen solarer Teilchen auf der Erde geschlossen, dass diese<br />

Teilchen sich nicht direkt in Richtung auf die Erde ausbreiten sondern durch das interplanetare<br />

Medium diffundieren. Auch wusste man bereits von dem etwas befremdlichen Verhalten<br />

des Geigerzählers auf den frühesten amerikanischen Satelliten das sich Teilchen und Plasmen<br />

‘seltsam’ verhalten können. Unter diesen Gesichtspunkten wäre eine genaue Untersuchung<br />

des Plasmas im interplanetaren Raum nahe liegend gewesen.<br />

§ 840 Die Messung von Teilchen und Plasma ist stets in-situ Messung, d.h. es werden die entsprechenden<br />

Größen am Ort des Raumfahrzeugs bestimmt. Plasma und Raumfahrzeug bewegen<br />

sich relativ zueinander: zum einen, da der Sonnenwind radial expandiert, zum anderen, da<br />

sich das Raumfahrzeug auf seinem Orbit bewegt. Jede Veränderung gemessene Änderung in<br />

Plasmaparametern kann daher durch eine lokale zeitliche Änderung, eine räumliche Änderung<br />

oder auf eine Kombination aus beiden bewirkt sein. Messungen an einem Punkt im Raum<br />

sind daher schwer zu interpretieren – dies gilt nicht nur für den interplanetaren Raum sondern<br />

genauso für die Magnetosphäre.<br />

§ 841 Um die durch dieses Interpretationsproblem eingeführten Unsicherheiten zu verringern,<br />

ist eine Messung an mehreren Punkten im Raum sinnvoll. Diese Idee hat man bereits<br />

in der Mitte der 1970er realisiert: mit den beiden Helios Raumsonden [523, 524] zur Untersuchung<br />

des interplanetaren Raumes. Die Sonden fliegen auf hochgradig elliptischen Bahnen<br />

mit einem Perihel in der Nähe von 0.3 AU und einem Aphel bei 1 AU; die Umlaufzeit beträgt<br />

ca. 180 Tage. Beide Sonden trugen nur Plasma-, Feld- und Teilcheninstrumente. Da<br />

auf Instrumente im Optischen verzichtet wurde, war eine Ausrichtung des Satelliten nicht<br />

erforderlich; die Stabilisierung konnte als Spinstabilisierung realisiert werden.<br />

§ 842 Die wichtigsten Ergebnisse der Helios Missionen sind die Beobachtungen in der inneren<br />

Heliosphäre sowie die Beobachtungen von zwei bzw. in Kombination mit einem erdgebundenen<br />

Raumfahrzeug von drei Punkten im Weltraum. Inhaltlich wichtig waren die Identifikation<br />

von Plasmawellen und -turbulenz als die Ursache der Teilchenstreuung im interplanetaren<br />

Raum, die Beobachtung interplanetarer Stoßwellen sowie die Identifikation so genannter magnetischer<br />

Wolken als den durch den interplanetaren Raum flügenden Plasmagebilden koronaler<br />

Massenausstöße.<br />

§ 843 Der International Sun Earth Explorer ISEE [440, 530, 531] basiert ebenfalls auf der<br />

Vernwendung mehrerer Raumfahrzeuge zur Untersuchung der räumlichen und zeitlichen Variabilität<br />

von Plasmen. Ziel ist das Verständnis magnetosphärischer Prozesse in Abhängigkeit<br />

von Änderungen im Sonnenwind. Dazu befinden sich zwei der Satelliten, ISEE-1 und ISEE-<br />

2, in der Magnetosphäre; der dritte Satellite, ISEE-3, dagegen befindet sich im Lagrange<br />

Punkt und dient als Warnboje für die Störungen, die mit dem Sonnenwind herangetragen<br />

werden. ISEE-3 wurde häufig zusammen mit den Helios-Raumsonden für Multi-Spacecraft<br />

Untersuchungen solarer Ereignisse verwendet.<br />

§ 844 Das Konzept der Beobachtung von verschiedenen Punkten aus wurde ursprünglich<br />

auch bei Ulysses [474] aufgegriffen: alle bisherigen Missionen haben das interplanetare Medium<br />

in der Ebene der Ekliptik untersucht. Ulysses wurde durch ein Swing-By Manöver am<br />

Jupiter (siehe Abschn. 2.7.2 und Abb. 2.33) aus dieser Ebene in eine Bahn nahezu senkrecht<br />

zur Ekliptik katapultiert. In der ursprünglichen Planung sollten zwei Raumsonden mit<br />

unterschiedlichem Umlaufsinn in diese Bahn katapultiert werden, so dass sich zusammen<br />

mit einer erdgebundenen Raumsonde wieder Dreipunkt-Beobachtungen ergeben hätten. Aus<br />

Kostengründen wurde nur eine Raumsonde realisiert – diese hat aber dennoch die sehr unterschiedlichen<br />

Plasmaeigenschaften in der Ekliptik und in hohen Breiten nachweisen können.<br />

2. Juli 2008 c○ M.-B. Kallenrode


5.4. ANDERE PLANETEN 257<br />

Planet große Exzentri- Inkli- siderische mittlere synodische<br />

Halb- zität nation Umlaufzeit Bahnge- Umlaufzeit<br />

achse schwin-<br />

[AU] digkeit<br />

Merkur 0.3871 0.206 7 ◦ 00’ 87.969 d 47.89 115.9 d<br />

Venus 0.7233 0.007 3 ◦ 24’ 224.701 d 35.04 1 a 218.7 d<br />

Erde 1 0.017 0 ◦<br />

365.256 d 29.80 –<br />

Mars 1.5237 0.093 1 ◦ 51’ 1 a 321.73 d 24.14 2 a 49.5 d<br />

Jupiter 5.2026 0.048 1 ◦ 9’ 11 a 314.84 d 13.06 1 a 33.6 d<br />

Saturn 9.5547 0.056 2 ◦ 30’ 29 a 167.0 d 9.64 1 a 12.8 d<br />

Uranus 19.2181 0.046 0 ◦ 46’ 84 a 7-4 d 6.80 1 a 4.4 d<br />

Neptun 30.1096 0.009 1 ◦ 47’ 164 a 280.3 d 5.43 1 y 2.2 d<br />

[Pluto 39.4387 0.246 17 ◦ 10’ 247 a 249.0 d 4.74 1 a 1.5 d]<br />

Tabelle 5.2: Bahnparameter der Planeten; Pluto ist nach heutigem Verständnis kein Planet<br />

mehr<br />

5.4 Andere Planeten<br />

§ 845 Die anderen Planeten unseres Sonnensystems sind durch die gleichen Einflussgrößen,<br />

die Sonne und den interplanetaren Raum, geformt wie auch die Erde. Daher ist ein Vergleich<br />

dieser Planeten mit der Erde zum Verständnis der Wechselwirkungen und zum Testen oder<br />

Falsifizieren von Hypothesen hilfreich.<br />

§ 846 Allerdings sind nicht alle Planeten für diesen Vergleich geeignet. Nur die inneren<br />

Planeten, die erdähnlichen Planeten, bestehen aus einem festen Planetenkörper mit einer<br />

umgebenden Atmosphäre. Die äußeren Planeten (von Jupiter an) dagegen sind Gasbälle<br />

mit nur sehr kleinen Kernen (oder ohne solche). Zwar haben einige der Monde dieser äußeren<br />

Planeten Atmosphären und sind damit zumindest in ihrer Struktur den erdähnlichen Planeten<br />

ähnlich, jedoch sind die Temperaturen dort zu gering, als dass sich Atmosphären ausbilden<br />

könnten, die zumindest im Hinblick auf die Zusammensetzung auch nur die entfernteste<br />

Verwandschaft mit der Erdatmosphäre haben – in anderen Aspekten können sich dagegen<br />

überraschende Vergleichsmöglichkeiten ergeben.<br />

5.4.1 Das Planetensystem<br />

§ 847 Neben der Sonne sind die Planeten die größten Körper in unserem Sonnensystem,<br />

kleinere Körper sind die Planetenmonde, die Asteroiden und die Kometen. Die Planeten<br />

bewegen sich auf elliptischen Bahnen um die Sonne, der sonnennächste Planet Merkur in<br />

einem Abstand von 0.38 AU (1 AU = 1 astronomical unit = 149 Mio. km = mittlerer Abstand<br />

der Erde von der Sonne), der sonnenfernste Planet Pluto 10 in einem Abstand von ca. 40 AU.<br />

Die Orbits dieser beiden Planeten haben die größte Exzentrizität, so taucht Pluto noch in die<br />

Umlaufbahn seines nächsten Nachbarn, des Neptun, ein. Von der Erde an nach außen gehend<br />

haben alle Planeten Monde in unterschiedlicher Anzahl, die großen äußeren Planeten haben<br />

auch Ringe. Abgesehen von Pluto sind die Bahnebenen der Planeten nur leicht gegen die<br />

Ebene der Ekliptik geneigt, die Rotationsperioden schwanken zwischen 88 Tagen (Merkur)<br />

und 248 Jahren (Pluto). Tabelle 5.2 fasst die Bahnparameter der Planeten zusammen. 11<br />

10 Sorry, das ist eine etwas ältere Darstellung: Von seiner Entdeckung 1930 bis zur Neufassung des Begriffs<br />

Planet durch die Internationale Astronomische Union (IAU) galt er als der neunte Planet des Sonnensystems.<br />

Im September 2006 wurde Pluto zum Kleinplanetennummer 134340 herunter gestuft; seine vollständige<br />

offizielle Bezeichnung lautet nunmehr (134340) Pluto.<br />

11 Anmerkungen zur Tabelle: (a) die Jahreslänge ist definiert als 1 a = 365.256 d. (b) die siderische Umlaufzeit<br />

oder Rotationsperiode bezeichnet die Zeit, die ein Planet in einem ortsfesten System, z.B. bezogen<br />

auf den Fixsternhimmel, für einen Umlauf um die Sonne benötigt. (c) die synodische Umlaufzeit oder Rotationsperiode<br />

bezeichnet die Zeit zwischen zwei aufeinander folgenden identischen Konfigurationen von Planet<br />

und Erde: z.B. wenn beide in Opposition stehen oder beide auf einem von der Sonne ausgehenden Radius<br />

c○ M.-B. Kallenrode 2. Juli 2008


258 KAPITEL 5. DIE ERWEITERTE PERSPEKTIVE: CAWSES<br />

Abbildung 5.29: Abnahme solarer<br />

Fluss und Effektivtemperatur<br />

mit dem Abstand von der<br />

Sonne<br />

§ 848 Die erdähnlichen Planeten (terrestrial planets; Merkur, Venus, Erde, Mars), die auch<br />

die inneren Planeten sind, sind relativ klein (die Erde ist der größte der inneren Planeten)<br />

und haben hohe mittlere Dichten (zwischen 4 und 6 g/cm 3 ). Sie haben feste Oberflächen mit<br />

schweren, eisenhaltigen Kernen, und darüber liegenden Atmosphären, die allerdings in der<br />

Dichte hochgradig unterschiedlich sind. So hat der Merkur eine extrem dünne Atmosphäre,<br />

die man kaum als eine solche betrachten kann. Die Venus dagegen hat eine sehr dichte Atmosphäre.<br />

Die inneren Planeten haben wenige oder gar keine Monde (die Erde hat einen Mond,<br />

der Mars zwei) und sie haben keine Ringe.<br />

§ 849 Die Riesenplaneten (giant planets, Jupiter, Saturn, Uranus, und Neptun) sind wesentlich<br />

größer als die terrestrischen Planeten und bestehen im wesentlichen aus Wasserstoff und<br />

Helium. Nach Innen gehend nimmt der Druck hohe Werte an, in der Größenordnung des millionenfachen<br />

des Druckes am Boden der Erdatmosphäre. Ob alle der großen Planeten feste<br />

Kerne haben, ist noch nicht geklärt. Ihre Dichten liegen zwischen 0.7 und 1.7 g/cm 3 . Diese<br />

Planeten haben viele Monde und können Ringsysteme haben. Die großen Planeten strahlen<br />

in der Regel mehr Energie ab als sie von der Sonne erhalten (Jupiter strahlt ungefähr<br />

das doppelte an Energie ab, Saturn das 3.5fache). Die zusätzliche Energie wird entweder aus<br />

Gravitationsenergie freigesetzt oder ist Restwärme aus der Zeit der Entstehung des Planeten.<br />

Diese Planeten sind der Sonne ähnlicher als den erdähnlichen Planeten. Hätte der Jupiter bei<br />

der Formation des Planetensystems etwas mehr Masse ansammeln können, so hätte bei ihm<br />

Kernfusion einsetzen können und unser Sonnensystem hätte sich zu einem Doppelsternsystem<br />

entwickelt.<br />

§ 850 Aus diesem Schema heraus fällt der äußerste ehemalige Planet Pluto. 12 Er ist eher<br />

wie ein Mond zusammengesetzt, hat einen festen Kern und keine Atmosphäre. Die ungewöhnlichen<br />

Bahnparameter (große Neigung der Bahnebene gegen die Ebene der Ekliptik,<br />

hohe Exzentrizität der Umlaufbahn) lassen vermuten, dass Pluto bei der Entstehung des<br />

Sonnensystems nicht als Planet entstanden ist, sondern dass er ein eingefangener Asteroid<br />

oder ein ausgerissener Neptunmond ist.<br />

§ 851 Die großen Unterschiede zwischen den inneren Planeten und den Riesenplaneten lassen<br />

sich am leichtesten verstehen, wenn man die solare Einstrahlung am Ort der Planeten<br />

betrachtet. Abbildung 5.29 zeigt dazu im oberen Teil die Abnahme des solaren Flusses mit<br />

dem Abstand, die Rhomben markieren die Orte der Planeten. Im unteren Teil der Abbildung<br />

ist die sich nach (5.1) ergebende Effektivtemperatur gegeben, wobei die Albedo der Planeten<br />

ausgerichtet sind.<br />

12 Pluto wurde 2007 von seinem Planetenstatus .....<br />

2. Juli 2008 c○ M.-B. Kallenrode


5.4. ANDERE PLANETEN 259<br />

für die obere Kurve gleich 0 gesetzt wurde (vollständige Absorption und damit die maximal<br />

erreichbare Effektivtemperatur (5.1). Für die mittlere Kurve wurde eine Albedo von 30%<br />

(entsprechend der Erdalbedo) und für die untere Kurve eine von 50% angenommen. Der geringe<br />

solare Fluss bei den äußeren Planeten würde dort auf maximale Effektivtemperaturen<br />

(bei vollständiger Absorption aller einfallenden Strahlung) zwischen ca. 50 K (Pluto) und ca.<br />

130 K (Jupiter) führen, d.h. viele der von der Erde bekannten atmosphärischen Gase wären<br />

nur noch in flüssiger oder fester Phase vorhanden (z.B. Kohlendioxid, Wasserdampf, auf Pluto<br />

auch Methan, Stickstoff und Sauerstoff). Andererseits ist die Temperatur so niedrig, dass<br />

sie ein Entweichen der leichten Bestandteile (Wasserstoff und Helium) nicht erlaubt. Daraus<br />

erklären sich die hohen Anteile von Wasserstoff und Helium in den Atmosphären der äußeren<br />

Planeten. Deren Atmosphären haben zwar nicht vollständig ihren Urzustand bewahrt, sie bilden<br />

aber doch eine sehr gute Annäherung an die Bedingungen, die anfangs im Sonnensystem<br />

geherrscht haben müssen.<br />

5.4.2 Die Instrumente<br />

§ 852 Unser Wissen über das Planetensystem hat sich angesammelt durch Beobachtung der<br />

Planeten von der Erde aus (die so genannten Marskanäle sind bereits 1877 von Shirapelli<br />

vielleicht nicht unbedingt entdeckt aber zumindest beschrieben worden), durch remote sensing<br />

von Satelliten im Vorbeiflug oder aus dem Orbit um den Planeten und in Einzelfällen<br />

auch durch Lander. Die remote sensing Verfahren sind den in der <strong>Erdfernerkundung</strong>s verwendeten<br />

vergleichbar – auf Grund der härteren Randbedingungen (geringere Masse, geringere<br />

Datenübertragungsrate, häufig auch geringere Leistung) fliegt auf einer planetaren Mission<br />

in der Regel entweder ein Instrumententyp der Vorgeneration oder ein sehr experimentelles<br />

Instrument.<br />

§ 853 Der Klassiker in der Erkundung der Planeten ist die in der <strong>Erdfernerkundung</strong> so geschmähte<br />

Videokamera (siehe § 373–379); Beispiele für ihren Einsatz in der Planetenforschung<br />

sind bereits in § 379 gegeben.<br />

5.4.3 Die Missionen<br />

§ 854 Missionen zu anderen Planeten kann man, je nach Orbit des Raumfahrzeugs, unterteilen<br />

in<br />

• Vorbeiflieger: die Raumsonden fliegen am Himmelskörper vorbei, wobei teilweise dessen<br />

Schwerefeld zur Bahnänderung (Swing By) ausgenutzt wird. Bei geeigneter Konstellation<br />

lassen sich auf so mit einer Raumsonde mehrere Planeten besuchen. Beispiele: Pioneer,<br />

Voyager<br />

• Orbiter: die Raumsonde schwenkt in ein Orbit um den Zielplaneten ein und wird damit<br />

ein Satellit desselben.<br />

• Lander: die Raumsonde selbst oder ein Teil von ihr landet mehr oder weniger sanft auf<br />

dem Himmelskörper:<br />

– ein einfacher Lander landet weich und misst in seinem Umfeld.<br />

– interessanter wird es, wenn sich der Lander oder Teil des Landers durch die Gegend<br />

bewegen können (Rover).<br />

– weniger weiche Landungen werden genutzt, um nicht die Oberfläche sondern tiefere<br />

Schichten zu erkunden. Der Penetrator bohrt sich in die feste Planetenoberfläche, der<br />

Hydrobot dringt in Gewässer ein (es muss ja kein Wessersee sein) und der Kryobot<br />

schmilzt sich in eine Eisschicht ein oder durch diese hindurch.<br />

• Sample Return: die aufwendigste Form der Planetenerkundung fährt nicht nur zum Messen<br />

hin sondern landet, sammelt Proben ein und bringt diese dann wieder zur Erde zurück.<br />

§ 855 Die ersten planetaren Missionen hatten die Venus zum Ziel – auch heute auf Grund<br />

des auf der Venus aus dem Ruder gelaufenen Treibhauseffektes wieder ein lohnendes Ziel.<br />

Die UdSSR war jeweils etwas schneller, hat allerdings bei beiden Erstflügen den Funkkontakt<br />

c○ M.-B. Kallenrode 2. Juli 2008


260 KAPITEL 5. DIE ERWEITERTE PERSPEKTIVE: CAWSES<br />

verloren: im Februar 1961 flog Venera 1 [596] dichter als 100 000 km an der Venus vorbei,<br />

im Dezember 1962 flog Mars 1 [543] im Abstand von ca. 11 000 km am Mars vorbei. Die<br />

ersten erfolgreichen Missionen durften dafür die Amerikaner für sich verbuchen: im August<br />

1962 flog Mariner 2 [541] im Abstand von weniger als 35 000 km an der Venus vorbei, im<br />

November 1964 schickte Mariner 4 [542] die ersten Bilder vom Mars zurück.<br />

Verständnisfrage 36 Warum eigentlich immer nur Flyby und nicht gleich richtiger Flug<br />

zum Planeten?<br />

§ 856 Die nächsten Missionen der UdSSR zielten alle auf die Venus: im November 1965<br />

schlug Venera 3 [597] auf der Venus ein, im June 1967 drang Venera 4 [598] in die Venus-<br />

Atmosphäre vor und im Januar 1965 erfolgte mit Venera 5 [599] der erste Fallschirmabstieg<br />

in die Venus-Atmosphäre – allerdings ging der Funkkontakt verloren.<br />

Verständnisfrage 37 Warum waren die Altvorderen so auf Venus Flyby versessen und<br />

haben nicht den Mars besucht? Angst vor kleinen grünen Männchen sollte es doch hoffentlich<br />

nicht gewesen sein.<br />

§ 857 Missionen zu den inneren Planeten, d.h. Merkur, Venus und Mars, wurden von der<br />

UdSSR und den USA kontinuierlich ausgeführt und verfeinert. Für die photographischen<br />

Missionen ist dabei der Mars auf Grund seiner dünneren Atmosphäre interessanter; er wurde<br />

im Rahmen des Viking Programms [433] der USA mehrfach un werbeträchtig besucht. In<br />

den 1990ern war noch einmal kurzfristig die Venus modern (Magellan [540, 463]), die meisten<br />

anderen Missionen zielen auf den Mars, teilweise auch mit speziellen Fragen wie Klimaforschung<br />

und geologische Strukturen. 2004 startete MESSENGER (MErcury Surface, Space<br />

ENvironment, GEochemistry and Ranging [448]) zum Merkur.<br />

§ 858 Die ersten Missionen zu den äußeren Planeten waren 1972 Pioneer 10 zum Jupiter,<br />

1973 Pioneer 11 zu Jupiter und Saturn, sowie 1977 Voyager 1 ebenfalls zu Jupiter und Saturn<br />

sowie Voyager 2 zu Jupiter, Saturn, Uranus und Neptun. Der letzte, jetzt degradierte Planet<br />

Pluto ist bisher noch nicht besucht worden – die 2006 gestartete Sonde New Horizons [392,<br />

498] befindet sich auf dem Weg zu ihm.<br />

§ 859 Die vielleicht interessanteste aktuelle planetare Mission ist Cassini–Huygens [338, 147,<br />

454], bestehend aus Cassini als orbiter im Saturn-System und Huygens als Probe zum Saturnmond<br />

Titan. Letzterer ist von besonderem Interesse, da seine Atmosphärenparameter so<br />

sind, dass Methan in allen drei Phasen vorkommen und damit die Rolle des Wassers auf der<br />

Erde übernehmen könnte. Womit sich sofort die Frage nach Leben auf Titan aufdrängt.<br />

5.5 Climate And Weather in the Sun–Earth System:<br />

Energetic Particles and the Atmosphere<br />

§ 860 In Zeiten der beginnenden Akzeptanz von Wandel 13 wird gerade im Bereich Klima<br />

zunehmend nicht nur die Frage nach den anthropogenen Einflüssen sondern auch nach<br />

natürlichen Aspekten von Wandel gestellt. Da man sich allmählich daran gewöhnt, dass sich<br />

die Erde und noch stärker im Sinne von kleineren Zeitskalen und größeren Amplituden die<br />

Sonne ändert, wurde das Projekt internationale CAWSES – Climate and Weather in the<br />

Sun–Earth System [273, 274] ins Leben gerufen. In Deutschland erfolgt die Finanzierung<br />

durch die Deutsche Forschungsgemeinschaft DFG im Rahmen eines Schwerpunkprogramms<br />

sowie verschiedener Einzelprojekte.<br />

§ 861 Die wesentlichen Ziele von CAWSES umfassen<br />

13 Hier ist nicht gemeint in Zeiten des (Klima-)Wandels – den hat es lange vor der Diskussion um den<br />

anthropogenen Treibhauseffekt gegeben – sondern in den Zeiten, in denen es den Menschen langsam dämmert,<br />

dass ihre Umwelt im unbelebten genauso dem Wandel unterworfen ist wie im belebten.<br />

2. Juli 2008 c○ M.-B. Kallenrode


5.5. CAWSES 261<br />

Abbildung 5.30: Right: Intensity–time profiles for the Bastille Day event (July 14, 2000);<br />

Left: variation in ozone concentration on the northern hemisphere [108]<br />

• das Verständnis der durch die Sonne und ihre Aktivität gesteuerten Einflussgrößen auf das<br />

Klima sowie deren Variabilität. Zu den Einflussgrößen gehören neben der Solarkonstante<br />

auch die Variabilität in einzelnen Spektralbereichen (insbesondere im UV), die Variabilität<br />

des Sonnenwindes (und damit der Struktur der Magnetosphäre), (solare) energiereiche Teilchen<br />

sowie die galaktische kosmische Strahlung – letztere wird durch die solare Aktivität<br />

moduliert.<br />

• das Verständnis der durch diese Einflussgrößen in der Atmosphäre ausgelösten physikalischen<br />

und chemischen Prozesse sowie deren Konsequenzen für die Atmosphäre.<br />

• die Kombination dieser Effekte in einem globalen Klimamodell zum Verständnis des Einflusses<br />

solarer Aktivität auf das Klima sowie die Abschätzung der Bedeutung dieses Einflusses<br />

im Vergleich zu anthropogenen Einflüssen.<br />

Jeder dieser Punkte wird in den Bereichen Beobachtungen (teilweise auch statistische Studien),<br />

Modellbildung (im Sinne von Verständnis der Prozesse, d.h. physikalisches Modell),<br />

numerische <strong>Modellierung</strong> (im Sinne von Abbildung des physikalischen Modells in einem Rechner)<br />

sowie die Validierung der Modelle.<br />

§ 862 Wir sind im Rahmen von CAWSES mit einem Projekt zur Wechselwirkung energiereicher<br />

(solarer) Teilchen mit der Atmosphäre beteiligt. Einige der Ergebnisse in allgemeinverständlicher<br />

Form sind im folgenden Abschnitt als Beispiel für ein CAWSES Projekt<br />

vorgestellt.<br />

§ 863 Within in the framework of the two DFG-Special Programs ‘Geomagnetic Variations’<br />

and ‘CAWSES’ our group studies the consequences of precipitating energetic particles in<br />

the atmosphere. Sources of these particles are the magnetosphere and the Sun. The primary<br />

consequence of their precipitation is ionization of the atmosphere at heights between about<br />

15 km and 100 km where the atmosphere under normal conditions is neutral. The secondary<br />

consequence of such ionization is a change in atmospheric chemistry, in particular the<br />

depletion of ozone.<br />

§ 864 The left panel in Fig. 5.30 shows the intensity time profiles for the July 14, 2000,<br />

solar energetic particle (SEP) event (Bastille Day event) as observed in geostationary orbit.<br />

The profiles correspond to different proton energy range with the topmost profile (blue)<br />

representing the lowest energy (15–44 MeV) and the lowermost profile (magenta) representing<br />

the highest energies (640–850 MeV). The points at the left boundary represent background<br />

intensities. Thus during the event an increase in the lower energetic protons lasts for more<br />

than 1 day and amounts to more than 5 orders of magnitude. Thus a solar energetic particle<br />

(SEP) event is a strong forcing signal onto the atmosphere.<br />

c○ M.-B. Kallenrode 2. Juli 2008


262 KAPITEL 5. DIE ERWEITERTE PERSPEKTIVE: CAWSES<br />

§ 865 The right panel in Fig. 5.30 shows ozone concentrations above 0.5 hPa, that is above<br />

about 45 km, in the northern hemisphere. The left part is observed on July 13 prior to the<br />

event. The normal latitudinal pattern with higher concentrations at low latitudes (ozone<br />

production regions) and lower concentrations at high latitudes is apparent. Observations<br />

directly over the pole are not available due to the inclination of the satellite orbit. The thin<br />

white ring marks the polar cap: here SEPs are not deflected by the geomagnetic field and<br />

can precipitate down into the atmosphere.<br />

§ 866 The right part of the right panel of Fig. 5.30 shows the result of such particle precipitation:<br />

ozone concentrations inside the polar cap drop by 30–40% while they stay at constant<br />

level at lower latitudes.<br />

§ 867 Our interest in energetic particles and ozone lies in three domains, see also the more<br />

detailed description in sect. 5.5.3:<br />

• individual events: they are required for calibration of the model because the signal is large<br />

(see left panel in Fig. 5.30) and thus atmospheric responses are well defined.<br />

• atmospheric consequences in case of a weakening geomagnetic field or even a field reversal.<br />

In this case, particle precipitation would not be limited to the polar cap but would occur<br />

over a more extended spatial region. Would this also cause a stronger depletion in ozone?<br />

The question is not as far fetched as it appears because polarity reversals often also are<br />

accompanied by climate change and the extinction of species. This question is topic of<br />

our project ‘Numerical simulation of the atmospheric ionization and the generation of<br />

cosmogenic nuclides for different topologies of the geomagnetic field’ within the framework<br />

of the DFG Schwerpunktprogramm ‘Geomagnetic Variations’.<br />

• climate consequences: ozone has radiative properties. Thus ozone concentrations determine<br />

the local absorption and emission coefficients of the atmosphere. In consequence, thermal<br />

patterns in the atmosphere can be modified which in turn influences the circulation. This<br />

question is topic of a common project with the Max–Planck Institute for Meteorology<br />

(Hamburg) ‘The atmospheric response to solar variability: simulations with a general circulation<br />

and chemistry model for the entire atmosphere’ within the framework of the DFG<br />

Schwerpunktprogramm ‘CAWSES – Climate and Weather in the Sun–Earth System’.<br />

While the latter two projects are the more ambiguous ones, the first is the most important<br />

one: only if that model sequence works correctly, also the more interesting questions can be<br />

tackled. Thus we will here briefly discuss its main steps.<br />

5.5.1 Modeling Individual Events<br />

§ 868 First observations of SEP event related ozone decreases date back to the 1970s, in<br />

particular to the large event in August 1972. Paul Crutzen and coworkers [42] were the<br />

first to identify the reactions involved in this effect: basically, the ionization by precipitating<br />

charged particles leads to the formation of NOx and HOx. Both species ar highly reactive. In<br />

particular, both destroy ozone. These observations led Crutzen conclude that nitrite oxides<br />

play an important role in ozone chemistry – this discovery earned him 1/3 of the nobel prize<br />

in 1995.<br />

§ 869 While the qualitative description of the process is well established, its quantitative<br />

description suffers some problems. The observed quantities are, as indicated in Fig. 5.30, the<br />

energetic particle flux outside the atmosphere and magnetosphere on the one hand and the<br />

temporal/spatial variation of ozone in the atmosphere. The quantitative description of this<br />

process requires a sequence of three models:<br />

• a model to understand the particle transfer through the geomagnetic field: SEPs are precipitating<br />

almost homogeneously onto the magnetosphere and then are either deflected<br />

by the magnetic field or allowed to precipitate down to the atmosphere. In a static magnetosphere,<br />

particle orbits can be calculated by integration of the equation of motion.<br />

2. Juli 2008 c○ M.-B. Kallenrode


5.5. CAWSES 263<br />

Abbildung 5.31: Specific energy<br />

loss according to the Bethe–<br />

Bloch equation for protons<br />

[189]<br />

In a dynamic magnetosphere, the same approach can be used, although it is pretty time<br />

consuming.<br />

The result of this model is a spatial pattern of precipitating particles on top of the atmosphere.<br />

• a model to describe the ionization of the atmosphere by precipitating charged particles.<br />

This will be described in detail below.<br />

The result of such a model is an ion–pair production rate in the atmosphere, depending<br />

on the horizontal coordinate (as inferred from the model magnetosphere above) and the<br />

vertical coordinate (depending on the energy spectrum of the precipitating particles).<br />

• a model to describe the chemistry of the atmosphere. Such a model includes a large number<br />

of chemical reactions as well as some prescribed (or even self-consistently solved) transport<br />

and needs the ion–pair production rates as input.<br />

The result is a 2D or 3D (depending on the dimensionality of the model atmosphere) ozone<br />

concentration that can be compared to the observations.<br />

Thus the chain from observation 1 (SEPs in space) to observation 2 (ozone) leads through 3<br />

models.<br />

§ 870 For the present day magnetosphere, the horizontal pattern of precipitation and therefore<br />

also ion–pair production is simple: SEPs precipitate inside the polar cap but not outside.<br />

§ 871 The vertical pattern of ion–pair production is regulated by the spectrum of the incident<br />

particles. The primary energy loss mechanism for charged protons in the energy range under<br />

study is ionization. Formally, this process is described by the Bethe–Bloch equation<br />

dE<br />

dx<br />

Z2 � 2 2mev<br />

ne ln<br />

v2 〈EB〉 − ln(1 − β2 ) − β 2<br />

�<br />

. (5.3)<br />

= − e4<br />

4πε 2 0 me<br />

The specific energy loss dE/dx is the energy dE deposited per unit path length dx along<br />

the particle track. It depends on (1) a number of constants (first fraction; the elementary<br />

charge e, the electron mass me and the absolute permeability ε0), (2) the parameters of the<br />

incident particle (second fraction: charge Z and speed v), and (3) the electron density ne of<br />

the absorber. The first term in the bracket contain the relative kinetic energy compared to<br />

the average bond energy 〈EB〉 in the target material. The remaining terms are relativistic<br />

corrections with β = v/c.<br />

§ 872 Figure 5.31 shows the specific energy loss depending on the particle energy for protons.<br />

The specific energy loss decreases with increasing particle energy (interval 3) because the<br />

c○ M.-B. Kallenrode 2. Juli 2008


264 KAPITEL 5. DIE ERWEITERTE PERSPEKTIVE: CAWSES<br />

Abbildung 5.32: Bastille Day event: Particle intensities (left) and ionization rates (right) [189]<br />

time for interaction decreases with increasing speed. dE/dx becomes minimum around the<br />

particles rest energy, afterwards it increases slightly due to relativistic effects (interval 4).<br />

Since this is a general behavior, Fig. 5.31 also can be applied to other particle species as long<br />

as the horizontal axis is scaled in units of the particle’s rest energy (938 MeV in case of the<br />

proton) instead of its energy.<br />

§ 873 The specific energy loss is maximum at low energies (interval 2). In consequence,<br />

the specific energy loss becomes largest close to the end of the particle’s range. Thus the<br />

deposited energy as well as the resulting ion–pair production becomes maximum at the end<br />

of the range, the so-called Bragg peak. For very low energies (interval 1), the Bethe–Bloch<br />

equation is no longer valid: here the main physical processes are collisions between thermal<br />

particles and attachment of the electron to an ion. Both processes are not described by the<br />

Bethe–Bloch equation.<br />

§ 874 The energy loss of a particle along its track can be calculated by numerical integration<br />

of (5.3). Figure 5.32 shows in its right panel the calculated ion–pair production rates (that is<br />

specific energy loss divided by average ionization energy) for three subsequent 12 h intervals,<br />

the first one starting at the time marked by the left horizontal line in the left panel. During<br />

this interval (blue curve), ion–pair production occurs down to about 15 km because particle<br />

energies are rather high (the magenta curve has already acquired its maximum while the<br />

blue curve still is rising). With increasing time (going from blue to red to green), the ion–pair<br />

production rate shifts to higher altitudes because the intensities at higher energies already are<br />

decreasing. In addition, ion–pair production at altitudes around 70 km is increased because<br />

the intensities in the lower proton energies (blue curve in the left panel) still are increasing.<br />

§ 875 For the total model chain, these data now are fed into the model atmosphere. Figure<br />

5.33 shows the modeled (left) and observed (right) NOx production (top) and ozone<br />

depletion (bottom). Although the modeled results tend to overestimate both the NOx production<br />

and the ozone depletion, the overall temporal and spatial pattern is reproduced quite<br />

well.<br />

5.5.2 Monte Carlo Simulation of Atmospheric Ionization<br />

§ 876 Sofar, we have used a direct numerical integration of (5.3). But that approach has two<br />

disadvantages. First of all, the Bethe–Bloch equation is an empirical law derived from observations<br />

at the ground, that is in a standard atmosphere. And secondly, it neither allows to<br />

track the secondary electrons correctly nor to calculate ionization rates for incident electrons.<br />

The reason for this is simple: if a proton ionizes an atom, the collision is between a heavy<br />

2. Juli 2008 c○ M.-B. Kallenrode


5.5. CAWSES 265<br />

Abbildung 5.33: Bastille Day event: observed (right) and modeled (left) NOx (top) production<br />

and ozone (bottom) depletion (M. Sinnhuber, U. Bremen, priv. comm.)<br />

incident particle and the electron. Thus the primary particle is not deflected as it knocks the<br />

electron out of its orbit. In case of an incident electron, however, the collision partners have<br />

equal mass and the primary electron will be deflected from its path, too. As a consequence,<br />

it does not travel a straight line through matter but is subject to multiple scattering. While<br />

the Bethe–Bloch equation still gives a reasonable approach on the specific energy loss along<br />

the particle track, it does not allow to calculate the energy loss within a certain slab of target<br />

material. The same problem also holds for the secondary electron.<br />

§ 877 To model the total inventory of precipitating particles, which in addition to protons<br />

also contains electrons and heavier nuclei, a different approach is required. Since the very nature<br />

of the ionization process is stochastic, a Monte Carlo simulation is a reasonable approach.<br />

Here we need a list of all physical processes and their relevant cross sections/probabilities and<br />

then follow the particle along its track in small steps. At the end of each step, the particle<br />

either experiences an interaction with the ambient medium or not. The probability for such<br />

an interaction directly depends on the interaction cross section. Such an approach allows<br />

the consideration of all possible interaction processes, as long as the energy-dependent cross<br />

sections are known. This allows also the tracking of electrons: in each interaction not only the<br />

energy loss is taken from an energy loss distribution function but also the angle of deflection<br />

can be taken from some distribution. And in addition to the simple process of ionization,<br />

we also can allow for processes such as the generation of bremsstrahlung and, provided the<br />

energy of the incident particle is large enough, pair production.<br />

The Problem<br />

§ 878 Before digging into too much detail, let us formulate the problem: the particle motion<br />

involves the following steps:<br />

• during each time step, the particle is transported by a spatial step ∆s = v ∆t with v being<br />

the particle speed. This almost corresponds to the advective term in a typical transport<br />

problem – it does not correspond to it exactly because in particular for electrons deviations<br />

from the direct travel path of the incident particle occur.<br />

• at the end of each time step, a dice is thrown to decide whether the particle interacts with<br />

the matter or not. The likelihood of this process is determined by the total interaction<br />

cross section. If an interaction happens, a second throw of the dice determines the kind of<br />

c○ M.-B. Kallenrode 2. Juli 2008


266 KAPITEL 5. DIE ERWEITERTE PERSPEKTIVE: CAWSES<br />

Abbildung 5.34: Monte Carlo simulation: Tracks of a 50 MeV electron (right) and a 300 MeV<br />

proton (left) in a model atmosphere [217]<br />

interaction (for instance, ionization, hadronic interaction, production of Bremsstrahlung)<br />

depending on the relative interaction cross sections. In our simple model, we adhere to<br />

the Bethe–Bloch equation and the only energy loss mechanism is ionization. Thus the<br />

second throw of the dice can be omitted and the interaction cross section for ionization<br />

also becomes the total interaction cross section. If no interaction occurs, the next time<br />

step starts. If an interaction happens, we have to throw the dice again to determine the<br />

energy loss from the energy loss distribution. The particle properties (energy, eventually<br />

also direction of motion) will be updated and the particle’s energy loss is added as an energy<br />

gain to the volume. Alternatively, it is also possible to just count the ionization processes<br />

in each volume element (or along each line element of the travel path). if fast secondaries<br />

are produced, they are treated as additional particles and also have to be tracked by a<br />

Monte Carlo simulation.<br />

The Model<br />

§ 879 Our model atmosphere is plane-parallel because the height of the atmosphere is small<br />

compared to Earth’ radius. Up to a height of 100 km it is divided into 29 equidistant layers;<br />

its remaining mass is condensed into a 30 th layer, 10 km thick: thus details of the energy<br />

deposit above 100 km are lost.<br />

§ 880 The composition of the atmosphere is homogeneous with 23.3 wt% O2, 75.5 wt% N2<br />

and 1.3 wt% Ar. For numerical studies, pressure, density and temperature height profiles are<br />

taken from the equatorial June atmosphere in the SLIMCAT/TOMCAT model [35]. This<br />

approach ignores the pronounced seasonal variability of the polar atmosphere and gives an<br />

average ionization profile instead [189]. For individual SEP events the corresponding polar<br />

atmosphere is used.<br />

§ 881 During a SEP event protons, electrons, and α-particles are accelerated (for a recent<br />

summary see e.g. [119]). Electron to proton ratios as well as energy spectra depend on the<br />

parent flare, in particular whether it is impulsive or gradual, the properties of the coronal<br />

mass ejection, and the geometrical relation between observer and solar activity.<br />

§ 882 Particle precipitation is assumed to be isotropic from the upper hemisphere: particle<br />

distributions in interplanetary space tend to be isotropic for electrons and become isotropic<br />

for protons during the time course of the event (e.g. examples in [122]). Observations by the<br />

MEPED (Medium Energy Proton and Electron Detector) instrument on board POES (Polar<br />

2. Juli 2008 c○ M.-B. Kallenrode


5.5. CAWSES 267<br />

Abbildung 5.35: Energy losses of 1–<br />

500 MeV protons calculated with a<br />

Monte Carlo simulation (circles) and<br />

Bethe–Bloch (solid line) [217]<br />

Orbiting Environmental Satellite) even suggest a slight preference for larger pitch angles<br />

inside the polar cap at altitudes of 900 km (Bornebusch, priv. comm.).<br />

§ 883 Energy spectra of precipitating SEPs can be described by a broken power law [74, 61,<br />

114]: I(E) = I0 · (E/E0) −γ with I0 being the differential intensity at a reference energy E0,<br />

E the energy, and γ the spectral index. Around some 100 MeV the spectrum flattens and<br />

intensities increase due to the background of galactic cosmic rays [71]. Observed spectra are<br />

fitted simultaneously by up to three power-laws; the breaks between the power laws are not<br />

at fixed energies but are determined such that the best fit over the entire spectrum results.<br />

Monte Carlo Simulation<br />

§ 884 GEANT 4 [3, 67] allows for a multitude of interactions between the precipitating<br />

particle and the absorber atmosphere. Our model considers as subset of particles protons,<br />

electrons, positrons, αs, and photons. Interactions are limited to electromagnetic ones: multiple<br />

scattering, Compton-scattering, ionization, photo electric effect, gamma conversion,<br />

annihilation, pair production, and production of bremsstrahlung. Secondaries produced in<br />

such interactions are tracked up to a cut-off length for particle propagation of 1 m. If particle<br />

energies are lower, the model switches to continuous energy loss.<br />

§ 885 Precipitating particles have an angular distribution and an energy spectrum. The<br />

Monte-Carlo simulation itself is performed for mono-energetic pencil-beams of 100 particles;<br />

angles of incidence vary between 0 ◦ and 80 ◦ in steps of 10 ◦ . The energies range from 1 MeV<br />

to 500 MeV in 109 logarithmic equidistant steps for protons and 1 MeV to 50 MeV in 340<br />

steps for electrons. Statistics are tested by increasing the number of incident particles by a<br />

factor of 10 – the results are essentially the same.<br />

§ 886 The total energy input into each layer is the sum of the energy depositions of the<br />

individual particles; a division by the layer’s thickness yields the linear energy transfer (LET)<br />

dE/dx. Thus the primary result of the simulation is the LET as function of altitude, initial<br />

kinetic energy and impact angle.<br />

§ 887 Ion pair production rates for individual particle events are obtained by folding the<br />

LETs with the observed particle spectrum and angular distribution and assuming an average<br />

ionization energy of 35 eV per ion pair [186].<br />

c○ M.-B. Kallenrode 2. Juli 2008


268 KAPITEL 5. DIE ERWEITERTE PERSPEKTIVE: CAWSES<br />

Abbildung 5.36: Energy losses of 1–<br />

50 MeV electrons calculated with a<br />

Monte Carlo simulation (circles) and<br />

Bethe–Bloch (solid line) [217]<br />

Results<br />

§ 888 Figure 5.34 shows sample tracks for a 300 MeV proton (left) and a 50 MeV electron<br />

(right). Production of secondaries is marked by dots, at the lines continuous energy losses<br />

occur with the line styles dashed, solid and dashed-doted indicating neutral, negatively or<br />

positively charged particles, respectively.<br />

§ 889 The proton trajectory basically is a straight line. Only in the extremely rarefied upper<br />

atmosphere a trace of a secondary electron with significant path length is visible. Such long<br />

tracks occasionally occur in the upper atmosphere, because a low density implies a small<br />

interaction probability between the secondary and the atmosphere, leading to a long track.<br />

At lower altitudes secondary electrons are quickly stopped by the dense atmosphere and do<br />

not show up as separate tracks.<br />

§ 890 The straight path of the primary proton combined with the short range of the secondaries<br />

yields energy loss distributions comparable to those acquired in the conventional<br />

way without consideration of secondaries: Fig. 5.35 shows energy losses for particle spectra<br />

with four different power law indices γ with (dots) and without (line) consideration of the<br />

secondaries. With increasing γ the spectrum steepens and the ion production rate at lower<br />

altitudes decreases. Note that γ = 0 implies that the particle intensity is independent of<br />

energy while γ = 2 represents a SEP spectrum fairy well.<br />

§ 891 The situation is quite different for electrons, see left hand side of Fig. 5.34: instead<br />

of a straight line the path is randomly twisted because the primary’s mass is the same as<br />

that of the shell electron and thus deflection occurs during interaction. This multiple scattering<br />

is not considered in a continuous loss model based on the Bethe–Bloch equation; thus<br />

such models underestimate the LET and consequently overestimates penetration depth. In<br />

addition, not all secondaries keep close to the track of the primary: aside from the secondary<br />

electrons produced during ionization, a primary electron also produces bremsstrahlung<br />

(dashed lines). These X-rays propagate large distances before depositing their energy due to<br />

Compton scattering and photoionization in denser layers of the atmosphere. Ionization thus<br />

can be shifted by several kilometers below the end of the primary track. The resulting energy<br />

transmission to altitudes less than 20 km with (dots) and without (lines) consideration of<br />

the secondaries is shown in Fig. 5.36, again for four different power law spectra and γ = 2<br />

being a fair representative for SEP spectra.<br />

§ 892 To demonstrate the implications of the Monte Carlo simulation for ion–pair production,<br />

two different events are analyzed: one prominent event (October 22, 1989) and for<br />

comparison a large impulsive event (June 14, 1989). Electron spectra in the range 0.5 to 2.5<br />

2. Juli 2008 c○ M.-B. Kallenrode


5.5. CAWSES 269<br />

Abbildung 5.37: Ionization rates of electrons and protons combined for a gradual solar energetic<br />

particle event (left) and an impulsive one (right) [217]<br />

MeV are obtained from the CPME (Charged Particle Measurement Experiment) on board<br />

IMP (Interplanetary Monitoring Platform). Comparison with the higher energy electron instrument<br />

on IMP shows that in both events the electron spectrum can be extended down to<br />

5 MeV. For the June event, proton spectra in the range 0.29 MeV to 440 MeV are obtained<br />

from the same instrument; for the October event proton spectra in the range 0.8 MeV to 500<br />

MeV were taken from GOES (Geostationary Operations Environmental Satellite) because<br />

IMP measurements are less reliable due to failure of the anticoincidence scintillator.<br />

§ 893 The left hand side of Fig. 5.37 shows the modeled ion pair production rates for protons<br />

(dotted), electrons (dashed) and the sum of both (solid line) in the 4 October event for 6 hours<br />

containing the high energy maximum; at later times the instrument is saturated. Ionization<br />

of the electrons can amount to up to about 1/3 of that of protons in the height range 50 to<br />

70 km, at lower altitudes electron contribution is insignificant – which is partly due to our<br />

abrupt cut off of the electron spectrum at 5 MeV.<br />

§ 894 The ion pair production rates for the main phase (1 day) of the impulsive June event<br />

are shown on the right hand side of Fig. 5.37. Again the contribution of electrons is visible<br />

only above 50 km, however, around 70 km the ion pair production by electrons even exceeds<br />

that of the protons.<br />

Conclusions<br />

§ 895 The main results of the Monte Carlo simulation are:<br />

R1 for 1 MeV to 500 MeV protons ionization rates are essentially the same in the Monte<br />

Carlo simulation and in a continuous energy loss model.<br />

R2 for 1 MeV to 50 MeV electrons the consideration of bremsstrahlung shifts the ionization<br />

well beyond the Bragg peak to lower altitudes.<br />

R3 electrons in SEP events contribute to ion pair production rates in the height range 50<br />

to 70 km; the amount depends on whether the particle event originated in an impulsive or a<br />

gradual flare.<br />

§ 896 As a consequence of R1, the consideration of secondaries in the Monte Carlo simulation<br />

cannot explain the difference between the observed and modeled electron densities<br />

in the October 1989 event as suggested by Verronen et al. [245]. Instead, R3 suggests that<br />

the inclusion of electrons in the analysis of SEP events might explain such differences. It<br />

should be noted that implications of R3 depend on the focus of research: in the very large<br />

events electron contributions are more or less a 10% effect and thus might be neglected as<br />

c○ M.-B. Kallenrode 2. Juli 2008


270 KAPITEL 5. DIE ERWEITERTE PERSPEKTIVE: CAWSES<br />

suggested in [107]. For long term studies such as variations over the solar cycle or possible<br />

climate impacts, however, also the much larger number of electron-rich impulsive SEPs has<br />

to be considered and thus ionization rates (and atmospheric consequences of precipitating<br />

particles) can be evaluated only if also electrons are considered.<br />

§ 897 R2 also has implications for modeling atmospheric effects of precipitating electrons. So<br />

far, magnetospheric electrons have been considered as a source of NOx which, owing its long<br />

life-time, sinks down from the mesosphere into the stratosphere and affects ozone chemistry<br />

[31, 32]. Our results suggest a modification to their model in such that part of the ionization<br />

is directly transferred downwards by Bremsstrahlung. However, consequences are difficult to<br />

access since the produced NOx and HOx have different life times at different heights and thus<br />

implications for chemistry only can be evaluated in combination with a chemistry model –<br />

which is beyond the scope of this paper.<br />

5.5.3 Applications of the Model<br />

§ 898 In this section some results of our work on the consequences of solar energetic particles<br />

for atmospheric ionization and ozone depletion will be presented. The work is done in collaboration<br />

with Miriam Sinnhuber and Holger Winkler from the Institute of Environmental<br />

Physics at the University of Bremen.<br />

Modeling of Atmospheric Consequences – Principle<br />

§ 899 The question under study already is demonstrated in Fig. 5.30: what is the relation<br />

between solar energetic particles (left) and ozone depletion (right). Basically, the two figures<br />

present the information available: intensity–time profiles for different particle species and<br />

energies measured outside the atmosphere and ozone mixing ratios measured in the atmosphere<br />

above a certain height. Modeling consists of three modules:<br />

• where do the particles precipitate? The geomagnetic field regulates the spatial pattern of<br />

particle precipitation such that it is limited to the polar cap (white ring in the left panel of<br />

Fig. 5.30 in the present day atmosphere). For a modified geomagnetic field such as during<br />

a field reversal, however, the spatial precipitation pattern has to be modeled.<br />

• primary interaction: ionization. From the particle intensity–time profiles energy spectra<br />

are calculated and from them the vertical profile of energy losses in the atmosphere, such<br />

as shown in Fig. 5.32.<br />

• from these ion–pair–production rates the generation of the chemically reactive components<br />

NOx and HOx is determined. From a chemistry model such as the one used at the University<br />

of Bremen, then ozone depletions can be calculated as shown and compared to the<br />

observations in Fig. 5.33.<br />

Since three models stand between the observations, each model must be quite elaborate to<br />

avoid a sum-up of the unavoidable errors.<br />

Individual Events<br />

§ 900 Although modeling is performed with care, errors cannot be excluded. Thus extensive<br />

testing is required. However, atmospheric ozone is not only influenced by solar energetic<br />

particles but also by other factors such as the Sun’s hard electromagnetic radiation and<br />

atmospheric temperature and circulation patterns. Thus any variation in ozone at the time<br />

of a particle event can have many different sources – the particle event even might contribute<br />

nothing to the ozone variation.<br />

§ 901 Thus the first task is to show the causal relation between ozone depletion and solar<br />

energetic particles and than to model it qualitatively. A reasonable approach might follow<br />

this line of thought: if solar energetic particles have any non-vanishing influence on the<br />

atmosphere, this should be most obvious in the largest events. This is also observed.<br />

2. Juli 2008 c○ M.-B. Kallenrode


5.5. CAWSES 271<br />

Abbildung 5.38: Ozone depletion following the series of large events in October/November<br />

2003: modeled and observed ozone variations in the northern and southern hemisphere [205]<br />

§ 902 In addition, the largest events provide the best test case for modeling: if the effect is<br />

large, its dilution due to natural variability is small. Thus a large solar particle event provides<br />

some kind of δ-stimulus for the atmosphere and its response can be analyzed despite all the<br />

natural noise underlying it. And solar energetic particle events can become quite large: in the<br />

Bastille day event in Fig. 5.30, particle intensities increase by up to 6 orders of magnitude<br />

above background thus providing a strong stimulus.<br />

§ 903 As a consequence, large solar energetic particle events can be used to calibrate the<br />

model chain mentioned above before we attempt to derive more subtle effects from our<br />

models.<br />

§ 904 To demonstrate the validity of the model chain, Fig. 5.38 shows comparisons between<br />

measurements by SCIAMACHY (top and third panel) and modeled (second and fourth panel)<br />

depletions in ozone following the large events in October/November 2003 for the northern<br />

(top panels) and southern (bottom panels) hemisphere. Spatial and temporal patterns in both<br />

hemispheres are reproduced quire reasonably, although as discussed before ozone depletion<br />

in the mesosphere is overrated while it is underestimated for late times in the stratosphere.<br />

However, these deviations between observations and model are small compared to the asymmetry<br />

between the two hemispheres: while both model and observations indicate a strong<br />

ozone depletion in the northern hemisphere, ozone variations in the southern hemisphere are<br />

almost negligible. Reasons for this asymmetry will be discussed below.<br />

Long–Term Effects of Solar Energetic Particle Events<br />

§ 905 While the modeling of the influence of individual particle events on ozone is a goal<br />

in itself, our interest is concerned more with longer times scales, in particular time scales<br />

c○ M.-B. Kallenrode 2. Juli 2008


272 KAPITEL 5. DIE ERWEITERTE PERSPEKTIVE: CAWSES<br />

Abbildung 5.39: Consequences<br />

of the large October 1989 event<br />

in the atmosphere at N75: HOx<br />

production (top), NOx production<br />

(middle) and ozone depletion<br />

(bottom)<br />

related to magnetic field reversals, variations of the terrestrial climate and variations of the<br />

atmosphere, in particular its composition.<br />

§ 906 These long-term questions can be analyzed with different scopes. For instance, we can<br />

perform a single event analysis as described above only for modified boundary conditions.<br />

This would be a suitable approach to understand ozone depletion in individual events during,<br />

for instance, a magnetic field reversal or in a changing atmosphere. However, since magnetic<br />

field reversals also are accompanied by climate change and mass extinction, we also might<br />

ask wether ozone depletion might lead to climate change. Since large solar energetic particle<br />

events are rather rare (a few per solar cycle), such speculation only can be reasonable if a<br />

single event has a sufficiently long influence on the atmosphere and thus the effects from<br />

events might overlap and amplify in time.<br />

§ 907 Figure 5.39 shows atmospheric consequences following the large solar energetic particle<br />

event in October 1989. The top panel shows vertical profiles of the HOx generation at 70 N,<br />

the middle panel the same for NOx. Both species are highly reactive and lead to ozone<br />

destruction. HOx is produced mainly at altitudes above 40 km. It is a short lived species and<br />

is easily destroyed by photochemical reactions and during the ozone depletion reaction. Thus<br />

HOx production during a solar energetic particle event certainly will not cause any longterm<br />

effects. The situation is different in case of NOx: it is produced over a much broader<br />

height range from about 20 km to the mesosphere, although the maximum production occurs<br />

above about 40 km. The fundamental difference compared to HOx is the live-time: particle<br />

precipitation is limited to a few days while high NOx levels persist for weeks to months. With<br />

2. Juli 2008 c○ M.-B. Kallenrode


5.5. CAWSES 273<br />

Abbildung 5.40: Ion–pair production due to energetic charged particles during the solar cycle<br />

time, NOx is depleted in the mesosphere by photochemical reactions – its life time in the<br />

stratosphere is much longer and with time it sinks slowly to lower altitudes with its maximum<br />

around the height of the ozone layer.<br />

§ 908 Ozone depletion (bottom panel in Fig. 5.39) is regulated by both species: initially in<br />

the event there is a strong depletion in the mesosphere above 60 km due to the combined<br />

effects of HOx and NOx. The pronounced depletion around 40 km, on the other hand, is<br />

due to NOx as can be inferred from the long time scales. Owing to different temperatures,<br />

the NOx-induced ozone depletion is larger in the stratosphere than in the mesosphere. The<br />

most remarkable effect, however, is the persistent ozone depletion by a few percent right in<br />

the middle of the ozone layer around 25 km lasting for more than a year. Such a persistent<br />

anomaly bears the seed for possible cumulative effects of solar energetic particle events – in<br />

particular during magnetic field reversals where the effects of individual events will be even<br />

larger than in the present day atmosphere.<br />

Ionization through the Solar Cycle<br />

§ 909 The first approach on long–term studies is a view on the solar cycle. Figure 5.40<br />

shows ion–pair production rates from 1988 to 2005, that is almost 2 solar cycles. Times<br />

of high solar activity are clearly visible as times with increased ion–pair production rates<br />

between 1989 and 1992 and again between 2000 and 2005. Solar minimum is around 1996.<br />

The sharp drop in ionization rate at 20 km is ‘instrumental’: the highest energies observed<br />

by the GOES particle detector are 800 MeV protons which stop at that height. At lower<br />

altitudes, ionization expected from higher energies is ignored in this figure – this does not<br />

pose a problem for modeling because the subsequent atmospheric chemistry model is limited<br />

to the stratosphere and mesosphere and thus is not influenced by neglect of tropospheric<br />

ionization. 14<br />

14 Such a limitation for a chemistry module is validated by the fact that the tropopause is a boundary<br />

which strongly inhibits transport of matter and thus almost completely decouples the troposphere from the<br />

atmosphere above.<br />

c○ M.-B. Kallenrode 2. Juli 2008


274 KAPITEL 5. DIE ERWEITERTE PERSPEKTIVE: CAWSES<br />

Abbildung 5.41:<br />

Changes total ozone<br />

due to precipitating<br />

solar energetic particles<br />

during the solar cycle<br />

(courtesy M. Sinnhuber,<br />

U. Bremen)<br />

§ 910 Figure 5.41 shows the variation in total ozone from 1989 to the middle of 2001, that<br />

is one solar cycle. The figure shows a couple of remarkable features:<br />

• the general temporal behavior of the ozone depletion reflects the variation of ion pair<br />

production rates with the solar cycle as shown in Fig. 5.40: pronounced ozone depletion is<br />

observed between 1989 and 1992 and after 1999; the minimum is around 1996.<br />

• to the left, at the end of 1989, a strong decrease in ozone of some percent is visible in the<br />

northern hemisphere. This is related to the large solar energetic particle of October 1989<br />

as discussed in connection with Fig. 5.39. As mentioned there, the effect lasts for some<br />

month.<br />

• the ozone depletion on the right (middle of 2000) is related to the Bastille day event<br />

discussed in connection with Fig. 5.30.<br />

• in particular for the October 1989 event a strong hemispherical asymmetry is visible: the<br />

ozone depletion is much more pronounced on the northern hemisphere than on the southern<br />

one. In contrast, late in 1991 a solar energetic particle event causes an ozone depletion in<br />

the southern hemisphere but has almost no influence on the northern hemisphere. This<br />

hemispheric asymmetry basically is caused by two effects: (a) HOx and NOx life–times<br />

are influenced by photochemical processes as are many other chemical processes in the<br />

atmosphere. Thus even if all other conditions are equal, both hemispheres might exhibit<br />

different patterns of ozone depletion because one is more strongly illuminated than the<br />

other one. In the most extreme case, one hemisphere might be in polar night while the other<br />

is in polar day. (b) Circulation patterns are very different in both hemispheres: while in the<br />

northern hemisphere meridional transport happens all the year, in the southern hemisphere<br />

a strong closed vortex persists in the stratosphere that inhibits meridional transport, in<br />

particular in winter. In consequence, stratospheric temperatures can be extremely low<br />

which influences ozone chemistry. This vortex also explains why an ozone hole is observed<br />

at the southern pole while the northern hemisphere ozone hole is rather rudimentary.<br />

• the spatial pattern of ozone depletion varies with the solar cycle: while during solar maximum<br />

ozone depletion due to precipitating particles occurs almost down to the equator,<br />

during solar minimum ozone depletion is limited to latitudes poleward of about 60 ◦ .<br />

• ozone depletion occurs at latitudes where no particles precipitate: owing to the shape of the<br />

geomagnetic field, particle precipitation is limited to the polar cap, that is to geographic<br />

latitudes well polewards of 60 ◦ . Ozone depletion is not limited to these high latitudes but<br />

occurs also close to the equator. This shift reflects the atmospheric circulation patterns and<br />

the spatial variation in ozone production: the main ozone production is at low altitudes,<br />

leading to high ozone concentrations at low altitudes, see also the right panel in Fig. 5.30.<br />

The ozone-rich air then is transported polewards at high altitudes. At high latitudes ozone<br />

is destroyed by photochemical reactions as well as energetic particles. The equation of continuity<br />

requires also transport from the pole to low latitudes. This advects ozone depleted<br />

air to equatorial latitudes and thus explains the reduction in equatorial ozone.<br />

• in mid-latitudes (around 50 ◦ ) the solar-cycle variation in ozone due to precipitating energetic<br />

particles is comparable to the observed variation – and it is opposite in sign to the<br />

2. Juli 2008 c○ M.-B. Kallenrode


5.5. CAWSES 275<br />

variation expected from the solar-cycle variation of the UV radiation.<br />

Vanishing Geomagnetic Field<br />

Abbildung 5.42:<br />

Variation in total<br />

ozone during the solar<br />

cycle without geomagnetic<br />

field (courtesy M.<br />

Sinnhuber, U Bremen)<br />

§ 911 A worst case estimate for the ozone balance during a magnetic field reversal is obtained<br />

in case of a vanishing geomagnetic field. Then particles precipitate into the atmosphere at all<br />

latitudes and not only at high latitudes. Figure 5.42 shows model calculations or this case.<br />

The results are quite similar to the ones obtained for the present day geomagnetic field in<br />

Fig. 5.41:<br />

• total ozone depletion is higher during solar maximum than during solar minimum,<br />

• the effects of individual events are visible,<br />

• ozone depletion in individual events shows a hemispheric asymmetry,<br />

• the spatial pattern of ozone depletion varies with the solar cycle.<br />

Despite all these similarities (in fact, there is one similarity too much) there is also a fundamental<br />

and surprising difference between the two figures: ozone depletion in high latitudes<br />

is much more pronounced in case of a vanishing geomagnetic field although the number of<br />

particles precipitating at high latitudes does not change! The difference in particle precipitation<br />

between the present-day field and the vanishing field, on the other hand, occurs at<br />

low- and mid-latitudes: here the difference in ozone depletion between the two runs is less<br />

pronounced than at polar latitudes where no difference would be expected. This again reflects<br />

the complex relation between photochemical processes and atmospheric circulation.<br />

§ 912 A closer inspection of Fig. 5.42 suggests ozone depletion by 10–20% at high latitudes<br />

lasting for a few month. Ozone has radiative properties, in particular, it absorbs UV<br />

radiation and is also a greenhouse gas, that is, it affects the terrestrial long-wave emission.<br />

In consequence, a local change in ozone concentration can cause a local change in temperature.<br />

Since pressure gradients resulting from temperature gradients are the driving forces for<br />

atmospheric motion, a change in ozone concentration might cause a change in atmospheric<br />

velocity fields and thus modify climate.<br />

Consequences for Climate?<br />

§ 913 A first indication for such a process is given in Fig. 5.43: in the top panel ozone<br />

depletion at 75N is shown for a large solar energetic particle event at the time of polarity<br />

reversal, that is for a vanishing geomagnetic field. Ozone depletion can amount to more than<br />

50% in the stratosphere and stay at such high levels for almost a year. The lower panel in<br />

Fig. 5.43 shows the resulting changes in temperature (sorry for the color-coding). Although<br />

temperature changes are rather small (rarely larger than 5 K), temperature gradients can<br />

become quite large. In consequence, wind fields change. And once the wind fields are modified,<br />

the entire temperature distribution in the atmosphere is modified, which certainly will affect<br />

climate.<br />

c○ M.-B. Kallenrode 2. Juli 2008


276 KAPITEL 5. DIE ERWEITERTE PERSPEKTIVE: CAWSES<br />

Abbildung 5.43: variation in ozone<br />

(top) and temperature (bottom) at<br />

75N following a large solar energetic<br />

particle event during a magnetic field<br />

reversal (based on [226])<br />

§ 914 The simulation in Fig. 5.43 can be regarded as a first indication for a solar energetic<br />

particle induced modification of the climate. The model atmosphere used to obtain that<br />

result has been build primarily for the study of atmospheric chemistry. The model is a 2D<br />

model only, that is it considers the vertical coordinate and latitude as horizontal coordinate<br />

because the relevant transport processes in the atmosphere are meridional. In consequence,<br />

atmospheric circulation can not be treated self-consistently. Instead, it is parameterized such<br />

that only the meridional component is allowed to vary while the azimuthal transport is<br />

fixed. Such a model cannot adjust completely to a different temperature pattern driving the<br />

circulation systems. Thus the results in Fig. 5.43 give an indication only.<br />

§ 915 Within the framework of CAWSES it is planned to use the MPI Hamburg model HAM-<br />

MONIA (http://www.mpimet.mpg.de/en/depts/dep1/uma/hammonia/) to model possible<br />

consequences of precipitating solar energetic particles for climate in more detail. It should<br />

be noted that this implies a large amount of computational resources. Thus the simple first<br />

estimate in Fig. 5.43 has been relevant in such that it has confirmed that the process under<br />

study is possible and worth further investigation. Without such a preliminary study it would<br />

have been irresponsible to start the study with the full climate model.<br />

2. Juli 2008 c○ M.-B. Kallenrode


Kapitel 6<br />

Kommunikation<br />

The fundamental problem of communication is that of reproducing<br />

at one point either exactly or approximately a message<br />

selected at another point.<br />

Claude Shannon [222]<br />

§ 916 Die Kommunikation zwischen einem Satelliten und seiner Bodenstation zerfällt in zwei<br />

Bereiche: (a) operationale Daten und (b) Nutzdaten. Die operationalen Daten umfassen im<br />

Downlink die Vitalparameter des Satelliten, wie Temperaturen, Lage, Stromversorgung und<br />

Position, sowie von Seite der Bodenstation im Uplink die Befehle zur Lagekontrolle, zum<br />

An- und Ausschalten von Instrumenten, zum Senden der Daten usw. Operationale Daten<br />

müssen in Echtzeit und ohne Fehler transmittiert werden, die zu sendenden Datenmengen<br />

sind gering. Der größte Teil der Kommunikation ist einseitig, das Senden der Nutzdaten vom<br />

Satelliten zum Boden (Downlink). Hierbei fallen sehr große Datenmengen an, die möglichst<br />

fehlerfrei versendet werden sollen, aber in der Regel nicht notwendigerweise in Echtzeit – was<br />

dann jedoch Datenspeicher erfordert.<br />

§ 917 Der Schwerpunkt dieses Kapitel liegt auf der Übermittlung von Daten über unsichere<br />

Kommunikationskanäle mit geringer Datenübertragungskapazität; die wichtigsten Themenbereiche<br />

sind Datenreduktion bzw. Kompression und Platz sparende Kodierung der Daten,<br />

bei der gleichzeitig eine Fehlererkennung und möglichst auch -korrektur gegeben ist.<br />

6.1 Historisches<br />

§ 918 Bei interplanetaren Missionen und Missionen zu anderen Planeten wurden und werden<br />

die Messverfahren so gewählt, dass die Daten in digitalisierter Form vorliegen und damit<br />

direkt an die Bodenstation übermittelt werden können – alles andere wäre ohnehin nicht<br />

möglich. 1 Dadurch ist bei den frühen Missionen die Qualität des Datenendprodukts begrenzt;<br />

zum einen durch die geringe Datenübertragungsrate, zum anderen durch die Notwendigkeit,<br />

Instrumente zu verwenden, die elektronische Daten produzieren obwohl diese nicht zwingend<br />

die besten sein müssen (vgl. Videokamera und konventionelle Kamera wie in Abschn. 3.2.7<br />

diskutiert).<br />

1 Eine Ausnahme ist natürlich der Sample Return. Das ist aber korrekterweise kein Remote Sensing sondern<br />

eine in-situ Messung: die Probe wird in-situ genommen, lediglich die Analyse erfolgt an anderem Ort.<br />

Sample Return ist selten: die Lunar Return Samples wurden größtenteils bei bemannten Missionen mit zurück<br />

gebracht; aus dem Sonnenwind hat Genesis gesamplet und dann statt der geplanten Auffanglandung einen<br />

etwas harten Aufpraller hingelegt.<br />

277


278 KAPITEL 6. KOMMUNIKATION<br />

Abbildung 6.1: Der belichtete<br />

Film wird vom<br />

Satelliten abgeworfen und<br />

möglichst noch in der<br />

Luft von amerikanischen<br />

Kräften abgefangen [257];<br />

rechts gleiches Verfahren<br />

beim Test des Abbergens<br />

der Sonde Genesis [739]<br />

Abbildung 6.2: Aufklärungssatelliten<br />

mit konventionellen<br />

photographischen<br />

Systemen an Bord haben<br />

nur geringe Lebensdauern<br />

[257]; die Daten/Satelliten<br />

beziehen sich auf das Jahr<br />

1980<br />

§ 919 In der <strong>Erdfernerkundung</strong> wurden zwei Sonderwege beschritten, um möglichst optimale<br />

Datensätze zu erhalten. Dabei sollte nicht vergessen werden, dass die militärische Aufklärung<br />

eine der wesentlichen Motivationen der <strong>Erdfernerkundung</strong> war. Das bedeutet einerseits eine<br />

hohe Anforderung an das Datenprodukt, andererseits aber auch große finanzielle, materielle<br />

und personelle Ressourcen: Geld spielt keine Rolle; nicht nur auf Grund des Bedarfs am<br />

Produkt sondern auch für das Selbstverständnis (Wettlauf ins All).<br />

6.1.1 Rückführung des Filmmaterials<br />

§ 920 In der Frühzeit der <strong>Erdfernerkundung</strong> von Raumfahrzeugen aus war das dominierende<br />

Instrument die konventionelle Photokamera mit einem Schwarz-Weiß-Film, als Erweiterung<br />

die Kombination von SW-Kameras zur Multispektralaufnahme oder die Verwendung von<br />

Farbfilmen. In jedem dieser Fälle war das Endprodukt auf dem Raumfahrzeug ein belichteter<br />

Film. Bei einer bemannten Raummission (z.B. Apollo) war dies kein Problem, da der Film<br />

mit den Astronauten zur Erde zurück gebracht wurde. Bei unbemannten Missionen adoptierte<br />

man dieses Verfahren: die Amerikaner, in dem sie die Filme in Kapseln vom Satelliten<br />

abwerfen und über dem Ozean von Flugzeugen abfangen ließen (siehe Abb. 6.1). 2<br />

2 Die NASA hat im September 2004 erfolglos (Fallschirm der Kapsel hat sich nicht geöffnet) versucht dieses<br />

Verfahren zu kopieren und die von der Sonde Genesis gesammelten Proben des Sonnenwinds auf diese Weise<br />

in einer Kapsel auf die Erde zurück zu bringen; im rechten Teil von Abb. 6.1 ein Bild vom Test, weitere unter<br />

[460].<br />

2. Juli 2008 c○ M.-B. Kallenrode


6.1. HISTORISCHES 279<br />

Abbildung 6.3: Die Daten werden weiterhin<br />

mit Film und Kamera gewonnen,<br />

der Film wird an Bord des Satelliten<br />

entwickelt und gescannt und die<br />

so gewonnenen digitalen Daten werden<br />

transmittiert [49]<br />

§ 921 Bevor Sie die große Zahl von sowjetischen Satelliten als übersteigertes Informationsbedürfnis<br />

fehlinterpretieren, sollten Sie einen Blick auf deren Verfahren werden. Die sowjetische<br />

Variante war im Prinzip nicht sehr verschieden von der amerikanischen, lediglich wurde<br />

nicht nur der Film sondern der ganze Satellit rückgeführt: da die UdSSR zwar über ausgedehnte<br />

Landflächen verfügt jedoch mehr Schwierigkeiten mit dem gesichertern Zugang zu den<br />

Ozeanen hatte, wurden die Filme nicht in Kapseln abgeworfen sondern der Satellit kontrolliert<br />

zum Absturz gebracht. 3 Die durch die Rückführung des Filmmaterials bedingten kurzen<br />

Lebensdauern der Satelliten sind in Abb. 6.2 zu erkennen. Die Abbildung stammt übrigens<br />

nicht aus der Frühzeit der <strong>Erdfernerkundung</strong> sondern bezieht sich auf das Jahre 1980; die<br />

Zahlen über die Starts lassen sich an Hand des SpaceWarn Bulletins [615] nachvollziehen.<br />

Aus dem Vergleich von KH’s der USA und den Kosmos der UdSSR wird deutlich, dass beide<br />

Blöcke unterschiedliche Konzepte verfolgt haben: die UdSSR hat, eigentlich ganz modern, den<br />

billigen Einmal- oder Wegwerfsatelliten bevorzugt, die USA dagegen ein langlebiges Produkt.<br />

Dadurch ließen sich auch aufwendigere Instrumente fliegen – die abzuwerfende Filmbüchse<br />

war aber bis in die Mitte der 1980er dabei. Resurs (siehe auch § 302) hat dieses Verfahren<br />

sogar bis in die 1990er hinein gerettet.<br />

6.1.2 Onboard-Scans<br />

§ 922 Beide Verfahren, Abwurf der Filmkapsel und kontrollierter Absturz des Satelliten,<br />

sind nicht nur material- und kostenintensiv sondern haben einen weiteren Nachteil, der für<br />

die Militärs noch wesentlich gravierender ist als für zivile Nutzer: Echtzeit-Aufklärung ist mit<br />

dieser Methode der Datenrückführung nicht möglich.<br />

§ 923 Auf Grund der hohen Qualität der photographischen Aufnahmen hat man daher im<br />

militärischen Bereich relativ früh ein hybrides Verfahren entwickelt: die eigentliche Aufnahme<br />

(der Sensor) erfolgt weiterhin analog (Kamera und Film), die Datenübertragung dagegen<br />

digital. Voraussetzung dafür ist die Umwandlung des analogen Signals in ein elektronisches<br />

Signal an Bord des Satelliten.<br />

§ 924 Dazu wurde das in Abb. 6.3 dargestellte Verfahren entwickelt: der Film wird an Bord<br />

des Satelliten entwickelt und anschließend gescannt. Auf diese Weise liegt die Information in<br />

digitalisierter Form vor und kann zur Bodenstation transmittiert werden. Damit ist nahezu<br />

Echtzeit-Aufklärung möglich, allerdings ist die Datenqualität schlechter als die des Originalfilms;<br />

bei Bedarf kann der Film weiterhin mit der Kapsel zurück geführt wurde. Die Idee<br />

der selektiven Bildrückführung haben wir auch beim Waldbrandsatelliten in § 49 diskutiert<br />

– allerdings ohne Verwendung des Films sondern mit modernen Sensoren.<br />

6.1.3 Technische Anmerkungen<br />

§ 925 Heutige <strong>Erdfernerkundung</strong>ssatelliten erzeugen nur noch digitale Daten, die transmittiert<br />

werden – Film wird außer auf Resusr nur noch auf dem Space Shuttle bzw. der ISS<br />

3 Da militärische <strong>Erdfernerkundung</strong>ssatelliten in sehr geringen Höhen fliegen, ist ihre Lebenszeit ohnehin<br />

nur gering, d.h. der Satellit muss nicht einmal zum Absturz gebracht werden sondern es muss nur sein Absturz<br />

kontrolliert werden.<br />

c○ M.-B. Kallenrode 2. Juli 2008


280 KAPITEL 6. KOMMUNIKATION<br />

Abbildung 6.4: Nachrichtenstrecke<br />

bei<br />

Nachrichtensatelliten<br />

(links) und Blockdiagramm<br />

einer typischen<br />

Telemetrie-<br />

/Telekommando-Strecke<br />

(rechts, [200])<br />

verwendet. Die technischen Probleme bei der Kommunikation mit Satelliten lassen sich daher<br />

reduzieren auf die Punkte:<br />

• die anfallenden Datenmengen sind groß, die Übertragungsraten dagegen klein; als Beispiel<br />

fallen auf TerraSat alleine fürs Radar 830 Mbits/s an während die Übertragungsrate für<br />

den Satelliten insgesamt nur 320 Mbit/s beträgt. Damit ergibt sich die Notwendigkeit der<br />

Datenkompression (Quellencodierung).<br />

• die Kommunikationskanäle sind gestört, z.B. Störungen der atmosphärischen Ionisation<br />

durch solare Eruptionen, Dämpfung in der Troposphäre durch starken Regen oder hohen<br />

Wasserdampfgehalt). Damit ergibt sich die Notwendigkeit, die Daten so zu codieren, dass<br />

eine Fehlererkennung und gegebenenfalls -korrektur möglich wird (Kanalcodierung).<br />

• Verfügbarkeit einer Boden- oder Relais-Station oder gegebenenfalls Datenspeicherung.<br />

§ 926 Der Schwerpunkt dieses Kapitels wird in den Bereichen Datenkompression und Codierung<br />

mit Fehlererkennung und -beseitigung liegen.<br />

6.2 Kommunikation und Information<br />

§ 927 Kommunikation lässt sich definieren als der Austausch von Information zwischen Systemem,<br />

Teilsystemen und Systemelementen, die in der Lage sind, Informationen zu erzeugen,<br />

aufzunehmen, zu verarbeiten und zu speichern. Ein wesentlicher Bestandteil der Kommunikation<br />

ist also der Umgang mit Information. Daher ist es sinnvoll, sich mit den Grundlagen der<br />

Informationstheorie zu beschäftigen, bevor wir zu den Details der Kommunikation übergehen.<br />

Doch zu Beginn einige Grundbegriffe. Dies ist wichtig, da einige umgangssprachliche Bedeutungen<br />

nicht vollständig mit der infomationstheoretischen Definition der Begriffe in Einklang<br />

stehen.<br />

6.2.1 Kommunikation<br />

§ 928 Beginnen wir dazu mit dem Begriff der Kommunikation. Bei Kommunikation handelt<br />

es sich, wie bereits festgestellt, um die Übertragung von Information. Dieser Informationsausstausch<br />

kann auf zwei prinzipiell unterschiedliche Weisen erfolgen:<br />

1. Passive Übertragung von Information (z.B. Kommunikationssatelliten, Telefon, Fernsehen,<br />

TDRS: Tracking and Data Relay System [430]): Hierbei wirkt der übertragende<br />

Satellit als Relaisstation, interpretiert die Signale aber nicht, sondern empfängt sie und<br />

2. Juli 2008 c○ M.-B. Kallenrode


6.2. KOMMUNIKATION UND INFORMATION 281<br />

Abbildung 6.5: Kommunikationssystem,<br />

basierend auf [224]<br />

sendet sie nach einer Frequenzumsetzung an eine andere Station zurück (vgl. Abb. 6.4,<br />

links). Diese Frequenzumsetzung mittels eines Transponders ist notwendig, damit die<br />

Empfangsdaten trotz des großen Pegelunterschiedes zu den Sendedaten vom Satelliten<br />

einwandfrei empfangen werden können. Ein wesentlich einfacheres Beispiel waren die<br />

Echo-Ballon-Satelliten [491, 402], bei denen die Signale lediglich passiv vom Satelliten<br />

reflektiert wurden (also ohne Frequenzumsetzung und Verstärkung).<br />

2. Datenübertragung (z.B. Messdaten von Instrumenten ebenso wie Telekommandos an<br />

Satelliten, vgl. Abb 6.4, rechts), beides setzt Ver- und Entschlüsselung von Informationen<br />

voraus.<br />

§ 929 Die passive Übertragung ist eine rein technische Frage. Die die Information übertragenden<br />

Satelliten werden zwar als Kommunikationssatelliten bezeichnet, sie nehmen jedoch<br />

im eigentlichen Sinne gar nicht an der Kommunikation teil, da sie den Inhalt der zu<br />

übertragenden Information nicht erkennen, sondern nur kopieren. Im informationstheoretischen<br />

Kontext sind Kommunikationssatelliten lediglich ein Bestandteil des Übertragungskanals<br />

(s.u.).<br />

§ 930 Zum besseren Verständnis dieser Aussage ist in Abb. 6.5 ein Kommunikationssystem<br />

symbolisch dargestellt. Die Grundbestanteile eines Kommunikationssystems sind eine<br />

Nachrichtenquelle, ein Übertragungskanal und eine Nachrichtensenke. Nachrichtenquelle und<br />

-senke werden mit den Mitteln der Informationstheorie beschrieben, wobei die ursprüngliche<br />

Nachricht vor der Abgabe an den Sender bzw. nach dem Auffangen durch den Empfänger<br />

noch codiert bzw. decodiert werden kann (Quellencodierung). Der Übertragungskanal selbst<br />

sollte die Nachricht unmodifiziert weitergeben, hier führen jedoch Störquellen zu einer Modifikation.<br />

Um die durch diese Störquellen bewirkten unsystematischen Änderungen der Nachricht<br />

zu identifizieren und die Fehler teilweise sogar wieder zu kompensieren, verwendet man<br />

spezielle Codierungsverfahren (Kanalcodierung, siehe Abschn. 6.4).<br />

§ 931 Betrachten wir das Kommunikationssystem in Abb. 6.5, so können wir daran sofort<br />

die Fragen verdeutlichen, die wir in den folgenden beiden Kapiteln behandeln werden:<br />

• Was ist Information? Wie misst man den Betrag der Information?<br />

• Wie misst man die Kapazität eines Übertragungskanals?<br />

• Die Übersetzung der Nachricht in das Signal durch den Sender beinhaltet eine Codierung.<br />

Was sind die charakteristischen Merkmale einer effizienten Codierung? Und wenn<br />

die Codierung so effizient wie möglich ist, mit welcher Übertragungsrate kann der Kanal<br />

Informationen weiterleiten?<br />

• Was sind die allgemeinen Merkmale der Störungen? Wie beeinflussen diese Störungen<br />

die Genauigkeit der Nachricht, die schließlich das Ziel erreicht? Wie kann man die unerwünschten<br />

Effekte der Störungen auf ein Minimum beschränken und bis zu welchem<br />

Grad können sie ausgeschaltet werden?<br />

• Wenn das zu übertragene Signal kontinuierlich ist (z.B. Musik) und nicht aus diskreten<br />

Zeichen besteht, wie beeinflusst diese Tatsache das Problem?<br />

§ 932 Bisher haben wir Kommunikation eher unter dem technischen Aspekt betrachtet. Eine<br />

vollständige Beschreibung der Kommunikation muss jedoch alle drei Ebenen der Kommunikation<br />

berücksichtigen [224]:<br />

c○ M.-B. Kallenrode 2. Juli 2008


282 KAPITEL 6. KOMMUNIKATION<br />

(A) Wie genau können die Zeichen der Kommunikation übertragen werden (technisches<br />

Problem)?<br />

(B) Wie genau entsprechen die übertragenen Zeichen der gewünschten Bedeutung (semantisches<br />

Problem)?<br />

(C) Wie effektiv beeinflusst die empfangene Nachricht das Verhalten des Empfängers in der<br />

gewünschten Weise (Effektivitätsproblem)?<br />

Die technische Ebene (A) wird in den folgenden Abschnitten erläutert werden.<br />

§ 933 Das semantische Problem betrifft die Übereinstimmung der Interpretation der Nachricht<br />

beim Empfänger verglichen mit der Bedeutung, die der Sender der Nachricht geben<br />

wollte. Selbst in dem alltäglichen Problem der Kommunikation durch Sprache kann dies zu<br />

verwickelten Situationen und Missverständnissen führen. Shannon und Weaver [224] illustrieren<br />

diesen Punkt mit Hilfe der Personen X und Y: Wenn X nicht zu verstehen scheint,<br />

was Y sagt, so ist es theoretisch nicht möglich, dass diese Situation, solange Y weiterhin nur<br />

mit X redet, geklärt werden kann. Wenn Y fragt, ‘Verstehen Sie mich jetzt?’ und X erwidert<br />

‘Ja, natürlich’, so ist das nicht unbedingt ein Beweis dafür, dass die Verständigung erreicht<br />

wurde. Es kann ja sein, dass X die Frage nicht verstanden hat. Falls das so lächerlich klingt,<br />

stellen Sie sich folgenden Dialog vor: ‘Czy pa¯n mnie rozumie?’ mit der Antwort ‘Hai wakkate<br />

imasu.’<br />

§ 934 Das Effektivitätsproblem ist in einem gewissen Sinne mit dem semantischen Problem<br />

verbunden. Grundsätzlich handelt es sich dabei um die Frage nach dem Erfolg, mit dem eine<br />

vom Empfänger erhaltene Nachricht sein Verhalten in der vom Sender gewünschten Weise<br />

beeinflusst. Auf den ersten Blick mag die Annahme, der einzige Zweck der Kommunikation<br />

sei es, das Verhalten des Empfängers zu beeinflussen, als eine unerwünschte Beschränkung<br />

erscheinen. Mit einer einigermaßen weiten Auslegung des Begriffes Verhalten ist es jedoch<br />

klar, dass Kommunikation entweder das Verhalten beeinflusst oder aber ohne irgendeine<br />

ersichtliche Wirkung bleibt.<br />

§ 935 Beginnen wir jetzt aber mit der Diskussion unseres in Abb. 6.5 dargestellten Kommunikationssystems<br />

und wenden uns als erstes der Frage zu, was Information ist und wie sie<br />

sich darstellen lässt.<br />

6.2.2 Was ist Information?<br />

§ 936 Die Organismen und Systeme, die unsere Umwelt bilden, stehen in einem dauernden<br />

Austausch miteinander. Offensichtlich und schon lange bekannt und beschrieben ist der Austausch<br />

von Materie und Energie. Eine dritte Art des Austausches besteht im Austausch von<br />

Nachrichten oder Information. Solche Nachrichten können Reize, Befehle, Fragen, Antworten,<br />

Beobachtungen, Behauptungen usw. sein [84].<br />

§ 937 Der Begriff der Information ist auch in der normalen Umgangssprache vorhanden.<br />

Eine mit seiner gewohnten Interpretation in Einklang stehende Definition ist im folgenden in<br />

drei verschiedenen Formulierungen wiedergegeben [136]:<br />

• Information ist das, was wir nicht wissen.<br />

• Information ist die Eigenschaft einer Nachricht, beim Empfänger Kenntniszuwachs zu erzeugen.<br />

• Information ist Wissenszuwachs oder Abbau von Unsicherheit über einen interessierenden<br />

Sachverhalt.<br />

§ 938 Information hat also den Charakter von etwas Unbekanntem oder Unerwartetem. Alles,<br />

was wir bereits wissen, enthält keine Information mehr. Hierbei ist nur der Aspekt des<br />

Unbekannten wichtig, nicht die ‘Inhaltsschwere’ oder Bedeutsamkeit der Nachricht. Damit<br />

enthält die Nachricht ‘Die Kuh XYZ auf der Alm QRS hat heute gekalbt’ den gleichen Informationsgehalt<br />

wie ‘Sie haben den Jackpott mit 42 Mio. DM geknackt’. Die Nachricht<br />

2. Juli 2008 c○ M.-B. Kallenrode


6.2. KOMMUNIKATION UND INFORMATION 283<br />

Abbildung 6.6: Ungestörter<br />

Informationskanal<br />

‘Irgendwo auf der Welt hat heute irgendeine beliebge Kuh gekalbt’ hat dagegen einen Informationsgehalt<br />

von Null: zwar irritiert mich die Meldung vielleicht, da ich nicht weiß, was ich<br />

mit ihr anfangen soll. Die Information in dieser Nachricht ist jedoch trivial.<br />

§ 939 Zur Darstellung von Information dienen Signale und Zeichen. Ein Signal ist die physikalische<br />

Repräsentation einer Nachricht, das können z.B. die Farbe einer Verkehrsampel,<br />

Intensität oder Frequenz einer Licht- oder Schallquelle, die Spannung auf einer elektrischen<br />

Leitung oder der zeitliche Verlauf dieser Spannung sein. Kleine Variationen dieser Signale<br />

ändern nicht notwendigerweise deren Bedeutung: die akustischen Signale der Sprache z.B.<br />

werden gleichermaßen verstanden, wenn ein Kind in heller Stimmlage oder ein Erwachsener<br />

in einer ganz anderen Stimmlage spricht. Auch Handschriften ergeben völlig unterschiedliche<br />

Signale, selbst wenn sie denselben Text darstellen. Bei Spannungssignalen wird in der TTL-<br />

Logik jedes Signal unterhalb 0.8 V in eine Signalklasse 0 eingeordnet, jedes Signal oberhalb<br />

2 V in eine andere Signalklasse 1. Eine derartige Signalklasse bezeichnet man auch als Zeichen.<br />

Weitere Beispiele für Zeichen sind die Buchstaben des Alphabets, die Ziffern und die<br />

Satzzeichen. Diese Zeichen lassen sich ihrerseits zu Zeichenketten (Hyperzeichen) zusammen<br />

fassen, es entstehen damit Zeichenhierarchien: in einem Text wären diese Hierarchien gegeben<br />

durch Buchstaben – Wörter – Sätze – Abschnitte usw.<br />

§ 940 <strong>Physik</strong>alisch gesehen sind Nachrichten also dadurch gegeben, dass Zeichen in einem<br />

bestimmten räumlichen und zeitlichen Zusammenhang auftreten. Wir werden uns in den folgenden<br />

Betrachtungen auf diskrete Signale oder Zeichen beschränken, kontinuierliche Signale<br />

(also z.B. Zeitverläufe von Spannungen) werden, außer im Zusammenhang mit dem für die<br />

Digitalisierung wichtigen Abtasttheorem, nicht betrachtet.<br />

6.2.3 Informationsgehalt<br />

§ 941 In der von Shannon [222, 223] begründeten Informationstheorie werden die Formen, die<br />

Nachrichten annehmen können, und die Beziehungen zwischen ihnen quantitativ untersucht.<br />

Die Beschreibungsmittel der Informationstheorie sind die Elemente der Wahrscheinlichkeitsrechnung.<br />

Informationsquelle<br />

§ 942 Weiter oben hatten wir bereits Information als das Neue, Unbekannte bezeichnet; hier<br />

soll an einem Beispiel erläutert werden, dass diese Definition sich durchaus innerhalb des umgangssprachlichen<br />

Bedeutungsbereiches von Information befindet. Auch wird die statistische<br />

Beschreibung der Information deutlich. Wir wollen einen ungestörten Informationskanal betrachten,<br />

um das Wesen der Information deutlich zu machen. Störungen und den Umgang<br />

mit ihnen wollen wir in Abschn. 6.4 betrachten.<br />

§ 943 Unser ungestörter Informationskanal ist in Abb. 6.6 dargestellt: In einer Urne befinde<br />

sich eine große Menge Kugeln, davon seien 70% weiß, 20% schwarz und 10% rot. X zieht<br />

jetzt jeweils eine Kugel und ruft Y das Ergebnis zu. Dann ist X zusammen mit der Urne<br />

eine Nachrichtenquelle, die die Nachrichten ‘weiß’, ‘rot’ und ‘schwarz’ erzeugt. Y ist ein<br />

Nachrichtenempfänger, der sich genau für diese Informationen interessiert. Welche der drei<br />

Nachrichten enthält nun für Y die größte Information? Nach der Ziehung und Übermittlung<br />

von vielen Kugeln kennt der Empfänger Y die Wahrscheinlichkeit px für das Auftreten der<br />

einzelnen Farben: pw=0.7, ps=0.2 und pr=0.1. Damit kennt er aber auch den Informationsgehalt<br />

dieser Nachrichten: die Nachricht ‘weiß’ enthält die geringste Information; sie ist<br />

c○ M.-B. Kallenrode 2. Juli 2008


284 KAPITEL 6. KOMMUNIKATION<br />

aufgrund ihrer großen Wahrscheinlichkeit das Standardsignal. Interessant sind erst Abweichungen<br />

von ‘weiß’; die Nachricht ‘rot’ ist am seltensten und enthält am meisten Information.<br />

Diese Zuordnung ist anschaulich, wenn man sich vorstellt, dass die Urne nur Kugeln einer<br />

Farbe enthält, z.B. weiß. Dann ist pw=1 und der Empfänger Y weiß bereits vorher, welche<br />

Nachricht ihm X übermitteln wird. Da es sich dann um eine sichere Nachricht handelt,<br />

ist ihr Informationsgehalt gleich Null. Auf Grund dieser statistischen Beschreibung wird im<br />

folgenden auch manchmal der Begriff Versuchsausgang anstelle von Signal, Zeichen oder Information<br />

verwendet.<br />

§ 944 Aus diesem Experiment ergeben sich zwei Kriterien zur Definition des Informationsgehaltes<br />

einer Nachricht:<br />

K1 Der Informationsgehalt Ix einer Nachricht ist umso größer, je kleiner die Wahrscheinlichkeit<br />

px ihres Auftretens ist, d.h. je größer ihr Überraschungswert ist. Damit wird, wie<br />

bereits oben vorgeschlagen, Information als der Neuigkeitsgehalt aber nicht die Inhaltsschwere<br />

einer Nachricht definiert.<br />

K2 Eine Nachricht mit der Wahrscheinlichkeit px=1, d.h. das sichere Ereignis, muss den<br />

Informationsgehalt Ix=0 haben.<br />

Ein drittes Kriterium zur Definition des Informationsgehalts erhält man bei der Verwendung<br />

mehrere Nachrichten:<br />

K3 Der Informationsgehalt verschiedener voneinander unabhängiger Nachrichten soll sich<br />

addieren.<br />

§ 945 Diese Definition ist unmittelbar einsichtig aus der Interpretation der Information mittels<br />

wahrscheinlichkeitstheoretischer Begriffe. Auch für die Wahrscheinlichkeiten gilt dort,<br />

dass sich bei voneinander unabhängigen Ereignissen die Gesamtwahrscheinlichkeit eines Ereignisses<br />

durch die Multiplikation der Wahrscheinlichkeiten der Einzelereignisse ergibt. Der<br />

Unterschied in der Rechenoperation, Multiplikation statt Addition, wird deutlich werden,<br />

wenn wir zur formalen Definition der Information übergehen.<br />

Diskrete Quelle, gleichwahrscheinliche unabhängige Symbole<br />

§ 946 Nach dieser anschaulichen Darstellung wollen wir uns nun dem einfachsten Fall zuwenden,<br />

einer Signalquelle, die n gleichwahrscheinliche, unabhängige Symbole erzeugt. Ein<br />

Beispiel für eine derartige Quelle ist ein Würfel (n = 6) oder die Münze beim Münzwurf<br />

(n = 2). Die Wahrscheinlichkeit px für das Auftreten eines Symbols ist dann gegeben durch<br />

px = 1<br />

n .<br />

Da alle Symbole mit der gleichen Wahrscheinlichkeit px auftreten, hat jedes Symbol den<br />

gleichen Informationsgehalt Ix.<br />

§ 947 In Übereinstimmung mit den oben gegebenen drei Kriterien lässt sich dann die folgende<br />

Definition des Informationsgehaltes einer Nachricht angeben:<br />

Ix = ld 1<br />

px<br />

= −ld(px) , (6.1)<br />

wobei ld (log dualis) den Logarithmus zur Basis 2 bezeichnet. Die Einheit ist bit (binary digit)<br />

– nicht zu verwechseln mit Bit für Binärzeichen. Diese Definition ist einsichtig insofern,<br />

als dass das erste Kriterium K1 die Verwendung der Kehrwerte der Wahrscheinlichkeiten<br />

nahe legt, das zweite Kriterium K2 die Verwendung einer logarithmischen Definition nahe<br />

legt und das dritte Kriterium K3 diese sogar erzwingt (Addition der Informationen durch<br />

Umwandlung des Produkts der reziproken Wahrscheinlichkeiten in eine Summe der Informationsgehalte<br />

der einzelnen Zeichen). Man beachte, dass der so definierte Informationsgehalt,<br />

z.B. einer Auswahl eines Zeichens aus einem Zeichensatz, durch die Statistik, also durch<br />

die Wahrscheinlichkeit des Auftretens eines Zeichens, bestimmt wird, nicht aber durch die<br />

Semantik, d.h. die Bedeutung des Zeichens.<br />

2. Juli 2008 c○ M.-B. Kallenrode


6.2. KOMMUNIKATION UND INFORMATION 285<br />

§ 948 Die Verwendung des Logarithmus zur Basis 2 ist eine willkürliche Festlegung. Der logarithmus<br />

dualis wurde gewählt, damit für den einfachsten Fall einer symmetrischen, binären<br />

Nachricht mit px=0.5 (d.h. gleichviele rote und weiße Kugeln in der Urne, keine schwarzen;<br />

oder alternatives Beispiel Münzwurf) der Informationsgehalt eines Zeichens 1 bit wird, d.h.<br />

Definition 1 Der Informationsgehalt eines Versuches mit zwei gleichwahrscheinlichen Ausgängen<br />

beträgt 1 bit.<br />

§ 949 Diese Definition lässt sich auch auf Versuche mit einer größeren Zahl gleichwahrscheinlicher<br />

Ausgänge erweitern [54, 55]. Betrachten wir dazu einen Versuch mit N = 2 n gleichwahrscheinlichen<br />

Ausgängen. Diese Ausgänge können wir zuerst in zwei gleichgroße Mengen<br />

aufteilen und dann untersuchen, in welcher der beiden Hälften der Versuchsausgang liegt.<br />

Da beide Hälften gleichwahrscheinlich sind, erfragen wir damit ein erstes bit an Information.<br />

Die Hälfte, in der sich der Versuchsausgang befindet, halbieren wir wieder, und wiederholen<br />

dieses Verfahren solange, bis die letzte Halbierung dann genau einen Ausgang ergibt. Damit<br />

haben wir<br />

I = n = ld(N)<br />

bit an Information erfragt. Dieses Methode lässt sich auch dann anwenden, wenn N keine<br />

Zweierpotenz ist.<br />

§ 950 Die Größe dieser Einheit bit lässt sich am Beispiel des Zahlenlotto ‘6 aus 49’ veranschaulichen:<br />

Dabei gibt es<br />

� �<br />

49<br />

N = = 13 983 816<br />

6<br />

Möglichkeiten, 6 Zahlen aus 49 auszuwählen. Der Informationsgehalt einer solchen Auswahl<br />

beträgt also<br />

� �<br />

49<br />

I = ld = 23.73 bit .<br />

6<br />

Zum Vergleich: Ein Würfel stellt eine Quelle dar, bei der jedes Signal mit einer Wahrscheinlichkeit<br />

von 1/6 erzeugt wird. Damit ergibt sich ein Informationsgehalt von ld 6 = 2.6 bit.<br />

Diskrete Quelle, unabhängige Symbole, unterschiedliche Wahrscheinlichkeiten<br />

§ 951 Eine Quelle mit unabhängigen aber nicht gleichwahrscheinlichen Symbolen lässt sich<br />

leicht erzeugen durch Würfeln mit zwei Würfeln. Addieren wir dann die Augenzahl, so ergeben<br />

sich Versuchsausgänge mit Werten zwischen 2 und 12, wobei aber die Wahrscheinlichkeiten für<br />

diese Versuchausgänge unterschiedlich sind und damit nach (6.1) auch ihr Informationsgehalt.<br />

Für dieses Beispiel würden wir für die Wahrscheinlichkeiten erhalten p(2) = p(12) = 1/36;<br />

p(3) = p(11) = 2/36; ....; p(6) = p(8) = 5/36 und p(7) = 1/6. Damit ergeben sich für die<br />

einzelnen Versuchsausgänge Informationsgehalte von I(2) = I(12) = 5.2 bit, I(3) = I(11) =<br />

4.2 bit, I(6) = I(8) = 2.9 bit und I(7) = 2.8 bit.<br />

§ 952 Die Sprache ist kein Beispiel für eine Quelle unabhängiger nicht gleichwahrscheinlicher<br />

Symbole. Zwar sind auch hier die Wahrscheinlichkeiten für jeden einzelnen Buchstaben<br />

unterschiedlich, so kommen z.B. die Vokale häufiger vor als Konsonanten und auch die einzelnen<br />

Vokale bzw. Konsonanten treten mit unterschiedlicher Wahrscheinlichkeit auf, aber die<br />

Zeichen sind nicht unabhängig: so gibt es bestimmte Buchstabenkombinationen, die immer<br />

wieder auftreten; und es gibt sogar im Deutschen eine sichere Folge: auf ein ‘q’ folgt stets ein<br />

‘u’.<br />

c○ M.-B. Kallenrode 2. Juli 2008


286 KAPITEL 6. KOMMUNIKATION<br />

Ein unkonventionelles Beispiel: Diskrete Quelle, abhängige Symbole<br />

§ 953 Lassen Sie uns eine Runde Schiffe Versenken spielen auf einem 8 × 8-Board. Beginnen<br />

wir mit der einfachen Variante unabhängiger Symbole. Auf dem Board darf nur ein einzelnen<br />

U-Boot untergebracht werden, d.h. es ist ein Kreuzchen zu machen. Der Informationsgehalt<br />

ist dann 6 bit, da ld 64 = 6 bit. Das lässt sich einfach veranschaulichen: wir geben suchen<br />

das Kästchen durch Einschachteln. Zuerst fragen wir, ob sich das Kreuzchen in der linken<br />

oder rechten Hälfte des Boards befindet. Mit diesem Bit reduzieren wir die verbleibenden<br />

Möglichkeiten auf 8 × 4. Jetzt fragen wir nach der oberen oder unteren Hälfte des Teilboards<br />

und reduzieren mit diesem zweiten Bit die Zahl der zur Verfügung stehenden Möglichkeiten<br />

auf 4×4. Weitere 2 Bits reduzieren die Zahl der Möglichkeiten auf 2×2; mit insgesamt 6 Bits<br />

sind wir also bei einer Möglichkeit angelangt, dem sicheren Ereignis.<br />

§ 954 Jetzt bringen wir ein zweites U-Boot unter. Das lässt sich nicht unabhängig vom<br />

ersten platzieren, da sich die Schiffe nicht am gleichen Ort befinden dürfen, ja nicht einmal<br />

berühren dürfen. Durch die erstere Einschränkung fällt eine der 64 Möglichkeiten weg, da es<br />

noch insgesamt 63 freie Kästchen gibt. von diesen entfallen jedoch je nach Lage des ersten<br />

U-Boots weitere 3 Kästchen (U-Boot 1 in Ecke), weitere 5 Kästchen (U-Boot 1 am Rand)<br />

oder weitere 8 Kästchen (U-Boot 1 nicht am Rand). Je nach Lage von U-Boot 1 hat die<br />

Position von U-Boot 2 einen Informationsgehalt von ld 55 bis ld 60 bit.<br />

§ 955 Statt U-Boot 2 platzieren wir einen Kreuzer aus 4 benachbarten Kästchen auf dem<br />

Board. den Kreuzer können wir Kästchenweise platzieren: für das erste Kästchen gilt die<br />

gleiche Betrachtung wie für U-Boot 2. Der Informationsgehalt für das zweite Kästchen kann<br />

maximal 2 bit betragen: oben/unten bzw. links/rechts vom ersten Kästchen. Der Informationsgehalt<br />

wird geringer, wenn Kästchen 1 in einer Ecke gelandet ist – dann kann es nur bei<br />

der rechten unteren Ecke nur noch nach links oder oben gehen (1 Bit). Und wenn U-Boot 1 2<br />

Kästchen nach links liegt, dann kann der Kreuzer nur noch nach oben weiter gebaut werden,<br />

d.h. die weiteren Kästchen sind festgelegt und damit ist der Informationsgehalt Null. Das<br />

dritte (und vierte) Kästchen kann maximal 1 Bit an Information zufügen, da die Orientierung<br />

des Kreuzers bereits durch die ersten beiden Kästchen bestimmt ist und nur noch die<br />

Richtung angegeben werden muss – wofern diese nicht bereits wieder durch einen Rand oder<br />

die Lage von U-Boot 1 determiniert ist.<br />

Verständnisfrage 38 Bestimmen Sie den maximalen und den minimalen Informationsgehalt<br />

in einem Schiffe-Versenken Board.<br />

Diskrete Quelle, kontinuierliche Symbole<br />

§ 956 Wenn man eine Größe messen will, deren Wert in einem kontinuierlichen Bereich liegen<br />

kann, z.B. bei einer Längenmessung, so scheint es zunächst, als ob dabei zwischen unendlich<br />

vielen Messwerten zu unterscheiden wäre und in einer solchen Messung daher unendlich viel<br />

Information steckt. Tatsächlich ist aber bei jeder Messung die Genauigkeit wie auch der<br />

erfassbare Bereich begrenzt, und es ist nicht sinnvoll, diesen Bereich in feinere Zellen zu<br />

unterteilen als im Rahmen der Messgenauigkeit noch aufgelöst werden können. Erstreckt<br />

sich der Messbereich von y1 bis y2 und ist die absolute Auflösung im ganzen Bereich gleich<br />

∆y, so können<br />

N = y2 − y1<br />

∆y<br />

unterschiedliche Signale erzeugt werden. Eine Messung würde dann ld(N) bit Information<br />

liefern.<br />

§ 957 Alternativ kann es auch vorkommen, dass nicht die absolute, sondern die relative<br />

Auflösung a = ∆y/y konstant ist. Dann würde man den Bereich logarithmisch abbilden mit<br />

z = log y. Jeder y-Wert ist dann um einen Faktor 1 − p größer als der vorangehende, und<br />

2. Juli 2008 c○ M.-B. Kallenrode


6.2. KOMMUNIKATION UND INFORMATION 287<br />

Abbildung 6.7: Shannon-<br />

Funktion<br />

für die Beziehung zwischen den Grenzen des Messbereichs gilt y2 = y1 (1 + p) n . Daher ergibt<br />

sich für die Zahl der Intervalle<br />

� �<br />

y2<br />

log y1<br />

n =<br />

log(1 + p)<br />

und die log y-Skala wäre in Zellen der einheitlichen Breite ∆z = log(1 + p) eingeteilt. Der<br />

Informationsgehalt ergibt sich zu ld(n).<br />

6.2.4 Shannon-Funktion und Entropie<br />

§ 958 Wir haben bisher den Informationsgehalt Ix eines einzelnen Zeichens betrachtet. Wenden<br />

wir uns jetzt jedoch auch der Frage nach dem mittleren Informationsgehalts eines Zeichens<br />

aus einem Zeichenvorrat zu. Letztendlich erlaubt uns diese Betrachtung ja, die Wichtigkeit<br />

bzw. den Informationsgehalt der einzelnen Zeichen besser zu beurteilen. Der mittlere<br />

Informationsgehalt eines Zeichensatzes ergibt sich durch Mittelwertbildung über alle Zeichen,<br />

wobei der Informationsgehalt jedes einzelnen Zeichens mit der Wahrscheinlichkeit des<br />

Auftretens dieses Zeichens gewichtet werden muss:<br />

n�<br />

H = Ix = − px · ld(px) .<br />

x=1<br />

Dieser mittlere Informationsgehalt H wird als die Entropie 4 bezeichnet:<br />

Definition 2 Der mittlere Informationsgehalt je Zeichen, die Entropie, gibt an, wie viele<br />

Binärzeichen man bei der binären Codierung von Nachrichten für die einzelnen Zeichen im<br />

Mittel wenigstens aufwenden muss. Andererseits sind bei geschickter Codierung auch kaum<br />

mehr Zeichen erforderlich [223].<br />

§ 959 Die Entropie eines Binärzeichens lässt sich mit Hilfe der Shannon-Funktion (vgl.<br />

Abb. 6.7) angeben. Betrachte dazu wieder einen Versuch mit zwei Ausgängen. Diese haben<br />

die Wahrscheinlichkeiten p und q = (1 − p). Der mittlere Informationsgehalt eines dieser<br />

Zeichen ist dann gegeben zu<br />

H = b(p) = −p · ld(p) − (1 − p) · ld(1 − p) . (6.2)<br />

Diese Funktion b(p) wird als die Shannon-Funktion bezeichnet, sie ist in Abb. 6.7 wiedergegeben.<br />

Für p = 0, d.h. es tritt nur eines der beiden Zeichen auf, ist der Informationsgehalt<br />

gleich Null (sicheres Ereignis), mit wachsendem p steigt der mittlere Informationsgehalt je<br />

Zeichen an bis zu einem Maximum bei p = 0.5: beide Ausgänge sind dann gleich wahrscheinlich.<br />

Damit ist das Ergebnis am schlechtesten vorherzusagen. Für weiter wachsendes p nimmt<br />

die Entropie wieder ab, bis sie für p = 1 Null wird: das ist das sichere Ereignis des anderen<br />

Signals. Dieses Ergebnis lässt sich verallgemeinern zu:<br />

Definition 3 Die Entropien eines Versuches mit den möglichen Ausgängen xi ist am größten,<br />

wenn alle Ausgänge gleich wahrscheinlich sind [55].<br />

4 Der Begriff der Entropie wurde aus der Thermodynamik entlehnt, wo er ein Maß für die statistische<br />

Unordnung oder Unsicherheit in einem System ist.<br />

c○ M.-B. Kallenrode 2. Juli 2008


288 KAPITEL 6. KOMMUNIKATION<br />

# Buchstabe f = pi F = Σpi Si = pi ld 1<br />

pi<br />

1 0.151490 0.1514 0.41251<br />

2 E 0.147004 0.2985 0.40661<br />

3 N 0.088351 0.3869 0.30927<br />

4 R 0.068577 0.4554 0.26512<br />

5 I 0.063770 0.5192 0.25232<br />

6 S 0.053881 0.5731 0.22795<br />

7 T 0.047310 0.6204 0.20824<br />

8 D 0.043854 0.6642 0.19783<br />

9 H 0.053554 0.7078 0.19691<br />

10 A 0.043309 0.7511 0.19616<br />

11 U 0.031877 0.7830 0.15847<br />

12 L 0.029312 0.8123 0.14927<br />

13 C 0.026733 0.8390 0.13968<br />

14 G 0.026672 0.8657 0.13945<br />

15 M 0.021336 0.8870 0.11842<br />

16 O 0.017717 0.9047 0.10389<br />

17 B 0.015972 0.9207 0.09585<br />

18 Z 0.014225 0.9349 0.08727<br />

19 W 0.014201 0.9491 0.08716<br />

20 F 0.013598 0.9637 0.08431<br />

21 K 0.009558 0.9723 0.06412<br />

22 V 0.007350 0.9796 0.05209<br />

23 Ü 0.005799 0.9854 0.04309<br />

24 P 0.004992 0.9904 0.03817<br />

25 Ä 0.004907 0.9953 0.03764<br />

26 Ö 0.002547 0.9979 0.02194<br />

27 J 0.001645 0.9995 0.01521<br />

28 Y 0.000173 0.9997 0.00217<br />

29 Q 0.000142 0.9999 0.00181<br />

30 X 0.000129 1.0000 0.00167<br />

Σ 1.000000 4.11461<br />

Tabelle 6.1: Wahrscheinlichkeiten und mittlerer Informationsgehalt von Buchstaben der deutschen<br />

Sprache<br />

6.2.5 Redundanz<br />

§ 960 Anhand der Shannon-Funktion bzw. ihrer Verallgemeinerung auf Zeichensätze mit<br />

einem größeren Zeichenvorrat können wir erkennen, dass die maximale Entropie und damit<br />

der maximale Informationsgehalt einer Nachricht nur dann erreicht werden kann, wenn die<br />

einzelnen Nachrichtenelemente gleich verteilt und statistisch voneinander unabhängig sind.<br />

Ist dies nicht der Fall, so benötige ich zur Darstellung einer Information eine wesentlich<br />

größere Menge an Zeichen.<br />

§ 961 Als Beispiel für eine ungleich verteilte und nicht völlig unabhängige Signalquelle sei<br />

hierzu die Sprache betrachtet. Würden in der deutschen Sprache alle 26 Buchstaben mit<br />

der gleichen Wahrscheinlichkeit px=1/26 vorkommen und unabhängig voneinander sein, so<br />

ergäbe sich für den Informationsgehalt eines Buchstabens (d.h. den mittleren Informationsgehalt<br />

eines Zeichens meines Zeichenvorrats)<br />

H0 = I = ld(26) = 4.7 bit . (6.3)<br />

2. Juli 2008 c○ M.-B. Kallenrode


6.2. KOMMUNIKATION UND INFORMATION 289<br />

Betrachtet man aber einen Text, so erkennt man, dass die Buchstaben mit unterschiedlicher<br />

Häufigkeit auftreten. In einem deutschen Text z.B. tritt der Buchstabe ‘e’ mit einer Häufigkeit<br />

von 14.4% auf (nur das Leerzeichen ist mit 14.42% geringfügig häufiger), die Buchstaben ‘n’<br />

(‘s’, ‘i’, ‘m’) haben Häufigkeiten von 8.65% (6.46%, 6.28%, 1.72%), die seltensten Buchstaben<br />

sind ‘x’ und ‘q’ mit Häufigkeiten von 0.8% bzw. 0.5% (vgl. Tabelle 6.1). Berücksichtigt man<br />

diese Verteilungen der Häufigkeiten, so ergibt sich ein mittlerer Informationsgehalt H von<br />

nur 4.1 bit/Zeichen alleine aus der Tatasache, dass die Zeichen nicht gleich wahrscheinlich<br />

sind.<br />

§ 962 Zusätzlich müssen wir aber auch noch berücksichtigen, dass die Zeichen in der Sprache<br />

nicht unabhängig voneinander sind. Betrachtet man Folgen von Zeichen in einem Text, so<br />

zeigt sich, dass z.B. auf ein ‘a’ wesentlich häufiger ein ‘n’ folgt als ein ‘o’, dass ein ‘c’ meist<br />

in Kombination mit einem ‘h’ auftritt, häufig sogar in der Form ‘sch’, und dass auf ein ‘q’<br />

stets ein ‘u’ folgt. Nach Küpfmüller [137] ergibt sich dann unter Berücksichtigung dieser<br />

Kombinationen und der unterschiedlichen Häufigkeiten der einzelnen Zeichen ein mittlerer<br />

Informationsgehalt H von 1.3 bit/Zeichen (verglichen mit den 4.7 bit/Zeichen bei gleich<br />

wahrscheinlichen und unabhängigen Zeichen).<br />

§ 963 Jede Abweichung von der Gleichverteilung bzw. von der statistischen Unabhängigkeit<br />

verringert also den mittleren Informationsgehalt einer Nachricht. Diese Verringerung der<br />

Entropie wird als Redundanz bezeichnet, manchmal auch als Weitschweifigkeit übersetzt. Formal<br />

definiert sich die Redundanz als die Differenz zwischen der maximal möglichen Entropie<br />

H0 wie in (6.3) und der in einer realen Zeichenkette steckenden Entropie H<br />

R = H0 − H . (6.4)<br />

Die relative Redundanz ist dann gegeben durch<br />

r = H0 − H<br />

H0<br />

.<br />

Kehren wir noch einmal zu dem obigen Beispiel der deutschen Sprache zurück, so erhalten wir<br />

eine Redundanz R von 3.4 bit/Zeichen bzw. eine relative Redundanz r von 0.73. Bezüglich des<br />

Informationsgehaltes der deutschen Sprache bedeutet das, dass 73% der Sprache redundant<br />

oder überflüssig sind und nur 27% Information tragen. Wir könnten also mit einer anderen<br />

Sprachstruktur aber dem gleichen Alphabet die zur Übermittlung einer Nachricht notwendigen<br />

Materialien auf etwas über 1/4 reduzieren (Bücher würden dünner, Morsebotschaften<br />

schneller etc.).<br />

§ 964 Ökonomisch würde die Verminderung der Redundanz daher attraktiv erscheinen. Aber<br />

auch nur erscheinen. Redundanz in der Sprache ist wichtig: zwar wird die Nachricht und damit<br />

auch die Übertragungszeit verlängert, andererseits ist jedoch das Erkennen von Fehlern<br />

und deren Korrektur möglich. So kann man in der Regel auch bei stark gestörter Telefonübertragung<br />

den Sender noch verstehen, zumindest wenn er in der Muttersprache spricht,<br />

da man aus den verstandenen Teilen die unverstandenen ergänzen kann, es aufgrund der<br />

Redundanz eben nicht auf jeden einzelnen Buchstaben ankommt. Steinbuch [228] gibt dazu<br />

verschiedene Beispiele, von denen einige im folgenden wiedergegeben werden. Ganz deutlich<br />

wird dabei, dass die gegenseitige Beziehung zwischen Zeichen (Wörtern, Satzfragmenten,<br />

Sätzen) für unser Verständnis von entscheidender Bedeutung ist. Liest man z.B. in<br />

diesem Text die sechs Buchstaben ‘Inf.....ion’, so besteht kein Zweifel, dass die fehlenden fünf<br />

Buchstaben ‘ormat’ sind und damit das ganze Wort ‘Information’ ist. Die Abhängigkeit der<br />

Zeichenergänzung vom Satzzusammenhang wird in den folgenden Beispielen deutlich. Beispielsweise<br />

werden wir im Satz ‘Es gibt konkave und kon.... Linsen’ das verstümmelte Signal<br />

‘kon....’ als ‘konvexe’ deuten. Dagegen werden wir dasselbe verstümmelte Signal ‘kon.....’ im<br />

Satz ‘Es gibt abstrakte und kon..... Malerei’ als ‘konkrete’ deuten.<br />

§ 965 Die Fähigkeit des Empfängers, Ergänzungen an unvollständigen Signalen vorzunehmen,<br />

hängt wesentlich von zwei Komponenten ab: (1) der Kenntnis des Empfängers über<br />

c○ M.-B. Kallenrode 2. Juli 2008


290 KAPITEL 6. KOMMUNIKATION<br />

den Sender und sein Repertoire an Nachrichten und (2) der Fähigkeit des Empfängers, die<br />

verschiedenen empfangenen Nachrichten logisch zu verknüpfen. Haben wir beispielsweise die<br />

Liste<br />

(1) kon....<br />

(2) konkordant<br />

(3) kon....<br />

(4) konsekutiv<br />

(5) konsequent<br />

(6) konservativ<br />

(7) konsiderabel<br />

(8) konsistent<br />

(9) konstant<br />

(10) konträr<br />

(11) kon....<br />

so können wir bei oberflächlicher Betrachtung nicht wissen, aus welchen vollständigen Worten<br />

die verstümmelten Buchstabengruppen (1), (3) und (11) entstanden sind. Bei genauerer<br />

Betrachtung stellen wir jedoch fest, dass es sich um eine alphabetisch geordnete Liste von<br />

Adjektiven handelt. Wollen wir mit dieser Kenntnis die verstümmelten Buchstabengruppen<br />

ergänzen, so greifen wir z.B. zum Duden und ergänzen ohne großes Risiko: (1) konkav,<br />

(3) konkret und (11) konvex. Da diese Fähigkeit des Empfängers, die Signale zu ergänzen,<br />

vom Empfänger und seinen Kenntnissen über den Sender abhängt, können unterschiedliche<br />

Empfänger aus exakt denselben Signalen ein unterschiedliches Maß an Informationen<br />

entnehmen.<br />

§ 966 Diese Bedeutung von Redundanz und Zusammenhängen in der Sprache für die Informationsaufnahme<br />

des Menschen wird in folgendem Beispiel deutlich. Dazu sind vier Zeichenketten<br />

aus je acht Buchstaben vorgegeben, der Betrachter hat jeweils eine Sekunde Zeit, sich<br />

diese Buchstabenfolgen einzuprägen:<br />

(1) AAAABBBB<br />

(2) ABCBEEPS<br />

(3) FGKWOSLM<br />

(4) TOMORROW<br />

Dabei hat (1) die größte Redundanz, (2) und (4) sind teilweise redundant und haben, zumindest<br />

was die Häufigkeitsverteilungen der einzelnen Buchstaben angeht, gleiche Redundanz,<br />

(3) ist nicht redundant und ist gleichzeitig auch am schwersten aufzunehmen, da man sich<br />

wirklich jeden Buchstaben einzeln merken muss. (4) bildet in diesen Zeichenketten eine Sonderstellung,<br />

da es ein Hyperzeichen ist und insofern nur ein einzelnes Zeichen – wenn auch aus<br />

einem anderen Zeichenvorrat, den Wörtern der englichen Sprache – aufgenommen wird und<br />

daher auch die einzelnen Buchstaben nicht wie bei Beispiel (3) ‘gespeichert’ werden müssen.<br />

Anmerkung: bei (2) ‘betrügt’ man beim Speichern natürlich auch; kaum jemand wird sich<br />

die Buchstabenfolge so merken, eher wird man sie sich einprägen in der Form ‘die ersten drei<br />

Buchstaben des Alphabets + beeps’, da letzters schon wieder ein Hyperzeichen der englichen<br />

Sprache ist.<br />

§ 967 Die Kenntnis (oder eher die Entfernung) der Redundanz ist für die platzsparende<br />

Codierung von Information wichtig. Als einfachstes Beipiel seien hier Versuche erwähnt,<br />

das Alphabet in einem Binärcode darzustellen (vgl. Abb. 6.8). Der älteste Binärcode für<br />

Buchstaben ist ein Blockcode und geht auf Francis Bacon (1623) [7] zurück; er basiert auf<br />

der Verwendung von 5 Zeichen pro Buchstaben. Das Morse-Alphabet (1844) dagegen bedient<br />

sich bereits einer zumindest teilweise Redundanz verminderten Codierung: je häufiger ein<br />

Zeichen auftritt, umso kürzer ist es. Letzteres stimmt bei Morse nur näherungsweise, war<br />

aber in seinem Ansatz enthalten. In Abschn. 6.3 werden wir weitere Codierungsverfahren<br />

diskutieren, die die Redundanz einer Signalquelle verringern sollen (Quellencodierung).<br />

2. Juli 2008 c○ M.-B. Kallenrode


6.2. KOMMUNIKATION UND INFORMATION 291<br />

Buchstabe p [%] Bacon 1623 Morse 1844 Huffmann 1952<br />

14.42 00100 00 000<br />

E 14.40 10000 100 001<br />

N 8.65 00110 01100 010<br />

S 6.46 10100 11100 0110<br />

I 6.28 01100 1100 0111<br />

R 6.22 01010 101100 1000<br />

.<br />

M 1.72 00111 010100 11010<br />

.<br />

X 0.08 10111 01110100 1111111110<br />

Q 0.05 11101 010110100 11111111110<br />

Hc 5 4.79 4.13<br />

Verständnisfrage 39 Sind Bacons fünf Binärzeichen eigentlich erforderlich?<br />

Einschub: Künstliche Sprachen<br />

Abbildung 6.8: Binärcodes<br />

für alphabetischen<br />

Text, basierend auf [157]<br />

§ 968 Am Beispiel der Sprache kann man sich sehr viele Eigenschaften von Information<br />

und diskreten Quellen klar machen, wie wir es ja auch schon im Zusammenhang mit der<br />

Redundanz gesehen haben. Insbesondere lässt sich der stochastische Aspekt verdeutlichen.<br />

Shannon und Weaver [224] folgend sei hier als ein Beispiel eine künstliche Sprache eingeführt.<br />

Diese Annäherung an eine Sprache umfasst drei Stufen:<br />

(A) Angenommen, wir haben 5 Buchstaben A, B, C, D und E, die jeweils mit einer Wahrscheinlichkeit<br />

von 0.2 gewählt sind, wobei aufeinander folgende Auswahlen unabhängig<br />

voneinander sind (diskrete Quelle mit gleich wahrscheinlichen, unabhängigen Symbolen).<br />

Das würde z.B. zu einer Folge führen wie<br />

BDCBCECCCADCBDDAAECEEAABBDAEECACEEBAEECBCEAD<br />

(B) Nun werden dieselben 5 Buchstaben benutzt mit den Wahrscheinlichkeiten 0.4, 0.1,<br />

0.2, 0.2, und 0.1, wobei aufeinander folgende Auswahlen ebenfalls wieder unabhängig<br />

sind (diskrete Quelle mit unabhängigen, nicht gleich wahrscheinlichen Symbolen). Eine<br />

typische Folge wäre dann:<br />

AAACDCBDCEAADADACEDAEADCABEDADDCECAAAAAD.<br />

(C) Eine kompliziertere Struktur ergibt sich, wenn, wie in der gewöhnlichen Sprache, die<br />

Zeichen nicht mehr voneinander unabhängig sind, sondern ihre Wahrscheinlichkeiten von<br />

dem vorangegangenen Zeichen abhängen. Im einfachsten Fall hängt eine Auswahl nur<br />

vom direkt vorangegangenen Zeichen ab, nicht jedoch auch von früheren Zeichen. Der<br />

statistische Aufbau kann dann durch einen Satz von Übergangswahrscheinlichkeiten pi(j)<br />

beschrieben werden. Dabei ist pi(j) die Wahrscheinlichkeit, das dem Buchstaben i der<br />

Buchstabe j folgt. Ein alternativer Weg wäre die Angabe der Digramm-Wahrscheinlichkeiten<br />

(zweidimensionale Verbundwahrscheinlichkeit) p(i, j), d.h. die relative Häufigkeit<br />

des Digramms ij. Die Buchstabenhäufigkeiten p(i) (die Wahrscheinlichkeit des Buchstabens<br />

i), die Übergangswahrscheinlichkeiten pi(j), und die Verbundwahrscheinlichkeiten<br />

p(i, j) hängen zusammen über<br />

p(i) = �<br />

p(i, j) = �<br />

p(j, i) = �<br />

p(j)pj(i) ,<br />

i<br />

p(i, j) = p(i)pi(j)<br />

und<br />

�<br />

pi(j) = �<br />

p(i) = �<br />

p(i, j) = 1 .<br />

i<br />

i<br />

i<br />

i,j<br />

i<br />

c○ M.-B. Kallenrode 2. Juli 2008


292 KAPITEL 6. KOMMUNIKATION<br />

Als ein Beispiel nehmen wir an, es gibt drei Buchstaben A, B, und C mit den Wahrscheinlichkeitstabellen<br />

Ein Beispiel für eine Nachricht dieser Quelle wäre<br />

ABBABABABABABABBBABBBBBABABABABABBBACACABBABBBBABBAB.<br />

Dieses Verfahren lässt sich erweitern auf Trigramm-Häufigkeiten, bei denen die Auswahl<br />

eines Buchstabens von den zwei vorhergehenden abhängt. Entsprechend müßten<br />

Trigramm-Häufigkeiten p(i, j, k) angegeben werden. Erweiterungen auf den allgemeinen<br />

Fall der n-gramm-Häufigkeiten sind ebenfalls möglich. Hierbei ergeben sich zwar kompliziertere<br />

Zusammenhänge aber keine neuen Strukturen.<br />

(D) Eine Erweiterung ergibt sich, wenn wir stochastische Prozesse definieren, die als Text<br />

eine Folge von Wörtern hervorbringen. In dieser Sprache gibt es wieder die 5 Buchstaben<br />

A, B, C, D und E und 16 Wörter mit den zugehörigen Wahrscheinlichkeiten:<br />

Werden aufeinander folgende Wörter unabhängig voneinander ausgewählt und durch<br />

einen Zwischenraum getrennt, so ergibt sich eine typische Nachricht in der Form<br />

DAB EE A BEBE DEED DEB ADEE ADEE EE DEB BEBE BEBE ADEE BED DEED<br />

DEED CEED ADEE A DEED DEED BEBE CABED BEBE BED DAB DEED ADEB<br />

Wenn alle Wörter die gleiche Länge haben, ist dieser Prozess äquivalent zu einem der<br />

vorangegangenen, allerdings kann die Beschreibung mit Hilfe der Wortstruktur und der<br />

Wortwahrscheinlichkeiten einfacher sein. Natürlich kann man jetzt auch hier vereinfachen<br />

und Übergangswahrscheinlichkeiten zwischen Wörtern einführen usw.<br />

§ 969 Shannon [222] hat diese Abhängigkeiten in der Sprache und ihren Zusammenhang mit<br />

stochastischen Prozessen folgendermaßen illustriert: Je weiter man die Einwirkung vorhergehender<br />

Buchstaben einer Zufallsfolge von Zeichen statistisch an diejenige der wirklichen<br />

Sprache angleicht, um so mehr nähert sich ihre Struktur der der Sprache an, wenn auch der<br />

Text sinnlos bleibt. Unter Verwendung der 26 Buchstaben des englichen Alphabets und des<br />

Zwischenraums hat Shannon die folgenden Beispiele konstruiert:<br />

• Näherung nullter Ordnung (die Zeichen sind unabhängig voneinander und gleich wahrscheinlich):<br />

XFOML RXKHRJJFFJUJ ZLPWCFWKCYJ FFJEYVKCQSGHYD QPAAKBZAACIBZL-<br />

HJQD<br />

Damit ergibt sich ein Text, den man nur buchstabieren, nicht aber lesen kann. Sie können<br />

sich dieses veranschaulichen, wenn Sie die Zeit bestimmen, die Sie benötigen, um diese<br />

Zeichenkette laut zu lesen und sie mit der Zeit vergleichen, die Sie benötigen, um eine<br />

gleichlange Zeichenkette mit normalem Text zu lesen.<br />

• Näherung erster Ordnung (die Zeichen sind weiterhin unabhängig, aber die Häufigkeit der<br />

einzelnen Zeichen entspricht der in der englichen Sprache):<br />

OCRO HLI RGWR NMIELSWIS EU LL NBNESBEBYA TH EEI ALHENHTTPA OOBTT-<br />

VA NAH BRL<br />

2. Juli 2008 c○ M.-B. Kallenrode


6.2. KOMMUNIKATION UND INFORMATION 293<br />

Ein gälischer Text sieht für unsere Augen auch nicht sehr viel anders aus: Thig sealbh<br />

a’dichioll gabh beachd fair an t-sreath dhiamhair Cheilteach seo. Cum oirre dho A gu B. 5<br />

• Näherung zweiter Ordnung (Digramm-Struktur wie im Englischen, Shannon hat hierzu<br />

ein Buch zufällig aufgeschlagen, auf der Seite einen Buchstaben aufgepickt, das Buch geschlossen,<br />

wieder zufällig geöffnet und dann auf der Seite bis zum ersten Auftreten dieses<br />

Buchstabens gelesen und den Buchstaben zusammen mit dem darauf folgenden rausgeschrieben,<br />

Wiederholung des Verfahrens mit dem zweiten Buchstaben usw.):<br />

ON IE ANTSOUTINYS ARE T INCTORE ST BE S DEAMY ACHIN D ILONASIVE<br />

TOCOOWE AT TEASONARE FUSO TIZIN ANDY TOBE SEACE CTISBE<br />

Im Gegensatz zu den beiden vorangegangenen Versuchen kann man diesen Text schon<br />

fast ‘lesen’: man muss nicht mehr alle Zeichen einzeln buchstabieren und kann damit eine<br />

längere Zeichenkette als im ersten Beispiel in einer kürzeren Zeit lesen.<br />

• Näherung dritter Ordnung (Trigramm-Struktur wie im Englischen, wie oben, aber mit drei<br />

Buchstaben):<br />

IN NO IST LAT WHEY CRACTICT FROURE BIRS GROCID PONDENOME OF DE-<br />

MONSTURES OF THE REPTAGIN IS REGOACTIONA OF CRE<br />

• Näherung erster Ordnung, auf Wörter bezogen (Wörter treten hierbei nur mit ihren natürlichen<br />

Häufigkeiten auf):<br />

REPRESENTING AND SPEEDILY IS AN GOOD APT OR COME CAN DIFFERENT<br />

NATURAL HERE HE THE A IN CAME THE TO OF TO EXPERT GRAY COME TO<br />

FURNISHES THE LINE MESSAGE HAD BE THESE<br />

• Näherung zweiter Ordnung, auf Wörter bezogen (wie die Digramm-Struktur bei den Buchstaben<br />

erzeugt, einzelne Folgen von Worten lassen sich hierbei ohne Problem in sinnvolle<br />

Sätze einbauen, die längste Folge umfasst die elf unterstrichenen Wörter, die sich mit etwas<br />

Mühe in dieser Reihenfolge noch in einen sinnvollen Satz einbauen lassen):<br />

THE HEAD AND IN FRONTAL ATTACK ON AN ENGLISH WRITER THAT THE<br />

CHARACTER OF THIS POINT IS THEREFORE ANOTHER METHOD FOR THE<br />

LETTERS THAT THE TIME WHO EVER TOLD THE PROBLEM FOR AN UNEX-<br />

PECTED<br />

Zwischenrechnung 19 Sie können etwas mit verschiedenen Texten spielen bis hin zu den<br />

unter dem Projekt Gutenberg http://www.gutenberg.org/wiki/Main_Page gesammelten<br />

ASCII-Texten bekannter und unbekannter Klassiker. Picken Sie sich zwei sehr unterschiedliche<br />

längere Texte heraus und bestimmen Sie die Häufigkeiten der einzelnen Buchstaben inkl.<br />

der bedingten Häufigkeiten (MatLab → Abschn. 9.2.5?). Verwenden Sie den gleichen text in<br />

verschiedenen Sprachen. Lassen Sie den Rechner dann künstliche Sprachen basteln. Wenn Sie<br />

sehr ambitioniert sind, versuchen Sie das gleiche mit einem sehr langen Text (Bibel, Dickens,<br />

Tolstoi?) nicht auf Buchstaben sondern auf Wortbasis.<br />

Markoff- und ergodische Prozesse<br />

§ 970 Stochastische Prozesse der beschriebenen Art werden als Markoff-Prozesse bezeichnet.<br />

Der allgemeine Fall lässt sich folgendermaßen beschreiben: Es existiert eine bestimmte Anzahl<br />

S1, S2, ...Sn von möglichen Zuständen des Systems. Ferner gibt es einen Satz von Übergangswahrscheinlichkeiten<br />

pi(j), die die Wahrscheinlichkeit angeben, mit der das System von einem<br />

Zustand Si in einen Zustand Sj übergeht. Um aus einem solchen Markoff-Prozess eine Informationsquelle<br />

zu machen, müssen wir annehmen, dass bei jedem Übergang von einem<br />

Zustand in einen anderen ein Zeichen erzeugt wird. Diese Zustände entsprechen dem noch<br />

verbleibenden Einfluss der vorhergehenden Buchstaben.<br />

5 Die Kraft der Konzentration kann Erfolg bringen, versuch es selbst und verfolge die Linie dieser heiligen<br />

keltischen Schnur von A bis B. – Inschrift auf dem Groundle Stone, Insel Man)<br />

c○ M.-B. Kallenrode 2. Juli 2008


294 KAPITEL 6. KOMMUNIKATION<br />

Abbildung 6.9: Diagramme der Quellen B, C und D aus dem Beispiel der künstlichen Sprachen<br />

[224]<br />

§ 971 Abbildung 6.9 zeigt dazu grafische Darstellungen der Quellen (B), (C) und (D) aus<br />

dem Beispiel in § 968. Die Zustände sind die Knotenpunkte, die Wahrscheinlichkeiten und<br />

Buchstaben, die bei einem Übergang entstehen, sind an den Linien angegeben. Im linken<br />

oberen Teil (Quelle (B)) gibt es nur einen Zustand, da die aufeinander folgenden Buchstaben<br />

unabhängig sind. Im linken unteren Teil (Quelle (C)) gibt es so viele Zustände wie<br />

Buchstaben. Wenn ein Trigramm-Beispiel konstruiert würde, gäbe es höchstens n 2 Zustände,<br />

entsprechend den möglichen Buchstabenpaaren, die einem einzelnen gewählten Buchstaben<br />

vorangehen. Das rechte Diagramm entspricht dem Beispiel der Wortstruktur in Quelle (D),<br />

hier entspricht ‘s’ dem Leerzeichen oder Wortzwischenraum.<br />

Verständnisfrage 40 Erläutern Sie das rechte Diagramm in Abb. 6.9 ausführlich.<br />

§ 972 Anhand der Diagramm-Strukturen in Abb 6.9 lässt sich das Konzept der ergodischen<br />

oder statistisch homogenen Quellen einführen. Alle in einem ergodischen Prozess erzeugten<br />

Folgen haben dieselben statistischen Eigenschaften. Daher werden sich die von bestimmten<br />

Folgen erhaltenen Buchstabenhäufigkeiten, Digrammhäufigkeiten usw. bei einer Vergrößerung<br />

der Länge der Folgen festgesetzten Grenzen nähern, und zwar unabhängig von<br />

der Folge. Dadurch können wir beim Buchstabenzählen auch wirklich auf die Eigenschaften<br />

der Quelle zurück schließen und nicht nur auf die Eigenschaften der Folge.<br />

§ 973 Alle hier betrachteten Beispiele künstlicher Sprache sind ergodisch. Diese Besonderheit<br />

hängt mit der Struktur des dazu gehörigen Diagramms zusammen. Ein Prozess ist ergodisch,<br />

wenn das Diagramm die beiden folgenden Eigenschaften hat:<br />

(E1) Das Diagramm zerfällt nicht in zwei getrennte Teile A und B, so dass es unmöglich<br />

wäre, von Knotenpunkten im Teil A über Linien des Diagramms in Pfeilrichtung zu<br />

Knotenpunkten im Teil B zu gelangen und umgekehrt.<br />

(E2) Eine geschlossene Linie im Diagramm mit Pfeilen, die in die gleiche Umlaufrichtung<br />

zeigen, wird ein Umlauf genannt. Die Länge eines Umlaufs ist durch die Anzahl der in<br />

ihm vorkommenden Linien gegeben. Die Folge BEBES im rechten Teil von Abb. 6.9 ist<br />

ein Umlauf mit der Länge 5. Eine zweite notwendige Eigenschaft ist, dass der größte<br />

gemeinsame Teiler der Länge aller Umläufe im Diagramm 1 ist.<br />

Falls die letzte Bedingung verletzt ist, d.h. es gibt einen größten gemeinsamen Teiler größer<br />

als 1, besitzen die Folgen eine gewisse periodische Struktur.<br />

6.2.6 Abtasttheorem (Signal als kontinuierliche Funktion der Zeit)<br />

§ 974 Geschriebene Sprache ist ein Signal aus diskreten Symbolen und lässt sich daher mit<br />

den oben beschriebenen Tools untersuchen (oder simulieren). Gesprochene Sprache ist dage-<br />

2. Juli 2008 c○ M.-B. Kallenrode


6.2. KOMMUNIKATION UND INFORMATION 295<br />

Abbildung 6.10: Aliasing: Falsche Rekonstruktion<br />

eines Signals durch zu<br />

geringe Abtastfrequenz [230]<br />

gen ein zeitkontinuierliches Signal. Das Gehirn, zumindest wenn es mit einer ihm bekannten<br />

Sprache konfrontiert wird, verarbeitet nicht den Datenstrom sondern die darin kodierten<br />

Hyperzeichen – damit wird das zeitkontinuierliche Signal wieder ähnlich verarbeitet wie geschriebene<br />

Sprache.<br />

§ 975 Ein CD- oder ein MP3-Player kann Sprache im Gegensatz zur alten Schallplatte nicht<br />

als kontinuierliches Signal sondern nur als eine Folge diskreter Signale aufzeichnen. Grundlage<br />

ist das Abtasttheorem. Mit ihm wird ein analoges (zeitkontinuierliches) Signal in ein<br />

digitales Signal umgewandelt. Das Abtasttheorem lässt sich mit Hilfe von Sprache einfach<br />

veranschaulichen, tritt aber praktisch überall in der Messtechnik auf: wer liest heutzutage<br />

noch die Quecksilbersäule eines Thermometers ab? Stattdessen wird lieber das digitalisierte<br />

Signal des Digitalthermometers verwendet.<br />

§ 976 Bei einem kontinuierlichen Signal scheint es, ebenso wie bei einem Signal aus einem<br />

kontinuierlichen Zeichenvorrat, als hätten wir zwischen unendlich vielen möglichen Werten zu<br />

unterscheiden und damit auch unendlich viel Information in diesem Signal. Tatsächlich sind<br />

aber bei einer Messung wieder sowohl die Genauigkeit ∆x als auch der erfassbare Bereich<br />

(x1, x2) begrenzt.<br />

§ 977 Betrachten wir dazu ein Signal als eine kontinuierliche Funktion der Zeit mit einem<br />

kontinuierlichen Messbereich. Der Informationsgehalt des Signals ist demnach unendlich groß.<br />

Bei einem zeitkontinuierlichen Signal müssen wir im Prinzip zu jedem Zeitpunkt die Information<br />

über die Amplitude übertragen. Das ist jedoch aufgrund der endlichen Zeitauflösung<br />

und der Messfehler nicht möglich. Wir können uns aber die Frage stellen, wie oft wir einen<br />

Messwert übertragen müssen, um die Funktion zuverlässig rekonstruieren zu können. Hat die<br />

Zeitfunktion s(t) ein Spektrum, das ausschließlich im Frequenzbereich f von 0 bis B liegt,<br />

lässt sie sich durch Abtastproben vollständig beschreiben, wenn für das Abtastintervall T<br />

bzw. der Abtastfrequenz f gilt<br />

T ≤ 1<br />

2B<br />

oder f ≥ 2B (6.5)<br />

(Shannon’sches Sampling Theorem, Abtasttheorem). Beweise dieses Theorems finden sich z.B.<br />

[223] oder [56].<br />

§ 978 Das Gleichheitszeichen in (6.5) erscheint auf den ersten Blick uneinsichtig, da wir<br />

bei einer Abtastfrequenz, die genau das Doppelte der Signalfrequenz ist, im ungünstigsten<br />

Falle immer die Nulldurchgänge des Signals erfassen und daher kein Signal rekonstruieren<br />

können. Dieses Problem wird auf technische Weise dadurch umgangen, dass das um 90 ◦<br />

phasenverschobene Signal ebenfalls vorliegt, von dem in diesem Falle dann die Maxima abgetastet<br />

würden, so dass das Originalsignal wieder rekonstruiert werden kann [96]. Liegt kein<br />

zeitverschobenes Signal vor, so gilt in (6.5) automatisch das kleiner.<br />

c○ M.-B. Kallenrode 2. Juli 2008


296 KAPITEL 6. KOMMUNIKATION<br />

Abbildung 6.11: Verschiedene<br />

Schallquellen: Unterscheiden<br />

Sie zwischen dem Geräusch,<br />

das das Publikum beim Betreten<br />

des Hörsaales macht,<br />

einem Violinkonzert und dem<br />

Stimmen der Instrumente in<br />

einem Sinfonieorchester [235]<br />

§ 979 Ist diese Voraussetzung nicht erfüllt, kann es zu Fehlinformationen (Aliasing) kommen.<br />

Abbildung 6.10 zeigt dazu das Beispiel zweier sinusförmigen Signale. Die Abtastfrequenz<br />

sei gegeben durch fs, im linken Beispiel ist f=8fs und das Signal kann vollständig wieder<br />

hergestellt werden, im rechten Beispiel ist fs=(8/7)f, die Abtastung erfolgt zu selten und<br />

das rekonstruierte Signal ist falsch.<br />

§ 980 Eine Vorstellung über den Informationsgehalt in einem kontinuierlichen Signal liefert<br />

die digitale Speicherung von Musik. Die Bandbreite erstreckt sich dabei bis zu 16 kHz, d.h.<br />

nach dem Abtasttheorem sind 32 000 Stützstellen zum Abtasten dieses Signals erforderlich.<br />

Geht man davon aus, dass an jeder Stützstelle die Amplitude in 256 Werte eingeteilt wird<br />

(das entspricht 8 Bit), so erhält man eine Gesamtinformationsmenge von 256 000 bit/sec.<br />

Der Mensch dagegen kann nur ca. 20 bit/sec aufnehmen (vgl. Tabelle 6.6, [247]). Die Informationsaufnahme<br />

des Menschen lässt sich im Prinzip mit Tests wie den oben gegebenen<br />

Achtzeichenketten bestimmen [228, 244, 247]. Da wir aber andererseits Musik wahrnehmen<br />

und auch relativ feine Unterschiede zwischen verschiedenen Aufnahmen erkennen können,<br />

muss der Mensch bei der Informationsaufnahme und -auswertung stark mit Mustern und<br />

Hyperzeichen arbeiten. Für die Codierung ist auf jeden Fall noch genug zu entfernende Information<br />

da – manchmal muss man diese nur hinreichend geschickt auswählen.<br />

6.2.7 Menschliche Informationsverarbeitung: Verwendung von Hyperzeichen<br />

im Erkennen<br />

§ 981 Ein sehr interessanter Seitenaspekt im Zusammenhang mit der Informationstheorie betrifft<br />

die Informationsverarbeitung durch den Menschen. Dazu gehören sowohl die Aufnahme<br />

von Information durch (sehr) beschränkte Kanäle als auch die Verarbeitung der Information,<br />

insbesondere im Bereich des Lernens. Vor ca. 30 Jahren war das Gebiet der Informationspsychologie<br />

sehr populär, in den 19980ern und 1990ern wurde Lernen eher vom Aspekt<br />

der Motivation als dem der Information her untersucht. Erst im Zuge des Aufblühens der<br />

2. Juli 2008 c○ M.-B. Kallenrode


6.2. KOMMUNIKATION UND INFORMATION 297<br />

Abbildung 6.12: Aufbau des menschlichen Ohres (links, Teil a) mit schematischer Darstellung<br />

der Schnecke (links, Teil b; [203]). Im rechten Teil Schema der Basilarmembran in der<br />

Schnecke mit Angabe der dazugehörigen Töne in Hz [153]<br />

Neurowissenschaften wird der informationstheoretische Aspekt des Lernens wieder stärker<br />

berücksichtigt. Gute klassische, allerdings nicht mehr in allen Punkten aktuelle Bücher sind<br />

Steinbuch [228], von Cube [247], Hassenstein [91] oder Vester [244]; die modernen, an den<br />

Neurowissenschaften Bücher sind z.B. Engel und van den Broeck [52], MacKay [158] oder<br />

Shakhnarovich et al. [221].<br />

§ 982 Ich möchte hier nur einige sehr wenige (und leider unzusammenhängende) Beispiele<br />

vorstellen, um einen menschlichen Aspekt in die Informationstheorie einzubringen. Dazu<br />

gehört insbesondere die Mustererkennung zur Reduktion des Informationsflusses. Wir hatten<br />

im Zusammenhang mit dem Abtasttheorem erfahren, dass wir beim Musikhören einen Informationsfluss<br />

von ca. 250 000 bps verarbeiten müssten, verglichen mit den maximal 20 bps, die<br />

der Mensch aufzunehmen vermag. Betrachten wir dazu Abb. 6.11. Dort sind Oszillogramme<br />

von drei verschiedenen Geräuschen gezeigt. Eines gibt das Geräusch wieder, das entsteht,<br />

wenn das Publikum den Hörsaal betritt. Ein anderes Oszillogramm stammt von einem Sinfonieorchester<br />

am Ende des ersten Satzes von Mendelssohns Violinkonzert und das dritte<br />

von einem Sinfonieorchester beim Stimmen vor dem Konzert. Die Reihenfolge der Kurven ist<br />

zufällig. Welche Kurve gehört zu welchem Geräusch? (Lösung in § 987)<br />

§ 983 Ganz offensichtlich arbeitet das Ohr in einer Weise, die es ihm erlaubt, aus diesen für<br />

das Auge ununterscheidbaren Signalen genau die wichtigen Merkmale herauszuarbeiten. Andererseits<br />

kann es aber auch nicht wie ein AD-Wandler arbeiten, da dann ein vom Menschen<br />

nicht mehr beherrschbarer Informationsfluss entstehen würde, d.h. das Ohr muss ein anderes<br />

Verfahren als die digitale Schallaufzeichnung verwenden.<br />

§ 984 Betrachten wir dazu den Verlauf eines Signals im Ohr (nach [260], zur Struktur des<br />

Ohres siehe Abb. 6.12). Von der Ohrmuschel gelangt der Schall in den Gehörgang, wo er<br />

durch Resonanz verstärkt wird. Am Ende des Gehörganges trifft er auf das Trommelfell<br />

und löst damit eine Bewegung der drei Gehörknöchelchen im Mittelohr (Hammer, Amboss<br />

und Steigbügel) aus. Diese leiten das Schallsignal an das mit Flüssigkeit gefüllte Innenohr<br />

weiter, wo sich Hör- und Gleichgewichtsorgan befinden. Das Hörorgan wird aufgrund seiner<br />

Form als Schnecke (Cochlea) bezeichnet (vgl. Abb. 6.12). Stellt man sich die Cochlea<br />

entrollt vor, so erhält man einen Schlauch, der durch die Basilarmembran longitudinal in<br />

c○ M.-B. Kallenrode 2. Juli 2008


298 KAPITEL 6. KOMMUNIKATION<br />

ein oberes und ein unteres Kompartiment unterteilt ist. Beide Räume werden von der Perilymphe,<br />

einer extrazellulären Flüssigkeit durchspült. Die cochleäre Trennwand zwischen<br />

den beiden Flüssigkeitskompartimenten ist komplex aufgebaut: In der Mitte befindet sich<br />

ein flüssigkeitsgefüllter Hohlraum (Scala media), der von oben von einer dünnen Membran<br />

(Reissnersche Membran) und nach unten vom Cortischen Organ begrenzt wird.<br />

§ 985 Ein Schallsignal wird vom Steigbügel zuerst an die Perilymphe des oberen und dann<br />

an die des unteren Cholea-Schlauches weitergegeben. Dadurch ergibt sich eine Wellenbewegung<br />

der cochleären Trennwand von der Basis zur Spitze (Wanderwelle). Dies ist so ähnlich,<br />

wie wenn jemand mit der Handkante auf ein gespanntes (reales) Seil schlägt: man sieht eine<br />

Welle wandern, die früher oder später abebbt. Im Gegensatz zur Seilwelle nimmt die Wanderwelle<br />

im Innenohr jedoch durch nichtlineare Effekte zuerst stark zu und verschwindet dann<br />

plötzlich, sobald sie an einem charakteristischen Ort entlang der cochleären Trennwand ihr<br />

Maximum erreicht hat. Dieser Punkt hängt von der Frequenz des Tones ab: bei hohen Tönen<br />

liegt er in der Nähe der Cochleaspitze, bei tiefen Tönen befindet er sich bereits kurz hinter<br />

der Steigbügelfußplatte. Mittlere Töne bilden sich in der Mitte der cochleären Trennwand ab,<br />

d.h. es ergibt sich eine Frequenzdispersion. Damit ist, wie auf der Tastatur eines Klaviers,<br />

jeder Ort entlang der Trennwand in der Hörschnecke einem bestimmten Ton zugeordnet. Allerdings<br />

ist der Tonumfang nicht so begrenzt wie auf der Klaviertastatur: die Cochlea kann<br />

auf begrenztem Raum rund 7 000 Tonhöhen auseinanderhalten. Diese Frequenzselektivität<br />

geht ganz wesentlich darauf zurück, dass das Amplitudenmaximum der Wanderwelle nicht<br />

rund, sondern sehr spitz ist. Sowohl das Amplitudenmaximum als auch seine präzise Spitze<br />

werden von hoch spezialisierten Zellen, den äußeren Haarzellen, im Cortischen Organ erzeugt.<br />

§ 986 Damit hat das Ohr eine ganz andere Funktionsweise als ein AD-Wandler. Während<br />

dieser eine Zeitfunktion f(t), also z.B. eines der in Abb. 6.11 gezeigten Oszillogramme, analysieren<br />

müsste, untescheidet das Ohr ‘nur’ das Vorkommen bestimmter Frequenzen. Die einkommende<br />

Information wird also von der Zeitserie f(t) auf das Auftreten bestimmter Töne<br />

verdichtet (Bestimmung eines Frequenzspektrums eines Tones – in einem gewissen Sinne<br />

macht die Cochlea eine Fourier-Analyse des einfallenden Tons). Eine derartige Informationsverdichtung<br />

ist ein natürlicher Vorgang, der es einem Nervensystem mit begrenzter Kapazität<br />

gestattet, mit einer sehr komplexen Umwelt fertig zu werden. Ohne die Verdichtung von<br />

Informationseingaben würde das Zentralnervensystem überwältigt werden [247]. Diese Informationsverdichtung<br />

beschränkt sich aber nicht nur auf die Reduktion des Zeichenvorrates<br />

(eben 7 000 Töne statt der Zeitserie), sondern umfasst auch eine Vielzahl anderer Vorgänge<br />

im Zentralnervensystem, dazu gehören die Bildung von Autokorrelationen zum Erkennen von<br />

Intervallen, die Bildung von Kreuzkorrelationen zum räumlichen Hören und weiteres [203].<br />

§ 987 Die Bedeutung der Musik als Informationsträger lässt sich auch in anderem Zusammenhang<br />

darstellen. Die volle Zeitserie f(t) enthält die größte Informationsmenge. Dennoch<br />

lassen sich Musikstücke (unter Verwendung von Tönen bzw. Tonsprüngen, also nicht durch<br />

einfache Angabe des Titels) durch sehr geringe Zeichenfolgen eindeutig identifizieren. Ein Beweis<br />

dafür, dass mit wenigen Tonfolgen große Informationsmengen überliefert werden können,<br />

ist das Dictonary of Tunes von Parson [182]. Stellen Sie sich die Situation vor: Sie hören eine<br />

Melodie oder summen sie vor sich hin, können aber beim besten Willen weder auf den<br />

Titel noch den Komponisten des Stückes kommen. Um sie in Parsons Melodienverzeichnis<br />

zu finden, müssen sie nur die Abfolge der ersten 15 Noten kennen. Dabei kommt es aber<br />

nicht auf die musikalische Notierung an, sondern Sie müssen nur wissen, ob die folgende Note<br />

tiefer, höher oder gleich hoch ist. Diese Codierung ist Kontext abhängig. Für die Melodie von<br />

‘He-jo, spann den Wagen an’ würde sich dann die Folge *THWWWTHWHWHWWWWT<br />

ergeben, wobei der * den ersten Ton angibt und H, T, W, ob der folgende Ton tiefer, höher<br />

oder eine Wiederholung des vorhergehenden ist. Diese kurze Kette ist ausreichend, um ein<br />

bestimmtes Stück aus einem Repertoire von mehr als 10 000 klassischen und 6 000 populären<br />

Themen zu identifizieren (wenn alle Tonfolgen auftreten könnten, könnte man mit 15 Zeichen<br />

aus einem drei-elementigen Zeichenvorrat 3 15 = 14.35 Mio verschiedene Kombinationen<br />

2. Juli 2008 c○ M.-B. Kallenrode


6.2. KOMMUNIKATION UND INFORMATION 299<br />

Abbildung 6.13: Auszug<br />

aus Parsons Dictionary of<br />

Tunes [235]<br />

darstellen). Abbildung 6.13 zeigt zwei Ausschnitte aus diesem Verzeichnis. Auch wenn die<br />

Mächtigkeit dieses einfachen Ordnungs- und Identifikationssystems sicherlich beeindruckend<br />

ist, ein Blick auf Abb. 6.13 ist ähnlich unbefriedigend wie einer auf Abb. 6.11 (hier waren<br />

übrigens oben Mendelssohns Violinkonzert, in der Mitte das Stimmen im Sinfonieorchester<br />

und im unteren Teilbild das Geräusch des Publikums beim Betreten des Saales gezeigt): zwar<br />

sind die Informationen vollständig (im Falle von Abb. 6.11) bzw. sehr geschickt verpackt (im<br />

Falle von Abb. 6.13), aber in beiden Fällen ist die bewusste Wahrnehmung im Gehirn des<br />

Betrachters eine völlig andere als im Falle des Hörens des Geräusches bzw. Musikstückes.<br />

Insbesondere ist ein ‘Wiedererkennen’ entweder praktisch unmöglich (Abb. 6.11) oder sehr<br />

erschwert (Abb. 6.13). Allerdings sind in letzterem Code auch praktisch alle Redundanzen<br />

beseitigt, die ja auch beim normalen Lesen die Aufnahme des Textes erleichtern (vgl. die<br />

Beispiele zur künstlichen Sprache).<br />

§ 988 Aber nicht nur das Ohr komprimiert die einfallende Information. Bevor diese Information<br />

bewusst aufgenommen werden kann, wird sie teilweise analysiert, insbesondere unter<br />

der Fragestellung, ob sich eine Entschlüsselung der Botschaft überhaupt lohnt. Besonders<br />

deutlich wird dies z.B. auf einer Party oder in anderen Situationen mit starkem akustischem<br />

Hintergrund. Dabei kann es geschehen, dass beide Ohren unterschiedliche Informationen empfangen.<br />

Die mit dem einem Ohr empfangene Information kann dann zurückgewiesen werden,<br />

obwohl sie technisch ‘gehört’ wurde. Der Unterschied zwischen den beiden unterschiedlichen<br />

Nachrichten besteht also nicht darin, dass sie von den Ohren unterschiedlich empfangen wurden,<br />

sondern dass die eine ins Gedächtnis ‘übertragen’ wurde, die andere aber nicht. Das<br />

bedeutet: wir können Nachrichten empfangen, ohne dass sie in das Gedächtnis übergehen.<br />

Man bezeichnet diesen Vorgang auch als selektive Wahrnehmung. Das Ohr, das nicht ‘erhört’<br />

wird, scheint aber von einem Teil des Gehirn relativ genau ausgewertet zu werden. Nur so<br />

lässt sich z.B. verstehen, warum der Filter der selektiven Wahrnehmung in der Muttersprache<br />

wesentlich besser funktioniert als in einer Fremdsprache (und mit wachsendem Gewohnheitsgrad<br />

der Fremdsprache besser wird).<br />

§ 989 Eine noch wesentlich stärkere Selektion der einströmenden Information muss vom Sehsystem<br />

vorgenommen werden. Der auf die Netzhaut einströmende Informationsfluss beträgt<br />

ungefähr 10 Millionen bps, von denen das Gehirn aber nur ca. 40 bps verarbeiten und nur<br />

wenige bit in das Langzeitgedächtnis überführen kann. Ähnlich dem Hörsinn erfolgt auch<br />

beim Gesichtssinn eine erhebliche Nachrichtenkompression und -selektion bereits in der ers-<br />

c○ M.-B. Kallenrode 2. Juli 2008


300 KAPITEL 6. KOMMUNIKATION<br />

Abbildung 6.14: Bildvorlage mit unterschiedlicher<br />

Rasterung: (a) durch das Druckverfahren<br />

bestimmte, sehr feine Rasterung mit einer<br />

großen Zahl von Bildpunkten, (b) 2400 Pixel,<br />

(c) 600 Pixel, (d) 150 Pixel, (e) 37.5 Pixel und<br />

(f) 9.4 Pixel [228]<br />

ten Station des Sehsystems, in der Netzhaut.<br />

§ 990 Die Informationsreduktion des Auges lässt sich leicht anhand von Abb. 6.14 illustrieren,<br />

die auch gleichzeitig als Illustration zum Thema Mustererkennung verwendet werden<br />

kann. Im linken oberen Teilbild ist ein Elefant in der durch die Druckqualität bedingten<br />

Auflösung gezeigt. Ein Film z.B. würde für die dieser Auflösung entsprechende Pixelzahl jeweils<br />

die Information schwarz oder weiß zu übertragen haben, d.h. die Informationsmenge<br />

entspräche dem logarithmus dualis der Pixelzahl. Geht man zu Abbildung (b), so ist die<br />

Pixelzahl auf 2 400 (ld 2 400 = 11.1) verringert, der Elefant aber immer noch eindeutig zu<br />

erkennen. Verringern wir die Auflösung weiter auf 600 Pixel (Abbildung (c), ld 600 = 9.1), so<br />

ist der Elefant ebenfalls noch zu erkennen. Verringern wir die Pixelzahl weiter auf 150 Pixel<br />

(Abbildung (d), ld 150 = 7.1), so ist es bereits schwieriger, den Elefanten zu erkennen. Haben<br />

wir aber zusätzlich Informationen, z.B. dass das Signal ein Tier darstellen soll, so kann eine<br />

Identifikation weiterhin möglich sein. Erst beim Übergang zu noch gröberen Gittern ist der Informationsgehalt<br />

zu gering, um die Nachricht ‘Elefant’ noch zu decodieren, in (e) könnte man<br />

auch versucht sein, die Form durch einen Turnierritter mit angelegter Lanze zu beschreiben.<br />

Allerdings sind die Abbildungen (a), (b), (c) und (d) nur im Hinblick auf die Nachricht ‘Elefant’<br />

identisch. Eine Unterscheidung zwischen indischem und afrikanischem Elefanten oder<br />

genauere Informationen über den speziellen Elefanten in der Abbildung (Größe, Geschlecht,<br />

auffällige Merkmale) setzen eine hohe Auflösung (und damit einen größeren Informationsgehalt)<br />

voraus. Und die Information Elefant wird sehr platzsparend codiert – nicht über das<br />

aktuelle Bild sondern über ein Hyperzeichen.<br />

§ 991 Allerdings ist die Informationstheorie nicht nur wichtig, wenn es um den Nachrichtenempfänger<br />

‘Mensch’ und die Aufnahme und Verarbeitung der Zeichen durch die menschlichen<br />

Sinne und das Gehirn geht. Die eben angesprochenen Bereiche des Erkennens, sowohl im akustischen<br />

als auch im optischen Kanal, werden auch in der Mustererkennung behandelt. Hierbei<br />

geht es darum, einem Computer durch optische oder akustische Eingabe Anweisungen zu erteilen.<br />

Während die optische Mustererkennung bereits recht gut entwickelte Verfahren hat, die<br />

auch teilweise in die Bearbeitung der von einem Satelliten gemachten Bilder Eingang findet,<br />

ist die Spracherkennung noch sehr rudimentär. Das Problem liegt darin, dass das menschliche<br />

Ohr zwar einen geringeren Informationsfluss empfängt als das Auge, diese Informationen aber<br />

weniger einfach zu verarbeiten sind. Insbesondere sind in der Sprache die gleichen Buchstaben<br />

von Sprecher zu Sprecher unterschiedlich (mit starken regionalen Unterschieden), wobei<br />

unterschiedliche Buchstaben in ihren Signaturen soweit voneinander abweichen, dass die individuellen<br />

Unterschiede zwischen den verschiedenen Darstellungen des Buchstaben meistens<br />

2. Juli 2008 c○ M.-B. Kallenrode


6.3. CODIERUNG I: QUELLENCODIERUNG 301<br />

kleiner sind als die Unterschiede zwischen zwei verschiedenen Buchstaben. Daher ist es kein<br />

Problem, für einen PC oder anderen Rechner einen halbwegs anständig arbeitenden Scanner<br />

mit Texterkennung zu finden. Spracheingabe in den Computer dagegen hat sich, trotz<br />

intensiver Bemühungen, nur langsam bis hin zu den heute halbwegs zuverlässigen Systemen<br />

entwickeln können.<br />

6.2.8 Zusammenfassung<br />

§ 992 In diesem Abschnitt haben wir Information als das Unbekannte bzw. Unerwartete<br />

kennengelernt. Die ‘Bedeutungsschwere’ einer Nachricht ist dabei unerheblich, es zählt nur,<br />

was sie beim Empfänger an Unsicherheit oder Unwissen beseitigt. Formal wird Information<br />

mit Hilfe der Wahrscheinlichkeitsrechnung oder Statistik beschrieben, eine mathematische<br />

Formulierung, die den Aspekt des Unerwarteten in der Information noch unterstreicht. Allerdings<br />

zeigt diese Definition auch, dass der Informationsgehalt einer Nachricht eine subjektive<br />

Größe ist, die einerseits vom Kenntnisstand des Empfängers abhängt, andererseits aber auch<br />

von den physikalischen Eigenschaften des Empfängers. So wird zur digitalen Speicherung<br />

eines Musikstückes eine wesentlich größere Zahl von bits benötigt, d.h. ein größerer Informationsfluss<br />

erzeugt, als das Ohr beim Hören der gleichen Zeitreihe, allerdings unter anderen<br />

Verarbeitungsprinzipien, erkennen könnte. Nicht alle Zeichen, die wahrgenommen werden,<br />

tragen auch Information bzw. den vollen Informationsgehalt. Dies wird durch das Konzept<br />

der Redundanz oder Weitschweifigkeit beschrieben. Ist die Codierung der Information optimal,<br />

so wird die Redundanz Null. Sprache dagegen ist hochgradig redundant, nur 27% der<br />

Sprache tragen wirklich Information. Was einerseits als Verschwendung erscheinen mag, hat<br />

andererseits den Vorteil, dass eine Verständigung auch bei gestörten Kommunikationskanälen<br />

noch möglich ist, da die fehlenden Teile aus dem Zusammenhang ergänzt werden können.<br />

6.3 Codierung I: Quellencodierung<br />

§ 993 Codierung hat zwei Aufgaben: bei der Quellencodierung geht es darum, die Signale<br />

einer Quelle in Abhängigkeit von den Eigenschaften dieser Quelle in einen möglichst sparsamen<br />

(Binär-)Code umzusetzen. Sparsam bedeutet dabei, mit einer geringst möglichen Zahl<br />

an Bits auszukommen, d.h. die Zahl der benötigten Bits soll den Informationsgehalt der Quelle<br />

(in bits) nicht überschreiten. Diese komprimierende Codierung erfolgt durch Verringerung<br />

bzw., wenn möglich, vollständige Entfernung der Redundanz.<br />

§ 994 Eine andere Form der Codierung, die Kanalcodierung, expandiert diesen komprimierten<br />

Code wieder: im optimal komprimierten Code können Fehler weder erkannt noch ausgebessert<br />

werden. Hier führt die Kanalcodierung, in Abhängigkeit von den Eigenschaften des<br />

Übertragungskanals, gezielt Redundanzen ein, die bei minimaler Expansion des Codes eine<br />

maximale Fehlererkennung und -korrektur ermöglichen sollen.<br />

Definition 4 Bei der Quellencodierung geht es darum, die Signale einer Quelle in Abhängigkeit<br />

von den Eigenschaften dieser Quelle so in einen Code umzusetzen, dass mit möglichst<br />

wenigen Bit möglichst viele bit ausgedrückt werden.<br />

6.3.1 Präfix-Code und Decodierbarkeit<br />

§ 995 Ein Codierungsverfahren, das allgemein bekannt ist, ist der ASCII-Code (vgl. Tab. 6.2),<br />

der mit 7 (bzw. in der neueren Form 8) Bits (Bit mit großem B als Binärzeichen, nicht zu<br />

verwechseln mit bit mit kleinem b als Maß für den Informationsgehalt) die Zeichen einer<br />

Schreibmaschinen- bzw. Computertastatur darstellt. Hierbei handelt es sich um ein typisches<br />

Beispiel für einen Blockcode, d.h. die einzelnen Zeichen werden unabhängig von ihrer<br />

Häufigkeit stets mit der gleichen Anzahl von Bits codiert. Blockcodierung ist für die Datenverarbeitung<br />

aufgrund der stets gleichen Länge von Zeichen besonders gut geeignet. Denkt man<br />

jedoch an die Speicherung und Übertragung von Information, so zeigt die Blockcodierung<br />

c○ M.-B. Kallenrode 2. Juli 2008


302 KAPITEL 6. KOMMUNIKATION<br />

Tabelle 6.2: ASCII-<br />

Code<br />

Tabelle 6.3: Zwei Codes für einen vierelementigen<br />

Zeichenvorrat<br />

Zeichen Wahrscheinlichkeit Code 1 Code 2<br />

a 1/2 00 0<br />

b 1/4 01 10<br />

c 1/8 10 110<br />

d 1/8 11 111<br />

eine deutliche Schwäche: im Mittel sind wesentlich mehr Bits zur Informationsdarstellung<br />

aufzuwenden, als vom Informationsgehalt her notwendig wären.<br />

§ 996 Daher versucht man, Codes zu entwickeln, in denen die einzelnen Zeichen unterschiedliche<br />

Längen haben, wobei die häufigsten Zeichen die geringste Länge haben. Zur Illustration<br />

betrachten wir dazu den vierelementigen Zeichenvorrat A, wie in Tabelle 6.3 dargestellt. Bei<br />

den beiden dort vorgeschlagenen Codierungsmöglichkeiten handelt es sich um einen Blockcode<br />

der Länge zwei (Code 1) und einen Code mit unterschiedlichen Längen der Codewörter<br />

(Code 2). Der mittlere Informationsgehalt der Zeichen ergibt sich nach (6.3) zu<br />

H = 1 1 1 1<br />

ld(2) + ld(4) + ld(8) + ld(8) = 1.75 bit .<br />

2 4 8 8<br />

Das ist nach Shannon und Weaver [223] auch die minimale Anzahl von Bits, die bei einer<br />

Codierung pro Zeichen benötigt werden. Im Code 1 (Blockcode) ist die Menge der Bits,<br />

die für die Darstellung eines Zeichens benötigt werden (Elementarzeichenbedarf) für jedes<br />

Zeichen gleich 2, im Code 2 liegt der Elementarzeichenbedarf je nach Zeichen zwischen 1<br />

und 3. So wie sich der mittlere Informationsgehalt durch Mittelwertbildung über alle Zeichen<br />

ergibt, so errechnet sich der mittlere Elementarzeichenbedarf als der Mittelwert des<br />

Elementarzeichenbedarfs über alle Zeichen. Dieser mittlere Elementarzeichenbedarf m ist bei<br />

Code 1 gleich 2, bei Code 2 dagegen ist der Elementarzeichenbedarf eines Zeichens gleich<br />

seinem Informationsgehalt. Der mittlere Elementarzeichenbedarf ist daher auch gleich dem<br />

mittleren Informationsgehalt, d.h. m=H=1.75 bit. Diese Form der Codierung wird als Quellencodierung<br />

bezeichnet, da die Zeichen so behandelt werden, wie sie von der Datenquelle<br />

geliefert werden, d.h. die Datenquelle und deren Symbolstatistik bestimmen den Code.<br />

§ 997 Die Güte eines Codierungsverfahrens lässt sich durch die Redundanz bestimmen. Nach<br />

der Definition der Redundanz in (6.4) und Einsetzen des mittleren Elementarzeichenbedarfs<br />

m lässt sich der mittlere Mehraufwand je Zeichen beschreiben als die Redundanz des Codes,<br />

d.h.<br />

R = m − H .<br />

2. Juli 2008 c○ M.-B. Kallenrode


6.3. CODIERUNG I: QUELLENCODIERUNG 303<br />

Abbildung 6.15: Codierbäume für die<br />

Codes aus Tabelle 6.3<br />

Zeichen p P Block Shannon Huffman Fano<br />

a 0.4 0 000 00 0 00<br />

b 0.2 0.4 001 011 100 01<br />

c 0.15 0.6 010 100 101 10<br />

d 0.15 0.75 011 110 110 110<br />

e 0.05 0.9 100 11100 1110 1110<br />

f 0.05 0.95 101 11110 1111 1111<br />

H = 2.246 m = 3 m = 2.8 m = 2.3 m = 2.35<br />

Tabelle 6.4: Beispiele<br />

für Redundanzreduktion<br />

durch verschiedene<br />

Codes<br />

Die relative Redundanz ist dann der Mehraufwand des Codes bezogen auf den tatsächlichen<br />

Gesamtaufwand:<br />

r = R m − H H<br />

= = 1 −<br />

m m m = 1 − ef ,<br />

worin der Quotient H/m auch als die Effizienz ef eines Codes bezeichnet wird.<br />

Definition 5 Verlustfreie Datenkompression bedeutet Redundanzreduktion.<br />

§ 998 Zwar haben wir mit Code 2 die Redundanz reduziert, jedoch sind die einzelnen Zeichen<br />

jetzt unterschiedlich lang. Was passiert aber in einem solchen Code, wenn wir verschiedene<br />

Zeichen miteinander verknüpfen, d.h. hintereinander schreiben? Bei Blockcodes sind die<br />

Zeichen aufgrund der konstanten Zeichenlänge bei der Decodierung einfach voneinander zu<br />

trennen, bei unterschiedlichen Wortlängen dagegen ist dieses Decodierungsverfahren nicht sofort<br />

eindeutig. Betrachten wir dazu nochmals den Code 2 und geben dem Zeichen b statt des<br />

Codes 10 den Code 01. Dann wären zwar weiterhin alle Codezeichen unterschiedlich, allerdings<br />

wäre die Decodierbarkeit nicht mehr gegeben. Betrachte dazu die Zeichenfolge 011110:<br />

diese könnte mit dem veränderten Code sowohl als ‘ada’ decodiert werden als auch als ‘bc’.<br />

Diese Codierung wäre also nicht eindeutig, da der Empfänger die gesendete Information nicht<br />

vollständig zurückgewinnen könnte.<br />

§ 999 Code 2 in der in Tabelle 6.4 gegebenen Form ist daher so konstruiert, dass derartige<br />

Mehrdeutigkeiten nicht auftreten können. Der Code ist ein Präfix-Code, d.h. kein Codewort<br />

ist der Anfang (Präfix) eines anderen. Diese Eigenschaft zieht die eindeutige Decodierbarkeit<br />

unmittelbar nach sich. Die Umkehrung gilt nicht, d.h. die Präfix-Eigenschaft ist hinreichend<br />

aber nicht notwendig für die eindeutige Decodierbarkeit. Am Codierbaum (vgl. Abb. 6.15)<br />

zeigt sich die Eigenschaft der Decodierbarkeit dadurch, dass die Zeichen nur an den Zweigenden<br />

des Baumes sitzen, nicht jedoch in den Verzweigungen.<br />

§ 1000 Präfix-Codes unterschiedlicher Länge werden in der Praxis häufig zur Redundanzreduktion<br />

angewendet. So wird z.B. bei der Festlegung von Befehlssätzen (z.B. Maschinensteuerung,<br />

Betriebssystem eines Computers) darauf geachtet, dass die häufig vorkommenden<br />

Befehle möglichst kurz sind, während seltener auftretende Befehle länger sein dürfen. Die<br />

Festlegung von Steuerzeichen in der Datenübertragung folgt den gleichen Regeln.<br />

6.3.2 Redundanzsparende Codes<br />

§ 1001 Für die drei folgenden Codierungsverfahren verwenden wir als Beispiel die in Tabelle<br />

6.4 angegebenen sechs Zeichen a, b, c, d, e und f. In der allgemeinen Form besteht der zugrunde<br />

gelegte Zeichenvorrat aus n Zeichen mit den Wahrscheinlichkeiten p1, p2, ..., pn. Allen<br />

c○ M.-B. Kallenrode 2. Juli 2008


304 KAPITEL 6. KOMMUNIKATION<br />

Abbildung 6.16: Codierbaum<br />

zum Huffman-Code der in Tabelle<br />

6.3 gegebenen Zeichen<br />

in diesem Abschnitt zu besprechenden Codierungsverfahren ist gemeinsam, dass sie Präfix-<br />

Codes sind, bei denen die Wortlänge mit abnehmender Wahrscheinlichkeit des Auftretens<br />

des Zeichens zunimmt.<br />

Shannon Code<br />

§ 1002 Für die Codierung nach Shannon werden diese Zeichen nach abfallenden Wahrscheinlichkeiten<br />

ihres Auftretens geordnet:<br />

p1 ≥ p2 ≥ p3 ≥ ... ≥ pn .<br />

Mit Pk sei nun die kumulierte Wahrscheinlichkeit aller Zeichen, die vor dem k-ten Zeichen<br />

liegen, bezeichnet, d.h.<br />

Pk = p1 + p2 + ... + pk−1 .<br />

Die Dualzahldarstellung von Pk liefert das Code-Wort für das k-te Zeichen. Die genaue Festlegung<br />

des Code-Wortes geschieht nach folgenden Regeln:<br />

1. Die Codewortlänge mk des k-ten Zeichens genügt den Ungleichungen<br />

− ld(pk) ≤ mk < 1 − ld(pk) (6.6)<br />

oder anders ausgedrückt: mk ist die kleinste ganze Zahl, für die gilt<br />

1<br />

2mk ≤ pk . (6.7)<br />

2. Die Entwicklung der Zahl Pk in eine Dualzahl wird nach der mk-ten Stelle abgebrochen,<br />

der Koeffizient der Entwicklung stellt das gesuchte Codewort dar. Das gesuchte Codewort<br />

für das k-te Zeichen ist dann durch die Binärzeichen b1, b2, b3 .... bm in der Form<br />

b1b2b3...bm gegeben, so dass die Zahl<br />

Zk = b1 · 2 −1 + b2 · 2 −2 + ... + bm · 2 −m<br />

möglichst gross wird, aber immer noch kleiner als Pk ist, d.h. es gilt<br />

(6.8)<br />

Pk − 2 −m < Zk ≤ Pk . (6.9)<br />

§ 1003 Der Shannon-Code ist ein Präfix-Code. Damit ist er auch eindeutig decodierbar. In<br />

Tabelle 6.3 ist die Codierung nach Shannon auf das Beispiel unseres eingangs erwähnten Zeichenvorrats<br />

mit sechs Zeichen angewandt. Die Redundanzreduktion ist erkennbar, die beiden<br />

anderen in der Tabelle angegebenen Codierungsverfahren weisen jedoch eine größere Redundanzreduktion<br />

auf. Dennoch erlaubt der Shannon-Code eine beliebig gute Approximation an<br />

die ideale und damit redundanzfreie Codierung (s.u.).<br />

Huffmann Code<br />

§ 1004 Für die Codierung nach Huffman bedient man sich ebenfalls der Ordnung der Zeichen<br />

nach fallenden Wahrscheinlichkeiten. Die Codewörter werden dann mit Hilfe eines Codierbaumes<br />

bestimmt. Da es sich um einen Präfix-Code handelt entspricht jedes Zeichen einem<br />

der n Endzweige des Codierbaumes.<br />

2. Juli 2008 c○ M.-B. Kallenrode


6.3. CODIERUNG I: QUELLENCODIERUNG 305<br />

§ 1005 Die Codierung beginnt mit den Zeichen geringster Häufigkeit (vgl. den Codierungsbaum<br />

in Abb. 6.16, der sich auf das Beispiel in Tabelle 6.4 bezieht). Wähle zunächst die beiden<br />

seltensten Zeichen aus (im Beispiel e und f). Die zugehörigen Codewörter werden dann in<br />

der letzten Stelle durch die Bits 0 und 1 unterschieden. Die beiden seltensten Zeichen werden<br />

damit zu den Endpunkten einer Verzweigung im Codierbaum. Diese Verzweigung entspringt<br />

in einem Zweig, der von nun an als Endzweig gilt. Diesem Zweig ordnen wir die Wahrscheinlichkeit<br />

zu, die sich aus der Summe der Wahrscheinlichkeiten der beiden abgehenden Zweige<br />

ergibt. Die zwei seltensten Buchstaben (e und f) werden dabei also zu einem neuen Zeichen<br />

(ef) zusammengefasst, dass eine Wahrscheinlichkeit von 0.05 + 0.05 = 0.1 hat. Die obige<br />

Betrachtung wird für einen Codierbaum wiederholt, der nur noch n − 1 Endzweige hat. Dabei<br />

fasst man wieder die beiden seltensten Endzweige zusammen (das sind in dem Beispiel<br />

d und der bereits zusammengefasste ef-Zweig). Auf diese Weise arbeitet man sich von den<br />

Endzweigen bis zur Wurzel des Codierbaumes vor.<br />

Codierung nach Fano<br />

§ 1006 Die Codierung nach Fano ist von der Idee her eine Umkehrung der Codierung nach<br />

Huffman: hier geht man von der Baumwurzel aus und hangelt sich zu den Zweigen vor. Die<br />

erste Verzweigung entspricht dabei einer Aufteilung des Zeichenvorrates in zwei Mengen mit<br />

möglichst gleich großen Wahrscheinlichkeiten. Die eine Menge enthält dabei die wahrscheinlicheren<br />

Zeichen, die andere die unwahrscheinlicheren. Auf diese Weise ist das am weitesten<br />

links stehende Bit der Codierung festgelegt. Die beiden Äste der Verzweigung werden nun<br />

als Wurzeln für Codierbäume der beiden Untermengen aufgefasst.<br />

§ 1007 Betrachtet man für die Codierung nach Fano noch einmal das Beispiel in Tabelle 6.4,<br />

so ergeben sich zwei Möglichkeiten der Codierung: Die erste Aufspaltung in je eine Unterliste<br />

mit wahrscheinlicheren und unwahrscheinlicheren Zeichen kann wahlweise zwischen dem b<br />

und dem c erfolgen oder zwischen dem a und dem b (in beiden Fällen ist die Wahrscheinlichkeit<br />

in der einen Untermenge 0.6 und in der anderen 0.4). Im ersten Falle ergibt sich der<br />

in Tabelle 6.4 gegebene Fano-Code, im zweiten Falle hätte sich der ebenfalls in Tabelle 6.4<br />

gegebene Huffman-Code ergeben.<br />

6.3.3 Fundamentalsatz der Quellencodierung<br />

§ 1008 Die Fano-Codierung beseitigt die Redundanz einer Zeichenquelle nur dann völlig,<br />

wenn sich die Zeichen der Quelle zur eindeutigen Identifizierung immer in zwei gleichwahrscheinliche<br />

Hälften teilen lassen (das war im Beispiel in Tabelle 6.3 der Fall, nicht jedoch<br />

in dem Beispiel in Tabelle 6.4). Lässt sich die Redundanz auch in den Fällen beseitigen, in<br />

denen diese Voraussetzung nicht gegeben ist?<br />

§ 1009 Auch in diesem Falle lässt sich die Redundanz durch geeignete Codierung beliebig<br />

reduzieren [78, 222], die entscheidende Idee dabei ist, nicht die einzelnen Zeichen zu codieren,<br />

sondern Zeichen xi zu Zeichenketten X der Länge N zusammenzufassen. Diese Zeichenketten<br />

werden dann codiert. Die Quelle habe dazu n voneinander unabhängige Zeichen, die mit den<br />

Wahrscheinlichkeiten pi erzeugt werden. Die Wahrscheinlichkeit p einer aus dieser Quelle<br />

erzeugten zusammengesetzten Zeichenkette ist dann näherungsweise gegeben durch<br />

p =<br />

n�<br />

i=1<br />

p Npi<br />

i . (6.10)<br />

Für den in der Zeichenkette enthaltenen Informationsgehalt gilt damit<br />

n�<br />

n�<br />

−ld(p) = − N pi ld(pi) = −N pi ld(pi) = N H(X) .<br />

1=1<br />

i=1<br />

Entsprechend ist die Wahrscheinlichkeit jeder dieser Zeichenketten ungefähr gegeben durch<br />

p = 2 −N H(X) ,<br />

c○ M.-B. Kallenrode 2. Juli 2008


306 KAPITEL 6. KOMMUNIKATION<br />

wobei die Wahrscheinlichkeiten für jede Zeichenkette ungefähr gleich groß sind.<br />

Verständnisfrage 41 Gleichung (6.10) ist eine Näherung. Stellen Sie die exakte Formulierung<br />

auf und begründen Sie die Näherung. Unter welchen Annahmen gilt letztere.<br />

§ 1010 Die Gesamtwahrscheinlichkeit dieser Zeichenketten kann durch eine genügend große<br />

Länge N beliebig nahe an 1 gebracht werden; daher muss die Anzahl dieser annähernd gleich<br />

wahrscheinlichen Zeichenketten ungefähr gleich 2 NH(X) sein, es werden also N H(X) bit<br />

benötigt, um anzugeben, welche von diesen Zeichenketten vorliegt. Auf jedes der N Zeichen<br />

einer derart codierten Zeichenkette entfallen dann nur H(X) bit anstelle der H0(X)=ldN<br />

bit.<br />

§ 1011 Andererseits sind diese 2 N H(X) annähernd gleich wahrscheinlichen Zeichenketten nur<br />

ein kleiner Bruchteil aller n N Zeichenketten der Länge N. Ihr relativer Anteil ist gegeben<br />

durch<br />

n N<br />

2 N H(X) = 2N(ld(n)−H(X)) .<br />

Diese zahlreicheren, fast n N Zeichenketten lassen sich mit jeweils Nld(n) ≥ NH(X) bit codieren.<br />

Da aber die Gesamtwahrscheinlichkeit dieser vielen Zeichenketten durch eine ausreichend<br />

lange Wortlänge N beliebig klein gemacht werden kann, tragen sie nur vernachlässigbar wenig<br />

zum mittleren Zeichenbedarf bei. Daraus ergibt sich der Fundamentalsatz der Quellencodierung:<br />

Definition 6 Fasst man eine zu codierende Nachricht in genügend langen Zeichenfolgen<br />

zusammen, dann lassen sich diese so codieren, dass die Redundanz beliebig klein wird.<br />

§ 1012 Die hierbei eingeführten Zeichenketten müssen ziemlich lang sein, damit ihre Gesamtwahrscheinlichkeit<br />

ausreichend gewährleistet ist. Damit müssen viele Quellzeichen zu einer<br />

Zeichenkette zusammengefasst werden, was auf lange Codewörter führt. Damit zeigt sich<br />

auch eine Voraussetzung des Verfahrens: Die Originalnachrichten müssen eine ausreichende<br />

Länge haben.<br />

6.3.4 Lempel-Ziv-Quellencodierung<br />

§ 1013 Huffman-Codes sind optimale Codes – allerdings nur unter der Voraussetzung, dass<br />

die Wahrscheinlichkeiten der Signale der Quelle (Quellenstatistik) bekannt sind. Will man<br />

einen Text aus einer bekannten Sprache codieren, so ist dessen Quellenstatistik bekannt.<br />

§ 1014 Anders sieht die Situation jedoch bei unbekannten Daten aus. Eine mit einem Imager<br />

aufgenommene Szene ordnet jedem Pixel einen von 255 möglichen Helligkeitswerten zu –<br />

aber welche Verteilung haben die Helligkeitswerte? Meeresoberfläche bei Nacht, Prärie im<br />

Mittelwesten oder die Sahara werden sicherlich jeweils unterschiedliche Histogramme der<br />

Helligkeitswerte liefern, also auch unterschiedliche Quellenstatistik haben. Dann benötigt jede<br />

dieser Szenen einen eigenen Huffman-Code – oder man muss sehr verschwenderisch über alle<br />

möglichen Szenen mitteln und aus dieser Quellenstatistik einen zwar für den Gesamtdatensatz<br />

optimierten, für jede einzelne Szene jedoch suboptimalen Code entwickeln.<br />

§ 1015 In solchen Fällen ist ein von der Quellenstatistik unabhängiger Codierungsalgorithmus<br />

hilfreich. Der Lempel–Ziv-Algorithmus ist ein Beispiel für einen derartigen universellen<br />

Quellencodierungsalgorithmus. Lempel-Ziv ist ein Variabel-zu-Festlänge-Codierungssystem:<br />

eine Sequenz der Quellen wird in Phrasen variierender Länge unterteilt, die ihrerseits jedoch<br />

in Codewörter gleicher Länge codiert werden.<br />

§ 1016 Was bestimmt aber die Länge einer Phrase? Die Gliederung erfolgt durch die Identifikation<br />

von Phrasen der kleinsten Länge, die bisher noch nie aufgetreten sind. Nach Beginn<br />

einer Phrase wird erst dann wieder eine neue Phrase begonnen, wenn das gerade ausgegebene<br />

2. Juli 2008 c○ M.-B. Kallenrode


6.3. CODIERUNG I: QUELLENCODIERUNG 307<br />

Wörterbuchposition Phrase Codewort<br />

1 0001 0 0000 0<br />

2 0010 1 0000 1<br />

3 0011 00 0001 0<br />

4 0100 001 0011 1<br />

5 0101 10 0010 0<br />

6 0110 000 0011 0<br />

7 0111 101 0101 1<br />

8 1000 0000 0110 0<br />

9 1001 01 0001 1<br />

10 1010 010 1001 0<br />

11 1011 00001 1000 1<br />

12 1100 100 0101 0<br />

13 1101 0001 0110 1<br />

14 1110 0100 1010 0<br />

15 1111 0010 0100 0<br />

16 1110 1<br />

Tabelle 6.5: Beispiel zum Lempel–Ziv-<br />

Algorithmus [188]<br />

Zeichen dazu führt, dass die so entstandene Phrase nicht mehr mit einer bereits bekannten<br />

Phrase übereinstimmt. Führt das letzte Zeichen dazu, dass sich die so entstandene Phrase<br />

von den vorher bekannten unterscheidet, so wird sie als neue Phrase erkannt: eine neue Phrase<br />

ist also die Verkettung aus einer bekannten Phrase und einem neuen Quellenausgang. Um<br />

diese zu codieren werden binäre Expansionen der lexikographischen Ordnung der bisherigen<br />

Phrase mit dem neuen Bit verkettet. Auf diese Weise wachsen die Phrasen.<br />

§ 1017 Betrachten wir das Ausgangssignal<br />

0100001100001010000010100000110000010100001001001<br />

Dieses Signal wird in Phrasen gegliedert:<br />

0�1�00�001�10�000�101�0000�01�010�00001�100�0001�0100�0010�01001<br />

Zur Codierung dieser 16 Phrasen benötigen wir jeweils 5 Bit (4 Bit für die Phrase sowie ein<br />

zusätzliches Bit für den neuen Quellenausgang). Die Codierung ist in Tabelle 6.5 gegeben.<br />

§ 1018 Aus diesem Beispiel wird der Vorteil des Algorithmus nicht deutlich, da die ursprüngliche<br />

Sequenz von 49 Zeichen (entsprechend 49 Bit) in 16 Phrasen zerlegt und daher<br />

mit 80 Bit codiert wurde. Dieses Phänomen erklärt sich aus der Kürze der Testsequenz, bei<br />

einer längeren Testsequenz komprimiert der Algorithmus wesentlich besser.<br />

§ 1019 Lempel-Ziv ist die Grundlage vieler Datenpacker, z.B. ZIP, ZOO, ARJ usw. Modifizikationen<br />

von Lempel–Ziv werden auch bei der Kompression von Bildern verwendet, vgl.<br />

Abschn. 7.4.1. Die Erfahrung mit diesen Packern bestätigt die Abhängigkeit der Effizienz von<br />

der Länge des Signals: kleine Dateien lassen sich kaum komprimieren während die Datenreduktion<br />

bei großen Dateien erheblich ist. Um überhaupt ein Gefühl für die Abhängigkeit von<br />

der Signallänge zu entwickeln, können Sie in Anh. 9.1 mit einem Signal spielen.<br />

6.3.5 Historisches Beispiel: Redundanzreduktion beim Fernkopieren<br />

§ 1020 Fernkopieren (Faxen; mittlererweile auch schon eine eher historische Technologie) ist<br />

eine Form der Datenübertragung, die sich sehr leicht und sehr Platz sparend codieren lässt.<br />

Die vollständige Information des Bildes ergibt sich aus der Zahl der zu seiner Darstellung<br />

benötigten Pixel (Punktauflösung, vgl. Abb. 6.14) und der Angabe, ob der jeweilige Bildpunkt<br />

c○ M.-B. Kallenrode 2. Juli 2008


308 KAPITEL 6. KOMMUNIKATION<br />

schwarz oder weiß ist. Die Information wäre also insgesamt gleich der Zahl der Bildpunkte<br />

(die Information schwarz oder weiß entspricht ja genau der Information von einem bit pro<br />

Pixel). Im Gegensatz zu einer farbigen Darstellung hat man beim Schwarz-Weiß-Bild aber<br />

den Vorteil, dass die Farbe von Bildpunkt zu Bildpunkt nur relativ selten wechselt. Das gilt<br />

für sehr feine Auflösung (Raster) natürlich noch stärker als für grobe Raster (vgl. Abb. 6.14).<br />

§ 1021 Bei der Lauflängencodierung wird jede Punktfolge bestimmter Farbe und Länge (run<br />

length, Lauflänge) als Wort eines Zeichenvorrates aufgefasst. Jede Bildzeile ist dann eine Folge<br />

solcher Lauflängen. Die Lauflängen werden binäre codiert, wobei jede schwarze und jede<br />

weiße Lauflänge ein eigenes Codewort erhält. Die Wahl der Codewörter geschieht so, dass<br />

der mittlere Binärzeichenbedarf je Lauflänge möglichst gering wird. Dafür verwendet man<br />

Redundanz sparende Codes, z.B. die Codierung nach Huffman oder eine Variante davon, die<br />

sogenannte modifizierte Huffman-Codierung. Je nach Bildvorlage sind dann nur noch 5 bis<br />

20% des Aufwandes gegenüber der Punkt-für-Punkt-Übertragung nötig. Einige Beispiele für<br />

den modifizierten Huffman-Code zur Bildübertragung sind [212]:<br />

s1 → 010<br />

s2 → 11<br />

s3 → 10<br />

s4 → 011<br />

.... → ....<br />

w6 → 1110<br />

w7 → 1111<br />

w8 → 10011<br />

w9 → 10100<br />

.... → ....<br />

§ 1022 Stellen wir uns jetzt eine aus 33 Zeichen bestehende Zeile vor. Die Schwarz-Weiß-<br />

Folge dieser Zeile ist gegeben durch<br />

000000001100000001111000000000111<br />

wobei die 0 einen weißen, die 1 einen schwarzen Bildpunkt markiert. In Lauflängen lässt sich<br />

die Folge dann beschreiben als w8, s2, w7, s4, w9 und s3. Mit dem oben gegebenen modifizierten<br />

Huffman-Code lässt sich dies verschlüsseln zu der Bitfolge<br />

100111111110111010010.<br />

Im Verhältnis zur ursprünglichen Folge fällt die Verkürzung hier natürlich noch nicht besonders<br />

beeindruckend aus (21 Bit statt der ursprünglich 33 Bit), das liegt aber im wesentlichen<br />

daran, dass im Verhältnis zu einer ‘realen’ Fax-Vorlage die Lauflängen im obigen Beispiel<br />

recht kurz waren.<br />

§ 1023 Auch wenn das Faxen eine recht anachronistische Variante der Datenübertragung<br />

ist – die Einfachheit der Codierung macht uns noch einmal deutlich, dass eine effiziente<br />

Codierung nicht nur bei Sprache sondern auch bei anderen Signalen stets auch den (Sinn-<br />

)Zusammenhang benachbarter Zeichen berücksichtigt – außer den Wahrscheinlichkeiten werden<br />

auch bedingte Wahrscheinlichkeiten oder Übergangswahrscheinlichkeiten benötigt.<br />

6.4 Kanalcodierung<br />

§ 1024 Bisher haben wir uns damit befasst, wie man Information möglichst ökonomisch<br />

verpacken kann, um bei einer Speicherung oder Übertragung dieser Informationen Platz bzw.<br />

Zeit zu sparen. Im Interesse der Datenkompression wurde also Redundanz so weit wie möglich<br />

ausgeschaltet. Im Folgenden werden wir lernen, dass man andererseits dem so codierten<br />

2. Juli 2008 c○ M.-B. Kallenrode


6.4. KANALCODIERUNG 309<br />

Abbildung 6.17: Binärsignal<br />

1011101001 am Sender (oben)<br />

und beim Empfänger (unten) für<br />

einen gestörten Übertragungskanal<br />

[17]<br />

Signal wieder Redundanzen zufügt, um eine Fehlererkennung und möglichst auch -korrektur<br />

zu ermöglichen.<br />

6.4.1 Informationsübertragung<br />

§ 1025 Dabei stellt sich die Frage: Lohnt sich der Aufwand, Redundanzen zur Fehlererkennung<br />

zuzufügen (um den Preis einer wesentlich aufwendigeren = teureren Datenübertragung),<br />

oder ist die Fehlerwahrscheinlichkeit bzw. -häufigkeit so gering, dass wir die vereinzelt auftretenden<br />

Fehler in Kauf nehmen können? Diese Frage wird durch die Eigenschaften des<br />

Übertragungskanals zwischen einem Raumfahrzeug, insbesondere einer planetaren Mission<br />

(z.B. Voyager), unmittelbar deutlich: große Abstände zwischen Sender und Empfänger bei<br />

gleichzeitiger geringer Sendeleistung führen zu einem geringen Signal-Rausch-Verhältnis, d.h.<br />

die Wahrscheinlichkeit eines Übertragungsfehlers wird entsprechend groß. 6 Zusätzlich ist, für<br />

jedes Raumfahrzeug und damit auch für jeden Satelliten, die Atmosphäre mit ihren hochgradig<br />

variablen Eigenschaften ein Bestandteil des Übertragungskanals. Dabei kann die Störung<br />

der Ionosphäre durch die zusätzliche Ionisation in der Folge eines Flares die Datenübertragung<br />

ausgerechnet zu den Zeiten stark beeinträchtigen, in denen die für die Sonnenforscher interessantesten<br />

Daten von den Satelliten gesendet werden.<br />

§ 1026 Ein Beispiel für die Relation zwischen gesendeten und empfangenen Daten ist in<br />

Abb. 6.17 gezeigt. Im oberen Teil ist ein Binärsignal in ungestörter Form aufgetragen, im<br />

unteren Teil das sich bei einem gestörten Kommunikationskanal am Empfänger ergebende Signal.<br />

Man erkennt dabei das Risiko, dass bei starken Störungen einzelne Bits oder gar Folgen<br />

von Bits falsch identifiziert werden. Insbesondere starke Störungen durch erhöhte Ionisation<br />

oder starken Regen sind im Verhältnis zu den Übertragungszeiten sehr lange andauernd, so<br />

dass es hierbei häufig zu einer Verfälschung langer Folgen von Bits kommen kann [190]. 7<br />

§ 1027 Wie lässt sich Informationsübertragung beschreiben? Im einfachsten Falle haben der<br />

Sender und der Empfänger den gleichen Zeichensatz und für jedes vom Sender ausgewählte,<br />

codierte und gesendete Zeichen kann der Empfänger dieses Zeichen unverfälscht erhalten<br />

(ungestörte Übertragung), decodieren und identifizieren. Im realen Fall dagegen wird diese<br />

6 Die Kommunikation mit einer Raumsonde ist ein eher extremes Beispiel für die Kommunikation über<br />

gestörte Kanäle. Ein wesentlich alltäglicheres Beispiele sind die Kommunikation über eine analoge Telefonleitung:<br />

wird diese von Mensch zu Mensch durchgeführt, so ist der Mensch auf Grund der großen in der Sprache<br />

enthaltenen Redundanz in der Regel in der Lage, die gestörte Nachricht (annähernd) korrekt zu dekodieren.<br />

Kommunizieren jedoch zwei Modems digitale Information über diese gestörte Telefonleitung, so lässt sich<br />

dies ebenfalls durch Abb. 6.17 beschreiben. Andere Beispiele für die Kommunikation über gestörte Kanäle<br />

sind die Übertragung der in der DNA enthaltenen Information von der Mutter- auf die Tochterzelle bei<br />

der Zellteilung oder ein Diskettenlaufwerk. Da die Information mit dem gleichen Laufwerk geschrieben und<br />

auch gelesen werden kann, soll das Beispiel daran erinnern, dass Kommunikation nicht zwingend räumliche<br />

Distanzen überbrücken muss sondern manchmal auch zeitliche.<br />

7 Im Falle einer über einen längeren Zeitraum stark verfälschten Sequenz, d.h. die Wahrscheinlichkeit<br />

zum Klappen eines Bits ist hoch, ist eine Korrektur kaum noch möglich. Eine Fehlererkennung sollte aber<br />

dennoch zu realisieren sein – damit kann gegebenenfalls eine Wiederholung der Datenübertragung gefordert<br />

werden. Wir werden uns im Folgenden bei Fehlererkennung und -korrektur auf statistische Fehler mit kleinen<br />

Wahrscheinlichkeiten p eines Bitfehlers beschränken.<br />

c○ M.-B. Kallenrode 2. Juli 2008


310 KAPITEL 6. KOMMUNIKATION<br />

Abbildung 6.18: Entropiefluss im<br />

gestörten Übertragungskanal, basierend<br />

auf [228]<br />

Übertragung nicht ungestört erfolgen, so dass die Decodierung und Identifizierung schwierig<br />

oder gar unmöglich werden kann.<br />

§ 1028 Abbildung 6.18 stellt dazu den Entropiefluss in einem gestörten Nachrichtenkanal<br />

dar. Der Sender gibt aus seinem Zeichenvorrat X Signale mit einer mittleren Information<br />

ab, auch als Sender-Entropie H(X) bezeichnet. Der Empfänger wählt daraufhin aus seinem<br />

Zeichenvorrat Y ein Zeichen mit der Empfänger-Entropie H(Y ). Wegen möglicher Störungen<br />

verbleibt ihm dabei aber eine mittlere Unkenntnis HY (X) über das Gesendete. Diese Unkenntnis<br />

wird als Äquivokation bezeichnet. Andererseits lassen Störungen aber auch eine<br />

mittlere Unsicherheit bei der Auswahl der Empfängerzeichen für ein beliebiges gesendetes Zeichen<br />

zurück. Diese Unvorhersagbarkeit wird als Irrelevanz HX(Y ) bezeichnet. Die im Mittel<br />

pro Zeichen übertragene Information wird dann als mittlere Transinformation bezeichnet.<br />

6.4.2 Kanalkapazität<br />

§ 1029 Bisher haben wir die Signale als diskrete Zeichen betrachtet und uns nur mit ihrer<br />

Codierbarkeit und Decodierbarkeit beschäftig. Bei realen Nachrichten handelt es sich jedoch<br />

um Signalfolgen, d.h. Signale, die in einer bestimmten Zeit gesendet werden. Bei der Nachrichtenübertragung<br />

ist daher gerade die Geschwindigkeit, mit der Information übertragen<br />

werden kann, eine wichtige Kenngröße. Diese bildet z.B. die Motivation zur Qulellencodierung,<br />

d.h. zur Verringerung der Redundanzen in einer Nachricht. Sie bildet gleichzeitig auch<br />

eine Grenze für die Kanalcodierung, d.h. das Einfügen von Redundanzen zur Fehlererkennung<br />

und -korrektur.<br />

§ 1030 Die Geschwindigkeit der Nachrichtenübertragung lässt sich definieren als der Informationsfluss<br />

(Einheit bps, bit pro Sekunde)<br />

Darin ist<br />

F = H<br />

Tm<br />

Tm = � pxTx<br />

.<br />

die mittlere Zeit, die für die Übertragung eines Nachrichtensymbols benötigt wird (Einheit<br />

s/Symbol).<br />

§ 1031 Unter der Kanalkapazität verstehen wir nun den maximalen Informationsfluss, der<br />

über einen gegebenen Nachrichtenkanal fehlerfrei übertragen werden kann:<br />

� �<br />

H<br />

C = Fmax =<br />

.<br />

Tm<br />

max<br />

Die maximale Kanalkapazität ist alleine durch die Eigenschaften des Übertragungskanals<br />

gekennzeichnet nicht aber durch die Eigenschaften der Signalquelle, da wir deren Redundanz<br />

freie Codierung bereits vorausgesetzt haben: diese können wir Redundanz frei codieren, wie<br />

im vorangegangenen Abschnitt gezeigt. Wir müssen sogar Redundanz frei codieren, da wir<br />

sonst nur Kanalkapazität verschwenden würden.<br />

2. Juli 2008 c○ M.-B. Kallenrode


6.4. KANALCODIERUNG 311<br />

Kanal B [kHz] ϱ [dB] C [bit/s]<br />

Telefon 3.1 40 4.1 · 10 4<br />

Rundfunk UKW 15 60 3 · 10 5<br />

Fernsehen 5000 45 7.5 · 10 7<br />

InfoAufnahme Mensch 20<br />

Tabelle 6.6: Übertragungskanalen<br />

einiger Kanäle<br />

§ 1032 Für einen realen, d.h. gestörten Kanal, gilt der Fundamentalsatz der Kanalcodierung<br />

(Shannon):<br />

Definition 7 Es gibt eine Kanalkapazität C, bei der man bei geeigneter Codierung Informationen<br />

mit beliebig kleiner Fehlerrate übertragen kann, solange der Informationsfluss kleiner<br />

als C ist. Wenn der Informationsfluss der Quelle die Kanalkapazität übersteigt, ist Informationsverlust<br />

unvermeidlich.<br />

§ 1033 Dieser Satz ist nicht offensichtlich, da man erwarten würde, dass mit zunehmenden<br />

Störungen eines Kanals auch die Übertragungsfehler größer werden. Das ist auch solange<br />

der Fall, wie man keine besonderen Codierungsmaßnahmen ergreift. Shannons Satz besagt<br />

jedoch, dass es stets eine Codierung gibt, mit der man die Fehlerrate beliebig verringern kann,<br />

unabhängig davon, wie die Störungen geartet sind. Die Suche nach einem geeigneten Code<br />

kann allerdings schwierig werden. Auch geringe Kanalkapazitäten schränken die Möglichkeit,<br />

einen Code für verschwindende Fehlerraten zu finden, ein.<br />

§ 1034 Betrachten wir zum Verständnis dieser letzteren Einschränkung einen Übertragungskanal<br />

der Bandbreite B, der durch ein Rauschen mit Gaußscher Amplitudenverteilung gestört<br />

ist. PS sei die Leistung des Signals, PN die des Rauschens am Empfängereingang. Dann ergibt<br />

sich für die Kanalkapazität [90]<br />

�<br />

C = B ld 1 + PS<br />

�<br />

. (6.11)<br />

PN<br />

§ 1035 Der Informationsfluss in einem normalen Übertragungskanal (z.B. Telefon, Rundfunk)<br />

bleibt in der Praxis meistens weit hinter der Kanalkapazität zurück. Geht man dann<br />

in (6.11) auf den Zehnerlogarithmus über, so ergibt sich<br />

C ≈ B<br />

�<br />

10 lg 1 +<br />

3 PS<br />

�<br />

=<br />

PN<br />

B<br />

ϱ .<br />

3<br />

Für PS ≫ PN ist dann<br />

� �<br />

PS<br />

ϱ ≈ 10 lg<br />

PN<br />

das Signal-Rausch-Verhältnis. Gerade bei den planetaren Missionen, wie z.B. Pioneer und<br />

Voyager, ist dieses Verhältnis aufgrund der großen Abstände gering, so dass die Kanalkapazitäten<br />

gering werden und sich damit auch die Möglichkeiten, einen fehlerunempfindlichen<br />

Code zu finden, verringern.<br />

§ 1036 Tabelle 6.6 gibt die Kanalkapazitäten für einige Übertragungskanäle. Dabei fällt auf,<br />

dass der Mensch das langsamste Glied in der Kette ist, d.h. Information kann wesentlich<br />

schneller übertragen werden, als der Mensch sie verarbeiten kann.<br />

§ 1037 Doch wenden wir uns wieder der Übertragungskapazität eines Nachrichtenkanals zu.<br />

Ist bei binärer Übertragung die Wahrscheinlichkeit, dass ein Zeichen verfälscht wird (also 0<br />

statt 1 oder umgekehrt) durch p ′ gegeben, so ist nach Shannon die Kapazität eines derartigen<br />

Kanals gegeben durch<br />

C = 1 − b(p ′ ) bit/s<br />

mit b als der Shannon-Funktion wie in (6.2) gegeben.<br />

c○ M.-B. Kallenrode 2. Juli 2008


312 KAPITEL 6. KOMMUNIKATION<br />

Abbildung 6.19: Shannon-Grenze für<br />

fehlerfreien Empfang [90]<br />

§ 1038 Wir können in (6.11) die Leistung PS des Signals und die Leistung PN des Rauschens<br />

umschreiben, indem wir die Bitzeit Tb, die Bitrate Rb = 1/Tb, die spektrale Rauschleistungsdichte<br />

N0 und die Bitenergie Eb einführen [90]. Dann ist<br />

PS<br />

PN<br />

= PS TB Rb<br />

N0 B .<br />

Für C = Rb, d.h. den optimalen Kanal, wird dann<br />

�<br />

Rb<br />

= ld 1 +<br />

B Eb<br />

�<br />

Rb<br />

.<br />

N0 B<br />

Diese Beziehung zwischen der Energie/Bit und der Bandbreite/Bit ist in Abb. 6.19 dargestellt.<br />

§ 1039 Mit zunehmender Bandbreite B lässt sich dann bei vorgegebenem Verhältnis Eb/N0<br />

von Bitenergie zu Rauschleistungsdichte eine größere Bitrate Rb erreichen. Im Extremfall<br />

geht dabei B/Rb → ∞ und es wird<br />

Eb<br />

N0<br />

= −1.6 db ∼ = 0.69 .<br />

Das ist die Mindestenergie, die pro Bit und Rauschleistungsdichte aufgebracht werden muss.<br />

Für geringere Energien ist eine fehlerfreie Übertragung ausgeschlossen. Dieser Grenzwert gilt<br />

übrigens nur für den idealen Codierungsfall (den es zwar gibt, aber der nicht immer bekannt<br />

sein muss); für die meisten realen Codierungsverfahren sind diese Anforderungen größer, d.h.<br />

es muss mehr Energie zur Übertragung aufgebracht werden.<br />

§ 1040 Aus der Bandbreite und dieser Mindestenergie lässt sich ein Kommunikationswirkungsgrad<br />

ηk definieren als<br />

ηk = Eb<br />

N0 B .<br />

Dieser Wirkungsgrad erlaubt den Vergleich verschiedener Codierungs- und Modulationsverfahren<br />

und die Auswahl eines optimalen Verfahrens. Marko [162] gibt einen guten und anschaulichen<br />

Überblick über den hier dargestellten Zusammenhang von Information und Energie.<br />

6.4.3 Kanalcodierung: Basics<br />

§ 1041 Bei der Behandlung von Fehlern bei der Informationsübertragung gibt es zwei prinzipiell<br />

unterschiedliche Ansätze:<br />

• eine Fehlererkennung ist ausreichend; bei einem erkannten Fehler wird der Sender zur<br />

Wiederholung aufgefordert. Dieses Verfahren ist bei vielen Satelliten nicht praktikabel, da<br />

die Daten häufig nicht zwischengespeichert sondern direkt ausgelesen werden. dann erlaubt<br />

die Fehlererkennung aber zumindest das Ignorieren der fehlerhaften Daten.<br />

2. Juli 2008 c○ M.-B. Kallenrode


6.4. KANALCODIERUNG 313<br />

• Eine Fehlererkennung alleine ist nicht ausreichend, es wird eine zusätzliche Fehlerkorrektur<br />

gefordert. Dieses Verfahren ist zwar aufwendiger, wenn aber keine Wiederholung der als<br />

fehlerhaft erkannten Nachricht möglich ist, ist es die einzige Möglichkeit, den Informationsverlust<br />

gering zu halten.<br />

Für beide Ansätze gibt es Codierungsverfahren, wobei die Codierung zur Fehlererkennung<br />

ohne Korrektur selbstverständlich viel einfacher ist (z.B. durch Verwendung eines Paritätsbits<br />

oder einer Prüfzahl, z.B. der Quersumme des Signals) als die Codierung für Fehlererkennung<br />

und -korrektur.<br />

§ 1042 Haben wir bisher die Behauptung aufgestellt, dass es stets eine Codierung gibt, mit<br />

der die Übertragungsfehler möglichst gering werden können, wollen wir in diesem Abschnitt<br />

einige Beispiele für derartige Codierungen betrachten. Diese Kanalcodierung führt zusätzliche<br />

Redundanzen ein, wobei gilt:<br />

Definition 8 Ziel der redundanten Codierung ist es, die zuverlässige und sichere Kommunikation<br />

über unzuverlässige Kanäle zu ermöglichen.<br />

§ 1043 Bei den folgenden Betrachtungen werden wir uns auf Blockcodes beschränken. Das<br />

bedeutet, dass die Quellencodierung nicht wie in den obigen Beispielen mit Code-Wörtern<br />

variabler Länge erfolgt, sondern mit festen Blocklängen. Für viele Anwendungen bei Weltraumexperimenten<br />

kann die Codierung der Quelle durch einen Blockcode durchaus ausreichend<br />

sein. Zusätzlich lassen sich aber auch Codes mit Codewörtern variabler Länge in einem Blockcode<br />

unterbringen: Man schreibt die Codewörter einfach hintereinander und trennt nach einer<br />

gewissen Länge einen Block ab, unabhängig davon, ob dabei ein Codewort zertrennt wird<br />

oder nicht. 8 Zwischen diesen Blöcken befinden sich dann die im Rahmen der Kanalcodierung<br />

eingeführten Redundanzen. Da der Empfänger sowohl die Länge der Blöcke als auch die Position<br />

der eingefügten Prüfbits inkl. des sie bestimmenden Algorithmus kennt, kann er aus<br />

dem empfangenen Signal erst das quellencodierte Signal zurückgewinnen und daraus die Originalnachricht<br />

decodieren. Daher stellt die Betrachtung von Blockcodes in diesem Abschnitt<br />

keine allgemeine Einschränkung oder gar einen Rückschritt dar.<br />

§ 1044 Etwas formaler können wir einen Blockcode als eine Regel interpretieren, die aus<br />

einer Sequenz �s von Bits einer Quelle eine Sequenz �t von zu transmittierenden Bits macht.<br />

Dabei ist die Länge k der Ausgangssequenz �s kleiner als die Länge n der transmittiereten<br />

Sequenz �t: k < n. In einem linearen Blockcode sind die zusätzlichen m = n − k Bits lineare<br />

Funktionen der k ursprünglichen Bits; diese Bits werden häufig als Paritätsbits bezeichnet<br />

– zumindest im in Abschn. 6.4.6 beschriebenen Hamming(7,4) Code wird diese Bezeichnung<br />

offensichtlich.<br />

6.4.4 Kanalcodierung: Fehlererkennung<br />

§ 1045 Beginnen wir mit einfachen Möglichkeiten zur Fehlererkennung. Dazu betrachten wir<br />

wieder unseren vierelementigen Zeichenvorrat aus Tabelle 6.3, und zwar in der Blockcodierung<br />

wie durch Code 1 gegeben. Die einfachste Methode zur Erzeugung eines Codes, in dem<br />

Fehler erkannt werden können, besteht darin, jedes Zeichen einfach noch einmal zu senden<br />

(Signalverdoppelung). Durch die Verdoppelung unserer Signale benötigen wir pro Zeichen<br />

statt 2 Bit 4 Bit. Gehen wir davon aus, dass bei der Übertragung nur jeweils 1 Bit verfälscht<br />

wird, so können wir jeden Fehler erkennen. Fehlermöglichkeiten sind dann jeweils gegeben<br />

durch<br />

8 Bei der Kanalcodierung kann das Signal als Bitfolge ohne Sinnzusammenhang behandelt und damit auch<br />

in beliebige Blöcke zerlegt werden: der Sinnzusammenhang ist ja bereits durch die Redundanzreduktion in<br />

der Quellencodierung abhanden gekommen.<br />

c○ M.-B. Kallenrode 2. Juli 2008


314 KAPITEL 6. KOMMUNIKATION<br />

Abbildung 6.20:<br />

Symmetrischer<br />

Binärkanal<br />

Zeichen Code Codierung F1 F2 F3 F4<br />

a 00 0000 1000 0100 0010 0001<br />

b 01 0101 1101 0001 0110 0100<br />

c 10 1010 0010 1110 1000 1011<br />

d 11 1111 0111 1011 1101 1110<br />

wobei die Spalten Fi jeweils den Fehler im i-ten Bit symbolisieren sollen. Jeder einfache<br />

Fehler (d.h. es wird nur ein Bit falsch übertragen) wird erkannt, da das fehlerhafte Signal<br />

sich nicht mehr aus zwei gleichen Teilen zusammensetzt. Jedoch kann der Fehler in diesem<br />

Code noch nicht korrigiert werden: Erhält der Empfänger das Signal 0010, so kann es sich<br />

dabei um ein a handeln (drittes Bit umgeklappt) oder ein c (erstes Bit umgeklappt). Werden<br />

mehr als ein Bit fehlerhaft übertragen, so ist mit diesem Verfahren auch die Fehlererkennung<br />

nicht mehr gewährleistet, da dann statt a (0000) z.B. b (0101) empfangen werden könnte.<br />

Fehlererkennung ist hierbei nur dann möglich, wenn ein Zeichen wie z.B. 1100 empfangen<br />

wurde, das weder zum Zeichenvorrat der Codewörter noch zu dem der um 1 Bit verfälschten<br />

Codewörter gehört.<br />

§ 1046 Das betrachtete Codierungsbeispiel ermöglicht also bei Verdopplung der Bits nur<br />

eine einfache Fehlererkennung, aber keine Korrektur. Fehlererkennung ließe sich für dieses<br />

Beispiel (also mit nur einem umklappenden Bit) auch einfacher einführen. Dazu wird an den<br />

ursprünglichen Code ein Paritätsbit angehängt. Dieses Paritätsbit ist so gewählt, dass jedes<br />

Zeichen eine gerade Anzahl von Einsen enthält. Die Codierungstabelle wird zu<br />

Zeichen Code Codierung<br />

a 00 000<br />

b 01 011<br />

c 10 101<br />

d 11 110<br />

Um einzusehen, dass bei dieser Codierung Fehler erkannt werden können, ist es nicht einmal<br />

notwendig, sich eine Tabelle aller möglicher Fehler anzulegen. Betrachtet man die Codierung,<br />

so zeigt sich, dass sich Zeichen stets durch zwei Bit voneinander unterscheiden (sonst könnte<br />

ja die Zahl der Einsen nicht immer gerade sein), d.h. wenn nur ein Bit falsch übertragen wird,<br />

ist das Zeichen immer illegal insofern, als dass dann plötzlich die Zahl der Bits ungerade wird.<br />

Damit gehört das Zeichen aber nicht mehr zum Zeichenvorrat der Quelle und ist damit auch<br />

als falsches Zeichen erkannt. Dieser Abstand zwischen zwei Codewörtern (im obigen Beispiel<br />

2 Bit) wird als Hamming-Distanz d bezeichnet. Die Hamming-Distanz ist ein zur Bestimmung<br />

der Korrekturmöglichkeiten eines Codes wichtiger Begriff [87].<br />

Verständnisfrage 42 Statt des Verdopplungscodes in § 1045 wird ein Wiederholungscode<br />

eingeführt, in dem jedes bit dreimal transmittiert wird, d.h. 0 → 000 und 1 → 111. Lassen sich<br />

auf diese Weise Fehler erkennen und korrigieren? Hängt eine oder beide Möglichkeiten von der<br />

Wahrscheinlichkeit p ein Bit zu klappen ab? Und wenn ja, sind beide Wahrscheinlichkeiten<br />

identisch oder nicht, und wie groß sind sie jeweils?<br />

§ 1047 Um diese Begriffe für Hamming-Distanz und Korrekturfähigkeit quantitativ etwas<br />

besser erfassen zu können, betrachten wir den in Abb. 6.20 dargestellten symmetrischen<br />

Binärkanal: der symmetrische Binärkanal verfälscht jeweils mit der gleichen Wahrscheinlichkeit<br />

p eine 0 in eine 1 oder eine 1 in eine 0, die Verfälschung wirkt so, dass aus einem<br />

Binärzeichen stets wieder ein Binärzeichen wird und kein Zeichen verloren geht oder dazu<br />

2. Juli 2008 c○ M.-B. Kallenrode


6.4. KANALCODIERUNG 315<br />

kommt (die Länge des Codewortes bleibt also erhalten). 9 Die Einzelfehlerwahrscheinlichkeit<br />

p ist damit ein Maß für die Störungsintensität des Kanals (beim Telefon ist p ungefähr 0.2<br />

Promille, bei höherwertigen Verbindungen wie Datex-P oder Datex-L liegt die Fehlerwahrscheinlichkeit<br />

zwischen 1 und 10 pro Million übertragener Bits).<br />

§ 1048 Über diesen binärsymmetrischen Kanal aus Abb. 6.20 werden nun Nachrichten als<br />

Binärzeichen der Länge n übertragen. Nur eine Auswahl aus allen möglichen Wörtern der<br />

Länge n wird vom Codierer erzeugt und dient somit der Informationsübertragung. Im obigen<br />

Beispiel der Codierung mit Paritätsbit werden die ersten 2 von 3 Bits zur Informationsübertragung<br />

benötigt, das dritte Bit wird in Abhängigkeit von den ersten beiden Bits<br />

gewählt. Es gibt noch jeweils vier weitere Worte, die aber nicht verwendet werden, da dann<br />

die gerade Anzahl der Einsen nicht gegeben ist, d.h. nur die Hälfte der mit drei Bit erzeugten<br />

Zeichen wird auch als Code verwendet). Von der geschickten Auswahl der Codewörter hängt<br />

die Qualität eines solchen Codes ab:<br />

Definition 9 Die durch die Kanalcodierung eingebrachte Redundanz ist dann gut genutzt,<br />

wenn kein Paar von Codewörtern sich zu ähnlich ist, d.h. wenn die Hamming-Distanz möglichst<br />

groß wird.<br />

§ 1049 Wenn wir die minimale Hamming-Distanz d in einem Code gefunden haben, so wissen<br />

wir auch, wie viele der Bits noch als falsch erkannt werden können. Mit fe als der Zahl der<br />

erkennbaren Binärzeichenfehler gilt dann<br />

fe = d − 1<br />

oder in Worten<br />

Definition 10 Ein Blockcode mit der minimalen Hamming-Distanz d gestattet die Erkennung<br />

aller Fehler, solange weniger als d Stellen je Wort verfälscht werden.<br />

6.4.5 Kanalcodierung: Fehlererkennung und -korrektur<br />

§ 1050 Bisher haben wir uns auf die Fehlererkennung beschränkt, wir wollen jetzt versuchen<br />

die Möglichkeiten zur Fehlerkorrektur in Abhängigkeit von der Hamming-Distanz zu<br />

beschreiben. Betrachten wir dazu als Beispiel einen vierstelligen Code, aus dem aber nur<br />

zwei Wörter ausgewählt werden, nämlich 0011 und 1100. Die Codierung erfolgt über die<br />

Vorschrift<br />

0 → 0011<br />

1 → 1100<br />

§ 1051 Alle Worte, die sich gegenüber dem ersten Codewort um höchstens ein Bit verändert<br />

haben, fassen wir jetzt in einer Menge A zusammen. Die Menge B enthält alle Wörter, die<br />

sich vom zweiten Codewort nur um höchstens ein Bit unterscheiden. Die verbliebenen Wörter<br />

fassen wir in der Menge C zusammen. Diese drei Mengen sind gegeben durch<br />

A = {0011, 0001, 0010, 0111, 1011}<br />

B = {1100, 0100, 1000, 1110, 1101}<br />

C = {0000, 0101, 0110, 1001, 1010, 1111}<br />

§ 1052 Für die Decodierung eines Zeichens betrachtet man jetzt die Menge, in die das Zeichen<br />

gefallen ist. Alle Zeichen, die in A fallen, werden so interpretiert, dass das ursprünglich<br />

gesendete Zeichen 0011 war, alle Zeichen in B werden dem Zeichen 1100 zugeordnet. Zeichen,<br />

die in C einfallen, werden als falsch erkannt, können aber nicht korrigiert werden, sondern<br />

werden verworfen. Die Decodierungsvorschrift ist<br />

A → 0<br />

B → 1<br />

C → Fehler<br />

9 Formal ist die Annahme der Symmetrie einfach. Je nach Digitallogik (insbesondere Abstand Grenzen der<br />

Pegel) und Art der Störung ist die Symmetrie jedoch nicht zwingend gegeben.<br />

c○ M.-B. Kallenrode 2. Juli 2008


316 KAPITEL 6. KOMMUNIKATION<br />

Abbildung 6.21: Ähnlichkeitsdekodierung<br />

§ 1053 Dieses Codierungsverfahren erlaubt es also, alle einfachen Fehler zu erkennen und<br />

zu korrigieren. Zusätzlich kann ein Teil der Mehrfachfehler erkannt werden. Dieses Verfahren<br />

wird als Ähnlichkeitsdecodierung bezeichnet, da das empfangene Zeichen dem Codewort zugeordnet<br />

wird, dem es am ähnlichsten ist, von dem es sich also in der geringsten Zahl von Bits<br />

unterscheidet. Die Zahl t der korrigierbaren Stellen in einem solchen Verfahren ist gegeben<br />

durch<br />

2t + 1 ≤ d . (6.12)<br />

Der größte Wert von t, der mit dieser Bedingung verträglich ist, wird als die maximale<br />

Korrekturfähigkeit eines Codes bezeichnet.<br />

Verständnisfrage 43 Wie sieht es eigentlich bei mit der Qualitätssicherung aus? Bei der<br />

Fehlerkorrektur kann im Prinzip ja auch eine falsche Korrektur erfolgen: es sind mehr als<br />

1 Bit geklappt und damit die Ähnlichkeit zu einem falschen Codewort hergestellt. Diese<br />

Situation tritt bevorzugt bei großem p auf. Gibt es eine einfache Möglichkeit, auf falsche<br />

Fehlerkorrektur zu prüfen?<br />

§ 1054 Den Beweis von (6.12) kann man sich mit Hilfe von Abb. 6.21 veranschaulichen<br />

(indirekter Beweis, [78]): Dazu nehmen wir an, dass bis zu t Stellen korrigierbar sein. Wenn<br />

die Ungleichung (6.12) verletzt ist, bedeutet das, dass es zwei Codewörter gibt, die sich in<br />

maximal 2t Stellen unterscheiden. Dann gibt es aber bei der Veränderung von t Stellen des<br />

einen Codewortes ein Wort, das sich auch von dem anderen Codewort nur um maximal<br />

t Stellen unterscheidet, d.h. es ist keine eindeutige Zuordnung des falschen Wortes mehr<br />

möglich, im Widerspruch zur vorausgesetzten Korrigierbarkeit des Codes.<br />

§ 1055 In dem obigen Beispiel haben wir, um ein Zeichen sicher übertragen zu können, drei<br />

zusätzliche Zeichen verwendet, d.h. eine hohe Redundanz erzeugt. Generell besteht ein Wort<br />

der Länge n also aus einem Information tragenden Teil der Länge k und einer Zahl mn − k<br />

von Prüfzeichen. Die relative Redundanz eines solchen Codes ist gleich<br />

r = m<br />

n ,<br />

die Redundanz ist<br />

R = m .<br />

Für den oben betrachteten Code erhalten wir eine relative Redundanz von 75%, wobei trotz<br />

dieser großen Redundanz nur ein Bitfehler zuverlässig erkannt und korrigiert werden kann.<br />

§ 1056 Für die Redundanz R = m eines Korrektur fähigen Codes gilt in Abhängigkeit von<br />

der Korrekturfähigkeit t die Abschätzung<br />

2 m t�<br />

� �<br />

n<br />

≥ .<br />

j<br />

j=0<br />

Anschaulich lässt sich die Gültigkeit dieser Hamming-Schranke so zeigen: Es gibt � � n<br />

j Wörter,<br />

die von einem bestimmten Codewort in genau j Stellen abweichen. Der Summenausdruck<br />

ist genau die Zahl der Wörter, die in höchstens t Stellen von einem bestimmten Codewort<br />

abweichen. Dann ist der Code aber nach Vorraussetzung (6.12) decodierbar.<br />

2. Juli 2008 c○ M.-B. Kallenrode


6.4. KANALCODIERUNG 317<br />

�s �t �s �t �s �t �s �t<br />

0000 0000000 0100 0100110 1000 1000101 1100 1100011<br />

0001 0001011 0101 0101101 1001 1001110 1101 1101000<br />

0010 0010111 0110 0110001 1010 1010010 1110 1110100<br />

0011 0011100 0111 0111010 1011 1011001 1111 1111111<br />

Tabelle 6.7: Hamming(7,4) Code; �s ist das Signal der Quelle, �t der zugehörige zu transmittierende<br />

Code<br />

Abbildung 6.22: Graphische<br />

Darstellung für die Codierung<br />

eines Hamming(7,4) Codes<br />

§ 1057 Für große Blocklängen n lässt sich die Redundanz [185] näherungsweise in der Form<br />

r = m<br />

n<br />

≥ b<br />

� �<br />

t<br />

.<br />

n<br />

angeben, mit b als der Shannon-Funktion (6.2).<br />

Verständnisfrage 44 Begründen Sie obigen Ausdruck.<br />

6.4.6 Kanalcodierung: Hamming(7,4) Codierung<br />

§ 1058 Die Hamming Codierung in § 1050 ist extrem ineffizient, da wir ein 1 Bit Codewort<br />

durch Hinzufügen von 3 Bits verlängert haben. Damit hat sich die Zahl der zu übertragenden<br />

Bits vervierfacht. Wir können das Prinzip jedoch auch auf längere Ausgangsblöcke anwenden.<br />

Ein realistischeres Beispiel ist der Hamming(7,4)-Code in Tabelle 6.7. Auch hier werden jedem<br />

Codewort der Quelle drei Bit hinzugefügt; da jedoch das Codewort der Quelle bereits aus 4<br />

Bit besteht, ist das Gesamtsignal nicht einmal doppelt so lang. Dennoch unterscheidet sich<br />

jedes neue Codewort von jedem anderen um mindestens 3 Bit.<br />

Codierung<br />

§ 1059 Ein graphisches Verfahren zur in Tabelle 6.7 explizit gegebenen Codierung ist in<br />

Abb. 6.22 gegeben: die sieben zu transmittierenden bits werden so in drei sich schneidende<br />

Kreisen angeordnet, dass die von der Quelle gelieferten und in �s enthaltenen Bits in den<br />

Schnitten liegen. Diese Bits entsprechen den ersten vier zu transmittierenden Bits ti mit<br />

i = 1, ..., 4. Die verbliebenen Paritätsbits t5 bis t7 werden so gesetzt, dass die Parität innerhalb<br />

jedes Kreises gerade ist. Damit bestimmt t5 die Parität der ersten drei Bits der Quelle, t6 die<br />

der letzten drei und t7 die der Quellbits eins, drei und vier.<br />

§ 1060 Da der Hamming Code ein linearer Code ist, kann er mit Hilfe von Matrizen in<br />

wesentlich kompakterer (und leichter zu verwendender) Form geschrieben werden als in Tabelle<br />

6.7. Das zu übertragende Codewort �t ergibt sich aus dem aus der Quelle entnommenen<br />

Codewort �s mit Hilfe der Generator-Matrix G zu<br />

�t = G T �s .<br />

c○ M.-B. Kallenrode 2. Juli 2008


318 KAPITEL 6. KOMMUNIKATION<br />

Abbildung 6.23: Graphische Decodierung<br />

(Syndrom-Decodierung) des Hamming(7,4)<br />

Codes; zur Erklärung siehe<br />

Text<br />

Die Generator-Matrix für das Beispiel in Tabelle 6.7 ist<br />

G T ⎡<br />

1 0 0<br />

⎤<br />

0<br />

⎢ 0<br />

⎢ 0<br />

⎢<br />

= ⎢ 0<br />

⎢ 1<br />

⎣<br />

0<br />

1<br />

0<br />

0<br />

1<br />

1<br />

0<br />

1<br />

0<br />

1<br />

1<br />

0 ⎥<br />

0 ⎥<br />

1 ⎥ ,<br />

⎥<br />

0 ⎥<br />

⎦<br />

1<br />

(6.13)<br />

1 0 1 1<br />

wobei �s und �t als Spaltenvektoren angenommen wurden. Bei der Codierung ist Modulo-2<br />

Arithmetik zu berücksichtigen: 1+1=0, 0+1=1 usw.<br />

Verständnisfrage 45 Eine Summe von zwei Codewörtern in Tabelle 6.7 gibt wieder ein<br />

Codewort des Hamming(7,4)-Codes. Zufall oder gibt es eine Begründung?<br />

Decodierung<br />

§ 1061 Die Decodierung �t → �s ist weniger gradlinig. In einem perfekten Übertragungskanal<br />

ließe sich diese Decodierung durch Matrixinversion realisieren – aber in einem perfekten<br />

Übertragungskanal benötigen wir überhaupt keine Kanalkodierung. Das Problem der Decodierung<br />

liegt daran, dass (a) im Prinzip jedes, auch eines der Paritätsbits geklappt sein kann<br />

und (b) wir nicht einmal wissen, wie viele Bits in einem transmittierten Fragment �t geklappt<br />

sind.<br />

Verständnisfrage 46 Macht die Matrixinversion trotzdem Sinn?<br />

§ 1062 Wir betrachten jetzt einen symmetrischen Binärkanal, in dem alle Quellvektoren<br />

�s mit gleicher Wahrscheinlichkeit auftreten. Dann identifiziert der optimale Decoder alle<br />

Quellvektoren �s, deren Codierung �t(�s) vom empfangenen Code �r in der geringsten Zahl von<br />

Bits abweicht. Ein nicht sehr eleganter (aber ohne intellektuellen Aufwand begehbarer) Weg<br />

besteht darin, den Abstand von �r zu allen 16 �ti in Tabelle 6.7 zu bestimmen und anschließend<br />

das Codewort mit dem kleinsten Abstand auszuwählen.<br />

§ 1063 Eine graphische Form der Decodierung lässt sich in Anlehnung an die in Abb. 6.22<br />

gezeigte Codierung entwickeln. Dazu tragen wir den empfangenen Code �r in die drei Kreise<br />

in wie in Abb. 6.23(a) gezeigt. Zur Erläuterung des Prinzips nehmen wir jetzt an, dass im<br />

transmittiereten Codes �t = 1000101 das zweite Bit geklappt wurde, so dass �tE = 1100101<br />

empfangen wurde. Diese Sequenz tragen wir in die Kreise ein (Abb. 6.23(b)). In den gestrichelten<br />

Kreisen ist die Parität nicht erhalten. Da wir annehmen, dass möglichst wenige Bits<br />

gekippt sind, müssen wir jetzt ein Verfahren finden, wie wir die Parität wieder herstellen<br />

2. Juli 2008 c○ M.-B. Kallenrode


6.4. KANALCODIERUNG 319<br />

können mit einer minimalen Zahl von zu klappenden Bits. Offenbar liefert Klappen des mit<br />

einem Stern gekennzeichnete Element r2 das gewünschte Resultat.<br />

§ 1064 Dieses Verfahren wird auch als Syndrom Decodierung bezeichnet. Dabei ist das Syndrom<br />

das Muster der Kreise, in denen die Parität verletzt wurde. Dieses Syndrom lässt sich<br />

auch als Vektor schreiben; im Fall von Abb. 6.23(b) ist das Syndrom �z = (1, 1, 0), da in den<br />

ersten beiden Kreisen die Parität verletzt wurde, im dritten jedoch nicht. Die Aufgabe der<br />

Decodierung lässt sich mit Hilfe des Syndroms auch so beschreiben: gibt es in einer gegebenen<br />

Sequenz ein eindeutig zu identifizierendes Bit, dessen Kippen alle Elemente von �z identisch<br />

Null werden lässt? Das geklappte zweite Bit in Abb. 6.23(b) erfüllt diese Anforderung.<br />

§ 1065 Abbildung 6.23(c) und (d) geben zwei weitere Beispiele für ein einzelnes geklapptes<br />

Bit. In Abb. 6.23(c) wurde das erste Paritätsbit t5 gekippt. Damit ist nur in einem Kreis<br />

die Parität verletzt und die einzige Möglichkeit, durch Klappen eines einzigen Bits in allen<br />

drei Kreisen die Parität wieder herzustellen, ist das Klappen von r5. Damit ist der Fehler<br />

korrigiert. In Abb. 6.23(d) wurde das dritte Bit des Quellsignals und damit auch das dritte<br />

Bit des transmittierten Signal geklappt. Dadurch ist die Parität in allen drei Kreisen verletzt.<br />

Dürfen wir nur ein Bit klappen um die Parität in allen drei Kreisen wieder herzustellen, so<br />

muss r3 geklappt werden. Auch hier ist die Korrektur geglückt.<br />

§ 1066 Gehen wir alle möglichen einfachen Bitfehler durch, so lässt sich zu jedem der dabei<br />

entstehenden Syndrome eindeutig angeben, welches Bit (zurück) zu klappen ist:<br />

Syndrom �z 000 001 010 011 100 101 110 111<br />

klappe Bit keins r7 r6 r4 r5 r1 r2 r3<br />

In einem symmetrischen Binärkanal mit geringem Rauschen (kleinem p) klappt der optimale<br />

Decoder also maximal ein Bit.<br />

§ 1067 Funktioniert dieses Verfahren auch bei zwei geklappten Bits? In Abb. 6.23(e) sind die<br />

beiden Bits r3 und r7 geklappt. Als Syndrom ergibt sich dabei das bereits aus Abb. 6.23(b)<br />

bekannte �z = (1, 1, 0). Damit würden wir den gleichen Decodier-Algorithmus anwenden und<br />

r2 klappen (Abb. 6.23(e’)): damit hat unsere Korrektur aus zwei Fehlern drei gemacht. Da<br />

jede Variante von zwei Bitfehlern auf ein aus § 1066 bekanntes Syndrom führt, macht unser<br />

optimaler Decoder daraus ein Signal mit drei Bitfehlern. Damit geht nicht nur die Korrekturfähigkeit<br />

des Codes verloren sondern die Fehlkorrektur sabotiert sogar die Fehlererkennung.<br />

Verständnisfrage 47 Ist das ein großes Problem? Oder gibt es ein Eigenschaften des Übertragungskanals,<br />

die dies zu einem Pseudo- bzw. einem großen Problem machen?<br />

§ 1068 Auch für die Decodierung können wir statt des graphischen Verfahrens eine Matrix-<br />

Schreibweise einführen. dazu zerlegen wir den empfangenen Code in die Quellbits r1r2r3r4<br />

und die Paritätsbits r5r6r7. Zu den Quellbits lassen sich jeweils mit dem Algorithmus aus<br />

§ 1060 die zugehörigen Paritätsbits bestimmen und mit den empfangenen vergleichen: die<br />

Differenz zwischen beiden gibt das Syndrom �z. Die zugehörige Korrektur ist bereits in § 1066<br />

gegeben.<br />

§ 1069 Das Verfahren lässt sich etwas kompakter darstellen, wenn wir die Generator-Matrix<br />

(6.13) in zwei Teile zerlegen:<br />

G T � �<br />

I4<br />

= .<br />

P<br />

Darin ist I4 die 4 × 4-Einheitsmatrix und P eine 3 × 4-Matrix. Mit Hilfe der daraus konstruierten<br />

Paritätsmatrix H = [−P I3] lässt sich das Syndrom bestimmen als �z = H�r. Explizit ist<br />

die Paritätsmatrix gegeben als<br />

⎡<br />

1 1 1 0 1 0<br />

H = ⎣ 0 1 1 1 0 1<br />

⎤<br />

0<br />

0 ⎦ .<br />

1 0 1 1 0 0 1<br />

c○ M.-B. Kallenrode 2. Juli 2008


320 KAPITEL 6. KOMMUNIKATION<br />

Abbildung 6.24:<br />

Fehlererkennung und<br />

-korrektur bei der<br />

Blockcodierung in<br />

Matrixform<br />

Für alle legalen Codeworte �t = G T �s sind alle Elemente von H�t identisch Null. Ein realer empfangener<br />

Vektor �r unterscheided sich vom transmittierten Vektor �t um einen Rauschvektor<br />

�n: �r = G T �s + �n. Syndrom-Decodierung bedeutet, den wahrscheinlichsten Rauschvektor �n zu<br />

finden, der die Bedingung H�n = �z erfüllt. Ein derartiger Algorithmus wird auch als Maximum-<br />

Likelihood Decoder bezeichnet – letztendlich ist es wieder eine Ähnlichkeitsdekodierung.<br />

Verständnisfrage 48 Beim Hamming(7,4) Code werden den vier Bits der Quelle drei Paritätsbits<br />

zugefügt. Diese Kombination ist praktisch für die graphische Darstellung in Abb. 6.22<br />

und 6.23; aber müssen es zwingend drei Paritätsbits sein? Und kann ein Code mit drei<br />

zusätzlichen Bits auch bei einem Code mit drei oder fünf Bits aus der Quelle zumindest für<br />

einen einzelnen Bitfehler eindeutige Decodierbarkeit liefern?<br />

6.4.7 Kanalcodierung: Einfache Blockcodierung in Matrixform<br />

§ 1070 Wir hatten in § 1046 die Einführung eines Paritätsbits zur Fehlererkennung kennen<br />

gelernt. Mit Hilfe von geeignet eingeführten Paritätsbits lässt sich in der Blockcodierung<br />

in Matrixform (Produktcode: Längs- und Querprüfung) außer der Fehlererkennung auch,<br />

zumindest in begrenztem Rahmen, eine Fehlerkorrektur vornehmen. Abbildung 6.24 zeigt<br />

dazu ein Beispiel: Der Nachrichtenstrom wird dabei zu Wörtern gleicher Länge (in diesem<br />

Falle 4 Bits) zusammengefasst, jedem dieser Wörter wird ein Paritätsbit angefügt. Ordnet<br />

man mehrere Wörter zu untereinanderstehenden Blöcken an, so lässt sich zu jeder der so<br />

entstehenden Spalten ebenfalls ein Paritätsbit erzeugen und angeben. Im Gegensatz zum<br />

einfachen Paritätsbit ist hierbei sogar eine Fehlerkorrektur möglich: Würde das eingekreiste<br />

Bit falsch übertragen, so würden sowohl in der zweiten Zeile als auch in der dritten Spalte<br />

die Paritätsbits nicht stimmen. Damit lässt sich nicht nur bestimmen, dass ein Fehler<br />

aufgetreten ist, sondern auch welches Bit das fehlerhafte ist. Also ist auch eine Korrektur<br />

möglich. Vorraussetzung für die Korrektur ist jedoch, dass im ganzen Block nur 1 Bit falsch<br />

übertragen ist, bei mehreren falschen Bits kann zwar (muss aber nicht!) die Fehlererkennung<br />

noch funktionieren, die Korrektur ist jedoch keinesfalls mehr möglich.<br />

6.4.8 Zusammenfassung<br />

§ 1071 Die Codierung von Nachrichten lässt sich in zwei Bereiche unterteilen: Das Ziel der<br />

Quellencodierung ist eine möglichst vollständige Beseitigung der Redundanzen, d.h. die Nachricht<br />

soll in einen (Binär-Code) mit maximaler Effizienz umgewandelt werden. Der Quellencodierung<br />

schließt sich die Kanalcodierung an, die dem Code gezielt Redundanzen zugefügt,<br />

um eine Fehlererkennung und -korrektur zu ermöglichen. Dadurch wird aus jeder Nachricht<br />

ein Code erzeugt, der aus einem Nachrichten- und einem Prüfteil besteht. Die häufigste Form<br />

der Kanalcodierung ist die Verwendung von Paritätsbits.<br />

6.5 Anhang: Technische Anmerkungen<br />

§ 1072 Dieser Abschnitt enthält einen kurzen Überblick über einige technische Probleme,<br />

die bei der Kommunikation mit bzw. über Satelliten auftreten können. Diese Auswahl ist<br />

keinesfalls repräsentativ sondern hat das Ziel, einen kleinen Einblick zu geben.<br />

2. Juli 2008 c○ M.-B. Kallenrode


6.5. ANHANG: TECHNISCHE ANMERKUNGEN 321<br />

6.5.1 Überblick<br />

§ 1073 Die technischen Probleme bei der Kommunikation mit Raumfahrzeugen sind wesentlich<br />

größer als die Probleme bei der passiven Datenübertragung (Telefon, Fernsehen).<br />

Die wichtigsten Probleme sind:<br />

(A) sehr große Abstände des Senders von der Erde führen zu einem geringen Signal-Rausch-<br />

Verhältnis. Zur Illustration: interplanetare Raumsonden wie Voyager und Pioneer befinden<br />

sich in Abständen von einigen zehn AU (entsprechend etlichen Milliarden Kilometern)<br />

von der Erde. Dadurch ist die Signalleistung extrem gering, d.h. bordseitig muss<br />

viel Leistung pro Bit investiert werden. Kann die Leistung bei zunehmendem Abstand<br />

nicht erhöht werden, muss entsprechend die Bitrate verkleinert werden, d.h. es kann (bei<br />

vorhandenem Zwischenspeicher) u.U. sehr lange dauern, bis die volle Information eines<br />

Bildes zur Erde übertragen ist.<br />

(B) Das schlechte Signal-Rausch-Verhältnis ist aus Gewichts- und Leistungsgründen auch<br />

bestimmt durch die Begrenzung der bordseitigen Sendeleistung sowie der bordseitigen<br />

Antennengröße. Die sehr kleinen Antennen sind auf Satellitenseite auch für den Empfang<br />

von Steuerbefehlen ein Problem, allerdings kann hier durch eine Erhöhung der Sendeleistung<br />

auf der Erde gegen gesteuert werden.<br />

(C) Die Leistungsbegrenzung führt sowohl bord- als auch bodenseitig auf die Notwendigkeit<br />

von Richtantennen.<br />

(D) Die Begrenzung der Sendeleistung erzwingt eine optimale Nutzung der zur Verfügung<br />

stehenden begrenzten Übertragungsrate (Bitrate). Daher besteht die Notwendigkeit zur<br />

Datenkompression, d.h. Entfernung von Redundanz aus den Daten.<br />

(E) Das schlechte Signal-Rausch-Verhältnis ebenso wie die Störung des Übertragungskanals<br />

durch meteorologische oder ionosphärische Ereignisse bergen das Risiko von Übertragungsfehlern.<br />

Daher ist die Möglichkeit der Fehlererkennung und -beseitigung bei der<br />

Kommunikation mit Satelliten von Bedeutung.<br />

(F) Die Satelliten sind gegenüber der Erde als Ganzem ebenso wie gegenüber den Empfangsstationen<br />

auf der Erde in Bewegung. Dadurch kann es sich ergeben, dass sich nicht<br />

zu allen Zeiten eine terrestrische Empfangsstation im Blickfeld des Satelliten befindet.<br />

Dadurch ergibt sich die Notwendigkeit der Speicherung von Daten, früher in der Regel<br />

durch ein Magnetband. 10<br />

(G) Beim Versenden von Telekommandos (d.h. Anweisungen an den Satelliten) ist insbesondere<br />

bei den planetaren Missionen die lange Laufzeit des Signals zu berücksichtigen.<br />

So erreicht der Befehl eine Raumsonde am Jupiter erst nach ca. 45 min, eine am Neptun<br />

dagegen erst nach 4 Stunden. Die Rückmeldung der Raumsonde ist entsprechend<br />

genauso lange unterwegs, d.h. alle Manöver müssen sehr sorgfältig im voraus geplant<br />

werden. Kommandos sind gerade in der Nähe der Planeten wichtig, z.B. zur Kurskorrektur<br />

für ein geplantes Swingby-Manöver oder zum genaueren Ausrichten der Kameras<br />

bei Planeten- oder Mondaufnahmen, aber auch zum Abschalten einzelner Instrumente,<br />

da sich in den Strahlungsgürteln der Planeten so große Teilchenflüsse ergeben können,<br />

dass es bei eingeschalteten Instrumenten zu einer Beschädigung von Sensoren oder anderen<br />

Instrumentbestandteilen kommen kann. Ist also ein Manöverbedarf erkannt, so<br />

dauert es erst einmal die einfache Signallaufzeit, bis der Satellit diesen Befehl erhält.<br />

Die Rückmeldung, ob dieser Befehl ausgeführt werden konnte oder nicht, kommt dann<br />

erst Stunden, nachdem der Befehl gegeben wurde. Andererseits haben z.B. die Voyager-<br />

Sonden Geschwindigkeiten, die im Bereich von Hunderttausend km/h liegen, d.h. falls<br />

der Befehl zu einer Kurskorrektur gegeben wurde, muss er schon im voraus sehr sorgfältig<br />

geplant werden, spontane Reaktionen auf kleine Fehler sind aufgrund der langen Signallaufzeiten<br />

nachher nicht mehr möglich (das ist ungefähr so, als würde man sich hier in<br />

10 Hierbei handelt es sich übrigens um ein interessantes technisches Problem, da das Einschalten eines Magnetbandes<br />

aufgrund der Drehimpulserhaltung auf eine Rotation des Satelliten in entgegengesetzter Richtung<br />

führt. Dieser Effekt ist aber aufgrund der genau ausgerichteten Instrumente und Antennen unerwünscht und<br />

daher zu vermeiden.<br />

c○ M.-B. Kallenrode 2. Juli 2008


322 KAPITEL 6. KOMMUNIKATION<br />

Abbildung 6.25: Antennengewinn bei<br />

Bündelung [95]<br />

ein Auto setzen und schon beim Starten wissen müssen, wie man in München das Einparkmanöver<br />

genau durchzuführen hat). Klingholz [131] beschreibt diese Probleme recht<br />

anschaulich.<br />

Diese Auflistung enthält die wichtigsten Probleme, wie sie bei der Kommunikation mit Satelliten<br />

bzw. insbesondere mit Raumsonden im interplanetaren Medium auftreten. Für einige<br />

der hier angesprochenen Probleme soll ein Lösungsansatz skizziert werden.<br />

6.5.2 Lösungsansätze<br />

Richtantennen<br />

§ 1074 Wir hatten das geringe Signal-Rausch-Verhältnis ebenso wie die geringe Sendeleistung<br />

als Motivation für die Verwendung von Richtantennen angesprochen. Während die Verwendung<br />

von Richtantennen bei interplanetaren Missionen sofort einleuchtet, ist sie aber<br />

bereits bei den vergleichsweise geringen Abständen der geostationären Kommunikationssatelliten<br />

unerlässlich. Würden wir in diesem geringen Abstand einen Kugelstrahler als Sendeantenne<br />

verwenden, so würde bereits der größte Teil der Leistung verlorengehen (oberer Teil in<br />

Abb. 6.25). Daher versucht man, die Antennenleistung in einen schmalen Kegel zu bündeln,<br />

der gerade den gesamten vom Satelliten sichtbaren Bereich der Erdoberfläche ausleuchtet<br />

(Mitte und Unten). Ist der Satellit jedoch spinstabilisiert, so wird aufgrund der Rotation<br />

des Satelliten immer noch ein großer Teil der Leistung sinnlos in den Raum abgestrahlt. Erst<br />

wenn man die Antenne entsprechend entgegengesetzt zum Satelliten rotieren lässt (entdrallte<br />

Antenne), wird immer nur ein schmaler Kegelausschnitt auf die Erdoberfläche gerichtet und<br />

somit bei fester Senderleistung die maximale Signalleistung beim Empfänger erreicht.<br />

Leistungsbilanz<br />

§ 1075 Der wichtigste Parameter zur Beschreibung des Verhältnisses zwischen eingesetzter<br />

und empfangener Leistung ist die Raumdämpfung (space loss). Die Energiebilanz bei der<br />

Kommunikation mit Raumsonden hängt dabei stark von der Bündelung der Antennen sowohl<br />

auf dem Raumfahrzeug als auch bei der Bodenstation ab. Die Bündelung kann durch den<br />

Antennengewinn G beschrieben werden. Dieser wird für eine bestimmte Richtung definiert als<br />

das Verhältnis aus dem tatsächlich in diese Richtung emittierten Energiefluss zu dem sich bei<br />

der isotropen Emission einer ungebündelten Antenne ergebenden Energiefluss. Der maximale<br />

Antennengewinn ergibt sich normalerweise entlang der Symmetrieachse der Antenne, so dass<br />

2. Juli 2008 c○ M.-B. Kallenrode


6.5. ANHANG: TECHNISCHE ANMERKUNGEN 323<br />

der Antennengewinn in der Regel entlang dieser Richtung bestimmt wird. In einem Abstand<br />

d von der Antenne erzeugt eine emittierte Leistung P dann einen Energiefluss<br />

Φ =<br />

P · G<br />

.<br />

4πd2 Ingenieure messen den Gewinn (ebenso wie Verluste) in einer logarithmischen Skala<br />

g = 10 · log 10 G<br />

mit g in Dezibel (dB). Dabei entspricht 1dB einem Antennengewinn G von 1.25.<br />

§ 1076 Um einen hohen Antennengewinn zu erreichen, werden Parabolspiegel benutzt mit<br />

einem Oszillator im Brennpunkt. Könnte man diesen Oszillator als eine Punktquelle mit verschwindend<br />

kleiner Wellenlänge bauen, so würde sich ein exakt paralleler Strahl ergeben mit<br />

einem unendlichen Antennengewinn. Unter realen Verhältnisses ergibt sich jedoch eine Aufweitung<br />

des Antennenstrahls, die einen Winkel einnimmt, der ungefähr durch das Verhältnis<br />

von Wellenlänge λ und Durchmesser der Antenne gegeben ist. Der Raumwinkel, in den die<br />

Strahlung emittiert wird, ist dann von der Größenordnung des Verhältnisses λ 2 zu Fläche A<br />

der Antenne. Der Antennengewinn (4π multipliziert mit dem Kehrwert des Raumwinkels)<br />

kann dann geschrieben werden als<br />

G = 4πAeff<br />

λ 2<br />

.<br />

Für einen perfekten Parabolspiegel wäre die effektive Fläche Aeff gleich der Fläche A der<br />

Antenne. In der Praxis kann die effektive Fläche bis zu 0.8 oder 0.9A erreichen. Mit sehr<br />

großen Antennen (die Teleskope des Deep Space Network DSN haben Durchmesser bis zu<br />

70 m) können im Mikrowellenbereich dann Antennengwinne von 60 bis 80 dB erreicht werden,<br />

entsprechend Winkeln von 0.001 bis 0.0001 rads. Diese hohen Antennengwinne erfordern<br />

umgekehrt aber eine extrem genaue Ausrichtung der Antennen!<br />

§ 1077 Die effektive Fläche Aeff der Antenne ist gleichzeitig auch deren Querschnitt im<br />

Empfangsmodus. An Bord des Satelliten würde dann bei einem Telekommando eine Leistung<br />

P ′ = P GA′ eff<br />

4πd 2<br />

(6.14)<br />

empfangen werden, wobei das Hochkomma Größen bezeichnet, die mit dem Satelliten zu<br />

tun haben. Wenn wir mit G ′ den Gewinn des Empfängers beschreiben, so lässt sich (6.14)<br />

umschreiben zu<br />

P ′ = P GG′ λ 2<br />

(4πd) 2 = P GG′ L .<br />

Darin ist die Raumdämpfung L = (λ/4πd) 2 ein Maß für den Verlust, der sich alleine durch<br />

die geometrische Aufweitung des Antennenstrahls während seiner Ausbreitung ergibt.<br />

§ 1078 Üblicherweise stellt man diese Energiebilanz logarithmisch dar:<br />

p = 10 · log 10(P/1mW ) .<br />

Dann lässt sich die Leistungsverstärkung in dBm (dB bezogen auf mW) im Bezug auf eine<br />

nominelle Leistung von 1 mW angeben als<br />

p ′ = p + g + g ′ + ℓ .<br />

Darin ist die logarithmische Raumdämpfung ℓ negativ. Zusätzliche Verluste durch atmosphärische<br />

Streuung und ohmsche Verluste in Sender und Empfänger sind in dieser einfachen<br />

Betrachtung nicht berücksichtigt.<br />

c○ M.-B. Kallenrode 2. Juli 2008


324 KAPITEL 6. KOMMUNIKATION<br />

Abbildung 6.26: Atmosphärische<br />

Dämpfung und Regendämpfung in<br />

Abhängigkeit von der Frequenz (Dodel<br />

und Baumgart, 1986, in [190])<br />

Seems it never rains in southern california<br />

§ 1079 Auf seinem letzten Stückchen zwischen Raumsonde und Satellit hat das Funksignal<br />

noch die untere Atmosphäre (Troposphäre, Wetterschicht) zu durchqueren. Diese verändert<br />

das Signal durch<br />

• atmosphärische Dämpfung: diese wird durch verschiedene Moleküle bewirkt, im wesentlichen<br />

jedoch Wasserdampf und Sauerstoff. Die atmosphärische Dämpfung hängt vom<br />

Wasserdampfgehalt der Atmosphäre ab und nimmt für unterschiedliche Frequenzen unterschiedliche<br />

Werte an (vgl. Abb. 6.26).<br />

• Regendämpfung: Der Einfluss der Regendämpfung steigt mit zunehmender Frequenz an<br />

und steigt ebenfalls mit der Regenrate bzw. Tropfendichte. Die Regendämpfung steigt<br />

nahezu linear mit der Frequenz an (vgl. Abb. 6.26). Es ist dabei zwischen konvektivem<br />

Regen, der kräftig und lokal begrenzt ist, und Restregen mit niedriger Regenrate aber<br />

großer räumlicher Ausdehnung zu unterscheiden.<br />

• Zusätzliches Rauschen durch Drehung der Polarisationsebene in Folge von Niederschlägen.<br />

Extrem starke Regenfälle und insbesondere Gewitter können, allerdings in der Regel nur<br />

kurzzeitig und lokal begrenzt, zu einem vollständigen Ausfall von Satellitenverbindungen<br />

führen. Selbst wenn es nicht zum vollständigen Zusammenbruch der Verbindung kommt,<br />

können die Störungen aber so groß werden, dass die Fehlerrate Werte erreicht, bei denen eine<br />

Korrektur nicht mehr möglich ist.<br />

6.5.3 Kommunikation über Satelliten<br />

§ 1080 Alle bisher angesprochenen Problemem gelten natürlich auch für die Kommunikationssatelliten<br />

in erdnahen Bahnen. Um eine ungefähre Vorstellung über Kommunikationssatelliten<br />

zu vermitteln, zeigt Abb. 6.27 den Aufbau und die Ausleuchtungszonen von Intelsat<br />

V. Aus dem Aufbau des Satelliten kann man erkennen, dass die Kommunikation auf Wellenlängen<br />

im Bereich einiger GHz über verschiedene Antennen erfolgt. Eine dieser Antennen<br />

leuchtet praktisch die gesamte sichtbare Fläche der Erdkugel aus, die anderen Antennen<br />

dienen jeweils der Ausleuchtung der den Atlantik im Osten bzw. Westen begrenzenden Kontinente<br />

insgesamt, der kontinentalen Bereiche auf der Nordhalbkugel, sowie einer eher lokalen<br />

Verbindung zwischen Mitteleuropa und der mittleren Ostküste der USA.<br />

2. Juli 2008 c○ M.-B. Kallenrode


6.5. ANHANG: TECHNISCHE ANMERKUNGEN 325<br />

Abbildung 6.27: Ausleuchtungszonen von Intelsat V, über dem Atlantik stationiert (links)<br />

sowie Aufbau des Satelliten (rechts; [95])<br />

Literatur<br />

§ 1081 Eine ausgezeichnete und aktuelle Einführung in die Grundlagen der Kommunikationstechnik<br />

geben Proakis und Salehi [188]. Das Buch betrachtet zwar nicht speziell die<br />

Kommunikation zwischen Satellit und Bodenstation, da jedoch Kommunikation heute zu einem<br />

großen Teil über Satelliten erfolgt, sind die dort diskutierten Probleme und Verfahren<br />

für die Kommunikation mit Satelliten ebenso anwendbar.<br />

§ 1082 Sehr gut ist die Darstellung der informationstheoretischen Grundbegriffe in Shannon<br />

und Weaver [224] oder Fano [55]. Die Darstellungen in v. Cube [247] und insbesondere<br />

Steinbuch [228, 229] sind zwar kürzer, enthalten aber neben den Grundlagen der Informationstheorie<br />

sehr gute und informative Betrachtungen zur Informationsverarbeitung durch den<br />

Menschen. Als moderne Alternative ist MacKay[158] zu empfehlen.<br />

§ 1083 Als gute (und preisgünstige) Literatur zur Codierung ist zu empfehlen Grams [78]. In<br />

dem Buch werden auch weitere Codierungsverfahren und kompliziertere Annahmen über die<br />

Eigenschaften des Übertragungskanals diskutiert. Grundlagen der Datenkompression durch<br />

Redundanzreduktion werden auch in Wayner [249] und Witten et al. [255] diskutiert.<br />

§ 1084 Technische Aspekte zur Kommunikation mit Satelliten und über Kommunikationssatelliten<br />

werden behandelt in Bertotti und Farinella [17], Hartl [90], Herter und Rupp [95],<br />

Quernheim [190] und Renner et al. [200]. Technische Aspekte der Signalübertragung allgemein<br />

werden diskutiert in Herter und Lörcher [96] und Lüke [157].<br />

Fragen<br />

Frage 58 Wie kann man einen Informationskanal formal beschreiben?<br />

Frage 59 Geben Sie ein einfaches Modell für einen Informationskanal.<br />

Frage 60 Was ist Information? Geben Sie Definitionen und Beispiele.<br />

Frage 61 Wie misst man Information?<br />

Frage 62 Wie bestimmt man den Informationsgehalt eines einzelnen Zeichens, wie den mittleren<br />

Informationsgehalt eines Zeichensatzes?<br />

c○ M.-B. Kallenrode 2. Juli 2008


326 KAPITEL 6. KOMMUNIKATION<br />

Frage 63 Erläutern Sie die Information, die in einem Versuch mit zwei möglichen Ausgängen<br />

stecken kann?<br />

Frage 64 Was ist die Shannon’sche Funktion?<br />

Frage 65 Was versteht man unter Redundanz? Wie kann man sie formal definieren.<br />

Frage 66 Welche Bedeutung hat Redundanz in der normalen Kommunikation?<br />

Frage 67 Welche Aufgabe hat die Quellenkodierung?<br />

Frage 68 Nennen Sie Beispiele für Quellenkodierung.<br />

Frage 69 Vergleichen Sie unter informationstheoretischen Gesichtpunkten die Codierung<br />

des Alphabets im ASCII- und im Morse-Code.<br />

Frage 70 Was versteht man unter Kanalcodierung? Welche Ziele werden mit der Kanalcodierung<br />

verfolgt?<br />

Frage 71 Erläutern Sie einfache Verfahren zur Fehlererkennung.<br />

Frage 72 Welche Voraussetzungen muss ein Codierungsverfahren erfüllen, um nicht nur die<br />

Fehlererkennung sondern auch die Korrektur zu ermöglichen?<br />

Frage 73 Was versteht man unter einem Präfix-freien Code?<br />

Frage 74 Erläutern Sie den Lempel–Ziv-Algorithmus.<br />

Aufgaben<br />

Aufgabe 26 Zum Beispiel in Abb. 6.4. Bestimmen Sie den Informationsgehalt der einzelnen<br />

Farben sowie den mittleren Informationsgehalt (Entropie).<br />

Aufgabe 27 Die beiden Binärzeichen mögen mit den Wahrscheinlichkeiten 1/6 bzw. 5/6<br />

auftreten. Wie groß ist die Entropie H? Beachten Sie, dass 1 Bit jetzt nicht mehr den Informationsgehalt<br />

1 bit hat! Berechnen Sie die Anzahl N12 aller möglichen Folgen aus 12<br />

Binärzeichen mit genau 2 Einsen. Die relativen Häufigkeiten der Zeichen entsprechen in dieser<br />

Folge genau den Wahrscheinlichkeiten der Zeichen. Berechnen Sie analog dazu N30 für<br />

Folgen aus 30 Zeichen mit genau 5 Einsen und N60 für Folgen der Länge 60 mit genau 10<br />

Einsen. Wie verhalten sich die Werte ld(Nk)/k zur Entropie H?<br />

Aufgabe 28 Zeichnen Sie den Codier-Baum für die nicht decodierbare Variante von Code 2<br />

in Tabelle 6.3.<br />

Aufgabe 29 Geben Sie einen entzifferbaren Code ohne Präfix-Eigenschaften an. Zeichnen<br />

Sie den Codier-Baum dazu.<br />

Aufgabe 30 Die Zeichen a,b,c,d,e,f und g treten mit den Wahrscheinlichkeiten 0.3, 0.2, 0.2,<br />

0.1, 0.1, 0.05 und 0.05 auf. Bilden Sie die Codes analog zu denen in Tabelle 8.2 und berechnen<br />

Sie die relative Redundanz.<br />

Aufgabe 31 Codieren Sie den Satz ‘Quellencodierung ist Redundanzreduktion’ mit (a) einer<br />

Huffman-Codierung, die das Auftreten der einzelnen Buchstaben in der deutschen Sprache<br />

berücksichtigt (vgl. Tabelle 6.1), (b) einem Lempel-Ziv-Algorithmus angewandt auf den in<br />

ASCII (8-bit) codierten Text.<br />

2. Juli 2008 c○ M.-B. Kallenrode


Kapitel 7<br />

Datenaufbereitung<br />

Photo manipulation is as old as photography itself; the idea of a<br />

photo having inherent verisimilitude is a social construct. Photo<br />

manipulation has been regularly used to deceive or persuade<br />

viewers, or for improved story-telling and self-expression. As<br />

early as the American Civil War, photographs were published<br />

as engravings based on more than one negative.<br />

Wikipedia, Photo Manipulation [742]<br />

§ 1085 Datenaufbereitung von Satellitendaten ist lange Zeit im wesentlichen digitale, teilweise<br />

auch analoge Bildbearbeitung gewesen. Heutzutage sind viele Satelliteninstrumente zwar<br />

keine bildgebenden Instrumente mehr, die Bildbearbeitung nimmt jedoch auch hier einen<br />

großen Teil der Datenaufbereitung ein, da (a) die auch die Daten primär nicht bildgebender<br />

Verfahren bildhaft dargestellt werden, (b) die Darstellung in Bildern häufig Fehlererkennung<br />

und -korrektur erlauben, und (c) bei der automatischen Klassifikation nur der Übergang vom<br />

Pixel zum Voxel (Volumenelement) gemacht werden muss, ansonsten aber die gleichen Regeln<br />

gelten. Daher werde ich mich in diesem Abschnitt auf die Bildbearbeitung beschränken.<br />

Letztendlich lernen Sie dabei Beispiele für die Art von Algorithmen kennen, die jedes mehr<br />

oder weniger gute Bildverarbeitungsprogramm zur Verfügung stellt.<br />

§ 1086 Die Bearbeitung von Satellitendaten am Boden erfolgt für ein einzelnen klassisches<br />

Imaging-Instrument (nur Nadir Blickrichtung) unter vier wesentlichen Kriterien:<br />

1. Korrektur fehlender oder verrauschter Bildpunkte oder -zeilen, d.h. die Identifikation<br />

dieser Pixel und ihre anschließende Ersetzung durch einen sinnvollen Wert;<br />

2. Verfahren zur Bildverbesserung wie Kantenanreicherung oder Kontrasterhöhung, d.h.<br />

Verfahren zur Verbesserung der Erkennung von Strukturen;<br />

3. Verfahren zur automatischen Klassifikation von Bildmerkmalen, d.h. die automatische<br />

Erzeugung von Nutzer interessierenden Daten;<br />

4. Verfahren zur effizienten und möglichst Verlust freien Speicherung der Daten, d.h. Datenkompression<br />

nach Regeln wie bereits bei der Quellencodierung in Abschn. 6.3 diskutiert.<br />

Bei modernen Instrumenten kommen noch weitere Aspekte hinzu:<br />

• da moderne Instrumente auch in Schrägsicht blicken können, muss jedes Bild erst einmal<br />

auf eine einheitliche Perspektive gebracht werden (Orthorektifikation, das Verfahren ist<br />

bereits von Luftbildern bekannt und wird z.B. in [104] beschrieben).<br />

327


328 KAPITEL 7. DATENAUFBEREITUNG<br />

• da die Aufnahmen als kontinuierlicher Datenstrom erzeugt und transmittiert werden,<br />

müssen sie auf interessierende Formate zugeschnitten und an ein geographisches Koordinatensystem<br />

angepasst werden. Zumindest das letztere Problem ist ebenfalls bereits von<br />

Luftbildaufnahmen bekannt und wird z.B. bei [104] beschrieben.<br />

• zur Verbesserung des Bodenauflösungsvermögens werden bereits seit LandSat 3 Daten von<br />

verschiedenen Instrumenten kombiniert; in der Regel ein panchromatisches Instrument mit<br />

hoher Auflösung und ein multispektrales mit geringer Auflösung. Diese Kombination setzt<br />

die beiden vorher genannten Schritte voraus.<br />

• zur Untersuchung von zeitlichen Veränderungen werden die Daten eines oder mehrerer Instrumente<br />

zu verschiedenen Zeiten untersucht. Diese cospatiale Analyse erfordert komplexe<br />

Algorithmen, [148, 149] erläutert dies an einem Beispiel.<br />

§ 1087 Einen weiteren wichtigen Aspekt der Bildverarbeitung werden wir nicht betrachten:<br />

die geometrische Korrektur der Abbildungsfehler. So sind die vom Scanner gelieferten Streifen<br />

nicht exakt senkrecht zur Flugrichtung sondern auf Grund der Eigenbewegung des Satelliten<br />

leicht gegen die Senkrechte geneigt. Auch sind die Pixel zu den Ende der Scanbahn durch<br />

die schräge Blickrichtung gegenüber denen direkt auf der Bodenspur verzerrt. 1 Beide Effekte<br />

sind rein geometrisch, treten in jeder Szene auf und können durch Projektionen korrigiert<br />

werden, vgl. z.B. [41, 43, 111, 209].<br />

Verständnisfrage 49 Sind die verschiedenen Bearbeitungsformen kommutativ oder nicht.<br />

Oder würden Sie inhaltlich erst<br />

7.1 Korrekturverfahren<br />

§ 1088 Korrekturverfahren zerfallen, wie bereits in Abschn. 6.4 diskutiert, in zwei Teile: die<br />

Fehlererkennung und die eigentliche Fehlerkorrektur. Einige Fehler sind einfach zu erkennen,<br />

insbesondere Pixel mit dem Wert 0 oder gar fehlende oder durch einen Füllwert ersetzte Zeilen.<br />

Andere Fehler, insbesondere verrauschte Pixel, dagegen sind nicht unbedingt so einfach<br />

zu erkennen.<br />

§ 1089 Eine echte Korrektur der so identifizierten fehlerhaften Pixel ist allerdings in der Regel<br />

nicht möglich: im Zusammenhang mit der Kanalcodierung haben wir bereits festgestellt,<br />

dass eine Codierung, die eine Fehlerkorrektur erlaubt, das zu übertragende Datenvolumen<br />

deutlich erhöht. In der Bild gebenden Fernerkundung geht man daher einen anderen Weg:<br />

fehlerhafte Pixel werden durch den Mittelwert der sie umgebenden Pixel ersetzt, da man davon<br />

ausgeht, dass zwischen benachbarten Bildpunkten ein gewisser Zusammenhang besteht<br />

(Kontext bezogene Korrektur).<br />

§ 1090 Die folgenden Korrekturverfahren finden keine Entsprechungen in modernen Bildverarbeitungsprogrammen.<br />

Allerdings lässt sich insbesondere am ersten Verfahren, der Korrektur<br />

fehlender Pixel, die Idee des Kernels gut einführen. Dieser ist die Grundlage für viele<br />

weiteren Manipulationsverfahren.<br />

1 Systematische Verzerrungen entstehen durch das Aufnahmeverfahren, als Beispiel sei hier der LandSat<br />

TM betrachtet. Der Zeitunterschied zwischen der Aufnahme des ersten und letzten Bildelements einer Zeilenreihe<br />

beträgt 60 ms, der Unterschied zwischen der ersten und letzten Zeile einer Szene 25 s. Da sich der<br />

Satellit in diesen Zeiten bewegt (mit einer Geschwindigkeit von ungefähr 7 bis 8 km/s bzw. 480 m während<br />

einer Zeilenabtastung), wird kein exakt rechtwinkliges Raster der Erdoberfläche abgetastet, wie es uns in<br />

der Abbildung vorgespiegelt wird. Durch die Erdkrümmung und die panoramische Abtastung quer zur Flugrichtung<br />

erhält das Bild außerdem einen von der Bildmitte zum rechten und linken Rand hin kontinuierlich<br />

abnehmenden Maßstab. Diese Fehler sind, da sie systematisch sind, rechnerisch relativ einfach zu erfassen<br />

und zu korrigieren. Unsystematische Fehler können nur mit Hilfe von vorher festgelegten Referenzpunkten<br />

aus der Aufnahme herauskorrigiert werden.<br />

2. Juli 2008 c○ M.-B. Kallenrode


7.1. KORREKTURVERFAHREN 329<br />

Abbildung 7.1: Korrektur fehlender Pixel: in der oberen Reihe links das vollständige Bild,<br />

in der Mitte ein Ausschnitt und links ein Bild, in dem einige Pixel nach Zufallsprinzip entfernt<br />

wurden. Die Zeilen darunter geben jeweils links ein korrigiertes Bild, in der Mitte die<br />

Abweichung zwischen korrigiertem Bild und Original und rechts die um einen Faktor 100<br />

überhöht dargestellte Abweichung für einen 3 × 3-Kernel in der mittleren Zeile und für einen<br />

5 × 5-Kernel in der unteren<br />

7.1.1 Fehlende Pixel<br />

§ 1091 Als erstes wollen wir den Fall betrachten, dass für einzelne Bildpunkte der Intensitätswert<br />

nicht oder als Null übertragen wurde. Befinden sich diese Pixel nicht gerade in<br />

einer sehr dunklen Szene, so sind sie auch visuelle leicht zu identifizieren.<br />

Verständnisfrage 50 Und in einer recht dunklen Szene? Ist es schlimm, wenn dort das<br />

Fehlen eines Pixels übersehen wird?<br />

§ 1092 Fehlerhafte Pixel haben verschiedenen Ursachen. Meistens entstehen sie durch Übertragungsfehler<br />

und sind damit unabhängig von der Szene und vom Kanal. Fehlerhafte Pixel<br />

können auch durch CCD-Fehler entstehen: diese sind leicht zu erkennen, da sie in allen<br />

Kanälen an gleicher Stelle auftreten.<br />

§ 1093 Abbildung 7.1 gibt ein Beispiel für in einem Bild fehlende Pixel (rechts oben). Die<br />

Fehlstellen wurden aus dem Original (Mitte oben) durch Nullsetzen zufällig ausgewählter<br />

Pixel erzeugt. Für die Korrektur derartiger einzelner Fehlstellen ersetzt man den fehlenden<br />

Wert durch den Mittelwert der umgebenden Pixel. Für die Bestimmung dieses Mittelwerts<br />

kann man einen 3 × 3-Kernel verwenden oder einen 5 × 5-Kernel, vgl. Abb. 7.2.<br />

§ 1094 Bei einem 3 × 3-Kernel werden alle direkt benachbarten Bildpunkte berücksichtigt,<br />

vgl. linken Teil von Abb. 7.2. Ist p(i, j) der fehlerhafte Bildpunkt, so wird er ersetzt durch<br />

den Mittelwert<br />

p(i, j) = 1<br />

8<br />

⎛<br />

⎝<br />

�j+1<br />

�i+1<br />

j ′ =j−1 i ′ =i−1<br />

p(i ′ , j ′ ) − p(i, j)<br />

c○ M.-B. Kallenrode 2. Juli 2008<br />

⎞<br />

⎠ .


330 KAPITEL 7. DATENAUFBEREITUNG<br />

Abbildung 7.2: Kernel verschiedener<br />

Größe zur Korrektur fehlerhafter<br />

Pixel<br />

Im Beispiel in Abb. 7.2 erhalten wir damit p = 42.4.<br />

§ 1095 Mit diesem Verfahren können keine Pixel korrigiert werden, die sich am Rand einer<br />

Szene befinden, da diese nicht von der notwendigen Zahl anderer Pixel umgeben sind –<br />

allerdings kann man ein modifiziertes Korrekturverfahren verwenden, bei dem der 3×3 Kernel<br />

durch ein 2 × 3- bis 3 × 2-Kernel ersetzt wird. Der Nachteil dieses Ersatzverfahrens ist die<br />

geringe Anzahl von verwendeten Gitterpunkten: statistische Fehler werden nicht ausgemittelt<br />

und die Korrektur kann durch einen Ausreißer dominiert werden.<br />

§ 1096 In der mittleren Zeile von Abb. 7.1 ist ein 3×3-Kernel zur Korrektur der fehlerhaften<br />

Pixel verwendet. Das Bild links ist das korrigierte Bild, in der Mitte ist die Differenz zwischen<br />

korrigiertem Bild und Original gezeigt, rechts die um einen Faktor 100 überhöhte Differenz.<br />

Die Korrektur liefert bei rein visueller Inspektion bereits recht gute Ergebnisse (insbesondere<br />

lenken die fehlenden Pixel nicht mehr die Aufmerksamkeit auf sich), das Differenzbild zeigt<br />

nur marginale Abweichungen zum Original.<br />

§ 1097 Eine Erweiterung des Verfahrens ist die Verwendung eines 5 × 5-Kernels, vgl. rechtes<br />

Teilbild in Abb. 7.2. Auch hier wird der fehlende Pixel durch den Mittelwert der umgebenden<br />

Pixel ersetzt:<br />

p(i, j) = 1<br />

24<br />

⎛<br />

⎝<br />

�j+2<br />

�i+2<br />

j ′ =j−2 i ′ =i−2<br />

p(i ′ , j ′ ) − p(i, j)<br />

In diesem Beispiel beträgt das Ergebnis p = 43.0.<br />

§ 1098 Die Anwendung auf die Daten ist in der unteren Zeile von Abb. 7.1 gezeigt. Rein<br />

optisch bringt das Verfahren gegenüber dem kleineren Kernel keine Verbesserung, lediglich<br />

im hundertfach überhöhten Differenzbild erkennt man, dass einige weitere Pixel keine Abweichung<br />

vom Original mehr zeigen.<br />

§ 1099 Beide Kernel haben ihre Vor- und Nachteile: bei stark verrauschten Daten aus einer<br />

relativ homogenen Szene ist der größere Kernel geeigneter, da er auf Grund der Mittelung<br />

über die große Pixelzahl das Rauschen besser unterdrückt. Allerdings hat der große Kernel<br />

den Nachteil einer höheren Rechenzeit und den Verlust einer weiteren Pixelreihe am Rand,<br />

die nicht mehr korrigierbar ist. Außerdem ist ein großer Kernel in einer stark variablen Szene<br />

und insbesondere in der Nähe einer Grenze ungünstig, da Pixel von verschiedenen Objekten<br />

gemittelt werden.<br />

§ 1100 Die Korrektur fehlender Pixel sollte daher mit Vorsicht vorgenommen werden. Um ein<br />

hübsches Bild ohne störende Sommersprossen zu zeigen, ist die Korrektur sicherlich sinnvoll.<br />

Soll das Bild aber als Grundlage für eine automatische Klassifikation verwendet werden, so<br />

ist es besser, den entsprechenden Pixel ganz wegzulassen.<br />

7.1.2 Periodisch fehlende Streifen<br />

§ 1101 Während fehlende Pixel meistens durch stochastische Einflüsse entstehen, sind periodisch<br />

fehlende Streifen in der Regel ein instrumentelles Problem. Für ihre Korrektur werden<br />

2. Juli 2008 c○ M.-B. Kallenrode<br />

⎞<br />

⎠ .


7.1. KORREKTURVERFAHREN 331<br />

Abbildung 7.3: Fehlende Zeilen und deren Korrektur. Aufbau wie Abb. 7.1, das Differenzbild<br />

jedoch nur um einen Faktor 10 erhöht<br />

ebenfalls die Kernel aus Abb. 7.2 verwendet, allerdings werden jetzt natürlich die Bildpunkte<br />

in der fehlenden Zeile nicht mehr berücksichtigt. Für den 3 × 3-Kernel ergibt sich damit<br />

p(i, j) = 1<br />

⎛<br />

⎝<br />

6<br />

�j+1<br />

p(i − 1, j ′ ) +<br />

�j+1<br />

p(i + 1, j ′ ⎞<br />

) ⎠ ,<br />

für den 5 × 5-Kernel<br />

p(i, j) = 1<br />

⎛<br />

⎝<br />

20<br />

j ′ =j−1<br />

�j+2<br />

�i+2<br />

j ′ =j−2 i ′ =i−2<br />

j ′ =j−1<br />

p(i ′ , j ′ ) −<br />

�j+2<br />

j ′ =j−2<br />

⎞<br />

p(i, j ′ ) ⎠ .<br />

§ 1102 Abbildung 7.3 zeigt, in einer Struktur ähnlich Abb. 7.1, ein Beispiel für eine Szene<br />

mit periodisch fehlenden Streifen. Die Korrektur erfolgt mit dem 3×3-Kernel (mittlere Zeile)<br />

und dem 5 × 5-Kernel (untere Zeile). Die Differenz in der rechten Spalte ist jeweils um einen<br />

Faktor 10 überhöht.<br />

§ 1103 Bei der visuellen Inspektion sind keine Relikte der Streifen zu erkennen (bei einer<br />

genauen Inspektion fällt natürlich auf, dass die Randpunkte einer Zeile nicht korrigierbar<br />

sind). Auch die Differenzbilder zeigen selbst in der zehnfachen Überhöhung (rechts) eine<br />

recht gut gelungene Korrektur – da die Linien nicht durchgängig sind, sind etliche Pixel<br />

vollständig korrigiert.<br />

§ 1104 Die Verwendung des 5 × 5-Kernels (untere Zeile von Abb. 7.3) liefert im überhöhten<br />

Differenzbild sogar noch etwas größere Abweichungen – da die Szene sehr stark wechselnde<br />

Pixelwerte hat, erweist sich die Mittelung über den großen Bereich als Nachteil. Außerdem<br />

ist der untere Streifen fehlender Pixel nicht korrigierbar, da er nur einen Streifen Abstand<br />

vom Rand hat und damit für einen 5 × 5-Kernel nicht genug benachbarte Pixel vorhanden<br />

sind.<br />

c○ M.-B. Kallenrode 2. Juli 2008


332 KAPITEL 7. DATENAUFBEREITUNG<br />

Abbildung 7.4: Simulation des<br />

Poisson-Rauschens [111]<br />

§ 1105 Das Verfahren wurde hier für periodische Streifen demonstriert. Diese entstehen<br />

häufig durch nicht korrekt synchronisierte Abtastung. Einzelne fehlende Streifen können<br />

ebenfalls auftreten: erkennt man z.B. innerhalb einer Zeile eine mangelhafte Synchronisation<br />

der Spalten, so wird die Zeile durch Füllwerte ersetzt. Die Korrektur einzelner fehlender<br />

Zeilen folgt dem gleichen Verfahren wie die periodisch fehlender Zeilen.<br />

7.1.3 Periodische Streifen<br />

§ 1106 Periodische Streifen sind den periodisch fehlenden Zeilen äquivalent – der einzige<br />

Unterschied besteht darin, dass der Wert des Pixels nicht Null ist sondern in der ganzen<br />

Zeile eine Konstante ist. Dies macht einzelne fehlerhafte Zeilen vielleicht nicht unbedingt<br />

visuell aber zumindest für den Rechner leicht erkennbar – schon auf Grund des statistischen<br />

Rauschens kann selbst eine vollständig homogene Szene nie einen Streifen mit konstanten<br />

Pixelwerten liefern. Das Korrekturverfahren entspricht dem für fehlende Streifen.<br />

7.1.4 Random Noise<br />

§ 1107 Während fehlerhafte Streifen aus ihrer Anordnung einfach zu erkennen sind, sind<br />

fehlerhafte Pixel wesentlich schwieriger zu identifizieren. Ihre Behandlung ist eng verbunden<br />

mit der Behandlung des Rauschens der Bildpunkte.<br />

§ 1108 Die Aufnahme eines Bildes, sei es mit einer konventionellen photographischen Emulsion<br />

oder mit einer CCD, basiert auf der Wechselwirkung der von der Szene emittierten oder<br />

reflektierten Photonen mit dem Detektor: je größer die Zahl der auftreffenden Photonen, um<br />

so größer die Intensität und damit der Helligkeitswert. Vom Messprinzip her basieren bildgebende<br />

Verfahren also auf der Zählung von Photonen in diskreten räumlichen Intervallen<br />

(Pixel) und diskreten Energiebändern (Spektralbereich, Kanal).<br />

§ 1109 Daten, die zählend erhoben werden, gehorchen der Poisson-Statistik:<br />

f(x) = µx<br />

x! e−µ<br />

mit µ als dem Erwartungs- oder Mittelwert. Die Standardabweichung σ ist gleich der Wurzel<br />

aus dem Mittelwert<br />

σ = √ m .<br />

2. Juli 2008 c○ M.-B. Kallenrode


7.1. KORREKTURVERFAHREN 333<br />

Der relative Fehler ist damit σ/µ = 1/ √ µ, d.h. bei kleinen Zählraten ist der relative Fehler<br />

sehr groß, mit zunehmender Zählrate nimmt er ab. Für große Zählraten geht die Poisson-<br />

Verteilung über in die Gauß-Verteilung<br />

f(x) = 1<br />

σ √ 2π exp<br />

�<br />

− 1<br />

2<br />

� � �<br />

2<br />

x − µ<br />

.<br />

σ<br />

§ 1110 Abbildung 7.4 zeigt ein Beispiel für ein simuliertes Poisson-Rauschen. Die Einzelbilder<br />

entsprechen einer Maximalzahl von Photonen, die während der Belichtung auf ein<br />

Pixel fallen konnten von 3, 10, 100 bzw. 1000. Am unteren Bildrand ist jeweils ein linearer<br />

Graukeil angegeben. Im oberen linken Teilbild sind nur die Bereiche mit großem Kontrast<br />

unterscheidbar, Bereiche mit geringem Kontrast (linker unterer Bildteil) dagegen erscheinen<br />

homogen. Der schlechte radiometrische Kontrast reduziert damit auch das räumliche<br />

Auflösungsvermögen. Da benachbarte Pixel selbst bei homogener Szene auf Grund des Rauschens<br />

sehr unterschiedliche Werte annehmen können ( √ 3 ist nahezu 2, d.h. der relative<br />

Fehler ist ca. 60%), erscheint das Bild sehr körnig. Im rechten unteren Teilbild dagegen ist<br />

der relative Fehler wesentlich geringer ( √ 1000 ≈ 32), so dass bei homogener Szene benachbarte<br />

Pixel auf der Grauskala auch ähnliche Werte annehmen und damit bei einfacher visueller<br />

Inspektion nicht unterschieden werden.<br />

§ 1111 Rauschen sorgt also für Variationen der Helligkeitswerte benachbarter Pixel selbst<br />

wenn diese eine homogene Szene betrachten. Umgekehrt können fehlerhafte Pixel leicht im<br />

Rauschen untergehen. Zu ihrer Identifikation kann man einen Filter auf der Basis der in<br />

Abb. 7.2 gezeigten Kernel verwenden: aus allen Punkten des Kernels wird der Mittelwert<br />

gebildet und mit dem Wert des zentralen Punktes verglichen. Liegt dieser mehr als ein vorgegebener<br />

Wert, z.B. das Dreifache der Standardabweichung, vom Mittelwert entfernt, so<br />

wird der Pixel als fehlerhaft identifiziert. Die Korrektur dieses Pixels erfolgt wie oben für<br />

fehlerhafte Pixel beschrieben unter Verwendung des gleichen Kernels.<br />

7.1.5 Glätten und Schärfen<br />

§ 1112 Ein Glättungsfilter zur Reduktion des Rauschens funktioniert ähnlich. Bei einem<br />

linearen Glättungsfilter wird der 3 × 3-Kernel (bzw. bei Bedarf der 5 × 5-Kernel) über die<br />

gesamte Szene geschoben und jeweils das zentrale Pixel durch den Mittelwert des Kernels<br />

ersetzt. Statt eines linearen Filters kann man auch einen Gauß-Filter verwenden, bei dem<br />

entsprechend der zwei-dimensionalen Normalverteilung<br />

f(x, y) = 1<br />

�<br />

exp −<br />

2πσ2 x2 + y2 2σ2 �<br />

gefiltert wird. Als Filtermatrizen ergeben sich für den 3 × 3 bzw. 5 × 5-Kernel<br />

G2 = 1<br />

�<br />

�<br />

� 1<br />

�<br />

16 � 2<br />

� 1<br />

2<br />

4<br />

2<br />

�<br />

1 �<br />

�<br />

2 �<br />

�<br />

1 �<br />

bzw. G4 = 1<br />

�<br />

� 1<br />

�<br />

� 4<br />

�<br />

� 6<br />

256 �<br />

� 4<br />

�<br />

1<br />

4<br />

16<br />

24<br />

16<br />

4<br />

6<br />

24<br />

36<br />

24<br />

6<br />

4<br />

16<br />

24<br />

16<br />

4<br />

�<br />

1 �<br />

�<br />

4 �<br />

�<br />

6 � .<br />

�<br />

4 �<br />

�<br />

1<br />

(7.1)<br />

Im Gegensatz zum Mittelwertfilter wichtet der Gauß’sche Filter die einzelnen Pixel in Abhängigkeit<br />

von ihrem Abstand zum Mittelwert. Wir können an Stelle eines linearen Filters auch<br />

einen Gauß-Filter bei der Korrektur fehlender oder verrauschter Bildpunkte verwenden, der<br />

Kernel ist entsprechend dem in (7.1).<br />

§ 1113 Ein Glättungsfilter hat die Funktion eines Tiefpass: schnelle Variationen (hohe zeitliche<br />

oder räumliche Frequenzen) werden gedämpft, langsame Variationen dagegen bleiben<br />

erhalten. Das Rauschen ist der hochfrequente Anteil des Bildes und damit zu dämpfen. Ein<br />

idealer Tiefpass überträgt bis zu einer Grenzfrequenz vollständig, bei höheren Frequenzen<br />

c○ M.-B. Kallenrode 2. Juli 2008


334 KAPITEL 7. DATENAUFBEREITUNG<br />

Abbildung 7.5: Atmosphärische Streuung<br />

und Bereiche, in denen Filter arbeiten<br />

[209]<br />

sperrt er vollständig. Sie Übertragungsfunktion H(u, v) mit u und v als den Koordinaten in<br />

der Frequenzdomäne ist<br />

�<br />

1 falls D(u, v) ≤ D0<br />

H(u, v)TP,ideal =<br />

0 falls D(u, v) > D0<br />

mit D(u, v) = √ u 2 + v 2 als dem Abstand des Punktes (u, v) in der Frequenzdomäne vom<br />

Nullpunkt und D0 als der Grenzfrequenz. Diese rechteckige Übertragungsfunktion lässt sich<br />

mit dem linearen Kernel beschreiben; Beispiele für die Glättung finden sich auch in Abb. 9.5.<br />

§ 1114 Ein realer Tiefpass im analogen Aufbau (z.B. Widerstand und Kondensator) hat<br />

keine rechteckige Übertragungsfunktion sondern eine sich kontinuierlich, aber monoton entwickelnde.<br />

Hier nimmt die Amplitude eines Signals an der Grenzfrequenz auf 1/ √ 2 des ursprünglichen<br />

Signals ab. Die Filterung mit einem Gauß-Filter wie in (7.1) ist ein Beispiel für<br />

eine realere Übertragungsfunktion, der Butterworth-Filter.<br />

§ 1115 Der Tiefpass mittelt, d.h. er ‘vernichtet’ Informationen über Details um die Grundstruktur<br />

deutlicher zu machen. Aus der Elektronik ist der Hochpass als sein Gegenstück<br />

bekannt. Für den idealen Hochpass ergibt sich als Übertragungsfunktion<br />

�<br />

0 falls D(u, v) ≤ D0<br />

H(u, v)HP,ideal =<br />

.<br />

1 falls D(u, v) > D0<br />

Der Hochpass liefert den Teil des Signals, der vom Tiefpass zurück gewiesen wurde – das<br />

Rauschen bzw. die Veränderung. Einige typische Kernel für Hochpass-Filter in der Bildbearbeitung<br />

[180] sind<br />

⎡<br />

⎤ ⎡<br />

⎤ ⎡<br />

⎤<br />

⎣<br />

0 −1 0<br />

−1 5 −1<br />

0 −1 0<br />

⎦ ,<br />

⎣<br />

⎡<br />

0 1 −1 1<br />

⎤<br />

0<br />

1<br />

⎢ 1<br />

⎢ 1<br />

3 ⎣<br />

1<br />

−2<br />

4<br />

−2<br />

4<br />

−13<br />

4<br />

−2<br />

4<br />

−2<br />

1 ⎥<br />

1 ⎥<br />

⎦<br />

1<br />

0 1 −1 1 0<br />

.<br />

7.1.6 Dunstkorrektur<br />

1 −2 1<br />

−2 5 −2<br />

1 −2 1<br />

⎦ ,<br />

1<br />

7<br />

−1<br />

⎣ −2<br />

−2<br />

19<br />

−1<br />

−2 ⎦ oder<br />

−1 2 −1<br />

§ 1116 Bei Multispektralaufnahmen bieten sich noch weitere Verfahren zur Verbesserung<br />

der Bildqualität an, da jeder der betrachteten Frequenzbereiche seine eigenen Vorzüge und<br />

2. Juli 2008 c○ M.-B. Kallenrode


7.1. KORREKTURVERFAHREN 335<br />

Abbildung 7.6: Dunststreuung<br />

Schwächen hat (in Abhängigkeit vom verwendeten Filmmaterial, aber auch bedingt durch<br />

die atmosphärische Streuung). Durch geschickte Kombination der einzelnen Frequenzbereiche<br />

lassen sich ebenfalls Bildverbesserungen erzielen [209].<br />

§ 1117 Abbildung 7.5 zeigt die Frequenzabhängigkeit der atmosphärischen Streuung und<br />

die Transmissionskurven verschiedener Filter. Die Streuung ist am stärksten im Ultravioletten<br />

bzw. blauen Bereich. Sie nimmt mit zunehmender Wellenlänge ab. Bei Luftbildaufnahmen<br />

wird die atmosphärische Streuung durch Verwendung eines Dunstfilters verringert, bei<br />

Falschfarbenfilmen wird die blaue Schicht auf Grund der starken Beeinflussung durch die<br />

Dunststreuung zu Gunsten der IR-empfindlichen Schicht weggelassen.<br />

§ 1118 Einen Eindruck von der Dunststreuung in verschiedenen Kanälen des LandSat TM<br />

liefert Abb. 3.47. Dunststreuung stört jedoch nicht nur in Satellitenaufnahmen, wir können<br />

den Effekt bereits bei einer normalen terrestrischen Aufnahme über eine größere Distanz<br />

sehen. Dazu zeigt Abb. 7.6 im oberen linken Teil eine Aufnahme des Matterhorn vom Strahlhorn<br />

aus. 2 In der mittleren Spalte sind die einzelnen Schichten dieser Aufnahme gezeigt, von<br />

oben nach unten Rot, Grün und Blau. Die Dunststreuung ist im blauen Kanal gegenüber<br />

dem roten deutlich zu erkennen, auch im grünen Kanal zeigt sich noch Dunststreuung. In<br />

der rechten Spalte sind die Histogramme der Helligkeitswerte in den einzelnen Kanälen aufgetragen:<br />

der Peak bei großen Helligkeitswerten im blauen (und auch, wenn auch in etwas<br />

abgeschwächter Form) grünen Kanal entsteht durch die Dunststreuung. Die beiden unteren<br />

Aufnahmen in der linken Spalte geben eine Dunstkorrektur für einen Teil der Abbildung, das<br />

Verfahren wird im folgenden beschrieben.<br />

2 Die horizontale Entfernung beträgt ca. 18 km bei einer Höhe von 4 000 m, entsprechend einer mittleren<br />

Dichte der Atmosphäre von 55% der Dichte am Boden, d.h. 0.71 kg/m 3 . Damit ergibt sich eine Luftsäule<br />

zwischen Beobachter und Matterhorn-Ostwand von 12.7 t/m 2 . Der Druck der Atmosphäre am Boden entspricht<br />

dem einer 10 m Wassersäule, d.h. wir erhalten 10 t/m 2 , d.h. die beiden Luftsäulen und damit die mit<br />

ihnen verbundene Dunststreuung sind vergleichbar.<br />

c○ M.-B. Kallenrode 2. Juli 2008


336 KAPITEL 7. DATENAUFBEREITUNG<br />

Abbildung 7.7: Dunstkorrektur<br />

durch Vergleich der Helligkeitswerte<br />

verschiedener Kanäle, hier<br />

am Beispiel des MSS auf Land-<br />

Sat<br />

Abbildung 7.8: Dunst-<br />

Korrektur an einem<br />

Ausschnit aus Abb. 7.1<br />

§ 1119 Bei einem Multispektralscanner dagegen wird trotz der starken Beeinträchtigung<br />

durch Dunst auch ein blauer Kanal verwendet (z.B. LandSat MSS, vgl. Abb 3.44). Bei Land-<br />

Sat wird der Kanal 7 (nahes IR, 0.8–1.1 µm) zur Korrektur von Kanal 4 (blau, 0.5–0.6 µm<br />

verwendet. Atmosphärische Streuung reduziert den Kontrast, d.h. das Histogramm des entsprechenden<br />

Kanals wird gestaucht, insbesondere fehlen die Pixel mit sehr geringem Helligkeitswert:<br />

selbst bei der Aufnahme einer schwarzen Fläche werden durch die Atmosphäre<br />

immer Photonen in den Kanal gestreut. Dieses Fehlen der niedrigen Helligkeitswerte macht<br />

man sich bei der Korrektur zu Nutze.<br />

§ 1120 Trägt man die Helligkeitswerte von Band 7 (IR) gegen die von Band 4 (Blau) auf, so<br />

findet sich grob ein linearer Zusammenhang, allerdings um einen Offset gegen den Ursprung<br />

verschoben. Dieser Offset entspricht den auf Grund der Dunststreuung in der Verteilung der<br />

Helligkeitswerte fehlenden Werten in Band 4. Dieser Offset wird anschließend von den Helligkeitswerten<br />

von Band 4 abgezogen, so dass ein korrigierter Kanal entsteht. Zur Kontrolle wird<br />

das Verfahren auch in Kombination von Kanal 4 mit Kanal 5 bzw. Kanal 6 vorgenommen,<br />

da die Fitgerade in Abb. 7.7 nicht nur durch Dunst sondern auch durch das unterschiedliche<br />

spektrale Reflektionsvermögen der verschiedenen Bildelemente entsteht. Das Verfahren<br />

funktioniert nur dann zuverlässig, wenn die Szene hinreichend dunkle Bereiche enthält.<br />

§ 1121 Ein etwas mickriger Versuch einer Dunstkorrektur ist in Abb. 7.8 für einen Ausschnitt<br />

aus Abb. 7.1 gegeben. Links oben die vollständige Szene. Im rechten oberen Teilbild<br />

ist die Intensität des roten gegen die des blauen Kanals aufgetragen. Der Dunst bedingte<br />

Offset ist deutlich zu erkennen, er beträgt für diese Szene 20 Helligkeitswerte. Der korrigierte<br />

blaue Kanal (links unten) und das korrigierte Bild (rechts unten) zeigen natürlich nicht<br />

2. Juli 2008 c○ M.-B. Kallenrode


7.2. BILDVERBESSERUNG 337<br />

Abbildung 7.9: Dehnungsverfahren zur Kontrastanreicherung [154]<br />

mehr Kontrast, da die Verteilung der Helligkeitswerte nicht gedehnt sondern nur verschoben<br />

wird. Allerdings sind die absoluten Helligkeitswerte im Gesamtbild besser getroffen, so<br />

erscheint die Vegetation grün und nicht mehr bläulich. Damit ist sie für ein automatisches<br />

Klassifikationsverfahren auch besser zu erkennen als im nicht korrigierten Bild.<br />

§ 1122 Die Korrektur in diesem Beispiel ist sicherlich schlechter als in vielen Satellitendatensätzen,<br />

da (a) die betrachteten Kanäle relativ dicht beieinander liegen (es wird der rote<br />

Kanal zur Korrektur verwendet, nicht ein Kanal im nahen IR) und (b) im roten Kanal nur<br />

relativ wenige wirklich dunklen Pixel, d.h. Helligkeitswerte von Null, auftreten. Damit ist die<br />

Bestimmung des Offsets relativ ungenau.<br />

7.2 Bildverbesserung<br />

§ 1123 Verfahren zur Bildverbesserung lassen sich grob einteilen in<br />

1. Kontrastanreicherung: bei eng benachbarten Bildwerten (z.B. Gletscher) lassen sich Unterschiede<br />

optisch kaum erkennen. Kontrastanreicherung dient dazu, diese Unterschiede<br />

hervor zu heben und damit Strukturen erkennbar zu machen.<br />

2. Kantenanreicherung: der Kontrast an einer Grenze zwischen zwei unterschiedlichen Bildbereichen<br />

wird hervor gehoben um diese Grenze deutlicher heraus treten zu lassen. Das<br />

Verfahren ist insbesondere zur Identifikation von durch den Menschen errichteten Strukturen<br />

hilfreich. Kantenanreicherung ist ein Spezialfall der durch einen Hochpass bewirkten<br />

Anreicherung bzw. Hervorhebung von Änderungen.<br />

3. Erkennung linearer Strukturen.<br />

7.2.1 Kontrastanreicherung<br />

§ 1124 Die Originalaufnahmen der Satelliten sind häufig schwer zu interpretieren, das Hauptproblem<br />

ist der geringe Kontrast. Ein wichtiges Verfahren zu Verbesserung der Bildqualität<br />

c○ M.-B. Kallenrode 2. Juli 2008


338 KAPITEL 7. DATENAUFBEREITUNG<br />

Abbildung 7.10: Die Szene oben links ist aus drei Teilbildern (rot, grün, blau, Mitte) zusammengesetzt,<br />

die Histogramme für die Pixelwerte sind jeweils in der rechten Zeile gegeben<br />

ist die Kontrastanreicherung. Kontrastanreicherung kann z.B. dadurch erfolgen, dass man den<br />

Teil der Grauskala, in dem der größte oder interessanteste Teil des Bildes liegt, heraus nimmt<br />

und auf die gesamte Grauskala abbildet, d.h. unmittelbar benachbarte Grauwerte werden<br />

etwas auseinander gezogen, so dass sie für das Auge leichter zu unterscheiden sind. Für diese<br />

Abbildung gibt es verschiedene Verfahren, die in Abb. 7.9 zusammengefaßt sind. Im oberen<br />

Teil der Abbildung sind jeweils Histogramme angegeben, die das Auftreten der verschiedenen<br />

Grauwerte in einem Bild beschreiben. Von der gesamten Skala treten nur Grauwerte im Bereich<br />

von 30 bis 90 auf, d.h. wir können diesen Bereich der Grauskala auf die komplette Skala<br />

abbilden. Die lineare Abbildung ist dabei der einfachste Fall. Sie berücksichtigt jedoch nicht,<br />

dass die Grauwerte nicht gleich verteilt sind, sondern dass der größte Teil der Grauwerte<br />

in diesem Beispiel im Bereich zwischen 54 und 76 liegt. Daher kann man auch versuchen,<br />

diesen Bereich besonders stark zu dehnen (Histogramm angeglichene Dehnung) oder nur<br />

diesen Bereich zu dehnen und die anderen (wenigen) Werte zu vernachlässigen (besondere<br />

Dehnung).<br />

§ 1125 Der Algorithmus für die lineare Dehnung ist<br />

p ′ ub − lb<br />

= (p − lb) ·<br />

w<br />

mit lb und ub als der unteren bzw. oberen Grenze des ausgewählten Bereichs und w als<br />

der Bandbreite des ursprünglichen Bereichs. Negative Werte von p ′ werden auf Null gesetzt,<br />

Werte größer W auf w.<br />

§ 1126 Um ein Gefühl für die Histogramme der Helligkeitswerte zu erhalten, betrachten wir<br />

nochmals die Szene aus Abb. 7.3. Abbildung 7.10 zeigt links oben die Szene, in der Mitte die<br />

drei Spektralbänder, aus denen die Szene zusammen gesetzt ist, und rechts die Histogramme<br />

für die einzelnen Kanäle. Helligkeitswerte liegen im Bereich zwischen 0 und 255, in allen<br />

drei Kanälen wird praktisch nur die untere Hälfte der Helligkeitswerte ausgenutzt, im oberen<br />

2. Juli 2008 c○ M.-B. Kallenrode


7.2. BILDVERBESSERUNG 339<br />

Abbildung 7.11: Für den blauen Kanal der Szene aus Abb. 7.10 wurde eine lineare Kontrastanreicherung<br />

vorgenommen: obere Zeile Originaldaten, mittlere Zeile Dehnung auf den<br />

Bereich von 20 bis 210, untere von 50 bis 180. In der linken Spalte wurde das gedehnte Bild<br />

im Blauen mit den ungedehnten Bildern in Rot und Grün überlagert<br />

Bereich liegen nur noch wenige Werte. Während die Verteilungen im roten und grünen Bereich<br />

eine ähnliche Struktur mit einem Doppelpeak haben, ist die Verteilung im blauen Bereich<br />

um einen dominanten Einzelpeak konzentriert.<br />

§ 1127 Da die Verarbeitung der Bilder kanalweise erfolgt, kann für jeden Kanal eine eigene<br />

Kontrastdehnung vorgenommen werden. Die Kanäle können dann anschließend zur Szene<br />

kombiniert werden.<br />

§ 1128 In Abb. 7.11 wird nur die Dehnung des blauen Kanals aus Abb. 7.10 betrachtet. In der<br />

oberen Zeile sind die Originaldaten gegeben, in der zweiten Zeile wurden die Helligkeitswerte<br />

im blauen Kanal linear auf den Bereich zwischen 20 und 210 abgebildet, d.h. es wurde nur<br />

der Bereich weg geschnitten, in dem sich ohnehin kaum Helligkeitswerte befinden. Das sich<br />

ergebende Histogramm ist im rechten Teil gezeigt, das sich ergebende Bild des blauen Kanals<br />

in der Mitte. Die Erhöhung des Kontrastes und damit die Erkennbarkeit von Strukturen<br />

wird deutlich. Bei Kombination mit den beiden (unbehandelten) Kanälen ergibt sich die links<br />

gezeigt Szene. Eine weitere lineare Streckung des Histogramms auf den Bereich zwischen 50<br />

und 180 (der Originaldaten) ist in der unteren Zeile gezeigt.<br />

§ 1129 Für eine allgemeine Bildverbesserung ist bereits die relativ moderate Kontrastanreicherung<br />

in der mittleren Zeile ausreichend, bei der nur die extremen Pixel unterdrückt<br />

wurden. Für spezielle Fragestellung (z.B. Identifikation bestimmter Objekte, Rauschunterdrückung)<br />

kann eine weitere Kontrastanreicherung auch auf relativ enge Bereiche der Verteilung<br />

sinnvoll sein.<br />

§ 1130 Eine andere Situation entsteht in einer Szene mit starkem Kontrast, z.B. bei der<br />

Aufnahme eines Gletschers und des umgebenden Felsens. Abbildung 7.12 zeigt ein Beispiel,<br />

c○ M.-B. Kallenrode 2. Juli 2008


340 KAPITEL 7. DATENAUFBEREITUNG<br />

Abbildung 7.12: Teilbilder und Histogramme für eine Szene mit Gletscher und Fels, d.h.<br />

starkem Kontrast<br />

wieder die Gesamtszene links oben, die einzelnen Teilbilder in der mittleren Spalte und die<br />

dazu gehörigen Histogramme rechts. In allen drei Teilbildern sind die Histogramme ähnlich:<br />

eine bimodale Verteilung mit einem Maximum bei niedrigen Intensitätswerten (Fels) und<br />

einem zweiten Maximum bei hohen Werten (Eis).<br />

§ 1131 Eine Kontrastanreicherung ähnlich der in Abb. 7.11, bei der nur die nicht auftretenden<br />

Helligkeitswerte abgeschnitten werden, verändert zwar das Bild, liefert aber keine<br />

zusätzliche Information: die Unterscheidnung zwischen Eis und Gletscher ist auf Grund der<br />

bimodalen Verteilungen auch im unbearbeiteten Bild bereits eindeutig. Die Erkennung von<br />

Details im Fels und/oder auf dem Gletscher dagegen verbessert sich kaum, da die beiden<br />

Peaks auf Grund ihrer geringen Breite kaum gestreckt werden.<br />

§ 1132 Abbildung 7.13 gibt in der oberen Zeile noch einmal die Originalszene, den blauen<br />

Kanal sowie das Histogramm des blauen Kanals. Die beiden unteren Zeilen enthalten eine<br />

lineare Dehnung: in der Gesamtszene (links) wurden alle Kanäle identisch gedehnt, in der<br />

Mitte ist das Ergebnis dieser Dehnung für den blauen Kanal gezeigt, rechts das sich für diesen<br />

Kanal ergebende Histogramm.<br />

§ 1133 In der mittleren Zeile wurde der Bereich von Helligkeitswerten zwischen 140 und<br />

215 linear auf den Gesamtbereich gedehnt. Dadurch verringern sich die Kontraste in den<br />

dunklen Bildpartien während die Kontraste im hellen Bereich erhöht werden. Insbesondere<br />

tritt das Höhenprofil des Gletschers deutlicher hervor: die unterschiedlichen Neigungen der<br />

Bildelemente führen dazu, dass das reflektierte Licht mit unterschiedlicher Intensität auf den<br />

Detektor trifft – allerdings immer mit großer Intensität. Durch die Dehnung werden diese<br />

Kontraste hervorgehoben und damit auch die Struktur.<br />

§ 1134 In der unteren Zeile wurde der Bereich zwischen 10 und 100 auf den gesamten Helligkeitsbereich<br />

gedehnt. Daher verschwinden die Kontraste im Bereich des Gletschers während<br />

2. Juli 2008 c○ M.-B. Kallenrode


7.2. BILDVERBESSERUNG 341<br />

Abbildung 7.13: Lineare Kontrastanreicherung für Abb. 7.12; in der mittleren Zeile wurde<br />

der rechte Peak gedehnt, in der unteren der linke<br />

sie im Bereich der Felsen deutlicher hervortreten und die Unterkante des Bildes als Grasbewuchs<br />

statt Fels kenntlich wird.<br />

§ 1135 Je nach Fragestellung an das Bild kann sich eine andere Form der Kontrastdehnung<br />

als sinnvoll erweisen: ein Glaziologe wird mit dem unteren Verfahren vielleicht nicht so zufrieden<br />

sein wie mit dem mittleren, ein Geoökologe dagegen bevorzugt vielleicht eher das untere<br />

Verfahren.<br />

7.2.2 Kantenanreicherung<br />

§ 1136 Ein weiteres Verfahren ist die Kantenanreicherung (‘edge enhancement’). Hat man<br />

einen weißen und einen schwarzen Streifen direkt nebeneinander (wie in dem Teststreifensystem<br />

zur Bestimmung des Bodenauflösungsvermögens), so kann man die Lichtintensität als<br />

eine Stufenfunktion darstellen. Auf dem Film wird diese Stufe jedoch in einen kontinuierlichen<br />

Übergang transformiert, d.h. die ursprünglich scharfe Begrenzung zwischen den beiden Streifen<br />

verwischt etwas. Da aber für jeden Film diese Übertragungsfunktion bekannt ist, kann<br />

man eine Rücktransformation vornehmen, die die verwischte Kante wieder in eine scharfe<br />

Begrenzung überführt. Ein gutes Beispiel ist in Abbildung 9-13 in Cracknell und Hayes [41]<br />

gegeben.<br />

§ 1137 Für digitalisierte Aufnahmen gibt es einige einfache Verfahren zur Kantenanreicherung,<br />

die ebenfalls mit Hilfe der in Abb. 7.2 durchgeführt werden kann. Die formale Grundlage<br />

für eine effiziente Kantenanreicherung (und letztendlich alle effizienten Korrekturen) ist eine<br />

Laplace-Transformation [41, 111].<br />

§ 1138 Bei der technischen Realisierung der Kantenanreicherung sind zwei Verfahren zu unterscheiden:<br />

gerichtete und nicht-gerichtete. Gerichtete Kantenanreicherung kann verwendet<br />

werden, um z.B. in Nord-Süd-Richtung verlaufende Strukturen zu erkennen. Ungerichtete<br />

c○ M.-B. Kallenrode 2. Juli 2008


342 KAPITEL 7. DATENAUFBEREITUNG<br />

Abbildung 7.14: Ungerichtete Kantenanreicherung:<br />

Kernel; Originaldaten,<br />

Profil der Originaldaten und der<br />

gefilterten Daten und gefilterte Daten<br />

Kantenanreicherung dagegen ist in allen Bereichen sinnvoll, in denen keine Vorinformationen<br />

über die Richtung einer möglichen Kante vorhanden sind oder diese sehr variable Richtung<br />

haben (z.B. Verkehrsstrukturen). Ungerichtetet Kantenanreichung ist nichts anderes als die<br />

Verwendung eines Hochpass, wie bereits in § 1115 diskutiert.<br />

§ 1139 Ein ungerichteter Filter ist im linken oberen Teil von Abb. 7.14 gegeben: der Helligkeitswert<br />

des zentralen Pixels wird vierfach gewichtet, die Helligkeitswerte der direkt benachbarten<br />

Pixel jeweils einfach gewichtet abgezogen. Der so gewonnene Filterwert wird zum<br />

zentralen Pixel addiert. 3 Die obere Zeile von Abb. 7.14 zeigt einen Testdatensatz, die Zeile<br />

darunter gibt das Profil der Helligkeitswerte des Originaldatensatzes entlang einer horizontalen<br />

Linie. Die folgende Zeile gibt das Profil nach der Kantenanreicherung, darunter der<br />

Datensatz nach Kantenanreicherung. In den Originaldaten beträgt der Kontrastunterschied<br />

an der linken Kante 80/60 = 1.33; nach der Kantenanreicherung ist dieses Verhältnis auf<br />

100/40 = 2.5 erhöht, d.h. nahezu verdoppelt.<br />

§ 1140 Abbildung 7.15 gibt ein Beispiel für eine Kantenanreicherung mit dem Kernel aus<br />

Abb. 7.14. Die Kontrasterhöhung an Kanten ist insbesondere im Bereich des Bahnhofs (links<br />

unten) und am Flusslauf zu erkennen. An letzterem wird auch deutlich, dass der Kernel eine<br />

ungerichtete Kantenanreicherung bewirkt.<br />

§ 1141 Die Kantenanreicherung für Kanten unter einem beliebigen Winkel α beruht ebenfalls<br />

auf der Verwendung von zwei 3 × 3-Kerneln. Der erste Kernel<br />

�<br />

�<br />

�<br />

� 1 1 1 �<br />

�<br />

Py = �<br />

� 0 0 0 �<br />

�<br />

� −1 −1 −1 �<br />

hilft bei der Identifikation horizontaler Strukturen, Kernel<br />

� �<br />

�<br />

� −1 0 1 �<br />

�<br />

Px = �<br />

� −1 0 1 �<br />

�<br />

� −1 0 1 �<br />

3 Das ist eine andere Schreibweise aber exakt der erste Hochpass in § 1115 – der Unterschied 4 oder 5 im<br />

zentralen Element entsteht dadurch, ob der Kernel einen additiven Beitrag zum Zentralelement liefern oder<br />

dieses ersetzen soll. Leider gibt es in der Literatur unterschiedliche Darstellungsweisen; allerdings können Sie<br />

sich jeweils selbst klarmachen, was gemeint ist: ist die Summe der Filterelemente Null, so ist es ein additiver<br />

Kernel; bei Eins handelt es sich um einen ersetzenden..<br />

2. Juli 2008 c○ M.-B. Kallenrode


7.2. BILDVERBESSERUNG 343<br />

Abbildung 7.15: Szene aus Abb. 7.3 ohne (oben links) und mit (unten links) Kantenanreicherung<br />

mit dem Kernel aus Abb. 7.14. Die mittlere Spalte gibt die einzelnen Kanäle im<br />

Original, die rechte nach Kantenanreicherung, jeweils oben Rot, Mitte Grün und unten Blau<br />

bei der Identifikation vertikaler Strukturen. Strukturen unter beliebigen Winkeln α werden<br />

angereichert mit einem Filter<br />

�<br />

�<br />

� −1<br />

P = cos α P1 + sin α P2 = cos α �<br />

� −1<br />

� −1<br />

0<br />

0<br />

0<br />

� �<br />

1 � �<br />

� � 1<br />

1 �<br />

� + sin α �<br />

� 0<br />

1 � � −1<br />

1<br />

0<br />

−1<br />

�<br />

1 �<br />

�<br />

0 �<br />

�<br />

−1 � .<br />

Eine diagonal verlaufende Struktur wird entsprechend durch die Kernel<br />

�<br />

�<br />

�<br />

�<br />

�<br />

� 0 −1 −1 �<br />

�<br />

�<br />

� −1 −1 0 �<br />

�<br />

P45 = �<br />

� 1 0 −1 �<br />

� bzw. P−45 = �<br />

� −1 0 1 �<br />

�<br />

� 1 1 0 �<br />

� 0 1 1 �<br />

Auch hier wird der Filterwert zum Originalpixel addiert.<br />

§ 1142 Die Operatoren P werden als Prewitt-Operatoren bezeichnet. Da sie nicht nur die<br />

beiden direkt der Kante benachbarten Pixel in einer Linie senkrecht zur Kante berücksichtigen<br />

sondern auch die jeweils parallelen Linien, bewirken sie nicht nur eine Kantenanreicherung<br />

sondern gleichzeitig auch eine Glättung. Beim Prewitt-Operator ist diese Glättung linear,<br />

beim Sobel-Operator wird eine Gauß-Wichtung vorgenommen:<br />

� �<br />

�<br />

� −1 0 1 �<br />

�<br />

Sx = �<br />

� −2 0 2 �<br />

�<br />

� −1 0 1 � , Sy<br />

�<br />

�<br />

�<br />

� 1 2 1 �<br />

�<br />

= �<br />

� 0 0 0 �<br />

�<br />

� −1 −2 −1 � ,<br />

�<br />

�<br />

�<br />

�<br />

�<br />

� 0 −1 −2 �<br />

�<br />

�<br />

� −2 −1 0 �<br />

�<br />

S45 = �<br />

� 1 0 −1 �<br />

� bzw. S−45 = �<br />

� −1 0 1 �<br />

�<br />

� 2 1 0 �<br />

� 0 1 2 � .<br />

§ 1143 Derartige Filter können z.B. zur Identifikation linearer Strukturen verwendet werden,<br />

wie auch im Zusammenhang mit Abb. 3.51 diskutiert.<br />

c○ M.-B. Kallenrode 2. Juli 2008


344 KAPITEL 7. DATENAUFBEREITUNG<br />

Abbildung 7.16: Zweidimensionale<br />

Klassifikationsverfahren [154]<br />

7.3 Automatische Klassifikation<br />

§ 1144 Falschfarbenaufnahmen mit IR-Filmen und später Multispektralaufnahmen und -<br />

scanner sollen dazu dienen, Objekte besser klassifizieren zu können als es bei einer Aufnahme<br />

im sichtbaren Bereich der Fall wäre. Die einzelnen Spektralkanäle der Instrumente und ihr<br />

Bezug zu den Eigenschaften der betrachteten Szene sind bereits im Zusammenhang mit den<br />

Instrumenten diskutiert.<br />

§ 1145 Da die Identifikation die Kombination verschiedener Spektralkanäle voraussetzt, ist<br />

diese nicht mehr auf visuellem Wege vornehmbar sondern muss auf der Basis der digitalisierten<br />

Daten erfolgen – möglichst automatisch.<br />

7.3.1 Distanzverfahren<br />

§ 1146 Die einfachsten automatischen Klassifikationsverfahren sind 2D-Verfahren: hier werden<br />

zwei verschiedene Spektralkanäle gegen einander aufgetragen. In Abb. 7.16 wurden dazu<br />

die Kanäle 3 (rot) und 4 (nahes IR) des LandSat TM verwendet. In dieser Datenmatrix<br />

werden Bereiche markiert, die für bestimmte Aufnahmeobjekte typisch sind: Wasser (W),<br />

Stadtgebiet (U), Sandfläche (S), Getreidefelder (C), Wiesen (H) und Wald (F). Da einerseits<br />

Beleuchtungsverhältnisse und atmosphärische Transmission von Aufnahme zu Aufnahme<br />

wechseln und andererseits die betrachteten Objekte nicht homogen sind, bilden sich in der<br />

Datenmatrix relativ große Bereiche aus, in denen die Grauwerte für ein bestimmtes Objekt<br />

liegen können.<br />

§ 1147 Mit Hilfe einer derartigen Matrix lässt sich eine automatische Klassifikation unbekannter<br />

Szenen vornehmen. Dazu gibt es verschiedene Verfahren:<br />

• bei der Methode der geringsten Distanz (Teilbild a) wird der Schwerpunkt Verteilung der<br />

Zustandsvektoren eines jeden Objekts gebildet. Für ein zu klassifizierendes Pixel wird der<br />

Abstand zu jedem der Schwerpunkte gebildet, das Pixel wird dann dem Schwerpunkt zugeordnet,<br />

zu dem es den geringsten Abstand hat. Der maximale Abstand eines zu klassifizierenden<br />

Pixels von den Schwerpunkten kann angegeben werden, um bei großen Abständen<br />

eine Fehlklassifikation zu verhindern, so bei Pixel Z. Das Verfahren ist rechentechnisch sehr<br />

einfach.<br />

2. Juli 2008 c○ M.-B. Kallenrode


7.3. AUTOMATISCHE KLASSIFIKATION 345<br />

Abbildung 7.17: Unitemporale<br />

(links) und multitemporale<br />

(rechts) 2D-Klassifikation [154]<br />

• das Quader-Verfahren (Teilbild b) ist rechentechnisch ebenfalls einfach: hier wird jeder<br />

klassifizierte Bereich der Datenmatrix mit einem Rechteck umschrieben. Zu klassifizierende<br />

Pixel, die in ein derartiges Rechteck fallen, werden dieser Objektklasse zugeordnet;<br />

Bildpunkte, die in keines der Rechtecke fallen, werden nicht klassifiziert. Das Verfahren<br />

hat den Nachteil, dass Merkmalsgruppen sich nicht zwingend geschickt in ein Rechteck<br />

einordnen lassen (z.B. die Wiesen (H)) und sich Rechtecke überlappen können obwohl sich<br />

die Merkmalsklassen nicht überlappen (Wiese H und Getreidefeld C).<br />

• das detaillierte Quaderverfahren (Teilbild c) ist eine Verfeinerung des Quaderverfahres<br />

bei dem die Merkmalsklasse nicht in ein Rechteck sondern in eine aus mehreren kleinen<br />

Rechtecken gebildete Fläche eingeschlossen wird.<br />

• das Verfahren der größten Wahrscheinlichkeit (Maximum Likelihood Method) unterscheidet<br />

sich von den Quaderverfahren dadurch, dass die Punkte einer Merkmalsklasse nicht<br />

gleichberechtigt behandelt werden sondern gewichtet werden. Dies basiert auf der Annahme,<br />

dass es einen Mittelwert für die Merkmalsklasse gibt, um den die Punkte in Form einer<br />

Normalverteilung schwanken. Dann lassen sich neben dem Mittelwert Linien gleicher Wahrscheinlichkeit<br />

festlegen. Dies ermöglicht nicht nur eine Klassifikation wie bei der Methode<br />

der geringsten Distanz sondern insbesondere bei überlappenden Merkmalsbereichen auch<br />

eine Aussage über die Wahrscheinlichkeit, mit der ein zu klassifizierender Bildpunkt einer<br />

oder mehreren Merkmalsklassen angehört. Das Verfahren der größten Wahrscheinlichkeit<br />

wird daher, obwohl rechentechnisch aufwendiger, häufig angewendet.<br />

§ 1148 Insbesondere bei Untersuchungen der Vegetation kann eine multitemporale Klassifikation<br />

bessere Ergebnisse liefern: eine Birke im Frühjahr mit frischen Blättern erzeugt ein<br />

anderes Signal als die gleiche Birke im Sommer mit ausgewachsene Blättern oder gar später<br />

im Jahr in Herbstfärbung. Eine Verbesseung der automatischen Klassifikation ergibt sich,<br />

wenn die Trainingsmatrix nicht für einen festen Zeitpunkt aufgenommen wird sondern zu<br />

verschiedenen Zeiten über die Vegetationsperiode verteilt. Als Beipsiel zeigt Abb. 7.17 die<br />

Streuellipsen (Kurven fester Wahrscheinlichkeit beim Verfahren größter Wahrscheinlichkeit)<br />

im Merkmalsraum für verschiedene Landnutzungsklassen in unitemporaler (links) und multitemporaler<br />

(rechts) Auswertung. Generell ist bei der multitemporalen Auswertung eine bessere<br />

Trennung der verschiedenen Nutzungsklassen möglich – offensichtlich in der geringeren<br />

Überlappung der Streuellipsen.<br />

Beispiel: Klassifikation von Schnee<br />

§ 1149 Auf den ersten Blick sollte die Identifikation der Schneebedeckung in Satellitenbildern<br />

ein triviales Problem sein: Schnee ist weiß und reflektiert den größten Teil der auf ihn<br />

auftreffenden solaren Strahlung (Albedo zwischen 75% und 90%). Damit sollte er sich im<br />

sichtbaren Spektrum hell abzeichnen, d.h. durch einfache Betrachtung einer Schwarzweißoder<br />

Farbaufnahme erkennbar sein. Das ist korrekt, solange man nur die Bodenbedeckung<br />

betrachtet. Dass die Identifikation von Schneeflächen in der Realität jedoch schwieriger ist,<br />

kann man bei einem Blick auf eine normale MeteoSat-Aufnahme sofort nachvollziehen: außer<br />

Schnee haben auch Wolken ein sehr hohes Reflektionsvermögen, d.h. auch diese zeichnen<br />

c○ M.-B. Kallenrode 2. Juli 2008


346 KAPITEL 7. DATENAUFBEREITUNG<br />

Abbildung 7.18: Klassifikation<br />

‘weißer’ Pixel in den AVHRR-<br />

Daten zur Unterscheidung<br />

zwischen Schnee und Bewölkung<br />

[155]<br />

sich auf den Aufnahmen als sehr helle Bereiche ab. Handelt es sich bei den Wolken um<br />

stark strukturierte Wolkengebilde (weit in die Troposphäre aufragende Gewitterwolken oder<br />

Wolkenwirbel im Zusammenhang mit einem Tiefdruckgebiet) so sind sie als solche zu identifizieren.<br />

Handelt es sich jedoch um eine gleichmäßige Bedeckung mit niedrigen Wolken, so ist<br />

eine Unterscheidung zwischen Wolken und Schnee kaum möglich. Hier kann man sich wieder,<br />

wie im Falle der Bodennutzung, mit Klassifikationsbereichen (in Abb. 7.19 dargestellt als<br />

Cluster, in Abb. 7.18 als Ellipsen) weiterbehelfen. Verwendet wird dabei ein im sichtbaren<br />

Bereich arbeitender Kanal (Kanal 1) des AVHRR sowie die Differenz aus zwei im thermischen<br />

Infrarot arbeitenden Kanälen. Der Kanal 3 (3.55 µm - 3.93 µm) ist empfindlich sowohl<br />

für die reflektierte solare Strahlung als auch für die emittierte terrestrische Wärmestrahlung.<br />

Hier erscheint Schnee extrem dunkel. Zwar erscheinen auch Wolken dunkel, allerdings mit<br />

einer leichten Abweichung. Auch im Kanal 4 bestehen geringe Unterschiede zwischen Wolken<br />

und Schnee. Durch Differenzbildung zwischen den beiden Kanälen werden diese Unterschiede<br />

deutlicher hervorgehoben. Daher wird auch die Differenz für die Klassifikationsellipsen verwendet.<br />

Betrachtet man diese Klassifikationsellipsen in Abb. 7.18, so wird die Ähnlichkeit von<br />

Wolken und Schnee im sichtbaren Bereich (Kanal 1) sofort deutlich, während die Unterschiede<br />

zwischen Wolken und Schnee durch den Differenzkanal im Infraroten definiert werden.<br />

7.3.2 Mehrdimensionale Klassifikationsverfahren<br />

§ 1150 Mehrdimensionale Klassifikationsverfahren basieren auf den bereits von den 2D-<br />

Verfahren bekannten Ideen. Die Identifikation von Schnee in den AVHRR-Daten ist ein<br />

Hybrid-Verfahren: die Klassifikationsmatrix ist zweidimensional, die Informationen stammen<br />

jedoch aus drei Kanälen, da auf einer Achse nicht die Helligkeitswerte eines Kanals sondern<br />

die Differenz der Helligkeitswerte zweier Kanäle betrachtet wird.<br />

§ 1151 Ein Beispiel für die Bestimmung der Bodennutzung in einem relativ eng begrenzten<br />

Gebiet zeigt Abb. 7.19. Die Zielsetzung ist dabei eine einfachere gewesen als bei der Bestimmung<br />

der globalen Vegetationsverteilung: Untersucht werden sollte ein Teil des Imperial<br />

Valley und Salton Sea in Kalifornien im Hinblick auf die Bodennutzung. Im oberen linken<br />

Teil von Abb. 7.19 ist zur Orientierung eine Aufnahme des LandSat MSS im Band 5 (grün)<br />

gezeigt, im unteren Teil die Klassifizierung entsprechend der Bodennutzung als (A) landwirtschaftlich<br />

genutzte Fläche, (D) Wüste, (M) Berge und (W) Wasser. Nichtmarkierte Pixel<br />

ließen sich nicht identifizieren. Durch Vergleich mit der Aufnahme darüber erkennt man, dass<br />

es sich bei diesen unidentifizierten Pixeln praktisch ausschließlich um Pixel in der Nähe von<br />

Begrenzungen handelt, d.h. sie werden wahrscheinlich Mischpixel sein.<br />

§ 1152 Wie nimmt man aber eine solche Klassifikation vor? Wir hatten im Zusammenhang<br />

mit dem Vegetationsindex gesehen, dass dieser aus den Intensitäten im Roten und im Infraroten<br />

Kanal definiert wird. Zur Bestimmung der Flächennutzung beim LandSat MSS bedient<br />

man sich eines etwas genaueren Verfahrens: Es werden die Intensitäten der drei Bänder 4, 5<br />

und 6 (entsprechend grün, rot und einem Kanal im nahen Infrarot) gegeneinander aufgetragen<br />

(Abb. 7.19 rechts unten). Entsprechend der unterschiedlichen spektralen Reflektionskur-<br />

2. Juli 2008 c○ M.-B. Kallenrode


7.3. AUTOMATISCHE KLASSIFIKATION 347<br />

Abbildung 7.19: Klassifikation der Bodennutzung mit LandSat MSS Daten für das Imperial<br />

Valley und Salton Sea in Kalifornien. Links oben MSS Band 5 (grün), Mitte und unten die<br />

sich durch Vergleich verschiedener Spektralkanäle ergebende Geländeklassifikation. Rechts:<br />

Spektrales Reflektionsvermögen für verschieden genutzte Flächen (oben) sowie ein Clusterdiagramm<br />

zur Klassifizierung der einzelnen Bildpunkte [209]<br />

ven sammeln sich die typischen Punkte von Vegetation, Wasser und anderen Geländetypen<br />

jeweils in Clustern. Zu jedem einzelnen Pixel der Scanner-Aufnahme wird nun in diesem<br />

Diagramm das Cluster gesucht, zu dem der Punkt mit der größten Wahrscheinlichkeit gehört<br />

bzw. dem er am nächsten liegt. Verschiedene mögliche Verfahren dieser Zuordnung sind für<br />

den vereinfachenden zweidimensionalen Fall oben beschrieben.<br />

§ 1153 Der in Abb. 7.19 gezeigte Bereich ist einfach zu klassifizieren, da er aus relativ großen<br />

Flächen mit einheitlichen Merkmalen besteht. Insbesondere die kleinräumigen rechteckigen<br />

Strukturen im Tal lassen sich unschwer als vom Menschen manipulierte Bereiche erkennen.<br />

Damit kann man die Klassifizierung in landwirtschaftlich genutzte Fläche aber auch ohne<br />

genaue Untersuchung ‘von Hand’ bzw. mit dem Auge vornehmen. Die Wasserläufe innerhalb<br />

der landwirtschaftlich genutzten Flächen lassen sich auf der Aufnahme im sichtbaren Bereich<br />

allerdings nur schwer erkennen, sie zeigen sich erst im Vergleich der verschiedenen Kanäle<br />

eindeutig. Die sehr unterschiedlichen Helligkeitswerte der verschiedenen landwirtschaftlich<br />

genutzten Flächen in der MSS Aufnahme zeigen aber auch, dass die Cluster im Klassifikati-<br />

c○ M.-B. Kallenrode 2. Juli 2008


348 KAPITEL 7. DATENAUFBEREITUNG<br />

onsdiagramm nicht gerade klein werden und man wirklich mehrere Kanäle verwenden muss,<br />

um eine einigermaßen zuverlässige Klassifikation zu erreichen.<br />

§ 1154 Vegetationsuntersuchungen müssen nicht notwendigerweise so kompliziert durchgeführt<br />

werden. Um sich z.B. einen Eindruck über das Ausmass des Abholzens tropischer<br />

Regenwälder zu verschaffen, ist eine einfache Betrachtung der Aufnahmen z.B. in einem Kanal<br />

im nahen Infrarot ausreichend, ein Beispiel hierfür gibt Abb. 3.27.<br />

7.4 Managing Gigabytes<br />

§ 1155 Bisher haben wir Satellitendaten als Images betrachtet derart, dass jedem Pixel pro<br />

Kanal ein Helligkeitswert zugeordnet ist. Mit einer bescheidenen Bildgröße von 2560 mal<br />

1920 Pixel mit einer Farbtiefe von 24 Bit bzw. 8 Bit für jeden der drei Kanäle ergibt sich<br />

ein Bitmap von 117 MBit oder knapp 15 MB. Bei einer Szene pro Minute entspricht das<br />

unkomprimiert einer Datenmenge von knapp 1 GB, d.h. eine Speicherung als Bitmap ist<br />

nicht sinnvoll.<br />

§ 1156 Die Kompression von Bilddaten kann unter verschiedenen Gesichtspunkten erfolgen,<br />

eine Übersicht gibt [255]. Kompressionsverfahren können unterteilt werden in verlustfreie und<br />

verlustbehaftete Verfahren: in ersteren wird die vollständige, im Bild enthaltene Information<br />

codiert und entsprechend auch decodiert, in letzterem wird ein Teil der enthaltenen Information<br />

selektiv nicht codiert – entsprechend ist das Bild nach der Decodierung mit Verlusten<br />

behaftet.<br />

7.4.1 Verlustfreie Bildformate<br />

§ 1157 Standardformate zur Verlust freien Speicherung von Bilddaten sind GIF (Graphics<br />

Interchange Format) und PNG (Portable Network Graphics). Beide Verfahren basieren auf<br />

einem modifizierten Lempel–Ziv-Algorithmus, d.h. die Kompression ist ähnlich, als würde<br />

man ZIP auf ein Bitmap-Bild anwenden.<br />

§ 1158 Im Gegensatz zu GIF erlaubt PNG optional ein weiteres Element der Kompression,<br />

die Kontext-basierte Kodierung. Dazu werden vor der Komprimierung einige Filter verwendet,<br />

z.B. ein horizontaler Differenzfilter, bei dem statt des Pixelwerts nur die Differenz zum<br />

Wert des Nachbarpixels bestimmt und kodiert wird; das Verfahren verfolgt also ähnliche<br />

Ansätze wie die Lauflängencodierung beim Fax. Da normalerweise in einer Szene benachbarte<br />

Pixel auch ähnliche Werte haben, treten viele kleine und wenige große Differenzen auf.<br />

Bei entsprechende Codierung, z.B. Huffman, ist das über die Differenzen gebildete Bild in<br />

codierter Form kleiner als das Original. Statt einer horizontalen Filters lässt sich auch ein<br />

vertikaler Filter verwenden oder ein mittlerer Filter, der die Differenz zum darüber und zum<br />

links davon liegenden Pixel bestimmt.<br />

§ 1159 Für Grauskalenbilder ist FELICS ein weiteres Verlust freies Komprimierungsverfahren.<br />

Auch FELICS ist Kontext-basiert, berücksichtigt aber im Gegensatz zu PNG nicht nur<br />

den direkt benachbarten Pixel sondern 2 benachbarte Pixel. Da FELICS auf einem festen<br />

Codierungsschema basiert, kann es niemals besser komprimieren als 1 Bit pro Pixel.<br />

7.4.2 Und JPEG?<br />

§ 1160 JPEG (Joint Photographic Experts Group) ist ein weit verbreiteter Standard der<br />

Bildkomprimierung – allerdings ist JPEG für unsere Fragestellungen nicht geeignet, da JPEG<br />

ein Verlust behaftetes Verfahren zur Datenkompression ist. Eine Verlust freie Variante, JPEG-<br />

LS, wird in Witten et al. [255] diskutiert.<br />

2. Juli 2008 c○ M.-B. Kallenrode


7.4. MANAGING GIGABYTES 349<br />

Abbildung 7.20: JPEG-Codierung und Decodierung<br />

für unterschiedliche Zahl der<br />

berücksichtigten Koeffizienten [255]<br />

§ 1161 JPEG ist ein Transformations-Codierungsverfahren, d.h. zuerst wird das Bild transformiert,<br />

anschließend wird die Transformation codiert. Die Decodierung erfolgt entsprechend:<br />

die eigentliche Decodierung liefert die Transformation des Bildes, dieses wird anschließend<br />

rücktransformiert.<br />

§ 1162 Als Transformation wird bei JPEG eine diskrete Kosinustransformation auf ein N ×<br />

N-Pixel großes Bild mit den Helligkeitswerten x:<br />

X(0, 0) = 1<br />

N<br />

X(u, v) = 2<br />

N<br />

N�<br />

i=0 j=0<br />

N�<br />

i=0 j=0<br />

N�<br />

x(i, j)<br />

N�<br />

� � � �<br />

2(i + 1)uπ 2(j + 1)vπ<br />

x(i, j) cos<br />

cos<br />

2N<br />

2N<br />

(7.2)<br />

mit X(0, 0) als dem Gleichstromanteil und X(u, v) mit u, v �= 0 als dem Wechselstromanteil.<br />

§ 1163 Ein reales Bild wird zuerst in 8 × 8 Pixel große Untermatrizen zerlegt. 4 Auf diese<br />

Untermatrix wird die Kosinustransformation angewandt, so dass sich für jede Untermatrix<br />

64 Koeffizienten X(0, 0) bis X(7, 7) ergeben. Da JPEG komprimieren soll, wird nur den<br />

niederfrequenten Anteilen der Transformation eine Bedeutung beigemessen. Bis zu welcher<br />

Ordnung diese Anteile gerücksichtigt werden sollen, bestimmt einerseits die Bildqualität und<br />

andererseits den Grad der Komprimierung. Diese unteren Koeffizienten werden mit einem<br />

Huffman-Verfahren codiert.<br />

4 Ist die Kantenlänge kein Vielfaches von 8, so wird zum Auffüllen der fehlenden Zeilen bzw. Spalten die<br />

jeweils letzte Zeile oder Spalte wiederholt.<br />

c○ M.-B. Kallenrode 2. Juli 2008


350 KAPITEL 7. DATENAUFBEREITUNG<br />

Abbildung 7.21: Progressive und Raster-<br />

Datenübertragung<br />

§ 1164 Abbildung 7.20 zeigt die Abhängigkeit des reproduzierten JPEG-Bildes von der Zahl<br />

der berücksichtigten Koeffizieten. Dazu wurde ein 512 × 512-Pixel großes Bild in ein 8 × 8-<br />

Raster von 64 × 64-Pixel großen Untermatrizen zerlegt. Diese relativ großen Untermatrizen<br />

wurden gewählt, da sich mit ihnen die Abweichungen vom Original besser verdeutlichen<br />

lassen.<br />

§ 1165 Aus dem Vergleich der Teilbilder wird deutlich, dass der Großteil der Information<br />

in den untersten Koeffizienten steckt – bereits mit 20 der 4096-Koeffizienten lässt sich ein<br />

Bild erzeugen (links unten), das die relevante Struktur des Originalbildes wieder gibt. Die<br />

höheren Koeffizienten verbessern nur noch den Detailreichtum.<br />

§ 1166 Während die Helligkeitswerte im Originalbild mit mindestens 8 bit/Pixel und Kanal<br />

codiert sind, lassen sich bei einer JPEG-Codierung mit Raten von 0.2–0.5 Bit/Pixel bereits<br />

mäßige bis gute Bildqualitätten erreichen. Bei einer Codierung mit 0.5–0.75 Bit/Pixel ist die<br />

Bildqualität bereits gut bis sehr gut, bei 1.5–2 Bit/Pixel unterscheidet sich das Bild nicht<br />

mehr vom Original.<br />

§ 1167 Die Wirksamkeit aller Komprimierungs- aber auch Korrekturverfahren beruht darauf,<br />

dass die Helligkeitswerte einzelner Pixel nicht völlig unabhängig sind und damit die<br />

Redundanz im Datensatz relativ groß ist. Ein Bild, in dem die Pixel statistisch erzeugt wurden,<br />

lässt sich weder sinnvoll korrigieren noch komprimieren.<br />

§ 1168 JPEG wird genauer beschrieben in [188], Witten et al. [255] und [249]; letzteree<br />

beschreiben auch andere gebräuchliche (und ebenfalls verlustbehaftete) Kompressionsalgorithmen<br />

wie MPEG und MP3.<br />

§ 1169 JPEG-Codierung ist für Fernerkundungsinstrumente unter den Umständen geeignet,<br />

in denen das räumliche Auflösungsvermögen nicht voll ausgenutzt werden muss – allerdings<br />

kann dann eine initiale Reduktion der Daten durch Mittelung sinnvoller sein.<br />

2. Juli 2008 c○ M.-B. Kallenrode


7.4. MANAGING GIGABYTES 351<br />

Abbildung 7.22: Fraktale Bilderzeugung: das Ausgangsbild (links) wird beim Kopieren verkleinert<br />

und es werden drei Kopien wie ein Dreieck zusammen gesetzt (2tes Bild von links).<br />

Der Vorgang wird mit der so entstandenen Kopie wiederholt. Die untere Zeile das Sierpinsky-<br />

Dreieck<br />

§ 1170 Auch wenn verlustbehaftete Verfahren wie JPEG bei der Speicherung von Bitmaps<br />

zwar eine hohe Komprimierung aber dafür einen Verlust an Information bedeuten,<br />

können derartige Komprimierungsverfahren für die Übertragung von Bildern auf Kanälen<br />

mit geringer Übertragungsrate sinnvoll sein. Ein als Bitmap gespeichertes Bild wird als<br />

Raster Punkt für Punkt übertragen, es baut sich also langsam auf, in dem jeweils ein<br />

Bildpunkt neben den anderen gesetzt wird, Zeile für Zeile (vgl. Abb. 7.21 unten). Diese<br />

Übertragungstechnik wird als raster transmission oder Rasterübertragung bezeichnet; bei<br />

geringer Übertragungsrate sieht man dem Bild beim Wachsen zu. Die Daten eines JPEG-<br />

Bildes dagegen erzeugen einen ganz anderen Bildaufbau. Da bei der progressive transmission<br />

bzw. progressiven Datenübertragung nicht Pixel sondern Koeffizienten einer Transformation<br />

übertragen werden, entsteht bereits nach der Übertragung des ersten Koeffizienten ein<br />

vollständiges, wenn auch extrem grobes Bild (Abb. 7.21 oben). Mit der Übertragung der<br />

weiteren Koeffizienten verändert sich nicht mehr die Geometrie des Bildes sondern seine<br />

Detailtiefe. Das hat z.B. für die schnelle Darstellung von Bildern im Internet Vorteile.<br />

§ 1171 Bei der Übertragung über unsichere Kanäle, insbesondere die Unterbrechung einer<br />

Übertragung, liefern beide Verfahren völlig unterschiedliche Resultate: Bei der Rasterübertragung<br />

sind die bisher übertragenen Pixel alle exakt wieder gegeben – möglicherweise<br />

wissen wir dann über einen völlig uninteressanten Teil der Szene sehr genau Bescheid. Bei<br />

der progressiven Übertragung dagegen wird die Szene insgesamt erst einmal grob übertragen<br />

– für den Überblick sicherlich gut, auch wenn die Details noch fehlen.<br />

7.4.3 Fraktale Bildkompression<br />

§ 1172 Die bisher betrachteten Verlust freien Codierungsverfahren basieren auf dem Kontext<br />

zwischen benachbarten Pixeln sowie einer geschickten Huffman- oder Lempel–Ziv-Codierung<br />

dieser Ergebnisse. Fraktale Bildkompression wählt einen radikaleren Ansatz bei der Erzeugung<br />

der zu codierenden Sequenz: hier wird der Bezug zwischen größeren Teilen des Bildes<br />

hergestellt, in dem selbst-ähnliche Abschnitte identifiziert werden. Die Grundzüge dieser Verfahren<br />

sind in Fisher [57] dargestellt.<br />

§ 1173 Fraktale Bildkompression setzt die Existsnz selbstähnlicher Bereiche voraus. Selbstähnliche<br />

Bereiche zeigen auf allen räumlichen Skalen die gleiche Struktur: vergrößern wir eine<br />

Küstenlinie immer weiter, so zeigt jeder neue Ausschnitt eine ähnliche Struktur. Selbstähnliche<br />

Abbildungen haben keine natürliche Größe und lassen sich daher auf beliebige Formate vergrößern<br />

ohne dass, wie bei GIF und den anderen Formaten, die Pixel als solche sichtbar<br />

werden.<br />

c○ M.-B. Kallenrode 2. Juli 2008


352 KAPITEL 7. DATENAUFBEREITUNG<br />

§ 1174 Die Grundidee der fraktalen Bildkompression lässt sich am leichtesten verstehen,<br />

wenn wir von der Bildrekonstruktion starten. Abbildung 7.22 illustriert das Abbildungsprinzip:<br />

das Ausgangsbild wird beim Kopieren skaliert und nach einem festen Schema wieder<br />

zusammengesetzt. In diesem Beispiel wird jeweils drei um einen Faktor 2 verkleinerte Kopien<br />

erstellt und in Form eines Dreiecks zusammen gesetzt. Mit jeder weiteren Kopie bleibt die<br />

Grundform, das Dreieck, unverändert während sich innerhalb der Struktur immer feinere<br />

Details ausbilden. Mit zunehmender Zahl der Kopien sind diese Details jedoch kaum noch<br />

wahrnehmbar: jedes der Sierpinsky-Dreiecke im rechten Teil der unteren Zeile zieht gleich aus<br />

– und vergrößern wir eines der Dreiecke, so finden wir jeweils seinen Vorgänger darin wieder.<br />

§ 1175 Fraktale Bildkonstruktion basiert daher auf einem einfachen Satz von Regeln:<br />

1. von einem Bild wird eine vorgegebenen Zahl von Kopien erstellt,<br />

2. diese Kopien werden nach einem vorgegebenen Regelwerk zusammengesetzt, wobei für jede<br />

Kopie Position, Skalierungsfaktoren (Verkleinerung, Verzerrung) und Rotationswinkel<br />

vorgegeben sind. 5<br />

§ 1176 Aus dem Prinzip der Bildkonstruktion können wir die Anforderung für die Bildkompression<br />

ableiten: es müssen Abschnitte des Bildes identifiziert werden, die selbstähnlich<br />

sind. Für diese Abschnitte muss die Grundfigur bestimmt werden und die Konstruktionsregeln.<br />

Idealerweise finden sich in einem Bild mehrere selbstähnliche Abschnitte, die aus der<br />

gleichen Grundfunktion konstruiert werden können. Daher muss zusätzlich zu den oben gegebenen<br />

Kopierregeln eine Anpassung von Kontrast und Helligkeit gegeben werden sowie<br />

eine Maske, die die Bereiche des Originals markiert, die durch diese Kopien ersetzt werden<br />

können.<br />

§ 1177 Fraktale Bildkompression unterscheidet sich von den anderen Kompressionsverfahren<br />

durch eine Eigenschaft der Fraktale: da Fraktale auf jeder Längenskala Details zeigen, hat<br />

das decodierte Bild keine eigene Größe sondern kann in beliebiger Größe erzeugt werden. Mit<br />

zunehmender Größe des decodierten Bildes werden mehr Abbildungsschritte durchlaufen und<br />

damit mehr Details hinzu gefügt. Allerdings sind diese Details nicht real, sie erzeugen jedoch<br />

einen besseren optischen Eindruck als die bei der Vergrößerung eines Bitmaps entstehende<br />

körnige Struktur.<br />

§ 1178 Fraktale Bildkompression ist ein verlustbehaftetes Verfahren, allerdings sind die<br />

Kompressionsraten wesentlich größer als z.B. bei JPEG und auf Grund der nicht vorhandenen<br />

Körnigkeit der optische Eindruck besser. Bisher hat sich fraktale Bildkompression nicht<br />

durchgesetzt, die hohen Kompressionsraten bei im Vergleich zu JPEG geringem Informationsverlust<br />

könnten das Verfahren jedoch auch für die <strong>Erdfernerkundung</strong> attraktiv machen:<br />

zum einen haben z.B. Küstenlinien, Flussläufe und Gebirge selbstähnliche Strukturen, zum<br />

anderen ist eines der Hauptprobleme der fraktalen Bildkompression, die Identifikation der<br />

selbstähnlichen Bereiche in einem Bild nicht ganz so gravierend, da in der <strong>Erdfernerkundung</strong><br />

die gleichen Szenen immer wieder aufgenommen werden und damit Masken vorgegeben<br />

werden können bzw. Netze gut auf eine automatische Identifikation trainiert werden können.<br />

5 Die Kopien müssen nicht so einfach zusammengesetzt werden wie in Abb. 7.22 sondern können bei<br />

geeigneter Skalierung auch Gebilde erzeugen wie z.B. den Barnsley Farn, hier in einer Abbildung von http:<br />

//obelix.polito.it/Tesi/Lug99/Mereu/default.htm<br />

2. Juli 2008 c○ M.-B. Kallenrode


7.4. MANAGING GIGABYTES 353<br />

Literatur<br />

§ 1179 Eine gute Darstellung der theoretischen Grundlagen der Verfahren zur digitalen Bildverarbeitung<br />

gibt Jähne [111], Bildbearbeitung für Satelliteninstrumente wird diskutiert in<br />

Sabins [209], Cracknell und Hayes [41] und teilweise auch Löffler [154]. Eine gute Einführung,<br />

wenn auch mit Anwendungsbeispielen aus der Medizin, gibt auch Handels [88]; die Variante<br />

zum selber Hand anlegen liefert [180].<br />

Fragen<br />

Frage 75 Was versteht man unter Kontrastanreicherung? Beschreiben Sie Möglichkeiten zur<br />

Kontrastanreicherung.<br />

Frage 76 Satelliten liefern sehr große Datenmengen. Daher ist eine automatische Dateninterpretation<br />

erforderlich. Erläutern Sie Methoden, wie aus den Daten eines Multispektralscanners<br />

(z.B. Thematic Mapper oder MultiSpectralScanner auf LandSat) zumindest eine<br />

Grobunterteilung (z.B. in Wasser, landwirtschaftlich genutze Fläche usw.) erfolgen kann.<br />

Frage 77 In der folgenden Abbildung ist das spektrale Reflektionsvermögen für verschiedene<br />

Objekte auf dem Boden gezeigt. Konstruieren Sie daraus ein Cluster-Diagramm, das eine<br />

Identifikation von Wasser, Gestein, Bebauung und Grünfläche auf der Basis der Kombination<br />

von drei Kanälen erlaubt (drei-dimensionales Zeichnen ist ein Problem, tragen Sie zwei Kanäle<br />

in das untere 2D-Diagramm ein und erläutern Sie den dritten verbal – z.B. die beiden Cluster<br />

liegen in der Projektion auf 2D zwar aufeinander, sind aber entlang der dritten Dimension<br />

eindeutig getrennt). Welche Kanäle wählen Sie? Ist eine Unterscheidung zwischen Wasser<br />

und Bebauung unter Verwendung von nur zwei Kanälen möglich?<br />

Frage 78 Die folgende Abbildung zeigt ein Clusterdiagramm zur Klassifikation weißer Punkte<br />

in den AVHRR-Daten zur Unterscheidung von Schnee und Bewölkung. Verwendet wurden<br />

Informationen aus einem sichtbaren Kanal sowie die Differenz der beiden Kanäle im thermischen<br />

Infrarot. Welche weiteren Informationen (auch von anderen Instrumenttypen) könnte<br />

man verwenden, um eine genauere Unterscheidung zu erhalten?<br />

c○ M.-B. Kallenrode 2. Juli 2008


354 KAPITEL 7. DATENAUFBEREITUNG<br />

Aufgaben<br />

Aufgabe 32 Bei der Nachbearbeitung der Bilder am Boden müssen fehlerhafte Pixel erkannt<br />

und entfernt werden. Beschreiben Sie das Verfahren und führen Sie es an folgendem Beispiel<br />

durch (Hinweis: die Fehler sind ‘offensichtlich’):<br />

Aufgabe 33 Bei der Fehlerkorrektur in folgendem Beispiel (99 bezeichnet die fehlerhaften<br />

Werte) können Sie wahlweise einen 3x3 oder einen 5x5 Kernel verwenden. Welcher produziert<br />

die besseren Ergebnisse und warum?<br />

Aufgabe 34 Bei der Fehlerkorrektur in folgendem Beispiel können Sie wahlweise einen 3x3<br />

oder einen 5x5 Kernel verwenden (fehlerhafte Pixel sind bereits markiert). Welcher produziert<br />

die besseren Ergebnisse und warum?<br />

2. Juli 2008 c○ M.-B. Kallenrode


7.4. MANAGING GIGABYTES 355<br />

Aufgabe 35 Korrigieren Sie die folgenden, mit einem Spaltenfehler behafteten ‘Rohdaten’<br />

(Schema erläutern und für die ersten vier Zeilen durchführen).<br />

Aufgabe 36 In der folgenden Abbildung ist eine relativ scharfe Begrenzung (zwischen 5.<br />

und 6. Zeile) zwischen zwei Bereichen zu erkennen. Arbeiten Sie diese Grenze mit Hilfe<br />

der Kantenanreicherung stärker heraus und tragen Sie ihre Ergebnisse im fett umrandeten<br />

Bereich des rechten Teilbild ein.<br />

Aufgabe 37 Die Auswertung einer Szene in einem verschneiten Gebirge gibt die folgende<br />

Verteilung von Helligkeitswerten. Wenden Sie eine lineare Kontrastdehnung (a) auf den<br />

vollständigen Datensatz an und (b) auf den Bereich der Helligkeitswerte, der mindestens 95%<br />

der Pixel umfasst.<br />

c○ M.-B. Kallenrode 2. Juli 2008


356 KAPITEL 7. DATENAUFBEREITUNG<br />

Aufgabe 38 Konstruieren Sie für die folgende Verteilung von Helligkeitswerten eine Histogramm<br />

angeglichene Kontrastanreicherung.<br />

2. Juli 2008 c○ M.-B. Kallenrode


Kapitel 8<br />

Anhang Formalia<br />

8.1 Liste der verwendeten Symbole<br />

β Ausströmrate<br />

γ universelle Gravitationskonstante<br />

δ Vorwärtskompensation<br />

ε Exzentrizität<br />

ελ spektrales Emissionsvermögen<br />

ε mittleres Emissionsvermögen<br />

η wahre Anomalie<br />

ηk Kommunikationswirkungsgrad<br />

�λc Laplace-Vektor<br />

λ Wellenlänge<br />

µ Gesamtmasse im Gravitationsgesetz<br />

µ Absorptionskoeffizient<br />

Ω Rektaszension<br />

ω Epoche<br />

ϱ Dichte<br />

ϱ Signal-Rausch-Verhältnis<br />

σ Stefan–Boltzmann Konstante<br />

σc Bahnkonstante<br />

θ Winkelauflösungsvermögen<br />

a große Halbachse<br />

aλ spektrales Absorptionsvermögen<br />

�as Störbeschleunigung<br />

A Albedo<br />

A Fläche<br />

Aeff<br />

effektive Fläche<br />

b Bildweite<br />

b(p) Shannon-Funktion<br />

B Bandbreite<br />

B Bildgröße<br />

Bλ(T ) Planck-Funktion<br />

Widerstandsbeiwert<br />

cD<br />

ck<br />

Konstante im 3. Kepler’schen Gesetz<br />

C Kanalkapazität<br />

D Öffnungsdurchmesser Objektiv<br />

D(u, v) Abstand (im Frequenzbereich)<br />

357


358 KAPITEL 8. ANHANG FORMALIA<br />

D0 Cutoff-Frequenz (als Abstand im Frequenzbereich)<br />

d Bildverschiebung<br />

d Hamming-Distanz<br />

ef Effizienz eines Codes<br />

Eb Bitenergie<br />

Ekin kinetische Energie<br />

f Brennweite<br />

fe Zahl erkennbarer Binärzeichenfehler<br />

F Informationsfluss<br />

�F Kraft<br />

�FReib Reibungskraft<br />

FB Blickfeld<br />

g Gravitationsbeschleunigung<br />

g Gegenstandweite<br />

G Gegenstandsgröße<br />

G Antennengewinn<br />

h (Flug)Höhe<br />

h Planck’sches Wirkungsquantum<br />

hc Energiekonstante<br />

H Übertragungsfunktion<br />

H Entropie<br />

H0 maximale Entropie<br />

i Inklination<br />

I Intensität<br />

I Informationsgehalt<br />

k Kantenlänge Film<br />

L Raumdämpfung<br />

m Masse<br />

m mittlerer Mehraufwand pro Zeichen<br />

m0 Startmasse<br />

mB Masse bei Brennschluss<br />

mN Masse der Nutzlast<br />

mT Masse des Treibstoffs<br />

ME Masse der Erde<br />

MM Masse des Mondes<br />

MP Masse des Planeten<br />

M⊙ Masse der Sonne<br />

MZ Masse des Zentralkörpers<br />

p Bahnparameter<br />

p Wahrscheinlichkeit<br />

�p Impuls<br />

P Umlaufperiode<br />

PN Leistung des Rauschens<br />

PS Leistung des Signals<br />

q Strahlungsstrom<br />

�r Ortsvektor<br />

�rMM Ortsvektor zum Massenmittelpunkt<br />

r relative Redundanz<br />

rv Rauschverhältnis (signal to noise ratio)<br />

R Redundanz<br />

R Reichweite (Range)<br />

Rb Bitrate<br />

Rb Bodenauflösungsvermögen<br />

Erdradius<br />

RE<br />

2. Juli 2008 c○ M.-B. Kallenrode


8.2. NÜTZLICHE KONSTANTEN 359<br />

RM Radius des Mondes<br />

R⊙ Radius der Sonne<br />

r⊙,E Abstand Sonne–Erde (astronomische Einheit AE, astronomical unit AU, 149 Mio km)<br />

rEM Abstand Erde–Mond<br />

Sλ Ergiebigkeit<br />

S⊙ Solarkonstante<br />

T Umlaufzeit<br />

T Temperatur<br />

Tb Bitzeit<br />

Teff Effektivtemperatur<br />

TR Temperatur des Empfängers<br />

TS Temperatur Ziel bzw. Bodenoberfläche<br />

t Zeit<br />

t maximale Korrekturfähigkeit eines Codes<br />

u Koordinate (Parameter, Frequenzbereich)<br />

v, �v Geschwindigkeit<br />

v Koordinate (Parameter, Frequenzbereich<br />

) vA Geschwindigkeit im Apozentrum<br />

vB Geschwindigkeit bei Brennschluss<br />

vP Geschwindigkeit im Perizentrum<br />

Kreisbahngeschwindigkeit<br />

vk<br />

8.2 Nützliche Konstanten<br />

γ 6.67259 · 10 −11 N m 2 /kg 2 universelle Gravitationskonstante<br />

σ 5.67051 · 10 −8 W/(m 2 K 4 ) Stefan–Boltzmann-Konstante<br />

c 2.99792458 · 10 8 m/s Vakuum-Lichtgeschwindigkeit<br />

e 1.60217733 · 10 −19 C Elementarladung<br />

h 6.6260755 · 10 −34 Js Plank’sches Wirkungsquantum<br />

k 1.3806504 · 10 −23 Boltzmann Konstante<br />

ME 5.9742 · 10 24 kg Masse der Erde<br />

MM 7.3483 · 10 22 kg Masse des Mondes<br />

M⊙ 1.9891 · 10 30 kg Masse der Sonne<br />

RE 6370 km Erdradius<br />

RM 1740 km Radius des Mondes<br />

R⊙ 697 000 km Radius der Sonne<br />

r⊙,E 1.49 · 10 6 km Abstand Sonne–Erde (astronomische Einheit AU)<br />

rEM 384 400 km Abstand Erde–Mond<br />

S⊙<br />

8.3 Abkürzungen<br />

Solarkonstante<br />

AATSR Advanced Along Track Scanning Radiometer<br />

ACE Advanced Composition Explorer<br />

ADEOS Advanced Earth Observing Satellite<br />

AEM Applications Explorer Mission<br />

ARGOS Advanced Research and Global Observation Satellite<br />

AIRS Atmospheric Infrared Sounder<br />

ALT Altimeter<br />

AMSR Advanced Microwave Scanning Radiometer<br />

AMSR-E Advanced Microwave Scanning Radiometer for EOS<br />

AMSU Advanced Microwave Sounding Unit<br />

ASAR Advanced SAR<br />

c○ M.-B. Kallenrode 2. Juli 2008


360 KAPITEL 8. ANHANG FORMALIA<br />

ASTER Advanced Spaceborne Thermal Emission and Reflection<br />

ATLID Atmospheric Lidar<br />

ATN<br />

ATS Application Technology Satellite<br />

AVCS Advanced Vidicon Camera System<br />

AVHRR Advanced Very High Resolution Radiometer<br />

BUV Backscattered UV<br />

CALIOP Cloud-Aerosol Lidar with Orthogonal Polarization<br />

CalTech California Institute od technology<br />

CAWSES Climate And Weather in the Sun–Earth System<br />

CCD Charge Coupled device<br />

CCRS Canadian center for Remote Sensing<br />

CEOS Committee on Earth Observation Satellites<br />

CERES Clouds and the Earth’s Radiant Energy System<br />

CGRO Compton Gamma Ray Observatory<br />

CHAMP Challenging Minisatellite Payload<br />

CIRES Cooperative Institute for Research in Environmental Science<br />

CPR Cloud Profiling Radar<br />

CME Coronal Mass Ejection<br />

CMIS Conical-scanning Microwave Imager/Sounder<br />

CNES<br />

CSA Canadian Space Agency<br />

CZCS Coastal Zone Color Scanner<br />

DLR Deutsches Zentrum für Luft- und Raumfahrt<br />

DMC Disaster Management Configuration<br />

DMSP Defense Meteorological Satellite Program<br />

DoD Department of Defense<br />

EADS European Aeronautic Defence and Space Company<br />

EnviSat Environmental Satellite<br />

EOS Earth Observing System<br />

ERBE Earth Radiation Budget Experiment<br />

EROS Earth Resources Observation Systems<br />

ERS Earth Resource Satellite<br />

ERSDAC Earth Remote Sensing Data Analysis Center<br />

ERTS Earth Resources Technology Satellite<br />

ESA European Space Agency<br />

ESMR Electrically Scanning Microwave Radiometer<br />

ESP Energetic Storm Particle<br />

ESSA Environmental Science and Services Administration<br />

ETM Enhanced Thematic Mapper<br />

ETM+ Enhanced Thematic Mapper Plus<br />

EUV Extreme Ultra Violett<br />

FAPAR Fraction of Absorbed Photosynthetically Active Radiation<br />

FAS Federation of American Scientists<br />

FCKW Flourchlorkohlenwasserstoffe<br />

FPR Flat Plate Radiometer<br />

GCR Galactic Cosmic Rays<br />

GEMS Global Monitoring for Environment and Security<br />

GEOS Geostationary Satellite<br />

GERB Geostationary Earth Radiation Budget<br />

GES DISC Goddard Earth Sciences – Data and Information Service Center<br />

GIF Graphics Interchange Format<br />

GLONASS Global Orbiting and Navigation Satellite System<br />

GLAS Geoscience Laser Altimeter System<br />

2. Juli 2008 c○ M.-B. Kallenrode


8.3. ABKÜRZUNGEN 361<br />

GLRS Geoscience Laser Ranging System<br />

GMES Global Monitoring for Environment and Security<br />

GOES Geostationary Operational Environmental Satellite<br />

GOME Global Ozone Monitoring Experiment<br />

GOMOS Global Ozone Monitoring by Occultation of Stars<br />

GPS Global Positioning System<br />

GRO Gamma Ray Observatory<br />

GSFC Goddard Space Flight Center<br />

HALOE Halogen Occultation Experiment<br />

HAO High Altitude Observatory<br />

HCCM Heat Capacity Mapping Mission<br />

HIRDLS High Resolution Dynamic Limb Sounder<br />

HIRIS High-Resolution Imaging Spectrometer<br />

HRIS High-Resolution Imaging Spectrometer<br />

HRMSI High Resolution MultiSpectral Imager<br />

HRV High Resolution Visible<br />

HSB Humidity Sounder for Brazil<br />

HST Hubble Space Telescope<br />

ICESat Ice Cloud and Elevation Satellite<br />

IFOV Instantaneous Field of View<br />

IMP Interplanetary Monitoring Platform<br />

IR Infrarot<br />

ISEE International Sun Earth Explorer<br />

ISRO Indian Space Research Organization<br />

ISS International Space Station<br />

ITIR Intermediate and Thermal Infrared Radiometer<br />

ITOS Improved TIROS Operational System<br />

JAXA Japan Aerospace Exploration Agency<br />

JPEG Joint Photographic Experts Group<br />

JPL Jet propulsion Laboratory<br />

LAGEOS Laser Geodetic Satellite<br />

LandSat Land (Remote Sensing) Satellite<br />

LAWS Laser Atmospheric Wind Sounder<br />

LRR Laser Retro-Reflector<br />

MAPS Measurement of Air Pollution from Satellites<br />

MERIS Medium Resolution Imaging Spectrometer<br />

MeteoSat Meteorological Satellite<br />

MIPAS Michelson Interferometer for Passive Atmospheric Sounding<br />

MIR (auch als das Wort Friede zu lesen)<br />

MISR Multi-angle Imaging Spectro-Radiometer<br />

MLS Microwave Limb Sounder<br />

MODIS Moderate-Resolution Imaging Spectrometer<br />

MOMS Modularer Optoelektronischer MultispektralScanner<br />

MOPITT Measurements of Pollution in the Troposphere<br />

MSG MeteoSat Second Generation<br />

MSR Multispectral Radiometer<br />

MSRS Multi-Spectral High Resolution System<br />

MSS Multi-Spectral Scanner<br />

MWR Microwave Radiometer<br />

MVIR Meteosat Visible and Infrared Radiometer<br />

NavStar NAvigations System with Time And Ranging<br />

NASA National Aeronautics and Space Administration<br />

NASDA National Space Development Agency of Japan<br />

NDVI normalized difference vegetation index<br />

c○ M.-B. Kallenrode 2. Juli 2008


362 KAPITEL 8. ANHANG FORMALIA<br />

NEMS Nimbus-E Microwave Spectrometer<br />

NLC Nocti-Lucent Cloud<br />

NOAA National Oceanographic and Atmospheric Administration<br />

NPOESS National Polar-Orbiting Operational Environmental System<br />

NPP NPOESS Preparatory Project<br />

NRL Naval Research Lab<br />

NSIDC National Snow and Ice Data Center<br />

NSSDC National Space Science Data Center<br />

OCO Orbiting carbon Observatory<br />

OMI Ozone Monitoring Instrument<br />

PNG Portable Network Graphics<br />

POAM Polar Ozone and Aerosol Measurement<br />

POES Polar-orbiting Operational Environmental Satellite<br />

PPP Public-Private Partnership<br />

RA-2 Radar-Altimeter-2<br />

RGB Red–Green–Blue<br />

RBV Return Beam Vidicon<br />

RST Remote Sensing Tutorial (der NASA)<br />

SAA Südatlantische Anomalie<br />

SAGE Stratospheric Aerosol and Gas Experiment<br />

SAR Synthetic Aperture Radar<br />

SAM Stratospheric Aerosol Measurement<br />

SBUV Solar Backscattered UltraVilolett<br />

SCIAMACHY Scanning Imaging Absorption Spectrometer for atmospheric Cartography<br />

SeaSat Sea (Remote Sensing) Satellite<br />

SEM Space Environment Monitor<br />

SEP Solar Energetic Particle<br />

SEVIRIO Spinning Enhanced Visible and Infrared Imager<br />

SMM Solar Maximum Mission<br />

SMMR Scanning Multichannel Microwave Radiometer<br />

SOHO Solar and Heliospheric Observatory<br />

SPM Solar Proton Monitor<br />

SPOT System pour l’Observation de la Terre<br />

SR Scanning Radiometer<br />

SSC Swedish Space Corporation<br />

SST Sea Surface Temperature<br />

STSI Space Telescope Science Institute<br />

SWAMI Short-Wave Aerostat mounted Imager<br />

SWH significant wave height<br />

TDRS Tracking and Data Relay System<br />

TES Tropospheric Emission Spectrometer<br />

THIR Temperature Humidity Infrared Radiometer<br />

TIR thermal infrared, thermisches Infrarot<br />

TIROS Television Infrared Oberservation Satellite<br />

TM Thematic Mapper<br />

TOMS Total Ozon Mapping Spectrometer<br />

TOS TIROS Operational Satellite<br />

TRACER Tropospheric Radiometer for Atmospheric Chemestry and Environmental Research<br />

TRMM Tropical Rainfall Measuring Mission<br />

TVOS TIROS Operational Vertical Sounder<br />

UCS Union of Concerned Scientists<br />

USGS US Geological Survey<br />

USRA University Space Research Association<br />

UVSP Ultraviolet Spectrometer and Polarimeter<br />

2. Juli 2008 c○ M.-B. Kallenrode


8.3. ABKÜRZUNGEN 363<br />

VEEGA Venus–Earth–Earth–Gravity–Assist<br />

VHRR Very High Resolution Radiometer<br />

VIRS Visible and Infrared Spectrometer<br />

VIS visible<br />

VISSR Visible and Infrared Spin Scan Radiometer<br />

WFC Wide Field Camera<br />

WMAP Wilkinson Microwave Anisotropy Probe WMAP<br />

c○ M.-B. Kallenrode 2. Juli 2008


Kapitel 9<br />

Etwas zum Spielen<br />

9.1 Lempel–Ziv-Algorithmus<br />

§ 1180 Wir haben in § 1015 den Lempel–Ziv-Algorithmus eingeführt, der einen von der<br />

Statistik der Datenquelle abhängige Codierung erlaubt. Da das Beispiel in § 1017 nicht besonders<br />

beeindruckend war, betrachten wir hier ein etwas längeres Beispiel. Mit Hilfe eines<br />

Zufallsgenerators wurde die folgende, aus 10 000 Bit bestehende Sequenz erzeugt:<br />

01111011110100111011101010011001101101111010100001011010100100000010001100011011<br />

01111011011101011100001100110010000010001001111000110110000100010001011000001111<br />

00101011110111010111100110100110110110011100111000001101101110010111111111000000<br />

01101111000111000011101100000001011011000000101101101000110010100101100011001111<br />

10100101110001001000011011101100011101110010100010101111101011100000110000101101<br />

00111100011011010000111010010010111001110001101010100111001001110110110010101010<br />

00110101011010100111110111000011000010010100001100000101110010011101011101000011<br />

11111100000100111010111000110111111000100111110011110110011110001100011011001111<br />

10010011010000101010000010101010001011111110011010001111011111110000111000111000<br />

00111000000111100011000100101000011111000111001001001111010011100000010011010011<br />

01001001100011011000101001001110101000011000011001111001101110001001011100011010<br />

00100111110110100000010100011100101000010000100010000111010100011001011001000101<br />

10000101011100000110111100000001001111011010010101100010001001100000011001101100<br />

10011101001011110110101001000111111011000001101100001011101111010101010101000110<br />

10011011101011011010101010000100100100010111100111010101010111110011010001001100<br />

00010101111111001010011011101001001110001100001010000110011001111110010010110011<br />

01001100000001011111100101111010011100110011110000010001011101010111111110010111<br />

11011111000011101000100000011111101010111101110110100011111000101110010101100101<br />

11110111110010000100110000101010101010100101110011101110011101000100011110011100<br />

01100010110100111101100011110011010100101011000111101110001110000100000110110010<br />

11101001010111010011011001011110011000101001111110000100011010111111000101101101<br />

11111011011011011000101110000100111111001101001110000111101000001000110010011010<br />

10011101110101111000001110100110110010100100011011010101100001101010011011010000<br />

01000110110000100101000110011111110011110110101101100111100111110010000000101100<br />

10010011000100111110010011101100010110010001111111010100101000001011011101010010<br />

11000011100101010100000111010110100011100110100000000110010001010001110001011100<br />

01001001010100100001101100001100100100110000111011101000100000001100110110111000<br />

00101101001110100000110101100100100011101011000010111110011110110010000101110100<br />

00001100110001111101001011011101110111010011101001001111101110111000110000101110<br />

00110001010111110011100111110001000010101111111100011001111101001000100110111100<br />

01100000100100011111010001001101010011001101000001001010000101010001101111111010<br />

364


9.1. LEMPEL–ZIV-ALGORITHMUS 365<br />

11100001111001110010001000000011001110001001010010111001111101100100010011011111<br />

00101111010111010100100111001000000011110111001110011100000101001011111111010100<br />

00110000001100101010011101101001001101101101001111001100011001101000010000001100<br />

00010100010011110101001010011110110101101101110101010001010000010000110100011000<br />

11000001100001001000010101011101001110100110011010000010001110100001010100010010<br />

01011111001111100100110101110001101010100111000110001001011110111010001101000000<br />

01100111001110100111110111101000000010110000010011110111111110111100110001011001<br />

01100000001001001100001010011101010000000101011101000110111010110001101010101101<br />

01111111100000010010100001010011001101011111101011011001001010100101011010010100<br />

10010101101000000100110110110000001110101010010001100011010110000110011101001100<br />

01010111110100000100100100000000101010110001010110101001000001100011111110001101<br />

00001100011101001110101101010101100000000110101101011111100100010101110110000100<br />

01001110100010110011001101111111101000000101101110011011111011001100111100101101<br />

01101110010010110011110100100101100011010111001110000110011011101100111010111111<br />

11110011011101011110001010100011010010111100001001111001101100011000110111010110<br />

10010111000101101010001010101000011110111001101100101101101100111010001111101110<br />

01011011000010100011101011101101010111010011100000110001011011011010010101101110<br />

01100101000001100111100100001110111110010010101000011100101010101000010101000110<br />

00001011011111111110111110010110000000100100010101110001101001011010010101010000<br />

00100101000111110000111001000100100011011010000001101110101011001101010011010000<br />

10001010010010101111010111110001010011110111101000100110111111001000100001101001<br />

00001011111001111001010001000001010111010100010101111110011100101000101110100101<br />

01101011000111011001110100101100010111101011100100010110101101100000001001110110<br />

01101100100011101100000101001010111011010001100010111011001100001110011110000011<br />

10010001101100010011101111110000010100011010101110010001111100010100000000010000<br />

11010100000001010011100111001001100001101110100001010100111101000000101101011000<br />

10011000011001111111100101110111010111010110101011001110000010001101111111110010<br />

11101000100011111110110010100110011001001100011011101100110101001110111100011010<br />

10010011110010111000111001100011010100101100011111011010111111000010100110101101<br />

11111001000110111101000011010010011101101101011110111011101010111001110111111000<br />

01001000111000101000110011001110011011110010000111100101010111000111110011011001<br />

10110010110010001011100010000001010100000011010110101111100001110010110000011011<br />

01011101000111001101100100011100000010101110001101101110110000110101011101000001<br />

01100011111100111111010101000101111110110111110100110111100001010110100000011000<br />

11111110110011111001010011010100110010011010100010111100001110111001111101100001<br />

00000001000101100101111010011111011101001111010100010100001110011101011011001101<br />

01100101001110100001100001111101001110111101111110110000010011000011110111011100<br />

10100100011010110011011000100111100000100001100000011011110110101110101110111000<br />

00010111000000000101101001110010000111100010110001100111101000100110000010010110<br />

00101110011010001110010111010010100111001100101101111000101001101101000010001111<br />

10101011011111001010100001010110001011000101110101001111011011011110010100100100<br />

11000010101000011000001001010001100001000111111010000001010110100011111011001010<br />

00110011010011101010101010011000111110110111000000001110111000001110101001011000<br />

00100011101001010100100101111110101111111001100111001001010100010101100100101101<br />

00100101011111000000010100001111100100010101010010101111001011011001110111111101<br />

11000101100010000101010111101101011000010011111110101000101101111000100010010110<br />

11001001101010010001100101110111100000000100010000011100010100100100111110011100<br />

10001110101101011111111100110111001000000110011101001011011100110101110110111011<br />

01000000100101101011000110110111100010100000110111000001100000111101101000110110<br />

10010000101000001101100110010111110110011000010000000010100110101010000010111100<br />

10100111001110100101011000011010001111011101011000000010110000010010111000000110<br />

11111110100011001001011001101111100101000000100011000111111100101100111100011101<br />

00011000111111110011010001000001100101001010101110101110100000110101111101010010<br />

00010001100001010101100011111010011001110010010001001101101011111001101001001111<br />

c○ M.-B. Kallenrode 2. Juli 2008


366 KAPITEL 9. ETWAS ZUM SPIELEN<br />

00010000110011110110001001001000110010101010100010011001111010010111001100110011<br />

01111110111111000110001100011000000011111001111001000111100111010001010111001110<br />

01011101101001111011001111011000101011001111111011110110110010011110000000100100<br />

00111001110011011010000010100011101110111001111000101000010110101000000010010101<br />

00100010010000111001000100101101000110111001010010101011101100100010001100011001<br />

01011011101110010011001001010111001111111011111010100110010101000100001010000010<br />

01110011000111101100011100101110011111011111001010110100001011010110010110010010<br />

10001011111110010001010110011000011100110010101101001000010110001001001110110100<br />

00111010011101000110101010110100111110001110110100000011011000110011000110011110<br />

11000010000111100100110010100001110101010001101111110110110111000000111101001011<br />

00011010111001001010001111010101100000100100101001011101110011000101110000011101<br />

10011010001111011110000110000001111110101011010001111011110000101001101111111111<br />

10001101111111101110010001001101110100000000110000000110110000000000111100000010<br />

00110100101101101111000100001101110001011011100010011001100111100011111100000010<br />

11010110101010000011100110100011111000111100101011110001011001000110010110001110<br />

00111110101011000000100111010000111100111010010110110001000011011011101000001110<br />

10101100010100011001011111111010101011011010100011000100110100111100111010010100<br />

01000110000111100100111110111000100110100001011011110000111001100110011000010000<br />

11111010111010111011011011011010001000101110110110001111101001101011010110110010<br />

01001001011100010110001101111100100010000111111111110110101000011111000011111101<br />

00001110100111111100101011010110110000000111110111000000100110010111010000100010<br />

10001100111011111110011101111100100010101000001101010111011001010101100010101101<br />

00001000100110011100111000010100010100001011001001111000011010001110101101111001<br />

11101010100110110100110010110110011110000111111101111111100110110100000010101010<br />

11010000100110101010010100000010010001010110011110110011000000010110111000010000<br />

10000111001111110010101100111011100110011111100010100000101011001010000010111000<br />

10011110001011110110100011100011010001010100000010011011010010111000100111010111<br />

01111001100100100100111000001111111111101011011010010011110010010010010101110001<br />

01101000010001000001101110101000010111101010111001000100100001101001100011111101<br />

10010101111001111011000111101011001101011110111011101111000010101001011100011011<br />

10010111010110100011111001010101111001010010000001111011000110101111111000000011<br />

00001100101100101110101100010010001001000101011110101111001110110011111010100101<br />

01000101011000011101111011110100000110100011100011011110110100010110111001011011<br />

11100001111000001011000100011110001100111010101010110110101001111000001011111101<br />

11111101111001011010010011100111111100110000001011010011010010111001101110000001<br />

00001110111110100000111101111010000001110001110011100011111001000000111000010100<br />

00010001110001010000011101110110010100101100011110011010101101011111000001011011<br />

10010111110101110011101100010111110010101000011110000101101000101011001110010011<br />

00000011001000100010010101110010001010010101001001001111010111111011110011100011<br />

101100011101101100101101000101101101011000100001<br />

§ 1181 Für die Lempel–Ziv Codierung müssen wir diese Sequenz wieder in Phrasen aufbrechen<br />

und über letztere in Anlehnung an Tabelle 6.5 genau Buch führen. Ersteres ist für die<br />

ersten Zeichen durch die Farbcodierung bereits vorgenommen, letzteres können Sie, zumindest<br />

für einen Teil der Sequenz, in Tabelle 9.1 und 9.2 eintragen.<br />

§ 1182 Spielen Sie mit weiteren Zeilen aus dem Beispiel und entwickeln Sie ein Gefühl dafür,<br />

wie die Phrasen wachsen – und wie der Text damit im Gegensatz zu dem kurzen Fragment<br />

in § 1017 effizienter zu kodieren ist.<br />

9.2 Bilder in MatLab<br />

§ 1183 Die Beispiele zur Bildbearbeitung in diesem Skript sind alle mit MatLab erstellt.<br />

Zwar hätte uns die Arbeit auch jedes konventionelle Bildbearbeitungssystem abnehmen<br />

2. Juli 2008 c○ M.-B. Kallenrode


9.2. BILDER IN MATLAB 367<br />

# Phrase Code # Phrase Code # Phrase Code<br />

1 0 51 101<br />

2 1 52 102<br />

3 11 53 103<br />

4 10 54 104<br />

5 111 55 105<br />

6 101 56 106<br />

7 00 57 107<br />

8 1110 58 108<br />

9 11101 59 109<br />

10 01 60 110<br />

11 001 61 111<br />

12 100 62 112<br />

13 110 63 113<br />

14 1101 64 114<br />

15 65 115<br />

16 66 116<br />

17 67 117<br />

18 68 118<br />

19 69 119<br />

20 70 120<br />

21 71 121<br />

22 72 122<br />

23 73 123<br />

24 74 124<br />

25 75 125<br />

26 76 126<br />

27 77 127<br />

28 78 128<br />

29 79 129<br />

30 80 130<br />

31 81 131<br />

32 82 132<br />

33 83 133<br />

34 84 134<br />

35 85 135<br />

36 86 136<br />

37 87 137<br />

38 88 138<br />

39 89 139<br />

40 90 140<br />

41 91 141<br />

42 92 142<br />

43 93 143<br />

44 94 144<br />

45 95 145<br />

46 96 146<br />

47 97 147<br />

48 98 148<br />

49 99 149<br />

50 100 150<br />

Tabelle 9.1: ....<br />

c○ M.-B. Kallenrode 2. Juli 2008


368 KAPITEL 9. ETWAS ZUM SPIELEN<br />

Phrase auftreten Phrase auftreten Phrase auftreten Phrase auftreten<br />

0 1 1 2 0000000 1000000<br />

00 7 10 4 0000001 1000001<br />

01 11 3 0000010 1000010<br />

000 100 0000011 1000011<br />

001 101 6 0000100 1000100<br />

010 110 0000101 1000101<br />

011 111 5 0000110 1000110<br />

0000 1000 0000111 1000111<br />

0001 1001 0001000 1001000<br />

0010 1010 0001001 1001001<br />

0011 1011 0001010 1001010<br />

0100 1100 0001011 1001011<br />

0101 1101 0001100 1001100<br />

0110 1110 8 0001101 1001101<br />

0111 1111 0001110 1001110<br />

00000 11111 0001111 1001111<br />

00001 10001 0010000 1010000<br />

00010 10010 0010001 1010001<br />

00011 10011 0010010 1010010<br />

00100 10100 0010011 1010011<br />

00101 10101 0010100 1010100<br />

00110 10110 0010101 1010101<br />

00111 10111 0010110 1010110<br />

01000 11000 0010111 1010111<br />

01001 11001 0011000 1011000<br />

01010 11010 0011001 1011001<br />

01011 11011 0011010 1011010<br />

01100 11100 0011011 1011011<br />

01101 11101 9 0011100 1011100<br />

01110 11110 0011101 1011101<br />

01111 11111 0011110 1011110<br />

000000 100000 0011111 1011111<br />

000001 100001 0100000 1100000<br />

000010 100010 0100001 1100001<br />

000011 100011 0100010 1100010<br />

000100 100100 0100011 1100011<br />

000101 100101 0100100 1100100<br />

000110 100110 0100101 1100101<br />

000111 100111 0100110 1100110<br />

001000 101000 0100111 1100111<br />

001001 101001 0101000 1101000<br />

001010 101010 0101001 1101001<br />

001011 101011 0101010 1101010<br />

001100 101100 0101011 1101011<br />

001101 101101 0101100 1101100<br />

001110 101110 0101101 1101101<br />

001111 101111 0101110 1101110<br />

010000 111111 0101111 1101111<br />

010001 110001 0110000 1110000<br />

010010 110010 0110001 1110001<br />

010011 110011 0110010 1110010<br />

010100 110100 0110011 1110011<br />

010101 110101 0110100 1110100<br />

010110 110110 0110101 1110101<br />

010111 110111 0110110 1110110<br />

011000 111000 0110111 1110111<br />

011001 111001 0111000 1111000<br />

011010 111010 0111001 1111001<br />

011011 111011 0111010 1111010<br />

011100 111100 0111011 1111011<br />

011101<br />

2. Juli 2008<br />

011110<br />

111101<br />

111110<br />

0111100<br />

0111101<br />

1111100<br />

c○ M.-B. Kallenrode<br />

1111101<br />

011111 111111 0111110 1111110<br />

Tabelle 9.2: Erstes Auftreten einer Phrase ...


9.2. BILDER IN MATLAB 369<br />

können; allerdings macht ein solches Programm meistens etwas ohne das wir wirklich wissen,<br />

was es macht. Die Bildbearbeitung in MatLab erlaubt es uns, den Prozess mit Hilfe eines<br />

uns bekannten Algorithmus zu steuern und nicht nur nach dem Kriterium, ob das Ergebnis<br />

gefällt. Fall Sie nicht mit MatLab sondern einem vorgefertigten Programmpaket mit sehr<br />

vielen und teilweise sehr speziellen Fähigkeiten spielen möchten, empfehle ich [180].<br />

§ 1184 Ausgangspunkt ist ein digitales Bild in der Datei inpig. Die Endung der Datei sollte<br />

zweckmäßigerweise die Information über das Format enthalten; MatLab akzeptiert u.a. die<br />

folgenden Eingabeformate: BMP (Microsoft Windows Bitmap), GIF (Graphics Interchange Files),<br />

HDF (Hierarchical Data Format), JPEG (Joint Photographic Experts Group), PCX (Paintbrush),<br />

PNG (Portable Network Graphics), TIFF (Tagged Image File Format) und XWD (X<br />

Window Dump). Mit Hilfe des Befehls<br />

>> [PIG] = imread(’inpig’,’gif’);<br />

oder in verkürzter Form<br />

>> [PIG] = imread(’inpig.gif’);<br />

wird die Bildinformation des GIF-File inpic.gif der Variblen PIG zugewiesen. Bei einem nur<br />

aus Grauwerten bestehenden Bild ist PIG eine n × m-Matrix; bei einem RGB-Bild wird ein<br />

dreidimensionales Array mit der Dimension n × m × 3 erzeugt. 1<br />

§ 1185 Im Regelfall, d.h. für die gängigen Bildformate, sind die Elemente von PIG 8-Bit<br />

Integer Werte (uint8, wie ein Blick in den Workspace zeigt). Die Einschränkung sollten wir bei<br />

allen Bearbeitungen der Datei im Hinterkopf behalten: Filterungen und Mittelwertbildungen<br />

sind in einem anderen Zahlenraum meist praktischer!<br />

9.2.1 Kombination von Spektralkanälen<br />

§ 1186 Verwenden wir Abb. 3.48 und 3.49 als Beispiel. Die Bilder in Abb. 3.48 können von<br />

[398] herunter geladen werden. Sie enthalten jeweils die Grauwerte für einen einzelnen Kanal.<br />

Lesen wir sie mit<br />

>> [P1] = imread(’band1.jpg’);<br />

ein, so wird jeder Kanal in ein 850 × 1100 uint8 Array geschrieben.<br />

§ 1187 Zur Kombination verschiedener Kanäle müssen wir die entsprechende Arrays zusammenfügen.<br />

Dazu stellt MatLab mit Concatenate cat eine geeignete Funktion zur Verfügung.<br />

Die Reihenfolge der Arrays ist dabei derart, dass entsprechend dem RGB-Schema der erste<br />

Kanal in Rot, der zweite in Grün und der Dritte in blau dargestellt wird. Die Befehlssequenz<br />

für das im linken Teil von Abb. 3.49 gezeigte Bild in echten Farben ist dann<br />

>> kombi321 = cat(3,P3,P2,P1);<br />

§ 1188 Zur schnellen Überprüfung können wir uns das Bild ansehen mit<br />

>> image(kombi321);<br />

Für die spätere Weiterverarbeitung lässt sich das Bild z.B. mit<br />

>> imwrite(kombi321,’outpig.png’,’png’)<br />

in die PNG-Datei outpig.png schreiben.<br />

§ 1189 Bis Sie alle 3er Kombinationen aus den sieben Kanälen ausprobiert haben, sind sie<br />

wahrscheinlich einige Zeit beschäftigt. Abbildung 9.1 zeigt einige der Kombinationsmöglichkeiten.<br />

1 Bei speziellen Codierungen im CYKM Schema entsteht ein n×m×4 Array – MatLab erkennt dies jedoch<br />

aus der Dateistruktur, als Nutzer müssen wir das nicht separat spezifizieren. Ein Blick in den Workspace zeigt,<br />

welche Struktur die Variable PIG hat.<br />

c○ M.-B. Kallenrode 2. Juli 2008


370 KAPITEL 9. ETWAS ZUM SPIELEN<br />

Abbildung 9.1: Kombinationen der Kanäle aus Abb. 3.48; oben jeweils 3 Kanäle sichtbar,<br />

zweite Reihe jeweils drei Kanäle nahes IR, dritte Reihe jeweils ein sichtbar, ein nahes IR<br />

sowie der thermisches IR, untere Reihe jeweils zwei nahes IR und ein sichtbar<br />

§ 1190 Die Anwendung des Befehls image auf einen einzelnen Spektralkanal liefert, wie in<br />

Abb. 9.2 angedeutet, nicht ganz das gewünschte Resultat: image erzeugt seine Bild derart,<br />

dass jedes Element einer Matrix direkt als der Index in die Colormap der Abbildung interpretiert<br />

wird oder eben als RGB-Wert. Der erste Fall wird auf ein eindimensionales Array<br />

angewendet, der zweite auf ein dreidimensionales. Da die Helligkeitswerte eines einzelnen<br />

Spektralbandes nur ein eindimensionales Array füllen, wird auf eine Colormap abgebildet.<br />

Auch die Wahl der Colormap ‘Gray’ liefert, wie im linken Teil von Abb. 9.2 zu erkennen,<br />

nicht das gewünschte Resultat.<br />

§ 1191 Eine einfache (allerdings Platz-intensive) Lösung besteht darin, mit Concatenate cat<br />

einfach alle drei RGB-Kanäle mit den gleichen Helligkeitswerten zu füllen:<br />

Abbildung 9.2: Der Befehl<br />

image angewendet auf ein<br />

n × m-Array, in diesem Fall<br />

die Helligkeitswerte von Band<br />

4. Auch die Verwendung der<br />

Colormap gray (rechts) löst<br />

das problem nicht<br />

2. Juli 2008 c○ M.-B. Kallenrode


9.2. BILDER IN MATLAB 371<br />

>> P4rgb = cat(3,P4,P4,P4);<br />

Abbildung 9.3: (Links:) Original<br />

der Helligkeitswerte von<br />

band 4; (rechts:) mit cat und<br />

image erzeugtes RGB-Bild in<br />

S/W<br />

Das Resultat ist im rechten Teil von Abb. 9.3 gegeben; der linke Teil zeigt zum Vergleich das<br />

‘Original’.<br />

9.2.2 Zerfleddern kombinierter Kanäle<br />

§ 1192 Beim Spiel mit normalen Photos, wie z.B. in Abb. 3.23 und 3.24, ist der Ausgang<br />

bereits ein Farbphoto – das Helligkeitsmuster liegt in drei Kanälen vor. Daher müssen wir<br />

vor einer weiteren Bearbeitung die Kanäle trennen. Als erstes schreiben wir inpig.jpg wieder<br />

in die Variable PIG und holen uns aus dem Workspace die Information über das Format.<br />

Nehmen wir kombi321 als Beispiel und lesen mit imread ein, so ist PIG ein dreidimensionales<br />

Array mit dem Format 850 × 1100 × 3.<br />

§ 1193 Aus diesem Array lassen sich die einzelnen Kanäle extrahieren; in einer vielleicht<br />

etwas aufwendigen expliziten Form (alternativ mit For-Schleife und Index) als<br />

>> KRED(:,:)=kombi321(:,:,1); ←↪<br />

>> KGREEN(:,:)=kombi321(:,:,2); ←↪<br />

>> KBLUE(:,:)=kombi321(:,:,3); ←↪<br />

Damit sollten wir wieder die Ausgangskanäle erhalten haben: die Differenz KRED-P3 sollte<br />

also verschwinden. Davon können wir uns z.B. mit der Sequenz<br />

>>maximum=max(max(diff(KRED-P3)))<br />

überzeugen.<br />

9.2.3 Histogramme<br />

§ 1194 Histogramme erstellt MatLab mit Hilfe des Befehls hist automatisch. Allerdings<br />

sollten wir hist nicht auf ein Bild in voller Schönheit anwenden: MatLab verlangt als Eingabe<br />

für hist einen Vektor oder eine Matrix; ein dreidimensionales Array ist nicht vorgesehen.<br />

Allerdings interessieren die Histogramme auch nur für einzelne Kanäle, d.h. die Eingangsgröße<br />

in hist ist eine Matrix.<br />

§ 1195 Auf eine Matrix angewendet liefert hist für jede Spalte der Matrix ein Histogramm.<br />

Um das Histogramm aller Helligkeitswerte der Matrix zu erhalten, formen wir diese mit<br />

reshape um:<br />

>> LP1=reshape(P1(:,:),[],1);<br />

Auf diese Weise wird aus der 850 × 1100-Matrix ein 935000 × 1 Vektor erzeugt. Der Datentyp<br />

wird dabei nicht verändert, d.h. die Elemente des Vektors sind weiterhin vom Typ uint8.<br />

§ 1196 Zum weiteren Rechnen ist uint8 (ebenso wie auch uint16) aus zwei Gründen unpraktisch:<br />

• MatLab kann intern nicht jedes Format mit jedem anderen kombinieren. So lässt sich z.B.<br />

hist nicht auf uint8-Größen anwenden.<br />

c○ M.-B. Kallenrode 2. Juli 2008


372 KAPITEL 9. ETWAS ZUM SPIELEN<br />

Abbildung 9.4:<br />

Histogramme der<br />

Bänder aus Abb. 3.48<br />

• selbst bei einfachen arithmetischen Operationen bei der Glättung oder anderer Filterung<br />

ist uint8 unpraktisch, da der Zahlenraum zu klein ist.<br />

Daher bietet sich die Konversion in den konventionellen Datentyp double an:<br />

>> X64 = double(X8) + 1<br />

Sollen die Daten nach der Bearbeitung wieder in ein Bild überführt werden, so muss die<br />

Conversion von double nach uint8 (oder entsprechend uint16) erfolgen gemäß<br />

>> X8 = uint8(round(X64 - 1))<br />

Wenn wir mit Hilfe von imwrite ein indiziertes Bild erzeugen, konvertiert MatLab die Werte<br />

automatisch falls erforderlich.<br />

§ 1197 Nach erfolgter Konversion lässt sich hist direkt anwenden. Die vollständige Sequenz<br />

zur Erstellung des Histogramms ist also<br />

>> LP1=reshape(P1(:,:),[],1); ←↪<br />

>> LF1=double(LP1)+1; ←↪<br />

>> hist(LF1,256) ←↪<br />

>> axis([0 256 0 12000])<br />

§ 1198 Die Histogramme der sieben Spektralbänder für die Szene aus Abb. 3.48 sind in<br />

Abb. 9.4 gegeben. Der Peak bei den niedrigen Helligkeitswerten in den Kanälen 3 und höher<br />

ist die Wasserfläche. Die Spikes im thermischen Infrarot sind kein numerisches Artefakt sondern<br />

scheinen reale Quellen unterschiedlicher Temperatur zu reflektieren. Die relativ schmale<br />

Verteilung der Helligkeitswerte im blauen Kanal Band 1 ist eine Folge der Dunststreuung.<br />

9.2.4 Filtern<br />

§ 1199 Zum Filtern empfiehlt es sich, mit den double statt den uint8 Daten zu arbeiten.<br />

Hier wird nur das Filtern von Hand mit dem Kernel wie im Haupttext demonstriert; die<br />

schnellere Verwendung einer Laplace-Transformation mit Hilfe des MatLab-Befehls filter<br />

wird nicht berücksichtigt.<br />

2. Juli 2008 c○ M.-B. Kallenrode


9.2. BILDER IN MATLAB 373<br />

Abbildung 9.5: Glättungsfilter angewendet auf ein aus Zufallszahlen erzeugtes Bild. Die 2×2-<br />

Unterbilder geben jeweils die Helligkeitswerte in rot, grün, blau und RGB wieder. Links oben<br />

die zufällig erzeugten Helligkeitswerte, rechts oben mit einem linearen 3-Filter geglättet, links<br />

unten mit einem linearen 5-Filter und rechts unten mit einem linearen 7 × 7-Filter<br />

§ 1200 Das Filtern von Hand bedeutet im wesentlichen, dass der Helligkeitswert pi,j in einer<br />

Zielzelle (i, j) mit Hilfe der Helligkeitswerte in benachbarten Zellen modifiziert werden soll.<br />

Da der entsprechende Algorithmus für alle Zellen durchgeführt werden muss, ist ein derartiger<br />

Filter in MatLab stets mit zwei for-Schleifen verbunden.<br />

§ 1201 Ein einfaches Glättungsfilter mit einem (2n + 1) × (2n + 1)-Kernel lässt sich eine<br />

m1 × m2-Matrix anwenden als<br />

for ihor=n+1:m1-(n+1)<br />

for ivert=n+1:m2-(n+1)<br />

r3red(ivert,ihor)=(sum(rred(ivert-1,ihor-n:ihor+n))+<br />

sum(rred(ivert,ihor-n:ihor+n))+<br />

sum(rred(ivert+1,ihor-n:ihor+n)))/9;<br />

end<br />

end<br />

mit n = 1, entsprechend einem 3×3-Kernel. Für größere Kernel lässt sich zwar die Summation<br />

in einer Richtung (in diesem Fall in der horizontalen) in der obigen Form beibehalten; für<br />

die vertikale Summation habe ich jedoch keine andere Darstellungsform als die hier gegebene<br />

explizite hin gekriegt – was aber für den Rechenaufwand unerheblich und nur für die Frage<br />

schöner Code oder nicht interessant ist.<br />

§ 1202 Abbildung 9.5 zeigt die Wirkung eines solchen Glättungsfilters auf zufällige Daten.<br />

Die Original-Daten sind die vier Teilbilder in der linken oberen Ecke: für den roten, grünen<br />

c○ M.-B. Kallenrode 2. Juli 2008


374 KAPITEL 9. ETWAS ZUM SPIELEN<br />

Abbildung 9.6: Histogramme<br />

der Einzelkanäle für die ungeglättetn<br />

(links) und die<br />

geglätteten (Mitte und rechts)<br />

Einzelkanäle aus Abb. 9.5<br />

und blauen Kanal wurde eine Matrix mit Zufallszahlen erzeugt, die vierte Abbildung zeigt<br />

diese Matrizen zum RGB-Bild kombiniert. Wie von Zufallszahlen zu erwarten unterscheiden<br />

sich benachbarte Bildpunkte deutlich; das Bild wirkt in den Einzelkanälen körnig, im zusammengesetzten<br />

RGB-Bild treten zwar Farben aus dem gesamten Spektrum auf, aber auch hier<br />

fehlt der Zusammenhang zwischen den benachbarten Bildpunkten.<br />

§ 1203 In den anderen Bildsätzen sind die Zufallsdaten jeweils mit einem linearen 3 × 3,<br />

einem 5 × 5 und einem 7 × 7-Filter geglättet, d.h. die Mittelung erfolgte über 9, 25 bzw.<br />

49 Bildpunkte. Mit zunehmender Kernelgröße verringern sich die Differenzen benachbarter<br />

Bildpunkte, das Bild wirkt zunehmende verwaschener. Insbesondere im RGB-Bild bleibt im<br />

wesentlichen ein Grauschleier.<br />

§ 1204 Das Verschwinden der Kontraste durch die Mittelung zeigt sich auch in den Histogrammen<br />

der zufälligen und der geglätteten Helligkeitswerte der einzelnen Kanäle, siehe<br />

Abb. 9.6. Da die Helligkeitswerte einer Zufallsverteilung entnommen sind (linke Spalte), sind<br />

sie in den einzelnen Kanälen annähernd gleich verteilt. Mit der Mittelung über 9 (mittlere<br />

Spalte) bzw. 49 (rechte Spalte) Bildpunkte wird diese Gleichverteilung immer weiter zugunsten<br />

des Mittelwerts 127 zusammen geschoben.<br />

§ 1205 Die anderen in Kap. 7 diskutierten Filter lassen sich alle unter Verwendung der geeigneten<br />

Wichtungsfaktoren und Kernelgrößen entsprechend dem Beispiel in § 1201 aufbauen.<br />

Experimentieren Sie mit zufälligen Mustern oder normalen Bildern!<br />

9.2.5 MatLab und das Alphabet<br />

§ 1206 Falls Sie, z.B. im Zusammenhang mit der Häufigkeit von Buchstaben in einem Text<br />

oder mit künstlichen Sprachen, mit Buchstaben in MatLab spielen wollen, so müssen die<br />

Buchstaben in die Zahlenwerte der entsprechenden ASCII-Zeichen umgewandelt werden. Dazu<br />

zuerst den String in Double umwandeln:<br />

mytext = ’Falls Sie, z.B. im Zusammenhang’; ←↪<br />

mytext=double(mytext) ←↪<br />

70 97 108 108 115 32 83 105 101 44 32 122 46 66 46 32 105 109 32 90 117 115 97<br />

109 109 101 110 104 97 110 103<br />

§ 1207 Der Rückweg, die Ausgabe von Zahlenwerte der ASCII-Zeichen als Buchstaben lässt<br />

sich mit Hilfe der Option %s im sprintf-Befehl erzeugen:<br />

2. Juli 2008 c○ M.-B. Kallenrode


9.2. BILDER IN MATLAB 375<br />

mvec = [77 65 84 76 65 66]; ←↪<br />

sprintf(’%s ’, mvec) ←↪<br />

ans =<br />

MATLAB<br />

Eine kürzere Variante bietet der Befehl char:<br />

mvec = [77 65 84 76 65 66]; ←↪<br />

char(mvec) ←↪<br />

ans =<br />

MATLAB<br />

c○ M.-B. Kallenrode 2. Juli 2008


Abbildungsverzeichnis<br />

1.1 Wüstenlandschaft des Fessan (Lybien) . . . . . . . . . . . . . . . . . . . . . . 6<br />

1.2 Osnabrück vom Ikonos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6<br />

1.3 Standardvorstellung von <strong>Erdfernerkundung</strong> . . . . . . . . . . . . . . . . . . . 7<br />

1.4 Ozonloch in Gesamtozonsäule (TOMS und GOME) . . . . . . . . . . . . . . . 7<br />

1.5 Militärischer Drachen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9<br />

1.6 Manlifter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9<br />

1.7 San Francisco 1906 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10<br />

1.8 Modell Sputnik 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11<br />

1.9 U2 Spionageflugzeug . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11<br />

1.10 EnviSat . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12<br />

1.11 Sicherheit als Produkt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14<br />

1.12 Z.Z. aktive Satelliten nach Staat/Verwendung . . . . . . . . . . . . . . . . . . 14<br />

1.13 Charakteristische Skalen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16<br />

1.14 Waldbrände in Kalifornien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17<br />

2.1 Kepler’sche Gesetze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23<br />

2.2 Bewegung um den gemeinsamen Schwerpunkt . . . . . . . . . . . . . . . . . . 25<br />

2.3 Kenngrößen einer elliptischen Bahn . . . . . . . . . . . . . . . . . . . . . . . . 29<br />

2.4 Festlegung der Bahnparameter einer Satellitenbahn . . . . . . . . . . . . . . . 32<br />

2.5 Beispiele für Satellitenbahnen . . . . . . . . . . . . . . . . . . . . . . . . . . . 32<br />

2.6 LAGEOS 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35<br />

2.7 Tägliche Dichtevariation in der Hochatmosphäre . . . . . . . . . . . . . . . . 37<br />

2.8 Luftwiderstand und Kosmos 1097 . . . . . . . . . . . . . . . . . . . . . . . . . 39<br />

2.9 Änderung der Bahnparameter durch Luftwiderstand . . . . . . . . . . . . . . 39<br />

2.10 SMM-Absturz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40<br />

2.11 Bahnstörung in Folge der Abplattung der Erde . . . . . . . . . . . . . . . . . 41<br />

2.12 Präzession der Bahneben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42<br />

2.13 Apsidendrehung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43<br />

2.14 Bodenspur LandSat . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46<br />

2.15 ... und wirft seinen Schatten voraus . . . . . . . . . . . . . . . . . . . . . . . . 46<br />

2.16 Polare und sonnensynchrone Bahn . . . . . . . . . . . . . . . . . . . . . . . . 47<br />

2.17 Beispiele für sonnensynchrone Bahnen mit Lokalzeit . . . . . . . . . . . . . . 47<br />

2.18 Information im Schatten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48<br />

2.19 Bahnen von Kommunikationssatelliten . . . . . . . . . . . . . . . . . . . . . . 49<br />

2.20 Verteilung Wettersatelliten im geostationären Orbit . . . . . . . . . . . . . . . 49<br />

2.21 Leminiskate eines geosynchronen Orbits mit Inklination . . . . . . . . . . . . 50<br />

2.22 Konfiguration der GPS-Satelliten . . . . . . . . . . . . . . . . . . . . . . . . . 51<br />

2.23 Höhen und Umlaufzeiten verschiedener Satelliten . . . . . . . . . . . . . . . . 53<br />

2.24 Stabilisierungssysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54<br />

376


ABBILDUNGSVERZEICHNIS 377<br />

2.25 Raketenstart – verschiedene Näherungen . . . . . . . . . . . . . . . . . . . . . 59<br />

2.26 Hohmann-Bahn, Übergangsellipse . . . . . . . . . . . . . . . . . . . . . . . . . 64<br />

2.27 Übergangsbahn aus Ellipsenbögen . . . . . . . . . . . . . . . . . . . . . . . . 66<br />

2.28 Halo Orbit um einen Lagrange Punkt . . . . . . . . . . . . . . . . . . . . . . 68<br />

2.29 Lagrange-Punkte im rotierenden Bezugssystem . . . . . . . . . . . . . . . . . 71<br />

2.30 Lagrange Punkte im Sonne–Erde und Erde–Mond System . . . . . . . . . . . 72<br />

2.31 Bahnen der Voyager- und Pioneer-Sonden . . . . . . . . . . . . . . . . . . . . 74<br />

2.32 Swing By an einem Planeten . . . . . . . . . . . . . . . . . . . . . . . . . . . 75<br />

2.33 Ulysses Orbit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77<br />

2.34 VEEGA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77<br />

3.1 Aufbau der Atmosphäre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83<br />

3.2 Nachtleuchtende Wolke . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84<br />

3.3 Atmosphärische Transmission . . . . . . . . . . . . . . . . . . . . . . . . . . . 86<br />

3.4 Struktur der Magnetosphäre . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87<br />

3.5 Prezipitation energiereicher Teilchen in die Atmosphäre . . . . . . . . . . . . 88<br />

3.6 Strahlungsgürtel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88<br />

3.7 Südatlantische Anomalie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89<br />

3.8 Solar Terrestrische Beziehungen . . . . . . . . . . . . . . . . . . . . . . . . . . 89<br />

3.9 Sensorklassen und ihre Beziehung . . . . . . . . . . . . . . . . . . . . . . . . . 92<br />

3.10 Discoverer-14 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93<br />

3.11 MKF6-Kamera auf Interkosmos . . . . . . . . . . . . . . . . . . . . . . . . . . 94<br />

3.12 TIROS Modell und frühe Video-Aufnahme . . . . . . . . . . . . . . . . . . . . 94<br />

3.13 Moderne Späher: LandSat und TIROS-N . . . . . . . . . . . . . . . . . . . . 94<br />

3.14 Farbmischprojektor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95<br />

3.15 Schwarz–Weiß-Film . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97<br />

3.16 Dunststreuung und Infrarotfilm . . . . . . . . . . . . . . . . . . . . . . . . . . 98<br />

3.17 Mehr und weniger Dunst . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98<br />

3.18 Panchromatisch vs. Infrarotfilm . . . . . . . . . . . . . . . . . . . . . . . . . . 99<br />

3.19 Vegetation panchromatisch und im Infrarotfilm . . . . . . . . . . . . . . . . . 99<br />

3.20 Frabfilm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100<br />

3.21 IR-Farbfilm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100<br />

3.22 Farb- und Falschfarbenaufnahme . . . . . . . . . . . . . . . . . . . . . . . . . 101<br />

3.23 Grauwerte RGB-Schichten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101<br />

3.24 Gemischte RGB-Schichten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101<br />

3.25 Spektrale Empfindlichkeiten . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102<br />

3.26 Spektrales Reflektionsvermögen gesunde und kranke Pflanzen . . . . . . . . . 104<br />

3.27 Amazonas-Abholzung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105<br />

3.28 Bodenauflösungsvermögen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105<br />

3.29 Bodenauflösungsvermögen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106<br />

3.30 Winkelauflösungsvermögen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106<br />

3.31 Einfluss des Winkelauflösungsvermögens . . . . . . . . . . . . . . . . . . . . . 107<br />

3.32 Charakteristische Kurve eines Films . . . . . . . . . . . . . . . . . . . . . . . 108<br />

3.33 SPOT-Aufnahme von Canberra . . . . . . . . . . . . . . . . . . . . . . . . . . 109<br />

3.34 Erreichtes Bodenauflösungsvermögen . . . . . . . . . . . . . . . . . . . . . . . 110<br />

3.35 Auge vs. Silizium . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113<br />

3.36 Evolution elektronischer bildgebender Verfahren . . . . . . . . . . . . . . . . 115<br />

3.37 Vidicon . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115<br />

3.38 LandSat Videokameras . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116<br />

3.39 CCD . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117<br />

3.40 Farbzellen CCD . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118<br />

3.41 Kehrbesentechnik und MOMS-Doppeloptik . . . . . . . . . . . . . . . . . . . 119<br />

3.42 HRV auf SPOT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120<br />

3.43 3D Rekonstruktion (SPOT 5) . . . . . . . . . . . . . . . . . . . . . . . . . . . 121<br />

c○ M.-B. Kallenrode 2. Juli 2008


378 ABBILDUNGSVERZEICHNIS<br />

3.44 MSS auf LandSat . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122<br />

3.45 LandSat MSS Wellenlängenbereiche . . . . . . . . . . . . . . . . . . . . . . . 123<br />

3.46 Datenformat eines Scanners . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123<br />

3.47 TM-Einzelbilder . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125<br />

3.48 Keweenaw Halbinsel in den TM-Bändern . . . . . . . . . . . . . . . . . . . . 126<br />

3.49 Echt- und Falschfarben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127<br />

3.50 Mixed Pixels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127<br />

3.51 Linieneffekt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127<br />

3.52 Harz gesehen von ETM+ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128<br />

3.53 Spektralkanäle verschiedener Imaging-Instrumente . . . . . . . . . . . . . . . 130<br />

3.54 Strahlungsgesetze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132<br />

3.55 Detektor- und Objekttemperatur . . . . . . . . . . . . . . . . . . . . . . . . . 134<br />

3.56 Microbolometer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136<br />

3.57 Prinzip eines IR-Scanners . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137<br />

3.58 Spektrale Signaturen von Gestein . . . . . . . . . . . . . . . . . . . . . . . . . 138<br />

3.59 Tschernobyl im IR, 1985 und 1986 . . . . . . . . . . . . . . . . . . . . . . . . 139<br />

3.60 Globale Infrarotaufnahme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140<br />

3.61 Unterirdisches Wasser . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141<br />

3.62 Golfstrom im thermischen Infrarot . . . . . . . . . . . . . . . . . . . . . . . . 142<br />

3.63 Mikrowellenradiometer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142<br />

3.64 Scannendes Mikrowellenradiometer: Scanmuster auf der Bodenspur . . . . . . 145<br />

3.65 Desertifikation: Polarisationsunterschiede bei 37 GHz . . . . . . . . . . . . . . 146<br />

3.66 Abschmelzendes Eis: Polarisationsunterschiede bei 18 GHz . . . . . . . . . . . 147<br />

3.67 Kamtschatka mit SAR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148<br />

3.68 Golf von Mexiko mit SAR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149<br />

3.69 SeaSat Altimeter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150<br />

3.70 Geoid . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150<br />

3.71 Sea Floor Mapping . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151<br />

3.72 SeaMountaineering . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151<br />

3.73 Altimeter-Signal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152<br />

3.74 Scatterometer: Windgeschwindigkeiten . . . . . . . . . . . . . . . . . . . . . . 153<br />

3.75 Prinzip des SAR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155<br />

3.76 SAR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156<br />

3.77 Interfereogram Gletscher . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156<br />

3.78 Cartwheel-SAR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158<br />

3.79 Konfigurationen für Sounder . . . . . . . . . . . . . . . . . . . . . . . . . . . 159<br />

3.80 Limb-Sounder . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160<br />

3.81 Sciamachy Datenoutput für einen Tag . . . . . . . . . . . . . . . . . . . . . . 161<br />

3.82 Sounder . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162<br />

3.83 Vulkan-Aerosol . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164<br />

3.84 Ubar im sichtbaren (rechts) und im Radar (links) . . . . . . . . . . . . . . . . 171<br />

3.85 Struktur eines Pflanzenblatts . . . . . . . . . . . . . . . . . . . . . . . . . . . 173<br />

3.86 Spektrales Reflektionsvermögen Pflanzenblatt . . . . . . . . . . . . . . . . . . 173<br />

3.87 Globale Landbedeckung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175<br />

3.88 NDVI und Klimatologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176<br />

3.89 Aralsse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177<br />

3.90 Untergrund und Pflanzenwuchs . . . . . . . . . . . . . . . . . . . . . . . . . . 178<br />

3.91 Saline Valley, Ca, mit ASTER . . . . . . . . . . . . . . . . . . . . . . . . . . . 179<br />

3.92 Rückgang der Gletscher in der Mischabelgruppe . . . . . . . . . . . . . . . . . 180<br />

3.93 Geschwindigkeitsfeld Lambert Gletscher . . . . . . . . . . . . . . . . . . . . . 181<br />

3.94 Seewasser und Öl: spektrales Reflektionsvermögen . . . . . . . . . . . . . . . 182<br />

3.95 Ölverschmutzung Libanon-Konflikt 2006 . . . . . . . . . . . . . . . . . . . . . 183<br />

3.96 Oberflächentemperatur Meere . . . . . . . . . . . . . . . . . . . . . . . . . . . 184<br />

3.97 El Niño . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185<br />

2. Juli 2008 c○ M.-B. Kallenrode


ABBILDUNGSVERZEICHNIS 379<br />

3.98 Die Farbe des Meeres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187<br />

3.99 St. Andreas Graben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188<br />

3.100Vredefort Krater . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189<br />

3.101Richat Struktur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190<br />

3.1029/11 Ikonos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191<br />

4.1 San Francisco . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201<br />

4.2 POES – ein Alleskönner . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202<br />

4.3 Optisches System von Sciamachy . . . . . . . . . . . . . . . . . . . . . . . . . 207<br />

4.4 Blickrichtungen Sciamachy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208<br />

4.5 Sidney von TerraSAR-X . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210<br />

4.6 System Erde . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 214<br />

4.7 Aletsch-Gletscher und Mount St. Helens von ASTER . . . . . . . . . . . . . . 216<br />

4.8 CERES Werbeposter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 217<br />

4.9 MODIS Caspian Sea . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219<br />

4.10 CO-Map von AIRS auf Aqua . . . . . . . . . . . . . . . . . . . . . . . . . . . 220<br />

4.11 A-Train Konfiguration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 220<br />

5.1 Energiespektrum der Sonne . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225<br />

5.2 Schwankungen der Solarkonstante . . . . . . . . . . . . . . . . . . . . . . . . 226<br />

5.3 Sonnenfleckenzahl und Solarkonstante . . . . . . . . . . . . . . . . . . . . . . 227<br />

5.4 Variabilität des Sonnenspektrum . . . . . . . . . . . . . . . . . . . . . . . . . 228<br />

5.5 Variation Solarkonstante über 25 Jahre . . . . . . . . . . . . . . . . . . . . . . 229<br />

5.6 Effektivtemperaturen von Sonne und Erde und Absorptionsbanden . . . . . . 231<br />

5.7 Wechselwirkung geladener Teilchen mit Materie . . . . . . . . . . . . . . . . . 233<br />

5.8 Halbleiterdetektor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235<br />

5.9 Aufbau Helios Teilchenteleskop . . . . . . . . . . . . . . . . . . . . . . . . . . 235<br />

5.10 Pulshöhenmatrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 237<br />

5.11 Winkelverteilungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 238<br />

5.12 Zeitprofile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 238<br />

5.13 EPHIN Teilchenteleskop . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239<br />

5.14 Einfallsrichtungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 240<br />

5.15 KET . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 240<br />

5.16 Geospace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242<br />

5.17 Time of Flight (TOF) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242<br />

5.18 Messung des elektrischen Feldes aus der Drift von Elektronen . . . . . . . . . 245<br />

5.19 Einige Phänomene der aktiven Sonne . . . . . . . . . . . . . . . . . . . . . . . 246<br />

5.20 Aufbau des Hard X-Ray Burst Spectrometers . . . . . . . . . . . . . . . . . . 247<br />

5.21 Hard X-ray Imaging Spectrometer HXIS . . . . . . . . . . . . . . . . . . . . . 247<br />

5.22 Gamma-Ray Spectrometer GRS . . . . . . . . . . . . . . . . . . . . . . . . . . 248<br />

5.23 HAO Coronograph/Polarimeter . . . . . . . . . . . . . . . . . . . . . . . . . . 249<br />

5.24 UVSP auf SMM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 250<br />

5.25 Phänomene im Flare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252<br />

5.26 Solares Gammaspektrum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252<br />

5.27 Wechselwirkende und entweichende Teilchen . . . . . . . . . . . . . . . . . . . 253<br />

5.28 Zeitverlauf Teilchenbeschleunigung . . . . . . . . . . . . . . . . . . . . . . . . 255<br />

5.29 Abnahme solarer Fluss und Effektivtemperatur mit dem Abstand von der Sonne258<br />

5.30 Bastille Day event . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 261<br />

5.31 Bethe–Bloch equation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 263<br />

5.32 Bastille Day event: particle intensities and ionization rates . . . . . . . . . . . 264<br />

5.33 Bastille Day event: observed and modeled NOx production and ozone depletion265<br />

5.34 Tracks of electrons and protons in a model atmosphere . . . . . . . . . . . . . 266<br />

5.35 Energy losses of protons: Monte Carlo vs. Bethe–Bloch . . . . . . . . . . . . . 267<br />

5.36 Energy losses of electrons: Monte Carlo vs. Bethe–Bloch . . . . . . . . . . . . 268<br />

5.37 Ionization rates: combined electrons and protons . . . . . . . . . . . . . . . . 269<br />

c○ M.-B. Kallenrode 2. Juli 2008


380 ABBILDUNGSVERZEICHNIS<br />

5.38 Ozone depletion following the October/November 2003 event series . . . . . . 271<br />

5.39 October 1989 event and the atmosphere . . . . . . . . . . . . . . . . . . . . . 272<br />

5.40 Ionization during the solar cycle . . . . . . . . . . . . . . . . . . . . . . . . . 273<br />

5.41 Total ozone column during the solar cycle . . . . . . . . . . . . . . . . . . . . 274<br />

5.42 Ozone variation without geomagnetic field . . . . . . . . . . . . . . . . . . . . 275<br />

5.43 Variation in ozone and temperature . . . . . . . . . . . . . . . . . . . . . . . 276<br />

6.1 Rückführung des Filmmaterials . . . . . . . . . . . . . . . . . . . . . . . . . . 278<br />

6.2 Lebensdauer Photosatellit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 278<br />

6.3 Rückführung analoger Daten auf digitalem Weg . . . . . . . . . . . . . . . . . 279<br />

6.4 Nachrichtenstrecke . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 280<br />

6.5 Kommunikationssystem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 281<br />

6.6 Ungestörter Informationskanal . . . . . . . . . . . . . . . . . . . . . . . . . . 283<br />

6.7 Shannon-Funktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 287<br />

6.8 Binärcodes Alphabet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 291<br />

6.9 Diagramme von Quellen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 294<br />

6.10 Aliasing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 295<br />

6.11 Schallquellen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 296<br />

6.12 Menschliches Ohr . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 297<br />

6.13 Dictionary of Tunes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 299<br />

6.14 Bild und Rasterung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 300<br />

6.15 Codierbaum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 303<br />

6.16 Codierbaum zum Huffman-Code . . . . . . . . . . . . . . . . . . . . . . . . . 304<br />

6.17 Ideales und reales Binärsignal . . . . . . . . . . . . . . . . . . . . . . . . . . . 309<br />

6.18 Entropiefluss ungestörter Übertragungskanal . . . . . . . . . . . . . . . . . . 310<br />

6.19 Shannon-Grenze für fehlerfreien Empfang . . . . . . . . . . . . . . . . . . . . 312<br />

6.20 Symmetrischer Binärkanal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 314<br />

6.21 Ähnlichkeitsdecodierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 316<br />

6.22 Hamming(7,4) Code . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 317<br />

6.23 Graphische Decodierung Hamming(7,4) . . . . . . . . . . . . . . . . . . . . . 318<br />

6.24 Blockcodierung in Matrixform . . . . . . . . . . . . . . . . . . . . . . . . . . . 320<br />

6.25 Antennengewinn Richtantenne . . . . . . . . . . . . . . . . . . . . . . . . . . 322<br />

6.26 Regendämpfung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 324<br />

6.27 IntelSat V . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 325<br />

7.1 Fehlende Pixel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 329<br />

7.2 Kernel zur Korrektur fehlender Pixel . . . . . . . . . . . . . . . . . . . . . . . 330<br />

7.3 Fehlende Zeilen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 331<br />

7.4 Poisson-Rauschen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 332<br />

7.5 Atmosphärische Streuung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 334<br />

7.6 Dunststreuung (terrestrisch) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 335<br />

7.7 Dunstkorrektur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 336<br />

7.8 Dunstkorrektur Bsp. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 336<br />

7.9 Kontrastanreicherung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 337<br />

7.10 Helligkeitswerte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 338<br />

7.11 Kontrastanreicherung in einem Kanal . . . . . . . . . . . . . . . . . . . . . . 339<br />

7.12 Histogramm Gletscher und Fels . . . . . . . . . . . . . . . . . . . . . . . . . . 340<br />

7.13 Kontrastanreicherung Fels–Gletscher . . . . . . . . . . . . . . . . . . . . . . . 341<br />

7.14 Ungerichtete Kantenanreicherung . . . . . . . . . . . . . . . . . . . . . . . . . 342<br />

7.15 Kantenanreicherung, Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . 343<br />

7.16 Zweidimensionale Klassifikationsverfahren . . . . . . . . . . . . . . . . . . . . 344<br />

7.17 Multitemporale 2D-Klassifikation . . . . . . . . . . . . . . . . . . . . . . . . . 345<br />

7.18 Klassifikation weißer Pixel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 346<br />

7.19 Regionale Landnutzung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 347<br />

7.20 JPEG-Kodierung und Zahl der Koeffizienten . . . . . . . . . . . . . . . . . . 349<br />

2. Juli 2008 c○ M.-B. Kallenrode


ABBILDUNGSVERZEICHNIS 381<br />

7.21 Progressive und Raster-Datenübertragung . . . . . . . . . . . . . . . . . . . . 350<br />

7.22 Fraktale Bilderzeugung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 351<br />

9.1 Kombinationen aus Abb. 3.48 . . . . . . . . . . . . . . . . . . . . . . . . . . . 370<br />

9.2 Image angewandt auf ein n × m Array . . . . . . . . . . . . . . . . . . . . . . 370<br />

9.3 Image angewandt auf ein n × m × 3 Array . . . . . . . . . . . . . . . . . . . . 371<br />

9.4 Histogramme der Bänder aus Abb. 3.48 . . . . . . . . . . . . . . . . . . . . . 372<br />

9.5 Glättung im Zufallsbild . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 373<br />

9.6 Histogramme ungeglättet und geglättet . . . . . . . . . . . . . . . . . . . . . 374<br />

c○ M.-B. Kallenrode 2. Juli 2008


Tabellenverzeichnis<br />

2.1 Kegelschnitte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28<br />

2.2 Flugbahnen bei verschiedenen Abschussgeschwindigkeiten . . . . . . . . . . . 30<br />

2.3 Bahnparameter als Funktion der großen Halbachse . . . . . . . . . . . . . . . 30<br />

2.4 Übersicht über Bahnstörungen . . . . . . . . . . . . . . . . . . . . . . . . . . 34<br />

2.5 Äußerer Wirkungsgrad einer Rakete . . . . . . . . . . . . . . . . . . . . . . . 58<br />

2.6 Ein- und Dreistufenrakete . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61<br />

2.7 Hohmann-Übergange zu anderen Planeten . . . . . . . . . . . . . . . . . . . . 65<br />

3.1 Massen und Leistungsaufnahme typischer Imaging Instrumente . . . . . . . . 90<br />

3.2 Spektrale Empfindlichkeit MSS . . . . . . . . . . . . . . . . . . . . . . . . . . 103<br />

3.3 Bodenauflösungsvermögen wichtiger Erdbeobachter . . . . . . . . . . . . . . . 110<br />

3.4 Auge vs. Silizium . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114<br />

3.5 Charakteristika SPOT HRV . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120<br />

3.6 Spektralbänder TM (LandSat) . . . . . . . . . . . . . . . . . . . . . . . . . . 124<br />

3.7 Eigenschaften AVHRR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129<br />

3.8 Materialien zur Messung im IR . . . . . . . . . . . . . . . . . . . . . . . . . . 134<br />

3.9 Temperaturabhängigkeit Cutoff im IR . . . . . . . . . . . . . . . . . . . . . . 135<br />

3.10 Frühe passive Mikrowelleninstrumente . . . . . . . . . . . . . . . . . . . . . . 145<br />

3.11 Scatterometer im Erdorbit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153<br />

3.12 Ground-Penetrating Mikrowelleninstrumente . . . . . . . . . . . . . . . . . . 154<br />

3.13 SAR auf Raumfahrzeugen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157<br />

3.14 Treibhauswirksame Spurengase . . . . . . . . . . . . . . . . . . . . . . . . . . 163<br />

4.1 Übersicht LandSat . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199<br />

4.2 LandSat MSS, TM und ETM-Merkmale . . . . . . . . . . . . . . . . . . . . . 200<br />

4.3 Übersicht TIROS bis NOAA . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203<br />

4.4 Spektralbänder auf MERIS . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206<br />

4.5 Spektralkanäle MSRS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209<br />

5.1 Energiekanäle Helios Teilchenteleskop . . . . . . . . . . . . . . . . . . . . . . 236<br />

5.2 Bahnparameter der Planeten . . . . . . . . . . . . . . . . . . . . . . . . . . . 257<br />

6.1 Informationsgehalt Sprache . . . . . . . . . . . . . . . . . . . . . . . . . . . . 288<br />

6.2 ASCII-Code . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 302<br />

6.3 Beispielcodes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 302<br />

6.4 Redundanzreduktion verschiedener Codes . . . . . . . . . . . . . . . . . . . . 303<br />

6.5 Beispiel zum Lempel–Ziv-Algorithmus . . . . . . . . . . . . . . . . . . . . . . 307<br />

6.6 Übertragungskapazitäten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 311<br />

6.7 Hamming(7,4) Code . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 317<br />

382


TABELLENVERZEICHNIS 383<br />

9.1 Langes Beispiel Lempel–Ziv . . . . . . . . . . . . . . . . . . . . . . . . . . . . 367<br />

9.2 Erstes Auftreten einer Phrase . . . . . . . . . . . . . . . . . . . . . . . . . . . 368<br />

c○ M.-B. Kallenrode 2. Juli 2008


Literaturverzeichnis<br />

[1] Warnung: Ich habe – mit einem leichten Unbehagen – sehr viele Wikipedia und andere<br />

online Quellen im Literaturverzeichnis aufgenommen. Ich mag das zusammen sammeln<br />

von Informationen auf diese Weise für eine Vorlesung eigentlich nicht: Wikipedia und<br />

Konsorten liefern sehr viele Detailinformationen, trotz der ganzen Querverweise ist ein<br />

Zusammenhang aber natürlich nicht dargestellt. In diesem speziellen Skript sollte der<br />

Zusammenhang aber eigentlich durch den Text gegeben werden und Wikipedia nur<br />

als Unterstützung für Details (insbesondere zu den eher obskuren Satelliten) und als<br />

Sammlung für weitere Verweise dienen. Der Kramer [134] hätte an vielen Stellen den<br />

gleichen Zweck erfüllt. Und die teilweise langen Links direkt in den Text bzw. zu den<br />

Abbildungen zu setzen, macht den Text nicht wirklich übersichtlich.<br />

[2] R.E.W. Adams, W.E. Brown, and J. Culbert: Radar mapping, archaeology and ancient<br />

Maya land use, Science 213, 1457, 1981 171<br />

[3] S. Agostinelli, et al.: Geant4 - a simulation toolkit. Nuclear Instruments and Methods<br />

in Physics Research Section A, 250–303, 2003. 267<br />

[4] D.G. Andrews: Interstellar transport using today’s physics, AIAA Paper<br />

2003-4691, 2003, http://www.andrews-space.com/images/videos/PAPERS/<br />

Pub-InterstellarTransportation(200307).pdf 67<br />

[5] O.C. Allkofer: Teilchendetektoren, Thiemig, München, 1971 232, 233, 235<br />

[6] O.C. Allkofer: Introduction to cosmic radiation, Thiemig, München, 1975 232<br />

[7] V. Aschoff: The early history of binary code, IEEE Comm. Mag., 21, (1)4–10, 1983<br />

290<br />

[8] G. Asras, M. Fuchs, E.T. Kanemasu, and J.L. Hartfield: Estimating absorbed photosynthetic<br />

radiation and leaf area index from spectral reflectance in wheat, Agron. J.<br />

76, 300 , 1984 174<br />

[9] D.N. Baker, Kanekal, J.B. Blake, L.B. Callis, B. Klecker, and R.A. Mewaldt: Highenergy<br />

electron measurements and atmospheric coupling: SAMPEX results, EOS 76,<br />

No. 17, A32A-3, 1995<br />

[10] J.D. Baker: Planet Earth - the view from space, Havard University Press, Cambridge,<br />

1990 110, 168, 193, 212, 216<br />

[11] E.C. Barrett und L.F. Curtis: Introduction to environmental remote sensing, Chapman<br />

and Hall, London, 1982 86, 103, 138, 171, 173<br />

[12] S.J. Bauer: Physics of planetary ionospheres, Springer, Berlin, 1973 37<br />

[13] J.K. Beatty, B. O’Leary, and A. Chaikin: The New Solar System, Cambridge University<br />

Press, Cambridge, 1990 74, 77<br />

[14] A. Belehaki, N. Jakowski,and B.W. Reinisch: Plasmaspheric electron content derived<br />

from GPS TEC and digisonde ionograms. Adv. Space Res., 33, (6)833–837, 204 211<br />

[15] R.E. Benestad: Solar activity and Earth’s climate, Springer, 2004 230<br />

[16] Bergmann-Schaefer: Lehrbuch der Experimentalphysik III: Optik, de Gruyter, 1978 106<br />

[17] B. Bertotti und P. Farinella: Physics of the Earth and the solar system, Kluwer, 1990<br />

26, 34, 42, 73, 77, 309, 325<br />

384


LITERATURVERZEICHNIS 385<br />

[18] R.K. Bock and A. Vasilescu: The Particle detector briefbook, Springer, 1998 232<br />

[19] J.D. Bohlin, K.F. Frost, P.T. Burr, A.K. Guha, and G.L. Withbroe: Solar Maximum<br />

Mission, Solar Phys. 65, 5, 1980 246<br />

[20] J.-L. Bézy, S. Delwart and M. Rast: MERIS – A new generation of ocean-colour sensor<br />

onboard EnviSat, ESA Bulletin 103, August 2000, 48–56, auch http://esapub.esrin.<br />

esa.it/bulletin/bullet103/besy103.pdf 207<br />

[21] J.-L. Bézy, S. Delwart and M. Rast: MERIS – A new generation of ocean-colour sensor<br />

onboard EnviSat, ESA Bulletin 103, August 2000, 48–56, auch http://esapub.esrin.<br />

esa.it/bulletin/bullet103/besy103.pdf 206<br />

[22] R.E. Bilstein: Stages to Saturn – A technological history of the Apollo/Saturn launch vehicles,<br />

NASA, The NASA History Series, 1996, http://history.nasa.gov/SP-4206/<br />

sp4206.htm 59<br />

[23] H. Bischoff: SAR-Lupe – höchstauflösende Bilder aus dem Weltraum als Datengundlage<br />

für GIS, megatel Informations- und Kommunikationssysteme, 2003, http:<br />

//www.intergeo.de/archiv/2003/Bischoff.pdf 210<br />

[24] F. Blechinger, D.E. Charlton, R. Davances, B. Harnisch, B.P. Kunkel, R. Meynart, A.<br />

Novi, E. O’Mongain, H. Schwarz and P.N. Slater: High-resolution imaging spectrometer<br />

(HRIS): optics, focal plane, and calibration, in Imaging Spectrometry of the Terrestrial<br />

Environment (ed. G. Vane), Proc. SPIE Vol. 1937, 207–224, 1993 169<br />

[25] J. Bodechtel und H.-G. Gierloff-Emden: Weltraumbilder der Erde, List, 1969 5, 6<br />

[26] A. Bohrmann: Bahnen künstlicher Satelliten, BI, 1966 26, 32, 38, 39, 41, 77<br />

[27] H.-J. Bolle: Führt der Anstieg atmosphärischer Spurengaskonzentration zum “Klimakollaps”?,<br />

Phys. Blätter, 43/7, 240, 1987 215<br />

[28] Bormann: <strong>Erdfernerkundung</strong>, Veröffentlichungen des Zentralinstituts für <strong>Physik</strong> der<br />

Erde # 65, Potsdam, 1980 106, 108, 112, 155<br />

[29] H. Budzier, V. Krause, G. Gerlach, and D. Wassiliew: MWIR- Wärmebildkamera mit<br />

Mikrobolometer, tm – technisches messen, 74, 450–455, 2007 136<br />

[30] O. Bschorr und A. Leibold: Das Einfang- und Katapultvermögen von Planet/Mond-<br />

Systemen, Raumfahrtforschung 13, 132, 1968 74<br />

[31] Callis, L.B, Boughner, R.E., Baker, D.N. et al., Precipitating electrons: evidence for<br />

effects on mesospheric odd nitrogen, Geophys. Res. Lett. 23, 1901, 1996. 270<br />

[32] Callis, L.B., Baker, D.N., Natarajan, M., et al., A 2-D model simulation of downward<br />

transport of NOy into the stratosphere: effects on the austral spring O3 and NOy,<br />

Geophys. Res. Lett. 23, 1905, 1996. 270<br />

[33] N. Calder: Raumschiff Erde, vgs, Köln, 1992 105, 139, 151<br />

[34] Canadian Center for Remote Sensing: Fundamentals of remote sensing, http://www.<br />

ccrs.nrcan.gc.ca/resource/tutor/fundam/index_e.php 21<br />

[35] M. Chipperfield: The TOMCAT offline chemical transport model, UGAMP International<br />

Report 44a, http://www.env.leeds.ac.uk/~martyn/slimcat.html, 1996. 266<br />

[36] N. Chomsky: Failed States, Metropolitan Books 2006 13<br />

[37] N. Chorier: Indien von oben, Frederking und Thaler, 2007 10<br />

[38] B.J. Choudhuri: Desertification, in [82], 1993 146<br />

[39] P.R. Christensen, B.M. jakosky, H.H. Kiefer, M.C. Malin, H.Y. McSween, K. nealson,<br />

G.L. Mehall, S.H. silverman, S. ferry, M. Caplinger and M. Ravine: The Thermal<br />

Emission Imaging System (THEMIS) for the Mars 2001 Odyssey Mission, Space<br />

Sci. Rev. 110, 85–130, 2004, auch http://www.mars.asu.edu/christensen/docs/<br />

christensen_themis_ssr.pdf 139<br />

[40] E.W. Cliver, D.J. Forrest, H.V. Cane, D.V. Reames, R.E. McGuire, T.T. von Rosenvinge,<br />

and R.J. MacDowall: Solar flare nuclear gamma-rays and interplanetary proton<br />

events, Astrophys. J. 343, 953, 1989 253<br />

[41] A.P. Cracknell und L.W.B. Hayes: Introduction to remote sensing, Taylor und Francis,<br />

1991 8, 11, 21, 86, 123, 129, 137, 139, 141, 142, 150, 152, 153, 164, 193, 328, 341, 353<br />

[42] P.J. Crutzen, I.S.A. Isaksen, and G.C. Reid: Solar Proton Event - Stratospheric Source<br />

of Nitric Oxyde, Science 189, 457, 1975 262<br />

c○ M.-B. Kallenrode 2. Juli 2008


386 LITERATURVERZEICHNIS<br />

[43] P.J. Curran: Principles of remote sensing, Longmann, New York, 1985 116, 171, 193,<br />

328<br />

[44] R.S. DeFries, and J.R.G. Townshend: Global land cover: comparison of ground-based<br />

datat sets to classifications with AVHRR data, in [60], 1994 175<br />

[45] S. de Haan and J. de vries: Upper air humidity observations using GPS, KNMI Niederlande,<br />

Jahresbericht, http://www.knmi.nl/research/biennial/05-06_Humidity_<br />

GPS.pdf, 2006 211<br />

[46] Y.-L. Desnos, C. Buck, J. Guijarro, J.-L. Suchail, R. Torres and E. Attema: ASAR –<br />

EnviSat’s Adavanced Synthetoc Aperture Radar, ESA Bull. 102, May 2000, 91–100,<br />

auch http://esapub.esrin.esa.it/bulletin/bullet102/Desnos102.pdf 207<br />

[47] V. Desportes: La Guerre probable – Penser autrement, Economica, Paris, 2007 14<br />

[48] J. Dozier and A.F.H. Goetz: HIRIS – EOS instrument with high spectral and spatial<br />

resolution, Photogrammetria (PRS) 43, 167–180, 1989, http://fiesta.bren.ucsb.<br />

edu/~dozier/Pubs/DozierGoetz1989.pdf 168<br />

[49] C. Drewniok: Der Einsatz von Satelliten zur Erdbeobachtung, CENSIS – Center for<br />

Science and International Security, Univ. Hamburg, FB Informatik, 1991 46, 47, 279<br />

[50] J.A. Dunne and E. Burgess: The Voyage od Mariner 10 – Mission to Venus and Mercury,<br />

National Aeronautics and Space Administration, 1978, http://history.nasa.gov/<br />

SP-424/sp424.htm oder http://ntrs.nasa.gov/archive/nasa/casi.ntrs.nasa.<br />

gov/19780019203_1978019203.pdf 74, 76, 117<br />

[51] M. Endemann, P. Gare, J. Langen, H. Nett and C.J. Readings: MIPAS – an EnviSat<br />

instrument for atmospheric chemistry and climate research, ESA Bull. 101, Feb. 2000,<br />

http://esapub.esrin.esa.it/bulletin/bullet101/endemann.pdf 206<br />

[52] A. Engel and C. van den Broeck: Statistical mechanics of learning, Cambridge, 2001<br />

297<br />

[53] ESA: ASAR – Science and Applications, SP-1225, 1998 http://earth.esa.int/pub/<br />

ESA_DOC/SP_1225.pdf, 23.2.2008 207<br />

[54] R.M. Fano: Transmission of information, Wiley, New York, 1962 285<br />

[55] R.M. Fano: Informationsübertragung - eine statistische Theorie der Nachrichtenübertragung,<br />

Oldenbourg, München, 1966 285, 287, 325<br />

[56] F.A. Fischer: Einführung in die statistische Übertragungstheorie, Bibliographisches Institut,<br />

Mannheim, 1969 295<br />

[57] Y. Fisher (Hrsg.): Fractal image compression, Springer, 1996 351<br />

[58] B. Fleck, V. Domingo, and A.I. Poland (eds.): The SOHO mission, Kluwer, Dordrecht,<br />

1995 243<br />

[59] A.M. Florini and Y.A. Dehqanzada: No More Secrets?: Policy Implications of Commercial<br />

Remote Sensing Satellites, Carnegie paper #1, July 1999, http://www.<br />

carnegieendowment.org/publications/index.cfm?fa=view&id=150 200<br />

[60] G. Foody und P. Curran: Environmental remote sensing from regional to global scales,<br />

Wiley, 1994 16, 111, 129, 386, 390<br />

[61] Forman, M.A., and Webb, G.M., Acceleration of energetic particles, in: Stone R.G. and<br />

Tsurutani B.T. (Eds.), Collisionless shocks in the heliosphere, AGU Geophys. Mon. 34,<br />

1985. 267<br />

[62] D.J. Forrest, E.L. Chupp, J.M. Ryan, M.L. Cherry, I.U. Gleske, C. Reppin, K. Pinkau,<br />

E. Rieger, G. Kanbach, R.L. Kinzer, G. Share, W.N. Johnson, and J.D. Kurfess: The<br />

Gamma Ray Spectrometer for the Solar Maximum Mission, Solar Phys. 65, 15, 1980<br />

248<br />

[63] P. Fricker: ADS40 – progress in digital aerial data collection, Photogrammetric<br />

Week 01, 105–116, 2001, http://www.ifp.uni-stuttgart.de/publications/<br />

phowo01/Fricker.pdf 131<br />

[64] H. Friedman: Die Sonne, Spektrum, 1987 246<br />

[65] C. Fröhlich and J. Lean: Solar radiative output and its variability: Evidence and mechanisms,<br />

Astron. Astrophys. Rev., 12, 273–320, 2004 229<br />

2. Juli 2008 c○ M.-B. Kallenrode


LITERATURVERZEICHNIS 387<br />

[66] M. Gadsden and W. Schröder: Noctilucent Clouds, Springer, Physics and Chemistry in<br />

Space 18 Planetology, Berlin, 1989 84<br />

[67] Geant4, http://wwwasd.web.cern.ch/wwwasd/geant4/geant4.html, 2003. 267<br />

[68] R.H. Giese: Weltraumforschung, BI, 1966 54, 58, 61, 67<br />

[69] R.H. Giese: Einführung in die Astrophysik, BI-Wissenschaftsverlag, Mannheim, 1981<br />

74, 75<br />

[70] C. Ginzler: Infrarotbilder für die Umweltbeurteilung – Erste Untersuchung der<br />

ADS40 Daten 2005, swisstopo Kolloquium 16.2.2007, http://www.swisstopo.admin.<br />

ch/internet/swisstopo/fr/home/docu/colloquia/coll_06_07.parsys.78277.<br />

downloadList.50125.DownloadFile.tmp/2wslginzler.pdf 131<br />

[71] G. Goeckler: Characteristics of solar and heliospheric ion popuations observed near<br />

Eart, Adv. Space Res. 4, (2-3)127, 1984. 267<br />

[72] A.F.H. Goetz and C.O. Davis: High resolution imaging spectrometer (HIRIS): Science<br />

and instrument, Int. J. Imaging Systems and Technology 3, (2)131–143, 1991 168<br />

[73] Goldstein: Klassische Mechanik 26<br />

[74] J. Gosling, Asbridge, J.R., Bame, S.J., et al.: Interplanetary ions during an energetic<br />

storm particle event, J. Geophys. Res. 86, 547, 1981. 267<br />

[75] M. Gottwald (ed): Sciamachy – Monitoring the changing Earth’s atmosphere, DLR,<br />

Verlagsservice RAU, 2006, online unter http://atmos.caf.dlr.de/projects/scops/<br />

161, 205, 207, 208<br />

[76] T.T. Graedel and P.J. Crutzen: Chemie der Atmosphäre, Spektrum - Akademischer<br />

Verlag, Weinheim, 1994 162, 164<br />

[77] T.T. Graedel and P.J. Crutzen: The changing atmosphere, in Managing planet Erath,<br />

W.H. Freeman and Co., New York, 13 - 24, 1989 164<br />

[78] T. Grams: Codierungsverfahren, BI Hochschultaschenbücher 625, Mannheim, 1986 305,<br />

316, 325<br />

[79] W. Greiner: Theoretische <strong>Physik</strong>: Mechanik II, 2. Aufl. Harri Deutsch, Thun, 1977 26<br />

[80] H. Großmann: Satelliten-Thermalbilder - ein neues Hilfsmittel für die Umweltforschung?,<br />

Bundesforschungsanstalt für Landeskunde und Raumordnung, Bonn, ISBN<br />

3-87994-016-9, 1984 138<br />

[81] A. Grün and E. Baltsavias: Satellitenfernerkundung, ETH Zürich, 1998, http://<br />

e-collection.ethbib.ethz.ch/show?type=lehr&nr=98&part=text 95<br />

[82] R.J. Gurney, J.L. Foster, und C.L. Parkinson (Hrsg.): Atlas of satellite observations<br />

related to global change, Cambridge, 1993 21, 385, 387, 390, 391, 392, 393<br />

[83] M. Gurtner: Karten lesen – Handbuch zu den Landeskarten, Gemeinschaftsausgabe<br />

Bundesamt für Landestopographie und SAC, 1998 150<br />

[84] H. Häberle: Informationstheoretische Grundlagen der Digitaltechnik, VDI-<br />

Bildungswerk, 1966 282<br />

[85] W. Hallmann und W. Ley: Handbuch der Raumfahrttechnik, Hanser, München, 1988<br />

54<br />

[86] T. Hammerschmidt: Deutscher Aufklärungssatellit, telepolis, 3.1.2007, http://www.<br />

heise.de/tp/r4/artikel/24/24342/1.html 211<br />

[87] R.W. Hamming: Coding and information theory, Prentice-Hall, New York, 1980 314<br />

[88] H. Handels: Medizinische Bildverarbeitung, Teubner, Leipzig, 2000 353<br />

[89] R.C. Harriss: Tropospheric chemestry, in [82], 1993 163, 164<br />

[90] Ph. Hartl: Fernwirktechnik der Raumfahrt, Springer, Berlin, 1977 311, 312, 325<br />

[91] B. Hassenstein: Biologische Kybernetik, Quelle und Meyer, Heidelberg, 1965 297<br />

[92] T. Hauf, Wendling, P., and K.-T. Kriebel: Wolken, Klima, und Umwelt, <strong>Physik</strong> in<br />

unserer Zeit, 22, 59, 1991 215<br />

[93] M.P. Hellman: SAR Polarimetry Tutorial (Beta Version 0.1a),<br />

[94] G.T. Herman: Image reconstruction from projections: the fundamentals of computer<br />

tomography, Academic Press, New, 1980 160<br />

York<br />

c○ M.-B. Kallenrode 2. Juli 2008


388 LITERATURVERZEICHNIS<br />

[95] E. Herter und H. Rupp: Nachrichtenübertragung über Satelliten, Springer, Berlin, 1979<br />

322, 325<br />

[96] E. Herter und W. Lörcher: Nachrichtentechnik: Übertragung - Vermittlung - Verarbeitung,<br />

Hanser, München, 1992 295, 325<br />

[97] H. Heuseler (Hrsg.): Europa aus dem All, dva/Westermann, 1974 5<br />

[98] B. Hofmann-Wellenhof, H. Lichtenegger, and J. Collins: GPS - theory and practice,<br />

Springer, Wien, 1992 52<br />

[99] J.T. Houghton, F.W. Taylor, and C.D. Rodgers: Remote sounding of atmospheres,<br />

Cambridge University Press, Cambridge, 1984 160<br />

[100] J.T. Houghton: The physics of atmospheres, Cambridge University Press, Cambridge,<br />

1986 162<br />

[101] J.T. Houghton: Global warming, Cambridge University Press, Cambridge, 1997 162<br />

[102] Hudson et al., 1986 226<br />

[103] P. Hupfer (Hrsg.): Das Klimasystem der Erde, Akademie-Verlag, Leipzig, 1991 216<br />

[104] E. Imhof: Gelände und Karte, Rentsch, 1950 48, 98, 327, 328<br />

[105] Intergovernmental Panel on Climate Change IPCC: Climate Change 2001: The Scientific<br />

Basis, Genf, 2001, www.ipcc.ch 5, 162, 227<br />

[106] Intergovernmental Panel on Climate Change IPCC: Climate Change 2007: The Physical<br />

Science Basis of Climate Change, Genf, 2007, www.ipcc.ch 5, 162, 216, 229<br />

[107] C.H. Jackman and McPeters, R.D., The response of ozone to solar proton events during<br />

solar cycle 21: a theoretical interpretation. J. Geophys. Res. 90, 7955–7966, 1985. 270<br />

[108] C.H. Jackman,R.D. McPeters, G.J. Labow, C.J. Praderas, and E.L. Fleming (2001):<br />

Measurements and model predictions of the atmospheric effects due to the July 2000<br />

solar proton event, Geophys. Res. Lett 28, 2883 261<br />

[109] K. Jacob: Das Meer unter der Wüste, Bild der Wissenschaft 1/1995. 18, 1995 140, 178<br />

[110] K. Jacobsen, G. Konecny and H. Wegmann: High resolution sensor test comparison<br />

with SPOT, KFA1000, KVR1000, IRS-1C and DPA in Lower Saxony, in IAPRS 32/4<br />

(eds. D. Fritsch, M. Englich and M. Sester), http://www.ifp.uni-stuttgart.de/<br />

publications/commIV/jacob43.pdf 95<br />

[111] B. Jähne: Digitale Bildverarbeitung, Springer, 2002 328, 332, 341, 353<br />

[112] P. Janle: Das Bild der Venus nach der Magellan-Mission, Teil 1 -3, Sterne und Weltraum<br />

33, No. 10 - 12, S. 686, 1994 158<br />

[113] J. Jansen: Kriegsschauplatz Kiel, Wachholtz, Neumünster, 1989 11<br />

[114] F.C. Jones and Ellison, D. C., The plasma physics of schock acceleration, Space Sci.<br />

Rev. 58, 259, 1991. 267<br />

[115] M.-B. Kallenrode: Space Physics, Springer, 2004 88, 242, 245<br />

[116] M.-B. Kallenrode: <strong>Physik</strong> der Atmosphäre, Vorlesungsskript, Uni Osnabrück, 2006,<br />

http://www.sotere.uni-osnabrueck.de/Lehre/skript/atmo-master.pdf 186<br />

[117] M.-B. Kallenrode: Modeling transport, Vorlesungsskript, Universität Osnabrück, 2007,<br />

http://www.sotere.uni-osnabrueck.de/Lehre/skript/transport-master.pdf<br />

[118] M.-B. Kallenrode: Simple Simulation: Systemtheorie und SimuLink, Vorlesungsskript,<br />

Universität Osnabrück, 2008, http://www.sotere.uni-osnabrueck.de/<br />

Lehre/skript/simumaster_small.pdf<br />

[119] Kallenrode, M.-B.: Current views on impulsive and gradual solar energetic particle<br />

events, J. Phys. G 29, 965–981, 2003, http://www.sotere.uni-osnabrueck.de/<br />

pubs/paper/current_views.pdf 255, 266<br />

[120] M.-B. Kallenrode: Radial dependence of solar energetic particle events, in Connecting<br />

Sun and heliosphere, Proc. Solar Wind 11/SOHO 16 (eds. B. Fleck and Th. Zurbuchen),<br />

ESA-SP592, 87–94, 2005, http://www.sotere.uni-osnabrueck.de/pubs/<br />

paper/kallenrode_solarwind_05.pdf 255<br />

[121] M.-B. Kallenrode and G. Wibberenz: Particle injection following solar flares on 1980<br />

May 28 and June 8: Evidence for different injection time histories in impulsive and<br />

gradual events, Astrophys. J. 376, 787, 1991, http://www.sotere.uni-osnabrueck.<br />

de/pubs/paper/apj91.pdf 255<br />

2. Juli 2008 c○ M.-B. Kallenrode


LITERATURVERZEICHNIS 389<br />

[122] M.-B. Kallenrode: The temporal and spatial development of MeV proton acceleration<br />

at interplanetary shocks, J. Geophys. Res. 102, 22347 - 22363, 1997, http://www.<br />

sotere.uni-osnabrueck.de/pubs/paper/97JA01678.pdf 266<br />

[123] M.-B. Kallenrode, E. Rieger, G. Wibberenz, and D.J. Forrest: Energetic charged<br />

particles resultung from flares with gamma-ray emission, Proc. 20th Internat. Cosmic<br />

Ray Conf. 3, 70, 1987, http://www.sotere.uni-osnabrueck.de/pubs/paper/<br />

icrc87.pdf 253<br />

[124] R.S. Kandel: Earth and Cosmos, Pergamon Press, 1980 213<br />

[125] W.W. Kelley: Der Heimatplanet, Zweitausendeins, Frankfurt, 1988 5<br />

[126] D. Kerner und I. Kerner: Der Klima-Report, Kiepenheuer und Witsch, Köln, 1990 216<br />

[127] W. Kertz: Einführung in die Geophysik, I und II, BI Hochschultaschenbücher, Bibliographisches<br />

Institut, Mannheim, 1971, Neuauflage 1989 37, 41<br />

[128] M.D. King et al. (eds.): Our changing planet – the view from space, Cambridge University<br />

Press, 2007 21<br />

[129] C.R. Kitchin: Astrophysical Techniques, Adam Hilger, Bristol, 1984 108, 115, 117, 118,<br />

193<br />

[130] K. Kleinknecht: Detektoren für Teilchenstrahlung, Teubner, 1992 232<br />

[131] R. Klingholz: Marathon im All, Ullstein, Berlin, 1992 322<br />

[132] G.F. Knoll: Radiation detection and measurement, Wiley, 2000 232<br />

[133] A. Kowal und L. Dessinow: In den Weltraum zum Nutzen der Menschheit, Verlag Progress<br />

Moskau und Staatsverlag der Deutschen Demokratischen Republik, 1987 95, 104,<br />

112<br />

[134] H.J. Kramer: Observations of the Earth and its Environment – Survey of missions and<br />

sensors, Springer, 2002 47, 49, 50, 72, 82, 90, 104, 107, 110, 113, 114, 115, 129, 130,<br />

134, 135, 145, 153, 154, 157, 158, 159, 162, 163, 192, 199, 200, 203, 221, 384<br />

[135] A. Krass: Verification - How much is enough?, Lexington Books, D.C. Heath and Co.,<br />

Lexington MA, 1985 39, 51<br />

[136] D. Kreß: Theoretische Grundlagen der Signal- und Informationsübertragung, Vieweg,<br />

Braunschweig, 1977 282<br />

[137] K. Küpfmüller: Einführung in die theoretische Elektrotechnik, Springer, Berlin, 1990<br />

289<br />

[138] A. Kumar Maini and V. Agrawal: Satellite technology, Wiley, 2006 54<br />

[139] H. Kunow, G. Wibberenz, G. Green, R. Müller-Mellin, M. Witte, und H. Hempe: Das<br />

Kieler Experiment zur Messung der kosmischen Strahlung zwischen 1.0 und 0.3 AU<br />

(E6), Raumfahrtforschung 5, 253, 1975 235<br />

[140] H. Kunow, G. Wibberenz, G. Green, H. Hempe, B. Iwers, R. Müller-Mellin, M. Witte,<br />

J. Fuckner, and A. Popp: Ein Experiment zur Messung der kosmischen Strahlung an<br />

Bord der Sonnensonden Helios 1 und 2 (Experiment 6), Forschungsbericht, BMFT-FB-<br />

W81-016, 1981 235<br />

[141] H. Kunow, R. Müller-Mellin, G. Green, und H. Sierks: Electron Proton Helium Instrument<br />

EPHIN, Ausschreibung, IFKKI, Kiel, 1989 239<br />

[142] H. Kunow, G. Wibberenz, G. Green, R. Müller-Mellin, and M.-B. Kallenrode: Energetic<br />

particles in the inner heliosphere, in Physics of the inner heliosphere (eds. E. Marsch<br />

and R. Schwenn), Springer, Berlin, 1991 252<br />

[143] T.G. Kyle: Atmospheric transmission, Pergamon, Oxford, 1991 112<br />

[144] S. Lange: Der erste SAR-Lupe Satellit im All, Strategie und Technik, Feb. 2007, 14–16<br />

[145] R.S. Lancaster, D.R. Skillman, W.C. Welch, J.D. Spinhirne, K.F. Manizade,<br />

and B.P. Beecken: The Economical Microbolometer-Based Environmental Radiometer<br />

Satellite (EMBERSat) Designed for Forest Fire Detection and Monitoring,<br />

2-25 - 2-28; 4; International Thermal Detectors Workshop (TDW 2003),<br />

2004, http://hdl.handle.net/2060/20040068208, http://ssed.gsfc.nasa.gov/<br />

code693/tdw03/proceedings/docs/session_2/Lancaster.pdf 20, 135<br />

[146] J. Lean: Variations in the Sun’s radiative output, Rev. of Geophys. 29, 4, 505, 1991 40,<br />

227<br />

c○ M.-B. Kallenrode 2. Juli 2008


390 LITERATURVERZEICHNIS<br />

[147] J.-P. Lebreton, C. Sollazzo, T. Blancquaert, O. Witase and the Huygens Mission<br />

Team: High ambitions for an outstanding planetary mission: Cassini-Huygens,<br />

ESA Bull. 120, Nov. 2004, http://www.esa.int/esapub/bulletin/bulletin120/<br />

bul120b_lebreton.pdf 158, 260<br />

[148] S. leprince, S. Barbot, F. Ayoub, and J.-P. Avouc: Automatic, precise, ortho-rectifiction<br />

and co-registration for satellite image correlation: aoolication to seismotectonics, IEEE<br />

Trans. Geosci. Remote Sens. 45, 1529–1558, 2007 181, 328<br />

[149] S. Leprince, E. Berthier, F. Ayoub, C. Delacourt, and J.-P. Avouc: Monitoring Earth<br />

surface dynamics with optical imaging, ESO 89, (1)1–2, 2008 181, 328<br />

[150] J.S. Levine (ed.): Space Opportunities for tropospheric chemestry, NASA Conf. Publ.<br />

2450, Washington, DC, 1985 163<br />

[151] G.H. Liljequist und K. Cehak: Allgemeine Meteorologie, Vieweg, Braunschweig, 1977<br />

83<br />

[152] C.S. Lingle, D.R. Fatland, V.A. Voronina, K. Ahlnäs and E.N. Troshina: Dynamic<br />

Behavior of the Bering Glacier-Bagley Icefield System During a Surge, and Other Measurements<br />

of Alaskan Glaciers with ERS SAR Imagery, Proc. 3rd ERS Symp., Florence,<br />

1997, http://earth.esa.int/workshops/ers97/papers/lingle2/ 157<br />

[153] H. Lippert: Lehrbuch Anatomie, Urban und Schwarzenberg, München, 1990 297<br />

[154] E. Löffler: Geographie und Fernerkundung, Teubner, 1994 46, 97, 99, 116, 119, 120,<br />

122, 127, 193, 337, 344, 345, 353<br />

[155] R.M. Lucas and A.R. Harrison: Snow monitoring in the United Kingdom using NOAA<br />

AVHRR imagery, in [60], 1994 180, 346<br />

[156] K. Luchner: <strong>Physik</strong> ist überall, Ehrenwirth, München, 1994 74<br />

[157] H.D. Lüke: Signalübertragung, Springer, 1992 291, 325<br />

[158] D.J. MacKay: Information theory, inference and learning algorithms, Cambridge, 2003<br />

297, 325<br />

[159] R.M. MacQueen, A. Csoeke-Poeckh, E. Hildner, L. House, R. Reynolds, A. Stanger, H.<br />

Tepoel, and W. Wagner: The High Altitude Observatory Coronograph/Polarimeter on<br />

the solar Maximum Mission, Solar Phys. 65, 91–107, 1980 249<br />

[160] A.F. Marfeld: Astronautik, Safari-Verlag, Berlin (Sonderausgabe zur Apollo-Mondlandung),<br />

1969 67<br />

[161] A.E. Marini: ALTLID: The technology development programme for ESA’s satelliteborne<br />

atmospheric Lidar, ESA Bull. 95, August 1998, http://esapub.esrin.esa.<br />

it/bulletin/bullet95/MARINI.pdf 170<br />

[162] H. Marko: Grundlagen der Information und Kommunikation, Verhandlungen der Ges.<br />

dt. Naturforscher und Ärzte, 113, 1984 312<br />

[163] W. Markwitz, und R. Winter (Hrsg.): Fernerkundung - Daten und Anwendungen, Wichmann,<br />

Karlsruhe, 1989 127<br />

[164] C.R. McClain, G. Feldman und W. Esaias: Oceanic biological productivity, in [82] 187<br />

[165] B. McGuire: Global Catastrophe – A very short introduction, Oxford University Press,<br />

Oxford, 2006 189, 191<br />

[166] H.R. McMaster: On War: Lessons to be Learned, Survival 50, 1, International Institute<br />

for Strategic Studies IISS, London, 2008 14<br />

[167] Meyer, ct 51<br />

[168] T. Mikaelian: Microbolometer Project, York Univ. & Spectral Applied Res. Inc.,<br />

19.7.2002, http://web.mit.edu/tsoline/www/Spectral-microbolometer.pdf 136<br />

[169] A.C. Millington, J. Wellens, J.J. Settle, and R.J. Saull: Explaining and monitoring land<br />

cover dynamics in drylands using multi-temporal analysis of NOAA AVHRR imagery,<br />

in [60], 1994 175<br />

[170] MIT Open Course Ware: 16.885J / ESD.35J Aircraft Systems Engineering,<br />

Fall 2005, http://ocw.mit.edu/OcwWeb/Aeronautics-and-Astronautics/<br />

16-885JFall-2005/CourseHome/index.htm 63<br />

2. Juli 2008 c○ M.-B. Kallenrode


LITERATURVERZEICHNIS 391<br />

[171] MIT Open Course Ware: 12.S56 GPS: Civilian Tool or Military Weapon?, Fall 2005,<br />

http://ocw.mit.edu/OcwWeb/Earth--Atmospheric--and-Planetary-Sciences/<br />

12-S56Fall-2005/CourseHome/index.htm 51<br />

[172] C. N. Mitchell, L. Alfonsi, G. De Franceschi, M. Lester, V. Romano and A. W. Wernik:<br />

GPS TEC and scintillation measurements from the polar ionosphere during the October<br />

2003 storm, Geophys. Res. Lett. 32 doi:10.1029/2004GL021644, 2005 211<br />

[173] B.J. Murphy and R.D. Nance: Mountain belts and the supercontinent cycle, Scientific<br />

American 266/4, 34, 1992 213<br />

[174] S. Natterer: The mathematics of computerized tomography, Wiley, New York, 1986 160<br />

[175] G. Neukum: High Resolution Stereo Camera (HRSC) - Mars 94 mission, Deutsche<br />

Forschungsanstalt für Luft- und Raumfahrt, Oberpfaffenhofen, DLR-IB 90/3, 1990 130<br />

[176] R.E. Newell, H.G. Reichle, Jr., and W. Seller: Carbon monoxide from the burning earth,<br />

Scient. Amer. 260, 82, 1989 163<br />

[177] E.G. Njoku und O.B. Brown: Sea surface temperature, in [82] 184, 185<br />

[178] NZZ: Die Welt, das All und der ganze Rest, NZZ-Dossier, #56, 7.3.2008, B1, Text<br />

auch unter http://www.nzz.ch/nachrichten/medien/die_welt_das_all_und_der_<br />

ganze_rest_1.684611.html 7<br />

[179] NZZ, K. Haupt: Die Schweiz in 660 560 000 000 Pixeln, NZZ-Dossier, # 56,<br />

7.3.2008, B2, auch unter http://www.nzz.ch/nachrichten/medien/die_schweiz_<br />

in_660_560_000_000_pixeln_1.684618.html<br />

[180] L. O’Gorman, M.J. Sammon and M. Seul: Practical Algorithms for Image Analysis,<br />

Cambridge, 2008 334, 353, 369<br />

[181] L.E. Orwig, K.J. Frost, and B.R. Dennis: The Hard X-Ray Burst Spectrometer on the<br />

Solar Maximum Mission, Solar Phys. 65, 25, 1980 246, 247<br />

[182] D. Parson: Dictionary of tunes and musical themes, Spencer and Brown, Cambridge,<br />

1975 298<br />

[183] J.P. Peixoto and A.H. Oort: Physics of climate, AIP, New York, 1992 231<br />

[184] Pelkham: DuMont, Köln 9<br />

[185] W.W. Peterson and E.J. Weldon: Error correcting codes, MIT Press, Cambridge, 1972<br />

317<br />

[186] Porter, H.S., Jackman, C.H., and Green, A.E.S., Efficiencies for production of atomic<br />

nitrogen and oxygen by relativistic proton impact in air, J. Chem. Phys. 167, 154—167,<br />

1976. 267<br />

[187] J.R. Primack: Gamma-ray observations of orbiting nuclear reactors, Science 244, 397,<br />

1989 148<br />

[188] J.G. Proakis und M. Salehi: Grundlagen der Kommunikationstechnik, Pearson, 2004<br />

307, 325, 350<br />

[189] M. Quack: Wechselwirkung solarer energiereicher Teilchen mit der Atmosphäre, Diplomarbeit,<br />

Uni Osnabrück, 2001, http://www.sotere.uni-osnabrueck.de/pubs/<br />

examensarbeiten/diplquack.pdf 263, 264, 266<br />

[190] U. Quernheim: Satellitenkommunikation – Kanalmodellierung und Protokollbewertung,<br />

ABI Bd. 1, Verlag der Augustinus Buchhandlung, 1993 309, 324, 325<br />

[191] V. Ramanathan, B.R. Barkstrom, and E.F. Harrison: Climate and the Earth’s radiation<br />

budget, Physics Today /5, 22, 1989 215<br />

[192] J. Radon: Über die Bestimmung von Funktionen durch ihre Integralwerte längs gewisser<br />

Mannigfaltigkeiten, Ber. Verh. Sächs. Akad. Wiss. Leipzig, Math. Phys. K1 69, 262,<br />

1917 160<br />

[193] G. Ratier, G. Levrini, A. Popescu, T. Paulsen, C. Readings and J. Langen: GOMOS:<br />

EnviSat’s contribution to measuring long-term trends in ozone and other trace gases,<br />

ESA Bull. 97, March 1999, http://esapub.esrin.esa.it/bulletin/bullet97/<br />

ratier.pdf 207<br />

[194] M. Redfern: The Earth – a very short introduction, Oxford University Press, Oxford,<br />

2003 5, 151<br />

c○ M.-B. Kallenrode 2. Juli 2008


392 LITERATURVERZEICHNIS<br />

[195] A. Rest, J. beneviste, M. Roca, G. Levrini and J. Johannessen: The EnviSat Radar<br />

Altimeter System (RA-2), ESA Bull. 98, June 1999, http://esapub.esrin.esa.it/<br />

bulletin/bullet98/RESTI.PDF 149, 206<br />

[196] W.R. Rossow: Clouds, in [82], 1993 140<br />

[197] A.E. Roy: Orbital motion, Adam Hilger, Bristol, 1982 42<br />

[198] W.G. Rees: Physical principles of remote sensing, Cambridge University Press, Cambridge,<br />

1990 108, 146, 193<br />

[199] H.G. Reichle, Jr., V.S. Conners, J.A. Holland, W.D. Hypes, H.A. Wallio, J.C. Casas,<br />

B.B. Gormsen, M.S. Saylor, and W.D. Heske: Middle and upper atmospheric carbon<br />

monoxide mixing ratios as measured by a satellite-born remote sensing sensor during<br />

November 1981, J. Geophys. Res. 91, 10865, 1986 163<br />

[200] U. Renner, J. Nauck und N. Balteas: Satellitentechnik, Springer, 1988 49, 280, 325<br />

[201] E. Rieger: Nuclear reactions in flares, in Eruptive solar flares (eds. Z. Svestka, B.<br />

Jackson and M.E. Machado), Springer Lecture Notes in Physics # 399, Springer, Berlin,<br />

1992 252<br />

[202] N. Roberts: The global environmental furture, in The changing global environment (ed.<br />

N. Roberts), Blackwell, Cambridge, 1994 214<br />

[203] J.G. Roederer: Introduction to the physics and psychophysics of music, Springer, Berlin,<br />

1975; neue deutschsprachige Auflage 1993, ebenfalls bei Springer, unter dem Titel<br />

<strong>Physik</strong>alische und psychoakustische Grundlagen der Musik 297, 298<br />

[204] Roedel: <strong>Physik</strong> der Atmosphäre, Springer 162<br />

[205] G. Rohen, C. von Savigny, M. Sinnhuber, E.J. Llewellyn, J.W. Kaiser, C.H. Jackman,<br />

M.-B. Kallenrode, J. Schroter, K.U. Eichmann, H. Bovensmann, and J.P. Burrows:<br />

Ozone depletion during the solar proton events of October/November 2003 as<br />

seen by SCIAMACHY, J. Geophys. Res. 100, A09S39, 2005, http://www.sotere.<br />

uni-osnabrueck.de/pubs/paper/2004JA010984.pdf 271<br />

[206] H. Rosenbauer, H. Grünwaldt, M.D. Montgomery, G. Paschmann, and N. Sckopke<br />

(1975): Heos 2 plasma observations in the distant polar magnetosphere: the plasma<br />

mantle, J. Geophys. Res. 80, 2723 87<br />

[207] F.S. Rowland and I.S.A. Isaksen (eds.): The changing atmosphere, Wiley and Sons,<br />

New York, 1988 164<br />

[208] M. Rycroft (Hrsg.): The Cambridge encyclopedia of space, Cambridge University Press,<br />

Cambridge, 1990 67, 121, 193<br />

[209] F.F. Sabins, Jr.: Remote sensing – Principles and interpretation, Freeman, 1996 21,<br />

96, 97, 99, 101, 102, 103, 108, 111, 122, 123, 125, 140, 156, 171, 178, 179, 181, 182, 193,<br />

197, 328, 334, 335, 347, 353<br />

[210] P. Sagirov: Satellitendynamik, BI-Hochschultaschenbücher, 1970 26, 66, 77<br />

[211] M. Scharfe, K. Meinzer und R. Zimmermann: Entwicklung eins magnetisch gelagerten<br />

Schwungrades für AMSAT Phase 3-D, AMSAT-DL Journal, http://www.amsat-dl.<br />

org/journal/artikel/adlj-rad.htm 55<br />

[212] H. Schönfelder: Bildkommunikation, Springer, Berlin, 1983 308<br />

[213] M. Schneider: Satellitengeodäsie, BI, 1988 26, 44<br />

[214] S.H. Schneider: Klimamodelle, Spektrum der Wissenschaft 7, 52, 1987 215<br />

[215] M.R. Schoeberl: Stratospheric ozone depletion, in [82], 1993 164<br />

[216] C:D: Schönwiese: Klima im Wandel, DVA Stuttgart, 1992 213<br />

[217] J. Schröter, B. Heber, F. Steinhilber, and M. B. Kallenrode: Energetic particles in the<br />

atmosphere: A Monte-Carlo simulation, Adv. Space Res., 37 (8)1597-1601, 2006 266,<br />

267, 268, 269<br />

[218] A. Schubert: Water takes a peculiar turn in the gulf stream, EOS 75, 473, 1994 184<br />

[219] B.E. Schutz and the GLAS Science Team: Geoscience Laser Altimeter System GLAS –<br />

Science Requierements, October 1997, http://www.csr.utexas.edu/glas/pdf/sci_<br />

reqs_v15.pdf<br />

[220] P.J. Sellers: Canopy reflectance, photosynthesis and transpiration, Int. J. remote sensing,<br />

12, 1113, 1985 174<br />

2. Juli 2008 c○ M.-B. Kallenrode


LITERATURVERZEICHNIS 393<br />

[221] G. Shakhnarovich, T. Darrell and P. Indyk: Nearest-neighbor methods in learning and<br />

vision, MIT Press, 2005 297<br />

[222] C.E. Shannon: A mathematical theory of communication, Bell Syst. Tech. J. 27, 379-423<br />

und 623-656, 1948 277, 283, 292, 305<br />

[223] C.E. Shannon and W. Weaver: The mathematical theory of information, Univers. Ill..<br />

Press, Urbana, 1949 283, 287, 295, 302<br />

[224] C.E. Shannon and W. Weaver: Mathematische Grundlagen der Informationstheorie,<br />

Oldenbourg, München, 1976 281, 282, 291, 294, 325<br />

[225] M.J. Sidi: Spacecraft dynamics and control – a practical engineering approach, Cambridge<br />

University Press, 1997 54<br />

[226] M. Sinnhuber, J.P. Burrows, M.P. Chipperfield, C.H. jackman, M.-B. kallenrode,<br />

K.F. Künzi, and M. Quack: A model of the impact of magnetic field structure<br />

on atmospheric composition during solar proton events, Geophys. Res. Lett.<br />

39, 1818, doi:10.1029/2003GL017265, 2003, http://www.sotere.uni-osnabrueck.<br />

de/pubs/paper/2003GL017265.pdf 276<br />

[227] S.M. Stanley: Earth and Life through Time, Freeman, New York, 1989 213<br />

[228] K. Steinbuch: Automat und Mensch, Springer, Berlin, 1962 289, 296, 297, 300, 310, 325<br />

[229] K. Steinbuch: Taschenbuch der Nachrichtenverarbeitung, Springer, Berlin, 1967 325<br />

[230] H.L. Stiltz (ed.): Aerospace telemetry, Prentice-Hall, New York, 1961 295<br />

[231] P. Strain and F. Engle: Portät unseres Planeten, Westermann, Braunschweig, 1993 8,<br />

171, 172<br />

[232] C.H. Strandberg: Photoarchaeology, Photogrammetric Engeneering 33, 1152, 1967 171<br />

[233] C.P. Summerhayes und S.A. Thorpe: Oceanography, Manson, 199 142<br />

[234] W.H. Tait: Radiation Detection, Butterworth, London, 1980 232<br />

[235] C. Taylor: Der Ton macht die Musik, Vieweg, Braunschweig, 1994 296, 299<br />

[236] A. Tetzlaff: Coal fire quantification using ASTER, ETM and BIRD satellite instrument<br />

data, Universität München, http://edoc.ub.uni-muenchen.de/archive/00004398/<br />

01/tetzlaff_anke.pdf 138, 189<br />

[237] R.H. Thomas: Ice sheets, in [82], 1993 147<br />

[238] C. Timmreck: Analyse eines Sensorkonzepts - Monte-Carlo Simulation für den Protonen<br />

und Helium Nachweis des Kieler EPHIN Instruments an Bord von SOHO, Diplomarbeit,<br />

IFKKI, Kiel, 1991 240<br />

[239] G.E. Thomas: Noctilucent clouds, Werbevortrag, 2004 ... 84<br />

[240] J.R.G. Townshend, C.J. Tucker, and S.N. Goward: Global vegetation mapping, in [82],<br />

1993 175<br />

[241] C.J. Tucker, B.N. Holben, and T.E. Goff: Intensive forrest clearing in Rondonia, Brazil,<br />

as detected by remote sensing, Remote sensing of environment 15, 255, 1984<br />

[242] H.F. van Beek, P. Hoyng, B. Lafleur, and G.M. Simnett: The Hard X-Ray Imaging<br />

Spectrometer (HXIS), Solar Phys. 65, 39, 1980 247, 248<br />

[243] H. Vedel, and Xiang-Yu Huang: Impact of Ground Based GPS Data on Numerical<br />

Weather Prediction, JMSJ, 82, 459-472, 2004 211<br />

[244] F. Vester: Denken, lernen und vergessen, dtv 296, 297<br />

[245] P.T. Verronen, Turunen E., Ulich T., and Kyrölä E., Modelling the effects of the October<br />

1989 solar proton event on mesospheric odd nitrogen using a detailed ion and<br />

neutral chemistry model, Ann. Gepophys. 20, 1967–1976, 2002. 269<br />

[246] H. Vollmers: Modellrechnungen zur Untersuchung des Energieauflösungsvermögens und<br />

der Trennung der Teilchenart bei Messungen mit einem Detektorteleskop der Sonnensonde<br />

Helios, IFKKI, Kiel, 1972 237<br />

[247] I. von Cube: Kybernetische Grundlagen des Lernens, Klett, Stuttgart, 1968 296, 297,<br />

298, 325<br />

[248] P. van Oosterom, S. Zlatanova and E.M. Fendel: Geo-Information for disaster management,<br />

Springer, 2005 191<br />

[249] P. Wayner: Compression algorithms for real programmers, Morgan Kaufmann, 2000<br />

325, 350<br />

c○ M.-B. Kallenrode 2. Juli 2008


394 LITERATURVERZEICHNIS<br />

[250] S. Webb: Reconstruction of cross-sections from transmission projections: a short simplified<br />

review and comparison of performance of algorithms, in Physical Aspects of<br />

Medical Imaging (eds. M. Moores, R.P. Parker and B. Pullan), Wiley, New York, 1981<br />

160<br />

[251] W. Weischet: Einführung in die allgemeine Klimatologie, Teubner, 1988 225<br />

[252] R.M. White: The Great Climate Debate, Scientific American, 263(1) (July), 18, 1990<br />

215<br />

[253] R.C. Willson and A.V. Mordvinov: Secular total solar irradiance trend during solar<br />

cycles 21-23, Geophys. Res. Lett., 30(5), 3–6, 2003 229<br />

[254] H. Wittbrodt, H. Mielke, G. Narimanow, und J. Saizew: Raumfahrt für die Erde I,<br />

transpress VEB Verlag für Verkehrswesen, Berlin, 1975 95, 97, 107, 112<br />

[255] I.H. Witten, A. Moffat, und T.C. Bell: Managing gigabytes, Morgan Kaufmann, 1999<br />

325, 348, 349, 350<br />

[256] B.E. Woodgate, E.A. Tandberg-Hansen, E.C. Brunner, J.M. Beckers, J.C. Brandt, W.<br />

Henze, C.L. Hyder, M.W. Kalet, P.J. kenny, E.D. Know, A.G. Michalitsianos, R. Rehse,<br />

R.A. Shine, and H.D. Tinsley: The ultravioler spectrometer and polarimeter on the solar<br />

maximum mission, Sol. Phys. 65, 73–90, 1980 250<br />

[257] D.O.A. Wolf, H.M. Hoose, und M.A. Dauses: Die Militarisierung der Weltraums, Bernard<br />

und Graefe, Karlsruhe, 1983 113, 278<br />

[258] D. Wright: Space Debris, Physics Today, 60, (10)35–50, 2007, http://ptonline.aip.<br />

org/journals/doc/PHTOAD-ft/vol_60/iss_10/35_1.shtml 13, 36<br />

[259] D. Wright, L. Grego and L. Gronlund: The physics of space security, American Academy<br />

of Arts and Sciences AAAS, 2005, auch unter http://www.ucsusa.org/global_<br />

security/space_weapons/the-physics-of-space-security.html) zu finden 8, 36<br />

[260] H.P. Zenner and E. Zrenner: Einführung in Physiologie der Sinne, Spektrum - Akademischer<br />

Verlag, Heidelberg, 1994 297<br />

[261] F. Zimmermann und F.M. Schöttle: lage und Bahnregelung von Raumfluggeräten, Vorlesungsfolien,<br />

Uni Stuttgart, 2007 http://www.irs.uni-stuttgart.de/skript/LBR/<br />

Lageregelung%201%20-%20LBR%20-%20WS%200708.pdf, 8.2.2008 54<br />

[262] M. Zink: The TerraSAR-L Interferometric Mission Objectives, http://earth.esa.<br />

int/workshops/fringe03/participants/571/paper_TerraSAR.pdf 210<br />

[263] H. Zirin: Astrophysics of the sun, Cambridge University Press, 1988 226<br />

[264] R. Zirkle: Returning to space: priorities and choices in US launch policy, Union of<br />

Concerned Scientists, Cambridge, MA, 1987 32<br />

[265] US Air Force, Los Angeles Air Force Base: Global Positioning System, http://www.<br />

losangeles.af.mil/library/factsheets/factsheet.asp?id=5325, 8.2.2008 51<br />

[266] ACRIM Active Cavity radiometer Irradiance Monitor, http://www.acrim.com/,<br />

20.3.2008 226<br />

[267] AJAX: Real Time Satellite Tracking – GPS Operational Satellites, http://www.n2yo.<br />

com/list.php?c=20, 23.2.2008 211<br />

[268] Ball http://www.ball.com/aerospace/npoess_cmis.html 154<br />

[269] S. Brügger und Q. Squarra: Leuchtende Nachtwolken und PMSE, http://3sky.de/<br />

NLC/PMSE/pmse_nlc.html, 23.2.2008 84<br />

[270] Bundesamt für Wehrtechnik und beschaffung: SAR-Lupe, http://www.bwb.org/<br />

01DB022000000001/CurrentBaseLink/W26FTE79283INFODE, 20.3.2008 210<br />

[271] M. Hennes: Der neue militärisch-industrielle Komplex in den USA, Bundeszentrale<br />

für politische Bildung, http://www.bpb.de/publikationen/U6A0BW,0,0,Der_neue_<br />

Milit%E4rischIndustrielle_Komplex_in_den_USA.html, 20.2.2008 13<br />

[272] Caltech, Advanced Composition Explorer, http://www.srl.caltech.edu/ACE/<br />

23.2.2008 52, 68<br />

[273] CAWSES Homepage, Boston University, http://www.bu.edu/cawses/, 25.2.2008 222,<br />

260<br />

[274] CAWSES Deutschland Homepage, Institu für Atmosphärenphysik, Kühlungsborn,<br />

http://www.iap-kborn.de/CAWSES.29.0.html, 25.2.2008 222, 260<br />

2. Juli 2008 c○ M.-B. Kallenrode


LITERATURVERZEICHNIS 395<br />

[275] CCG: Sicherheitskritische Galileo-Anwendungen, http://www.ccg-ev.de/details/<br />

fa/fa0405.pdf, 20.3.2008 212<br />

[276] CEOS: Earth Observation Handbook, http://iodeweb5.vliz.be/oceanteacher/<br />

resources/other/CEOSHandbook/index.html oder http://www.eohandbook.com/<br />

index.html, 25.2.2008 21, 192<br />

[277] CIRES History, 1967–2002: remote Sensing Tools, http://cires.colorado.edu/<br />

about/history/06a.html, 23.2.2008 168<br />

[278] CLS Group: ARGOS Homepage, http://www.argos-system.org/, 10.3.2008 11<br />

[279] Colorado State University, Department of Atmosphetic Science: CloudSat, http://<br />

cloudsat.atmos.colostate.edu/, 23.2.2008 220, 221<br />

[280] CNES: CALIPSO, http://smsc.cnes.fr/CALIPSO/, 23.2.2008 220, 221<br />

[281] CNES: PARASOL, http://smsc.cnes.fr/PARASOL/, 23.2.2008 220, 221<br />

[282] CSA: RADARSAT-1, http://www.space.gc.ca/asc/eng/satellites/radarsat1/<br />

default.asp, 23.2.2008 148, 154, 210<br />

[283] CSA: RADARSAT-2, http://www.space.gc.ca/asc/eng/satellites/radarsat2/,<br />

23.2.2006 148, 154, 210<br />

[284] CSA: Radarsat-2 Gallery, http://www.radarsat2.info/about/gallery/, 11.3.2008<br />

123<br />

[285] Hargrave: Aviation and Aeromodelling – interdependent evolutions and histories,<br />

http://www.ctie.monash.edu.au/hargrave/images/cody_manlifter_4_750.<br />

jpg, 7.2.2008 9<br />

[286] Deutsches Museum: Fernerkundungskamera MKF-6M http://www.<br />

deutsches-museum.de/sammlungen/verkehr/raumfahrt/weltraumkameras/<br />

kamera-mkf-6/, 10.3.2008 93<br />

[287] DLR http://www.caf.dlr.de/caf/aktuelles/news-archiv/bilderarchiv/gome/<br />

ozonloch2002/x_images/gome_to3_momean_antarctica.jpg 7<br />

[288] DLR 100 Jahre Luft- und Weltraumforschung in Deutschland: Mit Hammer und<br />

Zirkel im All, http://www.dlr.de/100Jahre/desktopdefault.aspx/tabid-2565/<br />

4432_read-8023/, 10.3.2008 93<br />

[289] DLR, Cluster Angewandte Fernerkundung: EnviSat, http://www.dlr.de/caf/<br />

desktopdefault.aspx/tabid-2663//4003_read-5985/, 23.2.2008 12<br />

[290] DLR: Galileo, http://www.dlr.de/rd/desktopdefault.aspx/tabid-2439/3577_<br />

read-5294/, 23.2.2008 212<br />

[291] DLR, Center for Satellite Based Crisis Information: Oil spill at the lebanese<br />

coast, http://www.zki.dlr.de/media/download/applications/2006/lebanon/<br />

DLR_200607_lebanon_oilspill_timeseries_low.jpg, 23.2.2008 183<br />

[292] DLR, Center for Satellite Based Crisis Information, http://www.zki.dlr.de/zki_<br />

intro_en.html, 23.2.2008 191<br />

[293] DLR, Mars Express, Homepage, http://www.dlr.de/mars/, 10.3.2008 94<br />

[294] DLR, Optische Systeme: Eine Weitwinkel-Stereo-Kamera für die Tiefraummission<br />

Mars-96, http://www.dlr.de/os/desktopdefault.aspx/tabid-3489/5559_<br />

read-8056/, 23.2.2008 130<br />

[295] DLR http://www.caf.dlr.de/caf/satellitendaten/missionen/ikonos/ 5<br />

[296] DLR: TerraSAR-X, http://www.dlr.de/tsx/start_ge.htm, 23.2.2008 148, 154, 210<br />

[297] DLR: TerraSAR-X Mission statement, http://wwwserv2.go.t-systems-sfr.com/<br />

tsx/start_ge.htm, 23.2.2008 148, 210<br />

[298] DLR http://www.dlr.de/Portaldata/1/Resources/forschung_und_entwicklung/<br />

missionen/terrasar_x/terra_sydney_wel.jpg, 23.2.2008 210<br />

[299] DLR, Institut für Hochfrequenztechnik und Radarsysteme: TerraSAR-L, http://www.<br />

dlr.de/hr/desktopdefault.aspx/tabid-2459/3718_read-5580/, 23.2.2008 210<br />

[300] DLR, Institut für optische Systeme: MOMS-02, http://www.op.dlr.de/ne-oe/fo/<br />

moms-02.html, 10.3.2008 119<br />

c○ M.-B. Kallenrode 2. Juli 2008


396 LITERATURVERZEICHNIS<br />

[301] DLR, A. Eckardt, Institut für Weltraumsensorik und Planetenerkundung: Digitale<br />

Luftbildkamera ADS 40, http://www.dlr.de/os/Portaldata/48/Resources/<br />

dokumente/020906_ads.pdf, 11.3.2008 131<br />

[302] DLR, Optische Informationssysteme: ADS 40, http://www.dlr.de/os/<br />

desktopdefault.aspx/tabid-3489/5559_read-8076/, 11.3.2008 131<br />

[303] DLR, World Data Center for Remote Sensing of the Amtosphere, Homepage, http:<br />

//wdc.dlr.de/index.html, 25.2.2008 161<br />

[304] DLR, World Data Center for Remote Sensing of the Amtosphere: AATSR, http://<br />

wdc.dlr.de/sensors/aatsr/index.php, 25.2.2008 144, 207<br />

[305] DLR, World Data Center for Remote Sensing of the Amtosphere: AIRS, http://wdc.<br />

dlr.de/sensors/aatsr/index.php, 25.2.2008 169, 219<br />

[306] DLR, World Data Center for Remote Sensing of the Amtosphere: AMSR, http://wdc.<br />

dlr.de/sensors/amsr/index.php, 25.2.2008 144, 169, 219<br />

[307] DLR, World Data Center for Remote Sensing of the Amtosphere: AMSU http://wdc.<br />

dlr.de/sensors/amsu/index.php, 25.2.2008 144, 170, 219<br />

[308] DLR, World Data Center for Remote Sensing of the Amtosphere: AVHRR, http:<br />

//wdc.dlr.de/sensors/avhrr/index.php, 25.2.2008 129, 204<br />

[309] DLR, World Data Center for Remote Sensing of the Amtosphere: AVHRR/3, http:<br />

//wdc.dlr.de/sensors/avhrr3/index.php, 25.2.2008 129, 204<br />

[310] DLR, World Data Center for Remote Sensing of the Amtosphere: GOME http://wdc.<br />

dlr.de/sensors/gome/index.php, 25.2.2008 207<br />

[311] DLR, World Data Center for Remote Sensing of the Amtosphere: GOME-2, http:<br />

//wdc.dlr.de/sensors/gome2/index.php, 25.2.2008 205, 207<br />

[312] DLR, World Data Center for Remote Sensing of the Amtosphere: GOMOS, http:<br />

//wdc.dlr.de/sensors/gomos/index.php, 25.2.2008 207<br />

[313] DLR, World Data Center for Remote Sensing of the Amtosphere: HALOE, http:<br />

//wdc.dlr.de/sensors/haloe/index.php, 25.2.2008<br />

[314] DLR, World Data Center for Remote Sensing of the Amtosphere: HIRDLS, http:<br />

//wdc.dlr.de/sensors/hirdls/index.php, 25.2.2008 220<br />

[315] DLR, World Data Center for Remote Sensing of the Amtosphere: IASI, http://wdc.<br />

dlr.de/sensors/iasi/index.php, 19.3.2008 205<br />

[316] DLR, World Data Center for Remote Sensing of the Amtosphere: MERIS, http://<br />

wdc.dlr.de/sensors/meris/index.php, 25.2.2008 161, 169<br />

[317] DLR, World Data Center for Remote Sensing of the Amtosphere: MHS, http://wdc.<br />

dlr.de/sensors/mhs/index.php, 19.3.2008 205<br />

[318] DLR, World Data Center for Remote Sensing of the Amtosphere: MIPAS, http://<br />

wdc.dlr.de/sensors/mipas/index.php, 25.2.2008 161, 206<br />

[319] DLR, World Data Center for Remote Sensing of the Amtosphere: MISR, http://wdc.<br />

dlr.de/sensors/misr/index.php, 25.2.2008 111, 218<br />

[320] DLR, World Data Center for Remote Sensing of the Amtosphere: MLS, http://wdc.<br />

dlr.de/sensors/mls/index.php, 25.2.2008 144, 146, 220<br />

[321] DLR, World Data Center for Remote Sensing of the Amtosphere: MODIS, http://<br />

wdc.dlr.de/sensors/modis/index.php, 25.2.2008 169, 218, 219<br />

[322] DLR, World Data Center for Remote Sensing of the Amtosphere: MOPITT http:<br />

//wdc.dlr.de/sensors/mopitt/index.php, 25.2.2008 163, 218<br />

[323] DLR, World Data Center for Remote Sensing of the Amtosphere: OMI http://wdc.<br />

dlr.de/sensors/omi/index.php, 25.2.2008 220<br />

[324] DLR, World Data Center for Remote Sensing of the Amtosphere: SBUV, http://wdc.<br />

dlr.de/sensors/sbuv/index.php, 25.2.2008 161, 164<br />

[325] DLR, World Data Center for Remote Sensing of the Amtosphere: SCIAMACHY, http:<br />

//wdc.dlr.de/sensors/sciamachy/index.php, 25.2.2008 161, 207<br />

[326] DLR, World Data Center for Remote Sensing of the Amtosphere: TES, http://wdc.<br />

dlr.de/sensors/tes/index.php, 25.2.2008 220<br />

2. Juli 2008 c○ M.-B. Kallenrode


LITERATURVERZEICHNIS 397<br />

[327] DLR, World Data Center for Remote Sensing of the Amtosphere: TOMS, http://wdc.<br />

dlr.de/sensors/toms/index.php, 25.2.2008 161, 164<br />

[328] DLR, World Data Center for Remote Sensing of the Amtosphere: VIRS, http://wdc.<br />

dlr.de/sensors/virs/index.php, 25.2.2008<br />

[329] DMC International Imaging: Earth Observation Solutions, http://www.dmcii.com/<br />

index.html, 23.2.2008 20, 192<br />

[330] EADS Astrium: All the Space you need, http://www.astrium.eads.net/, 23.2.2008<br />

210<br />

[331] EADS Astrium: Reconnaissance satellite systems, http://www.astrium.eads.net/<br />

families/a-safer-world/recon, 20.3.2008 211<br />

[332] Electropyhics: Technology overvire microbolometer detectors, http://www.<br />

electrophysics.com/View/Viw_TechPrimer_UncooledTutorial.asp, 13.3.2008<br />

136<br />

[333] EO sharing earth observation resources: SAR Lupe constellation, http://directory.<br />

eoportal.org/d_ann.php?an_id=8343 210<br />

[334] ERSDAC http://www.ersdac.or.jp/ASTERimage/Image/013_Richat.jpg,<br />

23.2.2008 190<br />

[335] ERSDAC http://www.ersdac.or.jp/ASTERimage/Image/023_SAF.jpg, 23.2.2008<br />

188<br />

[336] ERSDAC http://www.ersdac.or.jp/ASTERimage/Image/091_Vredefort.jpg,<br />

23.2.2008 189<br />

[337] ESA: Automated Transfer vehicle, http://www.esa.int/esaMI/ATV/index.html,<br />

23.2.2008 39, 86<br />

[338] ESA: Cassini–Huygens, http://www.esa.int/SPECIALS/Cassini-Huygens/index.<br />

html, 5.5.2008 260<br />

[339] ESA Deutschland, Lokale Nachrichten: Hightech aus Deutschland: das Mars-Superauge,<br />

http://www.esa.int/esaCP/SEM5VVY5D8E_Germany_0.html, 10.3.2008 94<br />

[340] ESA: Mars Express, http://www.esa.int/esaMI/Mars_Express/, 10.3.2008 94<br />

[341] ESA Missions: AATSR Product Handbook, http://envisat.esa.int/<br />

dataproducts/aatsr/CNTR.htm, 23.2.2008 207<br />

[342] ESA Missions: ASAR Product Handbook, http://envisat.esa.int/dataproducts/<br />

asar/CNTR.htm, 23.2.2008 207<br />

[343] ESA Missions: EnviSat, http://envisat.esa.int/, 6.2.2008 12, 149, 205<br />

[344] ESA Missions: Envisat MERIS, http://envisat.esa.int/instruments/meris/,<br />

23.2.2008 169, 206<br />

[345] ESA Missions: Envisat MWR, http://earth.esa.int/object/index.cfm?<br />

fobjectid=3775, 19.3.2008 206<br />

[346] ESA Missions: EnviSat Siamachy Data Products, http://envisat.esa.int/<br />

instruments/sciamachy/data-app/dataprod.html, 23.2.2008 208<br />

[347] ESA Missions: ERS http://earth.esa.int/ers/, 23.2.2008 148, 149<br />

[348] ESA Missions: GOMOS Product Handbook, http://envisat.esa.int/<br />

dataproducts/gomos/CNTR.htm, 23.2.2008 207<br />

[349] ESA Missions: MERIS Product Handbook, http://envisat.esa.int/handbooks/<br />

meris/, 23.2.2008 169, 206<br />

[350] ESA Missions: MERIS Product Handbook, http://envisat.esa.int/dataproducts/<br />

meris/CNTR.htm 206<br />

[351] ESA Missions: MIPAS Product Handbook, http://envisat.esa.int/dataproducts/<br />

mipas/CNTR.htm, 23.2.2008 206<br />

[352] ESA News: Let gravity assist you, http://www.esa.int/esaCP/SEMXLE0P4HD_index_<br />

0.html, 7.2.2008 35, 77<br />

[353] ESA Österreich, lokale Nachrichten, http://www.esa.int/esaCP/ESAF67T7YYC_<br />

Austria_1.html, 6.2.2208 12<br />

[354] ESA Resources: EnviSat, http://envisat.esa.int/category/index.cfm?<br />

fcategoryid=42&S_ID=14, 23.2.2008 205<br />

c○ M.-B. Kallenrode 2. Juli 2008


398 LITERATURVERZEICHNIS<br />

[355] ESA Science and Technology: Cluster, http://clusterlaunch.esa.int/science-e/<br />

www/area/index.cfm?fareaid=8, 23.2.2008 52<br />

[356] ESA Science and Technology: Giotto, http://giotto.esa.int/science-e/www/<br />

area/index.cfm?fareaid=15, 23.2.2008 121<br />

[357] ESA: SOHO – Solar and Heliospheric Observatory, http://sohowww.estec.esa.nl,<br />

23.2.2008 68, 250<br />

[358] ESA Space Science: Giotto, http://www.esa.int/esaSC/120392_index_0_m.html,<br />

23.2.2008 121<br />

[359] ESA: The future - Galileo, http://www.esa.int/esaNA/galileo.html, 8.2.2008 51,<br />

212<br />

[360] ESA http://envisat.esa.int/dataproducts/ra2-mwr/CNTR.htmRA-2 206<br />

[361] ESA http://www.estec.esa.nl/wmwww/wma/spweather/ 90<br />

[362] EuMetSat Home, http://www.eumetsat.de/, 23.2.2008 200, 201<br />

[363] EuMetSat: EUMETSAT Polar System (EPS), http://www.eumetsat.int/Home/<br />

Main/What_We_Do/Satellites/EUMETSAT_Polar_System/index.htm?l=en, 19.3.2008<br />

205<br />

[364] EuMetSat: GMES – EUMETSAT Contributes to Global Monitoring for Environment<br />

and Security, http://www.eumetsat.int/groups/cps/documents/document/<br />

pdf_br_eum04_en.pdf, 1.3.2008 192, 211<br />

[365] EuMetSat (J. Schmid): The SEVERI instrument, http://www.eumetsat.int/Home/<br />

Main/Publications/Technical_and_Scientific_Documentation/repository/<br />

pdf_ten_msg_seviri_instrument, 1.3.2008 201<br />

[366] European Commission: FAPAR Web site, http://fapar.jrc.it/Home.php, 23.2.2008<br />

174<br />

[367] European Space Imaging Homepage, http://www.euspaceimaging.com/, 23.2.2008 5,<br />

191, 192<br />

[368] FAS Space Policy Project, Military Space Projects: NPOESS Convergence, http://<br />

www.fas.org/spp/military/program/met/npoess.htm, 23.2.2008 13, 154<br />

[369] FAS Space Policy Project, World Space Guide: Molniya, http://www.fas.org/spp/<br />

guide/russia/comm/elliptical/molniya.htm, 23.2.2008 50<br />

[370] FAS Space Policy Project, World Space Guide: Resurs-F, http://www.fas.org/spp/<br />

guide/russia/earth/resursf.htm 95<br />

[371] Fuchs Gruppe: MSRS Remote Sensing Satellite, http://www.fuchs-gruppe.com/eo/<br />

msrs/0_MSRS.html, 23.2.2008 118, 209<br />

[372] GEMS Global Monitoring for Environment and Security, http://www.gmes.info/<br />

index.php?id=home, 23.2.2008 191<br />

[373] GeoCommunity – The source for earth imaging information: Sensor Descritpion – RadarSat<br />

-1, http://imaging.geocomm.com/features/sensor/radarsat1/, 23.2.2008<br />

154, 210<br />

[374] Geo-Eye: The GeoEye Foundation provides satellite imagery to advance research in<br />

Geographic Information Systems, Environmental Studies and Missions of Humanitarian<br />

Support, http://www.geoeye.com/, 23.2.2008 5, 192, 200<br />

[375] Geo-Eye: Applications – National Security, http://www.geoeye.com/products/<br />

solutions/nationalSecurity.htm, 23.2.2008 192<br />

[376] Geoforschungszentrum Potsdam, Department 1: The CHAMP Mission, http://op.<br />

gfz-potsdam.de/champ/index_CHAMP.html, 23.2.2008 88, 208<br />

[377] R. Hagen: Nuclear powered space missions – past and future, 11.8.1998, http://www.<br />

space4peace.org/ianus/npsmindex.htm, 26.2.2008 148<br />

[378] Hubble Site, http://hubblesite.org/, 23.2.2008 52<br />

[379] IKI: Robotic spacecraft mission to mars, http://www.iki.rssi.ru/mars96/01_mars_<br />

e.htm, 23.2.2008 130<br />

[380] InfoTerra – an EADS Astrium Compyna: TerraSAR-X Services, http://www.<br />

infoterra.de/tsx/index.php, 23.2.2008 210<br />

2. Juli 2008 c○ M.-B. Kallenrode


LITERATURVERZEICHNIS 399<br />

[381] Institut für Atmosphärenphysik, Kühlungsborn: NLC-Messungen mit Lidars, http:<br />

//www.iap-kborn.de/NLC-Messungen-mit-Lidars.122.0.html, 23.2.2008 84<br />

[382] ISRO Indian Space research organisation, http://www.isro.org/, 23.2.2008 191<br />

[383] International Charter Space and Major Disasters, http://www.disasterscharter.<br />

org, 23.2.2008 191<br />

[384] JAXA: AMSR-E, http://sharaku.eorc.jaxa.jp/AMSR/index_e.htm, 23.2.2008 169<br />

[385] JAXA: Disaster Management with an Eya from Space, http://www.jaxa.jp/<br />

article/special/disaster/kozawa01_e.html, 23.2.2008 191<br />

[386] JAXA: about Earth Observation, http://www.eorc.jaxa.jp/en/observation/<br />

index.html, 25.2.2008 21, 193<br />

[387] JAXA: ISAS deploys solar sail film in space, http://www.isas.jaxa.jp/e/snews/<br />

2004/0809.shtml, 23.2.2008 67<br />

[388] JAXA: Yohkoh Homepage, http://www.isas.ac.jp/home/solar/yohkoh/index.<br />

html, 23.2.2008 53<br />

[389] K.C. Jezek, The Ohio State University, Byrd Polar Research Center: RadarSAT-<br />

1 Antarctic Mapping Project, http://bprc.osu.edu/rsl/radarsat/radarsat.html,<br />

23.2.2008 180<br />

[390] K.C. Jezek, The Ohio State University, Byrd Polar Research Center: RadarSAT-1 Antarctic<br />

Mapping Project, http://bprc.osu.edu/rsl/radarsat/Images/velocity_<br />

lambert.jpg, 23.2.2008 181<br />

[391] Johns Hopkins University, APL Ocean Remote sensing: AVHRR Imagery, http://<br />

fermi.jhuapl.edu/avhrr/, 23.2.2008 129<br />

[392] Johns Hopkins University: New Horizons, http://pluto.jhuapl.edu/, 5.5.2005 260<br />

[393] M. Kozak: Molniya 3D satellite viewer, http://screamyguy.net/ephemeris/viewer.<br />

htm?TITLE=Molniya, 23.2.2008 50<br />

[394] K.L. Kvamme, University of Arkansas, Archeo-Imaging Lab: The archeological remote<br />

sensing library of geophysical imagery, http://www.cast.uark.edu/~kkvamme/geop/<br />

geop.htm, 23.2.2008 172<br />

[395] Leica-Geosystems, http://gi.leica-geosystems.com/default.aspx, 11.3.2008 131<br />

[396] Leica Geosystems: Leica ADS40 - Digitaler Luftbildsensor, http://www.<br />

leica-geosystems.com/corporate/de/ndef/lgs_57627.htm, 11.3.2008 131<br />

[397] mdacorporation: RadarSat-2 – A new era in SAR, http://www.radarsat2.info/,<br />

23.2.2008 154, 210<br />

[398] Montana University: Satellite Images of the Keweenaw, http://www.geo.mtu.edu/rs/<br />

keweenaw/, 13.2.2208 126, 127, 369<br />

[399] NASA: CERES Clouds ad the Earth’s radiant Energy System, http://science.larc.<br />

nasa.gov/ceres/index.html, 23.2.2008 161, 218, 220<br />

[400] NASA: CERES Clouds ad the Earth’s radiant Energy System (Poster), http:<br />

//science.larc.nasa.gov/ceres/press_releases/images/CERES-AQUA-poster.<br />

pdf, 23.2.2008 217<br />

[401] NASA: Columbia (Link to unvestigations report Columbia http://www.nasa.gov/<br />

columbia/caib/html/start.html, Challenger http://history.nasa.gov/sts51l.<br />

html) http://www.nasa.gov/columbia/home/index.html, 10.3.2008 80<br />

[402] NASA: Experimental Communications Satellites, http://roland.lerc.nasa.gov/<br />

~dglover/sat/satcom2.html#Echo, 23.2.2008 35, 281<br />

[403] NASA: Sputnik – the fiftieth anniversary, http://history.nasa.gov/sputnik/,<br />

6.2.2008 11<br />

[404] NASA: Terrestrial impact craters and their environmental effects, http://www.<br />

lpi.usra.edu/science/kring/epo_web/impact_cratering/intro/index.html,<br />

7.2.2008 35<br />

[405] NASA: The Mariner Mars Missions, http://nssdc.gsfc.nasa.gov/planetary/<br />

mars/mariner.html, 23.2.2008 117<br />

[406] NASA: SHARAD Mars Shallow Subsurface Radar, http://www.sharad.org/index.<br />

php?UserSID=, 28.2.2008 158<br />

c○ M.-B. Kallenrode 2. Juli 2008


400 LITERATURVERZEICHNIS<br />

[407] NASA Ames reserach Center: Wlecome to the landSat Program, http://geo.arc.<br />

nasa.gov/sge/landsat/landsat.html, 23.2.2008 198<br />

[408] NASA Applied Sciences Program: Disaster management, http://science.hq.nasa.<br />

gov/earth-sun/applications/theme7.htm, 23.2.2008 191<br />

[409] NASA Earth Observatory http://earthobservatory.nasa.gov/, 10.3.2008 212, 217<br />

[410] NASA Earth System Science Pathfinder ESSP, http://science.hq.nasa.gov/<br />

earth-sun/science/essp.html, 20.3.2008 221<br />

[411] NASA EOS: The Earth Observing System Project Science Office, http://eospso.<br />

gsfc.nasa.gov/, 23.2.2008 168, 212<br />

[412] NASA GES DISC: AIRS – Atmospheric InfraRed Sounder, http://daac.gsfc.nasa.<br />

gov/AIRS/documentation/hsb_instrument_guide.shtml, 23.2.2008 219<br />

[413] NASA GSFC, Aqua Project Science http://aqua.nasa.gov/, 23.2.2008 144, 169, 170,<br />

218, 220<br />

[414] NASA GSFC, Aqua Project Science: AMSR-E Advanced Microwave Radiometer for<br />

EOS, http://aqua.nasa.gov/about/instrument_amsr.php, 23.2.2008 169, 219<br />

[415] NASA GSFC, Aqua Project Science: AMSU – Advanced Microwave Sounding Unit,<br />

http://aqua.nasa.gov/about/instrument_amsu.php, 23.2.2008 144, 170, 219<br />

[416] NASA GSFC, Aqua Project Science: Aqua Image Highlights, http://aqua.nasa.gov/<br />

highlight.php?id=37, 18.2.2008 220<br />

[417] NASA GSFC: Aura, http://aura.gsfc.nasa.gov/, 23.2.2008 144, 146, 220<br />

[418] NASA GSFC: Aura – Spacecraft and Instruments – HIRDLS, http://aura.gsfc.<br />

nasa.gov/instruments/hirdls/index.html, 23.2.2008 220<br />

[419] NASA GSFC: Aura – Spacecraft and Instruments – MLS, http://aura.gsfc.nasa.<br />

gov/instruments/mls/index.html, 23.2.2008 144, 146, 220<br />

[420] NASA GSFC: Aura – Spacecraft and Instruments – OMI, http://aura.gsfc.nasa.<br />

gov/instruments/omi/index.html, 23.2.2008 220<br />

[421] NASA GSFC: Aura – Spacecraft and Instruments – TES, http://aura.gsfc.nasa.<br />

gov/instruments/tes/index.html, 23.2.2008 220<br />

[422] NASA GSFC: Geoscience Laser Altimeter System GLAS, http://glas.gsfc.nasa.<br />

gov/, 27.6.2008 151<br />

[423] NASA GSFC: ICESat, http://icesat.gsfc.nasa.gov/, 27.2.2008 149, 151, 170<br />

[424] NASA GSFC: LandSat Data Continuity Mission, http://ldcm.gsfc.nasa.gov/,<br />

23.2.2008 95, 122, 198<br />

[425] NASA GSFC: NPP NPOESS Preparatory Project, http://jointmission.gsfc.<br />

nasa.gov/, 23.2.2008 154<br />

[426] NASA GSFC: GOES POES Program, http://goespoes.gsfc.nasa.gov/, 6.2.2008<br />

12, 129<br />

[427] NASA GSFC: POES Project – Products, http://goespoes.gsfc.nasa.gov/poes/<br />

products/index.html, 18.2.2008 129, 202<br />

[428] NASA GSFC: RHESSI Home Page, http://hesperia.gsfc.nasa.gov/hessi/,<br />

23.2.2008<br />

[429] NASA GSFC: Solar Sail, http://antwrp.gsfc.nasa.gov/apod//ap000526.html,<br />

23.2.2008 67<br />

[430] NASA GSFC: Tracking and Data Relay System TDRS, http://nssdc.gsfc.nasa.<br />

gov/multi/tdrs.html, 6.5.2008 280<br />

[431] NASA GSFC: TRMM – Tropical Rainfall Measuring Mission, http://trmm.gsfc.<br />

nasa.gov/, 23.2.2008 218<br />

[432] NASA GSFC: Upper Atmospheric Research Satellite UARS, http://umpgal.gsfc.<br />

nasa.gov/, 20.3.2008 226<br />

[433] NASA GSFC: Viking Mission to Mars, http://nssdc.gsfc.nasa.gov/planetary/<br />

viking.html, 5.5.2008 260<br />

[434] NASA GSFC: Wind – Understanding Interplanetary Dynamics, http://pwg.gsfc.<br />

nasa.gov/wind.shtml, 23.2.2008 52<br />

2. Juli 2008 c○ M.-B. Kallenrode


LITERATURVERZEICHNIS 401<br />

[435] NASA GSFC Geospace Physics Laboratory http://hpb.gsfc.nasa.gov/, 2.5.2008;<br />

Abb. 5.16 von http://hpb.gsfc.nasa.gov/images/LWS-geospace-IT.jpg 242<br />

[436] NASA GSFC International Laser Ranging Service: SLR Satellite Information, http:<br />

//ilrs.gsfc.nasa.gov/satellite_missions/slr_sats.html, 10.3.2008 35<br />

[437] NASA GSFC Scientific Visualization Studio: LandSat witnesses the descrutcztion of<br />

the mesopotamian ecosystem, http://svs.gsfc.nasa.gov/vis/a000000/a002200/<br />

a002210/index.html, 23.2.2008 178<br />

[438] NASA GSFC Wilkinson Microwave Anisotropy Probe WMAP: Lagrange points, http:<br />

//map.gsfc.nasa.gov/mission/observatory_l2.html, 10.3.2008 71<br />

[439] NASA GSFC and Smithonian Astrophysical Observatory, Observatories: Compton<br />

Gamma-Ray Observatory (CGRO), http://heasarc.nasa.gov/docs/cgro/cgro.<br />

html, 23.2.2008 53<br />

[440] NASA GSFC and Smithonian Astrophysical Observatory, Observatories: ISEE-3/ICE,<br />

http://heasarc.nasa.gov/docs/heasarc/missions/isee3.html, 23.2.2008 52, 55,<br />

68, 256<br />

[441] NASA GSFC and Smithonian Astrophysical Observatory, Observatories: P78-1, http:<br />

//heasarc.nasa.gov/docs/heasarc/missions/p78-1.html, 6.2.2008 8, 52<br />

[442] NASA GSFC and Smithsonian Astrophysical Observatory, Observatories: Solar Maximum<br />

Mission SMM, http://heasarc.gsfc.nasa.gov/docs/heasarc/missions/<br />

solarmax.html, 23.2.2008 40, 224, 246, 250<br />

[443] NASA Heliophysics: The new science of the sun–solar system connections, http://<br />

sec.gsfc.nasa.gov/, 23.2.2008 90<br />

[444] NASA History Division: Mariner Space probes, http://history.nasa.gov/mariner.<br />

html, 23.2.2008 117<br />

[445] NASA History Division: Space Applications, http://history.nasa.gov/SP-4012/<br />

vol3/ch4.htm, 1.3.2008 202<br />

[446] NASA History Division: Exploring the Heavens, http://history.nasa.gov/SP-4312/<br />

ch4.htm, 10.3.2008 40<br />

[447] NASA Human Spaceflight: International Space Station, http://spaceflight.nasa.<br />

gov/station/index.html, 23.2.2008 13<br />

[448] NASA JHUAPL: Messenger, http://messenger.jhuapl.edu/, 5.5.2008 260<br />

[449] NASA JPL: ACRIMSat, http://acrim.jpl.nasa.gov/, 20.3.2008 226<br />

[450] NASA JPL: AIRS – Atmospheric Infrared Sounder, http://www-airs.jpl.nasa.<br />

gov/, 23.2.2008 169, 219<br />

[451] NASA JPL: ASTER – Advanced Spaceborne Thermal Emission and Reflection Radiometer,<br />

http://asterweb.jpl.nasa.gov/, 23.2.2008 169, 218<br />

[452] NASA JPL: Aster – Gallery – Aletsch, http://asterweb.jpl.nasa.gov/gallery/<br />

images/aletsch.jpg, 23.2.2008 216<br />

[453] NASA JPL: Cassini-Huygens – A quick gravity-assist primer, http://saturn.jpl.<br />

nasa.gov/mission/gravity-assist-primer.cfm, 23.2.2008 74, 77<br />

[454] NASA JPL: Cassini-Huygens – Mission to Saturn & Titan, http://saturn.jpl.nasa.<br />

gov/home/index.cfm, 23.2.2008 77, 158, 260<br />

[455] NASA JPL: Cassini-Huygens – Spaceccraft Safety, http://saturn.jpl.nasa.gov/<br />

spacecraft/safety.cfm, 23.2.2008 92<br />

[456] NASA JPL: Cryocooler Program Summary, http://www.jpl.nasa.gov/adv_tech/<br />

coolers/summary.htm, 23.2.2008 135<br />

[457] NASA JPL: Galileo – Journey to Jupiter, http://www2.jpl.nasa.gov/galileo/,<br />

23.2.2008 63, 77<br />

[458] NASA JPL: Galileo – The Galileo Tour Guide, Chap. 2, http://www2.jpl.nasa.gov/<br />

galileo/tour/2TOUR.pdf, 23.2.2008<br />

[459] NASA JPL: Genesis – search for the origins, http://genesismission.jpl.nasa.gov/,<br />

23.2.2008 12<br />

[460] NASA JPL: Genesis – Gallery – genesis Sample Recovery Photo Images, http://<br />

genesismission.jpl.nasa.gov/mission/recgallery.html, 23.2.2008 12, 278<br />

c○ M.-B. Kallenrode 2. Juli 2008


402 LITERATURVERZEICHNIS<br />

[461] NASA JPL: Helios 1A, 1B, http://leonardo.jpl.nasa.gov/msl/QuickLooks/<br />

helios1a1bQL.html, 20.3.2008 211<br />

[462] NASA JPL: Improved TIROS Operational System ITOS, http://msl.jpl.nasa.gov/<br />

QuickLooks/itosQL.html, 1.3.2008 204<br />

[463] NASA JPL: Magellan Mission to Venus, http://www2.jpl.nasa.gov/magellan/,<br />

26.2.2008 148, 158, 260<br />

[464] NASA JPL: Mars Reconnaissance Orbiter (MRO), http://mars.jpl.nasa.gov/mro/,<br />

28.2.2008 158<br />

[465] NASA JPL: MISR – Multi-Angle Imaging Spectrometer, http://www-misr.jpl.nasa.<br />

gov/, 23.2.2008 111, 218<br />

[466] NASA JPL: MISR – Multi-Angle Imaging Spectrometer – The MISR Instrument: Introduction,<br />

http://www-misr.jpl.nasa.gov/mission/minst.html, 23.2.2008 111, 218<br />

[467] NASA JPL: OCO Orbiting Carbon Observatory, http://oco.jpl.nasa.gov/,<br />

23.2.2008 161, 220, 221<br />

[468] NASA JPL: SIR-C/X-SAR – Space radar Images of Earth, http://www.jpl.nasa.<br />

gov/radar/sircxsar/, 23.2.2008 172<br />

[469] NASA JPL: THEMIS: The Thermal Emission Imaging System, http://mars.jpl.<br />

nasa.gov/odyssey/technology/themis.html, 25.2.2008 139<br />

[470] NASA JPL: TIROS, http://msl.jpl.nasa.gov/QuickLooks/tirosQL.html,<br />

1.3.2008 202<br />

[471] NASA JPL: TOS, http://msl.jpl.nasa.gov/QuickLooks/tosQL.html, 1.3.2008 204<br />

[472] NASA JPL: Ubar ptical/Radar (enlarged figure), http://photojournal.jpl.nasa.<br />

gov/jpeg/PIA01302.jpg 171<br />

[473] NASA JPL: Ubar ptical/Radar, http://www.jpl.nasa.gov/radar/sircxsar/ubar1.<br />

html, 23.2.2008 171<br />

[474] NASA JPL: Ulysses, http://ulysses.jpl.nasa.gov/, 23.2.2008 63, 76, 256<br />

[475] NASA JPL: Vidicon, http://www2.jpl.nasa.gov/basics/vidicon.gif, 23.2.2008<br />

115<br />

[476] NASA JPL: Voyager, http://voyager.jpl.nasa.gov/, 23.2.2008 55, 74, 76, 117, 256<br />

[477] NASA JPL, Ocean Surface Topography from Space: Jason-1, http://topex-www.jpl.<br />

nasa.gov/mission/jason-1.html, 26.2.2008 149, 151<br />

[478] NASA JPL, Ocean Surface Topography from Space: TOPEX/Poseidon, http://<br />

topex-www.jpl.nasa.gov/mission/topex.html, 26.2.2008 151<br />

[479] NASA JPL, Past Missions: SeaSat, http://www.jpl.nasa.gov/missions/past/<br />

seasat.html, 23.2.2008 148, 149<br />

[480] NASA JPL, Winds – Measuring Ocean Winds from Space: Missions – NSCAT, http:<br />

//winds.jpl.nasa.gov/missions/nscat/index.cfm, 23.2.2008<br />

[481] NASA JPL, Winds – Measuring Ocean Winds from Space: Missions – SeaWind on<br />

QuikSCAT, http://winds.jpl.nasa.gov/missions/quikscat/, 23.2.2008 153<br />

[482] NASA Kennedy Sapce Center: SkyLab, http://www-pao.ksc.nasa.gov/history/<br />

skylab/skylab.htm, 23.2.2008 12, 40, 149, 250<br />

[483] NASA LandSat: The LandSat Program, http://landsat.gsfc.nasa.gov/, 6.2.2008<br />

12<br />

[484] NASA LandSat: LandSat 6, http://landsat.gsfc.nasa.gov/about/landsat6.html,<br />

23.2.2008<br />

[485] NASA LandSat: LandSat 7, http://landsat.gsfc.nasa.gov/about/landsat7.html,<br />

23.2.2008 199<br />

[486] NASA LandSat: The Enhanced Thematic Mapper, http://landsat.gsfc.nasa.gov/<br />

about/etm.html, 23.2.2008 128, 199<br />

[487] NASA LandSat Images: Aral Sea, http://veimages.gsfc.nasa.gov/1723/landsat_<br />

aral_triptych_lrg.jpg, 23.2.2008 177<br />

[488] NASA Marshall Space Flight Center: AMSR-E, http://wwwghcc.msfc.nasa.gov/<br />

AMSR/, 23.2.2008 144, 219<br />

2. Juli 2008 c○ M.-B. Kallenrode


LITERATURVERZEICHNIS 403<br />

[489] NASA Marchall Spaceflight Center: Visible Infrared Spin-Scan Radiometer Instrument<br />

Document, http://ghrc.msfc.nasa.gov:5721/sensor_documents/vissr_<br />

sensor.html, 1.3.2008 201<br />

[490] NASA Marshall Space Flight Center, Solar Physics: The Solar Maximum Mission,<br />

http://solarscience.msfc.nasa.gov/SMM.shtml, 23.2.2008 40, 224, 246, 250<br />

[491] NASA Mission and Spacecraft Library: Echo 1, 1A, 2, http://samadhi.jpl.nasa.<br />

gov/msl/QuickLooks/echoQL.html, 23.2.2008 35, 281<br />

[492] NASA Mission and Spacecraft Library: GRO – Compton Gamma-Ray Observatory,<br />

http://msl.jpl.nasa.gov/QuickLooks/groQL.html, 23.2.2008 53<br />

[493] NASA Mission and Spacecraft Library: SMM, http://leonardo.jpl.nasa.gov/msl/<br />

QuickLooks/smmQL.html, 23.2.2008 40, 52, 224, 226, 246, 250<br />

[494] NASA Missions: A-Train, http://www.nasa.gov/images/content/112931main_<br />

a-train.jpg, 23.2.2008 144, 220<br />

[495] NASA Missions: CloudSat, http://www.nasa.gov/mission_pages/cloudsat/main/<br />

index.html, 23.2.2008 220, 221<br />

[496] NASA Missions: International Space Station, http://www.nasa.gov/mission_pages/<br />

station/main/index.html, 23.2.2008 13<br />

[497] NASA Missions: Mars Reonnaissance Orbiter (MRO), http://www.nasa.gov/<br />

mission_pages/MRO/main/index.html, 28.2.2008 158<br />

[498] NASA Missions: New Horizon, http://www.nasa.gov/mission_pages/newhorizons/<br />

main/index.html, 5.5.2008 260<br />

[499] NASA Missions: Pioneer, http://www.nasa.gov/mission_pages/pioneer/,<br />

23.2.2008 55, 74, 76, 256<br />

[500] NASA Missions: Stereo – Studying the Sun in 3D, http://www.nasa.gov/mission_<br />

pages/stereo/main/index.html 69, 250<br />

[501] NASA Missions: Viking, http://www.nasa.gov/mission_pages/viking/, 23.2.2008<br />

117<br />

[502] NASA MODIS Web, Home, http://modis.gsfc.nasa.gov/, 23.2.2008 169, 218, 219<br />

[503] NASA News and Features: As world turns its drag in space and time, http://www.<br />

nasa.gov/vision/earth/lookingatearth/earth_drag.html, 23.2.2008 33<br />

[504] NASA News and Features: Solar sails could send spacecraft sailing through<br />

space, http://www.nasa.gov/vision/universe/roboticexplorers/solar_sails.<br />

html, 23.2.2008 67<br />

[505] NASA NSSDC Master catalog, Main, http://nssdc.gsfc.nasa.gov/nmc/<br />

SpacecraftQuery.jsp, 15.3.2008 145, 163, 193, 255<br />

[506] NASA NSSDC Master Catalog: Advanced Vidicon Camera System, http://nssdc.<br />

gsfc.nasa.gov/nmc/experimentDisplay.do?id=1970-008A-04, 1.3.2008 94, 204<br />

[507] NASA NSSDC Master Catalog: Coastal Zone Color Scanner CZCS, http://nssdc.<br />

gsfc.nasa.gov/nmc/experimentDisplay.do?id=1978-098A-03, 18.3.2008 186<br />

[508] NASA NSSDC Master catalog: Coriolis, http://nssdc.gsfc.nasa.gov/nmc/<br />

spacecraftDisplay.do?id=2003-001A, 26.2.2008 154<br />

[509] NASA NSSDC Master Catalog: COSMOS 243 (und Microwave Radiometer), http://<br />

nssdc.gsfc.nasa.gov/nmc/spacecraftDisplay.do?id=1968-080A, http://nssdc.<br />

gsfc.nasa.gov/nmc/experimentDisplay.do?id=1968-080A-01 15.3.2008 144<br />

[510] NASA NSSDC Master Catalog: COSMOS 1500, http://nssdc.gsfc.nasa.gov/nmc/<br />

masterCatalog.do?sc=1983-099A, 26.2.2008 148, 155<br />

[511] NASA NSSDC Master Catalog: DMSP 4A/F1, http://nssdc.gsfc.nasa.gov/nmc/<br />

spacecraftDisplay.do?id=1966-082A, 10.3.2008 94<br />

[512] NASA NSSDC Master Catalog: Dual Vidicon Camera, http://nssdc.gsfc.nasa.<br />

gov/nmc/experimentDisplay.do?id=1969-029A-01, 10.3.2008 94<br />

[513] NASA NSSDC Master Catalog: Earth radiation Budget Experiment (ERBE), http:<br />

//nssdc.gsfc.nasa.gov/nmc/experimentDisplay.do?id=1986-073A-05 204<br />

[514] NASA NSSDC Master Catalog: Earth radiation Budget Satellite (ERBS), http://<br />

nssdc.gsfc.nasa.gov/nmc/spacecraftDisplay.do?id=1984-108B 224<br />

c○ M.-B. Kallenrode 2. Juli 2008


404 LITERATURVERZEICHNIS<br />

[515] NASA NSSDC Master Catalog: Electrically Scanning Microwave Radiometer (ESMR),<br />

http://nssdc.gsfc.nasa.gov/nmc/experimentDisplay.do?id=1972-097A-04,<br />

25.2.2008 144<br />

[516] NASA NSSDC Master Catalog: Enhanced Thematic Mapper LandSat Plus 7, http:<br />

//nssdc.gsfc.nasa.gov/nmc/experimentDisplay.do?id=1999-020A-01, 11.3.2008<br />

122, 128, 199<br />

[517] NASA NSSDC Master Catalog: ESSA 1, http://nssdc.gsfc.nasa.gov/nmc/<br />

spacecraftDisplay.do?id=1966-008A, 10.3.2008 94<br />

[518] NASA NSSDC Master Catalog: ESSA 3, http://nssdc.gsfc.nasa.gov/nmc/<br />

spacecraftDisplay.do?id=1966-087A, 19.3.2008 204<br />

[519] NASA NSSDC Master Catalog: Explorer 6, http://nssdc.gsfc.nasa.gov/nmc/<br />

masterCatalog.do?sc=1959-004A, 10.3.2008 93<br />

[520] NASA NSSDC Master Catalog: Flat Plate Radiometer, FPR, http://nssdc.gsfc.<br />

nasa.gov/nmc/experimentDisplay.do?id=1966-087A-02, 19.3.2008 204, 222<br />

[521] NASA NSSDC Master Catalog: Geodynamics Experimental Ocean Satellite GEOS<br />

3, http://nssdc.gsfc.nasa.gov/nmc/masterCatalog.do?sc=1975-027A, 26.2.2008<br />

149<br />

[522] NASA NSSDC Master Catalog: HCMM, http://nssdc.gsfc.nasa.gov/nmc/<br />

masterCatalog.do?sc=1978-041A, 25.2.2008 137, 169<br />

[523] NASA NSSDC Master Catalog: Helios-A, http://nssdc.gsfc.nasa.gov/nmc/<br />

spacecraftDisplay.do?id=1974-097A, 23.2.2008 55, 256<br />

[524] NASA NSSDC Master Catalog: Helios-B, http://nssdc.gsfc.nasa.gov/nmc/<br />

spacecraftDisplay.do?id=1976-003A, 23.2.2008 55, 256<br />

[525] NASA NSSDC Master Catalog: High Resolution Multispectral Stereo Imager (HRM-<br />

SI), http://nssdc.gsfc.nasa.gov/nmc/experimentDisplay.do?id=1999-020A-02,<br />

11.3.2008 200<br />

[526] NASA NSSDC Master Catalog: High resolution Visible Imager Spot 1, http://nssdc.<br />

gsfc.nasa.gov/nmc/experimentDisplay.do?id=1986-019A-01, 11.3.2008 119<br />

[527] NASA NSSDC Master Catalog: High resolution Visible Imager Spot 2, http://nssdc.<br />

gsfc.nasa.gov/nmc/experimentDisplay.do?id=1990-005A-01, 11.3.2008 119<br />

[528] NASA NSSDC Master Catalog: HST Hubble Space Telescope, http://nssdc.gsfc.<br />

nasa.gov/nmc/masterCatalog.do?sc=1990-037B, 23.2.2008 52<br />

[529] NASA NSSDC Master Catalog: IMP-J (Interplanetary Monitoring Platform 8, Explorer<br />

50), http://nssdc.gsfc.nasa.gov/nmc/masterCatalog.do?sc=1973-078A,<br />

23.2.2008 52<br />

[530] NASA NSSDC Master Catalog: ISEE 1 (Internationals Sun–Earth Explorer 1), http:<br />

//nssdc.gsfc.nasa.gov/nmc/masterCatalog.do?sc=1977-102A, 23.2.2008 52, 256<br />

[531] NASA NSSDC Master Catalog: ISEE 2 (Internationals Sun–Earth Explorer 2), http:<br />

//nssdc.gsfc.nasa.gov/nmc/spacecraftDisplay.do?id=1977-102B 52, 256<br />

[532] NASA NSSDC Master Catalog: LAGEOS, http://nssdc.gsfc.nasa.gov/nmc/<br />

masterCatalog.do?sc=1976-039A, 23.2.2008 33, 149<br />

[533] NASA NSSDC Master Catalog: LAGEOS II, http://nssdc.gsfc.nasa.gov/nmc/<br />

masterCatalog.do?sc=1992-070B, 23.2.2008 33<br />

[534] NASA NSSDC Master Catalog: LandSat 1, http://nssdc.gsfc.nasa.gov/nmc/<br />

spacecraftDisplay.do?id=1972-058A, 10.3.2008 94, 116, 122, 199<br />

[535] NASA NSSDC Master Catalog: LandSat 2, http://nssdc.gsfc.nasa.gov/nmc/<br />

spacecraftDisplay.do?id=1975-004A, 10.3.2008 94, 116, 122, 199<br />

[536] NASA NSSDC Master Catalog: LandSat 3, http://nssdc.gsfc.nasa.gov/nmc/<br />

spacecraftDisplay.do?id=1978-026A, 10.3.2008 94, 116, 122, 199<br />

[537] NASA NSSDC Master Catalog: LandSat 4, http://nssdc.gsfc.nasa.gov/nmc/<br />

spacecraftDisplay.do?id=1982-072A, 10.3.2008 122, 123, 199<br />

[538] NASA NSSDC Master Catalog: LandSat 5, http://nssdc.gsfc.nasa.gov/nmc/<br />

spacecraftDisplay.do?id=1984-021A, 10.3.2008 95, 122, 123, 199<br />

2. Juli 2008 c○ M.-B. Kallenrode


LITERATURVERZEICHNIS 405<br />

[539] NASA NSSDC Master Catalog: LandSat 7, http://nssdc.gsfc.nasa.gov/nmc/<br />

spacecraftDisplay.do?id=1999-020A, 10.3.2008 199<br />

[540] NASA NSSDC Master Catalog: Magellan, http://nssdc.gsfc.nasa.gov/nmc/<br />

spacecraftDisplay.do?id=1989-033B, 26.2.2008 148, 158, 260<br />

[541] NASA NSSDC Master Catalog: Mariner 2, http://nssdc.gsfc.nasa.gov/nmc/<br />

masterCatalog.do?sc=1962-041A, 25.2.2008 117, 144, 260<br />

[542] NASA NSSDC Master Catalog: Mariner 4, http://nssdc.gsfc.nasa.gov/nmc/<br />

masterCatalog.do?sc=1964-077A, 5.5.2008 260<br />

[543] NASA NSSDC Master Catalog: Mars 1, http://nssdc.gsfc.nasa.gov/nmc/<br />

spacecraftDisplay.do?id=1962-061A, 5.5.2008 260<br />

[544] NASA NSSDC Master Catalog: Measurement of Air Pollution from Satellites<br />

(MAPS), http://nssdc.gsfc.nasa.gov/nmc/experimentDisplay.do?id=<br />

1981-111A-04, 18.3.2008<br />

[545] NASA NSSDC Master Catalog: Measurement of Air Pollution from Satellites<br />

(MAPS), http://nssdc.gsfc.nasa.gov/nmc/experimentDisplay.do?id=<br />

1994-020A-03, 18.3.2008 163<br />

[546] NASA NSSDC Master Catalog: Measurement of Air Pollution from Satellites<br />

(MAPS), http://nssdc.gsfc.nasa.gov/nmc/experimentDisplay.do?id=<br />

1981-111A-04, 18.3.2008 163<br />

[547] NASA NSSDC Master Catalog: Metop-A, http://nssdc.gsfc.nasa.gov/nmc/<br />

spacecraftDisplay.do?id=2006-044A, 19.3.2008<br />

[548] NASA NSSDC Master Catalog: Meteor 1, http://nssdc.gsfc.nasa.gov/nmc/<br />

spacecraftDisplay.do?id=1969-029A, 10.3.2008 94<br />

[549] NASA NSSDC Master Catalog: Microwave Spectrometer (NEMS), http://nssdc.<br />

gsfc.nasa.gov/nmc/experimentDisplay.do?id=1972-097A-03, 25.2.2008 144<br />

[550] NASA NSSDC Master Catalog: Molniya 1–4, http://nssdc.gsfc.nasa.gov/nmc/<br />

masterCatalog.do?sc=1966-092A, 23.2.2008 50<br />

[551] NASA NSSDC Master Catalog: Modular Optoelectronic Multispectral Stereo<br />

Scanner MOMS-02, http://nssdc.gsfc.nasa.gov/nmc/experimentDisplay.do?id=<br />

SPLABD2%20%20-13, 10.3.2008 119<br />

[552] NASA NSSDC Master catalog: Multispectral Scanner MSS LandSat 1, http://nssdc.<br />

gsfc.nasa.gov/nmc/experimentDisplay.do?id=1972-058A-02, 10.3.2008 94, 122,<br />

199<br />

[553] NASA NSSDC Master catalog: Multispectral Scanner MSS LandSat 2, http://nssdc.<br />

gsfc.nasa.gov/nmc/experimentDisplay.do?id=1975-004A-02, 10.3.2008 94, 122<br />

[554] NASA NSSDC Master catalog: Multispectral Scanner MSS LandSat 3, http://nssdc.<br />

gsfc.nasa.gov/nmc/experimentDisplay.do?id=1978-026A-02, 10.3.2008 94, 122<br />

[555] NASA NSSDC Master catalog: Multispectral Scanner MSS LandSat 4, http://nssdc.<br />

gsfc.nasa.gov/nmc/experimentDisplay.do?id=1982-072A-02, 10.3.2008 94, 122<br />

[556] NASA NSSDC Master catalog: Multispectral Scanner MSS LandSat 5, http://nssdc.<br />

gsfc.nasa.gov/nmc/experimentDisplay.do?id=1984-021A-02, 10.3.2008 94, 122<br />

[557] NASA NSSDC Master Catalog: Nimbus 5, http://nssdc.gsfc.nasa.gov/nmc/<br />

masterCatalog.do?sc=1972-097A, 25.2.2008 144<br />

[558] NASA NSSDC Master Catalog: Nimbus 7, http://nssdc.gsfc.nasa.gov/nmc/<br />

spacecraftDisplay.do?id=1978-098A, 25.2.2008 138, 143, 186, 224<br />

[559] NASA NSSDC Master Catalog: NOAA 13 (POES 13), http://nssdc.gsfc.nasa.gov/<br />

nmc/spacecraftDisplay.do?id=1993-050A, 11.3.2008 129<br />

[560] NASA NSSDC Master Catalog: NOAA 14 (POES 14), http://nssdc.gsfc.nasa.gov/<br />

nmc/spacecraftDisplay.do?id=1994-089A, 11.3.2008 129<br />

[561] NASA NSSDC Master Catalog: NOAA 15 (POES 15), http://nssdc.gsfc.nasa.gov/<br />

nmc/spacecraftDisplay.do?id=1998-030A, 11.3.2008 129<br />

[562] NASA NSSDC Master Catalog: NOAA 16 (POES 16), http://nssdc.gsfc.nasa.gov/<br />

nmc/spacecraftDisplay.do?id=2000-055A, 11.3.2008 129<br />

c○ M.-B. Kallenrode 2. Juli 2008


406 LITERATURVERZEICHNIS<br />

[563] NASA NSSDC Master Catalog: Resurs F http://nssdc.gsfc.nasa.gov/nmc/<br />

spacecraftDisplay.do?id=1989-038A, 10.3.2008 95<br />

[564] NASA NSSDC Master Catalog: Resurs F-1M http://nssdc.gsfc.nasa.gov/nmc/<br />

spacecraftDisplay.do?id=1999-054A, 10.3.2008 95<br />

[565] NASA NSSDC Master Catalog: Return Beam Vidicon Camera System LandSat<br />

1, http://nssdc.gsfc.nasa.gov/nmc/experimentDisplay.do?id=1972-058A-01,<br />

10.3.2007 94, 116, 199<br />

[566] NASA NSSDC Master Catalog: Return Beam Vidicon Camera System LandSat<br />

2, http://nssdc.gsfc.nasa.gov/nmc/experimentDisplay.do?id=1975-004A-01,<br />

10.3.2007 94, 116<br />

[567] NASA NSSDC Master Catalog: Return Beam Vidicon Camera System LandSat<br />

3, http://nssdc.gsfc.nasa.gov/nmc/experimentDisplay.do?id=1978-026A-01,<br />

10.3.2007 94, 116, 199<br />

[568] NASA NSSDC Master Catalog: Scanning Multispectral Microwave Radiometer SMMR,<br />

http://nssdc.gsfc.nasa.gov/nmc/experimentDisplay.do?id=1978-098A-08,<br />

25.2.2008 143<br />

[569] NASA NSSDC Master Catalog: Scanning Radiometer (TIROS), http://nssdc.gsfc.<br />

nasa.gov/nmc/experimentDisplay.do?id=1960-016A-02, 19.3.2008 203<br />

[570] NASA NSSDC Master Catalog: Scanning Radiometer (NOAA), http://nssdc.gsfc.<br />

nasa.gov/nmc/experimentDisplay.do?id=1970-106A-03, 19.3.2008 204<br />

[571] NASA NSSDC Master Catalog: Seasat 1, http://nssdc.gsfc.nasa.gov/nmc/<br />

masterCatalog.do?sc=1978-064A, 23.2.2008 148, 149<br />

[572] NASA NSSDC Master Catalog: Shuttle Imaging Radar-A (SIR-A), http://nssdc.<br />

gsfc.nasa.gov/nmc/experimentDisplay.do?id=1981-111A-01, 26.2.2008 148<br />

[573] NASA NSSDC Master Catalog: Shuttle Imaging Radar-B (SIR-B), http://nssdc.<br />

gsfc.nasa.gov/nmc/experimentDisplay.do?id=1984-108A-01, 26.2.2008<br />

[574] NASA NSSDC Master Catalog: Shuttle Imaging Radar-C (SIR-C/X-SAR),<br />

http://nssdc.gsfc.nasa.gov/nmc/experimentDisplay.do?id=1994-020A-01,<br />

http://nssdc.gsfc.nasa.gov/nmc/experimentDisplay.do?id=1994-020A-02<br />

26.2.2008 148, 171<br />

[575] NASA NSSDC Master Catalog: Side-Looking Real Aperature Radar (SLRAR), http:<br />

//nssdc.gsfc.nasa.gov/nmc/experimentDisplay.do?id=1983-099A-01, 26.2.2008<br />

148<br />

[576] NASA NSSDC Master Catalog: Solar Proton Monitoring Experiment, http://nssdc.<br />

gsfc.nasa.gov/nmc/experimentDisplay.do?id=1970-106A-01, 19.3.2008 204<br />

[577] NASA NSSDC Master Catalog: Space Environment Monitor (SEM), http://nssdc.<br />

gsfc.nasa.gov/nmc/experimentDisplay.do?id=1991-032A-04, 19.3.2008 204, 222,<br />

232<br />

[578] NASA NSSDC Master Catalog: SPOT 1, http://nssdc.gsfc.nasa.gov/nmc/<br />

spacecraftDisplay.do?id=1986-019A, 11.3.2008 119<br />

[579] NASA NSSDC Master Catalog: SPOT 2, http://nssdc.gsfc.nasa.gov/nmc/<br />

spacecraftDisplay.do?id=1990-005A, 11.3.2008 119<br />

[580] NASA NSSDC Master Catalog: SPOT 3, http://nssdc.gsfc.nasa.gov/nmc/<br />

spacecraftDisplay.do?id=1993-061A, 11.3.2008 119<br />

[581] NASA NSSDC Master Catalog: SPOT 4, http://nssdc.gsfc.nasa.gov/nmc/<br />

spacecraftDisplay.do?id=1998-017A, 11.3.2008 119<br />

[582] NASA NSSDC Master Catalog: SPOT 5, http://nssdc.gsfc.nasa.gov/nmc/<br />

spacecraftDisplay.do?id=2002-021A, 11.3.2008<br />

[583] NASA NSSDC Master Catalog: STS-2, http://nssdc.gsfc.nasa.gov/nmc/<br />

masterCatalog.do?sc=1981-111A, 26.2.2008 148<br />

[584] NASA NSSDC Master Catalog: STS-41G (STS-13), http://nssdc.gsfc.nasa.gov/<br />

nmc/spacecraftDisplay.do?id=1984-108A, 26.2.2008<br />

[585] NASA NSSDC Master Catalog: STS-59/SRL 1, http://nssdc.gsfc.nasa.gov/nmc/<br />

masterCatalog.do?sc=1994-020A, 26.2.2008 148<br />

2. Juli 2008 c○ M.-B. Kallenrode


LITERATURVERZEICHNIS 407<br />

[586] NASA NSSDC Master Catalog: Syncom 2, http://nssdc.gsfc.nasa.gov/nmc/<br />

masterCatalog.do?sc=1963-031A, 23.2.2008 55<br />

[587] NASA NSSDC Master Catalog: Temperature/Humidity Infrared Spectrometer THIR,<br />

http://nssdc.gsfc.nasa.gov/nmc/experimentDisplay.do?id=1978-098A-10,<br />

25.2.2008 138<br />

[588] NASA NSSDC Master Catalog: TIROS 1, http://nssdc.gsfc.nasa.gov/nmc/<br />

masterCatalog.do?sc=1960-002B, 23.2.2008 94, 202<br />

[589] NASA NSSDC Master Catalog: TIROS Operational Vertical Sounder, http://nssdc.<br />

gsfc.nasa.gov/nmc/experimentDisplay.do?id=1986-073A-02, 19.3.2008 204<br />

[590] NASA NSSDC Master Catalog: TIROS 1 Television Camera System, http://nssdc.<br />

gsfc.nasa.gov/nmc/experimentDisplay.do?id=1960-002B-01, 10.3.2008 94<br />

[591] NASA NSSDC Master Catalog: TIROS 9, http://nssdc.gsfc.nasa.gov/nmc/<br />

spacecraftDisplay.do?id=1965-004A, 8.2.2008 55, 202<br />

[592] NASA NSSDC Master Catalog: TIROS N, http://nssdc.gsfc.nasa.gov/nmc/<br />

spacecraftDisplay.do?id=1978-096A, 11.3.2008 129<br />

[593] NASA NSSDC Master Catalog: Thematic Mapper LandSat 4, http://nssdc.gsfc.<br />

nasa.gov/nmc/experimentDisplay.do?id=1982-072A-01, 11.3.2008 122, 123, 199<br />

[594] NASA NSSDC Master Catalog: Thematic Mapper LandSat 5, http://nssdc.gsfc.<br />

nasa.gov/nmc/experimentDisplay.do?id=1984-021A-01, 11.3.2008 122, 123, 199<br />

[595] NASA NSSDC Master Catalog: TV Optical Scanner, http://nssdc.gsfc.nasa.gov/<br />

nmc/experimentDisplay.do?id=1959-004A-05, 10.3.2008 93<br />

[596] NASA NSSDC Master Catalog: Venera 1, http://nssdc.gsfc.nasa.gov/nmc/<br />

masterCatalog.do?sc=1961-003A, 5.5.2008 260<br />

[597] NASA NSSDC Master Catalog: Venera 3, http://nssdc.gsfc.nasa.gov/nmc/<br />

masterCatalog.do?sc=1965-092A, 5.5.2008 260<br />

[598] NASA NSSDC Master Catalog: Venera 4, http://nssdc.gsfc.nasa.gov/nmc/<br />

masterCatalog.do?sc=1967-058A, 5.5.2008 260<br />

[599] NASA NSSDC Master Catalog: Venera 5, http://nssdc.gsfc.nasa.gov/nmc/<br />

masterCatalog.do?sc=1969-001A, 5.5.2008 260<br />

[600] NASA NSSDC Master Matalog: Very High Resolution Radiometer (VHRR), http:<br />

//nssdc.gsfc.nasa.gov/nmc/experimentDisplay.do?id=1972-082A-03, 19.3.2008<br />

204<br />

[601] NASA NSSDC master catalog: Vidicon Camera System, http://nssdc.gsfc.nasa.<br />

gov/nmc/experimentDisplay.do?id=1966-082A-01, 10.3.2008 94<br />

[602] NASA NSSDC Master Catalog: Viking 1 Lander, http://nssdc.gsfc.nasa.gov/nmc/<br />

masterCatalog.do?sc=1975-075C, 23.2.2008 117<br />

[603] NASA NSSDC Master Catalog: Viking Sweden, http://nssdc.gsfc.nasa.gov/nmc/<br />

masterCatalog.do?sc=1986-019B, 2.5.2008 243<br />

[604] NASA NSSDC Master Catalog: Yohkoh, http://nssdc.gsfc.nasa.gov/nmc/<br />

masterCatalog.do?sc=1991-062A, 23.2.2008 53<br />

[605] NASA Orbital Debris Program Office: Orbital Debris, http://www.orbitaldebris.<br />

jsc.nasa.gov/, 21.2.2008 36<br />

[606] NASA Orbital Debris Program Office: Orbital Debris – Photo Gallery, http://www.<br />

orbitaldebris.jsc.nasa.gov/photogallery/photogallery.html, 21.2.2008 36<br />

[607] NASA Remote Sensing Tutorial, Hompage. http://rst.gsfc.nasa.gov/start.html,<br />

25.2.2008 21<br />

[608] NASA Remote Sensing Tutorial: The Heat Capacity Mapping Mission, http://rst.<br />

gsfc.nasa.gov/Sect9/Sect9_8.html, 25.2.2008 137, 169<br />

[609] NASA Remote Sensing Tutotrial: Military Intelligence Satellites, http://rst.gsfc.<br />

nasa.gov/Intro/Part2_26e.html, 23.2.2008 93<br />

[610] NASA Science at NASA: The Phantom Torso, http://science.nasa.gov/<br />

headlines/y2001/ast04may_1.htm, 11.2.2008 89<br />

[611] NASA Science Mission Directorate, http://www.earth.nasa.gov/flash_top.html,<br />

23.2.2008 168, 212<br />

c○ M.-B. Kallenrode 2. Juli 2008


408 LITERATURVERZEICHNIS<br />

[612] NASA Science Missions: NPOESS preparatory project, http://science.hq.nasa.<br />

gov/missions/satellite_58.htm, 23.2.2008 154<br />

[613] NASA SOHO: SOHO – Solar and heliospheric Observatory, http://sohowww.nascom.<br />

nasa.gov/, 23.2.2008 52, 68, 250<br />

[614] NASA SOHO: Solar–Terrestrial Relationsships http://sohowww.nascom.nasa.gov/<br />

gallery/images/large/tricompsw.jpg, 23.2.2008 89<br />

[615] NASA Space Warn Bulletins: Overview, http://nssdc.gsfc.nasa.gov/spacewarn/,<br />

23.2.2008 14, 193, 279<br />

[616] NASA SpaceWarn Bulletin 591, http://nssdc.gsfc.nasa.gov/spacewarn/spx591.<br />

html, 23.2.2008<br />

[617] NASA Terra: Terra – the EOS Flagship, http://terra.nasa.gov/, 23.2.2008 111,<br />

163, 169, 217, 218, 219<br />

[618] NASA Thermo-mechanical Systems Branch: Stirling, http://www.grc.nasa.gov/<br />

WWW/tmsb/stirling.html, 23.2.2008 135<br />

[619] NASA Visible Earth, Homepage, http://visibleearth.nasa.gov/, 25.2.2008 5, 21<br />

[620] NASA Visible Earth: Aster, http://visibleearth.nasa.gov/view_set.php?<br />

sensorName=ASTER, 23.2.2008 218<br />

[621] NASA Visible Earth: Ocean Features from Seasat, http://visibleearth.nasa.gov/<br />

view_rec.php?id=16499, 26.2.2008 149<br />

[622] NASA Visible Earth: Space Radar Image of Kiluchevskoi, Volcano, Russia, http://<br />

visibleearth.nasa.gov/view_rec.php?id=432, 26.2.2008 148<br />

[623] NASA and USRA: Earth Science Pictures of the Day, http://epod.usra.edu/<br />

archive/images/nlcfb230605.jpeg, 23.2.2008 84<br />

[624] NASA http://aqua.nasa.gov/AMSU3.html 170, 219<br />

[625] NASA http://www-calipso.larc.nasa.gov/ 220, 221<br />

[626] NASA http://www-calipso.larc.nasa.gov/about/payload.php#CALIOP 221<br />

[627] NASA http://southport.jpl.nasa.gov/nrc/fig5.10.gif 156<br />

[628] NASA http://icesat.gsfc.nasa.gov/12538-r10.pdf<br />

[629] NASA http://www.sel.noaa.gov/index.html 90<br />

[630] NASA http://southport.jpl.nasa.gov/ 154<br />

[631] National Geographic: First Mars Avalanches Seen In Action, http://news.<br />

nationalgeographic.com/news/2008/03/080303-mars-avalanche.html, 18.3.2008<br />

181<br />

[632] National Reconnaissance Office: CORONA http://www.nro.gov/corona/facts.<br />

html, 10.3.2008 93<br />

[633] National Security Archive Electronic Briefing Book # 13: U.S. Satellite Imagery, 1960–<br />

1999, by J.T. Richelson, http://www.gwu.edu/%7Ensarchiv/NSAEBB/NSAEBB13/,<br />

10.3.2008 93<br />

[634] NDVI Central: A continuous NDVI Record, http://www.ndvicentral.info/,<br />

23.2.2008 174, 176<br />

[635] New Scientist Space, V. Kiernan: NASA shrugs off plutonium risk, 29.10.1994,<br />

http://space.newscientist.com/channel/solar-system/cassini-huygens/<br />

mg14419490.900, 23.2.2008 92<br />

[636] NOAA NGDC: UARS/ACRIM II Total Solar Irradiance Measurements, http://www.<br />

ngdc.noaa.gov/stp/SOLAR/IRRADIANCE/uars.html, 20.3.2008 226<br />

[637] NOAA Satellite and Information Service: NOOA KLM User Guide, 3.1 Advanced Very<br />

High Resolution Radiometer/3, http://www2.ncdc.noaa.gov/docs/klm/html/c3/<br />

sec3-1.htm, 23.2.2008 129, 204<br />

[638] NOAA Satellite and Information Service: Advanced Very High Resolution Radiometer,<br />

AVHRR, http://noaasis.noaa.gov/NOAASIS/ml/avhrr.html, 23.2.2008 129, 204<br />

[639] NOAA Satellite and Information Service: NPOESS – National Polar-orbiting Operational<br />

Environmental Satellite System, http://www.ipo.noaa.gov/, 23.2.2008 154<br />

[640] NOAA Satellite and Information Service: Polar orbiting Satellites, http://www.oso.<br />

noaa.gov/poes/, 6.2.2008 12, 154<br />

2. Juli 2008 c○ M.-B. Kallenrode


LITERATURVERZEICHNIS 409<br />

[641] NOAA Satellite and Information Service: Polar Navigation/Earth Location, http://<br />

www.osdpd.noaa.gov/PSB/NAVIGATION/navpage.html, 7.2.2008 48<br />

[642] NOAA National Weather Service: Space Weather Prediction Center, http://www.<br />

spaceweather.noaa.gov/, 23.2.2008 90<br />

[643] NRL: Project Web Sites for the WindSat Archives, http://windsat.pxi.com,<br />

23.2.2008 154<br />

[644] NSIDC: AMSR-E Instrument Description, http://nsidc.org/data/docs/daac/<br />

amsre_instrument.gd.html, 23.2.2008 169<br />

[645] NSIDC: Seasat, http://nsidc.org/data/docs/daac/seasat_platform.gd.html,<br />

23.2.2008 148<br />

[646] NZZ online: Auf eigene Rechnung in den Weltraum, http://www.nzz.ch/<br />

nachrichten/wissenschaft/auf_eigene_rechnung_in_den_weltraum_1.687461.<br />

html, 12.3.2008 14<br />

[647] NZZ online: Die US-Pläne für den Abschuss eines Satelliten, http://www.nzz.<br />

ch/nachrichten/international/die_us-plaene_fuer_den_abschuss_eines_<br />

satelliten_1.673720.html, 19.2.2008 13, 36, 45<br />

[648] NZZ online: USA bringen Schiff für Satellitenabschuss in Stellung, http://www.nzz.<br />

ch/nachrichten/panorama/usa_bringen_schiff_fuer_satellitenabschuss_in_<br />

stellung__1.674756.html, 20.2.2008 8, 45<br />

[649] NZZ online: Gefährlicher Satellit mit Rakete abgeschossen, http://www.nzz.ch/<br />

nachrichten/panorama/gefaehrlicher_satellit_mit_rakete_abgeschossen__1.<br />

675421.html, 21.2.2008 45<br />

[650] NZZ online: Iran sucht die technologische Unabhängigkeit, http://www.<br />

nzz.ch/nachrichten/international/iran_sucht_die_technologische_<br />

unabhaengigkeit_1.675219.html, 21.2.2008 13<br />

[651] OHB Systems: SAR Lupe, http://www.ohb-system.de/Satellites/Missions/<br />

sarlupe.html, 20.3.2008, sowie die Werbebroschüre unter http://www.ohb-system.<br />

de/pdf/sar-lupe-broschure.pdf 210<br />

[652] ORF: Chinas “langer Marsch” zum Mond beginnt, 24.10.2007, http://science.orf.<br />

at/science/news/149882 13<br />

[653] Oxford Instruments: Hi-Technology Tools and Systems, http://www.<br />

oxford-instruments.com/, 23.2.2008 135<br />

[654] Raytheon Homepage, http://www.raytheon.com/, 13.3.2008 136<br />

[655] Raytheon: Thermal emission imaging system (THEMIS), http://www.raytheon.<br />

com/products/stellent/groups/sas/documents/legacy_site/cms01_047045.pdf,<br />

25.2.2008 130, 139<br />

[656] Reuters: U.S. has high confidence it hit the fuel tank, http://www.reuters.com/<br />

article/domesticNews/idUSN1930844420080221, 23.2.2008 45<br />

[657] RISK-EOS Homepage, http://www.risk-eos.com/actus/pge/index.php?arbo=0<br />

191<br />

[658] Russian Space Agency, Information Analytical Center: GLONASS, http:<br />

//www.glonass-ianc.rsa.ru/pls/htmldb/f?p=201:1:8526123244341633081,<br />

23.2.2008 212<br />

[659] Russian Space Web: MIRhttp://www.russianspaceweb.com/mir.html 12<br />

[660] Rztherford Appleton Lab: Geostationary Earth Radiation Budget Experiment, http:<br />

//www.ssd.rl.ac.uk/gerb/, 1.3.2008 201<br />

[661] Satellite Imaging Corporation: Aster satellite sensor images – Mt. St. Helens, http://<br />

www.satimagingcorp.com/galleryimages/aster-msh-march15.jpg, 23.2.2008 216<br />

[662] Satellite Imaging Corporation: Aster Satellite Sensor Images, http://www.<br />

satimagingcorp.com/gallery-aster.html, 23.2.2008 218<br />

[663] Satellite Imaging Corporation: Ikonos San Francisco, http://www.satimagingcorp.<br />

com/galleryimages/ikonos-san-francisco-california.jpg, 23.2.2008 201<br />

[664] Satellite Imaging Corporation: Envision your world, http://www.satimagingcorp.<br />

com/index.html, 23.2.2008 5, 192<br />

c○ M.-B. Kallenrode 2. Juli 2008


410 LITERATURVERZEICHNIS<br />

[665] Satellite Imaging Corporation: Ikonos satellite images of ancient observatories, http:<br />

//www.satimagingcorp.com/gallery-ancient-observatories.html, 23.2.2008 172<br />

[666] Satellite Imaging Corporation: Mineral exploration and mining, http://www.<br />

satimagingcorp.com/svc/mining.html, 23.2.2008 179<br />

[667] Satellite Imaging Corporation: Homeland Security, http://www.satimagingcorp.<br />

com/svc/homeland_security.html and http://www.satimagingcorp.com/media/<br />

images/homeland-security-lg-2.jpg, 23.2.2008 14<br />

[668] Scaled Composites: Spaceship One, http://www.scaled.com/projects/tierone/<br />

index.htm, 15.10.2008 14<br />

[669] D.J. Schneider, Michigan Technological University, Dep. of Geological Engineering and<br />

Sciences: Remote sensing of the global environment – Applications of AVHRR data to<br />

global change research, http://www.geo.mtu.edu/rs/avhrr/, 23.2.2008 204<br />

[670] Sciamachy Homepage, http://www.sciamachy.org/, 18.3.2008 207<br />

[671] Space-Based Lidar Wind Working Group Homepage, http://www.lidar.com/<br />

windswg/windswg2.htm, 23.2.2008 170<br />

[672] Space.Com: New satellite images give detailed view of NYC, Pentagon Disasters, http:<br />

//www.space.com/news/ikonos_wtc_010912.html, 23.2.2008 191<br />

[673] Space.com, B. Berger: NASA’s terra satellite moved to avoid chinese ASAT debris,<br />

6.7.2007, http://www.space.com/news/070706_sn_china_terra.html, 21.2.2008 36<br />

[674] Space.com: Avalanche photographed on Mars, http://www.space.com/<br />

scienceastronomy/080303-mars-avalanche.html, 18.3.2008 181<br />

[675] Space Review, Taylor Dinerman: NPOESS, another example of technological overreach?,<br />

28.11.2005, http://www.thespacereview.com/article/505/1, 23.2.2008 154<br />

[676] SPOT IMAGE Homepage, http://www.spot.com/, 6.2.2008 12, 119, 200<br />

[677] SPOT IMAGE: Defense, Intelligence, Security, http://www.spot.com/web/SICORP/<br />

431-sicorp-defense-intelligence-security.php, 23.2.2008 192<br />

[678] SPOT IMAGE: Hazard management and mitigation, http://www.spot.com/web/<br />

SICORP/440-sicorp-hazard-management-and-mitigation.php, 23.2.2008 192<br />

[679] SPOT IMAGE: Gallery – Canberra, http://www.spot.com/automne_modules_<br />

files/sicorp_gal/edited/r69_spot5_2_5_cn_camberra_1280.jpg, 23.2.2008 109<br />

[680] SPOT IMAGE: Gallery – Mont Velier, http://www.spot.com/automne_modules_<br />

files/sicorp_gal/edited/r129_3d_valier_1280.jpg, 23.2.2008 121<br />

[681] SPOT Image: Technical information, http://www.spot.com/web/SICORP/<br />

445-sicorp-the-spot-satellites.php, 11.3.2008 119<br />

[682] SPOT 5 HRVIR: Vegetation Programme Web Page, http://www.spot-vegetation.<br />

com/, 23.2.2008 174<br />

[683] SSC: VIKING - Sweden’s first satellite, http://www.ssc.se/?id=6253, 2.5.2008 243<br />

[684] Stern online, Der neue Wettlauf ins All, 14.9.2007, http://www.stern.de/<br />

wissenschaft/kosmos/597865.html?nv=ct_mt, 23.2.2008 13<br />

[685] STSI: James Webb Space Telescope – L2 orbit, http://www.stsci.edu/jwst/<br />

overview/design/orbit.html, 11.2.2008 68<br />

[686] SWAMI Homepage, http://www.ias.sdsmt.edu/rsel/Research/SWAMI/Swami.htm,<br />

25.2.2008 9<br />

[687] Technische Fachhochschule Berlin, Labot für gerätetechnik, Optik und Sensorik<br />

GOS: CCD http://www.tfh-berlin.de/labore/gos/images/fotos/ccd_pixel_<br />

gr.jpg, 11.2.2008 118<br />

[688] The Baltimore Chronicle, K. Grossmann: U.S. to launch plutonium-powered spaceprobe,<br />

7.5.1997, http://baltimorechronicle.com/cassini.html, 23.2.2008 92<br />

[689] The New York Times, W.J. Broad and D.E. Sanger: Flexing Muscle, China destroys<br />

satellite in test, 19.1.2007 http://www.nytimes.com/2007/01/19/world/asia/<br />

19china.html?fta=y, 10.3.2008 36<br />

[690] TU Berlin, Hydrogeologie: GRASS modules, http://www-pool.math.tu-berlin.de/<br />

~soeren/grass/modules/GRASS-NASA-WMS-Modul-Final.png, 23.2.2008 128<br />

2. Juli 2008 c○ M.-B. Kallenrode


LITERATURVERZEICHNIS 411<br />

[691] UCAR: MOPITT Measurements of Pollution in the Troposphere, http://web.eos.<br />

ucar.edu/mopitt/, 23.2.2008 218<br />

[692] UCS: UCS Satellite Data Base, http://www.ucsusa.org/global_security/space_<br />

weapons/satellite_database.html, 23.2.2008 13, 14, 45, 49, 193, 198, 210, 211, 212<br />

[693] UCS: Debris in Brief: Debris from Space Weapons, http://www.ucsusa.org/global_<br />

security/space_weapons/debris-in-brief.html, 23.2.2008 36<br />

[694] United Nations Environment Program DEWA/GRID-Europe: Glacier change and related<br />

hazards in Switzerland, http://www.grid.unep.ch/activities/global_change/<br />

switzerland.php, 23.2.2008 180<br />

[695] Universität Bern: NOAA AVHRR Realtime Products, http://saturn.unibe.ch/<br />

rsbern/noaa/dw/realtime/, 23.2.2008 204<br />

[696] Universität Bremen, Istitut für Umweltphysik: SCIAMACHY Homepage, http://www.<br />

iup.physik.uni-bremen.de/sciamachy/index.html, 23.2.2008 208<br />

[697] Universität Hamburg, Institut für Meereskunde: Definition of the TerraSAR-L Cartwheel<br />

Constellation, http://www.ifm.uni-hamburg.de/~wwwrs/project_estec2.<br />

htm, 23.2.2008 158<br />

[698] Universität Jena, Institut für Geographie: TerraSAR-L – Demonstration of L-Band<br />

capabilities using JERS SAR Data, http://www.terrasar.uni-jena.de/index.html,<br />

23.2.2008 210<br />

[699] Universität Karlsruhe, Bernhard Mühr: Satellitenbilder der Woche, http://imkhp2.<br />

physik.uni-karlsruhe.de/~muehr/Sat/satsp178.htm, 4.2.2008 17<br />

[700] University of Arizona, http://www.geo.arizona.edu/Antevs/nats104/<br />

00lect28ozonspol.gif 7<br />

[701] University of Arizona: Mars Odyssey Mission THEMIS, http://themis.asu.edu/,<br />

25.2.2008 139<br />

[702] University of Lund, Lund Space Weather Center, Homepage http://www.lund.irf.<br />

se/, 23.2.2008 90<br />

[703] University of Stuttgart, Institute of Space Systems: Flying Laptop – Satellite Design,<br />

http://www.kleinsatelliten.de/flp/index.en.php 135<br />

[704] US Congress: Surface Remote Sensing/4, HRMSI, http://www.ciesin.org/docs/<br />

005-356/005-3564.html, 1.3.2008 200<br />

[705] USGS: Advanced Very High Resolution Radiometer, http://edc.usgs.gov/guides/<br />

avhrr.html, 23.2.2008 129, 204<br />

[706] USGS: Declassified Satellite Imagery - 1 (1996), http://edc.usgs.gov/guides/<br />

disp1.html, 23.2.2008 93<br />

[707] USGS: Integrated Vegetation Mapping Viewer, http://ivm.cr.usgs.gov/viewer/<br />

viewer.htm, 23.2.2008 176<br />

[708] USGS: LandSat Data Continuity Mission (LDCM) Homepage, http://ldcm.usgs.<br />

gov/LDCMHome.php, 23.2.2008 95, 122, 198<br />

[709] USGS: LandSat Data Continuity Mission (LDCM), Science Team Meeting Jan 8, 2008,<br />

http://ldcm.usgs.gov/january2008MeetingAgenda.php, 23.2.2008 95, 122, 198<br />

[710] USGS, EROS: Advanced Very High Resolution Radiometer (AVHRR), http://edc.<br />

usgs.gov/products/satellite/avhrr.html, 23.2.2008 129, 204<br />

[711] USGS, EROS: Declassified Satellite Imagery - 1, http://edc.usgs.gov/products/<br />

satellite/declass1.html, 23.2.2008 93<br />

[712] USGS, EROS: Multispectral Scanner MSS, http://edc.usgs.gov/products/<br />

satellite/mss.html, 23.2.2008 122<br />

[713] USGS, EROS: Thematic Mapper (TM), http://edc.usgs.gov/products/<br />

satellite/tm.html, 23.2.2008 122<br />

[714] USGS, EROS: LandSat Enhanced Thematic Mapper Plus (ETM+), http://edc.<br />

usgs.gov/products/satellite/landsat7.html, 23.2.2008 122, 128, 199<br />

[715] USGS Yellowstone Volcano Observatory: Recent ups and downs of the Yellowstone<br />

Caldera, http://volcanoes.usgs.gov/yvo/2007/upsanddowns.html, 19.3.2008 189,<br />

211<br />

c○ M.-B. Kallenrode 2. Juli 2008


412 LITERATURVERZEICHNIS<br />

[716] Virgin Galactic, Home, http://www.virgingalactic.com/, 15.3.2008 14<br />

[717] Washington Post, V. Loeb: Hobbyist track down spies in sky, 20.2.1999, http://www.<br />

fas.org/irp/news/1999/02/143l-022099-idx.htm, 10.3.2008 48, 111<br />

[718] Wikipedia: Big Bird (KH-9), http://en.wikipedia.org/wiki/KH-9, 21.2.2008 44, 93<br />

[719] Wikipedia: Caldera (Krater), http://de.wikipedia.org/wiki/Caldera_(Krater),<br />

19.3.2008; englischsprachige Version zeigt andere Beispiele und Links unter http:<br />

//en.wikipedia.org/wiki/Caldera, 19.3.2008 189<br />

[720] Wikipedia: Chang’e, http://de.wikipedia.org/wiki/Chang’e_1, 23.2.2008 13<br />

[721] Wikipedia: Chang’e, http://en.wikipedia.org/wiki/Chang%27e_1, 23.2.2008 13<br />

[722] Wikipedia: Corona http://en.wikipedia.org/wiki/Corona_%28satellite%29,<br />

23.2.2008 12, 93<br />

[723] Wikipedia: Disaster Monitoring Constellation, http://en.wikipedia.org/wiki/<br />

Disaster_Monitoring_Constellation, 18.2.2008 20, 192<br />

[724] Wikipedia: Echo Ballon Satellite, http://en.wikipedia.org/wiki/Echo_satellite,<br />

21.2.2008 35<br />

[725] Wikipedia: EnviSat, http://de.wikipedia.org/wiki/Envisat, 6.2.2008 12<br />

[726] Wikipedia: Erdbeobachtungssatelliten, http://de.wikipedia.org/wiki/Liste_der_<br />

Erdbeobachtungssatelliten 198<br />

[727] Wikipedia: Fernerkundung, http://de.wikipedia.org/wiki/Fernerkundung,<br />

5.2.2008 6<br />

[728] Wikipedia: Global Positioning System, http://en.wikipedia.org/wiki/Global_<br />

Positioning_System, 8.2.2008 52, 211<br />

[729] Wikipedia: Internationale Raumstation ISS, http://de.wikipedia.org/wiki/<br />

Internationale_Raumstation, 23.2.2008 13<br />

[730] Wikipedi: International Space Station, http://en.wikipedia.org/wiki/<br />

International_Space_Station, 23.2.2008 13<br />

[731] Wikipedia: Kepler, http://de.wikipedia.org/wiki/Johannes_Kepler, 10.3.2008 22<br />

[732] Wikipwdia: Krakatoa, http://en.wikipedia.org/wiki/Krakatoa, 19.3.2008, auch<br />

http://de.wikipedia.org/wiki/Krakatau 189<br />

[733] Wikipedia: Laser Doppler Anemometrie, http://de.wikipedia.org/wiki/<br />

Laser-Doppler-Anemometrie, 18.3.2008 170<br />

[734] Wikipedia: George R. Lawrence, http://en.wikipedia.org/wiki/George_R.<br />

_Lawrence, 6.2.2008 10<br />

[735] Wikipedia: Military-industrial complex, http://en.wikipedia.org/wiki/<br />

Military-industrial_complex, 20.2.2008 13<br />

[736] Wikipedia: MIR (Russian Space Station), http://en.wikipedia.org/wiki/Mir,<br />

23.2.2008 12, 40<br />

[737] Wikipedia: Molniya, http://en.wikipedia.org/wiki/Molniya_orbit, 23.2.2008 50<br />

[738] Wikipedia: Normalized Difference Vegetation Index, http://en.wikipedia.org/<br />

wiki/Normalized_Difference_Vegetation_Index, 23.2.2008 174<br />

[739] Wikipedia: Mid Air Retrieval, http://en.wikipedia.org/wiki/Mid-air_retrieval,<br />

6.2.2008 113, 278<br />

[740] Wikipedia: MKF 6, http://de.wikipedia.org/wiki/MKF_6, 10.3.2008<br />

[741] Wikipedia: NavStar, http://de.wikipedia.org/wiki/Global_Positioning_<br />

System, 23.2.2008 211<br />

[742] Wikipedia: Photo manipulation, http://en.wikipedia.org/wiki/Photo_<br />

manipulation, 21.3.2008 327<br />

[743] Wikipedia: Remote Sensing, http://en.wikipedia.org/wiki/Remote_sensing,<br />

5.2.2008 5<br />

[744] Wikipedia: San Francisco 1906, http://upload.wikimedia.org/wikipedia/<br />

commons/b/b3/San_Francisco_in_ruin_edit2.jpg, 5.2.2008 10<br />

[745] Wikipedia: Shoemaker-Levy 9, http://en.wikipedia.org/wiki/Comet_<br />

Shoemaker-Levy_9#Impacts, 7.2.2008 35<br />

[746] Wikipedia: Solar Sail, http://en.wikipedia.org/wiki/Solar_sail, 23.2.2008 67<br />

2. Juli 2008 c○ M.-B. Kallenrode


LITERATURVERZEICHNIS 413<br />

[747] Wikipedia: Skylab, http://en.wikipedia.org/wiki/Skylab, 23.2.2008 12<br />

[748] Wikipedia: SpaceLab, http://de.wikipedia.org/wiki/Spacelab, 23.2.2008 97<br />

[749] Wikipedia: Sputnik, http://en.wikipedia.org/wiki/Sputnik_program, 6.2.2008 11<br />

[750] Wikipedia: Sputnik, http://de.wikipedia.org/wiki/Sputnik, 6.2.2008 11<br />

[751] Wikipedia: Spionagesatelliten, http://en.wikipedia.org/wiki/Spy_satellite,<br />

6.2.2008 12<br />

[752] Wikipedia: Spy Satellite KH-11, http://en.wikipedia.org/wiki/KH-11, 8.2.2008 44,<br />

53, 93<br />

[753] Wikipedia: Spy Satellite KH-12, http://en.wikipedia.org/wiki/KH-12, 8.2.2008 44,<br />

53, 93<br />

[754] Wikipedia: Spy Satellite KH-13, http://en.wikipedia.org/wiki/KH-13, 21.2.2008<br />

44, 93<br />

[755] Wikipedia: Swing By, http://de.wikipedia.org/wiki/Swing-by 74<br />

[756] Wikipedia: Swing By (Gravity Assist), http://en.wikipedia.org/wiki/Gravity_<br />

assist, 7.2.2008 35, 74<br />

[757] Wikipedia: TerraSAR, http://de.wikipedia.org/wiki/TerraSAR, 19.2.2008 210<br />

[758] Wikipedia: U2, http://en.wikipedia.org/wiki/Lockheed_U-2, 6.2.2008 11, 93<br />

[759] Wikipedia: Weltraumschrott, http://en.wikipedia.org/wiki/Space_debris,<br />

23.2.2008 36<br />

[760] Wikipedia: Wettlauf ins All, http://de.wikipedia.org/wiki/Wettlauf_ins_All,<br />

20.2.2008 13<br />

[761] Wikipedia: Wettlauf ins All (Space Race), http://en.wikipedia.org/wiki/Space_<br />

Race, 20.2.2008 13<br />

[762] Wikipedia: Widerstandsbeiwert, http://de.wikipedia.org/wiki/Str%C3%<br />

B6mungswiderstandskoeffizient, 7.2.2008 38<br />

[763] X-Prize Foundation, http://www.xprize.org/, 15.3.2008 14<br />

[764] X-Prize Foundation: Ansari X-Pize, http://www.xprize.org/x-prizes/<br />

ansari-x-prize, 15.3.2008 14<br />

[765] X-Prize Foundation: Google Lunar X-Prize, http://www.googlelunarxprize.org/,<br />

15.3.2008 14<br />

[766] Zarya – Soviet, russian and international spaceflight: The MIR orbital complex, http:<br />

//www.zarya.info/Diaries/StationsMir/Mir.php, 23.2.2008 12, 40<br />

[767] Zeit online 5/2008, B. Schwentker: Spion im Sturzflug, http://images.zeit.de/text/<br />

online/2008/05/us-satellit-absturz, 15.2.2008 8, 13, 36<br />

[768] http://www.heavens-above.com/issheight.asp 39, 86<br />

c○ M.-B. Kallenrode 2. Juli 2008


Index<br />

Ähnlichkeitsdecodierung, 316<br />

Äquivokation, 310<br />

Übergangsellipse, 64<br />

Übergangswahrscheinlichkeit, 291<br />

Übertragung<br />

passiv, 280, 281<br />

Übertragungsfehler, 309<br />

Übertragungsfunktion, 334<br />

Übertragungskanal, 281, 309<br />

binärsymmetrischer, 315<br />

Entropiefluss, 310<br />

Entropifluss, 310<br />

gestört, 309<br />

Übertragungskapazität, 311<br />

Übertragungsproblem<br />

semantisch, 282<br />

Übertragungsrate, 321<br />

LandSat 7, 209<br />

A-Train, 144, 217, 220<br />

AATSR, 144, 207<br />

Abbildungsmaßstab, 97<br />

Ablenkwinkel, 76<br />

Abplattung, 41<br />

Absorption, 132<br />

Absorptionskoeffizient, 85<br />

Absorptionsvermögen<br />

spektrales, 132<br />

Abtasttheorem, 294, 295<br />

ACE, 52, 68<br />

ACRIM, 226, 228<br />

ADEOS, 153<br />

Advanced Along Track Scanning Radiometer,<br />

207<br />

Advanced Microwave Scanning Radiometer,<br />

169<br />

Advanced Microwave Sounding Unit, 170<br />

Advanced SAR, 206<br />

Advanced Spaceborne Thermal Emission and<br />

Reflection, 169<br />

Advanced Very High Resolution Radiometer,<br />

12, 44, 129, 202, 204<br />

414<br />

Advanced Vidicon Camera System, 204<br />

Aerosol, 160<br />

AIRS, 164, 169, 219, 221<br />

Aktivierungsenergie, 136<br />

Albedo, 223, 230, 258<br />

Aliasing, 295, 296<br />

ALOS, 5<br />

ALT, 170<br />

Altimeter, 149, 150, 170<br />

AMAS, 161<br />

AMSR, 144, 169<br />

AMSR-E, 219<br />

AMSU, 144, 170, 203<br />

AMSU-A, 205, 219<br />

Anfangsgeschwindigkeit<br />

elliptisch, 28<br />

hyperbolisch, 28<br />

parabolisch, 28<br />

Anomalie<br />

wahre, 29<br />

Antenne<br />

entdrallt, 322<br />

Antennengewinn, 322, 323<br />

Anti-Satelliten-Waffe, 36<br />

Anti-Satellitenwaffe, 8, 52<br />

Antikoinzidenz, 236, 246<br />

Aphel, 28, 64<br />

Apogäum, 28, 30, 39, 43<br />

Apollo, 97, 278<br />

Apozentrum, 28, 30<br />

Apsidendrehung, 42, 43<br />

Apsidenlinie, 28, 29, 31, 33<br />

Aqua, 21, 45, 53, 144, 164, 169, 170, 216–220<br />

ARGOS, 11<br />

ARJ, 307<br />

ASAR, 206<br />

ASCAT, 205<br />

ASCII-Code, 301<br />

ASTER, 5, 169, 179, 218<br />

astronomical unit, 257<br />

ATLID, 170<br />

Atmosphäre, 83, 241


INDEX 415<br />

Gezeiten, 36<br />

Stockwerkstruktur, 83<br />

Atmospheric Infrared Sounder, 169<br />

Atmospheric Lidar, 170<br />

ATS-3, 14<br />

AU, 257<br />

Aufklärungssatellit, 44<br />

Auflösung<br />

photometrisch, 122<br />

Auflösungsvermögen, 92, 96, 125<br />

Boden, 44<br />

Boden-, 92, 125<br />

Film, 108<br />

Kamera–Film, 105<br />

Mikrowellen, 142<br />

Objektiv, 105, 106<br />

photographische Emulsion, 105, 107<br />

räumliche, 115<br />

räumliches, 16, 105<br />

IR, 137<br />

MSS, 123<br />

SAR, 157<br />

TM, 124<br />

radiometrisch, 113, 115, 116, 125<br />

radiometrisches, 92, 105, 111<br />

IR, 137<br />

Spektral, 125<br />

spektrales, 105, 110<br />

TM, 124<br />

thermales, 105<br />

thermisches, 92, 111<br />

Vershclechterung, 112<br />

Winkel, 106<br />

zeitliches, 92, 105<br />

Aura, 144, 146, 220<br />

AVCS, 204<br />

average bond energy, 263<br />

AVHRR, 5, 12, 44, 129, 137, 174–176, 186,<br />

202, 204, 205, 346<br />

Azur, 55<br />

Bahn<br />

äquatorial, 31, 32, 42<br />

geostationär, 32, 89<br />

polar, 31, 32, 42<br />

pseudo-geostationär, 49<br />

sonnensnychron, 45<br />

sonnensynchron, 31, 32, 42, 43, 47<br />

stark exzentrisch, 32<br />

Bahndrehung, 42<br />

Bahnebene<br />

Drehung, 42<br />

Gleichung, 26<br />

Bahnellipse<br />

Drehung, 43<br />

Bahngleichung, 27, 28<br />

Bahnparameter, 27, 28, 31, 33<br />

Bahnschrumpfung, 39<br />

Bahnstörungen, 33<br />

Bandbreite, 311<br />

Barnsley Farn, 352<br />

Bastille Day event, 261, 264, 265<br />

Bethe–Bloch, 232<br />

Bethe–Bloch equation, 263, 264, 268<br />

Bethe–Bloch-Formel, 76, 233<br />

BigBird, 44<br />

Bildelement, 106<br />

Bilderzeugung<br />

fraktale, 351<br />

Bildkomprimierung<br />

FELICS, 348<br />

fraktale, 351<br />

GIF, 348<br />

JPEG, 348<br />

PNG, 348<br />

Bildpunkt, 308<br />

Bildverschiebung, 112<br />

Binärzeichen, 284, 301<br />

binary digit, 284<br />

Binet’sche Gleichung, 29, 30, 64, 76, 78<br />

Bit, 284, 301<br />

bit, 284, 301<br />

Bitenergie, 312<br />

Bitrate, 312, 321<br />

Bitzeit, 312<br />

Blendenöffnung, 106<br />

Blickfeld, 97<br />

Blickwinkel, 97<br />

Blockcode, 290, 301, 313, 315<br />

Blockcodierung<br />

Matrixform, 320<br />

Bodenauflösung, 12<br />

SAR, 157<br />

Bodenauflösungsvermögen, 16, 44, 92, 97, 105,<br />

106<br />

IR, 137<br />

MSS, 123<br />

TM, 124<br />

Bodenfeuchte, 146<br />

Bodennutzung, 347<br />

Bodenschätze, 7<br />

Bodenspur, 45, 46<br />

Bolometer, 225<br />

Bougert–Lambert–Beer’sches Gesetz, 85<br />

Bragg peak, 264, 269<br />

Bragg-Peak, 233<br />

Bremsstrahlung, 234, 266, 270<br />

bremsstrahlung, 265, 268<br />

Brennschluss, 57<br />

c○ M.-B. Kallenrode 2. Juli 2008


416 INDEX<br />

Butterworth-Filter, 334<br />

BUV, 161, 164<br />

CaII-Linie, 229<br />

calculated ion–pair production rate, 264<br />

Caldera, 189<br />

CALIOP, 221<br />

CALIPSO, 220, 221<br />

Carthweel, 158<br />

CartoSat, 5<br />

Cartwheel, 55, 114, 158, 200, 204, 210<br />

Cassini, 92<br />

Cassini–Huygens, 260<br />

CAWSES, 222, 261, 262, 276<br />

CBers, 5<br />

CCD, 94, 101, 117–119<br />

CELIAS, 243<br />

Cerenkov-Detektor, 235<br />

Cerenkov-Effekt, 234<br />

Cerenkov-Zähler, 236<br />

CERES, 161, 218, 220<br />

CGRO, 53<br />

Challenging Minisatellite Payload, 208<br />

CHAMP, 88, 198, 208<br />

Chang’e 1, 13<br />

Charged Coupled Device, 117<br />

climate change, 95, 201<br />

CloudSat, 21, 45, 220, 221<br />

Cluster, 347<br />

Cluster-II, 52<br />

CME, 89<br />

CMIS, 154<br />

Coastal Zone Color Scanner, 20, 169, 186<br />

Codierbaum, 303<br />

Codierung<br />

Fano, 305<br />

Huffman, 304<br />

ideale, 304<br />

redundanzfreie, 304<br />

Shannon, 304<br />

Coloumbia, 80<br />

Compton Gamma Ray Observatory CGRO,<br />

53<br />

Compton scattering, 268<br />

Coriolis, 154<br />

Corioliskraft, 69<br />

CORONA, 93<br />

Corona, 12<br />

Coronal Mass Ejection, 89<br />

cosmogenic nuclides, 262<br />

CPR, 221<br />

Crutzen, 262<br />

CZCS, 20, 169, 186, 187<br />

Dämpfung<br />

Atmosphäre, 324<br />

Daten<br />

operationale, 277<br />

Datenübertragung<br />

progressive, 351<br />

Raster, 351<br />

dBm, 323<br />

Decodierbarkeit, 303, 316<br />

Defense Meteorological Satellite Program, 154<br />

Dehnung, 337<br />

bsondere, 338<br />

Histogramm angeglichene, 338<br />

lineare, 338<br />

Deklassifizierung, 93, 108<br />

DGPS, 52, 212<br />

Diamant, 118, 209<br />

Dichte<br />

Hochatmosphäre, 37<br />

differentielles GPS, 212<br />

Digramm-Struktur, 293<br />

Digramm-Wahrscheinlichkeit, 291<br />

Disaster Management, 10<br />

Disaster Monitoring Constellation, 20, 192<br />

Discoverer 14, 93<br />

Distanzverfahren, 344<br />

diurnal bulge, 37<br />

DMC, 20, 192<br />

DMSP, 13, 94, 154<br />

Doppelsternsystem, 72<br />

Dopplerverschiebung, 149, 155<br />

Downlink, 91<br />

Drachen, 8, 10<br />

Drehimpulssatz, 76<br />

Drehung der Bahnebene, 42<br />

Drehung der Bahnellipse, 43<br />

Drei-Achsen-Stabilisierung, 54, 55<br />

Dreikörperproblem, 68, 69<br />

eingeschränktes, 69<br />

Dunstfilter, 112<br />

Dunstkorrektur, 112, 334, 336<br />

Dunststreuung, 85, 98, 102, 124, 129, 334, 335<br />

Earth Observing System, 21, 168, 216<br />

Earth Observving System, 212<br />

Earth Radiation Budget Experiment, 204<br />

Earth Radiation Budget Satellite, 224<br />

Earth Resource Satellite, 148<br />

Earth Resources Technology Satellite, 103, 199<br />

Earth System Science Pathfinder, 221<br />

Earth Terrain Camera, 97, 108, 195<br />

Echo-Ballon-Satellit, 35, 281<br />

edge enhancement, 341<br />

Effektivitätsproblem, 282<br />

Effektivtemperatur, 133, 182, 223, 258, 259<br />

Erde, 223<br />

2. Juli 2008 c○ M.-B. Kallenrode


INDEX 417<br />

Effizienz, 303<br />

El Niño, 184, 185<br />

electron trajectory, 268<br />

Elementarzeichenbedarf, 302<br />

Ellipse, 28, 31<br />

Ellipsenbahn<br />

Gesamtenergie, 29<br />

EMBERSat, 20<br />

EmberSat, 135<br />

Emission, 160<br />

Emissionsvermögen<br />

mittleres, 133<br />

spektrales, 132<br />

Empfänger-Entropie, 310<br />

Energiegleichung, 29<br />

Energieintegral, 26<br />

Energiekonstante, 26, 28, 29<br />

Energieverlust, 232, 236, 237<br />

Energieverlustkurve, 233<br />

energy loss distribution, 265, 266<br />

Enhanced Thematic Mapper, 128<br />

Enhanced Thematic Mapper Plus, 199<br />

Enhanced Thematic Mapper+, 122<br />

Entropie, 287<br />

Übertragungskanal, 310<br />

Empfänger, 310<br />

Sender, 310<br />

Entweichgeschwindigkeit, 62<br />

Environmental Satellite, 205<br />

Environmental Science and Services Administration,<br />

204<br />

EnviSat, 12, 21, 38, 53, 90, 91, 144, 149, 161,<br />

163, 169, 198, 205<br />

EOS, 21, 212, 216, 217<br />

EOS-A, 216<br />

EOS-B, 216, 219<br />

EPHIN, 239<br />

Epoche, 31<br />

ERB, 228<br />

ERBE, 204<br />

ERBS, 224, 228<br />

Erde, 258<br />

Abplattung, 35, 41, 42<br />

Erderkundungssatellit, 44<br />

<strong>Erdfernerkundung</strong>, 7<br />

Ergiebigkeit, 132<br />

ergodisch, 293, 294<br />

ERS-1, 148–150, 157<br />

erste kosmische Geschwindigkeit, 24<br />

ERTS-1, 103, 199<br />

ESMR, 144<br />

ESSA, 94, 204<br />

ESSA 3, 204<br />

ESSP, 221<br />

ETM, 128, 199<br />

ETM+, 122, 128, 199, 200, 209<br />

Exosphäre, 84<br />

Explorer, 13<br />

Explorer 1, 90<br />

Explorer 6, 93, 113, 114<br />

Explorer 7, 42<br />

Exzentrizität, 27, 28, 31, 42, 47<br />

Fackeln, 229<br />

Falschfarbenaufnahme, 18<br />

Falschfarbenbild, 95, 96, 102<br />

Beispiel, 101<br />

Farbzuordnung, 101<br />

Vegetation, 101<br />

Falschfarbenfilm, 335<br />

Fano-Codierung, 305<br />

FAPAR, 174<br />

Farbe des Meeres, 186, 187<br />

Farbfilm, 95, 99, 102<br />

Farbmischprojektor, 95, 96<br />

Fax, 307<br />

FCKW, 83<br />

Fehlererkennung, 312, 313, 315, 320<br />

Fehlerkorrektur, 313, 315<br />

FELICS, 348<br />

Fernerkundung, 6<br />

field reversal, 262<br />

Film<br />

charakteristische Kurve, 107, 108<br />

Kontrast, 108<br />

Korngröße, 108<br />

räuml. Auflösung, 108<br />

Rückführung, 278<br />

Filmrückführung, 112, 113<br />

Flächensatz, 23, 24, 26, 27<br />

Flare, 36, 252<br />

Flat Plate Radiometer, 204<br />

Flourchlorkohlenwasserstoffe, 83<br />

Fluchtgeschwindigkeit, 30, 65<br />

Flughöhe, 31, 37, 96<br />

Fluxgate-Magnetometer, 244<br />

Flying Laptop, 135<br />

FormoSat, 5<br />

Forschungssatellit, 44, 52<br />

FPR, 204, 222<br />

fraktale Bilderzeugung, 351<br />

Fundamentalsatz<br />

Kanalcodierung, 311<br />

Quellencodierung, 306<br />

galactic cosmic rays, 267<br />

Galileo, 63, 77, 212<br />

Gamma Ray Observatory GRO, 53<br />

Gasglocke, 37<br />

c○ M.-B. Kallenrode 2. Juli 2008


418 INDEX<br />

Gauß-Filter, 333, 334<br />

Gauß-Verteilung, 333<br />

Gauß-Wichtung, 343<br />

GEANT 4, 267<br />

Geländeklassifikation, 347<br />

Gemini, 95<br />

Gemini XI, 6<br />

Generator-Matrix, 317, 319<br />

Genesis, 12, 277, 278<br />

GeoEye, 5, 198, 200<br />

Geoid, 35, 48, 149, 150<br />

Geokorona, 84<br />

geomagnetic field, 262, 270<br />

GEOS-3, 149<br />

Geoscience Laser Ranging System, 170<br />

geostationärer Satellit, 48<br />

Geostationary Earth Radiation Budget, 201<br />

GERB, 201<br />

Gesamtenergie<br />

Ellipsenbahn, 29<br />

Gesamtstrahlungsstrom, 133<br />

Geschwindigkeitsgewinn, 62<br />

Geschwindigkeitszuwachs, 58<br />

Gezeiten<br />

Atmosphäre, 36<br />

giant planets, 258<br />

GIF, 348<br />

Giotto, 121<br />

Glättung, 333, 343<br />

Gauß, 333<br />

linear, 333<br />

Glättungsfilter, 333<br />

GLAS, 151<br />

Gleichgewicht<br />

lokales thermodynamisches, 132<br />

Gleichstromanteil, 349<br />

global change, 5, 8, 20, 21, 82, 88, 94, 192,<br />

198, 200, 204, 205, 222, 224<br />

Global Ozone Monitoring by Occultation of<br />

Stars, 207<br />

Global Positioning System, 51, 211<br />

GLONASS, 212<br />

GLRS, 149, 170<br />

GOES, 8, 201<br />

Golfstrom, 141, 142<br />

GOME, 7, 207<br />

GOME 2, 205<br />

GOMOS, 207<br />

Google Earth, 5, 12, 15, 200<br />

GPS, 51–53, 199, 211<br />

differentielles, 52<br />

GPS-Satelliten, 51<br />

Graphics Interchange Format, 348<br />

GRAS, 205<br />

Gravitationsgesetz, 23<br />

Gravitationsumlenkung, 74<br />

gravity assisted navigation, 74<br />

greenhouse gas, 275<br />

Grenzfrequenz, 334<br />

GRO, 53<br />

Großkreis, 28<br />

Ground Penetrating Microwave Instrument,<br />

149<br />

GRS, 248<br />

hadronic interaction, 266<br />

Halbachse, 28, 31<br />

Halbleiterdetektor, 234<br />

Halo-Orbit, 68<br />

Hamming-Distanz, 314, 315<br />

Hamming-Schranke, 316<br />

HAMMONIA, 276<br />

HAO-Koronograph, 249<br />

Hasselblad, 6, 11, 95<br />

HCMM, 137, 138, 169<br />

Heat Capacity Mapping Mission, 137<br />

Helios, 235<br />

Helios 1, 55<br />

Helios-Teilchenteleskop, 235<br />

Helium, 259<br />

Heterosphäre, 85<br />

High Resolution Multispectral Imager, 200<br />

High Resolution Visible, 120<br />

High-Resolution Imaging Spectrometer, 110,<br />

168, 169<br />

Hill’s Zero-Velocity Curves, 70<br />

HIRDLS, 220<br />

HIRIS, 110, 168, 169<br />

HIRS, 203, 205<br />

HOx, 262, 270, 272<br />

Hochatmosphäre, 36, 37, 40<br />

Dichte, 37<br />

Dichtevariation, 37<br />

Reibung, 35, 37<br />

Temperaturmessung, 37<br />

Hochpass, 334<br />

Hohmann-Übergänge, 65<br />

Hohmann-Bahn, 56, 63, 66<br />

Hohmann-Ellipse, 64, 65<br />

Homosphäre, 85<br />

HRIS, 169<br />

HRMSI, 200<br />

HRV, 16, 120, 121, 135<br />

HRVIR, 174<br />

HSB, 219<br />

HST, 52, 53<br />

Hubble Space Telescope, 52<br />

Hubble Space Telescope HST, 53<br />

Huffman, 308<br />

2. Juli 2008 c○ M.-B. Kallenrode


INDEX 419<br />

Huffman-Code, 306<br />

Huffman-Codierung, 304, 348, 349<br />

HXIS, 247<br />

HXRBS, 246<br />

Hydrobot, 259<br />

Hydrometeor, 165<br />

Hyperbel, 28<br />

Hyperzeichen, 283, 296<br />

IASI, 205<br />

ICESat, 151<br />

IFOV, 106<br />

Ignorosphäre, 84<br />

IIR, 221<br />

Ikonos, 5, 6, 12, 45, 109, 116, 121, 157, 198,<br />

200, 210<br />

IMP, 52<br />

Impedanzsonde, 243<br />

Imperial Valley, 346, 347<br />

Improved TIROS Operational System, 204<br />

Information, 280–284<br />

Definition, 282<br />

Informationsaufnahme<br />

Mensch, 296<br />

Informationsfluss, 310<br />

Informationsgehalt, 284, 285, 301<br />

mittlerer, 287<br />

Informationskanal, 283<br />

Informationsquelle, 283<br />

Informationsverdichtung, 298<br />

Infrarot, 102<br />

Infrarotfarbfilm, 100, 102<br />

Schichtstruktur, 100<br />

spektrale Empfindlichkeit, 102<br />

Infrarotfilm, 99<br />

Infrarotscanner, 137<br />

Inklination, 19, 31, 42–44, 47, 50, 123<br />

Instantaneous Field of View, 106<br />

Intelsat V, 325<br />

interaction cross section, 265<br />

Interferenz, 155<br />

Interkosmos, 94<br />

Intermediate and Thermal Infrared Radiometer,<br />

169<br />

International Space Station, 86<br />

Interplanetary Monitoring Platform, 52<br />

ion–pair production, 263, 264, 268<br />

ion–pair production rate, 263<br />

Ionisation, 232<br />

ionization, 261, 263, 266<br />

Ionosphäre, 84, 85, 242<br />

Irrelevanz, 310<br />

ISEE, 256<br />

ISEE-1,2, 52<br />

ISEE-3, 52, 68<br />

ISS, 39, 53, 79, 80, 86, 89, 112<br />

ITIR, 169<br />

ITOS, 204<br />

Jacobi-Konstante, 70, 72, 73<br />

Joint Photographic Experts Group, 348<br />

JPEG, 348–350<br />

Jupiter, 258, 259<br />

Kamera<br />

mehrlinsige, 95<br />

Kanalcodierung, 280, 281, 301, 308, 313<br />

Fundamentalsatz, 311<br />

Kanalkapazität, 310, 311<br />

maximale, 310<br />

Kantenanreicherung, 341–343<br />

gerichtete, 341<br />

ungerichtete, 342<br />

Kavoshgar, 13<br />

Kegelschnitt, 28<br />

Kehrbesen, 96, 114, 118, 119, 128<br />

Kehrbesentechnik, 119<br />

Kepler’sche Gesetze, 23<br />

Kernel, 329, 330<br />

Kantenanreicherung, 342<br />

Kernwechselwirkung, 234<br />

KET, 240<br />

KeyHole, 12, 93<br />

KH, 12, 93<br />

KH-11, 44, 53<br />

KH-12, 44, 53<br />

KH-13, 45<br />

Kirchoff–Planck’sches Gesetz, 132<br />

Klassifikation<br />

automatische, 344<br />

multitemporal, 345<br />

unitemporal, 345<br />

Klassifikationsdiagramm, 348<br />

Knotenlinie, 31<br />

Kohlendioxid, 259<br />

Koinzidenzbedingung, 236<br />

Kommunikation, 280–282<br />

passiv, 36<br />

Kommunikationsproblem<br />

Effektivitätsproblem, 282<br />

semantisch, 282<br />

technisch, 282<br />

Kommunikationssatellit, 44, 48, 281<br />

Kommunikationssystem, 281<br />

Kommunikationswirkungsgrad, 312<br />

Kontrast, 96, 108<br />

Kontrastanreicherung, 111, 337–341<br />

Koronograph, 249<br />

Korrekturfähigkeit, 314, 316<br />

maximale, 316<br />

c○ M.-B. Kallenrode 2. Juli 2008


420 INDEX<br />

Kosinustransformation, 349<br />

kosmische Geschwindigkeit<br />

erste, 24, 28, 29, 60, 78<br />

zweite, 29, 78<br />

Kosmos 1042, 92<br />

Kosmos 1097, 39<br />

Kosmos 1402, 148<br />

Kosmos 1500, 148, 155<br />

Kosmos 243, 144<br />

Kosmos 954, 92, 148<br />

Kourou, 31<br />

Kreisbahngeschwindigkeit, 24, 28, 78<br />

Kriegsdrachen, 9<br />

Kryobot, 259<br />

Kugelflächenfunkionen, 35<br />

LAGEOS, 33, 35, 53, 149, 170, 206<br />

LAGEOS 1, 35<br />

Lagrange-Punkt, 35, 68, 69, 71, 73<br />

Lander, 68, 259<br />

LandSat, 12, 13, 31, 45, 46, 53, 81, 82, 94,<br />

105, 109, 111, 116, 121, 122, 135,<br />

139, 154, 157, 178, 180, 186, 198,<br />

200, 210, 335, 336, 346, 347<br />

LandSat 1, 103, 116, 199<br />

LandSat 2, 116, 199<br />

LandSat 3, 116, 199<br />

LandSat 4, 123, 199<br />

LandSat 5, 95, 122, 123<br />

LandSat 6, 66, 128, 199<br />

LandSat 7, 5, 12, 94, 128, 199, 200<br />

Landsat Data Continuity Mission, 95<br />

Langmuir Sonde, 243<br />

Laplace-Integral, 27<br />

Laplace-Transformation, 341<br />

Laplace-Vektor, 27<br />

Laser Atmospheric Wind Sounder, 170<br />

Laser Retro-Reflector, 206<br />

Lauflängencodierung, 308, 348<br />

Laufzeit, 149<br />

LAWS, 170<br />

LCDM, 154<br />

LDCM, 95, 122<br />

Lebensdauer Photosatellit, 278<br />

Legendre Polynom, 35<br />

Leistungsverstärkung, 323<br />

Lempel–Ziv-Algorithmus, 306, 307, 348, 364<br />

Levy-Shoemaker 9, 35<br />

Librationspunkt, 68<br />

Limb Sounding, 85<br />

Limb-Sounding, 207<br />

Limb-Viewing, 160<br />

linear energy transfer, 267<br />

logarithmus dualis, 285<br />

Lokalzeit, 241<br />

LRR, 149, 206<br />

Luftschauer, 86<br />

Luftwiderstand, 39<br />

Magellan, 67, 148, 158<br />

magnetic field reversal, 275<br />

Magnetopause, 89<br />

Magnetosphäre, 36, 87, 89, 241<br />

Manlifter, 9<br />

MAPS, 163<br />

Mariner, 74, 117<br />

Mariner 10, 76, 117<br />

Mariner 2, 260<br />

Mariner 4, 260<br />

Markoff-Prozess, 293<br />

Mars, 257, 258<br />

Mars 1, 260<br />

Massenverhältnis<br />

totales, 62<br />

Maximum Likelihood Method, 345<br />

Maximum-Likelihood Decoder, 320<br />

Medium Resolution Imaging Spectrometer, 169,<br />

205<br />

Mehraufwand je Zeichen, 302<br />

Mehrstufenrakete, 61<br />

MERIS, 161, 169, 205, 206<br />

Merkur, 257, 258<br />

Mesopause, 84<br />

Mesophyll, 103<br />

Mesosphäre, 84<br />

Metalloxid–Silizium-Transistor, 117<br />

Meteor, 94<br />

Meteorit, 36<br />

MeteoSat, 11, 16, 21, 165, 200, 345<br />

MeteoSat 1, 200<br />

MeteoSat 8, 200<br />

MeteoSat Second Generation, 201<br />

Meteosat Visible and Infrared Radiometer,<br />

201<br />

Methan, 259<br />

Metop, 192, 205<br />

MFK, 95<br />

MFK-6, 95, 118<br />

MHS, 205<br />

Michelson Interferometer for Passive Atmospheric<br />

Sounding, 206<br />

Microbolometer, 136<br />

Microwave Radiometer, 206<br />

Mikrobolometer, 139<br />

Mikrowelleninstrumente, 142<br />

Mikrowellenradiometer, 142, 146<br />

MIPAS, 161, 206<br />

MIR, 12, 40, 53<br />

Mischpixel, 125, 176, 330, 346<br />

MISR, 16, 111, 218<br />

2. Juli 2008 c○ M.-B. Kallenrode


INDEX 421<br />

Mission to Planet Earth, 21, 163, 168, 172,<br />

198, 212<br />

Mixed Pixel, 125<br />

Mixed Pixels, 127, 176, 330, 346<br />

MKF-6, 93, 94<br />

MLS, 144, 146, 220<br />

Moderate-Resolution Imaging Spectrometer,<br />

169<br />

MODIS, 169, 218, 219<br />

MODIS-N, 169<br />

MODIS-T, 169<br />

Molniya, 30–32, 43, 49, 50, 52, 54, 80<br />

Molniya 1, 93<br />

Momentanaufnahme, 45<br />

Momentintegral, 26, 27<br />

MOMS, 119<br />

Monde, 258<br />

Monitoring, 8<br />

MOPITT, 163, 218<br />

MOS, 117<br />

MSG, 201<br />

MSR, 201<br />

MSRS, 209<br />

MSS, 94, 103, 111, 116, 121–123, 125, 135,<br />

137, 180, 186, 199, 200, 336, 346, 347<br />

MSU, 161<br />

Multi-Kanal-Fotografie-6, 93<br />

Multi-Spectral High Resolution System, 209<br />

Multi-Spectral-Scanner, 103<br />

multiple scattering, 265, 268<br />

Multipolentwicklung, 41<br />

Multispectral Radiometer, 201<br />

Multispektralkamera, 95–97, 110<br />

Multispektralscanner, 96, 122<br />

Mustererkennung, 297, 300<br />

MVIR, 201<br />

MWR, 144, 206<br />

Nachricht, 282, 284<br />

sichere, 284<br />

Nachrichtenempfänger, 283<br />

Nachrichtenquelle, 281, 283<br />

Nachrichtensenke, 281<br />

Nachrichtenstrecke, 280<br />

nachtleuchtende Wolken, 84<br />

NASA-Hasselblad, 97<br />

NAvigations System with Time And Ranging,<br />

211<br />

Navigationssatellit, 44, 51<br />

NavStar, 51–53, 211<br />

NDVI, 146, 174–176<br />

NEMS, 144<br />

Neptun, 257, 258<br />

NESDIS, 203<br />

Netzwerk<br />

magnetisches, 229<br />

Newton, 23<br />

Nimbus, 45, 53, 224<br />

Nimbus 4, 138<br />

Nimbus 5, 144<br />

Nimbus 7, 138, 160, 161, 186<br />

Nimbus-7, 143, 146, 147<br />

Nimbus 7, 228<br />

nitrite oxides, 262<br />

NLC, 84<br />

NOx, 262, 264, 265, 270, 272<br />

NOAA, 11, 12, 16, 17, 129, 198, 203<br />

NOAA 1, 204<br />

NOAA 18, 204<br />

NOAA 2, 204<br />

NOAA 9, 228<br />

Noctilucent Cloud, 84<br />

Noctilucent Clouds, 84<br />

normalized difference vegetation index, 174<br />

NPOESS, 13, 154, 204<br />

NSCAT, 153<br />

OCO, 161, 163, 220, 221<br />

Okean, 148<br />

Okkultation, 160<br />

Okkultationsinstrument, 163<br />

OMI, 220<br />

Operational Vertical Sounder, 12<br />

optische Tiefe, 165<br />

Orbiter, 259<br />

OrbView, 5<br />

Orthorektifikation, 327<br />

Ortskurve, 237<br />

Ozon, 83, 85<br />

ozone, 261, 262, 264, 265, 272, 275<br />

Ozonloch, 7<br />

Ozonschicht, 83<br />

pair production, 265<br />

panchromatisch, 97, 99<br />

Panoramakamera, 95, 96<br />

Parabel, 28<br />

PARASOL, 220, 221<br />

Paritätsbit, 313–315, 320<br />

particle precipitation, 262<br />

passive Stabilisierung, 54, 55<br />

Penetrator, 259<br />

Perigäum, 28–30, 39<br />

Perihel, 28, 64<br />

Perizentrum, 28, 30<br />

Pflanzengesundheit, 103<br />

photoionization, 268<br />

Photozelle, 113<br />

Pioneer, 74, 76<br />

Pixel, 106, 308, 328<br />

c○ M.-B. Kallenrode 2. Juli 2008


422 INDEX<br />

Planck’sches Strahlungsgesetz, 132<br />

Planeten, 257<br />

erdähnliche, 258<br />

giant, 258<br />

innere, 258<br />

Monde, 257, 258<br />

Riesen-, 258<br />

Ringe, 257, 258<br />

terrestrial, 258<br />

Plasma, 242<br />

Pluto, 257–259<br />

PNG, 348<br />

POES, 8, 12, 13, 16, 31, 44, 45, 48, 129, 154,<br />

170, 175, 176, 186, 202, 204, 222<br />

POES 16, 88<br />

Poisson-Rauschen, 332, 333<br />

Poisson-Statistik, 332<br />

polar cap, 262, 270<br />

Polarisation, 146, 147, 149<br />

Polarlicht, 84, 89<br />

Polarlichter, 87<br />

Polaroval, 87, 89<br />

Polkappe, 84, 87, 89<br />

Poseidon-2 Altimeter, 149<br />

Potentialfunktion, 70<br />

power law, 267<br />

Präfix-Code, 303, 304<br />

Präzession, 42<br />

Prüfzahl, 313<br />

Prüfzeichen, 316<br />

precipitating particles<br />

energy spectra, 267<br />

Prewitt-Operatoren, 343<br />

Produktcode, 320<br />

progressive Datenübertragung, 351<br />

progressive transmission, 351<br />

proton trajectory, 268<br />

pseudo-geostationär, 49<br />

Pulsation, 112<br />

Pulsations-Magnetometer, 244<br />

Pulshöhenmatrix, 237<br />

Quader-Verfahren, 345<br />

Quaderverfahren, 345<br />

detailliertes, 345<br />

Quasineutralität, 243<br />

Quelle<br />

ergodisch, 294<br />

statistisch homogen, 294<br />

Quellencodierung, 280, 281, 301, 302<br />

Definition, 301<br />

Fundamentalsatz, 306<br />

Quellenstatistik, 306<br />

Quellfunktion, 132<br />

QuickBird, 5, 12, 111, 157, 198, 200<br />

QuikSCAT, 153<br />

RA-2, 149, 206<br />

Radar, 148, 154<br />

Radar-Altimeter-2, 206<br />

RadarSat, 13, 148, 210<br />

RadarSat-1, 180<br />

RadarSat-2, 210<br />

radiometrisches Auflösungsvermögen, 92<br />

Rakete<br />

Dreistufenr., 60, 61<br />

Einstufenr., 60, 61<br />

Mehrstufenr., 61<br />

mehrstufige, 60<br />

Wirkungsgrad, 58<br />

Zweistufenr., 61<br />

Raketenformel, 58, 59, 62, 65<br />

Raketengleichung, 56, 57, 60, 61<br />

RAR, 155<br />

raster transmission, 351<br />

Rasterübertragung, 351<br />

Raumdämpfung, 322, 323<br />

Raumsonde, 52<br />

Rauschen, 311, 332<br />

Rauschleistungsdichte, 312<br />

RBV, 115, 116, 121, 123, 199<br />

Redundanz, 288, 289, 301, 316, 317<br />

Code, 302<br />

relative, 289<br />

Redundanzreduktion, 303<br />

Regendämpfung, 324<br />

Reibung, 37, 38<br />

Hochatmosphäre, 35, 37<br />

Reibungskraft, 38, 57<br />

Rektaszension, 31<br />

relative Redundanz, 289<br />

remote sensing, 5, 6, 8, 33, 245<br />

Resonanzsonde, 243<br />

Restenergie, 236, 237<br />

Resurs, 95<br />

retrograd, 42<br />

Return Beam Vidicon, 115<br />

RHESSI, 53<br />

Richtantenne, 321, 322<br />

Riesenplaneten, 258<br />

Ringe, 258<br />

Ringsysteme, 258<br />

RoSat, 53<br />

Rover, 259<br />

run length, 308<br />

Südatlantische Anomalie, 89, 91<br />

SAA, 89, 91<br />

Salton Sea, 346, 347<br />

SAM, 160, 163–165<br />

2. Juli 2008 c○ M.-B. Kallenrode


INDEX 423<br />

SAR, 149, 154, 156–158<br />

Cartwheel, 158<br />

reflektiertes Signal, 156<br />

Satellit<br />

Erderkundungss., 44<br />

Forschungs, 44<br />

Kommunikationss., 44<br />

Navigationss., 44<br />

Wetters., 44<br />

Satellitenbahn<br />

Aufklärungss., 44<br />

Erderkundungss., 44<br />

Forschungss., 52<br />

Kommunikations., 49<br />

Kommunikationss., 48<br />

Navigationss., 51<br />

Wetters., 48<br />

Saturn, 258<br />

Saturn V, 59, 60<br />

Sauerstoff, 259<br />

SBUV, 203<br />

Scanning Multi-Channel Radiometer, 146, 147<br />

Scanning Multichannel Microwave Radiometer,<br />

143<br />

Scanning Radiometer, 203, 204<br />

Scatterometer, 149, 152, 154<br />

passic, 154<br />

Schubkraft, 56, 57<br />

Schwarz–Weiß-Film, 12<br />

Schwarz-Weiß-Film, 95, 97<br />

panchromatisch, 97<br />

schwarzer Körper, 132<br />

schwarzer Strahler, 133<br />

Schwerebeschleunigung, 41<br />

SCIAMACHY, 161, 163, 207<br />

Sciamachy, 161<br />

Sea Floor Mapping, 151, 152<br />

SeaSat, 45, 53, 148–152, 158, 210, 211<br />

SeaWinds, 153<br />

SEC-Vidicon, 115<br />

secondary electron, 268<br />

secondary electrons, 264<br />

Sekundärelektronenverfielfacher, 115<br />

SEM, 8, 44, 204, 222<br />

SEM-2, 88, 203, 205, 222<br />

Sender-Entropie, 310<br />

Sensorklassen, 92<br />

SEVIRI, 201<br />

Shannon Codierung, 304<br />

Shannon’sches Sampling Theorem, 295<br />

Shannon-Funktion, 287, 311<br />

Shannon-Grenze, 312<br />

Sierpinsky-Dreieck, 351, 352<br />

Signal, 283, 284<br />

Signal-Rausch-Verhältnis, 309, 311, 321, 322<br />

Signalklasse, 283<br />

Signalverdoppelung, 313<br />

SIR-A, 148<br />

SIR-C/X-SAR, 172<br />

SkyLab, 12, 40, 95, 97, 108, 149, 250<br />

SLIMCAT/TOMCAT model, 266<br />

SLRAR, 148<br />

SMM, 38, 40, 52, 224, 228, 246, 249, 250<br />

SMMR, 143, 146, 147<br />

Sobel-Operator, 343<br />

SOHO, 52, 68, 239, 243, 250, 251<br />

Sojus, 79<br />

Solar A, 53<br />

solar cycle, 273<br />

solar energetic particle, 261, 275<br />

energy spectra, 267<br />

solar energetic particle event<br />

ozone depletion, 261<br />

Solar Maximum Mission, 40, 52, 224, 250<br />

Solar Proton Monitor, 204<br />

Solarkonstante, 223, 224, 226–229<br />

SolarMax, 40, 250<br />

Solarzyklus, 226, 228<br />

SolWind P78-1, 8<br />

Solwind P78-1, 52<br />

Sonnenfleck, 223, 227–229<br />

Sonnensegel, 67<br />

sonnensynchrone Bahn, 43, 45, 47<br />

Sonnenwind, 36, 87, 89, 255<br />

Sounder, 159<br />

Limb, 207<br />

Streuung, 207<br />

Space Environment Monitor, 8, 44, 88, 204<br />

space loss, 322<br />

Space Shuttle, 63, 89, 95, 112, 148, 211<br />

SpaceLab, 97<br />

Spacelab, 95<br />

specific energy loss, 263<br />

spectral index, 267<br />

spektrale Empfindlichkeit<br />

Farbfilm, 102<br />

Infrarotarbfilm, 102<br />

MSS, 123<br />

TM, 123, 124<br />

Spiegelobjektiv, 97, 107<br />

Spinning Enhanced Visible and Infrared Imager,<br />

201<br />

Spinstabilisierung, 54, 55<br />

SPM, 204<br />

SPOT, 12, 13, 16, 31, 45, 53, 81, 109, 111, 116,<br />

120, 121, 127, 135, 157, 198, 210<br />

SPOT 4, 119<br />

SPOT 5, 5, 109, 119, 120, 174<br />

c○ M.-B. Kallenrode 2. Juli 2008


424 INDEX<br />

Spurengas<br />

treibhauswirksam, 224<br />

Spurengase, 83, 162<br />

treibhauswirksame, 162, 163<br />

Sputnik 1, 11, 38, 90<br />

Sputnik 2, 39, 40, 42<br />

SR, 203, 204<br />

Störbeschleunigung, 33, 35<br />

Störungsintensität, 315<br />

Stabilisierung<br />

Drei-Achsen-S., 54<br />

passive, 54<br />

Spin, 54<br />

Spins., 55<br />

Standardsignal, 284<br />

Startfenster, 67, 75<br />

Startort, 31<br />

Stefan–Boltzmann Gesetz, 132, 133, 223<br />

Stefan–Boltzmann-Gesetz, 131<br />

Stefan-Boltzmann Gesetz, 133<br />

Stereo, 69, 250, 251<br />

Stickstoff, 259<br />

Stoßparameter, 76<br />

Stockwerkstruktur, 83<br />

Strömungswiderstandskoeffizient, 38<br />

Strahlenbelastung, 88, 89<br />

Strahlungsdruck, 35<br />

Strahlungsgürtel, 87, 88<br />

Strahlungsgesetz, 131, 132<br />

Strahlungstemperatur, 182<br />

Stratopause, 83<br />

Stratosphäre, 83<br />

Stratospheric Aerosol Measurement, 160, 161,<br />

163<br />

Streifenkamera, 95, 96, 119<br />

Streuung, 102, 160<br />

Atmosphäre, 334, 335<br />

SWAMI, 9<br />

Swath Width, 19, 109, 111<br />

SWH, 152<br />

Swing By, 74–76<br />

Symbolstatistik, 302<br />

Syncom, 55<br />

Syndrom Decodierung, 319<br />

Syndrom-Decodierung, 318<br />

Synthetic Aperture Radar, 149, 155<br />

Szintillation, 112<br />

Szintillationszähler, 234<br />

Szintillator, 246, 248<br />

Tauben, 10<br />

TDRS, 280<br />

Telekonnektion, 185<br />

Telemetrie-/Telekommando-Strecke, 280<br />

Television and Infra-Red Observation Satellite,<br />

11<br />

Television Infrared Oberservation Satellite, 202<br />

Temperatur<br />

Hochatmosphäre, 37<br />

Temperature Humidity Infrared Radiometer,<br />

138<br />

Terra, 16, 21, 45, 53, 163, 169, 179, 216–220<br />

TerraSAR, 45, 91, 206<br />

TerraSAR-L, 158, 210<br />

TerraSAR-X, 157, 210<br />

TerraSat, 148, 280<br />

TES, 220<br />

Thematic Mapper, 121–124, 199<br />

THEMIS, 130<br />

thermisches Auflösungsvermögen, 92<br />

Thermosphäre, 84<br />

THIR, 138<br />

Tiefpass, 333<br />

Time-of-Flight, 242<br />

TIR, 137, 169<br />

TIROS, 11, 94, 202, 203<br />

TIROS 1, 203<br />

TIROS 10, 203<br />

TIROS 9, 55, 204<br />

TIROS I, 55, 94<br />

TIROS M, 204<br />

TIROS N, 94, 204<br />

TIROS Operational Satellite, 204<br />

TIROS Operational Vertical Sounder, 204<br />

TIROS-N, 129<br />

TM, 111, 122–124, 127, 128, 137, 138, 157,<br />

180, 199, 200, 335<br />

Einzelbilder, 125<br />

TOMS, 7, 161, 164<br />

TOS, 204<br />

TOS 3, 204<br />

Total Ozon Mapping Spectrometer, 164<br />

TOVS, 12<br />

TRACER, 163<br />

Tracking and Data Relay System, 280<br />

Transferbahn, 56, 63<br />

Transformations-Codierungsverfahren, 349<br />

Transinformation, 310<br />

Treibhauseffekt, 135, 224<br />

natürlich, 223<br />

treibhauswirksame Spurengase, 86<br />

Trigramm-Häufigkeit, 292<br />

Trigramm-Häufigkeiten, 292<br />

Trigramm-Struktur, 293<br />

Trojaner, 73<br />

Tropopause, 83, 162<br />

Troposphäre, 83, 162<br />

Tropospheric Radiometer for Atmospheric Che-<br />

2. Juli 2008 c○ M.-B. Kallenrode


INDEX 425<br />

mistry and Environmental Research,<br />

163<br />

Tschernobyl, 139<br />

TV-NA, 203<br />

TV-WA, 203<br />

TVOS, 204<br />

U2, 11, 12<br />

Ubar, 171<br />

Ulysses, 63, 64, 76, 77, 240, 256<br />

Umlaufzeit, 31<br />

siderisch, 257<br />

synodisch, 257<br />

untere Grenze, 40<br />

Uplink, 91<br />

Uranus, 258<br />

UV-Photographie, 98<br />

UVSP, 250<br />

Vanguard 2, 37<br />

VEEGA, 77<br />

Vegetation<br />

Flaschfarben, 101<br />

Vegetationsindex, 174, 175<br />

Venera 1, 260<br />

Venus, 224, 257–259<br />

Venus-Earth-Earth gravity assist, 77<br />

Verbundwahrscheinlichkeit, 291<br />

Verdrängung, 127<br />

Verfahren der größten Wahrscheinlichkeit, 345<br />

Versuchsausgang, 284<br />

Very High Resolution Radiometer, 204<br />

VHRR, 204<br />

Video-Kamera, 94<br />

Videokamera, 11, 113, 115, 117, 203, 259, 277<br />

LandSat, 116<br />

Vidicon, 115<br />

Viking, 116<br />

Visible and Infrared Spin Scan Radiometer,<br />

201<br />

VISSR, 201<br />

Vorbeiflieger, 259<br />

Vorwärtskompensation, 112<br />

Voyager, 65, 74–76, 117<br />

Wüstenbildung, 147<br />

Wahrscheinlichkeit, 284<br />

Wasserdampf, 83, 259<br />

Wasserstoff, 259<br />

Wechselstromanteil, 349<br />

Weitschweifigkeit, 289<br />

Wellenhöhe<br />

signifikante, 152<br />

Weltraumschrott, 36<br />

Weltraumwetter, 8<br />

Wettersatellit, 44, 48<br />

Wetterschicht, 83<br />

WFC, 221<br />

Widerstandsbeiwert, 38, 57<br />

Wien’sches Verschiebungsgesetz, 131, 133<br />

Wien’sches verschiebungsgesetz, 132<br />

WIND, 52<br />

WindSat, 154<br />

Winkelauflösungsvermögen, 106, 107<br />

Wirkungsgrad, 58, 59<br />

äußerer, 58, 59<br />

innerer, 58<br />

WLAN-Ortung, 51<br />

WorldView, 5<br />

Yokoh, 53<br />

Zeichen, 283, 284<br />

Zeichenhierarchie, 283<br />

Zeichenkette, 305<br />

Zeiss-Kamera, 97<br />

zeitliches Auflösungsvermögen, 92<br />

Zenit, 93<br />

Zentrifugalkraft, 69<br />

ZIP, 307, 348<br />

ZOO, 307<br />

Zweikörperproblem<br />

eingeschränkt, 24, 25<br />

c○ M.-B. Kallenrode 2. Juli 2008

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!