06.11.2013 Aufrufe

Bachelorarbeit - Institut für Photogrammetrie und GeoInformation

Bachelorarbeit - Institut für Photogrammetrie und GeoInformation

Bachelorarbeit - Institut für Photogrammetrie und GeoInformation

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

1.1.1.1<br />

Studienarbeit <strong>für</strong><br />

Wu, Dun<br />

Bearbeitung von IKONOS-Stereomodellen<br />

Nur in wenigen Gebieten der Erde gibt es hochauflösende Höhenmodelle.<br />

Eine Möglichkeit zur Generierung ist der Einsatz sehr hoch auflösender<br />

optischer Weltraumbilder. Leider ist die Anzahl von IKONOS- oder<br />

QuickBird-Stereomodellen, die von der gleichen Umlaufbahn aus<br />

aufgenommen wurden, begrenzt. Es gibt aber eine größere Anzahl von<br />

Gebieten, die mit gewissen Zeitabständen mehrfach aufgenommen wurden.<br />

Vom Testgebiet Zonguldak liegen vier IKONOS-Aufnahmen vor, von denen<br />

sich drei ausreichend überlappen.<br />

Von zwei IKONOS-Aufnahmen liegt die Bildorientierung bereits vor. Die<br />

benutzten Passpunkte sollen auf die beiden noch nicht orientierten Aufnahmen<br />

übertragen werden. Verschiedene Arten der Bildorientierung sind miteinander<br />

zu vergleichen.<br />

Mit einer möglichst gut geeigneten Bildkombination soll ein Höhenmodell<br />

durch automatische Bildzuordnung mit dem Programm DPCOR erstellt <strong>und</strong><br />

untersucht werden.


Inhaltsverzeichnis<br />

1. Einleitung 3<br />

2. IKONOS 4<br />

2.1 Satelliten .........................................................................................4<br />

2.2 Geometrie der Satellitenbildern......................................................5<br />

3 Äußere Orientierung der Satellitenbilder 8<br />

3.1 Bildkoordinaten der Passpunkten zu bestimmen............................8<br />

3.2 Geometrische Rekonstruktion der Satellitenbilder.........................9<br />

3.3 Vergleich der verschiedenen Methode <strong>für</strong> die äußere Orientierung<br />

.............................................................................................................13<br />

4 Bildzuordnung 17<br />

4.1 Grauwertbasierte Zuordnung........................................................18<br />

4.1.1 Korrelation...........................................................................18<br />

4.1.2 Intensitätsbasierte Kleinste-Quadrate-Schätzung................19<br />

4.2 Merkmalsbasierte Zuordnung.......................................................20<br />

4.3 Bildzuordnungsprüfung der Bilder von IKONOS Geo ................20<br />

5 Herstellung eines digitalen Höhenmodell(DHM) 25<br />

5.1 Digitales Höhenmodell (DHM) ...........................................25<br />

5.2 DHM-Herstellung mit CARTERRA Geo Bilderpaar...................26<br />

5.2.1 Stereobilderpaar ...................................................................26<br />

5.2.2 Digital Höhemodel...............................................................26<br />

6 Literaturverzeichnis 30


1. Einleitung<br />

In China gibt es ein bekanntes Sprichwort,“ Ein Bild sagt mehr als 1000 Worte“.<br />

Mit der Entwicklung der modernen Fernerk<strong>und</strong>ungstechnologie kann die<br />

Auflösung der Satellitenbilder weniger Meter erreichen. Beispielweise sind die<br />

Auflösungen von IKONOS panchromatischen Bilder 1 m, <strong>und</strong> von Quickbird<br />

0.6m. Diese Fernerk<strong>und</strong>ung Satelliten kann sehr detailliert die Informationen<br />

der Erdoberfläche aufnehmen, kann menge lebendige hochauflösende digitale<br />

Satellitenbilder vor uns ausstellen. Es ist andere Messmethode unvergleichbar.<br />

Aber wie sehr effektiv, genau <strong>und</strong> viel wie möglich aus diesen Satellitenbilder<br />

die wertvolle Informationen auswerten, ist genau die Studienbereich <strong>für</strong><br />

Photogrametrie <strong>und</strong> Fernerk<strong>und</strong>ung.<br />

Ziel der Studienarbeit war es, mit den von IPI entwickelten Programme zur<br />

Analyse der geometrischen Eigenschaft der Satellitenbilder IKONOS Geo, <strong>und</strong><br />

auch zur Erzeugung <strong>und</strong> Generierung eines digitalen Höhenmodell mit den<br />

Satellitenbilder als ein <strong>Photogrammetrie</strong>sprodukt. Davon bekommt man<br />

manche Erfahrung in der Bereich von <strong>Photogrammetrie</strong> <strong>und</strong> Fernerk<strong>und</strong>ung.


2. IKONOS<br />

2.1 Satelliten<br />

Bild-1. Satellite von IKONOS<br />

IKONOS bedeutet ‚Bild’ in der lateinische Sprache. Unter dem Namen<br />

IKONOS-1 startete der Satellit am 27.4.1999 von der Air Force Basis<br />

Vandenberg aus. Der Trägerrakete Athena II gelang es jedoch nicht, das<br />

System in den Orbit zu bringen. Der Zwillingssatellit IKONOS-2 wurde aber am<br />

24.9.1999 von Vandenberg aus erfolgreich in seinen Orbit gebracht. IKONOS<br />

fliegt auf einer Höhe von 681 km auf einem fast-polaren sonnensynchronen<br />

Orbit. Das System ist in der Lage, seine Aufnahmesysteme um bis zu 30° in<br />

jede Richtung zu drehen <strong>und</strong> kann somit auch Bilder neben seiner Bahn<br />

aufnehmen. Dadurch wird die Wiederholrate der Aufnahmen <strong>für</strong> Bereiche um<br />

den 40sten Breitengrad von 2,9 Tage bei einem Meter Auflösung auf 1,5 Tage<br />

bei 1,5 Meter Auflösung (aufgr<strong>und</strong> der Schrägsicht auf das Aufnahmegebiet<br />

verschlechtert sich die Auflösung) reduziert. Die Daten werden alle im X-Band<br />

mit einer Geschwindigkeit von 320 MBit/s übertragen (nach KRAMER 1996 S.<br />

61-62 <strong>und</strong> http://www.spaceimaging.com).<br />

IKONOS ist mit zwei Sensoren ausgestattet (panchromatisch mit 1m <strong>und</strong><br />

multispektral mit 4m Bodenauflösung), die unabhängig voneinander sowohl in


Flugrichtung (in-track tilt) als auch quer dazu (cross-track tilt) verschwenkt<br />

werden können. Dadurch können einerseits hohe Wiederholraten erzielt<br />

werden, andererseits ermöglicht dies die Abdeckung von Flächen mit der<br />

mehrfachen Streifenbreite oder die Erzeugung von Stereoaufnahmen während<br />

eines Überflugs.<br />

Bild-2.<br />

Die Kamera an Bord von IKONOS ist ein kleines Kunstwerk. Kamera <strong>und</strong><br />

Teleskop wiegen zusammen nur 170 Kg. Das Teleskop hat eine Brennweite<br />

von 10 Metern <strong>und</strong> einem Lichtfaktor von f 14,3 ,<strong>und</strong> ist bei diesen Werten<br />

nicht ganz 2 Meter lang. Der Hauptspiegel hat einen Durchmesser von 0,7<br />

Meter. Die Kamera hat zwei verschiedene Sensoren: einen einfarben-Sensor<br />

mit 13.500 Pixeln, <strong>und</strong> einen mehrfarben-Sensor mit 3375 Pixeln. Damit<br />

lassen sich, aus der Umlaufbahn von 680 km Höhe, einfarbige Bilder mit<br />

einem Meter pro Pixel, <strong>und</strong> Mehrfarbenbilder mit 4 Meter pro Pixel aufnehmen.<br />

In beiden Fällen sind die Pixel allesamt nebeneinander angebracht. Ein Bild<br />

entsteht, da sich der Satellit auf seiner Umlaufbahn bewegt, <strong>und</strong> die Sensoren<br />

alle x Microsek<strong>und</strong>en eine neue Linie aufnehmen.<br />

2.2 Geometrie der Satellitenbildern<br />

Space Imaging unterteilt seine Produktpalette <strong>für</strong> den Satelliten in fünf<br />

Kategorien, die sich in der Lagegenauigkeit der Pixel unterscheiden.<br />

Angegeben wird hierbei, wieviel Prozent der Pixel sich innerhalb eines Kreises<br />

mit einem vorgegeben Radius befinden. Beispielsweise besagt die


Bezeichnung 90 CE (= Circular Error) 50m, daß 90 Prozent der abgebildeten<br />

Pixel in der Realität innerhalb eines Kreises mit 50m Radius liegen.<br />

CARTERRA Geo<br />

ist eine geometrisch korrigierte Szene, die in einer wählbaren<br />

Kartenprojektion vorliegt. Aufnahmebedingte Verzerrungen sind ohne<br />

Berücksichtigung der Objekthöhe korrigiert.<br />

CARTERRA Reference<br />

bietet eine orthorektifizierte Aufnahme an, bei der Paßpunkte nicht<br />

berücksichtigt werden.<br />

CARTERRA Pro<br />

bietet genau wie CARTERRA Reference eine orthorektifizierte<br />

Aufnahme an, ohne die Berücksichtigung von Paßpunkten, allerdings<br />

mit höherer Lagegenauigkeit.<br />

CARTERRA Precision<br />

verwendet vom Nutzer zu liefernde Paßpunkte zur Orthorektifizierung.<br />

CARTERRA Precision Plus<br />

verwendet ebenfalls vom Nutzer zu liefernde Paßpunkte zur<br />

Orthorektifizierung; verfügt aber über höhere Lagegenauigkeit.<br />

In dem Test wurden zwei Satellitenbilder von CARTERRA Geo verwendet.<br />

Diese Geo-Produkte wurden zu einer Ebene korrigiert , die parallel zum<br />

Ellipsoid der Erde. Die Georeferenzierung basiert auf der direkten<br />

Sensororientierung von IKONOS, die durch die Kombination von GPS,<br />

Inertialsystemen <strong>und</strong> Sternensensoren ermittelt wird. Die Geometrie dieser<br />

korrigierten Bildern ist von die lokale Höhedifferenz (dh) gegen der korrigierte<br />

Ebene beeinflusst , die eine Verschiebung (dL) verursacht. Aber in der<br />

Metadatei , die mit dem Satellitenbild mitkommt , steht die Information, nämlich<br />

‚nominal collection azimuth’, <strong>und</strong> ‚nominal collection elevation’. An Hand von<br />

diesen horizontalen <strong>und</strong> vertikalen Richtungen relativ zum Zentrum der Szene<br />

<strong>und</strong> die bekannte Information der Satellitenbahn kann die<br />

Beobachtungsrichtung jedes Punkts in der Szene berechnet werden.<br />

Bild-3.<br />

Die Verschiebung dieser<br />

Geobilder kann durch ein<br />

digitale Elevation Model (DEM)<br />

korrigiert werden , zur<br />

Herstellung von Orthobilder.


Tabelle-1. Technische Merkmale von IKONOS 2.<br />

(Quelle: www.spaceimaging.com)<br />

Startdatum 24.09.1999<br />

Geplante Betriebsdauer<br />

5-7 Jahre<br />

Geometrische multispektral<br />

4m<br />

Auflösung panchromatisch 1m<br />

Radiometrische multispektral<br />

11bit<br />

Auflösung panchromatisch 11bit<br />

Kanal 1 (Blau)<br />

445-516nm<br />

Kanal 2 (Grün)<br />

506-595nm<br />

Spektralbänder Kanal 3 (Rot)<br />

632-698nm<br />

Kanal 4 (NIR)<br />

757-853nm<br />

Kanal 5 (pan)<br />

450-900nm<br />

Schwadbreite nominal 13km<br />

Szenengröße Bildgröße<br />

11 x 11km<br />

Streifenabbildung<br />

Höhe<br />

11km Streifen bis 1000km<br />

681km (nominal)<br />

Inklination 98,1<br />

Geschwindigkeit<br />

7km/s<br />

Äquatorüberflug<br />

10:30 UTM<br />

max. Schwenkwinkel<br />

max. Schwenkzeit 26<br />

Orbitinformationen<br />

Repetition<br />

< 50 s<br />

2,9 Tage bei 1m Auflösung<br />

Umlaufzeit<br />

1,5 Tage bei 1,5m<br />

Auflösung<br />

bei 40° geographischer<br />

Breite<br />

98 Minuten,<br />

sonnensynchron


3 Äußere Orientierung der Satellitenbilder<br />

Normalerweise ist eine äußere Orientierung die Orientierung des<br />

Bildkoordinatensystems von Einzelbildern nach Lage <strong>und</strong> Richtung im<br />

Objektkoordinatensystem. Sie bestimmt die Lage des Bildhauptpunktes in<br />

einem räumlichen Koordinatensystem <strong>und</strong> ist Bestandteil der absoluten<br />

Orientierung. Die zu bestimmenden 6 Elemente der äußeren Orientierung<br />

eines Messbildes sind die 3 Koordinaten des Aufnahmeortes (Projektionszentrum)<br />

<strong>und</strong> 3 Orientierungswinkel des Bildkoordinatensystems.<br />

Bei der äußere Orientierung des Produkts CARTERRA Geo ist andere Fall.<br />

Weil CARTERRA Geo eine geometrisch korrigierte Szene ist, die in einer<br />

wählbaren Kartenprojektion vorliegt. Aufnahmebedingte Verzerrungen sind<br />

ohne Berücksichtigung der Objekthöhe korrigiert. Für die äußere Orientierung<br />

können mit verschiedene mathematische Methode durchgeführt werden.<br />

3.1 Bildkoordinaten der Passpunkten zu bestimmen<br />

Das Genauigkeitspotential der hochauflösende Satellitenbilder ist möglich zu<br />

dem Sub-Pixel Bereich. Um dieser möglich Systemsgenauigkeit zu erreichen,<br />

sind die gut definierte Passpunkte notwendig. Zur Bestimmung der<br />

Passpunkten in der Testbilder wurde das Programm DPLX verwendet. DPLX<br />

war <strong>für</strong> die präzise Bestimmung der Bildkoordinaten entwickelt. Weil die<br />

Satellitenbilder sehr groß sind , können sie nicht direkt in dem Kernspeicher<br />

des Computers behandelt werden , auf dem gr<strong>und</strong> arbeitet DPLX mit<br />

übersichte Bilder.<br />

Bei der Studienarbeit sind vier Satellitenbilder vorhanden. Dazwischen sind<br />

die Bildkoordinaten der Passpunkte von Zwei schon bestimmt sind. Sie haben<br />

gleiche Passpunktesdatei, in den die Objektkoordinaten der Passpunkte steht.<br />

Die Bildkoordinaten der Passpunkte von andere zwei Satellitenbilder<br />

brauchten zu bestimmen. Wir nennen zwei brauchen zu messende Bilder als<br />

SI1 <strong>und</strong> SI2 (Tabelle-2) <strong>und</strong> zwei gemessene Bilder als IK1 <strong>und</strong> IK2. Zuerst


‚Check in’ , dadurch konnte zwei neue Bilderdatei (overview image)erzeugt<br />

werden. SI1 <strong>und</strong> IK1 wurden gleichzeitig als Linksbild <strong>und</strong> Rechtsbild<br />

eingelesen. Die Passpunkte sind in IK1 mit rot Symbol markiert. Dann suchen<br />

wir die homologe Punkte der Passpunkte in SI1. Weil die zwei Bilder in<br />

unschiedliche Zeit <strong>und</strong> mit verschiedene Richtung aufgenommen sind, auch<br />

das Überlappungsproblem, konnte man nicht jeder Passpunkt in SI1<br />

finden ,oder genau gemessen. Aber normalerweise sollte man mehr Punkte<br />

wie möglich genau messen. Nach dieser Situation wurden 19 Passpunkte in<br />

SI1 <strong>und</strong> nur 8 Passpunkte in SI2 gemessen.<br />

Tabelle-2. Bilderinformation von IKONOS Geo in der Gebiet Zonguldak (Türkei)<br />

Zonguldak Test Scene 1 Zonguldak Test Scene 2<br />

Creation Date 06.11.2004 06.11.2004<br />

Sun Angle Azimuth 144.8376 0 129.9217 0<br />

Sun Angle<br />

Elevation<br />

45.48917 0 65.61687 0<br />

Sensor Name IKONOS-2 IKONOS-2<br />

Scan Azimuth 179.96 180.04<br />

Scan Direction Reverse Reverse<br />

GSD(Cross/Along) 0.83m/0.83m 0.83m/0.83m<br />

3.2 Geometrische Rekonstruktion der Satellitenbilder<br />

Weil die Metadata-Datei enthalt die genug Informationen, nämlich nominale<br />

Kollektionselevation, nominale Kollektionsazimut <strong>und</strong> Referenzhöhen, <strong>und</strong><br />

auch die Satellitenbahn ist bekannt. Geometrische Rekonstruktion der<br />

Satellitenbilder kann deshalb durchgeführt werden.<br />

Basieren auf Pixelkoordinaten der Szene von das Bild CARTERRA Geo <strong>und</strong><br />

Passpunkte im Boden kann Programm CORIKON die Relation zwischen die<br />

Satellitenbilder <strong>und</strong> die nationale Netzkoordinaten ausrechnen. Folgender<br />

Inhalt ist mit dem Programm CORIKON <strong>und</strong> BLAN durch die<br />

Passpunktekoordinaten <strong>und</strong> Szeneinformation zu verbessern .Mittels dem<br />

Programm CORIKON braucht man die Passpunktens -koordinatendatei ,<br />

Bildkoordinatendatei <strong>und</strong> Metadata-datei.<br />

Formular-1.<br />

xij = A1<br />

+ A2<br />

⋅ X + A3<br />

⋅Y


y ij<br />

= A4<br />

+ A5<br />

⋅ X + A6<br />

⋅Y<br />

Für die geometrische Rekonstruktion mit dem Programm CORIKON kann man<br />

eine zwei dimensionale affine Transformation benutzt . A1~A6 sind die affine<br />

Parameter , die die affine Transformation von den Höhe korrigierte<br />

Szenenpunkten zu den Passpunkte. Für die Verbessungen <strong>für</strong> die nominale<br />

Kollektion Elevation <strong>und</strong> Azimut sind Passpunkte mit differenzielle Elevation<br />

auch <strong>für</strong> die lineare Korrektion von Z abhängig von den Y-Koordinaten<br />

notwendig.<br />

Die Ergebnisse <strong>für</strong> Zonguldak Test Szene1 <strong>und</strong> Szene2 zeigen in<br />

Tabelle-3 ,4 <strong>und</strong> Figur-2,3<br />

.<br />

Geomet r i sche Rekonst r ukt i on von Szene- 1<br />

2, 5<br />

2<br />

St andar da<br />

bwei chung<br />

1, 5<br />

1<br />

0, 5<br />

0<br />

1 2 3 4<br />

SX 1, 16 1, 04 1, 00 0, 99<br />

SY 2, 13 0, 73 0, 67 0, 63<br />

SX <br />

SY <br />

Tabelle-3.<br />

1- ohne unbekannte Parameter 2- nur Shift Parameter<br />

3- nur unbekannte Parameter 4- Affine mit auch Azimut <strong>und</strong> Elevation<br />

Nach dem Lauf von CORIKON wird der Verschiebungsfehler korrigiert, <strong>und</strong> die<br />

Passpunkte Koordinaten wird nach der Ausgleichung <strong>für</strong> der Bild verbessert.<br />

Die korrigierte Objektkoordinaten der Passpunkte wurde in der Datei<br />

‚dares.dat’ gespeichert ,<strong>und</strong> die Daten <strong>für</strong> Ortho- <strong>und</strong> DEM-Model wurde in der<br />

Datei ‚ikoort.dat’ gespeichert.<br />

CORIKON erzeugt eine Datei ‚bluinf.dat’ <strong>für</strong> die Datentransformation bei dem<br />

Programm BLAN. Nach dem Lauf von BLAN kann eine Datei ‚blplot.blt’<br />

erzeugen. Dadurch kann die Standardabweichung der Passpunkte graphisch<br />

dastellen. So kann man das mit verschiedene Parameter berechnete Ergebnis<br />

deutlich sehen.


Bild-4:<br />

1- Keine Unbekannte Parameter 2-Nur Shift Parmameter<br />

3-Nur Affine Parameter<br />

4-Affine mit auch Azimut <strong>und</strong> Elevation<br />

Durch dem Test kann man abschließen, dass bei der geometrischen<br />

Rekonstruktion ohne unbekannte Parameter die Abweichungen der<br />

Passpunkte in der Y-Richtung von SI1 <strong>und</strong> in der X-Richtung von SI2 etwa<br />

systematische Probleme zeigen. Nach der Ausgleichung sind die Ergebnisse,<br />

in der der systematische Fehler der Richtung enthalten, viel verbessert. Für<br />

SI1 mit nur Shift Parameter wieder auszugleichen, wurde das Ergebnis<br />

deutlich verbessert, besonders <strong>für</strong> die Y-Koordinaten. Nach den mehr<br />

unbekannte Parameter angesetzt werden, nämlich alle 6 affine Parameter als<br />

unbekannte, <strong>und</strong> noch Azimut <strong>und</strong> Elevation als unbekannte Parameter<br />

addiert werden, zeigte die Ergebnisse nur wenig Verbesserungen.<br />

Aber <strong>für</strong> SI2 mit allen affinen Parameter wurden die Ergebnisse erst deutlich<br />

verbessert. Wir sollen nach verschiedenen Situationen die unbekannte<br />

Parameter wählen. Normalerweise in der Ausgleichung <strong>für</strong> die Verbesserung


der Geometrie von IKONOS Geo wird oft zwei unbekannte Shift Parameter<br />

genug.<br />

Geomet r i sche Rekonst r ukt i on von Szene- 2<br />

3, 00<br />

St andar da<br />

bwei chung<br />

2, 00<br />

1, 00<br />

0, 00<br />

1 2 3 4<br />

SX 2, 82 2, 39 0, 69 0, 57<br />

SY 1, 29 1, 07 0, 82 0, 81<br />

SX <br />

SY <br />

Tabelle-3.<br />

1- ohne unbekannte Parameter 2- nur Shift Parameter<br />

3- nur unbekannte Parameter 4- Affine mit auch Azimut <strong>und</strong> Elevation<br />

Bild-5<br />

1- Keine Unbekannte Parameter 2-Nur Shift Parmameter<br />

3-Nur Affine Parameter<br />

4-Affine mit auch Azimut <strong>und</strong> Elevation


3.3 Vergleich der verschiedenen Methode <strong>für</strong> die äußere<br />

Orientierung<br />

In aller Regel ist es erwünscht , in vielen Fällen unbedingt erforderlich,<br />

Satellitenbilder geometrisch zu korrigieren, um die Verzerrungen durch das<br />

Aufnahme-System <strong>und</strong> das Geländerelief (Bild -1.) zu eliminieren <strong>und</strong> die<br />

Daten auf ein bestimmtes geodätisches Koordinatensystem bzw. einen<br />

Kartennetzentwurf einzupassen. Die Bestimmung der erforderlichen<br />

Transformationsgleichungen ist deshalb das zentrale Problem.<br />

Zur Lösung dieses Problems kommen zwei gr<strong>und</strong>sätzlich verschiedene Wege<br />

in Frage.<br />

Interpolationsverfahren verzichten auf eine geometrische Modellierung der<br />

Aufnahmegeometrie <strong>und</strong> setzen lediglich die Stetigkeit der Abbildung voraus.<br />

Aufgr<strong>und</strong> dieser Annahme werden die unbekannten Koordinaten eines Pixels<br />

im Referenzsystem durch Interpolation zwischen benachbarten Passpunkten<br />

berechnet. Zur Interpolation können verschiedene mathematische Ansätze<br />

benutzt werden, z.B. Polynomansätze oder Maschenweise Transformationen.<br />

Parametrische Verfahren versuchen dagegen, die Aufnahmegeometrie im<br />

Raum mathematisch zu modellieren. Dies erfordert die Kenntnis der Sensorgeometrie<br />

<strong>und</strong> der Raumlage bzw. Sensorbewegung. Geländehöhenunterschiede,<br />

die in einem Digitalen Geländemodell beschrieben sind, können<br />

dabei voll berücksichtigt werden. Dieses Vorgehen, das dem klassischen<br />

Verständnis der Photogrametrie folgt, benutzt wiederum Passpunkt, um den<br />

Bezug zum Referenzsystem herzustellen.<br />

Geometrische Rekonstruktion<br />

Test mit dem Programm CORIKON<br />

Die geometrische Rekonstruktion ist schon in (3.2) beschrieben. Für die<br />

geometrische Rekonstruktion sind die Sensorinformationen <strong>und</strong> der<br />

Raumlage notwendig. Man benutzt 2D-Affine Transformation, aber oft mit nur<br />

ein shift Parameter in X <strong>und</strong> Y kann eine gute genauigkeit erreichen. Es<br />

bedeutet, es braucht nur wenige Passpunkte <strong>für</strong> die Rekonstruktion.<br />

Rationale polynominale Koeffizient (rational polynominal coefficient<br />

RPCs)<br />

Test mit dem Programm RAPORI


Zur Bildauswertung braucht der auf Polynomen basierender Ansatz kein<br />

Kenntnis von Sensormodell. Es<br />

braucht nur allgemeines<br />

Sensormodell zur Verfügung,<br />

<strong>und</strong> ist sensorunabhängig.<br />

Weger der sehr gut Genauigkeit<br />

von RPC’s wird zur Auswertung<br />

hochauflösender Satellitendaten<br />

eingesetzt<br />

RPC’s werden von Vertreibern<br />

der Bilddaten aus der strengen<br />

Lösung abgeleitet, Zahl <strong>und</strong><br />

Bild-6.<br />

Form der benötigten Terme<br />

muss experimentell bestimmt<br />

werden. Eine strenge Lösung liefert die korrespondierende Koordinaten in<br />

dem Objekt- <strong>und</strong> Bildraum <strong>für</strong> ein regelmäßiges 3D Raster, <strong>und</strong> die<br />

Polynomkoeffizient werden durch Kleinste-Quadrate-Schätzung bestimmt.<br />

Formular-2.<br />

x<br />

mit<br />

P<br />

ij<br />

n1<br />

Pi<br />

1(<br />

X , Y,<br />

Z)<br />

j<br />

=<br />

P ( X , Y,<br />

Z)<br />

i2<br />

( X , Y,<br />

Z)<br />

j<br />

= a<br />

1<br />

j<br />

+ a<br />

+ a<br />

9<br />

15<br />

X<br />

Y<br />

2<br />

2<br />

2<br />

+ a<br />

y<br />

10<br />

ij<br />

3<br />

Z<br />

X + a<br />

16<br />

Pi<br />

3<br />

( X , Y,<br />

Z)<br />

j<br />

=<br />

P ( X , Y,<br />

Z)<br />

2<br />

X<br />

3<br />

i4<br />

2<br />

+ a Y + a X + a Z + a YX + a YZ + a XZ + a Y<br />

4<br />

11<br />

+ a<br />

17<br />

XZ<br />

5<br />

+ a YXZ + a<br />

2<br />

j<br />

12<br />

Y<br />

+ a<br />

3<br />

18<br />

6<br />

+ a<br />

Y<br />

2<br />

13<br />

YX<br />

Z + a<br />

7<br />

2<br />

19<br />

+ a<br />

X<br />

14<br />

2<br />

8<br />

YZ<br />

2<br />

Z + a<br />

20<br />

Z<br />

3<br />

Drei dimensionale affine Transformation (3D)<br />

Test mit dem Programm TRANS3D<br />

Für die 3D affine Transformation ist die Orientierungsinformation der Sensor<br />

nicht nötig. Wegen 8 unbekannten Parameter sind mindestens 4 gut<br />

verteilende Passpunkte erforderlich. Die Passpunkte können in verschieden<br />

Ebenen liegen. Die 3D-Transformation beruht auf eine parallele Projektion ,<br />

die annäherungsweise gültig in der Richtung der Satellitenbahn , nicht in der<br />

Richtung der CCD-Linie.<br />

Formular-3.<br />

x<br />

y<br />

ij<br />

ij<br />

= a<br />

1<br />

= a<br />

5<br />

+ a<br />

2<br />

+ a<br />

6<br />

⋅ X + a<br />

3<br />

⋅ X + a<br />

7<br />

⋅Y<br />

+ a<br />

4<br />

⋅Y<br />

+ a<br />

8<br />

⋅ Z<br />

⋅ Z


Direkt lineare Transformation ( DLT)<br />

Test mit dem Programm TRANS3D<br />

Die DLT beruhen auf einem perspektivischen Bildgeometrie, die nur in der<br />

Richtung der CCD-Line gültig ist. Es ist gleich wie 3D-affine Transformation ,<br />

dass es <strong>für</strong> die DLT keine vorgegebene Information notwendig ist. Die<br />

alternative Parametrisierung basiert auf die Kollinearitätsgleichung <strong>und</strong> affiner<br />

Transformation. Wegen der 11 Unbekannte <strong>für</strong> die Transformation sind<br />

mindestens 6 Passpunkte in dem Bild notwendig. Die Passpunkte dürfen nicht<br />

auf einer im Raum liegenden Ebene oder sehr nahe daran liegen. Weiterhin<br />

sollten diese Punkte genau genug bestimmt worden sein. Eventuelle<br />

Punktfehler werden nicht erkannt <strong>und</strong> können die DLT erheblich stören.<br />

Formular-4<br />

x<br />

y<br />

ij<br />

ij<br />

L1<br />

X + L2Y<br />

+ L3Z<br />

+ L4<br />

=<br />

L9<br />

X + L10Y<br />

+ L11Z<br />

+ 1<br />

L5<br />

X + L6Y<br />

+ L7Z<br />

+ L8<br />

=<br />

L X + L Y + L Z + 1<br />

9<br />

10<br />

11<br />

Weil die Verteilung der Passpunkte nicht identisch ist, zeigt die Korrelation<br />

Koeffizienten zwischen den Passpunkte sehr hoch. Bei DLT sind die RMSE<br />

von Checkpunkte sehr groß. DLT war deshalb nicht geeignet <strong>für</strong> den Test. Alle<br />

andere Methode sind mit unterschiedliche Passpunktesanzahl ausgetestet<br />

(Bild-6). Verursacht durch die Anzahl der unbekannten Parameter, bei der<br />

geometrische Konstruktion <strong>und</strong> RPC’s mit nur shift Parameter sind mindestens<br />

zwei Passpunkte gebraucht, mit affiner Parameter sind mindestens 3<br />

Passpunkte, <strong>und</strong> bei der 3D affine Transformation sind mindestens 4<br />

Passpunkte. Die RPC’s führt zu der besten Genauigkeit, aber mit den<br />

wenigsten Passpunkte. Es ist fast unabhängig von der Passpunktesanzahl.<br />

Das Ergebnis von geometrische Konstruktion, die mit affine Transformation<br />

durchgeführt wurden, zeigt auch eine gute Genauigkeit mit einer gleichen<br />

Anzahl wie RPC’s. Die Genauigkeit der 3D affinen Transformation sind nahe<br />

zur geometrische Konstruktion <strong>und</strong> RPC’s. Aber es gibt keine Justierung <strong>für</strong><br />

eine erforderliche große Passpunktesanzahl <strong>und</strong> die notwendige gute 3D<br />

Verteilung. Deswegen ist diese Methode nicht empfohlen.


Bild-6.<br />

Ergebnisse bei der unabhängig Checkpunkte <strong>für</strong> die unterschiedliche<br />

Orientierungsmethode als eine Funktion der Anzahl der Passpunkte


4 Bildzuordnung<br />

Erfassung der 3D-Objekte Koordinaten aus Luftbilder muss der Objekt in<br />

verschiedenen Bildern abgebildet werden. Die korrespondierende Punkte<br />

können gemessen werden. Durch der Rekonstruktion der Bildstrahlen kann<br />

3D Objektinformationen aus 2D Bilddaten abgeleitet werden.<br />

Bild-7. 3D Punktbestimmung<br />

Um die Erstellung eines DGM aus digitalen Bildern zu automatisieren, wurden<br />

Methoden der digitalen Bildzuordnung entwickelt <strong>und</strong> bereits erfolgreich<br />

angewandt. Dann was ist Bildzuordnung? Bildzuordnung ist ein Prozess der<br />

automatischen Identifizierung <strong>und</strong> Messung korrespondierender (homologer,<br />

identischer) Punkte in zwei oder mehr überlappenden Bildern. Dabei gibt es<br />

2 Haupt-methoden die grauwertbasierte Zuordnung <strong>und</strong> die merkmalsbasierte<br />

Zuordnung.


4.1 Grauwertbasierte Zuordnung<br />

Die grauwertbasierte Zuordnung basiert auf die Ähnlichkeit in zwei Bildern.<br />

Man extrahiere Maske aus Bild1 <strong>und</strong> suche ähnlichen Ausschnitt in Bild2<br />

(Bild-8). Zur Bestimmung der Ähnlichkeit von Grauwertmasken werden<br />

normalerweise zwei Methode Korrelation <strong>und</strong> Intensitätsbasierte<br />

Kleinste–Quadrate-Schätzung verwendet.<br />

Bild-8.<br />

4.1.1 Korrelation<br />

Normierter Kreuzkorrelationskoeffizient zur Bestimmung der Ähnlichkeit von<br />

Bildausschnitten.<br />

ρ Korrelationskoeffizient<br />

g '<br />

g '<br />

Grauwert des Referenzbildes<br />

Durchschnittlicher Grauwert<br />

des Referenzbildes<br />

g '' Grauwert des Suchbildes<br />

Formular-5.<br />

g '' Durchschnittlicher Grauwert<br />

des Suchbildes<br />

Das Prinzip ist so, der Ausschnitt des Referenzbildes g’ (Maske) wird über das<br />

zweite Bild g’’(Funktion) geschoben. Die Korrelationskoeffizient ρ zwischen<br />

Maske <strong>und</strong> Funktion wird <strong>für</strong> jede Position berechnet. Die beste<br />

Übereinstimmung von<br />

beiden Bilderausschnitten wird von der maximalen


Korrelation definiert.<br />

4.1.2 Intensitätsbasierte Kleinste-Quadrate-Schätzung<br />

Die Intensitätsbasierte Kleinste-Quadrate-Schätzung ist eine Erweiterung der<br />

Kreuzkorrelation. Die Blickrichtung <strong>und</strong> die Geländeneigung werden auch<br />

berücksichtigt. Die kleine Bildausschnitte können durch geeignete<br />

Transformation in Übereinstimmung gebracht werden, hierbei 6 geometrische<br />

Transformationsparameter (Affintransformationsparameter) <strong>und</strong> 2<br />

radiometrische Transformationsparameter (Helligkeit <strong>und</strong> Kontrast) können<br />

nach Methode der kleinsten Quadrate geschätzt werden.<br />

Formular-6.<br />

geometrische Transformation<br />

1<br />

Formular-7.<br />

⎛ x ⎞ ⎛ a1<br />

a2<br />

⎞ ⎛ x'<br />

⎞ ⎛a5<br />

⎞<br />

⎜ ⎟ =<br />

y<br />

⎜<br />

a3<br />

a<br />

⎟ ⋅ ⎜ ⎟ +<br />

4<br />

y'<br />

⎜<br />

a<br />

⎟<br />

⎝ ⎠ ⎝ ⎠ ⎝ ⎠ ⎝ 6 ⎠<br />

radiometrische Transformation<br />

I ( x',<br />

y')<br />

= r I<br />

1<br />

2<br />

( x,<br />

y)<br />

+ r<br />

Minimierung der Grauwertunterschiede durch<br />

Kleiste-Quadrate-Ausgleichung<br />

∑<br />

2<br />

( I − r I − r) min<br />

1 1 2<br />

⇒<br />

2<br />

Bild-9.


4.2 Merkmalsbasierte Zuordnung<br />

Bei der merkmalsbasierte Zuordnung werden anstatt Muster- <strong>und</strong><br />

Suchmatrizen ganze Merkmale als Objekte verwendet. Dabei wird zwischen<br />

Punkten, Kanten (Linien) <strong>und</strong> Regionen unterschieden. Die Merkmale werden<br />

aus den Grauwerten extrahiert, indem die Differenzen benachbarter<br />

Grauwerte gebildet werden.<br />

Merkmalsbasierte Verfahren bestehen aus zwei Hauptschritten. Zuerst wird<br />

die Extraktion von Merkmalen durchgeführt, danach werden die Markmalen<br />

zugeordnet. Zum ersten Schritt werden vor allem Punkte (mit guter Textur in<br />

zwei Richtungen, oder entlang Grauwertkanten) oder Kanten in allen Bildern<br />

mit Interest-Operator order Kanten-Detektoren extrahiert. Zum zweiten Schritt<br />

wird eine provisorische Liste von möglichen Matchpunkten erstellt. Dazu wird<br />

die Ähnlichkeit der Merkmalsattribute benutzt. Die Konsistenz der mehrfachen<br />

Lösungen wird überprüft <strong>und</strong> die beste Lösung gewählt.<br />

Bild-10<br />

Links: ein ausgewählter Punkt im<br />

Templatebild. Rechts: zwei<br />

gleich gute Zuordnungslösungen<br />

(mögliche Kandidaten). Welche<br />

ist die richtige Lösung?<br />

Überprüfung der Konsistenz der<br />

Zwei möglichen Lösungen 1’,1’’.<br />

Lösung 1’ ist konsistent mit den<br />

Lösungen der Nachbar vom<br />

Punkt 1, <strong>und</strong> deshalb wird sie<br />

gewählt.<br />

4.3 Bildzuordnungsprüfung der Bilder von IKONOS Geo<br />

Für die Herstellung der DEM wurden die automatische Bildzuordnung von<br />

Zwei Testbilder mit dem Programm DPCOR behandelt. Das Programm beruht<br />

auf der regionale wachsende Methode, <strong>und</strong> benutzt zuerst die manuelle<br />

gemessene Position als Anfangswert. Die korrespondierender Punkte sind von<br />

einer Bilderkombination mit der Methode von Korrelation <strong>und</strong> der kleinste


quadrate Schätzung berechnet. Die Bildzuordnung ist auf dem Bildraum<br />

durchgeführt. Anfang mit bekannte korrespondierende Punkte sind andere<br />

homologe Punkte in der Nachbarschaft identifiziert, <strong>und</strong> damit sind andere<br />

Punkte bis zu dem ganze Bild bestimmt. Diese Methode hat den Vorteil, dass<br />

eine Änderung <strong>für</strong> die spezielle Bildgeometrie nicht notwendig ist. Nach dem<br />

Bild-11 können wir wissen , dass die beide Satellitenbilder sehr unterschiedlich<br />

sind . Bei der Bildzuordnung habe ich deshalb viele Probleme getroffen. Für<br />

das Ergebnis kann man nicht zufrieden sein.<br />

2500<br />

Anzahl der Punkte<br />

2000<br />

1500<br />

1689<br />

2237 2280 2065<br />

1941<br />

1749<br />

1593 1491<br />

1315 11951115<br />

905<br />

1000<br />

500<br />

c<br />

751<br />

511<br />

363278198148<br />

122 80<br />

176<br />

0<br />

Bild-11 .<br />

0.95 0.90 0.80 0.70 0.60 0.50 0.40 0.30 0.20 0.10 0.00<br />

Koeffizient<br />

Die Frequenzverteilung der Korrelationskoeffizient<br />

Zwei Bildpaare (Bild-12), die von zwei IKONOS Geo Satellitenbilder<br />

ausgeschnitten wurden.<br />

linker Bild<br />

rechter Bild<br />

Bild-12.


Normalerweise kann eine automatische Bildzuordnung mittels die Ähnlichkeit<br />

zwei Bilder durchgeführt werden. In einer günstigen automatischen<br />

Bildzuordnung sind eine gute Objekttextur mit Variation des Grauwerts, eine<br />

glatte Objektoberfläche , <strong>und</strong> keine bewegende Objekte erforderlich.<br />

Bild-13<br />

Die Umgebung des<br />

rot markierte Passpunkten<br />

hat guter<br />

Kontrast. Die<br />

automatische Bildzuordnung<br />

konnte<br />

in dem Gebiet gut<br />

durchführen.<br />

Aber bei dem Test der automatische Bildzuordnung sind nur relative wenige<br />

homologen Punkte gef<strong>und</strong>en. Es wurden wegen folgenden Probleme<br />

beeinflusst.<br />

a) Wegen der Aufnahmezeit zeigen geometrische <strong>und</strong> radiometrische<br />

Unterschiede in der Bilderscheinung.<br />

Bild-14<br />

Der radiometrische<br />

Unterschied in den<br />

beiden Bilder ist<br />

deutlich. Ein weißes<br />

Gebäude in dem<br />

linken Bild erscheint<br />

gar nichts. Auch<br />

wegen der Jahreszeit<br />

zeigt Vegetation<br />

unterschliche Grauwerte.


) Wegen der Reflexionen zeigt ein radiometrische Unterschied in der<br />

Bilderscheinung.<br />

Bild-15.<br />

Wegen des Stoffs der<br />

Hausdache <strong>und</strong> der<br />

Aufnahmerichtung<br />

erscheint eine<br />

stärkere Reflexionen<br />

der Hausdache in dem<br />

rechten Bild, es<br />

verursacht sehr unterschiedliche<br />

Grauwert<br />

in den Bilder.<br />

c) Es fehlt an Objektteil in der Bilderscheinung.<br />

Bild-16.<br />

Wegen der Beleuchtungsrichtung<br />

der Sonne<br />

erscheint die Abdeckung<br />

<strong>und</strong> das Schatten in dem<br />

rechten Bilder sehr stark.<br />

In der Umgebung der<br />

Anfangspunkte zeigt ein<br />

sehr unterschiedliche<br />

Kontrast.


d) schlechte Kontrast<br />

Bild-17.<br />

Weil in der Rasenfläche<br />

gibt es immer eine<br />

schlechte Variation des<br />

Grauwerts, konnte die<br />

Bildzuordnung immer<br />

ungünstig in einer Rasenfläche<br />

durchgeführt.<br />

d) Verarbeitung der Bilder vor der Bildzuordnung.<br />

linker Bild<br />

rechter Bild<br />

Bild-17. gefilterte Bilder<br />

Weil ein gut Kontrast erforderlich bei der Bildzuordnung ist, probierten wir vor<br />

der Bildzuordnung, um den Kontrast der Bilder zu erhöhen. Im Test wurden<br />

das Programm „Photoshop 6.0“ verwendet. Die beide Bilder sind durch ein<br />

Filter „Hochpass“, den Photoshop liefert , verarbeitet. Danach wurde eine<br />

automatische Bildzuordnung mit den beiden gearbeitete Bilder wieder<br />

durchgeführt. Aber das Ergebnis ist nicht verbessert.


5 Herstellung eines digitalen Höhenmodell(DHM)<br />

5.1 Digitales Höhenmodell (DHM)<br />

Engl. digital elevation model (DEM); digitale Darstellung der Topographie,<br />

meist in Form eines regelmäßig angeordneten Punktrasters, in dem die<br />

einzelnen Punkte die Höhenwerte repräsentieren. Durch diese z-Werte sind<br />

eine dreidimensionale Darstellung <strong>und</strong> eine quantitative Analyse der<br />

Erdoberfläche möglich.<br />

DHMs werden in einer Vielzahl von Disziplinen benötigt. Einige Stichworte<br />

sollen das Anwendungsspektrum umreissen: hydrologische Modellierung,<br />

Wasserwirtschaft, GPS-Navigation, Planung terrestrischer Mobilfunknetze,<br />

Rohstoffexploration, Infrastrukturplanung, Planung von Großanlagen wie<br />

Flughäfen <strong>und</strong> Staudämmen, Militär, Flugführung, Katastrophenschutz,<br />

-vorsorge, Wetter- <strong>und</strong> Klimamodellierung, Geländekorrektur von<br />

Fernerk<strong>und</strong>ungsdaten durch Geokodierung u.w.<br />

Meist erfolgt die Erstellung von DHM durch Auswertung von Stereoaufnahmen<br />

optischer Systeme. Es ist gewöhnlich eine Luftbild-<strong>Photogrammetrie</strong>, die zwar<br />

hochwertige DHMs liefern, <strong>für</strong> globale Anwendungen aber zu langwierig <strong>und</strong><br />

aufwändig sind. Satellitengestützte optische Stereoverfahren andererseits sind<br />

auf wolkenlose Sicht angewiesen. Insbesondere gibt es ein Defizit an präzisen<br />

DHMs <strong>für</strong> Afrika, Asien <strong>und</strong> Südamerika. Aber auch <strong>für</strong> höher entwickelte<br />

Länder sind die derzeitigen digitalen Höhendaten häufig örtlich inhomogen, da<br />

aus unterschiedlichen Quellen stammend, mit unterschiedlichen Verfahren<br />

gewonnen oder auch auf unterschiedliche Referenzsysteme bezogen.


5.2 DHM-Herstellung mit CARTERRA Geo Bilderpaar<br />

5.2.1 Stereobilderpaar<br />

Ein Stereobildpaar ist ein <strong>für</strong> stereoskopische Auswertung geeignetes Bildpaar<br />

aus raumparallaktisch verschiedenen, jedoch weitgehend inhaltsgleichen<br />

Halbbildern. Der unten gezeigte Bild ist mit zwei Bilder zusammen eingesetzt,<br />

eines mit rote Farbe, andres mit grüne Farbe. Mit der Stereobrille sieht jedes<br />

Auge nur ein Bild. Jedes der beiden Bilder wird durch eine eigene Linse<br />

betrachtet, wobei die beiden Linsen schräg angeordnet sind, damit die Bilder<br />

zueinander verschoben werden. Als Ergebnis verschmelzen sie beim<br />

Betrachten zu einem dreidimensionalen Bild.<br />

Bild-18.<br />

5.2.2 Digital Höhemodel<br />

Gr<strong>und</strong>voraussetzung <strong>für</strong> die Generierung des DHMs ist die Bildzuordnung.<br />

Bei der Bildzuordnung wird zunächst in beiden stereoskopischen Bildern nach<br />

gemeinsamen Punkten gesucht <strong>und</strong> erhält Bildkoordinaten. Die<br />

Bildkoordinaten werden mit Hilfe der Kollinearitätsgleichung <strong>und</strong> der<br />

verbesserten äußeren Orientierung in 3D Objektpunkte umgewandelt. Aus


den Objektpunkten kann nun ein Raster mit 3D Koordinaten interpoliert<br />

werden.<br />

Bild-19.<br />

Darstellung der Höhe durch eine Konturfarbe.<br />

Herstellung des DHMs ist mit der Programme „BLPRE“ <strong>und</strong> „BASIC<br />

4.0“ durchgeführt. Bei dem Verfahren sind drei Datei notwendig. Die Datei<br />

„conj.pix“ wurde nach der automatische Bildzuordnung mit dem Programm<br />

DPCOR erzeugt. Die Datei enthalt die Information der Bildkoordinaten, die zu<br />

den durch die Bildzuordnung gef<strong>und</strong>ene homologen Punkte gehört. Man<br />

brauch noch zwei Datei, die unterschiedlich die Informationen der äußere<br />

Orientierung von zwei Bilder enthalt. Hier ist „ikonor3.dat“ <strong>und</strong> „ ikonor1.dat“.<br />

Durch das Programm „BLPRE“ kann die 3D-Objektkoordinaten aller<br />

gemeinsamen Punkten ausgerechnet werden <strong>und</strong> in die Datei<br />

„dem.dat“ speichern. Danach mit dem Programm „BISIC 4.0“ wurden andere<br />

gemeinsame Punkten nach dem eingesetzten Abstand interpoliert, <strong>und</strong> wurde<br />

eine graphische Datei „GITT.ima“ erzeugt (Bild-19, Bild-20).


Bild-19.<br />

3D Model<br />

In der oben erzeugte DHMs zeigt die Gelände sehr felsig. Er wurde vielleicht<br />

die Gebäude verursacht. Weil die Höhe sich von Gebäude zu Flachboden oder<br />

umgekehrt plötzlich groß änderte. Nach Filterung kann die Gelände in dem<br />

DHM eine glatte Änderung erscheinen(Bild-21).<br />

Bild-21.<br />

3D Model nach der Filterung


Um die Genauigkeit des DHMs, wurde ein Referenzhöhenmodel genommen,<br />

das aus SPOT Bilder hergestellt ist. Nach dem Vergleich ist die Untersiedhöhe<br />

etwa 6 m. Ein digitales Differenzhöhenmodel kann auch dadurch<br />

herstellen(Bild-22).<br />

Bild-22.<br />

Differenzhöhen- model zu dem Referenzhöhen-model.


6 Literaturverzeichnis<br />

Bücher:<br />

KRAUS, K., 1994: <strong>Photogrammetrie</strong>, Gr<strong>und</strong>lagen <strong>und</strong> Standardverfahren,<br />

Band 1, Dümmler Verlag, Bonn<br />

KRAUS, K., 1996: <strong>Photogrammetrie</strong>, Verfeinerte Methoden <strong>und</strong><br />

Anwendungen, Band 2, Dümmler Verlag, Bonn<br />

Jörg, A., 2001: Einführung in die Fernerk<strong>und</strong>ung, Gr<strong>und</strong>lagen der<br />

Interpretation von Luft- <strong>und</strong> Satellitenbildern, 2.,überarbeitete <strong>und</strong> erweiterte<br />

Auflage, Wissenschaftliche Buchgesellschaft, Darmstadt<br />

Schriftreihen:<br />

Jacobsen K., Mapping with IKONOS images, EARSeL, Prag 2002,<br />

“Geoinformation for European-wide Integration” Millpress ISBN 90-77017-71-2,<br />

pp 149 - 156<br />

Jacobsen K.: Orthoimages and DEMs by QuickBird and IKONOS, EARSeL<br />

Ghent 2003, Remote Sensing in Transition, Millpress, ISBN 90-77017-71-2,<br />

513 – 525<br />

Jacobsen K.: Geometric Potential of IKONOS- and QuickBird-Images, in D.<br />

Fritsch (Ed.) Photogrammetric Weeks ‘03, pp 101-110, Wichmann Verlag ISBN<br />

3-87907-397-X <strong>und</strong> GIS Geo-Informations-Systeme 9/2003, 33 - 39.<br />

Jacobsen K.: Mapping with IKONOS images, Proceedings of 22nd EARSeL<br />

Symposium, Prague, Tomas Benes (Ed.), Millpress Rotterdam, 149-156.


Jacobsen, K.: DEM Generation by SPOT HRSC: IntArchPhRS. Band XXXV,<br />

Teil B1. Istanbul, 2004, S. 439-444<br />

Passini, R. ; Jacobsen, K.: Accuracy analysis of digital orthophotos from very<br />

high resolution imagery: IntArchPhRS. Band XXXV, Teil B4. Istanbul, 2004, S.<br />

695-700<br />

Topan, H. ; Büyüksalih, G. ; Jacobsen, K.: Comparison of Information<br />

Contents of High Resolution Space Images: IntArchPhRS. Band XXXV, Teil B4.<br />

Istanbul, 2004, S. 583-588<br />

H. Eisenbeiss, E. Baltsavias, M. Pateraki, L. Zhang, O. Gut, O. Heller.:<br />

Das Potenzial von Ikonos <strong>und</strong> Quickbird-Bildern <strong>für</strong> die genaue<br />

3D-Punktbestimmung,Orthophoto- <strong>und</strong> DSMGenerierung<br />

Jacobsen, K., Büyüksalih, G., Sefercik, U., Büyüksalih, I. 2005:<br />

Geometric Conditons of Space Imagery for Mapping<br />

Jacobsen, K. , 2005: Comparative Analysis of Space Image Orientation<br />

Internet:<br />

<strong>Institut</strong> <strong>für</strong> <strong>Photogrammetrie</strong> <strong>und</strong> <strong>GeoInformation</strong> (IPI) der Universität<br />

Hannover<br />

http://www.ipi.uni-hannover.de/html/lehre/lehrveranstaltungen/ph-ii-v/<br />

<strong>Institut</strong> <strong>für</strong> <strong>Photogrammetrie</strong> der Universität Stuttgart<br />

http://www.ifp.uni-stuttgart.de/lehre/skripte.html<br />

Space Imaging, Inc.<br />

http://www.spaceimaging.com/

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!