Bachelorarbeit - Institut für Photogrammetrie und GeoInformation
Bachelorarbeit - Institut für Photogrammetrie und GeoInformation
Bachelorarbeit - Institut für Photogrammetrie und GeoInformation
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
1.1.1.1<br />
Studienarbeit <strong>für</strong><br />
Wu, Dun<br />
Bearbeitung von IKONOS-Stereomodellen<br />
Nur in wenigen Gebieten der Erde gibt es hochauflösende Höhenmodelle.<br />
Eine Möglichkeit zur Generierung ist der Einsatz sehr hoch auflösender<br />
optischer Weltraumbilder. Leider ist die Anzahl von IKONOS- oder<br />
QuickBird-Stereomodellen, die von der gleichen Umlaufbahn aus<br />
aufgenommen wurden, begrenzt. Es gibt aber eine größere Anzahl von<br />
Gebieten, die mit gewissen Zeitabständen mehrfach aufgenommen wurden.<br />
Vom Testgebiet Zonguldak liegen vier IKONOS-Aufnahmen vor, von denen<br />
sich drei ausreichend überlappen.<br />
Von zwei IKONOS-Aufnahmen liegt die Bildorientierung bereits vor. Die<br />
benutzten Passpunkte sollen auf die beiden noch nicht orientierten Aufnahmen<br />
übertragen werden. Verschiedene Arten der Bildorientierung sind miteinander<br />
zu vergleichen.<br />
Mit einer möglichst gut geeigneten Bildkombination soll ein Höhenmodell<br />
durch automatische Bildzuordnung mit dem Programm DPCOR erstellt <strong>und</strong><br />
untersucht werden.
Inhaltsverzeichnis<br />
1. Einleitung 3<br />
2. IKONOS 4<br />
2.1 Satelliten .........................................................................................4<br />
2.2 Geometrie der Satellitenbildern......................................................5<br />
3 Äußere Orientierung der Satellitenbilder 8<br />
3.1 Bildkoordinaten der Passpunkten zu bestimmen............................8<br />
3.2 Geometrische Rekonstruktion der Satellitenbilder.........................9<br />
3.3 Vergleich der verschiedenen Methode <strong>für</strong> die äußere Orientierung<br />
.............................................................................................................13<br />
4 Bildzuordnung 17<br />
4.1 Grauwertbasierte Zuordnung........................................................18<br />
4.1.1 Korrelation...........................................................................18<br />
4.1.2 Intensitätsbasierte Kleinste-Quadrate-Schätzung................19<br />
4.2 Merkmalsbasierte Zuordnung.......................................................20<br />
4.3 Bildzuordnungsprüfung der Bilder von IKONOS Geo ................20<br />
5 Herstellung eines digitalen Höhenmodell(DHM) 25<br />
5.1 Digitales Höhenmodell (DHM) ...........................................25<br />
5.2 DHM-Herstellung mit CARTERRA Geo Bilderpaar...................26<br />
5.2.1 Stereobilderpaar ...................................................................26<br />
5.2.2 Digital Höhemodel...............................................................26<br />
6 Literaturverzeichnis 30
1. Einleitung<br />
In China gibt es ein bekanntes Sprichwort,“ Ein Bild sagt mehr als 1000 Worte“.<br />
Mit der Entwicklung der modernen Fernerk<strong>und</strong>ungstechnologie kann die<br />
Auflösung der Satellitenbilder weniger Meter erreichen. Beispielweise sind die<br />
Auflösungen von IKONOS panchromatischen Bilder 1 m, <strong>und</strong> von Quickbird<br />
0.6m. Diese Fernerk<strong>und</strong>ung Satelliten kann sehr detailliert die Informationen<br />
der Erdoberfläche aufnehmen, kann menge lebendige hochauflösende digitale<br />
Satellitenbilder vor uns ausstellen. Es ist andere Messmethode unvergleichbar.<br />
Aber wie sehr effektiv, genau <strong>und</strong> viel wie möglich aus diesen Satellitenbilder<br />
die wertvolle Informationen auswerten, ist genau die Studienbereich <strong>für</strong><br />
Photogrametrie <strong>und</strong> Fernerk<strong>und</strong>ung.<br />
Ziel der Studienarbeit war es, mit den von IPI entwickelten Programme zur<br />
Analyse der geometrischen Eigenschaft der Satellitenbilder IKONOS Geo, <strong>und</strong><br />
auch zur Erzeugung <strong>und</strong> Generierung eines digitalen Höhenmodell mit den<br />
Satellitenbilder als ein <strong>Photogrammetrie</strong>sprodukt. Davon bekommt man<br />
manche Erfahrung in der Bereich von <strong>Photogrammetrie</strong> <strong>und</strong> Fernerk<strong>und</strong>ung.
2. IKONOS<br />
2.1 Satelliten<br />
Bild-1. Satellite von IKONOS<br />
IKONOS bedeutet ‚Bild’ in der lateinische Sprache. Unter dem Namen<br />
IKONOS-1 startete der Satellit am 27.4.1999 von der Air Force Basis<br />
Vandenberg aus. Der Trägerrakete Athena II gelang es jedoch nicht, das<br />
System in den Orbit zu bringen. Der Zwillingssatellit IKONOS-2 wurde aber am<br />
24.9.1999 von Vandenberg aus erfolgreich in seinen Orbit gebracht. IKONOS<br />
fliegt auf einer Höhe von 681 km auf einem fast-polaren sonnensynchronen<br />
Orbit. Das System ist in der Lage, seine Aufnahmesysteme um bis zu 30° in<br />
jede Richtung zu drehen <strong>und</strong> kann somit auch Bilder neben seiner Bahn<br />
aufnehmen. Dadurch wird die Wiederholrate der Aufnahmen <strong>für</strong> Bereiche um<br />
den 40sten Breitengrad von 2,9 Tage bei einem Meter Auflösung auf 1,5 Tage<br />
bei 1,5 Meter Auflösung (aufgr<strong>und</strong> der Schrägsicht auf das Aufnahmegebiet<br />
verschlechtert sich die Auflösung) reduziert. Die Daten werden alle im X-Band<br />
mit einer Geschwindigkeit von 320 MBit/s übertragen (nach KRAMER 1996 S.<br />
61-62 <strong>und</strong> http://www.spaceimaging.com).<br />
IKONOS ist mit zwei Sensoren ausgestattet (panchromatisch mit 1m <strong>und</strong><br />
multispektral mit 4m Bodenauflösung), die unabhängig voneinander sowohl in
Flugrichtung (in-track tilt) als auch quer dazu (cross-track tilt) verschwenkt<br />
werden können. Dadurch können einerseits hohe Wiederholraten erzielt<br />
werden, andererseits ermöglicht dies die Abdeckung von Flächen mit der<br />
mehrfachen Streifenbreite oder die Erzeugung von Stereoaufnahmen während<br />
eines Überflugs.<br />
Bild-2.<br />
Die Kamera an Bord von IKONOS ist ein kleines Kunstwerk. Kamera <strong>und</strong><br />
Teleskop wiegen zusammen nur 170 Kg. Das Teleskop hat eine Brennweite<br />
von 10 Metern <strong>und</strong> einem Lichtfaktor von f 14,3 ,<strong>und</strong> ist bei diesen Werten<br />
nicht ganz 2 Meter lang. Der Hauptspiegel hat einen Durchmesser von 0,7<br />
Meter. Die Kamera hat zwei verschiedene Sensoren: einen einfarben-Sensor<br />
mit 13.500 Pixeln, <strong>und</strong> einen mehrfarben-Sensor mit 3375 Pixeln. Damit<br />
lassen sich, aus der Umlaufbahn von 680 km Höhe, einfarbige Bilder mit<br />
einem Meter pro Pixel, <strong>und</strong> Mehrfarbenbilder mit 4 Meter pro Pixel aufnehmen.<br />
In beiden Fällen sind die Pixel allesamt nebeneinander angebracht. Ein Bild<br />
entsteht, da sich der Satellit auf seiner Umlaufbahn bewegt, <strong>und</strong> die Sensoren<br />
alle x Microsek<strong>und</strong>en eine neue Linie aufnehmen.<br />
2.2 Geometrie der Satellitenbildern<br />
Space Imaging unterteilt seine Produktpalette <strong>für</strong> den Satelliten in fünf<br />
Kategorien, die sich in der Lagegenauigkeit der Pixel unterscheiden.<br />
Angegeben wird hierbei, wieviel Prozent der Pixel sich innerhalb eines Kreises<br />
mit einem vorgegeben Radius befinden. Beispielsweise besagt die
Bezeichnung 90 CE (= Circular Error) 50m, daß 90 Prozent der abgebildeten<br />
Pixel in der Realität innerhalb eines Kreises mit 50m Radius liegen.<br />
CARTERRA Geo<br />
ist eine geometrisch korrigierte Szene, die in einer wählbaren<br />
Kartenprojektion vorliegt. Aufnahmebedingte Verzerrungen sind ohne<br />
Berücksichtigung der Objekthöhe korrigiert.<br />
CARTERRA Reference<br />
bietet eine orthorektifizierte Aufnahme an, bei der Paßpunkte nicht<br />
berücksichtigt werden.<br />
CARTERRA Pro<br />
bietet genau wie CARTERRA Reference eine orthorektifizierte<br />
Aufnahme an, ohne die Berücksichtigung von Paßpunkten, allerdings<br />
mit höherer Lagegenauigkeit.<br />
CARTERRA Precision<br />
verwendet vom Nutzer zu liefernde Paßpunkte zur Orthorektifizierung.<br />
CARTERRA Precision Plus<br />
verwendet ebenfalls vom Nutzer zu liefernde Paßpunkte zur<br />
Orthorektifizierung; verfügt aber über höhere Lagegenauigkeit.<br />
In dem Test wurden zwei Satellitenbilder von CARTERRA Geo verwendet.<br />
Diese Geo-Produkte wurden zu einer Ebene korrigiert , die parallel zum<br />
Ellipsoid der Erde. Die Georeferenzierung basiert auf der direkten<br />
Sensororientierung von IKONOS, die durch die Kombination von GPS,<br />
Inertialsystemen <strong>und</strong> Sternensensoren ermittelt wird. Die Geometrie dieser<br />
korrigierten Bildern ist von die lokale Höhedifferenz (dh) gegen der korrigierte<br />
Ebene beeinflusst , die eine Verschiebung (dL) verursacht. Aber in der<br />
Metadatei , die mit dem Satellitenbild mitkommt , steht die Information, nämlich<br />
‚nominal collection azimuth’, <strong>und</strong> ‚nominal collection elevation’. An Hand von<br />
diesen horizontalen <strong>und</strong> vertikalen Richtungen relativ zum Zentrum der Szene<br />
<strong>und</strong> die bekannte Information der Satellitenbahn kann die<br />
Beobachtungsrichtung jedes Punkts in der Szene berechnet werden.<br />
Bild-3.<br />
Die Verschiebung dieser<br />
Geobilder kann durch ein<br />
digitale Elevation Model (DEM)<br />
korrigiert werden , zur<br />
Herstellung von Orthobilder.
Tabelle-1. Technische Merkmale von IKONOS 2.<br />
(Quelle: www.spaceimaging.com)<br />
Startdatum 24.09.1999<br />
Geplante Betriebsdauer<br />
5-7 Jahre<br />
Geometrische multispektral<br />
4m<br />
Auflösung panchromatisch 1m<br />
Radiometrische multispektral<br />
11bit<br />
Auflösung panchromatisch 11bit<br />
Kanal 1 (Blau)<br />
445-516nm<br />
Kanal 2 (Grün)<br />
506-595nm<br />
Spektralbänder Kanal 3 (Rot)<br />
632-698nm<br />
Kanal 4 (NIR)<br />
757-853nm<br />
Kanal 5 (pan)<br />
450-900nm<br />
Schwadbreite nominal 13km<br />
Szenengröße Bildgröße<br />
11 x 11km<br />
Streifenabbildung<br />
Höhe<br />
11km Streifen bis 1000km<br />
681km (nominal)<br />
Inklination 98,1<br />
Geschwindigkeit<br />
7km/s<br />
Äquatorüberflug<br />
10:30 UTM<br />
max. Schwenkwinkel<br />
max. Schwenkzeit 26<br />
Orbitinformationen<br />
Repetition<br />
< 50 s<br />
2,9 Tage bei 1m Auflösung<br />
Umlaufzeit<br />
1,5 Tage bei 1,5m<br />
Auflösung<br />
bei 40° geographischer<br />
Breite<br />
98 Minuten,<br />
sonnensynchron
3 Äußere Orientierung der Satellitenbilder<br />
Normalerweise ist eine äußere Orientierung die Orientierung des<br />
Bildkoordinatensystems von Einzelbildern nach Lage <strong>und</strong> Richtung im<br />
Objektkoordinatensystem. Sie bestimmt die Lage des Bildhauptpunktes in<br />
einem räumlichen Koordinatensystem <strong>und</strong> ist Bestandteil der absoluten<br />
Orientierung. Die zu bestimmenden 6 Elemente der äußeren Orientierung<br />
eines Messbildes sind die 3 Koordinaten des Aufnahmeortes (Projektionszentrum)<br />
<strong>und</strong> 3 Orientierungswinkel des Bildkoordinatensystems.<br />
Bei der äußere Orientierung des Produkts CARTERRA Geo ist andere Fall.<br />
Weil CARTERRA Geo eine geometrisch korrigierte Szene ist, die in einer<br />
wählbaren Kartenprojektion vorliegt. Aufnahmebedingte Verzerrungen sind<br />
ohne Berücksichtigung der Objekthöhe korrigiert. Für die äußere Orientierung<br />
können mit verschiedene mathematische Methode durchgeführt werden.<br />
3.1 Bildkoordinaten der Passpunkten zu bestimmen<br />
Das Genauigkeitspotential der hochauflösende Satellitenbilder ist möglich zu<br />
dem Sub-Pixel Bereich. Um dieser möglich Systemsgenauigkeit zu erreichen,<br />
sind die gut definierte Passpunkte notwendig. Zur Bestimmung der<br />
Passpunkten in der Testbilder wurde das Programm DPLX verwendet. DPLX<br />
war <strong>für</strong> die präzise Bestimmung der Bildkoordinaten entwickelt. Weil die<br />
Satellitenbilder sehr groß sind , können sie nicht direkt in dem Kernspeicher<br />
des Computers behandelt werden , auf dem gr<strong>und</strong> arbeitet DPLX mit<br />
übersichte Bilder.<br />
Bei der Studienarbeit sind vier Satellitenbilder vorhanden. Dazwischen sind<br />
die Bildkoordinaten der Passpunkte von Zwei schon bestimmt sind. Sie haben<br />
gleiche Passpunktesdatei, in den die Objektkoordinaten der Passpunkte steht.<br />
Die Bildkoordinaten der Passpunkte von andere zwei Satellitenbilder<br />
brauchten zu bestimmen. Wir nennen zwei brauchen zu messende Bilder als<br />
SI1 <strong>und</strong> SI2 (Tabelle-2) <strong>und</strong> zwei gemessene Bilder als IK1 <strong>und</strong> IK2. Zuerst
‚Check in’ , dadurch konnte zwei neue Bilderdatei (overview image)erzeugt<br />
werden. SI1 <strong>und</strong> IK1 wurden gleichzeitig als Linksbild <strong>und</strong> Rechtsbild<br />
eingelesen. Die Passpunkte sind in IK1 mit rot Symbol markiert. Dann suchen<br />
wir die homologe Punkte der Passpunkte in SI1. Weil die zwei Bilder in<br />
unschiedliche Zeit <strong>und</strong> mit verschiedene Richtung aufgenommen sind, auch<br />
das Überlappungsproblem, konnte man nicht jeder Passpunkt in SI1<br />
finden ,oder genau gemessen. Aber normalerweise sollte man mehr Punkte<br />
wie möglich genau messen. Nach dieser Situation wurden 19 Passpunkte in<br />
SI1 <strong>und</strong> nur 8 Passpunkte in SI2 gemessen.<br />
Tabelle-2. Bilderinformation von IKONOS Geo in der Gebiet Zonguldak (Türkei)<br />
Zonguldak Test Scene 1 Zonguldak Test Scene 2<br />
Creation Date 06.11.2004 06.11.2004<br />
Sun Angle Azimuth 144.8376 0 129.9217 0<br />
Sun Angle<br />
Elevation<br />
45.48917 0 65.61687 0<br />
Sensor Name IKONOS-2 IKONOS-2<br />
Scan Azimuth 179.96 180.04<br />
Scan Direction Reverse Reverse<br />
GSD(Cross/Along) 0.83m/0.83m 0.83m/0.83m<br />
3.2 Geometrische Rekonstruktion der Satellitenbilder<br />
Weil die Metadata-Datei enthalt die genug Informationen, nämlich nominale<br />
Kollektionselevation, nominale Kollektionsazimut <strong>und</strong> Referenzhöhen, <strong>und</strong><br />
auch die Satellitenbahn ist bekannt. Geometrische Rekonstruktion der<br />
Satellitenbilder kann deshalb durchgeführt werden.<br />
Basieren auf Pixelkoordinaten der Szene von das Bild CARTERRA Geo <strong>und</strong><br />
Passpunkte im Boden kann Programm CORIKON die Relation zwischen die<br />
Satellitenbilder <strong>und</strong> die nationale Netzkoordinaten ausrechnen. Folgender<br />
Inhalt ist mit dem Programm CORIKON <strong>und</strong> BLAN durch die<br />
Passpunktekoordinaten <strong>und</strong> Szeneinformation zu verbessern .Mittels dem<br />
Programm CORIKON braucht man die Passpunktens -koordinatendatei ,<br />
Bildkoordinatendatei <strong>und</strong> Metadata-datei.<br />
Formular-1.<br />
xij = A1<br />
+ A2<br />
⋅ X + A3<br />
⋅Y
y ij<br />
= A4<br />
+ A5<br />
⋅ X + A6<br />
⋅Y<br />
Für die geometrische Rekonstruktion mit dem Programm CORIKON kann man<br />
eine zwei dimensionale affine Transformation benutzt . A1~A6 sind die affine<br />
Parameter , die die affine Transformation von den Höhe korrigierte<br />
Szenenpunkten zu den Passpunkte. Für die Verbessungen <strong>für</strong> die nominale<br />
Kollektion Elevation <strong>und</strong> Azimut sind Passpunkte mit differenzielle Elevation<br />
auch <strong>für</strong> die lineare Korrektion von Z abhängig von den Y-Koordinaten<br />
notwendig.<br />
Die Ergebnisse <strong>für</strong> Zonguldak Test Szene1 <strong>und</strong> Szene2 zeigen in<br />
Tabelle-3 ,4 <strong>und</strong> Figur-2,3<br />
.<br />
Geomet r i sche Rekonst r ukt i on von Szene- 1<br />
2, 5<br />
2<br />
St andar da<br />
bwei chung<br />
1, 5<br />
1<br />
0, 5<br />
0<br />
1 2 3 4<br />
SX 1, 16 1, 04 1, 00 0, 99<br />
SY 2, 13 0, 73 0, 67 0, 63<br />
SX <br />
SY <br />
Tabelle-3.<br />
1- ohne unbekannte Parameter 2- nur Shift Parameter<br />
3- nur unbekannte Parameter 4- Affine mit auch Azimut <strong>und</strong> Elevation<br />
Nach dem Lauf von CORIKON wird der Verschiebungsfehler korrigiert, <strong>und</strong> die<br />
Passpunkte Koordinaten wird nach der Ausgleichung <strong>für</strong> der Bild verbessert.<br />
Die korrigierte Objektkoordinaten der Passpunkte wurde in der Datei<br />
‚dares.dat’ gespeichert ,<strong>und</strong> die Daten <strong>für</strong> Ortho- <strong>und</strong> DEM-Model wurde in der<br />
Datei ‚ikoort.dat’ gespeichert.<br />
CORIKON erzeugt eine Datei ‚bluinf.dat’ <strong>für</strong> die Datentransformation bei dem<br />
Programm BLAN. Nach dem Lauf von BLAN kann eine Datei ‚blplot.blt’<br />
erzeugen. Dadurch kann die Standardabweichung der Passpunkte graphisch<br />
dastellen. So kann man das mit verschiedene Parameter berechnete Ergebnis<br />
deutlich sehen.
Bild-4:<br />
1- Keine Unbekannte Parameter 2-Nur Shift Parmameter<br />
3-Nur Affine Parameter<br />
4-Affine mit auch Azimut <strong>und</strong> Elevation<br />
Durch dem Test kann man abschließen, dass bei der geometrischen<br />
Rekonstruktion ohne unbekannte Parameter die Abweichungen der<br />
Passpunkte in der Y-Richtung von SI1 <strong>und</strong> in der X-Richtung von SI2 etwa<br />
systematische Probleme zeigen. Nach der Ausgleichung sind die Ergebnisse,<br />
in der der systematische Fehler der Richtung enthalten, viel verbessert. Für<br />
SI1 mit nur Shift Parameter wieder auszugleichen, wurde das Ergebnis<br />
deutlich verbessert, besonders <strong>für</strong> die Y-Koordinaten. Nach den mehr<br />
unbekannte Parameter angesetzt werden, nämlich alle 6 affine Parameter als<br />
unbekannte, <strong>und</strong> noch Azimut <strong>und</strong> Elevation als unbekannte Parameter<br />
addiert werden, zeigte die Ergebnisse nur wenig Verbesserungen.<br />
Aber <strong>für</strong> SI2 mit allen affinen Parameter wurden die Ergebnisse erst deutlich<br />
verbessert. Wir sollen nach verschiedenen Situationen die unbekannte<br />
Parameter wählen. Normalerweise in der Ausgleichung <strong>für</strong> die Verbesserung
der Geometrie von IKONOS Geo wird oft zwei unbekannte Shift Parameter<br />
genug.<br />
Geomet r i sche Rekonst r ukt i on von Szene- 2<br />
3, 00<br />
St andar da<br />
bwei chung<br />
2, 00<br />
1, 00<br />
0, 00<br />
1 2 3 4<br />
SX 2, 82 2, 39 0, 69 0, 57<br />
SY 1, 29 1, 07 0, 82 0, 81<br />
SX <br />
SY <br />
Tabelle-3.<br />
1- ohne unbekannte Parameter 2- nur Shift Parameter<br />
3- nur unbekannte Parameter 4- Affine mit auch Azimut <strong>und</strong> Elevation<br />
Bild-5<br />
1- Keine Unbekannte Parameter 2-Nur Shift Parmameter<br />
3-Nur Affine Parameter<br />
4-Affine mit auch Azimut <strong>und</strong> Elevation
3.3 Vergleich der verschiedenen Methode <strong>für</strong> die äußere<br />
Orientierung<br />
In aller Regel ist es erwünscht , in vielen Fällen unbedingt erforderlich,<br />
Satellitenbilder geometrisch zu korrigieren, um die Verzerrungen durch das<br />
Aufnahme-System <strong>und</strong> das Geländerelief (Bild -1.) zu eliminieren <strong>und</strong> die<br />
Daten auf ein bestimmtes geodätisches Koordinatensystem bzw. einen<br />
Kartennetzentwurf einzupassen. Die Bestimmung der erforderlichen<br />
Transformationsgleichungen ist deshalb das zentrale Problem.<br />
Zur Lösung dieses Problems kommen zwei gr<strong>und</strong>sätzlich verschiedene Wege<br />
in Frage.<br />
Interpolationsverfahren verzichten auf eine geometrische Modellierung der<br />
Aufnahmegeometrie <strong>und</strong> setzen lediglich die Stetigkeit der Abbildung voraus.<br />
Aufgr<strong>und</strong> dieser Annahme werden die unbekannten Koordinaten eines Pixels<br />
im Referenzsystem durch Interpolation zwischen benachbarten Passpunkten<br />
berechnet. Zur Interpolation können verschiedene mathematische Ansätze<br />
benutzt werden, z.B. Polynomansätze oder Maschenweise Transformationen.<br />
Parametrische Verfahren versuchen dagegen, die Aufnahmegeometrie im<br />
Raum mathematisch zu modellieren. Dies erfordert die Kenntnis der Sensorgeometrie<br />
<strong>und</strong> der Raumlage bzw. Sensorbewegung. Geländehöhenunterschiede,<br />
die in einem Digitalen Geländemodell beschrieben sind, können<br />
dabei voll berücksichtigt werden. Dieses Vorgehen, das dem klassischen<br />
Verständnis der Photogrametrie folgt, benutzt wiederum Passpunkt, um den<br />
Bezug zum Referenzsystem herzustellen.<br />
Geometrische Rekonstruktion<br />
Test mit dem Programm CORIKON<br />
Die geometrische Rekonstruktion ist schon in (3.2) beschrieben. Für die<br />
geometrische Rekonstruktion sind die Sensorinformationen <strong>und</strong> der<br />
Raumlage notwendig. Man benutzt 2D-Affine Transformation, aber oft mit nur<br />
ein shift Parameter in X <strong>und</strong> Y kann eine gute genauigkeit erreichen. Es<br />
bedeutet, es braucht nur wenige Passpunkte <strong>für</strong> die Rekonstruktion.<br />
Rationale polynominale Koeffizient (rational polynominal coefficient<br />
RPCs)<br />
Test mit dem Programm RAPORI
Zur Bildauswertung braucht der auf Polynomen basierender Ansatz kein<br />
Kenntnis von Sensormodell. Es<br />
braucht nur allgemeines<br />
Sensormodell zur Verfügung,<br />
<strong>und</strong> ist sensorunabhängig.<br />
Weger der sehr gut Genauigkeit<br />
von RPC’s wird zur Auswertung<br />
hochauflösender Satellitendaten<br />
eingesetzt<br />
RPC’s werden von Vertreibern<br />
der Bilddaten aus der strengen<br />
Lösung abgeleitet, Zahl <strong>und</strong><br />
Bild-6.<br />
Form der benötigten Terme<br />
muss experimentell bestimmt<br />
werden. Eine strenge Lösung liefert die korrespondierende Koordinaten in<br />
dem Objekt- <strong>und</strong> Bildraum <strong>für</strong> ein regelmäßiges 3D Raster, <strong>und</strong> die<br />
Polynomkoeffizient werden durch Kleinste-Quadrate-Schätzung bestimmt.<br />
Formular-2.<br />
x<br />
mit<br />
P<br />
ij<br />
n1<br />
Pi<br />
1(<br />
X , Y,<br />
Z)<br />
j<br />
=<br />
P ( X , Y,<br />
Z)<br />
i2<br />
( X , Y,<br />
Z)<br />
j<br />
= a<br />
1<br />
j<br />
+ a<br />
+ a<br />
9<br />
15<br />
X<br />
Y<br />
2<br />
2<br />
2<br />
+ a<br />
y<br />
10<br />
ij<br />
3<br />
Z<br />
X + a<br />
16<br />
Pi<br />
3<br />
( X , Y,<br />
Z)<br />
j<br />
=<br />
P ( X , Y,<br />
Z)<br />
2<br />
X<br />
3<br />
i4<br />
2<br />
+ a Y + a X + a Z + a YX + a YZ + a XZ + a Y<br />
4<br />
11<br />
+ a<br />
17<br />
XZ<br />
5<br />
+ a YXZ + a<br />
2<br />
j<br />
12<br />
Y<br />
+ a<br />
3<br />
18<br />
6<br />
+ a<br />
Y<br />
2<br />
13<br />
YX<br />
Z + a<br />
7<br />
2<br />
19<br />
+ a<br />
X<br />
14<br />
2<br />
8<br />
YZ<br />
2<br />
Z + a<br />
20<br />
Z<br />
3<br />
Drei dimensionale affine Transformation (3D)<br />
Test mit dem Programm TRANS3D<br />
Für die 3D affine Transformation ist die Orientierungsinformation der Sensor<br />
nicht nötig. Wegen 8 unbekannten Parameter sind mindestens 4 gut<br />
verteilende Passpunkte erforderlich. Die Passpunkte können in verschieden<br />
Ebenen liegen. Die 3D-Transformation beruht auf eine parallele Projektion ,<br />
die annäherungsweise gültig in der Richtung der Satellitenbahn , nicht in der<br />
Richtung der CCD-Linie.<br />
Formular-3.<br />
x<br />
y<br />
ij<br />
ij<br />
= a<br />
1<br />
= a<br />
5<br />
+ a<br />
2<br />
+ a<br />
6<br />
⋅ X + a<br />
3<br />
⋅ X + a<br />
7<br />
⋅Y<br />
+ a<br />
4<br />
⋅Y<br />
+ a<br />
8<br />
⋅ Z<br />
⋅ Z
Direkt lineare Transformation ( DLT)<br />
Test mit dem Programm TRANS3D<br />
Die DLT beruhen auf einem perspektivischen Bildgeometrie, die nur in der<br />
Richtung der CCD-Line gültig ist. Es ist gleich wie 3D-affine Transformation ,<br />
dass es <strong>für</strong> die DLT keine vorgegebene Information notwendig ist. Die<br />
alternative Parametrisierung basiert auf die Kollinearitätsgleichung <strong>und</strong> affiner<br />
Transformation. Wegen der 11 Unbekannte <strong>für</strong> die Transformation sind<br />
mindestens 6 Passpunkte in dem Bild notwendig. Die Passpunkte dürfen nicht<br />
auf einer im Raum liegenden Ebene oder sehr nahe daran liegen. Weiterhin<br />
sollten diese Punkte genau genug bestimmt worden sein. Eventuelle<br />
Punktfehler werden nicht erkannt <strong>und</strong> können die DLT erheblich stören.<br />
Formular-4<br />
x<br />
y<br />
ij<br />
ij<br />
L1<br />
X + L2Y<br />
+ L3Z<br />
+ L4<br />
=<br />
L9<br />
X + L10Y<br />
+ L11Z<br />
+ 1<br />
L5<br />
X + L6Y<br />
+ L7Z<br />
+ L8<br />
=<br />
L X + L Y + L Z + 1<br />
9<br />
10<br />
11<br />
Weil die Verteilung der Passpunkte nicht identisch ist, zeigt die Korrelation<br />
Koeffizienten zwischen den Passpunkte sehr hoch. Bei DLT sind die RMSE<br />
von Checkpunkte sehr groß. DLT war deshalb nicht geeignet <strong>für</strong> den Test. Alle<br />
andere Methode sind mit unterschiedliche Passpunktesanzahl ausgetestet<br />
(Bild-6). Verursacht durch die Anzahl der unbekannten Parameter, bei der<br />
geometrische Konstruktion <strong>und</strong> RPC’s mit nur shift Parameter sind mindestens<br />
zwei Passpunkte gebraucht, mit affiner Parameter sind mindestens 3<br />
Passpunkte, <strong>und</strong> bei der 3D affine Transformation sind mindestens 4<br />
Passpunkte. Die RPC’s führt zu der besten Genauigkeit, aber mit den<br />
wenigsten Passpunkte. Es ist fast unabhängig von der Passpunktesanzahl.<br />
Das Ergebnis von geometrische Konstruktion, die mit affine Transformation<br />
durchgeführt wurden, zeigt auch eine gute Genauigkeit mit einer gleichen<br />
Anzahl wie RPC’s. Die Genauigkeit der 3D affinen Transformation sind nahe<br />
zur geometrische Konstruktion <strong>und</strong> RPC’s. Aber es gibt keine Justierung <strong>für</strong><br />
eine erforderliche große Passpunktesanzahl <strong>und</strong> die notwendige gute 3D<br />
Verteilung. Deswegen ist diese Methode nicht empfohlen.
Bild-6.<br />
Ergebnisse bei der unabhängig Checkpunkte <strong>für</strong> die unterschiedliche<br />
Orientierungsmethode als eine Funktion der Anzahl der Passpunkte
4 Bildzuordnung<br />
Erfassung der 3D-Objekte Koordinaten aus Luftbilder muss der Objekt in<br />
verschiedenen Bildern abgebildet werden. Die korrespondierende Punkte<br />
können gemessen werden. Durch der Rekonstruktion der Bildstrahlen kann<br />
3D Objektinformationen aus 2D Bilddaten abgeleitet werden.<br />
Bild-7. 3D Punktbestimmung<br />
Um die Erstellung eines DGM aus digitalen Bildern zu automatisieren, wurden<br />
Methoden der digitalen Bildzuordnung entwickelt <strong>und</strong> bereits erfolgreich<br />
angewandt. Dann was ist Bildzuordnung? Bildzuordnung ist ein Prozess der<br />
automatischen Identifizierung <strong>und</strong> Messung korrespondierender (homologer,<br />
identischer) Punkte in zwei oder mehr überlappenden Bildern. Dabei gibt es<br />
2 Haupt-methoden die grauwertbasierte Zuordnung <strong>und</strong> die merkmalsbasierte<br />
Zuordnung.
4.1 Grauwertbasierte Zuordnung<br />
Die grauwertbasierte Zuordnung basiert auf die Ähnlichkeit in zwei Bildern.<br />
Man extrahiere Maske aus Bild1 <strong>und</strong> suche ähnlichen Ausschnitt in Bild2<br />
(Bild-8). Zur Bestimmung der Ähnlichkeit von Grauwertmasken werden<br />
normalerweise zwei Methode Korrelation <strong>und</strong> Intensitätsbasierte<br />
Kleinste–Quadrate-Schätzung verwendet.<br />
Bild-8.<br />
4.1.1 Korrelation<br />
Normierter Kreuzkorrelationskoeffizient zur Bestimmung der Ähnlichkeit von<br />
Bildausschnitten.<br />
ρ Korrelationskoeffizient<br />
g '<br />
g '<br />
Grauwert des Referenzbildes<br />
Durchschnittlicher Grauwert<br />
des Referenzbildes<br />
g '' Grauwert des Suchbildes<br />
Formular-5.<br />
g '' Durchschnittlicher Grauwert<br />
des Suchbildes<br />
Das Prinzip ist so, der Ausschnitt des Referenzbildes g’ (Maske) wird über das<br />
zweite Bild g’’(Funktion) geschoben. Die Korrelationskoeffizient ρ zwischen<br />
Maske <strong>und</strong> Funktion wird <strong>für</strong> jede Position berechnet. Die beste<br />
Übereinstimmung von<br />
beiden Bilderausschnitten wird von der maximalen
Korrelation definiert.<br />
4.1.2 Intensitätsbasierte Kleinste-Quadrate-Schätzung<br />
Die Intensitätsbasierte Kleinste-Quadrate-Schätzung ist eine Erweiterung der<br />
Kreuzkorrelation. Die Blickrichtung <strong>und</strong> die Geländeneigung werden auch<br />
berücksichtigt. Die kleine Bildausschnitte können durch geeignete<br />
Transformation in Übereinstimmung gebracht werden, hierbei 6 geometrische<br />
Transformationsparameter (Affintransformationsparameter) <strong>und</strong> 2<br />
radiometrische Transformationsparameter (Helligkeit <strong>und</strong> Kontrast) können<br />
nach Methode der kleinsten Quadrate geschätzt werden.<br />
Formular-6.<br />
geometrische Transformation<br />
1<br />
Formular-7.<br />
⎛ x ⎞ ⎛ a1<br />
a2<br />
⎞ ⎛ x'<br />
⎞ ⎛a5<br />
⎞<br />
⎜ ⎟ =<br />
y<br />
⎜<br />
a3<br />
a<br />
⎟ ⋅ ⎜ ⎟ +<br />
4<br />
y'<br />
⎜<br />
a<br />
⎟<br />
⎝ ⎠ ⎝ ⎠ ⎝ ⎠ ⎝ 6 ⎠<br />
radiometrische Transformation<br />
I ( x',<br />
y')<br />
= r I<br />
1<br />
2<br />
( x,<br />
y)<br />
+ r<br />
Minimierung der Grauwertunterschiede durch<br />
Kleiste-Quadrate-Ausgleichung<br />
∑<br />
2<br />
( I − r I − r) min<br />
1 1 2<br />
⇒<br />
2<br />
Bild-9.
4.2 Merkmalsbasierte Zuordnung<br />
Bei der merkmalsbasierte Zuordnung werden anstatt Muster- <strong>und</strong><br />
Suchmatrizen ganze Merkmale als Objekte verwendet. Dabei wird zwischen<br />
Punkten, Kanten (Linien) <strong>und</strong> Regionen unterschieden. Die Merkmale werden<br />
aus den Grauwerten extrahiert, indem die Differenzen benachbarter<br />
Grauwerte gebildet werden.<br />
Merkmalsbasierte Verfahren bestehen aus zwei Hauptschritten. Zuerst wird<br />
die Extraktion von Merkmalen durchgeführt, danach werden die Markmalen<br />
zugeordnet. Zum ersten Schritt werden vor allem Punkte (mit guter Textur in<br />
zwei Richtungen, oder entlang Grauwertkanten) oder Kanten in allen Bildern<br />
mit Interest-Operator order Kanten-Detektoren extrahiert. Zum zweiten Schritt<br />
wird eine provisorische Liste von möglichen Matchpunkten erstellt. Dazu wird<br />
die Ähnlichkeit der Merkmalsattribute benutzt. Die Konsistenz der mehrfachen<br />
Lösungen wird überprüft <strong>und</strong> die beste Lösung gewählt.<br />
Bild-10<br />
Links: ein ausgewählter Punkt im<br />
Templatebild. Rechts: zwei<br />
gleich gute Zuordnungslösungen<br />
(mögliche Kandidaten). Welche<br />
ist die richtige Lösung?<br />
Überprüfung der Konsistenz der<br />
Zwei möglichen Lösungen 1’,1’’.<br />
Lösung 1’ ist konsistent mit den<br />
Lösungen der Nachbar vom<br />
Punkt 1, <strong>und</strong> deshalb wird sie<br />
gewählt.<br />
4.3 Bildzuordnungsprüfung der Bilder von IKONOS Geo<br />
Für die Herstellung der DEM wurden die automatische Bildzuordnung von<br />
Zwei Testbilder mit dem Programm DPCOR behandelt. Das Programm beruht<br />
auf der regionale wachsende Methode, <strong>und</strong> benutzt zuerst die manuelle<br />
gemessene Position als Anfangswert. Die korrespondierender Punkte sind von<br />
einer Bilderkombination mit der Methode von Korrelation <strong>und</strong> der kleinste
quadrate Schätzung berechnet. Die Bildzuordnung ist auf dem Bildraum<br />
durchgeführt. Anfang mit bekannte korrespondierende Punkte sind andere<br />
homologe Punkte in der Nachbarschaft identifiziert, <strong>und</strong> damit sind andere<br />
Punkte bis zu dem ganze Bild bestimmt. Diese Methode hat den Vorteil, dass<br />
eine Änderung <strong>für</strong> die spezielle Bildgeometrie nicht notwendig ist. Nach dem<br />
Bild-11 können wir wissen , dass die beide Satellitenbilder sehr unterschiedlich<br />
sind . Bei der Bildzuordnung habe ich deshalb viele Probleme getroffen. Für<br />
das Ergebnis kann man nicht zufrieden sein.<br />
2500<br />
Anzahl der Punkte<br />
2000<br />
1500<br />
1689<br />
2237 2280 2065<br />
1941<br />
1749<br />
1593 1491<br />
1315 11951115<br />
905<br />
1000<br />
500<br />
c<br />
751<br />
511<br />
363278198148<br />
122 80<br />
176<br />
0<br />
Bild-11 .<br />
0.95 0.90 0.80 0.70 0.60 0.50 0.40 0.30 0.20 0.10 0.00<br />
Koeffizient<br />
Die Frequenzverteilung der Korrelationskoeffizient<br />
Zwei Bildpaare (Bild-12), die von zwei IKONOS Geo Satellitenbilder<br />
ausgeschnitten wurden.<br />
linker Bild<br />
rechter Bild<br />
Bild-12.
Normalerweise kann eine automatische Bildzuordnung mittels die Ähnlichkeit<br />
zwei Bilder durchgeführt werden. In einer günstigen automatischen<br />
Bildzuordnung sind eine gute Objekttextur mit Variation des Grauwerts, eine<br />
glatte Objektoberfläche , <strong>und</strong> keine bewegende Objekte erforderlich.<br />
Bild-13<br />
Die Umgebung des<br />
rot markierte Passpunkten<br />
hat guter<br />
Kontrast. Die<br />
automatische Bildzuordnung<br />
konnte<br />
in dem Gebiet gut<br />
durchführen.<br />
Aber bei dem Test der automatische Bildzuordnung sind nur relative wenige<br />
homologen Punkte gef<strong>und</strong>en. Es wurden wegen folgenden Probleme<br />
beeinflusst.<br />
a) Wegen der Aufnahmezeit zeigen geometrische <strong>und</strong> radiometrische<br />
Unterschiede in der Bilderscheinung.<br />
Bild-14<br />
Der radiometrische<br />
Unterschied in den<br />
beiden Bilder ist<br />
deutlich. Ein weißes<br />
Gebäude in dem<br />
linken Bild erscheint<br />
gar nichts. Auch<br />
wegen der Jahreszeit<br />
zeigt Vegetation<br />
unterschliche Grauwerte.
) Wegen der Reflexionen zeigt ein radiometrische Unterschied in der<br />
Bilderscheinung.<br />
Bild-15.<br />
Wegen des Stoffs der<br />
Hausdache <strong>und</strong> der<br />
Aufnahmerichtung<br />
erscheint eine<br />
stärkere Reflexionen<br />
der Hausdache in dem<br />
rechten Bild, es<br />
verursacht sehr unterschiedliche<br />
Grauwert<br />
in den Bilder.<br />
c) Es fehlt an Objektteil in der Bilderscheinung.<br />
Bild-16.<br />
Wegen der Beleuchtungsrichtung<br />
der Sonne<br />
erscheint die Abdeckung<br />
<strong>und</strong> das Schatten in dem<br />
rechten Bilder sehr stark.<br />
In der Umgebung der<br />
Anfangspunkte zeigt ein<br />
sehr unterschiedliche<br />
Kontrast.
d) schlechte Kontrast<br />
Bild-17.<br />
Weil in der Rasenfläche<br />
gibt es immer eine<br />
schlechte Variation des<br />
Grauwerts, konnte die<br />
Bildzuordnung immer<br />
ungünstig in einer Rasenfläche<br />
durchgeführt.<br />
d) Verarbeitung der Bilder vor der Bildzuordnung.<br />
linker Bild<br />
rechter Bild<br />
Bild-17. gefilterte Bilder<br />
Weil ein gut Kontrast erforderlich bei der Bildzuordnung ist, probierten wir vor<br />
der Bildzuordnung, um den Kontrast der Bilder zu erhöhen. Im Test wurden<br />
das Programm „Photoshop 6.0“ verwendet. Die beide Bilder sind durch ein<br />
Filter „Hochpass“, den Photoshop liefert , verarbeitet. Danach wurde eine<br />
automatische Bildzuordnung mit den beiden gearbeitete Bilder wieder<br />
durchgeführt. Aber das Ergebnis ist nicht verbessert.
5 Herstellung eines digitalen Höhenmodell(DHM)<br />
5.1 Digitales Höhenmodell (DHM)<br />
Engl. digital elevation model (DEM); digitale Darstellung der Topographie,<br />
meist in Form eines regelmäßig angeordneten Punktrasters, in dem die<br />
einzelnen Punkte die Höhenwerte repräsentieren. Durch diese z-Werte sind<br />
eine dreidimensionale Darstellung <strong>und</strong> eine quantitative Analyse der<br />
Erdoberfläche möglich.<br />
DHMs werden in einer Vielzahl von Disziplinen benötigt. Einige Stichworte<br />
sollen das Anwendungsspektrum umreissen: hydrologische Modellierung,<br />
Wasserwirtschaft, GPS-Navigation, Planung terrestrischer Mobilfunknetze,<br />
Rohstoffexploration, Infrastrukturplanung, Planung von Großanlagen wie<br />
Flughäfen <strong>und</strong> Staudämmen, Militär, Flugführung, Katastrophenschutz,<br />
-vorsorge, Wetter- <strong>und</strong> Klimamodellierung, Geländekorrektur von<br />
Fernerk<strong>und</strong>ungsdaten durch Geokodierung u.w.<br />
Meist erfolgt die Erstellung von DHM durch Auswertung von Stereoaufnahmen<br />
optischer Systeme. Es ist gewöhnlich eine Luftbild-<strong>Photogrammetrie</strong>, die zwar<br />
hochwertige DHMs liefern, <strong>für</strong> globale Anwendungen aber zu langwierig <strong>und</strong><br />
aufwändig sind. Satellitengestützte optische Stereoverfahren andererseits sind<br />
auf wolkenlose Sicht angewiesen. Insbesondere gibt es ein Defizit an präzisen<br />
DHMs <strong>für</strong> Afrika, Asien <strong>und</strong> Südamerika. Aber auch <strong>für</strong> höher entwickelte<br />
Länder sind die derzeitigen digitalen Höhendaten häufig örtlich inhomogen, da<br />
aus unterschiedlichen Quellen stammend, mit unterschiedlichen Verfahren<br />
gewonnen oder auch auf unterschiedliche Referenzsysteme bezogen.
5.2 DHM-Herstellung mit CARTERRA Geo Bilderpaar<br />
5.2.1 Stereobilderpaar<br />
Ein Stereobildpaar ist ein <strong>für</strong> stereoskopische Auswertung geeignetes Bildpaar<br />
aus raumparallaktisch verschiedenen, jedoch weitgehend inhaltsgleichen<br />
Halbbildern. Der unten gezeigte Bild ist mit zwei Bilder zusammen eingesetzt,<br />
eines mit rote Farbe, andres mit grüne Farbe. Mit der Stereobrille sieht jedes<br />
Auge nur ein Bild. Jedes der beiden Bilder wird durch eine eigene Linse<br />
betrachtet, wobei die beiden Linsen schräg angeordnet sind, damit die Bilder<br />
zueinander verschoben werden. Als Ergebnis verschmelzen sie beim<br />
Betrachten zu einem dreidimensionalen Bild.<br />
Bild-18.<br />
5.2.2 Digital Höhemodel<br />
Gr<strong>und</strong>voraussetzung <strong>für</strong> die Generierung des DHMs ist die Bildzuordnung.<br />
Bei der Bildzuordnung wird zunächst in beiden stereoskopischen Bildern nach<br />
gemeinsamen Punkten gesucht <strong>und</strong> erhält Bildkoordinaten. Die<br />
Bildkoordinaten werden mit Hilfe der Kollinearitätsgleichung <strong>und</strong> der<br />
verbesserten äußeren Orientierung in 3D Objektpunkte umgewandelt. Aus
den Objektpunkten kann nun ein Raster mit 3D Koordinaten interpoliert<br />
werden.<br />
Bild-19.<br />
Darstellung der Höhe durch eine Konturfarbe.<br />
Herstellung des DHMs ist mit der Programme „BLPRE“ <strong>und</strong> „BASIC<br />
4.0“ durchgeführt. Bei dem Verfahren sind drei Datei notwendig. Die Datei<br />
„conj.pix“ wurde nach der automatische Bildzuordnung mit dem Programm<br />
DPCOR erzeugt. Die Datei enthalt die Information der Bildkoordinaten, die zu<br />
den durch die Bildzuordnung gef<strong>und</strong>ene homologen Punkte gehört. Man<br />
brauch noch zwei Datei, die unterschiedlich die Informationen der äußere<br />
Orientierung von zwei Bilder enthalt. Hier ist „ikonor3.dat“ <strong>und</strong> „ ikonor1.dat“.<br />
Durch das Programm „BLPRE“ kann die 3D-Objektkoordinaten aller<br />
gemeinsamen Punkten ausgerechnet werden <strong>und</strong> in die Datei<br />
„dem.dat“ speichern. Danach mit dem Programm „BISIC 4.0“ wurden andere<br />
gemeinsame Punkten nach dem eingesetzten Abstand interpoliert, <strong>und</strong> wurde<br />
eine graphische Datei „GITT.ima“ erzeugt (Bild-19, Bild-20).
Bild-19.<br />
3D Model<br />
In der oben erzeugte DHMs zeigt die Gelände sehr felsig. Er wurde vielleicht<br />
die Gebäude verursacht. Weil die Höhe sich von Gebäude zu Flachboden oder<br />
umgekehrt plötzlich groß änderte. Nach Filterung kann die Gelände in dem<br />
DHM eine glatte Änderung erscheinen(Bild-21).<br />
Bild-21.<br />
3D Model nach der Filterung
Um die Genauigkeit des DHMs, wurde ein Referenzhöhenmodel genommen,<br />
das aus SPOT Bilder hergestellt ist. Nach dem Vergleich ist die Untersiedhöhe<br />
etwa 6 m. Ein digitales Differenzhöhenmodel kann auch dadurch<br />
herstellen(Bild-22).<br />
Bild-22.<br />
Differenzhöhen- model zu dem Referenzhöhen-model.
6 Literaturverzeichnis<br />
Bücher:<br />
KRAUS, K., 1994: <strong>Photogrammetrie</strong>, Gr<strong>und</strong>lagen <strong>und</strong> Standardverfahren,<br />
Band 1, Dümmler Verlag, Bonn<br />
KRAUS, K., 1996: <strong>Photogrammetrie</strong>, Verfeinerte Methoden <strong>und</strong><br />
Anwendungen, Band 2, Dümmler Verlag, Bonn<br />
Jörg, A., 2001: Einführung in die Fernerk<strong>und</strong>ung, Gr<strong>und</strong>lagen der<br />
Interpretation von Luft- <strong>und</strong> Satellitenbildern, 2.,überarbeitete <strong>und</strong> erweiterte<br />
Auflage, Wissenschaftliche Buchgesellschaft, Darmstadt<br />
Schriftreihen:<br />
Jacobsen K., Mapping with IKONOS images, EARSeL, Prag 2002,<br />
“Geoinformation for European-wide Integration” Millpress ISBN 90-77017-71-2,<br />
pp 149 - 156<br />
Jacobsen K.: Orthoimages and DEMs by QuickBird and IKONOS, EARSeL<br />
Ghent 2003, Remote Sensing in Transition, Millpress, ISBN 90-77017-71-2,<br />
513 – 525<br />
Jacobsen K.: Geometric Potential of IKONOS- and QuickBird-Images, in D.<br />
Fritsch (Ed.) Photogrammetric Weeks ‘03, pp 101-110, Wichmann Verlag ISBN<br />
3-87907-397-X <strong>und</strong> GIS Geo-Informations-Systeme 9/2003, 33 - 39.<br />
Jacobsen K.: Mapping with IKONOS images, Proceedings of 22nd EARSeL<br />
Symposium, Prague, Tomas Benes (Ed.), Millpress Rotterdam, 149-156.
Jacobsen, K.: DEM Generation by SPOT HRSC: IntArchPhRS. Band XXXV,<br />
Teil B1. Istanbul, 2004, S. 439-444<br />
Passini, R. ; Jacobsen, K.: Accuracy analysis of digital orthophotos from very<br />
high resolution imagery: IntArchPhRS. Band XXXV, Teil B4. Istanbul, 2004, S.<br />
695-700<br />
Topan, H. ; Büyüksalih, G. ; Jacobsen, K.: Comparison of Information<br />
Contents of High Resolution Space Images: IntArchPhRS. Band XXXV, Teil B4.<br />
Istanbul, 2004, S. 583-588<br />
H. Eisenbeiss, E. Baltsavias, M. Pateraki, L. Zhang, O. Gut, O. Heller.:<br />
Das Potenzial von Ikonos <strong>und</strong> Quickbird-Bildern <strong>für</strong> die genaue<br />
3D-Punktbestimmung,Orthophoto- <strong>und</strong> DSMGenerierung<br />
Jacobsen, K., Büyüksalih, G., Sefercik, U., Büyüksalih, I. 2005:<br />
Geometric Conditons of Space Imagery for Mapping<br />
Jacobsen, K. , 2005: Comparative Analysis of Space Image Orientation<br />
Internet:<br />
<strong>Institut</strong> <strong>für</strong> <strong>Photogrammetrie</strong> <strong>und</strong> <strong>GeoInformation</strong> (IPI) der Universität<br />
Hannover<br />
http://www.ipi.uni-hannover.de/html/lehre/lehrveranstaltungen/ph-ii-v/<br />
<strong>Institut</strong> <strong>für</strong> <strong>Photogrammetrie</strong> der Universität Stuttgart<br />
http://www.ifp.uni-stuttgart.de/lehre/skripte.html<br />
Space Imaging, Inc.<br />
http://www.spaceimaging.com/