Fernerkundung I (Digitale Bildverarbeitung) - Friedrich-Schiller ...
Fernerkundung I (Digitale Bildverarbeitung) - Friedrich-Schiller ...
Fernerkundung I (Digitale Bildverarbeitung) - Friedrich-Schiller ...
You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
BSc Geographie<br />
<strong>Friedrich</strong>-<strong>Schiller</strong>-Universität Jena<br />
<strong>Fernerkundung</strong> I<br />
(<strong>Digitale</strong> <strong>Bildverarbeitung</strong>)<br />
GEO212<br />
Autor: Dr. S. Hese<br />
Skript zur Übung <strong>Fernerkundung</strong>-I GEO212, FSU Jena<br />
V 0.71 07112006
<strong>Fernerkundung</strong> I (<strong>Digitale</strong> <strong>Bildverarbeitung</strong>) GEO212<br />
Autor: Dr. S. Hese<br />
Skript zur Übung <strong>Fernerkundung</strong> I GEO212, FSU Jena<br />
Versioning:<br />
v.0.1 - 8.2004: Initial stuff and structure definition<br />
v.0.2 - 9.2004: Geomatica figures, added section 3<br />
v.0.3 – 10.2004: Minor corrections.<br />
v.0.4 – 11.2004: Automos correction<br />
v.0.5 – 1 .2005: Xpace routines & minor corrections<br />
v.0.6 – 7.2005: Minor changes & V10 Updates<br />
v.0.71 – 11.2006: Minor changes to exercises and some typos corrected<br />
1. Einführung ...................................................................................................... 3<br />
1.1 Inhalt dieses Skriptes ................................................................................... 3<br />
1.2 Theorieinhalte der LV <strong>Fernerkundung</strong> I GEO212: ......................................... 3<br />
1.3 <strong>Digitale</strong> <strong>Bildverarbeitung</strong> – die Grundlagen ...................................................... 5<br />
1.4 <strong>Digitale</strong> <strong>Bildverarbeitung</strong> in der <strong>Fernerkundung</strong> – Komponenten eines<br />
<strong>Bildverarbeitung</strong>ssystems................................................................................... 6<br />
2 <strong>Bildverarbeitung</strong>ssoftware in der <strong>Fernerkundung</strong>.................................................... 7<br />
2.1 <strong>Fernerkundung</strong>ssoftware............................................................................... 7<br />
2.2 Andere Softwarepakete mit z.T. fernerkundungsrelevantem Funktionsumfang: ... 10<br />
3 Arbeiten mit Geomatica 9 – eine Einführung........................................................ 13<br />
3.1 Die Geomatica Toolbar: .............................................................................. 13<br />
3.2 Mit Xpace arbeiten ..................................................................................... 14<br />
3.3 Arbeiten im Command-Mode (EASI): ............................................................ 15<br />
3.4 EASI/PACE Routinen nach Anwendungsbereichen sortiert ................................ 17<br />
3.5 EASI- Programmierung............................................................................... 29<br />
3.6 GCPWorks ................................................................................................ 31<br />
3.7 ImageWorks – der stabile Image-Viewer aus den 90igern................................ 37<br />
3.8 Geomatica OrthoEngine – creating an ASTER DEM from scratch: ...................... 39<br />
3.9 FOCUS (die integrative Umgebung aller Geomatica Funktionen) ....................... 42<br />
3.10 Die Algorithmenbibliothek – arbeiten mit Geomatica ohne EASI/PACE.............. 46<br />
3.11 Der PCI Modeler....................................................................................... 46<br />
3.12 PCIDSK Datenformat:............................................................................... 47<br />
3.13 Lizenzierung............................................................................................ 50<br />
3.14 Geomatica 10 – ein Ausblick ...................................................................... 52<br />
4. Literatur ....................................................................................................... 53<br />
4.1 National and International Periodicals: .......................................................... 53<br />
4.2 Geomatica spezifische Literaturhinweise: ...................................................... 53<br />
4.3 Lehrbücher: .............................................................................................. 55<br />
4.4 Other References and further reading: .......................................................... 55<br />
4.5 Online Tutorials: ........................................................................................ 58
1. Einführung<br />
1.1 Inhalt dieses Skriptes<br />
Dieses Skript gibt eine Einführung in die Software Geomatica 9.x und 10 und ist Teil der<br />
Dokumentation für ein Vorlesungsskript zum Modul <strong>Fernerkundung</strong> I des BSC Geographie<br />
an der <strong>Friedrich</strong>-<strong>Schiller</strong>-Universität Jena. Teile dieser Dokumentation wurden der<br />
EASI/PACE Hilfe von Geomatica und online Material von http://www.pci.on.ca<br />
entnommen bzw. von CGI-Systems zur Verfügung gestellt oder stammen aus<br />
Aufzeichnungen von S. Hese.<br />
Die vorläufige Planung sieht z.Zt. folgende Übungen mit Geomatica Software vor:<br />
• Ü1: Datenimport und PCIDSK Database Management - Layerstacking /<br />
Einführung in das XPACE BV-System<br />
• Ü2: Database handling (ASL, CDL, MCD, LOCK, UNLOCK), PCIDSK File<br />
Management mit PCIMOD<br />
• Ü3: Georeferenzierung / geometrische Korrektur - Arbeiten mit GCPWorks<br />
• Ü4: NDVI, Ratios und PCA (PCIMOD, MODEL, THR, MAP, ASL, CDL, PCA)<br />
• Ü5: Filterungen im Ortsbereich (PCIMOD, EASI/PACE Database Filtering)<br />
• Ü6: Filterungen im Frequenzbereich (PCIMOD, FTF, FFREQ, FTI)<br />
• Ü7: IHS Data Fusion (PCIMOD, FUSE, IHS, RGB)<br />
• Ü8: Klassifikation I – supervised classification (MLC, CSG, CSR, CHNSEL, SIGSEP,<br />
PCIMOD, SIEVE)<br />
• Ü9: Klassifikation II – unsupervised classification (Clustering), (PCIMOD,<br />
ISOCLUS, KCLUS)<br />
• Ü10: Texturanalyse (PCIMOD, TEX)<br />
• Ü11: Genauigkeitsanalysen (User – Producer Accuracy, MLR, MAP)<br />
1.2 Theorieinhalte der LV <strong>Fernerkundung</strong> I GEO212:<br />
1. Einführungsveranstaltung: Vorbesprechung, Allgemeines, Informationen zu den<br />
Übungen und Tutorien, Lehrveranstaltungsinhalte, Literatur, Übungslisten,<br />
Gruppenaufteilung.<br />
2. Termin: Einführung in die Software Geomatica (EASI/PACE, XPACE, Modeler,<br />
Focus, GCPWORKS, EASI Programmierung), Einführung in das menschliche Sehen<br />
und Bildverstehen, Reizverarbeitung, Aufbau des Auges, Stäbchen, Zapfen,<br />
Farbsehen, menschliche Signalverarbeitung, Stereobildverarbeitung, Technologie<br />
digitaler Sensoren, CCD Sensor Architektur, Zeilensensor ver. Framesensor, Farbe<br />
bei der digitalen Datenaufnahme, CCD und CMOS Sensor und Aufnahmesysteme,<br />
Sensor Architekturen, Fillfaktor,<br />
3. Termin: Grundlagen der digtialen Bild- und Signalverarbeitung, Grundlagen der<br />
<strong>Fernerkundung</strong> (compressed), Sensorik zwischen räumlicher und spektraler<br />
Auflösung, Detektorkonfigurationen, das Pixel, Datenspeicherung, Datentypen,<br />
Datenformate, Dateneinheiten, Bit, Byte, Megabyte, Datensatzgrößenberechnung,<br />
BSQ, BIL, BIP, Anwendungen, Vor- und Nachteile, Auflösungsarten (räumlich,<br />
spektral, radiometrisch, temporal), Software in der digitalen <strong>Bildverarbeitung</strong> –<br />
ein Überblick, Byte Order, Bildpyramiden, Einführung in das Histogramm,<br />
Prozesse in der industriellen BV und in der <strong>Fernerkundung</strong>, <strong>Fernerkundung</strong>s-<br />
Bilddateiformate, das PCIDSK Dateiformat, Arbeiten mit Segmenten in Geomatica.<br />
4. Termin: Datenvorverarbeitung: geometrische Korrektur, parametrische Verfahren,<br />
Interpolationsverfahren, geometrische Verzerrungen bei Satellitendaten und<br />
Flugzeugdaten, Entzerrung, Resamplingverfahren (NN BIL, CC), Polynome erster<br />
und nter Ordnung, der RMS Error, systematische Korrektur von
Zeilenscannerdaten, Detaileinführung GCPWorks, Übung mit GCPWorks in<br />
Geomatica (Image to Image Correction).<br />
5. Termin: Histogramm Transferfunktionen, das Histogramm, Lookup Tables,<br />
Histogramm Equalisation, Linear Stretch, Äquidensitenstreckung, Histogramm<br />
Thresholding, Histogramm Matching, Brightness Inversion, radiometrische<br />
Kalibrierung, Atmosphärenkorrektur Überblick über verschiedene Ansätze (Modell<br />
basiert, Dark-Pixel Subtraction, Empirical Line), Vorteile der AK,<br />
Strahlungskomponenten, Units of electromagnetic radiation: "Radiant Flux<br />
Density per Unit Area per Solid Angle, mW cm-2 sr-1 um-1 (= spectral<br />
radiance)), Gain-Settings, Reflectance vers. Radiance. ATCOR2 in Geomatica,<br />
ATCOR2 und ATCOR3, topographische Korrektur (Kanalratios, mit lokalem<br />
Beleuchtungswinkel, Berechng. des Einfallswinkels, Lambertsche Methode, Civco<br />
Modifikation, Non-Lambertsche Methode mit Minneart Konstante,<br />
6. Termin: Spektrale Transformationen, spektrale Eigenschaften von Vegetation,<br />
Aufbau eines Blattes, Vegetationsindizes, Red Edge, NDVI (Normalized Difference<br />
Vegetation Indice) und andere Ratios, HKT (Transformation) - PCT (Principal<br />
Component Transformation, Theorie und Beispiele für praktische Anwendungen,<br />
Tasseled Cap Transformation im Vergleich zur PCT - Vorteile und Nachteile,<br />
Kanalratios und PCT in Geomatica und EASI/PACE, Übung zur PCA in XPACE,<br />
7. Termin: Räumliche Transformationen, Filterungen im Ortsbereich, Image Domain<br />
Filterverfahren, Randpixelproblematik, Highpass, Lowpass, Highboost etc.,<br />
statistische Filter (Mean, Median, Gaussian, MinMax), morphologische Filter,<br />
Kantendetektoren, Zero-Sum Filter (Laplace, Sobel, Prewitt, subtraktive<br />
Glättung), adaptive Filterverfahren (Frost, Lee), Filterungen in Geomatica,<br />
Übungen zu Highpass, Lowpass und ZeroSum-Filterungen in EASI/PACE und<br />
Imageworks,<br />
8. Termin: Filterungen im Frequenzraum, Fourier-Transformation, Step-Funktion, 1-<br />
D-Step-Funktion und Umsetzung durch Amplitude und Frequenz, 2-D DFT, die<br />
Fouriersynthese, Phase und Magnitude, Powerspektrum, Reduzierung von<br />
Bildrauschanteilen, SNR (Signal to Noise), FFT in Geomatica, Übung zur<br />
Noisereduzierung mittels Medianfilter und Fourier Transformation unter<br />
Verwendung von EASI/PACE Programmmodulen,<br />
9. Termin: Datenfusion, Auflösungsproblematik: high res. spectral vers. spatial<br />
resolution, Datenfusionsprozesstypen, Ziele der Datenfusion, IHS, Hexcone<br />
Farbmodel, Farbraum-Projektion, Intensity, Hue, Saturation, PCA/PCS Fusion<br />
(Principal Component Substitution - PCS), COS-Verfahren, Pansharpening,<br />
Arithmetische Kombinationen - Fusion, Theorie die Farbraumtransformationen,<br />
HIS-RGB in Geomatica, SVR Fusion, Übung zur Datenfusion in EASI/PACE.<br />
10. Termin: Parametrische Klassifikatoren: Gliederung der Klassifikationsverfahren<br />
(unüberwachte -überwachte Verfahren; parametrische - nicht-parametrische<br />
Verfahren), unüberwachtes Clustering, K-Means, ISODATA, Min Distance to Mean,<br />
Parallelepiped Classifier, MLC (Maximum Likelihood Klassifikation),<br />
Verfahrensgliederung bei der überwachten Klassifikation (Definition von<br />
Trainingsgebieten, Definition von Evaluierungs(Test)gebieten,<br />
Genauigkeitsanalyse), kombinierte Verfahren, Postklassifikations Smoothing,<br />
ISODATA Clustering in Geomatica, Übung zur unüberwachten Klassifikation in<br />
Geomatica (EASI/PACE),<br />
11. Termin: Nicht parametrische Verfahren, Gliederung der Klassifikationsverfahren<br />
(unüberwachte -überwachte Verfahren; parametrische - nicht-parametrische<br />
Verfahren), Level Slicing, (Box-Classifier), ANN (Artifical Neural Networks) -<br />
Einführung in Theorie, Anwendungen und Programme in EASI/PACE,<br />
Prozessablauf in XPACE, Problembereiche bei der Anwendung, Struktur der<br />
Klassifikation mit ANNs (Konstruktion, Trainingsphase, Klassifikationsphase,<br />
Hierarchical Classification, NN Klassifikator, Distance-Weighted k-NN, Narenda<br />
Goldberg non-iteratives und nicht-parametrisches Histogramm Clustering,
Descision Tree Klassifikatoren, DTC vers. ANN, ANN Module in Geomatica<br />
(Beschreibung der Advanced ANN Module in EASI/PACE), Übung zur überwachten<br />
Klassifikation,<br />
12. Termin: Textur, Definitionen, statistische Parameter 1er Ordng (Varianz,<br />
Mittelwert), statistische Parameter 2ter Ordng. (SGLD), Spatial Grey Level<br />
Dependence Matrices, Concurrence Matrix, Co-occurence Matrix, SGD-Matrix-<br />
Klassen: Contrast, Dissimilarity, Homogenität, Angular Second Moment (Energy,<br />
Entropy), GLCM Mean, Variance, Stdev, Correlation), statistische Parameter 3ter<br />
und nter Ordng. (Variogrammanalysen und -texturklassifikation), Textur zur<br />
Datensegmentierung, Link zu Segmentierungsmethoden, Mustererkennung,<br />
Textur in Geomatica (Modulüberblick und -anwendung von TEX ), Übung zur<br />
Texturklassifikation in EASI/PACE,<br />
13. Termin Genauigkeitsanalysen von Klassifikationsergebnissen<br />
(Evaluierungsgebiete, Trainingsgebiete, User- und Producer Genauigkeit, Error of<br />
Omission, Error of Comission, MLR (Maximum Likelihood Report) in Geomatica,<br />
Übung zur Klassifikationsgenauigkeit, Literaturhinweise zum Thema,<br />
14. Termin: Hyperspektrale Datenauswertung, Eigenschaften, Sensoren<br />
(Kurzüberblick), Datenredundanz, spectral Unmixing, Endmembers, Spectral<br />
Angle Mapper, MNF (Minimum Noise Fraction), Spectral Feature Fitting, Binary<br />
Encoding, Hyperspektrale Datenverarbeitung in ENVI und SAM in Geomatica,<br />
Ausblick auf die Objekt orientierte Klassifikation und Schnittmengen mit GIS<br />
(Landscape Metrics, Fragstat, r.le in GRASS), ULE (Lehrevaluierung),<br />
15. ggf. 15. Termin: Wiederholung aller Termininhalte in komprimierter Form,<br />
Fragestunde zur Klausur, Ergebnis-Diskussion der ULE Analyse<br />
1.3 <strong>Digitale</strong> <strong>Bildverarbeitung</strong> – die Grundlagen<br />
Einheiten der Speicherkapazität:<br />
1 Bit = -> 0 oder -> 1 - ( Ja ) oder ( Nein )<br />
1 Byte = 8 Bit = 1 Zeichen (=> 256 mögliche Ausprägungen)<br />
1 KiloByte = 1024 Bytes -> 1024 = 2(hoch 10)<br />
1 MB = 1 Megabyte = 1024 * 1024 Byte (1.048.576 Byte).<br />
Megabyte:<br />
Die Berechnung von einem Megabyte führt immer wieder zur Verwirrung,<br />
daher sei hier auf den Faktor hingewiesen, mit dem gerechnet werden muss:<br />
1024 Byte = 1 KiloByte,<br />
1024 KiloByte = 1 Megabyte.<br />
1024 Megabyte = 1 Gigabyte<br />
Um also von z.B. 123.456.789 Bytes auf Megabyte umzurechnen,<br />
rechnet man: (123.456.789/1024)/1024=117,73 MB, oder<br />
123.456.789/1048576=117,73 MB<br />
Dieser Faktor wird in allen Berechnungen, die in MegaByte ausgedrückt werden,<br />
verwendet. Unglücklicherweise halten sich z.B. einige Hardwarehersteller nicht an diese<br />
Konvention. Dies führt beim Kauf von Festplatten immer wieder zu Verwirrungen.
KB=<br />
1024<br />
Byte<br />
Kilobyte 2^10 = 1.024 Bytes ca. 1<br />
Tausend<br />
(ca.<br />
10^3)<br />
MB=<br />
1024<br />
KB<br />
Megabyte 2^20 = 1.048.576 Bytes ca. 1 Million<br />
(ca.<br />
10^6)<br />
GB=<br />
1024<br />
MB<br />
Gigabyte 2^30 = 1.073.741.824 Bytes ca. 1<br />
Milliarde<br />
(ca.<br />
10^9)<br />
TB=<br />
1024<br />
GB<br />
Terabyte 2^40 = 1.099.511.627.776 Bytes ca. 1 Billion<br />
(ca.<br />
10^12)<br />
PB= 1024 TB Petabyte 2^50 = 1.125.899.906.842.624 Bytes ca. 1<br />
Billiarde<br />
(ca.<br />
10^15)<br />
EB= 1024 PB Exabyte 2^60 =<br />
1.152.921.504.606.846.976<br />
Bytes<br />
ca. 1 Trillion<br />
(ca.<br />
10^18)<br />
ZB= 1024 EB Zetabyte 2^70 =<br />
1.180.591.620.717.411.303.4<br />
24 Bytes<br />
ca. 1<br />
Trilliarde<br />
(ca.<br />
10^21)<br />
YB=<br />
1024<br />
ZB<br />
Jotabyte 2^80 =<br />
1.208.925.819.614.629.174.7<br />
06.176 Bytes<br />
(ca.<br />
10^24)<br />
Im Gegensatz zur Beschreibung von Datenmengen, spricht man bei der Beschreibung<br />
der radiometrischen Datenauflösung nur von Bit und nicht von Byte (8Bit) Einheiten.<br />
Es gilt also:<br />
1 Bit (on or off) 2 1 (2 mögliche Ausprägungen)<br />
8 Bit 2 8 values, equals 1 Byte (256 Werte - 0-255)<br />
10 Bit 2 10 values, 1024 Werte<br />
12 Bit 2 12 values, 4096 Werte<br />
16 Bit 2 16 (2 Byte), 65536 Werte<br />
32 Bit 2 32 (4 Byte), 4.294.967.296<br />
64 Bit 2 64 (8 Byte), 18.446.744.073.709.551.616<br />
128 Bit 2 128 (16 Byte)<br />
Type Descriptions:<br />
integer 4 byte signed integer number<br />
float 4 byte single precision floating point number<br />
double 8 byte double precision floating point number<br />
char single character (1 byte)<br />
byte single unsigned byte (8 Bit)<br />
1.4 <strong>Digitale</strong> <strong>Bildverarbeitung</strong> in der <strong>Fernerkundung</strong> – Komponenten eines<br />
<strong>Bildverarbeitung</strong>ssystems<br />
Die Methoden der digitalen <strong>Bildverarbeitung</strong> werden in der <strong>Fernerkundung</strong> aufgeteilt in<br />
unterschiedliche in einer spezifischen Reihenfolge abzuarbeitende Prozessierungs- oder<br />
Verarbeitungsschritte:<br />
1. Image Preprocessing:<br />
a. Noise Removal<br />
b. Geometric Correction / Geocoding / Georeferencing
c. Radiometric Correction<br />
d. Atmospheric Correction<br />
e. Topographic Normalisation<br />
2. Image Enhancement:<br />
a. Contrast Manipulation<br />
b. Spatial Feature Manipulation<br />
c. Multi Image Manipulation<br />
d. Data Fusion<br />
e. Multispectral Transformation<br />
f. Feature Reduction<br />
3. Image Classification and/or Biophysical Modelling<br />
a. Supervised classification<br />
b. Unsupervised classification<br />
c. Biophysical parameter retrieval (Biomass, FPAR, LAI, forest stand density<br />
etc.)<br />
Bilddaten in der <strong>Fernerkundung</strong> haben spezifische Merkmale. Im Einzelnen lassen sich<br />
folgende Merkmalsbereiche voneinander trennen:<br />
• Radiometrische – spektrale Merkmale<br />
• Geometrische – texturelle Merkmale<br />
• Temporale Merkmale<br />
• Kontextmerkmale<br />
2 <strong>Bildverarbeitung</strong>ssoftware in der <strong>Fernerkundung</strong><br />
2.1 <strong>Fernerkundung</strong>ssoftware<br />
ENVI/IDL:<br />
Schwerpunkt der Analysefunktionen in ENVI ist der hyperspektrale Bereich. Ein großer<br />
Vorteil von ENVI ist die nahtlose Integration von IDL Routinen in ENVI. IDL gilt im<br />
Bereich der <strong>Fernerkundung</strong> als eine der stärksten Programmiersprachen. Im Vergleich zu<br />
anderen Umgebungen fällt bei ENVI die enorme Menge an Fenstern auf, mit denen<br />
Eingaben und Darstellungen umgesetzt werden. Oft werden wichtige Funktionen tief in<br />
Menüstrukturen versteckt. Intensives Arbeiten führt schnell zu sehr unübersichtlichen<br />
Desktops und erschwert erheblich das systematische Arbeiten. Der Viewer von ENVI ist<br />
recht schnell und solange man nicht mit mehreren Datensätzen arbeitet ist das Konzept<br />
sehr ergonomisch bedienbar. Problematisch wird es, wenn mehrere Datensätze angezeigt<br />
werden sollen (Übersichtlichkeit). Die hyperspektrale Funktionalität ist wohl am Markt<br />
führend. Nutzung und Entwicklung eigener IDL Routinen ist jedoch nötig, um das<br />
eigentliche Potential der Softwareumgebung auszunutzen. Mit der Version 4.0 ist einiges<br />
an Funktionalität hinzugekommen (Decision Tree Classifier, Neural Net Classifier). Die<br />
Unterstützung von Fremdformaten ist erheblich besser geworden mit den neueren<br />
Versionen ab 3.5. Das ENVI Bilddatenformat ist recht einfach über eine ASCII-Header-<br />
Datei ansprechbar und es existiert ein eigenes Vektorformat. Die Stabilität ist<br />
befriedigend. Z.T. existieren Erweiterungen, die jedoch kostenpflichtig sind (z.B. ASTER<br />
DTM). Demoversion ist vollständig herunterladbar, arbeitet jedoch nur 7 Minuten lang.<br />
Der Creaso-Support ist vorbildlich (www.creaso.com). Es existiert eine Studentenversion<br />
zu erheblich reduziertem Preis.
Fazit: ENVI ist die Entwicklungsumgebung der Wahl für alle Arbeiten im Bereich der<br />
hyperspektralen Datenverarbeitung und -analyse. Aufgrund der Nähe zu IDL auch in<br />
vielen anderen Bereichen der <strong>Fernerkundung</strong> sehr oft eingesetztes Softwarepaket.<br />
Schnelle Einarbeitung möglich. Funktionsumfang in Version 4.0 hat gleichgezogen mit<br />
anderen RS-Software-Paketen. Insbesondere die Verfügbarkeit von IDL ist i.d.R. ein<br />
entscheidendes Kaufargument.<br />
ERDAS Imagine:<br />
Zur Leica Geosystems Gruppe gehörendes Softwarepaket mit viel Tradition im<br />
deutschsprachigen Raum. Kein spezifischer Schwerpunkt, jedoch gute Funktionalität im<br />
Bereich Photogrammetrie und allgemeine <strong>Fernerkundung</strong>. Die Nutzung von Modeller und<br />
EML Programmierungen zur Erweiterung der Funktionalität ist in den meisten Fällen<br />
notwendig. Der grafische Modeller ist sehr gut gelungen und sehr flexibel einsetzbar.<br />
Einige spezielle Tools (Knowledge Engineer, Knowledge Classifier) und die ATCOR<br />
Einbindung (AddOn) sind herauszustellen. Schwache Leistung im Bereich<br />
Vectordatenverarbeitung (Vector Modul ist von ArcINfo eingekauft und bringt nur wenig<br />
Funktionalität aus ArcInfo mit und ist unverständlich teuer), dafür aber sehr ausgereiftes<br />
Tool für 3D Visualisierung (VirtualGIS). Nicht vollständige Importfunktion für die<br />
gängigen Datenformate (Geomatica PCIDSK?). Sehr schneller und stabiler Viewer.<br />
Warum gibt es so einen Viewer nicht auch in anderen Software-Lösungen? Die<br />
Dokumentation ist jedoch definitiv nicht ausreichend, insbesondere die Online- bzw.<br />
Kontexthilfe taugt i.d.R. gar nicht bzw. hilft einem nicht weiter. Webseite unter:<br />
(http://www.gis.leica-geosystems.com/Products/Imagine/). Große Usergemeinde in<br />
Deutschland, aber auch in den USA. Regelmäßige Nutzertreffen in Deutschland durch<br />
Geosystems organisiert. Email-Forum mit reger Teilnahme. Support über Geosystems in<br />
München. Stabilität zufrieden stellend und eindeutig besser als bei der Geomatica 9.x<br />
Reihe.<br />
Fazit: Guter Einstieg in die <strong>Fernerkundung</strong>, jedoch nicht das systematische Arbeiten<br />
unterstützend. Gewohntes Bedienkonzept vieler Menüs, klasse Pfadnavigationsoptionen,<br />
die zu erheblich beschleunigtem Arbeiten führen. Vorbildlicher Datenviewer und sehr<br />
guter grafischer Modeller im Baukasten System.<br />
ERMapper:<br />
Aus Australien stammende Software mit Stärken im Bereich der Visualisierung. Im<br />
zentraleuropäischen Bereich nicht sehr stark vertreten, jedoch mit großer<br />
Funktionsvielfalt. Demoversion downloadbar. Bekannt wurde in den letzten Jahren das<br />
Dateiformat ECW, ein auf Waveletmethoden basierendes Dateiformat mit hohen<br />
verlustfreien Kompressionsraten. Sehr gute Visualisierungstools für GIS Daten und 3D<br />
Information.<br />
eCognition:<br />
Objektorientierte <strong>Bildverarbeitung</strong> (Segmentierung & Klassifikation von Bildsegmenten<br />
ohne klassische Datenverarbeitungsfunktionen wie z.B. Atmosphärenkorrektur oder<br />
geometrische Korrektur. eCognition wird von der Firma Definiens aus München<br />
vertrieben (http://www.definiens-imaging.com/ecognition/pro/index.htm) und empfiehlt<br />
sich in erster Linie für geometrisch sehr hoch auflösende Datensätze im Bereich 1-15 m<br />
und höher auflösend. Gute Dokumentation, hohe Anforderungen an die Hardware,<br />
komplexe Einarbeitungsphase möglichst mit erheblichen Vorkenntnissen aus der BV<br />
notwendig. Jährliche Nutzertreffen in München oder anderswo, online Mailforum. Netter<br />
Support aus München, jedoch nicht immer verfügbar (i.d.R. wird man auf das Online-<br />
Interface vertröstet). Vollständige Demoversion downloadbar (Begrenzung nur durch die<br />
Bildgröße). Stabilität der Software sehr gut bei kleineren Datensätzen – eher sehr
schlecht bei sehr großen Datensätzen. LDH Version verfügbar, die die 32Bit<br />
Adressraumbegrenzung von Windows XP 32 überwindet.<br />
Fazit: Software für spezielle Fragestellungen. Zur vollständigen Nutzung aller Funktionen<br />
sind erhebliche Erfahrungen im Bereich der <strong>Bildverarbeitung</strong> und möglichst auch im GIS<br />
Bereich Voraussetzung.<br />
Geomatica 9.x (Ex PCI):<br />
Produkt der kanadischen Softwarefirma PCI-Geomatics mit langer Tradition im<br />
Erdfernerkundungsbereich. Unterschiedliche Nutzerinterface machen es dem Einsteiger<br />
schwer, den richtigen Weg in die Funktionalität der Software zu finden. Wer jedoch eine<br />
flache und anstrengende Lernkurve zu Beginn überstanden hat, dem stehen viele<br />
Funktionen zur Verfügung, die sich einfach über Routinen einbinden lassen und für viele<br />
Anwendungen anpassbar sind. EASI Programmierumgebung kann zur Entwicklung von<br />
Batch Prozessierungsroutinen genutzt werden. Durch die Nähe der EASI/PACE und<br />
XPACE Routinen zur EASI-Programmierung ist der Einstieg in die Programmierung von<br />
Routinen recht einfach. Das Nutzerinterface zwingt den Anwender Verfahren und<br />
Methoden vollständig zu verstehen. Die Onlinehilfe ist absolut notwendig für Einsteiger.<br />
Der Funktionsumfang vieler Routinen ist erheblich und sehr gut konfigurierbar. Sehr gute<br />
Datenimportfunktionen für praktisch fast alle Fremdformate (inklusive Erdas Imagine).<br />
Sehr guter OrthoEngine mit automatischer Unterstützung vieler Sensor-Daten-<br />
Geometrien. Die Onlinehilfe ist vorbildlich gelöst und enthält auch weitergehende<br />
Literaturhinweise und ist durch die automatische Mitführung der Hilfe unter Xpace sehr<br />
hilfreich um die Lernkurve zu verbessern. Online-Hilfe von Focus leider nicht in der<br />
gleichen Tradition aufgebaut. Der grafische Modeller ist im Konzept sehr gut, leider im<br />
Funktionsumfang noch eingeschränkt (in Version 10 ausgebaut worden).<br />
Leider existieren in der Version 9.x immer noch Probleme mit der Stabilität bei<br />
Verwendung des Focus Interface bzw. mit der grafischen Darstellungsqualität unter<br />
UNIX. ATCOR Einbindung nicht so gut gelungen wie in ERDAS (wie kann man effektiv c0<br />
und c1 Koeffizienten erzeugen?). Topografische Normalisierung mittels DTM fehlt als Tool<br />
(aber in ATCOR3 verfügbar – kostenpflichtiges „Advanced Modul“). Das Focus Viewer<br />
Interface ist sehr langsam und hat auch nach Updates i.d.R. noch erhebliche Bugs. Der<br />
Updatezyklus ist recht schnell. I.d.R. erscheinen vierteljährliche Bugbereinigungen.<br />
Demoversion von Geomatica ist bestellbar. Ein abgespeckter Viewer ist frei verfügbar.<br />
Große Usergemeinde insbesondere im englischen Sprachraum (Kanada, GB, USA).<br />
Nutzertreffen in Deutschland eher selten (CGI-Systems). Fortbildungen i.d.R. in Canada<br />
oder GB. Waches Email-Forum mit Austausch von EASI Skripten ist herauszustellen.<br />
Support in Deutschland über CGI Systems in München. Website unter: (www.pci.on.ca).<br />
Fazit: Softwarepaket für Anwender mit Nähe zur Programmierung, da die volle<br />
Funktionalität erst durch EASI-Routinen nutzbar ist. Komplexe Einarbeitungsphase<br />
notwendig, da das Nutzungskonzept viel Vorwissen voraussetzt. PCI unterstützt jedoch<br />
entscheidend das methodische und strukturierte Arbeiten mit <strong>Fernerkundung</strong>sdaten<br />
durch den sehr modularen Aufbau. Schade, das der Rest des Konzeptes nach Version 6.0<br />
so unglaublich instabil läuft. Dies soll in der Version 10 besser geworden sein.<br />
VICAR:<br />
Das VICAR <strong>Bildverarbeitung</strong>ssystem wurde am JPL entwickelt und wird genutzt, um<br />
Daten der Planetenmissionen z.B. zum Mars auszuwerten. VICAR ist komplett<br />
Kommandozeilen orientiert und gut scriptierbar.<br />
“VICAR, which stands for Video Image Communication And Retrieval, is a general<br />
purpose image processing software system that has been developed since 1966 to<br />
digitally process multi-dimensional imaging data. VICAR was developed primarily to<br />
process images from the Jet Propulsion Laboratory's unmanned planetary spacecraft. It
is now used for a variety of other applications including biomedical image processing,<br />
cartography, earth resources, astronomy, and geological exploration. It is not only used<br />
by JPL but by several universities, NASA sites and other science/research institutions in<br />
the United States and Europe.”. Kein Support, nach Kenntnisstand kein Mailforum.<br />
http://www-mipl.jpl.nasa.gov/external/vicar.html<br />
KHOROS:<br />
„Khoros Pro 2001 (http://www.khoral.com/) ist eine Softwareentwicklungsumgebung,<br />
mit der aus einem Repertoire an vorhandenen Softwarebausteinen eigene Applikationen<br />
entwickelt werden können. Die Anwendungsschwerpunkte liegen dabei in den Bereichen<br />
<strong>Bildverarbeitung</strong>, Signalverarbeitung und Visualisierung.<br />
Khoros war ursprünglich eine Entwicklung der University of New Mexico (1990) und<br />
wurde lange Zeit im Quelltext zum freien Download zur Verfügung gestellt. Dadurch<br />
erreichten die ursprüngliche Version 1 sowie die Nachfolgeversion Khoros 2 auch in<br />
Deutschland einige Verbreitung bei Hochschulinstituten und Forschungseinrichtungen.<br />
Seit einigen Jahren wird Khoros nun von einer eigens gegründeten Firma als<br />
kommerzielles Produkt weiterentwickelt und vertrieben (Khoral Research Inc.).<br />
Den Vertretern von Khoral Research ist dabei wohl bekannt, dass ein nicht<br />
unwesentlicher Teil des Khoros-Systems aus Entwicklungen einer aktiven<br />
Nutzergemeinde entstanden ist, die im Laufe von Jahren viele Bausteine zu dem Paket<br />
beigetragen hat. Außerdem gründete die Attraktivität der ersten Khoros-Versionen nicht<br />
zuletzt auf der Verfügbarkeit der Programmquellen. Unter diesem Aspekt bietet Khoral<br />
Research Inc. auch weiterhin eine "Studentenversion" im Quelltext an, die sich<br />
Studenten nach einer Registrierung herunterladen können, die aber nicht weiterverteilt<br />
werden darf. Diese besteht aus dem Quelltext einer Beta-Version von Khoros Pro, die<br />
aktuelle Weiterentwicklungen in einer frühen Testphase beinhaltet“ (http://www.lrzmuenchen.de/services/software/grafik/khoros/).<br />
Inzwischen ist Khoros in den Besitz von AccuSoft übergegangen und nicht mehr frei<br />
verfügbar. Das System heißt nun wohl VisiQuest (http://www.accusoft.com/) und ist voll<br />
kommerziell.<br />
Fazit: Sehr schade, dass Khoros nicht mehr „freie“ Software ist!<br />
2.2 Andere Softwarepakete mit z.T. fernerkundungsrelevantem<br />
Funktionsumfang:<br />
GRASS:<br />
GRASS ist ein Open Source GIS (http://grass.baylor.edu/), welches frei verfügbar ist.<br />
Vollversion herunterladbar. Auch für unterschiedliche UNIX Varianten kompilierbar.<br />
Windows Portierung unter Verwendung von Cygwin.<br />
“GRASS GIS (Geographic Resources Analysis Support System) is an open source, Free<br />
Software Geographical Information System (GIS) with raster, topological vector, image<br />
processing, and graphics production functionality that operates on various platforms<br />
through a graphical user interface and shell in X-Window. It is released under GNU<br />
General Public License (GPL).”<br />
Alle Module sind in den GRASS-Manpages beschrieben. Funktionalitäten im Bereich<br />
<strong>Bildverarbeitung</strong> (Image Processing): Auflösungsverbesserung, Bildentzerrung (affin,<br />
polynomisch) auf Raster- oder Vektorgrundlagen, Farbkomposite, Fouriertransformation,<br />
Hauptkomponentenanalyse (PCA), Histogrammstreckung und -stauchung, Image Fusion,<br />
kanonische Komponentenanalyse (CCA), Kantenerkennung, Klassifikationen: (a)<br />
radiometrisch: unüberwacht, teilüberwacht und überwacht (Affinity, Maximum<br />
Likelihood), (b) geometrisch/radiometrisch: unüberwacht (SMAP), Kontrastverbesserung,<br />
Koordinatentransformation, IHS/RGB-Transformation, Orthofoto-Herstellung,<br />
Radiometrische Korrektur (Filterung), Resampling (bilinear, kubisch, IDW, Splines),
Shape Detection, Zero Crossing. Visualisierungsmöglichkeiten: Animationen, 3D-<br />
Oberflächen, Bildschirm-Kartenausgabe, Farbzuweisung, Histogramm.<br />
Nutzergemeinde praktisch nur UNIs, rege Aktivitäten in den Mailforen, jedoch viele<br />
wiederkehrenden Probleme mit Portierungshintergrund. Kaum Schulungen, online tutorial<br />
ist sehr gut. Handbücher verfügbar. Support gibt’s nicht (Open Source), Nutzertreffen<br />
nach Bedarf und Laune). Große Stärke ist die Integration eigener Skriptroutinen unter<br />
UNIX (UNIX Shell und Utilities sind vollständig nutzbar). TclTk Interface nach eigenen<br />
Vorstellungen ausbaubar.<br />
Fazit: Eine Umgebung für die Entwicklung von GIS-Routinen, Schwerpunkt im Raster-GIS<br />
Sektor.<br />
ArcGIS:<br />
Das GIS Software Paket schlechthin, mit nicht endenden Funktionen, Schnittstellen und<br />
Ausbaustufen vom Marktführer im GIS-Sektor ESRI (www.esri.com). Rasterfunktionalität<br />
kommt mit den ArcGIS Extensions: Spatial Analyst (find suitable locations, find the best<br />
path between locations, perform integrated raster/vector analysis., Perform distance and<br />
cost-of-travel analyses, perform statistical analysis based on the local environment,<br />
small neighbourhoods, or predetermined zones, generate new data using simple image<br />
processing tools, interpolate data values for a study area based on samples, clean up a<br />
variety of data for further analysis or display; 3D Analyst; Geostatistical Analyst;<br />
ArcScan (Perform automatic or interactive raster-to-vector data conversion, create<br />
shapefile or geodatabase line and polygon features directly from raster images, use<br />
raster snapping capabilities to make interactive vectorization more accurate and efficient,<br />
prepare images for vectorization with simple raster editing).<br />
Schwerpunkt der Rasterfunktionen in ArcGIS liegt auf GIS Analysefunktionen,<br />
Datenaustausch, Interpolation, nicht auf der klassischen <strong>Bildverarbeitung</strong> und dem Data<br />
Preprocessing.<br />
Halcon:<br />
(http://www.mvtec.com/halcon/) Software mit Schwerpunkt im Bereich industrielle<br />
<strong>Bildverarbeitung</strong> und Feature Detection, Pattern Matching.<br />
„HALCON is well known as a comprehensive machine vision software that is used<br />
worldwide. It leads to cost savings and improved time to market: HALCON's flexible<br />
architecture facilitates rapid development of machine vision and image analysis<br />
applications. HALCON provides an extensive library of more than 1100 operators with<br />
outstanding performance for blob analysis, morphology, pattern matching, metrology, 3D<br />
calibration, and binocular stereo vision, to name just a few.”<br />
IPW:<br />
IPW (Image Processing Workbench) ist ein <strong>Bildverarbeitung</strong>ssystem, das unter UNIX auf<br />
Skript orientierter Arbeitsweise beruht. Diverse Einzelroutinen (um 80) können zu<br />
komplexeren Skripten kombiniert werden. Dokumentation vorhanden (www), online<br />
Version frei verfügbar. Support n/a und Mailforum nicht vorhanden. Stabilität wohl gut –<br />
wenig im deutschen Sprachraum genutzt. Schlechte Schnittstelle zu anderen<br />
Datenformaten (GRASS und UNIX Bildformate), aber sehr gute Unterstützung bei der<br />
Strahlungsmodellierung. Basiert in hohem Maße auf der UNIX Shell. Mit UNIX<br />
Shellprogrammen können schnell und effektiv eigene Routinen zusammengestellt<br />
werden.<br />
“The Image Processing Workbench is a Unix-based image processing software system.<br />
The system was written by Jim Frew, with contributions from Jeff Dozier, J. Ceretha<br />
McKenzie, and others at the University of California, Santa Barbara. The software is
portable among Unix systems and is freely distributable. The name Image Processing<br />
Workbench reflects the influence the Unix system had on the design of IPW, since an<br />
early version of Unix was called the `Programmer's Workbench'.<br />
Individual Unix and IPW programs are "tools" which may be used together to perform<br />
more complicated operations. IPW is a set of programs, written in C, that form an<br />
extension of Unix. Therefore, IPW programs can be used in combination with Unix<br />
programs, and IPW has no need to duplicate basic Unix functions such as file<br />
management and command interpretation.<br />
Unix programs are executed by typing the name of the program as a command to the<br />
shell. Parameters are specified on the command line, rather than in response to user<br />
prompts. The command syntax for IPW is patterned after the proposed standard for Unix<br />
system commands. In Unix and IPW most input and output are on preconnected<br />
channels, the standard input (stdin) and the standard output (stdout). "Pipes" connect<br />
the standard output of one command to the standard input of the next. The use of pipes<br />
avoids intermediate files and speeds the execution time since the second program in the<br />
pipeline may start running as soon as output from the first program begins.”<br />
(http://www.icess.ucsb.edu/~ipw2/crrel.man/1/ipw.html)<br />
Idrisi:<br />
(http://www.clarklabs.org/IdrisiSoftware.asp?cat=2):<br />
Raster Vector-GIS Funktionalität, z.T mit eingeschränkter Kompatibilität mit<br />
kommerziellen Datenformaten.<br />
ILWIS:<br />
ILWIS integrates image, vector and thematic data in one package on the desktop. ILWIS<br />
delivers import/export, digitizing, editing, analysis and display of data as well as<br />
production of quality maps and geostatistical tools. As from 1st January 2004 ILWIS<br />
software will be distributed solely by ITC as shareware to all users irrespective of their<br />
relation with ITC. Documentation is online available.<br />
MATLAB:<br />
MATLAB ® und die Image Processing Toolbox unterstützen eine Vielzahl fortschrittlicher<br />
<strong>Bildverarbeitung</strong>sfunktionen. Es können Bildmerkmale extrahieren und analysieren,<br />
Merkmalmessungen berechnen und Filteralgorithmen angewendet werden.<br />
MATLAB bietet eine umfangreiche Entwicklungsumgebung, mit Schwerpunkten im<br />
Bereich Algorithmusentwicklung und Anwendungseinsatz, Visualisierung, Bildanalyse und<br />
Verbesserung und Datenim- und export.<br />
Durch Zugriff auf andere Extensions von MATLAB (Neural Network Toolbox u.a.) ist eine<br />
Ausweitung in andere Methodenbereiche möglich. Durch die stark auf Programmierung<br />
basierende Struktur von MATLAB ist diese Software stark vertreten in den technischen<br />
Wissenschaften (Engineering). Ausgedehnte Dokumentation, Software portiert auf<br />
unterschiedliche Betriebssysteme, an vielen Universitäten verfügbar i.d.R. über beliebig<br />
viele Campuslizenzen. Ernsthafte Alternative zu IDL für die Algorithmenentwicklung,<br />
jedoch ohne fertige Standard –<strong>Fernerkundung</strong>sroutinen. http://www.mathworks.de<br />
/applications/imageprocessing/.<br />
Andere interessante Softwarepakete im GIS/RS Sektor: CARIS, MAPINFO, MANIFOLD,<br />
SMALLWORLD, GMT, VARIOWIN, GSTAT, GSLIB.
3 Arbeiten mit Geomatica 9 – eine Einführung<br />
Dieser Abschnitt wurde z.T. aus den Handbüchern von EASI/PACE und Schulungsmaterial<br />
von CGI Systems 2004 übernommen bzw. stammt aus persönlichen Aufzeichnungen der<br />
Jahre 1995 – 2003 des Autors.<br />
Die Schnellkonfiguration:<br />
* Focus Autostart ausschalten: \etc\geomatica.prf „Autolaunch“ für Focus löschen (1. Zeile)<br />
* Arbeitsverzeichnis von Geomatica Geomatica-Icon/rechte Maus/Ausführen in d:\ Name_Directory<br />
* Focus Nutzereinstellungen Focus/Tools/Options<br />
3.1 Die Geomatica Toolbar:<br />
Über die Geomatica Toolbar werden die Geomatica-Module aufgerufen:<br />
Abb. 1: Geomatica 9.1 Toolbar<br />
Von links nach rechts:<br />
Focus: Datenvisualisierung, Datenerfassung, Datenbankmanagement, Im/Export,<br />
Subset, Reproject, Klassifizieren, Programme ausführen in der Algorithmenbibliothek,<br />
Modeler: Visuelles bzw. graphisches Modellierinterface (vegleichbar mit dem ERDAS<br />
Modeller) auch mit Batch-Processing Fähigkeiten, EASI: Command-Mode Interface und<br />
Programmierumgebung für EASI Routinen (sehr wichtig für Batchprocessing),<br />
OrthoEngine: geometrische Entzerrung, manuelles und automatisches Mosaikieren,<br />
Orthobild und DGM-Generierung, FLY: 3D fly-through, Chip Manager: Erstellung von<br />
Passpunkt-Datenbanken, License Manager: Lizenzierung; ImageWorks: der alte Viewer<br />
von PCI bis zur Version 6. Wird durch Focus ersetzt und fällt wohl in der Zukunft weg;<br />
Xpace: EASI/PACE Routinen mit graphischem Interface – gleiche Softwareumgebung wie<br />
in EASI; GCPWORKS: Tool zur geometrische Korrektur, zur Mosaikierung und<br />
Georeferenzierung.<br />
Die PCI Geomatics Generic-Database-Technologie erlaubt den Zugriff auf über 100<br />
Raster- und Vektorformate. Viele Formate können nicht nur gelesen, sondern auch<br />
geschrieben werden. Die „Generic Database“ ist in alle Geomatica-Module implementiert.<br />
Für manche Arbeitsschritte können Files in Fremdformaten verwendet werden, d.h. es ist<br />
keine Konvertierung in das PCI interne Format (*.pix) notwendig. Z.B. können<br />
Passpunkte direkt aus einem GEOTIFF-Bild genommen werden, oder eine<br />
Bildklassifizierung kann direkt mit einem Imagine-File durchgeführt werden u.ä.m. .<br />
Soll ein Datensatz aber mit vielen Geomatica Programmen bearbeitet werden, ist es oft<br />
sinnvoll das File in einen pix-File zu importieren, denn in diesem Format können<br />
Zusatzinformationen, wie GCPs, LUTs, PCTs etc. gespeichert werden.<br />
PCIDSK (*pix):<br />
Geomatica hat eine eigene, software-interne Datenbank, die sogenannte PCIDSK, in der<br />
Bilddaten (Rasterdaten) in Bildkanälen (Channels) und damit assoziierte Daten in<br />
Segmenten (Segments) gespeichert werden können. Die Files haben die Endung pix.
Bildkanäle (Channels):<br />
8-Bit ganzzahlig ohne Vorzeichen (8U), 16-Bit ganzzahlig, mit Vorzeichen (16S), 16-Bit<br />
ganzzahlig, ohne Vorzeichen (16U), 32-Bit reell, mit Vorzeichen (32R)<br />
Segmente (Segments):<br />
Geographische Bezugsdaten (Georeferencing), Passpunkte (GCPs), Look-Up-Tabellen<br />
(LUTs), Pseudofarb-Tabellen (PCTs), Vektoren (Vectors), Masken (Bitmaps), Orbitdaten<br />
(Orbits), Spektrale Signaturen (Signatures) u.a.(siehe unten).<br />
3.2 Mit Xpace arbeiten<br />
Der Einstieg in EASI/Pace erfolgt über das Anklicken des Xpace-Symbols in GEOMATICA.<br />
Für eine erfolgreiche Programmausführung sind die Arbeitsschritte Programmaufruf,<br />
Statusabfrage, Setzen der Parameter, Überprüfung des Eingabestatus und die<br />
Programmausführung notwendig (vergleiche Abbildung 2).<br />
Abb. 2: Xpace Arbeitsumgebung mit XPACE Panel und Status-Window.<br />
Falls Unklarheiten bezüglich des Programms oder der Programmparameter bestehen,<br />
kann mit der Help-Taste die On-Line Hilfe aufgerufen werden. Die Onlinehilfe funktioniert<br />
aktualisierend. Je nach dem, welches Programmmodul aufgerufen wird aktualisiert sich<br />
auch die Onlinehilfe. In der Onlinehilfe werden in der Regel das Programm, die<br />
Parameter, der Algorithmus sowie ein oder mehrere Beispiele dargestellt. Die Onlinehilfe<br />
ist sehr detailliert und sollte möglichst immer mitlaufen beim Arbeiten mit Xpace.<br />
Beachte!
Alle Programme, die unter XPACE zur Verfügung stehen, sind auch unter EASI<br />
verwendbar, jedoch existieren in der Algorithmenbibliothek unter FOCUS sehr viele<br />
Routinen und Programme, die nicht unter EASI/PACE verfügbar sind. PACE-Programme<br />
lesen in der Regel Daten von Eingabekanälen (DBIC Database Input Channel) und geben<br />
das Ergebnis in Ausgabekanäle (DBOC Database Output Channel) aus. Deshalb ist<br />
darauf zu achten, daß nicht aus Versehen wichtige Bildkanäle überschrieben werden!!!<br />
Viele neuere Funktionen sind nur unter FOCUS über die Algorthmenbibliothek erreichbar.<br />
3.3 Arbeiten im Command-Mode (EASI):<br />
Um PACE Programme im Command-Mode ausführen zu können, muß der Programmname<br />
vorab bekannt sein. Für eine erfolgreiche Programmausführung sind die vier<br />
Arbeitsschritte notwendig:<br />
s tatus<br />
Abfrage des Programmstatus<br />
(l e t ) Setzen der Parameter<br />
h elp<br />
r u n<br />
key string<br />
Aufruf der On-Line Hilfe<br />
Ausführung des Programms<br />
Suche nach Kommandos<br />
Im Command-Mode ist jeweils nur die Eingabe des ersten Buchstaben notwendig<br />
(z.B. s fav). Bei der Let-Anweisung muß keine Angabe gemacht werden.<br />
Beispiel:<br />
Anhand des Programms FAV (Average Filtering of Image Data) wird die grundlegende<br />
Vorgehensweise im Command-Mode verdeutlicht. Alle Angaben werden nach dem EASI-<br />
Prompt eingegeben:<br />
EASI>s fav<br />
FILE - Database File Name :eltoro<br />
DBIC - Database Input Channel List > 1<br />
DBOC - Database Output Channel List > 2<br />
FLSZ - Filter Size: Pixels, Lines > 5 5<br />
MASK - Area Mask (Window or Bitmap) ><br />
Jetzt werden die gewünschten Parameter eingegeben:<br />
EASI>file="irvine<br />
EASI>dbic=2<br />
EASI>dboc=8<br />
EASI>flsz=3,3<br />
EASI>mask=0,0,256,256<br />
Vor der Programmausführung sollte der Programmstatus nochmals abgefragt werden,<br />
um zu prüfen, ob alle Änderungen richtig durchgeführt wurden:<br />
EASI>s fav<br />
FILE - Database File Name :irvine
DBIC - Database Input Channel List > 2<br />
DBOC - Database Output Channel List > 8<br />
FLSZ - Filter Size: Pixels, Lines > 3 3<br />
MASK - Area Mask (Window or Bitmap) > 0 0 256 256<br />
Alle Parameter sind nun richtig gesetzt und das Programm kann ablaufen:<br />
EASI>r fav<br />
Durch das Programm FAV wird vom Datenbasis-File "Irvine" der Bildkanal 2 mit einem<br />
3x3 Filter gefiltert und das Ergebnis im Bildkanal 8 ausgegeben. Es wird jedoch nicht das<br />
gesamte Bild eingelesen, sondern nur der linke obere Ausschnitt mit der Größe 256 x<br />
256 Pixel.<br />
Falls Unklarheiten bezüglich des Programms oder seiner Parameter bestehen, kann die<br />
On-Line Hilfe aufgerufen werden:<br />
EASI>h fav<br />
die Onlinehilfe erscheint.<br />
Die On-Line Hilfe enthält den gleichen Text wie die "EASI/PACE On-Line Help Manuals".<br />
In der Regel werden das Programm, die Parameter, die Algorithmen sowie ein oder<br />
mehrere Beispiele dargestellt. Ist der Benutzer z.B. an einer Erklärung der Parameter<br />
interessiert, ist folgende Eingabe notwendig:<br />
EASI>h fav p (arameter)<br />
Analog erfolgt der Aufruf von d (etail), e (xample), a (lgorithm) u.a.<br />
Abb. 3: EASI (Engineering Analysis and Scientific Interface) Kommandozeileninterface.<br />
Beachte!<br />
Wie aus dem vorhergehenden Beispiel deutlich wird, unterscheidet EASI/PACE zwischen<br />
Textparametern (FILE) und numerischen Parametern (DBIC, DBOC, FLSZ, MASK). Im<br />
Command-Mode werden Textparameter bei der Statusausgabe durch einen Doppelpunkt (:)<br />
gekennzeichnet und die Texteingabe muß in Anführungszeichen gesetzt werden. Die
Anführungszeichen am Textende können allerdings entfallen. Numerische Parameter sind durch ein<br />
Größerzeichen (>) gekennzeichnet. Mehrere numerische Angaben werden durch Komma<br />
voneinander getrennt.<br />
3.4 EASI/PACE Routinen nach Anwendungsbereichen sortiert<br />
Nachfolgend eine Auflistung der EASI/PACE Routinen nach Anwendungsbereichen<br />
kategorisiert. Diese Auflistung hat nicht einen Vollständigkeitsanspruch. Die Erklärungen<br />
sind z.T. noch unvollständig.<br />
Create, modify and delete PCIDSK files / other Utilities<br />
Data import and layerstacking process flow: fimport -> pcimod -> iii<br />
CIM<br />
Create Image Database File. Creates and allocates space for a new<br />
PCIDSK database file, for storing image data. PCIDSK files can store<br />
8-bit unsigned, 16-bit signed, 16-bit unsigned, and 32-bit real<br />
image channels, of any size (pixels and lines). A georeferencing<br />
segment is automatically created as the first segment of the new<br />
file.<br />
PCIMOD<br />
PCIDSK Database File Modification. Allows modification of PCIDSK<br />
database files. These modifications include: adding new image<br />
channels, deleting image channels, and compressing PCIDSK files<br />
(removing deleted segments) to release disk space. modify CIM<br />
created files<br />
SHL<br />
prints PCI diskfile header report<br />
CDL<br />
channel description listing<br />
LINK<br />
DIM<br />
DAS<br />
Delete segments<br />
ASL<br />
List segments<br />
AST<br />
Determine the segment type<br />
CDL<br />
channel description listing<br />
NUM<br />
Database Image Numeric Window. Prints a numeric window of<br />
image data on the report device.<br />
CLR Clear image with 0<br />
LOCK / UNLOCK Lock and unlock a channel<br />
PYRAMID<br />
creates pyramid layers<br />
DIM2<br />
delete database and image channels (obsolete)<br />
CIM2<br />
Create database and image channel files (separate files per<br />
channel) “file interleaved” (obsolete)<br />
PCIADD2<br />
adds one new image channel (obsolete)<br />
PCIDEL2<br />
deletes image channels from PCI database (obsolete)<br />
Export PCIDSK file / Import external format to PCIDSK File<br />
FIMPORT -> PCIMOD -> III -> Imageworks (import & layerstack)<br />
FIMPORT<br />
transfers all image and aux info from a source file to a new PCIDSK<br />
file (all GDB supp. formats)<br />
FEXPORT<br />
export to some GDB formats<br />
IMAGERD<br />
needs number of lines and pixels, header size, interleaving mode<br />
See also: DEMWRIT, DTEDWRIT, ERDASCP, ERDASHD, ERDASRD,
IPPI<br />
LINK<br />
PPHL<br />
PPII<br />
Image to BSQ Intermediate Format, Moves image data from a<br />
PCIDSK image database to an intermediate Band Sequential file<br />
format. This intermediate format is useful for transferring data to<br />
the PAMAP software product.<br />
Live Link to Non-PCIDSK Image File Creates a PCIDSK database file<br />
header allowing indirect access to imagery on a non-PCIDSK file. In<br />
addition, auxiliary information such a LUTs or bitmaps are<br />
transferred to the newly created PCIDSK file.<br />
BSQ Intermediate File Header Listing Prints the header block of the<br />
PCI-BSQ intermediate file<br />
BSQ Intermediate Format to Image Moves image data from a PCI-<br />
BSQ intermediate file format to a PCIDSK image database. Usually,<br />
this file is created by PAMAP third-party software.<br />
See also PPVI, SVFRD, SVFWR<br />
Transfer Data or Subset Data / Data Interchange<br />
III<br />
IIA<br />
IIB<br />
IIIBIT<br />
MIRROR<br />
ROT<br />
ROTBIT<br />
VECREAD<br />
VECWRIT<br />
VREAD<br />
VWRITE<br />
transfer image data between database files (source and target<br />
PCIDSK file have to exist (subsetting possible by using DBIW and<br />
DBOW)<br />
Segment Transfer<br />
Bitmap Transfer<br />
Image Transfer under a Bitmap<br />
Mirror an image<br />
Rotate an database channel<br />
Rotates bitmaps<br />
Read Vector Data from Text File Transfers vector information<br />
held in a text file, to a PCIDSK database vector segment.<br />
Vector Write to Text File, Writes vector information held in a<br />
PCIDSK vector segment to a text file.<br />
Read Vector Data from Text File Reads vector (line and point) data<br />
from a text file to a new PCIDSK database vector segment.<br />
Write Vector Data to Text File Writes vector (line and point) data<br />
from an existing PCIDSK database vector segment to a new text<br />
file.<br />
Geometrische Anpassung für Datenfusion oder multitemp. Analysis von verschieden<br />
Datensätzen.<br />
AUTOREG<br />
IMGLOCK<br />
TRANSFRM<br />
IMGFUSE<br />
REG<br />
(Autoregistrierung – siehe auch imglock (nur nach Vorkorr. Möglich,<br />
mit Initial-GCP-Segment.)<br />
(um Autoreg oder Imglock zu nutzen muessen die Daten bereits<br />
grob aufeinander registiert sein, sonst laeuft nix).<br />
Datenfusion<br />
Image Registration, Performs image registration of an input<br />
(uncorrected) image to an output (master) image, given a set of<br />
ground control points.<br />
GeoAnalyst:<br />
CONTOUR<br />
Contour Generation from Raster Image Creates a vector segment<br />
containing contour lines from a raster image, such as an elevation<br />
(DEM) image, given a specified contour interval. The contour value
for each line is saved in either the Z-coordinate of all vertices or in a<br />
separate attribute field.<br />
ContactX<br />
DIEST<br />
IP<br />
FCONT<br />
FVDIF<br />
IDINT<br />
NNINT<br />
RBFINT<br />
TEX<br />
Contact Extension Creates an output vector segment. The vector<br />
egment consists of line segments which trace the intersection of a<br />
plane with the surface of a digital elevation model (DEM). The plane<br />
is defined from the dip and strike angles of the input shape, which<br />
are set by the DIP program. Alternatively, they may be set as<br />
parameters in this program.<br />
Estimation Procedure for Spatial Data Integration Combines multiple<br />
layers of spatial data to derive a favourability model for predicting a<br />
geological event (mineral potential, landslide, etc.). Available<br />
algorithms include probability estimation, certainty factor<br />
estimation, and fuzzy membership estimation. DIGRP must be run<br />
before DIEST<br />
Dip and Strike Calculation Calculates angles of dip and strike for a<br />
set of 3 or more points.<br />
Upward/Downward Continuation Filter Compute upward/downward<br />
continuation of a potential field. The filter is applied in frequency<br />
domain. 2D Fourier transform is first applied to the image. After<br />
filtering, the image is transformed back to the spatial domain.<br />
Vertical Differentiation Filter Compute the Nth order vertical<br />
differentiation of a potential field. The filter is applied in frequency<br />
domain after transforming the image using 2D FFT.<br />
Inverse Distance Interpolation Generates a raster image by<br />
interpolating image values between specified pixel locations using<br />
the Simple Inverse Distance or Weighted Inverse Distance<br />
algorithm.<br />
Natural Neighbour Interpolation Generates a raster image by<br />
interpolating image values between specified pixel locations using<br />
natural neighbour interpolation. This program uses the NNGRIDR<br />
code developed by Dr. D.F. Watson at the University of Western<br />
Australia.<br />
Radial Basis Function Interpolation Generates a raster image by<br />
interpolating image values between specified pixel locations using a<br />
Radial Basis Interpolation Algorithm. This program implements the<br />
Multi-Quadric and the Thin Plate Spline schemes.<br />
Texture Analysis Calculates a set of texture measures for all pixels<br />
in an input image. The measurements are based on second-order<br />
statistics computed from the grey level co-occurrence matrices.<br />
Either texture measures for a specific direction or directional<br />
invariant measures can be computed. The texture measures may be<br />
used as input features to classification algorithms.<br />
Change Radiometric Resolution:<br />
SCALE<br />
STR<br />
LUT<br />
Image Grey Level Scaling and Quantization, perrforms a linear or<br />
nonlinear mapping of image grey levels to a desired output range.<br />
This program is typically used to scale data from "high" resolution<br />
(32 and 16-bit) channels to "low" resolution (16 and 8-bit)<br />
channels.<br />
Image Contrast Stretch, Generates a lookup table segment to<br />
perform contrast stretching of image data on database files.<br />
Image Enhancement via Lookup Table, Enhances imagery on disk<br />
by passing it through an 8-bit Lookup Table segment (LUT type
FUN<br />
MODEL, (ARI)<br />
170) or breakpoint Lookup Table segment (BLUT type 172) and<br />
writing the resulting imagery back to disk. This allows bulk<br />
radiometric enhancement of image data.<br />
Image Enhancement via Functions, Generates a lookup table to<br />
perform a specified function and stores it in a database lookup table<br />
segment. Five function types are supported: Histogram<br />
Equalization, Histogram Normalization, Histogram Matching,<br />
Infrequency Brightening, Adaptive Enhancement<br />
Model Interface, zur Ausführung von Berechnungsroutinen, die im<br />
Syntax geschrieben wurden (siehe help Model, Syntax).<br />
Change Geometric Resolution:<br />
IIIAVG,<br />
IMERGE,<br />
IIIC<br />
Other options: usage of<br />
Xpace -> Reproject<br />
Focus -> Reproject<br />
Transfers image data between two database files. Input pixels are<br />
averaged, if the output database size is smaller than the input<br />
database size. Resolution reduction can be done defining the output<br />
size.<br />
Merges one image channel from one or more image files to produce<br />
one output file. Output georeferencing and pixelsize can be defined.<br />
Database to Database channel transfer. Output bounds define the<br />
new geometrical resolution.<br />
Projektionen: Creating and adding projection information<br />
CIMPRO<br />
FIMPORT<br />
SETPRO<br />
MAKEPRO<br />
DBREPRO<br />
Create Image Projected Database<br />
(Import Foreign File) Transfers all the image, and auxiliary<br />
information from a source file to a newly created PCIDSK file. All<br />
GDB supported file types may be imported.<br />
Set projection<br />
make projection segment<br />
database reprojection report<br />
Reproject from one image to another:<br />
DBREPRO<br />
CIMPRO<br />
REGPRO<br />
show desired output projection<br />
create new projected database<br />
resample to new projection<br />
Geometric Correction:<br />
Process flow for mosaicing of georeferenced data sets: FPOLY2 -> APOLY2 -> RADNORM<br />
-> AUTOCUT -> MOSAIC<br />
IVI<br />
GCII GCIV +<br />
GCIM GCIT<br />
GCPREP<br />
GCPG<br />
CIM<br />
GEOSET<br />
REG<br />
Gcpworks<br />
Image to video display transfer tool (v.6 utility).<br />
Image to Image/Vector/Map/Terminal GCP collection (v.6)<br />
GCPReport for GCP Segmentss<br />
GCP Collection Preview Graphic Report<br />
Create image database file<br />
Set the georeferencing segment<br />
Image Registration using a GCP Segment created earlier or with<br />
GCPworks (or without GCP Segment).<br />
Interactive GCP Tool for non-systematic geometric correction.
AUTOMOS<br />
Automosaic, can be used to automatically mosaic georeferenced<br />
Image databases that have the same georeferencing. This is the<br />
Most powerfull solution for full automatic mosaic generation. Output<br />
Is created automatically. Two very important subfunctions are<br />
included:<br />
TREMOV (trend removal) can be used to radiometrically balance big<br />
mosaics removing trends or hot spots in an image using APOLY2<br />
and FPOLY2.<br />
RBAL (radiometrical balancing) calculates Lookup table balancing for<br />
each scene to make the adjacent scenes match better. Resulting<br />
mosaics show less patchiness (RADNORM Programm).<br />
With the MOSTYP function the cutline can be adjusted to areas that<br />
show similar DNs – optimal cutline calculation (“Cutline”) can be<br />
adjusted using different cost functions (CFUNC).<br />
However, AUTOMOS is a complex routine and sometimes fails to<br />
complete the mosaicing process.<br />
MOSAIC<br />
IMERGE.eas<br />
MATCH<br />
CREMOS.EAS<br />
Image Mosaicking, Moves image data from an input image database<br />
file to an output image database file. The mosaicking process may<br />
be controlled by a vector segment defining the mosaic cut-line. In<br />
addition, the input image database data may be modified by a<br />
lookup table before it is moved to the output database.<br />
Merge Image Files Merges one image channel from one or more<br />
image files to produce one output file. IMERGE overwrites one input<br />
image file with the next input file, all within the output file<br />
Histogram Matching LUT Creates a lookup table which performs<br />
histogram matching of an input image to a master image. The<br />
output lookup table is saved on the input database and can be used<br />
by program LUT to modify input image.<br />
Mosaicing EASI routine.<br />
Noise removal:<br />
LRP<br />
DSTRIPE<br />
Line Replacement<br />
Image Destriping<br />
Frequency transforms:<br />
FTF<br />
FTI<br />
FFREQ<br />
Fourier Transformation<br />
Inverse Fourier Transformation<br />
Freq Domain Filter<br />
Database Image Filtering:<br />
FAV<br />
FED<br />
FEFROST<br />
Averaging (Mean) Filter Performs AVERAGE filtering on image data.<br />
The Averaging (mean) filter smooths image data, eliminating noise.<br />
Edge Detection Filter (up to 33x33) Performs EDGE DETECTION<br />
filtering for Image data. The edge detection filter creates an image<br />
where edges (sharp changes in grey-level values) are shown.<br />
Enhanced Frost Filtering (up to 33x33), FEFROST performs<br />
enhanced frost filtering on any type of image data. The filter is<br />
primarily used on radar data to remove high frequency noise<br />
(speckle) while preserving high frequency features (edges).
FELEE<br />
FFROST<br />
FGAMMA<br />
KUAN<br />
FLE<br />
FME<br />
FMO<br />
FPR<br />
FPRE<br />
SHARP<br />
FSOBEL<br />
FSPEC<br />
LINE<br />
SIEVE<br />
MODEL<br />
ARI<br />
Enhanced Lee Adaptive Filtering (up to 11x11), Performs enhanced<br />
Lee adaptive filtering on image data. The enhanced Lee Filter is<br />
primarily used on radar data to remove high frequency noise<br />
(speckle) while preserving high frequency features (edges).<br />
Frost Adaptive Filtering (up to 33x33) FFROST is used primarily to<br />
filter speckled SAR data. An adaptive Frost filter smooths image<br />
data, without removing edges or sharp features in the images.<br />
Gamma Filtering (up to 11x11), Performs gamma map filtering on<br />
image data. The gamma map filter is primarily used on radar data<br />
to remove high frequency noise (speckle) while preserving high<br />
frequency features (edges).<br />
Kuan Filtering (up to 11x11), Performs Kuan filtering on image data.<br />
The Kuan filter is primarily used on radar data to remove high<br />
frequency noise (speckle) while preserving high frequency features<br />
(edges).<br />
Lee Adaptive Filtering (up to 11x11), Performs Lee adaptive filtering<br />
on image data. The Lee Filter is primarily used on radar data to<br />
remove high frequency noise (speckle) while preserving high<br />
frequency features (edges).<br />
Median Filter (up to 7x7) Performs MEDIAN filtering on image data.<br />
The median filter smooths image data, while preserving sharp<br />
edges.<br />
Mode Filter (up to 7x7) Performs MODE filtering on image data. The<br />
Mode filter is primarily used to clean up thematic maps for<br />
presentation purposes.<br />
Programmable Filter (up to 33x33), Performs programmable<br />
filtering on image data. The programmable filter averages image<br />
data according to user specified weights.<br />
Prewitt Edge Filter (3x3), Performs PREWITT EDGE DETECTOR<br />
filtering for Image data. The Prewitt edge detector filter creates an<br />
image where edges (sharp changes in grey-level values) are shown.<br />
Sharpening Filter (up to 33x33) Performs an edge sharpening filter<br />
on image data. This filter improves the detail and contrast within an<br />
image.<br />
Sobel Edge Filter (up to 3x3), Performs SOBEL EDGE DETECTOR<br />
filtering for Image data. The Sobel edge detector filter creates an<br />
image where edges (sharp changes in grey-level values) are shown.<br />
SAR Speckle Filters Applies a speckle filter on a SAR image. The<br />
supported filters are: Lee Filter, Kuan Filter, Frost Filter, Enhanced<br />
Lee Filter, Enhanced Frost Filter, Gamma MAP Filter and Touzi Filter.<br />
These filters are primarily used on radar data to remove high<br />
frequency noise (speckle), while preserving high frequency features<br />
(edges). For convenience, a Block Average Filter and a Standard<br />
Deviation Filter are also provided.<br />
Lineament Extraction Extracts linear features from an image and<br />
records the polylines in a vector segment. This program is designed<br />
for extracting lineaments from radar images. However, it can also<br />
be used on optical images to extract curve-linear features.<br />
Sieve Filter (Class Merging) Reads an image channel, and merges<br />
image value polygons smaller than a user specified threshold with<br />
the largest neighbouring polygon. This is typically used to filter<br />
small classification polygons from a classification result.<br />
Modelling environment (can be used instead of EASI)
Atmospheric Correction / Biosphere parameter modelling:<br />
ATCOR0<br />
ATCOR1<br />
ATCOR2<br />
ATCOR3<br />
ATCOR2_T<br />
ATCOR3_T<br />
LAI<br />
SAVI<br />
FPAR<br />
(obsolete v.6)<br />
(obsolete v.6)<br />
Atmosheric correction for flat areas, calculates an atmospheric<br />
correction for flat areas applying constant or varying atmosphere.<br />
Atmospheric correction and topographic normalisation, calculates a<br />
ground reflectance image using elevation data.<br />
Calculation of surface temperature for flat area<br />
Calculation of surface temperature using elevation data<br />
Leaf Area Index model, calculates an Leaf Area Index model value.<br />
Soil Adjust Vegetation Index, calculates a Soil Adjusted Vegetation<br />
Index (SAVI)<br />
Fraction of Absorbed Photosynthetically Active Radiation, calculates<br />
fraction of Absorbed Photosynthetically Active Radiation<br />
Ratios, Indices, IHS, PCA:<br />
RTR<br />
ARI<br />
CHDET<br />
PCA<br />
DECORR (after PCA)<br />
IHS<br />
RGB<br />
FUSE<br />
FUSEPCT<br />
FUSION<br />
Image rationing<br />
Image arithmetics<br />
Principal Component Analysis<br />
(RGB to IHS Conversion) Converts red, green, and blue (RGB)<br />
image channels to intensity, hue, and saturation (IHS) image<br />
channels. The IHS program is the inverse of the RGB program. The<br />
Intensity-Hue-Saturation transformation is used by the FUSE and<br />
FUSEPCT procedures to perform data fusion.<br />
(IHS to RGB Conversion) Converts intensity, hue, and saturation<br />
(IHS) image channels to red, green, and blue (RGB) image<br />
channels.<br />
(FUSE - data fusion for RGB colour image performs data fusion of a<br />
Red-Green-Blue colour image with a black-and-white intensity<br />
image. The result is an output RGB colour image with the same<br />
resolution as the original B/W intensity image, but where the colour<br />
(hue and saturation) is derived from the resampled input RGB<br />
image. FUSE is an EASI procedure which uses the REGPRO, IHS,<br />
and RGB programs to perform data fusion.<br />
Data fusion for pseudocolour, performs data fusion of a<br />
pseudocolour image with a black-and-white intensity image. The<br />
result is an output RGB colour image with the same resolution as<br />
the original B/W intensity image, but where the colour (hue and<br />
saturation) is derived from the resampled input pseudocolour<br />
image. FUSEPCT is an EASI procedure which uses the REGPRO, PCE,<br />
IHS and RGB programs to perform data fusion.<br />
Data fusion of two input images, creates an output RGB colour<br />
image by fusing an input RGB colour or pseudocolour image with an<br />
input black-and-white intensity image, using the IHS transform<br />
(cylinder or hexcone model) or the Brovey transform.<br />
NDVI<br />
TASSEL<br />
Compute NDVI (from AVHRR) (better use EASI or MODEL)<br />
Tasseled cap transformation for Landsat MSS TM and ETM bands<br />
Supervised Classification:<br />
Process flow: CSG -> CSR -> CSE -> SIGMER -> MLC -> MAP -> MLR
1. create test sites as graphic planes in Imageworks<br />
2. change PCIPIX file layout (add channels for results)<br />
3. save graphic planes to new graphic bitmaps into the PCIPIX file<br />
4. create class signatures using the graphic bitmaps<br />
CSG<br />
CSR<br />
CSE<br />
SIGSEP<br />
SIGMER<br />
CHNSEL<br />
Class Signature Generator<br />
Class Signature Report<br />
Class Signature edit<br />
Signature Separability<br />
Class Signature Merging<br />
Multispectr Channel Selection<br />
5. Classify the image data using e.g. MLC into the empty image channels<br />
MINDIS<br />
MLC<br />
Minimum distance Classifier<br />
Maximum Likelyhood Classifier<br />
6. Create a report of the classification and of evaluation areas for accuracy purpose<br />
MAP<br />
MLR<br />
TRAIN<br />
use MAP to burn (encode) evaluation areas (graphic bitmaps) into<br />
an image channel with identical class codes as used for the graphic<br />
bitmaps in the classification<br />
use MLR to create the reports: MLR Maximum Likelyhood Report<br />
Classification procedure from PCI v.6 (obsolete)<br />
Unsupervised Classification:<br />
1. Use directly KCLUS or ISOCLUS<br />
KCLUS<br />
FUZCLUS<br />
ISOCLUS<br />
NGCLUS<br />
NGCLUS2<br />
FUZ<br />
(K-Means Clustering) unsupervised clustering using the K-means<br />
(Minimum Distance) method on image data for up to 255 clusters<br />
(classes) and 16 channels. The output is a theme map directed<br />
database image channel.<br />
(Isodata Clustering Program) Performs unsupervised clustering<br />
using the ISODATA method on image data for up to 255 clusters<br />
(classes) and 16 channels. The output is a theme map directed to a<br />
database image channel.<br />
8-Bit Narendra-Goldberg Clustering, maybe better clustering results<br />
Multi-bit Narendra-Goldberg Clustering<br />
Unsupervised Fuzzy Classification, implements an unsupervised<br />
fuzzy clustering algorithm. A maximum of 255 clusters can be<br />
generated from 16 image channels. Each cluster is stored into a<br />
separate image channel. The intensity value of each pixel in each<br />
image channel is proportional to the degree of membership of that<br />
pixel corresponding to the channel's.<br />
2. Merge classes or signatures and recluster the data:<br />
AGGREG<br />
Interactive Class Aggregation, merges up to 255 selected classes<br />
together. Using the clustering results, the user can display classes<br />
in different colours, group classes into aggregates, change the<br />
colours of classes, and change classes under graphic bitmaps to<br />
another class.
SIGSEP<br />
SIGMERG<br />
AUTOMER<br />
Signature separability, prints a report of class signature<br />
separabilities among 2 to 256 classes. Separabilities can be<br />
calculated using either the Transformed Divergence or the<br />
Bhattacharrya (Jeffries-Matusita) distance measure. The separability<br />
between two classes can be used to determine if the classes should<br />
be merged using:<br />
Class Signature Merging<br />
Automatic Signature Merging<br />
Other tools for cluster analysis:<br />
CLS<br />
EXP<br />
SCE<br />
SPL<br />
SPL3D<br />
VOR<br />
Cluster definition classification<br />
Feature space exploration<br />
Single class ellipse<br />
Scatterplot of image data<br />
3D Scatterplot of Image Data<br />
Visual Outlier Removal<br />
Alternative classification approaches:<br />
Neural network classification process flow:<br />
NNCREAT -> NNTRAIN -> NNCLASS -> NNREP -> MAP -> MLR<br />
AVG<br />
NNCREAT:<br />
NNTRAIN<br />
NNCLASS<br />
NNREP<br />
REDUCE<br />
CONTEXT<br />
Unsupervised texture segmentation,<br />
CIM -> MAL (Mallat Wavelet Transformation) -> AVG<br />
Creates a neural network segment for back-propagation neural<br />
network processing. The neural network programs (NNCREAT,<br />
NNTRAIN and NNCLASS) form the process for supervised<br />
classification of multispectral imagery using training sites with<br />
ANNs.<br />
Trains a back-propagation neural network for pattern recognition).<br />
Neural Network Classification (Classifies multispectral imagery using<br />
a back-propagation neural network segment created by the<br />
NNCREAT program and trained by the NNTRAIN program).<br />
Prints a report of the parameters in a backpropagation neural<br />
network segment created by NNCREAT and trained by NNTRAIN.<br />
Validation is done using MAP (to burn eval areas into a raster layer),<br />
MLR (Class report)<br />
Creates a grey level vector reduced image for frequency-based<br />
contextual classification. The output image created by this program<br />
is used by the CONTEXT program to perform a supervised<br />
classification of multispectral imagery using user-specified training<br />
sites.<br />
Performs frequency-based contextual classification of multispectral<br />
imagery, using a grey level reduced image (created by the REDUCE<br />
program) and a set of training site bitmaps.<br />
Hyperspectral Analysis:<br />
SAM<br />
Spectral Angle Mapper Image Classification Classifies hyperspectral<br />
image data, on the basis of a set of reference spectra that define<br />
the classes.<br />
See also: SPADD, SPARITH, SPCONVF, SPCNVG, SPCOPY, SPECREP, SPFIT, SPHULL,<br />
SPIMARI, SPMOD, SPNORM, SPREAD, SPUNMIX, SPWRIT.
Database Reports:<br />
ASL<br />
BIT<br />
CDL<br />
CDSH<br />
HIS<br />
LUTREP<br />
PCTREP<br />
HISDUMP<br />
RCSTATS<br />
SHL<br />
Segment listing<br />
Bitmap printout<br />
Channel listing<br />
CD header report<br />
Histogram image<br />
LUT report<br />
PCT report<br />
Histogram export<br />
Row/column statistics<br />
Source Header List<br />
Multilayer Modelling:<br />
IPG<br />
OLO<br />
OVL<br />
POG<br />
BBT<br />
CONSTR<br />
IPG<br />
MAT<br />
POG<br />
PRX<br />
ARE<br />
REC<br />
Identifies contiguous groups of 8-connected pixels of the same input<br />
grey level or for specified input grey-level ranges, and assigns a<br />
unique grey level as a label to each output raster polygon.<br />
Applies a logical operation to an image channel using a<br />
pseudocolour table created on the display with the DCP "BL"<br />
command and saved with VIP to the database. The output is a<br />
bitmap that is ON where the logical operation of the associated BL<br />
command is satisfied.<br />
Combine multiple image channels by setting the output channel<br />
qual to the minimum or maximum value of all input channels at<br />
any given pixel location. Classes within the input images can be<br />
recoded by OVL using lookup tables created with REC<br />
Reports the position, area, and perimeter for all specified polygons<br />
in a PCIDSK image database file.<br />
Inserts up to eight bitmaps into bitplanes of an image plane. The<br />
resultant image is an overlay map, which can be analyzed using the<br />
DCP bitplane commands and the tasks OLO and CAR. Individual<br />
bitplanes can be cleared with CIB.<br />
CONSTRAINT ANALYSIS allows the user to overlay layers of<br />
information and examine the combinations of data. This is used to<br />
find areas in an image that meet a number of different constraints,<br />
such as with site selection.<br />
Identifies contiguous groups of 8-connected pixels of the same input<br />
grey level or for specified input grey-level ranges, and assigns a<br />
unique grey level as a label to each output raster polygon.<br />
Creates a coincidence (intersection) matrix for the classes of two<br />
images and an image of the coincidence values. Classes within the<br />
input images can be recoded by MAT using lookup tables created<br />
with<br />
Reports the position, area, and perimeter for all specified polygons<br />
in a PCIDSK image database file.<br />
Proximity Analysis Calculates proximities to a given class or classes<br />
within an image.<br />
Elevation Data Area under Bitmap. Calculates the true and<br />
projected areas, under a user-selected bitmap, from an elevation<br />
image.<br />
Creates or overwrites a 256-value database lookup table segment<br />
which can be used to transform or recode 8-bit image data stored<br />
on database image channels. Unspecified lookup table values can be<br />
defaulted to either zero or identity. No image data is changed.
Vector Utilities:<br />
Raster vectorisation process flow: RTV -> VECMERGE -> VECCLEAN<br />
Raster statistics under buffered vector polygons, process flow: GRDPOL -> SCALE -><br />
SHRINK -> THR -> MODEL -> RTV -> VIMAGE -> VECREP<br />
CONTOUR<br />
GRD<br />
GRDINT<br />
GRDPIN<br />
GRDPNT<br />
GRDPOL<br />
GRDVEC<br />
IDINT<br />
KRIGING<br />
RBFINT<br />
RTV<br />
VDEMINT<br />
VECBUF<br />
VECDIG<br />
Contour Generation from Raster Image. Creates a vector segment<br />
containing contour lines from a raster image, such as an elevation<br />
(DEM) image, given a specified contour interval. The contour value<br />
for each line is saved in either the Z-coordinate of all vertices or in a<br />
separate attribute field.<br />
Vector Grid Interpolation, Grids (fills in) the raster image channel,by<br />
interpolating image data between encoded vector data (normally<br />
created by the GRDVEC program). GRDVEC and GRDINT can be<br />
used to create digital elevation models (DEM).<br />
Point Grid Interpolation Generates a raster image by interpolating<br />
image values between specified pixel locations. Optionally<br />
associated with each input pixel grey level is a user-specified<br />
confidence level.<br />
Point Coverage Gridding Given a set of points stored in a vector<br />
segment, a raster image is generated where each grey level<br />
corresponds to the attribute value of the closest point.<br />
Polygon Coverage Gridding Convert polygons or arcs in vector<br />
segments to raster image or bitmap.<br />
Vector Encoding Encodes (burns in) vector data into existing raster<br />
image channel. The attribute value associated with each line and<br />
point in the vector segment is encoded into the image channel. The<br />
GRDINT program is used to grid (fill in) raster values between<br />
encoded vectors in the image channel. GRDVEC and GRDINT can<br />
be used to create a digital elevation mode (DEM) from contours.<br />
Inverse Distance Interpolation Generates a raster image by<br />
interpolating image values between specified pixel locations using<br />
the Simple Inverse Distance or Weighted Inverse Distance<br />
algorithm.<br />
Point Interpolation with Kriging Generates a raster image by<br />
interpolating points specified in vector segments, using the kriging<br />
method.<br />
Radial Basis Function Interpolation Generates a raster image by<br />
interpolating image values between specified pixel locations using a<br />
Radial Basis Interpolation Algorithm. This program implements the<br />
Multi-Quadric and the Thin Plate Spline schemes.<br />
Raster to Vector Conversion Takes as its input a raster image held<br />
in a channel on a PCIDSK file (preferably one which has been<br />
classified and/or well filtered). RTV then outputs vector data<br />
describing the boundaries and/or interior points of the areas<br />
(polygons) in the image. The generated vector data is stored in a<br />
created vector segment in the file.<br />
Create Buffer Zone Around Vector Set Creates a graphic mask<br />
defining a buffer zone which surrounds vector data, given a user<br />
specified buffer width.<br />
Vector Digitization (Using Tablet) Interactively digitizes lines and<br />
points on a map using a tablet (digitizing table). Simultaneous
VECMERG<br />
VESPRO<br />
VECREG<br />
VECREP<br />
VECRST<br />
VECSEL<br />
VIMAGE<br />
VSAMPLE<br />
feedback is provided on a video display. Lines and points are saved<br />
on a new PCIDSK database vector segment.<br />
Merge Database Vector Segments Merges two or more vector<br />
segments held in a PCIDSK file and writes<br />
the result to a new vector segment.<br />
Converts the input vectors to produce a new vector segment of<br />
vector data in the specified output projection.<br />
Vector Registration (Warping) Performs registration of vector data<br />
on a vector segment using a ground control point (GCP) segment or<br />
a georeferencing segment, to produce a new segment of<br />
transformed vector data.<br />
Vector Segment Report, Writes the contents of a vector segment to<br />
a report device.<br />
Rasterize Vectors This program rasterizes one or more vector<br />
segments with a provided RST into one or three raster channels.<br />
Vector Selection Performs selection of vectors for a window and/or<br />
range(s) of attributes to produce a new vector segment. Vector<br />
thinning may also be done on the output vectors.<br />
Collect Image Point/Polygon Statistics VIMAGE samples a raster<br />
image layer for each vector in a vector layer, and adds a column to<br />
the vector layer containing the requested sample statistics. Either<br />
point sampling, or polygon statistics can be computed.<br />
Sample Image Along Vectors This program samples pixels from one<br />
or more image channels that lie underneath a specified vector<br />
segment and writes the result to a txt file, or vector point layer.<br />
Watershed and Drainage Applications:<br />
DRAIN<br />
Drainage Basin From Elevation Data, Generates a drainage network<br />
data set channel using the flow accumulation data.<br />
DWCON Drainage Watershed Conditioning, Performs four conditioning<br />
procedures for drainage and watershed programs. This program<br />
must be executed before any drainage and watershed programs.<br />
OVERLND<br />
PPTABLE<br />
SEED<br />
Overland Path Generation, Finds the overland path (flow path) of<br />
the drainage network. The OVERLND program uses the point<br />
sources (start cells) from the STARTER program, and traces their<br />
overland paths until they enter the drainage network or encounter<br />
the edge of the image channel.<br />
Pour Point Table Report, Finds all the pour points between<br />
watersheds (i.e., a table of linkages for watersheds) and stores<br />
them in a table. Pour points are the points of lowest elevation on<br />
the common boundary between watersheds.<br />
Automatic Watershed Seed Starter Performs automatic seeding for<br />
delineation of sub-watersheds defined by major tributaries.<br />
STARTER<br />
WTRSHED<br />
Watershed Seed Starter, Performs an interactive procedure to<br />
create a starter data set for specific watershed delineation or<br />
overland path determination<br />
Watersheds from Elevation Data finds the specific watersheds or<br />
sub-watersheds using the results from STARTER or SEED.
3.5 EASI- Programmierung<br />
Ein EASI-Macro enthält eine Reihe von EASI-Anweisungen (siehe Manual EASI User<br />
Guide), die im Texteditor eingegeben und gespeichert werden (die Extension ist .eas,<br />
z.B macro_1.eas) Macros werden mit einer Run-Anweisung im EASI-Window gestartet<br />
(EASI>r dir ; s. weiter unten). Einfache Macros enthalten eine Aneinanderreihung von<br />
Programm-Parametereingaben und Run-Anweisungen (r cim). Textvariable (z.B. file)<br />
müssen in Hochkomma gesetzt werden.<br />
Einfache Prozeduren enthalten eine Aneinanderreihung von Parameterangaben und eine<br />
RUN-Anweisung. Ausgefeilte Prozeduren können aber auch vom Benutzer Eingaben<br />
abfragen, On-Line Hilfe beinhalten, Unterprozeduren aufrufen, arithmetische Funktionen<br />
ausführen und anderes mehr.<br />
In EASI-Prozeduren können sowohl permanente Variable, die in das Parameter-File<br />
(PRM.PRM) eingetragen sind, auftreten, als auch temporäre Variable, die nur während<br />
des Ablaufes einer bestimmten Prozedur zur Verfügung stehen. Für viele Prozeduren sind<br />
die im Parameter-File vorhandenen Variablen (z.B. DBIC, ESCALE) und einige temporär<br />
definierte Variable (z.B. #A, $B) ausreichend. Findet eine bestimmte Variable immer<br />
wieder in verschiedenen Prozeduren Verwendung, kann der Benutzer diese mit dem<br />
Befehl DEF ins Parameter-File aufnehmen.<br />
“EASI, the Engineering Analysis and Scientific Interface, is both a command<br />
environment for interactive executing tasks and a scripting language for the construction<br />
of applications. EASI is independent of its host environment and eliminates the<br />
differences between host operating systems, presenting the user with a simple, powerful<br />
environment. As a command environment, EASI provides a simple and convenient<br />
mechanism for querying and setting input parameters required by an executable module,<br />
referred to as a “task”. The interactive user is able to view a complete list of all the<br />
parameters required as input by a task, check their current values, modify their values,<br />
and execute the task. As a scripting language, EASI can be used to automate those<br />
manual procedures that are performed by a user interactively.<br />
A set of commands can be placed in an ordinary text file, called an EASI script, to specify<br />
parameter values and execute tasks. Chains of such commands in an EASI script can be<br />
used to automatically compute more complex or time-consuming results. In addition to<br />
support for simple automation scripts, the EASI scripting language includes a complete<br />
set of control structures with which complex applications can be built. EASI also includes<br />
a rich set of intrinsic functions which permit the manipulation of data in a platform<br />
independent way. Examples of data that can be accessed and manipulated include raster<br />
imagery, vector data, projection information, and general binary and text files.“<br />
(EASI/PACE Reference Geomatica 8.2)<br />
Eine Beispielroutine ist wird in Abb.4 vorgestellt und kommentiert:<br />
!EASI<br />
! Rev1. 11.8.2003 (docu and the initial statements)<br />
!<br />
! EASI Routine by SHese 82003<br />
!<br />
! using: PCIMOD and DAS<br />
!<br />
! start of online help documentation here<br />
! THE ! is just documentation and remarks – you can just write anything here<br />
! DOC is for online documentation that can be read through XPACE or EASI/PACE by<br />
! the user
! STATUS is the syntax output from the status command or the status button in<br />
! EASI/PACE or XPACE<br />
! INPUT asks for input from the user<br />
! PRINT just prints anything out here<br />
! LOCAL defines variables<br />
! etc. check the EASI reference for more on this stuff<br />
DOC @title{BATCHDELETE}{Delete Channels or Segments in Batchmode}<br />
DOC<br />
DOC 1 Details<br />
DOC<br />
DOC This Routine deletes Channels or Segments in Batchmode<br />
DOC using DAS or PCIMOD - all files in a directory are treated<br />
DOC<br />
DOC_END<br />
! this is a simple documentation that hold only a detail-chapter<br />
local string chanseg<br />
local string in_dir, fn, ext, bn<br />
local mstring dirlist<br />
local integer number, i<br />
local $Z<br />
let $Z = "\<br />
status_title "Delete Channels or Segments"<br />
status_end<br />
print ""<br />
print "Delete Channels or Segments from all PCIDSK files in Directory"<br />
print ""<br />
INPUT "Delete Channels (CHAN) or Segments (SEG) (chan/seg): "chanseg<br />
INPUT "Enter the directory which contains the files to be changed: " in_dir<br />
INPUT "ENTER Channel or Segment number: " number<br />
dirlist = getdirectory(in_dir)<br />
! ---------------------this is the create section ------------------------------------------<br />
! start of first if-loop<br />
if (chanseg = "chan") then<br />
! start of a for-loop<br />
for i = 1 to f$len(dirlist)<br />
fn = in_dir + $Z + dirlist[i]<br />
ext = getfileextension(fn)<br />
bn = getfilebasename(fn)<br />
! start of secondary if-loop<br />
if (ext ~= "pix") then<br />
MONITOR = "ON"<br />
file=in_dir + $Z + dirlist[i]<br />
!starting with PCIMOD routine<br />
pciop="DEL"<br />
PCIVAL=number<br />
RUN PCIMOD<br />
endif<br />
endfor<br />
endif<br />
if (chanseg = "seg") then<br />
for i = 1 to f$len(dirlist)
fn = in_dir + $Z + dirlist[i]<br />
ext = getfileextension(fn)<br />
bn = getfilebasename(fn)<br />
if (ext ~= "pix") then<br />
MONITOR = "ON"<br />
file=in_dir + $Z + dirlist[i]<br />
!starting with DAS routine<br />
dbsl=number<br />
RUN DAS<br />
endif<br />
endfor<br />
endif<br />
print "Finished all"<br />
! this is just a simple example of a batch routine using if-then-endif and for-loops<br />
! and asking the user to enter some parameters<br />
Abb 4: Beispiel EASI Routine: EASI Routine zum Löschen von Segmenten oder Kanälen<br />
in allen PIX Dateien in einem Verzeichnis.<br />
Further Reading: see “EASI Users Guide”.<br />
3.6 GCPWorks<br />
This section has been created partly from the GCPWorks Manual in the Geomatica<br />
documentation.<br />
GCPWorks only deals with non-systematic errors, which include those due mostly to the<br />
variations in altitude and attitude (roll, pitch, and yaw) of the sensor platform at the time<br />
the data is acquired. Measurement techniques to correct these errors involve the<br />
collection of ground control points (GCPs) distributed evenly over the whole image. The<br />
best GCPs are located at well-defined and easy to recognize points on both the<br />
georeferenced (being registered to) and uncorrected (being registered) data sets. The<br />
displacements of these GCPs between the uncorrected and georeferenced data sets are<br />
used in the correction of these errors. A least squares regression analysis is used to<br />
determine the coefficients for twocoordinate transformation equations which relate the<br />
distorted image to the desired true map projection.<br />
The geometric correction is carried out in a two-step process:<br />
1. Transformation of Pixel Coordinates: Each pixel in the target or georeferenced image<br />
is transformed according to the warping polynomial to determine a sampling location in<br />
the input or uncorrected image.<br />
2. Resampling: Resampling is used to determine the pixel values to fill into the<br />
georeferenced (output) image from the uncorrected (input) image.
Abb. 5: GCPWorks Menü zur Georeferenzierung und geometrischen Korrektur.<br />
Polynomial Transformations:<br />
The transformation model creates a new geocoded image space where interpolated pixel<br />
values will later be placed during resampling. The procedure requires that polynomial<br />
equations be fitted to the GCPs using least squares criteria to model the correction in the<br />
image domain without identifying the source of the distortion. One of several polynomial<br />
orders may be chosen based on the desired accuracy and the available number of GCPs.<br />
The polynomial transformation is a 1st to 5th order polynomial, which mathematically<br />
describes how the uncorrected image has to be warped to make it register or fit over the<br />
georeferenced image. There are a number of georeferenced data types available in<br />
GCPWorks for image registration.<br />
These can be chosen from the main GCPWorks panel:<br />
• Geocoded Image<br />
• Hardcopy Map on Digitizing Table<br />
• Vectors<br />
• User Entered Coordinates<br />
• Chip Database<br />
In general, polynomial transformations with terms up to the first order can model a<br />
rotation, a scale, and a translation, and are computationally economical. As additional<br />
terms are added, (up to 21 in all, giving a 5th order polynomial), more complex warping<br />
can be achieved.<br />
If a lower order transformation will suffice, there are two important reasons for using it:<br />
• The correction program will run faster.
• There is less chance of geometric distortion in areas of no GCPs. The number of<br />
required GCPs depends on the order of the polynomial. Table 1 lists the minimum<br />
required number of GCPs.<br />
In practice, more than the required number of GCPs should be collected, so that any<br />
GCPs which contain significant positional errors on either the georeferenced map or the<br />
uncorrected image will have their errors reduced by averaging.<br />
The result of a first order transformation depends on the number of GCPs:<br />
• One GCP will produce a translation for only X and Y.<br />
• Two GCPs will produce a translation and a scaling change for X and Y if the pixel<br />
geometry is not linear in the X or Y dimension. If it is linear, (that is, the two have<br />
the same X or Y coordinate, producing a scaling factor of zero), only a translation will<br />
be produced. If a scale change is produced, this setup may be used to produce a ip in<br />
the X and/or Y dimension.<br />
• Three or more GCPs produce a translation, scale change, and/ or rotation for X and Y<br />
(a full first order transformation).<br />
Required GCPs<br />
Order<br />
7 2nd<br />
11 3rd<br />
16 4th<br />
22 5th<br />
Table: Minimum Number of Ground Control Points<br />
Required GCPs Order<br />
It is important to note that while a higher order polynomial will result in a more accurate<br />
fit in the immediate vicinity of the GCPs, it may introduce new significant errors in those<br />
parts of the image away from the GCPs. Therefore, worse errors may be introduced into<br />
the imagery than were to be corrected.<br />
Polynomial Equations:<br />
The following equations show the polynomials used for orders one, two, and three.<br />
Orders four and five are extrapolations from these with four and five order terms added.<br />
X’ and y’ are the coordinates in the uncorrected image generated from the georeferenced<br />
matrix system (x, y) coordinates. The current polynomial equation being used can<br />
1st order: x' = a(0) + a(1)x + a(2)y<br />
2nd order: x' = b(0) + b(1)x + b(2)y + b(3)xy + b(4)x^2 + b(5)y^2<br />
3rd order: x' = c(0) + c(1)x + c(2)y + c(3)xy + c(4)x^2 + c(5)y^2 + c(6)x^2y +<br />
c(7)xy^2 + c(8)x^3 + c(9)y^3<br />
1st order: y' = d(0) + d(1)x + d(2)y<br />
2nd order: y' = g(0) + g(1)x + g(2)y + g(3)xy + g(4)x^2 + g(5)y^2<br />
3rd order: y' = h(0) + h(1)x + h(2)y + h(3)xy + h(4)x^2 + h(5)y^2 + h(6)x^2y +<br />
h(7)xy^2 + h(8)x^3 + h(9)y^3<br />
Table 2: Polynomial Equations<br />
Order Equation
Determining the Accuracy of the Polynomial Fit GCP Works 9 be determined by selecting<br />
Model Coefficients from the Reports menu on the GCP Selection and Editing panel.<br />
Determining the Accuracy of the Polynomial Fit:<br />
In order to determine the accuracy of the derived coefficients of the GCPs, examine the<br />
results of the least squares regression of the initial GCPs:<br />
• The GCP scatter plot report, which can be activated by selecting GCP Scatter Plot from<br />
the Reports menu on the GCP Selection and Editing panel, shows the X and Y residual<br />
errors for each GCP point on a crosshair graph.<br />
• The RMS error for each GCP is reported in the lists of Accepted and Check GCPs on the<br />
GCP Selection and Editing panel. A total RMS error is also reported on this panel.<br />
The RMS error is calculated in pixel units by these equations:<br />
RMS error = ( ( x1 - xorg ) 2 + ( y1 - yorg ) 2 ) 1/2<br />
x1 = computed row coordinate in the uncorrected image.<br />
y1 = computed column coordinate in the uncorrected image.<br />
xorg = original row coordinate of the GCP in the image.<br />
yorg = original column coordinate of the GCP in the image.<br />
By computing the RMS errors for all of the GCPs, it is possible to see which GCPs exhibit<br />
the greatest error and to sum the RMS errors. If a given set of control points produce a<br />
total RMS error that exceeds your acceptable limit, you should consider deleting the<br />
GCPs that have the greatest errors. An error of less than the dimension of one pixel is<br />
suggested as an acceptable limit.<br />
The Image Fit Report is also available to help you assess the fit of the regression model.<br />
This report can be activated by selecting Image Fit from the Reports menu on the GCP<br />
Selection and Editing panel. It shows a graphical representation of the outline of the<br />
georeferenced image area, uncorrected image area, mosaic cut line, and GCP points. The<br />
uncorrected image outline is transformed according to the current GCP model. This<br />
preview of how the uncorrected image would map onto the georeferenced data set with<br />
the current set of GCPs allows the registration to be visually assessed before it is<br />
performed.<br />
Thin Plate Spline:<br />
Thin Plate Splines (TPSs) provide an attractive alternative to the traditional polynomials.<br />
Thin Plate Splines are also global (i.e., all GCPs are used simultaneously to derive the<br />
transformation), but the derived functions have minimum curvature between control<br />
points and become almost linear at great distances from the GCPs. The influence of an<br />
individual GCP is localized and diminishes rapidly the further away from the points. The<br />
TPS functions interpolate the values at all ground control points, within the numerical<br />
round-off error limits, and therefore a GCP can always be added in an area where the<br />
transformation is not satisfactory. The main disadvantage of TPSs is that, to represent a<br />
warping transformation accurately, they should be constrained at all extreme points of<br />
the warping function. This is not a problem in smoothly varying transformations, such as<br />
the change of coordinate systems (if the exact transformation functions are<br />
not known). However, when using TPSs to georegister a photograph in rough terrain, it<br />
may be necessary to acquire hundreds of GCPs, since there should be a point at every<br />
extreme of terrain (peak or valley bottom), and along breaklines. The derivation of TPS<br />
transformation parameters involves solving an equation system with a square (N+3) by<br />
(N+3) matrix, where N is the number of GCPs. For a very large N it is a time consuming<br />
task. Moreover, the evaluation of TPS functions at every image pixel requires calculation<br />
of N values of natural logarithms, and for large N this calculation may be prohibitively
slow: on a Sun SPARCstation LX the evaluation rate is 1440 pixels per second for a<br />
model with 83 GCPs. The other disadvantage of TPSs is that they reproduce exactly<br />
(within numerical computation errors) the values at all GCPs. Therefore the method does<br />
not provide direct means of detecting and correcting errors in GCP coordinates. To verify<br />
the derived transformation, an independent set of Check Points must be acquired and<br />
their number should be large enough to ensure a thorough verification (say, half the<br />
number of GCPs). This obviously increases the total cost of the approach, or may<br />
compromise the quality of the final product if the number of check points is low. To<br />
summarize, Thin Plate Spline warping is recommended for distortions that can be<br />
accurately represented by up to several tens of ground control points. It is not<br />
recommended for removal of terrain distortion, for which an analytical approach should<br />
be used. The analytical approach is based on a photogrammetric model of the viewing<br />
geometry and uses terrain elevations from a Digital Elevation Model of the area.<br />
Satellite Ortho Model:<br />
The Satellite Ortho Model is the geometric model used in the PCI PACE Satellite Ortho<br />
and DEM package. In GCPWorks, it is only enabled when the user selects the Satellite<br />
Ortho Correction Mathematical Model from the GCPWorks Setup panel. It should be<br />
noted that the residual errors reported in GCPWorks are in PIXEL unit on the raw image,<br />
assuming the input geocoded coordinates are correct. This is equivalent to setting<br />
ERRUNIT=PIXEL inside the SMODEL program of the satellite ortho package. The<br />
polynomial transformation method, in comparison, does not reflect the distortions due to<br />
the image acquisition and relief displacements. The polynomial transformation method is<br />
limited to small areas with at terrain and requires a lot of GCPs. The PCI satellite ortho<br />
model only requires a minimum of three to four accurate GCPs for visible images (such<br />
as SPOT and Landsat) and seven accurate GCPs for RADAR images (such as ERS and<br />
RADARSAT). The geometric modelling was developed by Dr. Thierry Toutin, at the<br />
Canada Centre for Remote Sensing. The model requires a minimum of 4 and 7 GCPs for<br />
VIR (such as Landsat, SPOT, IRS) and SAR images, respectively. However, if the GCPs<br />
are not very accurate, the user should collect at least 6 and 12 GCPs for VIR and SAR<br />
images, respectively. More details on satellite ortho model can be found in the<br />
Registration Scenarios section. Also see the Satellite Ortho & DEM manual, and the<br />
Orthorectification and DEM Extraction chapter of the Using PCI Software manual.<br />
Resampling:<br />
Resampling is a process that involves the extraction and interpolation of grey levels from<br />
pixel locations in the original uncorrected image. There are several methods of<br />
interpolation which can be applied: nearest neighbor, bilinear interpolation, cubic<br />
convolution, 8-point Sin(x)/x, and 16-point Sin(x)/x. During bilinear interpolation, cubic<br />
convolution and sin(x)/x, the last pixel and/or scanline will be reused to produce the grey<br />
level values for the georeferenced image if the uncorrected pixel window used to<br />
calculate the corrected matrix grey level value falls outside the bounds of the<br />
uncorrected image at its corner edges. This reuse of pixel values can have the effect of<br />
producing image edges which are darker or lighter than the interior of the image. In<br />
GCPWorks, the Resampling type can be set in the Disk-to-Disk-Registration, or the Preregistration<br />
Checking panel.<br />
Nearest Neighbor:<br />
Nearest neighbor interpolation determines the grey level from the closest pixel to the<br />
specified input coordinates, and assigns that value to the output coordinates. This<br />
method is considered the most efficient in terms of computation time. Because it does<br />
not alter the grey level value, a nearest neighbor interpolation is preferred if subtle<br />
variations in the grey levels need to be retained, if classification will follow the<br />
registration, or if a classified image is to be resampled. Nearest neighbor interpolation<br />
introduces a small error into the newly registered image. The image may be offset
spatially by up to 1/2 a pixel, causing a jagged or blocky appearance if there is much<br />
rotation or scale change.<br />
Bilinear Interpolation:<br />
Bilinear interpolation determines the grey level from the weighted average of the four<br />
closest pixels to the specified input coordinates, and assigns that value to the output<br />
coordinates. This method generates an image of smoother appearance that nearest<br />
neighbor, but the grey level values are altered in the process, resulting in blurring or loss<br />
of image resolution. Because of these changes in the grey level values, any image<br />
classification processes should be performed before the interpolation. Bilinear<br />
interpolation requires 3 to 4 times the computation time of the nearest neighbor method.<br />
Cubic Convolution:<br />
Cubic convolution determines the grey level from the weighted average of the 16 closest<br />
pixels to the specified input coordinates, and assigns that value to the output<br />
coordinates. This method is closer to the sin(x)/x resampler than nearest neighbor or<br />
bilinear interpolation. The image is slightly sharper than that produced by bilinear<br />
interpolation, and it does not have the disjointed appearance produced by nearest<br />
neighbour interpolation. Because the grey level values are altered by this method, any<br />
image classification processes should be performed before the interpolation. Cubic<br />
convolution requires about 10 times the computation time required by the nearest<br />
neighbor method.<br />
Sin(x)/x 8pt and 16pt:<br />
8pt determines the grey level from the weighted average of the 64 closest pixels to the<br />
specified input coordinates and assigns the value to the output coordinates. 16pt does<br />
the same, using the 256 closest pixels. The image is sharper than that produced by<br />
bilinear interpolation and it does not have the disjointed appearance produced by nearest<br />
neighbor interpolation. Because the grey level values are altered by this method, any<br />
image classification processes should be performed before the interpolation. Sin(x)/x<br />
with an 8 x 8 window requires about 20 to 40 times the computation time required by<br />
the nearest neighbor method. Sin(x)/x with a 16 x 16 window requires 40 to 80 times<br />
the computation time required by the nearest neighbor method.<br />
Mosaicking:<br />
Mosaicking is the blending together of several arbitrarily shaped images to form one<br />
large, radiometrically balanced image, so that the boundaries between the original<br />
images are not easily seen. Any number of geocoded images can be blended together<br />
along user-specified cut lines (polygons).<br />
Mosaicking is a special case of Geometric Correction where the registration takes place<br />
into an already existing image. If GCPs are collected, the uncorrected image is<br />
transformed according to the derived polynomial, into the georeferenced image. If no<br />
Mosaicking GCPs are provided, but both images already have compatible georeferencing,<br />
then an appropriate translation and scaling will be applied instead of a polynomial<br />
transformation (note: this usually does not lead to a perfect fit of image borders and will<br />
create map-border-faults).<br />
Mosaic Cut Line:<br />
When images to be mosaicked overlap, it is useful for the user to specify a cut line<br />
determining which image takes precedence in different areas. This is done in GCPWorks<br />
on the Mosaic Area Collection panel. The cut line is a polygon, enclosing the region to be<br />
replaced in the georeferenced image. Any of theimage pixels within the polygon will be<br />
replaced by pixels from the uncorrected image if possible. Georeferenced pixels will not<br />
be replaced if the corresponding location is of the uncorrected image, or if the pixel value<br />
on the uncorrected image is the Background Value.
The Mosaic Area Collection panel also contains options for loading and saving the cut line<br />
to or from a vector segment on a PCIDSK database. It is only possible to have a single<br />
mosaic cut line per mosaic operation. However, it is possible to perform many mosaic<br />
operations from one uncorrected image to one georeferenced image, each time selecting<br />
a region with a different cut line. To do this, it is necessary to alternate between the<br />
Mosaic Area Collection panel and the Disk to Disk Registration panel to collect cut lines,<br />
and perform mosaics.<br />
Blending:<br />
Blending can be performed along seams between the georeferenced and uncorrected<br />
images, making the seams unnoticeable. Cut lines can be hand-drawn or imported from<br />
a vector segment. Blending makes the sharp changes occurring at the cut line appear<br />
more gradual by altering pixel values at the cut line. The blend width sets the number of<br />
pixels over which the blending will take place.<br />
For example, if the blend width is eight, the values four pixels into the uncorrected image<br />
from the cut line will be composed entirely of the original uncorrected image pixel value.<br />
Similarly, the values four pixels into the georeferenced image from the cut line will be<br />
composed entirely of the original georeferenced image pixel value. At the cut line, the<br />
values will consist of 50% of the uncorrected image pixel values and 50% of the<br />
georeferenced image pixel values. It is important to note that blending will not fix poor<br />
registration problems. For instance, if a road does not match up well at a cut line, the<br />
match up will be no better and may even be more obvious after blending is complete.<br />
The blending width may be altered on the Disk to Disk Registration and Pre- Registration<br />
Checking panels.<br />
Color Balancing:<br />
Uncorrected images can be altered to make the mosaic less noticeable. Color balancing is<br />
achieved by calculating the lookup table required to approximately match the<br />
uncorrected image to the georeferenced image. The creation of this new lookup table is<br />
called histogram matching. An image histogram is a graph showing the number of pixels<br />
with a given brightness, for each possible brightness value. In histogram matching, the<br />
image histograms of the uncorrected and georeferenced images are compared, and an<br />
attempt is made to make the uncorrected image histogram match the georeferenced<br />
image histogram by creating a histogram matching lookup table. All values in the<br />
uncorrected image will be passed through this lookup table to create the histogram<br />
equalized (color balanced) image. The Color Matching panel in GCPWorks provides the<br />
opportunity to select areas for histogram comparison. It is important that appropriate<br />
selections are made. Like areas should be compared. Comparing bright fields to dark<br />
mountains will produce a histogram equalized image with dark fields and very dark<br />
mountains, or light mountains and very bright fields (depending on which is the<br />
georeferenced and which is the uncorrected).<br />
Further Reading: see GCPworks Users Guide.<br />
3.7 ImageWorks – der stabile Image-Viewer aus den 90igern<br />
ImageWorks ist ein recht flexibel verwendbarer und sehr stabiler Image Viewer mit<br />
einigen Kanten und Haken in der Anwendung. So wird bereits beim Start die Anzahl der<br />
ladbaren Kanäle und deren Auflösung bzw. deren Typ festgelegt. Dies ist nachträglich<br />
nicht mehr veränderbar. Einige alte EASI/PACE Routinen arbeiten direkt mit dem Viewer<br />
zusammen. Bilddaten in Imageworks können also „life“ verändert werden bzw. gesteuert<br />
werden im Viewer durch Befehle in Xpace bzw. EASI. Das gesamte UserInterface wird<br />
jedoch durch den FOCUS und die Algorithmenbibliothek abgelöst und ist daher nicht<br />
mehr up-to-date und wird auch nicht mehr gepflegt – hier nur der Vollständigkeit wegen<br />
aufgelistet.
Abb. 6: Image Works Configurationsdialog<br />
Abb. 7: Image Works Viewer
3.8 Geomatica OrthoEngine – creating an ASTER DEM from scratch:<br />
The following description is from an online tutorial of PCI Geomatics about ASTER DEM<br />
generation (www.pci.on.ca).<br />
The ASTER Earth Observation Satellite is unique in that it offers nearly simultaneous<br />
capture of stereo images, minimizing temporal changes and sensor modeling errors.<br />
Band 3 of the VNIR sensor includes two channels, a Nadir looking scene and a Backward<br />
looking scene. This provides stereo coverage from which a DEM can be automatically<br />
extracted.<br />
Aster Level 1A and Level 1B are both supported for DEM extraction and ortho<br />
rectification by OrthoEngine. Each does have its own set of benefits and draw backs that<br />
you need to consider. Level 1A is not corrected, level 1B is and therefore has the<br />
potential to produce less accurate results than level 1A when you are using quality<br />
ground control (the difference is negligible if you are relying on the GCPs supplied with<br />
the sensor). Level 1A also enables you to use the stitching function to stitch continuous<br />
scenes from the same path. This can reduce the number of GCPs and tie points required<br />
and reduces the seam you may get mosaicking DEMs from the same path.<br />
Level 1A does have an offset in the SWIR bands that is fairly significant so if you need<br />
these bands for multi-spectral analysis you may want to consider level 1B as this offset is<br />
corrected for in level 1B, but not level 1A. Also level 1B has been rotated so the stitching<br />
routine cannot be used with level 1B imagery.<br />
The following is a brief tutorial on the use of Geomatica OrthoEngine for ASTER DEM<br />
Extraction.<br />
Step 1 Project and Projection Setup<br />
• Select File > New to create a new project in OrthoEngine.<br />
• Enter a Filename and Project Name.Select “Satellite Orbital Modelling”.<br />
• Select “General High Resolution” model. “Accept”<br />
• Set the Project Georeferencing and Output Pixel Spacing. For the VNIR bands of<br />
ASTER, this will be 15m<br />
Abb. 8 OrthoEngine project window<br />
Step 2 Data Input<br />
• Select the “Data Input’ processing step.<br />
• Select READ from CD
• Select “ASTER” as the CD Format. The buttons for the Requested Channels will change<br />
to show the<br />
ASTER bands<br />
• Select the HDF file as CD Header Filename<br />
For DEM Extraction, you will require channels 3N and 3B. The nadir and backwardlooking<br />
channels have different extents and different distortions. This requires them to<br />
be georeferenced individually.<br />
• Select the “3N” button, and enter an output filename.<br />
• Click “Read” to import to a .pix database.<br />
• Repeat the steps for the “3B” channel, giving a new filename<br />
Abb.9 Read CDROM – ASTER import<br />
NOTE: If you are working with Level 1A imagery and have scenes from the same path<br />
you can use Utilities>Stitch Image Tiles to stitch up to five scenes to make one<br />
seamless image to work with. Remember to stitch the 3n images and the 3b images<br />
separately. The stitch process will rebuild the orbital segment for the strip after stitching<br />
is complete<br />
Step 3: GCP and Tie Point Collection<br />
• Select the “GCP/TP Collection” processing step. (Note: that if you are creating a DEM<br />
without GCPs you do not need to actually load the GCPs supplied with the Aster scene.<br />
The software will use these behind the scene to perform the adjustment)<br />
• Collect GCPs as for any other project, using manual entry, from geocoded images,<br />
vectors, chip databases, or a text file.<br />
• Collect tie points to connect the “3N” and “3B” channels to each other.<br />
NOTE: If you are not collecting GCPs, using the GCPs supplied with the scenes you want<br />
to pay particular attention to your tie point collection. You want to try for at least twenty<br />
points making sure you cover the edges well and ensure a good distribution through the<br />
middle. Try collecting four points first then run the Automatic Tie Point Collection to<br />
speed up the process. Remember if you have clouds in your scene check the results from<br />
automatic tie point collection.<br />
Step 4: Model Calculation<br />
• Select the “Model Calculations” processing step.<br />
• Click on the Perform Bundle Adjustment icon.<br />
Step 5: Creating Epipolar Images<br />
• Select the “DEM from Stereo” processing step.
• Select Create Epipolar Image.<br />
• In the Left Image window, select the “3N” file. This will move the “3B” file to the Right<br />
Image window. (Note: if you import channel 1-3n at the data input stage be sure to set<br />
the channel for the ‘n’ image to be 3.<br />
• Select the “3B” file in the right-hand window. The Epipolar Output Image names will be<br />
assigned automatically. Add the epipolar pairs to the table<br />
• Set Working Cache as desired, and then click Generate Pairs. This resamples the nadir<br />
and backward-looking images so that they overlap, left to right, as a stereopair.<br />
Abb. 10: Generate Epipolar Images<br />
Step 6: Generating a DEM<br />
• Select the Extract DEM Automatically<br />
• Set the DEM extraction options. Refer to the help topic “Generating Digital Elevation<br />
Models” for a detailed description of each parameter.<br />
• Select whether you want to create a geocoded DEM at this stage or not. If so give it a<br />
file name. If you do not want to generated a geocoded DEM at this stage your DEM will<br />
be written to the file indicated under Epipolar DEM. To geocode this file select Geocode<br />
Extracted Epipolar DEM from the “DEM from Stereo” processing step.<br />
• Click Start Dem Extraction
Abb. 11: Ortho Engine “Automatic DEM Extraction” Interface<br />
3.9 FOCUS (die integrative Umgebung aller Geomatica Funktionen)<br />
Focus ist das Tool zur Datenvisualierung, zur Analyse und Bearbeitung, für GIS Aufgaben, zur<br />
Umprojektion, zum „Subsetten“ und für die Kartengenerierung. Focus integriert eine Vielzahl der<br />
Funktionen von EASI/PACE in einer grafischen Oberfläche, der sog. Algorithm Librarian.<br />
- Focus unterstützt über 100 Raster- und Vektorformate<br />
- Beliebige Anzahl von Raster-Layern<br />
- Beliebige Datentiefe (1, 8, 16, 32 Bit)<br />
- Schwarz/weiß, farbig oder Pseudofarben<br />
- Georeferenzierte, sich überschneidende Daten mit verschiedener Auflösung und Projektion in<br />
einem Fenster visualisieren<br />
- Beliebige Anzahl von Vektor-Layern<br />
- Vektoren mit numerischen und Text-Attributen<br />
- GIS-Tools<br />
- Editier-Tools<br />
- Programmausführung<br />
- Kartengenerierung<br />
Files und Maps-Tab<br />
Maps-Tab ist die (Default)Einstellung für die Datenvisualisierung, Editierung, Analyse und<br />
Kartengenerierung. Die geladenen Layer werden in der Baumliste angezeigt und können<br />
nach oben oder unten verschoben werden, um die Daten optimal sehen zu können. Über<br />
die rechte Maus-Funktion stehen eine Vielzahl von Bearbeitungs- und Analysefunktionen<br />
zur Verfügung. Wichtig ist, dass der zu bearbeitende Layer in der Baumliste selektiert ist,<br />
damit die gewünschte Funktion oder die Properties zugänglich sind. Viele der rechte<br />
Maus-Funktionen sowie zusätzliche Funktionen stehen über das Pulldown-Menü zur<br />
Verfügung. Häufig verwendete Funktionen sind auch über Icons aufrufbar. Für jeden<br />
Datenlayer können über die rechte Maus-Funktion (oder Doppelklick) die Properties<br />
geändert werden. Z.B. können für Rasterdaten (Channels und Bitmaps) Werte voll- oder<br />
teiltransparent geschaltet werden (s. Bild weiter unten).<br />
Für Vektoren kann über rechte Maus/Representation Editor die Darstellungsart geändert<br />
werden. Im Files-Tab erfolgt das File-Management. Es können z.B. Layer gelöscht oder<br />
angelegt, die Georeferenzierung von Raster- und Vektordaten überprüft und korrigiert<br />
werden.
* Maps-Tab<br />
Properties/Display/Transparency und Opacity für Bildkanäle und Bitmaps<br />
Layer/RGB Mapper<br />
Clone View und Chained Window<br />
View/Visualization Tools<br />
Abb. 12: Geomatica Focus RGB Layer Properties Fenster<br />
Strenges Layer-Konzept, d.h. „falsch selektiert und nichts passiert!“<br />
* Files-Tab<br />
Properties<br />
Georeferencing<br />
Write Lock<br />
Anlegen von neuen Vector- und Bitmap-Segmenten<br />
Die Kenntnisse über Focus lassen sich mit dem Manual Focus User Guide und den beiden<br />
Kapiteln „Getting Started“ und „Focus Basics“ vertiefen.<br />
Vektoren<br />
Besitzen Georeferencing-Information. Vektor-Segmente können eine unterschiedliche<br />
Projektion und geographische Ausdehnung als die Kanäle besitzen. Beim Import gehen<br />
die Projektionsangaben oft verloren (nur METRE). Unter Properties die Angaben wieder<br />
eintragen (Save nicht vergessen). Vektor-Attribute können über den Attribut-Manager<br />
(rechte Maus-Funktion) angeschaut und bearbeitet werden.<br />
Bitmaps Besitzen keine Georeferencing-Information. Wenn eine Maske in einem anderen<br />
File verwendet werden soll, die Maske mit MAP in einen 8U-Kanal einbrennen. Diesen mit<br />
Tools/Reproject auf die Auflösung und Größe des Zielfiles anpassen und mit<br />
Utilities/Transfer Layers in das andere File übertragen. Mit THR kann wieder eine Bitmap<br />
erstellt werden.<br />
Kartengenerierung<br />
Unter View in den Map View Mode umschalten (oder über die Icons in der Menüleiste).<br />
• Unter Map Properties (rechte Maus/Properties oder Doppelklick) Papiergröße angeben<br />
(1).<br />
• Unter Area Properties Maßstab setzen (2).<br />
• Für Text oder auch Symbole ist ein Vektor-Layer erforderlich. Dieser wird für die Area<br />
angelegt (Rechte Maus/New Vector Layer und „Unstructured“). Im Style Editor<br />
können Buchstabenart, Größe, Farbe festgelegt werden. Unter „Westlich“ finden sich<br />
die bekannten Windows-Fonts. Für das Textschreiben muss das schwarze T-Icon (4.<br />
Icon von links, zweite Icon-Zeile) aktiviert werden.
• Unter Area (2) Rechte Maus/Surround durchführen und Kartenrahmen,Titel etc.<br />
auswählen. Jedes Surround Element kann auch noch nachträglich unter Properties<br />
bearbeitet werden. Z.B. für Grid den Rasterabstand ändern.<br />
• Fertige Karte mit File/Print Map oder Print Map to File ausgeben.<br />
• Für weitere Analyse wieder in Area View Mode umschalten. Das Manual Focus User<br />
Guide widmet sich dem Thema Kartengenerierung im Kapitel „Publishing Map<br />
Projects“.<br />
EASI-Modelling unter Tools<br />
% kennzeichnet Kanal im File<br />
%% kennzeichnet Bitmap im File<br />
Maske für Objektklasse mit Grauwert 8 erstellen:<br />
If (%3 = 8) %%12=1<br />
Vegetationsindex:<br />
%10 = (%4 - %3) / (%4 + %3)<br />
Anmerkung: %10 sollte 32R sein; oder die Formel mit 100 multiplizieren und 16S<br />
wählen. Kanal löschen:<br />
%10 = 0<br />
Weitere Informationen zum Thema EASI-Modelling gibts im Focus User Guide im Kapitel<br />
„Image Processing“.<br />
Bildklassifizierung<br />
Häufig angewandte Verfahren zur überwachten (Maximum Likelihood, Parallelepiped,<br />
Minimum Distance) und unüberwachten Bildklassifizierung (K-Means, Isodata, Fuzzy K-<br />
Means) sind im Focus unter Analysis/Image Classification implementiert. Für die<br />
Klassifikation wird in der Baumliste ein MetaLayer angelegt, über den die einzelnen<br />
Arbeitsschritte, wie Trainingsgebiete erfassen, Klassifikation, Post-Klassifikation, u.a.,<br />
über die rechte Maus zur Verfügung stehen.
Abb. 13: Geomatica Focus MetaLayer Konzept<br />
Zu diesem Thema gibt es weitere Informationen im Focus User Guide im Kapitel „Image<br />
Classification“.<br />
Weitere Klassifizierungsalgorithmen, wie z.B. Neuronale Netze, können über den Focus<br />
Algorithm Librarian/Classification gefunden und genutzt werden.<br />
Atmosphärische Korrektur<br />
In Focus sind alle Programme von ATCOR2 und -3 in ein sehr bedienerfreundliches Menü<br />
eingebaut. ATCOR wird über Analysis/Atmospheric Correction aufgerufen. Nach der<br />
Parametereingabe wird in der Baumliste ein MetaLayer angelegt. Über rechte Maus sind<br />
hier die weiteren Funktionen, wie Generierung von Dunst- und Wolken-Masken,<br />
spektralen Plotts und der atmosphärischen Korrektur zugreifbar.
Abb. 14: Das ATCOR Modul in Geomatica Focus<br />
Weitere Informationen zu diesem Thema finden sich im Focus User Guide im Kapitel<br />
„Atmospheric Correction“. Anworten zu häufig gestellten Fragen gibt es auf der DLR<br />
Homepage http://www.op.dlr.de/atcor/atcor2+3_faq.html.<br />
3.10 Die Algorithmenbibliothek – arbeiten mit Geomatica ohne EASI/PACE<br />
Der Zugriff auf Geomatica <strong>Bildverarbeitung</strong>sprogramme kann im Focus unter<br />
Tools/Algorithm Librarian, im PCI Modeler oder über EASI-Makros erfolgen.<br />
Zur Programmsuche ist im Focus eine hilfreiche Suchfunktion (rechte Maus/Find)<br />
implementiert (s. unten). Ansonsten können die Programme unter den entsprechenden<br />
Hauptpunkten gefunden werden. Das gewünschte Programm öffnen und die Parameter<br />
eingeben (Files und Input Params 1). Die Farbe Rot bedeutet „erforderlich Eingabe fehlt“,<br />
Gelb „mögliche Eingabe“, Grün „alles OK“.<br />
Das Ergebnis kann in den Focus-Viewer und/oder in ein File ausgegeben werden.<br />
Das Arbeiten mit der Algorithmen-Bibliothek wird im Focus User Guide im Kapitel<br />
„Algorithm Librarian“ genau beschrieben.<br />
Abb. 15: Algorithmen Bibliothek in Geomatica Focus<br />
3.11 Der PCI Modeler<br />
Der PCI Modeler ist eine visuelle Bedienoberfläche für das Arbeiten mit Geomatica<br />
Programmen und eignet sich sehr gut zum Erstellen komplexer Arbeitsabläufe Per<br />
Mauszeiger werden die Programm-Module auf der Arbeitsfläche angeordnet und<br />
anschließend mit Leitungssymbolen verbunden. Die Iconart an den Programmmoduleinund<br />
ausgängen sowie die Farbe der Leitungen zeigen an, welcher Datentyp benutzt<br />
werden kann. Für die Eingabe von Programmparametern das Programm-Modul<br />
doppelklicken. Werden Files mit unterschiedlicher Projektion und/oder Auflösung<br />
verwendet, gibt das zuerst importierte File die Projektion und Auflösung vor (Master-<br />
File). Ist der Arbeitsablauf fertig gestaltet, genügt ein Klick auf das Run-Symbol um das
Modell zu starten. Für das Experimentieren nur mit View-Modulen zur<br />
Ergebnisvisualisierung arbeiten. Wenn der Verarbeitungsprozess feststeht, die Ergebnisse<br />
in ein File ausgeben (Export-Modul). Komplexere Modelle als Gedächtnisstütze für<br />
ähnliche Anwendungen speichern. Der Modeler unterstützt Batch-Prozessierung. Das<br />
Geomatica models-Verzeichnis enthält viele Modelle, die sich leicht für eigene<br />
Anwendungen anpassen lassen. Weitere Modelle sind unter<br />
http://www.pcigeomatics.com /support/models/index.htm erhältlich.<br />
Abb. 16: PCI Modeller mit graphischem Interface zur Konstruktion von einfachen<br />
Routinen und für Batch Prozessierung.<br />
3.12 PCIDSK Datenformat:<br />
PCIDSK is a data structure for holding digital images and related data. Each PCIDSK<br />
database is a separate, named disk file. Each user of the EASI/PACE system can have<br />
any number of PCIDSK files, limited only by the disk capacity of the computer system.<br />
PCIDSK files can be shared with other users. One of the advantages of the PCIDSK file<br />
structure is that images and associated data, such as Lookup Tables and bitmaps, are<br />
contained in a single file, making it simple to keep track of related information. The use<br />
of a single file for each data set also simplifies the problems of deletion (when processing<br />
of the image is complete), backup and copying since only one file is involved in these<br />
operations.
Abb. 17: Overview of the PCIDSK file structure.<br />
The PCIDSK database can store 8-bit unsigned integer, 16-bit signed integer, 16- bit<br />
unsigned integer, and 32-bit real image data. Image pixel values range from 0 to 255 for<br />
8-bit unsigned integer, -32768 to 32767 for 16-bit signed integer, and 0 to 65535 for<br />
16-bit unsigned integer. The magnitude of 32-bit real values ranges approximately from<br />
1:2 _ 10_38 to 3:4 _ 10+38 and has seven digits of precision.<br />
Channels (or bands) of image data can be arranged in one of four ways: pixel<br />
interleaved, line interleaved, channel (or band) interleaved, or as separate files.<br />
Abb. 18: Interleaving data modes
Abb. 19: Separate file data: File 1: AAA AAA File 2: BBB BBB File 3: CCC CCC<br />
The standard implementation of the PCIDSK database currently uses pixel interleaving,<br />
because this is a good choice for most multispectral applications. However, the channel<br />
(band) interleaving and separate file format for each image channel has also been<br />
implemented.<br />
Segments hold data related to the imagery in the file. They are usually created during a<br />
processing step to be used in future processing steps. The following Segment types are<br />
de_ned in this manual:
Abb. 20: Segment types in Geomatica<br />
3.13 Lizenzierung<br />
Geomatica kann in unterschiedlichen Konfigurationen erworben werden. Bis auf die<br />
Verwendung in der Lehre ist es jedoch sinnvoll praktisch alle „Advanced Module“ zu<br />
lizenzieren, da Atmosphärenkorrektur, einige spezielle Klassifikationsmethoden und auch<br />
die Orthodatenprozessierung sonst nicht zur Verfügung stehen.<br />
Die Module von Geomatica lassen sich wie folgt untergliedern:<br />
Geomatica Fundamentals: An entry level solution for image rectification, data<br />
visualization and analysis, plus functionality for full cartographic map production.<br />
Add features to Fundamentals to easily configure your production environment. Explore<br />
the various OrthoEngine Add-on Modules below.<br />
Geomatica Prime: A complete solution which includes all the functionality found within<br />
Fundamentals plus EASI, Algorithms, FLY! and PCI Visual Modeler.<br />
Numerous Advanced and OrthoEngine Add-on Modules are available for Prime. Explore<br />
the various Add-on modules PCI has to offer below.
Geomatica GeoGateway: An affordable data viewing and translation tool, supporting<br />
over 100 raster and vector formats.<br />
Geomatica FreeView: A flexible data viewing tool supporting over 100 raster and<br />
vector formats for loading, viewing, selection, and enhancement.<br />
Advanced Module:<br />
Hyperspectral Image Compressor: Add-on to Advanced Hyperspectral package which<br />
allows for vector quantization. Prerequisites: Hyperspectral Image Compressor requires<br />
Geomatica Prime and Advanced Hyperspectral.<br />
Advanced Optical: Includes algorithms specifically designed to work with Optical<br />
satellite data (AVHRR Orbital Navigation, Advanced Image Classification & ATCOR2<br />
Atmospheric Correction). Prerequisites: Advanced Optical requires Geomatica Prime.<br />
Atmospheric Correction (ATCOR 3): Extension to ATCOR 2 which allows one to<br />
calculate ground reflectance & surface brightness temperature for a rugged terrain.<br />
Prerequisites: ATCOR 3 requires Geomatica Prime and the Advanced Optical.<br />
Advanced Pan Sharpening: Algorithm which 'fuses' high-resolution panchromatic and<br />
low-resolution multispectral imagery together to create a high-resolution color image.<br />
Prerequisites: Advanced Pan Sharpening requires Geomatica Prime.<br />
Advanced Radar: Tools which allows handling of new product types, calibration<br />
methodologies and quality assessment techniques for ERS SAR data.<br />
OrthoEngine Add-On Modules for Geomatica<br />
Orthorectification Modules<br />
Airphotos Models Contains an efficient triangulation method for generating precise<br />
orthophotos from scanned or digital camera aerial photographs.<br />
Prerequisites: Airphotos Models requires either Geomatica Fundamentals or Geomatica<br />
Prime.<br />
Satellite Models Contains specialty sensor math models for generating precise<br />
orthoimages from a wide range of optical and radar imagery while correcting for<br />
distortions. Prerequisites: Satellite Models requires either Geomatica Fundamentals or<br />
Geomatica Prime.<br />
High Resolution Models: Contains specialty sensor math models for generating precise<br />
orthoimages from the new generation of high resolution satellites while correcting for<br />
distortions. Prerequisites: High Resolution Models requires either Geomatica<br />
Fundamentals or Geomatica Prime.<br />
Generic & RPC Models: A powerful ortho-rectification tool - with Generic Model, use<br />
new or unsupported satellites. Generate precise orthoimages while correcting for<br />
distortions with the RPC Model.<br />
DEM Extraction Modules:<br />
Automatic DEM Extraction: Add-on to Airphotos, Satellite, High-Resolution & Generic<br />
& RPC Models. This module allows automatic extraction of DEMs from stereo airphotos &<br />
selected satellite sensors.<br />
Prerequisites: Automatic DEM Extraction requires Geomatica Fundamentals or Geomatica<br />
Prime, plus at least one of the Geomatica OrthoEngine advanced sensor modelling<br />
packages; Airphoto Models, Satellite Models, High-Resolution Models or RPC & Generic<br />
Models.<br />
RADARSAT DEM Extraction: Add-on to Satellite Models. This module allows automatic<br />
extraction of DEMs from stereo RADARSAT images.<br />
3D Stereo: Add-on to Airphotos, Satellite, High-Res. & Generic & RPC Models. This<br />
module offers advanced tools for 3D viewing & 3D feature extraction.
Prerequisites: 3D Stereo requires Geomatica Fundamentals or Geomatica Prime, and an<br />
associated Geomatica OrthoEngine sensor math model, such as Airphoto Models,<br />
Satellite Models, High-Resolution Models or RPC and Generic Models.<br />
Ausserdem:<br />
ArcGIS PIXRaster PlugIn; GeoRaster ETL Oracle, Atlantis Scientific EartView (SAR), BAE<br />
SYSTEMS – SOCETSET; u.a. (http://www.pci.on.ca/products/products_overview.html)<br />
3.14 Geomatica 10 – ein Ausblick<br />
Entscheidende Veränderungen mit der Version 10 sind nach Auskunft eines Vertreters<br />
der Firma PCI Geomatics (vom Juni 2005) zu erwarten in den folgenden Bereichen:<br />
- Allgemeine Verbesserung der Stabilität der Software (offensichtlich ist das<br />
Grundproblem der 9er Generation nun wirklich erkannt worden).<br />
- Sogenannte „Componetization“ vieler Funktionen des OrthoEngines und genereller<br />
Funktionen zur Skriptierung und Integration in den Modeller. Dies Betrifft wohl in<br />
erster Linie Funktionen aus dem OrthoEngine.<br />
- Überarbeitung und Erweiterungen der Funktionalität des OrthoEngine Pakets selbst.<br />
- Focus: „Smart Digitizing“ im Focus, „Chart Tools“ im Focus, neue kartographische<br />
Tools im Focus.<br />
- Algorithmen Bibliothek: Erweiterung um neue Module, die auch in der Modeler und<br />
in der EASI-Umgebung zur Verfügung stehen (Reprojektion, Subsetting, Z-Value<br />
Transfer, Oracle Support, MODIS Datenimport.<br />
- Hyperspektral: Model-based atmosphärische Korrektur (MODTRAN4 RTM basierend)<br />
(GENTP5 Generate a MODTRAN4 tape file, GENRLUT Generate an at-sensor<br />
radiance lookup table, RESRLUT Resample at-senor radiance lookup table to<br />
coincide with relative response profile, ATRLUT Transform at-sensor radiance to<br />
surface reflectance dataset, GENAWC Generate an atmospheric water vapor<br />
content map, GENCLUT Detect spectral line curvature and generate a correction<br />
lookup table, SLCCOR Apply a spectral line curvature correction. SMSPEC Smooth<br />
the dataset in the along-band dimension. RLUTSP Extract radiance spectra from a<br />
radiance lookup table. VIEWAZ Evaluate the view zenith angle and azimuth,<br />
SOLARAZ Evaluate the solar zenith angle and azimuth).<br />
- Radar: Sensor Support für ENVISAT ASAR (ASA_IMS, ASA_APS, SCANSAR,<br />
ASA_WSM), neues Modul zur Terrainkorrektur: (“A new algorithm (RTCSIGM)<br />
generates a calibrated radar backscatter image from a RADARSAT or ENVISAT<br />
ASAR image, with correction for radiometric terrain effects. Radar shadow masks<br />
and layover masks are also created. The SLC2IMG algorithm generates a visible<br />
image channel from two input SLC (Single Look Complex) ASAR channels. The<br />
SARSIGM algorithm generates a calibrated radar backscatter image from an ASAR<br />
scaled radar channel and an array of incident angles. The SARBETA algorithm<br />
generates a radar brightness channel from an ASAR scaled radar channel and an<br />
array of incident angels.
4. Literatur<br />
4.1 National and International Periodicals:<br />
1. EARSeL Advances in Remote Sensing.<br />
2. IEEE Transactions on Geoscience and Remote Sensing<br />
3. International Journal of Remote sensing<br />
4. Pattern Recognition Letters<br />
5. Photogrammetric Engineering & Remote Sensing<br />
6. Remote Sensing of Environment<br />
7. Remote Sensing Reviews<br />
8. Zeitschrift fur Photogrammetrie und <strong>Fernerkundung</strong>.<br />
4.2 Geomatica spezifische Literaturhinweise:<br />
ATCOR<br />
F. Lanzl and R. Richter. (AUGUST 27-30 1991). A fast atmospheric correction algorithm for small<br />
swath angle satellite sensors. ICO topical meeting on atmospheric, volume and surface<br />
scattering and propagation. Florence, Italy. pp. 455-458.<br />
R. Richter. (1991). Error bounds of a fast atmospheric correction algorithm for the LANDSAT<br />
Thematic Mapper and multispectral scanner bands. APPLIED OPTICS 30(30):4412-4417.<br />
R. Richter. (1990). Model SENSAT: a tool for evaluating the system performance of optical sensors.<br />
SPIE Propagation Engineering 1312:286-297.<br />
F.J. Ahern, P.M. Teillet, and D.G. Goodenough. (1977). Transformation of atmospheric and solar<br />
illumination conditions on the CCRS Image Analysis System. Machine Processing of Remotely<br />
Sensed Data Symposium.<br />
R. Richter. (1990). A fast atmospheric correction algorithm applied to LANDSAT TM images.<br />
International Journal of Remote Sensing 11(1):159-166.<br />
SAM<br />
Kruse, F.A., Lefkoff, A.B., Boardman, J.W., Heidebrecht, K.B., Shapiro, A.T., Barloon, P.J., and<br />
Goetz, A.F.H. (1993), "The Spectral Image Processing System (SIPS) – Interactive<br />
Visualization and Analysis of Imaging Spectrometer Data", Remote Sensing of Environment,<br />
Vol. 44, pp. 145-163.<br />
DESTRIPE<br />
Horn, B. K. P., and R. J. Woodham, (1979). Destriping Landsat MSS images by histogram<br />
modification. Computer Graphics and Image Processing. Vol. 10, pp. 69-83.<br />
Poros, D. J., and C. J. Peterson, (1985). Methods for destriping Landsat TM images.<br />
Photogrammetric Engineering and Remote Sensing. Vol.51, No. 9, pp. 1371-1378.<br />
FFT<br />
Gonzalez, R.C. and Wintz, P. [1987]. Digital Image Processing. 2nd Edition, Addison-Wesley,<br />
Massachusetts.<br />
MLC<br />
Duda and Hart, 1973. Pattern Classification and Scene Analysis, John Wiley and Sons, chapter 2.<br />
Robert A. Schowengerdt, 1983. Techniques for Image Processing and Classification in Remote<br />
Sensing. Academic Press.<br />
MINDIS
Hodgson, M.E. (1988). Reducing the computational requirements of the minimum-distance<br />
classifier. Remote Sensing of Environment, Vol. 24.<br />
FUZCLUS<br />
J.C. Bezdek, "Fuzzy mathematics in pattern classification", Ph.D. dissertation, Cornell Univ., Itheca,<br />
NY, 1973.<br />
ISOCLUS KCLUS<br />
Tou, Julius T. and Rafael C. Gonzalez. 1974. Pattern Recognition Principles. Addison-Wesley<br />
Publishing Co.<br />
KNN<br />
K. Fukunaga. (1990). Introduction to Statistical Pattern Recognition.<br />
MINDIS<br />
Hodgson, M.E. (1988). Reducing the computational requirements of the minimum distance<br />
classifier. Remote Sensing of Environment, Vol. 24.H Academic Press, Boston.<br />
MTE<br />
Bernier, M.; Bonn, F.; and Gagnon, P. (eds.) ( 1989). Teledetection et Gestion Des Ressources.<br />
volume VI: Comptes rendus du sixieme congres de L'Association quebecoise de teledetection.<br />
Sainte-Foy, Quebec. L'Association quebecoise de teledetection. p. 388<br />
NGCLUS<br />
Narendra & Goldberg. 1977. "A Non-parametric clustering scheme for Landsat". Pattern<br />
Recognition, vol. 9. pp 207-215.<br />
SIGSEP<br />
Richards, J. A. (1986). Remote Sensing Digital Image Analysis. Springer-Verlag. New York. pp.<br />
206-225.<br />
Note: The formula to calculate the Bhattacharrya Distance measure given in the above book is<br />
incorrect. Check the reference in the book to find the right formula.<br />
NNCLASS<br />
The following papers and books provide more information on the the back-propagation neural<br />
network algorithm used by the NNCREAT, NNTRAIN and NNCLASS programs:<br />
Benediktsson, J.A., P.H. Swain, and O.K. Ersoy (1990). "Neural Network Approaches Versus<br />
Statistical Methods in Classification of Multisource Remote Sensing Data", IEEE Transactions on<br />
Geoscience and Remote Sensing, Vol. 28, No. 4, July 1990.<br />
Bischof, H., W. Schneider, and A.J. Pinz (1992). "Multispectral Classification of Landsat-Images<br />
Using Neural Networks", IEEE Transactions on Geoscience and Remote Sensing, Vol. 30, No.<br />
3, May 1992.<br />
Hertz, J.A., A.S. Krogh, and R.G. Palmer (1991). "Introduction to the Theory of Neural<br />
Computation", Addison-Wesley Publishing Company.<br />
Maren, A.J., C.T. Harston, and P.M. Pap (1990). "Handbook of Neural Computing Applications",<br />
Academic Press Inc., San Diego.<br />
Pao, Y.H. (1989). "Adaptive Pattern Recognition & Neural Networks", Addison-Wesley Publishing<br />
Company.<br />
REDUCE and CONTEXT programs use the algorithm described in the following paper:<br />
Gong, P., and P. Howarth, "Frequency-Based Contextual Classification and Gray-Level Vector<br />
Reduction for Land-Use Identification". Photogrammetric Engineering & Remote Sensing, Vol.<br />
58, No. 4, April 1992, pp. 423-437.<br />
UNMIX
Gong, Miller, Freemantle and Chen. "Spectral Decomposition of Landsat Thematic Mapper Data For<br />
Urbal Land-Cover Mapping", Proceedings of the 14th Canadian Symposium on Remote Sensing,<br />
Calgary, Alberta, Canada, May 1991.<br />
MAL<br />
Mallat, S. (1990). Multiscale Image Analysis<br />
Mallat, S. (1989). "A Theory of Multiresolution Signal Decomposition: the Wavelet Representation."<br />
IEEE Trans. PAMI, Vol. II, No. 7, pp. 572-693.<br />
FUZ<br />
Gath, I. and Geva, A. (1989). Unsupervised Optimal Fuzzy Clustering. IEEE Trans. PAMI, Vol II, No.<br />
7, pp. 773-789.<br />
4.3 Lehrbücher:<br />
Curran P.J., 1986, Principles of Remote sensing. Essex, Longman Group, 282 pp.<br />
Campbell J.B., 1987, Introduction to Remote Sensing. New York, Guilford Press.<br />
Gonzalez R.C. & P. Wintz, 1987, Digital Image Processing. Addison-Wesley Pub. 503 pp<br />
Jenssen J.R., 2000, Remote Sensing of the Environment. Prentic Hall Int. London, 544pp.<br />
Lillesand T.M. & R.W. Kiefer, 2003, Remote Sensing and Image Interpretation. Wiley, New York.<br />
747 pp.<br />
Richards J.A., Xiuping Jia, 1999, Remote Sensing Digital Image Analysis, An Introduction. Springer-<br />
Verlag, Berlin. 281 pp.<br />
Sabins F.F., 1987, Remote Sensing: Principles and Interpretation. Freeman and Company, New<br />
York, 449 pp.<br />
Schowengerdt, R.A., 1997. Remote Sensing – Models and Methods for Image Processing, 2nd<br />
Edition, Academic Press, Elsevier Science.<br />
4.4 Other References and further reading:<br />
Asrar G. (Ed.), 1989, Theory and Applications of Optical Remote Sensing. New York, Wiley. 725 pp.<br />
Azzali S., 1985, Greenness and Brightness Formulae Applicable to East Sesia and Grande Bonificia<br />
Ferrarese. Institute for Land and Water Management Research, Note 1673. Wageningen, The<br />
Netherlands.<br />
Buiten H.J. & J.G.P.W. Clevers, 1993, Land Observation by Remote Sensing: Theory and<br />
Applications. Gordon and Breach, Reading. 642 pp.<br />
Cohen W.B., 1991, Temporal versus Spatial Variation in Leaf reflectance under Changing Water<br />
Stress Conditions. International Journal of Remote Sensing, Vol.12, pp. 1865-1876.<br />
Crist E.P. & R.J. Kauth, 1986, The Tasseled Cap De-Mystified. Photogrammetric Engineering &<br />
Remote Sensing, Vol.52, pp.81-86.<br />
Crist E.P. & R.C. Cicone, 1984a, A Physically Based Transformation of Thematic Mapper Data: the<br />
TM Tassled Cap. IEEE Transactions on Geoscience and Remote sensing, Vol. GE-22, pp.256-<br />
263.
Crist E.P. & R.C. Cicone, 1984b, Comparisons of the Dimensionality and Feautures of Simulated<br />
Landsat-4 MSS and TM Data. Remote Sensing of Environment 14, pp.235-246.<br />
Crist E.P. & R.J. Kauth, 1986, The Tasseled Cap De-Mystified. Photogrammetric Engineering &<br />
Remote Sensing, Vol.52, pp.81-86.<br />
Crist E.P., R. Laurin & R.C. Cicone, 1986, Vegetation and Soils Information Contained in<br />
Transformed Thematic Mapper Data. Proc. of the International Geoscience and Remote Sensing<br />
Symposium (IGARSS.86), Zurich 8-11 Sept, pp.1465-1470.<br />
De Jong S.M. & P.A. Burrough, in press, A Fractal Approach to the Classification of Mediterranean<br />
Vegetation Types in Remotely Sensed Images. Accepted for publication in Photogrammetric<br />
Engineering & Remote Sensing.<br />
De Jong S.M., 1994a, Applications of Reflective Remote Sensing for Land Degradation Studies in a<br />
Mediterranean Environment. Netherlands Geographical Studies 177, KNAG Utrecht, 240pp.<br />
De Jong S.M., 1994b, Derivation of Vegetative Variables from a Landsat TM Image for Erosion<br />
Modelling. Earth Surface Processes and Landforms, Vol.19, pp.165-178.<br />
De Jong S.M., 1993, An Application of Spatial Filtering Techniques for Land Cover Mapping Using<br />
TM-images. Geocarto International, Vol.8, pp. 43-50.<br />
De Jong S.M. & H.TH. Riezebos, 1991, Use of a GIS-database to Improve Multispectral Image<br />
Classification Accuracy. Proc. EGIS, 2-5 April, Brussels, pp. 503-508.<br />
Elvidge C.D., 1990, Visible and Near-Infrared Reflectance Characteristics of Dry Plant Materials.<br />
International Journal of Remote Sensing, Vol.11, pp.1775-1795.<br />
ERDAS Inc., 1993, Field Guide and User.s Manual ERDAS, Atlanta USA.<br />
ESA, 1993, ERS Users Handbook, Revision 1. ESA technical Report SP-1148, Estec, Noordwijk.<br />
FAO, 1993, Radar imagery: theory and interpretation. RSC series No.67. Food and Agricultural<br />
Organization, Rome.<br />
Galli de Paratesi S. & P. Reiniger (Eds.), 1987, Heat Capacity Mapping Mission. Investigation No.25<br />
Tellus Project. Technical Report JRC, Ispra. 110<br />
Goel, N.S. (1989), Inversion of Canopy Reflectance Models for Estimation of Biophysical<br />
Parameters from Reflectance Data. In: G. Asrar Ed., Theory and Applications of Optical Remote<br />
Sensing. Wiley, New York, pp. 205-251.<br />
Goetz A.F.H., G. Vane, J.E. Solomon & B.N. Rock, 1985, Imaging Spectrometry for Earth Remote<br />
Sensing. Science Vol. 228, pp. 1147-1153.<br />
Graetz R.D. (1990), Remote Sensing of Terrestrial Ecosystem Structure: An Ecologist.s Pragmatic<br />
View. In: R.J. Hobbs & H.A. Mooney, Remote Sensing of Biosphere Functioning. Ecological<br />
Stduies 79. Spriger-Verlag, New York. pp. 5-30.<br />
Guyot G., F. Baret & S. Jacquemoud, 1992, Imaging Spectroscopy for Vegetation Studies. In: F.<br />
Toselli & J. Bodechtel, Imaging Spectroscopy: Fundamentals and Prospective Applications.<br />
Kluwer Academic, Dordrecht, pp.145-165.<br />
Hansen R.F., 2001, Radar Interferometry: Data Interpretation and Error Analysis. Kluwer Academic<br />
Publishers, Dordrecht.308 pp.<br />
Huete A.R., 1989, Soil Influences in Remotely Sensed Vegetation Canpoy Spectra. In: G. Asrar<br />
(Ed.), Theory and Applications of Optical Remote sensing. Wiley & Sons, New York, pp.107-<br />
141.<br />
Hunt G.R. & J.W. Salisbury, 1976, Visible and Near Infrared Spectra of Minerals and Rocks: XI.<br />
Sedimentary Rocks. Modern Geology, Vol.5, pp. 211-217.
Hunt G.R. & J.W. Salisbury, 1971, Visible and Near Infrared Spectra of Minerals and Rocks: II.<br />
Carbonates. Modern Geology, Vol.2, pp.23-30.<br />
Janssen L.L.F., 1994, Methodology for Updating Terrain Object Data from Remote sensing Data.<br />
Thesis, Agriculture University Wageningen. 173 pp.<br />
Kaufman Y.J., 1989, The Atmospheric Effect on Remote sensing and its Correction. In: G. Asrar<br />
(Ed.), Theory and Applications of Optical Remote sensing. Wiley & Sons, New York, pp.336-<br />
428.<br />
Kaufman Y.J. & C. Sendra, 1988, Algorithm for Automatic Atmospheric Corrections to Visible and<br />
Near-Infrared Satellite Imagery. Int. Journal of Remote Sensing 9, pp. 1357-1381.<br />
Kauth R.J. & G.S. Thomas, 1976, The Tasseled Cap, a Graphic Description of the Spectraltemporal<br />
Development of Agricultural Crops as Seen by Landsat. Proc. Symp. Machine Processing of<br />
Remotely Sensed Data. Purdue University, West Lafayette, Indiana, pp.41-51.<br />
Kloosterman E.H., H.T.C. van Stokkom & R.W.L. Jordans, 1991, Bruikbaarheid van de CAESARscanner<br />
voor Operationele Vegetatiekartering. BCRS-rapport 91-39, Delft.<br />
Kenizys F.X. et al., 1988, User.s Guide to LOWTRAN7, AFGL-TR-88-0177, Environmental Research<br />
Paper No. 1010, Airforce Geophysics Laboratory, Hanscom AFB, Massachusetts.<br />
Kruse F.A., Kierein-Young K.S. & Boardman J.W., 1990, Mineral Mapping at Cuprite, Nevada with a<br />
63-Channel Imaging Spectrometer. Photogrammetric Engineering & Remote Sensing, Vol.56,<br />
pp. 83-92.<br />
Markham B.L. & J.L. Baker, 1986, EOSAT Landsat Technical Notes No.1. EOSAT, Lanham,<br />
Maryland, pp.1-8.<br />
Markham, B.L. & J.L. Baker, 1985, Spectral Characterization of the Landsat Thematic Mapper<br />
Sensors. International Journal of Remote Sensing, Vol.6, pp.697-716.<br />
Menenti M., 1993, Contribution of Remote Sensing to the Management of Water in Arid Areas. 111<br />
In: H.J. Buiten & J.G.P.W. Clevers (Eds.), Land Observation by Remote Sensing: Theory and<br />
Applications Pudoc, Wageningen, pp.385-401.<br />
Menenti M., 1980, Physical Aspects and Determination of Evaporation in Deserts Applying Remote<br />
Sensing Techniques. PhD-thesis & Report 10 DLO Staring Centrum, Wageningen.<br />
Moen J.P., F.J.M. van der Wel, J.T. de Smidt, L.L. Vels & D.J. Harms, 1991, Monitoring van<br />
Heidevergrassing met behulp van Remote Sensing en een Geografisch Informatiesysteem<br />
(HEIMON). BCRS rapport 91-12, Delft.<br />
Mulders M.A., 1987, Remote Sensing in Soil Science. Developments in Soil Science 15. Elsevier,<br />
Amsterdam, 379 pp.<br />
Nieuwenhuis G.J.A., 1993, Agrohydrological Applications of Remote Sensing. In: H.J. Buiten &<br />
J.G.P.W. Clevers (Eds.), Land Observation by Remote Sensing: Theory and Applications Pudoc,<br />
Wageningen, pp.373-384.<br />
Nieuwenhuis G.J.A., E.H. Smidt & H.A.M. Thunissen, 1985, Estimation of Regional<br />
Evapotranspiration of Arable Crops from Thermal Infrared Images. International Journal of<br />
Remote Sensing 6, pp.1319-1334.<br />
Peterson D.L., J.D. Aber, P.A. Matson, D.H. Card, N. Swanberg, C. Wessman & M. Spanner, 1988,<br />
Remote Sensing of Forest Canopy and Leaf Biochemical Contents. Remote Sensing of<br />
Environment 24, pp.85-108.
Pieters C.M. & P.A.J. Englert (Eds.), 1993, Remote Geochemical Analysis: Elemental and<br />
Mineralogical Composition. Cambridge University Press, Cambridge. 594 pp. Reeves R.G. (Ed.),<br />
1975, Manual of Remote Sensing. ASPRS, Falls Church.<br />
Rosenfield G.H. & K. Fitzpatrick-Lins, 1986, A Coefficient of Agreement as a Measure of Thematic<br />
Classification Accuracy. Photogrammetric Engineering & Remote sensing, Vol.52, pp. 223-227.<br />
Rubin T.D., 1993, Spectral Mapping with Imaging Spectrometers. Photogrammetric Engineering &<br />
Remote sensing, Vol.59, pp. 215-220.<br />
Sellers P.J., 1989, Vegetation-Canopy Spectral Reflectance and Biophiscal Processes. In: G. Asrar<br />
(Ed.), Theory and Applications of Optical Remote sensing. Wiley & Sons, New York, pp.297-<br />
335.<br />
Strahler A.H., 1980, The Use of Prior Probabilities in Maximum Likelihood Classification of Remotely<br />
Sensed Data. Remote Sensing of Environment 10, pp.135-163.<br />
Tanré D., C. Deroo, P. Duhaut, M. Herman, J.J. Morcette, J. Perbos & P.Y. Deschamps, 1985,<br />
Effects Atmosphérique en Télédetection, Logiciel de Simulation du Signal Satéllitaire dan le<br />
Spectre Solaire. Proc. 3rd Int. Coll. on Spectral Signatures of Objects in Remote Sensing, 16-<br />
20 December, Les Arcs, pp.315-319.<br />
Thunissen H., R. Olthof, P. Getz & L. Vels, 1991, Grondgebruiksdatabank van Nederland met<br />
behulp van Landsat Thematic Mapper Opnamen. BCRS rapport 91-32, Delft.<br />
Tucker C.J., 1979, Red and Photographic Infrared Linear Combinations for Monitoring Vegetation.<br />
Remote Sensing of Environment 8, pp.127-150.<br />
Tucker C.J., J.A. Gatlin & S.R. Schneider, 1984, Monitoring Vegetation in the Nile Delta with NOAA-<br />
6 and NOAA-7 AVHRR imagery. Photogrammetric Engineering and Remote Sensing 50, pp. 53-<br />
61. 112<br />
Tucker C.J., C.O. Justice & S.D. Prince, 1986, Monitoring the Grasslands of the Sahel 1984- 1985.<br />
Int. J. Remote sensing 7 (11): 1571-1581.<br />
Vane G. & A.F.H. Goetz, 1988, Terrestrial Imaging Spectroscopy. Remote Sensing of Environment<br />
24, pp.1-29.<br />
Woodcock C.E., A.H. Strahler & D.L.B. Jupp, 1988a, The Use of Semivariograms in Remote<br />
Sensing: I. Scene Models and Simulated Images. Remote Sensing of Environment 25, pp.323-<br />
248.<br />
Woodcock C.E., A.H. Strahler & D.L.B. Jupp, 1988b, The Use of Semivariograms in Remote<br />
Sensing: II. Real Digital Images. Remote Sensing of Environment 25, pp.349-379.<br />
4.5 Online Tutorials:<br />
http://priede.bf.lu.lv/gis/Descriptions/Remote_Sensing/An_Online_Handbook/<br />
http://www.fpk.tu-berlin.de/manuals/fernerkundung/<br />
http://ivvgeo.uni-muenster.de/Vorlesung/FE_Script/Start.html<br />
http://www.sbg.ac.at/geo/idrisi/wwwtutor/tuthome.htm<br />
http://www.ccrs.nrcan.gc.ca/ccrs/learn/tutorials/fundam/chapter1/chapter1_1_e.html