Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
<strong>Night</strong> <strong>Vision</strong><br />
Mojgan Mohajer<br />
FU-Berlin Sommer 2005
<strong>Night</strong> <strong>Vision</strong><br />
Mojgan Mohajer<br />
FU-Berlin Sommer 2005
<strong>Night</strong> <strong>Vision</strong><br />
Mojgan Mohajer<br />
FU-Berlin Sommer 2005
<strong>Night</strong> <strong>Vision</strong><br />
Mojgan Mohajer<br />
FU-Berlin Sommer 2005
Inhalt<br />
• Motivation<br />
• Grundlagen<br />
• <strong>Night</strong>-vision Technologien<br />
• Vergleich NIR-FIR<br />
• Image fusion<br />
• Literatur
Motivation<br />
• Auto-Verkehr<br />
– Autonome Fahrzeuge<br />
– Mehr Sicherheit:<br />
• Etwa 50% der tödlichen Verkehrs-Unfälle in der USA und in Europa<br />
finden in der Nacht statt.<br />
– Schneller Fahren:<br />
• Erweiterte Sichtweite in Nacht<br />
• Militär<br />
• Kriminalistik
Grundlagen
Das Licht
Infrarot Licht<br />
• Nah-Infrarot<br />
– 0,7 bis 1,3 µm<br />
• Mittel-Infrarot<br />
– 1,3 bis 3 µm<br />
• Fern-Infrarot<br />
– 3 bis 30 µm (thermische Strahlung)
<strong>Night</strong>-<strong>Vision</strong>-<br />
Technologien
Allgemeine Einteilung<br />
• „Image enhancement“<br />
• „Thermal imaging“<br />
oder<br />
• „Active infrared“<br />
• „Passive infrared“
Alternative Verfahren<br />
- Ultraviolet oder "black lights„<br />
„reflect fluorescent materials“<br />
- New adaptive headlights:<br />
„...Ford's adaptive headlamp technology uses digitally<br />
controlled beams to dynamically adjust the light pattern<br />
according to driving conditions, safety requirements, or<br />
driver preferences...“
Image Enhancement
<strong>Night</strong> <strong>Vision</strong> Geräte (NVD) mit Bild-Verstärkung<br />
Generation 1 Generation 2 Generation 3 Generation 4
Thermal Imaging
Was ist technisch erreichbar?<br />
• Bild-Rate:<br />
30 Bilder pro Sekunde<br />
• Einsatz-Bereich: 20°C bis 2000°C<br />
• Temperatur-Auflösung: 0.2°C
Sensoren für Thermal Imaging<br />
• Nicht-gekühlt<br />
• Tief-gekühlt<br />
– unterhalb 0°C.<br />
– erhöhte Auflösung<br />
– 0.1°C bei mehr als 300 m Entfernung.
Passive Infrared<br />
Passive Systeme basieren auf Fern-Infrared (FIR)-<br />
Detektoren, die die Wärmestrahlung der Objekte<br />
nachweisen.
Anwendungs-Beispiele
Active Infrared<br />
- NIR-Beleuchtung (fürs Auge unsichtbar).<br />
- im Auto als Fern-Licht<br />
- NIR-Kamera
NIR-Systeme
Licht-Quellen für NIR<br />
1. Glühbirne: 110 Volt (Hoch-Spannung) oder<br />
28 Volt (Nieder-Spannung).<br />
2. LED: licht emittierende Diode<br />
3. Laser: kontinuierlich oder gepulst
Vergleich zwischen<br />
Passiv-und Aktiv-Infrarot
aktiv-Infrarot<br />
passiv-Infrarot
NIR ist für Gesicht-Erkennung mehr geeignet
FIR ist für viele Materialien nicht transparent
• NIR-Systeme werden bezüglich Effektivität, System-<br />
Integration und Kosten immer günstiger<br />
• Texte, Buchstaben und Nummer lassen sich bei NIR-<br />
Systeme besser auflösen als bei FIR-Systeme
Eigenschaften von Passiv-Infrarot-Systeme<br />
• Weniger effektiv in heiße Umgebungen (Wüste)<br />
• Bei Erkennung von heißen Objekten in kalte Umgebungen sehr<br />
geeignet.<br />
• Weniger effektiv beim Regen und Nebel<br />
• Schlechte Auflösung (typischerweise 320x240 Pixel).<br />
• Für die Identifikation von Texten oder Nummern ungeeignet.<br />
• Kann von andere IR-empfindliche Systeme nicht beobachtet<br />
werden.
Eigenschaften von Aktiv-Infrarot-Systeme<br />
• Die IR-LEDs können gepulst angewendet werden.<br />
Eine schnelle Modulation und synchronization mit<br />
Kameras für schnelle Video-Aufnahmen ist<br />
möglich.<br />
• Intelligente Bildanalyse-Programme operieren mit<br />
aktiven IR-Systeme besser.
Passive oder Active<br />
• Die thermische IR ist für Detektion von lebendigen<br />
Objekten geeignet. Die aktive IR ermöglicht die<br />
Erkennung der Details.<br />
• Die Kombination vom thermischen IR mit Radar wird in<br />
Zukunft durch Systeme mit aktivem IR und Radar<br />
ersetzt.
Image-Fusion
Image Fusion<br />
- 2 Sensoren, 2 Bilder<br />
- Komplimentäre Bild-Informationen<br />
- Ausnutzung der Vorteile<br />
- Kompensation der Nachteile<br />
- Beispiel: NIR+FIR
Fusion von SW-Bilder<br />
Input 1 Input 2 Output
Fusion von Farb-Bilder<br />
I/P 1 I/P 2<br />
Orig<br />
-inal<br />
O/P
Pyramiden-basierte Verfahren<br />
Daten-<br />
Expansion<br />
Daten-<br />
Reduktion<br />
2.Level<br />
1. Pyramiden-Level<br />
Original-Bild
Pyramiden-Transformation nach Laplace
Pyramiden-Transformation nach RoLP
Grund-Idee der Pyramiden-basierte Bild-Fusion<br />
zusammengesetztes Bild<br />
Inverse PT<br />
PT<br />
Fusion in Top-Level<br />
Pyramiden<br />
Transform.<br />
(PT)<br />
Bild 1 Bild 2
Pyramiden-basierte Bild-Fusion<br />
1. Pyramiden-Transformation der einzelnen Bilder<br />
2. Komposition der transformierten Bilder in Top-<br />
Level<br />
3. Inverse Pyramiden-Transformation des<br />
kompositionierten Bildes
Gaußsche Pyramide<br />
Gk (i,j) = I (i,j) für k=0<br />
Gk (i,j) = [ω ⊗ Gk-1 (i,j)] ↓2 für k>0<br />
mit:<br />
I(i,j) Original-Bild<br />
Gk(i,j) k-tes Level der Gaußsche Pyramide<br />
ω<br />
Filter<br />
[ ] ↓2 Daten-Reduktion um Faktor 2x2<br />
(Sub-Sampling)
Laplacesche Pyramide<br />
mit:<br />
Lk (i,j) = Gk (i,j) - 4ω ⊗ [Gk+1 (i,j)] ↑2<br />
Lk(i,j) k-tes Level der Laplace-sche Pyramide<br />
Gk(i,j) k-tes Level der Gaußsche Pyramide<br />
ω<br />
Filter<br />
[ ] ↑ 2 Daten-Expansion um Faktor 2x2<br />
(Up-Sampling)
Top-Level-Bild-Fusion<br />
G’N = Mittelwert( G1N, G2N )<br />
G1N : Top-Level;<br />
G2N : Top-Level;<br />
1. Bild<br />
2. Bild<br />
G’N :<br />
Top-Level-Fusion
Rekonstruktion des Bildes<br />
L’k = f( L1k, L2k )<br />
G’k (i,j) = L’k (i,j) - 4[ω ⊗ G’k+1 (i,j)] ↑2<br />
mit:<br />
G’k(i,j)<br />
L’k(i,j)<br />
k-tes Level der rekonstruierte<br />
Gaußsche Pyramide<br />
k-tes Level der rekonstruierte<br />
Laplace-Pyramide<br />
Die Funktion f bestimmt die Fusions-Art.
Einteilung der Pyramiden-Basierte Bild-Fusion<br />
• Pixel-Based Fusion<br />
• Laplacian-Pyramid f = max. Intensität<br />
• RoLp-Pyramid f = lokaler max. Kontrast<br />
• Gradient-Pyramid<br />
• Region-Based Fusion<br />
• Feature-Based Fusion<br />
• Wavelet-Based Fusion
Pixel-Based Image Fusion
Region-Based Image Fusion
Danke für Ihre<br />
Aufmerksamkeit
Literatur<br />
• Passive <strong>Night</strong> <strong>Vision</strong> Sensor Comparison for Unmanned Ground Vehicle Stereo <strong>Vision</strong> Navigation<br />
K. Owens, L. Matthies<br />
• <strong>Night</strong> <strong>Vision</strong>: Infrared Takes to the Road<br />
M. J. Potel, www.wildcrest.com<br />
• CCDing in the <strong>Night</strong><br />
IEEE SPECTRUM MAY 1992<br />
• Far/Near Infrared Adapted Pyramid-Based Fusion for Automotive <strong>Night</strong> <strong>Vision</strong><br />
F.Jahard, D.A. Fish, A.A. Rio, C.P. Thompson<br />
• A Wavelet Package-Base Data Fusion Method for Multitemporal Remote Sensing Image<br />
Processing<br />
Qu Jishuang, Wang Chao, 22nd Astan Conference on Remote Sensing 5-9 November 2001, Singapore<br />
• Generalised Laplancian Pyramid-Based Fusion of MS + P Image Data with Spectral Distortion<br />
Minimisation<br />
B.Aiazzi, L. Alparone, S. Baronti, I. Pippi, M. Selva<br />
• Region- Based Image Fusion Using Complex Wavelets<br />
J.J. Lewis, R.J. O‘Callaghan, S.G. Nikolov, D.R. Bull, C.N. Canagarajah
Literatur<br />
• American Technologies Network Corporation<br />
www.atncorp.com<br />
• How <strong>Night</strong> <strong>Vision</strong> Works<br />
Jeff Tyson www.howstuffworks.de<br />
• Car industry drives down the cost of night vision<br />
Opto & Laser Europe January 2005<br />
• Army Seeks to Upgrade <strong>Night</strong>-<strong>Vision</strong> Goggles<br />
Michael Peck, NDIA‘s Business & Technology Magazine<br />
• New Headlights Sharpen <strong>Night</strong>-<strong>Vision</strong><br />
Cathy Nikkel, www.autoMedia.com<br />
• The Eye and <strong>Night</strong> <strong>Vision</strong><br />
Robbert E. Miller, Thomas J. Tredici, www.aoanet.org
ENDE