Objektorientierte Daten- und Zeitmodelle für die Echtzeit ...
Objektorientierte Daten- und Zeitmodelle für die Echtzeit ...
Objektorientierte Daten- und Zeitmodelle für die Echtzeit ...
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
78 KAPITEL 5. ZEITASPEKTE IN DER BILDFOLGENAUSWERTUNG<br />
Während <strong>die</strong>ser Phase wartet der Sensor auf seine Eingangsdaten. Wird auf alle Eingangsdaten<br />
asynchron zugegriffen <strong>und</strong> stehen <strong>die</strong>se kontinuierlich oder durch einen vorhergehenden<br />
Sensoraufruf bereits zur Verfügung, muß nicht gewartet werden <strong>und</strong> <strong>die</strong>se<br />
Phase entfällt. Anderenfalls synchronisiert sich der Sensor durch <strong>die</strong>se Phase mit seinen<br />
Eingangssensoren.<br />
Sensordatenabruf:<br />
<br />
Ø Ø <br />
ØØ <br />
ØÓ <br />
<br />
℄ <br />
Ø <br />
Ø<br />
In <strong>die</strong>ser Phase erhält der Sensor von seinen Eingangssensoren <strong>die</strong> angeforderten <strong>Daten</strong><br />
oder eine Referenz darauf. Die beiden Phasen Sensordatenanforderung <strong>und</strong> -abruf müssen<br />
<strong>für</strong> jeden Eingangssensor durchlaufen werden. Sie können nacheinander, Sensor <strong>für</strong><br />
Sensor, abgearbeitet werden, oder es werden zuerst alle Eingangsdaten asynchron angefordert<br />
<strong>und</strong>, sobald <strong>die</strong> <strong>Daten</strong> anliegen, abgefragt.<br />
<strong>Daten</strong>bearbeitung:<br />
<br />
Ó Ó <br />
ØÓ <br />
ØÔÓ×Ø <br />
<br />
℄ <br />
Ó <br />
Ó<br />
Die meisten (logischen) Sensoren führen eine gewisse Aufbereitung, Modifizierung, Filterung<br />
oder Auswertung der Eingangsdaten durch, was in <strong>die</strong>ser Phase erfolgt.<br />
Nachbearbeitung:<br />
<br />
ÔÓ×Ø ÔÓ×Ø <br />
ØÔÓ×Ø <br />
ØÐÚ <br />
<br />
℄ <br />
ÔÓ×Ø <br />
ÔÓ×Ø<br />
Schließlich müssen <strong>die</strong> ermittelten <strong>Daten</strong> softwaretechnisch so aufbereitet werden, daß<br />
andere Komponenten darauf zugreifen können. In der Nachbearbeitungsphase können<br />
daher entsprechende Sequenzwertobjekte erzeugt <strong>und</strong> in <strong>Daten</strong>sequenzen bereitgestellt<br />
werden. Außerdem kann z.B. eine statistische Auswertung des Sensorzugriffs erfolgen.<br />
Schließlich fallen in <strong>die</strong>se Phase auch Aktionen, <strong>die</strong> mit allen neu ermittelten Sensordaten<br />
auszuführen sind. Das kann beispielsweise das Protokolieren der <strong>Daten</strong>, deren Darstellung<br />
auf dem Bildschirm oder deren Verschicken in einem Netzwerk beinhalten.<br />
Zu beachten ist, daß <strong>die</strong> Phasen, <strong>die</strong> in erster Linie dem <strong>Daten</strong>- oder Aufrufmanagement<br />
<strong>die</strong>nen (ÔÖ , ÔÓ×Ø <strong>und</strong> u.U. auch Ø), i.d.R. deutlich weniger Rechenzeit in Anspruch nehmen<br />
als <strong>die</strong> eigentliche <strong>Daten</strong>verarbeitung (Ó) oder auch <strong>die</strong> Synchronisation mit den Eingangsdaten<br />
(ÖÕÙ). Für <strong>die</strong> Gesamtrechenzeit der Sensoroperatoren sind daher in erster Linie <strong>die</strong> zuletzt<br />
genannten Phasen von Bedeutung.<br />
Abb. 5.3 illustriert anhand des Einlesens von Bildern mit Hilfe einer konventionellen Videokamera<br />
<strong>und</strong> eines Framegrabbers <strong>die</strong> einzelnen Sensorphasen <strong>und</strong> das Zusammenspiel der<br />
verschiedenen Sensorebenen bei einem synchronen <strong>Daten</strong>zugriff. Dargestellt werden <strong>die</strong> Sensorebenen:<br />
CCD-Chip (Ladungen entsprechend des optischen Abbilds), DA-Wandler der Kamera<br />
(Videosignal), Framegrabber (digitale Bildmatrix) <strong>und</strong> Kamerabildfolge (Softwarerepräsentation).<br />
Dabei kann jede <strong>die</strong>ser Ebenen wiederum selbst als ein Sensor betrachtet werden.<br />
Auf der untersten Ebene befindet sich der CCD-Chip, der als physikalischer Meßfühler<br />
ein optisches Abbild der Szene zuerst in elektrische Ladungen <strong>und</strong> dann in Spannungswerte<br />
umwandelt . Ein Shutter sorgt <strong>für</strong> eine definierte Belichtungszeit. Nach der Belichtung eines<br />
Halbbildes werden <strong>die</strong> Ladungswerte ausgelesen <strong>und</strong> zwischengespeichert, bevor das Bild vom<br />
DA-Wandler der Kamera zeilen- <strong>und</strong> pixelweise in ein analoges Videosignal umgewandelt wird<br />
. Währenddessen wird bereits das nächste Halbbild belichtet.