16.08.2013 Aufrufe

Objektorientierte Daten- und Zeitmodelle für die Echtzeit ...

Objektorientierte Daten- und Zeitmodelle für die Echtzeit ...

Objektorientierte Daten- und Zeitmodelle für die Echtzeit ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

78 KAPITEL 5. ZEITASPEKTE IN DER BILDFOLGENAUSWERTUNG<br />

Während <strong>die</strong>ser Phase wartet der Sensor auf seine Eingangsdaten. Wird auf alle Eingangsdaten<br />

asynchron zugegriffen <strong>und</strong> stehen <strong>die</strong>se kontinuierlich oder durch einen vorhergehenden<br />

Sensoraufruf bereits zur Verfügung, muß nicht gewartet werden <strong>und</strong> <strong>die</strong>se<br />

Phase entfällt. Anderenfalls synchronisiert sich der Sensor durch <strong>die</strong>se Phase mit seinen<br />

Eingangssensoren.<br />

Sensordatenabruf:<br />

<br />

Ø Ø <br />

ØØ <br />

ØÓ <br />

<br />

℄ <br />

Ø <br />

Ø<br />

In <strong>die</strong>ser Phase erhält der Sensor von seinen Eingangssensoren <strong>die</strong> angeforderten <strong>Daten</strong><br />

oder eine Referenz darauf. Die beiden Phasen Sensordatenanforderung <strong>und</strong> -abruf müssen<br />

<strong>für</strong> jeden Eingangssensor durchlaufen werden. Sie können nacheinander, Sensor <strong>für</strong><br />

Sensor, abgearbeitet werden, oder es werden zuerst alle Eingangsdaten asynchron angefordert<br />

<strong>und</strong>, sobald <strong>die</strong> <strong>Daten</strong> anliegen, abgefragt.<br />

<strong>Daten</strong>bearbeitung:<br />

<br />

Ó Ó <br />

ØÓ <br />

ØÔÓ×Ø <br />

<br />

℄ <br />

Ó <br />

Ó<br />

Die meisten (logischen) Sensoren führen eine gewisse Aufbereitung, Modifizierung, Filterung<br />

oder Auswertung der Eingangsdaten durch, was in <strong>die</strong>ser Phase erfolgt.<br />

Nachbearbeitung:<br />

<br />

ÔÓ×Ø ÔÓ×Ø <br />

ØÔÓ×Ø <br />

ØÐÚ <br />

<br />

℄ <br />

ÔÓ×Ø <br />

ÔÓ×Ø<br />

Schließlich müssen <strong>die</strong> ermittelten <strong>Daten</strong> softwaretechnisch so aufbereitet werden, daß<br />

andere Komponenten darauf zugreifen können. In der Nachbearbeitungsphase können<br />

daher entsprechende Sequenzwertobjekte erzeugt <strong>und</strong> in <strong>Daten</strong>sequenzen bereitgestellt<br />

werden. Außerdem kann z.B. eine statistische Auswertung des Sensorzugriffs erfolgen.<br />

Schließlich fallen in <strong>die</strong>se Phase auch Aktionen, <strong>die</strong> mit allen neu ermittelten Sensordaten<br />

auszuführen sind. Das kann beispielsweise das Protokolieren der <strong>Daten</strong>, deren Darstellung<br />

auf dem Bildschirm oder deren Verschicken in einem Netzwerk beinhalten.<br />

Zu beachten ist, daß <strong>die</strong> Phasen, <strong>die</strong> in erster Linie dem <strong>Daten</strong>- oder Aufrufmanagement<br />

<strong>die</strong>nen (ÔÖ , ÔÓ×Ø <strong>und</strong> u.U. auch Ø), i.d.R. deutlich weniger Rechenzeit in Anspruch nehmen<br />

als <strong>die</strong> eigentliche <strong>Daten</strong>verarbeitung (Ó) oder auch <strong>die</strong> Synchronisation mit den Eingangsdaten<br />

(ÖÕÙ). Für <strong>die</strong> Gesamtrechenzeit der Sensoroperatoren sind daher in erster Linie <strong>die</strong> zuletzt<br />

genannten Phasen von Bedeutung.<br />

Abb. 5.3 illustriert anhand des Einlesens von Bildern mit Hilfe einer konventionellen Videokamera<br />

<strong>und</strong> eines Framegrabbers <strong>die</strong> einzelnen Sensorphasen <strong>und</strong> das Zusammenspiel der<br />

verschiedenen Sensorebenen bei einem synchronen <strong>Daten</strong>zugriff. Dargestellt werden <strong>die</strong> Sensorebenen:<br />

CCD-Chip (Ladungen entsprechend des optischen Abbilds), DA-Wandler der Kamera<br />

(Videosignal), Framegrabber (digitale Bildmatrix) <strong>und</strong> Kamerabildfolge (Softwarerepräsentation).<br />

Dabei kann jede <strong>die</strong>ser Ebenen wiederum selbst als ein Sensor betrachtet werden.<br />

Auf der untersten Ebene befindet sich der CCD-Chip, der als physikalischer Meßfühler<br />

ein optisches Abbild der Szene zuerst in elektrische Ladungen <strong>und</strong> dann in Spannungswerte<br />

umwandelt ­ . Ein Shutter sorgt <strong>für</strong> eine definierte Belichtungszeit. Nach der Belichtung eines<br />

Halbbildes werden <strong>die</strong> Ladungswerte ausgelesen <strong>und</strong> zwischengespeichert, bevor das Bild vom<br />

DA-Wandler der Kamera zeilen- <strong>und</strong> pixelweise in ein analoges Videosignal umgewandelt wird<br />

­ . Währenddessen wird bereits das nächste Halbbild belichtet.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!