03.01.2013 Aufrufe

Schriftliche Ausarbeitung herunterladen

Schriftliche Ausarbeitung herunterladen

Schriftliche Ausarbeitung herunterladen

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

4.2. BEREITSTELLUNG DER MODELLDATEN 47<br />

4.2.2 Darstellung des Gebäudemodells<br />

Die Darstellung komplexer 3D-Modelle wird üblicherweise durch den Einsatz einer ausgereiften 3D-<br />

Rendering-Engine übernommen. Diese setzen häufig einen Szenengraphen ein um die Szene möglichst<br />

effizient zu rendern. Verdeckung, „View-Frustum-Culling“, „Level-Of-Detail“ und viele andere Berechnungen<br />

werden vorab direkt auf dem Szenengraphen ausgeführt, damit nur die minimal nötige Anzahl an<br />

Vertices von der Grafikkarte dargestellt werden muss. Zudem wird eine schnelle Berechnung von Kollisionen<br />

und Schnittpunkten von Geraden mit der Szene ermöglicht. Das in Abschnitt 2.3.9 vorgestellte<br />

OpenSceneGraph-Toolkit stellt eine Opensource-Implementierung einer hochperformaten Rendering-<br />

Engine zur Verfügung. Diese wird in der hier vorgestellten Arbeit zur Simulation der Umgebung eingesetzt<br />

indem der in den OpenSceneGraph-Quellen enthaltene Viewer so erweitert wird, dass er die<br />

Distanzmessung des Sensormoduls im 3D-Gebäudemodell simuliert. Dies ermöglicht den Vergleich mit<br />

den real gemessenen Sensordaten. Die Locator genannte Implementierung der Navigationsassistenz-<br />

Software rendert die Szene zur grafischen Visualisierung der Positionsbestimmung aus Sicht einer virtuellen<br />

Kamera. Abbildung 4.11 (a) zeigt einen Raum im Informatikgebäude aus Sicht der simulierten<br />

Kamera. Zur besseren Informationsvisualisierung der Positionsbestimmungn, wird zudem eine Außenansicht<br />

der Szene gerendert, wie sie in Abbildung 4.11 (b) dargestellt ist. Diese zeigt die Position der<br />

virtuellen Kamera im Gebäude.<br />

Der Locator verbindet die in den folgenden Abschnitten beschriebenen Implementierungen zur Selbstlokalisation<br />

und Erkennung von modellierten Hindernissen und gibt das Feedback an den Benutzer grafisch<br />

zurück. Später soll auf eine grafische Ausgabe verzichtet werden und alle Berechnungen direkt auf<br />

dem Szenengraphen ausgeführt werden können. Die dargestellten Navigationshinweise könnten dann<br />

über eine Text-zu-Sprache Software wiedergegeben werden. Eine ausführliche Bedienungsanleitung mit<br />

allen Tastaturkürzeln findet sich in Anhang A.3.<br />

a) Aus Sicht der virtuellen Kamera b) Außenansicht der gerenderten Szene<br />

gerendertes 3D-Modell<br />

Abbildung 4.11: Darstellung des gerenderten 3D-Modells. Abbildung (a) zeigt die Szene aus Sicht der<br />

virtuellen Kamera, Bild (b) zeigt eine Außenansicht der gerenderten Szene.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!