Aufrufe
vor 5 Jahren

8 Werkzeuge f¨ur Rapid Prototyping mit verteilten Soft - tuprints

8 Werkzeuge f¨ur Rapid Prototyping mit verteilten Soft - tuprints

8.2 Regelgestützte

8.2 Regelgestützte Inferenz und Virtuelle Umgebungen Viele Ambient-Intelligence-Szenarios beschreiben die Reaktivität von Räumen – bzw. der in einem Raum befindlichen Geräten – auf äußere Einflüsse. So beschreibt ein Anwendungsszenario im Projekt DYNAMITE (vgl. Kapitel 2.1.13) die Präsentation eines Vortrages in einem bis dato für den Vortragenden unbekannten Hörsaal. Allein durch das Aufstehen von einem bestimmten Sitz und dem Herangehen an das Vortragspult soll hier eine entsprechende Präsentation gestartet werden. Zuvor muss der Raum selbstständig den Projektor anschalten, das Signal des vom Vortragenden mitgebrachten Laptops auf den Projektor schalten und passend zum Vortragsambiente die Beleuchtung im Raum und die Raumverdunkelungen einstellen. Szenarios solcher Art basieren auf dem Zusammenspiel von Sensordaten – z. B. Drucksensoren auf dem Fußboden, Drucksensoren in Stühlen, Positionierungen – und dem daraus erfolgenden intelligenten Ansteuerns von Gerätefunktionen. So löst in dem eben geschilderten Beispiel die Ereigniskette, die aus den Events eines Stuhlsensors und mehreren Drucksensoren auf dem Fußboden besteht, die Funktionsaufrufe zur Verdunkelung des Raumes, Verdunkelung des Lichts, Starten des Projektors, Schaltung des VGA-Anschlusses des Laptops und Starten der Präsentation aus. Abbildung 114 illustriert die für das eben beschriebene reaktive Raumverhalten notwendige minimale Komponententopologie unter Verwendung der in Abbildung 73 aus Kapitel 6.2 definierten Basistopologie für Ambient-Intelligence-Szenarios. Die Ereignisse, die von mehreren im Raum befindlichen Sensoren registriert und versendet werden, werden von mindestens einer geeigneten Interpreterkomponente ausgewertet und zu passenden Funktionsaufrufen umgewandelt. Diese können dann von den im Raum befindlichen Geräten (z. B. Lampen, Rollladen, Projektoren, etc.) ausgeführt werden. Hierbei senden Raumsensoren Ereignisse auf den Ereigniskanal und Interpreterkomponenten Funktionsaufrufe mittels Remote Procedure Calls auf den Funktionskanal. Die Pfeilrichtungen in Abbildung 114 geben somit die Hauptrichtung der Information (vgl. Kapitel 6) wieder und entsprechen nicht den Konventionen aus Kapitel 4 bzw. Kapitel 5. Vielfach sind in mehreren Räumen von Gebäuden schon anzusteuernde Geräte vorhanden. So verfügt das Gebäude in welchem sich das Fraunhofer-Institut für Graphische Datenverarbeitung befindet über mehrere Besprechungsräume (z. B. Raum 220 im zweiten Obergeschoss) oder auch einen Hörsaal (Raum 074 im Erdgeschoss) welche über Projektoren, VGA-Anschlüsse für Laptops, aber auch unterschiedliche Beleuchtungseinrichtungen oder Rollladenvorrichtungen verfügen. Jedoch ist keine sensorische Installation im Sinne von Positionierungserkennung, Drucksensoren oder Ähnlichem vorhanden. Die Reaktivität solcher Räume kann somit nicht ohne Weiteres erprobt werden. Die Festinstallation von Sensorik in einem Raum ist kosten- und zeitintensiv, zumal davon auszugehen ist, dass die Platzierung von Raumsensoren erprobt und evaluiert werden muss. Ebenso ist von Anfang an weder die Art der Sensoren noch deren Anzahl klar. Im Rahmen dieser Arbeit wurde exemplarisch für einen im Haus der graphischen Datenverarbeitung befindlichen realen Besprechungsraum (Raum 220) auf Basis dreidimensionaler Visualisierung des Raumes eine Umgebung zum Rapid Prototyping realisiert und erprobt [208]. Dessen Verwendung wird im folgenden Kapitel 8.2.1 besprochen. Zur Realisierung des intelligenten Verhaltens wird in Kapitel 8.2.2 die Spezifikation und Imple- 223

Abbildung 114: Komponententopologie für die Realisierung der Minimalfunktionalität eines intelligenten Vortrags- bzw. Besprechungsraumes. mentation einer regelgestützten Komponente beschrieben. Mit Hilfe dieser Komponente ist ein Entwickler in der Lage das Verhalten eines Raumes auf Basis von Kontextdaten und sensorischen Ereignissen zu definieren. Zuletzt beschreibt Kapitel 8.2.3 und Kapitel 8.2.4 die Ansteuerung der real im Raum befindlichen Geräte und illustriert einige Beispiele. 8.2.1 Sensorik und Eingabekomponenten Vielfach sind in einem Raum schon mehrere unterschiedliche Geräte vorhanden. Abbildung 115 links zeigt den Raum 220 im Gebäude des Fraunhofer-Instituts für Graphische Datenverarbeitung. Dieser Raum verfügt über einen Hintergrundprojektor, zwei getrennt anzusteuernde Beleuchtungseinrichtungen (Raumlicht und Lampen an der Projektionsfläche) und einen elektrisch zu bedienenden Rollladen. Er verfügt jedoch über keine sensorischen Einrichtungen. Am Beispiel dieses Raumes kann sehr deutlich veranschaulicht werden, dass die Installation von sensorischen Komponenten neben der Kostenintensität vor allem zeitaufwändig wäre. Sensoren müssten im Raum sowohl installiert als auch in der Anwendung erprobt werden. Dies würde den Besprechungsraum für eine geraume Zeit für den täglichen Betrieb unbrauchbar machen. Auch ist das Hinzufügen und Entfernen von Sensoren in der Realität beschwerlich 83 . Die Anwendung graphischer Datenverarbeitung kann hier zum Zwecke des Rapid Prototyping sowohl zeit als auch kostensparend eingesetzt werden. Abbildung 115 rechts zeigt eine zweckmäßige Visualisierung des Raumes 220 auf Basis der Virtual Reality Modeling Language (VRML) 84 . Zur Realisierung wurde hierzu VRML ausgewählt, da die entsprechenden Dateien, die den graphischen Objektbaum der VRML-Welten beschreiben, in Java 3D exportierbar 83 Dies betrifft nicht nur die rein physikalische Installation, sondern auch die den unterschiedlichsten Sensoren zugrunde liegenden Software- und Hardwareschnittstellen. 84 Eine Spezifikation dieser Sprache ist z. B. auf der Internetpräsenz des Web 3D Konsortiums unter http://www.web3d.org/x3d/specifications/vrml/ (Stand Frühjahr 2007) zu finden. 224

eine infrastruktur f ¨ur das management von verteilten ... - DVS